La teoría de Anthony Federico vuelve a estar de actualidad. Según ella, Google fue escrita en C y C++ usando ANSI C y Linux (aporta documentación liberada por la propia empresa). El buscador otorga a cada documento un número (un ID del que también hay papers), pero éste sólo puede tomar como valor máximo 4.294.967.296, que es 2 elevado a 32 (32 bites = 4 bytes). El error que se cometió fue asignar a este ID el tipo unsigned long (tipo de variable en lenguaje C que solamente puede tomar valores entre 0 y 4.294.967.296). La cuestión es que desde agosto del año pasado el buscador está indexando 4,285,199,774 web pages. Sólo durante ese agosto de 2.003, veintiun días, había crecido en 1.2 millones de páginas pero lleva un año sin alterarse. ¿Ha llegado al máximo de almacenamiento?.
Anthony Federico, que ya había formulado su teoría aunque no es nueva y que vuelve sobre ella en estos días, pone ejemplos de páginas no indexadas por Google pero que realmente existen. El ejemplo es apabullante. Una búsqueda sobre Cre8pc.com no devuelve resultados aunque la página en cuestión es perfectamente accesible. Por si quedaban dudas, aporta también liberty72.com a la que se puede llegar desde aquí. Además, afirma que pudiera darse el caso de páginas que se añaden y producen que otras se pierdan o, al menos, parte de sus enlaces lo hagan. Lo que es aún más preocupante es que hemos podido comprobar esta ausencia con nuestras propias páginas de reciente creación y algunas páginas ya apuntan que algo raro ocurre.
¿Hay solución?. Según esta teoría seguro que la hay pero advierte de su dificultad de llevar a la práctica debido a los 15.000 servidores que tiene Google y los 4200 millones de documentos a convertir.
Fuente: (link roto) y W3Reports