Menú
Daniel Rodríguez Herrera

Búsqueda distribuida

0
El éxito de Google ha llevado a algunos a criticarlo, a los más a disfrutarlo y a sus competidores a buscarse las castañas para procurar desbancarlo. No lo tienen fácil. Actualmente es el primero tanto en número de páginas incorporadas a su base de datos como en la pertinencia de sus resultados. Se critican sus políticas de protección de la privacidad y el almacenamiento en la caché, tan problemático para destruir pruebas tal y como pudo comprobar IU hace unas semanas.

Hace un par de años nació un pequeño proyecto llamado Grub. Los usuarios que lo desearan podían bajarse un programita creado con licencia libre cuya función era rastrear la web y comunicar al servidor central sus hallazgos. Pretendía llevar a los sistemas de búsqueda el mismo razonamiento que llevó al programa de la NASA que busca vida inteligente (fuera de nuestro planeta) a lanzar SETI@home. Este programa permitía a cualquier PC analizar parte de los hallazgos de los telescopios con el objeto de encontrar patrones que pudieran indicar vida inteligente. Dado que no había presupuesto para comprar superordenadores, necesitaban crear uno a base de la potencia de proceso privada, objetivo que logró con un enorme éxito. SETI@home tiene actualmente una potencia de proceso conjunta de 52 teraflops (o trillones de operaciones en coma flotante por segundo), por 10 del superordenador más potente, situado en Japón.

Sin embargo, es más fácil obtener ayuda para un proyecto científico que para uno comercial, especialmente desde que Grub fue adquirido por Looksmart, uno de los grandes en el campo de los buscadores, que provee los resultados de MSN, entre otros. Intentan solucionar esto de dos modos: el primero es ofreciendo herramientas gratuitas para el uso de la base de datos por parte de los webmaster. La segunda es incluir en el cliente la posibilidad de rastrear los sitios web alojados en tu red local. Esto permitiría a los propietarios de sitios web ahorrarse muchos gastos en ancho de banda debidos al trabajo de las arañas, amén de mantener actualizados los buscadores al ritmo que se desee. El mayor riesgo consiste en la teórica facilidad con que podrían falsear los resultados del rastreo, especialmente teniendo en cuenta que es código abierto. Ya le sucedió al proyecto de la NASA cuando, para salir mejor en los rankings de colaboradores, algunas personas modificaron el programa enviando datos no evaluados.

Suponiendo que las estimaciones sobre el tamaño de universo virtual de la web sean correctas y actualmente existan unos 10.000 millones de páginas, al ritmo que llevan ahora necesitarían entre 300.000 y 400.000 colaboradores activos para lograr sus objetivos, frente a los 20.000 ordenadores propiedad de Google. No es tanto como parece, dado que SETI@home cuenta con cuatro millones de voluntarios. Pero por el momento son sólo unos 2.000, una semana y media después del anuncio de la adquisición de Grub por Looksmart. Es un movimiento de éxito dudoso pero, si finalmente lo tiene, podría convertirse en un competidor creíble de Google.


En Tecnociencia

    Lo más popular

    0
    comentarios

    Servicios