lunes, 14 de noviembre de 2011

Buscadores.

Buscadores.

Sin ellos, Internet sería sólo una pista inmensa de juego sin ningún punto de partida. Es cierto, sería posible todavía pasar por los "portales", semejantes en cierto modo a una suerte de anuarios de Internet. Sin embargo, esta opción sería poco práctica y engorrosa. Debemos reconocer que no podemos utilizar internet sin utilizar los buscadores. Y, con más razón, no podemos utilizar internet sin llegar, al menos una vez, al más grande de ellos: Google. 

Casi sinónimo de Internet, éste se volvió, para más del 90 % de la población mundial, la puerta de entrada número uno de la Web. Basta con ver el enloquecimiento que se apodera de la pantalla cuando, por un instante, Google presenta fallos. Como el 31 de enero de 2009, cuando el sitio clasificó, casi durante una hora, todos los sitios como potencialmente peligrosos y bloqueó los links hacia ellos. 

Desde su lanzamiento en 1998, Google es algo espontáneo para el usuario de internet, casi un reflejo: incluso si se conoce la dirección puntual de un sitio, los internautas tienen la costumbre de entrar al mismo a través de google, antes que escribir directamente la dirección en el navegador. No lo haces para entrar, por ejemplo, a la página de tus diarios preferidos o al Servicio Meteorológico Nacional? 

Buscadores renovados 

Y sin embargo, el mundo de los buscadores se agitó un poco estos últimos meses. Los nuevos actores hacen su aparición. En primer lugar, Microsoft, que intenta recuperar algunos porcentajes de cuotas de mercado que jamás consiguió obtener con su antiguo buscador, Live Search. Pero igual hay recién llegados, más extraños, como WolframAlpha. Otros también, como Yahoo! tratan de reponerse. 

Para echar una mano a sus creaciones, a sus propios buscadores, estas firmas intentan revolucionar el concepto mismo de buscador, planteándose una pregunta simple: los usuarios tiene ganas de buscar algo en Internet? O es que cuando los internautas efectúan búsquedas en la web lo que buscan realmente son sitios específicos? 

Microsoft responde claramente no. Para el gigante del software, la gente quiere sobre todo hechos y qué se les ayude a tomar decisiones. Sólo raramente quieren encontrar sitios. Para Yahoo! Se expresa otra idea, se cree de otro modo cuando se habla de la muerte de "los primeros diez links azules", esos diez links que representan hoy la respuesta clásica a una búsqueda cualquiera. Dicho de otro modo: los usuarios no quieren buscar, quieren encontrar. Por esto, se necesitan respuestas mejor adaptadas, y completas de una sola vez, para satisfacer cualquier búsqueda. Un ejemplo: cuando escribes el nombre de tu ciudad en un buscador, o el de cualquier otra, hay una alta posibilidad de que lo que estés buscando en realidad no sea información sobre tu ciudad, sino información sobre un servicio (colectivos, aviones) o sobre la ubicación de un sitio en particular (de lugares públicos, restaurantes, etc.). 

No sería ideal que el buscador te muestre de inmediato esta información? Bienvenido al mundo de los "buscadores de decisión", según la terminología escogida por Microsoft. 

Otro gran cambio corriente en el dominio de la búsqueda, es la persecución de la instantaneidad: internet está en un movimiento perpetuo. Las informaciones se envían, cada vez más, en tiempo real, a través de vías como Twitter, que permite enviar comentarios de hasta 140 caracteres como máximo. Bing, el nuevo buscador de Microsoft acaba de echarse a indexar en directo los comentarios de personalidades, mientras que Google se prepara para integrarlos en su buscador actual. 
La obra está lejos de acabarse, pero da una visión de conjunto de los cambios a prever en los próximos meses. 

Cómo funciona un buscador? 

Los buscadores de internet sólo repiten una tecnología ya experimentada desde los inicios de la informática: se trata ni más ni menos de inmensas bases de datos. Su trabajo puede ser separado en varias etapas: comienzan por recolectar la información. Esto quiere decir, en el caso de Internet, recuperar todas las páginas de todos los sitios. Siguen todos los links que se encuentren en las páginas halladas, con el fin de recuperar más y más páginas. Esta recolección es efectuada por programas que se llaman "robots". 

Las páginas recuperadas son luego almacenadas en centenares de discos rígidos, en centros de datos. Hay programas que se encargan de extraer los datos de las páginas, de "comprenderlos". Los textos son analizados, los lazos son catalogados al igual que la información (autor de la página, dirección de la página, etc.). Todos los datos son indexados, es decir, que la ocurrencia de una palabra será contada en cada una de las páginas, y todo ingresará en una base de datos. Finalmente, estos datos serán clasificados. La misma palabra puede encontrarse al mismo tiempo en millones de páginas diferentes. La potencia y la fama de un buscador dependen, principalmente, de la calidad de su clasificación. Las fórmulas utilizadas por unos y otros para efectuar esta clasificación son protegidas y celosamente custodiadas.