User:LORA ADOLFO

DIFERENCIA ENTRE INTERNET Y WEB
Internet se ha convertido en algo omnipresente que es difícil imaginarse la vida sin ella. Al mismo tiempo, es difícil imaginarse la vida también si la www. Pero solo porque Internet y la WWW estén fuertemente entrelazados no significa que sean lo mismo.

Para explicarlo todo mejor, volvamos a los comienzos. Todo se inicio en 1958 en la agencia de proyectos de investigación avanzada, más conocida como ARPA para aumentar los avances tecnológicos de EEUU en la sombra tras el lanzamiento por parte de Rusia del Sputnik. La primera conexión exitosa se dio el 29 de Octubre de 1969 con una conexión de red ARPANET entre 2 equipos. Con el tiempo se fueron agregando más y mas ordenadores.

Pero la creación de la WWW llega décadas más tarde con la ayuda de un hombre llamado Tim Berners-Lee que desarrolla en 1990 la columbra vertebral de la World Wide Web, concretamente el protocolo de transferencia de hipertexto ( HTTP). En esos momentos aumento la red de 4 a más de 300.00 ordenadores.

Si te estas preguntando que es exactamente el protocolo HTTP te lo explico en un momento. El protocolo HTTP es el conjunto de normas para la que archivos y otros datos se transfieran entre equipos.

Pero Internet que es mucho más fácil de explicar es la red de redes. Hay redes pequeñas como la que puedas tener en tu casa a redes de empresas multinacionales. Estas redes a menudo están conectadas entre si en diferentes configuraciones en redes de área local ( LAN). Incluso el teléfono móvil esta conectado a una red que forma parte de Internet

La WWW por otro lado es el sistema que usamos para acceder a Internet. La web no es el único sistema que hay para hacerlo, pero si es el más popular y más utilizado. Por lo que una forma de pensar podría ser que Internet se compone de maquinas, equipos y datos y la WWW es lo que aporta esta tecnología a nuestra vida.

¿Qué es un buscador?

Un buscador se define como un programa informático diseñado para la búsqueda de diferentes formatos de archivos digitales como páginas webs, documentos de texto, archivos de video y música, imágenes, etc... los cuales se encuentran alojados en un disco duro o servidor local así como en la red de Internet, presentando los resultados de la búsqueda en una serie de enlaces que conectan con los archivos o la información solicitada.

Actualmente podemos clasificar el amplio catálogo de buscadores disponibles en la red en 4 grandes familias: Directorios
 * Directorios
 * Motores de búsqueda
 * Metabuscadores
 * Buscadores especializados

Los directorios fueron los primeros buscadores más populares y utilizados en Internet, su funcionamiento se basa en que una parte humana introduce una serie de datos relevantes sobre una página web tales como el título, resumen del contenido, dirección, etc... con el objeto de indexarlo dentro de una base de datos dividida en categorias o especialidades, para que cuando realicemos una búsqueda la base de datos nos devolverá una lista de enlaces hacia las páginas webs que tienen relación con las palabras o frases buscadas.

La principal ventaja de los directorios es que al ser revisados por humanos los enlaces indexados son webs de alta calidad en contenido, como inconveniente es la nula capacidad de rastreo e indexación de otras webs de manera automática, por lo que el directorio solo es capaz de almacenar un pequeño porcentaje de la totalidad de las webs disponibles en Internet.

Páginas como Dmoz, Yahoo directory o Technorati son entre otros directorios webs de reconocido prestigio en Internet.

Motores de búsqueda

Los motores de búsqueda son los buscadores basados en programas informáticos que automatizan el rastreo y la indexación de las webs disponibles, a diferencia de los directorios los cuales necesitaban de una parte humana para la verificación e indexación de la web. El funcionamiento de los motores de búsqueda se basa en 3 etapas o fases: En la primera fase un programa informático denominado robot o araña rastrea y recoge los datos de todas las páginas webs a través de los enlaces compartidos, permitiendo ampliar enormemente el campo de rastreo a un gran número de webs.
 * Rastreo
 * Indexación y Rankeo
 * Consulta

En el segundo paso un algoritmo toma la información captada por el robot o araña y la valora rankeandola según unos criterios establecidos por el algoritmo, posteriormente se indexa la web en gigantes bases de datos.

Por último cuando realizamos una búsqueda el programa consulta a la base de datos mostrándonos una serie de enlaces o datos numerados y jerarquizados según el rankeo o relevancia calculado por el algoritmo.

Páginas como Google o Bing son ejemplos de reconocidas webs basadas en motores de búsqueda.

Metabuscadores

Los metabuscadores son programas informáticos que lanzan las consultas requeridas por los usuarios sobre un conjunto de motores de búsqueda de terceros aprovechando los algoritmos de búsqueda desarrollados de cada uno de ellos, posteriormente el metabuscador rankea todos los resultados mostrándolos según unos criterios de relevancia establecidos.

Páginas como Metacrawler, Ixquick o Webcrawler son ejemplos entre otros de metabuscadores más utilizados en la red.

Buscadores especializados

Se tratan de buscadores que lanzan las consultas sobre unas bases de datos restringidas o públicas que contienen información especializada en un campo o área. Generalmente son utilizadas para realizar comparativas de precios, prestaciones, horarios, etc... de diferentes productos.

Ejemplos como Trivago o Atrapalo en el área de reserva de hoteles, Rastreator o Acierto en el campo de las aseguradoras, Skyscanner o Rumbo en el área de reserva de billetes de avión... son ejemplos de páginas basadas en buscadores especializados.

Historia de los buscadores
Con el desarrollo y expansión de Internet en la década de los 90 se multiplicó el número de páginas y sitios webs disponibles y por tanto la información subida a la red, todo ello hizo necesario el desarrollo de potentes buscadores de información capaces de rastrear la máxima información disponible.

El primer listado de enlaces hacia páginas webs que agrupaban información sobre una temática concreta fue desarrollado por el científico Tim Berners-Lee el año 1991 siendo considerado como el primer directorio creado en Internet.

En el año 1990 unos estudiantes de la universidad McGrill en Montreal desarrollaron Archie, el primer programa informático capaz de crear automáticamente una lista de los archivos disponibles en servidores FTP conviertiéndose en el primer motor de búsqueda en la historia de Internet.

Posteriormente en 1993 Mthew Gray programó a Wandex, el primer robot o araña capaza de rastrear la información que contenían las páginas webs. Un año después en 1994 se presentó Webcrawler un motor de búsqueda que fue la base de los futuros buscadores.

En el año 1998 fue lanzado el famoso buscador Google, basado en la tecnología de los motores de búsqueda el éxito alcanzado le ha permitido ser una de las primeras empresas más ricas, innovadoras y reconocidas a nivel mundial. Siguiendo los pasos y la filosofía de Google, la empresa Microsoft lanzó en 2009 la versión mejorada de su buscador bajo el nombre de Bing fusionándose con el famoso directorio Yahoo con objeto de competir con el todopoderoso Google.

Hoy en día los buscadores de Internet son servicios fundamentales para trabajar, la mayoría de los navegadores tienen como página de inicio algún tipo de buscador que facilitan la labor de búsqueda de información, el futuro de estos servicios pasan por mejorar los algoritmos de rastreo e indexación con objeto de mejorar la calidad de los enlaces ofrecidos, conocer los perfiles y gustos de los usuarios con objeto de aportarle una información a medida, utilizarán sistemas de inteligencia artificial que les permitirán interactuar con nosotros mientras mantenemos una conversación, aportaran soluciones a distintas situaciones y problemas utilizando la información disponible en la red... Sin duda el futuro de los buscadores es prometedor.