analisis de las lecturas la internet profunda o invisible

7
ANALISIS RESUMIDO DE LA EDITORIAL DE TARINGA "LA INTERNET PROFUNDA O INVISIBLE" ALUMNO: CARLOS JAVIER ARHUATA TUCO.

Upload: carlosarhuata

Post on 07-Aug-2015

119 views

Category:

Internet


0 download

TRANSCRIPT

ANALISIS RESUMIDO DE LA EDITORIAL DE TARINGA "LA INTERNET PROFUNDA O

INVISIBLE"

ALUMNO: CARLOS JAVIER ARHUATA TUCO.

El concepto de Internet invisible o Internet profunda, conocida en inglés también como Deepweb, Darkweb o Hidden web, hace referencia, básicamente, a una serie de contenidos que no son visibles para los motores de búsqueda tradicional, esto es, que Google no puede encontrar.

Lo interesante de este concepto es que, tal como lo refiere Brian Wai Fung en su investigación para el MIT sobre algoritmos para web profunda, “de acuerdo con una investigación conducida por la Universidad de Berkeley en California, en 2003 la web (superficial) contenía aproximadamente 167 terabytes de información. En contraste, la Internet profunda se estima que contiene 91.000 terabytes de información, lo que corresponde a 500 veces más el tamaño de la web superficial. Esto significa que el tradicional sistema de búsqueda basado en enlaces no está rastreando el contenido del 99% de la web”.

Uno de los datos más curiosos respecto a la Internet invisible es que los contenidos de la Biblioteca del Congreso de los Estados Unidos, la más grande del mundo, así como el Diccionario de la Real Academia de la Lengua Española (RAE), no son indexables, lo que significa que son únicamente accesibles desde los buscadores de cada uno de estos portales, convirtiéndolos así en parte de la Internet profunda, aun cuando el propósito de ambos sitios es promover el acceso a la información que alojan.

En relación con la Sociedad del Conocimiento, lo fundamental de la web invisible es su potencial de abrir las puertas a información de alta calidad y especialidad temática. Así, las bases de datos de las grandes universidades y centros de investigación, que reúnen tesis, artículos analíticos, publicaciones de libre acceso, planos, gráficos y similares, existen y están abiertas para que sean consultadas y aprovechadas de acuerdo a sus términos de uso.

La principal causa de la existencia de la Internet profunda es la imposibilidad de los motores de búsqueda de encontrar o indexar gran parte de la información existente en Internet. Se estima que la Internet Profunda es 500 veces mayor2 que la Internet Superficial, siendo el 95% de esta información públicamente accesible. Si los buscadores tuvieran la capacidad para acceder a toda la información entonces la magnitud de la "Internet profunda" se reduciría casi en su totalidad; sin embargo, no desaparecería totalmente porque siempre existirán páginas privadas.

Los siguientes son algunos de los motivos por los que los buscadores son incapaces de indexar la Internet profunda:

Páginas y sitios web protegidos con contraseña.

Documentos en formatos no indexables.

Enciclopedias, diccionarios, revistas en las que para acceder a la información hay que interrogar a la base de datos, como por ejemplo la base de datos de la RAE.

En cuanto a contenido, la Deep Web está compuesta por todo tipo de información, que al ser tanta y tan variada, la categorización se vuelve obligatoria. Es así que entre lo que no se ve en la superficial, tendremos archivos que no tengan formatos del tipo HTML o de texto (principal fracaso de los sitios web completos en Flash) y también algunos documentos multimedia que no se indexan.

Como todos sabemos la internet es un mar sin fin de información, pero se dice que hay sitios que normalmente no salen en el buscador de gente común. Pero porque se debe esto, como dice en el artículo que se está analizando esto se ya que hay información clasificada de gobiernos que no son accesibles y que resultan difíciles de ver, los cuales incluso si intentas hacerlo puede que tengas serios problemas. Pero no solo existe información de gobiernos oculta en la red sino también del narcotráfico y del terrorismo.

GRACIAS…