módulo 6: tic: las tecnologías de la información y la ...campus.fundec.org.ar/admin/archivos/mae...

30
ISBN 987- 9225 - 01 – 5 1 Maestría en Gestión de Proyectos Educativos Tecnologías de la Información y la Comunicación Año 2015 Módulo 6 Módulo 6: TIC: las tecnologías de la información y la comunicación Segunda Parte Jorge Grau La increíble irracionalidad de las sobrecargas de información, la información errónea, la desinformación y la información descontrolada. Se juega aquí una sociedad desinformada de la información. S. Lash Como dijimos, la información y la comunicación son hoy bienes de consumo que se producen, se distribuyen y se comercializan en un mercado mundial con diversos protagonistas, fuertes intereses económicos y diferentes metas sociales y culturales. Obviamente, operamos con las distintas tecnologías físicas vinculadas a la información y comunicación pero, desde la gestión de proyectos educativos, también debemos operar con ellas como tecnologías sociales y vincularlas no solo desde la información y la comunicación sino también desde las necesidades de gestión de los procesos de enseñanza. Desde la gestión de proyectos educativos nos interesa conocer cómo inciden –e incidirán– en los procesos de enseñanza. Más aún, nuestra actividad docente se complica porque los nuevos medios de comunicación no reemplazan a los antiguos: la radio no reemplaza a los diarios y a los libros. El cine no reemplaza a la radio; la televisión no reemplaza al cine, e Internet no reemplaza a los diarios, a los libros, a la radio, al cine ni a la TV. Por el contrario, cada nuevo medio se ubica entre los anteriores generando un nuevo espacio de comunicación y alterando las relaciones existentes. Simultáneamente, la sociedad en general, y el mundo de la educación en particular, reciben esos servicios de alta intangibilidad y se apropian de ellos, ya sea a través de los distintos medios de comunicación y con las tecnologías específicas, e inciden en los procesos de enseñanza. ¿Qué aporta cada medio de difusión/comunicación a la relación entre personas? ¿Qué aporta Internet a la comunicación entre personas? ¿Qué aportan a los procesos de enseñanza? Si hoy Internet ocupa un lugar junto a los demás medios, es porque presenta alguna cualidad –positiva, o no– que también incide en los procesos de enseñanza. Como instrumentos de transferencia de información, veremos también su incidencia en la calidad de la información, en los problemas de plagio y en los comportamientos de las empresas proveedoras de estos servicios. Como dijimos, nos interesa: 1) explorar si la recepción de más datos y más información, mejor “presentada” y más dinámica, lleva, necesariamente, a mejores procesos de enseñanza y a soluciones globales en la gestión de proyectos educativos, 2) mostrar la importancia que tienen las TIC como “herramientas” en la comunicación del docente con los alumnos, con otros docentes, de los alumnos entre sí, etcétera, y 3) percibir las TIC como “herramientas” pedagógicas y su importancia en el diseño de proyectos educativos.

Upload: others

Post on 03-Aug-2020

1 views

Category:

Documents


0 download

TRANSCRIPT

ISBN 987- 9225 - 01 – 5 1

Maestría en Gestión de Proyectos Educativos Tecnologías de la Información y la Comunicación

Año 2015 Módulo 6

Módulo 6:

TIC: las tecnologías de la información y la comunicación

Segunda Parte

Jorge Grau

La increíble irracionalidad de las sobrecargas de información, la información errónea, la desinformación y la información descontrolada.

Se juega aquí una sociedad desinformada de la información.

S. Lash

Como dijimos, la información y la comunicación son hoy bienes de consumo que se producen, se distribuyen y se comercializan en un mercado mundial con diversos protagonistas, fuertes intereses económicos y diferentes metas sociales y culturales.

Obviamente, operamos con las distintas tecnologías físicas vinculadas a la información y comunicación pero, desde la gestión de proyectos educativos, también debemos operar con ellas como tecnologías sociales y vincularlas no solo desde la información y la comunicación sino también desde las necesidades de gestión de los procesos de enseñanza. Desde la gestión de proyectos educativos nos interesa conocer cómo inciden –e incidirán– en los procesos de enseñanza.

Más aún, nuestra actividad docente se complica porque los nuevos medios de comunicación no reemplazan a los antiguos: la radio no reemplaza a los diarios y a los libros. El cine no reemplaza a la radio; la televisión no reemplaza al cine, e Internet no reemplaza a los diarios, a los libros, a la radio, al cine ni a la TV. Por el contrario, cada nuevo medio se ubica entre los anteriores generando un nuevo espacio de comunicación y alterando las relaciones existentes. Simultáneamente, la sociedad en general, y el mundo de la educación en particular, reciben esos servicios de alta intangibilidad y se apropian de ellos, ya sea a través de los distintos medios de comunicación y con las tecnologías específicas, e inciden en los procesos de enseñanza.

¿Qué aporta cada medio de difusión/comunicación a la relación entre personas?

¿Qué aporta Internet a la comunicación entre personas?

¿Qué aportan a los procesos de enseñanza?

Si hoy Internet ocupa un lugar junto a los demás medios, es porque presenta alguna cualidad –positiva, o no– que también incide en los procesos de enseñanza. Como instrumentos de transferencia de información, veremos también su incidencia en la calidad de la información, en los problemas de plagio y en los comportamientos de las empresas proveedoras de estos servicios. Como dijimos, nos interesa:

1) explorar si la recepción de más datos y más información, mejor “presentada” y más dinámica, lleva, necesariamente, a mejores procesos de enseñanza y a soluciones globales en la gestión de proyectos educativos,

2) mostrar la importancia que tienen las TIC como “herramientas” en la comunicación del docente con los alumnos, con otros docentes, de los alumnos entre sí, etcétera, y

3) percibir las TIC como “herramientas” pedagógicas y su importancia en el diseño de proyectos educativos.

ISBN 987- 9225 - 01 – 5 2

Maestría en Gestión de Proyectos Educativos Tecnologías de la Información y la Comunicación

Año 2015 Módulo 6

Índice Temático: 1. Información sobre la información

1.1. Libros, hoy

1.2. Bases de datos

1.3. Internet y la cultura multimedial

1.4. Internet y la Argentina, hoy

1.5. Requerimientos digitales de almacenamiento

1.6. Muchas Webs

1.7. Cloud computing

1.8. Algunos datos más

2. Calidad de la información

2.1. Conocimiento, sabiduría y poder

2.2. Buscando información gratis

2.3. Google, información gratis

3. Profundizando un poco más

3.1. Calidad de la información –nivel 2–

3.2. Plagio

3.3. Qué es ICANN

3.4. Software Libre

3.5. ¿SOPA y PIPA?

4. Integrando ideas

5.1. Concretando

5. Bibliografía

Objetivos:

Percibir la sobrecarga de información a la que estamos sometidos.

Diferenciar a las distintas TIC en función de su importancia en los procesos de enseñanza.

Comprender las ventajas y las limitaciones que genera la incorporación de las TIC en el currículum.

Se puede acceder al Glosario de las TIC, que está a disposición en el Sitio Web de la asignatura.

ISBN 987- 9225 - 01 – 5 3

Maestría en Gestión de Proyectos Educativos Tecnologías de la Información y la Comunicación

Año 2015 Módulo 6

1. Información sobre la información

Unos tienen la facultad de pensar con el cerebro de otra persona y de ver con sus ojos,

y otros no la tienen

S. F. Nadel

Como fenómeno muy actual, las personas ya no podemos leer todo lo que se publica ni localizar con facilidad lo que se tendría que leer para estar bien informado. El volumen de información crece, se dispersa y se pierde muy vertiginosamente.

Tal como lo expresáramos en el módulo anterior no podemos revisar todos los documentos –76,4 millones de resultados– que respondan a la expresión Tecnología de la información y la comunicación, y si quisiéramos leer tan sólo los 100 más relevantes tendríamos que analizar cómo los elegimos: utilidad para nuestro trabajo, pertinencia para nuestras necesidades de información y valor de la información –relevancia– según la solvencia de la fuente.

Para analizar esta situación vamos a explorar muy rápidamente los 500 años de la Cultura del libro, y recorrer con algún cuidado los casi 50 años –relativamente “pocos” pero desconcertantes– de la Cultura multimedial que nos rodea.

1.1. Libros, hoy

Si bien la prehistoria del texto escrito se inicia cuando los hombres comienzan a escribir sobre las paredes de las cuevas, fibras vegetales o tejidos –hace casi 3.000 años–, nos interesa la “historia reciente” de la tecnología del libro. Esa etapa comienza con el desarrollo de la imprenta en occidente –año 1452 (los chinos usaban este invento desde 1040)–. En esos años se habrían impreso en Europa unos 40.000 libros. En 1522, M. Lutero publicó su traducción de la Biblia y distribuyó 5.000 ejemplares en dos meses. En el primer siglo de la nueva imprenta se publicaron unas 35.000 ediciones, aproximadamente unos 350 títulos por año. Pero, quinientos años después, en 1952, se publicaban unos 250.000 títulos por año.

En 1999, la Argentina publicó casi 10.000 títulos, en 2004, publicó 18.000 y en 2005 se registraron 21.300 títulos. En Brasil, más de 60.000, y ese año Estados Unidos publicó casi 120.000 títulos en español. A su vez, en Francfort 2003, unas siete mil editoriales de todo el mundo ofrecieron más de 350.000 novedades. En el año 2010, Argentina produjo 22.781 títulos y 60 millones de ejemplares impresos y en 2012, 31.322 títulos y 117 millones de ejemplares. Ese año, las editoriales españolas publicaron 88.349 títulos en todos los formatos (papel, digital y otros) y en todas las lenguas, según los datos recogidos por la Agencia del ISBN (los títulos registrados en 2013 fue de 81.000). En el mismo año Argentina lanzó al mercado editorial 26 mil títulos,

Los cinco productores de libros son Estados Unidos, Alemania, Inglaterra, Francia y España (85.000 títulos por año) Por último, los libros vivos –títulos que teóricamente se pueden adquirir– se estiman, en Alemania, aproximadamente 450.000, en España, 200.000; y en Argentina, idealmente, unos 170.000 libros (cuando en realidad de los títulos editados en la Argentina, sólo unos 30.000 libros podrían adquirirse).

Un libro “normal” tiene entre 200 y 300 páginas e incluye, aproximadamente, entre 80.000 y 120.000 palabras. La 23ª edición (2014) del Diccionario de la Real Academia Española –que no es enciclopédico– contiene más de 93.000 entradas, como llaman a

ISBN 987- 9225 - 01 – 5 4

Maestría en Gestión de Proyectos Educativos Tecnologías de la Información y la Comunicación

Año 2015 Módulo 6

las palabras que el Academia admite. Como la mayoría de las palabras tiene más de un significado, el diccionario reúne casi 200.000 acepciones. Recordemos que estos diccionarios se diferencian de los enciclopédicos en que sólo incluyen los vocablos que constituyen una lengua y excluyen los nombres propios –Platón, Plutón, Buenos Aires o Ouagadougou– (Tabla Nº 1).

Tabla Nº 1: Libros, páginas y caracteres

Obra Páginas Caracteres

Libro “normal” 250 a 300 500.000

La Biblia de Jerusalén 1.700 4.700.000

Las obras de Shakespeare 1.400 7.500.000

Diccionario Real Academia 1.400 16.000.000

Diccionario Webster 2.100 26.000.000

Enciclopedia Espasa 1.300 600.000.000

Como ejemplo cercano, recordemos que el Diccionario Académico de Americanismos (2008) tiene 100.000 palabras y casi medio millón de acepciones o significados. En cambio, el Diccionario Enciclopédico Espasa, en sus 70 tomos, lo supera ampliamente: tiene unos 140 millones de palabras –600 millones de dígitos–.

Por el lado informático, el ya “desaparecido” programa Encarta 2007 contaba con más de 42.000 artículos sobre los más diversos temas –con vínculos a información relacionada a más de 8.000 páginas web–, e incluía más de 26.000 fotos, imágenes e ilustraciones, 250 videos y animaciones y 2.700 archivos de sonido para consulta y ampliación de contenidos. Obviamente, su actualización fue descartada por Microsoft desde 2009 frente a la desigual competencia que le generó la aparición de sitios gratuitos como Wikipedia, enciclopedia on-line que en 2013 tenía más de 20 millones de artículos en 278 idiomas y dialectos (y más de un millón de artículos en español), y casi 31 millones de visitantes diarios) (http://es.wikipedia.org/wiki/Wikipedia:Estad%C3%ADsticas).

El crecimiento del volumen de información también puede verificarse desde ángulos menos habituales: la Universidad de Harvard demoró 275 años en completar su primer millón de libros, y reunió su último millón en sólo cinco años (D. Bok, 1986). Correlativamente, las revistas científicas han pasado de 10.000 en 1900 a más de 120.000 en la actualidad (H. Rosovsky, 1990). En 1982, M. Mahoney estimaba unas 40.000 revistas científicas, que publicaban un artículo cada 35 segundos.

En términos globales (UNESCO, 2000, 2010), se estima que en el mundo se publican anualmente más de 30 millones de documentos diversos (Tabla Nº 2).

Tabla Nº 2: Evolución de la publicación de documentos impresos

Documentos por año Año 1975 Año 1990 Año 2000 Año 2010

Libros nuevos 500.000 600.000 700.000 1.000.000

Revistas científicas 35.000 60.000 100.000 130.000

Revistas de resúmenes 1.700 2.000 2.500 3.500

Artículos e informes 12.000.000 20.000.000 25.000.000 32.000.000 Fuentes: N. Amat Noguera (1978); H. Rosovsky (1990) y UNESCO (2000, 2010).

ISBN 987- 9225 - 01 – 5 5

Maestría en Gestión de Proyectos Educativos Tecnologías de la Información y la Comunicación

Año 2015 Módulo 6

También la especialización es cada vez más pronunciada. Un estudio de la SRI Project identificaba, en 1988, 37.000 áreas activas de investigación científica. Actualmente, a nivel mundial, se estiman 50.000 áreas activas de investigación y 150.000 los ámbitos disciplinares –saberes, disciplinas, especializaciones, campos interdisciplinares, niveles de saber, subdisciplinas, etcétera– (C. Rama, 2007).

Según H. van Dijk (1993), las publicaciones de historia entre 1960 y 1980 son más numerosas que toda la producción historiográfica anterior. En el caso de las matemáticas, se publican anualmente 200.000 nuevos teoremas y existen más de 1.000 revistas especializadas, las que subdividen a la disciplina en 62 tópicos principales, divididos a su vez en 4.500 subtópicos (B. L. Madison, 1992).

Como puede apreciarse, los datos sobre el ritmo de crecimiento de la información son más que llamativos, preocupantes (en términos de enseñanza). Ya en 1978, los documentalistas estimaban que la producción de documentos tenía una tasa anual de crecimiento entre un 3 y un 5,5% por año, según las distintas disciplinas. En 1990 esa tasa superaba el 10%, lo que implicaba una duplicación de la información cada 7 años. Hoy se estima que la información se duplica cada 5 años –es decir, con una tasa de crecimiento del 15 %–. 1.2. Bases de datos

Si analizamos a estos grandes conjuntos de datos, tanto las bases que contienen documentos primarios –fuente– como las referenciales –que remiten a otras fuentes–, en 1975 había en el mundo, aproximadamente, 300 registradas. En 1983 se estimaban en 1.600, en 1985 ya eran 2.800, y en 2000 había más de 10.000 bases disponibles para la consulta, con casi 10.000 millones de registros. El sector financiero es el que más contribuye a este crecimiento, por la cantidad de información que genera. De hecho, en 2012, ya dominaba el 20% del mercado de generación de datos, con un alto nivel de confidencialidad y restricciones de acceso.

Es decir, hoy hay tantas bases de datos a las que se puede acceder, gratuitas o pagas, visibles u “opacas”, que su número es “muy grande” (aunque poco medible dada su fuerte confidencialidad) y tan relevante como los registros que contienen, y que si bien muchas de ellas pueden interesar sólo a determinados grupos de personas, su repercusión es significativa. Por ejemplo, ya hay ocho bases de datos públicas que contienen los datos genómicos de cientos de miles de personas.

A título ilustrativo, la revista científica Science, fundada por T. A. Edison en 1880, recibe entre 12.000 y 14.000 documentos todos los años, de los cuales acepta sólo el 8 por ciento. A su vez, el Science Citation Index –SCI– del Institute For Scientific Information –ISI– registraba por año, en 1999, unos 716.000 artículos del mundo científico. En la misma época, la Base de Datos francesa PASCAL (2000) registraba unos 500.000 documentos científicos por año, con más de 3 millones de referencias con resúmenes sobre todas las disciplinas.

En todo el mundo se escriben anualmente más de 5.000.000 de tesis en el ámbito académico-científico, y se producen numerosas notas de investigación, artículos, y diversos conceptos creativos de profesores, universidades e instituciones científicas. En lo que hace a investigaciones en educación, el Education Resources Information Center –ERIC– del Departamento de Educación de Estados Unidos, tiene la mayor base de datos bibliográficos sobre documentos relacionados con temas educativos, ya sean investigaciones educativas, revistas y publicaciones periódicas que se editan en la actualidad, y/o resúmenes de los documentos disponibles. Esos registros están divididos

ISBN 987- 9225 - 01 – 5 6

Maestría en Gestión de Proyectos Educativos Tecnologías de la Información y la Comunicación

Año 2015 Módulo 6

en dos partes: I) Current Index to Journals in Education, que cubre más de 1.000 publicaciones periódicas, y II) Resources in Education, que cubre el resto de la bibliografía, con más de 1,1 millones de referencias.

Esta base de datos incluye el texto completo de 110 mil registros del ERIC Digest (de 1993 a 2004), con actualización mensual y cobertura desde 1966 y, obviamente, en idioma inglés. También podemos acceder al Tesauro de la UNESCO con su lista estructurada de términos para el análisis temático y la búsqueda de documentos en educación, cultura, ciencias naturales, ciencias sociales y humanas, comunicación e información. Contiene 7.000 términos en inglés, 8.600 en francés y 6.800 en español.

Como es de imaginar, no todas las instituciones adoptan el mismo sistema de clasificación. Unos prefieren la clasificación de M. Dewey, otros la Clasificación Decimal Universal –CDU–, otros el Catálogo del Congreso de EEUU. Y no faltan, con distintas orientaciones, otras taxonomías y sistemas de organización del conocimiento muy fundamentados, que superan holgadamente nuestra probable voluntad de exploración. 1.3. Internet y la cultura multimedial

A la radio le tomó 30 años alcanzar 60 millones de personas, a la TV casi 15 años, pero en mucho menos tiempo Internet pasó de nueve millones de usuarios en 1995, a 350 millones en el 2000, y 1.000 millones en 2005. A fines de 2007 superó los 1.300 millones, y en 2014 tuvo más de 3.000 millones de personas en línea, para una población mundial estimada en más 7.180 millones de habitantes.

Sus usos más frecuentes son: “chatear”, “bajar” música, jugar “on-line”, buscar amigos o pareja, visitar páginas por entretenimiento, “bajar” software, enviar o recibir e-mails personales o de trabajo, comunicarse con personas que viven lejos, buscar información para trabajo o estudio, etcétera. Al 30 de junio de 2014, las personas conectadas a la Web eran más de 3.035 millones (Fuente: www.internetworldstats.com). Según las estadísticas de la Unión Internacional de Telecomunicaciones –UIT–, se estima que el número mundial de usuarios pasará los 3.600 millones en el año 2017, para una población mundial prevista en 7.600 millones de habitantes.

En cuanto al idioma de los usuarios, recordemos que el inglés es la lengua que cuenta con 53 países que lo tienen como idioma oficial. El francés se habla en 29, el árabe en 25, el español en 14, el portugués en ocho, el alemán en siete y albano, italiano, ruso y serbio en cuatro. Pero el dato interesante es que México encabeza la lista de países con mayor cantidad de hispanoparlantes: más de 110 millones. Lo notable es que el segundo es Estados Unidos, con más de 50 millones, superando de esa forma a España, que tiene 47,3 millones, Colombia con 47 millones, y la Argentina con algo más de 42 millones (Tabla Nº 3)(http://es.wikipedia.org/wiki/Anexo:Idiomas_en_Internet)

Tabla Nº 3: idioma de los usuarios de Internet

Idioma Usuarios (Millones) Usuarios (%) Hablantes

(Millones)

Inglés 345,4 35,2 508

Chino 210,0 13,7 874

Español 186,4 12,0 330

Japonés 67,1 8,4 127

Alemán 55,3 6,9 110

Francés 33,9 4,2 100

ISBN 987- 9225 - 01 – 5 7

Maestría en Gestión de Proyectos Educativos Tecnologías de la Información y la Comunicación

Año 2015 Módulo 6

Los lenguajes que más se hablarán serán, siempre, los de las potencias económicas. Sí China supera a EE. UU., tal como se vaticina, será el chino el primer idioma y segundo el inglés. Que algún cambio tecnológico nos permita comunicarnos más fácilmente entre los habitantes del mundo, es una posibilidad que aún está verde.

Al finalizar 2014, prácticamente la tercera parte de la humanidad tenía acceso a Internet: más de 3.000 millones de personas pueden acceder a la red a través de conexiones en el hogar, la oficina, el establecimiento educativo o en lugares públicos. El crecimiento durante este siglo ha sido vertiginoso: en 2001, la tasa de penetración era del 5 %, con no más de 361 millones de usuarios. Pero las brechas de conectividad son grandes: en EE.UU. está en el 80 por ciento, pero en África es inferior al 14%.

Según el informe Cisco VNI –Visual Networking Index– 2011-2016–, los distintos factores responsables de la evolución y crecimiento de la Red son:

- El creciente número de dispositivos conectados. - Más usuarios - Mayor velocidad de la banda ancha - Más video - Crecimiento de wi-fi.

1.4. Internet y Argentina, hoy

En nuestro país, en 2001, algo más de 3 millones de usuarios accedían a Internet. En 2005, eran 7,6 millones las personas que accedían a Internet, y en 2006 ya eran 10,3 millones de usuarios (E. L. D’Alessio, 2007). En 2008, el Ministerio de Relaciones Exteriores estimaba más de 16 millones de usuarios. En marzo 2009 eran unos 20 millones de usuarios. Según E. D´Alessio (Junio 2012), en diciembre de 2011 había en nuestro país 23,7 millones de usuarios, lo que implicaba que más del 50% de la población (41.769.726; según el Censo 2011) se conecta a la Red, bastante por encima de la media internacional, que es del 32,7 %.

La distribución geográfica, en cambio, es muy desigual. La ciudad de Buenos Aires y las provincias de Buenos Aires, Córdoba, Santa Fe y Mendoza concentran el 82,3% de los accesos, donde la distribución es:

- Ciudad de Buenos Aires: 31,7 %

- Provincia de Buenos Aires: 34,3 %,

- Provincia de Córdoba: 8,5 %,

- Provincia de Santa Fe: 8,4 %,

- Provincia de Mendoza: 3,1 %

- NEA: 1,1 %.

Con sus casi 2,8 millones de km2, la Argentina continental ocupa el octavo lugar entre los países con mayor extensión territorial, y entre los países más poblados, ocupa el puesto 35. Somos un país extenso con una población –año 2014– de algo más de 43 millones de habitantes distribuidos desproporcionadamente, con centros urbanos alejados entre sí y no siempre muy poblados, con una distribución poblacional concentrada sobre el Río Paraná, vinculando las ciudades de Córdoba, Rosario, Buenos Aires y La Plata, con una extensión de más de 600 km y casi 20 millones de habitantes.

Hay solo 35 ciudades que tienen entre 50 mil y 100 mil habitantes, 47 ciudades entre 30.000 y 50.000 habitantes, y unas 260 poblaciones que tienen entre 10.000 y 50.000 habitantes, enfatizando que en pueblos pequeños –menos de 10.000 habitantes–

ISBN 987- 9225 - 01 – 5 8

Maestría en Gestión de Proyectos Educativos Tecnologías de la Información y la Comunicación

Año 2015 Módulo 6

se vuelve antieconómico la provisión de servicios públicos como Internet y telefonía.

1.5. Requerimientos digitales de almacenamiento Como consecuencia de la cantidad de datos e información que circula

permanentemente, conviene recordar la relación entre distintos documentos digitales, sus formatos y soportes y las necesidades de almacenamiento digital (Tabla Nº 4).

Tabla Nº 4: Documentos, formatos y requerimientos digitales de almacenamiento

Requerimientos digitales

Tipos de documentos para su almacenamiento

8 Bytes Un carácter en la computadora –una letra, un número, un signo–

2 KB –2 × 1024 bytes– Una página de este texto, aproximadamente

100 Kilobytes Una fotografía de baja resolución

1 Megabyte –1000 KB– Una novela corta (un diskette).

5 MB Las obras completas de Shakespeare (una canción en MP3)

10 MB Un minuto de sonido de alta fidelidad

700 MB La 9a Sinfonía de L. V. Beethoven en CD-ROM, los 33 tomos de la Enciclopedia Británica, o 500 libros de 500 páginas.

1 Gigabyte = 1.000 MB 10 metros con 700 libros de 500 páginas cada uno.

20 Gigabytes = 20 GB Todas las obras musicales de L. V. Beethoven

100 Gigabytes = 100 GB Una biblioteca con 70.000 libros

1 terabyte = 1000 GB 10 kilómetros = un millón de libros = 50.000 árboles

1,5 TB Datos diarios que envía el Observatorio de Dinámica Solar de la NASA = 500.000 canciones en MP3

4 TB La información audiovisual de una persona de 80 años

260 Terabytes Los libros de la Biblioteca del Congreso de EE. UU.

400 Terabytes Base de datos de la National Climactic Data Center (NOAA)

1 Ppetabyte = 1PB = 1000 TB

(1.000.000 GB)( mil billones de bytes = 1015 bytes)

2 PB Todas las bibliotecas de los EE.UU. Información disponible en la Web = 8 PB (2001). El Internet Archive tiene alrededor de 2 PB de datos.

20 petabytes Google procesa 20 PB de datos cada día.

YouTube = 27 PB (tráfico en diciembre de 2007)

200 petabytes Todos los materiales impresos

1 Exabyte = 1EB 1.000 PB (1.000.000 TB) (un trillón de bytes = 1018 bytes)

3.500.millones de canciones en MP3; 500.000 de horas de video

2 Exabytes Volumen de información generado en el planeta (2002).

Internet ocupa entre 200 y 400 EB (2011).

1 Zettabyte = 1 ZB = 1000 Exabytes.

1,8 Zettabytes Volumen de información que almacenamos en 2011 a través de la TV, la radio, los GPS... En 2018 se estiman más de 35 zettabytes

1 Yottabyte = 1YB = 1000 Zettabytes (no existe un ejemplo real)

1 Brontobyte = 1BB = 1000 Yottabytes (no existe un ejemplo real)

Fuente: Caltech, 2002; University of California. Berkeley, 2003 – 2009; Science, 2011

ISBN 987- 9225 - 01 – 5 9

Maestría en Gestión de Proyectos Educativos Tecnologías de la Información y la Comunicación

Año 2015 Módulo 6

A partir de los últimos dos renglones de la tabla anterior, la sensación de vértigo informático desborda nuestra imaginación: nadie utiliza una unidad de medida que no le signifique “algo”. Si bien puede desbordar nuestra imaginación, no necesariamente desborda nuestra capacidad de producir información: según Science (2011), la humanidad es capaz de almacenar por lo menos 295 Exabytes. Actualmente, la Información mundial se duplica cada dos años (si es que eso significa “algo”). 1.6. Muchas Webs

En 2001 se calculaba que el número de páginas de la Web visible superaba los 2 mil millones (Georgia Tech, 2001), y que se enriquecía diariamente con “entre uno a siete millones de páginas” –valga la variación de la estimación–. En julio de 2003, el número de dominios registrados era de 43 millones que alojaba más de 800 millones de documentos –con unos 20 TB de información disponible–, cifra que –estimaba la misma fuente– se duplicaría cada 18 meses. En marzo de 2005 el número total de dominios registrados alcanzaba aproximadamente los 63 millones (Global-Reach, 2005). En enero de 2006, el número de de dominios registrados era de 75 millones, con un crecimiento promedio de 700.000 sitios por mes entre 2004 y 2005. En mayo de 2007 se estimaban unos 118 millones de sitios, con un crecimiento promedio de 2.000.000 de sitios por mes. De estos sitios el 60 %, aproximadamente, corresponde a los Estados Unidos, con más de 170 TB de información (P. Lyman y H. R. Varian, 2008).

En abril 2008, el número de sitios era de alrededor de 166 millones. En diciembre 2011 se estimaban en 225 millones los dominios Web registrados (VeriSign, Inc., 2012). Más de 7 millones de nuevos dominios se registraron durante el primer trimestre de 2012, con lo que el total de dominios Web asciende a más de 233 millones. El crecimiento mayor está dado por los proveedores de redes sociales y blogging (Netcraft, 2011). En la Argentina hay más de 1,7 millones de dominios de Internet y cada año se crean unos 150.000 (NIC Argentina, 2008). En Brasil, los dominios registrados son, aproximadamente 1.100.000; y en México, unos 250.000 sitios.

En cuanto a buscadores y búsquedas, Google alcanzaba en mayo de 2011 los 1.000 millones de usuarios, Microsoft llegaba a los 905 millones, y Facebook 714 millones (comScore, 2012). En el tráfico en la red, Google se sitúa en el 89,94 por ciento –recibe por lo menos 200 millones de consultas diarias y funciona en más de 100 idiomas–, Bing obtuvo el 4,37 por ciento y Yahoo! el 3,93 (StatCounter, 2010). Aún así, menos del 10% de la información de Internet está disponible a través de estos buscadores.

Complementando la información anterior, en 2004, Google afirmaba en su sitio haber copiado y colocado en la Web los primeros 40.000 libros de los 15 millones de libros de las cinco bibliotecas universitarias más importantes de Estados Unidos y Gran Bretaña –Oxford, Harvard, Stanford, Michigan–, aunque con acceso restringido.

En marzo de 2009 Google tenía disponibles más de 8000 millones de páginas. Además, Google ofrece más de un millón de volúmenes que pueden dividirse en dos grandes grupos, los que ya son de dominio público –la mayoría de los cuales se puede hojear on-line y descargar en formato PDF– y los aún protegidos por el derecho de autor, de los que sólo brinda un fragmento del texto o la vista de algunas páginas.

El proyecto de la Universidad Carnegie Mellon en sociedad con otras universidades de Estados Unidos, es hoy una de las pocas alternativas a Google. También hay propuestas con acceso libre, como el Projecto Gutenberg, fundado en 1971 por Michael Hart. Este proyecto es la primera biblioteca digital y uno de los archivos más grandes y valiosos de libros electrónicos de la actualidad que contiene

ISBN 987- 9225 - 01 – 5 10

Maestría en Gestión de Proyectos Educativos Tecnologías de la Información y la Comunicación

Año 2015 Módulo 6

más de 30.000 textos –cuyos copyright han vencido– en más de una decena de idiomas.

Así como existe la tradicional Web visible, también existe la Web profunda, en la que C. Sherman y G. Price (2001) caracterizan cuatro configuraciones:

1) Web opaca: se compone de archivos que podrían estar incluidos en los índices de los motores de búsqueda, pero no lo están debido a razones de extensión de la indización –registro ordenado de datos e informaciones–.

2) Web privada: consiste de sitios que podrían estar indizados en los motores de búsqueda, pero que son excluidos en forma deliberada, porque sus páginas están protegidas con contraseñas o porque contienen restricciones para esos dispositivos de búsqueda.

3) Web propietaria: incluye a todas aquellas páginas en las que es necesario registrarse para tener acceso al contenido, ya sea en forma gratuita o paga.

4) Web realmente invisible: que se compone de páginas que son excluidas en forma deliberada porque están protegidas con contraseñas y contienen restricciones que se suman a las limitaciones técnicas de los buscadores.

Actualmente, los buscadores registran aproximadamente entre el 16 y el 20% de la Web visible, por lo tanto cuando buscamos perdemos la posibilidad de rastrear no sólo en la Web profunda, sino también en más del 80 % de la Web visible.

La Web profunda, a la que no tienen acceso los motores de búsqueda, algunos autores estiman que es entre 275 y 500 veces mayor –unos 8.000 TB– que la Web visible, mientras que otros señalan que es sólo entre dos y 50 veces mayor que el de la visible, ya que almacena recursos en base de datos que solo producen resultados frente a pedidos explícitos, pagos o no. Ejemplo: ERIC, Online EbscoHost, Medline, etcétera. Las diferencias en las estimaciones se deben, primordialmente, a las distintas metodologías utilizadas, pero ilustran las características propias de la Web: se vuelve cada vez más dinámica y sólo tiene sentido sacarle una "fotografía" en un instante determinado nada más que para mostrar su evolución. 1.7. Cloud computing

La “computación en la nube”, en su traducción literal, o la “nube”, es en realidad un sistema informático –servicios de computación a través de Internet– que se ofrece como servicio pago, de modo que los usuarios puedan acceder a distintos servicios disponibles "en la nube de Internet" para la gestión de los recursos que usan. Según el IEEE Computer Society, es un servicio en el que la información se almacena de manera permanente en servidores de Internet y se envía a computadoras o memorias temporales de los usuarios, e incluye equipos de escritorio, computadoras portátiles, etc. Aunque el concepto no es nuevo, en estos días está recibiendo un renovado impulso de varios gigantes de Internet como Google, Microsoft y Apple.

"Cloud computing" es una forma de suministrar, gestionar y consumir tecnología. Este nuevo modelo de prestación de servicios de tecnología permite al usuario acceder a un catálogo de servicios estandarizados y responder a las necesidades de su negocio, de forma flexible y adaptativa, pagando únicamente por el consumo efectuado. Esto genera beneficios tanto para los proveedores, que pueden ofrecer un mayor número de servicios, como para los usuarios que tienen la posibilidad de acceder a ellos, mediante el pago por consumo. IBM, por ejemplo, se ha convertido en uno de los primeros

ISBN 987- 9225 - 01 – 5 11

Maestría en Gestión de Proyectos Educativos Tecnologías de la Información y la Comunicación

Año 2015 Módulo 6

proveedores de servicios y software cloud computing del mundo, que cuenta con más de 20 millones de usuarios finales de empresas como Citigroup, Lockheed Martin, NC State University, American Airlines, etcétera. Apple, con iCloud, ofrece la posibilidad de guardar más 20 mil canciones y bajarlas a cualquier aparato “autorizado” –Mac, teléfonos o PC– por 25 dólares por año. Google ofrece el mismo servicio de manera gratuita con Google Music. No olvidemos que Iberoamérica tiene un mercado de 500 millones de personas.

La “nube”, al igual que Internet, no consiste en un solo sistema dependiente de una única conexión. Aún así, cuando hace pocos meses las autoridades estadounidenses clausuraron Megaupload, usuarios de todo el mundo perdieron el acceso a los archivos almacenados en esa página de Internet. El sitio fue cerrado porque la justicia de ese país consideró que los usuarios estaban compartiendo películas y música ilegalmente, generando pérdidas a ciertas empresas. Pero mucha gente empleaba el sitio para compartir archivos personales, como fotos y documentos.

Si bien es cada vez es más frecuente almacenar archivos privados en Internet, conviene preguntarse si ésta es realmente una forma segura –y económica– de almacenar información, sobre todo si existen riesgos fiscales de algún gobierno pueden llevar a cabo cierres masivos como el de Megaupload sin advertencia previa.

Sin embargo, sí es posible que colapse algún servidor de la nube debido a daños físicos –igual que la falla de una computadora, su disco rígido o la pérdida de los archivos de una cámara de fotos–. Por ejemplo, si hubiera una inundación en un centro de computación, los datos allí almacenados podrían quedar destruidos. Si bien algunos autores aseguran que las grandes empresas en Internet cuentan con planes de contingencia para enfrentar una inundación, un terremoto, u otro desastre natural, nadie puede asegurar que ello no ocurra. La “nube”, al igual que Internet, no consiste en un solo sistema dependiente de una única conexión. Ya en el absurdo tecnológico, algunos autores recomiendan almacenar nuestros datos en distintos servidores de la nube y, además, hacer copias personales para evitar perder archivos importantes...

Obviamente, otro de los temas importantes que enfrenta la “nube” es la seguridad, y por ello a muchos usuarios no les gusta la idea de almacenar datos personales en Internet, le llamemos “nube” o cloud computing.

El jugoso mercado de la “nube”—cuyo valor en 2015 ronda los 155.000 millones de dólares (140.000 millones de euros), según la consultora Gartner— se basa en la necesidad de las empresas de reaccionar cada vez más rápido a los problemas y variaciones del mercado. Una de ellas, AWS (Amazon), exhibe su tamaño: un millón de clientes en 190 países, a través de 28 centros de proceso de datos distribuidos en 11 regiones geográficas, entre ellas América Latina, con base en Brasil.

1.8. Algunos datos más

Lo que sigue incluye dos facetas más: el reposicionamiento de las empresas que ofrecen datos y la consolidación de las empresas que se iniciaron en Internet.

1) El reposicionamiento de las empresas que ofrecen datos:

Britannica, la empresa que edita la Enciclopedia Británica. publicó en 1989 su primera edición en CD-ROM que, según Imation, ocupaba un CD-ROM con 700 MB. En 1994 presentó una versión en Internet. Ahora, marzo 2012, la empresa editora anunció que descontinuaría sus ediciones en papel –32 volúmenes de la edición 2010– y que se concentraría en su enciclopedia en Internet ( http://www.britannica.com/ ).

ISBN 987- 9225 - 01 – 5 12

Maestría en Gestión de Proyectos Educativos Tecnologías de la Información y la Comunicación

Año 2015 Módulo 6

Wikipedia: la edición española supera ya el millón de artículos. Si alguien quisiera leer todos los artículos que contiene Wikipedia en su versión inglesa, a una velocidad media de 300 palabras por minuto —velocidad normal—, tardaría 14 años y 8 meses, ya que en la actualidad contiene más de 3,4 millones de artículos (octubre de 2010). Se puede descargar toda la información que contiene, con excepción de las imágenes, en un archivo Torrent que ocupa 9,7 GB de memoria (Terra, 2012).

Google evoluciona hacia el buscador Knowledge Graph, adquirido en 2012, que transforma la tradicional búsqueda de información en una búsqueda de conocimiento. La aplicación permite formular preguntas en lenguaje natural –cómo le preguntaría a otra persona–. La aplicación ya cuenta con 500 millones de datos y 3.500 millones de vínculos entre estos datos.

2) La consolidación de las empresas que se iniciaron en Internet:

Internet está creciendo y “reduciéndose” al mismo tiempo. Por un lado, el tráfico web aumenta, pero en vez de extenderse a más páginas webs se concentra cada vez más en los mismos sitios. La tendencia es clara: cada vez hay más personas conectadas a la red que hacen que el tráfico web aumente notablemente, pero estas personas tienden cada vez más a visitar las mismas webs, en vez de navegar buscando nuevos sitios online: las grandes redes sociales (1200 millones de perfiles de Facebook), las plataformas de streaming (3.000 millones de videos por día y 15.000 millones de fotos almacenadas en YouTube) y el correo electrónico (247.000 millones de email circulando cada día), son algunos de los servicios web cada vez más utilizados.

En el año 2009, el 50% del tráfico web se repartía en unas 150 páginas, tendencia que no ha hecho más que crecer. En el año 2013, la mitad del tráfico web se reparte en 35 webs diferentes, liderando el ranking Google, Microsoft, Facebook, Yahoo! y Amazon.

YouTube –adquirido por Google en 2006– recibe actualmente más de tres mil millones de visitas al día y 70.000 nuevos videos son agregados diariamente. Estudios recientes indican que cada “internauta” estadounidense ve casi 16 horas de video por mes. Durante mayo 2011 tuvo un total de 147,2 millones de usuarios únicos, con una media de 5 horas en el sitio (ComScore, 2012) .

En 2013, más de mil millones de usuarios únicos visitaron YouTube cada mes. En ese mismo lapso, se reprodujeron más de 6.000 millones de horas de video: casi una hora por cada persona del mundo y un 50% más que en el año 2012 (datos oficiales de la plataforma más usada por los internautas en el mundo). Cada minuto se suben 100 horas de video a YouTube. Por lo anárquico de la Web es imposible determinar cuántos minutos pertenecen a filmaciones comerciales y cuántos a grabaciones caseras. Sólo el 30% del tráfico del sitio procede de EE.UU. Y llega a más adultos de EE. UU. en edades entre los 18 y los 34 años que cualquier televisión por cable.

A su vez, Facebook tenía 800 millones de usuarios al 31 de diciembre de 2011 y 1250 millones en enero de 2013. Cada usuario promedio de Facebook genera 70 piezas de información cada 30 días y entre todos comparten más de 25.000 millones de piezas de contenido. Linkedin, la red social para profesionales y búsqueda de empleo, llega a los 100 millones de usuarios. Simultáneamente, Twitter alcanzó los 250 millones de usuarios y genera 177 millones de tweets por día.

Más de 1200 millones de personas en el mundo –17 millones en Argentina– comunican su "estado" vía Facebook. Twitter lo secunda con más de 250 millones de usuarios –más de 500.000 en Argentina–.

Los usuarios argentinos de Facebook son los que más tiempo dedican a ese sitio en todo el mundo (comScore, 2012). Según esta consultora en un trabajo titulado Futuro

ISBN 987- 9225 - 01 – 5 13

Maestría en Gestión de Proyectos Educativos Tecnologías de la Información y la Comunicación

Año 2015 Módulo 6

Digital Argentina 2012, quienes ingresan a esta red social desde nuestro país pasan en ella, en promedio, casi diez horas y media al mes (en rigor, 627,3 minutos) (el segundo puesto lo ocupan los usuarios de Tailandia, con un promedio de nueve horas y media mensuales; y el tercero es para Israel, con nueve horas y 28 minutos).

Estos datos corresponden a usuarios de quince años de edad o más que se conectan desde su casa o desde su lugar de trabajo, y fueron recolectados en junio de 2012. Además de encabezar la lista de usuarios que más tiempo le dedican a Facebook, la Argentina ocupa el segundo lugar en esa red social. El 92,7 % de los usuarios argentinos de Internet usan Facebook; proporción solo superada en Filipinas, donde el 94% de los usuarios de Internet lo son también de Facebook. En 2011, los argentinos pasaban todavía algunos minutos más que ahora en Facebook (635,54 minutos). Si además de Facebook se consideran las demás redes sociales –Twitter, LinkedIn–, en tiempo promedio al mes dedicado por cada usuario sube a 10,4 horas, y solo es superada por Rusia –10,7 horas–.

Pero en Facebook hay más de 83 millones de cuentas falsas –perfiles duplicados, mal clasificados o creados para enviar "spam"– según datos proporcionados por la propia red social. A su vez, Twitter tiene 250 millones de usuarios, pero el 25 % de los abonados nunca escribió un mensaje, el 10 % no sigue a nadie, el 6 % no tiene seguidores, y la empresa tiene dificultades para sumar a los mayores de 45 años.

Complementariamente, según Technorati (2009), “se compilan un total de 133 millones de blogs que moran en la red de redes, en Internet”, con 80.000 millones de páginas y documentos. Se estima que en un día se suman 700.000 “posts” o artículos (las mismas estadísticas revelan una triste verdad: muy pocos autores de blogs leen otro aparte del suyo. Y sólo un puñado de blogs alcanza una masa respetable de lectores).

A su vez, los informes muestran que Google es capaz de indexar 20.000 TB de información en tan sólo 24 horas y que YouTube tiene un tráfico (diciembre 2007) de 27 Petabytes (1 PB = 1.000 TB = 1.000.000 GB)(la Biblioteca del Congreso de EE. UU. –la más grande del mundo– se estima en 260 TB).

Por último, según Vinton Cerf (2009), alrededor de 14.000 millones de dispositivos están conectados a Internet en estos días. La explosión de dispositivos se verá impulsada por más y más servicios y tareas que se podrán llevar a cabo de forma online, desde llamadas telefónicas hasta búsquedas personalizadas para bajar videos, juegos y otras formas de entretenimiento. Cisco estima que en 2020 la cantidad de “cosas” conectadas a Internet llegará a 50 mil millones de objetos. A su vez, según IDC, la cantidad de información en la Web se duplica cada 18 meses.

Más allá que parezca erudición irrelevante y efímera, todos estos datos se convierten en la información que explicaría nuestras “dificultades” con, cierto desinterés para, y una fuerte saturación respecto a tener que procesar grandes cantidades de datos:

¿Cuál es la verdadera “fotografía” de la Web?

¿Cuál es la importancia genuina de Internet como fuente de información?

ISBN 987- 9225 - 01 – 5 14

Maestría en Gestión de Proyectos Educativos Tecnologías de la Información y la Comunicación

Año 2015 Módulo 6

2. Calidad de la información

El derecho de alguien a hablar y el derecho de otro a saber, produce el derecho a comunicar.

Esos son los cimientos de lo más preciado de la vida civilizada.

Julian Assange - WikiLeaks

Para muchos especialistas y para W. Choo (1999) en especial, la gestión de la información es el “control” de los recursos y las capacidades de información de una organización a fin de agregar y crear valor para sí misma y para sus clientes –en nuestro caso, facilitando la gestión del conocimiento y poniéndolo al alcance de todos los colaboradores, docentes y alumnos, dentro de una misma institución–. La gestión de la información es un proceso de gestión organizacional y un sistema que adquiere, crea, organiza, distribuye y usa información. La visión de proceso es un ciclo continuo de cinco actividades relacionadas:

1) Identificación de las necesidades de información.

2) Adquisición y creación de información.

3) Organización y almacenamiento de información.

4) Distribución de información.

5) Uso de información.

Aún así, entendemos que gestionar información significa algo más reunir documentos sobre un tema dado con un determinado tratamiento en vistas a la difusión de cierta información por motivos de estudio, trabajo, investigación, docencia, formación permanente, decisión, etcétera. Significa definir críticamente las características deseables de esa gestión.

Desde el punto de vista de los sistemas de información, todos los autores distinguen tres fases para su procesamiento: el almacenamiento, la búsqueda, y el análisis de la información propiamente dicho.

La primera, como hemos visto, está dedicada a los problemas del almacenamiento –caracterización, indización, bases de datos y sistemas de gestión de bases de datos–. La segunda es la búsqueda o acceso a la información; es decir, el desarrollo de procedimientos y estrategias para acceder a la información que se encuentra ya almacenada en las bases de datos. La tercera está vinculada al problema del análisis de la información. Desde un punto de vista lógico, estas tres fases pueden considerarse como las funciones básicas de un sistema global de información.

Pero allí no termina el proceso, diríamos que recién comienza. En primer lugar se debería identificar donde está ese conocimiento –no sólo quiénes lo tienen, sino también si es posible obtenerlo, física y económicamente–. Luego vendría una etapa de clasificación de esa documentación para elaborar un mapa del conocimiento en función de su calidad, es decir, incorporando requisitos de evaluación de la información que está en los documentos. Por ejemplo, las revistas y los libros que se publican generalmente pasan por dos filtros de calidad:

1) por parte del editor de la revista, o del libro en cuestión:

a) Los autores: cómo fueron elegidos por el responsable de la colección, o por la editorial.

ISBN 987- 9225 - 01 – 5 15

Maestría en Gestión de Proyectos Educativos Tecnologías de la Información y la Comunicación

Año 2015 Módulo 6

b) Los cargos y/o funciones que tiene, o tuvo, quien escribe.

c) Las instituciones en las que trabajan.

d) La “calidad” intelectual del texto y el prestigio de la editorial; y

2) de las personas que proponen el texto, docentes de la institución (facultad, escuela, biblioteca):

a) Los autores: cómo fueron elegidos por el responsable de esa unidad académica.

b) La editorial, como referente del prestigio del texto.

c) Las sugerencias y recomendaciones de otros autores, o profesores.

En Internet, en contrapartida, existe el mito de que cualquier persona puede instalar un sitio, lo cual en principio, es bueno y democrático. Pero muchos pueden usar esta libertad –y de hecho lo hacen– para colocar información falsa o decididamente mal intencionada.

¿Quién controla los textos en Internet?

¿Quién controla las correcciones de los textos en Internet (U. Eco, 2006)?

¿Quién garantiza que no se filtre información de baja calidad?

Nadie. Uno de los inconvenientes es la falta de credibilidad y fiabilidad de los contenidos que circulan por la Web. Se espera que los usuarios –a través de las exploraciones que realizan al visitar sitios webs– obtengan informaciones veraces, contrastables y, en la medida de lo posible, imparciales y objetivas. También se suele repetir que las buenas páginas Web no se extinguen. Esta es una ingenuidad: no sólo hay páginas Web con buenos artículos pero poco conocidas que desaparecen, sino que las páginas “buenas”, pueden cambiar de estructura y llegar a desaparecer, y las otras, seguirán. Sabemos que muchas revistas impresas, de gran calidad o importancia histórica, mueren, y su cierre puede deberse a muchos factores ajenos a la calidad de la misma: cualidades del editor, apremios económicos, modas “científicas”, etc. 2.1. Conocimiento, sabiduría y poder

Se dice que cuanto más y mejor acceso tengamos a la información, seremos más sabios... (F. Sáez Vacas, 2000). De hecho, a quienes probablemente les suceda tal cosa es a aquellos viven dentro de comunidades orientadas a desarrollar procesos basados en el conocimiento, porque –una vez más conviene insistir en ello– lo esencial no es la información, sino la cantidad y clase de conocimiento que ésta contiene: es preciso admitir el mayor valor del conocimiento sobre la información. Por eso queremos llamar la atención sobre la repercusión de la frase de la cultura de la globalización que nos recuerda insistentemente que información es poder (para algunos…) (Fig. Nº 1).

Fig. Nº 1: la verdad nos hará libres…

ISBN 987- 9225 - 01 – 5 16

Maestría en Gestión de Proyectos Educativos Tecnologías de la Información y la Comunicación

Año 2015 Módulo 6

Pero la frase resulta vacía de contenido si no se analizan los factores que permiten tener poder y poder ejercerlo efectivamente. En general, se sostiene que una persona adquiere poder cuando posee cierta información que otros no poseen porque (R. Salinas, 1989; A. Dellamea, 1995):

1) puede acceder a esa información relevante con mayor facilidad que otros; o

2) puede determinar a quién hará conocer esa información, en qué momento, cómo y en qué medida la difundirá, y qué obtendrá a cambio.

La información que realmente afecta al mundo se canaliza a través de un mercado de acceso restringido –tal como se aprecia en la Web profunda– en el que se verifica que el máximo beneficio posible se obtiene cuando la información tiene mínima difusión. En este caso, esa información es más costosa debido a que es más difícil acceder a ella: pocos compradores pagarán precios muy altos y se asegurarán que sólo ellos la poseerán. Así, sólo así, se adquiere control sobre los datos y la información.

Otra cosa son los mercados genéricos de información, con la intención básica de que la máxima difusión posible de los productos informativos asegure máximo beneficio. En este caso, la estrategia utilizada es otra: facilitar la distribución masiva de información, que asegura fácil acceso a los datos y a la información “metabolizada” por otros –datos o conocimientos analizados, “precocinados” o metabolizados por otras personas con otros modelos mentales y otros intereses–. Ejemplo: la producción de información que recogen, acopian, redactan y distribuyen las agencias noticiosas no especializadas y los medios masivos de comunicación –en especial los diarios y revistas de gran tirada, los programas y series de TV diseñados para interesar al mayor número posible de personas– y, obviamente, Internet.

Casi todas las industrias culturales –editoriales, grabadoras, productoras de contenidos multimediales, etcétera– son empresas comerciales con fines de lucro y guiadas por intereses económicos y claras relaciones de costo-beneficio, salvo algunas asociaciones y fundaciones. Partiendo de cómo se obtiene y se produce genuinamente el conocimiento en las distintas comunidades científico-tecnológicas y en las empresas, ese conocimiento luego es sometido a la valoración y selección, o recorte, según decisiones políticas y empresariales que, según los distintos casos, son tomadas con la menor participación de los distintos sectores que componen la comunidad destinataria.

Obviamente, los distintos documentos no son sólo simples sistemas de distribución de conocimiento sino también el resultado de actividades y compromisos políticos, económicos y culturales. Si bien son concebidos, diseñados y firmados por personas e instituciones reales con intereses reales, son publicados dentro de fronteras socio-económicas de diversos mercados, con distintos recursos y poder. A su vez, configuran –a través de sus contenidos y sus formatos– construcciones particulares de la realidad, modalidades y maneras de seleccionar y organizar el universo de posibles conocimientos.

Esta situación no puede ser soslayada en el momento de analizar un documento determinado, pero facilita la caracterización de fronteras intermedias en conjuntos difusos de documentos de mala calidad informativa y de inexplicable presencia sin estos parámetros. Lo que intentamos señalar es que muchas veces las decisiones las toman las empresas en base a sus estrategias de venta. Estas "asimetrías en la información" actualmente son aplicadas intensamente a la gestión del conocimiento.

ISBN 987- 9225 - 01 – 5 17

Maestría en Gestión de Proyectos Educativos Tecnologías de la Información y la Comunicación

Año 2015 Módulo 6

2.2. Buscando información gratis

Encontrar algo en la Web implica ponerse en el lugar de la persona que desarrolló el sitio que estamos buscando. Hay varias formas de hacer esto. Puede recorrer las categorías de un directorio como Yahoo!, darle un criterio de búsqueda a un motor como Google o directamente apelar a lo que se conoce como metabuscador (www.mamma.com), que consulta una serie de buscadores y directorios, ahorrándonos el trabajo de hacerlo nosotros mismos.

Los directorios como Yahoo! (www.Yahoo.com o www.ar.yahoo.com) son útiles para búsquedas bien acotadas. Se elige una categoría inicial –por ejemplo, Tecnología–, se sigue por Tecnología de la información y allí se puede hacer clic en Autores, donde encontrará material en pocos minutos.

Estos servicios son una forma de empezar a familiarizarse con “navegar” por la Web. Porque se trata de búsquedas preparadas por otras personas, que funcionan cuando, por ejemplo, queremos averiguar la bibliografía completa de Borges, u obtener un mapa de África. Los motores de búsqueda como Google son la herramienta indicada para ubicar datos específicos –una ciudad, una dirección Web, la hora en un país–, como difusos –necesito información sobre tecnología de la información y la comunicación para un trabajo de la facultad–.

¿Es cierto que en la Web hay muchísima información “basura” –en términos de bytes– y no necesariamente información –en términos de contenidos– socialmente útil?

El problema real es que es demasiado sencillo encontrar “basura” y no tanto encontrar lo que se necesita. Es difícil, entre otras razones, porque:

1) la cantidad de información “chatarra” –duplicada y triplicada– on-line es abrumadora, y

2) la información de calidad casi nunca es gratis.

Todos los encantados con "la cultura gratuita" pagan sin chistar sumas significativas de dinero por la tecnología que permite ese "acceder gratis". Qué curiosa es esta situación: estamos dispuestos a pagar pesos, dólares, euros por tecnologías que nos han acostumbrado a acceder a "contenidos sin pagar”.

Pero el problema no termina allí. Diríamos que recién empieza, ya que esta paradoja incluye otras situaciones que es conveniente tener en cuenta. 2.3. Google, información gratis

Ya nadie discute que la ciencia y la tecnología y sus aplicaciones son las principales fuerzas de transformación de la sociedad. Pero hay problemas cuya solución, o interpretación, no alcanza con la intervención de los científicos, los tecnólogos y aquellos que usamos tecnología.

Según datos de la empresa de medición Nielsen, Google fue la página Web más visitada en los Estados Unidos durante 2011, seguida por la red social Facebook y el buscador Yahoo!. Del mismo informe se desprende que Google recibió un promedio de 153,4 millones de visitantes estadounidenses únicos cada mes.

Facebook, por su parte, acumuló 137,6 millones de visitas de ese carácter y Yahoo! 130,1 millones. Los sitios MSN, WindowsLive y Bing de Microsoft se ubican por debajo con 115,9 millones de visitantes únicos, seguidos por YouTube, con 106,7 millones. Facebook, que cuenta con más de 800 millones de usuarios en el mundo, fue además el líder absoluto en la categoría de redes sociales y blogs. Es que sus 137,6 millones de usuarios únicos al mes representan más del triple que los 45,7 millones de

ISBN 987- 9225 - 01 – 5 18

Maestría en Gestión de Proyectos Educativos Tecnologías de la Información y la Comunicación

Año 2015 Módulo 6

Blogger y casi seis veces los 23,6 millones de Twitter… (Tabla Nº 5).

Tabla Nº 5: Búsquedas mensuales promedio por persona (Comscore, 2011)

En Argentina, según comScore (2012) hay 13 millones de conexiones, 27 millones

de personas, el 91 por ciento de los conectados usa redes sociales y un 18 por ciento usa Twitter desde su casa o trabajo: es decir, hay millones de personas que ofrecen información constantemente y 17 millones de usuarios de Facebook que, cada tanto, actualizan sus “estados”

Tecnológicamente, como se percibe con alguna claridad, el acceso a la información en la Web no es independiente de la estructura de red que forman los enlaces entre páginas y dominios.

Los “buscadores” –programas de software que transitan en Internet, recolectando información, catalogando su contenido y creando sus propias bases de datos con el contenido encontrado– realizan permanentemente mapas de esas conexiones para identificar los recursos más buscados y darles prioridad en sus algoritmos. Sin embargo, la estructura de la Web no responde sólo a la calidad de los contenidos –cuantos más artículos citan una publicación, más valor adquiere ese trabajo, y más valor y visibilidad adquieren los artículos que ese trabajo cita–: los enlaces esconden estrategias y alianzas que denotan asimetrías de poder. Los buscadores fortalecen ciertos “centros de atracción” de los que sabemos poco (S. González-Bailón, 2009).

Sí. Los enlaces enviados por las “páginas centrales” contribuyen mucho más a que los enlaces enviados por páginas periféricas. Esta distribución de influencia permite inferir que la Web no es una red de documentos que funciona de modo similar a las redes de publicaciones científicas. Un número creciente de investigadores está poniendo en duda la validez de la metáfora de la calidad de las publicaciones –no sólo porque todo lo que se publica no tiene la misma calidad, sino porque también porque los buscadores diferencian entre qué se publica y dónde se publica–, mostrando que la Web se asemeja más a una red social: según los análisis, las organizaciones más ricas y más visibles en los medios de comunicación tradicional también son las más centrales y las más visitadas en Internet (S. González-Bailón, 2009).

Veamos. La historia de Google se basaba en dos algoritmos –reglas, procedimientos o métodos de cálculo bien definidos que permiten obtener una solución

ISBN 987- 9225 - 01 – 5 19

Maestría en Gestión de Proyectos Educativos Tecnologías de la Información y la Comunicación

Año 2015 Módulo 6

a un problema en un número finito de pasos–: uno de ellos, el que permite encontrar páginas a partir de determinadas palabras, lo ha vuelto popular. El otro algoritmo asigna a estas palabras un valor comercial, y es el que volvió poderoso a Google

El primero de estos algoritmos, elaborado por L. Page y S. Brin cuando todavía preparaban sus tesis como estudiantes en la Universidad de Stanford, en California, consistía en dar una definición de la pertinencia de una página Web como respuesta a una solicitud (F. Kaplan, 2011). En 1998, los motores de búsqueda ya eran capaces de reportar y clasificar las páginas que contenían la o las palabras solicitadas. Pero esa clasificación se hacía de manera muy sencilla, contabilizando la cantidad de veces que la expresión era buscada.

A medida que la Web crecía, los resultados propuestos aportaban datos pero no existía un procedimiento que permitiera interpretarlos. Para salvar esa situación, los fundadores de Google propusieron una nueva definición y calcular la pertinencia de cada página a partir del número de vínculos hipertextuales que apuntaban a ella –el principio inspirado en el número de citas que garantiza la calidad de los artículos académicos: cuantos más artículos citan una publicación, más valor adquiere ese trabajo, y más valor y visibilidad adquieren los artículos que ese trabajo cita–. Cuanto más creció la Web, el desarrollo de este algoritmo permitió que los software de sus motores de búsqueda afinaran la precisión de sus clasificaciones, dando lugar a detalladas tablas y rankings.

El punto de partida son los sitios más visitados, porque la probabilidad de que contengan enlaces a otras páginas es muy alta, y cuantos más links tienen, más valiosos son. Por esta razón, Google enumera sus resultados en función de la “popularidad” de un sitio –cuántas páginas tienen un enlace a él, cuántas personas lo buscan–. Cuando Google encuentra un sitio que contiene lo que estamos buscando y además lo pone en primer lugar, está informándonos que no sólo contiene lo buscado, sino también que es el más visitado de los que coinciden con la búsqueda. Ahora bien, que sea el más visitado no lo hace, necesariamente, el de mayor calidad…

En el segundo algoritmo, por cada búsqueda que hace una persona Google le propone varios vínculos asociados a breves publicidades que direccionan a sitios de empresas y que son presentados antes de los resultados de la búsqueda. Los anunciantes pueden elegir las expresiones o palabras claves a las cuales desean ver asociada su publicidad y que sólo pagan cuando un internauta “cliquea” efectivamente sobre el link propuesto. Este procedimiento hizo de Google una de las empresas más ricas del mundo (F. Kaplan, 2011).

Pero hay otros algoritmos de Google, como el que le permite tomar decisiones en el motor de búsqueda para organizar la información de la mejor manera para los usuarios, y para los intereses de Google, sobre las bases de la información previa que dispone. Google también usa un software de corrección ortográfica que comprueba si los términos de la consulta están escritos con la grafía más común –los usuarios generalmente se equivocan: errores de tipeo, errores de nombres, etcétera–, por eso Google “sugiere el buen camino” de nombres, sitios o cosas. Si buscamos a Wolfgang Laaser –un profesor alemán dedicado a la educación a distancia–, Google le sugerirá resultados de láser o la asertividad, aún cuando sepamos que sus artículos están en la Web (M. Blejman, 2011).

Pero, además, estos algoritmos de Google “aprenden” de las búsquedas ya realizadas por usuarios anteriores: es decir, si la mayoría de las personas que buscaron un tema hicieron click en una determinada página, el algoritmo “supone” que el resto de los usuarios intentará buscar en la misma dirección e induce a ellas con sus listados. Pero hay otro aspecto más perturbador de Google: las búsquedas ejecutadas desde

ISBN 987- 9225 - 01 – 5 20

Maestría en Gestión de Proyectos Educativos Tecnologías de la Información y la Comunicación

Año 2015 Módulo 6

otras latitudes generan otras opciones. Google devuelve información diferente según el contexto, el país y el usuario. No hay “un” resultado de Google. Cuando se busca desde Londres, por ejemplo, el resultado viene principalmente en inglés. Tal vez no hayamos reflexionado sobre esto, pero Google devuelve búsquedas hacia los usuarios sobre la base de “saber” –toda la información ya procesada previamente– qué es lo que el usuario elige.

Y hay más, Google aprendió en estos años a mejorar la velocidad de respuesta de sus algoritmos, a trabajar con información en tiempo real, y desarrolló software con métodos estadísticos para estimar probabilísticamente cuál será la próxima acción de los usuarios, antes de que ella ocurra: si Google o Facebook aprenden de nuestras propias búsquedas anteriores, la próxima vez que queramos algo nos darán algo muy cercano a lo que ya buscamos anteriormente. Si buscamos “Argentina”, por ejemplo, y anteriormente hemos ingresado a sitios sobre turismo en Argentina, ya no veremos información sobre el INDEC, o sobre YPF, en la primera página. De manera similar, si queremos seguir las opiniones de nuestros amigos en Facebook, sólo veremos las opiniones de quienes más visitamos. Si entramos frecuentemente a algunos perfiles de nuestros amigos y con menos frecuencia a otros, lentamente dejaremos de “ver” qué actividad tienen estos otros usuarios., ya que su algoritmo “interpreta” que éstos son poco interesantes para nuestro perfil... y dejará de mostrarlos.

Vivimos filtrados por algoritmos… que procesan información que nosotros le hemos dado en nuestra búsquedas anteriores.

Consecuentemente, Google ya no muestra el mundo “tal cual es”, sino tal cual nosotros queremos que sea –según “infiere” el algoritmo de Google de nuestras búsquedas anteriores–, y no tal cual nosotros esperamos que Google nos devuelva en cada búsqueda. Ese comportamiento rompe el criterio académico de la libertad y objetividad de lo que se espera de una búsqueda, para incidir sobre lo que “la gente” debe saber sobre un lugar o un acontecimiento. Es decir, para una persona que busca información turística sobre Argentina, está “bien” –sería lo deseable– que también sepa que hay alguna inflación, que han estatizado YPF y no solamente que existen las cataratas del Iguazú y las pistas de esquí de Bariloche.

Existe, además, un fenómeno paralelo muy significativo: generalmente la mayor parte de la información realmente útil está protegida bajo derechos de propiedad –que difieren claramente de los derechos de autor–. Poderosos grupos empresarios poseen los derechos de propiedad de millones de fotos, documentos e imágenes y cobran por acceder a ellos, de modo que en la práctica se limita bastante el acceso a esos bienes culturales. La consecuencia obvia para la calidad de la información es que, si casi todo lo valioso es propiedad de alguna empresa o corporación internacional, cuán útil o relevante puede ser lo que queda como públicamente accesible.

¿Cuál es el costo de estas búsquedas gratuitas en Google, o cualquier otro buscador como Yahoo!, o Bing?

¡Ofrecer gratuitamente información sobre nosotros, a terceros…!

Hacemos búsquedas, mandamos correos, chateamos: nuestros deseos, opiniones, intereses y motivaciones son localizados, rastreados, a través de distintos dispositivos –bots y cookies–, y comercializados. Google analiza y refina sus procesos de búsqueda y vende información y publicidad claramente dirigida. Los perfiles de Facebook y de Twitter apuntan a lo mismo.

Estamos frente a un sistema de auto-reforzamiento positivo de retroalimentación: los motores de recomendación de Google –un tipo específico de algoritmo que filtra

ISBN 987- 9225 - 01 – 5 21

Maestría en Gestión de Proyectos Educativos Tecnologías de la Información y la Comunicación

Año 2015 Módulo 6

información técnica para presentar al usuario películas, música, libros, noticias, páginas Web, sobre las que está interesado–, que “ya nos conocen”, personalizan sus ofertas con nuestros intereses y comportamientos: estos sistemas de recomendación parece que ampliaran el espectro de búsquedas, pero sólo nos ofrecen más de lo mismo. Y en ese proceso perdemos no sólo la objetividad que le podemos pedir a una búsqueda académica sino también lo fortuito, lo casual, lo inesperado, lo no-buscado.

Más, se ha modificado el relevante concepto de privacidad y, además, me dicen lo conveniente que es que cada vez me parezca más a mi mismo…

Pero, entre otras cosas, por ejemplo, la Agencia Española de Protección de Datos (AEPD) ha constatado que Google recoge y trata ilegítimamente información personal, tanto de los usuarios autenticados –los dados de alta en sus servicios– como de los no autenticados, e incluso de quienes son meros “usuarios pasivos” –que no han solicitado sus servicios pero acceden a páginas gestionadas por la compañía sin explicitarlo–. Las inspecciones han permitido comprobar que Google recopila información personal a través de casi un centenar de servicios y productos que ofrece en España, sin proporcionar información adecuada sobre qué datos se recogen, para qué fines se utilizan y sin obtener un consentimiento válido de sus titulares. Así, por ejemplo, no se informa con claridad a los usuarios de Gmail de que se realiza un filtrado del contenido del correo y de los ficheros anexos para insertar publicidad. Cuando se informa, se utiliza una terminología imprecisa, con expresiones genéricas y poco claras que impiden a los usuarios conocer el significado real de lo que se plantea.

Por otra parte, Google combina la información personal obtenida a través de los diversos servicios o productos para utilizarla con múltiples finalidades que no se determinan con claridad, vulnerando con ello la prohibición de utilizar los datos para fines distintos de aquellos para los que han sido recabados. Esta combinación de los datos que se recogen en un servicio con los obtenidos en otros, y que permite a Google enriquecer la información personal que almacena, excede ampliamente las expectativas razonables del usuario medio, que no es consciente del carácter masivo y transversal del tratamiento de sus datos. Al actuar así, Google se sirve de una tecnología sofisticada que sobrepasa la capacidad de la mayoría de los usuarios para tomar decisiones conscientes sobre el uso de su información personal por lo que, en la práctica, pierden el control sobre la misma.

Como se aprecia, se están desarrollando mecanismos “colaborativos” que no tienen nada de espontáneo, de azaroso y de fortuito, que están encontrando y definiendo patrones de comportamiento que se utilizan para vendernos algo, a cambio de información que damos gratuitamente.

Si bien todo parece indicar que el planeta está lleno de información potencial y que estamos rodeados de más información que nunca, queda bastante claro que nunca ha resultado tan difícil no sólo decidir cuál es la "buena" información –válida, concisa, relevante– sino también si es factible acceder razonablemente a ella.

¿Quién garantiza que no se omita, o sesgue, información relevante?

¿Cuál es la verdadera importancia de Internet como fuente de información?

¿Cuál es la repercusión de estos procedimientos sobre los procesos de enseñanza? ¿y sobre los procesos de aprendizaje?

ISBN 987- 9225 - 01 – 5 22

Maestría en Gestión de Proyectos Educativos Tecnologías de la Información y la Comunicación

Año 2015 Módulo 6

3. Profundizando un poco más

La gente cree más en una gran mentira que en una pequeña y si se repite, más aún

William Langer

Pero hay algo más. La información y las comunicaciones no son sólo un fenómeno del mundo de las ciencias de la documentación y de la tecnología sino también un fenómeno humano, el núcleo distintivo de lo humano. Como puede inferirse, los procesos, los canales, las estructuras y dimensiones de la información y de la comunicación –muy anteriores a las tecnologías físicas correspondientes– involucran grandes volúmenes de conocimiento de distintas disciplinas que admiten enfoques desde diversas ópticas: antropológica, sociológica, etcétera, que a su vez incluyen aspectos y puntos de vista desde la psicología del conocimiento, las ciencias de la información, la lingüística, la psico-lingüística, o las ciencias de la educación, etcétera. Estas disciplinas interactúan entre sí dándole a ese conjunto de tecnologías sociales una característica fuertemente interdisciplinaria. 3.1. Calidad de la información –nivel 2–

La utilización de cualquier documento nos debe plantear, siempre, preguntas:

¿Qué valor tiene esa fuente de información?

¿Qué valor tienen las “otras” fuentes de información?

Un documento solo es utilizable si los datos que nos proporciona son exactos, si las informaciones son válidas, si podemos dar crédito a lo que expresa. Muchas personas imaginan en la práctica que “desde el momento que está escrito, es ciertamente válido”, o que si alguien ha dado esa información, desde el momento que lo dice, debe ser verdad...

Pero no es así. Muchas veces se proporcionan documentos cuyas información, tiene cierta verosimilitud desde luego, no es nunca absolutamente falsa; se producen así porque deben ser presentadas de manera tendenciosa, para minimizar ciertos elementos –intereses, (des)prestigio, ubicación social– y para maximizar otros –ya sea (re)ubicar, posicionar, hacer “operaciones”–. Dicho de otro modo, la mayoría de las veces podemos recibir imágenes deformadas de la vida real, deformaciones sistemáticas, falta de objetividad o de realismo, que juegan permanentemente en ciertos dominios profesionales. Incluso en materia científica, técnica, o económica, las ideas divergen; la presentación de las mismas experiencias puede hacerse de diversas maneras, en función de abordajes, enfoques y teorías preestablecidas: si todo puede ser dicho y sostenido, todo puede igualmente ser contestado y refutado...

En este nivel no estamos dudando de la ortografía de las palabras que están en el Diccionario, o de los números en la Guía de teléfonos –salvo errores tipográficos, siempre posibles–. Tampoco dudamos si Ouagadougou es la capital de Burkina Faso o si B. F. Skinner escribió Walden Dos en el año 1948, incluso aunque no podamos comprobarlo por nosotros mismos. Pero hay otra información –la que va más allá de la erudición y se entreteje con intereses y poder– que necesita ser corroborada.

Para todos los documentos dudosos hay que hacerse la pregunta: ¿qué interés tiene el autor en dar esa información y si es competente?.

Intervienen por tanto dos criterios en el juicio; por una parte los motivos, los móviles

ISBN 987- 9225 - 01 – 5 23

Maestría en Gestión de Proyectos Educativos Tecnologías de la Información y la Comunicación

Año 2015 Módulo 6

de todos los que participan, de lejos o de cerca en la cadena de producción de conocimientos documentados, de todos los personajes que evocaremos más abajo, y por otra parte su competencia, su conciencia profesional, su valor intelectual, su calidad moral. Recordemos que la descripción de lo real pone en juego ideologías con intereses antagónicos, dificultades y actitudes personales, posiciones de prestigio institucional, etcétera. Pero también ofrece cierto número de posibilidades, por lo que conviene encontrar, mínimamente:

1) documentación lo más al día posible,

2) fuentes documentales no demasiado interesadas o tendenciosas, y

3) la fuente documental más competente, más objetiva y más científica en el dominio considerado.

Observemos que no siempre es posible conciliar estas exigencias. Un documento antiguo puede a veces ser más objetivo y preciso que un documento reciente. Pero satisfacer la segunda condición —eliminar las fuentes tendenciosas o interesadas—, significa detectar y evitar los documentos que vienen con sesgos. Para satisfacer la tercera condición, debemos buscar fuentes documentales genuinas, ya sean personales, universitarias, o de institutos de carácter especializado.

Esto también significa detectar y evitar las posiciones extremas. Significa investigar, percibir, comprender, interpretar y explicar: nos obliga a construir nuestros propios significados partiendo de nuestra propia experiencia. Entendemos que no existe ninguna búsqueda que no parta de un modelo conceptual previo –una teoría del conocimiento: la reflexión sobre la posibilidad, origen, naturaleza, justificación y límites de ese modelo– y que no formule –antes, durante o después de la acción de búsqueda–, una manera de conocer la realidad. Por lo tanto, vamos a tener en cuenta –siempre– que detrás de toda información subyace un esquema conceptual.

Obviamente no podemos abarcar y reducir a una sola teoría la gran cantidad de datos, investigaciones y conclusiones que nos llegan. Como en todos los ámbitos, la construcción de elaboraciones teóricas nuevas, capaces de ser incorporadas a nuestra cosmovisión, debe seguir un modelo conceptual, lo que requiere tenerlo en cuenta desde el principio, tanto en los datos como en la información recibida: el conocimiento es la combinación de información, contexto y experiencia.

Nuestra propuesta puede resumirse así:

1) emplear conceptos claros para representar el conocimiento contenido en los documentos;

2) agrupar esos conceptos claros en clases o grupos, para representar los temas alrededor de los cuales se agrupa la información contenida en los datos;

3) colocar esos temas en un espacio bidimensional –un mapa conceptual– para darles una representación del campo que se analiza.

Si bien estos criterios se escriben con cierta facilidad, debemos recordar que la cantidad de información acumulada en las bases de datos es considerable. Dar un sentido a toda esa información constituye un verdadero desafío para todos –docentes, profesionales o investigadores–. Y sobre todo, es un desafío para los responsables de enseñar a terceros cómo buscar información.

ISBN 987- 9225 - 01 – 5 24

Maestría en Gestión de Proyectos Educativos Tecnologías de la Información y la Comunicación

Año 2015 Módulo 6

3.2. Plagio

Si buscas de un autor, es plagio;

si buscas de muchos, es investigación

W. Mizner y R. Cummings (1938)

Copiar de un autor es plagio,

copiar de muchos es investigación

Isabel Allende (1997)

Como dijimos en el módulo anterior, el plagio ocurre cuando tomamos prestadas palabras o ideas de otros y no reconocemos expresamente haberlo hecho. Cada vez que escribimos un documento que requiere datos e información producto de la investigación de otras personas, debemos informar a nuestros lectores de donde obtuvimos las ideas y afirmaciones, o datos, que no son nuestros. Tanto si citamos directamente o si hacemos un resumen de la información, debemos reconocer a nuestras fuentes, citándolas.

Otra alternativa –no menor– que ofrece Internet es la facilidad de copiar y pegar, y entendemos que no es un tema para ignorar –en lo que hace al manejo ético vinculado con la recuperación de datos e información–, ya que lleva a que muchos se tienten con la posibilidad fácil de tomar trabajos de otros y hacerlos propios plagiándolos sin mayor preocupación (J. J. Bajarlía, 2011):

- Se plagia en el trabajo universitario no solo cuando se toman como propias ideas escritas de otros. También es plagio tomar como propias ideas dichas por otros (en una conferencia o una clase, por ejemplo) sin hacer referencia a dicha circunstancia. Del mismo modo se comete plagio cuando, en una exposición oral, usamos ideas de otro y no lo decimos.

- El plagio también incluye las ideas expresadas gráficamente –fotografías, películas, cuadros–, en obras escultóricas o musicales.

- Se puede plagiar, aunque no se quiera hacerlo, simplemente, por tener poca atención o poco cuidado: copiar es plagiar... .

- Siempre que usamos una idea de otro como nuestra, cometeremos plagio.

De acuerdo con el Art.10 de la Ley 11.723, sólo está permitida la transcripción parcial de hasta 1000 palabras, colocando a las mismas entre comillas y citando a la fuente. Dicho de otra manera: está prohibido utilizar material que constituya propiedad intelectual de terceros, sin mencionar su fuente o autor, y/o publicar material de propiedad intelectual de terceros que exceda las mil (1000) palabras.

Para profundizar:

http://www.lanacion.com.ar/1106981-se-debe-compensar-la-copia-privada-de-musica-o-libros 3.3. Qué es ICANN

La Corporación de Internet para la Asignación de Nombres y Números –ICANN–(en inglés: Internet Corporation for Assigned Names and Numbers) es una organización sin fines de lucro creada el 18 de septiembre de 1998 con objeto de encargarse de las tareas de coordinación y organización realizadas con anterioridad a esa fecha por otra organización, la IANA –Internet Assigned Numbers Authority–, que coordinaba y organizaba el control del sistema técnico de direcciones que se utilizan en Internet.

Por razones históricas, la arquitectura de Internet fue un encargo del Pentágono, Estados Unidos ha tenido el control del sistema técnico de direcciones (.com, .edu...) que permite que una máquina reconozca a otra y dirija los archivos que se le destinan.

ISBN 987- 9225 - 01 – 5 25

Maestría en Gestión de Proyectos Educativos Tecnologías de la Información y la Comunicación

Año 2015 Módulo 6

En 1998, la Administración Clinton creó ICANN, un organismo privado sometido al derecho californiano y en cuyo consejo directivo hay personas de distintas nacionalidades e intereses. ICANN suscribió un memorando de entendimiento con el departamento de Comercio de Estados Unidos que se renueva periódicamente. La administración estadounidense tiene de hecho una facultad de veto que nunca ha ejercido.

Varios gobiernos, como China o India, reclaman desde hace años que esta gestión de los dominios pase de ICANN, única autoridad mundial de Internet, a un organismo de la ONU. Lo plantearon por ejemplo, en la cumbre digital de Ginebra de 2003. Pero este cambio preocupa a los analistas porque dar el poder de gestión a los gobiernos, además de suponer una menor diligencia en la toma de decisiones por culpa de las negociaciones diplomáticas, supondría darles una enorme autoridad a aquellos que ejercen la censura sobre la Red. 3.4. Software Libre

Según la definición acuñada por la Fundación de Software Libre hace más de 25 años, un programa de computadora es considerado libre cuando sus términos de uso o licencia permiten:

- usarlo con cualquier propósito

- estudiar cómo funciona y adaptarlo a las propias necesidades

- hacer y distribuir copias

- hacer mejoras y redistribuir las versiones mejoradas del programa.

Muchas veces se confunde Software Libre con Software Gratuito, pero la gratuidad no es una condición inherente a la libertad del programa sino que se llega a ella por la libertad para copiarlo sin limitaciones y en forma legal (S. Grau, 2012).

Existen numerosos programas libres para realizar tareas cotidianas vinculadas al uso de computadoras, desde sistemas operativos como las diferentes variantes de GNU/Linux hasta aplicaciones de oficina como Open Office, LibreOffice, navegadores Web como Firefox, sistemas de mensajería instantánea, reproductores multimedia, herramientas de diseño y una enorme cantidad de herramientas para programación de diferentes niveles.

Actualmente un usuario final de computadoras cuenta en su domicilio con todo lo que necesita en un entorno libre bajo condiciones de legalidad y en el marco de una comunidad que considera que compartir conocimiento es un bien social y no un delito (S. Grau, 2012).

Para profundizar:

http://www.lanacion.com.ar/1527590-beatriz-busaniche#comentar

http://www.anbariloche.com.ar/noticia.php?nota=36298

ISBN 987- 9225 - 01 – 5 26

Maestría en Gestión de Proyectos Educativos Tecnologías de la Información y la Comunicación

Año 2015 Módulo 6

3.5. ¿SOPA y PIPA?

Dentro de poco, leer será tener una copia ilegal de un libro en el cerebro

Christopher Kelty

Lo que hasta ahora es aceptado como “sentido común” da por sentado, entre otras cosas, que los derechos de autor son una forma de proteger la creatividad y, por lo tanto, beneficiar a todos. Sin embargo, hay buenos argumentos para pensar que eso no es así. Los anteproyectos de las leyes americanas conocidas como SOPA –Stop Online Piracy Act– y PIPA –Protect IP Act– son parte de una maniobra para recuperar el control sobre Internet de las grandes industrias culturales –empresas cinematográficas, discográficas y editoriales–. Son ellas las que pierden, teóricamente, debido a la piratería la posibilidad de ganar con la inversión realizada para filmar y difundir una costosa película o discos y libros que, si bien son más baratos de producir, son objeto de millonarias campañas de publicidad.

Para estas industrias, una vez realizada la inversión inicial, el potencial de ganancia es infinito, ya que las copias tienen bajo costo o directamente ninguno en caso de ser digitales. Para recuperar el control sobre “sus” productos usan a los autores como escudo, apelando a la imagen del “artista” o del “autor”, aún cuando éstos en realidad ni siquiera son socios menores en el negocio.

La OMPI (Organización Mundial de la Propiedad Intelectual) es una organización de Naciones Unidas que busca –al menos en teoría– defender los derechos de los autores como forma de “estimular la actividad creadora”. Es decir que creen que si no fuera porque las organizaciones y empresas recaudan dinero para los autores, ya no habría creación. Con esa misma lógica propone que las bibliotecas paguen regalías por los libros que prestan ya que, teóricamente, hacen perder ventas a las editoriales. La mayoría de los autores no participa por carecer de agremiaciones que los representen.

Anteproyectos de leyes como SOPA, PIPA, etc., propuestas en los EE.UU., y otras similares en el resto del mundo, buscan aumentar el control sobre el tráfico de contenidos con derechos de propiedad, derechos de autor y bienes falsificados a través de Internet, entre otras cosas. De aplicarse estas normas alcanzaría con una orden judicial para bloquear la publicidad y la capacidad de facturación de cualquier sitio en supuesta infracción, sin necesidad de un juicio, además de permitir el bloqueo de los mismos en los buscadores. Más aún, los proveedores de acceso a Internet serían responsables de desconectar a quien corresponda de la Web y los culpables podrían sufrir hasta cinco años de prisión.

¿Cómo sería ese mundo guiado por el derecho de propiedad y el control?

Por empezar, sitios como Wikipedia deberían sufrir una engorrosa depuración de sus contenidos para asegurarse de no violar ningún derecho de propiedad y de autor, algo tal vez imposible de lograr por el volumen de información que maneja. También peligraría su dinamismo, ya que cada nuevo artículo subido debería sufrir un control mucho mayor: un paso en falso y todo el sitio caería, para beneficio de quienes eran los que manejaban el negocio editorial, como la centenaria Enciclopedia Británica o la reciente Encarta. En cualquier caso se perdería una forma muy exitosa de difusión comunitaria del conocimiento.

Los foros virtuales en los que se comenta o critica, por ejemplo, el servicio o los productos de una empresa determinada podrían ser dados de baja por supuesta

ISBN 987- 9225 - 01 – 5 27

Maestría en Gestión de Proyectos Educativos Tecnologías de la Información y la Comunicación

Año 2015 Módulo 6

violación a derechos de propiedad. Más complicado, pero no imposible, sería detener los sistemas distribuidos que permiten a los usuarios de todo el mundo compartir archivos.

Pero habría empresas de peso económico y político como Google, YouTube, Facebook, Twitter y otros similares, que caerían al menos en parte; no habría manera de controlar lo que suben millones de usuarios a cada momento. Alcanzaría con que alguien tome una foto con un cuadro de fondo y lo suba a Twitter o Facebook para que una denuncia obligue a dar de baja todo el sitio. Estas empresas también hacen lobby para evitar las leyes restrictivas, porque su propio negocio también peligra.

¿Quiénes serían los supuestos ganadores?

Los grandes sitios de venta de música como Itunes, de películas como Netflix, o de libros y demás, como Amazon.com, que serían los canales para el consumo de productos culturales por Internet. A su vez, pagarían regalías a las corporaciones productoras. Las joyas de la corona, como los discos de los grandes músicos, las películas de las grandes compañías y los best seller, los mismos que hoy son los que más se consumen –gratis o no–, estarían rigurosamente controlados por las grandes empresas. Afuera quedarían los productos y contenidos expresamente publicados bajo condiciones permisivas –usando licencias abiertas, como las famosas Creative Commons–, cuya reproducción estaría legalmente autorizada por sus creadores.

Ahora bien, hablamos de leyes, aplicadas a todos los ciudadanos de la red, supuestamente en nuestro nombre, para proteger un modelo de negocio, donde el Estado aparece como regulador, aplicando su poder de policía, en defensa de unos pocos intereses privados.

Pero el problema real es el modelo de la propiedad intelectual y sus defensores, que a costa de defender sus industrias van a destruir a Internet, haciendo desaparecer no solo el problema de las copias ilegales sino también a las comunidades abiertas, los contenidos libres y sus interacciones.

ISBN 987- 9225 - 01 – 5 28

Maestría en Gestión de Proyectos Educativos Tecnologías de la Información y la Comunicación

Año 2015 Módulo 6

5. Integrando ideas Entender no significa resolver,

pero aporta claridad para buscar cursos de acción

Ya en los años 50, D. J. De Solla Price estableció, de alguna manera, que la actividad científica se duplicaba cada quince años aproximadamente –el número de publicaciones científicas existentes en el mundo crece de manera exponencial–. A su vez, J. Appleberry (1999), el conocimiento humano disponible desde la iniciación de la era cristiana se duplica por primera vez en 1750, se vuelve a duplicar en 1900, y también en 1950. En la misma dirección, R. W. Hamming (2000) ha calculado que, desde de Newton, el acervo de conocimiento se viene duplicando cada 17 años (citado por F. Sáez Vacas, 2000). También en 1999, R. Díaz Hochleitner alertaba sobre que la información se duplicaría cada cinco años, y que en 2020 se duplicaría cada 73 días...

Opiniones más actuales estiman que en 2020 se duplicaría cada 20 días...

Según IDC, la cantidad de información en la Web se duplica cada 18 meses… No cabe duda de que toda esta información –fastidiosamente sobreabundante–

nos debe provocar algo más que mera curiosidad. Que, aproximadamente:

1) el conocimiento mundial en algunas áreas se duplica cada dos años; 2) cada día son publicados en el mundo 10.000 artículos científicos y técnicos;

3) los datos enviados por los satélites de las órbitas terrestres, podrían llenar 20 millones de volúmenes cada dos semanas;

4) los egresados de la escuela secundaria son expuestos a más información que sus abuelos a lo largo de toda su vida.

¿Qué información utilizar?¿Con qué posibilidades de acceso?¿En qué contexto?

Como consecuencia de estos análisis, se ha generado un fenómeno con distintos aspectos simultáneos:

- Hasta hace muy poco tiempo atrás las ciencias parecían divididas en amplias y delimitadas disciplinas. Hoy se han extendido en un campo mucho más vasto e interrelacionado. El aspecto que ofrece el conocimiento ahora también está fuertemente vinculado al aspecto con que se presentan las informaciones capaces de satisfacer las necesidades básicas, específicas o generales, para la realización de un trabajo determinado.

- La producción de información científica en el mundo tiene como efecto su propio envejecimiento, ya sea genuino, o forzado, como ocurre actualmente. Pero cuanta más información se produce, más se tiende a citar sólo los trabajos recientes, con lo cual se fuerza su obsolescencia. Por un lado, se produce más información de la que se puede buscar (y recuperar). Por otro, ese envejecimiento forzado nos lleva a concentrarnos sólo en la información más reciente. Pero el envejecimiento de la bibliografía no es uniforme para todas las disciplinas: en el terreno de las ciencias experimentales y la tecnología el crecimiento de la bibliografía está directamente relacionado con su envejecimiento, mientras que en las humanidades ese proceso es similar pero mucho más lento.

- Todo lo anterior supone que los problemas relativos al almacenamiento de la información y su acceso se encuentran idealmente resueltos. Se parte del principio –no enunciado– de que se dispone de (toda) la información, que ésta

ISBN 987- 9225 - 01 – 5 29

Maestría en Gestión de Proyectos Educativos Tecnologías de la Información y la Comunicación

Año 2015 Módulo 6

se encuentra en las bases de datos y que el acceso esta asegurado por sistemas eficaces de búsqueda. La accesibilidad a la información es el condicionante principal de uso: los usuarios tenderán a citar más los documentos que tienen a su alcance, ya que cuanto más fácil es el acceso a una fuente de información, más probabilidades existen de que sea utilizada.

- Los buscadores no pueden cubrir la información que se mueve por canales no convencionales, como la literatura gris, los congresos y las comunicaciones personales entre investigadores. Hay que considerar que el hábito de publicación y los motivos para citar varían de una disciplina a otra y están condicionados por otros factores de carácter social, cultural y económico.

Respecto a las empresas relacionadas con los sistemas de búsqueda de información –sean Google, Bing y Yahoo!, o Microsoft, H.P., Dell, Telefónica y AT&T–, si tuviéramos que dar una definición inmediata de lo que entendemos por publicidad, es muy probable que hiciéramos referencia al tradicional conjunto de mensajes destinado a hacernos comprar algo. Sin embargo, también hay publicidad en ese conjunto de mensajes que crece en extensión y complejidad: estamos frente a un sistema de retroalimentación de información que nosotros damos a través de Internet –que “ya nos conoce”–, que personaliza sus ofertas con nuestros intereses y comportamientos. Si bien parece que estos sistemas de recomendación ampliaran el espectro de búsquedas, sólo nos ofrecen más de lo mismo.

Y en ese proceso perdemos lo accidental, lo casual, lo inesperado, lo no-buscado. No sólo se ha modificado el concepto de privacidad sino que además ahora me dicen lo conveniente que es que cada vez me parezca más a mi mismo…

Como se aprecia, se están desarrollando mecanismos “colaborativos” que no tienen nada de espontáneos, de casuales, que están rastreando y definiendo patrones de comportamiento que se utilizan para vendernos algo.

Este "exceso de información", que sólo busca vendernos algo, se alimenta de una inconsistencia documental que actúa de modo cuantitativo, por acumulación, y confunde cantidad con estrategia. La compilación de grandes cantidades de información, fuera de cualquier inserción estratégica que la estructure, genera impotencia frente a una extensión que nos sobrepasa. No sólo sufrimos de un exceso de información, sino que probablemente no nos permita reflexionar bastante sobre cómo y por qué informarse. (P. Fayard, 1996).

¿Qué hace más llevadera esta situación?

Tomar conciencia de la complejidad del problema, para poder abordarlo con la mayor eficacia posible.

Ante tanta información, posiblemente la tarea sea exactamente inversa a la sugerida habitualmente: no se trata de conseguir (toda) la información disponible, sino de intentar entenderla con alguna rapidez, acorde con las necesidades que tengamos: actividad profesional, acción docente, o requerimiento académico.

ISBN 987- 9225 - 01 – 5 30

Maestría en Gestión de Proyectos Educativos Tecnologías de la Información y la Comunicación

Año 2015 Módulo 6

6. Bibliografía Aguiar, H. (2007): El futuro no espera. Políticas para desarrollar la sociedad del conocimiento.

Fundación Digital-La Crujía. Buenos Aires.

Bajarlía, J. J. (2011): El libro de los plagios. Ediciones Lea. Buenos Aires.

Burbules, N. y Callister, T. (2001). Educación. Riesgos y promesas de las nuevas tecnologías de la información. Barcelona: Granica.

Davenport, T. H. (1999): Ecología de la información. Por qué la tecnología no es suficiente para lograr el éxito en la era de la información. Oxford. México.

Davenport, T. y Prusak, L. (2001): Conocimiento en acción. Prentice Hall. México.

Fayard, P. (1996): ¿Exceso de información o ceguera estratégica? Boletín de la Fundación para el Desarrollo de la Función Social de las Comunicaciones. Barcelona.

Huberman, B. (2001): Patterns in the Ecology of Information" ("Las leyes de la red global, patrones en la ecología de la información"). MIT Press.

Levine, R. (2013): Parásitos. Cómo los oportunistas digitales están destruyendo el negocio de la cultura. Ariel. Barcelona.

Ramonet, I. (1998): La tiranía de la comunicación. Madrid: Debate.

VV.AA (2011): Realidad Aumentada: una nueva lente para ver el mundo. Fundación Telefónica-Ariel-Planeta. Madrid.

VV.AA. (2011): Un mundo conectado: las TIC transforman sociedades, culturas y economías. Fundación Telefónica y The Conference Board. Madrid

VV.AA. (1997): La gestión en tiempos de incertidumbre. Harvard-Deusto, Bilbao.

Watzlawick, P. y Krieg, P. (1995): El ojo del observador. Contribuciones al constructivismo. Barcelona, Gedisa.

Accesos Web:

Aikawa, F. (2012): Cloud computing. En:

http://blogs.perfil.com/conexion/2012/04/24/google-drive-skydrive-y-dropbox-la-batalla-por-la-nube ó http://blogs.perfil.com/conexion

AIMC (2010). Audiencia de Internet en el EGM. http://www.aimc.es/

Bergman, M. (2001). “The Deep Web: Surfacing Hidden Value”. The Journal of Electronic Publishing, August, 2001 Volume 7, Issue 1. http://www.press.umich.edu/jep/07-01/bergman.html

Casciari, H. (2011): Piratas y tiburones. En:

http://www.pagina12.com.ar/diario/suplementos/radar/9-7594-2011-12-31.html

Global Reach (2010). Global Internet StatisTIC (by Language). http://www.global-reach.biz/globstats/index.php3

González-Bailón, S. (2009): Los centros de gravedad de la Web. Ciencia Cognitiva. diciembre, 2009. Facultad de Psicología de la Universidad de Granada. http://medina-psicologia.ugr.es/cienciacognitiva

http://www.pagina12.com.ar/diario/suplementos/futuro/13-2686-2012-04-15.html

Internet Software Consortium (2010). Internet Domain Survey,. http://www.isc.org/ds/WWW-200301/index.html

NUA (2003). How Many Online? http://www.nua.ie/surveys/how_many_online/index.html

Whois Source (2007). Detailed Domain Counts and Internet Statistic. http://www.whois.sc/internet-statisTIC/

Wikipedia (http://es.wikipedia.org/wiki/Wikipedia)

Zook, M. (2003). Zooknic. Internet intelligence. http://www.zooknic.com/index.html