hardware, software, internet, web 2
TRANSCRIPT
El hardware se refiere a todos los componentes físicos (que se pueden
tocar), en el caso de una computadora personal serían los discos, unidades de disco, monitor, teclado, la placa base, el
microprocesador, etc.
El Hardware de Computador ha sido un componenteimportante del proceso de calculo y almacenamientode datos desde que se volvió útil para que los valores
numéricos fueran procesados y compartidos. Elhardware de computador más primitivo fue
probablemente el palillo de cuenta; después grabadopermitía recordar cierta cantidad de ítems,
probablemente ganado o granos, en contenedores.Algo similar se puede encontrar cerca de las
excavaciones de Minoan. Estos ítems parecen habersido usadas por los comerciantes, contadores y los
oficiales del gobierno de la época.
Los dispositivos de ayuda provenientes de lacomputación han cambiado de simples dispositivos
de grabación y conteo al ábaco, la regla del calculo, elComputador análogo y los más recientes, la
computadora. Hasta hoy, un usuario experimentadodel ábaco usando un dispositivo que tiene más de 100
años puede a veces completar operaciones básicasmás rápidamente que una persona inexperta en el usode las calculadoras electrónicas, aunque en el caso de
los cálculos más complejos, los computadores sonmás efectivos que el humano más experimentado.
La humanidad ha usado dispositivos de cómputopor milenios. Un ejemplo es el dispositivo para
establecer la igualdad de peso: las clásicasbalanzas. Una máquina más aritmética es el
ábaco. Se piensa que la forma más antigua de estedispositivo -el ábaco de polvo- fue inventado en
Babilonia. El ábaco egipcio del grano y delalambre datan del año 500 A.C..
Primeras calculadora
s
palillo de cuenta
Arcilla de fenicia
Ábaco
Computadora análogas
Anticiera
Calculadoras mecánicas
Tarjetas perforadas
Computadoras análogas
Computadoras con programas
Tercera generación
Segunda generaciónPrimera gener
ación
Cuarta generación
Quinta generación
Procesador multi nucleo
Posteriores ayudas para mantener los registros
incluyen la arcilla de Fenicia que representaban
conteos de artículos en contenedores,probablemente ganado o granos.
Un ábaco es un objeto que sirve para facilitarcálculos sencillos (sumas, restas y
multiplicaciones). Normalmente, consiste encierto número de cuentas engarzadas en varillas,
cada una de las cuales indica una cifra delnúmero que se representa. Este elemento sirve
mucho a los niños para aprender las operacionesbásicas por lo que es muy usado en niveles
básicos.
El mecanismo de Anticitera es un artilugio que se
cree es un artefacto mecánico primitivo. Fue
descubierto en los restos de un naufragio cerca de
la isla griega de Anticiera, entre Citera y Creta, y
se cree que data del 87 a D.C.
Un número de computadores análogos fueronconstruidos en épocas antiguas y medioevales para
realizar cálculos astronómicos. Éstos incluyen elmecanismo de Anticitera y el astrolabio de la Grecia
antigua (c. 150-100 A.C.). Estos dispositivos sonusualmente considerados como las primeras
computadoras análogas. Otras versiones tempranas dedispositivos mecánicos usados para realizar ciertos tipos
de cálculos incluyen el Planisferio; algunas de lasinvenciones de Al-Biruni (c. AD 1000); el Equatorium de
Azarquiel (c. AD 1015); y los computadoresastronómicosanálogos de otros astrónomos e ingenieros
musulmanes medievales.
En 1623, Wilhelm Schickard construyó la primeracalculadora mecánica digital y por lo tanto se
convirtió en el padre de la era de lacomputación. Puesto que su máquina usótécnicas tales como dientes y engranajes
desarrollados primero para los relojes, tambiénfue llamada un 'reloj calculador'. Fue puesto en
uso práctico por su amigo Johannes Kepler, quienrevolucionó la astronomía.
Lan temprano como en 1725, Basile Bouchon usó un lazo de papel perforado en un telar para establecer el patrón a ser reproducido en
la tela, y en 1726 su compañero de trabajo, Jean-Baptiste Falcon, mejoró su diseño al usar tarjetas perforadas de papel unidas una a la
otra para la eficacia en adaptar y cambiar el programa. El telar de Bouchon-Falcon era semiautomático y requería la alimentación
manual del programa.En muchas instalaciones de computación, las tarjetas perforadas fueron usadas hasta (y después) del final de los años 1970. Por
ejemplo, en muchas universidades alrededor del mundo los estudiantes de ciencia e ingeniería someterían sus asignaciones de
programación al centro de computación local en forma de una pila de tarjetas, una tarjeta por línea de programa, y entonces tenían que
esperar que el programa estuviera en cola para ser procesado, compilado, y ejecutado. En espera para la impresión de cualquier resultado, marcado con la identificación de quien lo solicitó, sería
puesto en una bandeja de salida fuera del centro de computación.
Antes de la Segunda Guerra Mundial, las computadoras análogas mecánicas y eléctricas eran consideradas el "estado del arte", y
muchos pensaban que eran el futuro de la computación.Las computadoras análogas toman ventaja de las fuertes
similitudes entre las matemáticas de propiedades de pequeña escala -- la posición y el movimiento de ruedas o el voltaje y la corriente de componentes electrónicos -- y las matemáticas de
otros fenómenos físicos, ej. trayectorias balísticas, inercia, resonancia, transferencia de energía, momento, etc.
Modelar los fenómenos físicos con las propiedades eléctricas rinde una gran ventaja sobre usar modelos físicos:
1. los componentes eléctricos son más pequeños y baratos; son más fácilmente construidos y ejercitados. 2. Aunque de otra manera similar, los fenómenos, eléctricos se pueden hacer que ocurran en marcos de tiempo convenientemente cortos.
Trabajando aisladamente en Alemania, en 1936 Konrad Zuse comenzó la construcción de sus primeras
calculadoras de la Z-series que ofrecían memoria y programabilidad (limitada inicialmente). La Z1 de
Zuse, que aunque puramente mecánica ya era binaria, fue finalizada en 1938. Nunca trabajó confiablemente
debido a problemas con la precisión de las partes.La subsecuente máquina de Zuse, el Z3, fue finalizada
en 1941. Fue basada en relés telefónicos y trabajó satisfactoriamente. El Z3 se convirtió así en la primera computadora funcional, de todo propósito, controlada por programa. De muchas maneras era muy similar a
las máquinas modernas, siendo pionera en numerosos avances, tales como números de punto flotante.
En esta generación, el almacenamiento temporal o de trabajo fue proporcionado por líneas de retardo acústico, que usaban el tiempo de propagación del sonido a través de un medio como el mercurio líquido (o a través de un
alambre) para almacenar datos brevemente. Una serie de pulsos acústicos eran enviados a lo largo de un tubo; después de un tiempo, en lo que el pulso alcanzaba el
extremo del tubo, el circuito detectaba si el pulso representaba un 1 ó un 0 y causaba al oscilador volver a reenviar el pulso. Otros usaron los tubos de Williams, que utilizan la capacidad de un tubo de imagen de televisión
para almacenar y de recuperar datos. Por 1954, la memoria de núcleo magnético rápidamente desplazó la mayoría de las otras formas de almacenamiento temporal, y dominó el
campo hasta mediados de los años 1970.
Usando los transistores y mejorando las máquinas y los programas, la máquina de cálculo se vuelve más rápida y económica y esto difunde
en diez mil modelos en todo el mundo. Por la situación económica general cambiante, el continuo crecimiento de las firmas, la
introducción de nuevas técnicas de organización y la gerencia de una firma, pasa de un uso prevalente de contabilidad y estadístico a algunas
aplicaciones más complejos que se refieren a todos los sectores de activos.
El transistor fue realizado en 1948 por los norteamericanos John Bardeen, Walter Brattain y William Shockley que compartieron por su
invención el Premio Nobel de Física de 1956. El transistor es un dispositivo electrónico hecho de cristal de silicio o germanio en los que
diferentes átomos de materiales son oportunamente insertados.Las máquinas de cálculo de la segunda generación, a través de un
dispositivo particular hecho para ordenar los datos interiores, pueden sobreponer diferentes operaciones, esto significa leer y perforar las
tarjetas al mismo tiempo, ejecutar cálculos y tomar decisiones lógicas, escribir y leer la información en cintas magnéticas.
Con los progresos de la electrónica y los avances de comunicación con las computadoras en la década de los 1960, surge la tercera generación de las computadoras. Se inaugura con la IBM 360 en
abril de 1964.3Las características de esta generación fueron las siguientes:
Su fabricación electrónica esta basada en circuitos integrados. Su manejo es por medio de los lenguajes de control de los
sistemas operativos.
La IBM produce la serie 360 con los modelos 20, 22, 30, 40, 50, 65, 67, 75, 85, 90, 195 que utilizaban técnicas especiales del
procesador, unidades de cinta de nueve canales, paquetes de discos magnéticos y otras características que ahora son
estándares (no todos los modelos usaban estas técnicas, sino que estaba dividido por aplicaciones).
Aquí aparecen los microprocesadores que es un gran adelanto de la microelectrónica, son circuitos integrados de alta densidad y con una velocidad impresionante. Las microcomputadoras con base en estos circuitos son extremadamente pequeñas y baratas, por lo que su uso
se extiende al mercado industrial. Aquí nacen las computadoras personales que han adquirido proporciones enormes y que han influido
en la sociedad en general sobre la llamada "revolución informática".No todo son microcomputadoras, por su puesto, las minicomputadoras
y los grandes sistemas continúan en desarrollo. De hecho las máquinas pequeñas rebasaban por mucho la capacidad de los grandes
sistemas de 10 o 15 años antes, que requerían de instalaciones costosas y especiales, pero sería equivocado suponer que las grandes computadoras han desaparecido; por el contrario, su presencia era ya
ineludible en prácticamente todas las esferas de control gubernamental, militar y de la gran industria. Las enormes
computadoras de las series CDC, CRAY, Hitachi o IBM por ejemplo, eran capaces de atender a varios cientos de millones de operaciones
por segundo
En vista de la acelerada marcha de la microelectrónica, la sociedad industrial se ha dado a la tarea de poner también a esa altura el desarrollo del software y los sistemas con que se manejan las computadoras. Surge la competencia internacional por el dominio del mercado de la computación, en la que se perfilan dos líderes que, sin embargo, no han podido alcanzar el nivel que se desea: la capacidad de comunicarse con la computadora en un lenguaje más cotidiano y no a través de códigos o lenguajes de control especializados.pueden resumirse de la siguiente manera:Procesamiento en paralelo mediante arquitecturas y diseños especiales y circuitos de gran velocidad.Manejo de lenguaje natural y sistemas de inteligencia artificial.
Un microprocesador multi núcleo es aquel que combina dos o más procesadores independientes en un solo paquete, a menudo un solo circuito integrado (IC). Un dispositivo doble núcleo contiene solamente dos microprocesadores independientes. En general, microprocesadores multi núcleo permiten que un dispositivo
computacional exhiba una cierta forma del paralelismo a nivel de thread (Thread-level parallelism) (TLP) sin incluir múltiples
microprocesadores en paquetes físicos separados. Esta forma de TLP se conoce a menudo como multiprocesamiento a nivel de
chip (Chip-level multiprocessing), o CMP.Multiprocesamiento es un Procesamiento simultáneo con dos o
más procesadores en un computador, o dos o más computadores que están procesando juntos. Cuando se usa dos o más computadores, se unen con un canal de alta velocidad y
comparten la carga de trabajo general entre ellos. En caso de que uno falle el otro se hace cargo.
El software es quizá uno de los productos de la ingeniería que más ha evolucionado en muy poco tiempo, pasando del software
empírico o artesanal hasta llegar al software desarrollado bajo los principios y herramientas de la ingeniería del software.
Sin embargo, dentro de estos cambios, las personas encargadas de la elaboración del software se han enfrentado a problemas
muy comunes: unos debido a la exigencia cada vez mayor en la capacidad de resultados del software, debido al permanente
cambio de condiciones lo que aumenta su complejidad y obsolescencia; y otros, debido a la carencia de herramientas
adecuadas y estándares de tipo organizacional encaminados al mejoramiento de los procesos en el desarrollo del software.
Una necesidad sentida en nuestro medio es el hecho de que los productos de software deben ser desarrollados con base en la
implantación de estándares mundiales, modelos , sistemas métricos, capacitación del recurso humano y otros principios y técnicas de la ingeniería software que garanticen la producción
de software de calidad y competitividad a nivel local e internacional.
Con el acelerado avance tecnológico de la información, la cantidad y la complejidad de los productos de software se
están incrementando considerablemente, así como también la exigencia en su funcionalidad y confiabilidad;
es por esto que la calidad y la productividad se están constituyendo en las grandes preocupaciones tanto de
gestores como para desarrolladores de software. En los primeros años del software, las actividades de
elaboración de programas eran realizadas por una sola personas utilizando lenguajes de bajo nivel* y ajustándose a un computador en especial, que generaban programas
difíciles de entender, aun hasta para su creador, después de algún tiempo de haberlo producido. Esto implicaba tener que repetir el mismo proceso para desarrollar el
mismo programa para otras maquinas. Por consiguiente, la confiabilidad, facilidad de
mantenimiento y cumplimiento no se garantizaban y la productividad era muy baja.
Posteriormente, con la aparición de técnicas estructuradas y con base en las experiencias de los programadores se mejoro la productividad del software. Sin embargo, este
software seguía teniendo fallas, como por ejemplo: documentación inadecuada, dificultad para su correcto
funcionamiento, y por su puesto, insatisfacción de cliente.
Conforme se incrementaba la tecnología de los computadores, también crecía la demanda de los productos de software, pero mucho mas lentamente, tanto que hacia 1990 se decía que las posibilidades de software estaban retrasadas respecto a las del hardware en un mínimo de
dos generaciones de procesadores y que la distancia continuaba aumentando.
En la actualidad muchos de estos problemas subsisten en el desarrollo de software, con una dificultad adicional
relacionada con la incapacidad para satisfacer totalmente la gran demanda y exigencias por parte de los clientes.
La metodología de Booch usa los siguientes tipos de diagramas para describir las decisiones de análisis y
diseño, tácticas y estratégicas, que deben ser hechas en la creación de un sistema orientado por objetos.
Diagrama de Clases. Consisten en un conjunto de clases y relaciones entre ellas. Puede contener clases, clases para métricas, utilidades y metaclases. Los tipos de relaciones son asociaciones, contenencia, herencia, uso, instanciación y metaclase.
Especificación de Clases. Es usado para capturar toda la información importante acerca de una clase en formato texto.
Diagrama de Categorías. Muestra clases agrupadas lógicamente bajo varias categorías
Diagramas de transición de estados. Diagramas de Objetos. Muestra objetos en el sistema y su relación lógica. Pueden ser
diagramas de escenario, donde se muestra cómo colaboran los objetos en cierta operación; o diagramas de instancia, que muestra la existencia de los objetos y las relaciones estructurales entre ellos.
Diagramas de Tiempo. Aumenta un diagrama de objetos con información acerca de eventos externos y tiempo de llegada de los mensajes.
Diagramas de módulos. Muestra la localización de objetos y clases en módulos del diseño físico de un sistema. Un diagrama de módulos representa parte o la totalidad de la arquitectura de módulos del sistema.
Subsistemas. Un subsistema es una agrupación de módulos, útil en modelos de gran escala.
Diagramas de procesos. Muestra la localización de los procesos en los distintos procesadores de un ambiente distribuido.
Objectory. es un proceso organizado para la construcción industrial de
software. Este proceso de diseño está guiado por casos de uso, una técnica que basa su centra el entendimiento de un sistema en la forma en la cual es usado.
Modelo de Casos de Uso: Se basa en la descripción de elementos o usuarios externos al sistema (actores) y funcionalidad del sistema (casos de uso).
Modelo de objetos: Representa la estructura estática de objetos. Puede contener objetos entidad, de interfaz y de control, entre otros tipos; y relaciones de herencia, conocido (una referencia estática), consiste De y comunicación.
Diagrama de interacción. Muestran la secuencia de eventos entre paquetes u objetos necesarios para realizar un caso de uso.
Diagrama de estado. Muestra los estados internos de un objeto complejo.
Algunos de los conceptos más importantes de esta metodología son: Objeto Entidad. Representa información del sistema que debe
sobrevivir cierto período de tiempo, por ejemplo, un caso de uso Objeto de Interfaz. Modela información y comportamiento que es
dependiente de la interfaz actual del sistema Objeto de Control. modela funcionalidad que no corresponde a
ningún objeto en particular y que se presenta en algunos casos de uso. Estos objetos generalmente operan sobre varios objetos entidad, relazan algún algoritmo y retornan algún resultado a un objeto de interfaz.
Paquete. Módulo que contiene código, traducible a un módulo en el lenguaje de implementación.
Unidad. En pruebas, desde una clase hasta un subsistema OMT hace un cubrimiento de las etapas de análisis, diseño e
implementación definidas por la OMG, dejando sin cubrir el modelamiento estratégico.
Modelo de Objetos. Se define como un diagrama de objetos mas un diccionario de datos. El diagrama de objetos muestra clas clases y sus relaciones (generalización, agregación, asociación, instanciación). El diccionario de datos es el detalle de las clases en el diagrama de objetos
Modelo dinámico. Se define como un conjunto de diagramas de estado mas un diagrama de Flujo de eventos Global.
Modelo funcional. Es un diagrama de flujo con restricciones.
Los errores causados por los datos inadecuados son mucho menores que los que se deben a la total ausencia de
datos. Charles Babbage
(1792-1871) Matemático e inventor británico.
No es del todo cierto que Internet tuviese su origen en un proyecto militar estadounidense.
Aunque se ha repetido hasta la saciedad que Internet tiene su origen en un proyecto militar estadounidense
para crear una red de ordenadores que uniera los centros de investigación dedicados a labores de
defensa en la década de los 60 en los Estados Unidos y que pudiera seguir funcionando a pesar de que
alguno de sus nodos fuera destruido por un hipotético ataque nuclear, los creadores de ARPANET, la red
precursora de Internet, no tenían nada parecido en mente y llevan años intentando terminar con esta
percepción.
Internet surgió de la necesidad cada vez más acuciante de poner a disposición de los contratistas de
la Oficina para las Tecnologías de Procesado de la Información (IPTO) más y más recursos informáticos. El
objetivo de la IPTO era buscar mejores maneras de usar los ordenadores, yendo más allá de su uso inicial
como grandes máquinas calculadoras, pero se enfrentaba al serio problema de que cada uno de los
principales investigadores y laboratorios que trabajaban para ella parecían querer tener su propioordenador, lo que no sólo provocaba una duplicación
de esfuerzos dentro de la comunidad de investigadores, sino que además era muy caro; los ordenadores en aquella época eran cualquier cosa
menos pequeños y baratos.
Robert Taylor, nombrado director de la IPTO en 1966, tuvo una brillante idea basada en las ideas propuestas por J. C. R. Licklider
en un artículo llamado Man-Computer Symbiosis (aquí está en formato PDF junto con otro artículo de Licklider llamado The
Computer as a Comunicación Devine): ¿Por qué no conectar todos esos ordenadores entre si? Al construir una serie de enlaces
electrónicos entre diferentes máquinas, los investigadores que estuvieran haciendo un trabajo similar en diferentes lugares del
país podrían compartir recursos y resultados más fácilmente y en lugar de gastar el dinero en media docena de caros ordenadores distribuidos por todo el país, la ARPA (Agencia para Proyectos de Investigación Avanzados, agencia de la que dependía la IPTO de
Roberts; hoy en día se llama (DARPA) podría concentrar sus recursos en un par de lugares instalando allí
ordenadores muy potentes a los que todo el mundo tendría acceso mediante estos enlaces.
Finales de los años 50 Para ver la evolución de Internet debemos remontarnos a finales de los años 50
cuando se crea ARPA, la Agencia de Proyectos de Investigación Avanzada, en el seno del Departamento
de Defensa de los Estados Unidos. Principios de los años 60 Se comienza a pensar en la
idea de una red descentralizada en el Instituto Tecnológico de Massachusetts (MIT) y en la corporación
RAND.Año 1961 Leonard Kleinrock publica en Julio de este
año el primer trabajo sobre "conmutación de paquetes". El Pentágono a través de ARPA financión la puesta en marcha de una prueba práctica. Kleinrock convenció a
Lawrence G. Roberts de la viabilidad de las comunicaciones basadas en paquetes en lugar de
circuitos, lo cual resultó un avance en el camino hacia el trabajo informático en red.
Año 1975 En julio de 1975 ARPANET fue transferido por DARPA a la Agencia de Comunicaciones de Defensa.
Año 1977 Aparece la primera lista de correo. Se trataba de TheryLink y agrupaba a casi un centenar de científicos. En 1979 nacería Usenet y hoy
hay más de 50.000 newsgroups o grupos de noticias en el mundo. El crecimiento tan brutal de las listas obligó en 1987 a crear las jerarquías
(las primeras fueron .comp, .news y .misc). Año 1979 Nace Usenet. Creada por tres estudiantes:
Tom Truscott, Jim Ellis y Steve Bellovin. Usenet es un servicio de grupos de noticias, las populares "news".
Año 1980 Aparecen las primeras aplicaciones TCP/IP. Internet ya tiene 212 servidores.
Año 1983 ARPANet en sí mismo permaneció estrechamente controlado por el departamento de defensa hasta 1983 cuando su parte
estrictamente militar se segmentó convirtiéndose en MILNET. El Pentágono se retira de Arpanet y crea Milnet. Internet ya dispone de 562 servidores. Se creó el sistema de nombres de dominios (.com, .edu, etc., más las siglas de los países), que prácticamente se ha mantenido hasta ahora. En la constitución y crecimiento de esta nueva "red de redes"que
pronto contó con nodos en Europa, las agencias federales norteamericanas prestaron mucho apoyo, financiando las infraestructura.
Año 1989 Tim Beners-Lee , investigador en el centro europeo CERN de Suiza, elaboró su propuesta de un sistema de hipertexto
compartido: era el primer esbozo de la World Wide Web. Como el ARPANet veinte años atrás, su propósito era poner en comunicación a los científicos. La WWW es una creación europea fruto del trabajo
de Tim Beners-Lee y Robert Cailauu que en 1989 trabajan conjuntamente desde el Centro Europeo de Física de Partículas (CERN) en Ginebra. Su objetivo era buscar una herramienta de
trabajo para crear y leer textos a través de una red que permitía intercomunicar a los físicos de todo el mundo. La web, basadas en el
concepto del hipertexto, ha sido un soporte excelente para la introducción de las denominadas aplicaciones multimedia en las
comunicaciones telemáticas. En Internet aun es posible encontrar una captura de pantalla del ordenador personal de Tim Beners-Lee, un Next, en que se ve el primer navegador de todos y como era la
web cuando solo tenia un usuario. Beners-Lee creó el HTML, el HTTP y las URL. Beners-Lee es muy crítico con el uso comercial de la web y de hecho renunció a una empresa que había creado al inventar el web, empresa denominada WebSoft. Actualmente trabaja en el MIT en los Estados Unidos y sigue tan despistado como siempre según
algunas fuentes.
Año 1991 En febrero de 1991 es la fecha que se cita como la invención del denominado Spam, el envio masivo de correo electrónico no
solicitado. Según estas fuentes todo empezó inocentemente: se trataba de enviar mensajes a un niño de 9 años llamado Craig Shergold
gravemente enfermo. El muchacho intentaba batir el record mundial de cartas recibidas y lo consiguió. Ello dio ideas a algunas empresas y en abril de 1994 una empresa de abogados, Center&Siegel tuvo el dudoso
honor de empezar a usar comercialmenteel correo electrónico para envios masivos no solicitados. La venganza que recibieron de la red por lo visto aun les dura. En marzo de 1991 Tim Beners-Lee pone en marcha el primer navegador de la web.(que funcionaba aún con linea de comandos de modo que a años luz del lujo actual). Tim, el creador de la web, ya había creado en el año 1980
programas hipertextuales. En el CERN guardan la página original con los primeros servidores que se crearon. Es una página de noviembre de
1992, cuando solo había 26 ordenadores capaces de servir páginas web. La página advierte de que su contenido es una reliquia para la posteridad, para no confundir a despistados… En 1991 se retiraron las restricciones
de NFS al uso comercial de Internet. Ese mismo año también se Conectaron más países a la NSFNET incluyendo: Croacia, Hong Kong,
República Checa, Sudáfrica, Singapur, Hungría, Polonia, Portugal, Taiwan y Túnez.
Año 1993 Aparece el primer visualizador gráfico de páginas web: Mosaic,
el antecesor de Netscape.El conocido navegador WWW Mosaic se desarrolló en el National Center for Supercomputing. Con la extensión de los ordenadores personales y el lanzamiento del
primer navegador de la WWW popular, Mosaic,en 1993,ya había llegado el momento de "surfear la Web" (la expresión se registró
por primera vez ese mismo año). Año 1995 En octubre de 1995 Netscape puso en la red el primer
navegador. Para celebrarlo sus desarrolladores hicieron una fiesta con pizzas e instalaron una pantalla gigante para ver en la Silicon Graphics como empezaban a descolgarse navegadores. El primer usuario de Netscape fue un japonés y a medianoche los desarrolladores se dieron cuenta que el servidor indicaba
qué versión era la que la gente se estaba bajando así que pusieron un sonido diferente para la de Windows, Mac y Unix
que se oía cada vez que empezaba un download. Año 2000 Internet está formada, no solamente de restos de la
ARPANet original.sino que también incluye redes como la Academia Australiana de Investigación de redes (AARNET), la NASA Science Internet (NSI),
la Red Académica de Investigación Suiza (SWITCH), por no mencionar las miles de redes de mayor o menor tamaño de tipo
educativo y de investigación
Paralelamente al comienzo de la incorporación de las TICs a las prácticas educativas, se ha debatido bastante sobre las
competencias tecnológicas que los docentes debían adquirir en sus diferentes procesos formativos. Sobre todo por ser necesarias
determinadas destrezas en el uso y, sobre todo, en la generación de recursos para la Web. En los últimos meses estamos asistiendo a una
amplia extensión del concepto de Web 2.0, cuya principal característica podría ser la sustitución del concepto de Web de lectura, por el de lectura-escritura. Multitud de herramientas están ayudando a que, los procesos productivos de información que se desarrollan en torno a la Red. se puedan poner en marcha sin casi
ningún tipo de conocimiento técnico, y sin un excesivo gasto de tiempo. Por ello, poner en marcha actos educativos en torno a
Internet (Web educativa 2.0), resulta hoy en día una tarea mucho más fácil desde el punto de vista de los recursos lógicos necesarios, con lo que podemos hacer prevalecer nuestro perfil docente sobre
roles más cercanos al mundo de la Informática.
La Web 2.0 es la transición que se ha dado de aplicaciones tradicionales hacia aplicaciones que funcionan a través del web enfocadas al usuario final. Se trata de aplicaciones que
generen colaboración y de servicios que reemplacen las aplicaciones de escritorio.
Es una etapa que ha definido nuevos proyectos en Internet y está preocupándose por brindar mejores soluciones para el usuario final. Muchos aseguran que hemos reinventado lo
que era el Internet, otros hablan de burbujas e inversiones, pero la realidad es que la evolución natural del medio
realmente ha propuesto cosas más interesantes como lo analizamos diariamente en las notas de Actualidad y los
enlaces que recolectamos en explorando.
Y es que cuando el web inició, nos encontrábamos en un entorno estático, con páginas en HTML que sufrían pocas
actualizaciones y no tenían interacción con el usuario.
para entender de donde viene el término de Web 2.0 tenemos que remontarnos al momento en que Dale Dougherty de O’Reilly Media utilizó este término en una conferencia en la que compartió una lluvia de ideas junto a Craig Cline de MediaLive. En dicho evento se hablaba del renacimiento y evolución de la web.
Constantemente estaban surgiendo nuevas aplicaciones y sitios con sorprendentes funcionalidades. Y así se dio la pauta para la Web 2.0 conference que arranca en el 2004 y hoy en día se realiza anualmente en San Francisco, con eventos adicionales utilizando la marca en otros países.
En la charla inicial del Web Conference se habló de los principios que tenían las aplicaciones Web 2.0:La web es la plataformaLa información es lo que mueve al InternetEfectos de la red movidos por una arquitectura de participación.La innovación surge de características distribuidas por desarrolladores independientes.El fin del círculo de adopción de software pues tenemos servicios en beta perpetuo
El Web 2.0 no significa precisamente que existe una receta para que todas nuestras aplicaciones web entren en este esquema. Sin embargo, existen varias tecnologías que están utilizándose actualmente y que deberíamos de examinar con más cuidado en busca de seguir evolucionando junto al web.
Tecnologías que dan vida a un proyecto Web 2.0:
Transformar software de escritorio hacia la plataforma del web.Respeto a los estándares como el XHTML.Separación de contenido del diseño con uso de hojas de estilo.Sindicación de contenidos.Ajax (javascript ascincrónico y xml).Uso de Flash, Flex o Lazlo.Uso de Ruby on Rails para programar páginas dinámicas.Utilización de redes sociales al manejar usuarios y comunidades.Dar control total a los usuarios en el manejo de su información.Proveer APis o XML para que las aplicaciones puedan ser manipuladas por otros.Facilitar el posicionamiento con URL sencillos.
El uso de el término de Web 2.0 está de moda, dándole mucho peso a una tendencia que ha estado presente desde hace algún tiempo. En Internet las especulaciones han sido causantes de grandes burbujas tecnológicas y han hecho fracasar a muchos proyectos.
Además, nuestros proyectos tienen que renovarse y evolucionar. El Web 2.0 no es precisamente una tecnología, sino es la actitud con la que debemos trabajar para desarrollar en Internet. Tal vez allí está la reflexión más importante del Web 2.0.Yo ya estoy trabajando en renovar y mejorar algunos proyectos, no por que busque etiquetarlos con nuevas versiones, sino por que creo firmemente que la única constante debe ser el cambio, y en Internet, el cambio debe de estar presente más frecuentemente.