historia de la informática - · pdf filea la máquina tabuladora de hollerith el...
Post on 02-Mar-2018
225 Views
Preview:
TRANSCRIPT
REPUBLICA BOLIVARIANA DE VENEZUELA
UNIVERSIDAD GRAN MARISCAL DE AYACUCHO
ESCUELA: ADMINISTRACION- FACULTAD: ECONOMIA
NUCLEO: EL TIGRE
EL TIGRE: EDO- ANZOATEGUI
HISTORIA DE LA INFORMÁTICA
DOCENTE: HAMLET MATA MATA
PARTICIPANTE:
CIRO NAVAS
AL TIGRE / ANZOÀTEGUI
INTRODUCCION
El trabajo que se está presentando tiene como única finalidad expresar y hacer ver como
a lo largo de los años y de los tiempos los dispositivos de almacenamiento computarizados
han logrado evolucionar y tener actualmente capacidades que no eran pensables hace 20
años atrás.
Prueba de la rapidez del avance informático, es tangible con cosas tan fáciles de encontrar
como un artículo de revista de computación, páginas de Internet de años anteriores que
no se hayan actualizado, libros antiguos de computación, entre otras.
Tomando cualquiera de estos documentos podemos notar que las proyecciones, fechas
pautadas, capacidad de disco duros estipuladas para años siguientes se quedan cortas.
La tecnología avanza a pasos inmensos frente a nuestros ojos, día a día y los
requerimientos de las grandes empresas, son cada vez mayores, inclusive la exigencia de
los consumidores por ejemplo de juegos de video cada vez son mayores, lo que ocasiona
que los procesadores tengan que ser mas rápidos, y las capacidades deben ser
proporcionalmente grandes a la velocidad del procesador.
Finalmente este trabajo documental resaltará la historia de los dispositivos de
almacenamiento en las computadoras personales, la forma en las que funcionaron y
funcionan los actuales y la importancia que tiene la evolución de los mismos. El orden
que tendrá a lo largo del documento será cronológico.
Además damos a conocer algunas de las influencias de las Nuevas Tecnologías de la
Información y las Comunicaciones en la enseñanza, así como la repercusión de las
mismas en nuestra sociedad. Se aborda también en el mismo un breve análisis histórico
del desarrollo de las NTIC, su evolución social y sus implicaciones en la educación actual.
HISTORIA DE LA INFORMÁTICA
Los primeros artilugios de cálculo, se remontan a 3000 adC. Los babilonios que habitaron
en la antigua Mesopotamia empleaban unas pequeñas bolas hechas de semillas o
pequeñas piedras, a manera de "cuentas" agrupadas en carriles de caña.
Posteriormente, en el año 1800 adC, un matemático babilónico inventó los algoritmos
que permitieron resolver problemas de cálculo numérico. Algoritmo es un conjunto
ordenado de operaciones propias de un cálculo.
ABACO
Los chinos desarrollaron el ábaco, con éste realizaban cálculos rápidos y complejos. Éste
instrumento tenía un marco de madera cables horizontales con bolas agujereadas que
corrían de izquierda a derecha.
En el siglo XVII, John Napier, matemático escocés famoso por su invención de los
logaritmos (unas funciones matemáticas que permiten convertir las multiplicaciones en
sumas y las divisiones en restas) inventó un dispositivo de palillos con números impresos
que, merced a un ingenioso y complicado mecanismo, le permitía realizar operaciones de
multiplicación y división.
Una Pascalina firmada por Pascal del año 1652.
En 1642 el físico y matemático francés Blaise Pascal inventó el primer calculador
mecánico, la pascalina. A los 18 años de edad, deseando reducir el trabajo de cálculo de
su padre, funcionario de impuestos, fabricó un dispositivo de 8 ruedas dentadas en el que
cada una hacía avanzar un paso a la siguiente cuando completaba una vuelta. Estaban
marcadas con números del 0 al 9 y había dos para los decimales, con lo que podía manejar
números entre 000000,01 y 999999,99. Giraban mediante una manivela, con lo que para
sumar o restar había que darle el número de vueltas correspondiente en un sentido o en
otro. Treinta años después el filósofo y matemático alemán Leibnitz inventó una máquina
de calcular que podía multiplicar, dividir y obtener raíces cuadradas en sistema binario.
A los 26 años aprendió matemáticas de manera autodidáctica y procedió a inventar el
cálculo infinitesimal, honor que comparte con Newton.
En 1801 el francés Joseph Marie Jacquard, utilizó un mecanismo de tarjetas perforadas
para controlar el dibujo formado por los hilos de las telas confeccionadas por una máquina
de tejer. Estas plantillas o moldes metálicos perforados permitían programar las puntadas
del tejido, logrando obtener una diversidad de tramas y figuras.
Charles Babbage (1793-1871) creó un motor analítico que permitía sumar, sustraer,
multiplicar y dividir a una velocidad de 60 sumas por minuto. En 1843 Lady Ada Augusta
Lovelace sugirió la idea de que las tarjetas perforadas se adaptaran de manera que
causaran que el motor de Babbage repitiera ciertas operaciones. Debido a esta sugerencia
algunos consideran a Lady Lovelace la primera programadora.
En 1879, a los 19 años de edad, Herman Hollerith fue contratado como asistente en las
oficinas del censo estadounidense y desarrolló un sistema de cómputo mediante tarjetas
perforadas en las que los agujeros representaban el sexo, la edad, raza, entre otros. Gracias
a la máquina tabuladora de Hollerith el censo de 1890 se realizó en dos años y medio,
cinco menos que el censo de 1880.
Hollerith dejó las oficinas del censo en 1896 para fundar su propia Compañía: la
Tabulating Machine Company. En 1900 había desarrollado una máquina que podía
clasificar 300 tarjetas por minuto (en vez de las 80 cuando el censo), una perforadora de
tarjetas y una máquina de cómputo semiautomática. En 1924 Hollerith fusionó su
compañía con otras dos para formar la International Business Machines hoy
mundialmente conocida como IBM.
Calculador digital
A comienzos de los años 30, John Vincent Atanasoff, un estadounidense doctorado en
física teórica, hijo de un ingeniero eléctrico emigrado de Bulgaria y de una maestra de
escuela, se encontró con que los problemas que tenía que resolver requerían una excesiva
cantidad de cálculo. Aficionado a la electrónica y conocedor de la máquina de Pascal y
las teorías de Babbage, empezó a considerar la posibilidad de construir un calculador
digital. Decidió que la máquina habría de operar en sistema binario, y hacer los cálculos
de modo distinto a como los realizaban las calculadoras mecánicas.
Con 650 dólares donados por el Consejo de Investigación del Estado de Iowa, contrató la
cooperación de Clifford Berry, estudiante de ingeniería, y los materiales para un modelo
experimental. Posteriormente recibió otras donaciones que sumaron 6460 dólares. Este
primer aparato fue conocido como ABC Atanasoff- Berry-Computer
Prácticamente al mismo tiempo que Atanasoff, el ingeniero John Mauchly, se había
encontrado con los mismos problemas en cuanto a velocidad de cálculo, y estaba
convencido de que habría una forma de acelerar el proceso por medios electrónicos. Al
carecer de medios económicos, construyó un pequeño calculador digital y se presentó al
congreso de la Asociación Americana para el Avance de la Ciencia para presentar un
informe sobre el mismo. Allí, en diciembre de 1940, se encontró con Atanasoff, y el
intercambio de ideas que tuvieron originó una disputa sobré la paternidad del computador
digital.
Segunda Guerra Mundial
En 1940 Mauchly se matriculó en unos cursos en la Escuela Moore de Ingeniería Eléctrica
de la Universidad de Pensilvania, donde conoció a John Presper Eckert, un instructor de
laboratorio. La escuela Moore trabajaba entonces en un proyecto conjunto con el ejército
para realizar unas tablas de tiro para armas balísticas. La cantidad de cálculos necesarios
era inmensa, tanto que se demoraba unos treinta días en completar una tabla mediante el
empleo de una máquina de cálculo analógica. Aun así, esto era unas 50 veces más rápido
de lo que tardaba un hombre con una sumadora de sobremesa.
ENIAC
ENIAC
Mauchly publicó un artículo con sus ideas y las de Atanasoff, lo cual despertó el interés
de Herman Goldstine, un oficial de la reserva que hacía de intermediario entre la
universidad y el ejército, el cual consiguió interesar al Departamento de Ordenación en la
financiación de un computador electrónico digital. El 9 de abril de 1943 se autorizó a
Mauchly y Eckert iniciar el desarrollo del proyecto. Se le llamó Electronic Numerical
integrator and Computer (ENIAC) y comenzó a funcionar en las instalaciones militares
norteamericanas del campo Aberdeen Proving Ground en Agosto de 1947. La
construcción tardó 4 años y costó $486.804,22 dólares (el equivalente actual a unos tres
millones de dólares por menos poder de cómputo del que actualmente se consigue en las
calculadoras de mano).
El ENIAC tenía 19.000 tubos de vacío, 1500 relés, 7500 interruptores, cientos de miles
de resistencias, condensadores e inductores y 800 kilómetros de alambres, funcionando
todo a una frecuencia de reloj de 100.000 ciclos por segundo. Tenía 20 acumuladores de
10 dígitos, era capaz de sumar, restar, multiplicar y dividir, y tenía tres tablas de
funciones. La entrada y la salida de datos se realizaba mediante tarjetas perforadas. Podía
realizar unas 5000 sumas por segundo. Pesaba unas 30 toneladas y tenía un tamaño
equivalente al de un salón de clases. Consumía 200 kilovatios de potencia eléctrica y
necesitaba un equipo de aire acondicionado para disipar el gran calor que producía. En
promedio, cada tres horas de uso fallaba una de las válvulas.
Lo que caracterizaba al ENIAC como a un computador moderno no era simplemente su
velocidad de cálculo, sino el que permitía realizar tareas que antes eran imposibles.
Mark 1
Enigma.
Konrad Zuse.
Entre 1939 y 1944, Howard Aiken de la Universidad de Harvard, en colaboración con
IBM, desarrolló el Mark 1, conocido como Calculadora Automática de Secuencia
Controlada. Fue un computador electromecánico de 16 metros de largo y unos 2 de alto.
Tenía 700.000 elementos móviles y varios centenares de kilómetros de cables. Podía
realizar las cuatro operaciones básicas y trabajar con información almacenada en forma
de tablas. Operaba con números de hasta 23 dígitos y podía multiplicar tres números de
8 dígitos en 1 segundo.
El Mark 1, y las versiones que posteriormente se realizaron del mismo, tenían el mérito
de asemejarse al tipo de máquina ideado por Babbage, aunque trabajaban en código
decimal y no en binario.
El avance que dieron estas máquinas electromecánicas a la informática fue rápidamente
ensombrecido por el ENIAC con sus circuitos electrónicos.
Alan Turing, matemático inglés, descifra los códigos secretos Enigma usados por la
Alemania nazi para sus comunicaciones. Turing fue un pionero en el desarrollo de la
lógica de los computadores modernos, y uno de los primeros en tratar el tema de la
inteligencia artificial con máquinas.
Norbert Wiener, trabajó con la defensa antiaérea estadounidense y estudió la base
matemática de la comunicación de la información y del control de un sistema para
derribar aviones. En 1948 publicó sus resultados en un libro que tituló CYBERNETICS
(Cibernética), palabra que provenía del griego "piloto", y que se usó ampliamente para
indicar automatización de procesos.
Computador Z3
El computador Z3, fue la primera máquina programable y completamente automática,
características usadas para definir a un computador. Estaba construido con 2200 relés,
tenía una frecuencia de reloj de ~5 Hz, y una longitud de palabra de 22 bits. Los cálculos
eran realizados con aritmética en coma flotante puramente binaria. La máquina fue
completada en 1941 (el 12 de mayo de ese mismo año fue presentada a una audiencia de
científicos en Berlín). El Z3 original fue destruido en 1944 durante un bombardeo aliado
de Berlín. Una réplica completamente funcional fue construida durante los años 60 por la
compañía del creador Zuse KG y está en exposición permanente en el Deutsches
Museum. En 1998 se demostró que el Z3 es Turing completo.
Posguerra
Cronología
1944
Se construyo el primer ordenador al cual se le llamo Eniac. Era un ordenador electronico
con el cual el proceso de datos, almacenamiento y control de operaciones se realizaban
con dispositivos electronicos,se utilizaban tubos de vacio, que hacen posible el salto del
calculo electrico al electronico.
1946
John Von Neumann propuso una versión modificada del ENIAC; el EDVAC, que se
construyó en 1952. Esta máquina presentaba dos importantes diferencias respecto al
ENIAC: En primer lugar empleaba aritmética binaria, lo que simplificaba enormemente
los circuitos electrónicos de cálculo. En segundo lugar, permitía trabajar con un programa
almacenado. El ENIAC se programaba enchufando centenares de clavijas y activando un
pequeño número de interruptores. Cuando había que resolver un problema distinto, era
necesario cambiar todas las conexiones, proceso que llevaba muchas horas.
Von Neumann propuso cablear una serie de instrucciones y hacer que éstas se ejecutasen
bajo un control central. Además propuso que los códigos de operación que habían de
controlar las operaciones se almacenasen de modo similar a los datos en forma binaria.
De este modo el EDVAC no necesitaba una modificación del cableado para cada nuevo
programa, pudiendo procesar instrucciones tan deprisa como los datos. Además, el
programa podía modificarse a sí mismo, ya que las instrucciones almacenadas, como
datos, podían ser manipuladas aritméticamente.
1951
Eckert y Mauchly entregan a la Oficina del Censo su primer computador: el UNIVAC I.
Posteriormente aparecería el UNIVAC-II con memoria de núcleos magnéticos, lo que le
haría superior a su antecesor, pero, por diversos problemas, esta máquina no vio la luz
hasta 1957, fecha en la que había perdido su liderazgo en el mercado frente al 705 de
IBM.
1952
Shannon desarrolla el primer raton electrico capaz de salir de un laberinto, primera red
neural.
1953
IBM fabricó su primer computadora gran escala, el IBM 650.
1956
Darthmouth da una conferencia en donde nace la inteligencia artificial.
1958
Comienza la segunda generación de computadoras, caracterizados por usar circuitos
transistorizados en vez de válvulas al vacío. Un transistor y una válvula cumplen
funciones equivalentes, con lo que cada válvula puede ser reemplazada por un transistor.
Un transistor puede tener el tamaño de una lenteja mientras que un tubo de vacío tiene un
tamaño mayor que el de un cartucho de escopeta de caza. Mientras que las tensiones de
alimentación de los tubos estaban alrededor de los 300 voltios, las de los transistores
vienen a ser de 10 voltios, con lo que los demás elementos de circuito también pueden ser
de menor tamaño, al tener que disipar y soportar tensiones mucho menores. El transistor
es un elemento constituido fundamentalmente por silicio o germanio. Su vida media es
prácticamente ilimitada y en cualquier caso muy superior a la del tubo de vacío.
1962
El mundo estuvo al borde de una guerra nuclear entre la Unión Soviética y los Estados
Unidos, en lo que se denominó “la Crisis de los misiles de Cuba”. A causa de esto, una
de las preocupaciones de las ejército de los Estados Unidos era conseguir una manera de
que las comunicaciones fuesen más seguras en caso de un eventual ataque militar con
armas nucleares. Como solución entró en consideración solamente el proceso de datos en
forma electrónica. Los mismos datos se deberían disponer en diferentes computadores
alejados unos de otros. Todos los computadores entrelazados deberían poder enviarse en
un lapso corto de tiempo el estado actual de los datos nuevos o modificados, y cada uno
debería poder comunicarse de varias maneras con cada otro. Dicha red también debería
funcionar si un computador individual o cierta línea fuera destruida por un ataque del
enemigo.
Joseph Carl Robnett Licklider escribió un ensayo sobre el concepto de Red Intergaláctica,
donde todo el mundo estaba interconectado para acceder a programas y datos desde
cualquier lugar del planeta. En Octubre de ese año, Lickider es el primer director de
ARPA (Advanced Research Projects Agency), o Agencia de Proyectos de Investigación
Avanzada, una organización científica creada en 1958 como contestación a la puesta en
orbita por parte de los rusos del primer satélite conocido como Sputnik.
1963
Caracteres ASCII imprimibles, del 32 al 126.
Un comité Industria-Gobierno desarrolla el código de caracteres ASCII, (se pronuncia
asqui), el primer estándar universal para intercambio de información (American Standard
Code for Information Interchange), lo cual permitió que máquinas de todo tipo y marca
pudiesen intercambiar datos.
1964
La aparición del IBM 360 marca el comienzo de la tercera generación. Las placas de
circuito impreso con múltiples componentes pasan a ser reemplazadas por los circuitos
integrados. Estos elementos son unas plaquitas de silicio llamadas chips, sobre cuya
superficie se depositan por medios especiales unas impurezas que hacen las funciones de
diversos componentes electrónicos. Esto representa un gran avance en cuanto a velocidad
y, en especial, en cuanto a reducción de tamaño. En un chip de silicio no mayor que un
centímetro cuadrado caben 64.000 bits de información. En núcleos de ferrita esa
capacidad de memoria puede requerir cerca de un litro en volumen.
Investigadores del Instituto Tecnológico de Massachusetts (MIT) y del Laboratorio
Nacional de Física de la Gran Bretaña, presentaron simultáneamente soluciones a lo
propuesto por las Fuerzas Armadas norteamericanas. Y ese mismo año la Fuerza Aérea
le asignó un contrato a la Corporación RAND para la llamada "red descentralizada". Ese
proyecto fracasó después de muchos intentos y nunca fue realizado, pero la idea de una
red que no dependiese de un solo punto central y con la transferencia de datos por paquete
se quedó anclada en la cabeza de muchas personas.
Paul Baran, quien por ese entonces trabajaba con Rand Corporation, fue uno de los
primeros en publicar en Data Communications Networks sus conclusiones en forma casi
simultánea con la publicación de la tesis de Kleinrock sobre teoría de líneas de espera.
Diseñó una red de comunicaciones que utilizaba computadores y no tenía núcleo ni
gobierno central. Además, asumía que todas las uniones que conectaban las redes eran
altamente desconfiables.
El sistema de Baran trabajaba con un esquema que partía los mensajes en pequeños
pedazos y los metía en sobres electrónicos, llamados "paquetes", cada uno con la
dirección del remitente y del destinatario. Los paquetes se lanzaban al seno de una red de
computadores interconectados, donde rebotaban de uno a otro hasta llegar a su punto de
destino, en el cual se juntaban nuevamente para recomponer el mensaje total. Si alguno
de los paquetes se perdía o se alteraba (y se suponía que algunos se habrían de dislocar),
no era problema, pues se volvían a enviar.
1966
La organización científica ARPA se decidió a conectar sus propios computadores a la red
propuesta por Baran, tomando nuevamente la idea de la red descentralizada. A finales de
1969 ya estaban conectados a la red ARPA los primeros cuatro computadores, y tres años
más tarde ya eran 40. En aquellos tiempos era, sin embargo, la red propia de ARPA. En
los años siguientes la red fue llamada ARPANET (red ARPA), y su uso era netamente
militar.
Ken Thompson y Dennis Ritchie
Un grupo de investigadores de los Laboratorios Bell (hoy AT&T) desarrolló un sistema
operativo experimental llamado Multics (Información multiplexada y Sistema de
Computación) para usar con un computador General Electric. Los laboratorios Bell
abandonaron el proyecto, pero en 1969, Ken Thompson, uno de los investigadores del
Multics, diseñó un juego para dicho computador, que simulaba el sistema solar y una nave
espacial. Con la ayuda de Dennis Ritchie, Thompson volvió a escribirlo, ahora para un
computador DEC (Digital Equipment Corporation), aprovechando que, junto con Ritchie
había creado también un sistema operativo multitarea, con sistema de archivos, intérprete
de órdenes y algunas utilidades para el computador DEC. Se le llamó UNICS
(Información Uniplexada y Sistema de Computación) y podía soportar dos usuarios
simultáneamente. En 1970 se renombró Unix. Su licencia de uso era muy costosa, lo cual
lo ponía fuera del alcance de muchas personas. Esto motivaría luego la creación del
Proyecto GNU para el desarrollo de software libre.
1968
Robert Noyce y Gordon Moore fundan la corporacion intel(intel corporation).
1969
La organización ARPA junto con la compañía Rand Corporation desarrolló una red sin
nodos centrales basada en conmutación de paquetes tal y como había propuesto Paul
Baran. La información se dividía en paquetes y cada paquete contenía la dirección de
origen, la de destino, el número de secuencia y una cierta información. Los paquetes al
llegar al destino se ordenaban según el número de secuencia y se juntaban para dar lugar
a la información. Al viajar paquetes por la red, era más difícil perder datos ya que, si un
paquete concreto no llegaba al destino o llegaba defectuoso, el computador que debía
recibir la información sólo tenía que solicitar al computador emisor el paquete que le
faltaba. El protocolo de comunicaciones se llamó NCP. Esta red también incluyó un gran
nivel de redundancia (repetición) para hacerla más confiable.
ARPANET conectó los ordenadores centrales vía ordenadores de pasarela pequeños, o
"routers", conocidos como Interface Message Processors (IMPs). El 1 de septiembre de
1969 el primer IMP llegó a UCLA. Un mes después el segundo fue instalado en Stanford.
Después en UC Santa Barbara y después en la Universidad de Utah.
1971
Correo electrónico y FTP
Se creó el primer programa para enviar correo electrónico. Fue Ray Tomlinson, del BBN,
y combinaba un programa interno de correo electrónico y un programa de transferencia
de ficheros. También en este año un grupo de investigadores del MIT presentaron la
propuesta del primer “Protocolo para la transmisión de archivos en Internet”. Era un
protocolo muy sencillo basado en el sistema de correo electrónico pero sentó las bases
para el futuro protocolo de transmisión de ficheros (FTP).
Las instituciones académicas se interesaron por estas posibilidades de conexión. La NSF
dio acceso a sus seis centros de supercomputación a otras universidades a través de la
ARPANET. A partir de aquí se fueron conectando otras redes, evitando la existencia de
centros, para preservar la flexibilidad y la escalabilidad.
1972
Aparecen los disquetes de 5.25 pulgadas.
1973
ARPA cambia su nombre por DARPA, inicia un programa para investigar técnicas y
tecnologías para interconectar redes de tipos diferentes y se lanzan dos nuevas redes:
ALOHAnet, conectando siete computadores en cuatro islas, y SATNET, una red
conectada vía satélite, enlazando dos naciones: Noruega e Inglaterra.
Lawrence Roberts se propone interconectar a DARPA con otras redes, PRNET y
SATNET, con diferentes interfaces, tamaños de paquetes, rotulados, convenciones y
velocidades de transmisión.
1974
Vinton Cerf, conocido como el padre de Internet, junto con Bob Kahn, publican
“Protocolo para Intercomunicación de Redes por paquetes”, donde especifican en detalle
el diseño de un nuevo protocolo, el Protocolo de control de transmisión (TCP,
Transmission Control Protocol), que se convirtió en el estándar aceptado. La
implementación de TCP permitió a las diversas redes conectarse en una verdadera red de
redes alrededor del mundo.
Se crea el sistema Ethernet para enlazar a través de un cable único a las computadoras de
una red local (LAN).
1975
En enero la revista Popular Electronics hace el lanzamiento del Altair 8800, el primer
computador personal reconocible como tal. Tenía una CPU Intel de 8 bits y 256 bytes de
memoria RAM. El código de máquina se introducía por medio de interruptores montados
en el frente del equipo, y unos diodos luminosos servían para leer la salida de datos en
forma binaria. Costaba 400 dólares, y el monitor y el teclado había que comprarlos por
separado. Se funda Microsoft al hacer un interpretador BASIC para esta máquina.
1976
Se funda Apple. Steve Wozniak desarrolla el Apple I para uso personal, a Steve Jobs se
le ocurre comercializarlo.
1977
El Apple II
Se hace popular el ordenador Apple II, desarrollado por Steve Jobs y Steve Wozniak en
un garaje, y al año siguiente se ofrece la primera versión del procesador de texto
WordStar.
1979
Hoja de cálculo
Dan Bricklin crea la primera hoja de cálculo, más tarde denominada VisiCalc, la cual dio
origen a Multiplan de Microsoft, Lotus 1-2-3 (en 1982), Quattro Pro, y Excel.
ARPA crea la primera comisión de control de la configuración de Internet y en 1981 se
termina de definir el protocolo TCP/IP (Transfer Control Protocol / Internet Protocol) y
ARPANET lo adopta como estándar en 1982, sustituyendo a NCP. Son las primeras
referencias a Internet, como “una serie de redes conectadas entre sí, específicamente
aquellas que utilizan el protocolo TCP/IP”. Internet es la abreviatura de Interconnected
Networks, es decir, Redes interconectadas, o red de redes.
1980
En octubre, la IBM comenzó a buscar un sistema operativo para su nueva computadora
personal que iba a lanzar al mercado, cosa de la cual se enteraron Bill Gates y su amigo
Paul Allen, autores del lenguaje de programación Microsoft BASIC, basado en el ya
existente lenguaje BASIC. Ellos compraron los derechos de QDOS (Quick and Dirty
Operating System), un sistema operativo desarrollado por Tim Paterson y basado en
CP/M, un sistema escrito por Gary Kildall, y lo negociaron con IBM como Microsoft
DOS.
1981
IBM PC 5150
El 12 de Agosto, IBM presenta el primer computador personal, el IBM PC reconocido
popularmente como tal, con sistema operativo PC DOS y procesador Intel 8088. IBM y
Microsoft son coautores del sistema operativo PC-DOS/MS-DOS, ya que IBM ayudó a
Microsoft a pulir los muchos errores que el MS DOS tenía originalmente.
Sony crea disquetes de 3.5 pulgadas.
1983
Proyecto GNU
IBM presenta un PC con un procesador 8088 de 4,77 Mhz de velocidad y un disco duro
de 10 MB, Microsoft ofrece la versión 1.0 del procesador de palabras Word para DOS y
ARPANET se separa de la red militar que la originó, de modo que ya sin fines militares
se puede considerar esta fecha como el nacimiento de Internet. Es el momento en que el
primer nodo militar se desliga, dejando abierto el paso para todas las empresas,
universidades y demás instituciones que ya por esa época poblaban la red.
Richard Stallman, quien por ese entonces trabajaba en el Instituto Tecnológico de
Massachusetts (MIT), decidió dedicarse al proyecto de software libre que denominó
GNU.
1984
IBM presenta un PC con procesador Intel 286, bus de expansión de 16 bits y 6 Mhz de
velocidad. Tenía 512 KB de memoria RAM, un disco duro de 20 Mb y un monitor
monocromático. Precio en ese momento: 5.795 dólares.
Apple Computer presenta su Macintosh 128K con el sistema operativo Mac OS, el cual
introduce la interfaz gráfica ideada por Xerox.
Las compañías Philips y Sony crean los CD-Rom para los ordenadores.
1985
Microsoft presenta el sistema operativo Windows 1.0, demostrando que los computadores
compatibles IBM podían manejar también el entorno gráfico, usual en los computadores
Mac de Apple.
1986
Compaq lanza el primer computador basado en el procesador Intel 80386, adelantándose
a IBM.
1989
Creative Labs presenta la tarjeta de sonido Sound Blaster
1990
WWW
Tim Berners-Lee ideó el hipertexto para crear el World Wide Web (www) una nueva
manera de interactuar con Internet. Su sistema hizo mucho más fácil compartir y
encontrar datos en Internet. Berners-Lee también creó las bases del protocolo de
transmisión HTTP, el lenguaje de documentos HTML y el concepto de los URL.
1991
Linux
Linus Torvalds, un estudiante de Ciencias de la Computación de la Universidad de
Helsinki (Finlandia), al ver que no era posible extender las funciones del Minix, decidió
escribir su propio sistema operativo compatible con Unix, y lo llamó Linux (el parecido
con su nombre personal es mera coincidencia).
Miles de personas que querían correr Unix en sus PCs vieron en Linux su única
alternativa, debido a que a Minix le faltaban demasiadas cosas. El proyecto GNU que
Stallman había iniciado hacía ya casi diez años había producido para este entonces un
sistema casi completo, a excepción del kernel, que es el programa que controla el
hardware de la máquina, el cual desarrolló Torvalds y agregó al GNU para formar Linux.
A mediados de los años noventa Linux se había convertido ya en el Unix más popular
entre la gente que buscaba alternativas al sistema Windows de Microsoft.
1992
Es indroducida Arquitectura Alpha diseñada por DEC e bajo el nombre AXP, como
reemplazo a la serie VAX que comúnmente utilizaba el sistema operativo VMS y que
luego originaría el openVMS. Cuenta con un set de instrucciones RISC de 64 bits
especialmente orientada a cálculo de punto flotante. No se ha hecho muy popular pero si
es reconocida su tecnología en el entorno corporativo.
1993
Un grupo de investigadores descubrieron que un rasgo de la mecánica cuántica, llamado
entrelazamiento, podía utilizarse para superar las limitaciones de la teoría del cuanto
(quantum) aplicada a la construcción de computadoras cuánticas y a la teleportación
(teleportation).
1995
Lanzamiento de Windows 95. Desde entonces Microsoft ha sacado al mercado varias
versiones tales como Windows 98, 2000 (Server y Professional), NT Workstation, NT
SMB (Small Business Server), ME, XP (Professional y Home Edition) y Vista.
1996
Se creó Internet2, más veloz que la Internet original, lo cual permite el manejo de archivos
muy grandes y aplicaciones en videoconferencia, telemedicina y muchas otras cosas
imprácticas por Internet 1.
2000
Es presentado el prototipo de computador cuántico construido por el equipo de
investigadores de IBM que constaba de 5 átomos, se programaba mediante pulsos de
radiofrecuencia y su estado podía ser leído mediante instrumentos de resonancia
magnética, similares a los empleados en hospitales y laboratorios de química. En este
computador, cada uno de los átomos de flúor que lo componen actúa como un qubit; un
qubit es similar a un bit en un computador electrónico tradicional, pero con las diferencias
que comporta su naturaleza explícitamente cuántica (superposición de estados,
entrelazamiento de los estados de dos qubits...).
2005
Los usuarios de internet con conexión de banda ancha superan a los usuarios de internet
con conexión vía modem en la mayoría de países desarrollados. Sin duda alguna, la
computación ha venido a revolucionar el mundo a nivel global.
NTIC: NUEVAS TECNOLOGÍAS DE LA INFORMACIÓN Y
LAS COMUNICACIONES
Según la Asociación americana de las tecnologías de la información (Information Technology Association of America, ITAA): sería «el estudio, el diseño, el desarrollo, el fomento, el mantenimiento y la administración de la información por medio de sistemas informáticos, esto incluye todos los sistemas informáticos no solamente la computadora, este es solo un medio más, el más versátil, pero no el único; también los teléfonos celulares, la televisión, la radio, los periódicos digitales, etc
En pocas palabras, las Tecnologías de la información tratan sobre el empleo de
computadoras y aplicaciones informáticas para transformar, almacenar, gestionar,
proteger, difundir y localizar los datos necesarios para cualquier actividad humana.
La instrumentación tecnológica es una prioridad en la comunicación de hoy en día, ya
que las tecnologías de la comunicación son la diferencia entre una civilización
desarrollada y otra en vías de. Éstas poseen la característica de ayudar a comunicarnos
porque se desaparecen las distancias geográficas y el tiempo.
La tecnología es dual por naturaleza ya que el impacto de éstas se verá afectado
dependiendo del uso que les de el usuario. Como se puede a ayudar a una comunidad
rural a aprender por medio de la televisión -buen uso-; también se puede explotar una
bomba por medio de un teléfono celular. El uso de las tecnologías también es dual ya que
pueden servir como medio de información y de entretenimiento.
En cualquiera de los dos aspectos depende de los usuarios que ofrezcan contenidos de
calidad, ya que es la audiencia quien determina y exige el tipo de contenidos que desea.
Por tal motivo se habla de la implicación de las tecnologías dentro de la construcción
social. La audiencia debe ser educada de una manera creativa, para que exijan contenidos
de calidad y se elimine la marginación de mercado, ya que la programación – en el caso
de la televisión y la radio- está dirigida sólo a ciertos consumidores.
INFLUENCIA DE LAS NTIC EN LA ENSEÑANZA. SU
REPERCUSIÓN EN LA SOCIEDAD.
Los estudios sociales de la ciencia y la tecnología, o estudios sobre ciencia, tecnología y
sociedad(CTS), constituyen un campo de trabajo en los ámbitos de la investigación
académica, la educación y la política. La misma tiene su surgimiento tres décadas atrás,
a partir de nuevas corrientes de investigación en filosofía y sociología de la ciencia, y de
un incremento en la sensibilidad social e institucional sobre la necesidad de una
regulación democrática del cambio científico tecnológico. Entre sus objetivos podemos
citar los siguientes:
1. Trata de promover la alfabetización científica, mostrando la ciencia como una
actividad humana de gran importancia social.
2. Trata de estimular o consolidar en los jóvenes la vocación por el estudio de las
ciencias y la tecnología, a la vez de la independencia de juicio y un sentido de la
responsabilidad crítica.
3. Trata de favorecer el desarrollo y consolidación de actitudes prácticas
democráticas en cuestiones de importancia social relacionada con la innovación
tecnológica o la intervención ambiental.
En la actualidad existe una gran diferencia entre la minoría de países desarrollados que
presentan un despliegue tecnológico que va creciendo aceleradamente y la mayoría de
países que se hunden en el subdesarrollo y que se mantienen luchando por el derecho a la
vida.
Este desarrollo acelerado tecnológico ha dado surgimiento a las Nuevas Tecnologías de
la Información y las Comunicaciones(NTIC), las cuales están inundando el mundo
referencial del ser humano, a la vez que le están ayudando a conquistar conocimientos y
acciones que ayer mismo parecían inaccesibles pero, de la misma manera, le están
condicionando y obligando a adaptaciones y replanteamientos en todos los órdenes de su
existencia.
Las NTIC ofrecen grandes posibilidades de estandarización y de adecuación a las
necesidades individuales y de la enseñanza, es una clara alternativa a la descentralización
de la formación, reducir el tiempo y el costo de la formación y atender un mayor número
de necesidades de formación. Condicionan nuestras vidas particulares como los
profesionales, haciéndose cada vez más necesario en la sociedad actual, saber hacer un
uso adecuado de las mismas.
La irrupción de las NTIC en la vida de los ciudadanos, y las perspectivas de un fuerte
desarrollo de las mismas, ha llevado a considerar a las autoridades educativas y a muchos
de los profesionales de la educación que el conocimiento y uso adecuado de las mismas,
es un contenido educativo con una gran relevancia social.
En el Congreso Internacional "La Educación y la Informática: Hacia una mayor
cooperación internacional" se llegó a la conclusión de que las tecnologías de la
información son ya un instrumento útil para mejorar la eficacia interna y externa de los
sistemas educativos; su introducción corre el riesgo de aumentar más aún las disparidades
ya existentes en la educación en los países y entre los países a menos que se adopten de
inmediato medidas correctivas para impedir esta evolución y el ritmo de introducción, las
NTIC deberían determinarse en función de un análisis de las necesidades de cada país,
teniendo en cuenta el contexto social, económico y cultural.
A continuación hacemos algunas reflexiones de las NTIC, su integración al entorno
pedagógico, así como el impacto que las mismas tienen para la sociedad.
ANÁLISIS HISTÓRICO DEL DESARROLLO DE LAS
NTIC. (EVOLUCIÓN SOCIAL)
Antes de comenzar a hablar sobre el desarrollo de las nuevas tecnologías de la
información y las comunicaciones sería bueno plantear que una serie de autores han hecho
referencia al concepto de las mismas, nosotros tomamos el concepto que describen
González, Gisbert y otros(1996, 413) y plantean que se entiende por Nuevas Tecnologías
de la Información y las Comunicaciones al nuevo conjunto de herramientas, soportes y
canales para el tratamiento y acceso a la información.
Su característica más visible es su radical carácter innovador y su influencia más notable
se establece en el cambio tecnológico y cultural, en el sentido de que están dando lugar
a nuevos procesos culturales.
Si al término tecnología, le añadimos el calificativo de "educativa", estaremos hablando
de todos aquellos equipos técnicos que sirven de soporte a los contenidos de la educación,
que siempre están en función de unos objetivos a alcanzar y de las características de los
alumnos a los que van destinados.
Al intentar situar los antecedentes históricos de la Tecnología nos encontramos con
referencias (Saettler, 1968) que se remontan a los sofistas y las pinturas rupestres, o, más
cercana a nosotros, a la propuesta del presidente de la APA en 1899 de una ciencia puente
entre la Psicología y sus aplicaciones, concretamente entre la Psicología y la Enseñanza.
Sin embargo, para muchos autores debemos buscar los comienzos del uso del término y
la existencia del concepto en los años posteriores a la Segunda Guerra Mundial. Para
Chadwick (1983, 99) "el concepto de Tecnología Educativa comenzó a usarse en los años
sesenta". No obstante, la expresión "Tecnología Educativa" era ya utilizada en años
anteriores; según Colom (1986, 22) la Tecnología Educativa se identifica inicialmente
con los medios, tras la Segunda Guerra Mundial. Más tarde y bajo la influencia de las
investigaciones sobre análisis y modificación de conducta se plantea una Tecnología
Educativa como diseño de estrategias, uso de medios y control del sistema de
comunicación. En cualquier caso Chadwick hace notar en otra publicación (1978, 13) que
"los avances más importantes en Tecnología Educativa se han producido en los últimos
30 años".
Gagné y Briggs (1976) enmarcan históricamente la Tecnología Educativa a partir de un
número creciente de influencias. Citando a Lumsdaine (1964) agrupa las primeras
influencias en tres líneas:
a. La existencia de un interés por las diferencias individuales del aprendizaje
en la década de los años 50, citando la investigación educativa militar, en
el desarrollo de aparatos para la autoenseñanza (Pressey, 1950; Briggs,
1960), los programas ramificados de Crowder (1959), aplicaciones de la
computadora a la enseñanza, etc.
b. La ciencia conductual y teoría del aprendizaje, dando como referencia
anterior la teoría de contigüidad de Guthrie (1935) y como destacado
exponente a Skinner.
c. La tecnología representada por los modernos equipos de cine, televisión y
videotape. Recordemos que es al final de la década de los 50 que Ampex
produce el primer sistema de registro magnético de la señal de vídeo.
Sin embargo, estos autores se dejan llevar un poco por su propio punto de vista.
Originalmente la Tecnología Educativa nace ligada al uso educativo de los modernos
medios audiovisuales, y así es recogido en la definición de la UNESCO (UNESCO, 1984,
43) Así, en 1960 James Finn propone el nombre de "Instrucción y Tecnología
Educacional" en vez del "Departamento de Instrucción Audiovisual" (DAVI). El cambio
de nombre se producirá en 1970. En Inglaterra en 1967 se había creado el "Consejo
Nacional de Tecnología Educativa". Sólo más tarde, hace notar el texto de Unesco, se
acepta un nuevo sentido, entendida la Tecnología Educativa como un modo sistemático
de concebir, aplicar y evaluar el conjunto de los procesos de la enseñanza y el aprendizaje.
Las aportaciones de Skinner desde la perspectiva de una aplicación tecnológica de la
ciencia de la conducta y sus interesantes aportaciones en relación a una "tecnificación"
de la enseñanza mediante máquinas se plasman por escrito en 1954, en su célebre artículo
"The Science of Learning and the Art of Teaching", publicado en "Harward Educational
Review", aunque pasa inadvertido. En 1958 publica "Teaching Machines" que es recibido
con el mayor interés.
La tecnología educativa como disciplina académica nace en los Estados Unidos, con el
telón de fondo de la II Guerra Mundial. Las primeras referencias las encontramos en el
ámbito militar donde se diseñan cursos para especialistas con el apoyo de medios
audiovisuales. La introducción de éstos se hace con el fin de disminuir el tiempo de
formación.
Ely (en De Pablos, 1996) menciona que como materia de enseñanza aparece en el
curriculum de la Universidad de Indiana, en el programa de posgrado, bajo la
denominación de Educación audiovisual, a propuesta de L.C. Larson en el año de 1946.
No obstante, la tecnología educativa como campo de estudio diferenciado no se articularía
hasta los primeros años de los sesenta (Eraut, en De Pablos, 1996).
Paul Saettler, en su obra The Evolution of American Educational Technology (1990),
explora a lo largo de diferentes bloques temáticos el significado y el impacto de la
tecnología educativa en el sector escolar público. Saettler distingue cuatro enfoques o
paradigmas que han venido caracterizando a la tecnología educativa durante el presente
siglo:
1. La ciencia física y los medios.
2. Los sistemas y modelos de comunicación.
3. La ciencia conductiva - considerando los desarrollos conductista y
neoconductista.
4. La perspectiva cognitiva.
BREVE HISTORIA DE LA TECNOLOGÍA EDUCATIVA
DÉCADA VERTIENTES DE DESARROLLO
Años 40-
50
Utilización de medios audiovisuales
Años 50-
60
Psicología del aprendizaje, enseñanza
programada
Años 60-
70
Medios de comunicación de masas (radio,
televisión)
Años 70-
80
Vídeo, EAO
Años 80-
90
Informática y curriculum
Años 90 Nuevas tecnologías de la información y
comunicación
El término nuevas tecnologías, ampliamente aceptado dentro y fuera del entorno
educativo, hace referencia a todos aquellos equipos o sistemas técnicos que sirven de
soporte a la información, a través de canales visuales, auditivos o de ambos. En todos los
casos, se trata de sistemas mecánicos, electromecánicos o informáticos que contienen y
reproducen información y de sus aplicaciones en los distintos campos y procesos de
comunicación.
La implantación de las nuevas tecnologías se desarrolla en paralelo a los cambios en los
métodos de enseñanza e incluso en la forma de concebir el aprendizaje y la formación
donde cada vez más es el propio alumno el que toma el control del proceso, mientras que
los materiales y recursos se adaptan a sus necesidades.
Durante mucho tiempo, la incorporación de nuevos recursos a la formación tenía como
objetivo apoyar al profesor en su tarea. Este, progresivamente, ha ido disponiendo de más
medios: al pizarrón se sumó el retroproyector, láminas, etc. Mientras, el alumno tenía
como soporte único de su aprendizaje el libro de texto.
En cierta medida, los medios tecnológicos son un apoyo sólido para el cambio, al permitir
el desarrollo de la enseñanza individualizada, del aprendizaje interactivo, de la educación
a distancia y de algunas modalidades metodológicas como la enseñanza asistida por
computadora, que suponen una verdadera transformación en la forma de concebir la
formación y que ceden el papel protagonista de la misma al alumno.
Las nuevas tecnologías también han modificado el lugar que los medios didácticos
ocupaban en el proceso educativo. Durante mucho tiempo, los medios se han considerado
como uno de los aspectos finales a tomar en cuenta en el proceso de diseño de las acciones
formativas. Sin embargo, las grandes probabilidades de las tecnologías como soporte de
transmisión de contenidos hacen que, en la actualidad, muchos diseños de cursos piensen
en paralelo a la forma de realizarlos y, por lo tanto, a los medios que se utilizan. Las
tecnologías, en cierta medida, obligan a un replanteamiento más global del conjunto de
la acción de formación.
Esto ha producido un modelo nuevo de instrucción caracterizado por:
1. El autoaprendizaje según las necesidades y circunstancias de cada persona, la cual
podría planificar su propia trayectoria de formación.
2. El paso de la comunicación unidireccional (característica de la formación
tradicional), a un modelo más abierto, donde es posible la interacción de los
individuos a través de los medios tecnológicos.
Las características más relevantes de las nuevas tecnologías de la información aplicadas
a la formación, se resumen en:
1. Formación individualizada. Cada alumno puede trabajar a su ritmo, por lo que
no existe presión para avanzar al mismo ritmo que los demás o esconder dudas.
2. Planificación del aprendizaje. De acuerdo con sus posibilidades, el estudiante
define los parámetros para realizar su estudio; así se evitan los ritmos inadecuados
que aburren o presionan al alumno, el perder tiempo volviendo a ver conceptos ya
conocidos, el alumno determina cuanto tiempo dedica al curso, etc.
3. Estructura abierta y modular. Gracias a la especial estructura de los paquetes
de formación, el usuario puede escoger el módulo de enseñanza que más se
acerque a sus necesidades, dejando aparte las áreas que él considere innecesarias
por el momento. Estos módulos hacen manejable todo el curso y están integrados
teniendo en cuenta la capacidad de procesamiento humano.
4. Comodidad. La enseñanza llega al alumno sin que este tenga que desplazarse o
abandonar sus ocupaciones. Que "viaje" la información, no las personas.
5. Interactividad. Los nuevos medios proporcionan grandes oportunidades para la
revisión, el pensamiento en profundidad y para la integración, además, le permiten
usar distintos soportes (libros, computadora, videos) en su formación y no de
forma aislada, sino combinándolos para lograr un mejor entendimiento de la
materia (Solé y Mirabet, 1997).
IMPLICACIONES ACTUALES DE LAS NTIC EN LA
EDUCACIÓN ACTUAL.
Desde hace aproximadamente veinte años, en diversas oleadas y desde diversas
ideologías, numerosos autores anuncian el advenimiento de la sociedad de la información:
un conjunto de transformaciones económicas y sociales que cambiarán la base material
de nuestra sociedad. Tal vez uno de los fenómenos más espectaculares asociados a este
conjunto de transformaciones sea la introducción generalizada de las nuevas tecnologías
de la información y la comunicación en todos los ámbitos de nuestras vidas. Están
cambiando nuestra manera de hacer las cosas: de trabajar, de divertirnos, de relacionarnos
y de aprender. De modo sutil también están cambiando nuestra forma de pensar.
Las tecnologías de la información y la comunicación han desempeñado un papel
fundamental en la configuración de nuestra sociedad y nuestra cultura. Pensemos en lo
que han significado para historia de la Humanidad la escritura, la imprenta, el teléfono,
la radio, el cine. o la TV. Desde nuestros antepasados cazadores - recolectores que
pintaban figuras en las paredes de sus cuevas y abrigos hasta nuestros días, la tecnología
ha transformado al ser humano, y lo ha hecho para bien y para mal. Las tecnologías ya
asentadas a lo largo del tiempo, las que utilizamos habitualmente o desde la infancia,
están tan perfectamente integradas en nuestras vidas, como una segunda naturaleza, que
se han vuelto invisibles. Las utilizamos hasta tal punto que no somos conscientes de cómo
han contribuido a cambiar las cosas. Sólo percibimos la tecnología cuando falla o
temporalmente desaparece: una huelga de transporte público sume a toda una ciudad en
el caos; un corte de suministro eléctrico lo trastoca todo: ni siquiera suenan nuestros
despertadores. La tecnología, pues, solo se percibe si es suficientemente "nueva". Y las
novedades y los cambios generan incertidumbres, alteran el 'status quo' y ponen en peligro
intereses creados.
Las llamadas nuevas tecnologías de la información y la comunicación están actuando
como catalizador sobre nuestra sociedad, motivando y acelerando procesos de cambio,
creando expectativas deseadas o rechazadas, sobre las estructuras sociales, laborales,
políticas, culturales y económicas. El mundo está experimentando cambios radicales en
todos los ámbitos del quehacer humano. La nueva tecnología está cambiando
radicalmente las formas de trabajo, los medios a través de los cuales las personas acceden
al conocimiento, se comunican y aprenden, y los mecanismos con que acceden a los
servicios que les ofrecen sus comunidades: transporte, comercio, entretenimiento y
gradualmente también, la educación formal y no formal, en todos los niveles de edad y
profesión.
Estamos inmersos en lo que se ha dado en llamar sociedad de la información y de la
comunicación. La influencia que ejercen la información y la comunicación son de tal
calibre que pensamos que puede incluso modificar las actitudes y formas de pensamiento
de la sociedad.
En las sociedades industriales avanzadas (Europa, EEUU, Japón, ...) la presencia y
hegemonía de las denominadas nuevas tecnologías en las transacciones económicas y
comerciales, en el ocio y el tiempo libre, en la gestión interna de empresas e instituciones,
en las actividades profesionales, ..., comienza a ser un hecho evidente e imparable.
Las nuevas tecnologías de la información y comunicación, en consecuencia, están
provocando profundos cambios y transformaciones de naturaleza social y cultural,
además de económicos. Muchos pensadores e investigadores denominan a este nuevo
contexto social, cultural, político y económico en el que vivimos como sociedad de la
información.
En este sentido la tecnología, y por lo tanto las nuevas tecnologías, entran en interrelación
dinámica y constante con los demás componentes que conforman una cultura. Puede
inclusive llegar a convertirse en uno de los factores de transformación socio - cultural. Se
puede concluir de lo dicho, que esta estrecha relación lleva a que la tecnología sea, en
algún modo, una expresión de la cultura a la cual pertenece y por otro lado, que a su vez
la tecnología, aporte a esta cultura. Pero el más importante elemento en esta relación
tecnología - cultura es la libertad del ser humano que le da a la técnica un espacio en la
cultura en el cuál ésta brota y se desarrolla. En una cultura como las nuestras de marcados
tintes agnósticos, economicistas, consumistas, pragmáticos y secularistas, la tecnología
está en muchas de sus expresiones sesgada (biased) por estas características tanto en los
fines para los que es concebida como en el uso que se hace de la misma.
Las nuevas tecnologías tienen un efecto notable sobre uno de los pilares de la estructura
social que es la economía, multiplicando la eficiencia de los procesos productivos,
mejorando los servicios, y convirtiéndose ellas mismas en un conjunto floreciente de
industrias con identidad propia, dando lugar a nuevas profesiones y absorbiendo un gran
volumen de empleo proveniente de otros sectores.
De esta forma, las Tecnologías de la Información van a provocar cambios en el proceso
de socialización, en la estructura de los grupos sociales, en la intimidad, en el objetivo de
la enseñanza, en la concentración urbana, en los valores y los símbolos compartidos, en
los roles, en el poder, en la propiedad, en la movilidad social, en la burocracia, en la
guerra, en la economía, en el trabajo, resumiendo: en prácticamente todos los ámbitos
sociales.
Uno de los elementos determinantes en el impulso hacia la consolidación de un sistema
mundo capitalista es el impacto de las nuevas tecnologías, en especial aquellas dedicadas
al tratamiento de la información. Sus impactos se extienden a todos los aspectos de la
vida; desde el cambio cultural, al de las organizaciones sociales (en especial al mundo de
la organización de la empresa), aunque tampoco escapan a sus impactos el ámbito de la
política y de las relaciones de poder.
Todo este conjunto de cambios han sido analizados desde dos perspectivas diferentes.
Una de ellas trata de escrutar los impactos de las nuevas tecnologías de la información
sobre el tejido social en general. Se caracterizan por considerar que el impacto va a ser -
es- algo con implicaciones no sólo económicas, sino también sociales y políticas. Destilan
una cierta preocupación por las consecuencias negativas que pueden acarrear y plantean
la necesidad de controlar socialmente estas nuevas tecnologías. Sus enfoques van desde
un estudio descriptivo sobre las consecuencias de la penetración de estas nuevas
tecnologías a análisis más explicativos sobre la naturaleza profunda de las innovaciones.
Las nuevas tecnologías de la información y comunicación, presentan grandes riesgos
culturales a las que se ven sometidos los países, ya que la comunicación es un agente
modelador de la cultura, como lo señala Bermúdez (1996), en su ponencia presentada en
las III Jornadas Nacionales de Comunicación realizadas en Caracas (Venezuela), donde
plantea que dichas tecnologías ejercen gran influencia en las identidades nacionales, pues
modifican fundamentalmente las relaciones interpersonales e institucionales, en la
producción del sentido, identificación cultural, en la ética predominante y en muchas
esferas de la vida humana.
Así, encontramos las nuevas tecnologías inmersas en la vida cotidiana, en el
desenvolvimiento de las instituciones tanto productoras de bienes como de servicios, y
también cada vez más se van incorporando en el desempeño individual de los
trabajadores. Por ello se menciona que las nuevas tecnologías tienen un gran impacto en
el desarrollo de un país.
Coinciden en el reconocimiento del impacto social de las nuevas tecnologías
especialmente de la información y comunicación, los canadienses Harold A. Innis y
Marshall McLuhan citados por Iglesias (1998), donde plantean que entre los diferentes
tipos de tecnologías sea militar, administrativa, industrial, etc. el de la comunicación es
el de mayor impacto social.
La escuela, como institución formal responsable de la enseñanza y del aprendizaje, debe
responder a las interrogantes y desafíos de la cultura que le ha tocado vivir, así como a
las necesidades que las nuevas generaciones plantean. Los nuevos planteamientos con los
que la escuela debería dar respuesta desde su propio ámbito, deberían hacerse
fundamentalmente desde la necesaria revisión de sus proyectos educativos, los aspectos
organizativos, así como sus líneas pedagógicas y la formación del profesorado.
El acceso a la cultura e información apoyadas por estas nuevas tecnologías requiere dos
condiciones básicas:
a) En primer lugar, poseer los recursos económicos para comprarlas: todavía en la
actualidad la inversión económica es elevada para una renta de nivel medio, pues requiere
gastos de hardware - ordenador, módem, aparatos decodificados, cd - rom, ...- gastos de
adquisición y actualización de software, gastos de abono o subscripción a una empresa
suministradora del acceso, gastos de línea telefónica, etc.
b) Y en segundo lugar, poseer el conocimiento necesario para usar el servicio ofertado
por las nuevas tecnologías de modo inteligente. Este es un problema educativo nuevo.
Evidentemente el uso de las NTIC en la enseñanza trae consigo muchas ventajas como
las siguientes:
La principal ventaja que las NTIC pueden aportar a la educación es el incremento
considerable de la información que se pone a disposición de los profesores y sus alumnos.
Esta información puede ser recibida en muy diversos códigos y, en algunas ocasiones, ser
el único medio para poder ser recibidas. Por otra parte, la información ya no se localiza
en un lugar determinado, lo que lleva a la ruptura de barreras espacio—temporales y a un
nuevo modo de construir el conocimiento, favoreciendo el trabajo colaborativo y el
autoaprendizaje. Esto lleva a, "como se ha puesto de manifiesto por diversos estudios
sobre el aprendizaje colaborativo, la mejora del rendimiento académico de los
estudiantes, y el favorecer las relaciones interpersonales y las actitudes hacia los mismos
y las actividades que en ella se desarrollan" (Cabero, 1998).
Es de desear que la enseñanza no sea unidireccional (del profesor a alumno), sino que se
apoye en unos entornos de aprendizaje donde el profesor sea conductor, asesor del
aprendizaje de sus alumnos; un diseñador de situaciones de aprendizaje en las que los
alumnos deben construir su propio conocimiento a través de la búsqueda y posterior
tratamiento de la información.
En este nuevo papel, formador frente a las NTIC, el profesor es considerado para algunos
autores como: Programador, director y coordinador de procesos de aprendizaje con
medios interactivos, Transmisor de información e impulsor de la ejercitación de
conocimientos, procedimientos y actitudes, Motivador y como lazo de conexión entre los
objetivos a alcanzar y el participante.
En esta línea se expresa Cabero (1998) cuando nos propone nuevos cambios de papeles
en el profesorado, al diseñar situaciones de aprendizaje que deben de asumir algunos
principios como: Estar basados en la participación y la responsabilidad directa del alumno
en su propio proceso de formación, favorecer el diseño de modelos de trabajos
independientes y autónomos, permitir formas de presentación de la información adaptada
a las necesidades y características particulares de cada receptor, favorecer por los medios
la interacción entre usuarios junto a la interacción con los medios, asumir como valor
significativo una perspectiva procesal de la enseñanza por encima de una perspectiva
centrada exclusivamente en los productos que se alcancen, y concederle la máxima
significación a los contextos y ambientes donde el aprendizaje se produce.
Las NTIC que han llegado a la escuela lo han hecho respondiendo más a presiones ajenas
a la institución escolar (relacionadas con el fenómeno de la sociedad de consumo y con
sucesivas modas) que a planteamientos didácticos. Este hecho ha desembocado en que se
usen en las escuelas los vídeos, algunos medios audiovisuales y, en algunas ocasiones,
los ordenadores en el contexto de una clase tradicional y con una metodología basada en
la clase magistral. Se trata, con el uso de recursos tecnológicos, de sustituir la pizarra por
imágenes proyectadas o en movimiento, que cumplen el papel de auxiliares para un
proceso de instrucción basado en la comunicación verbal de forma casi exclusiva. El
profesor sigue siendo depositario del saber y el alumno receptor de informaciones. En
este sentido si se suprimieran los instrumentos audiovisuales existentes en los colegios su
repercusión en los procesos de enseñanza — aprendizaje sería prácticamente nula.
Esto se contrapone a lo que debería fundamentar el uso de las NTIC: el lograr un nuevo
tipo de alumno, más ocupado en el proceso de búsqueda y elaboración de la información
que por la propia información en sí, un alumno capacitado para la toma de decisiones en
su proceso de formación; en definitiva, un alumno preparado para su autoformación. Esto
conlleva un cambio de papeles en los participantes del acto didáctico, pasando el profesor
a convertirse en un diseñador de situaciones de aprendizaje para el alumno.
Por otra parte, el papel que las NTIC pueden jugar en el aprendizaje es importante por el
número de sentidos que estimulan. Diversos estudios ya clásicos, han puesto de
manifiesto, como se recuerda el 10% de lo que se ve, el 20% de lo que se oye, el 50% de
lo que se ve y oye, y el 80% de lo que se ve, oye y hace (Cabero, 1996).
En primer lugar, es que no estamos hablando del futuro, y de actividades realizadas en
los macrocentros de formación continua, sino del presente. En el momento actual se están
desarrollando ya diversas experiencias institucionalizadas, que permiten ir conociendo el
impacto de su introducción y las posibilidades de su aplicación.
En segundo lugar, es que no queremos que se desprenda de los comentarios que vamos a
realizar, que nosotros pensemos que estos nuevos medios y canales de la comunicación
sean la panacea para resolver los problemas del fracaso escolar, de aprendizaje y los
problemas educativos en general. Para nosotros cualquier medio, es simplemente un
instrumento curricular más, de manera que su posible eficacia no va a depender
exclusivamente de su potencialidad tecnológica para transmitir, manipular e interaccionar
información, sino también, y puede que sea lo significativo, del curriculum en el cual se
introduzca, de las relaciones que establezca con otros elementos curriculares, y de otras
medidas, como el papel que desempeñen el profesor y el alumno en el proceso formativo.
Los medios son sólo un instrumento curricular más, significativo, pero solamente uno
más, movilizados cuando el alcance de los objetivos y los problemas comunicativos a
resolver, así lo justifiquen.
En tercer lugar, las nuevas tecnologías y los nuevos canales de los que hablamos, no
vienen a romper y eliminar unos medios apoyados en los códigos verbales, como el libro
de texto. El mejor enfoque de cara a la enseñanza es el multimedio, es decir, aquel que
combina diferentes códigos para ofrecerles la realidad mediada a los estudiantes, y es en
ésta combinación donde el alumno puede elegir el tipo de soporte que personalmente para
él le resulta más propicio para el aprendizaje.
Y en cuarto lugar, que es necesario no cometer con las nuevas tecnologías los errores que
se cometieron con las tecnologías tradicionales, de forma que se incorporaron de manera
masiva sin haber reflexionado mediante los estudios teóricos y la investigación, sobre sus
posibilidades y limitaciones.
Entrando en las posibilidades que estos medios pueden aportar a la enseñanza, tenemos
que destacar desde el principio que una de las grandes posibilidades radica en: El
incremento de la información que puede ser puesta a disposición de los estudiantes y de
los profesores, por medio de ellos podremos acceder a bases de datos de diferentes tipos
de contenidos y estructura, desde las que podríamos considerar como fuentes
documentales de información, hasta las de ejemplificación y ejercitación de los
contenidos sobre los que los estudiantes tienen que interaccionar.
Ahora bien, tal incremento no es sólo cuantitativo, sino también cualitativo, ya que la
información que podemos recibir no es sólo textual, sino también visual y auditiva. Al
mismo tiempo, no podemos olvidarnos la variable nueva que introducen de la
deslocalización del conocimiento, que facilita romper las variables espaciales y
temporales e introducirnos en una comunidad del conocimiento.
Estos nuevos canales a los que nos estamos refiriendo tienden a favorecer
independientemente, tanto el aprendizaje cooperativo como el autoaprendizaje. Frente a
las personas que comentan que estas nuevas tecnologías introducirán una excesiva
tecnificación en la enseñanza, la realidad es que por medio de ellos se puede favorecer y
posibilitar formas más creativas de aprendizaje permitiendo la interacción entre sus
usuarios independientemente del espacio y el tiempo en el que sitúen.
Esto conlleva no sólo ventajas de tipo conceptual y científico, por el intercambio y el
acceso a la información, sino también como se ha puesto de manifiesto por diversos
estudios sobre el aprendizaje colaborativo, la mejora del rendimiento académico de los
estudiantes, y el favorecer las relaciones interpersonales y las actitudes hacia los mismos
y las actividades que en ella se desarrollan. Con estos medios se nos introduce un nuevo
elemento para el debate, y es que la calidad del aprendizaje va a depender de la calidad
de la interacción que se establezca entre el alumno y otros alumnos, o el alumno y el tutor,
sea éste personal o mediático.
Modelos de educación como al que nos referimos, tienden a romper una
unidireccionalidad de la enseñanza y la formación, y la concepción bancaria de las
mismas, que supone que el conocimiento está depositado en una persona, que es el
profesor, y hay otra, el estudiante, que debe de procurar almacenarlo. Asemejándose la
calidad de la enseñanza, con la fidelidad con que el alumno repite la información
presentada por el profesor.
Por el contrario, propuestas como las apuntadas anteriormente por nosotros tienden a
favorecer la autoinstrucción por parte del estudiante y el trabajo cooperativo entre ellos.
Como puede desprenderse de los aspectos que estamos comentando, estos nuevos canales
permiten la realización de diferentes tipos de funciones, que van desde el acceso e
intercambio de información, hasta la creación de entornos simulados que faciliten la
realización de prácticas en entornos de fácil control para los profesores. Sin olvidar su
carácter flexible y abierto, que hacen que puedan ser utilizados por los profesores en
diferentes contextos y situaciones diseñadas de aprendizaje, desde la transmisión de
información, hasta la simulación de fenómenos y la realización de ejercicios. Sin
olvidarnos de la evaluación de los conocimientos y habilidades.
Indudablemante, las nuevas tecnologías de la información y las comunicaciones han
revolucionado a la enseñanza tradicional, tanto en los materiales utilizados como en la
relación profesor - alumno.
Al lado de los instrumentos y materiales didácticos tradicionales, las nuevas tecnologías
están integrándose cada vez más en los sistemas educativos. El poder usar el ordenador y
las nuevas tecnologías de la información y las comunicaciones dentro de los programas
de enseñanza y formación, se presenta como una ayuda inestimable y en algunos casos
insustituibles para éstos.
Con la ayuda de la tecnología se pueden llegar a elaborar, desde programas educativos en
los cuales se diluye la figura del instructor transformándose el proceso en un mero
autoestudio, hasta los apoyados en tutorías telemáticas. En este último caso, es el propio
alumno quien adquiere la formación y el instructor pasa a desempeñar un papel de mero
director de estudios del mismo (orienta el trabajo del alumno, le asesora en las lecturas y
selección de las técnicas adecuadas para el acceso a las fuentes de información y realiza
un seguimiento individualizado de su progreso para conducirlo en el proceso de
aprendizaje)
LOS SISTEMAS DE INFORMACIÓN (SI) Y LAS
TECNOLOGÍAS DE INFORMACIÓN (TI)
Los Sistemas de Información (SI) y las Tecnologías de Información (TI) han cambiado
la forma en que operan las organizaciones actuales. A través de su uso se logran
importantes mejoras, pues automatizan los procesos operativos, suministran una
plataforma de información necesaria para la toma de decisiones y, lo más importante, su
implantación logra ventajas competitivas o reducir la ventaja de los rivales.
Las Tecnologías de la Información han sido conceptualizadas como la integración y
convergencia de la computación, las telecomunicaciones y la técnica para el
procesamiento de datos, donde sus principales componentes son: el factor humano, los
contenidos de la información, el equipamiento, la infraestructura, el software y los
mecanismos de intercambio de información, los elementos de política y regulaciones,
además de los recursos financieros.
Los componentes anteriores conforman los protagonistas del desarrollo informático en
una sociedad, tanto para su desarrollo como para su aplicación, además se reconoce que
las tecnologías de la información constituyen el núcleo central de una transformación
multidimensional que experimenta la economía y la sociedad; de aquí lo importante que
es el estudio y dominio de las influencias que tal transformación impone al ser humano
como ente social, ya que tiende a modificar no sólo sus hábitos y patrones de conducta,
sino, incluso, su forma de pensar.
Dentro de las tecnologías de la información también debemos contemplar algunos
conceptos y/o metodologías que merecen estar clasificadas como de alto impacto, ya sea
para nuestra organización, el individuo o la sociedad misma.
SISTEMA DE INFORMACIÓN
Un sistema de información es un conjunto de elementos que interactúan entre sí con el
fin de apoyar las actividades de una empresa o negocio.
COMPONENTES DE UN SISTEMA DE INFORMACIÓN
El sistema de información está constituido por los procedimientos, personas y medios
técnicos que permiten capturar, tratar y difundir la información, de forma que pueda
contribuir a la toma de decisiones o a la puesta en práctica de dichas decisiones, es decir
a la ejecución de acciones concretas.
Los componentes de un sistema de información pueden ser clasificados en tres grupos:
1. las herramientas tecnológicas (hardware, software, base de datos,
telecomunicaciones),
2. las personas, y
3. los procedimientos.
En relación a las herramientas tecnológicas se debe señalar que, como ya se ha
comentado anteriormente, es importante matizar la función de “soporte” que las
tecnologías de la información juegan para la implantación de sistemas de información.
En este sentido, las tecnologías representan un ingrediente básico para la solución
aunque no la solución en sí misma.
Los sistemas de información precisan las siguientes herramientas tecnológicas:
Hardware: consiste en el equipamiento informático para llevar a cabo la
entrada, proceso y salida de la información. Los dispositivos de entrada incluyen
teclados, lectores de cinta magnética, etc. Los dispositivos de proceso incluyen
la unidad central de proceso, memoria y almacenamiento. Existen múltiples
dispositivos de salida como impresoras y pantallas de ordenador. Sin ánimo de
profundizar en este tipo de recursos, podemos clasificar a los recursos de
hardware en tres grandes categorías:
o Ordenadores, que además de los mini ordenadores y main frames
utilizados desde hace varias décadas, merece destacar la presencia
habitual en los puestos de trabajo del ordenador personal.
o Periféricos, los cuales incluyen toda una variada gama que abarca desde
los elementos más comunes de entrada, visualización, almacenamiento y
distribución de datos e información como pueden ser los teclados,
módems, pantallas de rayos catódicos, cintas magnéticas e impresoras de
impacto hasta los elementos más sofisticados, tales como un escáner,
pantallas de vídeo gigantes, discos compactos e impresoras láser y de
inyección de tinta, etc.
o Otro hardware, en especial el que permite la interconexión entre equipos
informáticos.
o
Software: consiste en los programas e instrucciones que se dan al ordenador.
Estos programas e instrucciones permiten al ordenador procesar la información.
Podemos clasificar el software en los tres siguientes grupos:
o Software de sistemas; se trata de un componente estrechamente asociado
al propio hardware, que permite a éste operar y soportar software
específico para las aplicaciones.
o Software de aplicación; que es el conjunto de programas que permitirán
realizar las funciones previstas para el sistema de información.
El equipo computacional: el hardware necesario para que el sistema de información
pueda operar.
El recurso humano que interactúa con el Sistema de Información, el cual está formado
por las personas que utilizan el sistema.
Un sistema de información realiza cuatro actividades básicas: entrada, almacenamiento,
procesamiento y salida de información.
Entrada de Información: Es el proceso mediante el cual el Sistema de Información toma
los datos que requiere para procesar la información. Las entradas pueden ser manuales o
automáticas. Las manuales son aquellas que se proporcionan en forma directa por el
usuario, mientras que las automáticas son datos o información que provienen o son
tomados de otros sistemas o módulos. Esto último se denomina interfases automáticas.
Las unidades típicas de entrada de datos a las computadoras son las terminales, las cintas
magnéticas, las unidades de diskette, los códigos de barras, los escáners, la voz, los
monitores sensibles al tacto, el teclado y el mouse, entre otras.
Almacenamiento de información: El almacenamiento es una de las actividades o
capacidades más importantes que tiene una computadora, ya que a través de esta
propiedad el sistema puede recordar la información guardada en la sección o proceso
anterior. Esta información suele ser almacenada en estructuras de información
denominadas archivos. La unidad típica de almacenamiento son los discos magnéticos o
discos duros, los discos flexibles o diskettes y los discos compactos (CD-ROM).
Procesamiento de Información: Es la capacidad del Sistema de Información para
efectuar cálculos de acuerdo con una secuencia de operaciones preestablecida. Estos
cálculos pueden efectuarse con datos introducidos recientemente en el sistema o bien con
datos que están almacenados. Esta característica de los sistemas permite la transformación
de datos fuente en información que puede ser utilizada para la toma de decisiones, lo que
hace posible, entre otras cosas, que un tomador de decisiones genere una proyección
financiera a partir de los datos que contiene un estado de resultados o un balance general
de un año base.
Salida de Información: La salida es la capacidad de un Sistema de Información para
sacar la información procesada o bien datos de entrada al exterior. Las unidades típicas
de salida son las impresoras, terminales, diskettes, cintas magnéticas, la voz, los
graficadores y los plotters, entre otros. Es importante aclarar que la salida de un Sistema
de Información puede constituir la entrada a otro Sistema de Información o módulo. En
este caso, también existe una interfase automática de salida. Por ejemplo, el Sistema de
Control de Clientes tiene una interfase automática de salida con el Sistema de
Contabilidad, ya que genera las pólizas contables de los movimientos procesales de los
clientes.
A continuación se muestran las diferentes actividades que puede realizar un Sistema de
Información de Control de Clientes:
Actividades que realiza un Sistema de Información:
Entradas:
Datos generales del cliente: nombre, dirección, tipo de cliente, etc.
Políticas de créditos: límite de crédito, plazo de pago, etc.
Facturas (interfase automático).
Pagos, depuraciones, etc.
Proceso:
Cálculo de antigüedad de saldos.
Cálculo de intereses moratorios.
Cálculo del saldo de un cliente.
Almacenamiento:
Movimientos del mes (pagos, depuraciones).
Catálogo de clientes.
Facturas.
Salidas:
Reporte de pagos.
Estados de cuenta.
Pólizas contables (interfase automática)
Consultas de saldos en pantalla de una terminal.
Las diferentes actividades que realiza un Sistema de Información se pueden observar en
el diseño conceptual ilustrado en la en la figura 1.2.
Tipos y Usos de los Sistemas de Información
Durante los próximos años, los Sistemas de Información cumplirán tres objetivos
básicos dentro de las organizaciones:
1. Automatización de procesos operativos.
2. Proporcionar información que sirva de apoyo al proceso de toma de decisiones.
3. Lograr ventajas competitivas a través de su implantación y uso.
Los Sistemas de Información que logran la automatización de procesos operativos dentro
de una organización, son llamados frecuentemente Sistemas Transaccionales, ya que su
función primordial consiste en procesar transacciones tales como pagos, cobros, pólizas,
entradas, salidas, etc. Por otra parte, los Sistemas de Información que apoyan el proceso
de toma de decisiones son los Sistemas de Soporte a la Toma de Decisiones, Sistemas
para la Toma de Decisión de Grupo, Sistemas Expertos de Soporte a la Toma de
Decisiones y Sistema de Información para Ejecutivos. El tercer tipo de sistema, de
acuerdo con su uso u objetivos que cumplen, es el de los Sistemas Estratégicos, los cuales
se desarrollan en las organizaciones con el fin de lograr ventajas competitivas, a través
del uso de la tecnología de información.
Los tipos y usos de los Sistemas de Información se muestran en la figura 1.3.
Características de Sistemas de Información.
Sistemas Transaccionales. Sus principales características son:
A través de éstos suelen lograrse ahorros significativos de mano de obra, debido
a que automatizan tareas operativas de la organización.
Con frecuencia son el primer tipo de Sistemas de Información que se implanta en
las organizaciones. Se empieza apoyando las tareas a nivel operativo de la
organización.
Son intensivos en entrada y salid de información; sus cálculos y procesos suelen
ser simples y poco sofisticados.
Tienen la propiedad de ser recolectores de información, es decir, a través de estos
sistemas se cargan las grandes bases de información para su explotación posterior.
Son fáciles de justificar ante la dirección general, ya que sus beneficios son
visibles y palpables.
Sistemas de Apoyo de las Decisiones. Las principales características de estos son:
Suelen introducirse después de haber implantado los Sistemas Transaccionales
más relevantes de la empresa, ya que estos últimos constituyen su plataforma de
información.
La información que generan sirve de apoyo a los mandos intermedios y a la alta
administración en el proceso de toma de decisiones.
Suelen ser intensivos en cálculos y escasos en entradas y salidas de información.
Así, por ejemplo, un modelo de planeación financiera requiere poca información
de entrada, genera poca información como resultado, pero puede realizar muchos
cálculos durante su proceso.
No suelen ahorrar mano de obra. Debido a ello, la justificación económica para el
desarrollo de estos sistemas es difícil, ya que no se conocen los ingresos del
proyecto de inversión.
Suelen ser Sistemas de Información interactivos y amigables, con altos estándares
de diseño gráfico y visual, ya que están dirigidos al usuario final.
Apoyan la toma de decisiones que, por su misma naturaleza son repetitivos y de
decisiones no estructuradas que no suelen repetirse. Por ejemplo, un Sistema de
Compra de Materiales que indique cuándo debe hacerse un pedido al proveedor o
un Sistema de Simulación de Negocios que apoye la decisión de introducir un
nuevo producto al mercado.
Estos sistemas pueden ser desarrollados directamente por el usuario final sin la
participación operativa de los analistas y programadores del área de informática.
Este tipo de sistemas puede incluir la programación de la producción, compra de
materiales, flujo de fondos, proyecciones financieras, modelos de simulación de negocios,
modelos de inventarios, etc.
Sistemas Estratégicos. Sus principales características son:
Su función primordial no es apoyar la automatización de procesos operativos ni
proporcionar información para apoyar la toma de decisiones.
Suelen desarrollarse in house, es decir, dentro de la organización, por lo tanto no
pueden adaptarse fácilmente a paquetes disponibles en el mercado.
Típicamente su forma de desarrollo es a base de incrementos y a través de su
evolución dentro de la organización. Se inicia con un proceso o función en
particular y a partir de ahí se van agregando nuevas funciones o procesos.
Su función es lograr ventajas que los competidores no posean, tales como ventajas
en costos y servicios diferenciados con clientes y proveedores. En este contexto,
los Sistema Estratégicos son creadores de barreras de entrada al negocio. Por
ejemplo, el uso de cajeros automáticos en los bancos en un Sistema Estratégico,
ya que brinda ventaja sobre un banco que no posee tal servicio. Si un banco nuevo
decide abrir sus puerta al público, tendrá que dar este servicio para tener un nivel
similar al de sus competidores.
Apoyan el proceso de innovación de productos y proceso dentro de la empresa
debido a que buscan ventajas respecto a los competidores y una forma de hacerlo
en innovando o creando productos y procesos.
Un ejemplo de estos Sistemas de Información dentro de la empresa puede ser un sistema
MRP (Manufacturing Resoure Planning) enfocado a reducir sustancialmente el
desperdicio en el proceso productivo, o bien, un Centro de Información que proporcione
todo tipo de información; como situación de créditos, embarques, tiempos de entrega, etc.
En este contexto los ejemplos anteriores constituyen un Sistema de Información
Estratégico si y sólo sí, apoyan o dan forma a la estructura competitiva de la empresa.
Por último, es importante aclarar que algunos autores consideran un cuarto tipo de
sistemas de información denominado Sistemas Personales de Información, el cual está
enfocado a incrementar la productividad de sus usuarios.
LA INFORMACIÓN COMO RECURSO DE LAS
ORGANIZACIONES.
Desde hace ya algunos años las organizaciones han reconocido la importancia de
administrar los principales recursos como la mano de obra y las materias primas.
La información se ha colocado en un buen lugar como uno de los principales recursos que
poseen las empresas actualmente. Los entes que se encargan de las tomas de decisiones
han comenzado a comprender que la información no es sólo un subproducto de la
conducción empresarial, sino que a la vez alimenta a los negocios y puede ser uno de los
tantos factores críticos para la determinación del éxito o fracaso de éstos.
Si deseamos maximizar la utilidad que posee nuestra información, el negocio la debe
manejar de forma correcta y eficiente, tal y cómo se manejan los demás recursos
existentes. Los administradores deben comprender de manera general que hay costos
asociados con la producción, distribución, seguridad, almacenamiento y recuperación de
toda la información que es manejada en la organización. Aunque la información se
encuentra a nuestro alrededor, debemos saber que ésta no es gratis, y su uso es
estrictamente estratégico para posicionar de forma ventajosa la empresa dentro de un
negocio.
La fácil disponibilidad que poseen las computadoras y las tecnologías de información en
general, han creado una revolución informática en la sociedad y de forma particular en
los negocios. El manejo de información generada por computadora difiere en forma
significativa del manejo de datos producidos manualmente.
¿QUÉ ES UN SISTEMA DE INFORMACIÓN?
Un Sistema de Información es un conjunto de elementos que interactúan entre sí con el
fin de apoyar las actividades de una empresa o negocio. En un sentido amplio, un sistema
de información no necesariamente incluye equipo electrónico (hardware). Sin embargo
en la práctica se utiliza como sinónimo de "sistema de información computarizado"
Los elementos que interactúan entre sí son: el equipo computacional, el recurso humano,
los datos o información fuente, programas ejecutados por las computadoras, las
telecomunicaciones y los procedimientos de políticas y reglas de operación.
Un Sistema de Información realiza cuatro actividades básicas:
Entrada de información: proceso en el cual el sistema toma los datos que requiere
para procesar la información, por medio de estaciones de trabajo, teclado,
diskettes, cintas magnéticas, código de barras, etc.
Almacenamiento de información: es una de las actividades más importantes que
tiene una computadora, ya que a través de esta propiedad el sistema puede
recordar la información guardad en la sesión o proceso anterior.
Procesamiento de la información: esta característica de los sistemas permite la
transformación de los datos fuente en información que puede ser utilizada para la
toma de decisiones, lo que hace posible, entre otras cosas, que un tomador de
decisiones genere una proyección financiera a partir de los datos que contiene un
estado de resultados o un balance general en un año base.
Salida de información: es la capacidad de un SI para sacar la información
procesada o bien datos de entrada al exterior. Las unidades típicas de salida son
las impresoras, graficadores, cintas magnéticas, diskettes, la voz, etc.
TIPOS Y USOS DE LOS SISTEMAS DE INFORMACIÓN.
Durante los próximos años, los sistemas de información cumplirán los siguientes
objetivos:
1. Automatizar los procesos operativos.
2. Proporcionar información de apoyo a la toma de decisiones.
3. Lograr ventajas competitivas a través de su implantación y uso.
Con frecuencia, los sistemas de información que logran la automatización de procesos
operativos dentro de una organización son llamados Sistemas Transaccionales, ya que su
función principal consiste en procesar transacciones tales como pagos, cobros, pólizas,
planillas, entradas, salidas. Por otra parte, los sistemas de información que apoyan el
proceso de toma de decisiones son los sistemas de apoyo a la toma de decisiones (DSS,
por sus siglas en inglés Decisión Supporting System). El tercer tipo de sistemas, de
acuerdo con su uso u objetivos que cumplen, es de los Sistemas Estratégicos, los cuales
se desarrollan en las organizaciones con el fin de lograr las ventajas competitivas, a través
del uso de la Tecnología de Información (TI).
IMPORTANCIA DE LOS SISTEMAS DE INFORMACIÓN
Cuando muchas personas se preguntan por qué estudiar sobre los sistemas de
información, es lo mismo que preguntar por qué debería estudiar alguien contabilidad,
finanzas, gestión de operaciones, marketing, administración de recursos humanos o
cualquier otra función empresarial importante. Lo que si les puedo asegurar es que
muchas empresas y organizaciones tienen éxitos en sus objetivos por la implantación y
uso de los Sistemas de Información. De esta forma, constituyen un campo esencial de
estudio en administración y gerencia de empresas. Es por esta razón que todos los
profesionales en el área de Administración de Empresas deberían o más bien deben, tomar
un curso de sistemas de información. Por otro lado es importante tener una comprensión
básica de los sistemas de información para entender cualquier otra área funcional en la
empresa, por eso es importante también, tener una cultura informática en nuestras
organizaciones que permitan y den las condiciones necesarias para que los sistemas de
información logren los objetivos citados anteriormente. Muchas veces las organizaciones
no han entrado en la etapa de cambio hacía la era de la información sin saber que es un
riesgo muy grande de fracaso debido a las amenazas del mercado y su incapacidad de
competir, por ejemplo, las TI que se basan en Internet se están convirtiendo rápidamente
en un ingrediente necesario par el éxito empresarial en el entorno global y dinámico de
hoy.
Por lo tanto, la administración apropiada de los sistemas de información es un desafío
importante para los gerentes. Así la función de los SI representa:
Un área funcional principal dentro de la empresa, que es tan importante para el
éxito empresarial como las funciones de contabilidad, finanzas, administración de
operaciones, marketing, y administración de recursos humanos.
Una colaboración importante para le eficiencia operacional, la productividad y la
moral del empleado, y el servicio y satisfacción del cliente.
Una fuente importante de información y respaldo importante para la toma de
decisiones efectivas por parte de los gerentes.
Un ingrediente importante para el desarrollo de productos y servicios
competitivos que den a las organizaciones una ventaja estratégica en el mercado
global.
Una oportunidad profesional esencial, dinámica y retadora para millones de
hombres y mujeres.
UNA SOCIEDAD DE INFORMACION GLOBAL
Estamos viviendo en una sociedad de información global emergente, con una economía
global que depende cada vez más de la creación, la administración y la distribución de la
información a través de redes globales como Internet. Muchas empresas están en proceso
de globalización; es decir, se están convirtiendo en empresas globales interconectadas en
red. Por ejemplo, las empresas se están expandiendo a mercados globales para sus
productos y servicios, utilizando instalaciones de producciones globales para fabricar o
ensamblar productos, reuniendo dinero en mercados de capitales globales, formando
alianzas con socios globales y luchando con competidores globales pro clientes de todo
el mundo. El manejo y la realización de estos cambios estratégicos serían imposibles sin
Internet, Intranets y otras redes globales de computación y de telecomunicaciones que
constituyen un sistema nervioso central de las empresas globales de hoy.
Las personas de muchas naciones ya no viven en sociedades agrícolas, compuestas
principalmente de agricultores, o incluso sociedades industriales, donde la mayor parte
de la fuerza laboral se compone de trabajadores de fábrica. En cambio, en muchas
naciones gran parte de la fuerza laboral está constituida por personas que se ocupan en
labores de prestación de servicios o trabajadores del conocimiento, es decir, personas que
se dedican la mayor parte de su tiempo a la comunicación y colaboración en equipos y
grupos de trabajo, y a la creación, uso y distribución de la información.
ESTRATEGIAS COMPETITIVAS CON LA TI.
Con frecuencia, el uso de la tecnología de información para la globalización y la
reingeniería de procesos empresariales da como resultado el desarrollo de sistemas de
información que ayudan a una empresa a darle ventaja competitiva en el mercado,
utilizándolos para desarrollar productos, servicios, procesos y capacidades que dan a una
empresa una ventaja estratégica sobre las fuerzas competitivas que enfrenta una empresa.
Estrategias de costo, por ejemplo, utilizando sistemas de manufactura asistidos por
computadora para reducir los costos de producción, o crear sitios Web en Internet para
comercio electrónico (e-business), con el fin de reducir los costos del marketing.
Estrategias de diferenciación, como desarrollar maneras de utilizar la tecnología de
información para diferenciar productos o servicios de una empresa, de los de sus
competidores, de manera que los clientes perciban los productos o servicios como
poseedores de atributos o beneficios únicos. Por ejemplo, suministrar servicios rápidos y
completos de soporte al cliente por medio de un sitio Web en Internet, o utilizar sistemas
de marketing como objetivo para ofrecer a clientes individuales los productos y servicios
que le atraen.
EVOLUCIÓN DE LOS SISTEMAS DE
INFORMACIÓN
De la sección anterior se desprende la evolución que tienen los Sistemas de Información
en las organizaciones. Con frecuencia se implantan en forma inicial los Sistemas
Transaccionales y, posteriormente, se introducen los Sistemas de Apoyo a las Decisiones.
Por último, se desarrollan los Sistemas Estratégicos que dan forma a la estructura
competitiva de la empresa.
En la década de los setenta, Richard Nolan, un conocido autor y profesor de la Escuela
de Negocios de Harvard, desarrolló una teoría que impactó el proceso de planeación de
los recursos y las actividades de la informática.
Según Nolan, la función de la Informática en las organizaciones evoluciona a través de
ciertas etapas de crecimiento, las cuales se explican a continuación:
Comienza con la adquisición de la primera computadora y normalmente se
justifica por el ahorro de mano de obra y el exceso de papeles.
Las aplicaciones típicas que se implantan son los Sistemas Transaccionales tales
como nóminas o contabilidad.
El pequeño Departamento de Sistemas depende en la mayoría de los casos del
área de contabilidad.
El tipo de administración empleada es escaso y la función de los sistemas suele
ser manejada por un administrador que no posee una preparación formal en el área
de computación.
El personal que labora en este pequeño departamento consta a lo sumo de un
operador y/o un programador. Este último podrá estar bajo el régimen de
honorarios, o bien, puede recibirse el soporte de algún fabricante local de
programas de aplicación.
En esta etapa es importante estar consciente de la resistencia al cambio del
personal y usuario (ciberfobia) que están involucrados en los primeros sistemas
que se desarrollan, ya que estos sistemas son importantes en el ahorro de mano de
obra.
Esta etapa termina con la implantación exitosa del primer Sistema de Información.
Cabe recalcar que algunas organizaciones pueden vivir varias etapas de inicio en
las que la resistencia al cambio por parte de los primeros usuarios involucrados
aborta el intento de introducir la computador a la empresa.
Etapa de contagio o expansión. Los aspectos sobresalientes que permiten diagnosticar
rápido que una empresa se encuentra en esta etapa son:
Se inicia con la implantación exitosa del primer Sistema de Información en la
organización. Como consecuencia de lo anterior, el primer ejecutivo usuario se
transforma en el paradigma o persona que se habrá que imitar.
Las aplicaciones que con frecuencia se implantan en esta etapa son el resto de los
Sistemas Transaccionales no desarrollados en la etapa de inicio, tales como
facturación, inventarios, control de pedidos de clientes y proveedores, cheques,
etc.
El pequeño departamento es promovido a una categoría superior, donde depende
de la Gerencia Administrativa o Contraloría.
El tipo de administración empleado está orientado hacia la venta de aplicaciones
a todos los usuarios de la organización; en este punto suele contratarse a un
especialista de la función con preparación académica en el área de sistemas.
Se inicia la contratación de personal especializado y nacen puestos tales como
analista de sistemas, analista-programador, programador de sistemas, jefe de
desarrollo, jefe de soporte técnico, etc.
Las aplicaciones desarrolladas carecen de interfases automáticas entre ellas, de tal
forma que las salidas que produce un sistema se tienen que alimentar en forma
manual a otro sistema, con la consecuente irritación de los usuarios.
Los gastos por concepto de sistemas empiezan a crecer en forma importante, lo
que marca la pauta para iniciar la racionalización en el uso de los recursos
computacionales dentro de la empresa. Este problema y el inicio de su solución
marcan el paso a la siguiente etapa.
Etapa de control o formalización. Para identificar a una empresa que transita por esta
etapa es necesario considerar los siguientes elementos:
Esta etapa de evolución de la Informática dentro de las empresas se inicia con la
necesidad de controlar el uso de los recursos computacionales a través de las
técnicas de presupuestación base cero (partiendo de que no se tienen nada) y la
implantación de sistemas de cargos a usuarios (por el servicio que se presta).
Las aplicaciones están orientadas a facilitar el control de las operaciones del
negocio para hacerlas más eficaces, tales como sistemas para control de flujo de
fondos, control de órdenes de compra a proveedores, control de inventarios,
control y manejo de proyectos, etc.
El departamento de sistemas de la empresa suele ubicarse en una posición
gerencial, dependiendo del organigrama de la Dirección de Administración o
Finanzas.
El tipo de administración empleado dentro del área de Informática se orienta al
control administrativo y a la justificación económica de las aplicaciones a
desarrollar. Nace la necesidad de establecer criterios para las prioridades en el
desarrollo de nuevas aplicaciones. La cartera de aplicaciones pendientes por
desarrollar empieza a crecer.
En esta etapa se inician el desarrollo y la implantación de estándares de trabajo
dentro del departamento, tales como: estándares de documentación, control de
proyectos, desarrollo y diseño de sistemas, auditoría de sistemas y programación.
Se integra a la organización del departamento de sistemas, personal con
habilidades administrativas y preparado técnicamente.
Se inicia el desarrollo de interfases automáticas entre los diferentes sistemas.
Etapa de integración. Las características de esta etapa son las siguientes:
La integración de los datos y de los sistemas surge como un resultado directo de
la centralización del departamento de sistemas bajo una sola estructura
administrativa.
Las nuevas tecnologías relacionadas con base de datos, sistemas administradores
de bases de datos y lenguajes de cuarta generación, hicieron posible la integración.
En esta etapa surge la primera hoja electrónica de cálculo comercial y los usuarios
inician haciendo sus propias aplicaciones. Esta herramienta ayudó mucho a que
los usuarios hicieran su propio trabajo y no tuvieran que esperar a que sus
propuestas de sistemas fueran cumplidas.
El costo del equipo y del software disminuyó por lo cual estuvo al alcance de más
usuarios.
En forma paralela a los cambios tecnológicos, cambió el rol del usuario y del
departamento de Sistemas de Información. El departamento de sistemas
evolucionó hacia una estructura descentralizada, permitiendo al usuario utilizar
herramientas para el desarrollo de sistemas.
Los usuarios y el departamento de sistema iniciaron el desarrollo de nuevos
sistemas, reemplazando los sistemas antiguos, en beneficio de la organización.
Etapa de administración de datos. Entre las características que destacan en esta etapa están
las siguientes:
El departamento de Sistemas de Información reconoce que la información es un
recurso muy valioso que debe estar accesible para todos los usuarios.
Para poder cumplir con lo anterior resulta necesario administrar los datos en forma
apropiada, es decir, almacenarlos y mantenerlos en forma adecuada para que los
usuarios puedan utilizar y compartir este recurso.
El usuario de la información adquiere la responsabilidad de la integridad de la
misma y debe manejar niveles de acceso diferentes.
Etapa de madurez. Entre los aspectos sobresalientes que indican que una empresa se
encuentra en esta etapa, se incluyen los siguientes:
Al llegar a esta etapa, la Informática dentro de la organización se encuentra
definida como una función básica y se ubica en los primeros niveles del
organigrama (dirección).
Los sistemas que se desarrollan son Sistemas de Manufactura Integrados por
Computadora, Sistemas Basados en el Conocimiento y Sistemas Expertos,
Sistemas de Soporte a las Decisiones, Sistemas Estratégicos y, en general,
aplicaciones que proporcionan información para las decisiones de alta
administración y aplicaciones de carácter estratégico.
En esta etapa se tienen las aplicaciones desarrolladas en la tecnología de base de
datos y se logra la integración de redes de comunicaciones con terminales en
lugares remotos, a través del uso de recursos computacionales.
ANÁLISIS DE SISTEMAS
El Análisis de Sistemas trata básicamente de determinar los objetivos y límites del
sistema objeto de análisis, caracterizar su estructura y funcionamiento, marcar las
directrices que permitan alcanzar los objetivos propuestos y evaluar sus consecuencias.
Dependiendo de los objetivos del análisis podemos encontrarnos ante dos problemáticas
distintas:
Análisis de un sistema ya existente para comprender, mejorar, ajustar yo predecir
su comportamiento.
Análisis como paso previo al diseño de un nuevo sistema-producto.
En cualquier caso, podemos agrupar más formalmente las tareas que constituyen el
análisis en una serie de etapas que se suceden de forma iterativa hasta validar el proceso
completo:
Conceptualización Consiste en obtener una visión de muy alto nivel del sistema, identificando sus
elementos básicos y las relaciones de éstos entre sí y con el entorno.
Análisis funcional Describe las acciones o transformaciones que tienen lugar en el sistema. Dichas
acciones o transformaciones se especifican en forma de procesos que reciben
una entradas y producen unas salidas.
Análisis de condiciones (o constricciones)
Debe reflejar todas aquellas limitaciones impuestas al sistema que restringen el
margen de las soluciones posibles. Estas se derivan a veces de los propios
objetivos del sistema:
o Operativas, como son las restricciones físicas, ambientales, de
mantenimiento, de personal, de seguridad, etc.
o De calidad, como fiabilidad, mantenibilidad, seguridad,
convivencialidad, generalidad, etc.
Sin embargo, en otras ocasiones las constricciones vienen impuestas por
limitaciones en los diferentes recursos utilizables:
o Económicos, reflejados en un presupuesto.
o Temporales, que suponen unos plazos a cumplir.
o Humanos.
o Metodológicos, que conllevan la utilización de técnicas determinadas.
o Materiales, como espacio, herramientas disponibles, etc.
Construcción de modelos Una de las formas más habituales y convenientes de analizar un sistema consiste
en construir un prototipo (un modelo en definitiva) del mismo.
Validación del análisis A fin de comprobar que el análisis efectuado es correcto y evitar en su caso la
posible propagación de errores a la fase de diseño, es imprescindible proceder a
la validación del mismo. Para ello hay que comprobar los extremos siguientes:
o El análisis debe ser consistente y completo.
o Si el análisis se plantea como un paso previo para realizar un diseño,
habrá que comprobar además que los objetivos propuestos son correctos
y realizables.
Una ventaja fundamental que presenta la construcción de prototipos desde el
punto de vista de la validación radica en que estos modelos, una vez construidos,
pueden ser evaluados directamente por los usuarios o expertos en el dominio del
sistema para validar sobre ellos el análisis.
DISEÑO DE SISTEMAS
El diseño de sistemas se ocupa de desarrollar las directrices propuestas durante el análisis
en términos de aquella configuración que tenga más posibilidades de satisfacer los
objetivos planteados tanto desde el punto de vista funcional como del no funcional (lo
que antes hemos denominado constricciones). El proceso de diseño de un sistema
complejo se suele realizar de forma descendente:
Diseño de alto nivel (o descomposición del sistema a diseñar en subsistemas
menos complejos).
Diseño e implementación de cada uno de los subsistemas:
o Especificación consistente y completa del subsistema de acuerdo con los
objetivos establecidos en el análisis.
o Desarrollo según la especificación.
o Prueba.
Integración de todos los subsistemas.
Validación del diseño.
Dentro del proceso de diseño de sistemas hay que tener en cuenta los efectos que pueda
producir la introducción del nuevo sistema sobre el entorno en el que deba funcionar,
adecuando los criterios de diseño a las características del mismo. En este contexto está
adquiriendo una importancia creciente la adaptación de todo sistema-producto a las
capacidades de las personas que van a utilizarlo, de forma que su operación sea sencilla,
cómoda, efectiva y eficiente. De estas cuestiones se ocupa una disciplina, la ergonomía,
que tiene por objeto la optimización de los entornos hombre-máquina. Si bien en un
principio estaba centrada en los aspectos antropométricos de la relación hombre-máquina,
en la actualidad ha pasado a intervenir con fuerza en todos los procesos cognitivos
(análisis, interpretación, decisión, comunicación y representación del conocimiento). Así,
con respecto al diseño de herramientas software, la ergonomía tiene mucho que decir en
cuestiones relacionadas con la disposición de informaciones en pantalla, profundidad de
menús, formato de iconos, nombres de comandos, control de cursores, tiempos de
respuesta, manejo de errores, estructuras de datos, utilización de lenguaje natural, etc.
GESTIÓN DE SISTEMAS
La Gestión de Sistemas se ocupa de integrar, planificar y controlar los aspectos
técnicos, humanos, organizativos, comerciales y sociales del proceso completo (desde el
análisis y el diseño hasta la vida operativa del sistema). Los objetivos principales de la
Gestión de Sistemas suelen ser:
Planificar y controlar el proceso completo de análisis, diseño y operación del
sistema dentro del presupuesto, plazo, calidad y restantes condiciones
convenidas.
Controlar la validez de los criterios de diseño.
Controlar la adecuación del producto del diseño a los requisitos establecidos en
el análisis.
Planificar y desarrollar las necesidades de mantenimiento.
Planificar y desarrollar las necesidades de formación del personal que va a
operar el sistema.
Planificar la supervisión del funcionamiento del sistema.
En grandes proyectos de ingeniería, y dentro del ámbito de la gestión, el ingeniero de
sistemas suele funcionar como asesor del director del proyecto, obteniendo, elaborando y
presentando informaciones en un formato adecuado para que éste pueda tomar las
decisiones pertinentes.
La organización como sistema de información
La organización.
En líneas generales, una organización es cualquier institución compuesta de recursos,
cuya combinación, permite alcanzar una serie de objetivos. El ser humano vive y se
relaciona dentro de organizaciones, lo que ha dado lugar a que nuestra sociedad haya sido
denominada "burocrática" u "organizacional".
Las organizaciones pueden ser definidas por sus estructuras, formadas por múltiples
canales y normas. La organización es un complejo de canales a través de los cuales los
productos, servicios, recursos y flujos de información transitan de un punto a otro dentro
de la organización, y también entre la organización y su entorno
La organización se define por su estructura y por su funcionamiento , de manera que se
introduce la estructura como elemento estático y el funcionamiento como dinámico, lo
cual nos lleva a diferenciar la estructura, es decir la combinación de las diferentes partes
de la organización con su funcionamiento.
Para Ivancevichet, la estructura de la organización "es el entramado de puestos de trabajo
y departamentos que orienta la conducta de los individuos y grupos hacia la consecución
de los objetivos de la organización" .
La estructura permite la existencia de un orden metódico entre las distintas funciones de
la organización lo que permite conseguir los objetivos fijados.
Modelos estructurales tradicionales y nuevos modelos.
Si bien son muchos los autores que han clasificado las distintas estructuras de las
organizaciones, podemos resumir diciendo que en las últimas décadas se ha pasado de
una estructura piramidal y jerárquica a otro tipo de organizaciones donde las relaciones
jerárq uicas rígidas han cambiado sus formas estrictas por otras menos rígidas, donde se
comparte información.
En los últimos años han aparecido una serie de perspectivas y orientaciones
organizacionales que han propugnado un modelo de organización diferente al tradicional.
En 1965, Anthony definió un modelo de empresa industrial, o modelo de organización
vertical, definido por diferentes niveles directivos, cuyas relaciones se basaban en la
jerarquía y en la obediencia, de tal manera, que la información fluía desde los niveles
inferiores de la organización hacia los niveles superiores, y desde estos últimos se
generaban las órdenes que llegaban al resto de la organización.
Sin embargo, este modelo jerárquico, tiende a ser sustituido en la actualidad por otro
donde la información y las órdenes fluyen en todos los sentidos, y que supone la
sustitución del modelo vertical por otro modelo horizontal, o de empresa horizontal.
Esta nueva organización ha sido estudiada por diversos autores, cada uno de los cuales la
ha definido de un modo. Citaremos sólo algunos de ellos:
Peter Senge, la llama organización aprehendiente, y supone la integración de
pensamiento y toma de decisiones en el conjunto de la organización.
Ruth Stanat, red de información compartida, en la que cada miembro dispone de
la información que requiere para cumplir sus funciones.
Choo, la denomina la organizaciónastuta(knowing organization.
Nonaka y Takeuchi han presentado un modelo que permite conocer cómo las
organizaciones crean conocimiento. La creación de conocimiento se consigue a
través del reconocimiento de las relaciones sinérgicas entre conocimiento tácito y
el conocimiento explícito, y permite la innovación constante..
Manuel Castells ha optado por denominar al nuevo modelo "empresa-red" o el
paso de las burocracias verticales a la gran empresa horizontal, caracterizada por
siete tendencias:" Organización en torno al proceso no a la tarea; jerarquía
plana; gestión en equipo; medida de los resultados por la satisfacción del cliente;
recompensas basadas en los resultados del equipo; maximización de los contactos
con los proveedores y clientes; e información y formación de los empleados en
todos los niveles". Este autor señala que en este modelo la información circula en
redes entre empresas, redes dentro de las empresas, o en redes entre personas, y
asegura que "las redes son el elemento fundamental del que están y estarán hechas
las nuevas organizaciones ".
El gurú de la gestión Peter Drucker, denomina a la nueva organización como
orquestal: "Hacia 1970 la información empezó a transformar las organizaciones;
pronto aprendimos que la introducción en éstas de la información como elemento
estructural y orgánico significa la eliminación de muchos, si no de la mayoría, de
los niveles de dirección. En la organización tradicional, la mayoría de personas
llamadas directivos no dirigían realmente; lo que hacían era pasar órdenes hacia
abajo e información hacia arriba. Si la información está disponible, sobran. El
modelo justo para la organización basada en la información no son las fuerzas
armadas, aún en su forma modificada; es la orquesta sinfónica en la cual cada
músico toca directamente y sin intermediarios para el presidente ejecutivo, el
director, y puede hacerlo porque todos tienen la misma partitura, es decir, la
misma información. También lo es el conjunto de jazz, en el cual cada músico
asume la responsabilidad de la partitura."
Finalmente, para Joan Costa este periplo que ha mostrado la evolución del management
o gestión, se representaría gráficamente, en la disolución del modelo piramidal, basado
en niveles de jerarquía y mando ya expresados con anterioridad, por otro modelo
sistémico, molecular, en forma de malla o red, basado en la interacción y la comunicación.
El mismo Costa ejemplifica con las palabras del presidente de una empresa francesa que
decía: " Yo estaba en la cúspide de una pirámide, y me encuentro ahora dentro de una
molécula ".
Modelos de sistemas de informacion:
Modelo A. Que contempla desde una perspectiva general y cuyo estudio es
utilizado para el desarrollo del resto de modelos. Yepes cita a Debons que lo
denomina sistema de información generalizada, que es un modelo compuesto de:
Entorno.
Adquisición de datos, transmisión, proceso, almacenamiento, utilización y
transferencia.
Modelo B. Es un subsistema dentro de las organizaciones. Destaca los sistemas
de información para la gestión ( MIS ) y los sistemas de gestión de información.
Modelo C. Es el "resultado de la conjunción de redes y centros de información,
enmarcado en las políticas nacionales y territoriales de información. En este
sentido el sistema actúa bajo el principio de la centralización, y la red bajo el
principio de coordinación de centros en que, por delegación, se invisten de
determinada responsabilidad en la recolección y difusión de fuentes".
Senndiferencia entre los siguientes tipos de sistemas de información:
sistemas para el procesamiento de transacciones,
sistemas de información administrativa,
y sistemas de información para la decisión.
Este autor discierne, a su vez, entre sistemas abiertos que interactúan con su medio
ambiente, reciben entradas y producen salidas. Y sistemas cerrados, que no interactúan
con su medio ambiente.
Otra clasificación distingue entre aquellos que sirven para la toma de decisiones
estructuradas, y los que sirven para la toma de decisiones semiestructuradas, donde
existen riesgos y criterios múltiples. Conceptos éstos, ya vislumbrados en el apartado de
la toma de decisiones.
Para Debons sistema de información es "un conjunto de personas, maquinaria y
procedimientos que integrados hacen posible a los individuos trabajar con inputs y
demandas que aparecen en el trabajo cotidiano" .
Lluís Codina ha analizado los sistemas de información como una disciplina de interés
para la investigación, de tal forma que parte de la teoría de sistemas y desde allí señala
que un sistema "es un conjunto de elementos que interactúan unidos por una relación de
influencia" e identifica las siguientes características: propósito del sistema, elementos del
sistema o composición interna, entorno del sistema, entradas, salidas y procesos de
transformación o funciones del sistema.
Así que para Codina un sistema de información es un modelo de una parte de la realidad,
y como tal mantiene registros sobre algún aspecto de esa realidad.
Para Samuelson "sistema de información es la combinación de recursos humanos y
materiales que resultan de las operaciones de almacenar, recuperar y usar datos con el
propósito de una gestión eficiente en las operaciones de las organizaciones" .
Emery señala como la información ha generado en la estructura de las organizaciones
nuevas formas de gestión derivadas del uso inteligente de la información. Visto así, la
información ayuda a una organización a trabajar de forma más inteligente.
Emery, al igual que otros autores, diferencia entre varios tipos de sistemas de información
dentro de las organizaciones, pero cuyo común denominador busca proporcionar datos
seleccionados y evitar información inútil para la toma de decisiones en diferentes escalas
de la estructura de la organización.
Gil Pechuan cita las características que Emery ha descrito como las necesarias para la
existencia de todo sistema de información:
Disponibilidad de información cuando es necesario y por los medios adecuados.
Suministro de información de manera selectiva.
Variedad en la forma de presentación de la información.
Grado de inteligencia incorporado al sistema.
Tiempo de respuesta del sistema.
Exactitud.
Generalidad, como las funciones para atender a las diferentes necesidades.
Flexibilidad, capacidad de adaptación.
Fiabilidad, para que el sistema opere correctamente.
Seguridad, protección contra pérdidas.
Reserva, nivel de repetición del sistema para evitar pérdidas.
Amigabilidad, para el usuario.
Otros autores reflejan definiciones que permiten enmarcar su posible descripción. Así,
para Patricia Burt un sistema de información es una combinación de fuentes de
información junto con una serie de mecanismos de recuperación, manipulación y uso.
El objeto de cualquier sistema de información es conectar a un usuario con una fuente de
información que necesita para satisfacer sus necesidades. Mientras para otros, sistema es
un conjunto de componentes que interactúan entre sí para lograr un objetivo común, y
desde esta perspectiva toda organización es un sistema definido por flujos informativos.
De esta manera, estamos tratando un concepto cargado de una cierta ambigüedad, en tanto
que su aplicación se puede enmarcar aplicado a los sistemas de información personales
como a los sistemas de información que implementan políticas territoriales de
información. Así, puede señalarse que todo sistema de información mantiene un conjunto
de flujos de información, de entrada, internos al sistema y de salida, que tienen como
función solucionar un problema informativo a cualquier escala.
Chaín asume la visión integradora que considera que la organización genera el sistema de
información y ambas se integran formando un todo.
La empresa como sistema de información
Así, en las últimas dos décadas se ha evolucionado enormemente en la consideración de
los sistemas de información que "podían existir" en las organizaciones a la última noción
integradora de organización como un sistema informativo. Ahora se considera que la
organización genera el sistema de información, y ambos se integran formando un todo.
LOS SISTEMAS DE INFORMACIÓN EN LA
EMPRESA.
Frecuentemente se ha utilizado el término informatización como sinónimo de sistemas de
información. Y aunque la mayoría de los autores están de acuerdo en asumir que un
sistema de información requiere un adecuado proceso de informatización, lo que también
está claro es que no en todos los casos la construcción de un sistema de información lleva
aparejado el uso de tecnologías de la información.
Sin embargo, asumimos que hoy en día cualquier sistema de información, por pequeño
que sea requiere de unos mínimos procesos de automatización.
También parece adecuado señalar que las distintas aplicaciones informáticas que
funcionan por separado impiden la adecuación de un sistema de información, de manera
que como señala Gil Pechuan para que el sistema de información exista "deberá
contemplar el diseño de un sistema integrado que relacione las informaciones generales
por las diversas aplicaciones funcionales de la empresa y que permita así, mejorar los
procesos de toma de decisiones"
LA GESTIÓN DEL CONOCIMIENTO.
Nuevo elemento para los sistemas de información
Ha sido en la última década cuando se ha descubierto que las personas se convierten en
la clave de las organizaciones, que deben basar su crecimiento y competitividad en la
creatividad y la iniciativa de sus miembros.
Surge, así, la gestión del conocimiento ( knowledge management ) como el concepto
capaz de articular el capital intelectual y todo el potencial que llevan dentro de sí los
recursos humanos, y transformarlos en valor para la acción..
Algunos autores consideran que la gestión del conocimiento aparece debido a que la
gestión de información se ocupaba del conocimiento explícito, es decir aquel recogido en
los documentos, y no en el conocimiento tácito.
Las nuevas estructuras organizativas, requieren una gestión de los recursos y de los
activos diferente. El saber y el conocimiento se convierten en la base de la estrategia y en
el verdadero activo de cualquier organización, representado en sus individuos.
Veamos algunas características de la gestión del conocimiento. Earl propone cuatro
componentes para que una empresa sea capaz de crear una estrategia capaz de generar
conocimiento:
sistemas del conocimiento,
redes,
trabajadores del conocimiento,
y organizaciones aprehendientes.
Nonaka , al que hemos citado anteriormente, nos dice que la gestión del conocimiento
implica crear nuevo conocimiento, gestionar el conocimiento que se encuentra
diseminado en la organización e incorporado en productos, servicios y sistemas, lo cual
no tiene el mismo significado que producción, almacenar o recuperar que es más propio
de la gestión de la información.
Para Andreu y Sieber la gestión del conocimiento se convierte en el proceso que permite
asegurar el desarrollo y aplicación de todo tipo de conocimientos pertinentes en una
empresa con el objeto de mejorar su capacidad de resolución de problemas y contribuir a
la sostenibilidad de sus ventajas competitivas
Entendemos en el marco teórico de este trabajo, que el objetivo de la gestión del
conocimiento son las personas como fuente de información, y la transformación de todo
ese conocimiento a alguna forma estructurada que permita ser procesada e incorporada a
un sistema de información.
SISTEMAS DE INFORMACIÓN PARA OBTENER
VENTAJAS ESTRATÉGICAS
Los sistemas de información brindan grandes oportunidades para crear ventajas
competitivas, para cambiar la manera como una empresa compite, o para innovar los
procesos de una organización.
La realización de un Plan de Sistemas de Información dentro de cualquier organización,
tiene como finalidad asegurar la adecuación entre los objetivos estratégicos de la misma
y la información necesaria para soportar dichos grandes objetivos. Esto hace que una
metodología de planificación de sistemas abarque a toda la organización y exige tener en
cuenta una serie de conceptos, en cuanto a planificación de estrategias, que desbordan el
marco específico de una metodología de desarrollo de sistemas.
Una estrategia es un conjunto de decisiones que se toman con miras a lograr algo (un
objetivo). En el caso de una organización, una estrategia a largo plazo es lo que permite
lograr la visión de la organización en un futuro. Esta estrategia es el resultado de una serie
de decisiones sobre su alcance, competencias y manejo:
El Alcance del Negocio está asociado con decisiones que determinan dónde va a
competir la empresa, e implica contestar ¿qué productos o servicios va a
producir?, ¿en qué nichos?, ¿para qué clientes? y ¿en qué zonas geográficas?.
Las Competencias Distintivas implican que la organización tome decisiones
acerca de cómo la empresa va a competir para entregar sus productos o servicios.
Para ello, deben responderse preguntas como ¿Qué va a hacer que le compren a
ella? ¿Qué la distingue de sus competidores? ¿Qué puede hacerse que sea difícil
de imitar por estos?.
El decidir sobre el Manejo del Negocio implica tomar decisiones acerca de la
propiedad de la empresa considerando, entre otros factores, la necesidad de
establecer alianzas o sociedades.
La manera de competir de una empresa involucra habilidades, activos y rutinas que la
distinguen de los competidores y que deben ser aprovechadas en la definición de la
estrategia del negocio. Este concepto, al que también se ha denominado "Competencias
Centrales", constituye el conocimiento colectivo en la organización necesario para
coordinar habilidades, tecnologías y recursos en la producción de bienes y servicios.
Una buena identificación de cuáles serán las competencias centrales que habrán de
convertirse en las competencias distintivas de la estrategia, implica seleccionar aquellas
habilidades o prácticas que dan acceso potencial a una amplia variedad de mercados,
contribuyen en forma significativa al valor que perciben los clientes y son difíciles de
imitar por los competidores.
Los elementos de la Infraestructura y Procesos Organizacionales de una empresa son
tres:
La Estructura Administrativa de la empresa, en donde se especifican los roles y
responsabilidades de los integrantes de la organización, así como los mecanismos
de autoridad y toma de decisiones.
Los Procesos de la organización, que pueden concebirse como flujos de
coordinación para satisfacer condiciones de compromiso entre las personas que
integran a la empresa.
Las Habilidades que habrán de tener los recursos humanos encargados de realizar
los procesos organizacionales.
Estos tres componentes se encuentran íntimamente relacionados. Un ejemplo lo
constituyen aquellas organizaciones que han modificado su estructura administrativa de
una estructura meramente jerárquica dividida en unidades funcionales, a una de equipos
de procesos multifuncionales. Las personas que integran estos equipos tienen una
amplitud mayor en el alcance de sus tareas, por lo cual requieren la habilidad de trabajar
de manera autónoma.
Uno de los objetivos de la adecuada aplicación de tecnología en la organización
consiste en obtener ventajas estratégicas que sean difíciles de imitar; es decir, en lograr
que la infraestructura y los procesos organizacionales (¿cómo? y ¿con qué?) apoyen la
estrategia (¿qué? ¿dónde? ¿por qué?) de la empresa. Estas ventajas estratégicas se
traducirán en ventajas competitivas hacia el exterior si ellas contribuyen a dar mayor valor
a los productos o servicios en relación a la competencia. Usar tecnología para obtener
ventajas estratégicas implica instrumentar estrategias que refuercen los factores críticos
de éxito (¿con qué?) y las "competencias centrales" del negocio (¿cómo?).
Estrategia de Tecnologías de Información.
En forma similar a la Estrategia del Negocio, la Estrategia de Tecnologías de
Información es el resultado de una serie de decisiones sobre su alcance, competencias y
manejo:
El Alcance de la Tecnología está asociado con decisiones que determinan el tipo
de tecnologías que se utilizarán (e.g., tecnologías orientadas a objetos,
arquitecturas cliente/servidor, manejo de imágenes, robótica, multimedia, etc.).
Las Competencias Sistémicas identifican las características y fortalezas de las
tecnologías que serán críticas para la creación/extensión de estrategias de
negocios (conectividad, accesibilidad, confiabilidad, desempeño).
Las decisiones de manejo de la Tecnología permiten determinar el alcance de
propiedad sobre la tecnología, así como posibilidades de alianzas o sociedades.
Un cuarto componente de la estrategia de TI, la Infraestructura y Procesos de
Tecnología, tiene tres elementos interrelacionados:
La Arquitectura Tecnológica de la empresa, en donde se especifican las
prioridades y políticas que permiten la integración de aplicaciones tecnológicas,
así como los mecanismos de autoridad y toma de decisiones con relación a
tecnología.
Los Procesos relacionados con el desarrollo de aplicaciones tecnológicas, con su
administración y con la operación de ellas.
Las Habilidades, es decir, las experiencias, competencias, compromisos, valores
y normas de la gente encargada de entregar productos y servicios de tecnología.
En forma similar a la Infraestructura y Procesos de la Organización, este cuarto
componente se refiere a la manera como se instrumenta la Estrategia de TI en actividades,
equipos de trabajos, compromisos y demás elementos asociados con el trabajo en la
empresa. En este caso, los procesos son procesos asociados con las TI, como podría ser
el desarrollo de un nuevo sistema, la impresión de recibos telefónicos, la evaluación de
nuevas soluciones informáticas para la organización, o la operación del centro de
cómputo, entre otros.
Es importante caracterizar a la alineación de estrategias como el resultado de un ajuste
estratégico y de una integración funcional simultáneamente. El ajuste estratégico se
obtiene cuando se toman decisiones que posicionan adecuadamente a la empresa en el
mercado (o a las tecnologías en la Empresa). Un buen ajuste estratégico permite
capitalizar la estructura, procesos y habilidades de la gente en la implementación de la
estrategia organizacional (o de tecnología).
Por su parte, la integración funcional representa la alineación entre los elementos
asociados directamente con el negocio, y aquéllos que tienen que ver con la tecnología en
sí. La integración Funcional es importante porque para cambiar las estrategias de negocios
pueden aprovecharse las oportunidades de las tecnologías, y porque si las estrategias de
negocios cambian, esto tendrá impacto en la estrategia tecnológica.
El descubrir oportunidades para innovar los procesos de una empresa aprovechando las
ventajas que brindan las tecnologías de información, pone énfasis en la vinculación entre
estrategias de tecnología y de negocios (integración funcional), utilizando a las TI como
un facilitador para transformar la infraestructura y procesos del negocio.
Una metodología que puede seguirse para instrumentar esta perspectiva consiste de
cinco pasos:
Selección del proceso a innovar, en función de los fines del negocio (definidos en
la estrategia de la organización).
Identificación de los facilitadores para el cambio, donde se considera a las TI y
también a otros elementos culturales o estructurales que podrían ayudar a innovar
el proceso.
Creación de una visión del nuevo proceso, donde se definen objetivos y atributos
para el desempeño del proceso, y se hace un diseño del mismo.
Diseño de alternativas de implementación, donde se define la manera como habrá
de instrumentarse la visión generada en el paso anterior.
Implementación del nuevo proceso, donde se instrumenta el nuevo proceso.
Lo interesante de esta metodología es que los medios (TI entre otros) se consideran
antes de definir la visión del proceso (el cómo). De esta manera, se busca que la visión
sea lo más innovadora posible.
El empleo de las tecnologías para la instrumentación de nuevas estrategias de negocios
requiere conocer las fuerzas/debilidades de la infraestructura interna de tecnología y
administrar el riesgo tecnológico adecuadamente. A diferencia de la perspectiva anterior,
la innovación se da fundamentalmente en los procesos tecnológicos y no en los procesos
organizacionales.
Esta perspectiva podría aplicarse, por ejemplo, cuando el área de TI cambia sus
mecanismos de entrega de productos informáticos hacia las áreas funcionales,
descentralizando actividades que anteriormente eran competencia únicamente del área
central de TI. En este caso, los procesos de informática se ven modificados para permitir
la instrumentación de nuevas estrategias de negocio
La entrega de productos y servicios de tecnología en la organización, y su método de
ajuste asociado, es el que tiene que ver con la elaboración y ejecución de planes
tecnológicos. La administración estratégica se enfoca a decidir cómo responder a las
necesidades de los clientes, y el rol de la gerencia consiste en fijar prioridades y en
balancear los resultados a corto plazo con los de largo plazo.
Un error común de los responsables de la función informática es tener planes de
sistemas demasiado amplios que pretenden cubrir todas las necesidades del negocio,
desde aquéllas verdaderamente importantes, hasta aquéllas que son deseables pero no
fundamentales; y como resultado, los esfuerzos se diseminan y no se obtienen los
objetivos planteados en un principio.
Para ponderar entre sí los distintos proyectos informáticos, deben tomarse en cuenta
los beneficios económicos, los beneficios intangibles, los beneficios tecnológicos, y la
manera como un determinado proyecto apoya los objetivos de la organización.
En resumen, los pasos para la planificación estratégica de los sistemas de información
son:
Identificar metas, objetivos y estrategias.
Examinar tendencias tecnológicas y cómo pueden estas utilizarse para crear
nuevas oportunidades y ventajas competitivas.
Determinar los factores claves de éxito para la organización e identificarlos dentro
del organigrama de la empresa.
Realizar entrevistas a los ejecutivos claves para determinar: problemas,
oportunidades y necesidades de información.
Desarrollar un Modelo del Negocio, o sea la descripción breve de cada una de las
actividades de los procesos clave de la empresa.
Identificar los "requerimientos de información" de cada una de las actividades de
los procesos del Modelo. Al terminar este esfuerzo quedará claro qué información
es generada por cada actividad y qué información requiere para generarla. De esta
forma se obtiene la relación existente entre los procesos. Los "requerimientos de
información" no son datos sino una expresión coloquial en el lenguaje de los
conocedores del proceso, por ejemplo Pronóstico de demanda, Disponibilidad de
Servicios, Regulaciones, Costo operacional, etc.
Crear una "Arquitectura de Datos",o sea identificar las "entidades de datos" del
negocio, sus atributos, sus relaciones y su dominio. A esto se llama también
"Modelo de Datos" y a las relaciones entre las entidades "Modelo Entidad-
Relación". Estos modelos se logran en sesiones de "modelaje de datos" en que un
facilitador busca la colaboración de los expertos de cada aspecto del negocio para
construir el modelo.
Establecer la Arquitectura de Aplicaciones que agrupa requerimientos similares
de procesamiento de datos de los procesos en unidades de sistemas (teóricos) y
las Bases de Datos (también teóricas) para satisfacer los requerimientos de
información de la empresa.
En la siguiente figura se presenta, un bosquejo posible para un plan de sistemas de
información.
CONCLUSION
A lo largo de la historia, incluso desde tiempos en los que no existía la electricidad, el
hombre siempre ha querido simplificar su modo de vida, por esta razón los grandes
pensadores de todos los tiempos, han dedicado gran parte de su vida a desarrollar teorías
matemáticas para construir máquinas que simplifiquen las tareas de la vida diaria.
El verdadero auge de estas ideas comienza en la época de la revolución industrial con la
aparición de la máquina de tejer, y muchas otras maquinarias. Luego se comienza a
necesitar realizar cálculos muy grandes, que eran difíciles de realizar por el hombre, ya
que tomaba años terminar un cálculo. Entonces comienzan a crear las computadoras, con
ellas se realizaban las tareas matemáticas de manera más rápida y segura.
Sin embargo no era suficiente, por naturaleza se tiende a buscar mas rapidez, y es cuando
comienza la técnica de "miniaturización" que cada día se perfecciona mas; con este
método se logra hacer procesadores mas rápidos por circuitos mas pequeños, de igual
manera se logra tener capacidades de almacenamiento abismales en espacios físicos muy
pequeños, la ciencia de la computación se encuentra en su mejor momento.
El uso de las Nuevas Tecnologías de la Información y las Comunicaciones en la
enseñanza traería consigo un número ilimitado de ventajas como por ejemplo:
1. Construcción de programas de enseñanza personalizados para cada alumno: en
cuanto a horarios, contenidos, etc.
2. Capacidad para establecer un ritmo individualizado de seguimiento para cada
alumno, que esté a la medida de los estilos y limitaciones de aprendizaje de cada
uno.
3. Ahorro de costos en desplazamientos: viaja el curso, no el alumno (en ocasiones,
ni siquiera el instructor).
4. Teoría y práctica fácilmente integrables, en muchos de los casos de formación en
tecnologías de la información.
5. Integración del aprendizaje con ejercicios de autoevaluación.
6. Posibilidad de reproducir situaciones muy cercanas al contenido del trabajo real.
7. Flexibilidad en la planificación y gestión de las tareas de formación.
Las mismas pueden servir para aumentar el nivel y calidad del trabajo pero para hacer
realidad estas aspiraciones debemos tener en cuenta:
La necesidad de implantar leyes que regulen y controlen los problemas surgidos como
consecuencia de la aplicación de estas novedosas tecnologías, no perder de vista lo
importante que resulta ponerlas en función del hombre y no lo contrario. Ellas por sí solas
no traerán la felicidad e igualdad a nuestro planeta, eso sería caer en un enfoque
tecnocrático del desarrollo humano. En primer lugar es necesario el mejoramiento del
hombre, que triunfen las ideas de la solidaridad y la cooperación, el establecimiento de
nuevas relaciones de producción y de intercambio justo.
La informática no suprimirá las desigualdades sociales, las luchas de clases o los
conflictos ideológicos. Por el contrario, debido a su impacto social acentuará las
disparidades que a su vez forzarán enfrentamientos que promoverán cambios y
alternativas radicales . Los pueblos no asistirán impasibles a la liquidación de su soberanía
o a la enajenación extranjera de los bienes y recursos del estado.
La realización de un Plan de Sistemas de Información dentro de cualquier organización,
tiene como finalidad asegurar la adecuación entre los objetivos estratégicos de la misma
y la información necesaria para soportar dichos grandes objetivos, como es, El descubrir
oportunidades para innovar los procesos de una empresa aprovechando las ventajas que
brindan las tecnologías de información, pone énfasis en la vinculación entre estrategias
de tecnología y de negocios (integración funcional), utilizando a las TI como un
facilitador para transformar la infraestructura y procesos del negocio.
El empleo de las tecnologías de la información para la instrumentación de nuevas
estrategias de negocios requiere conocer las fuerzas/debilidades de la infraestructura
interna de tecnología y administrar el riesgo tecnológico adecuadamente.
En esta pequeña introducción a la visión de cambio que han causado los sistemas de
información organizacionales, se adquirió un conocimiento básico de la importancia
mediante su utilización para automatizar los procesos operativos y su evolución hacia
fuentes importantes de información que sirven de base para la toma de decisiones como
apoyo a los niveles medio y alto gerenciales, para finalmente convertirse en herramientas
para obtener ventajas competitivas mediante su implantación y uso apoyando el máximo
nivel de la organización. Cada día se utiliza en mayor grado las TI para apoyar y
automatizar las actividades de una empresa. Es importante como recomendación contar
con un plan adecuado para lograr mayores ventajas del uso de los Sistemas de
Información.
BIBLIOGRAFÍA
http://elcomputadorevolucionehistoria.blogspot.com/
http://es.encarta.msn.com/encyclopedia_761559091/Microprocesado
r.html
http://es.kioskea.net/contents/382-la-impresora
http://es.wikipedia.org/wiki/Almacenamiento_secundario
http://es.wikipedia.org/wiki/Esc%C3%A1ner_de_computadora
http://es.wikipedia.org/wiki/M%C3%B3dem
http://es.wikipedia.org/wiki/Rat%C3%B3n_%28inform%C3%A1tica
%29
http://es.wikipedia.org/wiki/Tarjeta_gr%C3%A1fica
http://hamletyelaprendizajevirtual.jimdo.com/tarea-de-
inform%C3%A1tica-i/
http://html.rincondelvago.com/puertos-informaticos.html
http://informaticajack.blogspot.com/2009/05/tipos-de-camaras-
digitales.html
http://lerchaparralo7.blogspot.com/2011/01/el-computador-una-
herramienta.html
http://lily33.blogcindario.com/2011/05/00003-utilidades-del-
computador.html
http://ortihuela.galeon.com/ram.htm
http://sobreconceptos.com/informatica
http://sobreconceptos.com/informatica#ixzz2yFjBDYqq
http://www.consumer.es/web/es/tecnologia/hardware/2005/03/17/1
40483.php
http://www.consumer.es/web/es/tecnologia/hardware/2006/06/28/1
53334.php
http://www.definicionabc.com/tecnologia/tarjeta-
madre.php#ixzz2yG2gxoDr
http://www.ehowenespanol.com/son-memorias-cache-l1-l2-l3-
info_194186/
http://www.informaticamoderna.com/Camara_digital.htmhttp://www
.informaticamoderna.com/Fax_modem_extern.htm
http://www.informaticamoderna.com/Tarjetas_de_sonido.htm
http://www.monografias.com/trabajos5/sisope/sisope.shtml#ixzz2yFt
QuR8t
http://www.monografias.com/trabajos5/sisope/sisope2.shtml#ixzz2y
G5E1VaZ
http://www.tiposde.org/informatica/183-tipos-de-tarjeta-
madre/#ixzz2yG47K728
http://www.monografias.com/trabajos
http://www.definicionabc.com/tecnologia/
http://www.tiposde.org/informatica/
http://www.informatica-hoy.com.ar/
top related