metodologia modelos y_comput pdf

37
Historia de la Computación COMPUTADORA Máquina capaz de efectuar una secuencia de o p erac i on es m ediante un p r o g r a m a , de tal manera, que se realice un procesamiento sobre un conjunto de d a t o s d e entrada, obteniéndose otro conjunto de d a t o s d e salida. TIPOS DE COMPUTADORAS Se clasifican de acuerdo al principio de operación de Analógicas y Digitales. COMPUTADORA ANALÓGICA 1. Aprovechando el hecho de que diferentes fenómenos físicos se describen por relaciones m a t e m á ticas si milares (v.g. Exponenciales, Logarítmicas, etc.) pueden entregar la solución muy rápidamente. Pero tienen el inconveniente que al cambiar el problema a resolver, hay que realambrar la circuitería (cambiar el H ar d w ar e ). COMPUTADORA DIGITAL 1. Están basadas en dispositivos biestables, i.e., que sólo pueden tomar uno de dos v alo r es posibles: ‘1’ ó ‘0’. Tienen como ventaja, el p o d er e jecutar diferentes p r o g ra m a s p ara diferentes p r o b l e m a s , sin tener que la necesidad de modificar físicamente la máquina. HISTORIA DE LA COMPUTACIÓN Uno de los primeros dispositivos mecánicos para contar fue el á b ac o , cuya h is t o r i a se remonta a las antiguas civilizaciones griega y romana. Este dispositivo es muy sencillo, consta de cue n tas en sartadas en varillas que a su vez están montadas en un marco rectangular. Al desplazar las cue n t as s obre varillas, sus posiciones representan v a l o res alm acenados, y es mediante dichas posiciones que este representa y almacena d a t o s. A este dispositivo no se le puede llamar c om pu ta d o ra p or carecer del elemento fundamental llamado p r o g r a ma . Otro de los i nv en t o s m ecánicos fue la Pascalina inventada por Blaise P ascal ( 1623 - 1662) de F r a n cia y la de Gottfried Wilhelm von Leibniz (1646 - 1716) de A l e m a n ia. Con estas máquinas, los d a t o s s e representaban mediante las posiciones de los engranajes, y los d a t o s se introducían manualmente estableciendo dichas posiciones finales de las ruedas, de manera similar a como leemos los números en el cuentakilómetros de un automóvil.

Upload: marbella-ordonez-morfin

Post on 25-Jul-2015

103 views

Category:

Documents


3 download

TRANSCRIPT

Historia de la ComputaciónCOMPUTADORA

Máquina capaz de efectuar una secuencia de o p erac i on es m ediante un p r o g r a m a , de tal manera, que se realice un procesamiento sobre un conjunto de d a t o s d e entrada, obteniéndose otro conjunto de d a t o s d e salida.

TIPOS DE COMPUTADORAS

Se clasifican de acuerdo al principio de operación de Analógicas y Digitales.

COMPUTADORA ANALÓGICA

1. Aprovechando el hecho de que diferentes fenómenos físicos se describen por relaciones m a t e m á ticas si milares (v.g. Exponenciales, Logarítmicas, etc.) pueden entregar la solución muy rápidamente. Pero tienen el inconveniente que al cambiar el problema a resolver,hay que realambrar la circuitería (cambiar el Hardware).

COMPUTADORA DIGITAL

1. Están basadas en dispositivos biestables, i.e., que sólo pueden tomar uno de dos v alo r es posibles: ‘1’ ó ‘0’. Tienen como ventaja, el p o d er e jecutar diferentes p r o g ra m a s p ara diferentes p r o b l e m a s , sin tener que la necesidad de modificar físicamente la máquina.

HISTORIA DE LA COMPUTACIÓN

Uno de los primeros dispositivos mecánicos para contar fue el á b ac o , cuya h is t o r i a se remonta a las antiguas civilizaciones griega y romana. Este dispositivo es muy sencillo, consta de cue n tas en sartadas en varillas que a su vez están montadas en un marco rectangular. Al desplazar las cue n t as s obre varillas, sus posiciones representan v a l o res alm acenados, y es mediante dichas posiciones que este representa y almacena d a t o s. A este dispositivo no se le puede llamar c om pu ta d o ra p or carecer del elemento fundamental llamado p r o g r a ma .

Otro de los i nv en t o s m ecánicos fue la Pascalina inventada por Blaise P ascal ( 1623 - 1662) de F r a n cia y la de Gottfried Wilhelm von Leibniz (1646 - 1716) de A l e m a n ia. Con estas máquinas, los d a t o s s e representaban mediante las posiciones de los engranajes, y los d a t o s se introducían manualmente estableciendo dichas posiciones finales de las ruedas, de manera similar a como leemos los números en el cuentakilómetros de un automóvil.

La primera c o m pu tad o r a f ue la máquina analítica creada por Charles Babbage, profesor matemático de la U n i v ersi d ad de Cambridge en el siglo XIX. La idea que tuvo Charles Babbage sobre un c o m pu tad o r n ació debido a que la elaboración de las tablas m a t e m áti c as era un p r o ce s o tedioso y propenso a errores. En 1823 el g o b i erno Br itánico lo apoyo para crear el

p r oy e c t o d e una máquina de diferencias, un dispositivo mecánico para efectuar sumas repetidas.

Mientras tanto Charles Jacquard (francés), fabricante de t e ji d o s, había creado un telar que podía reproducir automáticamente patrones de t e ji d o s l eyendo la i n f o r m aci ó n c odificada en patrones de agujeros perforados en tarj e tas d e p a p el r ígido. Al enterarse de este m é t o d o Babbage abandonó la máquina de diferencias y se dedico al p r o y ec t o d e la máquina analítica que se pudiera programar con tar j e t as p erforadas para efectuar cualquier cálc u l o c on una precisión de 20 dígitos. La t ecn o l o g ía d e la época no bastaba para hacer realidad sus ideas.

El mundo no estaba listo, y no lo estaría por cien años más.

En 1944 se construyó en la U n iv e rsi d ad de Harvard, la Mark I, diseñada por un equipo encabezado por Howard H. Aiken. Esta máquina no está considerada como c om p u tad o ra ele c t r ó n ica d ebido a que no era de propósito general y su funcionamiento estaba basado en dispositivos electromecánicos llamados relevadores.

En 1947 se construyó en la U n iv e rsi d ad de Pennsylvania la ENIAC (Electronic Numerical Integrator And Calculator) que fue la primera c o m pu t a d o ra e l ec t r ó n ica, el equipo de d i s eño lo encabezaron los ingenieros John Mauchly y John Eckert. Esta máquina ocupaba todo un sótano de la U n i v ersi d a d , tenía más de 18 000 tubos de vacío, consumía 200 KW de ene r g ía eléc t r i ca y requería todo un sist e m a d e ai r e ac o nd ic i o n a d o , pero tenía la capacidad de realizar cinco mil o p erac i o n es ar itméticas en un segundo.

El p r o y ec t o , a uspiciado por el departamento de Defensa de los E s tad o s Un id o s, culminó dos años después, cuando se integró a ese equipo el ingeniero y matemático húngaro John von Neumann (1903 - 1957). Las ideas de von Neumann resultaron tan fundamentales para su d esarr o l l o p osterior, que es considerado el padre de las c o m pu ta d o ras.

La EDVAC (Electronic Discrete Variable Automatic Computer) fue diseñada por este nuevo equipo. Tenía aproximadamente cuatro mil bulbos y usaba un tipo de m e mo ria b asado en tubos llenos de mercurio por donde circulaban señales eléctricas sujetas a retardos.

Primera Generación

En esta generación había una gran desconocimiento de las capacidades de las c o m pu tad o r a s , puesto que se realizó un estudio en esta época que determinó que con veinte c o m pu tad o r a s se saturaría el m e r ca d o de los E s tad o s Un id o s en el campo de p r o ce s a m i ento de d at o s .

Esta generación abarco la década de los cincuenta. Y se conoce como la primera generación. Estas máquinas tenían las siguientes car a ct e rí sticas:

Estas máquinas estaban construidas por medio de tubos de vacío. Eran programadas en le ng u aje d e máquina.

En esta generación las máquinas son grandes y costosas (de un c o s t o aproximado de ciento de miles de dólares).

En 1951 aparece la UNIVAC (NIVersAl Computer), fue la primera c om pu ta d o ra c omercial, que disponía de mil palabras de m e m o ria c entral y podían leer cintas magnéticas, se utilizó para procesar el censo de 1950 en los Esta d o s Un i d os .

En las dos primeras generaciones, las unidades de entrada utilizaban tarje t as p erforadas, retomadas por Herman Hollerith (1860 - 1929), quien además fundó una compañía que con el paso del ti e m p o se conocería como IBM (International Bussines Machines).

Después se desarrolló por IBM la IBM 701 de la cual se entregaron 18 unidades entre 1953 y1957.

Posteriormente, la compañía Remington Rand fabricó el m o d e l o 1103, que competía con la701 en el campo científico, por lo que la IBM d esarr o l l o la 702, la cual presentó p r o b l e m as en m e m o ria, debido a esto no duró en el m er c a d o .

La computadora más exitosa de la primera generación fue la IBM 650, de la cual se produjeron varios cientos. Esta computadora que usaba un esquema de m e mo ria se cundaria llamado tambor magnético, que es el antecesor de los discos actuales.

Otros m o d e l o s d e computadora que se pueden situar en los inicios de la segunda generación son: la UNIVAC 80 y 90, las IBM 704 y 709, Burroughs 220 y UNIVAC 1105.

Segunda Generación

Cerca de la década de 1960, las c o m pu tad o ras seg uían evolucionando, se reducía su tamaño y crecía su capacidad de procesamiento. También en esta época se empezó a definir la forma de comunicarse con las computadoras, que recibía el nombre de p r o g r a m ac i ó n d e sist e m a s .

Las car a ct e rí sticas de la segunda generación son las siguientes:

Están construidas con ci r c u it o s d e tra n si s t o r e s . Se programan en nuevos lenguajes llamados lenguajes de alto nivel.

En esta generación las computadoras se reducen de tamaño y son de menor c o s t o . Aparecen muchas compañías y las computadoras eran bastante avanzadas para su época como la serie5000 de Burroughs y la ATLAS de la U n i v ersi d ad de Manchester.

Algunas de estas computadoras se programaban con cintas perforadas y otras más por medio de cableado en un tablero. Los p r o g r a m as eran hechos a la medida por un equipo de expertos: analistas, diseñadores, programadores y operadores que se manejaban como una orquesta para resolver los p r o b l e m a s y cálculos solicitados por la a d m i n istr a ci ó n. El usuario final de la i n f o r m a ci ó n n o tenía contacto directo con las computadoras. Esta situación en un principio se produjo en las primeras computadoras personales, pues se requería saberlas "programar" (alimentarle instrucciones) para obtener resultados; por lo tanto su uso estaba limitado a aquellos audaces pioneros que gustaran de pasar un buen número de horas escribiendo instrucciones, "corriendo" el p r o g r a m a r esultante y verificando y corrigiendo los errores o bugs que aparecieran. Además, para no perder el "p r o g r a m a " resultante había que "guardarlo" (almacenarlo) en una grabadora de astte, pues en esa época no había discos flexibles y mucho menos d is c o s d u r o s p ara las PC; este p r o c ed i m ie n to podía tomar de 10 a 45 minutos, según el p r o g ra m a. El panorama se modificó totalmente con la aparición de las computadoras personales con mejore cir c u it os , m ás m e m o ria, unidades de disco flexible y sobre todo con la aparición de p r o g r a m as de aplicación general en donde el usuario compra el programa y se pone a trabajar. Aparecen los p r o g ra m a s p r o ce s a d o r e s d e palabras como el célebre W o rd Star,

la impresionante h o ja de c álc u lo (sp readsheet) Visicalc y otros más que de la noche a lamañana cambian la i m a g en d e la PC. El sortware empieza a tratar de alcanzar el paso del h ar d war e . P ero aquí aparece un nuevo elemento: el usuario.

El usuario de las computadoras va cambiando y evolucionando con el t i e m p o . De estar totalmente desconectado a ellas en las máquinas grandes pasa la PC a ser pieza clave en el d iseño ta nto del h ar d wa r e c omo del s o f t war e . Aparece el c o n c epto de human interface que es la relación entre el usuario y su computadora. Se habla entonces de h ar d wa r e e rgonómico (adaptado a las dimensiones humanas para reducir el cansancio), diseños de pantallas antirreflejos y teclados que descansen la muñeca. Con respecto al s o ft w are s e inicia una verdadera carrera para encontrar la manera en que el usuario pase menos ti e m p o capacitándose y entrenándose y más ti e m p o produciendo. Se ponen al alcance p r o g ra m a s c on menús (listas de opciones) que orientan en todo momento al usuario (con el consiguiente aburrimiento de los usuarios expertos); otros programas ofrecen toda una artillería de teclasde c o n tr o l y teclas de f un c i o n es (atajos) para efectuar toda suerte de efectos en e l trab a jo (con la consiguiente desorientación de los usuarios novatos). Se ofrecen un sinnúmero de cu r s o s prometiendo que en pocas semanas hacen de cualquier p ers o n a u n experto en los programas comerciales. Pero el problema "constante" es que ninguna solución para el uso de los programas es "constante". Cada nuevo programa requiere aprender nuevos controles, nuevos trucos, nuevos menús. Se empieza a sentir que la relación usuario-PC no está acorde con los desarrollos del equipo y de la p o t encia de los programas. Hace falta una relación amistosaentre el usuario y la PC.

Las computadoras de esta generación fueron: la Philco 212 (esta compañía se retiró del m er c a d o en 1964) y la UNIVAC M460, la C o n t r o l D ata Corporation m o d e l o 1604, seguida por la serie 3000, la IBM mejoró la 709 y sacó al m erca d o la 7090, la National Cash Register empezó a producir máquinas para p r o ce s o d e datos de tipo comercial, introdujo el mo d e l o N CR 315.

La Ra d i o C orporation of America introdujo el mo d e l o 501, que manejaba el len g u aje CO B O L , para p r o c e s o s ad m i n i s trat i vo s y comerciales. Después salió al m erca d o la RCA 601.

Tercera generación

Con los progresos de la e le ctr ó n ica y los avances de c om un ic a ci ó n c on las computadoras en la década de los 1960, surge la tercera generación de las computadoras. Se inaugura con la IBM360 en abril de 1964.3

Las car a ct e rí sticas de esta generación fueron las siguientes:

Su fabricación ele c t r ó n ica es ta basada en ci r cu i t o s in t egr ad os . Su manejo es por medio de los lenguajes de c o n tr o l d e los s i st e m as o p e r ati v os .

La IBM produce la serie 360 con los mo d e l o s 2 0, 22, 30, 40, 50, 65, 67, 75, 85, 90, 195 que utilizaban técnicas especiales del p r o c e sa d o r, unidades de cinta de nueve canales, paquetes de discos magnéticos y otras c aracte r í sticas que ahora son estándares (no todos los mo d el o s usaban estas técnicas, sino que estaba dividido por aplicaciones).

El sist e m a o p e r ati v o d e la serie 360, se llamó OS que contaba con varias configuraciones, incluía un conjunto de técnicas de manejo de memoria y del p r o c esad o r q ue pronto se convirtieron en estándares.

En 1964 CDC introdujo la serie 6000 con l a c om pu t a d o ra 6 600 que se consideró durante algunos años como la más rápida.

En la década de 1970, la IBM produce la serie 370 (m o d el o s 1 15, 125, 135, 145, 158, 168). UNIVAC compite son los m o d el o s 1 108 y 1110, máquinas en gran e s cala; mientras que CDC produce su serie 7000 con el m o d e l o 7600. Estas computadoras se caracterizan por ser muy potentes y veloces.

A finales de esta década la IBM de su serie 370 produce los modelos 3031, 3033, 4341. Burroughs con su serie 6000 produce los modelos 6500 y 6700 de avanzado d is e ñ o , que se reemplazaron por su serie 7000. Honey - Well participa con su computadora DPS con varios modelos.

A mediados de la década de 1970, aparecen en el mercado las computadoras de tamaño mediano, o minicomputadoras que no son tan costosas como las grandes (llamadas también como mainframes que significa también, gran si s t e m a ), pero disponen de gran capacidad de procesamiento. Algunas minicomputadoras fueron las siguientes: la PDP - 8 y la PDP - 11 de Digital Equipment Corporation, la VAX (Virtual Address eXtended) de la misma compañía, los modelos NOVA y ECLIPSE de Data General, la serie 3000 y 9000 de Hewlett - Packard con varios modelos el 36 y el 34, la Wang y Honey - Well -Bull, Siemens de origen alemán, la ICL fabricada en I ng laterra. En la Unión Soviética se utilizó la US (S i s te m a U nificado, Ryad) que ha pasado por varias generaciones.

Cuarta Generación

Aquí aparecen los microprocesadores que es un gran adelanto de la microelectrónica, son circ u it o s integ r a d o s d e alta d ensi d ad y con una v e l o c i d ad impresionante. Las microcomputadoras con base en estos ci r cu i t o s s on extremadamente pequeñas y baratas, por lo que su uso se extiende al mercado industrial. Aquí nacen las computadoras personales que han adquirido proporciones enormes y que han influido en la s o ciedad en general sobre la llamada " r e v o l u c i ó n i n f o r m átic a ".

En 1976 Steve Wozniak y Steve Jobs inventan la primera microcomputadora de uso masivo y más tarde forman la compañía conocida como la Apple que fue la segunda compañía más grande del mundo, antecedida tan solo por IBM; y esta por su parte es aún de las cinco compañías más grandes del mundo.

En 1981 se vendieron 800 00 computadoras personales, al siguiente subió a 1 400 000. Entre1984 y 1987 se vendieron alrededor de 60 millones de computadoras personales, por lo que no queda duda que su impacto y penetración han sido enormes.

Con el surgimiento de las computadoras personales, el s o f t ware y los sist e m as q ue con ellas de manejan han tenido un considerable avance, porque han hecho más interactiva la c o m un icaci ó n c on el usuario. Surgen otras aplicaciones como los p r o ce s a d o res d e palabra, las hojas electrónicas de cá l cu l o , paquetes gráficos, etc. También las i ndu strias del S o ft w are d e las computadoras personales crece con gran rapidez, Gary Kildall y William Gates se dedicaron durante años a la creación de sist e m as o p erat i vo s y m é to d o s p ara lograr una utilizaciónsencilla de las microcomputadoras (son los creadores de CP/M y de los p r o du ctos deM ic r o s o f t ).

No todo son microcomputadoras, por su puesto, las minicomputadoras y los grandes sis t e m a s continúan en d esar r o ll o . De hecho las máquinas pequeñas rebasaban por mucho la capacidad de los grandes si s t e m as d e 10 o 15 años antes, que requerían de instalaciones costosas y especiales, pero sería equivocado suponer que las grandes computadoras han desaparecido; por el contrario, su presencia era ya ineludible en prácticamente todas las esferas de c o n tr o l gubernamental, militar y de la gran i ndu stria. Las enormes computadoras de las series CDC, CRAY, Hitachi o IBM por ejemplo, eran capaces de atender a varios cientos de millones de o p erac i o n es p or segundo.

Quinta Generación

En vista de la acelerada marcha de la microelectrónica, la s o ciedad industrial se ha dado a la tarea de poner también a esa altura el d esar r o llo d el s o ft w are y los si s t e m as c on que se manejan las computadoras. Surge la c om p e t encia i nternacional por el d o m i n io d el mercado de la c o m pu tac i ó n , en la que se perfilan dos líderes que, sin embargo, no han podido alcanzar el nivel que se desea: la capacidad de comunicarse con l a comp u ta d o ra en un l e ngu aje m ás cotidiano y no a través de códigos o lenguajes de control especializados.

Japón lanzó en 1983 el llamado "programa de la quinta generación de computadoras", con los o b je t i v o s e xplícitos de producir máquinas con innovaciones reales en los criterios

mencionados. Y en los Est a d o s Un ido s y a está en actividad un programa en desarrollo que persigue o b j e t i vo s s emejantes, que pueden resumirse de la siguiente manera:

Procesamiento en paralelo mediante arquitecturas y diseños especiales y circ u i t o s d e gran v e l o ci d a d .

Manejo de l en gu aje n atural y sistemas de i n t e li g encia artif i cial.

El futuro previsible de la c o m pu tac i ó n es muy interesante, y se puede esperar que esta cie n cia siga siendo objeto de atención prioritaria de gobiernos y de la s o ciedad en conjunto

PROCESADORES

Nombre Fecha # de Transistores Microns Velocidad de Reloj Tamaño

de DatoMIPS

4004 1971 2,300 10 108 KHz 4 bits 0.068080 1974 6,000 6 2 MHz 8 bits 0.64

8088 1979 29,000 3 5 MHz16 bits8-bit 0.33bus

80286 1982 134,000 1.5 6 MHz 16 bits 180386 1985 275,000 1.5 16 MHz 32 bits 580486 1989 1,200,000 1 25 MHz 32 bits 20

Pentium 1993 3,100,000 0.8 60 MHz32 bits64-bit 100

bus

Pentium II 1997 7,500,000 0.35 233 MHz32 bits64-bit ~300

bus32 bits

Pentium III 1999 9,500,000 0.25 450 MHz

Pentium 4 2000 42,000,000 0.18 1.5 GHz

64-bitbus

32 bits64-bit

bus

~510

~1,700

~2,000

AMD64 2004 105,900,000 0.13 2.0Ghz a 3.0 Ghz 64 bits

~3,000

Historia de los Procesadores

El primer procesador comercial, el Intel 4004, fue presentado el 15 de noviembre de 1971. Losdiseñadores fueron Ted Hoff y Federico Faggin de Intel, y Masatoshi Shima de Busicom (más tarde ZiLOG).

Los microprocesadores modernos están integrados por millones de transistores y otros componentes empaquetados en una cápsula cuyo tamaño varía según las necesidades de las aplicaciones a las que van dirigidas, y que van desde el tamaño de un grano de lenteja hasta el de casi una galleta. Las partes lógicas que componen un microprocesador son, entre otras: unidad aritmético-lógica, registros de almacenamiento, unidad de control, Unidad de ejecución, memoria caché y buses de datos control y dirección.

Existen una serie de fabricantes de microprocesadores, como IBM, Intel, Zilog, Motorola, Cyrix y AMD. A lo largo de la historia y desde su desarrollo inicial, los microprocesadores han mejorado enormemente su capacidad, desde los viejos Intel 8080, Zilog Z80 o Motorola 6809, hasta los recientes Intel Core 2 Duo, Intel Core 2 Quad, Intel Xeon, Intel Itanium II, Transmeta Efficeon o Cell.

Ahora los nuevos microprocesadores pueden tratar instrucciones de hasta 256 bits, habiendo pasado por los de 128, 64, 32, 16, 8 y 4 bits. Desde la aparición de los primeros computadores en los años cuarenta del siglo XX, muchas fueron las evoluciones que tuvieron los procesadores antes de que el microprocesador surgiera por simple disminución del procesador.

Antecedentes

Entre estas evoluciones podemos destacar estos hitos:

* ** ENIAC (Electronic Numeric Integrator And Calculator) Fue un computador con procesador multiciclo de programación cableada, esto es, la memoria contenía sólo los datos y no los programas. ENIAC fue el primer computador, que funcionaba según una técnica a la que posteriormente se dio el nombre de monociclo.* ** EDVAC (Electronic Discrete Variable Automatic Computer) fue la primera máquina de Von Neumann, esto es, la primera máquina que contiene datos y programas en la misma memoria. Fue el primer procesador multiciclo.* ** El IBM 7030 (apodado Stretch) fue el primer computador con procesador segmentado. La segmentación siempre ha sido fundamental en Arquitectura de Computadores desde entonces.* ** El IBM 360/91 supuso grandes avances en la arquitectura segmentada, introduciendo la detección dinámica de riesgos de memoria, la anticipación generalizada y las estaciones de reserva.* ** El CDC 6600 fue otro importante computador de microprocesador segmentado, al que se

considera el primer supercomputador.* ** El último gran hito de la Arquitectura de Computadores fue la segmentación superescalar,propuesta por John Cocke, que consiste en ejecutar muchas instrucciones a la vez en el mismo microprocesador. Los primeros procesadores superescalares fueron los IBM Power-1.

Evolución del microprocesador

* ** 1971: Intel 4004. Nota: Fue el primer microprocesador comercial. Salió al mercado el 15 de noviembre de 1971.* ** 1974: Intel 8008* ** 1975: Signetics 2650, MOS 6502, Motorola 6800* ** 1976: Zilog Z80* ** 1978: Intel 8086, Motorola 68000* ** 1979: Intel 8088* ** 1982: Intel 80286, Motorola 68020* ** 1985: Intel 80386, Motorola 68020, AMD80386* ** 1987: Motorola 68030* ** 1989: Intel 80486, Motorola 68040, AMD80486* ** 1993: Intel Pentium, Motorola 68060, AMD K5, MIPS R10000* ** 1995: Intel Pentium Pro* ** 1997: Intel Pentium II, AMD K6, PowerPC G3, MIPS R120007* ** 1999: Intel Pentium III, AMD K6-2, PowerPC G4* ** 2000: Intel Pentium 4, Intel Itanium 2, AMD Athlon XP, AMD Duron, MIPS R14000* ** 2003: PowerPC G5* ** 2004: Intel Pentium M* ** 2005: Intel Pentium D, Intel Extreme Edition con hyper threading, Intel Core Duo, AMD Athlon 64, AMD Athlon 64 X2, AMD Sempron 128.* ** 2006: Intel Core 2 Duo, Intel Core 2 Extreme, AMD Athlon FX* ** 2007: Intel Core 2 Quad, AMD Quad Core, AMD Quad FX* ** 2008: Procesadores Intel y AMD con más de 8 núcleos.

CARACTERISTICAS DE ALGUNOS PROCESADORES RECIENTES

Intel Core DuOEs un m ic r o p r o c esad o r d e sexta generación lanzado en enero del 2006 por I n t el c on dos

núcleos de ejecución, optimizado para las aplicaciones de subprocesos múltiples y para m u ltita r ea. Puede ejecutar varias aplicaciones exigentes simultáneamente, como juegos con gráficos potentes o programas que requieran muchos cálculos, al mismo tiempo que puede descargar música o analizar su PC con su antivirus en segundo plano, por ejemplo.Cabe decir que es un modelo anterior a Core 2 Duo y posterior a los P enti u m D es el P enti u m D u al C o re, que es un Core 2 Duo con menor frecuencia de bus y memoria cache L2. Es un procesador con dos núcleos de ejecución, que al igual que los Pentium D se diferencia de los C o re 2 D u o por que su caché es de sólo 1 mb con un bus frontal de 800 Mhz, mayor al Core Duo. Estos procesadores están orientados para su uso en equipos portátiles aunque de igual forma hay versiones para computadoras de escritorio.Este microprocesador implementa 2Mb de cac h é c ompartida para ambos núcleos más un bus frontal de 667 ó 553 MHz; además implementa un nuevo juego de instrucciones para multimedia (SSE3) y mejoras para las SS E y S S E 2 . Sin embargo, el desempeño con enteros esligeramente inferior debido a su caché con mayor latencia. También incluye soporte para la tecnología.

Intel Core Duo es el primer microprocesador de Intel usado en las computadoras A pp le M aci n t o sh. Existe también una versión con sólo un nucleo denominada Core Solo. Especificaciones técnicas

El Core Duo contiene 151 millones de tra n sis t o re s , incluyendo la memoria caché de 2Mb. El núcleo de ejecución del procesador contiene un p i p e l i n e d e 12 etapas con velocidades previstas de ejecución entre 2.33 y 2.50 GHz. La comunicación entre la caché L2 y los dos núcleos de ejecución es controlada por un módulo de bus árbitro que elimina el tráfico de coherencia a través del bus frontal (FSB), con el costo de elevar la latencia de la comunicación del núcleo con L2 de 10 ciclos de reloj (en el Pentium M) a 14 ciclos de reloj. El incremento de la frecuencia de reloj contrapesa el impacto del incremento en la latencia.Las nuevas características de administración de energía incluyen control mejorado de temperatura, así como escalado independiente de energía entre los 2 núcleos, lo que resulta en un manejo de energía mucho más eficiente que los diseños anteriores.Los 2 núcleos se comunican a través de un bus frontal (FSB) de 667 ó 533 MHz.

AMD Athlon

El Athlon original, Athlon Classic, fue el primer procesador x 8 6 d e séptima generación y en un principio mantuvo su liderazgo de rendimiento sobre los microprocesadores de I n t e l. A M D h a continuado usando el nombre Athlon para sus procesadores de octava generación At h l o n 6 4 . Núcleo Classic [ed i t ar] El procesador Athlon se lanzó al mercado el 2 1 d e a go sto d e 1 9 9 9 . El primer núcleo del Athlon, conocido en clave como "K7" (en homenaje a su predecesor, el K 6 ), estuvo disponible inicialmente en versiones de 500 a 650 M Hz , pero después alcanzó velocidades de hasta 1GHz. El procesador es compatible con la arquitectura x8 6 y debe ser conectado en placas basecon S lo t A, que son compatibles mecánicamente, pero no eléctricamente, con el S l o t 1 d e I n t el. Internamente el Athlon es un rediseño de su antecesor, al que se le mejoró substancialmenteel sistema de com a flo tante (ahora son 3 unidades de punto flotante que pueden trabajarsimultáneamente) y se le aumentó la m e m o ria caché d e primer nivel (L1) a 128 K B ( 64 KB para datos y 64 KB para instrucciones). Además incluye 512 KB de caché d e segundo nivel (L2) externa al circuito integrado del procesador y funcionando, por lo general, a la mitad de velocidad del mismo (En los modelos de mayor frecuencia la caché funcionaba a 2/5 [En los750, 800 y 850 MHz] ó 1/3 [En los 900, 950 y 1.000 MHz] de la frecuencia del procesador). Elbu s de comunicación es compatible con el protocolo EV6 usado en los procesadores DEC21264 de A lph a, funcionando a una frecuencia de 100 MHz D D R ( Dual Data Rate, 200 MHz efectivos).El resultado fue el procesador x 8 6 m ás potente del momento. El Athlon Classic se comercializó hasta ene r o d e 2 0 0 2 . En términos económicos el Athlon Classic fue un éxito, no sólo por méritos propios y su bajo precio comparado con la competencia, sino también por los problemas de producción de I n t e l.

AMD Quad FX

Esta serie tiene las siguientes versiones:

FX-70 de velocidad: 2.6 GHz FX-72 de velocidad: 2.8 GHz FX-74 de velocidad: 3.0 GHz

Cada una de estas versiones cuenta con “3 enlaces de tecnología HyperTransport” porprocesador, a diferencia del AMD FX-62 que solo llega a tener 1 enlace.También hubo una mejora en el “Cache de alto rendimiento integrado al procesador” que esde:

L1: Total 512 KB (256 KB por procesadorL2: Total 4 MB (2 MB por procesador)

A pesar de todo este rendimiento AMD ya está pensando en algo más potente y seguramente veremos muy pronto procesadores de 8 núcleos nativo.

Antecedentes Históricos

Tal vez desde los primeros albores de la ciencia occidental y quizás desde antes, pero más contundentemente desde la ciencia del Renacimiento, el concepto de modelo ha jugado un papel significativo para establecer hipótesis, generar conocimientos y actuar sobre nuestro entorno.

El concepto de modelo como representación de la realidad, fue indispensable, en mapas y planos, para la cultura egipcia en la construcción de sus pirámides monumentales; filósofos y geometrías griegos usaron sin explicitarlo también, el concepto de modelos; en general, es tan significativo e imprescindible dicho concepto, que en cualquier idioma una palabra puede considerarse ella misma un modelo de la realidad.

Desafortunadamente, la visión holística, expansionista, precursora del concepto moderno de sistema, interrelacionando, entre otros aspectos, el método y el modelo, que ya los primeros filósofos griegos abrazaban a través de su espíritu

filosófico del “todointegrado”, con la extensión del Renacimiento, poco a poco se fue perdiendo.

Las universidades aparecieron y crecieron organizándose a través de particiones y compartimentos separados del conocimiento, haciendo que cada vez más las universidades redujeran y fueran perdiendo el espíritu holístico para interrelacionarse con la realidad, con la naturaleza y que fuera sólo a través del uso de esas disciplinas en la acción que se produjera dicha interrelación.

La aplicación de esta lógica a todas las actividades del hombre generó una forma muy particular de pensar metodológica, primordialmente basada en el reduccionismo que busca estudiar la realidad descomponiéndola y cuantificándola sucesivamente en sus partes, en las partes de sus partes y hasta llegar a los elementos últimos mas simples indivisibles. Los principales preceptos de este método son los siguientes:

• Considerar como verdad que las cosas ciertas que no se pueden poner en duda,

• Aislar, descomponer y separar todas las partes de un objeto con el fin deconocerlo en sus más íntimos detalles

• Organizar el estudio de lo más simple a lo más complejo• Describir todo con el objeto de nada omitir

Así el reduccionismo produjo el modo de pensar analítico, impulsado

por Descartes, lo que a su vez contribuyo al incremento de la cantidad de conocimiento en todas sus disciplinas.

Antecedentes HistóricosLas universidades continuaron separándose organizacionalmente en disciplinas y

especializaciones, acelerando aún más el crecimiento y la atomización del conocimiento; provocando una desaparición del espíritu holístico y generando una visión más fragmentada de la realidad, sin tomar en cuenta las múltiples interrelaciones entre los diversos fragmentos, se creyó cada vez más, que la realidad, la naturaleza, estaba organizada como estaban las universidades.

Así fue, como en buena parte del periodo que va de fines del siglo XIX y la primera parte del siglo XX que la tasa de crecimiento del conocimiento comenzó a cambiar radicalmente, mostrando un crecimiento exponencial. Esta aceleración se ha visto largamente influenciada, entre otros aspectos, por la presencia de las computadoras. Sin embargo al confrontar ciertas situaciones, problemas y problemáticas sociales de esa época, se detectaron limitaciones de los esfuerzos disciplinarios para abordarlos.

Metodología y Métodos

Los efectos negativos provocados por una visión determinista, fragmentada y cartesiana de la realidad, motivada durante por más de tres siglos por científicos como Bacon, Descartes, Marx, en detrimento de una visión multidisciplinaria y no determinista, se han manifestado en las numerosas catástrofes naturales generadas conciente o inconscientemente por elhombre y por el fracaso de varios grandes proyectos, como por ejemplo el hundimiento de barcos o submarinos (Titanic, Exxon Valdez, Kursk, Prestige), Explosión de sitios industriales (Bophal, San Juanico), Explosión de Plantas Nucleares (Three Mile Island, Chernobyl), Explosiones de Naves Espaciales ( Chellenger,Columbia), etc.

Tales situaciones fueron entre otras, las que han impulsado el surgimiento o resurgimiento de la visión holística, expansionista del todo, de sistemas, enfatizando, entre otras cosas, la consideración esencial de la metodología de sistemas, como el estudio o tratado de los métodos, reconociendo la existencia de una amplia diversidad de métodos, tratando de encontrar o generar la síntesis más apropiada a la situación que se enfrente.

El movimiento sistémico con su pensamiento sintético contrasta y más bien enriquece, al modo de pensar analítico en diversos aspectos como muestra Rosney al comparar los dos modos de pensar:

Modo de pensar analí t ico Enfoque sistémico

Aísla: se concentra en los elementos Liga: se concentra en las interacciones entre elementos

Considera la naturaleza de las Considera los efectos de las interacciones. interacciones

Se apoya en la precisión de los Se apoya en la visión globalDetalles

Modifica una variable a la vez Modifica los grupos de variablesIndependiente de la duración: los forma simultanea fenómenos se consideran reversibles Integra duración e irreversibilidad

La validación de hechos se realiza La validación de hechos se realizamediante la experimentación dentro comparando el modelo con la contexto teórico realidad

Se generan modelos precisos y Los modelos son poco rigurososdetallados, pero difíciles de uso en la para servir de base al conocimiento,acción sin embargo son útiles para la toma

de decisiones y para la acción

Modo eficaz cuando las interacciones Enfoque eficaces cuando las son lineales y débiles interacciones son no lineales

y fuertes

Orienta la enseñanza del Orienta hacia la enseñanza conocimiento por disciplina pluridisciplinaria

Conduce a una acción programada en Conduce a la acción por objetivosdetalle

Conocimiento de detalles, pero con Conocimiento de objetivos con objetivos mal definidos poca información sobre los detalles

F. Kourilsky, según Yatchinovsky, presenta otra comparación interesante de estas dos aportaciones:

Método analítico M étodo sistémico

Lógica binaria disyuntiva Lógica ternaria y conjuntiva

Casualidad lineal Casualidad circular Orientada

pasado-presente Orientada pasado futuro

Para resolver un problema, primero Para resolver un problema, primerohay que conocer las causas hay que clarificar el objetivo deseado

Se centra sobre la explicación de Se centra en las funciones útiles dedisfunciónamientos y anomalías del los disfuncionamientos y sobre lossistema recursos del sistema

Se alimenta del pasado para avanzar Se alimenta del presente y avanza

deseadoen función del objetivo

El pasado determina el presente y el La proyección del futuro deseadoFuturo influencia al presente.

Los principios del movimiento sistémico según Yatchinovsky son:• ·El principio de interacción o de interdependencia: cada elemento obtiene

iinformación de los demás elementos y actúa sobre ellos.• ·El principio de la totalidad: la lógica del conjunto sobresale respecto a las

lógicas de cada componente• ·El principio de la retroalimentación: llamado en inglés “feedback” o causalidad

circular: el efecto B producido por A actúa a su vez sobre la causa A que lo produjo.

• ·El principio de la homeostasis: Cuando un sistema sufre una ligera transformación (de origen interno o externo), tiene tendencia a regresar a su estado anterior.

• El principio de la equifinalidad: Es posible obtener un resultado idéntico a partir de condiciones iniciales diferentes o siguiendo caminos diferentes.

En el problema que nos compete, es decir la interacción de los conceptos: método, modelos y computación, es importante remarcar que es el movimiento de sistemas quien retoma e impulsa el concepto de modelo señalando su estrecha interrelación con el concepto de método, así como su interrelación con la metodología de sistemas, reconociendo también, la existencia de una amplia diversidad de modelos.

Modelos

El movimiento de sistemas considera a los modelos como representación de la realidad, como un concepto indispensable dentro del método sistémico que se use, ya que considera que en muchas circunstancias, en general, no es posible, o no es debido, o no es adecuado manipular, ni experimentar en

la realidad misma, para generar conocimiento o para llevar acabo acciones, sin prever con anticipación lo que es posible que ocurra, por lo que el modelo se toma como un sustituto de la realidad misma.

El movimiento de sistemas reconoce la existencia de distintas posibilidades de definir clasificaciones de tipos de modelos y aún para una clasificación dada distintas posibilidades de combinación de diferentes tipos, de ahí, parte la importancia de la relación del modelo al método, todo tipo de modelo puede ser útil en función del papel que pueda desempeñar respecto al método que se este usando, en este caso el método sistémico.

En la ciencia del Renacimiento los modelos físicos construidos por Galileo y Kepler del sistema solar, constituyen unas muestras del significado del concepto de modelo en el desarrollo de la humanidad. Sin embargo, el concepto de modelo cobra su propia relevancia, solamente cuando se le considera parte de algo mayor, con una visión expansionista, como parte de un proceso, de un método. Solo en esa interacción, el método guía la construcción y el uso del modelo para generar conocimiento y acción.

Tipologías de Modelos

Una de las diversas posibilidades, más generales, de tipos de modelos esta constituido por las tres grandes categorías de modelos: icónicos, analógicos y simbólicos.

Los modelos icónicos son representaciones a escala, mayor o menor, de estados, objetos o eventos de la realidad y como representan las propiedades relevantes de lo real por esas propiedades mismas con un cambio de escala, los modelos icónicos se parecen a lo que representan, conservan la apariencia de la realidad pero en el modelo hay un cambio de escala.

En los modelos analógicos, las características y propiedades de la realidad se representan por diferentes características y propiedades. Un sistema eléctrico pude representarse por un sistema hidráulico, el flujo de agua representa al flujo de corriente eléctrica.

En los modelos simbólicos, las características y propiedades de la realidad se representan por medio de símbolos.

Existen muchos tipos de modelos simbólicos y como todos los modelos, todos ellos útiles con relación al método que se use. En esta categoría podemos considerar desde los modelos conceptuales, hasta los modelos matemáticos.

Los modelos conceptuales representan gráficamente la interrelación entre conceptos, permitiendo la expresión y comunicación de aspectos de la realidad y de las ideas.

En los modelos matemáticos las características y propiedades de la realidad se representan a través de símbolos y operaciones permisibles de las matemáticas.

Con los grandes avances logrados en las matemáticas en las ultimas décadas, asícomo la relación de estas con los grandes avances

computacionales, la importancia de los modelos matemáticos parece cobrar especial significado, sin embargo hay que recordar que ese significado debe ser con relación al método sistémico que se este usando.

No es posible entonces creer que los modelos matemáticos o cualquier otro tipo de modelo, representa un tipo de modelo superior a los demás.

Los modelos matemáticos, pueden en ciertas circunstancias representar ciertas conveniencias, pero en otras, presentar inconveniencias.

Otra tipología de modelos distingue de entre los que solo describen la realidad: modelos descriptivos y los que la explican: modelos explicativos, como los que

contienen las relaciones causa y efecto de manera determinística o probabilística; siendo estos últimos mas difíciles de construir, pero en ciertas circunstancias pueden ser de mayor utilidad, aunque insistimos, dicha utilidad la tiene todo tipo de modelo, ya que la utilidad depende del método.

La construcción de cualquier tipo de modelo puede representar siempre cierto grado de dificultad y en general requiere de diferentes grados de conocimiento específicos, pero en especial conocimiento de la realidad.

El tipo de modelo que sea posible construir depende también del manejo o manipulación que permita, de acuerdo al método sistémico que se este usando. De nada sirve construir un cierto tipo de modelo si este no es posible manipularlo, experimentar para generar conocimiento o para sugerir acción.

Formación en Metodología Sistémica

Para actuar en la realidad, la mayoría de los problemas no se presentan ya formulados y menos ya formulados en términos matemáticos, por lo que su uso presupone que el administrador sea capaz de construir el modelo matemático o coadyuvar en su construcción. Representar en un modelo la realidad no es tarea fácil. Por ejemplo si se desea establecer el precio de un producto, se requiere incluir conocimientos sobre la ingeniería de costos, estudios de mercado, negociación de precios sobre suministros, optimización de la cadena de suministro, etc., construir un modelo y un modelomatemático para esta situación resulta una tarea verdaderamente compleja.

Si bien es cierto que varios conceptos sistémicos se han incorporado en la formación de los administradores, desafortunadamente en la mayoría de los casos se insiste por un lado, en la enseñanza de los lenguajes

matemáticos para construir modelos, sin presentar, por otro lado, su interrelación al método, ni su interrelación a conceptos sistémicos de mayor amplitud, como la trilogía de conceptos básicos de sistemas.

La formación de las futuras generaciones de administradores requiere de ampliar su visión sistémica haciéndolos comprender tanto la importancia de la trilogía de conceptos básicos de sistemas, como entender la contribución que el movimiento de sistemas hace a la administración de las organizaciones, retomando la base de su orientación filosófica pragmática, buscando lo útil, lo práctico, a través de coadyuvar a alcanzar el progreso de la humanidad en la persecución de los ideales de la verdad, el bien, la belleza y la plenitud.

La formación de las futuras generaciones de administradores requiere también entender a importancia y diversidad de posibilidades en cuanto a modelos y métodos sistémicos así como su interrelación, permitiéndoles conocer ventajas y desventajas de la modelación matemática dentro de todo el proceso de indagación sistémica para enfrentar problemas y sistemas de problemas que la administración de las organizaciones requieren para contribuir a su desarrollo.

Modelos Matemáticos y Computación

Las matemáticas y los modelos matemáticos también han contribuido y se han visto afectados por los grandes avances computacionales, en especial con relación a la manipulación de modelos para la obtención de conocimiento y soluciones a problemas para sugerir acción.

El movimiento de sistemas ha sido también productor y se ha visto afectado, con ventajas y desventajas, de los avances computacionales de las últimas décadas, facilitando la captura, el almacenamiento, la manipulación, la retroalimentación de datos, información y conocimiento.

Se puede decir que los avances computacionales han facilitado la construcción y manipulación computacional de cualquier tipo de modelo:

• desde los modelos icónicos, aún siendo los más específicos y concretos y que físicamente pudiesen ser más difíciles de manipular con el propósito de determinar el efecto de cambios del objeto real, con el devenir de las facilidades computacionales gráficas, que permiten modelar objetos

desplegándolos gráficamente en tres dimensiones, dichos modelos han podido desarrollarse y manipularse más fácilmente,

• los modelos analógicos y los simbólicos siendo de naturaleza más abstracta y estos último, los simbólicos, siendo los más generales, al contar con los avances computacionales que permiten la manipulación de símbolos y amplían las capacidades de cálculo, su construcción y manipulación se ha facilitado.

En lo que respecta a la facilidad para la construcción y manipulación computacional, los modelos matemáticos se han visto más beneficiados.

Sin embargo, para poder realizar dicha construcción y manipulación de modelos,se requiere del aprendizaje y conocimiento de lenguajes

computacionales.

En la realidad se observa una interrelación entre matemáticas y la computación cada vez es más estrecha por diversas circunstancias, baste ahora señalar, el cada vez más amplio arsenal de sistemas y paquetes computaciones disponibles para el manejo de aspectos matemáticos. En determinadas circunstancias ya no es posible acercarse, solo con papel y lápiz, a la aplicación de las matemáticas.

Formación en Lenguajes Matemático-Computacionales

La formación de las futuras generaciones de administradores requiere para su formación en cuanto a lo que podemos denominar lenguajes matemáticos computacionales que les permitan tener el mínimo indispensable de dichos conocimientos que les den las bases para la construcción y manipulación de modelos matemáticos, reconociendo la posibilidad de uso de otras alternativas de modelación.

En el caso de la formación de Licenciados en Administración de la División de Ciencias Sociales y Humanidades en la Universidad Autónoma Metropolitana UAM - Xochimilco, con respecto a los lenguajes matemático- computacionales, se han tenido que enfrentar dificultades que también la formación de otros profesionales ha tenido que enfrentar, como las ingenierías, cuya orientación a este respecto también tiene connotaciones de orientación hacia lo útil, lo practico, lo aplicativo.

Nuestro sistema modular, a partir del 4ª modulo trimestral incorpora la componente de Lenguajes Matemático-Computacional (que conjuntamente con las componentes Teórico-Conceptual y Teórico-Practico, conforman el modulo). A través de esas componentes se pretende proporcionar a los alumnos la formación que en estos aspectos requiere para comprender conocimientos que necesitan de dichos aspectos, es decir, orientados a su aplicación en tales conocimientos, así como para la aplicación directa de dichos aspectos en su actividad profesional.

La formación, entonces de estos aspectos, debe ser fundamentalmente orientada a la aplicación.

Sin embargo, esta orientación no ha podido ser del todo implantada principalmente por las siguientes razones:

· En primer lugar, por que buena parte del personal académico a cargo de impartir dichas componentes, si bien todos tienen una sólida formación en matemáticas, no todos la tienen en los aspectos computacionales y algunos consideran que los aspectos

computacionales no tienen nada que relacionarse con los aspectos matemáticos, pero sobre todo, buena parte de

esos académicos carecen de una orientación aplicativa.

· En segundo lugar, con esos antecedentes, la formación que imparten dichos académicos, enfatiza los aspectos teóricos de las matemáticas, enfatizando el aprendizaje de las matemáticas básicas a través del aprendizaje de la demostración de teoremas, como si se estuviera formando profesionales para las matemáticas básicas o puras, argumentando que este aprendizaje es indispensable, en vez de coadyuvar en la formación de profesionales que requieren de las matemáticas aplicadas o de la aplicación de las matemáticas y su relación de estas con los aspectos computacionales.

No se enfatiza entonces, el aprendizaje de los aspectos conceptuales mínimos necesarios, la comprensión de ellos, sin la necesidad de aprender la demostración de teoremas; comprenderlos, hacerlos suyos, así como hacer suyos los aspectos metodológicos de las matemáticas aplicadas, de la aplicación de las matemáticas y su relación de estos con los aspectos computacionales.

En el caso de la formación de ingenieros en la División de Ciencias Básicas e Ingeniería en la UAM-Azcapotzalco, la situación ha sido muy parecida. La responsabilidad de la enseñanza de las dos disciplinas: matemáticas y computación esta dividida en dos grupos académicos distintos y con formaciones diferentes. El Departamento de Ciencias Básicas tiene la responsabilidad de la formación en matemáticas y el Departamento de Sistemas, la responsabilidad de

la formación en computación y matemáticas aplicadas como la estadística y la investigación de operaciones. Al observar poco avance de

los alumnos por elbajo índice de aprovechamiento de la formación en matemáticas, diversas acciones se han instrumentado; una ha sido la de eliminar la seriación con otras disciplinas. Esto puede resolver únicamente parte del problema de retraso del alumno en el avance de su carrera ya que si bien permite al alumno avanzar en otras disciplinas, deja a un lado el problema de revisar el proceso de enseñanza- aprendizaje y del bajo aprovechamiento en matemáticas.

Conclusiones

Toda esta situación, hasta aquí esbozada, hace necesario insistir en despertar más la conciencia de la importancia de estos aspectos y sobretodo su ubicación en un contexto mas amplio, en la importancia de la trilogía de los conceptos básicos de sistemas: su enfoque, su metodología y la participación; como ya se ha enfatizado en ponencias presentada en reuniones anteriores de ACACIA para la formación de profesionales, en especial para los administradores.

Hay entonces que insistir en la importancia de la interrelación entre la realidad, la conceptualización sistémica de esta, así como el acercamiento metodológico y participativo que podemos o debemos tener en ella para coadyuvar a enfrentar los problemas de ella.

Insistir en la importancia y relación del concepto de modelo, como una representación de la realidad, la diversidad de posibilidades de diferentes tipos de modelos, así como la relevancia y ubicación de los modelos con relación a la metodología y la participación, así como la importancia de los modelosmatemáticos,

comounode los tiposespeciales, con sus posibilidadesy limitaciones, ventajas y desventajas, así como su

interrelación con los aspectos computacionales.

Los logros sistémicos alcanzados, para interrelacionar los conceptos método, modelos y computación son amplios, sin embargo el camino por recorrer para avanzar y desarrollar es aún muy largo, especial respecto a la formación de los profesionales del futuro.

Bibliografía

· Ackoff R.L., Scientific Method- O p timizing Applied Research Decisions , Wiley, N.Y. 1962.

· Ackoff R.L., Re-Creating the Co r poration- A Design of Organizations for the 21st. Century, Oxford U. Press, N.Y. 1999.

· Ackoff, R.L., Redesigning the F uture- A Systemic Approach to Societal Problems, Wiley, N.Y., 1974.

· Bertalanffy, L. von, General Systems Theor y , George Braziller, N.Y.,1968.

· Capra F., The Turning Point- Sc i ence, Society, and the Rising Cultur e , Bantam Books, N.Y., 1982.

· Churchman C.W., The Design of Inquiry Systems , Basic Books, N.Y.,1971.

· Deming, W. E. The New economics, MIT Press,1993.

· Emery, F.E., (ed.) Systems Thinking , Penguin Books, Harmondsworth,1969.

· Estrada G., R.A. y Monroy A.,G.S., “Perspectivas Múltiples, Multiparadigmas y Participación Sistémica en Organizaciones”, Memoria 6ª Congreso Nacional y 1ª Internacional de Investigación: Paradigmas Emergentes de la Administración en las Sociedades del Conocimiento , organizado por la Academia de las Ciencias Administrativas ACACIA y por la EscuelaSuperior de Comercio y

Administración ESCA, del Instituto Politécnico Nacional IPN, México, Abril 2002.

· Monroy A.,G.S. y R.A. Estrada G., “Metodología, Enfoque y Participación Sistémicas en Administración-Una crítica a los Modelos, Técnicas y consultorías de ‘moda’ en la Organización”, Memoria 5º. Congreso Nacional

de Investigación en Ciencias Administrativas: Los Desafíos de la Investigación Científica, organizado por la Academia de las Ciencias Administrativas ACACIA, y la U. de Guadalajara, Jal., México, Feb.-Mar.2001.

· Morin E., Kern A.B. Terre-Patrie , Ed. Seuil, 1993.

· Rosnay J. Le Macroscope (Vers une vision globle), Ed. du Seuil

· Yatchinovsky A. L’approche systémique pour gérer l’incertitude et la complexit é , Ed. ESF, 1999.