compendio arquitectura de sistemas.docx

144
Historia del Computador Introducción La historia de la computadora surge de la evolución de ideas de muchas personas relacionadas con la electrónica la mecánica, la lógica, la programación, entre otros. El computador fue evolucionando con el paso de los años y década tras década la tecnología ha ido avanzando hasta ver lo que hoy en día somos, la mayoría de las personas dependemos total o parcialmente de los avances tecnológicos ya que dí a tras día nos acostumbramos a que las cosas difíciles sean más fáciles y así tengamos un estilo de vida mas fácil, rápido y eficaz.

Upload: luis-tezen

Post on 21-Oct-2015

35 views

Category:

Documents


1 download

TRANSCRIPT

Historia del Computador

IntroducciónLa historia de la computadora surge de la evolución de ideas de muchas personas relacionadas con la electrónica la mecánica, la lógica, la programación, entre otros.

El computador fue evolucionando con el paso de los años y década tras década la tecnología ha ido avanzando hasta ver lo que hoy en día somos, la mayoría de las personas dependemos total o parcialmente de los avances tecnológicos ya que dí a tras día nos acostumbramos a que las cosas difíciles sean más fáciles y así tengamos un estilo de vida mas fácil, rápido y eficaz.

Esta evolución la podemos ver reflejada en 5 generaciones por las cuales ha pasado el computador.

Arquitectura del Computador 2

GENERACION CERO

Konrad Suze desarrollo un idioma prototipo al cual llamo Plankalkul, en el cual anticipo y resolvió varios de los problemas que se abarcan hoy en el contexto de la teoría de algoritmos, programación estructurada y estructura de la programación de idiomas para computadoras

El Dr. Howard Aiken presenta en la universidad de Harvard la primera computadora en funcionamiento la MARK I; es la primera máquina que procesa información

Esta generación abarco desde la segunda década de la segunda guerra mundial Aparecieron los primeros ordenadores analógicos. Aparece el primero ordenador digital totalmente eléctrico: EL COLOSSUS. Fue utilizado por el equipo de Alan Turíng para decodificar los mensajes de radio cifrado de los alemanes

Obtenida de http://seccion11albos.blogspot.com/2010/08/pr

imera-generacion-de-computadoras.html

Universidad Señor de Sipán

¿Sabías que?

Hoy se reconoce a Konrad Suze como el creador de la primera computadora digital programable completamente operacional

Arquitectura del Computador 3

Primera Generación

Uso de tarjetas perforadas para entrar los datos y los programas

Obtenida de http://seccion11albos.blogspot.com/2010/08/pr

imera-generacion-de-computadoras.html

Almacenamiento de información en tambor magnético interior; este recogía y memorizaba los datos y los programas que le suministraban mediante tarjetas

La programación se codificaba en “lenguaje maquina”

Eckert y Mauchly formaron una compañía privada y construyeron la UNIVAC, la cual se utilizó para evaluar el censo de 1950 en los Estado Unidos

Herman Hollerith fundo una compañía que con el paso del tiempo seria conocido como IBM (international Bussines Machines).La computadora más exitosa de esta generación fue la IBM650

Universidad Señor de Sipán

Reforzando lo aprendido

Lenguaje maquina consiste en la yuxtaposición de largos bits o cadenas de ceros y unos; la combinación de estos era la única manera de instruir a la maquina

Arquitectura del Computador 4

Segunda generación

Las computadoras ahora utilizaban redes de núcleos magnéticos (transistor) en lugar de tambores giratorios

Replica del primer transistor

Imagen obtenida de http://www.abadiadigital.com/el-transistor-

cumple-60-anos/

El COBOL desarrollado durante la primera generación ya estaba disponible comercialmente

Apareció el primer lenguaje de programación de alto nivel: el FORTRAN (desarrollado por IBM entre 1954-1957)

Las empresas empiezan a utilizar las computadoras en tareas de almacenamiento de registros, como manejos de inventarios, nómina y contabilidad, la velocidad ya no se mide en segundos si no en microsegundos

Universidad Señor de Sipán

¿Sabías que?

FORTRAN significa FORmula TRANslator o traductor de fórmulas estaba proyectado para la programación de cálculos

Reforzando lo aprendido

El transistor se desarrolló en los laboratorios Bell Telephone con la idea de que este sustituyera las anteriores válvulas de vacío

Arquitectura del Computador 5

Tercera generación

Se inaugura con la IBM 360 en abril 1964

Principales Características

Circuito integrado: miniaturización y reunión de centenares de elementos en una placa de silicio o Chip

Multiprogramación; Antes del advenimiento de los circuitos integrados, las computadoras estaban diseñadas para aplicaciones matemáticas o de negocios pero no para ambas cosas

Teleprocesos. Se instalan terminales remotos que acceden a la computadora central para realizar operaciones, extraer o introducir información en bancos de datos, etc.

Trabajo a tiempo compartido: uso de las computadoras por varios clientes a tiempo compartido, pues el aparato puede discernir entre diversos procesos que realiza simultáneamente.

Ampliación de aplicaciones: en procesos industriales, en la educación, en el hogar, agricultura, etc.

Universidad Señor de Sipán

¿Sabías que?

A mitad de los años 60 surgieron, además, nuevos lenguajes de programación de alto nivel como el BASIC, PASCAL, etc.

Arquitectura del Computador 6

Imagen obtenida de http://conferencias-semanaacademica.blogspot.com/2010/12/la-

hautoria-de-la-computadora.html

Cuarta Generación

Las aplicaciones del microprocesador se han proyectado más allá de la computadora y se encuentra en multitud de aparatos, sean instrumentos médicos, móviles, juguetes electrodomésticos.

El tamaño reducido del microprocesador de chips hizo posible la creación de computadoras personales

Desarrollo de las interfaces graficas (Windows y Mac OS), el mouse y aparatos portátiles

Se utiliza el disquete (flopy disk) como unidad de almacenamiento; aparecieron gran cantidad de lenguajes de programación y las redes de transmisión de datos

Se caracteriza por los sistemas abiertos; Antes de estos solo los fabricantes de hardware eran los que suministraban el software, ahora es un tercero quien crea el software pudiendo elegir entre distintos programas además de otros elementos o dispositivos (impresora, disco duro, etc)

Universidad Señor de Sipán

Reforzando lo aprendido

El microprocesador es un circuito integrado que rige las funciones fundamentales del ordenador

Arquitectura del Computador 7

En 1969 se puso en marcha el primer nodo de ARPANET (proyecto iniciado en la universidad de los Ángeles UCLA) por la agencia de proyectos de investigación avanzada dl pentágono con fines de investigación

Sistema de tratamiento de base de datos: conjunto de elementos de hardware y software interrelacionados que permite un uso sencillo y rápido de la información

Imagen obtenida de http://generaciondelacomputadoramaribel.blog

spot.com/

Quinta Generación:

En vista de la acelerada marcha de la microelectrónica, la sociedad industrial se ha dado a la tarea de poner también a esa altura el desarrollo del software y los sistemas con que se manejan las computadoras. Surge la competencia internacional por el dominio del mercado de la computación, en la que se perfilan dos líderes que, sin embargo, no han podido alcanzar el nivel que se desea: la capacidad de comunicarse con la computadora

Universidad Señor de Sipán

Arquitectura del Computador 8

en un lenguaje más cotidiano y no a través de códigos o lenguajes de control especializados

Obtenido de http://primerblog65001aya.blogspot.com/

Bibliografíabenites, m., & infante, t. (2009). Historia de la

computacion y estructura de un computador. Argentina: el cid editor.

Garcia-Cuevas Roque, E. (2008). Principios básicos de la informática. Dykinson, España.

venti, h. (2009). historia de las computadoras. argentina: el cid edito.

Universidad Señor de Sipán

Arquitectura del Computador 9

Tipos de Procesador

IntroducciónEl procesador es el componente básico de cualquier PC. Con el avance, cada vez más rápido, de la tecnología y gracias a que varias empresas se están disputando el mercado, éstas se ven obligadas a desarrollar proyectos cada vez más osados, a fin de producir los procesadores con el mejor rendimiento posible. Esto resulta muy bueno para nosotros, los usuarios, pero también tiene sus puntos débiles, ya que con proyectos tan diferentes no se acaba de fijar un estándar. En un primer punto, veremos las características básicas de los procesadores modernos para, luego, pasar a discutir algunas características

Universidad Señor de Sipán

Arquitectura del Computador 10

básicas de los procesadores, conocer los procesadores pioneros de la década de los años 70 y avanzar por los años 80 y 90, hasta llegar a los días de hoy.

El procesador

El procesador (denominado CPU, por Central Processing Unit) es un circuito electrónico que funciona a la velocidad de un reloj interno, gracias a un cristal de cuarzo que, sometido a una corriente eléctrica, envía pulsos, denominados "picos". La velocidad de reloj (también denominada ciclo), corresponde al número de pulsos por segundo, expresados en Hertz (Hz). De este modo, un ordenador de 200 MHz posee un reloj que envía 200.000.000 pulsos por segundo. Por lo general, la frecuencia de reloj es un múltiplo de la frecuencia del sistema (FSB, Front-Side Bus o Bus de la Parte Frontal), es decir, un múltiplo de la frecuencia de la placa madre.

Con cada pico de reloj, el procesador ejecuta una acción que corresponde a su vez a una instrucción o bien a una parte de ella. La medida CPI (Cycles Per Instruction o Ciclos por Instrucción)

Universidad Señor de Sipán

¿Sabías que?

Muchas veces, un procesador con una frecuencia de trabajo más alta no es más rápido que otro que trabaja a una frecuencia un

poco menor. Esto es debido a las diferencias en la arquitectura de los diversos procesadoresNota:Durán Rodríguez, Luis. Ampliar, configurar y reparar su PC..

Arquitectura del Computador 11

representa el número promedio de ciclos de reloj necesarios para que el microprocesador ejecute una instrucción. En consecuencia, la potencia del microprocesador puede caracterizarse por el número de instrucciones por segundo que es capaz de procesar. Los MIPS (millions of instructions per second o millones de instrucciones por segundo) son las unidades que se utilizan, y corresponden a la frecuencia del procesador dividida por el número de CPI

Características

A. La velocidad

La velocidad de un micro se mide en megahercios o gigahercios (1 GHz = 1 000 MHz). Todos los micros modernos tienen dos velocidades: t Velocidad interna: es la velocidad a la que funciona el micro internamente; por ejemplo, 550 MHz, 1 000 MHz, 2 GHz o 3,20 GHz. t Velocidad externa o del bus de sistema: también llamada velocidad FSB , es la velocidad a la que el micro se comunica con la placa base; por ejemplo, 533 MHz, 800 MHz, 1 333 MHz o 1 600 MHz. Dado que la placa base funciona a una velocidad y el micro a otra, este último dispone de un multiplicador que indica la diferencia de

Universidad Señor de Sipán

Arquitectura del Computador 12

velocidad entre la velocidad FSB y el propio micro. Por ejemplo: Un Pentium D a 3,6 GHz utiliza un bus (FSB) de 800 MHz, el multiplicador será 4,5, ya que 800 × 4,5 da 3 600. Estas características las podemos encontrar en los manuales de la placa base o del procesador, de la forma siguiente: Pentium D 3,6 GHz (800 × 4,5).

B. La memoria caché

Una de las características de los microprocesadores es la memoria caché, muy rápida y de pequeño tamaño. La memoria caché es usada por el procesador para reducir el tiempo promedio necesario para acceder a los datos de la memoria principal. La caché es una «minimemoria» más rápida, que guarda copias de los datos que son usados con mayor frecuencia. Todos los procesadores actuales tienen una caché de nivel 1, o L1, y una segunda caché, la caché de nivel 2, o L2, que es más grande que la L1 aunque menos rápida. Los más modernos incluyen también en su interior un tercer nivel llamado L3. Veamos un ejemplo: El AMD Phenom 9600 Quadcore tiene tres niveles de caché: t L1 512 kB. t L2 4 × 512 MB. t L3 2 MB. Es decir, un total de 4,5 MB de caché. Si lo comparamos con el Intel Core 2 Quad Q6600, este tiene solo dos niveles: t L1 64 kB + 64 kB. t L2 Caché 2 × 4 MB. Es decir, un total de 8,128 MB de caché. Notas: 1. Cuando aparece caché 64 kB + 64 kB, quiere decir 64 kB para instrucciones y 64 kB para datos. 2. Cuando aparece caché 2 × 4 MB, quiere decir que son 4 MB por núcleo si tiene dos núcleos o

Universidad Señor de Sipán

Arquitectura del Computador 13

4 MB por pareja de núcleos si tiene cuatro núcleos. 3. Si sale completo, es decir, si sale 2 MB y no 4 × 512 kB, entonces es compartido por todos los núcleos, en este caso cuatro.

C. La alimentación

Los microprocesadores reciben la electricidad de la placa base. Existen dos voltajes distintos: t Voltaje externo o voltaje de E/S: permite al procesador comunicarse con la placa base, suele ser de 3,3 voltios. t Voltaje interno o voltaje de núcleo: es menor que el anterior (2,4 v, 1,8 v) y le permite funcionar con una temperatura interna menor. Además de estos voltajes, en la actualidad se utiliza el Thermal Design Power (TDP) (algunas veces denominado Thermal Design Point ) para representar la máxima cantidad de calor que necesita disipar el sistema de refrigeración de un ordenador. Por ejemplo, una CPU de un ordenador portátil puede estar designado para 20 W TDP, lo cual significa que puede disipar (por diversas vías: disipador, ventilador...) 20 W de calor sin exceder la máxima temperatura de funcionamiento para la cual está diseñado el chip. El consumo de energía de la CPU está ligado a su velocidad de proceso y a la actividad interna. Puede ocurrir que se caliente demasiado y se produzcan serios problemas, como, por ejemplo, reinicios espontáneos del sistema. Para evitar el calentamiento se utilizan disipadores de

Universidad Señor de Sipán

Reforzando lo aprendido

FPU. Unidad de coma flotante. Componente de la unidad aritmético-lógica. Threads. Un hilo de ejecución, en sistemas operativos, es una característica que permite a una aplicación realizar varias tareas concurrentemente.duro.

Arquitectura del Computador 14

calor que suelen incluir un ventilador. El disipador extrae el calor de la CPU y el ventilador enfría al disipador. Normalmente se coloca entre el procesador y el disipador una pasta térmica para ayudar en la transferencia de calor

D. Instrucciones especiales

Estas tecnologías intentan aumentar el rendimiento de las aplicaciones multimedia y en 3D. Lo forman un conjunto de instrucciones incorporadas en el procesador que utilizan la matemática matricial para soportar los algoritmos de compresión y descompresión de gráficos (como JPEG, GIF y MPEG) y presentaciones gráficas en 3D. Con la aparición del Pentium MMX, surge la tecnología MMX (MultiMedia eXtension) . Paralelamente, la empresa AMD saca el K6, con su especificación 3DNow! MMX permite que la FPU actúe con varios datos simultáneamente a través de un proceso llamado SIMD (Single Instruction, Multiple Data , instrucción única, datos múltiples), donde con una sola instrucción puede llevar a cabo varias operaciones, pudiendo hacer hasta cuatro operaciones en coma flotante por cada ciclo de reloj. Con la llegada del Pentium III en 1998 se incorporaron al micro 70 nuevas instrucciones, llamadas SSE (Streaming SIMD Extensions , extensiones SIMD de flujo de datos), también conocidas como MMX-2 . Sus ventajas son:

Universidad Señor de Sipán

Arquitectura del Computador 15

Las instrucciones SSE permiten efectuar cálculos matemáticos con números en coma flotante, al contrario que las MMX, que solo los realizan con números enteros.

Las instrucciones SSE pueden emplearse simultáneamente con la FPU o con instrucciones MMX.

Algunas de estas 70 nuevas instrucciones optimizan el rendimiento en apartados multimedia, como la reproducción de vídeo MPEG 2 o el reconocimiento de voz, mientras que otras aceleran el acceso a la memoria. El Pentium IV añade las instrucciones SSE2 (Streaming SIMD Extensions 2), 144 nuevas instrucciones, algunas de ellas capaces de manejar cálculos de doble precisión de 128 bits en coma flotante. La idea es reducir el número de operaciones necesarias para realizar las tareas. La extensión SSE3 fue introducida con el núcleo del Pentium 4 5xx, llamado Prescott, con nuevas instrucciones matemáticas y manejo de procesos (threads) . En los procesadores AMD se incorporó en el núcleo Venice. SSSE3 (Supplemental SSE3) es una mejora de esta extensión, fue presentada en los procesadores Intel Core 2 Duo y Xeon. Añade 32 instrucciones para mejorar la velocidad de ejecución. AVX es una mejora importante del conjunto de instrucciones SSE. Intel ha trabajado con fabricantes de aplicaciones y de sistemas operativos, con el fin de establecer esta extensión como un estándar en la industria del software.

Universidad Señor de Sipán

Arquitectura del Computador 16

Arquitecturas de 32 y 64 bits

Cuando se habla de arquitecturas de 32, 64 o 128 bits se hace referencia al ancho de los registros con los que trabaja la UAL, o al ancho de los buses de datos o de direcciones.

A. Diferencias entre 32 y 64 bits

Las arquitecturas de 32 bits estaban enfocadas a ejecutar aplicaciones de carga pequeña o media, tareas típicas en una pequeña o mediana empresa, con lo que tienen una serie de limitaciones:

Números en rango 2 32. Este límite implica que toda operación realizada se encuentra limitada a números en un rango de 2 32 (puede representar números desde 0 hasta 4 294 967 295); en caso de que una operación dé como resultado un número superior o inferior a este rango, ocurre lo que es conocido como un overflow o underflow, respectivamente. Al utilizar un procesador de 64 bits, este rango dinámico se hace 2 64 (puede representar números desde 0 hasta 18: 446 744 073 709 551 615), lo cual se incrementa notablemente comparado con un procesador de 32 bits. Para aplicaciones matemáticas y científicas que requieren de gran precisión, el uso de esta tecnología puede ser imprescindible.

Universidad Señor de Sipán

Arquitectura del Computador 17

Límite memoria 4 GB. La arquitectura de 32 bits se encuentra en la incapacidad de mapear/controlar la asignación sobre más de 4 GB de memoria RAM. Esta limitación puede ser grave para aplicaciones que manejan volúmenes elevados de información como bases de datos en niveles de terabyte, ya que el traslado continuo de información de un medio (disco duro u óptico) puede hacer que una aplicación se torne sumamente lenta, a menos que esta radique directamente en la memoria RAM. Actualmente, los procesadores de 64 bits se imponen; sin embargo, no todo el software (sea sistema operativo o aplicación) está diseñado para explotar los recursos ofrecidos por un procesador de 64 bits; su ejecución en eficiencia y velocidad será idéntica a la de utilizar un procesador de 32 bits.

Intel y AMD Hablar de procesadores es, sobre todo, hablar de Intel y de AMD, ya que son las empresas que han soportado el peso del desarrollo de estos, ya sea colaborando ambas empresas, ya sea en su fase de desarrollos independientes. El primer microprocesador comercial fue el Intel 4004, presentado en 1971, para facilitar el diseño de una calculadora. Este procesador tenía 2 250

Universidad Señor de Sipán

Arquitectura del Computador 18

transistores y trabajaba a 0,1 MHz y con un ancho de bits de 4 bits. Cada nueva generación de procesadores incorpora no solo algunas mejoras con respecto a la velocidad de procesado, sino también saltos técnicos que hacen referencia a la eficacia de procesado, velocidad, nuevas tecnologías, transmisión de datos, mejoras de diseño, etc. No obstante, es necesario recordar que fabricantes tan conocidos como Zilog, Harris, Siemens, Hitachi, NEC, IBM, Cyrix, Texas Instruments, Chips & Technologies, Nexgen, IIT, Motorola, Apple, Hewlett-Packard, VIA, DEC o Renaissance Microsystems también han desarrollado o desarrollan microprocesadores, que en algunos casos han superado en prestaciones a los de Intel o AMD. Dado el extenso mundo del diseño y arquitectura de los microprocesadores, nos centraremos en los modelos para equipos de sobremesa/ servidores, a nivel empresarial y personal, de las marcas que copan el mercado actual. A. INTELLos más antiguos cronológicamente, que todavía se encuentran en el mercado con cierta facilidad, son los diseñados para el socket 775.

Core 2 Duo. Por ejemplo, el E7600, de 3,06 GHz, FSB de 1.066 MHz, caché de L1 128 KB y L2 3 MB y con tecnología de 45 nm, TDP de 65 W.

Universidad Señor de Sipán

Arquitectura del Computador 19

Core 2 Quad . El modelo Q9400 dispone de una velocidad de CPU de 2,66 GHz, velocidad de bus de 1 333 MHz, L2 de 6 MB (2 x 3 MB) y con tecnología de 45 nm, TDP de 95 W (Figura 3.32). El procesador diseñado para el socket 1366 fue el i7 , basado en el desarrollo con código Nehalem. Reviste grandes cambios respecto a la familia Core 2.

El FSB es sustituido por el QuickPath (QPI).

El controlador de memoria solo soporta DDR3. Está integrado en el mismo procesador y tiene tres canales (cada canal soporta una o dos memorias DIMM) que por lo tanto deben ser instaladas en grupos de tres.

Hyperthreading . Cada uno de los cuatro núcleos puede procesar dos tareas/hilos/ threads simultáneamente, por lo tanto, el procesador aparece como ocho CPU desde el sistema operativo, como se muestra en el siguiente caso práctico. Procesadores diseñados para el socket 1156 y el más moderno 1155. Toda la gama i3, i5 y los i7 está basada en la microarquitectura de nombre en clave Sandy Bridge. Soportan nativamente las velocidades de memorias DDR3 más elevadas, disponen del nuevo juego de instrucciones de 256 bits AVX

Universidad Señor de Sipán

Reforzando lo aprendido

El Intel QuickPath Interconnect (QPI) es una conexión punto a punto con el procesador desarrollado por Intel para competir con HyperTransport de AMD.

Arquitectura del Computador 20

( Advanced Vector Extension, o extensión de Vectores Avanzada ) y tienen integrado como especificaciones gráficas el Intel HD Graphics. t Un ejemplo sería el i7 2600, con 4 núcleos y 8 threads, velocidad 3,4 GHz, fabricación litográfica de 32 nm y HD Graphics 2.0.

Modelos de procesadores para servidores y estaciones de trabajo. Son procesadores que ofrecen escalabilidad, potencia y rendimiento mejorados para robustos entornos de procesamiento múltiple:

Intel Xeon, con modelos que disponen de caché L3, pero cuya característica más importante es que están diseñados para formar sistemas multiprocesadores con hasta 18 CPU en la misma placa base. Se suelen utilizar en el mundo del cine, la animación, en grandes servidores y para supercomputación.

Imagen extraída de http://www.servereco.com/servers/server-intel-ultraX5.html

B. AMD

Universidad Señor de Sipán

¿Sabías que?

En los ordenadores más antiguos era necesario configurar los voltajes de la CPU en la placa base mediante algunos puentes. Actualmente, los voltajes se ajustan de forma automática.NOTARamos Martín, Alicia; Ramos Martín, María Jesús; Viñas Vila, Santiago. Montaje y mantenimiento de equipos

Arquitectura del Computador 21

Advanced Micro Devices, Inc. es la principal compañía que mantiene la competencia con Intel. Sus productos principales incluyen microprocesadores, placas base, circuitos integrados auxiliares, procesadores embebidos y procesadores gráficos tras completar la compra de ATI en 2006. En cuanto a microprocesadores se refiere, actualmente en el mercado podemos encontrar:

Serie AM2 y AM2+. Sustituyó a los procesadores del socket 939. Las placas base que soportan esta serie son difíciles de encontrar en el mercado actual. Ejemplos de procesadores: – AMD AM2 Athlon X2 de 2,4 GHz, con caché L2 de 512 KB. – AMD Phenom II X3 8750 de 2,4 GHz con caché L2 de 2 MB.

Serie AM3. Soporta Hypertransport 4.0 y sus procesadores son compatibles con placas base que posean el socket anterior AM2+. De esta forma, un procesador como el AMD Athlon II X2 250 que posee socket AM3 puede funcionar en una placa base que posea socket AM2+. No así a la inversa, es decir, un procesador con socket AM2+ no puede ser colocado en una placa base con socket AM3. Cuenta con tecnología de 45 nm y soporta DDR3 1333 MHz.

Universidad Señor de Sipán

Arquitectura del Computador 22

Ejemplos de procesadores son las versiones X2, X3 , X4 y X6 de Phenom II y Athlon II.

Serie A. Son los serios competidores de los i3, i5 e i7 de Intel. AMD ha optado por la estrategia comercial de denominarlos por la letra A y en número par. Así tendremos los modelos A4, A6 y A8, aunque su correspondencia no es absoluta.

Serie FX. Basados en la arquitectura Bulldozer, cuentan con versiones de 4, 6 y 8 núcleos, socket AM3+ y todos disponen de 8 MB de caché L3. Un ejemplo es el modelo FX 8150 con 8 núcleos, velocidad de 3,6/4,2 GHz, tecnología de 32 nm, L1 Caché (instrucciones + datos) por núcleo 128 KB (64 KB + 64 KB), L2 8 MB y L3 de 8 MB. Están desbloqueados para hacer fácilmente overclocking.

Los modelos de procesadores para servidores y estaciones de trabajo de AMD tienen la denominación de AMD Opteron, con diseño Quad Core con la arquitectura de conexión directa, que ofrece mejor rendimiento, una virtualización optimizada, más potencia y un coste menor.

Universidad Señor de Sipán

¿Sabías que?

Uno de los superordenadores más potente de España es el MareNostrum. Ubicado en Barcelona, cuenta con 10 240 procesadores IBM PowerPC 970 con tecnología RISC, 20 TB de memoria y 400 TB de disco.

NOTARamos Martín, Alicia; Ramos Martín, María Jesús; Viñas Vila, Santiago. Montaje y mantenimiento de equipos

Arquitectura del Computador 23

C. Otros procesadores

Además de los modelos y tipos de procesadores explicados anteriormente, existen en el mercado multitud de categorías y modalidades de micros que se ajustan a las necesidades específicas de los equipos donde van a ser instalados. Procesadores para portátiles y miniportátiles con necesidades de bajo consumo, procesadores para consolas de videojuegos, procesadores para tablets multimedia y táctiles, procesadores para móviles smartphones, procesadores para superordenadores, procesadores para televisiones, etc.

Imagen extraida de http://www.xataka.com/respuestas/amd-vs-intel

Tipos de Procesador

Según la marca

Universidad Señor de Sipán

Reforzando lo aprendido

Cuando el microprocesador necesita datos, mira primero en las cachés L1, L2 y L3. Si allí no encuentra lo que quiere, mira en la memoria RAM y luego en el disco duro.

Arquitectura del Computador 24

Las empresas Intel y AMD fabrican la mayoría de procesadores del mercado aunque también existen muchas otras marcas más como CIRIX, IBM, ARM, MOTOROLA, SUN microsystem.

CLASES DE PROCESADORES INTEL

Atom

Los procesadores Intel Atom son procesadores de bajo consumo energético diseñados para ser usados en netbooks y otros dispositivos de cómputo para redes, en los que la vida de la batería y el consumo de energía son más importantes que el poder de procesamiento. Existen muchos tipos de procesadores Atom. Los procesadores sin un indicador de letra antes del número están destinados a dispositivos generales de baja potencia. Los procesadores con un indicador N se emplean en las netbooks. Los procesadores Atom designados para los dispositivos móviles con Internet tienen un indicador Z. El número que le sigue al indicador especifica el nivel del procesador. Los números más grandes indican más características para el CPU.

Celeron

Los procesadores celeron están diseñado diseñados para computadoras de escritorio de gama baja que se usan principalmente para actividades web y

Universidad Señor de Sipán

Arquitectura del Computador 25

cómputo elemental. Los procesadores Celeron tienen un indicador numérico. Mientras más grande sea el número, más características tendrá el procesador. Existen diferentes clases de procesadores Celeron, incluyendo los de bajo consumo energético creados para computadoras portátiles.

Pentium

Pentium ha sido usado como nombre para varias generaciones diferentes de procesadores. Los procesadores Pentium de la generación actual son procesadores de doble núcleo energéticamente eficientes diseñados para computadoras de escritorio. Los procesadores Pentium tienen indicadores numéricos que, al igual que otros procesadores Intel, indican niveles más altos de características con números de series superiores.

Core

Existen dos tipos de procesadores Core. El Core original es llamado i7. El número a continuación de i7 en el CPU indica el número de características del mismo. Un número mayor indica más características, como caché, velocidad del reloj, bus frontal u otras tecnologías. Los procesadores Core 2 Duo son procesadores de múltiples núcleos. Estos tienen varios indicadores de letras que especifican diferentes familias de procesadores: QX indica un CPU de cuatro núcleos de alto desempeño, X indica un CPU

Universidad Señor de Sipán

Arquitectura del Computador 26

de doble núcleo y alto desempeño, Q especifica un CPU de escritorio de cuatro núcleos, E indica un CPU de doble núcleo con eficiencia de energía, T es para un CPU para móvil energéticamente eficiente, P se trata de un CPU para móvil de baja potencia con menor consumo de energía que el T, L indica un CPU para móvil de muy bajo consumo de energía, U indica el proceador Core 2 con el más bajo consumo de energía creado por intel, y S se trata del paquete de CPU con un factor de forma pequeño. Estos indicadores alfabéticos son seguidos por un número. Los valores más altos indican más características en el CPU.

Celeron

Los procesadores celeron están diseñado diseñados para computadoras de escritorio de gama baja que se usan principalmente para actividades web y cómputo elemental. Los procesadores Celeron tienen un indicador numérico. Mientras más grande sea el número, más características tendrá el procesador. Existen diferentes clases de procesadores Celeron, incluyendo los de bajo consumo energético creados para computadoras portátiles.

Xeon e Itanium

Los procesadores Intel Xeon e Itanium son CPUs para servidor diseñados y optimizados para varias aplicaciones de servidor. Estos procesadores tienen tres indicadores de letra: X especifica un CPU de alto desempeño, E se trata de un CPU de rack optimizado y L indica

Universidad Señor de Sipán

Arquitectura del Computador 27

un CPU optimizado con respecto a la energía. Existen tres niveles de procesadores Zeon. Los procesadores de la serie 3000 contienen un único núcleo, los de la serie 5000 tienen dos núcleos y los de la 7000 tienen más de dos núcleos. Los procesadores de las series 9000 se refieren a los procesadores de clase Itanium, que pueden tener dos o más núcleos. Mientras más altos sean los números de cada serie, más características serán indicadas para el procesador.

Imagen extraída de http://www.slideshare.net/marlonbecerra01/tipos-y-modelos-de-procesadores

Universidad Señor de Sipán

Arquitectura del Computador 28

CLASES DE PROCESADORES AMD

ATHLON X

La Más Poderosa Experiencia de Multimedia en

una Plataformax86. El procesador AMD Athlon XP ofrece rápidos resultados, cuando trabaja con medios digitales como archivos de audio, video e imágenes y CAD/CAM, gracias a que posee características como, por ejemplo, una mayor memoria cache, la tecnología 3DNow!Professional y la innovadora arquitectura QuantiSpeed™, que tiene la máquina de punto flotante completamente encadenada.

ATHLON MP

El procesador AMD Athlon MP, conjuntamente con el innovador chipset AMD-760 MPX, ofrecen rendimiento sin precedentes en una plataforma de dos procesadores. El chipset AMD-760 MPX es una solución de circuito lógico de alto rendimiento que soporta multiprocesamiento con dos procesadores AMD Athlon MP. El procesador AMD Athlon MP con arquitectura QuantiSpeed, tecnología Smart MP y el chipset AMD-760 MPX ofrece una combinación sólida que define el estándar de rendimiento estable y confiable en el multiprocesamiento para estaciones de trabajo y servidores.

Universidad Señor de Sipán

Arquitectura del Computador 29

ATHLON

El procesador AMD Athlon de séptima generación está basado en la micro arquitectura x86 más avanzada del mercado. Las siguientes características y recursos se combinan para ofrecer a los usuarios de PCs con procesadores AMD Athlon una experiencia de computación extraordinaria, así como la confianza de saber que sus sistemas han sido diseñados para satisfacer sus requerimientos de cómputo por largo tiempo.

DURONEntre las principales funciones del procesador AMD Duron, figuran las siguientes:

-Velocidades de reloj de 1.2, 1.1 y 1 Ghz-Caché L1 de 128 KB-Caché L1+L2 incorporado de 196-Velocidad de bus de 200 MHz

XP 1800 266mh (DDR)

Su vanguardista tecnología proporciona la capacidad. Necesarias para satisfacer sus requerimientos de computación actuales y futuros. Aprovecha todos los beneficios de su innovador diseño para satisfacerlos

Universidad Señor de Sipán

Arquitectura del Computador 30

requerimientos de los usuarios más exigentes, sin comprometer sus presupuestos.

XP 1700 266mh (DDR)

Así mismo contribuye a prolongar la vida de la inversión de las Empresas, satisfaciendo las exigencias del ambiente de comercio electrónico, tanto en el presente como en el futuro. En pocas palabras, para los usuarios domésticos o corporativos, la inversión en sistemas basados en los procesadoresXP1700 es una decisión acertada.

XP 1600 266mh (DDR)

Este potente recurso permite crear soluciones de PCs optimizadas Para empresas y usuarios domésticos que requieren equipos que se adapten a sus presupuestos. Ofrece una tecnología verdaderamente innovadora que les permitirá aprovechar su inversión por muchos años.

K7-950El AMD K7

Ofrece una nueva alternativa para los usuariosQue buscan un PC con un poder de procesamiento sólido, pero a un precio accesible. El procesador es el nuevo integrante de la familia de procesadores AMD. Toda la confianza que usted necesita al decidir la

Universidad Señor de Sipán

Arquitectura del Computador 31

compra de una PC, permitiéndole disponer de un sistema accesible con un alto rendimiento. Performance 3D superior, imágenes y gráficos 3D reales, sonido y video de pantalla completa. Tecnología 3DNow!

Nuevas tecnologías

Con décadas de innovaciones potenciales por delante, los diseños micro electrónicos convencionales dominarán el siglo próximo. Esta tendencia impulsa a los laboratorios a explorar una variedad de nuevas tecnologías que podrían ser útiles en el diseño de nuevas computadoras y unidades de procesamiento. En algunos casos estos avances contribuirán a obtener chips más diminutos, niveles inalcanzables a través de las técnicas convencionales litográficas. Entre las tecnologías que se investigan en el presente, de cara al siglo XXI, se encuentran las siguientes:

Cuántica de puntos y otras unidades de electrones simples la cuántica de puntos son "acuerdos moleculares "que habilitan a los investigadores a circunscribir los electrones individuales y monitorear sus movimientos. Estas unidades pueden, en teoría ser usadas como registro binarios en los cuales la presencia o ausencia de un solo electrón se utiliza

Universidad Señor de Sipán

Arquitectura del Computador 32

para representar los ceros y unos de los bits. En una variante de este esquema, el rayo láser iluminado sobre los átomos podría producir el intercambio entre sus estados electrónicos mínimos de energía y los de excitación con el fin de activar el valor de bit. Una complicación de fábrica los transistores y cables extremadamente pequeños está dada cuando los efectos mecánicos comienzan a interrumpir su función. Los componentes lógicos mantienen sus valores I y O menos confiables porque la ubicación de los electrones Individuales se vuelve difícil de especificar. Pero aun esta propiedad puede ser mejorada: los investigadores del MIT (Instituto Tecnológico de Massachusetts) estudian en este momento, las posibilidades de desarrollar técnicas de computación cuántica, que ayudarían a los sistemas informáticos a cumplir comportamientos no convencionales.

Computación molecular: en lugar de fabricar componentes de silicio, se investiga el desarrollo de almacenamiento utilizando moléculas biológicas. Por ejemplo, se analiza el potencial computacional de

Universidad Señor de Sipán

Arquitectura del Computador 33

moléculas relacionadas con "bacteriorhodopsin", un pigmento que altera su configuración cuando reacciona a la luz. Una ventaja de este sistema molecular es que puede ser aplicado a una computadora óptica, en la que los flujos de fotones tomarían el lugar de los electrones. Otra posibilidad es que muchas de estas moléculas podrían ser sintetizadas por microorganismos, más que fabricados en plantas industriales. De acuerdo con algunas estimaciones, los biomoléculas activadas fotónicamente pueden vincularse en un sistema de memoria tridimensional que tendría una capacidad 300 veces mayor que los actuales CD-ROMs

Puertas lógicas reversibles: como la densidad de los componentes de los chips crece, la disipación del calor generado por los sistemas de microprocesamiento se volverá más dificultosa. Investigadores de Xerox e IBM están testeando las posibilidades de retornar a los capacitores a sus estados originales al final de los cálculos. Debido a que las puertas de acceso lógico podrían recapturar algo de la energía expulsada, generarían menos pérdidas de calor.

Universidad Señor de Sipán

Arquitectura del Computador 34

Aún no está claro de qué manera se las ingeniará la industria informática para crear transistores más delgados y más rápidos en los años venideros. Por ejemplo, en la técnica fotolitográfica, la luz es empleada para transferir patrones de circuitos de una máscara o plantilla de cuarzo a un chip de silicio. Ahora la tecnología modela diseños de chips de alrededor de 0,35 micrones de ancho, pero achicar esta medida parece imposible mientras se utilice la luz; las ondas luminosas son muy anchas. Muchas compañías han invertido en la búsqueda de maneras de sustituir los más pequeños haces de luz por rayos X. De cualquier manera, los rayos X aún no han resultado como método para masificar la producción de los chips de última generación.

Universidad Señor de Sipán

Arquitectura del Computador 35

Bibliografía

Luis, D. R. ( 2008). Ampliar, configurar y reparar su PC. España: Marcombo .

Markel, G. ( 2009 ). Microprocesadores, Pentium II, DVD, VIDEO Digital y año 2000. Argentina : El Cid Editor | apuntes.

Ramos Martín, A. R. (2012). Montaje y mantenimiento de equipos. España : McGraw-Hill España .

Universidad Señor de Sipán

Arquitectura del Computador 36

Arquitectura RISC vs CISCVeamos primero cual es el significado de los términos CISC y RISC:

CISC (complex instruction set computer) Computadoras con un conjunto de instrucciones complejo.

RISC (reduced instruction set computer) Computadoras con un conjunto de instrucciones reducido.

Los atributos complejo y reducido describen las diferencias entre los dos modelos de arquitectura para microprocesadores solo de forma superficial. Se requiere de muchas otras características esenciales para definir los RISC y los CISC típicos. Aún más, existen diversos procesadores que no se pueden asignar con facilidad a ninguna categoría determinada.

Universidad Señor de Sipán

Arquitectura del Computador 37

Arquitecturas CISC

La microprogramación es una característica importante y esencial de casi todas las arquitecturas CISC.

Como por ejemplo:

Intel 8086, 8088, 80286, 80386, 80486.

Motorola 68000, 68010, 68020, 68030, 6840.

La microprogramación significa que cada instrucción de máquina es interpretada por un microprograma localizado en una memoria en el circuito integrado del procesador.

En la década de los sesentas la micropramación, por sus características, era la técnica más apropiada para las tecnologías de memorias existentes en esa época y permitía desarrollar también procesadores con compatibilidad ascendente. En consecuencia, los procesadores se dotaron de poderosos conjuntos de instrucciones.

Las instrucciones compuestas son decodificadas internamente y ejecutadas con una serie de microinstrucciones almacenadas en una ROM interna. Para esto se requieren de

Universidad Señor de Sipán

Arquitectura del Computador 38

varios ciclos de reloj (al menos uno por microinstrucción).

Arquitecturas RISC

Buscando aumentar la velocidad del procesamiento se descubrió en base a experimentos que, con una determinada arquitectura de base, la ejecución de programas compilados directamente con microinstrucciones y residentes en memoria externa al circuito integrado resultaban ser más eficientes, gracias a que el tiempo de acceso de las memorias se fue decrementando conforme se mejoraba su tecnología de encapsulado.

Debido a que se tiene un conjunto de instrucciones simplificado, éstas se pueden implantar por hardware directamente en la CPU, lo cual elimina el micro código y la necesidad de decodificar instrucciones complejas.

En investigaciones hechas a mediados de la década de los setentas, con respecto a la frecuencia de utilización de una instrucción en un CISC y al tiempo para su ejecución, se observó lo siguiente:

Universidad Señor de Sipán

Arquitectura del Computador 39

- Alrededor del 20% de las instrucciones ocupa el 80% del tiempo total de ejecución de un programa.

- Existen secuencias de instrucciones simples que obtienen el mismo resultado que secuencias complejas predeterminadas, pero requieren tiempos de ejecución más cortos.

Las características esenciales de una arquitectura RISC pueden resumirse como sigue:

Estos microprocesadores siguen tomando como base el esquema moderno de Von Neumann.

Las instrucciones, aunque con otras características, siguen divididas en tres grupos:

a) Transferencia.b) Operaciones.c) Control de flujo.

Reducción del conjunto de instrucciones a instrucciones básicas simples, con la que pueden implantarse todas las operaciones complejas.

Arquitectura del tipo load-store (carga y almacena). Las únicas

Universidad Señor de Sipán

Arquitectura del Computador 40

instrucciones que tienen acceso a la memoria son 'load' y 'store'; registro a registro, con un menor número de acceso a memoria.

Casi todas las instrucciones pueden ejecutarse dentro de un ciclo de reloj. Con un control implantado por hardware (con un diseño del tipo load-store), casi todas las instrucciones se pueden ejecutar cada ciclo de reloj, base importante para la reorganización de la ejecución de instrucciones por medio de un compilador.

Pipeline (ejecución simultánea de varias instrucciones). Posibilidad de reducir el número de ciclos de máquina necesarios para la ejecución de la instrucción, ya que esta técnica permite que una instrucción puede empezar a ejecutarse antes de que haya terminado la anterior.

El hecho de que la estructura simple de un procesador RISC conduzca a una notable reducción de la superficie del circuito integrado, se aprovecha con frecuencia para ubicar en el mismo, funciones adicionales:

Unidad para el procesamiento aritmético de punto flotante.

Unidad de administración de memoria.

Funciones de control de memoria cache.

Universidad Señor de Sipán

Arquitectura del Computador 41

Implantación de un conjunto de registros múltiples.

La relativa sencillez de la arquitectura de los procesadores RISC conduce a ciclos de diseño más cortos cuando se desarrollan nuevas versiones, lo que posibilita siempre la aplicación de las más recientes tecnologías de semiconductores. Por ello, los procesadores RISC no solo tienden a ofrecer una capacidad de procesamiento del sistema de 2 a 4 veces mayor, sino que los saltos de capacidad que se producen de generación en generación son mucho mayores que en los CISC.

Por otra parte, es necesario considerar también que:

La disponibilidad de memorias grandes, baratas y con tiempos de acceso menores de 60 ns en tecnologías CMOS.

Módulos SRAM (Memoria de acceso aleatorio estática) para memorias cache con tiempos de acceso menores a los 15 ns.

Tecnologías de encapsulado que permiten realizar más de 120 terminales.

Esto ha hecho cambiar, en la segunda mitad de la década de los ochentas, esencialmente las condiciones técnicas para arquítecturas RISC.

Universidad Señor de Sipán

Arquitectura del Computador 42

La siguiente tabla esquematiza algunas de las principales características de las arquítecturas RISC Y CISC.

Principios de Diseño de las Maquinas RISC

Resulta un tanto ingenuo querer abarcar completamente los principios de diseño de las máquinas RISC, sin embargo, se intentará presentar de una manera general la filosofía básica de diseño de estas máquinas, teniendo en cuenta que dicha filosofía puede presentar variantes. Es muy importante conocer estos principios básicos, pues de éstos se desprenden algunas características importantes de los sistemas basados en microprocesadores RISC.

En el diseño de una máquina RISC se tienen cinco pasos:

1. Analizar las aplicaciones para encontrar las operaciones clave.

2. Diseñar un bus de datos que sea óptimo para las operaciones clave.

3. Diseñar instrucciones que realicen las operaciones clave utilizando el bus de datos.

4. Agregar nuevas instrucciones sólo si no hacen más lenta a la máquina.

5. Repetir este proceso para otros recursos.

El primer punto se refiere a que el diseñador deberá encontrar qué es lo que hacen en realidad los programas que se pretenden

Universidad Señor de Sipán

Arquitectura del Computador 43

ejecutar. Ya sea que los programas a ejecutar sean del tipo algorítmicos tradicionales, o estén dirigidos a robótica o al diseño asistido por computadora.

La parte medular de cualquier sistema es la que contiene los registros, el ALU y los 'buses' que los conectan. Se debe optimar este circuito para el lenguaje o aplicación en cuestión. El tiempo requerido, (denominado tiempo del ciclo del bus de datos) para extraer los operandos de sus registros, mover los datos a través del ALU y almacenar el resultado de nuevo en un registro, deberá hacerse en el tiempo más corto posible.

El siguiente punto a cubrir es diseñar instrucciones de máquina que hagan un buen uso del bus de datos. Por lo general se necesitan solo unas cuantas instrucciones y modos de direccionamiento; sólo se deben colocar instrucciones adicionales si serán usadas con frecuencia y no reducen el desempeño de las más importantes.

Siempre que aparezca una nueva y atractiva característica, deberá analizarse y ver la forma en que se afecta al ciclo de bus. Si se incrementa el tiempo del ciclo, probablemente no vale la pena tenerla.

Por último, el proceso anterior debe repetirse para otros recursos dentro del sistema, tales como memoria cache, administración de memoria, coprocesadores de punto flotante, etcétera.

Universidad Señor de Sipán

Arquitectura del Computador 44

Una vez planteadas las características principales de la arquitectura RISC así como la filosofía de su diseño, podríamos extender el análisis y estudio de cada una de las características importantes de las arquitecturas RISC y las implicaciones que estas tienen.

Papel de los Compiladores en un Sistema RISC

CEl compilador juega un papel clave para un sistema RISC equilibrado.

Todas las operaciones complejas se trasladan al microprocesador por medio de conexiones fijas en el circuito integrado para agilizar las instrucciones básicas más importantes. De esta manera, el compilador asume la función de un mediador inteligente entre el programa de aplicación y el microprocesador. Es decir, se hace un gran esfuerzo para mantener al hardware tan simple como sea posible, aún a costa de hacer al compilador considerablemente más complicado. Esta estrategia se encuentra en clara contra posición con las máquinas CISC que tienen modos de direccionamiento muy complicados. En la práctica, la existencia en algunos modos de direccionamiento complicados en los microprocesadores CISC, hacen que tanto el compilador como el microprograma sean muy complicados.

Universidad Señor de Sipán

Arquitectura del Computador 45

No obstante, las máquinas CISC no tienen características complicadas como carga, almacenamiento y salto que consumen mucho tiempo, las cuales en efecto aumentan la complejidad del compilador.

Para suministrar datos al microprocesador de tal forma que siempre esté trabajando en forma eficiente, se aplican diferentes técnicas de optimización en distintos niveles jerárquicos del software.

Los diseñadores de RISC en la empresa MIP y en Hewlett Packard trabajan según la regla siguiente:

Una instrucción ingresa en forma fija en el circuito integrado del procesador (es decir, se alambra físicamente en el procesador) si se ha demostrado que la capacidad total del sistema se incrementa en por lo menos un 1%.

En cambio, los procesadores CISC, han sido desarrollados por equipos especializados de las empresas productoras de semiconductores y con frecuencia el desarrollo de compiladores se sigue por separado. Por consiguiente, los diseñadores de los compiladores se encuentran con una interfaz hacia el procesador ya definido y no pueden influir sobre la distribución óptima de las funciones entre el procesador y compilador.

Las empresas de software que desarrollan compiladores y programas de aplicación, tienden por razones de rentabilidad, a utilizar

Universidad Señor de Sipán

Arquitectura del Computador 46

diferentes procesadores como usuarios de su software en lugar de realizar una optimización completa, y aprovechar así las respectivas características de cada uno. Lo cual también genera otros factores negativos de eficiencia. Esta limitación de las posibilidades de optimización del sistema, que viene dada a menudo por una obligada compatibilidad, se superó con los modernos desarrollos RISC.

Capacidad de Procesamiento de los Sistemas desde el Punto de Vista del Usuario

Aparte de la base conceptual para el desarrollo de un sistema de computación de alta calidad, se requieren técnicas especiales para optimizar cada uno de los factores que determinan la capacidad de procesamiento, la cual, solo puede definirse con el programa de aplicación.La información suministrada por un fabricante, sobre la velocidad en mips (millones de Instrucciones por segundo) que una arquitectura es capaz de realizar, carece de relevancia hasta que el usuario sepa cuantas instrucciones genera el respectivo compilador, al traducir su programa de aplicación y cuánto tiempo tarda la ejecución de estas instrucciones, y solo el análisis de diferentes pruebas y comparaciones de rendimiento ("benchmarks) da una

Universidad Señor de Sipán

Arquitectura del Computador 47

idea aproximada, que el usuario puede aplicar para delimitar las arquítecturas adecuadas.

Dos diferentes puntos de vista acerca de capacidad de procesamiento del sistema.Sistema reprogramable. Un usuario que necesite desarrollar un sistema reprogramable, no está interesado en obtener una alta capacidad de procesamiento.Sistema incluido o dedicado. En estos sistemas el principal objetivo es procesar en forma repetitiva una serie de aplicaciones o funciones determinadas, y es de suma importancia la mayor cantidad posible de pruebas y comparaciones de rendimiento ("benchmarks" ) diferentes.Así, estas pruebas y comparaciones sirven para determinar la capacidad de procesamiento de los sistemas, pero solo el análisis de varios resultados de diferentes programas da una idea aproximada de la capacidad de procesamiento real.

Aplicaciones de los Procesadores RISC

Universidad Señor de Sipán

Arquitectura del Computador 48

Las arquitecturas CISC utilizadas desde hace 15 años han permitido desarrollar un gran número de productos de software. Ello representa una considerable inversión y asegura a estas familias de procesadores un mercado creciente. Sin embargo, simultáneamente aumentan las aplicaciones en las cuales la capacidad de procesamiento que se pueda obtener del sistema es más importante que la compatibilidad con el hardware y el software anteriores, lo cual no solo es válido en los subsistemas de alta capacidad en el campo de los sistemas llamados "embedded", en los que siempre dominaron las soluciones especiales de alta capacidad de procesamiento sino también para las estaciones de trabajo ("workstations"). Esta clase de equipos se han introducido poco a poco en oficinas, en la medicina y en bancos, debido a los cada vez más voluminosos y complejos paquetes de software que con sus crecientes requerimientos de reproducción visual, que antes se encontraban solo en el campo técnico de la investigación y desarrollo.

En este tipo de equipos, el software de aplicación, se ejecuta bajo el sistema operativo UNIX, el cual es escrito en lenguaje C, por lo que las arquitecturas RISC actuales están adaptadas y optimizadas para este lenguaje de alto

Universidad Señor de Sipán

Arquitectura del Computador 49

nivel. Por ello, todos los productores de estaciones de trabajo de renombre, han pasado en pocos años, de los procesadores CISC a los RISC, lo cual se refleja en el fuerte incremento anual del número de procesadores RISC, (los procesadores RISC de 32 bits han visto crecer su mercado hasta en un 150% anual). En pocos años, el RISC conquistará de 25 al 30% del mercado de los 32 bits, pese al aparentemente abrumador volumen de software basado en procesadores con el estándar CISC que se ha comercializado en todo el mundo.

La arquitectura MIPS-RISC ha encontrado, en el sector de estaciones de trabajo, la mayor aceptación. Los procesadores MIPS son fabricados y comercializados por cinco empresas productoras de semiconductores, entre las que figuran NEC y Siemens. Los procesadores de los cinco proveedores son compatibles en cuanto a las terminales, las funciones y los bits.

Conclusiones:

Cada usuario debe decidirse a favor o en contra de determinada arquitectura de procesador en función de la aplicación concreta que quiera realizar. Esto vale tanto para la decisión por una determinada arquitectura CISC o RISC, como para determinar si RISC puede

Universidad Señor de Sipán

Arquitectura del Computador 50

emplearse en forma rentable para una aplicación concreta.

Nunca será decisiva únicamente la capacidad de procesamiento del microprocesador, y sí la capacidad real que puede alcanzar el sistema en su conjunto.

Los costos, por su parte, también serán evaluados.

Supongamos por ejemplo, que el precio de un procesador sea de $500.00 USD, éste será secundario para un usuario que diseña una estación de trabajo para venderla después a un precio de $100 000.00 USD. Su decisión se orientará exclusivamente por la potencialidad de este procesador.

RISC ofrece soluciones atractivas donde se requiere una elevada capacidad de procesamiento y se presente una orientación hacia los lenguajes de alto nivel.

En el campo industrial existe un gran número de aplicaciones que ni siquiera agotan las posibilidades de los controladores CISC de 8 bits actuales.

Si bien el campo de aplicaciones de las arquitecturas RISC de alta capacidad crece con fuerza, esto no equivale al fin de otras arquitecturas de procesadores y controladores acreditadas que

Universidad Señor de Sipán

Arquitectura del Computador 51

también seguirán perfeccionándose, lo que si resulta dudoso es la creación de familias CISC completamente nuevas.

Adoptando técnicas típicas de los procesadores RISC en las nuevas versiones de procesadores CISC, se intenta encontrar nuevas rutas para el incremento de la capacidad de las familias CISC ya establecidas.

Entre tanto, los procesadores RISC han conquistado el sector de las estaciones de trabajo, dominado antes por los procesadores Motorola 68 000, y es muy probable que acosen la arquitectura Intel en el sector superior de las PC's.

Las decisiones en el mercado las toman los usuarios, y aquí, el software o la aplicación concreta juega un papel mucho más importante que las diferencias entre las estructuras que son inapreciables para el usuario final.

Bibliografía

Tanembaum, Andrew S. (1992). "Organización de Computadoras. Un Enfoque Estructurado". Amsterdam .

Rolf Jurgen B. (1991)."Del CISC al RISC: Aumento explosivo de la potencia en los

Universidad Señor de Sipán

Arquitectura del Computador 52

microprocesadores". Siemens Aktiengesellschaft. Munich, RFA.

Hernández, Luis (1992). "¿RISC O CISC?". PC/TIPS BYTE.

MemoriasExternas

Introducción

En este apartado vamos a presentar una serie de dispositivos, basados en principios magnéticos y ópticos, que son periféricos que actúan como prolongación de la memoria principal. El conjunto se estos dispositivos constituye la memoria externa del computador, y trata de solventar el problema de la volatilidad y de la relativa pequeña capacidad de la memoria interna. Los principales soportes que se utilizan como memoria externa (también denominada memoria auxiliar o masiva), son:

Memorias magnéticas:

Disco magnético.

Universidad Señor de Sipán

Arquitectura del Computador 53

Cinta magnética.

Memorias ópticas:

CD-ROM (Disco compacto). DVD-ROM (Disco digital versátil).

Memorias Magnéticas

La tecnología magnética para el almacenamiento de datos, es la que se está utilizando desde hace más tiempo, y su uso se ha extendido tanto en el campo digital como el campo analógico. Se trata de aplicar campos magnéticos a algunos materiales que tienen partículas con la característica de reaccionar a esa influencia, generalmente orientándose en unas determinadas posiciones que conservan tras dejar de aplicarse el campo magnético. Esas posiciones se van a corresponder con la representación de los datos. Existen multitud de soportes magnéticos, pero todos se parecen en que son dispositivos grabadores y lectores a la vez, y su precio es relativamente bajo por MB y son bastante delicados. Les afectan las altas y bajas temperaturas, la humedad, los golpes y sobre todo los campos magnéticos.

Los discos duros

Universidad Señor de Sipán

Arquitectura del Computador 54

Apenas podemos imaginar un ordenador sin disco duro. En 1983, los 10 MBytes del disco duro instalado en el modelo IBM XT significaban un espacio enorme para esa época. Actualmente los discos duros con una capacidad en torno a los 500 GBytes son más una regla que una excepción. Desde el punto de vista técnico, la evolución de los discos duros ha estado marcada por su progresiva reducción de tamaño y el drástico aumento de su capacidad. La siguiente figura pretende transmitir este vertiginoso desarrollo incluso a inicios de la década de los años 90.

Comparativa de discos duros, estas son sus capacidades (de izquierda a derecha): 10 MB en 1984, 40 MB en 1988 y 105 MB en

el año 1992

Sin duda, el disco duro es uno de los componentes que más ha evolucionado a lo largo de la historia de la computación. El primer disco duro fue construido por la casa IBM en 1957, y estaba formado por un conjunto de 50 discos de 24 pulgadas de diámetro, con

Universidad Señor de Sipán

¿Sabías que?

Los primeros ordenadores personales carecían de disco duro. Disponían de una o dos disqueteras, a través de las cuales se cargaba el sistema operativo, los programas de las aplicaciones y se almacenaba la información. El proceso era muy pesado, ya que era necesario cambiar los disquetes para realizar una u otra operación.

Montaje y mantenimiento de equipos.

España: McGraw-Hill España, 2012. p 80.

Arquitectura del Computador 55

una capacidad total de 5 MBytes, algo impensable para la época. Comparado con los discos duros actuales, este disco pionero costaba una verdadera fortuna: unos 35.000 dólares de la época.

Sin embargo, a pesar de ser extremadamente caros en un inicio, los discos duros se convirtieron en populares en los sistemas corporativos, pues suministraban un medio rápido de almacenamiento de los datos. Este primer disco duro fue llamado RAMAC 350 y, posteriormente apodado Winchester, término usado todavía hoy en día para designar a los discos duros de cualquier especie.

El Hard Disk, o sencillamente disco duro, es un sistema de almacenamiento de alta capacidad, que al no ser volátil, se destina al almacenamiento de archivos y programas. A pesar de no parecerlo a simple vista, el disco duro es uno de los componentes que envuelve más tecnología entre los componentes que componen un PC.

Este está compuestos por varios platos, es decir, varios discos de material magnético montados sobre un eje central sobre el que se mueven. Para leer y escribir datos en estos platos se usan las cabezas de lectura / escritura que mediante un proceso electromagnético codifican /decodifican la información que han de

Universidad Señor de Sipán

¿Sabías que?

Los primeros ordenadores personales carecían de disco duro. Disponían de una o dos disqueteras, a través de las cuales se cargaba el sistema operativo, los programas de las aplicaciones y se almacenaba la información. El proceso era muy pesado, ya que era necesario cambiar los disquetes para realizar una u otra operación.

Montaje y mantenimiento de equipos.

España: McGraw-Hill España, 2012. p 80.

Reforzando lo aprendido

CompactFlash (CF) fue originalmente un tipo de dispositivo de almacenamiento de datos, usado

en dispositivos electrónicos portátiles. Como dispositivo de almacenamiento, suele usar memoria flash en una carcasa estándar, y fue especificado y producido por primera vez

Arquitectura del Computador 56

leer o escribir. La cabeza de lectura /escritura en un disco duro está muy cerca de la superficie, de forma que casida vuelta sobre ella, sobre el colchón de aire formado por su propio movimiento. Debido a esto, están cerrados herméticamente, porque cualquier partícula de polvo puede dañarlos.

Actualmente, casi todos los ordenadores incluyen dos dispositivos de almacenamiento masivo: una unidad de disco duro y una unidad regrabadora de DVD; la unidad de disquete o disquetera tiende a desaparecer. También, cada vez más ordenadores incluyen lectores multitarjeta que nos permiten conectar al ordenador dispositivos de almacenamiento portátil de alta capacidad, como son las tarjetas CompactFlash, SmartMedia, Secure Digital, etc.

El funcionamiento

Dentro del disco duro, los datos son grabados en discos magnéticos, llamados platters (del inglés). El nombre de "disco duro" viene del hecho de que los discos internos son láminas metálicas extremadamente rígidas. Cada platter está compuesto por dos capas.

Universidad Señor de Sipán

Reforzando lo aprendido

CompactFlash (CF) fue originalmente un tipo de dispositivo de almacenamiento de datos, usado

en dispositivos electrónicos portátiles. Como dispositivo de almacenamiento, suele usar memoria flash en una carcasa estándar, y fue especificado y producido por primera vez

Arquitectura del Computador 57

Los distintos tipos de discos magnéticos se fundamentan en la grabación magnética de la información en las superficies de un plato o disco circular recubierto de la capa magnetizable (óxido o película delgada). El plato o disco puede ser de plástico flexible, o puede ser rígido (usualmente de aluminio). En el primer caso tenemos disquetes (discos flexibles) y en el segundo caso discos rígidos o duros (hard disks).

Los discos del disco duro están recubiertos por una capa magnetizable de óxido de hierro II o III, ésta capa es la que contiene los datos. En los modelos normales los discos permanecen siempre dentro de la caja del dispositivo y prácticamente forman una unidad funcional junto con los cabezales magnéticos. El continuo aumento de capacidad que han experimentado los discos duros a lo largo de los años se debe en parte a la incorporación de varios discos superpuestos (Platters), algo que resulta económico hasta un cierto grado (normalmente tres) ya que supone enormes exigencias a los componentes mecánicos así como solucionar problemas mecánicos y térmicos. Por otro lado ha aumentado drásticamente la densidad de grabación gracias a un continuo desarrollo de los soportes y de los cabezales de lectura y

Universidad Señor de Sipán

Arquitectura del Computador 58

escritura. Hace años los cabezales trabajaban de forma totalmente inductiva y eran tan grandes como los usados en los reproductores de cassettes, o incluso mayores en los “discos gigantes”. Al principio se adaptaron para una tecnología de capa delgada (Thin-Film, TF), una técnica basada en procesos de pulverización metalizadora y catódica (procesos Sputter) capaz de definir estructuras por debajo de una micra (µm). Prácticamente todos los discos duros actuales se basan en una revisión de este método que utiliza tecnología magnetoresistiva (MR), sus cabezales realizan menor inducción que los cabezales TF lo que conduce a una mayor frecuencia de datos.

Imagen extraida de http://www.monografias.com/trabajos14/elementoshardware/elementoshardware.shtm

l

Tanto en los discos duros como flexibles la información se graba en circunferencias concéntricas. Cada una de las circunferencias concéntricas

Universidad Señor de Sipán

Arquitectura del Computador 59

grabadas constituye una pista, que se consideran numeradas correlativamente de fuera a dentro, empezando por cero. Asimismo el disco se considera dividido en arcos iguales denominados sectores, de forma que cada pista está compuesta por sectores. Los sectores también se consideran numerados en una secuencia única para todo el disco, y la capacidad de información del usuario que suele almacenarse en un sector es de 512 B. La unidad física de lectura/escritura es el sector, y ésta es la unidad utilizada, por ejemplo, por el sistema de archivos NTFS. No obstante, hay sistemas operativos que utilizan como unidades de transferencia conjuntos de un número determinado de sectores, que denominan unidades de asignación (clusters). El número de sectores que conforma una unidad de asignación depende del tamaño y tipo de disco, suelen estar comprendidos entre 4 y 64 sectores.

Imagen extraida de Conceptos de informática Prieto Espinosa, Alberto; Prieto Campos, Beatriz. España: McGraw-Hill España, 2005. p 185.

Universidad Señor de Sipán

Arquitectura del Computador 60

Estructura física

Un disco duro es una caja herméticamente cerrada, en cuyo interior se encuentra un conjunto de componentes electrónicos y mecánicos capaz de sincronizar los dos motores y las acciones de las cabezas de lectura/escritura.

Imagen extraída de Montaje y mantenimiento de equipos. Ramos Martín, Alicia; Ramos Martín, María Jesús; Viñas Vila, Santiago España: McGraw-Hill España, 2012. p 80.

Los componentes del disco duro son:

Unidad de discos (platos): están elaborados de cerámica, aluminio o compuestos de vidrio finamente pulidos y revestidos por ambos lados con una capa de una aleación metálica. Los platos están unidos a un eje y a un motor que es el que los hace girar a un velocidad constante

Universidad Señor de Sipán

Arquitectura del Computador 61

Material de soporte magnético: este material suele estar compuesto de una aleación de aluminio recubierta superficialmente con una capa de material magnético, que se caracteriza por un coeficiente de rozamiento muy bajo y gran resistencia al calor.

Cabezal de lectura/escritura: está formado por una serie de cabezas dispuestas en forma de pila y que se mueven de manera uniforme. Esto se conoce como HSA (Head Stack Assembly) y está compuesto de varios cabezales dispuestos sobre los platos con gran precisión y a distancias pequeñas. Son las responsables de la lectura/escritura de los datos en los discos.

Motor de accionamiento de eje de rotación de la unidad: es el encargado de imprimir velocidad al eje que lleva los platos. Se alimenta de corriente directa gracias a un generador que lleva incorporado. El sistema de regulación de la velocidad se encuentra en la controladora.

Motor de impulsos o de posicionamiento de los cabezales: motor eléctrico de gran precisión cuya misión es mover la cabeza de lectura/escritura a través de la superficie de los discos (platos) en

Universidad Señor de Sipán

Arquitectura del Computador 62

sentido radial para situarse sobre el sector y el cilindro adecuado. Tarjeta controladora: debe estar conectada a la fuente de alimentación y a la CPU. Se encarga de controlar, mediante sus circuitos electrónicos :

La velocidad de giro de los discos. La posición de los cabezales de lectura/escritura. La lectura y grabación de los datos. Cuando hablamos de interface, nos referimos al método utilizado por el disco duro para comunicarse con el equipo, que no es más que la controladora.

Pistas, sectores, cilindro El disco está organizado en platos y éstos a su vez se dividen en delgados círculos concéntricos denominados pistas. Las cabezas se mueven desde la pista más externa o pista 0 a la más interna. Las pistas están formadas por una agrupación de sectores, que son un conjunto de segmentos concéntricos de cada una de las pistas. Los sectores tienen una capacidad de 512 bytes, y ésta se determina en el momento del formateo del disco duro. Algunos modelos permiten especificar su tamaño. Dado que las exteriores son más grandes, tiene un mayor número de sectores. En un sistema con varias superficies y

Universidad Señor de Sipán

Arquitectura del Computador 63

cabeza móvil, aquellas pistas que se acceden en una misma posición constituyen un cilindro, es decir, el par de pistas en lados opuestos del disco toma dicha denominación. En el caso de tener múltiples platos, el cilindro incluye todos los pares de pistas una encima de otra. Dado que las cabezas están alineadas unas con otras, la controladora puede escribir en todas las pistas del cilindro sin mover el cabezal. Por ello, los discos con más platos son más rápidos.

Geometría de los discos duros

La geometría de un disco duro hace referencia al número físico real de cabezas, cilindros, pistas y sectores. La capacidad del disco se puede calcular si se conocen estos valores.

Ejemplo

Vamos a calcular la capacidad de un disco sabiendo que cada sector almacena 512 B. Para ello, nos dan los datos siguientes: Cilindros = 6 253; cabezas = 16; sectores/pista = 63

La capacidad será igual a: Capacidad = 6 253 × 16 × 63 × 512 = 3 227 148 288 B que son aproximadamente 3 GB.

Existen limitaciones a la geometría cilindro, cabeza y sector (CHS, Cylinder,

Universidad Señor de Sipán

Arquitectura del Computador 64

Head, Sector), descrita anteriormente, que han sido impuestas por el hardware o el software. Las más importantes son: t La especificación ATA establece el máximo número de cilindros, cabezas y sectores/ pista de la manera siguiente: Cilindros: 65 536; cabezas: 16

Según esto, un disco duro puede direccionar, como mucho:

65 536 × 16 × 256 × 512 = 137 438 953 472 B

Que son, aproximadamente, 128 GB. Actualmente, se venden discos duros de más de 500 GB.

La BIOS de un PC establece el máximo número de cilindros, cabezas y sectores/pista de la manera siguiente:

Cilindros: 1 024; cabezas: 256; sectores/pista: 63

Según esto, un disco duro puede direccionar, como mucho:

1 024 × 256 × 63 × 512 = 8 455 716 864 B que son, aproximadamente, 7 ,875 GB.

La combinación de las dos anteriores limitaciones da lugar a una nueva limitación; como los discos duros no pueden tener más de 16 cabezas, la

Universidad Señor de Sipán

Arquitectura del Computador 65

BIOS se restringe aún más, dando lugar a los números siguientes:

Cilindros: 1 024; cabezas: 16; sectores/pista: 63

Según esto, un disco duro puede direccionar, como mucho:

1 024 × 16 × 63 × 512 = 528 482 304 B que son, aproximadamente, 504 MB.

Para solucionar este problema se introdujo en la BIOS un sistema de traducción de geometrías, de tal forma que el disco mantenga el número máximo de sectores y se ofrezca al sistema operativo un número superior (ficticio) de cabezas (hasta 256) y un número proporcionalmente inferior de cilindros (hasta 1 024). La BIOS realizaría internamente la traducción de ese número de sector virtual al número de sector real.

El sistema de traducción LBA (Logical Block Addressing, o dirección de bloque lógico) es un método de direccionamiento del disco que permite trabajar con discos duros de capacidad superior a los 528 MB. Es el método utilizado por los discos duros actuales. Normalmente, el modo de traducción está configurado en la BIOS como «Auto», que al detectar el disco duro pasa a modo LBA. El modo LBA identifica los sectores mediante

Universidad Señor de Sipán

Arquitectura del Computador 66

números consecutivos, en lugar de identificarlos por el cilindro, la cabeza y el sector.

Características de un disco

Para conocer las características de los discos duros, debemos tener en cuenta una serie de parámetros:

Capacidad: en la actualidad es aconsejable un mínimo de 10 ó 12 Gb.

Tiempo de acceso: nos indica la capacidad para acceder de manera aleatoria a cualquier sector del disco. Lo que nos interesa es que sea el menor posible.

Velocidad de transferencia: es la velocidad máxima que admite la interface pero capaz de alcanzarla

Velocidad de de rotación: Suele oscilar entre las 4500 y las 10000 revoluciones por minuto.

Caché de disco: la memoria caché implementada en el disco es importante y son normales valores entre 64 y 256 Kb. Tanto como la cantidad de memoria caché, nos interesa la manera en que ésta se organiza. Por ello este dato normalmente no nos da por sí solo demasiadas pistas.

Universidad Señor de Sipán

¿Sabías que?

El estándar ATA (Advanced Technology Attachment) es la interfaz más utilizada para conectar discos duros y otros dispositivos de almacenamiento, como CD-ROM o DVD-ROM, a equipos PC. Este estándar es más conocido por el término comercial IDE (Integrated Device Electronics) o EIDE (IDE Mejorado). Con la aparición del ATA Serie (Serial ATA), la clásica ATA/IDE ha pasado a denominarse ATA paralelo o Parallel ATA, o, lo que es lo mismo, PATA.

Ramos Martín, Montaje y mantenimiento de equipos.España: McGraw-Hill España, 2012. p 84..

Arquitectura del Computador 67

Tipos de discos duros

Discos duros ATA/IDE o PATA

Los discos duros ATA/IDE, más conocidos como IDE (Integrated Device Electronics , electrónica de unidades integradas), han sido los más utilizados hasta hace poco. La conexión del disco duro al sistema se hará mediante un cable plano de 40 pines que se conectará a la interfaz IDE o conector IDE en la placa base. Las placas base actuales incluyen uno o dos conectores o canales IDE. Cuando la placa base cuenta con dos conectores IDE (véase la Figura 4.4), uno de ellos será el conector IDE primario y el otro, el secundario. Al primario se conectará la unidad de arranque del sistema. Es necesario consultar el manual de la placa base para saber cuál es la posición de cada uno. Cada interfaz IDE admite como máximo dos dispositivos IDE, como, por ejemplo, dos discos duros, o un disco duro y una unidad de DVD o CD.

Universidad Señor de Sipán

Reforzando lo aprendido

No todas las unidades admiten todas las combinaciones; por eso será necesario consultar la documentación de cada unidad para determinar con seguridad la colocación de los jumpers..

Arquitectura del Computador 68

Imagen extraída de Montaje y mantenimiento de equipos. Ramos Martín, Alicia; Ramos Martín, María Jesús; Viñas Vila, Santiago España: McGraw-Hill España, 2012. p 80.

Maestro /esclavo

Cada interfaz o conector IDE soporta dos dispositivos y cada dispositivo debe ser identificado. Uno se identificará como maestro (master) y otro como esclavo (slave) en ese cable conector. No puede haber dos maestros o dos esclavos sobre el mismo cable. Los dispositivos IDE usan jumpers (o puentes) para la identificación maestro/esclavo. Suelen estar situados en la parte del disco donde se halla el conector IDE. La posición de los jumpers se suele encontrar en una pegatina que se ubica en la parte superior del disco. Las configuraciones típicas de los jumpers son:

Maestro en un cable de una sola unidad. Suele venir en la etiqueta del disco como Master with non-ATA-slave.

Maestro en un cable de dos unidades. Master or stand alone o Master or single drive.

Esclavo. Drive is a slave, o bien Slave.

Selección por cable, para designar cuál es la unidad maestra y cuál es la esclava. Cable Select, o bien Enable cable Select .

Cintas magnéticas

Universidad Señor de Sipán

¿Sabías que?

IBM lanzó su primer disco duro al mercado el 13 de septiembre de 1956, tenía discos del tamaño de las pizzas y podía almacenar 5 MB de datos, su nombre era RAMAC (Random Access Memory Accounting), era del tamaño de dos refrigeradores y pesaba una tonelada.

Ramos Martín, Montaje y mantenimiento de equipos.España: McGraw-Hill España, 2012. p 84..

Arquitectura del Computador 69

Las cintas magnéticas se basan en los mismos principios de lectura/grabación de las cintas de los magnetófonos y casetes convencionales. El soporte de grabación consiste en un plástico (poliéster) muy flexible recubierto de un óxido magnetizable (óxido de hierro, óxido de cromo, etc.) de aproximadamente 100 μm de espesor. La cinta se encuentra enrollada, y la lectura y grabación se efectúa haciéndola pasar por una estación de lectura/escritura al transferirla de un carrete en un eje de giro a otro carrete en otro eje. En las primeras décadas del uso de computadores las cintas magnéticas de tipo carrete se utilizaban como único sistema de memoria masiva, en la actualidad han sido sustituidas por cintas de tipo casete o cartucho. Las cintas magnéticas constituyen un soporte de información barato y de gran capacidad, pero son muy lentas (acceso secuencial). Hasta que se popularizaron y normalizaron los disquetes, la cinta magnética era el medio idóneo para intercambiar programas y datos entre servicios de informática; en la actualidad estos cometidos son realizados a través de Internet o por medio de discos ópticos (CD o DVD). Esto fue así porque los métodos, formatos y códigos de grabación de cintas se normalizaron rápidamente. En la actualidad, la principal misión de las cintas magnéticas es obtener copias de seguridad de la información contenida en discos completos, o almacenar información obsoleta (ficheros históricos ). Existen gran

Universidad Señor de Sipán

España: McGraw-Hill España, 2012. p 84.

Arquitectura del Computador 70

cantidad de tipos y tecnologías de unidades de cintas magnéticas.

La grabación de una cinta se hace en unidades de información denominadas bloques físicos o particiones que contienen un conjunto de bytes de una longitud preestablecida, de forma similar a los sectores de los discos magnéticos. En el caso de las cintas clásicas de carrete la longitud del bloque podía ser seleccionada arbitrariamente por el usuario dentro de unos límites (usualmente entre 200 y 1.024 Bytes). La cinta iba leyendo o escribiendo bloque a bloque, que cargaba en su memoria intermedia. Cuando acababa de escribir en la cinta el bloque contenido en la memoria intermedia, la cinta se detenía, esperando a que el computador enviase el siguiente bloque (un proceso similar tiene lugar durante la lectura), para volver a repetir el proceso de escritura bloque a bloque. Debido a que la cinta no puede detenerse instantáneamente, entre cada dos bloques consecutivos se desperdicia (no se graba) un determinado espacio (de ½ a ¾ de pulgada en las cintas de carrete) que se denomina interbloque o IRG ( inter-record-gap ). Cada bloque contiene, además de los datos del usuario, secuencias preestablecidas de caracteres y espacios identificadores de los límites del bloque, e información adicional redundante para poder detectar automáticamente posibles errores de grabación.

Discos ÓpticosUniversidad Señor de Sipán

España: McGraw-Hill España, 2012. p 84.

Arquitectura del Computador 71

La tecnología óptica de almacenamientos por láser es bastante más reciente. Su primera aplicación comercial masiva fue el CD de música, que se introdujo en el año 1982. Los fundamentos técnicos que se utilizan son relativamente sencillos de entender: un haz láser va leyendo (o escribiendo) microscópicos agujeros en la superficie de un disco de material plástico, recubiertos a su vez por una capa transparente para su protección del polvo. La principal característica de los discos ópticos es que la información se graba de forma secuencial como si fuera una cinta magnética, consistiendo en una espira que comienza en el centro del disco y acaba en el extremo externo. Las densidades que se logran son muy elevadas y rondan los 100 Mbytes por pulgada, esto es, unas 15.000 pistas por pulgadas frente a las 9 pistas por pulgada de los discos flexibles. Todos los sistemas de almacenamiento óptico utilizan el láser como elemento de recuperación de la información. Los problemas que se han producido en torno a este elemento han sido encontrar un soporte de substrato y el recubrimiento capaz de ofrecer las prestaciones que se le exigían, ya que debía reunir las condiciones de elevada resolución óptica, alta densidad de grabación, estabilidad óptica, fácil reproducción y duplicación y soporte barato. De todos estos desarrollos se han originado tres tipos de disco óptico diferente:

CD-ROM

Universidad Señor de Sipán

Arquitectura del Computador 72

Originalmente, el Compact Disk, o CD, fue desarrollado para almacenar música y sustituir a los ya anticuados discos de vinilo. En un CD, el sonido es grabado en formato digital con un muestreo de 44.100 Hz y 16 bits de resolución, con lo que obtenemos un sonido completamente libre de ruidos y con una calidad casi perfecta. No pasó mucho tiempo desde su creación hasta que los fabricantes percibieron que, con un mínimo esfuerzo, un CD también podía ser usado para almacenar una gran cantidad de datos. Entonces se creó una distinción: los CDs destinados a grabar música pasaron a ser llamados de CD-DA, o "Compact Disk Digital Audio", mientras que los CDs destinados a la grabación de datos pasaron a ser llamados CD-ROM, o "Compact Disk Read Only Remory". En aquella época, los discos duros costaban más de lo que valen ahora y disponían de una capacidad de almacenamiento mucho menor. También existía un gran problema relacionado con la distribución del software, ya que con sólo 1.44 MB de capacidad, eran necesarios incontables disquetes para almacenar los programas grandes o juegos.

La gran capacidad y el bajo coste de producción de los CD-ROM hicieron posible la aparición de las enciclopedias digitales con sonido y vídeo, títulos multimedia y los juegos más avanzados. Imaginemos cuántos disquetes se hubiesen

Universidad Señor de Sipán

Arquitectura del Computador 73

necesitado para almacenar una enciclopedia como la Encarta de la casa Microsoft.

Imagen extraída de Montaje y mantenimiento de equipos. Ramos Martín, Alicia; Ramos Martín, María Jesús; Viñas Vila, Santiago España: McGraw-Hill España, 2012. p 80.

a) Fabricación

El proceso de fabricación de un disco compacto o CD utiliza un disco maestro en el que se graban los unos y los ceros, que consiste en una serie de hoyos microscópicos (o pozos), empleando un láser de alta potencia (más que el utilizado para leer el CD).

Este disco maestro es utilizado para estampar la imagen en el policarbonato del CD. Una vez que el CD tiene estampado el conjunto de datos, se aplica una cubierta de aluminio, que caracteriza su habitual aspecto brillante y que sirve para reflejar la luz láser del cabezal de lectura. Después se aplica a todo el disco una fina capa protectora de laca transparente. Finalmente, se serigrafía encima la etiqueta.

Las unidades de CD leen en la cara inferior del disco (la que no tiene la etiqueta), pero el conjunto de datos se estampa en el lado superior, debajo de la etiqueta.

Universidad Señor de Sipán

Arquitectura del Computador 74

La cabeza de la unidad envía un haz de luz desde la parte inferior del disco, que se refleja en la capa de aluminio. La cantidad de luz reflejada depende de la superficie sobre la que incide el haz; si el haz de luz incide en un hoyo, esta se disipa y la intensidad reflejada es mucho menor que cuando incide sobre un llano. Los llanos funcionan como espejos, reflejando casi toda la luz que reciben. Si hacemos coincidir los hoyos con los ceros y los unos con los llanos, tendremos una representación binaria.

El CD dispone de una única pista en espiral, se inicia en la zona central del disco y finaliza en el borde exterior, la longitud es de aproximadamente 6 km.

b) El CD-ROM como backup

Se debe tener presente que las necesidades y problemática de los usuarios varían de unos a otros y que, por tanto, la forma de resolverlo dependerá de cada caso. No obstante, no se debe menospreciar la alternativa que ofrece el CD-ROM como forma de realizar una copia de seguridad o almacenar archivos. Como elemento de backup, las ventajas que ofrece disponer de información almacenada en CD-ROM son prácticamente ideales.

En primer lugar, la información almacenada por ese medio es ejecutable, lo que lo diferencia de otros sistemas de almacenamiento, como las unidades de cinta. Además, el tiempo medio de acceso es relativamente bajo, y dispone de una

Universidad Señor de Sipán

Arquitectura del Computador 75

capacidad que ronda los 700 MB en un reducido espacio físico, permitiendo disponer de una gran cantidad de ellos ocupando un escaso volumen.

Pero la principal característica de los sistemas de CD-ROM es su inviolabilidad, una vez grabados nadie puede modificar la información. Tiene por último, la ventaja de tener un coste bastante asequible, con los precios de las unidades, los discos y las grabadoras en continuo descenso y con un constante aumento de la velocidad y fiabilidad.

c) Formatos

Existen muchos formatos de disco; la diferencia entre unos y otros está en la forma en que se codifica la información:

CD-DA (Compact Disk Digital Audio). Está destinado al formato de audio. La norma que define este formato se encuentra en el Libro rojo.

CD-ROM (Compact Disk Read Only Memory). Es el utilizado habitualmente para datos. La norma se encuentra en el Libro amarillo.

CD-I (Compact Disk Interactive). Define el formato para los CD interactivos, que integran texto, gráficos, vídeo, audio y datos binarios (juegos, enciclopedias, películas, etc.). La norma se encuentra en el Libro verde.

CD-ROM XA (CD-ROM Extended Architecture). Es una conjunción del formato CD-ROM y el CDI, diseñado para mejorar las

Universidad Señor de Sipán

Arquitectura del Computador 76

capacidades de audio y vídeo; puede ser utilizado también para almacenar solo datos.

CD-R Multisesion (CD Recordable). Define el formato para los discos grabables multisesión. Contempla la posibilidad de agregar datos a un CD-ROM ya grabado. La norma se encuentra en el Libro naranja.

CD-RW Multisesion (CD ReWritable). Define el formato para los discos regrabables multisesión. Permite grabar, borrar y volver a grabar, como si de un disquete se tratara. La norma se encuentra en el Libro naranja.

Vídeo CD (VCD)-Photo CD. Define el formato de vídeo original (Video CD), que permite la grabación de vídeo con compresión MPEG1, con posibilidad de almacenar 70 min de grabación, con calidad equivalente a la de un vídeo VHS, tanto en audio como en imagen, así como el formato Photo CD. La norma se encuentra en el Libro blanco.

Súper Vídeo CD (SVCD). Se puede decir que es una versión más moderna del VCD. Emplea MPEG2, en lugar de MPEG1, y su resolución es bastante aceptable, pero la calidad de imagen y audio es inferior a la de un DVD actualmente,

El DVD

No es fácil encontrar, en el campo de la electrónica de consumo, un estándar capaz de poner de acuerdo a los principales fabricantes de CD-ROM, vídeos VHS, láser-discs y equipos musicales. La tecnología DVD ha obrado el milagro, situándose en una posición de privilegio para convertirse en el

Universidad Señor de Sipán

Arquitectura del Computador 77

estándar de almacenamiento digital del próximo milenio. La especificación DVD, no es más que un nuevo intento por unificar todos los estándares óptico-digitales de almacenamiento, es decir, cualquier sistema de grabación que almacene imágenes o sonido. DVD abarca todos los campos actualmente existentes, por lo que, un mismo disco DVD puede utilizarse para almacenar películas, música, datos informáticos, e incluso los juegos de consolas.

La gran ventaja del DVD, en relación a los sistemas actuales es su mayor velocidad de lectura (hasta 4 veces más que los reproductores CD tradicionales), y su gran capacidad de almacenamiento, que varía entre los 4.7 y los 17 Gigabytes, es decir el tamaño aproximado de 25 CD-ROM. Todo ello en un disco DVD que, externamente, es exactamente igual que un CD tradicional. Esta elevada capacidad permite, no sólo almacenar gran cantidad de información, aplicable a todo tipo de enciclopedias, programas o bases de datos, sino también reproducir 133 minutos de vídeo con calidad de estudio, sonido Dolby Surround AC-3 5.1 , y 8 pistas multilenguaje para reproducir el sonido en 8 idiomas , con subtítulos en 32 idioma. Gracias a la compatibilidad con los sistemas actuales, los lectores DVD-ROM son capaces de leer los CD-ROM y CD musicales que actualmente existen, por lo que el cambio de sistema será mucho más

Universidad Señor de Sipán

Arquitectura del Computador 78

llevadero, ya que se podrán utilizar los cientos de millones de discos digitales existentes

Tarjetas de memoria flash

La gran ventaja del DVD, en relación a los sistemas actuales es su mayor velocidad de lectura (hasta 4 veces más que los reproductores CD tradicionales), y su gran capacidad de almacenamiento, que varía entre los 4.7 y los 17 Gigabytes, es decir el tamaño aproximado de 25 CD-ROM. Todo ello en un disco DVD que, externamente, es exactamente igual que un CD tradicional. Esta elevada capacidad permite, no sólo almacenar gran cantidad de información, aplicable a todo tipo de enciclopedias, programas o bases de datos, sino también reproducir 133 minutos de vídeo con calidad de estudio, sonido Dolby Surround AC-3 5.1 , y 8 pistas multilenguaje para reproducir el sonido en 8 idiomas , con subtítulos en 32 idioma. Gracias a la compatibilidad con los sistemas actuales, los lectores DVD-ROM son capaces de leer los CD-ROM y CD musicales que actualmente existen, por lo que el cambio de sistema será mucho más llevadero, ya que se podrán utilizar los cientos de millones de discos digitales existentes

Formatos

Existen muchos formatos, y cada vez tienen mayor capacidad de almacenamiento. Tienen una forma similar: un rectángulo de

Universidad Señor de Sipán

Arquitectura del Computador 79

plástico y casi siempre de color negro. Sin embargo, existen muchos modelos. Los más populares son:

CompactFlash (CF). Fue el primer tipo de memoria flash que se hizo popular en el comienzo (véase la Figura 4.19). Actualmente hay dos tipos: CF I, de 43 × 36 mm y 3,3 mm de grosor, y CF II, de 43 × 36 mm y 5,5 mm de grosor, esta última menos utilizada para memoria flash. La velocidad varía dependiendo del estándar CF. La especificación 2.0 define 16 MB/s; la 3.0, 66 MB/s; la especificación 4.0, 133 MB/s. La capacidad de almacenamiento puede llegar hasta los 137 GB.

SmartMedia Card (SMC). Similar a la anterior, pero algo más fina, de menor coste y de distinto fabricante. Su capacidad máxima es de 128 MB. Actualmente en extinción.

Memory Stick (MS) y Memory Stick PRO. Formato utilizado por Sony en sus cámaras digitales, PDA y reproductores de música

digital (véase la Figura 4.20). Es característica su forma de barrita fina rectangular; su capacidad máxima original era de 128 MB. Posteriormente, se desarrolló la

tarjeta Memory Stick PRO y versiones de tamaño reducido como Memory Stick PRO Duo, con una capacidad actual de 16 GB, y Memory Stick Micro/M2, con una capacidad actual de 8 GB. Recientemente, se ha desarrollado Memory Stick PRO HG, que permite alcanzar velocidades de 30 MB/s.

Universidad Señor de Sipán

Arquitectura del Computador 80

Secure Digital o SD. Es un tipo de memoria de peso y tamaño muy reducido (24,0 × 32,0 mm × 2,1 mm de espesor y 2 g de peso), pero su capacidad de almacenamiento es muy elevada (véase la Figura 4.21).

Suele disponer de una pestaña de seguridad que evita sobreescribir la información guardada, similar a la de los disquetes. Algunas variedades de SD son las tarjetas SDIO (SD input/output), que son pequeños dispositivos, como módems, conectores inalámbricos WiFi o Bluetooth, cámaras, GPS, etc., que podemos conectar usando la ranura SD.

Secure Digital High Capacity (SDHC). La revisión 2.0 del estándar SD dio lugar a las tarjetas SDHC físicamente iguales a las SD,

pero con capacidades de entre 2 y 32 GB. Se distinguen varias clases para diferenciar la velocidad de transferencia: – Clase 2: velocidad mínima garantizada de 2 MB/s. – Clase 4: velocidad mínima

garantizada de 4 MB/s. – Clase 6: velocidad mínima garantizada de 6 MB/s. Hemos de tener en cuenta que los dispositivos compatibles con tarjetas SDHC aceptan tarjetas SD, pero no a la inversa.

Multimedia Card o MMC. Son similares a las SD, pero de menos espesor; también carecen de la pestaña de seguridad. Las tarjetas MMC puras

llegaban hasta los 256 MB.

Universidad Señor de Sipán

Arquitectura del Computador 81

Actualmente existen tarjetas, como la MMCplus y la MMCmobile (tamaño mini) basadas en la especificación 4.0 de MMC, que ofrecen velocidades de hasta 52 MB/s, y, aunque tienen distintas conexiones, son compatibles con las MMC clásicas. Actualmente, la capacidad de almacenamiento máximo es de 4 GB.

xD-Picture Card (xD). Es un tipo de memoria creada por Fujifilm y

Olimpus que la utilizan en sus cámaras digitales. Hay tres tipos: xD estándar, xD Tipo M y

xD Tipo H, que difieren en capacidad y velocidad de escritura, siendo el de más velocidad el último tipo. Al ser un modelo propietario, hace que esté menos extendido que otro tipo de tarjetas.

Tarjetas mini. Casi todos los tipos de tarjetas vistos anteriormente disponen de formatos de menor tamaño para dispositivos reducidos, como teléfonos móviles o PDA. Los más comunes son:

Reduced Size MultiMediaCard (RSMMC).

MMCmobile. miniSD. icroSD. Memory Stick Duo. Memory Stick Micro/M2.

Universidad Señor de Sipán

Arquitectura del Computador 82

Pendrives

Las memorias flash USB almacenan la información en una memoria semiconductora (uno o varios chips) de tipo flash NAND. Su cualidad más destacada es que, a pesar de ser memoria semiconductora, mantienen su contenido sin necesidad de suministrar energía eléctrica. En condiciones ideales el contenido de una memoria flash puede permanecer inalterado hasta 10 años, pudiendo ser regrabadas por más de un millón de veces. Se comportan como un disco magnético, y de hecho están sustituyendo rápidamente a los disquetes.Las memorias semiconductoras flash son evolucionadas de las memorias EEPROM (chips de memorias programables y borrables eléctricamente). La diferencia esencial con las memorias RAM está en que cada celda (transistor) está formada por una pequeña capa de material conductor rodeada completamente de material aislante (puerta flotante), en la que con una relativamente alta tensión se pueden inyectar electrones que quedan allí indefinidamente atrapados, manteniendo la información (cero o uno) de la celda, a pesar de que se desconecte la alimentación del circuito. Durante la grabación se cargan o descargan de electrones las puertas flotantes de cada celda (dependiendo de si se escribe un 0 o un 1), la operación de lectura es más sencilla y rápida, necesitándose niveles de tensión menores.

Universidad Señor de Sipán

Arquitectura del Computador 83

Las memorias flash USB utilizan un tipo de circuitos de memoria flash denominado NAND, en las que se accede a la información por bloques, siendo necesario para grabar uno de ellos previamente borrarlo (ponerlo a ceros) en su totalidad, y después escribir los unos donde deban estar. Los bloques de borrado suelen estar en el rango de 16 KB a 128 KB. El borrado, en comparación con las memorias EEPROM se realiza muy rápidamente, de ahí el nombre de flash (“se borran en un flash”).

Los elementos básicos de una memoria flash USB son • Varios chips de memoria flash tipo NAND. • Controlador, que dispone de un pequeño procesador para realizar la interfaz USB y la transformación de datos serie que recibe del computador en las páginas y bloques de datos requeridos por la memoria. • Un oscilador de cristal que produce una señal de reloj de 12 MHz para sincronizar las operaciones internas y el intercambio de datos. • Conector USB. La salida de la interfaz USB transmite la información en serie. Dispone de 4 cables, uno de alimentación, otro de tierra (o línea de referencia común), y dos, donde van los datos, en forma balanceada (si se transmite un 1 con 2,5 V, en una línea van + 2,5V y en la otra − 2,5 V). la alimentación obtenida a través de la conexión USB es de 5 voltios y de 100 a 500 mA.Las características básicas son las siguientes:

Universidad Señor de Sipán

Arquitectura del Computador 84

Volumen muy pequeño (les denominan mecheros o lápices ), 30 gramos, y, por ejemplo, uno de 256 MB, contiene el equivalente a unos 177 disquetes. Capacidades: las primeras eran 8 MBytes, habiendo superado en la actualidad los 8 GBytes. Velocidad de lectura máxima alrededor de 100 Mbits/s; la de escritura un poco menor. La velocidad se suele dar aproximadamente con múltiplos de 150 KB/s; así, una memoria de velocidad de transferencia de 90x quiere decir que es de 90 · 150 KB/s = 13,18 MBytes/s.

En comparación con los discos magnéticos, como las memorias flash están realizadas con circuitos integrados, sin tener partes móviles, tiene tiempos de acceso y consumo mucho más bajos, y son insensibles a las vibraciones, lo que los hace muy útiles para equipos portátiles o móviles que se alimentan por pilas o baterías, tales como computadores móviles, cámaras digitales, reproductores de audio MP3, teléfonos móviles, etc.

BibliografíaDurán Rodríguez, L. (2008). Ampliar, configurar y

reparar su PC. España: Marcombo .

Guillamón Morales, A. (2011). Manual programación de sistemas informáticos: gestión de

Universidad Señor de Sipán

Arquitectura del Computador 85

servicios en el sistema informático. España: Editorial CEP .

Prieto Espinosa, A. L. (2006). Introducción a la informática (4a. ed.). España: McGraw-Hill España .

Prieto Espinosa, A. P. (2005). Conceptos de informática. España: McGraw-Hill España .

Ramos Martín, A. R. (2012). Montaje y mantenimiento de equipos. España: McGraw-Hill España.

Universidad Señor de Sipán

Arquitectura del Computador 86

Procesamiento Paralelo

Introducción

El procesamiento paralelo ofrece una gran ventaja en cuanto a costos. Sin embargo, su principal beneficio, la escalabilidad (crecer hacia arquitecturas de mayor capacidad), puede ser difícil de alcanzar aún. Esto se debe a que conforme se añaden procesadores, las disputas por los recursos compartidos se intensifican.

Algunos diseños diferentes de procesamiento paralelo enfrentan este problema fundamental:

Multiprocesamiento simétrico Procesamiento masivamente paralelo Procesamiento paralelo escalable

Cada diseño tiene sus propias ventajas y desventajas.

Universidad Señor de Sipán

Arquitectura del Computador 87

1.- Multiprocesamiento Simétrico:

El Multiprocesamiento simétrico (symmetric multiprocessing / SMP) tiene un diseño simple pero aún así efectivo. En SMP, multiples procesadores comparten la memoria RAM y el bus del sistema. Este diseño es también conocido como estrechamente acoplado (tightly coupled), o compartiendo todo (shared everything).

Debido a que SMP comparte globalmente la memoria RAM, tiene

Universidad Señor de Sipán

Arquitectura del Computador 88

solamente un espacio de memoria, lo que simplifica tanto el sistema físico como la programación de aplicaciones.

Este espacio de memoria único permite que un Sistema Operativo con Multiconexión (multithreaded operating system) distribuya las tareas entre varios procesadores, o permite que una aplicación obtenga la memoria que necesita para una simulación compleja. La memoria globalmente compartida también vuelve fácil la sincronización de los datos.

SMP es uno de los diseños de procesamiento paralelo más maduro. Apareció en los supercomputadores Cray X-MP y en sistemas similares hace década y media (en 1983).

Sin embargo, esta memoria global contribuye el problema más grande de SMP: conforme se añaden procesadores, el tráfico en el bus de memoria se satura. Al añadir memoria caché a cada procesador se puede reducir algo del tráfico en el bus, pero el bus generalmente se convierte en un

Universidad Señor de Sipán

Arquitectura del Computador 89

cuello de botella al manejarse alrededor de ocho o más procesadores. SMP es considerada una tecnología no escalable.

2.- Procesamiento Masivamente Paralelo:

El Procesamiento masivamente paralelo (Massively parallel processing / MPP) es otro diseño de procesamiento paralelo. Para evitar los cuellos de botella en el bus de memoria, MPP no utiliza memoria compartida. En su lugar, distribuye la memoria RAM entre los procesadores de modo que se semeja a una red (cada procesador con su

memoria distribuida asociada es similar a un computador dentro de una red de procesamiento distribuido). Debido a la distribución dispersa de los recursos RAM, esta arquitectura es también conocida como dispersamente acoplada (loosely coupled), o compartiendo nada (shared nothing).

Universidad Señor de Sipán

Arquitectura del Computador 90

Para tener acceso a la memoria fuera de su propia RAM, los procesadores utilizan un esquema de paso de mensajes análogo a los paquetes de datos en redes. Este sistema reduce el tráfico del bus, debido a que cada sección de memoria observa únicamente aquellos accesos que le están destinados, en lugar de observar todos los accesos, como ocurre en un sistema SMP. Únicamente cuando un procesador no dispone de la memoria RAM suficiente, utiliza la memoria RAM sobrante de los otros procesadores. Esto permite sistemas MPP de gran tamaño con cientos y aún miles de procesadores. MPP es una tecnología escalable.

Universidad Señor de Sipán

Arquitectura del Computador 91

El RS/6000 Scalable Powerparallel System de IBM (SP2) es un ejemplo de sistema MPP, que presenta una ligera variante respecto al esquema genérico anteriormente planteado.

Los procesadores del RS/6000 se agrupan en nodos de 8 procesadores, los que utilizan una única memoria compartida (tecnología SMP).

A su vez estos nodos se agrupan entre sí utilizando memoria distribuida para cada nodo (tecnología MPP). De este modo se consigue un diseño más económico y con mayor capacidad de

crecimiento.

La parte negativa de MPP es que la programación se vuelve difícil, debido a que la memoria se rompe en pequeños espacios separados. Sin la existencia de un espacio de memoria globalmente compartido, correr (y escribir) una aplicación que requiere una gran cantidad de RAM (comparada con la memoria local), puede ser difícil. La sincronización de datos entre tareas

Universidad Señor de Sipán

Arquitectura del Computador 92

ampliamente distribuidas también se vuelve difícil, particularmente si un mensaje debe pasar por muchas fases hasta alcanzar la memoria del procesador destino.

Escribir una aplicación MPP también requiere estar al tanto de la organización de la memoria manejada por el programa. Donde sea necesario, se requieren insertar comandos de paso de mensajes dentro del código del programa. Además de complicar el diseño del programa, tales comandos pueden crear dependencias de hardware en las aplicaciones. Sin embargo, la mayor parte de vendedores de computadores han salvaguardado la portabilidad de las aplicaciones adoptando, sea un mecanismo de dominio público para paso de mensajes conocido como Máquina virtual paralela (parallel virtual machine / PVM), o un estándar en fase de desarrollo llamado Interfaz de Paso de Mensajes (Message Passing Interface / MPI), para implementar el mecanismo de paso de mensajes.

3.- Procesamiento Paralelo Escalable:

Universidad Señor de Sipán

Arquitectura del Computador 93

¿Cómo superar las dificultades de SMP y MPP? La última arquitectura paralela, el Procesamiento paralelo escalable (Scalable parallel processing / SPP), es un híbrido de SMP y MPP, que utiliza una memoria jerárquica de dos niveles para alcanzar la escalabilidad. La primera capa de memoria consiste de un nodo que es esencialmente un sistema SMP completo, con múltiples procesadores y su memoria globalmente compartida. Se construyen sistemas SPP grandes interconectando dos o mas nodos a través de la segunda capa de memoria, de modo que esta capa aparece lógicamente, ante los

nodos, como una memoria global compartida.

La memoria de dos niveles reduce el tráfico de bus debido a que solamente ocurren actualizaciones para mantener coherencia de memoria. Por tanto, SPP ofrece facilidad de

Universidad Señor de Sipán

Arquitectura del Computador 94

programación del modelo SMP, a la vez que provee una escalabilidad similar a la de un diseño MPP.

BibliografíaJohn L.Hennessy & David A. Patterson. (1993).

Arquitectura de Computadores. Mc Graw - Hill .

Jorge L. Boria. (2011). Construcción de Sistemas Operativos. Editorial Kapelusz S.A.

Universidad Señor de Sipán

Arquitectura del Computador 95

Universidad Señor de Sipán