1 preguntadf

5
1 pregunta Las empresas de Estados Unidos gastaron cerca de 145,000 millones de dólares en 2005 en hardware de cómputo. Este componente incluye a las máquinas cliente (PCs de escritorio, dispositivos de cómputo móviles como PDAs y computadoras portátiles) y las máquinas servidor. Las máquinas cliente utilizan principalmente microprocesadores Intel o AMD. En 2005 se embarcaron 155 millones de PCs a clientes de Estados Unidos y se gastaron 30,000 millones de dólares en máquinas cliente (eMarketer, 2005). El mercado del hardware de cómputo se ha concentrado cada vez más en empresas líderes como IBM, HP, Dell y Sun Microsystems, que producen el 90 por ciento de las máquinas, y en tres productores de chips: Intel, AMD e IBM, que representan 90 por ciento de los procesadores vendidos en 2004. La industria se ha inclinado colectivamente por Intel como el procesador estándar, con las excepciones principales de las máquinas Unix y Linux en el mercado de los servidores, las cuales pueden utilizar los procesadores para Unix de SUN o IBM. Aunque el costo de la computación se ha reducido exponencialmente, en realidad el costo de la infraestructura de TI se ha incrementado como un porcentaje de los presupuestos corporativos. ¿Por qué? Los costos de los servicios de computación (consultoría, integración de sistemas) y el software son altos, en tanto que la demanda de computación y comunicación se ha incrementado a medida que otros costos se han reducido. Por ejemplo, los empleados utilizan ahora aplicaciones mucho más sofisticadas que requieren hardware más potente y caro de diversos tipos (computadoras portátiles, de escritorio, de mano y tipo pizarra). Las empresas enfrentan otros retos numerosos. Necesitan integrar la información almacenada en diferentes aplicaciones de diferentes plataformas (teléfono, sistemas heredados, intranet, sitios de Internet, computadoras de escritorio, dispositivos mó- viles). Las empresas también requieren construir infraestructuras flexibles que puedan resistir grandes variaciones en las cargas máximas de energía y ataques constantes de hackers y virus, tratando al mismo tiempo de conservar la continuidad de la energía eléctrica. Puesto que

Upload: jesus-sergio-paico-martinez

Post on 02-Dec-2015

216 views

Category:

Documents


0 download

DESCRIPTION

dsfdfd

TRANSCRIPT

Page 1: 1 Preguntadf

1 pregunta

Las empresas de Estados Unidos gastaron cerca de 145,000 millones de dólares en 2005 en hardware de cómputo. Este componente incluye a las máquinas cliente (PCs de escritorio, dispositivos de cómputo móviles como PDAs y computadoras portátiles) y las máquinas servidor. Las máquinas cliente utilizan principalmente microprocesadores Intel o AMD. En 2005 se embarcaron 155 millones de PCs a clientes de Estados Unidos y se gastaron 30,000 millones de dólares en máquinas cliente (eMarketer, 2005).

El mercado del hardware de cómputo se ha concentrado cada vez más en empresas líderes como IBM, HP, Dell y Sun Microsystems, que producen el 90 por ciento de las máquinas, y en tres productores de chips: Intel, AMD e IBM, que representan 90 por ciento de los procesadores vendidos en 2004. La industria se ha inclinado colectivamente por Intel como el procesador estándar, con las excepciones principales de las máquinas Unix y Linux en el mercado de los servidores, las cuales pueden utilizar los procesadores para Unix de SUN o IBM.

Aunque el costo de la computación se ha reducido exponencialmente, en realidad el costo de la infraestructura de TI se ha incrementado como un porcentaje de los presupuestos corporativos. ¿Por qué? Los costos de los servicios de computación (consultoría, integración de sistemas) y el software son altos, en tanto que la demanda de computación y comunicación se ha incrementado a medida que otros costos se han reducido. Por ejemplo, los empleados utilizan ahora aplicaciones mucho más sofisticadas que requieren hardware más potente y caro de diversos tipos (computadoras portátiles, de escritorio, de mano y tipo pizarra). Las empresas enfrentan otros retos numerosos. Necesitan integrar la información almacenada en diferentes aplicaciones de diferentes plataformas (teléfono, sistemas heredados, intranet, sitios de Internet, computadoras de escritorio, dispositivos mó- viles). Las empresas también requieren construir infraestructuras flexibles que puedan resistir grandes variaciones en las cargas máximas de energía y ataques constantes de hackers y virus, tratando al mismo tiempo de conservar la continuidad de la energía eléctrica. Puesto que las expectativas de servicio de los clientes y los empleados se están incrementando, las empresas necesitan mejorar sus niveles de servicio para satisfacer las demandas del cliente. Las tendencias de las plataformas de hardware y software que describiremos toman en cuenta algunos o todos estos retos.

LA INTEGRACIÓN DE LAS PLATAFORMAS DE CÓMPUTO Y TELECOMUNICACIONES

Sin duda, el tema dominante en las plataformas de hardware actuales es la convergencia de las plataformas de telecomunicaciones y de cómputo hasta el punto de 190 Parte Dos Infraestructura de tecnología de información que, cada vez más, la computación se realice sobre la red. Esta convergencia se puede ver en varios niveles. En el nivel del cliente, los dispositivos de comunicaciones como los teléfonos celulares están asumiendo las funciones de computadoras de mano, en tanto que éstas están haciendo las funciones de teléfonos celulares. Por ejemplo, la Palm Treo 700w integra teléfono, cámara, reproductor de música digital y computadora de mano en un solo dispositivo. Los teléfonos celulares de vanguardia integran funciones para descargar clips de música y de video y para reproducir juegos tridimensionales. La televisión, la radio y el video se están inclinando hacia la producción y

Page 2: 1 Preguntadf

distribución totalmente digital. Existen pocas dudas de que las computadoras personales de algún tipo se convertirán en la esencia del centro de entretenimiento en el hogar y el centro de entretenimiento personal móvil de los próximos cinco años, así como dispositivos de almacenamiento y sistema operativo.

Al nivel del servidor y la red, el creciente éxito de los sistemas telefónicos por Internet (ahora el tipo de servicio telefónico de más rápido crecimiento) demuestra cómo las plataformas de telecomunicaciones y de cómputo, históricamente separadas, están convergiendo hacia una sola red: Internet.

COMPUTACIÓN DISTRIBUIDA

La computación distribuida implica conectar en una sola red computadoras que se encuentran en ubicaciones remotas para crear una supercomputadora virtual al combinar la potencia de cómputo de todas las computadoras de la red. La computación distribuida aprovecha la situación de que, en promedio, las computadoras de Estados Unidos utilizan sus unidades centrales de procesamiento sólo 25 por ciento del tiempo para el trabajo que tienen asignado, lo cual deja el resto de los recursos desocupados disponibles para otras tareas de procesamiento. La computación distribuida era imposible hasta que las conexiones de alta velocidad a Internet permitieron a las empresas conectar máquinas remotas de una manera económica y desplazar enormes cantidades de datos

La computación distribuida requiere programas de software para controlar y asignar recursos en la red, como el software de código abierto proporcionado por Globus Alliance (www.globus.org) o por proveedores privados. El software del cliente se comunica con una aplicación de software del servidor. El software del servidor divide los datos y el código de las aplicaciones en fragmentos que a continuación se distribuyen a las máquinas de la red. Las máquinas cliente pueden ejecutar sus tareas tradicionales y correr al mismo tiempo las aplicaciones de la red en segundo plano. El modelo de negocios sobre el uso de la computación distribuida implica ahorros de costos, velocidad de cómputo y agilidad. Por ejemplo, Royal Dutch/Shell Group utiliza una plataforma escalable de computación distribuida que mejora la precisión y velocidad de sus aplicaciones de modelado científico para encontrar los mejores yacimientos de petróleo. Esta plataforma, que enlaza a 1,024 servidores IBM que ejecutan Linux, crea en realidad una de las supercomputadoras Linux comerciales más grandes del mundo. La red se ajusta para dar almacenamiento a volúmenes de datos fluctuantes típicos de este negocio estacional. Royal Dutch/Shell Group afirma que la red ha permitido a la compañía reducir el tiempo de procesamiento de los datos sísmicos, a la vez que mejora la calidad de los resultados y ayuda a los científicos a identificar problemas en la búsqueda de nuevas reservas petroleras.

Procesadores multinúcleo Otra manera de reducir los requerimientos de energía y el crecimiento del hardware es por medio de los procesadores multinúcleo. Un procesador multinúcleo es un circuito integrado que contiene dos o más procesadores. En el pasado, los fabricantes de chips incrementaron la velocidad de los procesadores al aumentar su frecuencia, desde unos cuantos megahertz hasta los chips actuales que funcionan a frecuencias de gigahertz. Pero esta estrategia incrementó el calor y el consumo de energía hasta el punto de que los chips que corren a varios gigahertz requieren enfriamiento por agua.

Page 3: 1 Preguntadf

Los procesadores de doble núcleo combinan dos o más procesadores más lentos en un solo chip. Esta tecnología permite que dos motores de procesamiento con menores requerimientos de energía y de disipación de calor realicen tareas más rápido que un chip devorador de recursos con un solo núcleo de procesamiento. Intel y AMD fabrican actualmente microprocesadores de doble núcleo y están comenzando a introducir los procesadores de cuádruple núcleo. Sun Microsystems vende servidores que utilizan su procesador de ocho núcleos UltraSparc T1. El Instituto de Tecnología de Tokio utilizó procesadores de doble núcleo para crear la supercomputadora más grande de Japón. De haber utilizado procesadores de un solo núcleo habría requerido un centro de datos dos veces más grande que las instalaciones actuales del instituto y habría generado cerca del doble de calor. La implementación con doble núcleo requirió la mitad de servidores que la de un solo núcleo y su mantenimiento es menos costoso debido a que hay menos sistemas que vigilar.

Una de las formas de frenar la proliferación del hardware y el consumo de energía es aprovechar la virtualización para reducir la cantidad de computadoras necesarias para el procesamiento. La virtualización es el proceso de presentar un conjunto de recursos de cómputo (como la potencia de procesamiento o el almacenamiento de datos) de tal manera que se pueda acceder a todos sin ningún tipo de restricción por su configuración física o su ubicación geográfica. La virtualización de servidores permite a las empresas ejecutar más de un sistema operativo al mismo tiempo en

una sola máquina. La mayoría de los servidores operan a sólo 10 o 15 por ciento de su capacidad, y la virtualización puede aumentar las tasas de utilización de los servidores a 70 por ciento o más. Las tasas de utilización más altas se traducen en menos computadoras necesarias para procesar la misma cantidad de trabajo. Por ejemplo, los servidores del Denver Health and Hospital Authority se multiplicaron de 10 en 1996 a 220 en 2005, con tasas de utilización que promediaban menos de 20 por ciento, en tanto que 90 por ciento de los servidores ejecutaban una sola aplicación. Esta organización del cuidado de la salud recurrió a la virtualización para consolidar el trabajo