unidad2

20
Instituto Tecnológico de Chilpancingo Carrera: Ingeniería en informática Materia: Fundamentos de gestión de servicio de tecnología de información Docente: María Zavala Hurtado Alumno: Néstor Daniel Salazar Bautista Tema: Resumen de la segunda unidad No de control: 11520371

Upload: al-hatal-ndsb

Post on 10-Aug-2015

44 views

Category:

Education


2 download

TRANSCRIPT

Instituto Tecnológico de Chilpancingo

Carrera: Ingeniería en informática

Materia:

Fundamentos de gestión de servicio de tecnología de información

Docente: María Zavala Hurtado

Alumno:

Néstor Daniel Salazar Bautista

Tema:

Resumen de la segunda unidad

No de control: 11520371

5.1 INFRAESTRUCTURA DE TI

DEFINICIÓN DE LA INFRAESTRUCTURA DE TI

La infraestructura de TI consiste en un conjunto de dispositivos físicos y aplicaciones de

software que se requieren para operar toda la empresa. Sin embargo, la infraestructura de TI

también es un conjunto de servicios a lo largo y ancho de la empresa, presupuestados por la

administración y que abarcan capacidades tanto humanas como técnicas. Figura 1.1 explica

la infraestructura de TI y las capacidades de negocio.

Figura 1.1

Los servicios que una empresa es capaz de proveer a sus clientes, proveedores y empleados

son una función directa de su infraestructura de TI. En un plano ideal, esta infraestructura

debería apoyar la estrategia de negocios y sistemas de información de la empresa. Las nuevas

tecnologías de información tienen un potente impacto en las estrategias de negocios y de TI,

así como en los servicios que se pueden ofrecer a los clientes.

• Plataformas de cómputo que se utilizan para proporcionar servicios de cómputo que

conectan a empleados, clientes y proveedores dentro de un entorno digital coherente, el cual

incluye grandes mainframes, computadoras de escritorio y portátiles, así como asistentes

digitales personales (PDAs) y dispositivos para Internet.

• Servicios de telecomunicaciones que proporcionan conectividad de datos, voz y video a

empleados, clientes y proveedores.

• Servicios de administración de datos que almacenan y manejan datos corporativos y

proveen capacidades para analizar los datos.

• Servicios de software de aplicaciones que proporcionan capacidades a toda la empresa,

como sistemas de planeación de recursos empresariales, de administración de las relaciones

con el cliente, de administración de la cadena de suministro y de administración del

conocimiento, los cuales son compartidos por todas las unidades de negocios.

• Servicios de administración de instalaciones físicas que desarrollan y manejan las

instalaciones físicas requeridas por los servicios de cómputo, de telecomunicaciones y de

administración de datos.

• Servicios de administración de TI que planean y desarrollan la infraestructura, coordinan

los servicios de TI entre las unidades de negocios, manejan la contabilidad de los gastos en

TI y proporcionan servicios de administración de proyectos.

• Servicios de estándares de TI que dotan a la empresa y sus unidades de negocios

de las políticas que determinan cuál tecnología de información se utilizará, en qué

momento y de qué manera.

• Servicios de entrenamiento en TI que proporcionan a los empleados capacitación

en el uso de los sistemas y a los gerentes, capacitación sobre la manera de planificar

y manejar las inversiones en TI.

• Servicios de investigación y desarrollo de TI que proporcionan a la empresa investigación

sobre proyectos e inversiones de TI potenciales que podrían ayudar a la empresa a

diferenciarse en el mercado.

EVOLUCIÓN DE LA INFRAESTRUCTURA DE TI: 1950-2007

Existen cinco etapas en la evolución de la infraestructura de TI. En su etapa más temprana,

la infraestructura de TI consistía de máquinas de contabilidad electrónicas especializadas que

eran computadoras con elementos básicos y se utilizaban para tareas contables. La

infraestructura de TI en la era de los mainframes

(1959 a la fecha) consistía en un mainframe que ejecutaba procesamiento centralizado y

podía estar conectado mediante una red a miles de terminales, y quizá a un tipo de

computación descentralizada y departamentalizada por medio de minicomputadoras

conectadas en red. La era de la computadora personal (1981 a la fecha) en la infraestructura

de TI ha estado dominada por el uso generalizado de computadoras de escritorio

independientes con herramientas de productividad de oficina. La infraestructura

predominante en la era cliente/servidor (1983 a la fecha) consiste en clientes de escritorio o

portátiles conectados en red a computadoras con servidores más potentes que manejan la

mayor parte de la administración y el procesamiento de los datos. La era de la computación

empresarial en Internet (1992 a la fecha) está definida por grandes cantidades de PCs

enlazadas en redes de área local y por el creciente uso de estándares y software para enlazar

redes y dispositivos diferentes conectados a una red de área empresarial con la finalidad de

que la información pueda fluir libremente a través de la organización.

IMPULSORES TECNOLÓGICOS DE LA EVOLUCIÓN

DE LA INFRAESTRUCTURA

Los cambios en la infraestructura de TI que acabamos de describir han sido resultado de los

desarrollos en el procesamiento de las computadoras, los chips de memoria, los dispositivos

de almacenamiento, el hardware y el software de telecomunicaciones y de conectividad de

redes, así como en el diseño del software, que en conjunto han incrementado

exponencialmente la potencia de cómputo al mismo tiempo que han reducido también

exponencialmente los costos. Demos un vistazo a los desarrollos más importantes.

La ley de Moore y la potencia de micro procesamiento.

En 1965, Gordon Moore, director de los Laboratorios de Investigación y Desarrollo de

Fairchild Semiconductor, uno de los primeros fabricantes de circuitos integrados, escribió en

Electronics Magazine que desde la aparición del primer chip de microprocesador en 1959,

se había duplicado cada año la cantidad de componentes en un chip con los costos de

manufactura más bajos por componente (por lo general, transistores). Esta afirmación se

convirtió en el fundamento de la ley de Moore.

Posteriormente, esta ley sería interpretada de diversas maneras. Existen al menos tres

variaciones de la ley de Moore, ninguna de las cuales fue enunciada por Moore: (1) la

potencia de los microprocesadores se duplica cada 18 meses (Gates, 1997); (2) la

potencia de cómputo se duplica cada 18 meses, y (3) el precio de la computación

se reduce a la mitad cada 18 meses.

La ley del almacenamiento digital masivo

Un segundo impulsor tecnológico del cambio en la infraestructura de TI es la ley del

almacenamiento digital masivo. En el mundo se producen alrededor de 5 exabytes de

información exclusiva cada año (un exabyte equivale a mil millones de gigabytes o 1018

bytes). La cantidad de información digital se duplica más o menos cada año (Lyman y Varian,

2003). Casi la totalidad de este crecimiento se da en el almacenamiento magnético de datos

digitales, en tanto que los documentos impresos representan únicamente el 0.003 por ciento

del crecimiento anual.

Las leyes de Moore y del almacenamiento masivo nos ayudan a entender por qué es tan fácil

acceder ahora a los recursos de cómputo.

Ley de Metcalfe y la economía de redes

Robert Metcalfe —inventor de la tecnología para las LAN Ethernet— afirmó en1970 que el

valor o potencia de una red crece exponencialmente como una función de la cantidad de

miembros de la red. Metcalfe y otros señalan los retornos crecientes a escala que reciben los

miembros de la red conforme más y más gente se une a la red. A medida que los miembros

de una red aumentan linealmente, el valor total del sistema aumenta exponencialmente y

continúa creciendo siempre conforme se incrementan los miembros. La demanda de

tecnología de información ha sido impulsada por el valor social y de negocios de las redes

digitales, las cuales multiplican rápidamente el número de enlaces reales y potenciales entre

los miembros de la red.

Reducción de los costos de las comunicaciones y crecimiento de Internet

Un cuarto impulsor tecnológico que transforma la infraestructura de TI es la rápida reducción

en los costos de la comunicación y el crecimiento exponencial del tamaño de Internet. Una

de las razones del crecimiento en la población de Internet es la rápida reducción de los costos

de la conexión a Internet y de las comunicaciones en general. El costo por kilobit del acceso

a Internet ha disminuido exponencialmente desde 1995. En la actualidad, la Línea Digital de

Suscriptor (DSL) y los módems de cable transmiten un kilobit de comunicación por un precio

al detalle menor a 2 centavos de dólar.

Estándares y sus efectos en las redes

La infraestructura empresarial y la computación por Internet actualmente no serían posibles

—tanto ahora como a futuro— sin acuerdos entre fabricantes sobre estándares tecnológicos

y la aceptación generalizada de éstos por parte de los consumidores. Los estándares

tecnológicos son especificaciones que establecen la compatibilidad de productos y su

capacidad para comunicarse en una red (Stango, 2004). Los estándares tecnológicos

propician el desarrollo de poderosas economías de escala y dan como resultado

disminuciones de precios a medida que los fabricantes se enfocan en la elaboración de

productos apegados a un solo estándar. Sin estas economías de escala, la computación de

cualquier tipo sería mucho más costosa de lo que actualmente es.

5.2 COMPONENTES DE LA INFRAESTRUCTURA

La infraestructura de TI está conformada por siete componentes principales.

PLATAFORMAS DE SOFTWARE DE CÓMPUTO:

En el nivel del cliente, 95 por ciento de las PCs y 45 por ciento de los dispositivos portátiles

utilizan alguno de los sistemas operativos de Microsoft Windows. En contraste, en el

mercado de servidores, más de 85 por ciento de los servidores corporativos de Estados

Unidos utilizan alguno de los sistemas operativos Unix o Linux. Estos ultimos constituyen

la columna vertebral de la infraestructura de muchas corporaciones de todo el mundo porque

son escalables, confiables y mucho más económicos que los sistemas operativos para

mainframes. Los principales proveedores de los sistemas operativos Unix son IBM, HP y

Sun, Aunque Windows continúa dominando el mercado de las computadoras cliente, muchas

corporaciones han comenzado a explorar Linux como un sistema operativo de escritorio de

bajo costo ofrecido por distribuidores comerciales como Red Hat. El software de código

abierto en esencia se trata de software creado y actualizado por una comunidad mundial de

programadores y está disponible de manera gratuita.

Aplicaciones de software empresarial:

Aparte del software de aplicaciones utilizado por unidades de negocios o grupos específicos,

las empresas de Estados Unidos gastaron durante 2005 alrededor de 297,000 millones de

dólares en software. Los proveedores más importantes de software de aplicaciones

empresariales son SAP y Oracle. En esta categoría también se incluye el software middleware

proporcionado por fabricantes como BEA, el cual se utiliza para lograr la integración de los

sistemas de aplicaciones existentes en toda la empresa. Microsoft está tratando de llegar a los

extremos inferiores de este mercado enfocándose en las empresas pequeñas y en las de

tamaño mediano. En general, la mayoría de las grandes empresas de Fortune 500 han

implementado aplicaciones empresariales y han establecido relaciones de largo plazo con sus

proveedores.

ADMINISTRACIÓN Y ALMACENAMIENTO DE DATOS

Los proveedores líderes de software de bases de datos son IBM (DB2), Oracle, Microsoft

(SQL Server) y Sybase (Adaptive Server Enterprise). Un nuevo participante en crecimiento

es MySQL, un producto de base de datos relacional con código abierto de Linux, disponible

de manera gratuita en Internet y cada vez más soportado por HP y otros fabricantes. Las

redes de área de almacenamiento (SANs) conectan a múltiples dispositivos de

almacenamiento en una red de alta velocidad independiente dedicada a tareas de

almacenamiento. La SAN crea un enorme depósito central de almacenamiento al cual pueden

acceder rápidamente y compartirlo múltiples servidores.

PLATAFORMAS DE CONECTIVIDAD DE REDES Y TELECOMUNICACIONES

Windows Server se utiliza de manera predominante como el sistema operativo para redes de

área local, seguido por Novell, Linux y Unix. Las grandes redes de área empresarial utilizan

principalmente alguna variante de Unix. Casi todas las redes de área local, al igual que las

redes empresariales de área amplia, utilizan como estándar el conjunto de

protocolos TCP/IP. Los proveedores líderes de hardware de conectividad de redes

son Cisco, Lucent, Nortel y Juniper Networks. Entre los proveedores líderes de

servicios de telecomunicaciones están MCI, AT&T y compañías telefónicas

regionales como Verizon.

PLATAFORMAS DE INTERNET

Las principales herramientas de desarrollo de aplicaciones y conjuntos de programas de

software para Web son proporcionadas por Microsoft (FrontPage y la familia de herramientas

de desarrollo Microsoft .NET utilizada para crear sitios Web que emplean Active Server

Pages para el contenido dinámico), la línea de herramientas de administración de Internet

WebSphere de IBM, Sun (el Java de Sun es la herramienta más ampliamente utilizada para

el desarrollo de aplicaciones Web interactivas tanto en el servidor como en el cliente) y una

gran cantidad de desarrolladores de software independientes, como Macromedia/Adobe

(Flash), software de medios (Real Media) y herramientas de texto (Adobe Acrobat).

SERVICIOS DE CONSULTORÍA E INTEGRACIÓN DE SISTEMAS

La implementación de nueva infraestructura requiere cambios significativos en los procesos

y procedimientos de negocios, capacitación y entrenamiento, así como integración del

software. La integración de software significa asegurar que la nueva infraestructura funcione

con los antiguos sistemas heredados de la empresa y garantizar que los nuevos elementos de

la infraestructura funcionen entre sí. Por lo general, los sistemas heredados son antiguos

sistemas de procesamiento de transacciones creados para computadores mainframe que

continúan utilizándose para evitar el alto costo de reemplazarlos o rediseñarlos.

5.3 TENDENCIAS DE LAS PLATAFORMAS DE HARDWARE Y

TECNOLOGÍAS EMERGENTES

Las empresas enfrentan otros retos numerosos. Necesitan integrar la información almacenada

en diferentes aplicaciones de diferentes plataformas (teléfono, sistemas heredados, intranet,

sitios de Internet, computadoras de escritorio, dispositivos móviles).

Las empresas también requieren construir infraestructuras flexibles que puedan resistir

grandes variaciones en las cargas máximas de energía y ataques constantes de hackers y virus,

tratando al mismo tiempo de conservar la continuidad de la energía eléctrica.

LA INTEGRACIÓN DE LAS PLATAFORMAS DE CÓMPUTO Y

TELECOMUNICACIONES

Los niveles de convergencia: En el nivel del cliente, los dispositivos de comunicaciones

como los teléfonos celulares están asumiendo las funciones de computadoras de mano, en

tanto que éstas están haciendo las funciones de teléfonos celulares. Al nivel del servidor y la

red, el creciente éxito de los sistemas telefónicos por Internet (ahora el tipo de servicio

telefónico de más rápido crecimiento) demuestra cómo las plataformas de

telecomunicaciones y de cómputo, históricamente separadas, están convergiendo hacia una

sola red: Internet.

COMPUTACIÓN DISTRIBUIDA

La computación distribuida implica conectar en una sola red computadoras que

se encuentran en ubicaciones remotas para crear una supercomputadora virtual al

combinar la potencia de cómputo de todas las computadoras de la red. La

computación distribuida requiere programas de software para controlar y asignar

recursos en la red, como el software de código abierto proporcionado por Globus

Alliance (www.globus.org) o por proveedores privados. El software del cliente se comunica

con una aplicación de software del servidor. El software del servidor divide los datos y el

código de las aplicaciones en fragmentos que a continuación se distribuyen a las máquinas

de la red. Las máquinas cliente pueden ejecutar sus tareas tradicionales y correr al mismo

tiempo las aplicaciones de la red en segundo plano. En la imagen 2.1 se muestra un ejemplo

de computación distribuida.

Imagen 2.1

COMPUTACIÓN BAJO DEMANDA (COMPUTACIÓN TIPO SERVICIO

PÚBLICO)

La computación bajo demanda se refiere a las empresas que satisfacen el exceso de

demanda de potencia de cómputo a través de centros remotos de procesamiento de datos a

gran escala. De esta manera, las empresas pueden reducir sus inversiones en infraestructura

de TI e invertir únicamente lo necesario para manejar las cargas promedio de procesamiento

y pagar solamente por la potencia de cómputo adicional que demande el mercado. Otro

término para la computación bajo demanda es computación tipo servicio público, el cual

sugiere que las empresas compran capacidad de cómputo a compañías de servicios de

cómputo centrales y pagan solamente por la cantidad de capacidad de cómputo que utilizan,

de la misma manera que lo harían por la electricidad. IBM, HP, Oracle y Sun Microsystems

ofrecen servicios de computación bajo demanda.

COMPUTACIÓN AUTÓNOMA Y COMPUTACIÓN DE VANGUARDIA

La computación autónoma es una iniciativa de toda la industria para desarrollar sistemas

que puedan autoconfigurarse, optimizarse y afinarse a sí mismos, autorrepararse cuando se

descompongan, y autoprotegerse de intrusos externos y de la autodestrucción.

La computación de vanguardia es un esquema multicapa, de balanceo de carga para

aplicaciones basadas en la Web en el cual partes significativas del contenido, la lógica y el

procesamiento del sitio Web son ejecutados por servidores más pequeños y más económicos,

localizados cerca del usuario con la finalidad de incrementar el tiempo de respuesta y la

resistencia y, a la vez, reducir los costos de la tecnología. En este sentido, la computación de

vanguardia, al igual que la computación distribuida y la computación bajo

demanda, es una técnica que utiliza Internet para compartir la carga de trabajo de

una empresa a través de muchas computadoras localizadas en puntos remotos de la

red. En la figura 1.2 se muestra como la computacion va a la vanguardia.

figura 1.2

VIRTUALIZACIÓN Y PROCESADORES MULTINÚCLEO

La virtualización es el proceso de presentar un conjunto de recursos de cómputo (como la

potencia de procesamiento o el almacenamiento de datos) de tal manera que se pueda acceder

a todos sin ningún tipo de restricción por su configuración física o su ubicación geográfica.

La virtualización de servidores permite a las empresas ejecutar más de un sistema operativo

al mismo tiempo en una sola máquina. El software de virtualización de servidores se ejecuta

entre el sistema operativo y el hardware, ocultando a los usuarios los recursos de los

servidores, como la cantidad e identidad de los servidores físicos, los procesadores y los

sistemas operativos. La virtualización también facilita centralizar la administración del

hardware.

Un procesador multinúcleo es un circuito integrado que contiene dos o más procesadores.

En el pasado, los fabricantes de chips incrementaron la velocidad de los procesadores al

aumentar su frecuencia, desde unos cuantos megahertz hasta los chips actuales que funcionan

a frecuencias de gigahertz. Los procesadores de doble núcleo combinan dos o más

procesadores más lentos en un solo chip. Esta tecnología permite que dos motores de

procesamiento con menores requerimientos de energía y de disipación de calor realicen tareas

más rápido que un chip devorador de recursos con un solo núcleo de procesamiento.

5.4TENDENCIAS DE LAS PLATAFORMAS DE SOFTWARE Y

TECNOLOGÍAS EMERGENTES

EL SURGIMIENTO DE LINUX Y EL SOFTWARE DE CÓDIGO ABIERTO

El software de código abierto es software producido por una comunidad de cientos de miles

de programadores de todo el mundo. Según la principal asociación de profesionales del

código abierto, OpenSource.org, el software de código abierto es gratuito y puede ser

modificado por los usuarios. Los trabajos derivados del código original también deben ser

gratuitos, y el software puede ser redistribuido por el usuario sin necesidad de

licencias adicionales. Por definición, el software de código abierto no se limita a

ningún sistema operativo específico ni tecnología de hardware, aunque la mayor

parte del software de código abierto se basa actualmente en los sistemas operativos

Linux o Unix.

Linux fue creado por el programador finlandés Linus Torvalds y colocado por primera vez

en Internet en agosto de 1991. En la actualidad, Linux es el sistema operativo para clientes y

servidores de más rápido crecimiento en el mundo. Linux es el sistema operativo de

servidores de LAN de más rápido crecimiento, con una participación de mercado actual de

23 por ciento, muy superior al 1 por ciento que tenía en 1998. IBM, HP, Intel, Dell y Sun han

hecho de Linux una parte central de sus ofertas a las corporaciones. Más de dos docenas de

países de Asia, Europa y América Latina.

El surgimiento del software de código abierto, particularmente Linux y las aplicaciones que

soporta, tiene profundas implicaciones para las plataformas de software corporativas:

reducción de costos, confiabilidad y resistencia, e integración, puesto que Linux funciona en

todas las plataformas de software principales, desde mainframes hasta servidores y clientes.

JAVA ESTÁ EN TODAS PARTES

Java es un lenguaje de programación orientado a objetos independiente del sistema operativo

y del procesador que se ha convertido en el entorno de programación interactivo líder para la

Web. Si un objeto se desplaza en la Web o recopila información del usuario, es probable que

un applet de Java esté detrás de él. Java fue creado en 1992 por James Goslin y el Green

Team de Sun Microsystems como un entorno de programación para soportar la transmisión

de contenido interactivode televisión por cable. El software de Java está diseñado para

ejecutarse en cualquier computadora o dispositivo de cómputo, independientemente del

microprocesador específico o el sistema operativo que utilice el dispositivo. Un navegador

Web es una herramienta de software fácil de usar, con una interfaz gráfica de usuario que

despliega páginas Web y permite el acceso a la Web y a otros recursos de Internet. Algunos

ejemplos de navegadores son Microsoft Internet Explorer, Mozilla Firefox y Netscape

Navigator.

SOFTWARE PARA LA INTEGRACIÓN EMPRESARIAL

La integración de las aplicaciones de software heredado existentes con las nuevas

aplicaciones basadas en la Web para conformar un solo sistema coherente que se pueda

manejar de manera racional. Parte de la integración de las aplicaciones heredadas se puede

conseguir por medio de software especial denominado middleware, con el cual se crea una

interfaz o puente entre dos sistemas distintos. El middleware es software que conecta dos

aplicaciones independientes para que puedan comunicarse entre sí e intercambiar datos.

Las empresas podrían optar por escribir su propio software para conectar una aplicación con

otra, pero cada vez compran más paquetes de software de integración de aplicaciones

empresariales (EAI) para conectar aplicaciones independientes o grupos de aplicaciones.

Este software permite que muchos sistemas intercambien datos por medio de un solo centro

de software en lugar de construir incontables interfaces de software personalizadas

para enlazar cada sistema.

Ser vicios Web y arquitectura orientada a ser vicios (SOA)

Los servicios Web buscan ofrecer una alternativa estandarizada para lidiar con

problemas de integración como los anteriores por medio de la creación de un entorno de

comunicaciones independiente del proveedor.

Los servicios Web se refieren a un conjunto de componentes de software ligeramente

acoplados que intercambian información entre sí por medio de estándares y lenguajes de

comunicación para la Web.

La tecnología que sustenta los servicios Web es XML, que significa Lenguaje de Marcación

Extensible. Este lenguaje fue desarrollado en 1996 por el World Wide Web Consortium

(W3C, el organismo internacional que supervisa el desarrollo de la Web) como un lenguaje

de marcación más potente y flexible para páginas Web que el Lenguaje de Marcación de

Hipertexto. El Lenguaje de Marcación de Hipertexto (HTML) es un lenguaje de descripción

de páginas para especificar la manera en que el texto, las imágenes, el video y el sonido se

colocan en el documento de una página Web. HTML se limita a describir la manera en que

se deben presentar los datos en forma de páginas Web, XML puede ejecutar la presentación,

comunicación y almacenamiento de los datos.

Los servicios Web se comunican por medio de mensajes XML sobre protocolos Web

estándar. SOAP, que significa Protocolo Simple de Acceso a Objetos, es un conjunto de

reglas para estructurar mensajes que permite a las aplicaciones pasarse datos e instrucciones

entre sí. WDSL significa Lenguaje de Descripción de Servicios Web; es un marco de trabajo

común para describir las tareas realizadas por un servicio Web y los comandos y datos que

aceptará y que podrán ser utilizados por otras aplicaciones. UDDI, que significa Descripción,

Descubrimiento e Integración

Universal, permite que un servicio Web se enliste en un directorio de servicios Web con el

fin de que pueda localizarse fácilmente.

El conjunto de servicios Web que se utiliza para construir los sistemas de software de una

empresa constituye lo que se conoce como arquitectura orientada a servicios. Una

arquitectura orientada a servicios (SOA) es un conjunto de servicios independientes que se

comunican entre sí para crear una aplicación de software funcional.

AJAX, MASHUPS, WEB 2.0 Y APLICACIONES DE SOFTWARE BASADAS EN

LA WEB

Ajax es una nueva técnica de software que evita todas estas inconveniencias y hace más

transparente la experiencia del usuario. Ajax (JavaScript y XML asíncronos) es una técnica

para permitir que su cliente y el servidor con el que está trabajando sostengan una

conversación en segundo plano, y que la información que usted introduzca se transfiera al

servidor al instante sin que usted lo note.

En menor medida, los empresarios emprendedores están creando nuevas aplicaciones y

servicios de software con base en la combinación de diferentes aplicaciones de software en

línea. Denominadas mashups (aplicaciones Web híbridas), estas nuevas aplicaciones

combinadas dependen de redes de datos de alta velocidad, estándares de comunicaciones

universales y código abierto. El propósito es tomar diferentes recursos y producir un nuevo

trabajo que sea “mayor que” la suma de sus partes.

Parte de un movimiento llamado Web 2.0, y al igual que los mashups musicales,

los mashups de la Web combinan las capacidades de dos o más aplicaciones en

línea para crear un tipo de híbrido que proporciona más valor al cliente que los

recursos originales por sí solos.

SUBCONTRATACIÓN DE SOFTWARE

En la actualidad, la mayoría de las empresas continúan operando sus sistemas heredados, los

cuales aún satisfacen una necesidad de negocios y cuyo reemplazo sería extremadamente

costoso. Pero adquirirán de fuentes externas la mayoría de sus nuevas aplicaciones de

software.

Cambio de las fuentes de software

En el pasado, la mayor parte de este software era desarrollado dentro de las empresas por

equipos de programadores. A pesar de que las empresas aún conservan grandes grupos de

personas de TI, ya no se enfocan exclusivamente en la creación del software. En 2006 las

empresas encargaron cerca de la tercera parte del desarrollo de software a desarrolladores

externos, incluyendo empresas de software empresarial que les venderían soluciones

comerciales personalizadas a sus necesidades.

Paquetes de software y software empresarial

Un paquete de software es un conjunto de programas de software escritos con anticipación,

disponible comercialmente, que libera a una empresa de la necesidad de escribir sus propios

programas de software para funciones específicas, como el procesamiento de la nómina o el

manejo de pedidos.

Los proveedores de software de aplicaciones empresariales como SAP y Oracle- PeopleSoft

han desarrollado potentes paquetes de software que pueden apoyar los procesos de negocios

principales de cualquier empresa del mundo, desde almacenamiento de datos, administración

de las relaciones con el cliente, administración de la cadena de suministro y finanzas, hasta

recursos humanos

Proveedores de ser vicios de aplicaciones

Una segunda fuente externa de software la constituyen los proveedores de servicios de

aplicaciones en línea. Un proveedor de servicios de aplicaciones (ASP) es una empresa que

distribuye y administra aplicaciones y servicios de cómputo a múltiples usuarios, desde

centros de cómputo remotos, a través de Internet o de una red privada. En lugar de comprar

e instalar programas de software, las empresas suscriptoras pueden rentar las mismas

funciones a estos servicios. Los usuarios pagan por el uso de este software, ya sea a través de

una suscripción o por cada transacción.

La solución del ASP combina las aplicaciones de software comerciales y todo el hardware

relacionado, el software del sistema, la red y otros servicios de infraestructura que de otra

manera el cliente tendría que comprar, integrar y administrar de manera independiente.

Subcontratación de software

Una tercera fuente externa de software es la subcontratación, en la cual una empresa

contrata el desarrollo de software personalizado o el mantenimiento de programas heredados

existentes con empresas externas, las cuales con frecuencia operan en regiones del

mundo donde se pagan salarios bajos. La subcontratación le dio acceso a la

compañía a especialistas en tecnología altamente capacitados de los cuales no

disponía de manera interna.

Video Inteligencia de negocio – Innovando la empresa

La realidad de hoy… en la actualidad casi en su totalidad las empresas pequeñas, medianas

o grandes, están automatizados por software. Grandes cantidades de datos son

“transacciones” dentro de este software para luego ser consultada, al menos por un tiempo

prudencial.

¿Porque nace la inteligencia de negocios? Para aplicar los principios básico de la empresa y

para que el trabajo de los trabajadores sea mucho más objetivo, fácil y accesible con

herramientas de TI. Con la ayuda de la tecnología posibilitamos realizar tareas repetitivas de

forma automatizada. La misión de TI siempre será brindar y custodiar datos e información

para que nuestros usuarios puedan hacer su trabajo y tomar decisiones.

Historia de Business Intelligence:

En los 80: cuando algunas empresas pudieron tener acceso a SGBD y DASD. El concepto

inteligencia de datos también comenzó.

En los 90 el panorama cambio, las grandes empresas poseían su centro de información.

Suplían de cierta forma información a los ejecutivos y responsables de toma de decisiones.

Entre 1992 y 1993 nace el concepto y artefacto DataWarehouse, que es un elemento

fundamental y clave en proyectos de inteligencia de negocios.

En 1996 el concepto BI fue comparado con EIS y DSS.

En la actualidad hay una discusión por el concepto de inteligencia de negocios entre los

europeos y los americanos.

Gurus del BI: Bill Inmon y Ralph Kimball. Padres actuales de BI.

¿Qué son datos históricos? Son los hechos que se suscitaron en algún periodo de tiempo

pasado, que tiene validez y que representan un momento en el tiempo. Bajo un contexto

cuentan historias.

Los elementos base para hacer BI son los datos es la historia.

DATOS: son un conjunto discreto de valores cualitativos o cuantitativos que por sí mismos

no dicen el porqué de las cosas.

INFORMACION: son un conjunto de datos pero que han sido procesados y bajo un contexto

determinado tiene sentido.

CONOCIMIENTO: es la mezcla entre experiencias, valores e información de un contexto

determinado cuando la información de comparar, se ubica su origen, se conversa con otros

entonces genera conocimiento.

Definición de Business Intelligence: es una estrategia empresarial que persigue incrementar

el rendimiento de la empresa o la competitividad del negocio, a través de la organización

inteligente de sus datos históricos (transacciones u operaciones diarias) usualmente

residiendo en DataWarehouse corporativos o Data Marts departamentales.

Es la habilidad de transformar datos históricos en información y la información en

conocimiento de tal forma que se pueda optimizar los procesos de toma de

decisiones.

Beneficios para la empresa:

Dar uso a su activo lógico histórico, los datos.

La empresa podrá valorar elementos importantes, producto del estudio de sus datos,

para la toma de daciones en las diferentes unidades de negocio. Podrá implementar

reglas y planes de acción.

La empresa podrá volverse más competitiva frente a un mercado cambiante y

globalizado, puesto que tendrá herramientas estadísticas reales basadas en su realidad.

Elementos de Business Intelligence:

Sistemas OLTP: corresponde a todas aquellas aplicaciones de la empresa donde se registran

datos o transacciones de algún área del negocio. Las bases de datos OLTP están pensados

para operar con transacciones atómicas, es decir fueron diseñados para registrar y consultar

pequeñas cantidades de datos.

ETL: extracción, transformación y carga de datos. Son procesos que permiten a las empresas

mover datos desde múltiple orígenes de datos sean estos homogéneos o no, limpiarlos

reformatearlos y cargarlos en una nueva base de datos.

Data mart: Es una BD des normalizada o al menos levenete normalizada (en el caso de copo

de nieve) debido a que la normalización ofrece separación de datos repetitivos. Posee un

esquema que puede ser copo de nieve o tipo estrella.

Data Warehouse: Se define como una BD corporativa que se caracteriza por ser integrada,

temática, histórica y no volátil; sobre la cual posteriormente podemos realizar análisis desde

diferentes perspectivas y con grandes velocidades de respuesta.

Cubo OLAP: son base de datos orientados al procesamiento analítico. Lo que indica lectura

de grandes cantidades de datos. Hay tres tipos de cubos MOLAP, ROLAP Y HOLAP.

Dimensión: se refiere a las perspectivas mediante las cuales podemos analizar los datos.

Medida: se refiere a los elementos numéricos en si, que tengo para realizar el análisis.

Jerarquías: se refiere a los niveles de agrupación bajo los cuales puedo analizar los datos.

KPI: Indicador Clave de Desempeño se trata de métricas que se utilizan para cuantificar

resultados de una determinada acción o estrategia en función de unos objetivos previamente

definidos. Debe ser mediable, alcanzable, relevante y coherente con el tiempo.

Dashboard: el término en si se refiere al tablero de un automóvil, el cual permite al conductor

de forma permanente la revisión de información del estado del vehículo. Es una herramienta

que permite en tiempo real el acceso a información previamente cuantificada para

que esta sea analizada de forma rápida y permita tomar decisiones online.

Explorar el contenido de DW/DM: Data mining son técnicas y tecnologías que

permite mediante prácticas estadísticas explorar el DW con el fin de encontrar

patrones repetitivos, tendencias o reglas que expliquen comportamiento de los datos en un

determinado contexto.

Va dirigido a todos los mandos medios, que entienden los objetivos y un efecto cascada los

hacen conocer a sus subalternos y los mandos gerenciales son nuestros target.

En la actualidad existen varias herramientas en el mercado las hay Open y también de paga.

Cada herramienta contiene una serie de elementos que la hacen competitiva frente a las otras,

de igual forma sus ventajas y desventajas; la selección de algunas de ellas dependerá de sus

necesidades y presupuestos.

Las empresas necesitan innovadores, nuevos coneceptos nuevas ideas productos con el fin

de incrementar productividad.

INTELIGENCIA DE NEGOCIOS: ESTADO DEL ARTE

La Inteligencia de Negocios BI (Business Intelligence) es una herramienta bajo la cual

diferentes tipos de organizaciones, pueden soportar la toma de decisiones basadas en

información precisa y oportuna; garantizando la generación del conocimiento necesario que

permita escoger la alternativa que sea más conveniente para el éxito de la empresa. La

investigación comienza con la definición y aplicaciones de BI; además se muestran trabajos

relevantes en algunas de las herramientas para hacer BI, como son Data Warehouse (Bodega

de Datos), Olap (Cubos Procesamiento Analítico en Línea), Balance Scorecard (Cuadro de

Mando) y Data Mining (Minería de Datos).

El cuadro de mando integral (Balanced Scorecard) es una herramienta que permite alinear

los objetivos de las diferentes áreas o unidades con la estrategia de la empresa y seguir su

evolución.

Agile BI Governance establece 4 valores básicos, pero dependiendo de cada organización

puede incluir los que vayan en relación con su propia estrategia.

Adaptabilidad Continúa. La incertidumbre y el cambio continuo son el estado natural de los

sistemas de toma de decisiones, pero parece ser que muchas organizaciones aún no son

conscientes de ellos. En este tipo de proyectos siempre se está cambiando el punto de vista

analítico.

Trabajo Conjunto. El usuario operativo del software ha de ser parte activa dentro de los

grupos de IT que desarrollan los sistemas de BI.

Jerarquías Flexibles. Los grupos de trabajo dentro del Agile BI Governance deberán estar

estructurados con jerarquías flexibles que fomenten el intercambio de información.

Personas Antes que Procesos. Priorizar la entrega de la información a las personas que

controlan los procesos y no tanto en definir los procesos que han de controlar las personas.

Business Intelligence competir con información

Definición de BI: es un proceso interactivo para explorar y analizar información

estructurada sobre un área, para descubrir tendencias o patrones a partir de las

cuales derivar ideas y extraer conclusiones. Mejora la toma de decisiones. El

proceso de BI incluye la comunicación de los descubrimientos y efectuar los

cambiaos.

El momento adecuado para utilizar BI es mediante el uso de tecnologías y las metodologías

de BI pretendemos convertir datos en información y a partir de la información ser capaces de

descubrir conocimiento. Es decir al inicio de un análisis y lo que dure el proceso de análisis.

Las políticas de BI van dirigida a cualquier organización que cuente con información lista

para ser procesada y analizada para darle solución a cierto problema.

Los benéficos que aporta la aplicación de BI a su negocio son:

- Beneficios tangibles: reducción de costes, generación de ingresos, reducción de

tiempos para las distintas actividades del negocio.

- Beneficios intangibles: el hecho de que tengamos disponible la información para

la toma de decisiones hará que más usuarios la utilicen.

- Beneficios estratégicos: todos aquellos que nos facilitan la formulación de la

estrategia, es decir, aquellos clientes, mercados o con que productos dirigirnos..

Podemos unificar la información qie proviene de distintos entornos los primero es reunir la

información en un mismo entorno, de forma más concreta en una BD que a la que llamaremos

DataWarehouse donde copiaremos los registros. Realizamos una copia de la información

para poder trabajar con ella sin afectar a los sistemas de información transaccionales.

Eficiencia y transformación de los procesos de negocio a través del uso de

TI. Thompson, RJ y Redstone, L (1997) definen un proceso como una serie de actividades

interconectadas en busca de un propósito. En un contexto de negocios, el propósito de los

procesos será proveer a sus clientes internos con sus requerimientos de una manera oportuna.

La automatización de procesos y de TI persigue crear la empresa agil. Mejora la calidad de

las cadenas de procesos de una organización y la gobernabilidad de dichos procesos y de los

sistemas de TI sobre los que se asientan. Se mejora así la eficacia, eficiencia y calidad de

estos procesos, apoyando tres estrategias clave: intimidad con el cliente, liderazgo de

productos y excelencia operativa.

Para esto en necesario establecer los objetivos de mejoramiento de la empresa. A partir de

los objetivos estratégicos de mejoramiento fijados y la matriz FODA (Debilidades,

Amenazas, Fortaleza y Oportunidades). Que fija el marco estratégico de la empresa, deben

determinarse los procesos clave, O sea aquellos cuyo mejoramiento determinara el alcance

de tales objetivos.

Las organizaciones se apoyan a sus procesos de negocio para ser guiados en este complejo

escenario. No obstante, en muchas organizaciones, dada la complejidad del mismo, existe

una importante diferencia entre los procesos que deberían estar implantados y los procesos

que se encuentran operando el negocio en realidad. El enlace entre procesos de negocio y

generación de valor lleva a algunos practicantes a ver a los procesos de negocio como flujos

de trabajo que se efectúa las tareas de una organización. Para que nuestro análisis de procesos

tenga éxito, debe contener toda una estructura realista de lo que sucede realmente en los

procesos. Para determinar las oportunidades que tiene la empresa por mejorar y

emprender la mejor alineación hacia la cadena de valor posible.

Importancia de la alineación estratégica de los procesos de

negocio y los servicios de TI.

La Planeación Estratégica (PE) es el proceso cuyo objetivo principal es proyectar el futuro

deseado de una organización, así como los medios efectivos para lograrlo; regularmente estos

medios se traducen en objetivos estratégicos que son impulsados por iniciativas o proyectos.

Ahora bien, en el caso del área de tecnologías de información, que actualmente juega el papel

de socio estratégico, es necesario clarificar de qué manera contribuye al logro de los objetivos

de la organización, para lo cual se establece el proceso de PE de Tecnologías de Información

(TI), cuyo entregable es el Plan Estratégico de Tecnologías de Información y

Comunicaciones (PETIC), este proceso permite: formular el plan estratégico de TI alineado

al plan estratégico organizacional para alcanzar los objetivos institucionales, diseñar el

portafolio de proyectos y servicios de TI, así como diseñar los planes tácticos y operativos

de TI.

Las estrategias de TI deben ser revisadas y actualizadas periódicamente.

Deben existir mecanismos de seguimiento y evaluación para medir el nivel de consecución

de los objetivos de TI establecidos en el plan.

Cómo las TI actuales y emergentes pueden logran hacer eficientes los

procesos de negocio y apoyar a la generación y operación de las

estrategias de negocio.

Las TICs agregan valor a las actividades operacionales y de gestión empresarial en general

y permite a las empresas obtener ventajas competitivas, permanecer en el mercado y centrarse

en su negocio. La tecnología es importante e indispensable si se quiere sobrevivir en este

mundo altamente competitivo sobre todo si tu giro de negocios tiene que ver con los sistemas

y las Tecnologías de la información. Se sabe que la infraestructura de la información

proporciona fundamentos, dar servicio al cliente, actuar con los proveedores y manejar

procesos de negocios dentro de la empresa. Incluye inversiones de hardware, software y

servicios como (consultoría, entrenamiento y capacitación) que se comprante en toda

empresa o de todas las unidades de negocio de la empresa.

Los sistemas de información automatizan muchos pasos en los procesos de negocio que antes

se hacían de manera manual, como verificar el crédito de un cliente o generar una factura y

una orden de compra. Sin embargo en la actualidad la tecnología de información puede hacer

mucho más. La nueva tecnología puede cambiar realmente el flujo de la información,

remplazar tareas secuenciales con tareas que se pueden realizar de manera simultánea y

eliminando los atrasados en la toma de decisiones. En otras palabras la información puede

hacer posible procesos de negocio completamente nuevos, incluso puede cambiar la forma

de realizar los negocios e impulsar modelos de negocios completamente nuevos.

Fuentes de información:

http://www.gestiopolis.com/operaciones/reingenieria-de-procesos-de-

negocio.html

http://comunidad.telecentre.org/mejora-de-tecnologia

Planeación Estratégica. George A. Steiner, Compañía Editorial Continental, S.A. de C.V.

1997.

Mapas Estratégicos, Robert S. Kaplan y David P. Norton, Harvard Business School Press,

2004. COBIT 4.1, Governance Institute.

http://www.unsa.edu.ar/sigeco/archivos/semi_material/HardwareYSoftware2013.pdf

http://www.softtek.com/es/servicios/servicios-de-tecnologias-de-informacion/servicios-de-

infraestructura-de-ti

http://www.tcs.com/worldwide/es/es/servicios/Pages/Servicios-de-infraestructura-de-

TI.aspx

Empresas

que

utilizan

TI

Control de

asistencia

de

empleados

Control de

información

en base de

datos con

lector

biométrico.

La

información

se extrae de

la base de

datos en

forma

digital.

Elevado costo

de los equipos

y de

mantenimiento.

Desaprobación

de los

trabajadores.

--

Cada

empleado

tiene su

clave, esto

permite la

facilidad de

obtener

información.

Se

implementaron

equipos

biométricos

mediante un

sistema de

información y así

mejorar el

rendimiento.

Cuenta con un sistema para obtener

información y en base a eso tomar

decisiones

Oxxo

Se rige en

inventarios

en sistemas

organizados

y control de

horarios

Control

sobre todo

los

productos y

registro de

las ventas,

organización

y control de

horarios

Cada

trabajador

necesita ser

capacitados

-- --

Puede

atender

hasta 20

clientes en

solo 10

minutos y

almacenar

todos los

registros de

cada venta

Oxxo siempre ha

contado con un

sistema de

información para

registrar sus

ventas.

Tomar decisiones en base a sus productos

no vendidos y los más vendidos, obtenidos

de los reportes

Giro de la

empresa

Diferencia

entre

empresa

con TI y no

TI

Ventajas de

usar TI

Desventajas

de usar TI

Ventajas de

no usar TI

Desventajas

de no

utilizar TI

Eficiencia

en los

procesos de

negocio

Transformación

de los procesos

de negocios

Aplicación de BI

Empresas

que no

utilizan

TI

Tienda de

abarrotes

No cuenta

con ningún

tipo de

inventario

todo está

escrito en

libreta

-- --

No necesita

capacitar a

cada

trabajador y es

un ahorro

No tiene un

control total

sobre las

ventas ya

que no está

todo

registrado.

Atiende a 10

clientes en

15 minutos

y no lleva

los registros

de las ventas

exactas

Se necesita

registrar en una

libreta las ventas

para poder tener

un control

Las decisiones se toman sin ningún

fundamento.

Elaboración

de actas de

nacimiento

No cuenta

con sistema

todo es

hecho a

maquina

Correcciones

en el

momento de

la

elaboración.

-- Agilizar el

trabajo

El trabajo es

más tardado.

Atiende 1

persona en

20 min

Se sigue

trabajando como

se hacía antes.

No aplica BI

MAPA COGNITIVO COMPARATIVO ENTRE EN PRESAS QUE UTILIZAN TI Y LAS QUE NO

UTILIZAN