unidad2
TRANSCRIPT
Instituto Tecnológico de Chilpancingo
Carrera: Ingeniería en informática
Materia:
Fundamentos de gestión de servicio de tecnología de información
Docente: María Zavala Hurtado
Alumno:
Néstor Daniel Salazar Bautista
Tema:
Resumen de la segunda unidad
No de control: 11520371
5.1 INFRAESTRUCTURA DE TI
DEFINICIÓN DE LA INFRAESTRUCTURA DE TI
La infraestructura de TI consiste en un conjunto de dispositivos físicos y aplicaciones de
software que se requieren para operar toda la empresa. Sin embargo, la infraestructura de TI
también es un conjunto de servicios a lo largo y ancho de la empresa, presupuestados por la
administración y que abarcan capacidades tanto humanas como técnicas. Figura 1.1 explica
la infraestructura de TI y las capacidades de negocio.
Figura 1.1
Los servicios que una empresa es capaz de proveer a sus clientes, proveedores y empleados
son una función directa de su infraestructura de TI. En un plano ideal, esta infraestructura
debería apoyar la estrategia de negocios y sistemas de información de la empresa. Las nuevas
tecnologías de información tienen un potente impacto en las estrategias de negocios y de TI,
así como en los servicios que se pueden ofrecer a los clientes.
• Plataformas de cómputo que se utilizan para proporcionar servicios de cómputo que
conectan a empleados, clientes y proveedores dentro de un entorno digital coherente, el cual
incluye grandes mainframes, computadoras de escritorio y portátiles, así como asistentes
digitales personales (PDAs) y dispositivos para Internet.
• Servicios de telecomunicaciones que proporcionan conectividad de datos, voz y video a
empleados, clientes y proveedores.
• Servicios de administración de datos que almacenan y manejan datos corporativos y
proveen capacidades para analizar los datos.
• Servicios de software de aplicaciones que proporcionan capacidades a toda la empresa,
como sistemas de planeación de recursos empresariales, de administración de las relaciones
con el cliente, de administración de la cadena de suministro y de administración del
conocimiento, los cuales son compartidos por todas las unidades de negocios.
• Servicios de administración de instalaciones físicas que desarrollan y manejan las
instalaciones físicas requeridas por los servicios de cómputo, de telecomunicaciones y de
administración de datos.
• Servicios de administración de TI que planean y desarrollan la infraestructura, coordinan
los servicios de TI entre las unidades de negocios, manejan la contabilidad de los gastos en
TI y proporcionan servicios de administración de proyectos.
• Servicios de estándares de TI que dotan a la empresa y sus unidades de negocios
de las políticas que determinan cuál tecnología de información se utilizará, en qué
momento y de qué manera.
• Servicios de entrenamiento en TI que proporcionan a los empleados capacitación
en el uso de los sistemas y a los gerentes, capacitación sobre la manera de planificar
y manejar las inversiones en TI.
• Servicios de investigación y desarrollo de TI que proporcionan a la empresa investigación
sobre proyectos e inversiones de TI potenciales que podrían ayudar a la empresa a
diferenciarse en el mercado.
EVOLUCIÓN DE LA INFRAESTRUCTURA DE TI: 1950-2007
Existen cinco etapas en la evolución de la infraestructura de TI. En su etapa más temprana,
la infraestructura de TI consistía de máquinas de contabilidad electrónicas especializadas que
eran computadoras con elementos básicos y se utilizaban para tareas contables. La
infraestructura de TI en la era de los mainframes
(1959 a la fecha) consistía en un mainframe que ejecutaba procesamiento centralizado y
podía estar conectado mediante una red a miles de terminales, y quizá a un tipo de
computación descentralizada y departamentalizada por medio de minicomputadoras
conectadas en red. La era de la computadora personal (1981 a la fecha) en la infraestructura
de TI ha estado dominada por el uso generalizado de computadoras de escritorio
independientes con herramientas de productividad de oficina. La infraestructura
predominante en la era cliente/servidor (1983 a la fecha) consiste en clientes de escritorio o
portátiles conectados en red a computadoras con servidores más potentes que manejan la
mayor parte de la administración y el procesamiento de los datos. La era de la computación
empresarial en Internet (1992 a la fecha) está definida por grandes cantidades de PCs
enlazadas en redes de área local y por el creciente uso de estándares y software para enlazar
redes y dispositivos diferentes conectados a una red de área empresarial con la finalidad de
que la información pueda fluir libremente a través de la organización.
IMPULSORES TECNOLÓGICOS DE LA EVOLUCIÓN
DE LA INFRAESTRUCTURA
Los cambios en la infraestructura de TI que acabamos de describir han sido resultado de los
desarrollos en el procesamiento de las computadoras, los chips de memoria, los dispositivos
de almacenamiento, el hardware y el software de telecomunicaciones y de conectividad de
redes, así como en el diseño del software, que en conjunto han incrementado
exponencialmente la potencia de cómputo al mismo tiempo que han reducido también
exponencialmente los costos. Demos un vistazo a los desarrollos más importantes.
La ley de Moore y la potencia de micro procesamiento.
En 1965, Gordon Moore, director de los Laboratorios de Investigación y Desarrollo de
Fairchild Semiconductor, uno de los primeros fabricantes de circuitos integrados, escribió en
Electronics Magazine que desde la aparición del primer chip de microprocesador en 1959,
se había duplicado cada año la cantidad de componentes en un chip con los costos de
manufactura más bajos por componente (por lo general, transistores). Esta afirmación se
convirtió en el fundamento de la ley de Moore.
Posteriormente, esta ley sería interpretada de diversas maneras. Existen al menos tres
variaciones de la ley de Moore, ninguna de las cuales fue enunciada por Moore: (1) la
potencia de los microprocesadores se duplica cada 18 meses (Gates, 1997); (2) la
potencia de cómputo se duplica cada 18 meses, y (3) el precio de la computación
se reduce a la mitad cada 18 meses.
La ley del almacenamiento digital masivo
Un segundo impulsor tecnológico del cambio en la infraestructura de TI es la ley del
almacenamiento digital masivo. En el mundo se producen alrededor de 5 exabytes de
información exclusiva cada año (un exabyte equivale a mil millones de gigabytes o 1018
bytes). La cantidad de información digital se duplica más o menos cada año (Lyman y Varian,
2003). Casi la totalidad de este crecimiento se da en el almacenamiento magnético de datos
digitales, en tanto que los documentos impresos representan únicamente el 0.003 por ciento
del crecimiento anual.
Las leyes de Moore y del almacenamiento masivo nos ayudan a entender por qué es tan fácil
acceder ahora a los recursos de cómputo.
Ley de Metcalfe y la economía de redes
Robert Metcalfe —inventor de la tecnología para las LAN Ethernet— afirmó en1970 que el
valor o potencia de una red crece exponencialmente como una función de la cantidad de
miembros de la red. Metcalfe y otros señalan los retornos crecientes a escala que reciben los
miembros de la red conforme más y más gente se une a la red. A medida que los miembros
de una red aumentan linealmente, el valor total del sistema aumenta exponencialmente y
continúa creciendo siempre conforme se incrementan los miembros. La demanda de
tecnología de información ha sido impulsada por el valor social y de negocios de las redes
digitales, las cuales multiplican rápidamente el número de enlaces reales y potenciales entre
los miembros de la red.
Reducción de los costos de las comunicaciones y crecimiento de Internet
Un cuarto impulsor tecnológico que transforma la infraestructura de TI es la rápida reducción
en los costos de la comunicación y el crecimiento exponencial del tamaño de Internet. Una
de las razones del crecimiento en la población de Internet es la rápida reducción de los costos
de la conexión a Internet y de las comunicaciones en general. El costo por kilobit del acceso
a Internet ha disminuido exponencialmente desde 1995. En la actualidad, la Línea Digital de
Suscriptor (DSL) y los módems de cable transmiten un kilobit de comunicación por un precio
al detalle menor a 2 centavos de dólar.
Estándares y sus efectos en las redes
La infraestructura empresarial y la computación por Internet actualmente no serían posibles
—tanto ahora como a futuro— sin acuerdos entre fabricantes sobre estándares tecnológicos
y la aceptación generalizada de éstos por parte de los consumidores. Los estándares
tecnológicos son especificaciones que establecen la compatibilidad de productos y su
capacidad para comunicarse en una red (Stango, 2004). Los estándares tecnológicos
propician el desarrollo de poderosas economías de escala y dan como resultado
disminuciones de precios a medida que los fabricantes se enfocan en la elaboración de
productos apegados a un solo estándar. Sin estas economías de escala, la computación de
cualquier tipo sería mucho más costosa de lo que actualmente es.
5.2 COMPONENTES DE LA INFRAESTRUCTURA
La infraestructura de TI está conformada por siete componentes principales.
PLATAFORMAS DE SOFTWARE DE CÓMPUTO:
En el nivel del cliente, 95 por ciento de las PCs y 45 por ciento de los dispositivos portátiles
utilizan alguno de los sistemas operativos de Microsoft Windows. En contraste, en el
mercado de servidores, más de 85 por ciento de los servidores corporativos de Estados
Unidos utilizan alguno de los sistemas operativos Unix o Linux. Estos ultimos constituyen
la columna vertebral de la infraestructura de muchas corporaciones de todo el mundo porque
son escalables, confiables y mucho más económicos que los sistemas operativos para
mainframes. Los principales proveedores de los sistemas operativos Unix son IBM, HP y
Sun, Aunque Windows continúa dominando el mercado de las computadoras cliente, muchas
corporaciones han comenzado a explorar Linux como un sistema operativo de escritorio de
bajo costo ofrecido por distribuidores comerciales como Red Hat. El software de código
abierto en esencia se trata de software creado y actualizado por una comunidad mundial de
programadores y está disponible de manera gratuita.
Aplicaciones de software empresarial:
Aparte del software de aplicaciones utilizado por unidades de negocios o grupos específicos,
las empresas de Estados Unidos gastaron durante 2005 alrededor de 297,000 millones de
dólares en software. Los proveedores más importantes de software de aplicaciones
empresariales son SAP y Oracle. En esta categoría también se incluye el software middleware
proporcionado por fabricantes como BEA, el cual se utiliza para lograr la integración de los
sistemas de aplicaciones existentes en toda la empresa. Microsoft está tratando de llegar a los
extremos inferiores de este mercado enfocándose en las empresas pequeñas y en las de
tamaño mediano. En general, la mayoría de las grandes empresas de Fortune 500 han
implementado aplicaciones empresariales y han establecido relaciones de largo plazo con sus
proveedores.
ADMINISTRACIÓN Y ALMACENAMIENTO DE DATOS
Los proveedores líderes de software de bases de datos son IBM (DB2), Oracle, Microsoft
(SQL Server) y Sybase (Adaptive Server Enterprise). Un nuevo participante en crecimiento
es MySQL, un producto de base de datos relacional con código abierto de Linux, disponible
de manera gratuita en Internet y cada vez más soportado por HP y otros fabricantes. Las
redes de área de almacenamiento (SANs) conectan a múltiples dispositivos de
almacenamiento en una red de alta velocidad independiente dedicada a tareas de
almacenamiento. La SAN crea un enorme depósito central de almacenamiento al cual pueden
acceder rápidamente y compartirlo múltiples servidores.
PLATAFORMAS DE CONECTIVIDAD DE REDES Y TELECOMUNICACIONES
Windows Server se utiliza de manera predominante como el sistema operativo para redes de
área local, seguido por Novell, Linux y Unix. Las grandes redes de área empresarial utilizan
principalmente alguna variante de Unix. Casi todas las redes de área local, al igual que las
redes empresariales de área amplia, utilizan como estándar el conjunto de
protocolos TCP/IP. Los proveedores líderes de hardware de conectividad de redes
son Cisco, Lucent, Nortel y Juniper Networks. Entre los proveedores líderes de
servicios de telecomunicaciones están MCI, AT&T y compañías telefónicas
regionales como Verizon.
PLATAFORMAS DE INTERNET
Las principales herramientas de desarrollo de aplicaciones y conjuntos de programas de
software para Web son proporcionadas por Microsoft (FrontPage y la familia de herramientas
de desarrollo Microsoft .NET utilizada para crear sitios Web que emplean Active Server
Pages para el contenido dinámico), la línea de herramientas de administración de Internet
WebSphere de IBM, Sun (el Java de Sun es la herramienta más ampliamente utilizada para
el desarrollo de aplicaciones Web interactivas tanto en el servidor como en el cliente) y una
gran cantidad de desarrolladores de software independientes, como Macromedia/Adobe
(Flash), software de medios (Real Media) y herramientas de texto (Adobe Acrobat).
SERVICIOS DE CONSULTORÍA E INTEGRACIÓN DE SISTEMAS
La implementación de nueva infraestructura requiere cambios significativos en los procesos
y procedimientos de negocios, capacitación y entrenamiento, así como integración del
software. La integración de software significa asegurar que la nueva infraestructura funcione
con los antiguos sistemas heredados de la empresa y garantizar que los nuevos elementos de
la infraestructura funcionen entre sí. Por lo general, los sistemas heredados son antiguos
sistemas de procesamiento de transacciones creados para computadores mainframe que
continúan utilizándose para evitar el alto costo de reemplazarlos o rediseñarlos.
5.3 TENDENCIAS DE LAS PLATAFORMAS DE HARDWARE Y
TECNOLOGÍAS EMERGENTES
Las empresas enfrentan otros retos numerosos. Necesitan integrar la información almacenada
en diferentes aplicaciones de diferentes plataformas (teléfono, sistemas heredados, intranet,
sitios de Internet, computadoras de escritorio, dispositivos móviles).
Las empresas también requieren construir infraestructuras flexibles que puedan resistir
grandes variaciones en las cargas máximas de energía y ataques constantes de hackers y virus,
tratando al mismo tiempo de conservar la continuidad de la energía eléctrica.
LA INTEGRACIÓN DE LAS PLATAFORMAS DE CÓMPUTO Y
TELECOMUNICACIONES
Los niveles de convergencia: En el nivel del cliente, los dispositivos de comunicaciones
como los teléfonos celulares están asumiendo las funciones de computadoras de mano, en
tanto que éstas están haciendo las funciones de teléfonos celulares. Al nivel del servidor y la
red, el creciente éxito de los sistemas telefónicos por Internet (ahora el tipo de servicio
telefónico de más rápido crecimiento) demuestra cómo las plataformas de
telecomunicaciones y de cómputo, históricamente separadas, están convergiendo hacia una
sola red: Internet.
COMPUTACIÓN DISTRIBUIDA
La computación distribuida implica conectar en una sola red computadoras que
se encuentran en ubicaciones remotas para crear una supercomputadora virtual al
combinar la potencia de cómputo de todas las computadoras de la red. La
computación distribuida requiere programas de software para controlar y asignar
recursos en la red, como el software de código abierto proporcionado por Globus
Alliance (www.globus.org) o por proveedores privados. El software del cliente se comunica
con una aplicación de software del servidor. El software del servidor divide los datos y el
código de las aplicaciones en fragmentos que a continuación se distribuyen a las máquinas
de la red. Las máquinas cliente pueden ejecutar sus tareas tradicionales y correr al mismo
tiempo las aplicaciones de la red en segundo plano. En la imagen 2.1 se muestra un ejemplo
de computación distribuida.
Imagen 2.1
COMPUTACIÓN BAJO DEMANDA (COMPUTACIÓN TIPO SERVICIO
PÚBLICO)
La computación bajo demanda se refiere a las empresas que satisfacen el exceso de
demanda de potencia de cómputo a través de centros remotos de procesamiento de datos a
gran escala. De esta manera, las empresas pueden reducir sus inversiones en infraestructura
de TI e invertir únicamente lo necesario para manejar las cargas promedio de procesamiento
y pagar solamente por la potencia de cómputo adicional que demande el mercado. Otro
término para la computación bajo demanda es computación tipo servicio público, el cual
sugiere que las empresas compran capacidad de cómputo a compañías de servicios de
cómputo centrales y pagan solamente por la cantidad de capacidad de cómputo que utilizan,
de la misma manera que lo harían por la electricidad. IBM, HP, Oracle y Sun Microsystems
ofrecen servicios de computación bajo demanda.
COMPUTACIÓN AUTÓNOMA Y COMPUTACIÓN DE VANGUARDIA
La computación autónoma es una iniciativa de toda la industria para desarrollar sistemas
que puedan autoconfigurarse, optimizarse y afinarse a sí mismos, autorrepararse cuando se
descompongan, y autoprotegerse de intrusos externos y de la autodestrucción.
La computación de vanguardia es un esquema multicapa, de balanceo de carga para
aplicaciones basadas en la Web en el cual partes significativas del contenido, la lógica y el
procesamiento del sitio Web son ejecutados por servidores más pequeños y más económicos,
localizados cerca del usuario con la finalidad de incrementar el tiempo de respuesta y la
resistencia y, a la vez, reducir los costos de la tecnología. En este sentido, la computación de
vanguardia, al igual que la computación distribuida y la computación bajo
demanda, es una técnica que utiliza Internet para compartir la carga de trabajo de
una empresa a través de muchas computadoras localizadas en puntos remotos de la
red. En la figura 1.2 se muestra como la computacion va a la vanguardia.
figura 1.2
VIRTUALIZACIÓN Y PROCESADORES MULTINÚCLEO
La virtualización es el proceso de presentar un conjunto de recursos de cómputo (como la
potencia de procesamiento o el almacenamiento de datos) de tal manera que se pueda acceder
a todos sin ningún tipo de restricción por su configuración física o su ubicación geográfica.
La virtualización de servidores permite a las empresas ejecutar más de un sistema operativo
al mismo tiempo en una sola máquina. El software de virtualización de servidores se ejecuta
entre el sistema operativo y el hardware, ocultando a los usuarios los recursos de los
servidores, como la cantidad e identidad de los servidores físicos, los procesadores y los
sistemas operativos. La virtualización también facilita centralizar la administración del
hardware.
Un procesador multinúcleo es un circuito integrado que contiene dos o más procesadores.
En el pasado, los fabricantes de chips incrementaron la velocidad de los procesadores al
aumentar su frecuencia, desde unos cuantos megahertz hasta los chips actuales que funcionan
a frecuencias de gigahertz. Los procesadores de doble núcleo combinan dos o más
procesadores más lentos en un solo chip. Esta tecnología permite que dos motores de
procesamiento con menores requerimientos de energía y de disipación de calor realicen tareas
más rápido que un chip devorador de recursos con un solo núcleo de procesamiento.
5.4TENDENCIAS DE LAS PLATAFORMAS DE SOFTWARE Y
TECNOLOGÍAS EMERGENTES
EL SURGIMIENTO DE LINUX Y EL SOFTWARE DE CÓDIGO ABIERTO
El software de código abierto es software producido por una comunidad de cientos de miles
de programadores de todo el mundo. Según la principal asociación de profesionales del
código abierto, OpenSource.org, el software de código abierto es gratuito y puede ser
modificado por los usuarios. Los trabajos derivados del código original también deben ser
gratuitos, y el software puede ser redistribuido por el usuario sin necesidad de
licencias adicionales. Por definición, el software de código abierto no se limita a
ningún sistema operativo específico ni tecnología de hardware, aunque la mayor
parte del software de código abierto se basa actualmente en los sistemas operativos
Linux o Unix.
Linux fue creado por el programador finlandés Linus Torvalds y colocado por primera vez
en Internet en agosto de 1991. En la actualidad, Linux es el sistema operativo para clientes y
servidores de más rápido crecimiento en el mundo. Linux es el sistema operativo de
servidores de LAN de más rápido crecimiento, con una participación de mercado actual de
23 por ciento, muy superior al 1 por ciento que tenía en 1998. IBM, HP, Intel, Dell y Sun han
hecho de Linux una parte central de sus ofertas a las corporaciones. Más de dos docenas de
países de Asia, Europa y América Latina.
El surgimiento del software de código abierto, particularmente Linux y las aplicaciones que
soporta, tiene profundas implicaciones para las plataformas de software corporativas:
reducción de costos, confiabilidad y resistencia, e integración, puesto que Linux funciona en
todas las plataformas de software principales, desde mainframes hasta servidores y clientes.
JAVA ESTÁ EN TODAS PARTES
Java es un lenguaje de programación orientado a objetos independiente del sistema operativo
y del procesador que se ha convertido en el entorno de programación interactivo líder para la
Web. Si un objeto se desplaza en la Web o recopila información del usuario, es probable que
un applet de Java esté detrás de él. Java fue creado en 1992 por James Goslin y el Green
Team de Sun Microsystems como un entorno de programación para soportar la transmisión
de contenido interactivode televisión por cable. El software de Java está diseñado para
ejecutarse en cualquier computadora o dispositivo de cómputo, independientemente del
microprocesador específico o el sistema operativo que utilice el dispositivo. Un navegador
Web es una herramienta de software fácil de usar, con una interfaz gráfica de usuario que
despliega páginas Web y permite el acceso a la Web y a otros recursos de Internet. Algunos
ejemplos de navegadores son Microsoft Internet Explorer, Mozilla Firefox y Netscape
Navigator.
SOFTWARE PARA LA INTEGRACIÓN EMPRESARIAL
La integración de las aplicaciones de software heredado existentes con las nuevas
aplicaciones basadas en la Web para conformar un solo sistema coherente que se pueda
manejar de manera racional. Parte de la integración de las aplicaciones heredadas se puede
conseguir por medio de software especial denominado middleware, con el cual se crea una
interfaz o puente entre dos sistemas distintos. El middleware es software que conecta dos
aplicaciones independientes para que puedan comunicarse entre sí e intercambiar datos.
Las empresas podrían optar por escribir su propio software para conectar una aplicación con
otra, pero cada vez compran más paquetes de software de integración de aplicaciones
empresariales (EAI) para conectar aplicaciones independientes o grupos de aplicaciones.
Este software permite que muchos sistemas intercambien datos por medio de un solo centro
de software en lugar de construir incontables interfaces de software personalizadas
para enlazar cada sistema.
Ser vicios Web y arquitectura orientada a ser vicios (SOA)
Los servicios Web buscan ofrecer una alternativa estandarizada para lidiar con
problemas de integración como los anteriores por medio de la creación de un entorno de
comunicaciones independiente del proveedor.
Los servicios Web se refieren a un conjunto de componentes de software ligeramente
acoplados que intercambian información entre sí por medio de estándares y lenguajes de
comunicación para la Web.
La tecnología que sustenta los servicios Web es XML, que significa Lenguaje de Marcación
Extensible. Este lenguaje fue desarrollado en 1996 por el World Wide Web Consortium
(W3C, el organismo internacional que supervisa el desarrollo de la Web) como un lenguaje
de marcación más potente y flexible para páginas Web que el Lenguaje de Marcación de
Hipertexto. El Lenguaje de Marcación de Hipertexto (HTML) es un lenguaje de descripción
de páginas para especificar la manera en que el texto, las imágenes, el video y el sonido se
colocan en el documento de una página Web. HTML se limita a describir la manera en que
se deben presentar los datos en forma de páginas Web, XML puede ejecutar la presentación,
comunicación y almacenamiento de los datos.
Los servicios Web se comunican por medio de mensajes XML sobre protocolos Web
estándar. SOAP, que significa Protocolo Simple de Acceso a Objetos, es un conjunto de
reglas para estructurar mensajes que permite a las aplicaciones pasarse datos e instrucciones
entre sí. WDSL significa Lenguaje de Descripción de Servicios Web; es un marco de trabajo
común para describir las tareas realizadas por un servicio Web y los comandos y datos que
aceptará y que podrán ser utilizados por otras aplicaciones. UDDI, que significa Descripción,
Descubrimiento e Integración
Universal, permite que un servicio Web se enliste en un directorio de servicios Web con el
fin de que pueda localizarse fácilmente.
El conjunto de servicios Web que se utiliza para construir los sistemas de software de una
empresa constituye lo que se conoce como arquitectura orientada a servicios. Una
arquitectura orientada a servicios (SOA) es un conjunto de servicios independientes que se
comunican entre sí para crear una aplicación de software funcional.
AJAX, MASHUPS, WEB 2.0 Y APLICACIONES DE SOFTWARE BASADAS EN
LA WEB
Ajax es una nueva técnica de software que evita todas estas inconveniencias y hace más
transparente la experiencia del usuario. Ajax (JavaScript y XML asíncronos) es una técnica
para permitir que su cliente y el servidor con el que está trabajando sostengan una
conversación en segundo plano, y que la información que usted introduzca se transfiera al
servidor al instante sin que usted lo note.
En menor medida, los empresarios emprendedores están creando nuevas aplicaciones y
servicios de software con base en la combinación de diferentes aplicaciones de software en
línea. Denominadas mashups (aplicaciones Web híbridas), estas nuevas aplicaciones
combinadas dependen de redes de datos de alta velocidad, estándares de comunicaciones
universales y código abierto. El propósito es tomar diferentes recursos y producir un nuevo
trabajo que sea “mayor que” la suma de sus partes.
Parte de un movimiento llamado Web 2.0, y al igual que los mashups musicales,
los mashups de la Web combinan las capacidades de dos o más aplicaciones en
línea para crear un tipo de híbrido que proporciona más valor al cliente que los
recursos originales por sí solos.
SUBCONTRATACIÓN DE SOFTWARE
En la actualidad, la mayoría de las empresas continúan operando sus sistemas heredados, los
cuales aún satisfacen una necesidad de negocios y cuyo reemplazo sería extremadamente
costoso. Pero adquirirán de fuentes externas la mayoría de sus nuevas aplicaciones de
software.
Cambio de las fuentes de software
En el pasado, la mayor parte de este software era desarrollado dentro de las empresas por
equipos de programadores. A pesar de que las empresas aún conservan grandes grupos de
personas de TI, ya no se enfocan exclusivamente en la creación del software. En 2006 las
empresas encargaron cerca de la tercera parte del desarrollo de software a desarrolladores
externos, incluyendo empresas de software empresarial que les venderían soluciones
comerciales personalizadas a sus necesidades.
Paquetes de software y software empresarial
Un paquete de software es un conjunto de programas de software escritos con anticipación,
disponible comercialmente, que libera a una empresa de la necesidad de escribir sus propios
programas de software para funciones específicas, como el procesamiento de la nómina o el
manejo de pedidos.
Los proveedores de software de aplicaciones empresariales como SAP y Oracle- PeopleSoft
han desarrollado potentes paquetes de software que pueden apoyar los procesos de negocios
principales de cualquier empresa del mundo, desde almacenamiento de datos, administración
de las relaciones con el cliente, administración de la cadena de suministro y finanzas, hasta
recursos humanos
Proveedores de ser vicios de aplicaciones
Una segunda fuente externa de software la constituyen los proveedores de servicios de
aplicaciones en línea. Un proveedor de servicios de aplicaciones (ASP) es una empresa que
distribuye y administra aplicaciones y servicios de cómputo a múltiples usuarios, desde
centros de cómputo remotos, a través de Internet o de una red privada. En lugar de comprar
e instalar programas de software, las empresas suscriptoras pueden rentar las mismas
funciones a estos servicios. Los usuarios pagan por el uso de este software, ya sea a través de
una suscripción o por cada transacción.
La solución del ASP combina las aplicaciones de software comerciales y todo el hardware
relacionado, el software del sistema, la red y otros servicios de infraestructura que de otra
manera el cliente tendría que comprar, integrar y administrar de manera independiente.
Subcontratación de software
Una tercera fuente externa de software es la subcontratación, en la cual una empresa
contrata el desarrollo de software personalizado o el mantenimiento de programas heredados
existentes con empresas externas, las cuales con frecuencia operan en regiones del
mundo donde se pagan salarios bajos. La subcontratación le dio acceso a la
compañía a especialistas en tecnología altamente capacitados de los cuales no
disponía de manera interna.
Video Inteligencia de negocio – Innovando la empresa
La realidad de hoy… en la actualidad casi en su totalidad las empresas pequeñas, medianas
o grandes, están automatizados por software. Grandes cantidades de datos son
“transacciones” dentro de este software para luego ser consultada, al menos por un tiempo
prudencial.
¿Porque nace la inteligencia de negocios? Para aplicar los principios básico de la empresa y
para que el trabajo de los trabajadores sea mucho más objetivo, fácil y accesible con
herramientas de TI. Con la ayuda de la tecnología posibilitamos realizar tareas repetitivas de
forma automatizada. La misión de TI siempre será brindar y custodiar datos e información
para que nuestros usuarios puedan hacer su trabajo y tomar decisiones.
Historia de Business Intelligence:
En los 80: cuando algunas empresas pudieron tener acceso a SGBD y DASD. El concepto
inteligencia de datos también comenzó.
En los 90 el panorama cambio, las grandes empresas poseían su centro de información.
Suplían de cierta forma información a los ejecutivos y responsables de toma de decisiones.
Entre 1992 y 1993 nace el concepto y artefacto DataWarehouse, que es un elemento
fundamental y clave en proyectos de inteligencia de negocios.
En 1996 el concepto BI fue comparado con EIS y DSS.
En la actualidad hay una discusión por el concepto de inteligencia de negocios entre los
europeos y los americanos.
Gurus del BI: Bill Inmon y Ralph Kimball. Padres actuales de BI.
¿Qué son datos históricos? Son los hechos que se suscitaron en algún periodo de tiempo
pasado, que tiene validez y que representan un momento en el tiempo. Bajo un contexto
cuentan historias.
Los elementos base para hacer BI son los datos es la historia.
DATOS: son un conjunto discreto de valores cualitativos o cuantitativos que por sí mismos
no dicen el porqué de las cosas.
INFORMACION: son un conjunto de datos pero que han sido procesados y bajo un contexto
determinado tiene sentido.
CONOCIMIENTO: es la mezcla entre experiencias, valores e información de un contexto
determinado cuando la información de comparar, se ubica su origen, se conversa con otros
entonces genera conocimiento.
Definición de Business Intelligence: es una estrategia empresarial que persigue incrementar
el rendimiento de la empresa o la competitividad del negocio, a través de la organización
inteligente de sus datos históricos (transacciones u operaciones diarias) usualmente
residiendo en DataWarehouse corporativos o Data Marts departamentales.
Es la habilidad de transformar datos históricos en información y la información en
conocimiento de tal forma que se pueda optimizar los procesos de toma de
decisiones.
Beneficios para la empresa:
Dar uso a su activo lógico histórico, los datos.
La empresa podrá valorar elementos importantes, producto del estudio de sus datos,
para la toma de daciones en las diferentes unidades de negocio. Podrá implementar
reglas y planes de acción.
La empresa podrá volverse más competitiva frente a un mercado cambiante y
globalizado, puesto que tendrá herramientas estadísticas reales basadas en su realidad.
Elementos de Business Intelligence:
Sistemas OLTP: corresponde a todas aquellas aplicaciones de la empresa donde se registran
datos o transacciones de algún área del negocio. Las bases de datos OLTP están pensados
para operar con transacciones atómicas, es decir fueron diseñados para registrar y consultar
pequeñas cantidades de datos.
ETL: extracción, transformación y carga de datos. Son procesos que permiten a las empresas
mover datos desde múltiple orígenes de datos sean estos homogéneos o no, limpiarlos
reformatearlos y cargarlos en una nueva base de datos.
Data mart: Es una BD des normalizada o al menos levenete normalizada (en el caso de copo
de nieve) debido a que la normalización ofrece separación de datos repetitivos. Posee un
esquema que puede ser copo de nieve o tipo estrella.
Data Warehouse: Se define como una BD corporativa que se caracteriza por ser integrada,
temática, histórica y no volátil; sobre la cual posteriormente podemos realizar análisis desde
diferentes perspectivas y con grandes velocidades de respuesta.
Cubo OLAP: son base de datos orientados al procesamiento analítico. Lo que indica lectura
de grandes cantidades de datos. Hay tres tipos de cubos MOLAP, ROLAP Y HOLAP.
Dimensión: se refiere a las perspectivas mediante las cuales podemos analizar los datos.
Medida: se refiere a los elementos numéricos en si, que tengo para realizar el análisis.
Jerarquías: se refiere a los niveles de agrupación bajo los cuales puedo analizar los datos.
KPI: Indicador Clave de Desempeño se trata de métricas que se utilizan para cuantificar
resultados de una determinada acción o estrategia en función de unos objetivos previamente
definidos. Debe ser mediable, alcanzable, relevante y coherente con el tiempo.
Dashboard: el término en si se refiere al tablero de un automóvil, el cual permite al conductor
de forma permanente la revisión de información del estado del vehículo. Es una herramienta
que permite en tiempo real el acceso a información previamente cuantificada para
que esta sea analizada de forma rápida y permita tomar decisiones online.
Explorar el contenido de DW/DM: Data mining son técnicas y tecnologías que
permite mediante prácticas estadísticas explorar el DW con el fin de encontrar
patrones repetitivos, tendencias o reglas que expliquen comportamiento de los datos en un
determinado contexto.
Va dirigido a todos los mandos medios, que entienden los objetivos y un efecto cascada los
hacen conocer a sus subalternos y los mandos gerenciales son nuestros target.
En la actualidad existen varias herramientas en el mercado las hay Open y también de paga.
Cada herramienta contiene una serie de elementos que la hacen competitiva frente a las otras,
de igual forma sus ventajas y desventajas; la selección de algunas de ellas dependerá de sus
necesidades y presupuestos.
Las empresas necesitan innovadores, nuevos coneceptos nuevas ideas productos con el fin
de incrementar productividad.
INTELIGENCIA DE NEGOCIOS: ESTADO DEL ARTE
La Inteligencia de Negocios BI (Business Intelligence) es una herramienta bajo la cual
diferentes tipos de organizaciones, pueden soportar la toma de decisiones basadas en
información precisa y oportuna; garantizando la generación del conocimiento necesario que
permita escoger la alternativa que sea más conveniente para el éxito de la empresa. La
investigación comienza con la definición y aplicaciones de BI; además se muestran trabajos
relevantes en algunas de las herramientas para hacer BI, como son Data Warehouse (Bodega
de Datos), Olap (Cubos Procesamiento Analítico en Línea), Balance Scorecard (Cuadro de
Mando) y Data Mining (Minería de Datos).
El cuadro de mando integral (Balanced Scorecard) es una herramienta que permite alinear
los objetivos de las diferentes áreas o unidades con la estrategia de la empresa y seguir su
evolución.
Agile BI Governance establece 4 valores básicos, pero dependiendo de cada organización
puede incluir los que vayan en relación con su propia estrategia.
Adaptabilidad Continúa. La incertidumbre y el cambio continuo son el estado natural de los
sistemas de toma de decisiones, pero parece ser que muchas organizaciones aún no son
conscientes de ellos. En este tipo de proyectos siempre se está cambiando el punto de vista
analítico.
Trabajo Conjunto. El usuario operativo del software ha de ser parte activa dentro de los
grupos de IT que desarrollan los sistemas de BI.
Jerarquías Flexibles. Los grupos de trabajo dentro del Agile BI Governance deberán estar
estructurados con jerarquías flexibles que fomenten el intercambio de información.
Personas Antes que Procesos. Priorizar la entrega de la información a las personas que
controlan los procesos y no tanto en definir los procesos que han de controlar las personas.
Business Intelligence competir con información
Definición de BI: es un proceso interactivo para explorar y analizar información
estructurada sobre un área, para descubrir tendencias o patrones a partir de las
cuales derivar ideas y extraer conclusiones. Mejora la toma de decisiones. El
proceso de BI incluye la comunicación de los descubrimientos y efectuar los
cambiaos.
El momento adecuado para utilizar BI es mediante el uso de tecnologías y las metodologías
de BI pretendemos convertir datos en información y a partir de la información ser capaces de
descubrir conocimiento. Es decir al inicio de un análisis y lo que dure el proceso de análisis.
Las políticas de BI van dirigida a cualquier organización que cuente con información lista
para ser procesada y analizada para darle solución a cierto problema.
Los benéficos que aporta la aplicación de BI a su negocio son:
- Beneficios tangibles: reducción de costes, generación de ingresos, reducción de
tiempos para las distintas actividades del negocio.
- Beneficios intangibles: el hecho de que tengamos disponible la información para
la toma de decisiones hará que más usuarios la utilicen.
- Beneficios estratégicos: todos aquellos que nos facilitan la formulación de la
estrategia, es decir, aquellos clientes, mercados o con que productos dirigirnos..
Podemos unificar la información qie proviene de distintos entornos los primero es reunir la
información en un mismo entorno, de forma más concreta en una BD que a la que llamaremos
DataWarehouse donde copiaremos los registros. Realizamos una copia de la información
para poder trabajar con ella sin afectar a los sistemas de información transaccionales.
Eficiencia y transformación de los procesos de negocio a través del uso de
TI. Thompson, RJ y Redstone, L (1997) definen un proceso como una serie de actividades
interconectadas en busca de un propósito. En un contexto de negocios, el propósito de los
procesos será proveer a sus clientes internos con sus requerimientos de una manera oportuna.
La automatización de procesos y de TI persigue crear la empresa agil. Mejora la calidad de
las cadenas de procesos de una organización y la gobernabilidad de dichos procesos y de los
sistemas de TI sobre los que se asientan. Se mejora así la eficacia, eficiencia y calidad de
estos procesos, apoyando tres estrategias clave: intimidad con el cliente, liderazgo de
productos y excelencia operativa.
Para esto en necesario establecer los objetivos de mejoramiento de la empresa. A partir de
los objetivos estratégicos de mejoramiento fijados y la matriz FODA (Debilidades,
Amenazas, Fortaleza y Oportunidades). Que fija el marco estratégico de la empresa, deben
determinarse los procesos clave, O sea aquellos cuyo mejoramiento determinara el alcance
de tales objetivos.
Las organizaciones se apoyan a sus procesos de negocio para ser guiados en este complejo
escenario. No obstante, en muchas organizaciones, dada la complejidad del mismo, existe
una importante diferencia entre los procesos que deberían estar implantados y los procesos
que se encuentran operando el negocio en realidad. El enlace entre procesos de negocio y
generación de valor lleva a algunos practicantes a ver a los procesos de negocio como flujos
de trabajo que se efectúa las tareas de una organización. Para que nuestro análisis de procesos
tenga éxito, debe contener toda una estructura realista de lo que sucede realmente en los
procesos. Para determinar las oportunidades que tiene la empresa por mejorar y
emprender la mejor alineación hacia la cadena de valor posible.
Importancia de la alineación estratégica de los procesos de
negocio y los servicios de TI.
La Planeación Estratégica (PE) es el proceso cuyo objetivo principal es proyectar el futuro
deseado de una organización, así como los medios efectivos para lograrlo; regularmente estos
medios se traducen en objetivos estratégicos que son impulsados por iniciativas o proyectos.
Ahora bien, en el caso del área de tecnologías de información, que actualmente juega el papel
de socio estratégico, es necesario clarificar de qué manera contribuye al logro de los objetivos
de la organización, para lo cual se establece el proceso de PE de Tecnologías de Información
(TI), cuyo entregable es el Plan Estratégico de Tecnologías de Información y
Comunicaciones (PETIC), este proceso permite: formular el plan estratégico de TI alineado
al plan estratégico organizacional para alcanzar los objetivos institucionales, diseñar el
portafolio de proyectos y servicios de TI, así como diseñar los planes tácticos y operativos
de TI.
Las estrategias de TI deben ser revisadas y actualizadas periódicamente.
Deben existir mecanismos de seguimiento y evaluación para medir el nivel de consecución
de los objetivos de TI establecidos en el plan.
Cómo las TI actuales y emergentes pueden logran hacer eficientes los
procesos de negocio y apoyar a la generación y operación de las
estrategias de negocio.
Las TICs agregan valor a las actividades operacionales y de gestión empresarial en general
y permite a las empresas obtener ventajas competitivas, permanecer en el mercado y centrarse
en su negocio. La tecnología es importante e indispensable si se quiere sobrevivir en este
mundo altamente competitivo sobre todo si tu giro de negocios tiene que ver con los sistemas
y las Tecnologías de la información. Se sabe que la infraestructura de la información
proporciona fundamentos, dar servicio al cliente, actuar con los proveedores y manejar
procesos de negocios dentro de la empresa. Incluye inversiones de hardware, software y
servicios como (consultoría, entrenamiento y capacitación) que se comprante en toda
empresa o de todas las unidades de negocio de la empresa.
Los sistemas de información automatizan muchos pasos en los procesos de negocio que antes
se hacían de manera manual, como verificar el crédito de un cliente o generar una factura y
una orden de compra. Sin embargo en la actualidad la tecnología de información puede hacer
mucho más. La nueva tecnología puede cambiar realmente el flujo de la información,
remplazar tareas secuenciales con tareas que se pueden realizar de manera simultánea y
eliminando los atrasados en la toma de decisiones. En otras palabras la información puede
hacer posible procesos de negocio completamente nuevos, incluso puede cambiar la forma
de realizar los negocios e impulsar modelos de negocios completamente nuevos.
Fuentes de información:
http://www.gestiopolis.com/operaciones/reingenieria-de-procesos-de-
negocio.html
http://comunidad.telecentre.org/mejora-de-tecnologia
Planeación Estratégica. George A. Steiner, Compañía Editorial Continental, S.A. de C.V.
1997.
Mapas Estratégicos, Robert S. Kaplan y David P. Norton, Harvard Business School Press,
2004. COBIT 4.1, Governance Institute.
http://www.unsa.edu.ar/sigeco/archivos/semi_material/HardwareYSoftware2013.pdf
http://www.softtek.com/es/servicios/servicios-de-tecnologias-de-informacion/servicios-de-
infraestructura-de-ti
http://www.tcs.com/worldwide/es/es/servicios/Pages/Servicios-de-infraestructura-de-
TI.aspx
Empresas
que
utilizan
TI
Control de
asistencia
de
empleados
Control de
información
en base de
datos con
lector
biométrico.
La
información
se extrae de
la base de
datos en
forma
digital.
Elevado costo
de los equipos
y de
mantenimiento.
Desaprobación
de los
trabajadores.
--
Cada
empleado
tiene su
clave, esto
permite la
facilidad de
obtener
información.
Se
implementaron
equipos
biométricos
mediante un
sistema de
información y así
mejorar el
rendimiento.
Cuenta con un sistema para obtener
información y en base a eso tomar
decisiones
Oxxo
Se rige en
inventarios
en sistemas
organizados
y control de
horarios
Control
sobre todo
los
productos y
registro de
las ventas,
organización
y control de
horarios
Cada
trabajador
necesita ser
capacitados
-- --
Puede
atender
hasta 20
clientes en
solo 10
minutos y
almacenar
todos los
registros de
cada venta
Oxxo siempre ha
contado con un
sistema de
información para
registrar sus
ventas.
Tomar decisiones en base a sus productos
no vendidos y los más vendidos, obtenidos
de los reportes
Giro de la
empresa
Diferencia
entre
empresa
con TI y no
TI
Ventajas de
usar TI
Desventajas
de usar TI
Ventajas de
no usar TI
Desventajas
de no
utilizar TI
Eficiencia
en los
procesos de
negocio
Transformación
de los procesos
de negocios
Aplicación de BI
Empresas
que no
utilizan
TI
Tienda de
abarrotes
No cuenta
con ningún
tipo de
inventario
todo está
escrito en
libreta
-- --
No necesita
capacitar a
cada
trabajador y es
un ahorro
No tiene un
control total
sobre las
ventas ya
que no está
todo
registrado.
Atiende a 10
clientes en
15 minutos
y no lleva
los registros
de las ventas
exactas
Se necesita
registrar en una
libreta las ventas
para poder tener
un control
Las decisiones se toman sin ningún
fundamento.
Elaboración
de actas de
nacimiento
No cuenta
con sistema
todo es
hecho a
maquina
Correcciones
en el
momento de
la
elaboración.
-- Agilizar el
trabajo
El trabajo es
más tardado.
Atiende 1
persona en
20 min
Se sigue
trabajando como
se hacía antes.
No aplica BI