informática en la organizaciones (libro)

121
VERSIÓN PRELIMINAR © 2004 Raúl H. Saroka Y Javier Collazo Raúl H. Saroka Javier Collazo Informática en las organizaciones Todo lo que el ejecutivo no informático debe conocer para lograr la aplicación más eficiente de los recursos informáticos en su organización

Upload: wilo-rodolfo-carpio

Post on 10-Mar-2016

241 views

Category:

Documents


19 download

DESCRIPTION

Raúl H. Saroka Javier Collazo Todo lo que el ejecutivo no informático debe conocer para lograr la aplicación más eficiente de los recursos informáticos en su organización © 2004 Raúl H. Saroka Y Javier Collazo VERSIÓN PRELIMINAR

TRANSCRIPT

Page 1: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

Raúl H. Saroka Javier Collazo

Informática en las

organizaciones

Todo lo que el ejecutivo no informático debe conocer para lograr la aplicación más eficiente de

los recursos informáticos en su organización

Page 2: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

CONTENIDO

Prefacio

Capítulo 1 EL SISTEMA DE INFORMACIÓN DE LAS ORGANIZACIONES

1. La función ejecutiva y la información 2. Nociones de la teoría de sistemas 3. Concepto, funciones y requisitos del sistema de información 4. El sistema de regulación y control 5. Clases de sistemas de información

. Capítulo 2

APLICACIONES EMPRESARIAS TÍPICAS 1. Sistemas ERP 2. Inteligencia de negocios (BI) 3. Gestión de la relación con el cliente (CRM) 4. Gestión de la cadena de abastecimiento (SCM)

Capítulo 3 TECNOLOGÍAS IMPERANTES Y EMERGENTES

1. Internet 2. Intranets y extranets 3. Portales 4. Videoconferencia 5. Groupware 6. Workflow 7. Teletrabajo 8. E-learning 9. Gestión del conocimiento 10. Sistemas expertos 11.Aplicaciones inalámbricas Anexo – Principales hitos de la historia de Internet

Capítulo 4

EL REPLANTEO DE LOS NEGOCIOS Y DE LA ORGANIZACIÓN EN LA ERA DIGITAL

1. La era de la información 2. La tecnología informática como factor de ventaja competitiva 3. Sistemas interorganizacionales 4. Comercio electrónico 5. La empresa virtual

Capítulo 5

FUENTES Y FORMAS DE INCORPORACIÓN DE APLICACIONES INFORMÁTICAS

1. El ciclo de vida de los sistemas de información 2. Fuentes de incorporación de sistemas de información 3. Formas de incorporación de sistemas de información 4. El papel de los usuarios en la incorporación de sistemas de información 5. Fundamentos de evaluación de aplicaciones empresarias 6. La implementación de aplicaciones

Page 3: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

Capítulo 6 LA ESTRATEGIA DE LOS RECURSOS INFORMÁTICOS

1. Planeamiento estratégico de los recursos informáticos 2. Los problemas humanos en sistemas 3. La gestión de la información

Capítulo 7

LA SEGURIDAD DE LOS RECURSOS INFORMÁTICOS 1. La protección de los recursos informáticos 2. Principales conceptos de la seguridad de sistemas 3. Plan de seguridad y plan de contingencias

GLOSARIO

Page 4: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

PREFACIO

En las organizaciones modernas, los recursos informáticos constituyen un activo fundamental para lograr y mantener la eficiencia de la gestión general y de cada una de las funciones específicas. Más aun, adquieren el carácter de herramientas imprescindibles para alcanzar y conservar ventajas competitivas o, por lo menos, para resguardar una determinada posición en el mercado. Aunque, desde luego, se involucran los equipos y programas de computación y de comunicaciones, los recursos informáticos esenciales son los sistemas de información y la información misma.

La informática, entendida como la actividad destinada al tratamiento y la transmisión de

datos, ya no es materia exclusiva de los especialistas. Todo ejecutivo, cualquiera sea el campo en el que se desempeñe, se halla comprometido con el manejo de recursos informáticos y depende de los sistemas de información para tomar decisiones y para evaluar el contexto en el que debe desenvolverse. Naturalmente, los instrumentos concretos con los que el procesamiento de datos debe llevarse a cabo son materia de dominio de los técnicos, pero el ejecutivo no informático debe poseer las suficientes nociones como para entender la forma y la medida en que tales instrumentos pueden contribuir al éxito de su gestión. Este libro tiene el propósito de suministrar tales nociones.

Con ese enfoque, nos propusimos elaborar un texto centrado en los aspectos esenciales

que interesan al ejecutivo no informático y que, a los fines del desempeño eficiente de su función, le resulta imprescindible conocer. Contrarrestando el condicionamiento de nuestra trayectoria profesional y académica, nos hemos esforzado en evitar la tentación de incursionar en cuestiones tecnológicas que, en última instancia, el ejecutivo no informático no está obligado a dominar y que, en todo caso, se hallan disponibles en numerosos textos específicos.

De tal modo, ofrecemos este trabajo como una exposición concreta y completa de los

instrumentos y criterios con los que el ejecutivo no especializado puede explotar los recursos informáticos para favorecer el ejercicio de sus responsabilidades y contribuir al desarrollo exitoso de la organización en la que actúa. Teniendo en cuenta ese objetivo, hemos producido un texto cuya relativa brevedad responde deliberadamente al propósito de suministrar imprescindibles e inmediatas herramientas de gestión, antes que al de exhibir la erudición de un detallado preciosismo técnico.

Creemos que este libro también será de mucha utilidad para respaldar el desarrollo de

cursos universitarios vinculados con las aplicaciones informáticas típicas y con los aspectos esenciales de la gestión de los recursos informáticos en las organizaciones.

Queremos dejar constancia de nuestro agradecimiento a la Fundación OSDE y a nuestro

amigo Raúl Macchi por permitirnos utilizar material anteriormente publicado por sus respectivas editoriales.

Raúl H. Saroka Javier Collazo

Page 5: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

Capítulo 1 EL SISTEMA DE INFORMACIÓN DE LAS ORGANIZACIONES

Naturaleza de la función gerencial – Concepto de dato y de información – Nociones de la teoría de sistemas – Sistema: concepto, componentes, sinergia, jerarquía, límite – Sistema de información: concepto, funciones y requisitos – Sistema de regulación y control – Cibernética - Clases de sistemas de información – Características de los sistemas de información transaccionales, los sistemas de apoyo a la decisión y los sistemas para el nivel superior – Métodos para la determinación de las necesidades de información – Los factores clave para el éxito 1. LA FUNCIÓN EJECUTIVA Y LA INFORMACIÓN

La característica distintiva de la actividad gerencial es la manipulación de representaciones simbólicas. Un gerente no opera con objetos materiales, sino con información sobre problemas de decisión y con información bajo la forma de decisiones. Por lo tanto, la información es la materia prima de la actividad ejecutiva y, al mismo tiempo, es la forma que adopta el resultado de esa actividad. En consecuencia, la información de que dispone un ejecutivo es determinante de la calidad de sus decisiones. Dada una cierta capacidad de análisis, evaluación y selección de alternativas, las decisiones serán más eficientes cuanto más eficiente sea la información con la que se elaboran.

En la práctica de muchas organizaciones, el problema que aqueja a los gerentes es el de

sufrir escasez de información, a pesar de que cuentan con una verdadera sobreabundancia de datos. En gran parte, ello se debe a que se confunden los conceptos de dato e información. Por ello, es de sumo interés analizar las diferencias entre ambos.

Un dato es una representación formalizada de entidades o hechos, adecuada para la

comunicación, interpretación y procesamiento por medios humanos o automáticos. Por ejemplo, en una organización existen empleados, muebles, etc. Para cada empleado, hay un número de legajo; para cada mueble, hay un número de inventario, etc. Del mismo modo, existen representaciones simbólicas de lo que sucede en una organización. Por ejemplo, si se realiza una venta al contado, esa venta generará datos como un número de factura, un importe percibido, etc. El dato es un material de valor escaso o nulo para un individuo en una situación concreta; es una representación simbólica que por sí misma no reduce la dosis de ignorancia o el grado de incertidumbre de quien tiene que tomar una decisión.

Información es el significado que una persona asigna a un dato. La información es un

dato o un conjunto de datos evaluados por un individuo concreto que trabaja en un momento dado sobre un problema específico para alcanzar un objetivo determinado. La información se genera a partir de un grupo de datos seleccionados para reducir la dosis de ignorancia o el grado de incertidumbre de quien debe adoptar una decisión.

Supóngase, por ejemplo, que un ejecutivo pide a un colaborador que le informe la

cantidad de nuevos empleados incorporados en el último semestre. Luego de que el colaborador obtiene la información, la escribe en un papel que envía a su jefe a través de un mensajero. Si este mensajero observa lo escrito en el papel, sólo ve una cantidad que no tiene ningún significado para él. Para el mensajero, el contenido del mensaje no es información. En cambio, cuando el papel es entregado al destinatario, éste lee el contenido y, a pesar de que ve lo mismo que vio el mensajero, ese contenido tiene significado para él: es información, pues sabe que “ésa” es la cantidad de nuevos empleados incorporados en el último semestre.

Page 6: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

Por lo tanto, nada es intrínsecamente información. La misma representación simbólica que para una persona puede ser un dato, para otra puede ser información. O lo que es dato para una persona puede ser información, para esa misma persona, en otro momento o frente a otro problema. La información hace referencia a datos estructurados y seleccionados para un usuario, una situación, un momento y un lugar. Mientras no sean evaluados o aplicados a un problema concreto, los datos seguirán siendo sólo datos, es decir, símbolos con poco o ningún significado.

En consecuencia, es necesario habilitar los medios para convertir los datos en

información. Este es, precisamente, el papel del sistema de información, según se expondrá más adelante.

2. NOCIONES DE LA TEORÍA DE SISTEMAS

La palabra sistema tiene un uso sumamente difundido y variado. Por ejemplo, se usan con frecuencia expresiones como “sistema de computación”, “sistema de información”, “sistema político”, “sistema económico”, “sistema ecológico”, y muchas otras más o menos similares. Por lo tanto, resulta conveniente precisar con claridad el concepto general de sistema, desvinculado de la finalidad de procesar o suministrar información y de cualquier otro propósito relacionado o no con ella. Vale decir que, antes de considerar los sistemas de información, será muy útil desarrollar una serie de ideas esenciales asociadas con el concepto general de sistema.

La teoría de sistemas se ha desarrollado en el siglo XX. Hasta avanzado ese siglo, la

ciencia moderna había sido dominada por el enfoque analítico, es decir, por la reducción de problemas complejos a sus componentes aislables más pequeños. Este enfoque suministró las relaciones causales que los científicos buscaban. Sin embargo, cuando se trataba de fenómenos complejos, el todo resultaba ser más que la simple suma de las propiedades de las partes tomadas por separado. Se comprobó que el comportamiento de los sistemas debe explicarse no sólo en función de sus componentes, sino también en función de todo el conjunto de relaciones existentes entre ellos. Esto constituyó un cambio de metodología. El biólogo alemán Ludwig von Bertalanffy formalizó y propició esta metodología en el decenio de 1920. Formuló su Teoría General de los Sistemas a comienzos de la década de 1930, pero su trabajo principal sobre este tema fue publicado en 1950, e impulsó el desarrollo ulterior.

Un sistema es un conjunto de elementos interrelacionados de modo tal que producen

como resultado algo superior y distinto a la simple agregación de los elementos. De acuerdo con esta definición, en todo sistema existen los siguientes componentes: elementos, relaciones y objetivo.

Los elementos son los componentes o partes constituyentes del sistema. Pueden ser

humanos o mecánicos, tangibles o intangibles, estáticos o dinámicos. Las relaciones entre los elementos son las que hacen que todo sistema sea complejo. La

importancia de las relaciones es fundamental, tanto en el análisis y el diseño como en el comportamiento del sistema. Esto se advierte con frecuencia en el ámbito de las organizaciones. Muchos gerentes, por ejemplo, obtienen resultados exitosos donde otros fracasaron, a pesar de que emplean a las mismas personas y cuentan con los mismos recursos. Lo que estos gerentes han hecho es utilizar de otra manera los mismos elementos, asignándoles distintas funciones o tareas y modificando sus interrelaciones. En una palabra, han cambiado el diseño del sistema.

En cuanto al objetivo, puede afirmarse que constituye la razón de ser de un sistema. El

comportamiento teleológico (es decir, dirigido a la búsqueda de un objetivo, de un resultado, de una meta o de un estado de equilibrio) constituye una característica presente en todos los sistemas. El sistema queda definido por su objetivo. Nada puede hacerse respecto a un sistema (estudiarlo, rediseñarlo, evaluarlo, operarlo, dirigirlo, etc.) si no se conoce su objetivo.

Page 7: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

El logro de un resultado superior y distinto a la simple agregación de los elementos

constituye lo que se llama efecto sinérgico. Si a un sistema se le saca (o se le agrega) una parte, no puede esperarse que siga funcionando igual. Pero, a raíz de la sinergia, ni siquiera puede esperarse que funcione igual menos (o más) la proporción de esa parte. Un claro ejemplo, en este sentido, es el de la ingestión de dos medicamentos cuya combinación puede producir resultados muy distintos a la simple suma de sus efectos separados.

Todo sistema se puede definir por sus entradas, su proceso y sus salidas, y responde, por lo tanto, al modelo cuyo esquema es el que se muestra en la siguiente figura:

Esquema del modelo de sistema

Se dice que un sistema está perfectamente definido cuando se conoce el proceso de

transformación de las entradas en salidas. Cuando no se conoce dicho proceso, se dice que se trata de una caja negra. El recurso de que el proceso de numerosos sistemas se considere una caja negra resulta imprescindible para operar con la realidad en la que cada uno se desenvuelve. Para el gerente general de una gran empresa, por ejemplo, los departamentos de la organización son cajas negras, ya que le resultaría impracticable (además de innecesario y costoso) conocer el modo en que cada uno de ellos desarrolla sus operaciones. Le basta conocer las entradas (insumos de mano de obra, recursos financieros, materiales, etc.) y las salidas (resultados económicos, unidades producidas o vendidas, información proporcionada, etc.). Al operar en un sistema, por lo tanto, la preocupación por determinar la estructura de un elemento se detiene en cierto punto. A partir de ahí, el elemento comienza a considerarse como una caja negra en la que se conocen las transformaciones de las entradas en salidas, pero no su funcionamiento interno, es decir, su proceso de transformación.

Todo sistema es, pues, un transformador de entradas, insumos o inputs en salidas, productos o outputs. Sus elementos componentes están ligados mediante diversas conexiones o interfaces. Estas interfaces asumen, a su vez, la forma de entradas y salidas. Un esquema simplificado de esta idea es el que se exhibe en la siguiente figura:

Los elementos de un sistema son, a su vez, sistemas

Cada elemento que forma parte del sistema se interrelaciona con otros suministrando salidas (que constituyen entradas de los otros), o recibiendo entradas (que son salidas de los otros). Cada uno de esos elementos componentes del sistema, por lo tanto, responde también al modelo transformador de entradas en salidas, por lo que es también un sistema. En consecuencia, el concepto de sistema es relativo. Existe una jerarquía de sistemas en la que todo sistema es un subsistema (respecto al sistema mayor del que forma parte) y es a su vez un metasistema (respecto a los sistemas que forman parte de él).

Entrada Proceso Salida

Page 8: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

Lo que hace que un conjunto de elementos sea visto como un sistema (y no como un

subsistema o un metasistema) es el punto de vista del observador. Aquello que el observador toma como objeto de estudio, análisis, diseño, operación, crítica o evaluación es, en ese momento y a esos efectos, un sistema. Los elementos integrantes son subsistemas en ese mismo momento. Sin embargo, si más tarde el observador pasara a concentrar su atención en uno de esos elementos, éste sería ahora el sistema, mientras que el sistema anterior habría pasado a ser el metasistema del sistema que ahora se estudia.

El concepto de jerarquía de sistemas reviste gran relevancia en el funcionamiento de las

organizaciones y debe distinguirse del concepto de jerarquía tradicionalmente vinculado con el mando y con los signos asociados al poder de los diferentes puestos del organigrama. La organización es también un sistema, según resulta claro con lo expuesto hasta aquí. Por lo tanto, existe también en ella una jerarquía de sistemas (es decir, sistemas que están compuestos por sistemas, los que a su vez están compuestos por sistemas..., etc.).

Ahora bien; la estructura jerárquica de los sistemas deriva de inmediato en la necesidad de definir el límite de un sistema ¿Qué es lo que queda comprendido en el sistema y qué es lo que pertenece a su metasistema o ambiente? El límite de un sistema puede describirse como una línea ideal que encierra elementos (subsistemas) entre los que existe mayor intercambio de energía que a través de la línea. Si se supone que la intensidad de la energía intercambiada puede medirse con un dígito decimal, el ejemplo gráfico de la figura que se muestra a continuación (en el que la línea gruesa representa uno de los posibles límites del sistema) muestra que, a través de la línea, todos los intercambios de energía son menores que los que se producen entre los elementos que quedan comprendidos dentro de la línea. (Por “energía” debe entenderse todo lo que pueda transmitirse entre dos sistemas: energía propiamente dicha, información, bienes, influencia, autoridad, sentimientos, etc.). El menor intercambio dentro del sistema tiene una magnitud de 5, mientras que el mayor intercambio que atraviesa la línea tiene una magnitud menor que 5 (3, en este caso).

Todos los intercambios de energía que se producen entre un elemento del

sistema y un elemento del ambiente son menores que los que se producen dentro del sistema.

La definición del límite es subjetiva y arbitraria, y no constituye estrictamente una

restricción, sino más bien un recurso o herramienta metodológica. En efecto, el límite determina un marco dentro del cual los elementos y las relaciones son apropiadamente explicados y manejados. Todo lo que queda fuera del límite y se relaciona con el sistema constituye su ambiente. Por otra parte, todo elemento que se encuentra fuera del sistema, y no se relaciona con él, no forma parte del ambiente (ni, obviamente, del sistema). A los fines de cualquier estudio, se definen sistemas que son subconjuntos o “recortes” del universo, de modo tal que resulten aptos para el análisis o la manipulación, que sea posible abarcarlos mentalmente y que puedan ser adecuadamente representados.

Page 9: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

El desarrollo de la teoría de sistemas dio lugar a una manera novedosa de considerar el mundo. Este enfoque de sistemas apareció como una reacción frente al superespecialista generado por la excesiva factorización de las ciencias de principios del siglo XX. En ese momento, se advirtió que la ciencia requería estudiosos que, sabiendo poco de los detalles, vieran la totalidad. Los científicos comprendieron que, debido a la interacción entre las partes, el todo asume atributos propios que faltarían si se eliminara una parte o se modificaran las relaciones. Así, este enfoque de sistemas vino a complementar, sin sustituirlo, el método analítico. El enfoque de sistemas implica tener un concepto del “todo” mientras se analizan sus partes, tal como cuando se arma un “rompecabezas”. Es una forma de pensar integrada, aun cuando el análisis se realice parte por parte. Permite comprender mejor la naturaleza de los problemas y disminuir la dificultad del análisis. Puesto que todos los sistemas son complejos y los seres humanos tenemos racionalidad limitada para manejarlos, no es posible hacer un análisis completo de un sistema, por lo que éste se aborda parte por parte. Pero se cometería un grave error si ese análisis de las partes se realizara olvidando que ellas están interrelacionadas y conforman un todo al que las partes y sus relaciones proporcionan una particular estructura.

Como lo señala James C. Emery1: “El hecho de que los sistemas que nos rodean sean

sistemas o que sólo se perciban como tales no tiene mayor importancia. En forma universal, el hombre piensa en términos jerárquicos (problemas y subproblemas) como una manera de reducir su mundo complejo a entidades más fáciles de abarcar para su mente. Si los sistemas no existieran, sería imprescindible inventarlos.”

Al aplicar este enfoque a la organización, puede advertirse que, considerada como un

sistema, aquella presenta todas las características comunes a todos los sistemas y, por ello, está sometida a todas las formulaciones de la teoría de sistemas. En particular, la organización es un sistema social (hecho por el hombre), abierto (relacionado con el contexto), orientado (comportamiento teleológico, no errático) y complejo. Desde un punto de vista moderno, la organización es tratada como un sistema de partes y variables interdependientes, inserto dentro de un sistema de sociedad más amplio e inclusivo. Las relaciones con el ambiente son tan importantes que, para que una organización alcance un alto grado de eficiencia, se considera un requisito fundamental su capacidad para detectar los cambios del ambiente y para reaccionar cuanto antes frente a ellos. Esta detección y este suministro de alternativas para activar un curso de acción son dos de los más importantes papeles que está destinado a cumplir el sistema de información de la organización.

3. CONCEPTO, FUNCIONES Y REQUISITOS DEL SISTEMA DE INFORMACIÓN

Un sistema de información es un conjunto de recursos humanos, materiales, financieros, tecnológicos, normativos y metodológicos organizados para brindar, a quienes operan y a quienes adoptan decisiones en una organización, la información que requieren para desarrollar sus respectivas funciones.

Un sistema de información no requiere necesariamente el uso de la tecnología de

computación. Ha habido sistemas de información antes de que se crearan las computadoras. Por otra parte, aun en los sistemas de información más modernos y con más amplio uso de dispositivos de computación, se realizan operaciones y se cumplen funciones en que la tecnología informática no interviene, o lo hace sólo en una limitada función de apoyo. Sin embargo, la computación y las comunicaciones han potenciado tan extraordinariamente la

1 Emery, James C., Sistemas de Planeamiento y Control en la Empresa, El Ateneo, Buenos Aires, 1983, pp. 2 y 3.

Page 10: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

capacidad, la velocidad y la exactitud del tratamiento de los datos que resulta prácticamente inconcebible el diseño de un sistema de información eficiente sin el empleo de tales tecnologías.

Para analizar la naturaleza y las características del sistema de información, conviene considerar cuáles son los requisitos de la información eficiente y cuáles son las funciones que el sistema de información cumple para obtenerla.

3.1. Requisitos de la información eficiente

Para que la información resulte eficiente, debe reunir una serie de requisitos de modo tal que la utilidad que proporcione justifique el empleo de los recursos que se hubieran aplicado para producirla. Tales requisitos, tal como se enuncian y analizan a continuación, constituyen criterios para guiar el diseño de sistemas de información y para evaluar el funcionamiento de los mismos. Economía

El costo de producir una información no debe ser superior al beneficio que se espera de su utilización.

La información es un bien económico. Al igual que cualquier otra mercadería: • Se puede comprar y vender. • Puede envejecer y tornarse obsoleta. • Se puede almacenar. • Se puede transportar. • Puede sobreabundar (stock excesivo) o escasear (stock insuficiente). • Requiere inversión de tiempo y de recursos humanos, económicos y materiales. Por lo tanto, deben compararse los beneficios a lograr de la información adicional y los

costos de obtenerla. Los economistas utilizan el análisis marginal para determinar si resulta conveniente producir bienes adicionales. Un bien económico será consumido en cantidades crecientes mientras el costo marginal (es decir, el costo de obtener una unidad adicional de dicho bien) sea inferior o igual a la utilidad marginal (es decir, la utilidad que proporcionará esa misma unidad adicional). En el caso de la información, la organización debería continuar adquiriéndola o produciéndola mientras los beneficios fueran mayores que los costos. La cantidad óptima de información, para un gerente o una organización, será aquella en la que el costo de adquisición de una unidad adicional sea igual al beneficio o utilidad de esa unidad. Más allá de esa cantidad, cada unidad adicional de información tendrá un costo cada vez más alto que el beneficio que esa unidad suministra.

Oportunidad

La información debe estar disponible en el momento en que se la requiera. Este requisito hace referencia al momento y a la frecuencia con que la información debe ser suministrada, así como a las facilidades para acceder a la información que se encuentra disponible de modo relativamente permanente. Esto implica, por un lado, que todas las salidas de información que proporciona un sistema deben generarse en forma previa o concomitante con la aparición de la necesidad que satisfacen, y, por otro lado, que los métodos de acceso y consulta a los datos deben permitir generar, en el tiempo oportuno, la información que no es producida en forma rutinaria.

Utilidad

Toda salida de un sistema de información debe satisfacer una necesidad, y debe ser considerada innecesaria mientras no se compruebe su utilidad. Esto significa que todo gerente o analista de sistemas habrá de mantener una permanente actitud adversa a la creación de nuevas

Page 11: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

salidas computadorizadas (como listados o pantallas) o de nuevos formularios para integración y procesamiento manual. Salvo en el caso en que esta creación se deba a la fusión, reemplazo o actualización de salidas preexistentes, hay algo de lo que puede tenerse la absoluta seguridad: tales nuevas salidas generarán incrementos de costos (de diseño, papel, impresión, encuadernación, transcripción, archivo, traslado, procesamiento, análisis, programación, operación de máquinas, etc.). Por lo tanto, la salida nace con un “pecado original” del que sólo deberá ser redimida si se comprueba que la utilidad o beneficio que proporcionará supera tales costos.

De cualquier manera, podría esperarse que la responsable actitud de los involucrados en la génesis de una salida de información impidiera, o al menos redujera a un mínimo razonable, la aparición de aquellas que no satisfacen una necesidad, es decir, que no responden al requisito de utilidad. Sin embargo, lo que no goza de igual cuidado es el control periódico de que las salidas que alguna vez estuvieron justificadas continúen estándolo hoy. Muchas salidas de información se han generado en respuesta a necesidades de una persona o un cargo que hoy ya no existe, de una coyuntura que ha sido superada hace mucho tiempo, de una función que ha desaparecido o se ha modificado sustancialmente..., etc. Sin embargo, como nadie ha detectado la extinción de la circunstancia que justificó su creación y su uso durante cierto tiempo, esas salidas se siguen elaborando. Quienes las producen, lo hacen porque “heredaron” la tarea y suponen que “alguien necesita” los datos que contienen. Quienes las reciben son, muchas veces, empleados operativos que se dedican a archivarlas prolijamente, porque “si el centro de cómputos las envía, deben de ser importantes para alguien”.

Comparabilidad

La información debe ser comparable en el espacio, en el tiempo y en el alcance. La comparabilidad en el espacio implica, por ejemplo, que la información de una sucursal

debe ser comparable con la de otra. No habría comparabilidad, por caso, si las ventas de una localización se expresaran en unidades físicas y las de otra en unidades monetarias.

La comparabilidad en el tiempo significa que la información de un período debe ser

comparable con la de otro. La comparabilidad en el alcance se refiere a que las informaciones que se comparan

correspondan a entidades semejantes. Los errores en este último aspecto se originan, frecuentemente, en una identificación inapropiada del concepto que se informa. Por ejemplo, se suministra información de diversas fuentes bajo el título “Comisiones”, pero en algunos casos se incluyen los viáticos, y en otros no. Flexibilidad

Todo sistema de información debe ser adaptable a los cambios del sistema-objeto. Este requisito está estrechamente relacionado, en primer término, con el ya comentado control periódico de la utilidad de las salidas del sistema de información. Además, está indisolublemente vinculado con la satisfacción de las cambiantes necesidades de información de los ejecutivos y de la organización toda. El alcance y la conservación de un apropiado grado de flexibilidad del sistema de información tienen notables influencias en (y dependen en alto grado de) la metodología y las herramientas que se habrán de emplear para su diseño y mantenimiento. En especial, son de particular relevancia los métodos aplicados a la determinación de las necesidades informativas de los distintos sectores y puestos de la organización. También adquieren singular importancia las técnicas aplicadas a la construcción de sistemas de bases de datos, a fin de que estas bases resulten cada vez más fáciles de reorganizar, sin acarrear trastornos o necesidades de cambios en los programas de computación ni en las operaciones realizadas por los usuarios.

Page 12: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

Claridad

La información debe adecuarse al nivel intelectual y técnico del destinatario. El postulado precedente implica que también deben tenerse en cuenta el lenguaje y las preferencias del destinatario. Muchos informes están plagados de palabras que pertenecen a la jerga profesional de quien los elabora, y no a la de quien deberá comprenderlos y utilizarlos.

El requisito de claridad también se manifiesta como la necesidad de que el sistema de

información goce de la mayor simplicidad de comprensión, aprendizaje, empleo y operación por sus usuarios. Es casi un axioma que un sistema de información que no es comprendido, o no responde a las necesidades planteadas por los usuarios, hará que éstos lo dejen de usar o lo “saboteen”, dedicándose, además, a difundir sus fallas o limitaciones.

Confiabilidad

La información debe ser lo suficientemente confiable como para tomar decisiones basadas en ella. A este fin, deben empezar por ser confiables los datos primarios y sus sucesivas transformaciones, lo que significa que no deben contener o introducir errores derivados de factores conocidos. La calidad de un sistema de información está determinada, en buena parte, por la calidad de sus datos primarios.

La confiabilidad implica que, para la adopción de decisiones, la información debe ser

correcta pero no necesariamente exacta, lo que es más cierto cuanto más se sube en la pirámide organizacional. A este respecto, debe tenerse en cuenta que, mientras la información tiende hacia la exactitud en progresión aritmética, el costo de lograr esa exactitud tiende a ascender en progresión geométrica. Dos informaciones son indiferentes (o igualmente correctas) respecto a una decisión, si la decisión que se adopta sobre la base de una de las dos informaciones es la misma que se adoptaría sobre la base de la otra.

Una significativa consecuencia de estas ideas es la exaltación del valor de los gráficos

como forma de presentación de información, ya que la existencia de un intervalo de indiferencia permite el empleo de las técnicas de graficación, sin las restricciones que impondría la exigencia de una exactitud matemática. Esta exactitud, en todo caso, es habitualmente demandada por las operaciones de registro típicas del nivel operativo o transaccional del sistema de información, pero no en los niveles táctico y estratégico. Por otra parte, en muchos casos, no interesan tanto los valores absolutos de distintas informaciones relacionadas, sino sus proporciones. De igual modo, en numerosas oportunidades, no importan tanto los valores que va adquiriendo una variable (por ejemplo, en una serie cronológica), sino la forma en que tales valores evolucionan. Los gráficos y las curvas son un recurso insuperable para exhibir estos aspectos de la información.

3.2. Funciones del sistema de información

Recolección

La función de recolección implica la captura y el registro de datos. Actúa como el órgano sensorio de la organización. Es una función costosa y muy expuesta a la generación de errores, aunque este último aspecto se atenúa significativamente con la aplicación de nuevas tecnologías de captura de datos, como la lectura de caracteres ópticos o magnéticos y la lectura de código de barras.

Un criterio que disminuye tanto los costos como los errores es el de capturar los datos tan

cerca de la fuente (es decir, del lugar donde se generan) como sea posible.

Page 13: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

Clasificación La función de clasificación consiste en identificar los datos, agruparlos en conjuntos

homogéneos y ordenarlos teniendo en cuenta la manera en que será necesario recuperarlos. Vale decir que los datos se agrupan en estructuras diseñadas conforme a las necesidades del uso que se hará de ellos.

El almacenamiento de datos en archivos computadorizados dispone de técnicas que han

permitido alcanzar un elevado nivel de refinamiento en este sentido. Sin embargo, ya que el diseño del método de clasificación debe hacerse de acuerdo con la forma en que el usuario necesitará recuperar la información, tal diseño no puede ser adecuadamente definido si no se posee una clara comprensión de los procesos en los que la información será requerida. Compresión

La compresión es la función por la cual se reduce el volumen de los datos sin disminuir necesariamente la información que suministrarán a su destinatario. Muy por el contrario, la compresión generalmente aumenta o hace más expresivo el contenido informativo de los datos.

La compresión puede realizarse mediante varios métodos. Uno de ellos es la agregación,

que consiste en acumular datos de detalle para obtener información consolidada de más alto nivel.

Otro método de compresión es el filtrado. Mediante el mismo, se elimina información no

significativa. Actúa como un cedazo o cernedor que sólo deja pasar los datos que tendrán valor para el destinatario. Un típico ejemplo es el de la información por excepción, en la que sólo se consignan los casos que se desvían de una norma, en lugar de informar todos los casos, incluso los que cumplen con la norma.

Un tercer método de compresión es el uso de medidas estadísticas (tales como la media,

la moda, la mediana, los cuartiles, el rango, etc.) que describen el comportamiento, real o pronosticado, de variables probabilísticas. Es frecuente que sea más ilustrativo, por ejemplo, suministrar el promedio mensual de ventas de un año que la lista de las ventas de cada uno de los doce meses de ese año.

Teniendo en cuenta que más importante que la existencia de información es la capacidad

de procesarla, es fundamental que el sistema de información cuente con componentes que actúen como “compresores”, es decir, proyectados para recibir más información de la que transmiten.

Almacenamiento

La función de almacenamiento se vincula con la conservación física de los datos y con la adecuada protección de los mismos. Aunque no todos los datos que procesa un sistema de información se conservan en dispositivos de computación, éstos constituyen el soporte prácticamente obligado del banco de datos de las organizaciones. Aun en las empresas de mayor envergadura en el mundo, la tecnología de computación disponible permite una capacidad virtualmente ilimitada para mantener este banco de datos en condiciones de ser consultado en forma inmediata. En materia de archivos computadorizados, la teoría y la práctica del diseño, la generación, el mantenimiento, la reorganización y la consulta de las estructuras de datos han alcanzado alto grado de sofisticación y eficiencia. Como una definición general, puede decirse que, cuando un conjunto de archivos responde a la aplicación de herramientas lógicas orientadas específicamente al logro de esa eficiencia, se lo denomina base de datos.

A través de la función de almacenamiento, el sistema de información hace las veces de

memoria de la organización. Al mismo tiempo, la permanente puesta al día de esa memoria hace que la base de datos sea un modelo simbólico descriptivo que constituye la imagen actualizada de la organización.

Page 14: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

Recuperación

La función de recuperación tiene el propósito de suministrar el acceso a la base de datos. Como se dijo más arriba, depende de un apropiado sistema de clasificación. Cada día están más difundidas las aplicaciones de computación en las que la recuperación y/o la actualización de los datos deben hacerse en tiempo real, es decir, en el mismo momento en que sucede el hecho que genera la necesidad de la recuperación o de la actualización. En estos casos, la computadora interviene en alguna parte de la ejecución de la propia transacción que demanda el uso o actualización de los datos. Procesamiento

El sistema de información, como todo sistema, es un transformador de entradas en salidas a través de un proceso. Esta transformación se realiza mediante cómputos, clasificaciones, cálculos, agregaciones, relaciones, transcripciones y, en general, operaciones que, no importa qué recursos humanos o tecnológicos empleen, persiguen el objetivo de convertir datos en información, es decir, en datos que habrán de tener valor y significado para un usuario. La función de procesamiento implica, principalmente, la modificación de la base de datos para mantenerla actualizada. Transmisión

La función de transmisión comporta la comunicación entre puntos geográficos distantes, sea por el traslado físico del sostén de los datos (papeles, dispositivos de archivos computadorizados, cintas de audio o video, microfichas, etc.) o por la transmisión de señales (comunicación entre equipos de computación, transmisión de facsímiles, teléfono, etc.).

Este aspecto del sistema de información se vincula con la tecnología de comunicaciones,

la que se halla tan asociada con la de la computación, e igualmente tan desarrollada, que resulta muy difícil trazar una línea de separación entre ellas. De ahí que suele aplicarse la denominación de telemática a la disciplina o ambiente tecnológico que surge de la combinación de las telecomunicaciones y la computación.

Las facilidades disponibles para transmitir datos entre distintos puntos físicos, así como la

amplísima gama de capacidades de equipos de computación, permiten descentralizar los recursos de computación y las bases de datos. Esto puede hacerse sin caer en costosas redundancias ni perder la integración de sistemas y archivos, ya que todos los puntos pueden estar interconectados, compartiendo recursos y datos, y manteniendo similares grados de actualización de las bases de datos. Así, se conforman las llamadas redes de procesamiento distribuido, mediante las que se lleva la “inteligencia” de computación al mismo lugar en que se la necesita, sin caer en los costosos aislamientos de la descentralización sin comunicación.

Además, las posibilidades de transmisión de datos a través de redes de comunicaciones

(desde las limitadas al edificio de una organización hasta las de alcance mundial) tienen un efecto fundamental en el planteo estratégico de las empresas y están produciendo cambios trascendentales en la naturaleza y en la operación de los negocios, tal como se expondrá en detalle en próximos capítulos. Exhibición

Mediante la función de exhibición, se proporciona una salida de información preparada de modo tal que resulte legible y útil a su destinatario. En un sistema de información basado en el uso de computadoras, esta función es la que implica la interfaz con el ser humano. Todas las funciones descriptas hasta aquí realizan diversos tratamientos de la información, pero no producen resultados visibles para el usuario. De ello se encarga esta función de exhibición, la que expone la información en forma impresa, en una pantalla de representación visual o en otros dispositivos.

Page 15: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

La presentación de los resultados tiene particular importancia para que los mismos

revistan el carácter de información, para que aparezcan con significado ante los ojos del usuario, para que reduzcan la ignorancia del mismo y para que lo induzcan a la acción. En la mayor parte de los sistemas de información ineficientes, el problema central no reside en la ausencia de información, sino en el ocultamiento o enmascaramiento de la misma bajo una maraña de datos en las que el usuario debe “hurgar” para encontrar aquellos que, para él, constituyen información.

Esto pone en evidencia la importancia de la función de compresión, por un lado, y la de la

precisa determinación de las necesidades informativas de cada puesto de la organización, por el otro.

4. EL SISTEMA DE REGULACIÓN Y CONTROL

En un mundo sometido a frecuentes e importantes transformaciones de todo carácter, las organizaciones deben adaptarse, si quieren sobrevivir, y deben adelantarse, si quieren vencer. La flexibilidad, entendida como la capacidad de adaptarse a los cambios del contexto, es un requisito del éxito en la sociedad contemporánea.

Naturalmente, para adaptarse a los cambios, lo primero es detectarlos, y sobre todo,

detectarlos cuanto antes. La información sobre los factores internos y externos (es decir, los de la organización y los de su ambiente) debe ser generada en tiempo oportuno y exhibida en el “tablero de comando” de la organización. Esta es una principalísima función estratégica del sistema de información: asegurar la máxima flexibilidad de la organización para adaptarse a los cambios de un contexto cuya característica principal es, precisamente, la innovación y la inestabilidad.

Para cumplir esta función, el sistema de información constituye la pieza fundamental de

un sistema de regulación y control aplicado al sistema-objeto, es decir, a la organización. Esta función del sistema de información quedará más clara con un somero análisis de la estructura y funcionamiento de un sistema de control cibernético.

La cibernética es una ciencia joven cuyo nacimiento se asocia con la publicación, en

1942, de la obra Cybernetics, del matemático estadounidense Norbert Wiener, en la que se la define como “la ciencia que estudia los sistemas de control, especialmente de autocontrol, tanto en los organismos como en las máquinas”. También ha sido definida como “la rama del conocimiento que enlaza las teorías y los estudios sobre la comunicación y el control en organismos vivos y máquinas”. La cibernética es un enfoque particularizado de sistemas. Se ocupa de los distintos tipos de procesos de regulación y control aplicables a los sistemas, de acuerdo con la naturaleza y complejidad de los mismos. Así, se consideran los casos de sistemas que presentan un muy alto grado de complejidad (tales como la economía, el ser humano o la empresa), y a los que se aplica un sistema cibernético de regulación y control cuyo modelo se expone en la siguiente figura y se describe a continuación de la misma.

Page 16: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

Modelo de sistema de regulación y control Para controlar el comportamiento de un sistema, es necesario, en primer término, conocer

sus salidas. Conocerlas implica detectarlas, verlas, describirlas, medirlas, convertirlas en una expresión simbólica (datos) y registrarlas. Por lo tanto, el sistema de regulación y control empieza con una función sensorial que consiste en registrar permanentemente las salidas que produce el sistema. Esta función es cumplida por el llamado subsistema detector, que es el componente del sistema de regulación y control que se encarga de capturar los datos que constituyen la representación simbólica de las salidas.

Obtenidos los datos de las salidas, el sistema de regulación y control debe determinar si

tales salidas responden al objetivo definido. Este objetivo se habrá formulado en términos de una norma (política, meta, procedimiento, estándar, etc.). Con esta norma, por lo tanto, deben compararse los datos capturados por el subsistema detector. Esta función es cumplida por un subsistema comparador que, al cotejar tales datos con la información de la norma de control, determina si el objetivo es satisfecho por la salida o si se ha producido una desviación y cuál es su magnitud.

Si no existe desviación, debe mantenerse el diseño o comportamiento del sistema. En

cambio, si el subsistema comparador determina la existencia de una desviación, será necesario modificar ese diseño, o bien modificar el objetivo del sistema cambiando la norma o su intervalo de tolerancia, de modo que la salida pase a situarse dentro de los límites de satisfacción del objetivo. En cualquiera de los dos casos, habrá que tomar una decisión. En el sistema de regulación y control, esta función decisoria es llevada a cabo por el subsistema activador, a partir de la información recibida del subsistema comparador.

La aplicación de este modelo a la organización permite advertir cuáles son los

subsistemas de la misma que cumplen las diferentes funciones. En efecto, el sistema de información de la organización actúa como detector y, puesto que captura representaciones simbólicas de las salidas (es decir, captura datos), todos los restantes sistemas de la organización procesan datos, ya que son alimentados por el sistema de información. Por su parte, el sistema de control de la organización opera como comparador y, finalmente, el sistema de decisión hace las veces de activador.

5. CLASES DE SISTEMAS DE INFORMACIÓN

Page 17: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

Existen diversos modelos que consideran los niveles en que puede dividirse la

organización desde el punto de vista de la naturaleza de las decisiones que en cada uno de ellos se adoptan. Así, por ejemplo, hay modelos que consideran tres niveles: el operativo, el de las decisiones programadas y el de las decisiones no programadas. Otros modelos contemplan una mayor cantidad de niveles. En cualquier caso, y teniendo en cuenta el análisis que aquí interesa realizar, está claro que la pirámide organizacional incluye, básicamente, un nivel inferior u operativo constituido por los procesos físicos de producción, distribución y administración, un nivel intermedio de supervisión y control en el que predominan las decisiones tácticas, y un nivel superior que adopta decisiones estratégicas. Dado el distinto carácter de las decisiones que se toman en los diferentes niveles, es evidente que la información que cada uno de ellos necesita es también de distinta naturaleza. Por lo tanto, se requiere la existencia de diferentes clases de sistemas de información, de acuerdo con la naturaleza de las decisiones que la misma debe sustentar. Del mismo modo que el sistema global de información satisface las necesidades del sistema-organización en su totalidad, las distintas clases de subsistemas de información habrán de satisfacer las necesidades de distintos subsistemas o niveles de la organización.

En virtud de este análisis, corresponde considerar las tres clases principales de sistemas

de información: los sistemas de información transaccionales, los sistemas de apoyo a la toma de decisiones y los sistemas para el nivel superior.

5.1. Sistemas transaccionales

Históricamente, los sistemas de información transaccionales fueron los primeros (y,

durante muchos años, casi los únicos) en ser incorporados al procesamiento computadorizado. En el contexto de los sistemas de información, una transacción es un intercambio entre un usuario que opera una terminal y un sistema de procesamiento de datos, y en el que se concreta un determinado resultado. Implica la captura y validación de los datos ingresados por el usuario, la consulta y/o actualización de archivos, y una salida o respuesta. Esta definición connota en la transacción su carácter de operación individual, relativamente breve e indivisible.

Los sistemas de información transaccionales, por lo tanto, están destinados a satisfacer las

necesidades del nivel operativo. Explotan la capacidad y velocidad de las computadoras para almacenar y procesar grandes volúmenes de datos. Realizan operaciones repetitivas y relativamente sencillas, y contribuyen a automatizar las tareas más rutinarias y tediosas, eliminar el “papeleo”, acelerar los trámites, disminuir la cantidad de mano de obra, minimizar los errores, facilitar la registración y recuperación de datos desagregados y, en general, reducir o aligerar las actividades que desarrollan los empleados u operarios de las organizaciones.

Los sistemas transaccionales suelen ser identificados con las siglas inglesas TPS

(Transaction Processing Systems) y OLTP (On Line Transaction Processing), esta última aplicada a los casos en que el procesamiento se realiza en tiempo real, es decir, cuando el procesamiento de los datos se realiza en el mismo momento en que suceden los hechos que los generan

En esta clase de sistemas, se encuentran los que son comunes a todas las organizaciones,

tales como los de Contabilidad, Facturación, Inventarios, Ventas, Proveedores, Cuentas Corrientes, Cobranzas, Caja, Bancos, Sueldos, Finanzas, Compras, Planeamiento y Control de la Producción, etc. También pertenecen a esta clase muchos otros sistemas (llamados sistemas para mercados verticales) que resultan más específicos de una rama de actividad, como, por ejemplo, Administración de Obras Sociales, Administración de Sistemas de Medicina Prepaga, Administración de AFJP, Servicios Financieros, Reserva de Pasajes, Administración Hospitalaria, Administración Hotelera, Administración de Propiedades, Administración de Instituciones Educativas, Producción de Seguros, etc.

Page 18: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

Si no para todos, para la mayoría de estos sistemas existe una variada oferta de paquetes de programas estandarizados. Los más numerosos son los diseñados para las organizaciones más pequeñas, y su costo, su grado de estandarización y su sencillez de manejo los hacen muy accesibles, así como aptos para su empleo con los más económicos modelos de computadoras personales. En el otro extremo, se encuentran las versiones más potentes y costosas, las que suelen tener mayores exigencias de implantación y, generalmente, requieren personal especialmente entrenado, recursos de computación relativamente caros y sofisticados, y la adaptación de los programas a las necesidades particulares de la organización.

Los sistemas transaccionales son indispensables en cualquier organización de cierta

envergadura, y no se puede prescindir de ellos por razones operativas y legales, entre otras. Sobre la base de estos sistemas, las organizaciones operan y toman las decisiones básicas y rutinarias para su desenvolvimiento cotidiano. Como es lógico, el procesamiento detallado de las transacciones va generando la acumulación y el almacenamiento de datos históricos que pueden ser recuperados en el momento y la forma en que sea necesario. Cuando esta recuperación se realiza con la aplicación de apropiados métodos de compresión, puede generarse información útil para la adopción de decisiones de niveles superiores. Así, por ejemplo, es posible obtener con relativa facilidad el total de las ventas de un determinado período de tiempo, de una sucursal o de una región; un análisis de deudas de clientes por antigüedad; los índices de ausentismo del personal por departamento, etc.

Estos informes se obtienen como un subproducto natural de los sistemas transaccionales

y, en general, son producidos en forma repetitiva. Resultan de suma utilidad a los niveles medios y, cuando la compresión es suficientemente alta, son utilizados también por los niveles superiores. A través de ellos, pueden controlarse algunas variables fundamentales de la organización, en especial cuando se trata de verificar el grado de cumplimiento de presupuestos y planes. Sin embargo, los niveles ejecutivos necesitan mucha otra información que no puede obtenerse a partir de los sistemas transaccionales y que, por lo tanto, debe ser suministrada por las clases de sistemas que se consideran en el resto de este capítulo.

5.2. Sistemas de apoyo a la decisión

Los sistemas de apoyo a la toma de decisiones, llamados más sencillamente sistemas de

apoyo a la decisión (SAD) o, en inglés, decisión support systems (DSS), son sistemas computadorizados, casi siempre interactivos, que están diseñados para asistir a un ejecutivo en la toma de decisiones. Los SAD incorporan datos y modelos para ayudar a resolver un problema que no es totalmente estructurado. Los datos suelen provenir de los sistemas transaccionales, de un repositorio de datos especialmente generado y mantenido, y/o de una fuente externa. Un modelo puede ser desde un sencillo análisis de rentabilidad realizado con una planilla de cálculo hasta un modelo complejo de optimización de carga de máquinas de una línea de producción.

Por ejemplo, puede utilizarse una planilla de cálculo para analizar un estado financiero

proyectado. Sobre la base de datos históricos, se formula la probable evolución futura de los ingresos y los egresos. De este modo, se dispone de un modelo básico con el que puede realizarse el denominado análisis de sensibilidad (es decir, el análisis que permite responder a la pregunta “¿Qué pasaría si…?”) modificando los valores de distintas variables para observar de qué modo afectan el resultado del modelo.

Los objetivos de un SAD son:

• Apoyar (no reemplazar) el juicio humano de tal modo que el potencial de los procesos del hombre y de la máquina sea utilizado al máximo.

• Crear herramientas de apoyo bajo el control de los usuarios, sin automatizar la totalidad del proceso decisorio predefiniendo objetivos o imponiendo soluciones.

Page 19: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

• Ayudar a incorporar la creatividad y el juicio de quien decide en las fases de formulación del problema, selección de los datos, y generación y evaluación de alternativas.

• Apoyar a los ejecutivos de alto nivel en la solución de problemas prácticos no totalmente estructurados y en los que, hallándose presente algún grado de estructura, el juicio sea esencial.

Los subsistemas principales de un SAD son: la base de datos, la base de modelos, el

generador de diálogo (o interfaz con el usuario) y el ejecutivo que decide. La siguiente figura muestra los componentes de un SAD.

Componentes de un sistema de apoyo a la decisión

El sistema de administración de bases de datos que forma parte de un SAD es un

instrumento para incorporar, almacenar y recuperar datos. Actúa como “memoria ilimitada” del ejecutivo, quien encuentra allí todos los datos de los sistemas transaccionales, otros datos internos y datos externos o del ambiente. Esta herramienta juega un papel fundamental en la etapa de generación de alternativas.

El sistema de administración de modelos es el que constituye la característica distintiva

de los SAD. La modelización es la función fundamental de todo SAD, ya que permite crear modelos y escenarios que representen situaciones reales. Esos escenarios ayudan al gerente a explorar alternativas y examinar las consecuencias de su decisión, antes de ponerla realmente en práctica.

Los SAD no conforman una categoría homogénea. Entre la gran variedad de capacidades

y características que pueden ofrecer, se encuentran las siguientes: • Recuperación de un dato elemental. • Análisis y relaciones de datos. • Recuperación de datos seleccionados de acuerdo con cierto criterio. • Cálculo de medidas estadísticas. • Filtrado de datos. • Generación de informes. • Cálculos aplicados a series de datos (proyecciones, correlaciones, tendencias,

funciones financieras). • Modelización matemática y análisis de sensibilidad.

Page 20: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

• Graficación. Algunos de los campos más propicios para la aplicación de un SAD son: Análisis financiero Presupuestación Fusión de empresas Análisis de costos Valuación de empresas Evaluación de proyectos Análisis de ventas Análisis de mercados Simulación Análisis de rentabilidad

Los SAD deben ser especialmente diseñados para las necesidades específicas de cada

ejecutivo. Desde luego, no constituyen una herramienta mágica, pero pueden ser muy efectivos si se construyen para ejecutivos realmente interesados en optimizar todas las etapas de los procesos de decisión en que intervienen.

5.3. Sistemas para el nivel superior

Como se ha visto, los sistemas de información transaccionales son los destinados a

satisfacer las necesidades del nivel operativo de las organizaciones. Pero también se ha expuesto la existencia de otros niveles organizativos que están fundamentalmente destinados a desarrollar las funciones de planeamiento y control de la organización, por lo que resulta crucial la implementación de sistemas especialmente diseñados para satisfacer sus particulares necesidades de información. Aunque existen manifestaciones específicas de esta clase de sistemas (tales como las aplicaciones de inteligencia de negocios y de sistemas de apoyo a la decisión, ambas desarrolladas en el capítulo siguiente), se destacarán aquí las características generales de todo sistema destinado a satisfacer las necesidades de información de las funciones propias de los niveles superiores de las organizaciones.

La importancia de los sistemas de información para el planeamiento y el control es

crecientemente reconocida y constituye la manifestación de un cambio “filosófico” de fondo en la concepción de la información como un recurso organizativo. Este cambio se halla asociado con la comprensión de que las computadoras constituyen una valiosa herramienta de control gerencial y un instrumento estrechamente vinculado con la rentabilidad y la generación de ventajas competitivas, en contraste con la tradicional imagen de simple elemento de automatización.

Para diseñar eficientes sistemas de información para el planeamiento y el control, es

necesario tener en cuenta la naturaleza de estas funciones, así como las necesidades de información de quienes las ejercen. Desde este punto de vista, las características esenciales de estas funciones son las siguientes:

• Cuanto más se sube en la pirámide organizacional, la información con la que los

ejecutivos operan tiende a ser más blanda. Información blanda es aquella cuya confiabilidad y valor no son precisos, debido a la fuente o a la ambigüedad de la evidencia. Por el contrario, información dura es la que posee una validez comprobada y puede utilizarse con un alto grado de confiabilidad para la toma de decisiones. La distinción es relevante, ya que la adopción de decisiones sobre la base de información blanda exige un diferente procesamiento mental que incluye la evaluación de cuán

Page 21: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

completa es la información, cuál es su grado de precisión y con qué otras fuentes debe ser integrada para que resulte confiable.

• Los niveles ejecutivos definen los objetivos y políticas de la organización, en el ámbito

de un planeamiento táctico o estratégico de plazos medianos o largos. • Cuanto más alto es el nivel de una función, el ejecutivo necesita aislarse más de las

operaciones de rutina, a fin de desarrollar y ejercer el poder. Es un generalista que asigna recursos y armoniza esfuerzos para alcanzar los objetivos de la organización.

• La información que se utiliza en los niveles más bajos se basa en el desempeño pasado,

en un análisis deductivo o inductivo de los datos existentes, o en fuentes externas relativamente confiables. La información que se utiliza en los niveles más altos puede tener las mismas bases pero, además, incluye en grado importante la que se recoge informalmente acerca de clientes, competidores o regulaciones gubernamentales. Comprende, asimismo, la información que anticipa los grandes avances científicos y tecnológicos, explorando la posibilidad de un medio ambiente futuro que pueda causar cambios significativos en la demanda de los consumidores, en la economía, en aspectos sociales y culturales o en el potencial de la competencia.

Estas características de las funciones de planeamiento y de control ponen de relieve tres

circunstancias importantes. En primer término, es evidente que el diseñador de sistemas de información debe tener una clara comprensión de la naturaleza del trabajo gerencial. (En realidad, él mismo debe poseer un enfoque gerencial de la información). En segundo lugar, el diseñador debe poseer un buen conocimiento del “negocio” de la organización y una visión estratégica de la contribución que la información puede brindar para su éxito. Por último, y como consecuencia de todo lo precedente, resulta notorio que, a distintos ambientes decisorios, corresponden informaciones de distintas características y orientadas a distintas necesidades.

El desafío con el que se enfrentan el diseñador y el usuario de estos sistemas, por lo tanto,

consiste en determinar las necesidades informativas de cada puesto ejecutivo, atendiendo tanto a la particular posición del mismo en la estructura de la organización como a los enfoques y características personales de quien lo ocupa. Para determinar estas necesidades de información de los ejecutivos, se han utilizado, según un análisis de John F. Rockart, algunos métodos que resultan todos incompletos. La descripción de tres de estos métodos tradicionales resultará útil para reconocer y eludir sus problemas o limitaciones y para apreciar las ventajas del método de los factores claves para el éxito, propuesto por Rockart2.

El método aún hoy predominante es el conocido como el de la técnica del subproducto.

Considera que la información que se debe proporcionar a los niveles ejecutivos es un subproducto de los sistemas transaccionales. Algunos datos suben, muy agregados o como informes de excepción. Cada responsable de un sistema operativo eleva los informes que él cree que debe suministrar, y no aquellos que los ejecutivos demandan. El resultado es una inundación de información, mucha de la cual es irrelevante para los administradores. La aplicación de este método incurre en el error de creer que un procedimiento eficiente para el manejo cotidiano de las transacciones lo es también para proveer la apropiada información gerencial.

El segundo método, al que Rockart llama enfoque vacío, se basa en la premisa de que es

imposible prever las necesidades de información, porque todo cambia con gran dinamismo. Este enfoque considera que, para manejar situaciones a medida que se van presentando, la única información válida es la que ha sido recientemente recogida, orientada al futuro, informal y

2 Rockart, JohnF., Chief Executives define their own data needs, Harvard Business Review, March-April 1979, pags. 81 a 93.

Page 22: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

“caliente”. Sostiene, asimismo, que los informes que se generan como subproductos de los sistemas transaccionales son inútiles, especialmente porque siempre llegan tarde. Lo que vale es la información oral, informal, recogida dinámicamente, persona a persona. De esto, se infiere falazmente que todo informe generado por computadoras carece de utilidad, por lo que es preferible obtener información blanda, basada en impresiones y especulaciones, ya que la información dura, analítica y documentada es de muy poco valor para la mayoría de los ejecutivos. Este enfoque no es totalmente desacertado, ya que los ejecutivos necesitan una buena cantidad de información que debe ser recolectada dinámicamente, a medida que se van presentando nuevas situaciones. Ciertamente, no toda la información útil proviene de los sistemas computadorizados. Pero estos sistemas suministran muchos de los datos imprescindibles para la conducción de la gestión organizacional.

Un tercer enfoque es el de los principales indicadores. Según el mismo, se selecciona un

conjunto de principales indicadores de la salud del negocio, y se los adopta como un grupo de variables de control relativamente permanente e inmutable. Se producen, por lo general gráficamente, informes de excepción de los indicadores que arrojan resultados distintos a los esperados. Este método pone “filtros” a la información que llega a la gerencia, ya que sólo se suministran datos sobre las variables que se han desviado de la meta. Sin embargo, todas las variables del negocio que han registrado la desviación son informadas al ejecutivo, con lo que se encuentran casos en que estas variables superan el medio centenar. De ahí, la necesidad de recurrir a ayudas visuales para exponer una profusa diversidad de fluctuaciones. Este paquete de informes se difunde por toda la organización, sin atender las necesidades particulares de cada puesto ejecutivo.

El método de los factores claves para el éxito (FCE) es consecuencia de estudios y

prácticas realizados por Ronald Daniel en 1961, Anthony, Dearden y Vancil en 1971 y, sobre todo, John F. Rockart, quien lo experimentó en el Instituto Tecnológico de Massachusetts, entre 1977 y 1979.

Los FCE de una gestión determinada son las actividades que es imprescindible que sean

satisfactorias para el buen resultado de esa gestión. Si esas actividades “marchan bien”, se puede tener una expectativa razonablemente alta de que la gestión “marche bien”. Al mismo tiempo, si los FCE han sido apropiadamente seleccionados, es de esperar que ninguna otra variable comprometa o ponga en peligro la obtención de los objetivos que se persiguen.

Los FCE para un puesto determinado de la organización son, habitualmente, entre tres y

seis. Estos factores corresponden a un momento y a un contexto determinados, y cambian o pueden cambiar con el transcurso del tiempo o la variación de condiciones del ambiente.

La determinación de los FCE para un puesto requiere:

• Definirlos claramente. • Determinar cómo se medirán. • Definir los informes para su seguimiento.

Para los puestos ejecutivos de una organización, pues, existirá un conjunto de FCE cuyo

seguimiento alcanza para saber si todo “viene funcionando correctamente” para cumplir los objetivos. Si, por ejemplo, un valor mínimo del precio del trigo en el mercado de Chicago fuera un FCE para la dirección, ésta necesitaría conocer permanentemente la evolución de ese precio, sabiendo que, si bajara del mínimo, comprometería seriamente la posibilidad de cumplir los planes de la empresa. Naturalmente, esto no significa que, si el precio del trigo no traspasa su límite crítico, todo marcha bien en la organización, sino que marchan bien aquellos factores vinculados con el éxito de la gestión de la dirección. Puede ser, por ejemplo, que la instalación de una red de equipos de computación registre un atraso respecto a lo planificado, pero éste será un FCE del gerente de sistemas, y no de la dirección.

Page 23: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

El método de los FCE es altamente efectivo para ayudar a los ejecutivos a definir sus

necesidades de información significativas. Requiere un mínimo de tiempo de entrevistas (de tres a seis horas), distribuidas en dos o tres sesiones en las que se siguen los siguientes pasos:

• Se registran inicialmente los objetivos del ejecutivo. • Se discuten los FCE que están implícitos en los objetivos. • Se exploran los criterios de medición de los FCE. • Se revisan los resultados de los pasos anteriores, con aportes del analista para “afinar” los

FCE. • Se discuten en profundidad las mediciones posibles. • Se proponen, analizan y discuten los informes que deberán producirse para cada FCE. • Se adopta un acuerdo final sobre las mediciones e informes de los FCE.

Hay cuatro fuentes de FCE:

• La primera de ellas es la industria o rama de actividad en la que la organización actúa. Cada industria tiene FCE que son relevantes para cualquier organización que pertenezca a ella.

• Otra fuente es la organización misma y su particular situación en la industria. Aunque varias organizaciones puedan tener los mismos FCE, suele ocurrir que les asignen distintas prioridades.

• Una tercera fuente de FCE es el contexto (tendencias de consumo, situación económica, factores políticos, etc.).

• La cuarta fuente de FCE es la coyuntura de la organización, es decir, áreas de actividad que normalmente no requieren especial seguimiento pero que se encuentran temporariamente en una situación crítica que demanda atención.

Hay dos tipos principales de FCE: los de seguimiento, que surgen del control de las

operaciones en curso, y los de transformación, que se relacionan con el progreso de programas de cambio iniciados por el ejecutivo. Cuanto más alta es la posición del ejecutivo en la organización, su lista de FCE tiene una mayor proporción de factores de transformación.

El método de los FCE se concentra en ejecutivos individuales y en las actuales

necesidades de información de cada uno, sea información dura o blanda, computadorizada o no, interna o externa. Además, toma en cuenta el hecho de que tales necesidades variarán de un ejecutivo a otro y cambiarán con el tiempo para un ejecutivo particular. Los FCE, antes que “de la organización”, son personales por naturaleza. Dos ejecutivos ocupantes de puestos similares, aun dentro de la misma organización, pueden tener FCE diferentes en razón de sus distintos antecedentes, experiencias y estilos gerenciales. En esto, los FCE se distinguen de las metas y objetivos, que son relativamente inmutables y están definidos en términos organizacionales.

Como muchos hallazgos metodológicos que, una vez formulados, parecen verdades de

sentido común, la determinación de los FCE resulta aparentemente sencilla y obvia. Sin embargo, no es así. En la misma potencia de concentración informativa de los FCE reside el riesgo de definirlos, medirlos o controlarlos incorrectamente. La confianza del ejecutivo en la buena marcha de la gestión a su cargo, cuando los FCE se muestran positivos, es una herramienta valiosísima para su actividad cotidiana, pero solamente si los FCE han sido correctamente determinados. Por el contrario, si los FCE han sido erróneamente elegidos, esa misma confianza constituirá el camino del fracaso, ya que los problemas serán descubiertos demasiado tarde. Por esta razón, la selección de los FCE para cada puesto gerencial se realiza habitualmente en el contexto de un plan de trabajo a cargo de expertos, y mediante la aplicación de procedimientos que proporcionan ciclos recursivos con cuya reiteración se van afinando paulatinamente las definiciones.

Page 24: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

Capítulo 2 APLICACIONES EMPRESARIAS TÍPICAS

Sistemas de gestión empresarial (ERP): características, requisitos de implantación, ventajas y desventajas – Inteligencia de negocios: data warehouse, data mart y data mining – Métodos aplicables en data mining – Procesamiento analítico en línea (OLAP) – Gestión de la relación con el cliente (CRM): características, funciones, objetivos – Gestión de la cadena de abastecimiento (SCM): características y funciones 1. SISTEMAS DE GESTIÓN EMPRESARIAL (ERP)

Los sistemas ERP (del inglés enterprise resource planning, es decir, literalmente,

planificación de los recursos de la empresa) son paquetes de software constituidos por módulos integrados y específicamente diseñados para automatizar y vincular todas las áreas y operaciones básicas de una empresa. Por lo tanto, y a pesar de su nombre, un sistema ERP excede en mucho el ámbito de la planificación de los recursos de una empresa. La denominación ERP proviene de los sistemas llamados MRP (material requirement planning, es decir, planeamiento de los requerimientos de materiales), difundidos a partir de la década de 1960. Estos sistemas pasaron a adoptar su denominación actual cuando, en la década de 1990, extendieron su alcance a las áreas de finanzas, recursos humanos, compras y ventas, entre otras. Por ello, estos sistemas suelen llamarse más apropiadamente software de gestión empresarial.

Los sistemas ERP responden a la estrategia de diseño de un único producto de software

que cubra todas las áreas de actividad y necesidades de información de una empresa y que permita concentrar en una única base de datos la información de todos los subsistemas de la organización. Sin perjuicio de ello, los sistemas ERP pueden implantarse de manera parcial, ya que se hallan estructurados en módulos que pueden funcionar de modo autónomo. Los módulos abarcan todos los procesos típicos de una organización: administración, finanzas, producción, logística, recursos humanos, cadena de abastecimiento, relaciones con clientes, etc.

Un sistema ERP integra los procesos de negocios más importantes. Su núcleo principal es

una base de datos central que obtiene datos de los módulos que soportan las diferentes funciones empresariales. Todos los departamentos de la organización acceden a los mismos datos, lo que permite que, en cualquiera de aquéllos, se pueda tener una visión en tiempo real del funcionamiento de la empresa o de cualquiera de sus partes3.

3 Davenport, Thomas H., Putting the Enterprise into the Enterprise System, Harvard Business Review, July-August 1998.

Page 25: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

Esquema de un sistema ERP

Los sistemas ERP están basados en patrones obtenidos de las mejores prácticas de las

empresas que los utilizan. Debido a su estandarización, constituyen una solución genérica cuyo diseño refleja una serie de suposiciones acerca de cómo funciona una organización típica. Por lo tanto, cuando una empresa pretende adaptar sus procesos a las mejores prácticas incluidas en un sistema ERP, puede satisfacer con ello sus objetivos de eficiencia. Sin embargo, si la empresa ha definido sus procesos de modo distinto al que el sistema ERP ha adoptado como supuesto, el sistema puede no resultar adecuado. En el pasado, cuando se desarrollaba un sistema de información, las organizaciones debían decidir cómo querían hacer su negocio, y luego elegían un software que se adecuara a sus procesos. Con los sistemas ERP, se genera una secuencia inversa, ya que los procesos de negocios deben adaptarse al sistema.

La implantación de un sistema ERP completo requiere una importante tarea de adaptación

y parametrización iniciales, a fin de adecuarlo a las especiales características de cada empresa y a las de los regímenes legales y fiscales de cada país. Por esta razón, se requiere un riguroso planeamiento y una cuidadosa ejecución de la implementación, la que, habitualmente, se lleva a cabo con el auxilio de firmas consultoras que se han especializado en alguno de los paquetes ERP ofrecidos en el mercado.

La personalización, o adecuación del sistema a las características particulares de una

organización, se hace mediante tablas de configuración que ofrecen una serie limitada de opciones. Cuando estas opciones no son suficientes para obtener la apropiada adecuación, se requiere la modificación de alguna parte del código, o bien la utilización de un sistema externo al ERP, así como la construcción de la correspondiente interfaz. Ambas posibilidades demandan tiempo y esfuerzo, y pueden diluir los beneficios de integración del sistema ERP. Por otra parte, las modificaciones en el código sólo pueden tener un alcance limitado, pues la complejidad del sistema hace que las modificaciones mayores sean impracticables.

Por lo tanto, es imprescindible definir con precisión el grado de estandarización de los

procesos de negocios que resulta razonable para una organización. En general, la realización de cambios en el código de los programas debe ser considerada con cautela, por lo que una implementación exitosa de un sistema ERP requiere que los procesos del negocio sean cambiados para ajustarse al sistema. Algunos implementadores recomiendan un enfoque híbrido por el cual los cambios en el código sólo se llevan a cabo cuando la ventaja derivada de utilizar procesos no estandarizados es claramente demostrable.

Page 26: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

Aunque los sistemas ERP permiten hacer significativos ahorros, debe tenerse en cuenta

que la implementación suele ser más costosa que el producto propiamente dicho, ya que involucra factores tales como la escasez de personal con experiencia en la implementación del sistema, el costo de encarar un proyecto enfocado hacia la reingeniería (tradicionalmente adoptado por las firmas implementadoras), la necesidad de incrementar la infraestructura tecnológica para satisfacer las demandas del sistema, la contratación de consultorías (previas y durante el proceso de incorporación), la capacitación del personal y el desarrollo del proceso de cambio. Se calcula que el costo final de la implementación de un sistema ERP es, por lo menos, entre tres y cinco veces superior al valor de las licencias.

Un sistema ERP, por su naturaleza, impone su propia lógica en la estrategia, la estructura

y la cultura de una organización, pues ésta es impulsada a una integración total (incluso cuando la segregación de una unidad de negocios es de especial interés) y a la implantación de procesos genéricos (incluso cuando la diferenciación de algún proceso constituye una ventaja competitiva). Para evitar los riesgos que esto implica para una implementación exitosa, es necesario efectuar una cuidadosa evaluación y selección del producto, una esmerada gestión del proyecto, un minucioso manejo del proceso de cambio y una estricta ponderación del esfuerzo de implementación, incluyendo los procedimientos de transición entre los sistemas antiguos y el sistema nuevo.

De acuerdo con lo expuesto hasta aquí, los sistemas ERP ofrecen ventajas como las

siguientes:

Evitan el esfuerzo y el tiempo de desarrollo de sistemas propios. Normalmente, son más económicos que los sistemas equivalentes desarrollados

internamente. Son sistemas probados que proporcionan un alto grado de estabilidad en cuanto a su

funcionamiento. Son actualizados permanentemente por sus proveedores, lo que asegura su permanente

adecuación a los cambios que puedan producirse en las normas contables o legales. Cuentan con soporte de proveedores y consultores, disponibles en caso de problemas o

necesidades. Incorporan las mejores prácticas. Sus costos finales pueden calcularse con mayor precisión que los de los sistemas

desarrollados a medida. Son sistemas integrados conformados por módulos autosuficientes, lo que permite

responder a las necesidades de cada organización. Ofrecen la posibilidad de consolidar empresas del mismo grupo, aun cuando éstas

operen en diferentes países, idiomas o monedas. Entre las desventajas de los sistemas ERP, pueden enunciarse las siguientes:

Requieren una compleja tarea de personalización del software según las necesidades de la organización.

Generan una importante dependencia del proveedor. Requieren un alto esfuerzo y costo de implementación. Exigen que los procesos de la organización sean adaptados al sistema. Pueden no ofrecer similar eficiencia en las prestaciones de los diferentes módulos. Demandan importantes recursos de computación.

Page 27: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

2. INTELIGENCIA DE NEGOCIOS La expresión inteligencia de negocios es la traducción de Business Intelligence (BI) y

alude, principalmente, al ámbito de acción de las organizaciones dirigido a favorecer la mayor eficiencia en la toma de decisiones. En general, las herramientas involucradas en la inteligencia de negocios son las que están destinadas a recolectar, organizar y analizar los datos que se hallan diseminados en toda la organización, a fin de proporcionar información útil para el planeamiento del negocio y la adopción de decisiones. Desde este punto de vista, la inteligencia de negocios se orienta a suministrar al usuario el acceso a toda la información almacenada en la organización, no importa en qué tipo de soporte físico o lógico se conserven los datos. Esencialmente, la inteligencia de negocios implica un enfoque modernizado de los tradicionales sistemas de información gerencial (MIS, management information system).

Aunque, por el uso comercial de la expresión, los alcances de la misma no siempre son

inequívocos, la inteligencia de negocios involucra generalmente las aplicaciones informáticas OLAP (en inglés, oline analytical processing, es decir, procesamiento analítico en línea), las de data warehousing y de data mining, y, a veces, las de los sistemas de apoyo a la decisión (DSS, decision support system). En algunos casos, la expresión se utiliza como sinónimo de estos últimos sistemas.

2.1. Data Warehouse

Según W. H. Inmon, el creador del concepto, un data warehouse (en castellano, almacén

de datos) es "un conjunto de datos integrados orientados a una materia, que varían con el tiempo y que no son transitorios, los cuales soportan el proceso de toma de decisiones de una administración". El concepto de data warehouse ha tomado difusión a mediados de la década de 1990, a pesar de haberse generado veinte años antes. Este concepto se refiere a la adecuada administración y explotación de los datos actuales e históricos registrados en una organización, a fin de suministrar a cada ejecutivo la información apropiada para la adopción de decisiones.

La implementación de un data warehouse no se propone producir información nueva,

sino organizar el almacenaje de los datos que han sido generados a lo largo del tiempo por la totalidad de los subsistemas de información de la organización, con la finalidad de:

- Facilitar la manipulación de los datos por los usuarios. - Ofrecer información histórica para el análisis de tendencias. - Integrar los datos para permitir análisis corporativos. - Transformar los datos en información útil y oportuna. Un data warehouse puede permitir a una empresa, por ejemplo: - Conocer mejor a cada cliente y entender más claramente las necesidades del mismo. - Evaluar los aspectos financieros de cada uno de los productos y servicios ofrecidos. - Acelerar la etapa de lanzamiento de nuevos productos. - Realizar análisis de tendencias. - Elaborar modelos de utilidades. - Analizar y administrar el riesgo. - Planear sistemas de abastecimiento. Como suele decirse, el data warehouse brinda al gerente de un supermercado el mismo

conocimiento que tenía el almacenero, quien sabía, por ejemplo, que determinado cliente compraba manteca todos los martes. Bajo el enfoque implicado en un data warehouse, el cliente ya no es un simple número, sino una persona diferenciada, con determinados gustos, con cierta familia, con ciertos ingresos, que habita en un lugar concreto, etc.

Page 28: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

La implementación de un data warehouse es el camino para capturar datos que se hallan

dispersos en muchas y diferentes fuentes, a fin de consolidarlos en un único punto y transformarlos en un nuevo modelo. La captura de datos se realiza mediante procedimientos de extracción, sumarización y “limpieza”. Luego, se construye la interfaz adecuada para el usuario final.

En relación con el concepto de data warehouse, se alude también al denominado data

mart (en castellano, mercado o tienda de datos). Un data mart es un data warehouse específico y limitado. Está diseñado para satisfacer las necesidades de un proceso de negocios determinado, de un departamento específico o de una actividad concreta de la organización. En teoría, un data mart se construye a partir de un data warehouse, aunque con interfaces más sencillas y menos numerosas. Sin embargo, en la práctica se implementan data marts que no provienen de un data warehouse, sino que nacen como data warehouses en sí mismos, aunque con el objetivo de cubrir sólo un área de la organización. Un proceso de sucesivas implementaciones de data marts encarados con este criterio puede terminar dando lugar, por la integración de todos ellos, a un verdadero data warehouse.

2.2. Data mining La expresión data mining (en castellano, minería de datos) alude a la búsqueda de

patrones o relaciones ocultas en la información contenida en un data warehouse. Debajo de la gran montaña de información de las transacciones de una empresa, hay un conjunto de vínculos, tendencias y patrones globales como, por ejemplo, la relación entre cada cliente y los productos que compra habitualmente. Para poder descubrir esta "información escondida" a fin de utilizarla en la definición de estrategias y tácticas de la organización, se aplica un conjunto de técnicas que reciben la denominación general de data mining y que emplean, por separado o en forma combinada, métodos estadísticos y de inteligencia artificial, tales como modelización predictiva, inducción a reglas, segmentación de la base de datos, análisis de conglomerados,

Page 29: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

descubrimiento de patrones secuenciales, descubrimiento asociativo, agrupamiento de series cronológicas, clasificación, etc.

Mediante estos métodos, se construyen modelos a partir del data warehouse, a fin de

encontrar los patrones que describen relaciones entre datos o que permiten pronosticar valores y comportamientos futuros. Los modelos que se basan en la clasificación de datos, en procedimientos de regresión o en la elaboración de series cronológicas son aplicables para formular predicciones. Por su parte, el análisis de patrones de relaciones se basa en modelos como los de asociación, determinación de secuencias y agrupamiento.

La aplicación de data mining reconoce numerosos campos de interés en el mundo de los

negocios. Entre otros, se hallan: planeamiento de campañas de marketing directo, optimización de canales de distribución y de venta, análisis de riesgo crediticio, análisis de rentabilidad de clientes, prevención de fraudes, análisis de mercado, etc.

Algunos de los métodos de data mining que pueden proveer herramientas muy útiles para

la toma de decisiones son los siguientes:

Análisis de conglomerados El análisis de conglomerados (en inglés, cluster analysis) es una técnica estadística que

consiste en analizar un conjunto de elementos y, a partir de ellos, formar grupos compuestos por elementos que sean similares en uno o varios atributos cuantitativos y/o cualitativos. Por ejemplo, pueden analizarse todos los clientes de una empresa con el fin de agruparlos de acuerdo con el producto que compran (atributo cualitativo), o de acuerdo con ciertos intervalos de monto de compras (atributo cuantitativo).

Análisis de asociación

El análisis de asociación busca descubrir la correlación que pueda existir entre variables del negocio. Se aplica con el propósito de descubrir y formular reglas del tipo: "Cuando se presenta el factor o suceso A, se presenta también el factor o suceso B en un X por ciento de los casos". Por ejemplo: "Cuando el cliente compra una computadora personal, compra también un mínimo de tres CD-ROM de juegos en un 80% de los casos".

Descubrimiento de secuencias

El descubrimiento de secuencias es un tipo de análisis por el cual se busca descubrir relaciones de secuencia entre sucesos. Mientras el análisis de asociación busca encontrar relaciones entre sucesos que se presentan en forma simultánea, el descubrimiento de secuencias trata de hallar relaciones entre sucesos que se presentan en secuencia temporal, es decir, uno después del otro. Así, las reglas que intenta descubrir y formular esta herramienta son del tipo: “Cuando se presenta el suceso A, se presenta también el suceso B dentro de X días en un Y por ciento de los casos”. Por ejemplo: “Cuando el cliente compra un sistema operativo, hace una llamada a la mesa de ayuda dentro de los 2 días en un 75% de los casos.”

Modelo de clasificación

El modelo de clasificación es un tipo de modelo que, a partir del análisis de un cierto conjunto de datos clasificados, permite inducir un patrón para describir comportamientos o valores futuros. Los casos a partir de los cuales se elabora el modelo pueden provenir de una base de datos histórica, en la que se ha acumulado la información de los sistemas transaccionales de la organización, o bien de un experimento o una prueba realizados en el mundo real con una muestra de los datos de la base.

Por ejemplo, la base de datos histórica de los clientes puede clasificarse por alguna clave

tal como la edad, el lugar de residencia, la antigüedad, etc. Se obtiene así un conjunto de clases de clientes, tales como la de los que tienen entre 21 y 30 años, la de los que tienen entre 31 y 40

Page 30: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

años, etc.; o las clases de clientes que residen en cada provincia; o las de los que registran un cierto intervalo de años de antigüedad; etc. Analizando, por ejemplo, el consumo de un determinado producto vendido por la empresa, podría comprobarse que los clientes entre 31 y 40 años de edad realizan el 85% de las compras de ese producto, por lo que una campaña de venta directa de ese producto debería concentrarse en ese segmento. De igual modo, si los clientes del segmento fueran sometidos a una nueva clasificación por sexo, podría determinarse que la mayor parte de las compras fueron realizadas por mujeres, lo que permitiría efectuar una nueva focalización más concentrada de la gestión de ventas. Precisamente, los modelos de clasificación suelen aplicarse a la solución de problemas comerciales.

Modelo de agrupamiento

Un modelo de agrupamiento es una clase de modelo que se elabora mediante la segmentación de una base de datos en diferentes grupos, cada uno de los cuales comprende los miembros de la base que son muy similares respecto de una determinada característica. A diferencia del modelo de clasificación, en el que la segmentación se lleva a cabo basándose en una determinada clave, el modelo de agrupamiento busca similitudes, y determina grupos basándose en las mismas.

Por ejemplo, se puede realizar el análisis de una base de datos de clientes y generar

segmentos de clientes que registren un similar monto de compras, o un similar número de compras por año, o un mismo producto comprado, etc. Teniendo en cuenta que el modelo de agrupamiento suele terminar arrojando resultados imprevisibles, es necesario que, si se busca extraer conclusiones útiles y consistentes, tales resultados sean analizados e interpretados por quien conozca el negocio particular de que se trate.

Modelo de regresión

El modelo de regresión es un tipo de modelo que emplea el análisis de regresión con el fin de que, a partir de series de valores conocidos, puedan inferirse valores no conocidos. La regresión es un procedimiento por el cual, dadas las respectivas series de valores de dos variables, se determina una ley, llamada ley de regresión, que describe en promedio la correlación existente entre las variaciones de ambas series.

El procedimiento consiste en encontrar una función que describa del mejor modo posible

la relación existente entre las dos variables. Tal función, que recibe el nombre de ecuación de regresión, permite calcular, aunque sea aproximadamente, el valor de una de las variables conociendo el valor de la otra.

Análisis de series cronológicas

Una serie cronológica es una tabla en la que se exhibe la correspondencia empírica existente entre valores de la variable tiempo y valores de un atributo cuantitativo. Esta serie, llamada también serie temporal, muestra la evolución o comportamiento de un atributo cuantitativo a través del tiempo. El análisis de una serie cronológica se orienta a determinar si existe una ley que gobierna el fenómeno que se estudia, ya que, si esa ley existiera y fuera descubierta, la experiencia del pasado podría aplicarse, mediante la previsión estadística, a la predicción de la evolución del fenómeno en el futuro.

Para establecer si en una determinada serie existe una estructura o ley que la determine,

se recurre a la descomposición de la serie en elementos simples y luego se trata de separar los componentes sistemáticos de los componentes aleatorios. Los componentes comúnmente analizados en una serie temporal son: la tendencia secular, las variaciones estacionales, las variaciones cíclicas y la variación residual aleatoria.

Page 31: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

2.3. Sistemas de procesamiento analítico en línea (OLAP) Como queda dicho, los sistemas de información transaccionales (en inglés, OLTP, on line

transaction processing) realizan operaciones repetitivas y relativamente sencillas y contribuyen a automatizar las tareas más rutinarias y tediosas. Estos sistemas acumulan gran cantidad de información que no es explotada en su totalidad, debido a que presentan limitaciones para la realización de consultas y contienen una limitada información histórica. Para explotar la información proveniente de los sistemas transaccionales, se utilizan los sistemas de procesamiento analítico en línea (en inglés, OLAP, on line analytical processing).

Las diferencias más importantes entre los sistemas OLTP y OLAP son: Los sistemas transaccionales (OLTP) están orientados a los procesos, mientras que los

sistemas analíticos (OLAP) están orientados al tema y tienen un alcance corporativo. Los sistemas analíticos no solo trabajan con datos actuales, sino también con datos

históricos. Los sistemas analíticos no se actualizan con cada transacción en el nivel operativo, sino

que se actualizan periódicamente. En un sistema transaccional, el tiempo de respuesta es crítico, mientras que, en un

sistema analítico, no lo es, debido a que su objetivo esencial es suministrar información para análisis.

3. GESTIÓN DE LA RELACIÓN CON EL CLIENTE (CRM) La sigla CRM (que corresponde al inglés customer relationship management) identifica

los sistemas de información y los respectivos paquetes de software destinados a cubrir todos los aspectos de la relación de una empresa con cada uno de sus clientes.

Los sistemas CRM pueden incluir una amplia gama de subsistemas, todos ellos

caracterizados por su propósito de apoyar las actividades que vinculan las empresas con sus clientes, ya sea antes, durante o después de la venta. Así, estos sistemas suelen comprender aplicaciones de data warehousing y data mining, gestión de la fuerza de ventas (en inglés, SFM, sales force management), centros de llamadas, mesas de ayuda, soporte técnico de productos vendidos, servicios posventa, etc.

Uno de los mayores divulgadores de los conceptos de marketing implicados en CRM ha

sido el autor estadounidense Don Peppers, quien, en su libro “The one to one future” (“El futuro del uno a uno”) acuñó la expresión marketing uno a uno (one to one marketing), la que pasó a ser considerada como el lema de las prácticas de CRM. Asimismo, en su libro ”Enterprise one to one” (“La empresa uno a uno”), Peppers desarrolla las diferentes estrategias de aplicación de CRM y del marketing interactivo.

Las aplicaciones CRM responden al proceso por el cual las empresas se transforman en

organizaciones orientadas al cliente o centradas en él, lo que supone que, si el negocio se diseña y opera alrededor del cliente y sus necesidades, lo más probable es que se venda más y mejore la rentabilidad de la empresa. Para que esto ocurra, se requieren herramientas que permitan tener una visión integrada del cliente, lo cual implica el desarrollo de funciones como las siguientes4:

4 Kalakota, Ravi y Robinson, Marcia, Del e-Commerce al e-Business, Addison Wesley, 1999. Massachusetts

Page 32: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

• Unificar la información del cliente. Un requerimientos básico para las aplicaciones CRM es la capacidad de acceder, manejar, procesar e integrar toda la información relevante de los clientes.

• Integrar las fuentes de contacto con el cliente. La gestión del contacto con el cliente

requiere la integración de todas las fuentes de captura de información acerca del mismo, así como la provisión de acceso compartido a la información recogida. Las fuentes de contacto con el cliente pueden ser el centro de llamadas, Internet u otros canales.

• Encadenar los procesos. Es necesario integrar los procesos de ventas con los de servicios de posventa, a fin de estar en condiciones de anticipar y satisfacer las necesidades de los clientes.

• Implementar la empresa extendida. Para proveer un servicio que favorezca la lealtad de

los clientes, es necesario que la empresa se extienda hacia clientes y proveedores, ya sea mediante Internet, intranets o extranets.

• Integrar los sistemas. La gestión de la relación con el cliente requiere la integración de la

telefonía, la red Internet y las bases de datos de la empresa. Esto involucra el funcionamiento integrado de las aplicaciones tradicionales, las aplicaciones CTI (integración de la telefonía con la computación), las aplicaciones de data warehouse y los sistemas apoyo a la decisión.

Mediante el cumplimiento de las funciones mencionadas, una infraestructura de CRM

permite crear un enfoque integrado para conocer y entender el comportamiento del cliente a través del registro y el análisis de todas las interacciones del mismo con la empresa, para lo cual implementa un diálogo único con el cliente y asegura que los canales que utiliza son sencillos y consistentes. Por esta vía, CRM se enfoca en la satisfacción de los siguientes objetivos principales:

• Aprovechar las relaciones existentes para generar ingresos. Al identificar, atraer y retener a los mejores clientes, se puede incrementar las ganancias mediante promociones y ventas cruzadas.

• Utilizar la información disponible para proveer un mejor servicio. El uso de la

información del cliente permite atender mejor sus necesidades, evitando las situaciones en las que éste se siente frustrado o se ve envuelto en trámites y pérdidas de tiempo. Así, por ejemplo, la posibilidad de acceso a la información del cliente evita que distintos departamentos soliciten los mismos datos cuando se comunican con él, y genera en el cliente la sensación de que la empresa lo identifica, lo conoce y lo trata en forma personalizada.

• Crear nuevos valores y promover la fidelidad. La fidelidad de un cliente no es permanente, ya que sólo se mantiene hasta que un competidor lo atrae con una mejor propuesta. Para mantener y consolidar la lealtad, la empresa debe concentrarse en la atención de las necesidades y la satisfacción de los peticiones del cliente.

• Implementar una estrategia de servicios proactiva. Una estrategia de servicios proactiva implica una actitud enfocada al cliente que funcione en toda la empresa y que se adelante a tratar las necesidades y problemas del cliente antes de que éste se vuelva crítico.

La gestión de la relación con el cliente se basa en ciertas premisas que conforman un

perfil característico del comportamiento general de los clientes. Las principales de esas premisas son:

Page 33: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

Cuesta más conseguir un nuevo cliente que mantener el actual. El costo de recuperar un cliente perdido es más alto que el costo de dejarlo satisfecho. Es más fácil vender un nuevo producto a un cliente actual que venderlo a un nuevo

cliente. Un cliente insatisfecho divulga su mala experiencia. Un cliente que se queja vuelve a comprar si se le resuelve su problema

satisfactoriamente. No todos los clientes son iguales. Algunos son más rentables que otros; algunos no son

rentables, pero podrían serlo; algunos nunca serán rentables; algunos son clientes que es preferible perder.

La fidelidad del cliente no es permanente. Un cliente permanece como tal hasta que un competidor lo atrae con una mejor propuesta.

El proceso global implicado en un sistema CRM, por lo tanto, se concentra en cuatro

funciones básicas:

• Identificación del cliente. • Diferenciación del cliente en términos de sus particulares necesidades y de su valor para la

empresa. • Interacción eficiente con el cliente. • Adaptación de los productos o servicios a las necesidades particulares del cliente.

Este proceso tiene tres fases interrelacionadas: la incorporación de nuevos clientes, el

mejoramiento de las relaciones con los clientes existentes y la retención de los buenos clientes. Con frecuencia, las empresas deben elegir cuál de estas fases será privilegiada, lo cual puede determinar una particular estrategia de elección e implementación de un sistema CRM.

Una aplicación CRM típica utiliza la tecnología para:

• Capturar información sobre los clientes. • Consolidar la información de los clientes en la base de datos de la empresa. • Analizar los datos de los clientes (mediante herramientas como data mining) para

identificar patrones • Formular a los clientes propuestas o promociones de acuerdo con las características de

cada uno de ellos. El siguiente gráfico ilustra lo precedente.

Page 34: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

Gerencia

Cara a caraTeléfono Internet

Correo

Market ing Ventas Servicio

Análisis de los datos

Consolidación en Base de Datos

Puntos de captura

Diseminación a los interesados

Gerencia

Cara a caraTeléfono Internet

Correo

Market ing Ventas Servicio

Análisis de los datos

Consolidación en Base de Datos

Puntos de captura

Diseminación a los interesados

Algunas de las herramientas tecnológicas involucradas en las aplicaciones CRM son:

Integración de los distintos tipos de comunicación y contacto con el cliente, tales como teléfono, correo electrónico, Web, etc.

Pantallas pop (en inglés, pop screen). Son las pantallas que se abren automáticamente y que exhiben la información del cliente a partir de la identificación del mismo.

Información histórica de las interacciones con los clientes. Estadísticas de diferentes tipos. Ruteo de llamadas, que deriva una llamada a la persona más indicada. Llamadas y respuestas automáticas.

La implantación exitosa de un sistema CRM se sustenta más en el diseño de una apropiada

estrategia que en el uso de abundante y sofisticada tecnología, ya que tal implantación no consiste en la simple implementación de un paquete de software, sino en el planteamiento de una estrategia coordinada de marketing, ventas y servicios. Por ello, antes de implantar un paquete de aplicaciones CRM, es necesario crear una estrategia de clientes e instaurar una organización orientada al cliente.

A veces, se alude a sistemas denominados de automatización de la fuerza de ventas (en inglés, SFA, sales force automation) para aludir a aplicaciones CRM que se concentran en proporcionar herramientas de gestión computadorizada a todos quienes participan en las operaciones de venta de una empresa. En tales casos, los sistemas SFA se refieren principalmente a soportes de computación autónoma aplicados a los trabajadores de venta que actúan "en ruta", es decir, de modo itinerante fuera del ámbito físico de la empresa. Esto comprende, por ejemplo, funciones de venta, promoción, soporte técnico a domicilio, levantamiento de pedidos, encuestas o mediciones de consumo, etc. De cualquier forma, la tendencia general es que la aplicación de SFA forme parte de un paquete de software CRM . 4. GESTIÓN DE LA CADENA DE ABASTECIMIENTO (SCM)

Respecto de una organización, la cadena de abastecimiento es el conjunto de operaciones

y participantes que conforman el ciclo completo de flujo de productos y materiales entre la propia organización y sus proveedores, distribuidores, minoristas e, inclusive, sus clientes. Para

Page 35: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

una organización determinada, se considera comúnmente que la cadena de abastecimiento está conformada por las empresas de todo tamaño que participan de su ciclo completo de producción y comercialización, desde la materia prima hasta el cliente final. Para la organización, ello involucra las operaciones básicas de:

- Compra de las materias primas. - Fabricación. - Almacenaje y distribución. - Venta. Desde el punto de vista de la automatización de la cadena de abastecimiento mediante

una aplicación informática específica, el objetivo básico consiste en establecer una verdadera corporación virtual para intercambio de información entre proveedores y clientes, en cualquier momento y en cualquier lugar de la cadena. A partir de comienzos de la década de 1990, fueron apareciendo aplicaciones expresamente diseñadas para gestionar la cadena de abastecimiento. Este campo de aplicación, denominado gestión de la cadena de abastecimiento (en inglés, SCM, supply chain management), suele cubrirse con módulos de planificación de la manufactura, planificación de la demanda, planificación de la distribución y planificación del transporte. La clave de estos sistemas consiste en compartir información con los restantes miembros de la cadena, para lo cual, y debido a las naturales diferencias de plataformas tecnológicas entre las diversas empresas, es necesario implantar algún modo de diálogo o intercambio de información que supere tales diferencias.

Típicamente, un sistema de gestión de la cadena de abastecimiento toma en cuenta las

restricciones del mundo real y la disponibilidad de recursos para ejecutar los planes de fabricación y los planes comerciales. Sobre tales bases, el sistema formula una programación de toda la cadena y señala los puntos críticos para su cumplimiento. Los usuarios pueden ajustar los plazos y/o la asignación de los recursos hasta formular una programación adecuada.

Los sistemas de gestión de la cadena de abastecimiento tienen por objetivo integrar y

automatizar la cadena, desde el productor hasta el minorista. Buscan que todos los eslabones de la cadena compartan información con los restantes, a fin de evitar que se generen stocks excesivos o insuficientes y permitir que el flujo de productos y materiales a lo largo de la cadena sea lo más estable posible.

Los sistemas SCM ayudan a mejorar la coordinación de los flujos de materiales, de

información y de transacciones financieras entre las empresas participantes. Los flujos de materiales implican tanto flujos de productos físicos de los proveedores a los clientes como los flujos inversos originados, por ejemplo, en las devoluciones de productos. Los flujos de información corresponden a estimaciones de la demanda, niveles de inventario, planes de producción, envíos de pedidos e información sobre el estado de los mismos. Los flujos financieros corresponden a informaciones sobre tarjetas de crédito y programaciones de pagos, entre otros. Estos flujos se establecen entre proveedores de materias primas y materiales, fabricantes, distribuidores, depósitos, transportadores, minoristas y consumidores.

Para lograr los objetivos de la integración de la cadena de abastecimiento, es necesario

contar con herramientas que brinden la información necesaria en tiempo real, para lo cual deben aplicarse los apropiados recursos informáticos. Sin embargo, la integración de la cadena de abastecimiento requiere mucho más que el empleo de tecnología. No es suficiente que las diferentes partes accedan a registros y archivos de sus aliados, sino que, además, se requieren cambios importantes en la estructura, la cultura y las políticas de las entidades participantes.

Page 36: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

Capítulo 3 TECNOLOGÍAS IMPERANTES Y EMERGENTES

Internet – World Wide Web – Intranets y extranets – Portales de Web – Portales de empresas – Videoconferencia – Groupware – Workflow – Teletrabajo – E-learning – Gestión del conocimiento – Sistemas expertos – Aplicaciones inalámbricas

Como natural consecuencia de un proceso de acelerado desarrollo, los nuevos conceptos y tecnologías en el campo de la informática conforman un vastísimo repertorio de posibilidades que día a día se enriquece y amplía. Por otra parte, las innovaciones se producen con intensidad paralela en todos los frentes de la tecnología o de su aplicación, tales como los de herramientas de software, equipos de hardware, equipos y tecnologías de comunicaciones, aplicaciones, redes de todo tipo, metodologías, enfoques del uso de las computadoras, etc.

En este capítulo se consideran las más importantes tecnologías imperantes y emergentes

que, desde el punto de vista de los ejecutivos no informáticos, pueden tener repercusión estratégica en el desenvolvimiento de las organizaciones.

1. INTERNET Internet es una red mundial de redes de computadoras, es decir, una red integrada por

miles de redes más pequeñas (de gobiernos, universidades, empresas e instituciones) conectadas entre sí a través de diversos dispositivos de comunicación (red telefónica, cable coaxil, satélites). Internet ha revolucionado la transmisión de información a escala global, permitiendo el acceso casi instantáneo a textos, imágenes, sonido y video. En anexo a este capítulo, se consigna una reseña de los principales hitos del desarrollo de Internet.

En su composición básica, Internet es una estructura lógica constituida por ruteadores (en

inglés, router) de paquetes de datos. En general, un ruteador es una computadora especializada que, en una red de conmutación de paquetes, controla la distribución de mensajes entre múltiples rutas opcionales. De acuerdo con ciertas tablas y con las condiciones de la red en que opera, el ruteador recibe y reenvía los paquetes de datos. Éstos toman diferentes rutas hasta su destino final, donde son reensamblados para recomponer el mensaje original. El despacho de cada paquete es realizado por el ruteador basándose en la dirección contenida en el encabezado del paquete. Los ruteadores más avanzados pueden tomar decisiones de ruteo seleccionando la mejor ruta sobre la base del costo, de la velocidad, de la disponibilidad y de otros factores.

Los ruteadores son parte esencial de Internet. En su composición básica, la red es una

trama mundial de ruteadores interconectados que conforman un esquema matricial en el que cada ruteador se halla conectado con otros dos o más ruteadores. Cada ruteador examina los paquetes de datos y, sobre la base de sus respectivas direcciones de destino, los envía a un siguiente ruteador, intentando así aproximarlos todo lo posible a su destino final.

No existen regulaciones en Internet; nadie gobierna; nadie es dueño. La única regulación

que existe es la emergente de los acuerdos de conexión entre las empresas que constituyen el backbone o columna vertebral de la red para definir el tráfico informático que aceptarán. En general, un backbone es una conexión principal y de alta velocidad entre redes. Comúnmente, es una red de alto desempeño que se ocupa del intercambio de tráfico entre redes de menor desempeño. En Internet, el backbone es la estructura principal de la red, y está formado por redes de comunicaciones de alta velocidad, la mayoría de ellas operadas por empresas comerciales. Estas empresas admiten el acceso de los proveedores a cambio de un determinado pago y administran los puntos de interconexión en los que distribuyen el tráfico. Para una

Page 37: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

sociedad basada en la noción de propiedad, Internet constituye un sorprendente caso de “sistema sin propietarios”; sencillamente, es el resultado de la interconexión de las computadoras de todo el mundo.

En la Argentina, la explotación comercial del acceso a Internet comenzó en 1995. En

julio de 1997, había unos 80.000 usuarios. Cicomra (Cámara de Informática y Comunicaciones de la República Argentina) estimó, a fines de 1998, que la cantidad de individuos con acceso a Internet era de 250.000. La Secretaría de Comunicaciones, incluyendo a quienes se conectan ocasionalmente, calculó que la cantidad de usuarios era 360.000. A inicios de 2003, se estimaba que los navegantes argentinos eran alrededor de 4 millones.

Tener acceso a Internet implica utilizar una computadora que es parte de una red unida a

Internet. El usuario individual necesita una computadora personal y un módem. Este último es un dispositivo que convierte las señales digitales de computación en señales analógicas de telefonía, y viceversa. Para convertirse en navegante de la red, el usuario debe recurrir a un proveedor de servicios de Internet (en inglés, ISP, Internet service provider), el que suministrará la conexión de acceso, la dirección de correo electrónico y el software necesario para establecer la conexión y navegar por la red. El acceso a Internet puede ser, básicamente, de alguna de las siguientes clases:

• Punto a punto, mediante un cable que comunica permanentemente al cliente con el

proveedor. • Telefónico vía módem (llamado en inglés dial-up). En este caso, el usuario, cada vez que

quiere "entrar" en Internet, establece una conexión por teléfono desde su computadora con la computadora de su ISP. Por su costo más bajo, esta forma de conexión es la más difundida.

• Vía cablemódem. Esta forma de conexión es provista, fundamentalmente, por las compañías de televisión por cable. En este caso, la conexión es permanente y suele proporcionar mayores velocidades de transmisión que la vía telefónica.

• Inalámbrico, para acceso desde teléfonos celulares. • ADSL (asymmetric digital subscriber line, es decir, línea digital de abonado asimétrica).

Esta tecnología divide el ancho de banda de la línea telefónica en tres rangos de frecuencia. Uno de ellos se utiliza para las transmisiones de voz, el segundo para enviar datos y el tercero para recibirlos. Esta división en rangos permite que se pueda mantener una comunicación telefónica y una conexión con Internet al mismo tiempo y por la misma línea. En la práctica, las conexiones ADSL, que en la Argentina empezaron a ser ofrecidas hacia fines de 2000, proporcionan velocidades de hasta 256 kilobits por segundo, para recibir datos, y de 128 kilobits por segundo, para enviarlos.

La World Wide Web, expresión que podría traducirse como telaraña mundial, es un

sistema de Internet que permite acceder a documentos vinculados y que consiste en una interfaz gráfica con capacidades de hipertexto y multimedia. El hipertexto permite la recuperación o lectura no secuencial de los datos. Al existir enlaces, llamados hipervínculos, entre información relacionada, se hace posible la recuperación inmediata de datos unidos por referencias cruzadas. Por ejemplo, cualquier palabra o sección de un documento puede ser vinculada con otra palabra o sección del mismo o de otro documento, sin que resulte necesario cerrar el documento actual o efectuar una búsqueda del documento relacionado. De esa manera, el usuario puede seguir una ruta de enlaces, de acuerdo con su interés, a través de distintos documentos. Dado que un documento de hipertexto contiene iconos, palabras u oraciones clave que constituyen puntos de enlace con otro u otros objetos, es un documento multidimensional, en el sentido de que puede ser recorrido en diferentes órdenes o por partes, e introduciéndose en él por distintos puntos.

La Web es un medio para organizar toda la información disponible en Internet como un

conjunto de documentos de hipertexto. Mediante el empleo de un programa apropiado, llamado navegador (en inglés, browser), es posible navegar por la red y ver información basada en

Page 38: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

búsquedas por palabras clave o por direcciones. Lo que hace potente a la Web es que un vínculo puede llevar a cualquier tipo de recurso de Internet.

Todos los servidores Web ofrecen documentos públicos de hipertexto que se denominan

páginas de la Web (o, simplemente, páginas Web), y todos ellos juntos constituyen la World Wide Web. Las páginas Web proporcionan la más variada información. Pueden incluir texto, gráficos, sonidos y video, por lo que puede decirse que constituyen la parte multimedia de Internet. Un servidor Web es una computadora de una universidad, de una empresa o de un organismo gubernamental en la que se almacenan páginas Web que pueden ser visitadas por cualquier usuario de Internet. Hay miles de servidores Web en Internet. La mayor parte de ellos se especializan en un área temática particular. Cada uno de los documentos a los que puede accederse se denomina sitio (en inglés, site). Cada sitio puede estar conformado por una o varias páginas. La página de presentación o de entrada a un sitio se denomina página inicial (en inglés, home page).

El protocolo que se emplea en la Web para la transferencia de documentos es HTTP

(hypertext tansfer protocol, es decir, protocolo de transferencia de hipertexto). El lenguaje utilizado para el diseño de documentos Web es HTML (hypertext markup language, es decir, lenguaje de etiquetado de hipertexto). HTML es un medio de comunicación electrónica universal por el cual todas las páginas de la Web, no importa cuál sea su apariencia, funcionan de la misma manera: se pulsa el botón del ratón sobre una palabra destacada o sobre una imagen para saltar a otra página Web.

La tecnología de la Web dio lugar a la masificación del uso de Internet, ya que suministró

una interfaz amigable que combina textos, gráficos, audio y video. Posteriormente, las organizaciones fueron advirtiendo que tal tecnología podía constituir una poderosa herramienta de comunicación interna, dando lugar al desarrollo de las intranets, según se expone más adelante.

Las empresas e individuos pueden usar Internet para intercambiar transacciones de

negocios, texto, imágenes, video y sonido, no importa en qué lugar físico se encuentre cada uno. Los usos más comunes de la red son:

• Comunicación y colaboración: Envío de mensajes electrónicos y transferencia de

documentos. • Acceso a información: Búsqueda de documentos, bases de datos y catálogos; lectura de

folletos electrónicos, manuales y avisos publicitarios. • Participación en discusiones: Suscripción a grupos de discusión. • Traslado de información: Transferencia de archivos de texto, programas de computación,

gráficos, animaciones o videos. • Entretenimiento: Juegos interactivos de video, video clips, lectura de revistas animadas y

libros. • Intercambio de transacciones de negocios: Venta y compra de productos y servicios.

Hoy en día, se puede sostener con propiedad que Internet es el sistema circulatorio de la

economía digital y que sus efectos en el desenvolvimiento social y económico tienen puntos de comparación con los de la Revolución Industrial del siglo XVIII.

2. INTRANETS Y EXTRANETS Una intranet es una red que, usando tecnología basada en la World Wide Web, es creada

por una organización para diseminar información corporativa y vincularse con sus empleados. Permite a los usuarios, mediante un programa navegador, acceder a información y compartirla

Page 39: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

tal como si estuvieran operando en Internet. Suministra acceso a información corporativa, sin importar dónde y cómo se encuentre almacenada. Esencialmente, una intranet implica el uso de las herramientas y la apariencia de la World Wide Web en una red interna de una empresa.

La empresa que posee una red interna que comunica sus computadoras puede tener una

intranet con sólo algunos retoques, ya que, en última instancia, una intranet no es más que el resultado de asociar un programa que permite navegar por la red y un servidor que almacena la información. Para ello, la intranet usa la infraestructura y los estándares de Internet y la World Wide Web, pero está protegida de la Internet pública por un cortafuegos (en inglés, firewall), es decir, un programa que sólo permite el acceso de los empleados de la empresa e impide que accedan usuarios no autorizados expresamente.

Uno de los efectos más inmediatos de una intranet es la drástica reducción del uso de

papeles. Además, debido a que en una intranet es posible usar la misma programación básica en plataformas distintas, se necesita menos desarrollo y mantenimiento de programas, lo que significa una importante disminución de costos. Dado que los navegadores funcionan en cualquier tipo de computadora, toda la información electrónica puede ser vista por cualquier empleado de la empresa. De este modo, manuales de procedimientos, guías telefónicas internas, normas y directivas, material de entrenamiento, listas de beneficios, listados de tareas, etc. pueden convertirse a un formato digital y ser actualizados permanentemente y prácticamente sin costo. También pueden llenarse formularios electrónicos, mantener conferencias virtuales y consultar decenas de bases de datos con sólo cliquear sobre un hiperenlace.

Sin embargo, el aporte más importante de las intranets consiste en reunir en un solo

sistema todas las computadoras, programas y bases de datos de la organización, permitiendo a todos los empleados hallar cualquier información, no importa dónde se encuentre. El concepto de la intranet es conseguir para una organización lo que Internet logró para el mundo: conectar todas las islas de información. Y lo que la World Wide Web es a Internet, la intranet lo es a la organización, pues los profesionales y empleados de esta última crean sus propias páginas y comparten los detalles de sus proyectos o tareas con el resto de sus colegas.

Además de proporcionar a los empleados capacidades de colaboración en toda la

organización, las intranets son también un medio eficiente para gestionar recursos informáticos, tales como las computadoras personales, las redes internas y los programas de aplicación, así como implantar la distribución centralizada, uniforme y simultánea de las actualizaciones de software.

Cuando una intranet se extiende para dar también acceso a proveedores y clientes

seleccionados, recibe el nombre de extranet. La extranet se usa para mantener relaciones comerciales permanentes, pero en forma privada, segura y personal. El desarrollo de una extranet implica abrir el cortafuegos de una intranet con el fin de proporcionar acceso controlado a terceros relacionados con la organización, tales como accionistas, clientes, proveedores, socios de alianzas estratégicas, centros de investigación, etc. Si dos organizaciones abren parte de sus intranets una a la otra, crean en la práctica una extranet.

3. PORTALES En Internet, un portal es un sitio que constituye un centro de contenidos y servicios, y a

partir del cual los usuarios de la red pueden iniciar su navegación.

El portal recibe tal nombre debido a que se trata de un sitio que es o aspira a ser la página de inicio de un navegador, de modo tal que constituya la "puerta de entrada" a la red. Por esa causa, un portal ofrece una variedad de contenidos y servicios, total o mayoritariamente gratuitos, con la finalidad de atraer a los navegantes y mantenerlos dentro de su ámbito de

Page 40: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

influencia. Cuanto mayor éxito se logre en este propósito, mayor será el atractivo que presentará el portal para que las empresas realicen publicidad en él, ya que tal publicidad es la principal fuente de ingresos de este tipo de sitios.

Un portal de Web (en inglés, Web portal) suele ofrecer motores de búsqueda, correo

electrónico, noticias personalizadas, información variada, compras, canales de chateo, resultados deportivos, pronósticos del clima, horóscopos, planos de calles, cotización de acciones, directorios telefónicos, juegos, carteleras electrónicas, vínculos a otros sitios Web, entretenimientos en audio y video, etc. Además, es posible programar un navegador de manera que, al arrancar, se conecte automáticamente con cierto portal, el que puede personalizarse de acuerdo con los intereses de cada usuario. Un portal horizontal es aquel que cubre una gran variedad de temas diversos. En cambio, un portal vertical es el que se dedica a un único tema específico.

Hacia 1997, la creciente difusión de los portales tuvo el efecto de favorecer la

proliferación de la publicidad en la Web. Los avisos que aparecen en una página Web son hipervínculos que, al ser activados, llevan a la página principal del sitio de la organización anunciante, en el que se obtiene información detallada de la misma y de sus productos, o puede realizarse la compra de los mismos. Esta publicidad y la comisión sobre ventas realizadas por acceso mediante los hipervínculos constituyen la fuente de ingresos para los portales. Debido a la gran cantidad de usuarios que inician su navegación por la Web desde un portal, las empresas están dispuestas a pagar para poner avisos en aquél, a fin de atraer a clientes potenciales hasta sus propios sitios Web. Muchos servicios que fueron inicialmente lanzados solamente como motores de búsqueda, tales como Yahoo!, Excite, Lycos, America On Line o Infoseek, se convirtieron en eficientes portales de la Web.

En el ámbito de las organizaciones, un portal es un software que maneja el acceso de los

usuarios a múltiples aplicaciones, a variadas fuentes de información o a la intranet de la empresa, de acuerdo con el perfil definido para cada usuario. Estos portales de empresa responden a las siguientes finalidades básicas:

• Proveer un único punto de acceso a todos los datos corporativos. El portal está diseñado

para dar acceso a información originada en una variedad heterogénea de fuentes, y puede configurarse para alertar a los usuarios cuando se agrega información nueva.

• Proveer la infraestructura necesaria para la gestión del conocimiento. La capacidad de los

usuarios para agregar información en el portal y la posibilidad de suscribirse a la información que necesitan son prestaciones clave en lo que se refiere a compartir conocimiento dentro de la organización.

• Personalizar el acceso a aplicaciones e información. Cada usuario puede tener asignado un

perfil definido de acuerdo con sus funciones, de modo tal que el acceso a la información se administra y autoriza conforme al perfil definido.

• Personalizar la interfaz del portal. La personalización de la interfaz del portal, de acuerdo

con las preferencias de cada usuario, permite encontrar la información que se necesita y filtrar la información que no se necesita, lo que reduce los tiempos de búsqueda y de consolidación de la información proveniente de fuentes diversas.

• Facilitar los procedimientos en una empresa extendida. El portal puede habilitarse para que

los proveedores, distribuidores y clientes de la organización tengan acceso controlado y seguro a los datos y aplicaciones corporativos. Por esta vía, la organización puede mejorar las comunicaciones con sus socios de negocios y lograr resultados tales como la aceleración de las actualizaciones de inventarios, la reducción del ciclo de desarrollo de

Page 41: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

productos, el incremento de la calidad de los productos y el perfeccionamiento del servicio de atención al cliente.

4. VIDEOCONFERENCIA

La videoconferencia es una reunión virtual de un número cualquiera de participantes

situados en distintos lugares del mundo y en la que, mediante el uso de sistemas de computación y de comunicación intercontinentales, se establece una interacción por voz e imagen de modo tal que cada uno puede ser escuchado y visto en una pantalla por todos los demás.

La videoconferencia reduce sensiblemente la necesidad de que una reunión de ejecutivos

de una firma, investigadores científicos o miembros de entidades de todo tipo deba llevarse a cabo mediante la concurrencia de todos ellos desde puntos alejados de la Tierra a un mismo lugar geográfico.

Habitualmente, la videoconferencia es una transmisión de imágenes de video

digitalizadas (además de audio y datos) llevada a cabo en tiempo real, en dos sentidos y entre dos o más localizaciones geográficas. Esto requiere canales de transmisión de banda ancha, por lo que suelen utilizarse comunicaciones por satélite.

Para participar de una videoconferencia, el usuario debe tener en su computadora una

cámara de video digital, comúnmente denominada webcam, o una cámara común y una placa de captura de video. Para transmitir el audio, se necesita una placa de sonido que permita la transmisión en ambos sentidos (full duplex) para que los usuarios que se comunican puedan hablar y recibir sonido al mismo tiempo. Asimismo, es necesario un programa específico de videoconferencia. Muchos programas de videoconferencia proporcionan también funciones de chat y de audio, así como la posibilidad de compartir archivos y de que los participantes trabajen al mismo tiempo sobre un mismo archivo.

Cuando la videoconferencia se aplica en el campo de la medicina, permite el diagnóstico

a distancia, la interconsulta, el acceso a especialistas, la exhibición de estudios o de placas radiográficas, etc., todo lo cual ha dado origen a la llamada telemedicina. 5. GROUPWARE

El término groupware (software para trabajo en grupo) alude al software para redes de

computación que se diseña con el principal propósito de incrementar la cooperación y la productividad conjunta de un grupo de personas, automatizando la interacción entre sus miembros.

Una aplicación de groupware es un paquete integrado que suele comprender prestaciones

tales como correo electrónico, agenda, posibilidad de compartir datos, workflow, formularios electrónicos, navegador, coautoría de informes, programación de reuniones, seguimiento de proyectos, videoconferencia, etc. En una organización, el groupware permite comunicar, recolectar, rastrear, compartir y organizar la información en un formato fácilmente accesible a través de muchas plataformas.

Las funciones básicas que proveen las herramientas de groupware son, entre

otras, las siguientes:

• Creación de documentos en grupo y corrección de los mismos. • Distribución de correo electrónico.

Page 42: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

• Planificación de citas y reuniones. • Acceso a archivos y bases de datos compartidos. • Acceso a planes y programas de trabajo compartidos. • Asistencia a reuniones electrónicas.

6. WORKFLOW

La expresión workflow (flujo de trabajo) alude a la secuencia física y lógica de pasos que

conforman el circuito seguido en una organización para realizar una determinada tarea. Tradicionalmente, en el campo de los sistemas de información, el diseño del workflow

implicaba la definición, mediante manuales de procedimientos, de la ruta física que debían seguir los formularios y del tratamiento lógico a que debían someterse sus datos. La difusión de las herramientas informáticas ha tenido un doble efecto innovador en este terreno. Por un lado, el soporte y traslado de la información tiene muchas etapas de tratamiento electrónico, y, por otra parte, las tecnologías de computación y comunicaciones permiten automatizar, coordinar y controlar la secuencia de pasos y el estado de cada tarea.

El software de workflow, que incluye herramientas de trabajo en grupo (groupware),

permite diseñar, ejecutar y controlar el flujo de trabajo más eficiente para cada tarea. Así como las redes conectan las personas, las herramientas de workflow conectan el trabajo de las personas. En cada etapa de una tarea, una persona o un grupo de personas es responsable de un determinado trabajo. Cuando ese trabajo ha sido realizado, el software de workflow notifica y traslada los datos a la siguiente persona o grupo para que cumpla su trabajo en el proceso.

En realidad, la potencia de las herramientas del software de workflow trasciende el campo

estricto de los flujos de tareas e incursiona claramente en el terreno del diseño de procesos de negocios, ya que el workflow es la automatización de un proceso de negocios por la cual la información, las tareas o los documentos pasan de un participante a otro para que cada uno realice una acción de acuerdo con un conjunto de reglas e integrando imágenes, documentos y otras formas de información.

7. TELETRABAJO Se llama teletrabajo la práctica de trabajar en un lugar distinto del emplazamiento de la

organización empleadora (por ejemplo, en la propia casa del empleado) a través de una conexión por módem con la oficina central de la organización a fin de intercambiar mensajes y datos.

El teletrabajo, también denominado telecommuting, provee varias ventajas para las

organizaciones y los empleados. Para las primeras, permite realizar ahorros de espacio físico y de servicios, tales como luz, teléfono y similares. Además, genera la disminución del ausentismo del personal y el aumento de la productividad. Para los empleados, el teletrabajo reduce el estrés laboral, refuerza los lazos familiares, permite ahorrar tiempo, evita los traslados y ofrece un mejor ambiente de trabajo. Además, genera una reducción del tránsito y de la contaminación ambiental.

Sin embargo, también existen algunos factores desalentadores, pues las empresas sienten

la pérdida de sus facultades de supervisión y los empleados añoran el contacto social que proporciona la oficina. Este último aspecto negativo queda anulado mediante la denominada telecabaña, una suerte de oficina satélite dispuesta específicamente para que se reúna en ella un grupo de teletrabajadores domiciliados en las cercanías de la misma. La telecabaña puede

Page 43: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

pertenecer a una única organización o puede ser una instalación compartida por varias organizaciones. En la telecabaña, también llamada telecentro, telechoza o centro de teletrabajo, se puede realizar el trabajo sin necesidad de montar la oficina en casa y sin la desventaja del aislamiento social.

El teletrabajador, utilizando recursos como una computadora personal, conexión a

Internet, fax y software, tiene la posibilidad de administrar su jornada como si estuviera presente en su propio puesto dentro de la organización, sin trasladarse de su vivienda. Incluso, es posible utilizar programas groupware que simulan el ambiente real del trabajo en colaboración típico de una oficina.

Sin embargo, debe tenerse en cuenta que no cualquiera puede ser un buen

teletrabajador, ya que se requieren algunas características personales importantes tales como capacidades de organización, de adaptación y de comunicación, así como una buena dosis de confiabilidad y profesionalismo. Por ello, la implantación de prácticas de teletrabajo debe formar parte de una estrategia general de administración de los recursos humanos de la organización.

8. E-LEARNING

La expresión e-learning (electronic learning, es decir, aprendizaje electrónico) alude a

las actividades educativas basadas en el uso de tecnologías de Internet, especialmente las de la World Wide Web.

La aplicación de las tecnologías de Internet determina el desarrollo de nuevas

metodologías de enseñanza y de aprendizaje, tanto en educación presencial como en educación a distancia, especialmente en la formación profesional y en la capacitación empresaria. La e-educación implica una transformación importante de la enseñanza tradicional, particularmente en el nivel de estudios de grado y de posgrado, pues se centra en el empleo de recursos tales como herramientas Web, correo electrónico, videoconferencias, foros de discusión, chats y simulaciones virtuales, todo ello basado en herramientas de software específicamente diseñadas.

Uno de los efectos importantes del e-learning, en el seno de una determinada comunidad

educativa o empresaria, es la habilitación de campus virtuales que están "abiertos" todo el día y todos los días. Junto con la implantación de vías electrónicas permanentes de comunicación entre el alumno y su profesor o tutor, ello permite que el estudio de un determinado curso de capacitación o actualización profesional, e incluso el de una carrera completa, pueda hacerse en los lugares y en los horarios en que resulta factible o conveniente para el alumno. De esta manera, la capacitación (especialmente la de profesionales, ejecutivos y técnicos) puede adecuarse a las disponibilidades de tiempo de cada alumno, ya que, básicamente, el e-learning se sustenta en contenidos y soportes que están orientados al autoaprendizaje y a la posibilidad de que el alumno estudie en el lugar, en el momento y, hasta cierto punto, en la forma en que él lo desee.

Por otra parte, el uso de material de enseñanza interactivo, tutoriales en línea,

procedimientos de autoevaluación, herramientas electrónicas de contacto y de interacción con profesores y condiscípulos, etc., hace posible el diseño y/o el desarrollo de cursos personalizados, o bien estructurados a la medida de las necesidades de una organización determinada.

En relación con el e-learning, suelen utilizarse denominaciones que connotan algunas

diferencias de alcance o de significado, tales como las siguientes:

• Educación a distancia

Page 44: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

En la educación a distancia, docentes y alumnos se encuentran separados en tiempo y/o lugar. Los materiales en que se generan y entregan los contenidos educativos pueden ser: impresos de todo tipo, CD-ROM, casetes de video y/o de audio, transmisiones de televisión o de radio, Internet, etc.

• E-learning

Los contenidos se entregan exclusivamente a través de medios electrónicos, tales como Internet, intranets, extranets, CD-ROM, televisión interactiva, etc.

• E-training (electronic training, es decir, entrenamiento electrónico)

Esta denominación suele aplicarse a la capacitación empresaria que se lleva a cabo bajo la modalidad de e-learning.

• CBT (computer-based training, es decir, entrenamiento basado en computadora)

Alude a la capacitación empresaria que se lleva a cabo exclusivamente con soportes multimedia, tales como el CD-ROM. Por lo tanto, no requiere una computadora conectada a una red y el material es totalmente autocontenido, ya que no remite a enlaces externos.

• Online learning

El online learning (es decir, aprendizaje en línea) se refiere a un subconjunto del e-learning en que los contenidos se entregan exclusivamente a través de redes (Internet, extranets y/o intranets).

• WBT (Web-based training, es decir, entrenamiento basado en la Web).

Puede considerarse sinónimo de online learning, aunque a veces se usa para aludir al online learning aplicado a la capacitación empresaria.

• CMI (computer managed instruction, es decir, instrucción gestionada por computadora)

Esta denominación alude al uso de la computadora para gestionar el proceso de formación, incluyendo funciones de control y evaluación de los alumnos.

• CMS (content management system, es decir, sistema de gestión de contenidos)

Es la denominación genérica de las piezas de software destinadas al diseño, la generación y la gestión de contenidos formativos.

• LMS (learning management system, es decir, sistema de gestión del aprendizaje)

Nombre genérico de las aplicaciones destinadas a automatizar la gestión de la formación. Un LMS permite, por ejemplo, gestionar el registro de alumnos, el catálogo de cursos de distintos proveedores, el seguimiento de los alumnos y la generación de diversos informes. Por lo general, un LMS gestiona los contenidos provenientes de distintas fuentes, pero no proporciona recursos para generar contenidos.

• LCMS (learning content management system, es decir, sistema de gestión de contenidos de

aprendizaje) Es un tipo de software que combina las capacidades de gestión administrativa de un

sistema de gestión del aprendizaje (LMS) con los recursos de creación de contenidos de un sistema de gestión de contenidos (CMS).

9. GESTIÓN DEL CONOCIMIENTO

En el contexto del profundo cambio impulsado por las tecnologías de computación y

comunicaciones, la eficiencia de las organizaciones se basa cada vez más en ciertos bienes intangibles, por encima de los bienes tangibles registrados por la contabilidad. Entre estos

Page 45: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

nuevos bienes, que incluyen la capacidad de adecuarse a los cambios, una cultura organizacional innovadora y la calidad del gerenciamiento, adquiere particular relevancia el conocimiento.

Desde luego, el concepto de conocimiento no es nuevo, pues ha sido analizado por

filósofos y epistemólogos desde la más remota antigüedad. Sin embargo, se trata ahora de considerarlo desde el punto de vista de las aplicaciones informáticas que se involucran bajo la denominación general de gestión del conocimiento.

Existe cierta dificultad para diferenciar, desde esta perspectiva, las nociones de dato,

información y conocimiento. El interés por distinguir estas nociones no se reduce a un mero ejercicio intelectual. En efecto, en el campo de los sistemas de información, la confusión entre estos conceptos puede generar el riesgo de que, abundando los datos, se carezca de información y, más aún, de conocimiento. Ello se debe a que los tres conceptos, aunque estrechamente vinculados, no son sinónimos.

Tal como se ha definido en el Capítulo 1, dato es una representación formalizada de

entidades o hechos. Por su parte, información es el significado que una persona asigna a un dato. A partir de estas bases, y en el contexto de este análisis, conocimiento es todo lo que se llega a crear y valorar a partir de la información mediante el agregado de experiencia, comunicación e inferencia. Desde este punto de vista, el conocimiento es más amplio, más profundo y más rico que la información, pues se trata de una combinación de experiencia organizada, valores, información contextual e introspección, que provee un marco de referencia para evaluar e incorporar nuevas experiencias e informaciones.

Así como la información se basa en el dato, el conocimiento se basa en la información.

Pero las actividades creadoras del conocimiento ocurren dentro de y entre individuos, más que en las "colecciones" de información. El conocimiento adquiere valor cuando se relaciona exitosamente con un propósito. Desde el punto de vista organizacional, el conocimiento se concreta cuando su aplicación contribuye a lograr una mejora objetiva en el desempeño de la empresa. Es en este sentido que puede decirse, y sin que ello constituya una definición, que el conocimiento es la capacidad de actuar. Mientras que la información proviene de la interpretación de un dato, el conocimiento proviene de la experiencia, del aprendizaje, de la puesta a prueba de diversos factores y de una “interpretación” histórica que permite encarar nuevas situaciones estableciendo relaciones entre lo que se ha enfrentado y lo que ahora se debe enfrentar.

Con este enfoque, se denomina gestión del conocimiento (en inglés, KM, knowledge

management) el proceso formal dirigido a identificar, capturar, almacenar, mantener, actualizar y transmitir el conocimiento existente en una organización con el fin de que pueda ser compartido y utilizado por todos los miembros de la misma. Durante los últimos años, se han desarrollado distintas herramientas y metodologías destinadas a una gestión racional del conocimiento en las organizaciones.

La gestión del conocimiento alude a la aplicación de los recursos tecnológicos, en

especial los de la tecnología informática, para lograr que la información que circula y se halla almacenada en una organización se transforme en conocimiento utilizable. Al aludir a la información que circula y se encuentra almacenada, se abarca mucho más que el conocimiento contenido en representaciones simbólicas o datos conservados en los soportes de almacenamiento, sean tales soportes computadorizados (como discos o cintas) o no computadorizados (como papeles y formularios). El concepto del conocimiento en una organización comprende todo lo que en ella "se sabe" de los asuntos relacionados con la gestión de la misma; y esto incluye, por ejemplo y principalmente, toda la información que no se halla representada simbólicamente, tal como los conocimientos y la experiencia individuales de todos

Page 46: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

los empleados, así como la que no ha sido sometida a archivo o almacenamiento sistemático y ordenado.

La vida de una organización deja un sinnúmero de huellas. Gran cantidad de datos son

generados permanentemente por los sistemas transaccionales computadorizados, y muchos de ellos tienen como destino un almacenaje de tipo histórico, contable o legal. Igualmente, gran cantidad de experiencias son acumuladas en las mentes de los empleados, y muchas de ellas se aplican todos los días para realizar más eficientemente las tareas. La gestión del conocimiento se pone en práctica mediante procesos de recolección, organización, refinamiento y difusión de la pericia colectiva de una organización, no importa que tal pericia resida en una base de datos, en la mente de los trabajadores o en las carpetas de informes archivadas en un armario. Las tecnologías que pueden ser empleadas en la implementación de estos procesos son principalmente las de data warehousing, data mining, intranets y groupware. Mediante ellas, se reúne y organiza la información corporativa para poner al descubierto sus contenidos útiles y para diseminarla o ponerla a disposición de todos en toda la organización.

Sobre el conocimiento en las organizaciones, Peter F. Drucker ha señalado:5 "Lo que distingue a una empresa y lo que constituye su recurso peculiar es la habilidad

que tenga para emplear conocimientos de todas las clases, desde conocimientos científicos y técnicos hasta los de carácter social, económico y administrativo. Otros recursos, como dinero y equipos, no confieren ninguna distinción. Es sólo por los conocimientos que una empresa puede distinguirse y puede, en consecuencia, producir algo que tiene valor en el mercado."

La gestión del conocimiento implica dos acciones complementarias. La primera consiste

en hacer llegar el conocimiento necesario a las personas adecuadas en el tiempo oportuno. La segunda consiste en obtener el conocimiento necesario a partir de la generación de consultas planteadas a una base de datos de conocimientos. Para ello, debe tenerse en cuenta que, desde el punto de vista de la forma en que se manifiesta, el conocimiento puede ser tácito o explícito. El conocimiento tácito es el que reside en la mente de los individuos, y presenta las siguientes características:

• Es entendido y aplicado subconscientemente, en forma automática. • Se obtiene mediante la aplicación de un tiempo escaso o nulo para pensar. • Se implementa en forma intuitiva. • Se desarrolla a partir de la experiencia y de la acción directa. • Es difícil de comunicar. • Está expuesto a errores, pues no se lo puede examinar de forma consistente.

Por su parte, el conocimiento explícito presenta las características siguientes:

• Puede ser codificado, escrito y documentado. • Es fácil de transferir y compartir. • Es preciso y formalmente estructurado. • Puede almacenarse en un repositorio de datos.

La gestión del conocimiento tiene el propósito de convertir el conocimiento tácito en

explícito, y constituye una imperiosa necesidad en las organizaciones cuyo funcionamiento y cuya eficiencia dependen en alto grado de personas que han acumulado conocimiento clave a través de la experiencia de muchos años, así como en aquellas que operan con personal de edad avanzada y/o de alta rotación.

5 Managing for Results, Harper & Row, Nueva York, 1964, p. 5.

Page 47: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

(En el próximo capítulo se completa el análisis del conocimiento como factor de

eficiencia de las organizaciones y como valor característico de la llamada era de la información). 10. SISTEMAS EXPERTOS

Se llama sistema experto un sistema computadorizado que contiene los conocimientos de

un experto sobre un tema específico y que puede operar con ellos para formular predicciones, realizar diagnósticos o proponer cursos de acción para resolver un problema.

Un sistema experto consta de una base de conocimiento y de un software llamado motor

de inferencia (o máquina de inferencia) y que, a partir de datos ingresados sobre un problema particular, extrae de la base de conocimiento las probables soluciones. La base de conocimiento representa las reglas, el saber y la experiencia acumulados por un experto o profesional de un cierto dominio. Comúnmente, el conocimiento se formula en términos de los enfoques heurísticos que el experto ha desarrollado como resultado de su experiencia en la aplicación del conocimiento formal a la solución de problemas de su disciplina. Por su parte, el motor de inferencia trabaja sobre la base de conocimiento, realizando inferencias que se basan en la aplicación de estructuras lógicas formales.

Un sistema experto formula preguntas al usuario a través de una interfaz de diálogo. Las

respuestas suministradas son comparadas con la base de conocimiento y procesadas por el motor de inferencia, permitiendo al sistema arribar a conclusiones terminantes o bien a meras especulaciones y conjeturas sobre la respuesta posible. Para ello, el sistema experto usa técnicas de encadenamiento hacia adelante y de encadenamiento hacia atrás. El encadenamiento hacia atrás (en inglés, backward chaining) es un método de deducción basado en reglas del tipo "si... entonces…". A partir de una pregunta que se formula al sistema experto, éste explora hacia atrás su base de conocimiento para determinar qué reglas deben ser contestadas antes de poder formular una conclusión. El sistema solicita al usuario la respuesta a las reglas, y el encadenamiento hacia atrás sigue hasta que todas las reglas son respondidas y comparadas con la base de conocimiento. En oposición a este método, el encadenamiento hacia adelante (forward chaining) requiere que el usuario suministre todos los datos antes de poder formular la pregunta, o antes de que el sistema experto pueda realizar las inferencias.

Para ejemplificar el encadenamiento hacia atrás, supóngase que la base de conocimiento

del sistema experto contiene las siguientes reglas (en las que "X : Y" debe leerse "si X, entonces Y"):

(A y B) : C (C y D y E) : F (P y R) : S (S y T) : V (F o V) : Z Si se pregunta al sistema experto si se cumple Z, aquél analiza las reglas y determina que,

para que se cumpla Z, debe cumplirse F o debe cumplirse V. Al analizar hacia atrás qué condiciones deben satisfacerse a fin de que F se cumpla, determina que es necesario que se cumplan C, D y E. Al hacer otro análisis hacia atrás, determina que, para que se cumpla C, deben cumplirse A y B, mientras que D y E no tienen condiciones. A partir de esto, el sistema pregunta si se cumplen A, B, D y E. Si la respuesta es afirmativa, el sistema establece que Z se cumple. Si se contesta que alguna/s de las condiciones A, B, D y E no se cumple/n, el sistema realiza similar encadenamiento hacia atrás a partir de V. Luego, formula las preguntas correspondientes y emite su conclusión. En el encadenamiento hacia adelante, en cambio, el

Page 48: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

usuario proporciona al sistema los datos que informan cuáles condiciones se cumplen. El sistema sigue hacia adelante el camino de las reglas y, teniendo en cuenta cuáles se satisfacen y cuáles no, determina la conclusión final.

Los sistemas expertos, también llamados sistemas basados en el conocimiento o

asistentes inteligentes, son campo de aplicación específica de la inteligencia artificial. Resultan útiles en aplicaciones de diagnóstico, monitoreo, interpretación, predicción, selección, diseño, entrenamiento, planeamiento, control y distribución.

Algunas áreas de uso difundido de los sistemas expertos son: diseño de computadoras y

circuitos electrónicos, diagnóstico médico, prospección de minerales, determinación de riesgo crediticio, pronósticos económicos, detección electrónica de errores, etc.

11. APLICACIONES INALÁMBRICAS

La expresión aplicaciones inalámbricas alude a las aplicaciones informáticas (fundamentalmente, a las que se vinculan con el acceso a Internet u otras redes) basadas en el uso de sistemas inalámbricos. Un sistema inalámbrico es aquel que se basa en comunicaciones llevadas a cabo sin el empleo de alambres conductores, es decir, realizadas fundamentalmente por aire mediante ondas radioeléctricas. Principalmente, las tecnologías inalámbricas se implementan en los servicios de telefonía celular, trunking, paging y transmisión de datos con modalidad móvil. Un típico equipo o dispositivo inalámbrico es un aparato sin cables, con antena y que se halla permanentemente en línea.

La creciente importancia que la industria informática asigna al desarrollo de esta clase de

aplicaciones se sustenta en proyecciones basadas en la existencia, en el orden mundial, de más de 1.000 millones de usuarios de teléfonos inalámbricos. La tecnología inalámbrica permite acceder a Internet o hacer negocios en la red en cualquier momento y en cualquier lugar. Asimismo, hace posible que los empleados itinerantes accedan a los sistemas corporativos para disponer, por ejemplo, de correo electrónico, una agenda personal, datos de clientes y de proveedores, y, en general, de los servicios e informaciones que pueden obtenerse mediante el acceso a intranets, extranets o páginas Web.

Otras aplicaciones inalámbricas se pueden verificar en el ámbito de la relación entre una

empresa y sus clientes. Así, por ejemplo, los clientes de un banco puede utilizar su teléfono celular para consultar saldos, obtener información de cotización de acciones, pagar facturas o realizar otros trámites. Por otro lado, la gran mayor parte de los sitios Web resultan propicios para las aplicaciones inalámbricas. Además, el uso de dispositivos inalámbricos puede extenderse a las grandes aplicaciones empresariales, tales como automatización de la fuerza de ventas, logística, gestión de inventarios, gestión de cobranzas, gestión de pedidos, gestión de relaciones con los clientes, etc.

Sin embargo, el desarrollo de las aplicaciones inalámbricas enfrenta dificultades y

limitaciones. Algunas de ellas se vinculan con la proliferación de dispositivos que no responden a una norma estándar, ya que existe una gran variedad de modelos con diferencias de capacidades y de formatos. Otras limitaciones derivan de las propias características de los dispositivos, tales como pantallas demasiado pequeñas, formas elementales de entrada de datos, ancho de banda reducido, capacidad de navegación restringida, etc.

Por otra parte, una página de la Web en formato HTML debe ser convertida al formato del

protocolo WAP para que pueda ser accedida por un celular basado en este último. Además, la página debe ser sometida a un proceso de reducción para adaptarla a las capacidades y el formato de pantalla del dispositivo inalámbrico, y las interfaces de usuario deben hacerse más simples e intuitivas. Asimismo, deben tenerse en cuenta factores como el alto costo de las

Page 49: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

comunicaciones inalámbricas y las limitadas capacidades de memoria de los dispositivos involucrados.

ANEXO EL DESARROLLO DE INTERNET

En 1969, el Departamento de Defensa del gobierno de los Estados Unidos pone en marcha ARPANET (Advanced Research Projects Agency NET, es decir, Red de la Agencia de Proyectos de Investigación Avanzada). Se trataba de una red de interconexión de computadoras desarrollada con el propósito de que un ataque nuclear no pudiese desactivarla por completo (aunque hay quienes sostienen que esto es sólo un mito).

En 1971, ARPANET vincula casi 30 sitios dedicados a la investigación sobre

computadoras sostenida por el gobierno. Se crea el primer programa de correo electrónico. En 1974, se dan a conocer las especificaciones de los protocolos que establecen el armado

de paquetes de datos en la red. En estas especificaciones, aparece por primera vez el nombre Internet, aunque habría de pasar alrededor de una década hasta que fuera aplicado a la red de redes.

En 1975, la cantidad de nodos de Internet es cercana a 100. En 1976, se especifica el

protocolo que normaliza la transmisión de datos en redes públicas mediante la conmutación de paquetes. En 1979, nacen los primeros grupos de noticias.

En 1982, El número de hosts de la red supera los 200, y se realiza la primera

demostración de funcionamiento de una red de área local de computadoras personales. Al año siguiente, la cantidad de hosts llega a 500. En 1984, se supera la cantidad de 1.000 hosts de Internet.

En 1986, la cantidad de hosts de la red llega a 5.000, cifra que se duplica en el año

siguiente. En 1988, aparece IRC (Internet Relay Chat, es decir, charla por turnos en Internet). En 1989, Internet supera la cantidad de 100.000 hosts. En marzo de ese año, se da a

conocer la primera propuesta de creación de la World Wide Web, bajo la forma de un proyecto de sistema de hipertexto destinado a compartir información entre investigadores.

En 1990, se crea el primer software de World Wide Web. En ese mismo año, la Argentina

se conecta a la red y se establece el dominio .ar. Al año siguiente, Internet supera la cantidad de 600.000 hosts, se introducen los primeros navegadores de la Web en modo texto y aparecen las primeras listas de correo.

En 1992, se supera el millón de hosts en Internet, y existen alrededor de veinticinco sitios

Web. Al año siguiente, se superan los 2 millones de hosts. En 1994, se produce una explosiva expansión de la World Wide Web, y, a mediados del

año, la cantidad de hosts de Internet supera los 3 millones. Aparece el motor de búsqueda Yahoo! y se lanza el navegador Internet Explorer, de la compañía Microsoft. Al año siguiente, Internet interconecta unas 50.000 redes en todo el mundo, y supera los 4 millones de hosts. Varias importantes compañías asumen el control de Internet, lo que marca el momento de la "privatización" de la red. En la Argentina, se inician, en el mes de mayo, las conexiones comerciales a Internet.

Page 50: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

A principios de 1996, la cantidad de hosts de Internet supera los 9 millones. La red tiene 61 millones de usuarios, de los cuales 20.000 corresponden a la Argentina. A principios del año siguiente, Internet supera los 16 millones de hosts.

En 1998, la cantidad de sitios Web es de casi 3 millones. A mediados del año siguiente,

hay 56 millones de hosts. Se calcula que la cantidad de sitios en la WWW supera los 800 millones. El correo electrónico cuenta con más de 260 millones de casillas en el mundo. La cantidad de usuarios de Internet aumenta a razón de 18 millones cada mes.

A comienzos de 2000, la cantidad de usuarios de la red es de más de 260 millones. A

mediados de ese año, se estima que en la Web existen 2.000 millones de páginas, y que unos 305 millones de habitantes de todo el mundo usan Internet en forma regular. Un año después, diversos estudios indican que la cantidad de usuarios mundiales conectados a Internet es de entre 350 y 410 millones. A fines de 2001, los usuarios mundiales se calculan en cantidades que varían entre 450 y 475 millones.

A inicios de 2003, los usuarios mundiales se estiman en 530 millones, y se calcula que la

cantidad de sitios Web se encuentra entre 2.000 y 2.500 millones. A fines del año, los usuarios mundiales se calculan en 630 millones.

Page 51: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

Capítulo 4 EL REPLANTEO DE LOS NEGOCIOS Y DE LA

ORGANIZACIÓN EN LA ERA DIGITAL La era de la información – Reingeniería – La tecnología informática como factor de ventaja competitiva – Sistemas interorganizacionales – Comercio electrónico – Intercambio electrónico de datos (EDI) – Mercados electrónicos – La empresa virtual 1. LA ERA DE LA INFORMACIÓN

Al aludir a las características esenciales del mundo de nuestro tiempo o del que se

vaticina para los próximos años, ya sea en ámbitos políticos, económicos o profesionales, resulta común el empleo de expresiones como “globalización”, “mundialización”, “digitalización”, “autopistas de información”, “estructuras organizativas planas y flexibles”, “mercado universal”, “economía del conocimiento”, “liderazgo compartido”, “reinvención de industrias”, “dirección globalizada”, “convergencia” y otras semejantes. Al margen del sentido particular de cada una de tales expresiones, todas ellas constituyen la manifestación de una nueva circunstancia histórica en la que lo único permanente es el cambio.

La humanidad no reconoce, en toda su historia, un período de tan vertiginoso desarrollo

científico y tecnológico como las últimas décadas. La repercusión que ello tiene en la vida de los individuos es tan grande que la única razón por la que no nos estremecemos ante las transformaciones es que ya estamos acostumbrados a ellas. Mientras en la Edad Media el mundo en el que un hombre moría era prácticamente igual a aquel en el que había nacido, el mundo de un adulto de hoy se parece poco, desde el punto de vista tecnológico, a aquel en el que pasó su infancia. En 2000, un argentino de sesenta años de edad había pasado doce años de su vida sin televisión, diecisiete años sin satélites artificiales, veintidós años sin computadoras, cuarenta y siete años sin fax, cincuenta y dos años sin teléfono celular y cincuenta y cinco años sin Internet.

Cualquier estudiante de escuela secundaria lleva hoy en su bolsillo una agenda

electrónica de consumo masivo que tiene una memoria centenares de veces superior a la de una computadora de la década de 1960 que costaba dos millones de dólares y ocupaba una gran habitación.

Vivimos en la era de la información, o como quiera llamársela usando alguno de los

numerosos sinónimos difundidos: era digital, era del conocimiento, era virtual, era post- capitalista, era posindustrial, etc. Esta era presenta características que la distinguen de cualquier otra época de la historia de la sociedad humana. Las principales son:

• La tecnología dominante es la computadora. La inteligencia de computación se difunde y

se aplica en todo lo que pueda ser perfeccionado agregándole “ingenio”. • El icono de la era es el microprocesador. Chips programables y baratos permiten que los

productos sean adecuados a las necesidades del cliente y que se fabriquen adaptados a las demandas de cada usuario.

• La ciencia de la era es la ciencia de la computación. Una prueba de ello es que jamás otra

tecnología mejoró tanto la relación precio / rendimiento en un lapso similar. • El producto típico de la era es el conocimiento. Las organizaciones más exitosas son las

que mayor capital de conocimiento poseen o las que mejor lo administran. Las mercaderías

Page 52: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

y los servicios se hacen atractivos para los consumidores incorporándoles más y mejor información.

• La base de la riqueza es la información. La información genera la creación de

conocimiento, que a su vez genera rápidas acciones estratégicas que crean ventajas competitivas, tanto sostenibles como temporarias.

• Lo que “hace la diferencia” es la inteligencia o la habilidad para aplicar información a la

creación de nuevos productos y servicios.

• El empleado típico es el trabajador del conocimiento. Más de la mitad de la fuerza de trabajo está involucrada en la recolección, el procesamiento y la comunicación de información.

• Las personas “se pasan la vida” informatizando su negocio y sus actividades personales.

Más que automatizar el trabajo, que fue el foco de la era industrial, en la era de la información se estimulan las actividades intelectuales que generan o explotan la información para crear oportunidades.

• Las estructuras de las organizaciones se basan, cada vez más, en redes horizontales y

planas. La información fluye basada en la necesidad de saber, y no en esquemas burocráticos o jerárquicos.

• El medio logístico por excelencia es la red de comunicaciones. La logística se relaciona

con el traslado de bits (productos electrónicos) antes que con el traslado de átomos (productos físicos).

• El mercado en el que la gente se reúne a comprar y vender productos y servicios se muda

de los emplazamientos físicos (centros comerciales) al ciberespacio.

• Los mercados locales y regionales se van desdibujando. Todo el planeta se va transformando en un único gran mercado, tanto para la demanda como para la oferta.

El poder de los estados y de las organizaciones de todo tipo ha pasado de sustentarse en la

posesión de tierras (Edad Media), de capitales (siglo XIX) o de armamentos (primeros tres cuartos del siglo XX) a la posesión de conocimientos. El conocimiento de los mercados, de los clientes y de las necesidades, y el de las tecnologías aplicables a la creación, producción y distribución de productos, son fundamentales para el éxito de las organizaciones. Pero, más importante aún, el conocimiento clave es el de cómo cada una de esas entidades y funciones puede ir evolucionando en el tiempo y en el espacio, así como el conocimiento que permite adelantarse en la detección de oportunidades y la prevención de amenazas. Todos los días se asiste al lanzamiento de nuevos productos, nuevas formas de comercialización o nuevos métodos de distribución que se fundamentan y se hacen factibles, por lo menos en términos rentables, mediante la aplicación de la tecnología informática.

La tecnología informática aparece como una importante herramienta para alcanzar

muchos de los más valorados objetivos de nuestra sociedad, tales como la mejora de la calidad de vida de los individuos, la puesta del conocimiento al alcance de cualquier ciudadano, la reducción del tiempo y la distancia, y muchos otros aspectos en que la tecnología está en condiciones de potenciar a los seres humanos. Sin embargo, también existen riesgos cuyas implicaciones todavía no se vislumbran con claridad, tales como la vulneración de la intimidad, la brecha entre quienes tienen acceso a la tecnología y quienes no lo tienen, y las consecuencias inmediatas de un proceso de cambio que puede dejar desubicada a parte de la sociedad (por desempleo, desplazamiento ocupacional, incertidumbre…).

Page 53: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

Resulta obvio señalar que las comentadas transformaciones tienen, sobre las

organizaciones, una repercusión de similar impacto que sobre las personas. Más aún, las organizaciones se han visto más conmovidas por el cambio que los individuos. Un ser humano podría sobrevivir hoy sin hacer uso de satélites o computadoras; una organización, no. Para las organizaciones, por lo tanto, este es un tiempo de extraordinaria turbulencia y transición, caracterizado por lo que ha sido llamado “una creación destructiva”. La siguiente figura6 exhibe las principales transformaciones.

Transición y turbulencia en una época de cambio radical y discontinuo. El mercado global resulta cada vez más transparente. Las distancias se van eliminando

por acción de las redes de computación de alcance mundial a través de las cuales todo el negocio de venta y compra de productos puede cerrarse, facturarse y pagarse en forma electrónica, quedando fuera de la red solamente la entrega física de la mercadería (aun cuando muchos productos, como los servicios financieros, los seguros o el software, ni siquiera requieren tal entrega). La economía globalizada genera una muy estrecha interdependencia de los factores de producción, de financiación y de consumo en todo el planeta. Cada vez más, las organizaciones tienen que salir, dicho en sentido literal, a competir en el mundo.

Frente a estas transformaciones, la organización de nuestro tiempo debe preservar un

primer requisito de excelencia: la flexibilidad, es decir, la capacidad de adecuarse a los cambios. Ya se ha consignado el importante papel que, en este sentido, juegan los sistemas de información.

Más tarde o más temprano, las organizaciones se han visto o se verán en la necesidad de

replantear sus estructuras, sus procesos y sus negocios, a fin de introducir en ellos las modificaciones profundas que exige el nuevo contexto. Tales modificaciones, cuando responden a ciertas pautas definidas, han recibido el nombre general de reingeniería. La reingeniería implica comenzar todo de nuevo, como si hoy arrancara el negocio. Su esencia radica en el pensamiento discontinuo, esto es, no seguir con supuestos fijos o con reglas anticuadas que sostienen que algo “se hace así porque toda la vida se lo hizo”.

6 Boar Bernard H., Strategic thinking for information technology. John Wiley & Sons, New York, 1997, p. 2.

Page 54: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

La reingeniería puede aplicarse al negocio o a los procesos. La reingeniería del negocio

significa repensar desde cero el nicho de mercado. Consiste en replantear los fundamentos del negocio y en rediseñar radicalmente sus procesos, con el fin de lograr dramáticas mejoras en las medidas de desempeño que son críticas (costo, velocidad, calidad, etc). Este nuevo diseño es una reinvención desde cero, pues la reingeniería no es una mejora partiendo de los sistemas actuales, ni es automatización, ni eliminación de burocracia, ni mejora de calidad, ni reingeniería del software. Es necesario romper con las reglas vigentes y con los paradigmas, es decir, con los modelos o marcos mentales dentro de los cuales han venido estando todas las alternativas y soluciones posibles. A veces, se piensa primero en el problema y luego en las herramientas de que se dispone para solucionarlo. La propuesta de la reingeniería es inversa: se buscan nuevas tecnologías, se hace uso de la creatividad y del conocimiento del negocio, y se analiza de qué manera esas tecnologías pueden servir para implantar mejoras sustanciales en el negocio.

Por su parte, la reingeniería de procesos no pone en discusión el negocio, sino los

procesos internos que se desarrollan para poder dar respuesta al negocio. Un proceso es un grupo de actividades que, tomadas en su conjunto, producen un resultado de valor para un cliente interno o externo. En un proceso hay una cadena de proveedores y clientes en la que, posiblemente, el último sea un cliente externo. La reingeniería de procesos es más específica que la reingeniería del negocio, pues en aquélla el negocio es un dato y la informática es una herramienta.

2. LA TECNOLOGÍA INFORMÁTICA COMO FACTOR DE VENTAJA COMPETITIVA

Las tecnologías de computación y de comunicaciones han trascendido el campo

limitado, aunque importante, del procesamiento de información interna de las organizaciones para convertirse en instrumentos de amplísimas posibilidades para generar ventajas competitivas. Podría decirse que tales tecnologías han dejado la trastienda para trasladarse al mostrador.

Hoy en día son muchos los usos estratégicos de la tecnología informática para aprovechar

las oportunidades que se presentan a medida que aumentan las presiones de la competencia. Las medidas que podría tomar la dirección de una organización para aprovechar estas oportunidades son 7:

• Investigar de qué manera se puede utilizar la tecnología informática para cambiar

significativamente la forma de hacer negocios y lograr así una posición ventajosa con respecto a la competencia.

• Orientar la atención hacia la tecnología de la información en los altos niveles de la organización.

• Despertar la conciencia de las ventajas potenciales de la tecnología informática en toda la organización, y crear incentivos para su aprovechamiento.

Las organizaciones que han sido exitosas en el uso de la tecnología informática como

factor de ventaja competitiva poseen, en general, algunas características en común8 :

7 Benjamin, Robert I; Rockart, John F.; Morton, Michael S. Scott y Wyman, John, La tecnología informática: una oportunidad estratégica. Administración de empresas, Tomo XVII, 1984. 8 Wightman, David W. L., Competitive Advantage Through Information Technology. Journal of General Management, Vol. 12, N° 4, Summer 1987 / 37.

Page 55: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

• La misión de la organización está claramente definida y demuestra en sí misma el potencial de la tecnología informática. Esta misión es conocida por todos los empleados de la organización, quienes conocen, además, el papel que cumple cada uno de ellos para que esa misión sea alcanzada.

• Las aplicaciones de la tecnología están enfocadas hacia aquellas áreas que buscan desarrollar el aspecto competitivo de la organización.

• La organización posee una estructura flexible, y los estilos de sus líderes son consistentes. • La organización está formada por personas que poseen conocimientos, habilidades y

experiencia, y desarrolla una cultura de incentivos para su personal. • La organización es exitosa en la implementación de procesos innovadores.

La tecnología de la información puede cambiar las reglas de la competencia en tres

formas diferentes. En primer lugar, los avances de la tecnología informática pueden cambiar la estructura de la industria. En segundo lugar, la tecnología constituye un instrumento importante para la creación de ventajas competitivas. Por último, la tecnología permite la creación de negocios totalmente nuevos. Estos tres aspectos son fundamentales para la comprensión de los efectos de la tecnología informática en una industria en particular y para la formulación de estrategias efectivas9.

La tecnología informática ha tenido un impacto particularmente fuerte en las

negociaciones entre proveedores y compradores, ya que afecta las relaciones entre las compañías, sus proveedores y sus clientes. Los sistemas de información que van más allá de los límites de la organización han llegado a cambiar los límites de las industrias mismas. Además, la tecnología altera las relaciones entre la escala de la producción, la automatización y la flexibilidad. La producción en gran escala ya no es esencial para lograr la automatización y, como consecuencia, las barreras para la entrada de nuevas empresas disminuyen.

La estrategia del productor de menor costo encuentra amplio respaldo en el empleo de la

tecnología informática. Desde luego, la reducción de costos ha sido un objetivo tradicional de las aplicaciones informáticas, pero la vía para alcanzarlo se vinculaba, fundamentalmente, con el aumento de eficiencia en las tramitaciones burocráticas, en los procesos productivos y, en general, en la gestión global de la empresa. Ahora, la tecnología incursiona en la reducción de costos mediante la transformación de los métodos de producción, de comercialización y de distribución, o mediante innovaciones importantes en el tratamiento de las operaciones internas o con clientes y con proveedores.

Asimismo, la aplicación de la tecnología informática permite la creación y diferenciación

de productos o servicios que no serían posibles o rentables sin esa tecnología. Un expresivo ejemplo al alcance de la experiencia cotidiana es el de la industria bancaria, que es una de las primeras que incursionó en una amplia oferta de nuevos servicios tecnológicos cuya muestra más evidente y antigua es la de las redes de cajeros automáticos. Esta industria exhibe un intenso proceso de invención de productos y creación de servicios basados en tecnología informática, tales como la banca telefónica (que habilita la realización automática de consultas y operaciones entre el teléfono del cliente y la computadora del banco), la banca hogareña (que permite la realización de transacciones desde una computadora personal), los monederos electrónicos o smart cards (que consisten en una tarjeta provista de un chip que almacena un saldo de dinero y permite el pago de pequeñas sumas), el uso de Internet para realizar transacciones, la implantación de intranets, la implementación de la plataforma universal en sucursales (en la que cualquier cliente, en cualquier sucursal, puede ser atendido con todos los servicios ofrecidos, no importa a qué segmento o sucursal pertenezca). Estos nuevos productos no sólo se hacen posibles por la tecnología directamente aplicada “en ventanilla”, sino porque toda la infraestructura informática de la organización se encuentra en condiciones de

9 Porter, Michael E., Millar Victor. Cómo obtener ventajas competitivas por medio de la información. Harvard-Deusto Business Review. 1986. Barcelona.

Page 56: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

respaldarlos. Así, por ejemplo, la plataforma universal exige mantener la información consolidada en un solo lugar y la posibilidad de validar y aprobar una transacción. Esto implica implantar una red de procesamiento distribuido, aunque sustentada en un host central que permita una sólida centralización de la información y de la toma de decisiones.

Por otra parte, la tecnología informática puede cambiar la naturaleza de la industria o del

negocio al que pertenece la organización, lo cual puede tener efecto en los productos y los mercados de la industria o negocio. En el caso de los productos, la tecnología informática puede alterar sustancialmente el ciclo de vida del producto y disminuir significativamente el tiempo de distribución. En el caso de los mercados, la tecnología informática puede producir una profunda transformación de los mismos, como en el expuesto caso de la industria bancaria que opera en un mercado de consumidores que trabajan con computadoras y que demandan productos y servicios electrónicos.

3. SISTEMAS INTERORGANIZACIONALES Un sistema interorganizacional (en inglés, IOS, inter organizational system) es un sistema

de información utilizado por dos o más organizaciones para desarrollar algún proceso de negocios en conjunto. La organización que se integra con otras a través de sus sistemas de información da lugar a lo que se denomina empresa extendida, es decir, una empresa que se amplía hacia sus proveedores, clientes, distribuidores y agentes, unificando con ellos los procesos de negocios.

Los sistemas interorganizacionales generan la participación de diferentes organizaciones

e individuos en los mismos procesos, independientemente de los límites formales. Para ello, se aplican tecnologías relativamente costosas, como la transferencia electrónica de datos (EDI), las redes de valor agregado (en inglés, VAN, value-added network) o las redes privadas, o bien las más económicas tecnologías de Internet.

Las principales prestaciones de los sistemas interorganizacionales son:

Comunicar diferentes organizaciones de modo tal que conforman una empresa virtual.

Este es el caso, por ejemplo, de organizaciones que tercerizan algunas de sus actividades y requieren que sus procesos de negocios estén integrados con los procesos de sus proveedores.

Comunicar una organización con sus proveedores y sus clientes, facilitando las compras de materias primas y la entrega de productos y servicios.

Extender los canales de comercialización y distribución. Las nuevas tecnologías de comunicaciones ofrecen nuevos canales para realizar actividades de promoción y ventas, tales como quioscos multimedia, servicios en línea e Internet.

Uno de los primeros casos exitosos de sistemas interorganizacionales fue el del sistema

SABRE (semi-automated business research environment), es decir, ambiente de investigación de negocios semiautomatizado) de la compañía de aviación American Airlines. El sistema nació como una solución táctica, pero fue tan bien ejecutada que terminó siendo estratégica y tuvo amplio efecto en la empresa y en la industria, ya que involucró la obtención de importantes ventajas competitivas.

El sistema SABRE pasó de ser una herramienta de soporte del negocio a ser una

herramienta comercial del negocio mismo. Inicialmente, manejaba una simple relación entre comprador y vendedor, pero, con el tiempo, se convirtió en una plataforma de mercado electrónico que conecta compradores, vendedores, agentes y distribuidores en una compleja relación de negocios.

Page 57: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

El sistema de reservas de pasajes SABRE fue introducido en 1962. Comenzó como una

herramienta relativamente sencilla de control de inventario de asientos disponibles en los aviones, lo que, en la década de 1960, constituía un gran logro técnico. A través del tiempo, el sistema se fue expandiendo y, unos diez años después de su implantación, permitía generar planes de vuelo, realizar el seguimiento de partes, planificar las tripulaciones y proporcionar apoyo a las decisiones gerenciales. SABRE y sus sistemas asociados se convirtieron en el centro de control de American Airlines.

En 1976, la empresa instaló su primera terminal en una agencia de viajes. Antes de ello,

SABRE ya era un sistema central interno confiable y estabilizado que llevaba a cabo las operaciones de la compañía. Durante la década posterior, el sistema incorporó nuevos servicios (tales como reserva de hoteles y alquiler de autos) y nuevas funciones para ayudar a los agentes de viajes a ofrecer un mejor servicio. Se aumentó la cantidad de terminales instaladas y se creó una infraestructura de capacitación y entrenamiento.

El sistema SABRE es un arquetipo de los sistemas de información estratégicos. Su éxito

derivó de las ventajas competitivas que confirió a la empresa, en especial por la instalación de terminales en las agencias de viajes. Además, fue esencial para la adaptación de American Airlines a la desregulación de la industria, lo cual la ubicó en una posición ventajosa con respecto a sus competidoras.

El sistema de American Airlines proveía información de los vuelos. Al principio, tal

información sólo se refería a los vuelos de la empresa, pero pronto incorporó los vuelos de las restantes compañías aéreas. Las empresas competidoras no tuvieron otro camino que proveer la información de sus vuelos para que fuera incluida en el sistema SABRE, pues las agencias de viajes habían dedicado gran esfuerzo para implantar ese sistema y se mostraban poco dispuestas a la instalación adicional de otro distinto. American Airlines ganó ventaja competitiva por haber sido la primera empresa en desarrollar y distribuir un sistema de esta naturaleza. Sólo Apollo, el sistema de la compañía United Airlines, constituyó en su momento un competidor importante para American Airlines.

La inclusión de la información de otras líneas aéreas inauguró una nueva industria: la de

distribución electrónica de información sobre vuelos. American Airlines utilizó el sistema con otros fines competitivos, tal como, por ejemplo, mostrar en primer lugar sus propios vuelos antes que los de sus competidores. Aunque la compañía obtuvo ventajas utilizando estas estrategias complementarias durante un tiempo, pronto tuvo que suspenderlas debido a que las autoridades gubernamentales le impidieron continuar con ellas en respuesta a los requerimientos de las competidoras.

American Airlines también se concentró en la búsqueda de nuevas formas de explotación

de la información capturada por el sistema SABRE. Por ejemplo, la empresa fue la primera aerolínea que introdujo un programa de viajeros frecuentes. Asimismo, el análisis estadístico de la información le permitió establecer un sistema de tarifas diferenciales.

El sistema SABRE es un claro ejemplo de la utilización de la tecnología para la creación

de barreras de ingreso en el mercado, así como de la importancia de ser pionero en la aplicación de innovaciones tecnológicas.

4. COMERCIO ELECTRÓNICO

La expresión comercio electrónico (en inglés, e-commerce, electronic commerce) alude a

la compraventa de productos o servicios a través de Internet.

Page 58: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

El comercio electrónico implica el uso de redes informáticas, en particular Internet, para generar un mercado electrónico que opera por computadora y a distancia para la comercialización de todo tipo de productos y servicios. De este modo, el comercio electrónico vincula la oferta con la demanda e incluye todos los aspectos de la negociación, la obtención de referencias comerciales, el intercambio de documentos y la gestión de operaciones bancarias, de seguros, de transporte y similares, todo ello en un marco de adecuadas condiciones de seguridad y confidencialidad.

El desarrollo del comercio electrónico implica la implantación de sitios Web en los que

compradores y vendedores se encuentran electrónicamente para negociar, tanto en bienes como en servicios, sin costo de intermediación.

Desde el punto de vista de las partes que intervienen en las transacciones, se han

caracterizado dos formas básicas de comercio electrónico: de empresa a empresa (B2B, business to business) y de empresa a consumidor (B2C, business to consumer). A veces, se alude a la modalidad de consumidor a consumidor (C2C, consumer to consumer) para referirse a los sitios de Internet dedicados a subastas.

La implementación paulatina del comercio electrónico como canal adicional o como

canal único de las ventas de una empresa implica comenzar con una presencia en Internet para fines exclusivamente promocionales o de comunicación, es decir, sin que la presencia en la Web implique todavía la realización de operaciones. Luego, puede pasarse a una etapa de oferta de productos (por ejemplo, a través de catálogos) con cierre de las operaciones en forma telefónica o vía correo electrónico. Un nuevo avance implicaría implementar una aplicación que permitiera al cliente formular su orden de compra en línea y realizar el pago electrónicamente, así como efectuar el seguimiento del pedido hasta cumplirse la entrega final. Por último, el grado más completo de comercio electrónico se manifiesta en el funcionamiento de las comunidades de compra y venta constituidas por los denominados mercados electrónicos.

El comercio electrónico plantea una nueva manera de considerar el mundo de los

negocios, pues:

• Obliga a las empresas a replantear sus estrategias de distribución y de comercialización. • Proporciona la posibilidad de interacción directa entre las empresas y sus clientes,

reduciendo la intervención de intermediarios y permitiendo, por ello, drásticas disminuciones de costos.

• Incide de manera fundamental en la necesidad de adaptar y de fortalecer la logística de las organizaciones, ya que las operaciones concretadas en línea solamente se completan cuando el producto es físicamente entregado en casa del cliente (aunque, cuando el producto es puramente digital, como en el caso de los programas de computación, la entrega se realiza también electrónicamente).

Sin embargo, la influencia más notoria del comercio electrónico se manifiesta en el

campo de la globalización del mercado. Debido a que el consumidor potencial puede ponderar la oferta de productos mediante el simple trámite de sentarse ante su computadora y navegar por la Web, se halla en condiciones de comparar las características y precios de diferentes vendedores de todo el mundo. Para una empresa, esto significa una transformación sustancial de su estrategia competitiva, ya que el competidor que hasta ayer solamente podía amenazarla instalándose físicamente en su propio mercado local, hoy puede atacarla desde un lugar situado en el lado opuesto de la Tierra.

En cualquier caso, el desarrollo del comercio electrónico tendrá que superar algunos

obstáculos que pueden frenar la general difusión de sus posibilidades potenciales. En primer lugar, no puede extenderse más allá de lo que se ha denominado la frontera digital (o frontera electrónica), en alusión a la línea que separa a quienes tienen acceso a Internet de quienes no lo

Page 59: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

pueden tener, ya sea por razones tecnológicas o socioeconómicas. Téngase en cuenta, por ejemplo, que, aun cuando en un plazo relativamente corto la cantidad mundial de usuarios de Internet puede llegar a 1.000 millones, ello significaría todavía menos del veinte por ciento de la población mundial.

Como es lógico, la frontera digital afecta mucho menos a las organizaciones que a los

individuos, motivo por el cual existe la general creencia de que el comercio electrónico de los próximos tiempos se desarrollará principalmente en el ámbito de empresa a empresa (B2B), antes que en el de empresa a consumidor (B2C).

Otro factor que conspira contra el desarrollo del comercio electrónico es el vinculado con

la seguridad de la información que se transmite por la red. El público general manifiesta reservas para brindar datos confidenciales como, por ejemplo, el número de una tarjeta de crédito o de una cuenta bancaria. Esta desconfianza es un factor psicológico negativo para ampliar el mercado de consumo a través de Internet, aun cuando cabe esperar que la difusión de medidas de protección y el desarrollo de software de seguridad den lugar a una paulatina atenuación de este factor.

Por su parte, la expresión negocios electrónicos (en inglés, e-business), aunque se usa con

frecuencia como sinónimo de comercio electrónico, alude a la forma de desarrollo de operaciones comerciales entre empresas por la cual éstas se vinculan electrónicamente a través de una red, típicamente Internet. Con este concepto, los negocios electrónicos se diferencian del comercio electrónico en que éste implica siempre una operación de compraventa por Internet, mientras que aquéllos relacionan los procesos entre empresas sin que exista necesariamente una transacción comercial y/o una transferencia de dinero por medios electrónicos.

El e-business se ha desarrollado a partir de la experiencia de los sistemas de intercambio

electrónico de datos (en inglés, EDI, electronic data intterchange). Un sistema EDI consiste en la transmisión de documentos (por ejemplo: facturas, órdenes de compra, listas de inventarios, listas de precios, conciliaciones de cuentas) en formato electrónico estándar entre computadoras de diferentes empresas. EDI integra la tecnología informática y la tecnología de comunicaciones para realizar el intercambio de transacciones entre socios comerciales, empleando para ello estándares específicos y formatos estructurados. Empezó a tener aplicación en la década de 1970, y contó con ejemplos paradigmáticos en implementaciones de empresas como Wal Mart Stores, General Motors, Eastman Kodak y Baxter International.

Asimismo, la sigla EDI también se usa para identificar el estándar formulado por DISA

(Data Interchange Standards Association, es decir, Asociación de Estándares de Intercambio de Datos) para la implementación de este tipo de intercambio de información. El protocolo EDI es un estándar de formato para intercambiar documentos empresarios por redes privadas. Especifica códigos de campo como, por ejemplo, BT (bill to, es decir, pagar a) o ST (ship to, es decir, enviar a), así como el formato de transmisión electrónica de los datos. En general, los productos ERP pueden leer las transmisiones EDI. Otros estándares utilizados en las aplicaciones EDI son EDIFACT y Spec 2000.

El mecanismo de aplicación de EDI se inicia cuando el software específico de una

empresa genera un documento que debe ser enviado a un cliente o a un proveedor. Un programa traductor transforma el documento en alguno de los formatos estandarizados de EDI. Después, el documento electrónico normalizado es transmitido a través de una red de valor agregado o de Internet. En la computadora de destino, otro programa traductor traslada el documento al formato del sistema receptor. De este modo, EDI toma la información directamente de las aplicaciones y transmite los documentos de negocios en un formato comprensible para una computadora, utilizando líneas telefónicas y otros dispositivos de telecomunicaciones, sin necesidad de emplear papel. Las computadoras que reciben un documento EDI capturan directa y automáticamente los datos del mismo, los procesan y los ponen a disposición de los sistemas

Page 60: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

de aplicación que los requieren como entrada. El proceso completo se lleva a cabo en pocos minutos y sin necesidad de procesos manuales.

El uso de redes de valor agregado implica que las compañías vinculadas recurran a un

proveedor de servicios de comunicaciones al que tercerizan la instalación, el entrenamiento y la operación de los sistemas de computación y de comunicaciones para implementar un sistema EDI. Una red VAN permite obviar diferencias de hora, conectar computadoras incompatibles, salvaguardar la integridad de los datos y actuar como un medio de almacenamiento para proteger la seguridad del sistema.

EDI es una tecnología que ofrece ventajas significativas. Permite el intercambio seguro y

oportuno de la información de negocios. Produce un incremento sustancial de la productividad empresaria, pues implementa el intercambio de datos sin que resulte necesario realizar operaciones de captura mediante unidades de entrada. Mediante el uso de EDI, una empresa puede enviar documentos directamente desde las aplicaciones internas que manejan los datos de sus negocios a los sistemas computarizados de sus asociados comerciales, sin intervención humana, con lo que se agiliza el procedimiento y se eliminan los errores y retrasos del procesamiento manual de los documentos .

Sin embargo, EDI también presenta aspectos limitantes. Exige la utilización de sistemas

complejos y de redes de valor agregado de alto costo. Además, demanda gran coordinación entre los sistemas de las empresas que lo practican, así como la realización de tareas de readecuación frente a cambios en la estructura de los datos, por insignificantes que tales cambios puedan ser. Debido a estas limitaciones, el empleo de EDI no se ha generalizado en la medida en que se auguraba, y se estima que su uso puede verse en gran proporción sustituido por XML (en inglés, extensible markup language, es decir, lenguaje extensible de etiquetado), debido a las facilidades y capacidades que éste suministra para propósitos similares.

Aunque la aplicación de EDI ha tenido cierta difusión en Estados Unidos y Europa, en la

Argentina no ha tenido mayor divulgación. Los pocos casos de implementación incluyen el sistema que interconecta las actividades de la aduana con los importadores, despachantes, bancos y transportes, así como implantaciones parciales en algunos supermercados y empresas automotrices para la vinculación con algunos de sus proveedores. Por otra parte, la utilización extendida de EDI se encuentra acotada por las posibilidades que ha venido a ofrecer la red Internet, la que, aunque con menores prestaciones de seguridad y de velocidad, aporta recursos de intercambio de datos que resultan más sencillos y más económicos para el desarrollo del e-business. En general, en la medida en que la World Wide Web se convierta en una red global de e-business (una vez que se cuente con las suficientes medidas de seguridad y las apropiadas herramientas de software), se espera que adquiera preeminencia sobre las redes privadas de tipo EDI.

En cualquier caso, y sea cual fuere la tecnología utilizada, el objetivo del e-business es

integrar, mediante vínculos electrónicos de datos, todas las transacciones que se encuentran involucradas en el ciclo de negocios entre empresas (cotización, compra, provisión, facturación, pago), de tal modo que se prescinda del papel como soporte de la información que se intercambia. Esto tiene gran repercusión en la eficiencia de las organizaciones, pues las transacciones se realizan sin papeles y a velocidad de transferencia electrónica. Se ha calculado, por ejemplo, que el costo de procesar una orden de compra puede bajar en más del 80 por ciento.

Otra manifestación tecnológica vinculada con el comercio electrónico y los negocios

electrónicos es el denominado mercado electrónico (en inglés, e-market, electronico market), un ámbito virtual (comúnmente, un sitio Web) en que se encuentran vendedores y compradores, generalmente de un mismo mercado vertical u horizontal, a fin de efectuar operaciones comerciales electrónicas. La expresión mercado electrónico, así como otras que se emplean con

Page 61: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

igual fin (como mercado virtual, plaza electrónica, plaza virtual, mercado en línea, plaza en línea y similares), se aplica con alcances más o menos restringidos de acuerdo con el contexto en el que aparece. A veces se la usa prácticamente como sinónimo de comercio electrónico. Otras veces alude a las transacciones entre empresas. Más específicamente, hace referencia a sitios de la Web que actúan como anfitriones para que los compradores y los vendedores de una cierta industria accedan a realizar sus pedidos u ofertas y puedan concretar operaciones comerciales. Así, hay mercados electrónicos para sectores como los de petróleo, química, automotriz, papelero, naviero, agropecuario, de aviación, minimercados, etc. Por último, se habla también de mercados electrónicos en relación con sitios de la Web dedicados a subastas por Internet, compras por catálogo o licitaciones.

En cualquier caso, el mercado electrónico ofrece al menos dos características distintivas:

por una parte, su virtualidad (es decir, su carácter de herramienta para llevar a cabo transacciones comerciales a través de una red, y no en un ámbito físico), y, por otro lado, su condición de instrumento para transformar las cadenas de abastecimiento de las empresas que intervienen.

Las firmas de Internet que implementan un mercado electrónico suelen operar sobre la

base de la percepción de una tarifa de suscripción, aplicada tanto a los vendedores como a los compradores, y/o el cobro a los vendedores de un porcentaje (que suele oscilar entre el 0,5 y el 2 por ciento) sobre cada transacción. Los mercados electrónicos que ofrecen servicios de valor agregado (tales como aplicaciones de workflow o de apoyo a las decisiones, foros de usuarios, noticias de la industria, catálogos, manuales de mantenimiento, etc.) suelen cobrar una tarifa a los vendedores por la utilización de tales servicios.

El comercio electrónico, los negocios electrónicos y los mercados electrónicos han

cambiado el escenario en que las empresas deben encarar sus operaciones de compraventa. Aunque, para la mayoría de las empresas, la presencia en Internet no garantiza la obtención de utilidades, es indudable que la alternativa de esa presencia debe ser cuidadosamente considerada como una nueva estrategia de negocios o, en todo caso, como un nuevo canal de venta y distribución . De hecho, puede verificarse que una amplia gama de productos y servicios son promocionados, comprados e intercambiados a través de Internet. Las empresas utilizan la World Wide Web para captar la atención de potenciales clientes mediante la exhibición de mensajes publicitarios, catálogos, manuales e información de referencia. La variedad de productos ofrecidos en venta incluye libros, grabaciones musicales, videos, artículos de electrónica, software, productos de jardinería, servicios financieros, juegos, bienes raíces, reservas hoteleras y hasta métodos “infalibles” para ganar en la ruleta.

5. LA EMPRESA VIRTUAL La denominación empresa virtual se aplica a la empresa que realiza sus operaciones de

venta y demás transacciones comerciales en un medio exclusivamente electrónico, típicamente en Internet.

Una empresa virtual no tiene locales de venta, ni sucursales, ni depósitos. Los empleados

trabajan en el lugar y en el momento que resulten convenientes, y están conectados unos a otros por medios electrónicos. La empresa ya no tiene límites definidos, pues los socios comerciales se incorporan al negocio en forma electrónica, sea como socios de proyectos específicos o como parte de una alianza extendida.

Uno de los primeros y más completos ejemplos de empresa virtual es sin duda Security

First Network Bank (SFNB), el primer banco virtual del mundo que se puso en marcha en 1995 utilizando exclusivamente la red Internet para la totalidad de sus servicios y transacciones. SFNB no tenía sucursales, ni mostradores, ni cajas. El cliente del SFNB obtenía en su

Page 62: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

computadora personal la escena de un vestíbulo de banco con escritorios, cada uno etiquetado con un distinto trámite bancario. El cliente seleccionaba el escritorio de su trámite y luego navegaba a través de transacciones de menús. Mediante un software especial, se llevaban a cabo la identificación y la autorización de los servicios de los clientes, y se protegía la divulgación de sus datos. El costo de funcionamiento de un banco virtual de esta clase fue estimado en un tercio del costo de un banco tradicional. Esta drástica reducción obedece a que, si el costo de una operación en sucursales es de 1, el de operación por teléfono es de 0,50; por cajero automático es de 0,25; y por computadora personal o Internet es de menos de 0,02.

Aunque el concepto de empresa virtual está generalmente asociado al de las redes

informáticas, sobre todo Internet, no necesariamente debe ser así. Si se tiene en cuenta que el término virtual se aplica, primariamente, a aquello que no existe, pero es como si existiera (como en memoria virtual o disco virtual), una empresa virtual sería aquella que, sin existir como entidad económica de envergadura, produce resultados como si existiera, incluso sin que Internet u otras redes jueguen un papel relevante para ello. Jeremy Rifkin describe un ejemplo paradigmático en este sentido:10

"Quizás uno de los mejores ejemplos de cómo funcionan las nuevas fuerzas y tendencias

comerciales sea el de la firma Nike, la que, en todos los aspectos y en todos sus objetivos, es una empresa virtual. Mientras que es probable que los consumidores piensen en esta firma como en un fabricante industrial de calzado deportivo, de hecho la empresa es un estudio de investigación y diseño con una fórmula de marketing y de distribución sumamente elaborada. A pesar de ser la primera empresa mundial fabricante de calzado deportivo, Nike no posee ninguna fábrica, ni máquinas, ni equipamientos, ni bienes inmobiliarios, por así decirlo. Por el contrario, ha establecido una amplia red de proveedores (a los que llama socios de producción) en el sudeste asiático, que son quienes le producen sus centenares de diseños de zapatos, ropa y complementos. Nike también externaliza buena parte de sus campañas de publicidad y las diversas operaciones de comercialización. […] Nike vende conceptos, y establece contratos con fabricantes anónimos del sudeste asiático para que produzcan la forma física de sus conceptos. Esta [es una] nueva forma de hacer los negocios en el estilo red."

10

Rifkin, Jeremy, La era del acceso, Editorial Paidós, Buenos Aires, 2000, p. 74.

Page 63: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

Capítulo 5 FUENTES Y FORMAS DE INCORPORACIÓN DE

APLICACIONES INFORMÁTICAS El ciclo de vida de los sistemas de información – Fuentes de incorporación de sistemas de información – Desarrollo interno, desarrollo externo y tercerización – Ventajas y desventajas de cada fuente de incorporación – Formas de incorporación de sistemas de información: diseño evolutivo, diseño incremental y diseño por prototipos – El papel de los usuarios en la incorporación de sistemas de información – Evaluación de aplicaciones empresarias – Adecuación al sistema-objeto – Análisis de costo-beneficio – Tratamiento contable del software – Métricas – La implementación de aplicaciones

1. EL CICLO DE VIDA DE LOS SISTEMAS DE INFORMACIÓN

La incorporación de nuevas aplicaciones informáticas en una organización puede llevarse

a cabo desde diversas fuentes y por variados métodos. Desde el punto de vista de la organización y, en particular, de los usuarios de los sistemas, se presentan algunas circunstancias y características que son comunes a todos los casos, así como otras que son específicas de alguna de las modalidades de incorporación. Además, tales circunstancias y características se relacionan estrechamente con cada una de las etapas que conforman el ciclo de vida de los sistemas de información. Por lo tanto, resulta conveniente describir este ciclo de vida, para considerar después las diversas fuentes y modalidades de incorporación de sistemas de información.

El desarrollo completo de un sistema de información, desde el reconocimiento de la necesidad que va a satisfacer hasta el funcionamiento computadorizado óptimo, atraviesa distintas etapas que conforman lo que se denomina el ciclo de vida de un sistema. Aunque la enumeración y denominación de estas etapas varía de acuerdo con distintos enfoques metodológicos y prácticos, las diferencias no son sustanciales. En definitiva, las tareas involucradas en el desarrollo eficiente de un sistema de información son las mismas, cualquiera sea el criterio con que se las clasifique, agrupe o denomine. Desde este punto de vista, se describe, en los siguientes párrafos, un esquema básico y completo del ciclo de vida de un sistema.

El ciclo de vida de un sistema se divide en dos fases: el estudio del sistema y la

explotación. El estudio del sistema presenta cuatro etapas principales: estudio preliminar, análisis, desarrollo e implementación.

El propósito del estudio preliminar es obtener una idea general del sistema-objeto y

conocer las motivaciones para la iniciación del proyecto. En la etapa de análisis, se realiza el estudio de la situación actual y se define globalmente

un nuevo sistema que satisfaga los requerimientos planteados. Esta etapa está dividida en dos subetapas: la de investigación, que implica el relevamiento de toda la información necesaria para evaluar el sistema actual y conocer los requerimientos, y la de diseño conceptual, cuya finalidad consiste en desarrollar propuestas alternativas que, teniendo en cuenta las restricciones que debieran admitirse, satisfagan los requerimientos.

La etapa de desarrollo incluye la elaboración del diseño conceptual en términos que

hagan que el sistema sea operable. Para ello, comprende dos subetapas: la de diseño detallado, cuyo propósito es especificar, con el mayor grado de detalle, los elementos del sistema proyectado, y la de construcción, cuyo objeto fundamental es la confección de los programas de computación que darán cumplimiento a las especificaciones definidas.

Page 64: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

La etapa de implementación (o implantación) traduce en hechos todo lo construido en la

etapa anterior. Comprende dos subetapas. La subetapa de prueba y conversión está destinada a probar el adecuado funcionamiento de los programas y a generar o convertir los archivos que el nuevo sistema demanda. La subetapa de puesta en marcha implica dar comienzo efectivo a la operación del sistema diseñado.

Paralelamente a las etapas de análisis y desarrollo, será necesario elaborar el plan de

implementación y apropiar o preparar los recursos humanos, el equipamiento, las instalaciones, el entrenamiento de los usuarios, etc. Finalmente, el ciclo de vida culmina con la explotación del sistema, es decir, su funcionamiento en régimen regular. Simultáneamente con la operación, se inicia el mantenimiento, que es la actividad permanente por la que el sistema es sometido a modificaciones para adaptarse a los cambios de contexto, a las necesidades del usuario y a los ajustes y optimizaciones que se van generando al utilizarse el sistema.

Ciclo de vida de un sistema de información

2. FUENTES DE INCORPORACIÓN DE SISTEMAS DE INFORMACIÓN

Las principales fuentes de obtención de aplicaciones informáticas son: desarrollo interno,

desarrollo externo, adquisición de aplicaciones estandarizadas y outsourcing o tercerización. El desarrollo interno implica que la "fabricación" del sistema se efectúa dentro y por

personal de la propia organización, en la que, por lo tanto, se llevan a cabo todas las etapas del ciclo de vida. Esta "fabricación", en consecuencia, es realizada "a la medida" de la organización, es decir, teniendo en cuenta todas sus particulares y características y necesidades.

El desarrollo externo alude a la obtención, fuera de la organización, de todas o algunas de

las partes necesarias para "fabricar" el sistema. Ello conlleva la contratación de servicios ajenos a la organización para que provean todas o algunas etapas del ciclo de vida. Así, por ejemplo,

Page 65: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

puede contratarse la totalidad del ciclo de vida, a partir de la definición de necesidades formulada por la organización; o bien pueden llevarse a cabo dentro de ésta las etapas que culminan en el diseño detallado y contratar externamente la programación e implementación; etc. También en este caso, se trata de desarrollo de sistemas "a la medida" de una empresa específica.

La adquisición de aplicaciones estandarizadas implica la compra (o alquiler) de

productos ya "fabricados", es decir, de aplicaciones desarrolladas para el mercado por firmas de software. Estos sistemas están destinados a mercados horizontales (contabilidad, facturación, sueldos, producción, etc.) o a mercados verticales (administración de sistemas de medicina prepaga, administración de AFJP, bancos, seguros, hospitales, educación, etc.). Por lo tanto, se trata de sistemas no construidos "a la medida" de una empresa específica, sino para responder a un modelo de necesidades de una organización típica del mercado de que se trate o de algún segmento específico de ese mercado (por ejemplo, puede haber sistemas contables para grandes empresas, sistemas contables para PYME y sistemas contables para estudios de contadores). La estandarización de este tipo de sistemas puede ser completa o parcial. En el primer caso, se trata de sistemas cerrados, es decir, que no permiten ninguna adaptación a necesidades o características particulares de una organización. En el segundo caso, se trata de sistemas abiertos, es decir, que admiten algún grado, siempre limitado, de "personalización" o adaptación a ciertas necesidades o características específicas. En el caso de la adquisición de aplicaciones estandarizadas, el ciclo de vida, como es lógico, no tiene lugar bajo el control de la organización, salvo la etapa de implementación.

El outsouricing o tercerización es una modalidad de contratación de servicios mediante la

cual la organización encarga a un tercero la atención de una determinada actividad, para lo cual la empresa contratada aporta el personal y los equipos necesarios. Esta modalidad se halla en creciente expansión en el mundo, y se basa en el objetivo de que la organización que terceriza una función o actividad pueda concentrarse en su negocio específico, delegando en la empresa contratada la administración y prestación de esa función o actividad, la que, para la organización que terceriza, resulta subsidiaria o de apoyo. Así como es tradicional que las organizaciones tercericen los servicios de vigilancia o de limpieza de oficinas y fábricas, el outsourcing viene extendiéndose a otras actividades, tales como la logística y los servicios informáticos. La organización que terceriza las actividades informáticas, por lo tanto, no cuenta con equipos de computación ni personal de sistemas propios, sino que toda la actividad informática es administrada por la empresa contratada, la que, con su propio personal y sus propios equipos, proporciona todos los servicios de procesamiento de datos y de comunicaciones, y suministra toda la información demandada por la contratante. En el caso del outsourcing, en consecuencia, todo el ciclo de vida de los sistemas de información se produce fuera de la organización que terceriza, y tales sistemas de información son construidos, operados y mantenidos "a la medida" por la empresa contratada.

Como es lógico, cada una de las fuentes de incorporación de sistemas de información

presenta ventajas y desventajas, según se analiza a continuación. El desarrollo interno presenta la ventaja de proporcionar sistemas construidos "a la

medida" de las particulares necesidades de los usuarios. Asimismo, evita depender de un proveedor para realizar el mantenimiento y adecuación de los sistemas, ya que los programas en código fuente se encuentran en la organización, y quienes los han confeccionado o los conocen son empleados de la misma. Esto otorga mayor flexibilidad al mantenimiento de programas, requisito importante para que los sistemas se actualicen rápidamente, de acuerdo con las variaciones de contexto.

Por otra parte, existen aplicaciones muy específicas, y a veces exclusivas de la

organización, para las cuales el desarrollo interno resulta la única vía posible, ya que no existen en el mercado paquetes estandarizados, ni empresas desarrolladoras de software que cuenten

Page 66: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

con el suficiente conocimiento del sistema-objeto como para construir la aplicación en tiempo y a costos razonables.

Sin embargo, y salvo estos casos especiales, el desarrollo interno implica, muchas veces,

"volver a inventar la rueda". Esto significa que la organización puede hacer su primera incursión en el desarrollo de un sistema cuando el mercado ya acumula una amplia experiencia, traducida en paquetes estandarizados o en firmas desarrolladoras de software especializadas en el sistema de que se trata. Esta inexperiencia de la organización se habrá de reflejar, casi ineludiblemente, en errores y limitaciones del sistema que estarían superados en los paquetes o servicios de software consolidados. Por la misma causa, el sistema deberá ser sometido a una ardua etapa de prueba, de la que, inexorablemente, surgirán falencias que deberán ser subsanadas. Y, aun así, la puesta en régimen del sistema pondrá en evidencia nuevos problemas o limitaciones que pueden afectar el normal desenvolvimiento de las operaciones involucradas en la aplicación. Para los sistemas críticos, este es un aspecto que constituye una seria desventaja del desarrollo interno de los mismos.

Además, el desarrollo interno de software suele ser más costoso que el desarrollo externo

(en las condiciones que se señalan en el punto siguiente) y que las alternativas estandarizadas. En estas últimas, los costos de desarrollo del paquete estandarizado están destinados a prorratearse entre una masa de clientes, por lo que su incidencia en el precio unitario es parcial.

El desarrollo externo, como el interno, ofrece la ventaja de proporcionar sistemas "a la

medida" de la organización, la que, además, puede quedar en posesión de los programas en código fuente, si es que tiene el cuidado de así definirlo en la contratación del servicio.

Mediante el desarrollo externo puede también evitarse el problema de la falta de

experiencia en el sistema de que se trate, siempre que se seleccione una firma de software que pueda acreditar similares desarrollos e implementaciones anteriores del mismo sistema.

El desarrollo externo constituye también una fuente ventajosa, y a veces obligada, cuando

la organización no cuenta con recursos propios para encarar la tarea. Esto último suele ocurrir cuando la organización no tiene personal disponible, cuando carece de técnicos calificados, cuando no puede ofrecer remuneraciones apropiadas para reclutar tales técnicos, etc.

Asimismo, debido al conocimiento, la experiencia y los módulos de programación

acumulados por una firma de software especializada en el sistema de que se trate, el desarrollo externo es, con frecuencia, más rápido y menos costoso que el desarrollo interno, aunque demanda más tiempo y es más costoso que las aplicaciones estandarizadas.

Como desventaja, el desarrollo externo produce dependencia de la organización respecto

de la firma de software. Esto ocurre, en primer término, durante la mayor parte del ciclo de vida del sistema, sobre cuyo desenvolvimiento el control de la organización contratante, para asegurar el cumplimiento de los plazos de entrega, es limitado. Asimismo, esta dependencia se verifica también durante la etapa de explotación, y su duración varía de acuerdo con la complejidad y magnitud del sistema. Esto se debe a que, a pesar de que la firma de software entregue a la empresa los programas en código fuente, la modificación de los mismos no resulta sencilla para quienes no fueron sus autores, por lo menos hasta que haya transcurrido bastante tiempo como para conocer la estructura interna de los programas y las herramientas de desarrollo utilizadas para confeccionarlos. En la práctica, esta situación se contempla mediante contratos de mantenimiento, de modo tal que la firma proveedora permanece asistiendo a la organización en la modificación y actualización de los sistemas entregados.

Asimismo, en algunas organizaciones, o para algunos sistemas en particular, pueden

existir razones de confidencialidad o de seguridad que no hagan aconsejable la participación de programadores externos.

Page 67: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

De todo lo expuesto, surge que, en el caso de recurrir al desarrollo externo, debe ponerse

especial cuidado en la selección de la firma de software, la que debe satisfacer claras exigencias de seriedad, experiencia, calificación técnica, especialización y continuidad, en medida proporcionada a la importancia de los sistemas involucrados.

Las aplicaciones estandarizadas ofrecen la ventaja de encontrarse inmediatamente

disponibles. Si se trata de aplicaciones cerradas, sólo se requerirá una etapa de instalación e implementación. Esta implementación, habitualmente, consiste en la parametrización del sistema, de acuerdo con las características de la organización usuaria, y en la capacitación y el entrenamiento del personal. Si se trata de aplicaciones abiertas, se incluirá, además, la labor de "acabado" del sistema, conforme a los requerimientos de la organización que lo contrata. En cualquier caso, las aplicaciones estandarizadas son la vía más rápida de incorporación de sistemas de información.

Otra ventaja de estas aplicaciones es que, en general, constituyen el resultado de mucho

tiempo de experiencia, experimentación y uso. Esto les asigna un alto grado de consistencia, de ausencia de errores y de satisfacción de todos los requerimientos característicos de la clase de sistema de que se trate. Existen aplicaciones estandarizadas para todos los sistemas típicos de una organización común, y muchos de ellos cuentan con decenas o centenas de miles de usuarios en todo el mundo, por lo que su confiabilidad es prácticamente absoluta.

Las aplicaciones estandarizadas, al igual que el desarrollo externo, conforman también

una fuente ventajosa, y a veces obligada, cuando la organización no cuenta con recursos propios para encarar la tarea. Pero, además, aquellas aplicaciones constituyen la única opción posible cuando la organización no dispone del plazo necesario para incorporar el sistema mediante las fuentes restantes. El desarrollo interno, el desarrollo externo y la tercerización "a medida" demandan el tiempo necesario para cumplir el ciclo de vida del sistema; en cambio, las aplicaciones estandarizadas se hallan inmediatamente disponibles. Además, las aplicaciones estandarizadas, como ya se señaló, suelen ser la solución más económica, en relación con las alternativas de desarrollo interno y de desarrollo externo.

La fundamental desventaja de estas aplicaciones es que no han sido desarrolladas "a la

medida" de la organización que las incorpora. Esta limitación tendrá un mayor o menor peso, según sean los requerimientos de la organización. En uno de los extremos, se encuentran los casos en que una aplicación estandarizada satisface completamente los requerimientos de la organización, tal como si hubiera sido diseñada "a medida". En el otro extremo, se encuentran los casos en que las características del sistema-objeto o las de los requerimientos de los usuarios son tan particulares que no existe ningún paquete estandarizado que pueda satisfacerlas.

Las ventajas y desventajas del outsourcing, como herramienta de gestión empresaria, no

son materia del presente análisis. Se trata aquí de considerar el outsourcing desde el exclusivo punto de vista de una de las formas de incorporación de sistemas de información. Teniendo en cuenta que, en definitiva, la tercerización implica un contrato entre dos organizaciones, no puede describirse una modalidad típica de prestaciones de outsourcing, ya que cada caso es materia de definición y acuerdo entre las partes. Suponiendo el caso de las prestaciones más completas, la tercerización es una fuente que participa de las ventajas del desarrollo interno y del desarrollo externo. Adicionalmente, ofrece la ventaja de que la organización contratante se desentiende de todo aspecto vinculado con el diseño del sistema y con las herramientas utilizadas para su desarrollo, su mantenimiento y su operación, ya que el proveedor del servicio debe proporcionar un determinado resultado, quedando a su cargo (y a su costo) el modo en que lo consigue.

Como desventaja, el outsourcing presenta características de dependencia y de limitaciones

a la confiabilidad y a la seguridad más o menos similares a las del desarrollo externo, por lo que,

Page 68: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

también en este caso, la empresa proveedora y las condiciones contractuales deben ser cuidadosamente seleccionadas.

3. FORMAS DE INCORPORACIÓN DE SISTEMAS DE INFORMACIÓN

Las formas de incorporación de los sistemas de información pueden responder a diversas

metodologías de desarrollo e implementación. Cada una de ellas afecta de distinta manera al usuario, y le demanda un diferente modo de participación. Se considerarán, a continuación, algunas formas principales de incorporación de sistemas: el diseño evolutivo, el diseño incremental y el diseño por prototipos. Existen otras modalidades, y también otras variantes de las formas que se expondrán; sin embargo, los modelos siguientes son suficientemente ilustrativos de las alternativas más importantes.

Todas las formas se diferencian por la manera en que se desarrollan e implementan cada

una de las etapas del ciclo de vida. Aunque tales formas se aplican a la totalidad de dicho ciclo, para una más fácil exposición se considerarán solamente las etapas de análisis, desarrollo e implementación.

Cuando se aplica la modalidad de diseño evolutivo, cada una de las etapas del ciclo de

vida se cumple en forma completa y en su orden para la totalidad del sistema, el que es implementado íntegramente de una sola vez, según se ilustra en la figura.

Diseño evolutivo

El diseño incremental implica descomponer el sistema en partes, para cada una de las

cuales se desarrolla el ciclo de vida. Esto deriva en implementaciones sucesivas de cada parte, de modo tal que la implantación del sistema se va incrementando paulatinamente, según se finaliza e implementa cada parte, tal como lo muestra la figura.

Page 69: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

Diseño incremental

Por su parte, el diseño por prototipos consiste en analizar, desarrollar e implementar un

prototipo inicial de todo el sistema. Este primer prototipo contiene sólo los grandes rasgos de la aplicación. Mediante la implementación de esta primera versión, se obtienen del usuario sus opiniones y requerimientos para avanzar a un nuevo prototipo, más elaborado que el anterior. De este modo, se van sucediendo las versiones del sistema, cada una de ellas más amplia y refinada que la anterior, hasta llegar a la versión final. Esta forma de incorporación se gráfica en la siguiente figura.

Diseño por prototipos

El diseño por prototipos puede combinarse con el diseño incremental, lo que significa

que, para cada parte del sistema sucesivamente encarada, se elaboran e implementan sucesivos prototipos.

Tal como fácilmente puede inferirse, cada forma de incorporación de sistemas de

información posee atributos que la hacen aplicable o aconsejable en diferentes circunstancias. El diseño evolutivo es apropiado para sistemas que cuentan con requerimientos bien definidos y estables, con ciclo de vida relativamente corto y con escasa probabilidad de ser afectados por cambios de contexto. El diseño incremental es indicado para sistemas grandes y con ciclos de vida prolongados. El diseño por prototipos es aconsejable para sistemas que no pueden ser inicialmente definidos con claridad o que están sujetos a una alta incertidumbre respecto al cambio de condiciones de contexto. Cuando a estas características se agrega la gran envergadura del sistema, el diseño por prototipos se combina con el diseño incremental.

Page 70: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

4. EL PAPEL DE LOS USUARIOS EN LA INCORPORACIÓN DE SISTEMAS DE INFORMACIÓN

Es tenido por axioma que el usuario que no está satisfecho con un sistema de

información, no lo usa o lo “sabotea”. Esta afirmación, más allá de su validez, resulta ilustrativa para poner en evidencia que, en toda organización, la actividad de gestión de recursos informáticos es un servicio. Los usuarios son, por lo tanto, los clientes de ese servicio. Por ello, y al igual que ocurre con cualquier producto, de nada vale diseñar sistemas que, para los técnicos especialistas, puedan constituir geniales piezas de ingeniería o excelsas obras de arte si los usuarios a los que tales sistemas están destinados no encuentran satisfechos sus requerimientos. Por lo tanto, el papel del usuario, en la adquisición o el desarrollo de los sistemas de información, es trascendente.

Como queda dicho, cuando el sistema a incorporar es una aplicación estandarizada, todo

el ciclo de vida, salvo la implementación, se ha llevado a cabo fuera de la organización y, por lo tanto, sin ninguna intervención de la misma. Sin embargo, permanecen dos cuestiones importantes en las que la empresa debe tomar decisiones: la elección del paquete de software y la etapa de transición.

La elección del paquete presenta dos aspectos a considerar. El primero de ellos es la

naturaleza técnica del mismo en cuanto a su compatibilidad con los equipos, con el software de base y con otras aplicaciones existentes en la organización. Éste es un aspecto sobre el que corresponde pronunciarse al área de sistemas.

El segundo aspecto es el que se refiere a las prestaciones del sistema en cuanto a la

satisfacción de los requerimientos del usuario. En este sentido, el derecho y la responsabilidad de la elección corresponden principalmente al usuario. Por lo tanto, éste debe tener la posibilidad de evaluar el paquete en todos sus detalles, para lo cual deberá tener a su alcance, por lo menos, las siguientes vías de análisis:

• Información del proveedor (demostraciones, folletos, manuales, exposiciones personales,

etc.). • Instalación en demostración en la propia organización. • Visita a instalaciones operativas de otras organizaciones.

La participación del usuario también es importante, juntamente con el área de sistemas,

en todo lo que se refiere al plan de transición, sobre todo en lo que se vincula con la capacitación y el entrenamiento del personal involucrado, así como con la conversión o generación de bases de datos.

Cuando el ciclo de vida se produce dentro de la organización, como en el caso del

desarrollo interno, o bajo el control de aquélla, como en el caso del desarrollo externo o el outsourcing, la participación del usuario debe ser considerada para cada etapa del ciclo. De acuerdo con la descripción ya realizada de las etapas y subetapas, y tomando el caso del desarrollo interno, el grado de participación del usuario, en su relación con el área de sistemas a cargo del desarrollo, puede caracterizarse según se muestra en la siguiente figura.

Page 71: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

ETAPA PARTICIPACIÓN Estudio preliminar Alta Análisis Investigación Alta Diseño conceptual Alta Desarrollo Diseño detallado Mediana Construcción Mínima Implementación Prueba y conversión Alta Puesta en marcha Alta Explotación Operación Alta Mantenimiento Alta

Participación del usuario en la elaboración de sistemas La manera más conveniente de concretar la participación del usuario es conformar un

equipo de proyecto integrado por técnicos del área de sistemas y representantes de los usuarios. Tradicionalmente, estos equipos eran liderados por un integrante del área de sistemas. Sin embargo, y como un reconocimiento creciente del papel fundamental de los usuarios, cada vez es más frecuente que el liderazgo sea ejercido por uno de estos últimos.

En estos equipos, el cliente fundamental es el usuario. Sin embargo, suele ser necesario

que otras áreas de la organización estén también representadas, de acuerdo con el carácter de la aplicación a desarrollar. Casos típicos de esta naturaleza son: Auditoría que, por ejemplo, puede formular requerimientos vinculados con exigencias del control interno; Contabilidad, que puede demandar, como subproducto, información para registraciones; Jurídica, cuyo asesoramiento puede ser indispensable cuando el sistema involucra aspectos legales; etc.

Desde el punto de vista de la relación del usuario con los técnicos de sistemas, las etapas más importantes y más críticas son, tal vez, aquellas en que deben definirse las prestaciones de la aplicación. En estas etapas, los analistas de sistemas entrevistan al usuario para relevar sus requerimientos. En muchos casos, y en mayor o menor grado, tales analistas tienen un enfoque técnico equivocado que deriva en numerosas situaciones complejas para el usuario. Este enfoque erróneo consiste en encarar y definir el diseño básico de los sistemas de información de acuerdo con las salidas que deben producir (impresas o en pantalla). Los diseñadores de sistemas que asumen este enfoque entrevistan tesoneramente al futuro usuario y le solicitan que defina las salidas que necesita, pidiendo todo tipo de detalles acerca del contenido y diseño gráfico de cada una de ellas. Algunos analistas suelen volcar las demandas del usuario en modelos de cada uno de los listados o salidas visuales, preparados sobre una cuadrícula de espacios de impresión o de pantalla, y luego hacen firmar al usuario cada modelo, como prueba de que éste responde cabalmente a las aspiraciones de aquél.

Un diseñador que responde a este enfoque razona que, si sabe perfectamente qué es lo

que el sistema debe producir como salida, podrá definir con seguridad los datos o entradas que el sistema deberá capturar y los procesos que deberá ejecutar. En principio, este razonamiento parece acertado, y hasta podría afirmarse que en teoría lo es, pero la práctica lo invalida la mayor parte de las veces. El problema reside en que casi ningún usuario, por lo menos en sistemas de cierta envergadura, puede saber y expresar, en un momento determinado, todo lo que necesitará o le será valioso en un futuro que se extiende por varios años. Y, aunque este usuario existiera, pueden aparecer necesidades derivadas de cambios de contexto impredecibles. Casi puede decirse, sobre la base de la experiencia, que inexorablemente en algún momento de

Page 72: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

las etapas avanzadas del proyecto, y sobre todo cuando el usuario comienza a utilizar el sistema, aparecerá la necesidad o la conveniencia de modificar el contenido de algunas salidas. Es aquí cuando, al recibir una solicitud en este sentido, el diseñador expondrá sus quejas, aludiendo a la extemporaneidad del pedido, invocando las entrevistas realizadas tiempo atrás y en las que dio oportunidad al usuario para solicitar todo lo que necesitaba, exhibiendo los modelos de salidas con la firma aprobatoria del usuario, criticando veladamente al usuario por “no haber pensado bien lo que quería”, etc. Este tipo de actitudes pone de manifiesto una paradoja que muchos han señalado: a pesar de que los hombres de sistemas están “en el negocio del cambio”, suelen oponerse con firmeza a modificaciones en las aplicaciones que han diseñado.

Al mismo tiempo, esta reacción del diseñador produce un daño perdurable y difícil de

superar: el usuario que ha recibido quejas como las señaladas, apabullado por la autoridad técnica que atribuye al diseñador, siente que aparece como un incapaz o un pretencioso “difícil de satisfacer”, con lo que renuncia a los cambios que demandaba y, lo que es peor, eludirá en el futuro la reiteración de tan incomoda situación, silenciando las nuevas necesidades de cambios que, seguramente, se presentarán.

De esta manera, con el transcurso del tiempo y la acumulación de adaptaciones no

realizadas (porque ni siquiera fueron pedidas), el sistema se va alejando cada vez más de las necesidades del usuario, quien termina aceptando un sistema que le resulta ineficiente (o, por lo menos, incompleto) o, peor aun y como se ha señalado, “saboteando” su funcionamiento o no usándolo en absoluto. Todo esto se encuentra sustentado en una sorda animadversión hacia los empleados del área de sistemas, sentimiento que el usuario canaliza en la crítica “de antesala”, alimentado por colegas que comparten su postura y producen el general descrédito de los servicios de sistemas en las organizaciones.

Por otra parte, aun cuando mediara la disposición del diseñador para introducir los

cambios, éstos serían, en muchos casos, imposibles de realizar, salvo que el sistema sufriera un costoso rediseño de fondo. Es el caso, por ejemplo, en que el usuario solicita que una salida contenga un dato nuevo. En primer lugar, ese dato no ha sido previsto en el diseño de los archivos, por lo que éstos deberán ser rediseñados y reorganizados (problema que, actualmente, se atenúa en gran medida con el empleo de bases de datos). Por otro lado, no se ha previsto la recolección del dato, por lo que debe decidirse dónde, cuándo y cómo se lo capturará, y realizar, en muchos casos, una larga tarea de relevamiento y carga inicial.

La raíz de este tipo de problemas deriva del error técnico al que se ha aludido: los

sistemas no deben ser diseñados de acuerdo con las salidas que habrán de producir, sino de acuerdo con los datos que deben mantener. En efecto, no importa tanto qué salidas habrá de producir un sistema, sino sobre qué variables opera o decide el usuario. La atención del diseñador, en consecuencia, debe centrarse en indagar al usuario sobre los datos que constituyen materia de tratamiento habitual en su puesto o en el área a su cargo. Las respuestas a estas indagaciones son mucho más fáciles de precisar que los minuciosos detalles de las salidas. Los usuarios pueden definir prácticamente todas las variables que utilizan o podrán llegar a utilizar.

Existen técnicas que ayudan al usuario a determinar cuáles son los datos relevantes para

la satisfacción de sus necesidades de información. A partir de este tipo de definiciones, el diseñador debe preocuparse de que tales datos sean capturados como entrada o sean generados por el proceso, asegurándose de que estarán incluidos en la base de datos y de que serán adecuadamente actualizados. La definición de las salidas que el usuario requerirá para operar o analizar tales variables es, en realidad, un problema menor; sobre todo disponiendo, como hoy ocurre, de abundantes recursos de programación estandarizados y destinados específicamente a la generación de informes “a medida”. La sencillez de manejo de muchos de estos recursos (comúnmente llamados lenguajes de consulta) permite que el propio usuario diseñe y genere la salida que desea. Mediante estas herramientas, se puede obtener cualquier salida que muestre y

Page 73: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

relacione los datos que se encuentran en los archivos. En cambio, no hay forma (sin rediseño del sistema) de obtener salidas que contengan datos que no están en los archivos.

Este tipo de problemas en la relación entre usuario y analista de sistemas es mucho más

serio cuando se aplica la modalidad de diseño evolutivo, y conserva su importancia, aunque menor, en el diseño incremental. En cambio, y precisamente, el diseño por prototipos disminuye mucho la posibilidad de estos conflictos, ya que el sistema se va definiendo y refinando paulatinamente, a medida que el usuario evalúa cada una de las sucesivas versiones del prototipo.

5. FUNDAMENTOS DE EVALUACIÓN DE APLICACIONES EMPRESARIAS

5.1. Adecuación a las necesidades del sistema-objeto

Es sabido que la adquisición de un bien económico está destinada a satisfacer una

necesidad. Por lo tanto, la adopción de una decisión acertada respecto de la adquisición del bien depende en gran medida de la precisión con que la necesidad haya sido identificada y definida. En este sentido, la adquisición de una aplicación informática puede compararse con la compra de una casa. Para elegir apropiadamente la casa que habrá de satisfacer las necesidades de una persona o de un grupo familiar, y suponiendo que no existan limitaciones económicas importantes, es necesario determinar, por ejemplo, cuántas personas van a vivir en ella, cuál es su relación de convivencia (es decir, si se trata de una pareja, si hay o va a haber hijos, etc.), cuáles son las actividades que querrán desarrollar en la casa (profesiones, hobbies, deportes, etc.), cómo será la vida social en la casa (reuniones, huéspedes, etc.), además de las preferencias de ubicación, orientación, estilo, etc. Sin una clara definición de estas necesidades, podría ocurrir que se adquiriera una casa que, más tarde o más temprano, resultara, por ejemplo, demasiado pequeña (con lo cual habría necesidades sin satisfacer) o demasiado grande (con lo cual habría costos innecesarios). Análogamente, la adquisición de una aplicación informática requiere una clara definición de las necesidades que la misma deberá satisfacer.

Cuando se evalúa la incorporación de una aplicación informática, se está buscando, lisa y

llanamente, una herramienta de software para implementar un determinado sistema de información. Para elegir esa herramienta, es necesario poseer un cabal conocimiento del sistema de información concreto de que se trata. Un paquete de programas que funciona eficientemente en una cierta organización puede no ser eficiente para otra organización, de la misma manera que una casa que es satisfactoria para un determinado grupo familiar puede no serlo para otro. Por lo tanto, es necesario conocer en detalle los requerimientos de tratamiento de datos y de generación de información que presentan todos los puestos de trabajo involucrados en la aplicación de que se trata. Para ello, conviene que la aplicación a considerar sea evaluada teniendo en cuenta las funciones y los requisitos que debe cumplir y satisfacer un sistema de información, de acuerdo con lo que ya ha quedado expuesto en esos aspectos. Así, por ejemplo, surgirían criterios de evaluación como los siguientes:

• ¿La aplicación cuenta con procedimientos de validación de los datos que se capturan, de

acuerdo con las exigencias definidas para el sistema-objeto y de modo que no afecten significativamente el tiempo de procesamiento de la respectiva transacción?

• ¿Los datos pueden ser capturados en la fuente, a fin de evitar transcripciones o

transferencias que puedan demorar el procesamiento o generar errores?

Page 74: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

• ¿Puede verificarse que la aplicación no presenta impedimentos, limitaciones o demoras excesivas para la recuperación inmediata de cualquier dato elemental y, sobre todo, para la generación de información basada en la agregación o la relación de diversos datos?

• ¿Son adecuados los métodos de protección física de los datos (procedimientos de backup)?

• ¿Son satisfactorios los métodos de protección lógica de los datos (identificación,

autenticación, contraseñas, privilegios, encriptación)?

• ¿Los métodos de protección física y lógica se adecuan al cumplimiento de las normas generales de seguridad establecidas para los sistemas de información de la organización?

• ¿La aplicación proporciona adecuadas herramientas de compresión o permite la

implementación sencilla de las que el usuario pudiera querer elaborar utilizando, por ejemplo, algún lenguaje de consulta?

• ¿La aplicación proporciona los tiempos de respuesta que se consideran adecuados para

cada transacción en tiempo real, considerando situaciones de carga promedio y de carga pico?

• ¿Los tiempos de los procesos diferidos o por lotes responden a las necesidades del

sistema-objeto?

• ¿Se ha realizado un benchmark apropiado? De ser así, ¿el benchmark se realizó en situaciones de carga promedio y de carga pico?

• ¿La aplicación tiene apropiada capacidad para adecuarse a las características de la red de

procesamiento distribuido instalada?

• ¿Cuáles son las necesidades de adecuación de la red que puedan ser exigidas por las características de la aplicación?

• Si se debe implementar una red de comunicaciones o se debe modificar una red ya

existente, ¿cuáles son los respectivos costos y tiempos de implementación, así como el costo de operación y mantenimiento en funcionamiento regular?

• ¿Toda la información que requiere el sistema-objeto es suministrada o puede ser

suministrada por la aplicación?

• En cuanto a la información proporcionada por la aplicación, ¿son adecuados el soporte (papel, pantalla, etc.), la forma (listados, tabulados, gráficos, etc.), el momento del proceso y la periodicidad? ¿Responden a los requerimientos del sistema-objeto?

• Si hay salidas que se necesitan y la aplicación no provee, ¿los datos necesarios para

generarlas son o pueden ser capturados y almacenados por la aplicación, de modo que sea posible elaborar las salidas faltantes?

• ¿Se ha verificado que la aplicación no adolezca de una profusión de salidas y funciones

que no se necesitan en el sistema-objeto y que, por ello, no justifican sus costos (tiempo de procesamiento, espacio de almacenamiento, complejidad de programas, soportes físicos, etc.)?

• ¿Se ha determinado en qué medida y con qué demandas de tiempo y costos la aplicación

exige modificaciones en los actuales procesos de negocio?

Page 75: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

• ¿Las características de uso y operación de la aplicación son adecuadas para las aptitudes y

habilidades del personal involucrado, de modo tal que las exigencias de entrenamiento y adaptación estén razonablemente acotadas?

5.2. Análisis de costo-beneficio

Se denomina análisis de costo-beneficio el cálculo proyectivo de los costos y los

beneficios de un proyecto, destinado a cuantificar la contribución del mismo. En el caso particular de un proyecto de sistemas, éste debe fundarse en su contribución al

beneficio de la organización en que se lo implementa, incluso cuando tal beneficio no se refleje directamente en la generación de ganancias o en la reducción de costos, sino en aportes como mejoramiento de imagen, servicio al cliente, diferenciación de productos, focalización de mercados, etc.

El análisis de costo-beneficio de los proyectos de sistemas no es sencillo. Por el lado de

los costos, los proyectos suelen involucrar costos ocultos que no siempre se hacen o pueden hacerse visibles. Por el lado de los beneficios, existen muchos que son intangibles, o que, siendo tangibles, son de difícil cuantificación.

Es importante tener en cuenta que los beneficios, por lo menos en cuanto a su

enumeración conceptual, deben ser enunciados por los futuros usuarios del sistema que se proyecta. Los profesionales de sistemas deben evaluar los beneficios que podrán producirse en su propia área, pero, en lo que se refiere a las áreas usuarias, sólo deben prestar apoyo metodológico para que las ventajas del nuevo sistema sean definidas por los usuarios. Un beneficio de un sistema de información no existe realmente si no es visto como tal por los usuarios.

Cuando el sistema se halla en su etapa de diseño conceptual, por lo tanto, debe ser

expuesto a los usuarios para que éstos emitan su opinión sobre la medida en que el proyecto satisface sus necesidades y sobre las mejoras que se derivarán de la implantación. La práctica de este relevamiento arroja, habitualmente, una enunciación de beneficios que suelen hallarse entre los de la siguiente lista no exhaustiva:

- Alivio u ordenamiento de tareas - Eliminación o reducción de tareas manuales - Eliminación de ficheros de mantenimiento manual - Disponibilidad de información con la que hoy no se cuenta - Posibilidad de análisis y controles que hoy resultan impracticables - Mejora en la administración de recursos financieros - Aprovechamiento de la inversión realizada - Más o mejores negocios - Mayor rentabilidad - Reducción o eliminación de pérdidas económicas por vencimiento de plazos - Disponibilidad de información operativa en el lugar de origen - Mejor información - Información oportuna - Información más confiable - Seguridad - Reducción de tiempos de trámites - Eliminación de "cuellos de botella" - Eliminación de redundancia de archivos - Eliminación de redundancia de procedimientos o tareas - Eliminación de conciliaciones

Page 76: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

- Mayor productividad - Reducción de personal - Reducción de horas extras - Disminución de comunicaciones telefónicas - Eliminación de formularios - Reducción del consumo de papelería - Desburocratización - Mejor servicio en sucursales - Mejor gestión de inventarios - Información actualizada - Automatización de cálculos y procesos - Mejor planificación - Mejores decisiones - Mejor servicio al cliente - Mejor servicio al proveedor - Mejor asignación de costos - Reducción de costos - Homogeneidad de la información (en el espacio y en el tiempo) - Reducción de incertidumbre - Disminución de riesgos - Mejor control y seguimiento de operaciones y trámites - Mejor control de gestión - Mejoras en el planeamiento estratégico - Reducción de tareas de recolección de datos - Mejores pronósticos - Mejor posicionamiento estratégico - Mejor imagen - Mejor clima de trabajo - Mejor motivación del personal - Mejor coordinación - Ventajas frente a competidores - Diferenciación del producto - Conservación de la empresa a la par de la competencia - Mejoramiento de la satisfacción del cliente - Establecimiento o expansión de la conciencia de marca - Apertura de nuevos mercados - Generación de nuevas fuentes de ingresos - Mejoramiento del tiempo de entrada al mercado - Creación de nuevos canales de distribución - Mejoramiento de relaciones con los socios Ciertos beneficios, como reducción de personal o eliminación de ficheros, son tangibles

y, en principio, fácilmente cuantificables. Sin embargo, los usuarios tienden a ser excesivamente prudentes en esa cuantificación, debido al temor de que, una vez implantado el sistema, se les atribuya responsabilidad por la falta de obtención (o por la obtención parcial) del beneficio. Si, por ejemplo, se pregunta al usuario qué cantidad de empleados podrá eliminar, es posible que piense que esos empleados le serán restados una vez implementado el sistema, aun cuando la práctica demuestre que éste no obtuvo los resultados esperados como para producir la reducción prevista. Sin embargo, tal actitud conservadora suele no perturbar los análisis, ya que, en muchos casos, la cuantificación de los beneficios tangibles, incluso formulada con reservas, es suficiente para superar los costos del sistema y justificar, en consecuencia, la implementación del mismo.

Los beneficios intangibles, tales como “mejores decisiones” o “mejor imagen”, son de

difícil, si no imposible, cuantificación. Sin embargo, hay casos en los que es posible hacer una

Page 77: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

estimación, siquiera como “mínimo seguramente alcanzable”. Por ejemplo, un operador de mercados a futuro puede opinar que la implementación de un sistema de información en línea que suministre las cotizaciones de las principales bolsas del mundo le permitirá tomar mejores decisiones. Si se supone que el operador hace operaciones que proporcionan una ganancia mensual de 1.000.000, sería posible inducirlo a cuantificar el beneficio preguntándole en qué porcentaje se incrementará la ganancia como consecuencia de las mejores decisiones debidas al nuevo sistema. Aunque el operador no quisiera comprometerse con una cuantificación, aduciendo el carácter imprevisible de los factores en juego, es evidente que, finalmente, deberá admitir un porcentaje, siquiera mínimo, de aumento de las ganancias, ya que, de lo contrario, estaría aceptando que, a pesar de que el sistema le permitiría tomar mejores decisiones, ello no se reflejaría en las operaciones, lo cual sería un contrasentido. Aunque el operador solamente aceptara que las ganancias aumentarán en un 1 por ciento, ello significaría 10.000 de aumento del beneficio por mes, lo cual puede ser suficientemente significativo para lograr la absorción de los costos del proyecto. En casos como éste, cuando hay un conjunto de puestos de trabajo similares que hacen idéntico uso del sistema (es decir, si, en el ejemplo, hubiera un cierto número de operadores), son de aplicación los métodos que hacen posible determinar estimaciones grupales mediante iteraciones sucesivas. Los beneficios tangibles que son de difícil cuantificación también pueden ser sometidos a tratamientos de este tipo.

Debe tenerse en cuenta que la preocupación por cuantificar los beneficios está

relacionada estrechamente con el costo del proyecto. Si este costo es igualado por los beneficios tangibles y cuantificables, se puede asegurar que, cualquiera fuera el cálculo que se hiciera de los tangibles no cuantificables o de los intangibles, este cálculo constituirá un beneficio neto o ganancia del proyecto. Por lo tanto, en el análisis de costo-beneficio, conviene centrarse inicialmente en los beneficios que son de fácil cuantificación. En la mayoría de las situaciones, si el proyecto responde a una necesidad evaluada en el contexto de un plan estratégico de sistemas, bastará con eso para justificar la conveniencia de la implantación.

En cuanto a los costos, muchos de ellos son de inmediata cuantificación, como el costo

del hardware y el software directa y exclusivamente destinados al sistema proyectado. Pero resulta necesario considerar también los costos indirectos, así como los costos directos que surgen del empleo de recursos compartidos con otros proyectos. Un ejemplo de estos últimos es el uso de recursos que un sistema origina en la unidad central de procesamiento y sus periféricos (ocupación de memoria, instrucciones de canal, ocupación de los discos, tiempo de procesamiento, etc.). La utilización de recursos de hardware, de software y de comunicaciones es perfectamente mensurable, ya que se dispone de programas específicamente destinados a contabilizar e informar todos los detalles del empleo de tales recursos.

Desde luego, el cálculo de los costos de un proyecto debe incluir los costos de la mano

de obra, de servicios de terceros y de otros recursos necesarios para desarrollar e implementar el sistema involucrado. Por lo tanto, el plan del proyecto, con la especificación de la cantidad y el tiempo de uso de este tipo de recursos, debe estar consistentemente confeccionado, y fundamentado en la experiencia del contexto particular en que se lo formula. Con estas bases, y el auxilio de un profesional contable, los costos de un proyecto de sistemas pueden considerarse materia de razonable control.

El análisis de costo-beneficio es el método más utilizado para determinar el retorno de la

inversión (en inglés, ROI, return of investment) de los proyectos de sistemas. En relación con la suma de dinero requerida por la ejecución de un proyecto, se llama retorno de la inversión el reembolso de dicha suma generado por los beneficios proporcionados por el proyecto.

En esencia, el retorno de la inversión implica determinar cuándo una inversión se pagará

a sí misma. Existen distintas métricas o medidas para determinar el retorno de la inversión de un proyecto. En el caso específico de proyectos de sistemas, se utilizan medidas tales como análisis de costo-beneficio, tasa interna de retorno, valor actual neto, análisis de recuperación

Page 78: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

del gasto, valor económico agregado (en inglés, EVA, economic value added) y diversos métodos de puntajes ponderados.

5.3. Tratamiento contable del software

En la evaluación de proyectos de sistemas, es necesario considerar de qué manera se

tratan contablemente las sumas erogadas. El tratamiento contable del software alude, principalmente, al criterio con que se contabilizan las sumas de dinero aplicadas a la compra o desarrollo de software en una organización.

Hay dos alternativas principales de tratamiento contable del software, tanto en el caso de

compra como en el caso de desarrollo propio. La primera consiste en contabilizar el costo del software como un gasto; la segunda consiste en capitalizarlo como un activo. En este último caso, el importe capitalizado se deprecia o amortiza a lo largo de la vida útil del software.

El tratamiento del costo del software como un gasto implica que el respectivo importe se

contabilice como pérdida en el momento de incurrir en el costo, es decir, de una sola vez. En cambio, el tratamiento del costo como un activo incrementa el patrimonio de la organización y registra la pérdida por consumo del capital en cada uno de los períodos de la vida útil del bien.

Las organizaciones manifiestan una marcada tendencia a tratar los costos del software

como un activo. En Estados Unidos, el American Institute of Certified Public Accountants (Instituto americano de contadores públicos), apoyado por el Financial Accounting Standards Board (Consejo de estándares de contabilidad financiera), dio a conocer en 1998 una norma que establece que el software, sea comprado o desarrollado, se contabilice como un activo. Este tratamiento contable hace necesario que, para el caso del desarrollo interno, se realice una contabilización específica de los costos incurridos, cuidando la correcta imputación de los mismos a los respectivos proyectos de desarrollo. Por su parte, el alquiler del software, o el pago periódico de una suma para poder utilizarlo, debe contabilizarse como gasto. 5.4. Métricas

En la evaluación de paquetes de software, es útil recurrir al uso de métricas. Se denomina

métrica un número con el que se expresa la medida en que una pieza de software presenta un atributo subjetivo, tal como, por ejemplo, una cualidad que puede ser percibida por los usuarios. El término también alude a una medida que pondera el desempeño de recursos involucrados en funciones informáticas.

Las métricas son mediciones de desempeño de un determinado componente de

hardware, software, comunicaciones o recursos humanos aplicado a las actividades informáticas, o de una combinación de ellos. Para una organización particular, puede llegar a determinarse un conjunto de métricas específicas que, comúnmente, son comparadas con las que surgen de relevamientos estadísticos realizados entre un número representativo de organizaciones. Algunas firmas consultoras internacionales, por ejemplo, cuentan con una base de datos de métricas obtenidas de sus clientes de todo el mundo. Esta información es utilizada como patrón de comparación de las métricas determinadas para un caso particular que se esté estudiando. Se obtienen también métricas de laboratorio, es decir, de pruebas efectuadas para determinar el rendimiento ideal de cierto procedimiento, metodología o recurso.

Existe una tendencia hacia el uso creciente de las métricas, sobre todo en los casos de

contratos de outsourcing o de integración de sistemas en los que se incluyen cláusulas de medición de desempeño a fin de controlar el cumplimiento de ciertos niveles de servicio. Las áreas cubiertas por las métricas son sumamente variadas. Algunas de uso común son: disponibilidad, costo de una red por unidad de tiempo, costo de posesión de equipos, tiempo de

Page 79: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

resolución de problemas en mesas de ayuda, costos de uso de computadoras, soporte de computadoras de escritorio, tiempo medio entre fallas, calidad de servicio, tiempos de desarrollo de sistemas, relación entre el costo de sistemas y los ingresos totales de la organización, etc. También hay un amplio número de métricas relacionadas con la rentabilidad de aplicaciones específicas, así como con el desempeño de determinados productos de hardware.

El término métricas también se emplea para aludir a las estadísticas significativas

obtenidas con la ejecución de un benchmark, es decir, una prueba, o conjunto de pruebas, diseñada para comparar el rendimiento de un sistema de computación contra el rendimiento de otros.

6. LA IMPLEMENTACIÓN DE APLICACIONES

Las aplicaciones ERP, CSM, CRM, BI y otras de similar envergadura permiten hacer significativos ahorros en una organización. Sin embargo, debe tenerse en cuenta que estos sistemas implican la apropiación de importantes sumas de dinero y ofrecen un grado de complejidad que exige una esforzada y cuidadosa implementación.

En muchos casos, la implementación de esta clase de sistemas es más costosa que el

producto propiamente dicho, debido a factores tales como la escasez de personal con experiencia en la implantación de estos sistemas, la exigencia de encarar proyectos de reingeniería (comúnmente recomendados por las firmas implementadoras) y la necesidad de incrementar la infraestructura tecnológica para satisfacer la demanda de los sistemas. Se ha calculado que el costo final de esta clase de aplicaciones es, por lo menos, entre 3 y 5 veces superior al valor de las licencias.

En este tipo de sistemas, es imprescindible hacer un análisis detallado de los procesos de

negocio e identificar los requerimientos para encontrar la solución adecuada. Por otra parte, es necesario considerar los desafíos técnicos planteados por la respectiva implementación, ya que estos sistemas son piezas de software complejas, y su instalación requiere importantes inversiones de dinero, tiempo y habilidades.

Muchas organizaciones subestiman el efecto que la implementación de estas aplicaciones

puede producir en las personas, funciones, habilidades requeridas y estructura organizacional. La gestión del cambio es uno de los factores más importantes en el éxito de un proyecto de implementación de un sistema importante. Una efectiva gestión del cambio asegura que la organización y el personal estén preparados para los nuevos procesos y sistemas. Además, es necesario neutralizar la resistencia al cambio mediante una estrategia especialmente diseñada para comunicar las razones de la transformación y lograr el apoyo de quienes están involucrados en ella.

Por otra parte, esta clase de sistemas estandarizados imponen su propia lógica en la

estrategia, la estructura y la cultura de una organización. Los sistemas ERP, por ejemplo, empujan a la empresa hacia una integración total, incluso cuando la segregación de una unidad de negocios es de especial interés, y la impulsan también hacia procesos genéricos, incluso cuando la personalización de algún proceso constituye una ventaja competitiva.

La experiencia señala una cantidad significativa de inconvenientes y fracasos, parciales o

totales, en la incorporación de estos sistemas. Las razones más frecuentes se vinculan con una inadecuada evaluación y selección del producto, fallas en la gestión del proyecto, ineficiente manejo del proceso de cambio y subestimación del esfuerzo de implementación.

Page 80: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

Por otra parte, la mayor o menor dificultad de implementación de estos sistemas está condicionada por el estado de los sistemas antiguos de la organización. La tarea de transición de los sistemas anteriores a los sistemas nuevos debe ser cuidadosamente analizada y planificada.

Los sistemas estandarizados ofrecen ventajas tales como la supresión del esfuerzo y del

costo de desarrollo, la seguridad de funcionamiento, la actualización permanente, la incorporación de las mejores prácticas, la previsibilidad de los costos y la modularidad que permite implementaciones parciales. Pero, paralelamente, debe tenerse presente que requieren una compleja tarea de personalización, generan una importante dependencia del proveedor, demandan un alto esfuerzo de implementación, exigen cambios en los procesos de la organización y suelen necesitar sofisticados recursos de computación y comunicaciones.

Para una implementación exitosa, es necesario que el respectivo proyecto cuente con el

apoyo activo de la dirección superior de la organización. También es fundamental que sea visto como una iniciativa de negocios, y no sólo como un proyecto de tecnología. Las empresas que han obtenido los mayores beneficios de esta clase de sistemas son aquellas que han encarado su implementación como una acción estratégica. Por otra parte, y dado que el papel de los usuarios es fundamental en la implementación de estos sistemas, es importante que se encuentren adecuadamente representados en la formulación y la ejecución del proyecto. Los usuarios asignados al proyecto deben ser miembros de las áreas involucradas, conocer el sistema-objeto y tener interés y capacidad para entender los aspectos tecnológicos. Estos usuarios actúan como enlaces de las áreas funcionales con el área de sistemas de la organización, con los proveedores de la aplicación y con los consultores.

Page 81: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

Capítulo 6 LA ESTRATEGIA DE LOS RECURSOS INFORMÁTICOS

Planeamiento estratégico de sistemas: naturaleza, objetivos y áreas – Formulación del plan de sistemas: metodología y etapas – Necesidad e importancia del planeamiento de sistemas – Papel del usuario – Problemas humanos en sistemas – Características y actitudes del área de sistemas, los usuarios y la dirección – Enfoques del uso de la tecnología informática – La administración de la información

1. PLANEAMIENTO ESTRATÉGICO DE LOS RECURSOS INFORMÁTICOS

1.1. Objetivos El planeamiento estratégico consiste en un esfuerzo de planificación que implica la

exploración, a mediano o largo plazo, de los factores de contexto, a fin de identificar nuevas áreas en las que las habilidades de la organización puedan ser aplicadas, así como detectar las debilidades que deben ser contrarrestadas. Requiere una investigación creativa de las oportunidades que se presentan en un marco mucho más amplio que el que solamente se circunscribe a las operaciones corrientes.

La práctica de este tipo de planeamiento está indisolublemente asociada con el éxito de

las organizaciones. Concurrentemente, ese éxito depende también, en grado marcadamente creciente, de la capacidad de manejar o procesar el recurso más valioso de nuestro tiempo: la información.

Los recursos informáticos, pues, presentan dos aspectos decisivos desde el punto de vista

estratégico. En primer lugar, en la medida en que resultan esenciales para la gestión eficiente, deben responder estrechamente al plan estratégico general de la firma. Y, en segundo término y a partir de ese marco, deben ser objeto de la formulación de su propio plan estratégico.

El planeamiento estratégico de sistemas implica la búsqueda del máximo desarrollo de las

capacidades potenciales de la organización mediante la aplicación de las tecnologías de computación y de comunicaciones. Su enfoque abarca el importante uso de tales tecnologías para la reducción de costos burocráticos y la generación de una alta eficiencia en la gestión general y en la dirección superior, pero asigna similar relevancia al papel que los recursos informáticos y los sistemas diseñados para su aplicación pueden desempeñar en la producción de utilidades o en la satisfacción de otros objetivos estratégicos de las organizaciones. Por otra parte, actualmente muchos sistemas operan en redes que combinan diferentes tecnologías de computación y de comunicaciones. La gestión integrada de tales tecnologías no resulta sencilla, pues la relación que las organizaciones tienen con cada una de ellas no es de igual antigüedad y dominio. Por ello, la integración eficiente de las diferentes tecnologías informáticas sólo puede alcanzarse mediante la formulación del plan de sistemas.

La formulación del plan estratégico de sistemas, como capítulo importante del plan

estratégico general de la organización, está orientada a la satisfacción de exigencias fundamentales como las siguientes:

• Determinar la mejor alternativa del uso de los recursos informáticos en los procesos de

tratamiento de información y en las actividades productoras de bienes y/o servicios. • Consolidar el desarrollo de la influencia positiva que los sistemas de información pueden

ejercer en la excelencia de la organización.

Page 82: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

• Considerar el impacto de los sistemas de información y del uso de las tecnologías informáticas en el desempeño de la organización.

• Apuntar a la determinación de los cursos de acción estratégica en materia de sistemas de información transaccionales, sistemas para el nivel superior y sistemas de apoyo a la decisión.

• Orientar el fortalecimiento del uso de las tecnologías informáticas para crear y consolidar ventajas competitivas, fundamentalmente en lo vinculado con la diferenciación del producto, la creación de barreras de entrada y el mejoramiento de la segmentación de los mercados.

• Tomar en cuenta el efecto de la creciente complejidad de las aplicaciones de las tecnologías informáticas y la consiguiente necesidad de que su diseño e implementación sean planeados de manera integrada, produciendo como resultado un plan de sistemas que combine armónicamente las diferentes tecnologías (procesamiento de datos central, microcomputadoras, procesamiento distribuido, redes, comunicaciones, etc.).

El plan de sistemas debe proveer respuestas en cinco áreas clave: aplicaciones, recursos

técnicos, recursos humanos, organización y procedimientos e implementación del plan y desarrollo de los sistemas. Algunos aspectos ilustrativos de cada área son los siguientes:

Aplicaciones • ¿Qué tipo de información es necesaria para cumplir objetivos y estrategias de largo plazo? • ¿Cuáles son los nuevos sistemas a desarrollar para incrementar la eficiencia operativa, de

planeamiento y de control? • ¿Cuáles son los sistemas a desarrollar para mejorar la competitividad de la organización? • ¿Cuál es la mejor forma de articular la nueva arquitectura de sistemas con las aplicaciones

existentes?

Recursos técnicos • ¿Qué recursos de las tecnologías de computación y comunicaciones son aplicables? • ¿Cómo serán adquiridos o contratados tales recursos?

Recursos humanos • Cantidad de personal y tipo de capacitación técnica. • Programa para el desarrollo de recursos humanos. • Programa para capacitación de usuarios. • Utilización de consultores.

Organización y procedimientos • Desarrollo y aplicación de políticas y normas. • Desarrollo de la base de datos central. • Procesos y políticas de acceso de usuarios a bases de datos. • Control del uso eficiente de los recursos informáticos. • Organización y administración de las actividades informáticas.

Implementación del plan y desarrollo de los sistemas • ¿Cómo articular las actividades de sistemas en curso con las definidas en el plan de

sistemas? • ¿Cuáles son las prioridades en el desarrollo de sistemas? • Plan de recursos. • Costos, beneficios y riesgos de cada proyecto.

1.2. Formulación del plan de sistemas

Page 83: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

En la formulación del plan de sistemas, deben cumplirse las siguientes etapas principales:

• Diagnóstico de la situación organizativa

Esta etapa implica realizar el diagnóstico de la situación de la organización en aspectos clave vinculados con las actividades informáticas, tales como: cultura organizacional, objetivos, planeamiento, estructura de organización, sistemas y procedimientos, conducción y toma de decisiones, productividad, relaciones interpersonales, etc.

• Identificación de los objetivos estratégicos

El objetivo de esta etapa es vincular el planeamiento de sistemas con el planeamiento comercial. Se efectúa el análisis de la orientación estratégica de la organización y se identifican sus implicaciones en la función de gestión de recursos informáticos, determinando el valor estratégico de los sistemas de información y de la aplicación de la tecnología informática para fortalecer la respuesta de la organización a los diferentes factores que determinan su relación con el mercado.

Esta etapa produce como resultado la definición de los objetivos estratégicos del plan de

sistemas, en el contexto del marco referencial compuesto por el plan comercial, el diagnóstico emergente de la etapa anterior y el análisis de la competencia. Esta definición incluye el establecimiento de la prioridad y el peso relativo de cada objetivo, en el contexto de estrategias de liderazgo de costos, de diferenciación o de focalización.

• Análisis de los métodos y procedimientos

Los objetivos de esta etapa son: proveer la comprensión de la situación operativa, generar herramientas útiles de comunicación con los usuarios y obtener elementos para estructurar un puente entre el planeamiento y la implementación del plan.

• Identificación de las necesidades informativas

En esta etapa se definen los procesos o partes del ciclo de vida de cada uno de los recursos de la organización (personal, dinero, clientes, productos, información, instalaciones, etc.). Se determina, para cada proceso de cada recurso, cuáles son las necesidades de información que deben ser satisfechas para gestionarlo eficientemente. Entre otras herramientas, se utiliza en esta etapa el método de los factores claves para el éxito.

• Evaluación de la arquitectura de sistemas

El objetivo de esta etapa es la identificación de los principales sistemas de información existentes, estableciendo la relación de cada uno de ellos entre sí y con la estructura de la organización, con los procesos y con los archivos.

• Análisis de la infraestructura existente

El propósito de esta etapa es reconocer el equipamiento de computación y de comunicaciones existente, a fin de obtener los elementos para planear la transición de la situación actual a la situación que se persigue como objetivo.

• Definición de la arquitectura de aplicaciones

Esta etapa constituye la primera de las que conforman el resultado de la formulación del plan. La arquitectura de sistemas, definida en el nivel estratégico, incluye tres elementos básicos: la descripción de archivos y bases de datos, la descripción de funciones de cada sistema a implantar y la descripción de la lógica global que enlaza los sistemas.

• Definición de arquitecturas de hardware, software y comunicaciones

El objetivo esencial de esta etapa es definir el hardware, el software y las redes de comunicaciones de datos que deben servir de soporte a los sistemas. También se define cuál es

Page 84: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

la distribución óptima de los diferentes sistemas. Incluye, como primer paso, el análisis de las tendencias tecnológicas.

Asimismo, se determina el grado de centralización o descentralización que se aplicará en

cada una de las tres dimensiones siguientes: configuración de hardware, desarrollo de software y ejercicio de la función de gestión de recursos informáticos.

Uno de los puntos esenciales de esta etapa es la identificación de las tecnologías

informáticas que resultan decisivas para la posición competitiva de la organización, así como la definición de las pautas para la implementación de estas tecnologías.

• Organización y procedimientos.

En esta etapa, se determina todo lo relacionado con el soporte organizativo y administrativo de los sistemas de información.

Para ello, se ponderan elementos tales como: la distribución de las necesidades de acceso

a las bases de datos, los requerimientos de acceso a los archivos centrales, los tiempos de respuesta y de actualización de las base de datos, el volumen proyectado de transacciones, los momentos y lugares de captura de datos, las bases de organización de las actividades informáticas, etc.

Además, se definen la composición y funciones del comité de sistemas, organismo

formado por representantes de la dirección, del área de gestión de recursos informáticos y de las áreas usuarias, y destinado a coordinar y controlar el desarrollo del plan.

• Plan de sistemas.

En esta etapa, se formula detalladamente el plan de sistemas de la organización. Se divide en tres partes que corresponden, respectivamente, al plan estratégico, el plan táctico y el plan operativo anual. El contenido principal de cada una de estas partes es el siguiente:

PLAN ESTRATÉGICO Sistemas Objetivos Arquitectura de sistemas existente Arquitectura de sistemas futura Principales sistemas a desarrollar Recursos técnicos Arquitecturas de hardware, de software y de comunicaciones existentes Arquitecturas de hardware, de software y de comunicaciones futuras Principales proyectos de instalación de hardware, de software y de

comunicaciones Recursos humanos Políticas y normas para el personal informático Desarrollo de ejecutivos de sistemas y personal técnico clave

Organización y procedimientos Objetivos de cada grupo de sistemas Composición y funciones del comité de sistemas Plan de acción Plan de proyectos Proyección de gastos de desarrollo

Page 85: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

Apéndices Análisis de los procesos Análisis de la competencia Tendencias tecnológicas Necesidades informativas (a corto y largo plazo)

PLAN TÁCTICO Sistemas Lista de proyectos a desarrollar Criterios de medición de desempeño Recursos técnicos Plan de capacidad (proyección de la capacidad del equipamiento para absorber

el crecimiento previsto de las aplicaciones informáticas) Recursos humanos Plan de reclutamiento de personal Plan de capacitación Plan de promoción Organización y procedimientos Cambios organizativos Plan de acción Plan de proyectos Costos de desarrollo

PRESUPUESTO Y PLAN OPERATIVO ANUAL Sistemas Sistemas a desarrollar en el siguiente año Recursos técnicos Plan de instalación Proyección de utilización de recursos Recursos humanos Asignación por proyecto Plan de acción Gantt de implementación Presupuesto Planes por proyecto La siguiente figura muestra un esquema de las etapas de formulación del plan de sistemas

y de la relación lógica entre ellas.

Page 86: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

Etapas de formulación del plan estratégico de sistemas

1.3. Necesidad e importancia del planeamiento estratégico de sistemas

La planificación del uso de los recursos informáticos en la organización responde a los mismos fundamentos que sostienen la necesidad de planificar todas las restantes actividades empresarias. Sin embargo, presenta además los siguientes fundamentos específicos:

• La labor de desarrollo y operación de sistemas de información tiene una profunda

repercusión en la eficiencia de todas las funciones de la organización, tanto en los niveles operativos como en los del nivel superior.

• La función de sistemas es una función de servicio. En consecuencia, resulta imprescindible

planificar su desarrollo de acuerdo con las prioridades operativas y estratégicas que la dirección asigne a cada una de las unidades de negocio de la organización.

• Las actividades informáticas requieren importantes inversiones, tanto en mano de obra

como en equipos e infraestructura.

• Las aplicaciones de los recursos informáticos exigen un proceso de diseño, programación, prueba, implementación y mantenimiento que se desarrolla en períodos de, por lo menos, varios meses, y terminan conformando un paquete de proyectos cuya coordinación es imposible sin una adecuada planificación de la asignación de recursos.

• La configuración, la contratación, la instalación y la puesta en funcionamiento de equipos e

instalaciones informáticas suelen demandar largos períodos (muchas veces medidos en años), importantes costos, conversión de aplicaciones o archivos, capacitación del personal, entrenamiento de usuarios, y otras acciones similares cuyo éxito no es concebible sin un adecuado planeamiento.

Page 87: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

• El cambio tecnológico involucrado en las actividades informáticas es vertiginoso. Sin embargo, responde a tendencias que pueden identificarse y entre las cuales la organización debe hacer su elección para mantenerse en los mejores niveles de eficiencia en el uso de la tecnología informática. La aplicación de la tendencia escogida debe ser planificada.

• El planeamiento de sistemas va más allá de la problemática de computación. Suministra

una clara definición y un preciso inventario de la información clave para dirigir y gestionar el negocio, y proporciona mecanismos de regulación y control para asegurar la rápida adecuación de la organización a los cambios de contexto.

1.4. El papel de los usuarios en la elaboración del plan de sistemas

Ya se ha señalado la importancia del papel del usuario en el desarrollo de las

aplicaciones informáticas. Es indudable que, siendo el cliente interno de tales aplicaciones, el usuario tiene un papel no menos importante en la formulación del plan que determina la naturaleza, las prioridades y la secuencia de implantación de tales aplicaciones. En tanto la actividad de gestión de recursos informáticos es una función de servicio, no puede elaborarse ningún plan de la misma sino en función de la satisfacción de las necesidades de los destinatarios del servicio.

Por ello, la participación de los usuarios en la formulación del plan de sistemas, más que

una concesión, es un requisito y punto de partida imprescindible. Ciertamente, el plan de sistemas contiene estrategias y definiciones de carácter técnico en las que el usuario tal vez tenga poco que aportar, pero los especialistas deberán encarar tales definiciones y estrategias como meras herramientas para el logro más eficiente del objetivo central del plan: suministrar las prestaciones informáticas que mejor respalden el desarrollo del plan estratégico de la organización.

En particular, cada etapa de la formulación del plan de sistemas presenta sus demandas

específicas en cuanto a la función y la participación del usuario. La etapa de diagnóstico de la situación organizativa se desarrolla, habitualmente, con la activa participación de los niveles gerenciales de la organización. En última instancia, estos niveles son los que están más habilitados para apreciar y evaluar las características actuales de la empresa y las condiciones favorables o condicionantes que de ellas se derivan para el desarrollo de una estrategia informática.

La etapa de identificación de los objetivos estratégicos exige un papel protagónico de los

usuarios. Se trata, justamente, de relevar el conjunto de estrategias de la organización, expresadas a través del plan comercial, a cuyo apoyo y alcance deberá concurrir la tecnología informática. En este sentido, el plan comercial constituye un antecedente condicionante del plan de sistemas ya que, a través del plan comercial, los usuarios explicitan cuáles son sus demandas y necesidades en materia de tecnología informática, y de qué modo y con qué prioridades deberán ser satisfechas.

En la etapa de análisis de los métodos y procedimientos, los usuarios participan

suministrando información sobre la situación operativa actual y sobre las condiciones que deberán tenerse en cuenta para realizar las transformaciones que puedan surgir de la implantación de nuevos sistemas y tecnologías.

La etapa de identificación de las necesidades informativas conforma otra intervención

decisiva de los usuarios, ya que en ella se establecen los resultados que deberán proporcionar los sistemas de información transaccionales y los del nivel superior. La aplicación del método de los factores claves para el éxito ilustra acabadamente la medida en que el papel de los usuarios es determinante para la definición de la arquitectura de aplicaciones que contendrá el plan de

Page 88: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

sistemas. Tal como ya se ha visto, este método implica una particular y personalísima definición de la información que cada usuario necesita para su respectivo tablero de comando.

Las siguientes etapas, de evaluación de la arquitectura de sistemas y de análisis de la

infraestructura existente, constituyen un reconocimiento de la situación actual en materia de aplicaciones y equipos, por lo que requieren una mínima participación del usuario.

En la etapa de definición de la arquitectura de aplicaciones, se toman decisiones en

materia del alcance de cada sistema proyectado y del contenido de la base de datos. De modo similar al diseño de una aplicación particular, estas definiciones serán formuladas por los especialistas, pero deben ser sometidas a la consideración y conformidad de los usuarios. Algo similar ocurre con la siguiente etapa de definición de las arquitecturas de hardware, software y comunicaciones.

En la etapa de organización y procedimientos, se determinan ciertos parámetros

esenciales para definir la naturaleza de las prestaciones informáticas. En esta etapa, el usuario participa en todo lo relacionado con el impacto que los nuevos sistemas producirán en sus procedimientos administrativos, así como con las exigencias de cambios, transformaciones y conversiones que plantearán las implementaciones. Además, los nuevos procedimientos deben ser aprobados por los usuarios en todo lo que se vincula con sus necesidades de acceso a las bases de datos, los tiempos de respuesta de las aplicaciones en tiempo real, el método de actualización de las base de datos, la oportunidad y forma de captura de datos, etc. Asimismo, los usuarios formalizan aquí su participación activa a través de representantes que, junto con la dirección y el área de gestión de recursos informáticos, integrarán el comité de sistemas que tendrá un permanente papel de facilitación y coordinación en el desenvolvimiento del plan.

Finalmente, en el plan de sistemas formulado en términos de largo plazo, mediano plazo

y plan anual, los usuarios desempeñan un papel fundamental en la evaluación de la contribución de cada proyecto y en la definición de sus respectivas prioridades de implementación.

En este último sentido, el plan de sistemas aporta otra significativa contribución. En la

práctica, muchas insatisfacciones de los usuarios respecto del servicio informático se relacionan con los proyectos atrasados y las “promesas incumplidas”. En muchas organizaciones, la cantidad de proyectos informáticos pendientes de desarrollo equivale a la de aplicaciones implementadas. Incluso, suele considerarse que aquella cantidad es muy superior, si se tienen en cuenta las necesidades no planteadas en razón de la “cola” de proyectos en espera. Sin la existencia de un plan de sistemas, la necesidad insatisfecha de cada usuario constituye una situación de incertidumbre respecto del futuro de sus propias actividades, ya que, a la falta de puesta en marcha del proyecto de su interés, se agrega el desconocimiento del plazo que tardará en ser encarado y de las razones por las que se lo posterga. El plan de sistemas, en cambio, provee una visión integrada de las necesidades de todos los usuarios, así como de las razones que fundamentan las prioridades con las que las mismas serán satisfechas. Esto proporciona a cada usuario un contexto consistente de planeamiento, ya que sabe cuándo será encarado su proyecto y cuál es la importancia o urgencia de los proyectos que conviene encarar antes que el suyo.

2. LOS PROBLEMAS HUMANOS EN SISTEMAS

2.1. Introducción El espectacular desarrollo de las computadoras auguró inicialmente un edénico panorama

de organizaciones eficientes. Sin embargo, la historia de la aplicación de las herramientas electrónicas apareció más llena de fracasos que de éxitos. Para modificar esta realidad, se

Page 89: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

concentró la atención en el perfeccionamiento del hardware y en la reducción de su costo. Conseguido esto, y ante la permanencia de la situación insatisfactoria, se pensó que el aspecto deficitario estaba relacionado con el software, por lo que hubo importantes desarrollos, innovaciones y mejoras en este sentido. Sin embargo, la mayor parte de las organizaciones seguían presentando un panorama prácticamente similar y caracterizado por problemas de sistemas tales como:

• Usuarios insatisfechos. • Proyectos atrasados. • Fallas de seguridad. • Errores y reprocesos. • Promesas incumplidas. • Costos injustificados. • Rotación e insatisfacción laboral. • Relaciones “tensas” entre el área de sistemas y el resto de la organización.

Finalmente, y en tiempos relativamente recientes, se concluyó que la raíz de tales

problemas estaba en “el lado humano de los sistemas de información”. En efecto, la mayor parte de las debilidades de la actividad de sistemas pasan por sus variables humanas, y no por sus variables técnicas. O, en todo caso, los problemas humanos actúan como “tapón” de las soluciones a los problemas técnicos.

Estas consideraciones se formulan dando por supuesto que los actores involucrados en los

sistemas de información poseen la idoneidad técnica necesaria para el ejercicio de sus respectivas funciones, ya sea en el área de sistemas, en las áreas usuarias o en la dirección de la organización. En consecuencia, cuando aquí se alude al factor humano, se involucran, principalmente, los aspectos psicosociales y de comportamiento de los miembros de la empresa, así como la cultura organizacional.

La resistencia al cambio producido por la introducción de las tecnologías informáticas,

por lo menos en organizaciones relativamente avanzadas, está destinada a ir disminuyendo paulatinamente. Ello se debe, por un lado, a que la proliferación de tales tecnologías en numerosos ámbitos de las tramitaciones, en el trabajo y en el entretenimiento personales genera un creciente grado de “familiaridad” con las computadoras y otras innovaciones de igual carácter, como el fax, el teléfono celular o la red Internet. Por otro lado, el simple transcurso del tiempo producirá la renovación de los cuadros humanos de las empresas, incorporando las nuevas generaciones que han crecido en contacto estrecho con la computación y, muchas veces, haciendo un uso personal de la misma desde temprana edad.

El problema general del cambio en la sociedad de hoy y, consecuentemente, en sus

organizaciones, ya ha sido tratado en este libro. Aquí, se concentrará la atención en los aspectos vinculados con las relaciones no técnicas entre los tres principales grupos involucrados en los sistemas de información: el área de sistemas, los usuarios y la dirección de la organización. 2.2. El área de sistemas

Entre los problemas humanos más o menos típicos del área de sistemas, pueden

encontrarse los siguientes:

• Una cierta obsesión por el dominio de la tecnología, sin advertir que el principal recurso informático es, precisamente, la información, y que la computadora es sólo una herramienta. Existe un no siempre controlado afán para tener el último modelo de computadora o los programas recién lanzados al mercado, sobre la base de la errónea creencia de que “lo último es siempre lo mejor”.

Page 90: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

• La falta de una idea clara de que se ejerce una función de servicio, y la consiguiente ausencia de una actitud permanente orientada en tal sentido. No son pocas las veces en que la postura de quienes se desempeñan en el área de sistemas es la de pensar que los usuarios tienen que trabajar para ellos. Pero las aplicaciones y la información son de los usuarios, y no del área de sistemas. Ésta, pues, debe estar al servicio de los usuarios.

• La sumisión de los planes de implementación de aplicaciones a los planes de adelanto y actualización tecnológica del centro de cómputos.

• La inexistencia de un plan estratégico de sistemas que permita fundamentar las solicitudes de apoyo a la dirección y asignar prioridades a la satisfacción de las necesidades de los usuarios. Aunque esta puede considerarse una falencia técnica, suele tener su origen en que la comentada obsesión tecnológica se ejerce en desmedro de la atención que debe prestarse a la función de administración en el área de sistemas, especialmente en cuanto al planeamiento a largo plazo.

• La excesiva preocupación por el diseño tecnológico de los sistemas, antes que por el diseño funcional. Se suele pensar que, cuando existe un problema en un proceso de la organización, basta incorporar el proceso a una computadora para que el problema se solucione, sin tener en cuenta que las soluciones de los procesos deben encontrarse “antes” de computadorizarlos. Las computadoras realizan con altísima velocidad y con asombrosa exactitud lo que se les pide que hagan, incluso cuando lo que se les pide es un despropósito.

• La falta de interés por realizar el marketing interno de los servicios informáticos. Las ventajas de las aplicaciones informáticas deben estar fundamentadas en apropiados estudios de costo-beneficio, y deben ser explicadas y difundidas. En el área de sistemas, suele darse por descontado que, para todo el mundo, la computación es mágica y maravillosa. Quien no opina así, es tenido por retrógrado o ignorante. Esto deriva en que las implementaciones de sistemas toman cierto carácter de imposición, en lugar de que se preste especial atención a la necesidad de planear tales implementaciones teniendo en cuenta la necesidad de motivar, entrenar e inducir el cambio en los usuarios.

• El obstáculo que, para el desarrollo de relaciones constructivas con los usuarios, produce el innecesario abuso de la jerga informática. Este hábito refuerza el negativo sentido de elite que muestran las áreas de sistemas o que le adjudican los usuarios.

• La falta de preparación en materia de relaciones interpersonales y de trabajo en equipos, incluyendo técnicas como las de creatividad grupal o conducción de reuniones, y el dominio de la correcta exposición oral y escrita. Las habilidades necesarias en un analista de sistemas para realizar una entrevista, conducir una reunión, motivar a las personas, inducir actitudes positivas hacia el cambio, etc., no dependen del conocimiento de herramientas de software o de hardware, sino del conocimiento de técnicas como las mencionadas y, desde luego, de la posesión de ciertos atributos de personalidad para aplicarlas eficientemente.

Muchas de las fallas humanas comentadas, y otras de similar carácter, se encuentran

abonadas por una cultura organizacional que responde a un enfoque erróneo aplicado a las actividades informáticas. Este aspecto es de tal trascendencia que merece ser especialmente analizado, tal como se hace en el resto del presente apartado.

El uso de la tecnología informática en las organizaciones puede responder a tres enfoques

distintos: el enfoque del procesamiento electrónico de datos (PED), el enfoque de los sistemas de información (SI) y el enfoque de la gestión de recursos informáticos (GRI).

El enfoque PED concentra la atención en la tecnología del hardware y el software. Las

organizaciones en las que predomina este enfoque consideran el uso de los recursos informáticos como un gasto inevitable. La actividad de planeamiento vinculada con tales recursos sólo llega a la inclusión de la correspondiente partida en el presupuesto anual. El compromiso de la dirección superior es mínimo.

Page 91: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

Un área PED es fundamentalmente un servicio de procesamiento de datos orientado a las

aplicaciones netamente operativas y de gran volumen. En un departamento de este tipo, el uso del recurso tecnológico se halla probablemente optimizado, pero no existen esfuerzos para diseñar eficientes sistemas de información. La mayoría de las actividades se realizan a requerimiento de los usuarios, sin que haya una acción decidida para el desarrollo de sistemas orientados a un mejor uso de la información. El portafolio de aplicaciones se caracteriza por la existencia de un alto porcentaje de sistemas de procesamiento diferido y centralizado. El típico conductor de un área PED tiene un claro dominio de la tecnología y privilegia este aspecto por encima de los sistemas de información; su perspectiva gerencial es limitada.

El enfoque SI concentra su visión en los sistemas de información. En las organizaciones

en las que predomina este enfoque, el hardware y el software son considerados como herramientas que constituyen un gasto necesario para procesar los datos que alimentan el subsistema de decisión. Ello es así porque, a los sistemas de información transaccionales, se han sumado los sistemas de información para el nivel superior. Se formula un plan operativo y la dirección superior se involucra en la definición de los sistemas de información. Existe una mayor proporción de aplicaciones en línea y una tendencia hacia la distribución del procesamiento. El responsable de un área SI presenta buenas aptitudes para entender el negocio, antes que un excelente dominio de la tecnología, y ejerce una adecuada interacción con los niveles gerenciales de la organización.

El enfoque GRI considera los recursos informáticos como una fuente de oportunidades

para generar ventajas competitivas. Cuando en la organización predomina este enfoque, las sumas aplicadas a la apropiación y empleo de la tecnología informática son consideradas una verdadera inversión. Se formula un plan estratégico de aplicación de esa tecnología, como un capítulo importante del plan estratégico general de la organización. En consecuencia, la dirección superior participa estrechamente en la adopción de decisiones respecto a los recursos informáticos. El área GRI pone la información a la altura de los recursos más importantes, y su acción no se refiere solamente a los datos que se procesan por computadoras, sino a toda la información vital para el manejo de la organización. Es probable que la actividad de procesamiento se encuentre muy distribuida, con una mayor incidencia de la computación personal y de la participación del usuario en el diseño de sus propios sistemas. El responsable de un área GRI es, antes que conductor del procesamiento de datos, un generador de proyectos orientados a optimizar la capacidad de la organización para responder con rapidez a los cambiantes requerimientos del contexto en el que se desenvuelve. Se destaca su capacidad gerencial, su clara visión de las necesidades de información y, en mucho menor medida, su dominio de la tecnología informática. Este dominio, sin embargo, es suficiente para combinarse sinérgicamente con su conocimiento del negocio y descubrir así los posibles usos de los recursos de computación y de comunicaciones, ya no sólo en el campo del tratamiento de los datos operativos, sino también en el terreno de la gestión general de la organización.

En el enfoque GRI, la tecnología excede su condición de herramienta para reducir costos;

penetra, además, en el ámbito de la producción de ganancias. Esto asigna relieve a la conocida idea de que la actividad de sistemas es demasiado importante para dejarla en manos de los especialistas en computación, ya que los sistemas de información constituyen una materia que está más allá de un enfoque meramente tecnológico.

El enfoque GRI, pues, implica el uso estratégico de los recursos informáticos, lo que

significa reconocerlos como generadores de nuevas oportunidades. Así considerada, esta tecnología trasciende los límites de la organización, llegando incluso a vincular a clientes con proveedores. Transforma la naturaleza de los productos, los procesos, las empresas, las industrias y las formas de competencia.

Las siguientes figuras muestran las características esenciales de los tres enfoques.

Page 92: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

Proporción en que se distribuyen las habilidades

del Gerente de Sistemas en cada enfoque de la tecnología informática. (El gráfico es una ilustración conceptual, no cuantitativa).

Aspectos de los enfoques de la tecnología informática

Naturalmente, esta caracterización de los tres enfoques constituye un modelo de

referencia, por lo que las situaciones concretas pueden y suelen presentarse en zonas intermedias, con algunos aspectos avanzando hacia el SI o el GRI mientras otros permanecen en un enfoque anterior. Por ejemplo, hoy en día no es difícil encontrar una implementación de procesamiento distribuido en un ambiente informático que permanece en el enfoque PED. La efectiva materialización de un enfoque se logra cuando todos los aspectos vinculados con la gestión informática responden armónicamente a la naturaleza del mismo.

Michael Porter, el conocido especialista en temas estratégicos, sostiene: “El

administrador de recursos informáticos es una nueva especie. Ya no se trata de un especialista en sistemas que controla la tecnología informática de un modo muy especializado y separado del resto de la organización. Ahora es un gerente que cruza toda la organización. Por ello, el administrador de recursos informáticos es, cada vez más, un hombre de negocios y no un técnico. Debe tener una visión holística de la firma. Por eso, hay una creciente tendencia a que los hombres de sistemas sean graduados de escuelas de administración, y esto se irá enfatizando más aún.”

2.3. Los usuarios

Los usuarios deberían ser protagonistas principales de los sistemas de información. No

obstante, generalmente son considerados como participantes secundarios.

Page 93: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

En general, los usuarios son los menos responsables de los fracasos e ineficiencias de las aplicaciones informáticas ya que, en última instancia, sus propias limitaciones o falencias, en tanto componentes de un sistema, deberían ser tenidas en cuenta y resueltas por el área informática y por la dirección.

Las ya comentadas fallas humanas del área de sistemas explican, y a veces justifican, la

actitud crítica o de desconfianza que los usuarios suelen abrigar, en forma más o menos explícita, respecto a las actividades informáticas. En cualquier caso, esta situación es la menos propicia para una tarea que, como el desarrollo de sistemas de información, requiere una estrecha integración de los técnicos en informática y los usuarios.

Si algunas fallas humanas pueden señalarse en los usuarios, la principal de ellas es la

contrapartida de una falla humana del área de sistemas: la creencia de que los sistemas de información constituyen una materia de los técnicos en informática, y no de los usuarios.

Los usuarios deben comprender su papel protagónico en este terreno; deben sentirse

“dueños” de los sistemas de información generados para satisfacer sus necesidades; y deben involucrarse en todo lo que se relacione con el desarrollo, la implantación y el funcionamiento eficientes de tales sistemas.

A esos efectos, los usuarios deben preocuparse por demandar, propiciar y respaldar una

integración constructiva y creativa con el área de sistemas. También deben adquirir las nociones informáticas que sean necesarias para cumplir su papel, pues este conocimiento favorece aquella integración, ya que permite comprender la naturaleza y las exigencias de la labor de desarrollo e implantación de sistemas de información, lo que equivale a decir que permite comprender a aquellos con quienes se debe trabajar en equipo. Al mismo tiempo, las nociones informáticas suministran al usuario un más claro entendimiento del papel que, en un determinado sistema de información, juega la tarea particular que a él le toca cumplir y cuya responsabilidad debe asumir para contribuir al eficiente desarrollo y la exitosa operación del sistema.

2.4. La dirección

La dirección superior, en tanto responsable final de todo lo que la organización es y de

todo lo que en ella sucede, debería tomar clara conciencia de que, en último análisis, posee “la llave” de la solución de todos los problemas que se vienen comentando. Esta “llave” debería utilizarse, fundamentalmente, para abrir la puerta a la implantación de una cultura organizacional que privilegie el enfoque GRI. Conspira contra esta toma de conciencia la creencia de que la informática reviste solamente un carácter tecnológico, y de que, por esa misma causa, es materia reservada para los especialistas.

Al mismo tiempo, las fallas del área de sistemas abonan tal creencia, llevando a la

dirección a la convicción de que las actividades informáticas constituyen un “barril sin fondo” y una fuente de permanentes demandas de herramientas tecnológicas que no producen resultados proporcionados.

La dirección, pues, debe involucrarse en la actividad informática, y debe propiciar e

intervenir en la formulación de un plan estratégico de sistemas, comprendiendo que la información es uno de los recursos importantes de la organización.

3. LA GESTIÓN DE LA INFORMACIÓN

En nuestros días, muchos datos son únicos para cada organización, no sólo porque ella es

la propietaria de los mismos, sino porque pueden constituir un factor clave en el mantenimiento

Page 94: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

de una posición competitiva en el mercado. La destrucción o alteración de los datos puede afectar la rentabilidad de la empresa y puede aun provocar su desaparición. Desde este punto de vista, la información se convierte en un recurso de la organización tal como el dinero, el personal o el equipo. Más aún, la información es el recurso crítico, pues los restantes recursos no pueden ser administrados sin ella.

Ahora bien, si la información es un recurso, debe ser administrada como cualquier otro

recurso de la organización. Tradicionalmente, toda organización emplea tres recursos principales: los recursos humanos, los recursos financieros y los recursos materiales. En toda organización, cada uno de estos recursos cuenta con un área, sector o departamento encargado de gestionarlo. Típicamente, hay un área de personal que administra los recursos humanos, un área de finanzas que administra el dinero, y áreas que administran los recursos materiales, como las de compras y almacenes.

Todos estos recursos presentan un ciclo de vida. Por analogía con la vida del ser humano,

puede decirse que el ciclo de estos recursos incluye su nacimiento, su desarrollo, su aplicación y su muerte. El dinero “nace” o aparece cuando ingresa en la empresa a través de una venta, una emisión de acciones, un crédito, etc.; se “desarrolla” cuando los excedentes financieros son invertidos; se lo “aplica” cuando se lo destina a ser cambiado por un bien o por un servicio; y “muere” cuando se lo pierde. Los recursos humanos “nacen” cuando se los incorpora en la empresa; se “desarrollan” cuando se los capacita, se los “aplica” cuando se asignan a una tarea determinada y “mueren” cuando dejan la organización. Similar ciclo de vida se cumple con los recursos materiales.

Las áreas específicas de la organización se ocupan de gestionar cada etapa del ciclo de

vida. Así, el área de recursos humanos se ocupa del “nacimiento” (búsqueda de personal, evaluación, selección, inducción, entrenamiento inicial, etc.), del “desarrollo” (planes de capacitación, plan de carreras, sistemas de estímulo, relaciones humanas, etc.), de la “aplicación” (legajos, remuneraciones, evaluación de puestos, etc.) y de la “muerte” (tramitación de renuncias, despidos, fallecimientos, etc.).

El caso de la gestión de los recursos financieros es similar, pero conviene analizarlo con

más detalle, pues ello resultará de suma utilidad para considerar el tema de la gestión de la información. Supóngase que, teniendo la organización su sede central en la capital del país, se produce un ingreso de dinero en una lejana sucursal de provincia. Aun cuando todos los empleados que dependen directamente de la gerencia de Finanzas desempeñen sus funciones en la sede central, esta área no se desentiende del ingreso de dinero; no ejerce su función esperando que el dinero le llegue de todas las sucursales y comenzando a gestionarlo sólo a partir del momento en que se encuentra físicamente en su poder o depositado en una cuenta corriente de la ciudad capital. Muy por el contrario, el área de finanzas toma control sobre el dinero en el mismo momento en que “nace”; en este caso, en el mismo momento en que ingresa en la sucursal de provincia. La gerencia de Finanzas habrá establecido un conjunto de normas que determinan, por ejemplo:

• El comprobante de caja que se emitirá al recibir el dinero. • La imputación contable del ingreso. • El tratamiento que se dará a los comprobantes internos generados en la transacción. • El destino del dinero recaudado, definiendo rutinas de cierres de caja, de depósitos

bancarios en la ciudad de provincia y de transferencias de fondos a la ciudad capital. Ahora bien; cuando los fondos se encuentran transferidos, ellos están solamente bajo el

control de la gerencia de Finanzas, concentrados en un banco. Ningún otro sector de la organización puede controlar el dinero. Si un área o un funcionario necesita disponer de una suma en efectivo, la solicita a la gerencia de Finanzas, la que la proporcionará mediante la emisión de una orden de pago o un comprobante de caja. Es esa gerencia la que suministra a

Page 95: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

cada persona de la organización el dinero que necesita, en la medida, en el momento y en el lugar en que lo necesita. Al hacerlo, está gestionando la salida o “muerte” del recurso.

De igual modo, el área de finanzas gestiona el “desarrollo” del dinero, pues está a su

cargo la determinación y operación de la inversión de los excedentes financieros; y gestiona la “aplicación” del dinero, pues maneja asignaciones presupuestarias, registra las tenencias y movimientos de fondos, etc.

Considérese ahora la misma situación que se acaba de plantear, pero enfocada desde el

punto de vista de la información, y no del dinero. Con propósitos didácticos, se repite a continuación el texto de la descripción formulada para el área de finanzas, ligeramente adaptada al tratamiento de la información.

En la sucursal de provincia se produce el “nacimiento”, es decir, la generación de datos.

Pueden ser, por ejemplo, los datos que simbolizan el ingreso de dinero antes aludido. Aun cuando todos los empleados que dependen directamente de la gerencia de Sistemas desempeñen sus funciones en la sede central, esta área no deberá desentenderse de esa generación de datos; no deberá ejercer su función esperando que los datos le lleguen de todas las sucursales y comenzando a gestionarlos sólo a partir del momento en que se encuentren almacenados en la base de datos de la sede central. Muy por el contrario, el área de sistemas deberá tomar control sobre los datos en el mismo momento en que “nacen”; en este caso, en el mismo momento en que se generan en la sucursal provincial. Para ello, la gerencia de Sistemas establecerá un conjunto de normas que determinarán, por ejemplo:

• Cómo se capturan los datos de la operación. • La imputación contable automática del ingreso. • El tratamiento que se dará a los archivos de datos generados por las transacciones. • El destino de los datos generados, definiendo rutinas de cortes de procesos, de

almacenamiento de datos en la sucursal, y de transferencias de datos de ésta a la ciudad capital. Ahora bien, cuando los datos se encuentren transferidos, ellos estarán solamente bajo el

control de la gerencia de Sistemas, concentrados en un banco de datos. Ningún otro sector de la organización podrá controlar esos datos. Pero si un área o un funcionario necesita disponer de información, la solicita a la gerencia de Sistemas, la que la proporcionará mediante el diseño y la implementación de un sistema que permita acceder a la base de datos. Es esa gerencia la que suministrará a cada persona de la organización la información que necesita, en la medida, en el momento y en el lugar en que lo necesita. Al hacerlo, estará gestionando la “aplicación” del recurso.

De igual modo, el área de sistemas gestionará el “desarrollo” del recurso, pues estará a su

cargo la determinación de los procesos mediante los cuales los datos se transforman en información; y gestionará la baja o “muerte” de los datos, pues, al realizar el mantenimiento de la base de datos, determinará la eliminación de aquellos que no es necesario conservar.

Con la precedente analogía, se pone en evidencia que, siendo la información un recurso

más de la organización, debe ser considerada y tratada en forma similar a los restantes recursos, y debe contar con un área específica que se ocupe de administrar todo su ciclo de vida. El enfoque GRI empieza a verificarse cuando se lo aplica a la gestión del recurso informático más importante: la información.

Gestionar la información implica no sólo manejar, además, el hardware y el software,

sino también gestionar los sistemas de archivos (pues lo que se archiva es información), los sistemas de comunicaciones (pues lo que se comunica es información), el sistema de administración de formularios (pues los formularios son un soporte físico de la información) e

Page 96: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

incluso el sistema de duplicación (pues lo que se duplica es información). Por ello, la gerencia GRI es un área en la que “además” se maneja un centro de cómputos.

Por otra parte, y con mayor frecuencia que la deseable, se encuentran organizaciones en

las que el área de sistemas sólo asume responsabilidad sobre los datos digitales y los procesos computadorizados. Un área de este tipo ejerce su jurisdicción sobre los datos sólo a partir del momento en que los mismos se incorporan en una computadora. Todos los otros datos, o esos mismos mientras circulan por otras vías, son considerados ajenos a la incumbencia del área de sistemas, con lo que, en la realidad, nadie se encarga de gestionarlos. En el contexto de la analogía que se viene aplicando, esto es similar a un área de finanzas que, por ejemplo, gestionara el dinero en moneda nacional y no lo hiciera con el dinero en moneda extranjera.

La gestión de la información debe cumplirse, pues, para todo tipo de datos, sean digitales

o no, y para todos los procesos de tratamiento de los datos, sean computadorizados o manuales. Y debe también cumplirse en todo el ámbito geográfico y funcional de la organización, tal como el área de finanzas lo hace con el dinero o el área de recursos humanos lo hace con la mano de obra.

Page 97: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

Capítulo 7 LA SEGURIDAD DE LOS RECURSOS INFORMÁTICOS

La protección de los recursos informáticos – Vulnerabilidades y riesgos – Factores que influyen en las debilidades de seguridad - Conciencia de seguridad – Conceptos de seguridad de sistemas – Plan de seguridad y plan de contingencias: características y objetivos

1. LA PROTECCIÓN DE LOS RECURSOS INFORMÁTICOS La vulnerabilidad de los sistemas informáticos y la gravedad de las consecuencias de

desastres y fraudes crecen en forma alarmante día a día. Las pérdidas mundiales denunciadas y originadas en daños a sistemas informáticos son calculadas en varios centenares de millones de dólares por año. Sin embargo, esta cifra solo representa la punta del iceberg, pues empresas como bancos, financieras y compañías de seguros jamás llegan a denunciar muchos fraudes y/o accidentes, ya que la pérdida de confianza y prestigio podría resultarles muy perjudicial.

A medida que las organizaciones han ido consolidando las funciones de procesamiento de

datos e integrando más elementos de su negocio en dispositivos de computación interdependientes, la subsistencia de las operaciones resulta poco menos que impensable sin las computadoras. Las organizaciones de hoy dependen estrechamente de grandes archivos computadorizados y de extensas y complejas líneas de comunicación que las vinculan con los más variados y distantes emplazamientos de equipos de computación. Y esta dependencia aumenta en progresión geométrica.

Por otro lado, la proliferación de la computación hogareña y personal, y la profusa

difusión de publicaciones sobre el tema, han hecho emerger una generación de “expertos” en computación para quienes las medidas de seguridad no son mas inviolables que las cerraduras de las puertas de un automóvil. Brillantes adolescentes "se divierten" con el desafío de vulnerar los controles de acceso a grandes computadoras, tratando de penetrar en sus archivos a través de una línea telefónica, cómodamente sentados ante su computadora personal en una sala de su casa.

En consecuencia, el problema debe quedar claramente planteando: incendios,

inundaciones, terremotos, daños intencionales, fraudes, fallas eléctricas y otros fenómenos similares podrían bastar, cualquiera de ellos por sí solo, para generar una grave crisis, no solamente en el ámbito de una organización, sino en el de todo un mercado de alcance regional.

Si bien los violadores externos llaman mucho la atención, los internos son responsables

de la mayor parte de los problemas, no só1o por la acción de empleados deshonestos, sino también por los errores cometidos en el desempeño de las tareas habituales. A medida que se difunde el uso de dispositivos de computación interconectados, las organizaciones deben aumentar la preocupación por protegerse "de sí mismas".

Aún cuando los desastres y delitos informáticos no son nuevos, y los sistemas de

protección y seguridad se encuentran disponibles, un alarmante número de sistemas informáticos carece de un nivel satisfactorio de seguridad. La falta de conciencia sobre la necesidad de considerar los riesgos potenciales obedece a una variedad de causas.

La consideración de estos temas por la dirección superior de las organizaciones encuentra

un serio obstáculo en el hecho de que el ejecutivo típico no posee un suficiente grado de "cultura informática". Ello se debe a que la tecnología involucrada no es fácil de entender y está sometida a una impresionante tasa de cambio que genera continuamente nuevas

Page 98: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

vulnerabilidades y amenazas. Además, la circunstancia de que, respecto a la mayoría de los hechos que ocurren, exista un "pacto de silencio", asigna un carácter aparentemente teórico a la enunciación de los peligros latentes.

Por otra parte, tanto la legislación como las pautas habituales de comportamiento

responsabilizarían gravemente, por ejemplo, a quien dejara una caja de caudales imprudentemente abierta, pero no darían mayor importancia al hecho de que esa misma persona abandonara sobre un escritorio un disquete con información valiosa acerca de los clientes de la empresa, y cuyo valor patrimonial y estratégico puede ser muy superior al dinero en caja. Esta es una manifestación, además, de otra causa de la desprotección de la información: las organizaciones suelen no conocer cuál es el valor de sus datos. ¿Cuánto vale el archivo de in-ventario en una fábrica? ¿Cuánto vale el archivo de cuentas corrientes de clientes? Una buena regla práctica consiste en estimar cuánto podría perder el negocio si tales archivos se perdieran o quedaran fuera de uso, y cuánto costaría reconstruirlos.

Todos estos condicionantes se encuentran reforzados por ciertos síndromes

característicos. Uno de ellos es el síndrome identificado por la frase "a mí no me va a ocurrir", y se encuentra cotidianamente ilustrado en cualquier negocio de cerrajería. Si se pregunta al cerrajero quiénes, al cabo de una jornada, han comprado cerraduras de seguridad, la respuesta es unánime: aquellos que acaban de sufrir la acción de violadores de domicilios. Muchas personas no protegen sus computadoras por la misma razón por la que no utilizan el cinturón de seguridad de sus automóviles: no piensan que “les puede pasar a ellos”.

Otro síndrome generalizado es el que se denomina de la línea Maginot. Como es sabido,

en la segunda Guerra Mundial el ministro francés André Maginot fortificó toda la extensión de la frontera franco-alemana, con lo que evitó la invasión por esa línea; pero los alemanes no tuvieron ningún obstáculo para penetrar por otro punto. Una representación de esta actitud es la de quien instala una puerta blindada... y deja abierta la ventana.

Otro síntoma común es el que se conoce como del blanco móvil, y que alude a la

necesidad de ajustar permanentemente la puntería frente a un blanco en movimiento. Si un aficionado a la astronomía empleara un buen rato en enfocar su telescopio sobre la luna y, dispuesto a gozar de la contemplación, fuera a prepararse un café, encontraría al regresar que el satélite ha desaparecido. Para mirar la luna durante algunos minutos, la única solución es que el telescopio se vaya moviendo con ella. Análogamente, en materia de seguridad, de nada vale adoptar un completo conjunto de medidas si no se tiene en cuenta que el dinamismo tecnológico exige la revisión y la actualización continuas de los programas de prevención. Además, nunca debe olvidarse que, frente a cada recurso de seguridad, los violadores imaginan nuevos artificios para vulnerarlo.

¿Entonces, cómo habría que actuar si, por ejemplo, hoy se incendiara el centro de

cómputos? ¿Cuáles serían las consecuencias en la continuidad de las operaciones de la organización? ¿Qué medidas deberían aplicarse para evitar el desastre y para recuperarse del mismo si llegara a producirse? La solución de fondo pasa por la implementación de la herramienta más idónea para la prevención del desastre del sistema informático: el plan de seguridad.

Muchas veces, los responsables de la seguridad confían en el acierto de algunas medidas

tomadas en esta materia. Se refieren, en tales casos, a medidas tales como un cierto control de acceso de personas a las salas de computación, o la existencia de copias de los archivos principales. Otras veces, se alude a la alternativa de recurrir a equipos de computación similares al de la organización. Pero, ¿quién tiene un equipo realmente similar? Además, se podría, en el mejor de los casos, obtener el apoyo de terceros para el procesamiento de los trabajos diferidos, es decir, aquellos que implican un tratamiento "histórico" de la información. Sin embargo, ¿cómo se resolvería el tratamiento de datos que debe producir un resultado en la misma

Page 99: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

operación en que aquellos se están captando, como ocurre en las aplicaciones de atención al público en los bancos o las compañías de aviación? Las soluciones basadas en archivos copiados o en equipos sustitutos no son suficientes; deben complementarse con las estrategias transitorias de procesamiento alternativo. Estas estrategias consisten en el diseño, para cada tramitación y cada puesto de trabajo críticos, de procedimientos alternativos, muchas veces manuales, que permiten mantener en operación las actividades esenciales durante el lapso necesario para rehabilitar el funcionamiento normal.

Las estrategias de procesamiento alternativo, establecidas con principal participación del

usuario, proveen soluciones posibles, partiendo de que "no todo debe seguir después del desastre", y haciendo, en consecuencia, una selección de las operaciones según su tolerancia a la paralización.

La protección de los recursos informáticos se ha convertido en una tarea muy compleja.

No hace muchos años, todo lo que debía hacerse era echar llave al emplazamiento central de computadoras. Pero la rápida y profunda transformación de la tecnología y de las modalidades de uso de los recursos informáticos está haciendo más difíciles que nunca la prevención de desastres, la limitación de accesos no autorizados y la recuperación después de la contingencia.

Pocos aprecian las reales vulnerabilidades de los sistemas de información. A veces, se

tienen noticias de los actos delictivos de crakers, de empleados desleales o de espías industriales, pero debe tenerse en cuenta que las mayores pérdidas son causadas por errores y omisiones cometidos por empleados honestos durante la operación de los sistemas en el ámbito de sus obligaciones de trabajo.

Las computadoras personales, las terminales, las redes y los equipos móviles han

aumentado el riesgo de diseminación no autorizada de información confidencial, pues los datos contenidos en estos sistemas distribuidos no están protegidos por controles de acceso físico comparables a los que se aplican en los mainframes. Además, los controles de acceso lógico inadecuados y las responsabilidades débilmente definidas agravan el problema.

La capacidad extraordinaria de las computadoras modernas y de los sistemas de

comunicaciones de datos ha incrementado la eficiencia en la mayor parte de las organizaciones. Pero, al mismo tiempo, estos desarrollos han aumentado la magnitud de las pérdidas potenciales y la rapidez con que esas pérdidas pueden producirse.

La conciencia y el entrenamiento de los empleados (e incluso de empleados de

proveedores, de clientes y de otros terceros relacionados con la empresa) son aspectos de importancia crítica para el éxito de cualquier esfuerzo en materia de seguridad de sistemas. Aun así, son a menudo pasados por alto o atendidos inadecuadamente. El nivel de conciencia de seguridad en muchas organizaciones tiene estrecha correlación con el hecho de haberse producido recientemente una pérdida significativa, ya sea en la propia organización o en una similar. Ese nivel de conciencia es alto inmediatamente después de haberse producido una pérdida importante, pero luego decrece progresivamente hasta que se sufre otra pérdida.

La conducción superior debe comprender que el dinero empleado en la protección de sus

activos informáticos es una inversión imprescindible para sostener a largo plazo la supervivencia del negocio. Por lo tanto, las organizaciones deben tomar conciencia acerca de los riesgos a los que los sistemas informáticos se hallan expuestos y de las consecuencias que acarrearían las contingencias que pudieran producirse. Una razonable seguridad de los sistemas sólo se puede alcanzar si la organización determina y evalúa el valor, la sensitividad y la criticidad de su información, así como las pérdidas potenciales a las que está expuesta y la relación costo/beneficio de las medidas de seguridad.

Page 100: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

El tema de la seguridad de los activos informáticos es muy amplio e involucra una muy variada gama de conceptos, tecnologías, técnicas y procedimientos. No es posible desarrollar aquí todos esos aspectos, ya que ello demandaría una extensión propia de un libro dedicado exclusivamente al asunto, tal como los muchos que han sido publicados. Sin embargo, es procedente concentrar el análisis en todo lo vinculado con las responsabilidades que los ejecutivos no informáticos y los usuarios en general deben asumir en la materia. La gestión de la seguridad en forma profesional, completa y profunda corresponde al área de sistemas, que es la que debe ejercer la responsabilidad de formular, implantar y mantener el plan de seguridad de los sistemas de la organización. En algunos terrenos, tales como el de las instalaciones centrales de computación y el de las redes de comunicaciones, esta área actúa en forma casi exclusiva. Sin embargo, hay otros ámbitos en los que los usuarios tienen sus responsabilidades específicas en cuanto al resguardo de la información y de los restantes activos informáticos. El resto de este capítulo concentra la atención en los asuntos comprendidos en esos ámbitos y en aquellos que respaldan la idea principal de que la conciencia de la seguridad y el ejercicio de las medidas implantadas para respaldarla involucran a toda la organización y a cada uno de los que trabajan en ella.

2. PRINCIPALES CONCEPTOS DE LA SEGURIDAD DE SISTEMAS

Se explican, a continuación, los principales conceptos, principios y herramientas involucrados en la seguridad de activos informáticos.

Seguridad

La seguridad es la situación en la que se está adecuadamente protegido contra pérdidas, de modo tal que los hechos adversos están apropiadamente impedidos, disuadidos, prevenidos, detectados y/o corregidos. Un sistema seguro no es impenetrable. Más bien, es un sistema que se encuentra protegido a un costo justificable, dada la naturaleza de las amenazas a las que se halla expuesto. Estas amenazas corresponden a las siguientes categorías básicas:

Ambientales naturales (inundación, incendio, etc.). Ambientales operativas (falla de energía, derrumbe, etc.). Humanas no intencionales (errores y omisiones) Humanas intencionales (fraude, espionaje industrial, etc.). Las medidas de seguridad están dirigidas a conservar la integridad, privacidad y

confidencialidad de la información y la continuidad en el procesamiento de los sistemas de información.

Integridad

La integridad es el atributo por el cual la información se considera completa y correcta. La integridad se alcanza con un apropiado diseño de sistemas y procedimientos, el entrenamiento del personal, una supervisión efectiva y controles eficientes. Los datos tienen integridad cuando están libres de errores intencionales o no intencionales (en grado necesario para operaciones normales) y cuando no han sido modificados ni procesados en forma no autorizada. La seguridad es un requisito para la integridad, pero no es un sinónimo.

Privacidad La privacidad es la condición de la información por la cual ésta se halla protegida contra

la utilización, la observación o la divulgación maliciosas y no autorizadas de datos sobre las personas. Con el mismo significado, se usa a veces el término intimidad. La privacidad alude a la información que un individuo o una empresa no desea que tenga difusión generalizada.

Page 101: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

Confidencialidad La confidencialidad es la condición de la información por la cual ésta se encuentra

protegida contra la divulgación indebida.

Sensitividad La sensitividad de la información es un atributo que determina que ésta requiera

protección especial para conservarla, para mantener su integridad y para impedir su divulgación.

Identificación La identificación es la declaración de ser una cierta persona o programa. Esta declaración

es ofrecida a un sistema mediante algo que se sabe, se tiene o se es. Comúnmente, se ofrece un nombre o número de identificación, pero puede tratarse también de una tarjeta magnética, una llave, una impresión digital, un registro de voz, la respuesta a una pregunta, etc. Autenticación

La autenticación es una prueba de la identidad invocada mediante la identificación. Preferentemente, la autenticación debe hacerse mediante un medio distinto del empleado para la identificación y, para ser efectivo, debe ser secreto, es decir, conocido sólo por quien lo usa. El sistema de control de accesos debe establecer, para el usuario autenticado, una responsabilidad positiva por todas las acciones realizadas en el sistema informático, lo que no puede hacerse si la autenticación es compartida con otros usuarios. Las contraseñas son la forma más común de autenticación.

Autorización

La autorización es una función del sistema de control de accesos por la que se determina quién puede hacer qué. La autorización otorgada a un usuario debe ser siempre específica, nunca general. Autorizaciones específicas respecto de cierta información son, por ejemplo: sólo consultarla, transferirla, actualizarla, procesarla con ciertos programas, procesarla con cualquier programa, borrarla, reemplazarla, etc. Contingencia

Una contingencia es una amenaza potencial a la que están expuestos los recursos informáticos. Vulnerabilidad

Una vulnerabilidad es una debilidad existente frente a las contingencias determinadas.

Consecuencia Una consecuencia es el daño o la pérdida que la organización sufriría ante la ocurrencia

de una contingencia. Tipos de medidas de seguridad

Las medidas de seguridad pueden ser de tres tipos:

• Preventivas: Dirigidas a limitar la posibilidad de que se concreten las contingencias. • Detectivas: Dirigidas a limitar los efectos de las contingencias presentadas. • Correctivas: Dirigidas a recuperar la capacidad de operación normal.

Control de acceso físico

El acceso físico se refiere a las posibles maneras de alcanzar y obtener una cantidad limitada de control físico directo sobre dispositivos u otros componentes de un sistema de información. El control de acceso físico es necesario, entre otras razones, para prevenir el daño, la destrucción o la sustracción de recursos directa o indirectamente requeridos para asegurar la integridad de un sistema de computación y de la información que contiene. Sin embargo, dada

Page 102: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

la naturaleza no física de muchos de los activos que requieren protección contra daño o intrusión, el control del acceso físico no es suficiente para resguardar la información, aun cuando se lo planifique e implemente con eficiencia. Control de acceso lógico

El acceso lógico implica, generalmente, la lectura, la grabación, la ejecución y otros usos u operaciones realizados con datos, programas u otros recursos de un sistema de información. Por recursos de un sistema se entiende cualquier cosa que pueda ser controlada por una computadora, tal como una red, un sistema de computación, una terminal, una aplicación, un disco, una base de datos, un archivo, un registro, un campo o un bit. Cada usuario debe tener asignados privilegios de acceso específicamente relacionados con los recursos que conciernen a su tarea particular. Una amplia variedad de recursos de los sistemas pueden ser controlados por software. Esto incluye campos de datos, registros, archivos, bases de datos, unidades de discos, volúmenes de cintas, computadoras y redes. Los privilegios para acceder y usar estos recursos deben ser otorgados o denegados a usuarios y/o programas. Pueden otorgarse o denegarse, por ejemplo, privilegios para leer, grabar y/o ejecutar archivos. El software para controlar accesos puede formar parte de un sistema operativo, puede ser un programa específico o puede estar incorporado en una aplicación, un procesador frontal, un servidor de red u otros medios. Estos procedimientos de control de privilegios son críticos para la seguridad de los sistemas informáticos. Contraseña

Una característica central de la mayoría de los métodos de control de accesos es que distinguen de algún modo entre personas autorizadas y no autorizadas. Hay tres maneras básicas de realizar esta distinción:

• Por algo que la persona tiene, como una llave o una credencial de identificación. • Por algo que la persona es, como la voz, las impresiones digitales o el iris del ojo. • Por algo que la persona conoce, como una contraseña (en inglés, password), un código de

acceso más complejo o una simple identificación. Una contraseña es un grupo de caracteres usado como clave para poder acceder a

información restringida. La gestión de las contraseñas debe tener en cuenta los siguientes aspectos:

• Deben asociarse con una definición del tipo de autorización otorgada. Por ejemplo, se

puede autorizar el acceso irrestricto, el acceso limitado sólo a la actualización de registros o el acceso limitado sólo a la lectura.

• Deben ser de fácil memorización. • Deben ser cambiadas frecuentemente. • Nunca deben aparecer representadas en pantalla. • Las tablas de contraseñas (archivos en los que se mantiene la información de las personas

autorizadas, sus respectivas contraseñas y el tipo de autorización otorgada) deben estar protegidas mediante encriptación.

• Debe existir un sistema de control automático de repetición de contraseñas que aborte el intento de repetición de una contraseña que fue suprimida o que fue utilizada y cambiada.

Desafortunadamente, las contraseñas tienen varias debilidades importantes, incluyendo la

propensión del usuario a elegir contraseñas fáciles de descubrir, olvidarlas, escribirlas donde pueden ser vistas, y compartirlas con otros. Recientes desarrollos tecnológicos permiten el uso de medios de autenticación más seguros, como las impresiones digitales, el reconocimiento de patrones de voz, medidas de la geometría de las manos y exploración del iris del ojo.

Page 103: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

Pista de auditoría Una pista de auditoría es una “huella” o registro generado automáticamente por un

sistema de información para permitir la reconstrucción, a posteriori, de la secuencia de operaciones, el origen de las transacciones, la fuente de cifras o registraciones específicas y, en general, el modo, el momento y el operador involucrados en los accesos a los archivos. Una pista de auditoría típica es la que permite reconstituir un procesamiento, siguiendo el “camino hacia atrás”, hasta llegar al documento fuente.

Backup y recuperación

Se denomina backup el proceso por el que se obtiene una copia de un archivo cuyos datos se desea salvaguardar. La copia de seguridad se realiza sobre volúmenes de almacenamiento distintos de los que contienen los datos copiados. El término backup también se aplica a los propios archivos de respaldo. Asimismo, se aplica a equipos de computación sustitutos que, ante fallas de los principales, pueden utilizarse en reemplazo de éstos.

La recuperación es el proceso inverso al del backup, es decir, el proceso que, a partir de

una copia de seguridad, permite recuperar o restaurar un archivo original perdido, alterado o dañado.

Las medidas y procedimientos para backup y recuperación dependen de las necesidades

de cada negocio específico, así como del valor, la sensitividad y la criticidad de los datos involucrados. Pueden requerirse equipos tolerantes a fallas, duplicación remota de instalaciones, almacenamiento de copias de seguridad en un edificio separado, y medidas similares. El mantenimiento regular del backup de los archivos utilizados en los procesos corrientes es imprescindible, y a menudo se encuentra descuidado.

Los procedimientos para evaluar las prioridades de las distintas actividades de sistemas,

en orden a mantener operativas las funciones esenciales del negocio, son fundamentales para el planeamiento de medidas de backup y recuperación que representen costos razonables. Un plan sobre estos aspectos puede considerarse adecuado cuando queda asegurada la capacidad de la organización para continuar desarrollando su negocio. Criptografía

La criptografía es la disciplina que se ocupa del cifrado o codificación secreta e inviolable de mensajes, a fin de evitar la lectura no autorizada de los mismos.

La criptografía es considerada como "el arte de la comunicación secreta". Técnicamente,

se ocupa de las comunicaciones que están deliberadamente diseñadas para mantener secretos frente a un enemigo. Estudia los métodos para proteger la información, haciéndola ininteligible para quienes no están autorizados a conocerla o utilizarla. Emplea técnicas muy diversas, algunas de las cuales, por ejemplo, transforman la información en secuencias de bits seudoaleatorias, utilizando un algoritmo matemático que emplea una clave secreta (típicamente, un número muy grande).

Encriptación

La encriptación es el proceso de cifrado o puesta en clave al que es sometida una información a fin de hacerla ilegible para usuarios no autorizados.

La encriptación, sea realizada por hardware o por software, se utiliza con propósitos de

seguridad y protección de la confidencialidad, especialmente cuando se transmite información a través de una red. Para poder leer datos encriptados, es decir, el llamado texto cifrado, es necesario conocer la correspondiente clave secreta o contraseña que permite realizar la desencriptación y obtener así el denominado texto llano o texto plano.

Page 104: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

Los métodos de encriptación se dividen en dos grandes grupos: simétricos y asimétricos. En la encriptación simétrica, se emplea una misma clave para encriptar y desencriptar la información. En la encriptación asimétrica, llamada también de clave pública, se usa una clave para la encriptación y otra clave distinta para la desencriptación

Sistema de encriptación de clave pública

En un sistema de encriptación de clave pública, la clave de codificación es conocida por el público en general, mientras que la clave de decodificación o descifrado sólo es conocida por el destinatario. La encriptación se realiza codificando el mensaje con la clave pública del destinatario, quien realiza la desencriptación usando su clave secreta. Las dos claves están relacionadas matemáticamente, de modo que un mensaje encriptado con una de las claves sólo puede ser descifrado con la otra clave. De esta manera, sólo el receptor puede descifrar el mensaje.

Cortafuegos

Un cortafuegos (en inglés, firewall) es un sistema que funciona para evitar accesos no autorizados a una red privada. Típicamente, un cortafuegos está destinado a actuar como protector ante otras redes no protegidas, tales como Internet o redes de organizaciones vinculadas. El cortafuegos examina cada ingreso a la red protegida y rechaza todo acceso o mensaje que no esté expresamente autorizado o no responda a criterios de seguridad previamente definidos.

Los cortafuegos pueden implementarse por hardware, por software o por una

combinación de hardware y software. Las principales técnicas aplicadas se diferencian según que la unidad a la que se imponen los procedimientos de seguridad sea el paquete de datos, la aplicación (como, por ejemplo, FTP o correo electrónico), la conexión (de modo que, cuando ésta se acepta, no se controlan los paquetes o mensajes individuales) o el mensaje (mediante un servidor proxy).

En una computadora conectada con una red como Internet, el firewall cumple dos

funciones básicas. La primera es controlar el tráfico de salida, verificando qué programas se conectan con la red e impidiendo, por ejemplo, la fuga de información personal del usuario o el funcionamiento de un programa dañino. La segunda función de un cortafuegos es vigilar y proteger los puertos de entrada del sistema del usuario, neutralizando los ataques e informando la dirección de la que proviene el paquete agresor. Firma digital

Una firma digital encriptada con una clave privada identifica de forma unívoca a la persona que envía un mensaje, y conecta a esa persona con ese mensaje en particular. Cualquier persona que posee una clave pública puede verificar la integridad del mensaje, pero no el contenido. Si el mensaje es alterado de alguna manera, la firma no se podrá desencriptar correctamente, lo que indica que el mensaje fue modificado.

Si A (persona que envía el mensaje) utiliza su clave privada para firmar un mensaje

encriptado, B (el receptor) puede verificar que A lo envió efectivamente sólo si B conoce la clave pública de A. Sin embargo, para poder confiar en esa clave pública, B debe obtener la clave de alguna otra fuente que no sea el mismo mensaje que envió A. Es decir, supóngase que C quiere enviar un mensaje como si lo enviara A (falsificando su firma). C enviará su clave pública como si ésta perteneciera a A. Si B intenta verificar la firma, obtendrá una confirmación de la autenticidad del mensaje, aunque éste no haya sido enviado realmente por A. En cambio, si B tiene acceso a la clave pública de A obtenida de alguna fuente externa, y la utiliza para verificar el mensaje firmado con la clave privada de C, la verificación fallará y revelará el engaño. En resumen, si A y B no se conocen ni tienen posibilidad de comunicación, ninguna firma digital será confiable para autenticar e identificar uno a otro sin la asistencia de alguna fuente externa que provea un enlace entre sus identidades y sus claves públicas.

Page 105: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

Autoridades de certificación y certificados.

Una autoridad de certificación es un ente público o privado que emite certificados digitales para su utilización en el comercio electrónico. En el ejemplo anterior, si B quiere tener seguridad acerca de la autenticidad de la clave pública de A, debe contar con una certificación del ente externo que garantiza que la clave es realmente de A.

Un certificado emitido por una autoridad de certificación es un registro digital que

identifica a una persona y consigna su clave pública, y que se refrenda con la identificación y la firma digital de la autoridad certificante. Virus y gusanos informáticos

Un virus es un programa diseñado con la capacidad de copiarse a sí mismo y la intención de producir efectos indeseables o dañinos en un sistema de computación. Estos efectos dañinos pueden variar desde la simple aparición de un mensaje humorístico en la pantalla hasta la destrucción de todos los archivos de un disco duro. Los virus pueden ser transmitidos de una computadora a otra mediante el empleo de un disquete "infectado" o al copiar información de un sistema contaminado, vía módem.

Hay programas, genéricamente llamados caballos de Troya (o, simplemente, troyanos),

que se confeccionan con el fin de provocar un perjuicio específico. Pero los virus son, potencialmente, una forma más dañina de infección, dado que presentan las características de copiarse a sí mismos (reproducirse) y de diseminarse rápidamente.

La primera noticia de virus en computadoras personales data de 1986. En ese año, había 6

virus conocidos. En 1992, se conocían más de 600 virus. Hacia fines de siglo, se conocían más de 16.000 virus, y se descubrían entre 200 y 250 virus nuevos por mes.

El usuario puede sospechar la existencia de un virus en su computadora si advierte

síntomas como los siguientes: - Decaimiento sensible del tiempo de respuesta. - Cambios significativos en el comportamiento de los sistemas. - Aparición de inusuales mensajes de error. - Generación de salidas ilegibles. - Saturación inesperada de la capacidad de la memoria o de los discos. - Efectos de sonido extraños. - Aparición de mensajes o dibujos humorísticos u obscenos en pantalla. - Aumento injustificado del tamaño de los archivos. - Alteración injustificada del contenido de los archivos. Existen programas antivirus que detectan la existencia de virus conocidos y neutralizan su

acción. Muchos de tales programas pueden obtenerse en Internet o en servicios de información en línea. Asimismo, los antivirus más difundidos ofrecen versiones regularmente actualizadas a través de Internet.

Para reducir las posibilidades de contraer un virus, es recomendable:

• No bajar programas de sitios de Internet no garantizados. • No ejecutar programas bajados de sitios de Internet seguros sin pasarles antes un antivirus. • No abrir archivos adosados a mensajes de correo electrónico sin revisarlos antes con el

antivirus. • Pasar el antivirus sobre el disco de instalación de cualquier programa nuevo.

Page 106: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

• Una vez instalado el programa nuevo, pasar el antivirus sobre los directorios creados por la instalación.

• No ejecutar archivos .EXE o .COM recibidos por correo electrónico. • No abrir documentos de procesadores de textos, planillas de cálculo o bases de datos que

provengan de fuentes poco seguras. • No realizar instalaciones de software pirata. • No dejar un disquete cargado en la computadora personal, pues, al arrancar la máquina la

próxima vez, puede ser leído como disquete de arranque y abrir el camino a un virus. Por su parte, se llama gusano un programa nocivo que, mediante un proceso de

replicación de datos, va llenando la memoria o los discos de un sistema de computación, provocando la degradación creciente del funcionamiento del mismo, incluso hasta llegar a paralizarlo. Típicamente, un gusano es un programa que se autoduplica y se autopropaga a través de una red, aspecto en el que se diferencia del virus, ya que éste necesita la ayuda humana para propagarse, y va generalmente adosado a un objeto tal como un mensaje de correo electrónico.

Los gusanos fueron concebidos a inicios de la década de 1980, en el Centro de

Investigación de Palo Alto de la compañía Xerox. Se los desarrolló con la finalidad de facilitar el mantenimiento de redes grandes, ya que, tratándose de programas con capacidad para reproducirse y ejecutarse por sí solos, pueden "recorrer" una red y, por ejemplo, detectar recursos ociosos para que puedan ser aprovechados en procesamientos alternativos. Hacker

De acuerdo con la acepción original del término, un hacker es un usuario de computadoras entusiasta y calificado, cuyo principal interés consiste en obtener un completo dominio de un sistema de computación y, mediante artilugios de programación, llevarlo a sus máximos niveles de rendimiento. En la actualidad, el término se usa a veces para referirse a la persona que consigue acceso no autorizado a un sistema de computación y obtiene algún dominio sobre sus aplicaciones, pero, estrictamente, ese uso es impropio, ya que quien actúa de ese modo mal intencionado se llama cracker. Cracker

Un cracker es un especialista en computación que, con intención delictiva o por diversión intelectual, intenta violar las medidas y dispositivos de seguridad de los sistemas de computación, a fin de irrumpir en sus programas o archivos. Delito de computación

Un delito de computación es aquél en que el uso de una computadora o el acceso a la misma o a sus partes componentes (terminales, redes, bases de datos, etc.) es un elemento esencial, de modo tal que el delito no podría haberse cometido sin ese uso o acceso. Las computadoras juegan tres principales papeles en el delito:

• Como el objeto del delito, el que, en tal caso, consiste en destruir programas, datos y, a

veces, computadoras enteras. • Como la escena del delito. Por ejemplo, cuando se alteran los datos de un archivo

computadorizado. • Como el instrumento del delito. En este caso, la computadora se convierte en el medio para

cometer un delito que, sin ella, hubiera sido imposible. Perfil del delincuente informático

Estudios de delitos de computación indican que el típico delincuente informático tiende a presentar las siguientes características:

Page 107: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

• Es joven. Se cree que esto se debe a que los técnicos en informática abundan más entre los jóvenes. También suele atribuirse a que los trabajadores jóvenes no han adquirido un completo sentido de responsabilidad profesional.

• Está entre los mejores y más brillantes empleados. Se trata de una persona que se siente sobrecalificada para la tarea rutinaria que a menudo se le encarga.

• Suele ocupar puestos de confianza. La mayoría de los delincuentes informáticos desarrollan su acción dañina durante sus rutinas habituales de trabajo, usando sistemas con los que están íntimamente familiarizados.

• A menudo cuenta con ayuda. En alrededor de la mitad de los delitos informáticos, el autor de los mismos conspira con alguna otra persona. A veces, el delito requiere habilidades que poseen más de una persona. Otras veces, el caso involucra a un empleado en complicidad con un extraño a la empresa.

• Aprovecha el abandono de las normas o estándares. Cuando se aceptan pequeñas variaciones a los estándares normales, las mismas pueden ir escalando progresivamente hasta hacer posibles grandes delitos.

• Suele presentar el “síndrome de Robin Hood”. Este síndrome se manifiesta en el enfoque moral de que, si bien es incorrecto perjudicar a un individuo, no lo es tomar como víctima a una gran organización.

• Juega con el desafío. Muchos delincuentes informáticos son atraídos por el reto intelectual implicado en el intento de violar el sistema de seguridad. También tienden a creer que no hay nada malo en usar una computadora ociosa para fines privados.

3. PLAN DE SEGURIDAD Y PLAN DE CONTINGENCIAS

A continuación, se describen los dos instrumentos principales de un programa de gestión de la seguridad de sistemas: el plan de seguridad y el plan de contingencias.

Ambos planes deben ser promovidos por el sector específico del área de gestión de

recursos informáticos, pero son planes de la organización y, por lo tanto, involucran a todos sus miembros. En la formulación, el mantenimiento y la aplicación efectiva de estos planes, así como en la observación de las medidas de seguridad que contienen, los primeros y más importantes protagonistas deben ser los integrantes de la dirección superior, sin cuyo respaldo explícito y continuo tales planes no podrán ser cumplidos con éxito.

3.1. Plan de seguridad El plan de seguridad es un conjunto de medidas preventivas, detectivas y correctivas para

enfrentar los riesgos a los que se encuentran expuestas las operaciones de procesamiento o transmisión de datos, así como los archivos, programas y demás recursos informáticos involucrados.

El objetivo esencial del plan de seguridad es resguardar los recursos informáticos en

cuanto a integridad, confidencialidad, privacidad y continuidad. La elaboración del plan de seguridad comprende las siguientes actividades básicas:

• Organizar un grupo para conducir la revisión de la seguridad; establecer planes, deberes, programas, presupuestos y atribuciones; obtener apoyo superior.

• Identificar los recursos informáticos expuestos a pérdidas; determinar el valor de los mismos, las consecuencias de su pérdida y el costo de su reemplazo, o bien hacer un ranking de su importancia.

• Identificar las contingencias.

Page 108: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

• Identificar las vulnerabilidades. Para ello se debe: - Identificar los controles existentes que limitan las amenazas potenciales y los

controles faltantes que facilitan tales amenazas. - Combinar asociaciones de amenazas potenciales, de activos expuestos a pérdida y de

falta de controles limitantes. • Realizar el análisis de riesgos. • Determinar las consecuencias. • Evaluar las consecuencias económicas y operativas de las contingencias, incluyendo la

determinación del riesgo que se desea asumir (o importe máximo que se justifica invertir en medidas de seguridad para cada contingencia).

• Formular la lista de medidas de seguridad (acciones y controles) que reducirían los riesgos de pérdidas a niveles aceptablemente bajos.

• Calcular estimativamente las pérdidas esperadas para cada recurso informático (en función de la probabilidad de cada contingencia y del valor de la respectiva consecuencia).

• Identificar y costear las medidas de seguridad aplicables. • Seleccionar las medidas de seguridad a implantar para reducir el riesgo a un nivel total

aceptablemente bajo. • Formular el conjunto completo y coherente de medidas de seguridad para enfrentar las

contingencias, reducir las vulnerabilidades y limitar las consecuencias. • Llevar el plan a la práctica y establecer un método para su mantenimiento y mejora

permanentes.

3.2. Plan de contingencias El plan de contingencias es un conjunto de procedimientos que, luego de producido un

desastre, pueden ser rápidamente ejecutados para restaurar las operaciones normales con máxima rapidez y mínimo efecto negativo. El plan de contingencias es un capítulo importante del plan de seguridad informática. Este último, como se vio, comprende medidas preventivas, detectivas y correctivas. El plan de contingencias se concentra en las medidas correctivas, asumiendo que los aspectos de prevención y detección de las contingencias ya se hallan estudiados y resueltos.

Hay dos objetivos esenciales a tener en cuenta en un plan de contingencias: minimizar el

efecto de un desastre en la capacidad de continuar el negocio y disponer de una rápida recuperación de las operaciones normales. Los desastres más comunes que pueden afectar un sistema informático son los incendios, las inundaciones, los cortes de electricidad y fluctuaciones en el suministro, la interferencia de fuentes eléctricas externas, los cortes de servicios públicos, las fallas mecánicas y el sabotaje.

Para la formulación del plan de contingencias, se requiere el desarrollo de las siguientes

actividades básicas:

• Definición del alcance del plan. (Hipótesis, objetivos y restricciones; niveles de emergencia; escenarios de cada clase de contingencia; forma de activar el plan).

• Definición del método de actualización del plan. • Constitución del grupo de contingencias. (Designación del responsable y los integrantes;

definición de las respectivas funciones). • Asignación de prioridades a las aplicaciones informáticas y definición de la configuración

mínima para cada aplicación crítica. • Definición de los procedimientos de recuperación de las aplicaciones. • Inventario del equipamiento existente y definición del equipamiento crítico mínimo. • Inventario de la red de comunicaciones y definición de las necesidades mínimas. • Inventario del software de base y definición de las necesidades mínimas.

Page 109: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

• Inventario de las fuentes de provisión de formularios e insumos críticos. • Definición de los procedimientos de backup y recuperación de archivos. • Definición de alternativas para el procesamiento durante el período de recuperación. • Determinación del personal involucrado y sus responsabilidades en la ejecución del plan. • Inventario de las necesidades de transporte y logística. • Revisión, prueba y aprobación del plan.

Page 110: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

GLOSARIO acceso físico: Cualquiera de las posibles maneras de alcanzar y obtener una cantidad limitada de control físico directo sobre dispositivos u otros componentes de un sistema de información. acceso lógico: Cualquiera de las posibles maneras de realizar la lectura, la grabación, la ejecución u otra operaciones realizadas con datos, programas u otros recursos de un sistema de información. ADSL: (Asymmetric digital subscriber line = línea digital de abonado asimétrica). Tecnología de comunicaciones que divide el ancho de banda de la línea telefónica en tres rangos de frecuencia. Uno de ellos se utiliza para las transmisiones de voz, el segundo para enviar datos y el tercero para recibirlos. agregación: Proceso de acumulación de datos de detalle para obtener información consolidada de más alto nivel. aleatorio: Relativo a lo que está sujeto a un hecho incierto. almacenamiento: 1. Función del sistema de información que implica la conservación física de los datos y la adecuada protección de los mismos. - 2. Componente físico de una computadora destinado a la guarda de datos. El almacenamiento principal, interno o primario está constituido por la memoria de la CPU. El almacenamiento auxiliar, externo o secundario se implementa en periféricos tales como los discos magnéticos y ópticos, las cintas y los disquetes. (Ver CPU y periférico). análisis de asociación: Procedimiento por el cual, en un conjunto de datos, se busca descubrir la correlación que pueda existir entre algunos de ellos. análisis de conglomerados: Técnica estadística que consiste en analizar un conjunto de elementos y, a partir de ellos, formar grupos compuestos por elementos que sean similares en uno o varios atributos cuantitativos y/o cualitativos. análisis de series cronológicas: Procedimiento por el cual, en una serie cronológica, se trata de determinar si existe una ley que gobierna el fenómeno que se estudia. (Ver serie cronológica). aplicación: Cada uno de los usos específicos de un sistema de computación, basado en uno o más programas que procesan datos de similares entidades y generan resultados destinados a la satisfacción de una determinada necesidad del usuario. antivirus: Programa que detecta la existencia de virus conocidos y neutraliza su acción. (Ver virus). archivo: Conjunto de registros lógicamente relacionados. En computación, un archivo es una colección de datos conservados en un soporte de almacenamiento externo, identificado con un nombre y tratado como una unidad. (Ver registro y almacenamiento). autenticación: Prueba de la identidad invocada mediante la identificación. (Ver identificación). autoridad de certificación: Ente público o privado que emite certificados digitales para su utilización en el comercio electrónico. (Ver certificado digital y comercio electrónico). B2B: (B to B, business to business = de empresa a empresa). Enfoque de comercialización por el cual una empresa dirige su acción de ventas a satisfacer las demandas de otras empresas, especialmente cuando lo hace mediante comercio electrónico. (Compárese con B2C y C2C. Ver comercio electrónico). B2C: (B to C, business to consumer = de empresa a consumidor). Enfoque de comercialización por el cual una empresa dirige su acción de ventas a satisfacer las demandas de los consumidores finales individuales. (Compárese con B2B y C2C. Ver comercio electrónico). backbone: 1. Conexión principal y de alta velocidad entre redes. - 2. En Internet, estructura principal de la red, formada por centros de supercomputadoras y proveedores de servicios de comunicación de alta velocidad. backup: 1. Proceso por el que se obtiene una copia de archivos cuyos datos se desea salvaguardar. - 2. Archivo de resguardo obtenido mediante ese proceso. banco de datos: Conjunto de datos relacionados con una determinada materia, habitualmente almacenados en soportes de computación y organizados de manera tal que pueden ser consultados por usuarios. banda ancha: Servicio o sistema de comunicación que requiere canales de transmisión con capacidad de soportar velocidades superiores a la velocidad primaria

Page 111: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

base de datos: Una colección de datos interrelacionados almacenados juntos con redundancia controlada para servir a una o más aplicaciones y de manera que sean independientes de los programas que los usan. benchmark: Prueba diseñada para comparar el rendimiento de un sistema de computación contra el rendimiento de otros. BI: (Business intelligence). Ver inteligencia de negocios. bit: 1. Cada uno de los dos dígitos (0 y 1) del sistema de numeración binario. - 2. En teoría de la información, unidad fundamental de información. - 3. En computación, un pulso eléctrico o punto magnético que puede adoptar uno de dos estados posibles. browser: Ver navegador. business intelligence: Ver inteligencia de negocios. C2C: (C to C, consumer to consumer = de consumidor a consumidor). Forma de comercio electrónico (comúnmente, en un sitio de la Web destinado al efecto) en la que un usuario de la red anuncia públicamente la venta de un bien a quien pague por éste un precio mayor. (Compárese con B2B y B2C. Ver comercio electrónico y World Wide Web). cablemódem: 1. Tipo de módem diseñado para operar sobre líneas de televisión por cable. (Ver módem). - 2. Servicio de acceso a Internet que emplea tal dispositivo y la infraestructura de una red de televisión por cable. caja negra: Sistema del que no se conoce el proceso de transformación de las entradas en salidas. campo: Parte de un registro que contiene un dato habitualmente tratado como una unidad y que no puede ser descompuesto en partes con significado. (Ver registro). canal: Medio de comunicación entre dos dispositivos. cartelera electrónica: Denominación genérica de los servicios que proveen a un grupo de usuarios el acceso en línea, desde las computadoras de éstos, a una serie variada de informaciones corrientes. Se los llama también BBS (bulletin board system = sistema de boletines electrónicos), sistema de cartelera de anuncios, sistema electrónico de avisos y tablero electrónico de anuncios. centro de llamadas: (Call center). En una organización, reunión de recursos de mano de obra, de telefonía y/o de computación, integrados específicamente para centralizar la atención de llamadas telefónicas entrantes y/o la generación de llamadas salientes. certificado digital: Testimonio emitido por una autoridad de certificación y mediante el cual se deja constancia de que cierta clave pública pertenece a determinada persona. (Ver clave pública). chat: 1. En la jerga de redes, charla electrónica consistente en una comunicación en tiempo real entre las computadoras de dos personas conectadas a la red, con el fin de que éstas mantengan una conversación mediante una serie de turnos de envío y recepción de mensajes escritos. La jerga ha incorporado términos derivados como chatear (charlar) y chateo (charla). - 2. Denominación abreviada de Internet Relay Chat (IRC). (Ver IRC). chateo: Ver chat. chip: Pastilla de silicio de algunas decenas de milímetros cuadrados y de cerca de un milímetro de espesor que contiene un circuito integrado individual compuesto por una cantidad de componentes electrónicos tales como transistores, resistencias y capacitores. cibernética: Ciencia que estudia los sistemas de control, especialmente de autocontrol, tanto en los organismos como en las máquinas. cinta: Dispositivo destinado al almacenamiento auxiliar y consistente en una larga tira dispuesta en un carrete y en la que se graban y leen datos mediante una unidad lectora-grabadora específica. (Ver almacenamiento). clasificación: Función del sistema de información por la cual los datos se agrupan en conjuntos homogéneos y se ordenan teniendo en cuenta la manera en que será necesario recuperarlos. clave privada: Ver clave pública. clave pública: En el sistema de encriptación denominado de clave pública, clave de codificación que es conocida por el público en general, a diferencia de la clave de decodificación, que es una clave privada, pues sólo es conocida por el destinatario del mensaje encriptado.

Page 112: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

clickear: Ver cliquear. cliquear: Neologismo con el que se alude a la acción de pulsar un botón, especialmente del ratón o mouse. código fuente: Conjunto de instrucciones de un programa escritas en un lenguaje simbólico de programación y que, para poder ser ejecutadas por una computadora, deben convertirse en código de máquina (o código objeto), es decir, en lenguaje binario. COM: Extensión o sufijo que, en el nombre de un archivo de computadora, indica que éste contiene comandos ejecutables. comercio electrónico: (e-commerce, electronic commerce): Compraventa de productos o servicios a través de Internet. compresión: Función del sistema de información por la cual se reduce el volumen de los datos sin disminuir necesariamente la información que suministrarán a su destinatario. comunicación: Proceso de transferencia o intercambio de información entre personas o entre dispositivos. confidencialidad: Condición de la información por la cual ésta se encuentra protegida contra la divulgación indebida. contingencia: Amenaza potencial a la que están expuestos los recursos informáticos. contraseña: Grupo de caracteres usado como clave para poder acceder a información restringida. correo electrónico: Transmisión de mensajes personales entre usuarios de computadoras a través de una red. cortafuegos: (Firewall). 1. Computadora encargada de bloquear el tráfico no deseado en una red. - 2. Sistema, dispositivo o programa destinado a evitar accesos no autorizados a una red privada. (Ver red privada). CPU: (Central processing unit = unidad central de procesamiento). Principal unidad componente de una computadora, encargada de comandar el funcionamiento de todos los otros componentes del sistema y de realizar el procesamiento de los datos. cracker: Especialista en computación que, con intención delictiva o por diversión intelectual, intenta violar las medidas y dispositivos de seguridad de los sistemas de computación, a fin de irrumpir en sus programas o archivos. (Compárese con hacker). criptografía: Disciplina que se ocupa del cifrado o codificación secreta e invulnerable de mensajes, a fin de evitar la lectura no autorizada de los mismos. CRM: (Customer relationship management = gestión de la relación con el cliente). Sistema de información y paquete de software destinado a cubrir todos los aspectos de la relación de una empresa con cada uno de sus clientes. CTI: (Computer-telephony integration = integración de telefonía y computadora). Aplicación combinada de las tecnologías de computación y de telefonía. data mart: (Mercado o tienda de datos). Un data warehouse específico y limitado. (Ver data warehouse). data mining: (Minería de datos). Búsqueda de patrones o relaciones ocultas en la información contenida en un data warehouse. (Ver data warehouse). data warehouse: Conjunto de datos integrados orientados a una materia, que varían con el tiempo y que no son transitorios, almacenados y organizados con el propósito de servir de apoyo al proceso de toma de decisiones de una organización. (Ver data mart y data mining). data warehousing: Proceso o función de creación y mantenimiento de un data warehouse. (Ver data warehouse). dato: Representación formalizada de entidades o hechos, adecuada para la comunicación, interpretación y procesamiento por medios humanos o automáticos. descubrimiento asociativo: Tipo de análisis que se utiliza en data mining y por el cual se busca hallar relaciones entre sucesos que se presentan en forma simultánea. (Compárese con descubrimiento de patrones secuenciales. Ver data mining). descubrimiento de patrones secuenciales: (También llamado descubrimiento de secuencias). Tipo de análisis que se utiliza en data mining y por el cual se busca hallar relaciones de secuencia entre sucesos. (Compárese con descubrimiento asociativo. Ver data mining).

Page 113: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

dial-up: (Acceso telefónico). Relativo a la comunicación que se establece mediante una línea telefónica conmutada, es decir, que requiere la marcación o el discado del número de teléfono del destinatario. diferido: Relativo al procesamiento en el que las transacciones no son procesadas en el mismo momento en que ocurren, sino en un tiempo posterior. (Compárese con tiempo real). digital: 1. Relativo a la computadora (u otro dispositivo) que trabaja con magnitudes discretas, a diferencia de la computadora (u otro dispositivo) analógica, que lo hace con magnitudes continuas. - 2. En comunicaciones, relativo a la transmisión de información en forma de impulsos que representan los dígitos binarios 0 y 1. digitalizado: Relativo a lo que se halla representado mediante dígitos binarios. disco: En un sistema de computación, medio de almacenamiento secundario que consiste en un plato circular sobre cuya superficie pueden grabarse y leerse datos mediante el uso de una unidad lectora-grabadora específica. (Ver almacenamiento). disquete: En una computadora, soporte de almacenamiento auxiliar removible, consistente en un disco plástico flexible cuyo tamaño más generalizado es de 90 milímetros de diámetro. dominio: En Internet, un nombre que identifica una dirección. El nombre de dominio es utilizado para identificar una máquina particular de la red. Está compuesto por distintas partes separadas por puntos. Leído de derecha a izquierda, el nombre de dominio está compuesto por subdominios de nivel descendente. El dominio de mayor nivel identifica el país (ar, en el caso de Argentina). DSS: (Decision support system = sistema de apoyo a la decisión). Clase de sistema de información que pone el énfasis en el uso de recursos informáticos para aumentar la eficacia y disminuir el esfuerzo humanos en el proceso de adopción de decisiones. e-business: (Electronic business). Ver negocios electrónicos. e-commerce: (Electronic commerce). Ver comercio electrónico. e-learning: (Electronic learning = aprendizaje electrónico). Expresión con que se alude a las actividades educativas basadas en el uso de tecnologías de Internet, especialmente las de la World Wide Web. (Ver World Wide Web). EDI: (Electronic data interchange = intercambio electrónico de datos). Sistema de transmisión de documentos en formato electrónico estándar entre computadoras de diferentes empresas. empresa extendida: Empresa que se amplía hacia sus proveedores, clientes, distribuidores y agentes, unificando con ellos los procesos de negocios. empresa virtual: Empresa que realiza sus operaciones de venta y demás transacciones comerciales en un medio exclusivamente electrónico, típicamente en Internet. encriptación: Proceso de cifrado o puesta en clave al que es sometida una información a fin de hacerla ilegible para usuarios no autorizados. en línea: Relativo a la operación de una unidad funcional que se halla bajo el control continuo de una computadora. entrada: (Input) 1. En computación, datos que se ingresan en un sistema de procesamiento. - 2. En teoría de sistemas, insumos de un sistema. ERP: (Enterprise resource planning = planificación de los recursos de la empresa). Tipo de sistema de información y paquete de programas constituido por módulos integrados y específicamente diseñados para automatizar y vincular todas las áreas y operaciones básicas de una empresa. Suele recibir también el nombre de software de gestión empresarial. estructura de datos: Cualquier particular forma de organizar datos relacionados. EXE: Extensión o sufijo que, en el nombre de un archivo de computadora, indica que éste contiene un programa ejecutable. exhibición: Función del sistema de información mediante la cual se proporciona una salida de información preparada de modo tal que resulte legible y útil a su destinatario. extranet: Una intranet que se extiende para dar también acceso a proveedores y clientes. (Ver intranet). filtrado: Eliminación de información no significativa. El filtrado actúa como un cedazo o cernedor que sólo deja pasar los datos que tendrán valor para el destinatario. firewall: Ver cortafuegos.

Page 114: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

firma digital: Un código de identificación única enviado en forma digital por un dispositivo emisor, y utilizado como medio de confirmación de la autenticidad de un mensaje. Una firma digital encriptada con una clave privada identifica de forma unívoca a la persona que envía un mensaje, y conecta a esa persona con ese mensaje en particular. físico: Adjetivo usado con frecuencia en informática, en oposición a lógico. En general, el aspecto físico de una entidad alude a sus características materiales. (Compárese con lógico). frontera digital: Expresión con la que se alude a la línea que separa a quienes tienen acceso a Internet de quienes no lo pueden tener, ya sea por razones tecnológicas o socioeconómicas. full duplex: En comunicaciones y transferencia de datos, conexión bidireccional en la que el canal puede transmitir señales en ambas direcciones simultáneamente. Gantt: Tipo de gráfico utilizado para representar, sobre una dimensión temporal, el plan de ejecución de un conjunto de actividades. gestión del conocimiento: (KM, knowledge management). Aplicación de los recursos tecnológicos, en especial de los de la tecnología informática, para lograr que la información que circula y se halla almacenada en una organización se transforme en conocimiento utilizable. groupware: (Software para trabajo en grupo). Software para redes de computación que se diseña con el principal propósito de incrementar la cooperación y la productividad conjunta de un grupo de personas, automatizando la interacción entre sus miembros. grupo de discusión: Ver grupo de noticias. grupo de noticias: En Internet y otras redes públicas, foro electrónico de discusión sobre un determinado asunto y cuyos miembros emiten mensajes para ser leídos públicamente. Se lo llama también grupo de discusión. gusano: Programa nocivo que, mediante un proceso de replicación de datos, va llenando la memoria o los discos de un sistema de computación, provocando así la degradación creciente del funcionamiento del mismo, incluso hasta llegar a paralizarlo. hacker: De acuerdo con la acepción original del término, usuario de computadoras entusiasta y calificado, cuyo principal interés consiste en obtener un completo dominio de un sistema de computación y, mediante artilugios de programación, llevarlo a sus máximos niveles de rendimiento. (Compárese con cracker). hardware: Término inglés con el que se alude al soporte físico o componentes tangibles de un sistema de computación. (Compárese con software). hipertexto: Un tipo específico de sistema de base de datos en el que los objetos (texto, imágenes, sonidos, programas, etc.) pueden ser vinculados entre sí. hipervínculo: En un documento electrónico, un comando asociado a un elemento (una palabra, un icono, un botón, etc.) y que produce un enlace a otro lugar del documento o a un lugar de otro documento distinto. hiperenlace: Hipervínculo. home page: (Página inicial, página base, página principal). En Internet, primera página que se despliega en pantalla al iniciar la navegación por un sitio de la Web, tal como si fuera la portada de una revista. (Ver World Wide Web y sitio). host: 1. Computadora principal o central de una red de procesamiento o de telecomunicaciones. - 2. En Internet, una computadora que está conectada directamente a la red y que tiene una dirección específica. HTML: (Hypertext markup language = lenguaje de etiquetado de hipertexto). Lenguaje utilizado para el diseño de documentos Web. (Ver World Wide Web). HTTP: (Hypertext tansfer protocol = protocolo de transferencia de hipertexto). Protocolo que se emplea en la Web para la transferencia de documentos. (Ver World Wide Web). icono: 1. Dibujo o símbolo gráfico que, en una interfaz de usuario, representa un programa, un archivo, una herramienta, una función, un dispositivo, etc. - 2. En general, signo que mantiene una relación de semejanza con el objeto representado. identificación: Declaración de ser una cierta persona o programa. inalámbrico: Relativo al sistema que se basa en comunicaciones llevadas a cabo sin el empleo de alambres conductores, es decir, realizadas fundamentalmente por aire mediante ondas radioeléctricas. información: Significado que una persona asigna a un dato. (Ver dato).

Page 115: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

información blanda: Información cuya confiabilidad y valor no son precisos, debido a la fuente o a la ambigüedad de la evidencia. (Compárese con información dura). información dura: Información que posee una validez comprobada y puede utilizarse con un alto grado de confiabilidad para la toma de decisiones. (Compárese con información blanda). informática: Disciplina que se ocupa del tratamiento y la comunicación de información. integridad: Atributo por el cual la información se considera completa y correcta. inteligencia artificial: (AI, artificial intelligence). 1. Capacidad de una computadora para simular la inteligencia humana en áreas del juicio, el aprendizaje y el razonamiento. - 2. Parte de la ciencia de la computación que estudia la posibilidad de que las computadoras adquieran capacidades similares a las de la inteligencia humana. inteligencia de negocios: (BI, business intelligence). Ámbito de acción de las organizaciones dirigido a favorecer la mayor eficiencia en la toma de decisiones. Las aplicaciones informáticas destinadas a este ámbito, tales como las de data warehousing y data mining, se centran en el usuario para suministrarle la posibilidad de explorar y relacionar datos. (Ver data warehouse y data mining). interactivo: Relativo al proceso en el que el usuario puede mantener un diálogo con la computadora, habitualmente a través de una pantalla y un teclado. interfaz gráfica: Parte de un programa o sistema operativo que interactúa con el usuario y que, para ello, utiliza una variedad de recursos gráficos (ventanas, iconos, menús, punteros, cajas de diálogo, botones, etc.). Internet: Denominación de la red de mayor alcance mundial que enlaza redes de gobiernos, empresas, universidades y otros organismos e instituciones. intranet: Red que, usando tecnología basada en la World Wide Web, es creada por una organización para diseminar información corporativa y vincularse con sus empleados. (Compárese con extranet. Ver World Wide Web). IOS, (Interorganizational system). Ver sistema interorganizacional. IRC: (Internet relay chat = charla por turnos en Internet). Sistema de Internet que permite establecer conexiones entre computadoras de dos o más usuarios y sostener una conversación electrónica en tiempo real, basada exclusivamente en texto y utilizando la pantalla y el teclado en lugar de la voz. ISP: (Internet service provider = proveedor de servicios de Internet). Firma que suministra conexión a Internet y otros servicios asociados. KM: (Knowledge management). Ver gestión del conocimiento. límite: En un sistema, una línea ideal que encierra elementos (subsistemas) entre los que existe mayor intercambio de energía que a través de la línea. lista de correo: En Internet y otras redes, lista de las direcciones de correo electrónico que recibirán un mensaje y que opera como un sistema organizado en el que un grupo de usuarios reciben y envían mensajes sobre un tema en particular, tal como si se tratara de un grupo de discusión que usa el correo electrónico para comunicarse. lógico: Adjetivo utilizado con frecuencia en informática, en oposición a físico. En general, el aspecto lógico de una entidad se refiere a sus atributos inmateriales (significado, mensaje o componente inteligente). (Compárese con físico). mainframe: (Anfitrión). Término con que se alude a una computadora mayor, computadora principal, macrocomputadora, computadora central o host. (Ver host). mercado electrónico: (e-market, electronic market). Un ámbito virtual (comúnmente, un sitio Web) en que se encuentran vendedores y compradores (generalmente, de un mismo mercado vertical u horizontal), a fin de efectuar operaciones comerciales electrónicas. (Ver sitio). mesa de ayuda: (Help desk). Sector de una organización específicamente dedicado a la atención de los problemas y las consultas técnicas planteados por los usuarios de los productos o servicios de aquélla. métrica: 1. Un número con el que se expresa la medida en que una pieza de software presenta un atributo subjetivo. - 2. Una medida que pondera el desempeño de recursos involucrados en funciones informáticas. microficha: Copia fotográfica minúscula de un documento original, obtenida por un proceso de reducción.

Page 116: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

microprocesador: Un procesador cuyos elementos componentes están microminiaturizados y ensamblados en un solo o en unos pocos circuitos integrados. (Ver procesador). modelización predictiva: Elaboración y simulación del funcionamiento de un modelo a fin de predecir las variaciones de comportamiento derivadas del cambio de valor de algunos de sus parámetros o variables. (Ver modelo). modelo: Representación formal o física de un sistema real mediante la cual es posible analizar el comportamiento del mismo y/o determinar el valor de magnitudes no mensurables directamente en aquél. modelo de agrupamiento: Tipo de modelo utilizado en data mining y que se elabora mediante la segmentación de una base de datos en diferentes grupos, cada uno de los cuales comprende los miembros de la base que son muy similares respecto de una determinada característica. (Ver modelo y data mining). modelo de clasificación: Tipo de modelo utilizado en data mining y que, a partir del análisis de un cierto conjunto de datos clasificados sobre la base de una clave, permite inducir un patrón para describir comportamientos o valores futuros. (Ver modelo y data mining). modelo de regresión: Tipo de modelo utilizado en data mining y que emplea el análisis de regresión con el fin de que, a partir de series de valores conocidos, puedan inferirse valores no conocidos. (Ver modelo, regresión y data mining). módem: (Modulador / demodulador). Dispositivo que transforma señales digitales de computación en señales analógicas de telefonía, y viceversa. motor de búsqueda: Tipo de programa destinado a la búsqueda de documentos o archivos de acuerdo con un criterio previamente definido, y que devuelve una lista de los documentos o archivos que satisfacen el criterio. multidimensional: Relativo al conjunto de datos que puede ser recorrido en diferentes órdenes o por partes, y accediendo a él por distintos puntos o ítems. multimedia: Término con el que se alude a la combinación de gráficos, texto, sonido, animación y video en una misma aplicación de computadora. navegador: (Browser). Programa que permite acceder y realizar búsquedas o navegar fácilmente en un conjunto de datos y cuya característica distintiva es que el recorrido se hace bajo el control del usuario, y no en un orden particular. navegar: Desplazarse entre distintas opciones de un menú. En Internet y otras redes, la navegación puede asimilarse a un viaje entre distintos documentos y/o sitios de la red. negocios electrónicos: (e-business, electronic business). Expresión que, aunque se usa con frecuencia como sinónimo de comercio electrónico, alude a la forma de desarrollo de operaciones comerciales entre empresas por la cual éstas se vinculan electrónicamente a través de una red, típicamente Internet. (Compárese con comercio electrónico). nodo: 1. En general, punto de conexión con una red. - 2. Cualquier dispositivo de una red que sirve como punto de conexión con capacidad para enviar, recibir o repetir mensajes. OLAP: (On line analytical processing = procesamiento analítico en línea). Clase de software que actúa como interfaz entre un usuario y una base de datos, y que proporciona herramientas de análisis de los datos contenidos en ésta. OLTP: (On line transaction processing = procesamiento de transacciones en línea). Modo de procesamiento en el que la base de datos es actualizada de manera inmediata con la realización de cada transacción. outsourcing: Ver tercerización. página inicial: Ver home page. página web: En Internet, cada uno de los documentos de hipertexto almacenados en un servidor de la World Wide Web. La expresión página web hace referencia a cada uno de los documentos que conforman un sitio Web. Sin embargo, a veces se la emplea para aludir a la parte del documento que está visible en pantalla; otras veces, se la usa como sinónimo de sitio. (Ver World Wide Web y sitio). paging: Un tipo de servicio de comunicación, también llamado radiomensajería, que recibe mensajes de terceros y los distribuye mediante señales de radio a los respectivos usuarios destinatarios, quienes para ello están provistos de beepers o pagers en cuyo visor o pantalla se despliega el mensaje.

Page 117: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

paquete de datos: Un bloque de datos enviado a través de una red y que constituye la unidad básica de información usada en las comunicaciones de red por conmutación de paquetes. Antes de ser transmitidos, los mensajes se dividen automáticamente en paquetes de tamaño apropiado para la red, y son reensamblados por el sistema receptor. Además de los datos, el paquete contiene la dirección del nodo emisor y la dirección del nodo al que es enviado. paquete de programas: Un conjunto completo y documentado de programas, suministrado a distintos usuarios para una aplicación o función genérica. periférico: Denominación genérica que se aplica a todo dispositivo de computación conectado con la unidad central de procesamiento y bajo el control de ésta. Pueden ser unidades de entrada, unidades de salida o unidades de almacenamiento auxiliar. (Ver CPU, entrada, salida y almacenamiento). pirámide organizacional: Expresión con la que se alude a la estructura de organización de una empresa o institución, en referencia a su característica forma piramidal. pirata: Relativo al software que se utiliza sin tener para ello la debida autorización o licencia. pista de auditoría: Una “huella” o registro generado automáticamente por un sistema de computación para permitir la reconstrucción, a posteriori, de la secuencia, características y contenidos de transacciones procesadas. placa de sonido: En una computadora, un tipo de placa de circuitos que genera señales analógicas de sonido a partir de datos digitales. planilla de cálculo: Tipo de programa específicamente destinado al armado de planillas o tablas compuestas de filas y columnas, y provisto de todo tipo de herramientas para efectuar cálculos y para definir y medir relaciones. plataforma: Hardware o software de computación que, por sus características particulares y específicas, solamente admite dispositivos o aplicaciones especialmente diseñados para trabajar con él. Habitualmente, los programas o dispositivos creados para una plataforma no corren o no funcionan en otras plataformas. Cuando lo hacen, se dice que se trata de programas o dispositivos multiplataforma. pop screen: Pantalla que se abre automáticamente sin haber sido solicitada por el usuario. por lotes: Relativo al procesamiento, en una única corrida, de un lote o conjunto de transacciones previamente acumuladas, de manera que el usuario no puede influir en el proceso mientras éste se lleva a cabo. portal: 1. En Internet, sitio que constituye un centro de contenidos y/o servicios a partir del cual los usuarios de la red pueden iniciar su navegación por la misma. (Ver sitio y navegar). - 2. En las organizaciones, un software que maneja el acceso de los usuarios a múltiples aplicaciones, a variadas fuentes de información o a la intranet de la empresa. (Ver intranet). privacidad: Condición de la información por la cual ésta se halla protegida contra la utilización maliciosa y no autorizada de datos sobre las personas. privilegio: En un sistema informático, autorización o derecho que habilita a un usuario o a un programa para llevar a cabo un determinado tipo de operación o transacción en el sistema. procesador: En una computadora, unidad funcional que interpreta y ejecuta instrucciones, y que consiste, por lo menos, de una unidad de control y una unidad aritmética y lógica. En la práctica, el término se usa como sinónimo de unidad central de procesamiento. procesador frontal: En general, una computadora intermediaria que realiza trabajos de filtrado, preparación u organización para otra computadora (el procesador posterior), siendo esta última, por lo común, un mainframe o una máquina más poderosa, aunque menos amigable. (Ver mainframe). procesamiento: Función del sistema de información por la cual las entradas se transforman en salidas a través de un proceso. procesamiento distribuido: Modo de procesamiento caracterizado por la conformación de redes de computación que interconectan distintos puntos geográficos provistos de capacidad de procesamiento local. proceso: 1. Serie de etapas o fases sucesivas de un fenómeno natural o de una operación artificial. - 2. En el modelo de sistema de la teoría de sistemas, transformación de entradas en salidas. - 3. En procesamiento de datos, un conjunto de programas que se corren para realizar un trabajo completo.

Page 118: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

programa: Secuencia lógica y completa de instrucciones para dirigir a una computadora en la ejecución de las operaciones deseadas para la resolución de un problema previamente definido. punto a punto: Relativo al canal de comunicaciones dedicado permanentemente a servir de conexión entre dos y sólo dos nodos o puntos. (Ver nodo). recolección: Función del sistema de información que implica la captura y el registro de datos. recuperación: Función del sistema de información por la cual se suministra acceso a la base de datos. red: 1. Dos o más sistemas de computación que se hallan conectados por líneas de transmisión y se comunican mediante un protocolo definido, con el objeto de compartir información, unidades periféricas, conexiones u otros recursos. - 2. En comunicaciones, conjunto de recursos aplicados al establecimiento, la conmutación, la administración y el control de transmisiones de información entre una serie de localizaciones o puntos. red de área local: (LAN, local area network). Red conformada por dispositivos que se hallan físicamente próximos, comúnmente en el entorno de un único edificio. Las redes de área metropolitana (MAN, metropolitan area network) utilizan conexiones de alta velocidad en el área de una ciudad o región. Las redes de área extensa (WAN, wide area network) usan recursos de telecomunicaciones para abarcar un ámbito nacional o internacional. red de comunicaciones: Sistema de comunicaciones en el que existe más de una fuente y/o más de un destino. red de valor agregado: (VAN, value-added network). Red comercial que, sobre la base del uso de líneas telefónicas públicas, ofrece un servicio de comunicaciones perfeccionado por la utilización de equipos adicionales que incrementan la calidad básica de la telefonía pública, incorporando prestaciones tales como la detección y corrección de errores y mejores tiempos de respuesta. red privada: Red de comunicaciones en la que no se utilizan canales públicos, sino que todos los medios de transmisión responden a una instalación privada y exclusiva. registro: Grupo de datos que se hallan lógicamente relacionados por referirse a una misma ocurrencia de una entidad. Está compuesto por unidades de datos llamadas campos. Un conjunto de registros referidos a una misma entidad conforma un archivo. regresión: Procedimiento por el cual, dadas las respectivas series de valores de dos variables, se determina una ley, llamada ley de regresión, que describe en promedio la correlación existente entre las variaciones de ambas series. ruteador: (Router). Una computadora especializada que, en una red de conmutación de paquetes, controla la distribución de mensajes entre múltiples rutas opcionales. Se lo llama también enrutador. (Ver paquete de datos). salida: (Output). 1. En computación, datos que un sistema de procesamiento produce como resultado. - 2. En teoría de sistemas, productos generados por un sistema. SCM: (Supply chain management = gestión de la cadena de abastecimiento). Identificación genérica de los sistemas de información destinados a la gestión de la cadena de abastecimiento de una organización, es decir, el conjunto de operaciones y participantes que conforman el ciclo completo de flujo de productos y materiales entre la propia organización y sus proveedores, distribuidores, minoristas y clientes. sensitividad: Atributo de la información que determina que ésta requiera protección especial para conservarla, mantener su integridad e impedir su divulgación. serie cronológica: (También llamada serie temporal). Tabla en la que se exhiben los valores de un atributo cuantitativo mostrando la evolución o comportamiento de éste a través del tiempo. servidor: 1. En una red (generalmente, una red de área local), una computadora y un software asociado que proporcionan servicios a los nodos restantes de la red (llamados clientes), compartiendo con ellos el uso de uno o varios recursos. (Ver nodo). - 2. En Internet, un programa que interactúa con los programas del usuario. servidor proxy: En una red, un servidor que actúa como intermediario entre una aplicación y un servidor propiamente dicho. Por lo general, un servidor proxy intercepta las solicitudes de los usuarios y verifica si puede satisfacerlas por sí mismo; de no ser así, habilita el paso al servidor final. (Ver servidor).

Page 119: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

SFA: (Sales force automation = automatización de la fuerza de ventas). Expresión con la que se engloban las actividades dirigidas a proporcionar herramientas de gestión computadorizada a quienes participan en las operaciones de venta de una empresa. SFM: (Sales force management = gestión de la fuerza de ventas). Sistema y paquete de programas que, en una empresa, están destinados a apoyar la gestión del personal de ventas. seguridad: Situación en la que se está adecuadamente protegido contra pérdidas, de modo tal que los hechos adversos están apropiadamente impedidos, disuadidos, prevenidos, detectados y/o corregidos. sinergia: En teoría de sistemas, característica de los sistemas por la cual éstos generan un resultado superior y distinto a la simple agregación de los elementos que constituyen el sistema. sistema: Conjunto de elementos interrelacionados de modo tal que producen como resultado algo superior y distinto a la simple agregación de los elementos sistema abierto: 1. En teoría de sistemas, sistema que tiene intercambios con su ambiente. - 2. En informática, aplicación que admite algún grado de "personalización" o adaptación a ciertas necesidades o características específicas. sistema cerrado: 1. En teoría de sistemas, sistema que no tiene intercambios con su ambiente. - 2. En informática, aplicación que no permite ninguna adaptación a necesidades o características particulares. sistema de información: Conjunto de recursos humanos, materiales, financieros, tecnológicos, normativos y metodológicos organizados para brindar, a quienes operan y a quienes adoptan decisiones en una organización, la información necesaria para desarrollar sus respectivas funciones. sistema experto: Sistema computadorizado que contiene los conocimientos de un experto sobre un tema específico y que puede operar con ellos para formular predicciones, realizar diagnósticos o proponer cursos de acción para resolver un problema. sistema interorganizacional: Sistema de información utilizado por dos o más organizaciones para desarrollar algún proceso de negocios en conjunto. sistema-objeto: El sistema real al que se refiere un determinado sistema de información. sistema operativo: Grupo de programas que cumplen una variada cantidad de trabajos internos de control, de manejo de datos y de servicio, y sin los cuales un sistema de computación no podría funcionar. site: Ver sitio. sitio: (Site). 1. En Internet, un lugar que puede ser a la vez físico (una computadora o una red de computadoras) y virtual (una base de datos, un servicio Web, etc.). - 2. Un conjunto de páginas Web relacionadas, comúnmente mantenido por una organización o un individuo. (Ver World Wide Web y página web). software: Término inglés con el que se alude al soporte lógico o componentes intangibles (programas) de un sistema de computación. (Compárese con hardware). soporte físico: Ver hardware. soporte lógico: Ver software. supercomputadora: Denominación aplicada a los modelos de computadoras que alcanzan los más altos niveles de potencia, por encima de los mainframes de gran escala que se emplean en las aplicaciones empresarias típicas. (Ver mainframe). telecommuting: Ver teletrabajo. telecomunicaciones: Transmisión a distancia de voz, sonidos, textos, imágenes fijas, imágenes móviles o datos bajo la forma de señales electrónicas, electromagnéticas u ópticas. telefonía celular: Forma de comunicación inalámbrica en la que una determinada región geográfica es dividida en distintas subregiones o células, cada una de ellas con su propia antena. telemática: Disciplina o ambiente tecnológico que surge de la combinación de las telecomunicaciones y la informática. teletrabajo: (Teleworking, telecommuting). Práctica de trabajar en un lugar distinto del emplazamiento de la organización empleadora, manteniendo con ésta una conexión por módem a fin de intercambiar mensajes y datos. tendencia secular: En una serie cronológica definida en un período largo de tiempo, variación de la serie que pone de manifiesto la forma en que ésta evoluciona cuando se prescinde de las

Page 120: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

variaciones de corto período. (Ver serie cronológica. Compárese con variación cíclica, variación estacional y variación residual aleatoria). tercerización: (Outsouricing). Modalidad de contratación de servicios mediante la cual la organización encarga a un tercero la atención de una determinada actividad, a cuyo fin la empresa contratada aporta el personal y los equipos necesarios. terminal: Cualquier dispositivo conectado a distancia con una computadora y desde el cual el usuario puede interactuar con ésta. Comúnmente, alude a una pantalla con teclado. - 2. Cualquier punto de una red en que un usuario puede ingresar o recibir datos. El dispositivo que actúa en ese punto también recibe el nombre de terminal. Puede ser un monitor con teclado, una impresora, un teletipo, una unidad de cintas, un teléfono, otra computadora, etc. tiempo real: Relativo al procesamiento en el que las transacciones son procesadas en el mismo momento en que sucede el hecho que genera la necesidad del proceso. (Compárese con diferido). transacción: 1. En un sistema de computación, cualquier acción del usuario que involucra algún cambio en una base de datos. - 2. En un sistema de información, cada operación individual consistente en un intercambio de datos entre un usuario y un sistema de computación, y en la que se concreta un determinado resultado. transmisión: Función del sistema de información que comporta la comunicación entre puntos geográficos distantes, sea por el traslado físico del sostén de los datos o por la transmisión de señales. trunking: Tecnología de transmisión inalámbrica de datos y voz por frecuencias de radio, típicamente utilizada para la comunicación de usuarios móviles, por lo general de una misma organización. unidad central de procesamiento: Ver CPU. validación: Examen de los datos que entran o salen de un sistema, a efectos de verificar el cumplimiento de criterios previamente definidos. VAN: Ver red de valor agregado. variación cíclica: En una serie cronológica, variación de naturaleza periódica, no anual. (Ver serie cronológica. Compárese con tendencia secular, variación estacional y variación residual aleatoria). variación estacional: En una serie cronológica, variación debida a influencias que dependen del calendario o de las estaciones del año. (Ver serie cronológica. Compárese con tendencia secular, variación cíclica y variación residual aleatoria). variación residual aleatoria: En una serie cronológica, componente no sistemático que causa alteraciones en el fenómeno estudiado y que no responde a ninguna ley que el análisis de la serie pueda descubrir. (Ver serie cronológica. Compárese con tendencia secular, variación cíclica y variación estacional). videoconferencia: Reunión virtual de un número cualquiera de participantes situados en distintos lugares del mundo y en la que, mediante el uso de sistemas de comunicación intercontinentales, se establece una interacción por voz e imagen de modo tal que cada uno puede ser escuchado y visto en una pantalla por todos los demás. virtual: 1. En física, relativo a lo que tiene existencia sólo aparente. - 2. En el lenguaje común, relativo a lo que no está, pero es como si estuviera. virus: Un tipo de programa diseñado con la capacidad de copiarse a sí mismo y la intención de producir efectos indeseables o dañinos en un sistema de computación. vulnerabilidad: Debilidad existente frente a las contingencias determinadas. (Ver contingencia). WAP: (Wireless application protocol = protocolo de aplicaciones inalámbricas). Un estándar de formato que permite el acceso a servicios digitales mediante aparatos inalámbricos tales como los teléfonos celulares. Web: Nombre abreviado de la World Wide Web. (Ver World Wide Web). webcam: Cámara de video especialmente diseñada para operar como unidad periférica de una computadora, con el fin de implementar sesiones de videoconferencia. (Ver videoconferencia). workflow: (Flujo de trabajo). Secuencia física y lógica de pasos que conforman el circuito seguido en una organización para realizar una determinada tarea.

Page 121: Informática en la Organizaciones (libro)

VERSIÓN PRELIMINAR

© 2004 Raúl H. Saroka Y Javier Collazo

World Wide Web: Sistema de Internet que permite acceder a documentos vinculados y que consiste en una interfaz gráfica con capacidades de hipertexto y multimedia. (Ver hipertexto y multimedia). XML: (Extensible markup language = lenguaje extensible de etiquetado). Un lenguaje estandarizado destinado a proporcionar funcionalidades de manejo de documentos Web no suministradas por el lenguaje HTML. (Ver HTML).