Download - Taller sistemas
1
TALLER DE SISTEMAS
HARDWARE Y SOFTWARE
EL HARDWARE:Componentes físicos del ordenador, es decir, todo lo que se puede ver y tocar. Clasificaremos el hardware en dos tipos:
- El que se encuentra dentro de la torre o CPU, y que por lo tanto no podemos ver a simple vista.
- El que se encuentra
alrededor de la torre o CPU, y que por lo tanto, sí que vemos a simple vista, y que denominamos periféricos.
EL SOFTWARE:Son las
instrucciones que el ordenador necesita para funcionar, no existen físicamente, o lo que es igual, no se pueden ver ni tocar.
- Sistemas Operativos: Tienen como misión que el ordenador gestione sus recursos de forma eficiente, además de permitir su comunicación con el usuario. Nosotros utilizamos el Sistema Windows.
- Aplicaciones: Son programas informáticos que tratan de resolver necesidades concretar del usuario, como por ejemplo: escribir, dibujar, escuchar música,...
STEPHANIE KATHERINE MURILLO TORRESGRUPO 1B GESTION EMPRESARIAL
2
TALLER DE SISTEMAS
HARDWAREs la parte física de un computador y más ampliamente de cualquier dispositivo
electrónico. El término proviene del inglés y es definido por la RAE como el equipo de
una computadora , sin embargo, es usual que sea utilizado en una forma más amplia,
generalmente para describir componentes físicos de una tecnología, así el hardware puede ser
de un equipo militar importante, un equipo electrónico, un equipo informático o un robot. En
informática también se aplica a los periféricos de una computadora tales como el disco duro, CD-
ROM, disquetera (floppy), etc... En dicho conjunto se incluyen los dispositivos electrónicos y
electromecánicos, circuitos, cables, armarios o cajas, periféricos de todo tipo y cualquier otro
elemento físico involucrado.
E
El hardware se refiere a todos los componentes físicos (que se pueden tocar), en el caso de una
computadora personal serían los discos, unidades de disco, monitor, teclado, la placa base, el
microprocesador, etc. En cambio, el software es intangible, existe como información, ideas,
conceptos, símbolos, pero no ocupa un espacio físico, se podría decir que no tiene sustancia. Una
buena metáfora sería un libro: las páginas y la tinta son el hardware, mientras que las palabras,
oraciones, párrafos y el significado del texto (información) son el software. Una computadora sin
software sería tan inútil como un libro con páginas en blanco.
HISTORIA
El hardware ha sido un componente importante del proceso de cálculo y almacenamiento de datos
desde que se volvió útil para que los valores numéricos fueran procesados y compartidos. El
hardware de computador más primitivo fue probablemente el palillo de cuenta;1 después grabado
permitía recordar cierta cantidad de elementos, probablemente ganado o granos, en contenedores.
Algo similar se puede encontrar cerca de las excavaciones de Minoan. Estos elementos parecen
haber sido usadas por los comerciantes, contadores y los oficiales del gobierno de la época.
Los dispositivos de ayuda provenientes de la computación han cambiado de simples dispositivos
de grabación y conteo al ábaco, la regla de cálculo, el computadora analógica y los más recientes,
la computadora u ordenador. Hasta hoy, un usuario experimentado del ábaco usando un
dispositivo que tiene más de 100 años puede a veces completar operaciones básicas más
rápidamente que una persona inexperta en el uso de las calculadoras electrónicas, aunque en el
caso de los cálculos más complejos, los computadores son más efectivos que el humano más
experimentado.
STEPHANIE KATHERINE MURILLO TORRESGRUPO 1B GESTION EMPRESARIAL
3
TALLER DE SISTEMAS
TIPOS DE HARDWAREExisten dos categorías importantes en el campo del Hardware. Por un lado, el básico, que refiere
a las herramientas indispensables para correr una PC, y por otro lado, el "Hardware
Complementario”, como su nombre indica, sirve para realizar funciones específicas (más allá de
las básicas) no estrictamente necesarias para el funcionamiento de la computadora.
Las computadoras son aparatos electrónicos capaces de interpretar y ejecutar instrucciones
programadas que consisten en operaciones aritmetilógicas y de entrada/salida; reciben entradas
(datos para su procesamiento), producen salidas (resultados del procesamiento), procesan y
almacenan información.
Todo sistema informático tiene componentes hardware dedicados a alguna de estas funciones:
Periféricos de entrada
Periféricos de salida
Periféricos mixtos
Memoria
Unidad central de procesamiento (CPU)
Cada dispositivo de entrada es sólo otra fuente de señales eléctricas; cada dispositivo de salida
no es más que otro lugar al cual enviar señales (salidas); los dispositivos de almacenamiento y
las memorias son ambas cosas, dependiendo de lo que requiera el programa (operación de
entrada=lectura, operación de salida=escritura).
PERIFÉRICOS DE ENTRADA
Son los que permiten al usuario ingresar información desde el exterior. Entre ellos podemos
encontrar: teclado, mouse o ratón, escáner, SAI (Sistema de Alimentación
Ininterrumpida), micrófono, cámara web , lectores de código de barras, Joystick, cámara
fotográfica ,etc.
PERIFÉRICOS DE SALIDA
Son los que muestran al usuario el resultado de
las operaciones realizadas por el PC. En este
grupo podemos encontrar: monitor, impresora,
altavoces, etc.
STEPHANIE KATHERINE MURILLO TORRESGRUPO 1B GESTION EMPRESARIAL
4
TALLER DE SISTEMAS
PERIFÉRICOS MIXTOS (E/S)
Son los dispositivos que pueden aportar
simultáneamente información exterior al PC y al
usuario. Así encontramos como
dispositivos/periféricos/unidades
de Entrada/Salida las tarjetas de red,
los módems, las unidades de
almacenamiento (discos duros, disquetes,
floppy, discos) o las memorias, (USB, flash, etc.)
UNIDAD CENTRAL DE PROCESAMIENTO
Artículo principal: CPU
La placa principal de una PC
Es la computadora real, la "inteligencia" de un
sistema de computación. La CPU, o procesador, es
el componente que interpreta instrucciones
y procesa datos. Es el elemento fundamental,
el cerebro de la computadora. Su papel
sería equiparable al de un director de orquesta,
cuyo cometido es que el resto de componentes
funcionen correctamente y de manera
coordinada. Las unidades centrales de
proceso no sólo están presentes en los
ordenadores personales, sino en todo tipo de
dispositivos que incorporan una cierta
"inteligencia" electrónica como pueden ser: televisores, automóviles, calculadores, aviones,
teléfonos móviles, juguetes y muchos más.
MEMORIA RAM
STEPHANIE KATHERINE MURILLO TORRESGRUPO 1B GESTION EMPRESARIAL
5
TALLER DE SISTEMAS
ARTÍCULO PRINCIPAL Del inglés Random Access Memory, que significa memoria de acceso aleatorio, aludiendo a la
capacidad que ofrece este dispositivo para almacenar y/o extraer información de él
(Lectura/Escritura) en cualquier punto o dirección del mismo y en cualquier momento (no
secuencial). Son los dispositivos que permiten el almacenamiento temporal de información
para que la Unidad de Procesamiento pueda ser capaz de ejecutar sus programas. Existen
diferentes tipos de memoria RAM:
SRAM:
Siglas de Static Random Access Memory, es un tipo de memoria que es más rápida y fiable que
la más común DRAM (Dynamic RAM). El término estática viene derivado del hecho que necesita
ser refrescada menos veces que la RAM dinámica. Los chips de RAM
estática tienen tiempos de acceso del orden de 10 a 30
nanosegundos, mientras que las RAMs dinámicas están por encima
de 30, y las memorias bipolares y ECL se encuentran por debajo de
10 nanosegundos. Un bit de RAM estática se construye con un
circuito flip-flop que permite que la corriente fluya de un lado a otro
basándose en cuál de los dos transistores es activado. Las RAMs
estáticas no precisan de circuitería de refresco como sucede con las
RAMs dinámicas, pero precisan más espacio y usan más energía. La
SRAM, debido a su alta velocidad, es usada como memoria caché.
SIMM:
Siglas de Single In line Memory Module, un tipo de encapsulado consistente
en una pequeña placa de circuito impreso que almacena chips de memoria,
y que se inserta en un zócalo SIMM en la placa madre o en la placa de
memoria. Los SIMMs son más fáciles de instalar que los antiguos chips de
memoria individuales, y a diferencia de ellos son medidos en bytes en lugar
de bits. El primer formato que se hizo popular en los computadores
personales tenía 3.5" de largo y usaba un conector de 32 pins. Un formato
más largo de 4.25", que usa 72 contactos y puede almacenar hasta 64
megabytes de RAM es actualmente el más frecuente. Un PC usa tanto
memoria de nueve bits (ocho bits y un bit de paridad, en 9 chips de
memoria RAM dinámica) como memoria de ocho bits sin paridad. En el primer caso los ocho
primeros son para datos y el noveno es para el chequeo de paridad.
RAM Disk:
Se refiere a la RAM que ha sido configurada para simular un
disco duro. Se puede acceder a los ficheros de un RAM disk de la
misma forma en la que se acceden a los de un disco duro. Sin
embargo, los RAM disk son aproximadamente miles de veces
STEPHANIE KATHERINE MURILLO TORRESGRUPO 1B GESTION EMPRESARIAL
6
TALLER DE SISTEMAS
más rápidos que los discos duros, y son particularmente útiles para aplicaciones que precisan de
frecuentes accesos a disco. Dado que están constituidos por RAM normal. Los RAM disk pierden
su contenido una vez que la computadora es apagada. Para usar los RAM Disk se precisa copiar
los ficheros desde un disco duro real al inicio de la sesión y copiarlos de nuevo al disco duro
antes de apagar la máquina. Observe que en el caso de fallo de alimentación eléctrica, se
perderán los datos que hubiera en el RAM disk.
Memoria Caché o RAM Caché:
Un caché es un sistema especial de almacenamiento de alta velocidad. Puede ser tanto un área
reservada de la memoria principal como un dispositivo de almacenamiento de alta velocidad
independiente. Hay dos tipos de caché frecuentemente
usados en las computadoras personales: memoria caché y
caché de disco. Una memoria caché, llamada también a
veces almacenamiento caché o RAM caché, es una parte de
memoria RAM estática de alta velocidad (SRAM) más que la
lenta y barata RAM dinámica (DRAM) usada como memoria
principal. La memoria caché es efectiva dado que los
programas acceden una y otra vez a los mismos datos o
instrucciones. Guardando esta información en SRAM, la
computadora evita acceder a la lenta DRAM.
DRAM
Siglas de Dynamic RAM, un tipo de memoria de gran capacidad pero que precisa ser
constantemente refrescada (re-energizada) o perdería su contenido. Generalmente
usa un transistor y un condensador para representar un bit Los condensadores debe
de ser energizados cientos de veces por segundo para mantener las cargas. A
diferencia de los chips firmware (ROMs, PROMs, etc.) las dos principales variaciones
de RAM (dinámica y estática) pierden su contenido cuando se desconectan de la
alimentación. Contrasta con la RAM estática. Algunas veces en los anuncios de
memorias, la RAM dinámica se indica erróneamente como un tipo de encapsulado;
por ejemplo "se venden DRAMs, SIMMs y SIPs", cuando debería decirse "DIPs, SIMMs
y SIPs" los tres tipos de encapsulado típicos para almacenar chips de RAM dinámica.
VRAM
Siglas de Vídeo RAM, una memoria de propósito especial usada por los adaptadores
de vídeo. A diferencia de la convencional memoria RAM, la VRAM puede ser accedida
por dos diferentes dispositivos de forma simultánea. Esto permite que un monitor
pueda acceder a la VRAM para las actualizaciones de la pantalla al mismo tiempo
que un procesador gráfico suministra nuevos datos. VRAM permite mejores
rendimientos gráficos aunque es más cara que la una RAM normal.
STEPHANIE KATHERINE MURILLO TORRESGRUPO 1B GESTION EMPRESARIAL
7
TALLER DE SISTEMAS
SOFTWARE
e conoce como software al equipamiento lógico o soporte lógico de
una computadora digital; comprende el conjunto de los componentes lógicos necesarios
que hacen posible la realización de tareas específicas, en contraposición a los
componentes físicos, que son llamados hardware.
SLos componentes lógicos incluyen, entre muchos otros, las aplicaciones informáticas; tales como
el procesador de texto, que permite al usuario realizar todas las tareas concernientes a la edición
de textos; el software de sistema, tal como el sistema operativo, que, básicamente, permite al resto
de los programas funcionar
adecuadamente, facilitando también la
interacción entre los componentes físicos y
el resto de las aplicaciones, y
proporcionando una interfaz para el
usuario.
El software libre (en inglés free
software, aunque esta denominación también
se confunde a veces con "gratis" por la
ambigüedad del término en el idioma inglés) es
la denominación del software que respeta la libertad de los usuarios sobre su producto adquirido y,
por tanto, una vez obtenido puede ser usado, copiado, estudiado, modificado y redistribuido
libremente. Según la Free Software Foundation, el software libre se refiere a la libertad de los
usuarios para ejecutar, copiar, distribuir, estudiar, modificar el software y distribuirlo modificado.
El software libre suele estar disponible gratuitamente, o al precio de costo de la distribución a
través de otros medios; sin embargo no es obligatorio que sea así, por lo tanto no hay que asociar
software libre a "software gratuito" (denominado usualmente freeware), ya que, conservando su
carácter de libre, puede ser distribuido comercialmente ("software comercial").
Tampoco debe confundirse software libre con "software de dominio público". Éste último es aquel
software que no requiere de licencia, pues sus derechos de explotación son para toda la
humanidad, porque pertenece a todos por igual. Cualquiera puede hacer uso de él, siempre con
fines legales y consignando su autoría original. Este software sería aquel cuyo autor lo dona a la
humanidad o cuyos derechos de autor han expirado, tras un plazo contado desde la muerte de
este, habitualmente 70 años. Si un autor condiciona su uso bajo una licencia, por muy débil que
sea, ya no es del dominio público.
STEPHANIE KATHERINE MURILLO TORRESGRUPO 1B GESTION EMPRESARIAL
8
TALLER DE SISTEMAS
HISTORIA
Entre los años 1960 y 1970, el software no era considerado un producto sino un añadido que los
vendedores de las grandes computadoras de la época (las mainframes) aportaban a sus clientes
para que éstos pudieran usarlos. En dicha cultura, era común que los programadores y
desarrolladores de software compartieran libremente sus programas unos con otros. Este
comportamiento era particularmente habitual en algunos de los mayores grupos de usuarios de la
época, como DECUS (grupo de usuarios de computadoras DEC). A finales de la década de 1970,
las compañías iniciaron el hábito de imponer restricciones a los usuarios, con el uso de acuerdos
de licencia.
En 1971, cuando la informática todavía no había sufrido su gran boom, las personas que hacían
uso de ella, en ámbitos universitarios y empresariales, creaban y compartían el software sin ningún
tipo de restricciones.
Con la llegada de los años 1980 la situación empezó a cambiar. Las computadoras más modernas
comenzaban a utilizar sistemas operativos privativos, forzando a los usuarios a aceptar
condiciones restrictivas que impedían realizar modificaciones a dicho software.
En caso de que algún usuario o programador encontrase algún error en la aplicación, lo único que
podía hacer era darlo a conocer a la empresa desarrolladora para que ésta lo solucionara. Aunque
el programador estuviese capacitado para solucionar el problema y lo desease hacer sin pedir
nada a cambio, el contrato le impedía que modificase el software.
El mismo Richard Stallman cuenta que por aquellos años, en el laboratorio donde trabajaba,
habían recibido una impresora donada por una empresa externa. El dispositivo, que era utilizado
en red por todos los trabajadores, parecía no funcionar a la perfección, dado que cada cierto
tiempo el papel se atascaba. Como agravante, no se generaba ningún aviso que se enviase por
red e informase a los usuarios de la situación.
La pérdida de tiempo era constante, ya que en ocasiones, los trabajadores enviaban por red sus
trabajos a imprimir y al ir a buscarlos se encontraban la impresora atascada y una cola enorme de
trabajos pendientes. Richard Stallman decidió arreglar el problema, e implementar el envío de un
aviso por red cuando la impresora se bloqueara. Para ello necesitaba tener acceso al código
fuente de los controladores de la impresora. Pidió a la empresa propietaria de la impresora lo que
necesitaba, comentando, sin pedir nada a cambio, qué era lo que pretendía realizar. La empresa
se negó a entregarle el código fuente. En ese preciso instante, Stallman se vio en una encrucijada:
debía elegir entre aceptar el nuevo software propietario firmando acuerdos de no revelación y
STEPHANIE KATHERINE MURILLO TORRESGRUPO 1B GESTION EMPRESARIAL
9
TALLER DE SISTEMAS
acabar desarrollando más software propietario con licencias restrictivas, que a su vez deberían ser
más adelante aceptadas por sus propios colegas.
Con este antecedente, en 1984, Richard Stallman comenzó a trabajar en el proyecto GNU, y un
año más tarde fundó la Free Software Foundation (FSF). Stallman introdujo la definición de
software libre y el concepto de "copyleft", que desarrolló para otorgar libertad a los usuarios y para
restringir las posibilidades de apropiación del software
Existen varias definiciones similares aceptadas para software,
pero probablemente la más formal sea la siguiente:
Considerando esta definición, el concepto de software va más
allá de los programas de computación en sus distintos
estados: código fuente, binario o ejecutable; también su
documentación, los datos a procesar e incluso la información
de usuario forman parte del software: es decir, abarca todo lo
intangible, todo lo «no físico» relacionado.
El término «software» fue usado por primera vez en este
sentido por John W. Tukey en 1957. En la ingeniería de
software y las ciencias de la computación, el software es toda
la información procesada por los sistemas informáticos:
programas y datos.
El concepto de leer diferentes secuencias de instrucciones (programa) desde la memoria de un
dispositivo para controlar los cálculos fue introducido por Charles Babbage como parte de
su máquina diferencial. La teoría que forma la base de la mayor parte del software moderno fue
propuesta por Alan Turing en su ensayo de 1936, «Los números computables», con una aplicación
al problema de decisión.
STEPHANIE KATHERINE MURILLO TORRESGRUPO 1B GESTION EMPRESARIAL
10
TALLER DE SISTEMAS
ETAPAS EN EL DESARROLLO DEL SOFTWARECaptura, análisis y especificación de requisitos
Al inicio de un desarrollo (no de un proyecto), esta es la primera fase que se realiza, y, según el
modelo de proceso adoptado, puede casi terminar para pasar a la próxima etapa (caso de Modelo
Cascada Realimentado) o puede hacerse parcialmente para luego retomarla (caso Modelo Iterativo
Incremental u otros de carácter evolutivo).
En simple palabras y básicamente, durante esta fase, se adquieren, reúnen y especifican las
características funcionales y no funcionales que deberá cumplir el futuro programa o sistema a
desarrollar.
Las bondades de las características, tanto del sistema o programa a desarrollar, como de su
entorno, parámetros no funcionales y arquitectura dependen enormemente de lo bien lograda que
esté esta etapa. Esta es, probablemente, la de mayor importancia y una de las fases más difíciles
de lograr certeramente, pues no es automatizable, no es muy técnica y depende en gran medida
de la habilidad y experiencia del analista que la realice.
Involucra fuertemente al usuario o cliente del sistema, por tanto tiene matices muy subjetivos y es
difícil de modelar con certeza o aplicar una técnica que sea «la más cercana a la adecuada» (de
hecho no existe «la estrictamente adecuada»). Si bien se han ideado varias metodologías, incluso
software de apoyo, para captura, e licitación y registro de requisitos, no existe una forma infalible o
STEPHANIE KATHERINE MURILLO TORRESGRUPO 1B GESTION EMPRESARIAL
11
TALLER DE SISTEMAS
absolutamente confiable, y deben aplicarse conjuntamente buenos criterios y mucho sentido
común por parte del o los analistas encargados de la tarea; es fundamental también lograr una
fluida y adecuada comunicación y comprensión con el usuario final o cliente del sistema.
El artefacto más importante resultado de la culminación de esta etapa es lo que se conoce
como especificación de requisitos software o simplemente documento ERS.
Como se dijo, la habilidad del analista para interactuar con el cliente es fundamental; lo común es
que el cliente tenga un objetivo general o problema que resolver, no conoce en absoluto el área
(informática), ni su jerga, ni siquiera sabe con precisión qué debería hacer el producto software
(qué y cuantas funciones) ni, mucho menos, cómo debe operar. En otros casos menos frecuentes,
el cliente «piensa» que sabe precisamente lo que el software tiene que hacer, y generalmente
acierta muy parcialmente, pero su empecinamiento entorpece la tarea de e licitación. El analista
debe tener la capacidad para lidiar con este tipo de problemas, que incluyen relaciones humanas;
tiene que saber ponerse al nivel del usuario para permitir una adecuada comunicación y
comprensión.
Escasas son las situaciones en que el cliente sabe con certeza e incluso con completitud lo que
requiere de su futuro sistema, este es el caso más sencillo para el analista.
Las tareas relativas a captura, e licitación, modelado y registro de requerimientos, además de ser
sumamente importante, puede llegar a ser dificultosa de lograr acertadamente y llevar bastante
tiempo relativo al proceso total del desarrollo; al proceso y metodologías para llevar a cabo este
conjunto de actividades normalmente se las asume parte propia de la Ingeniería de Software, pero
dada la antedicha complejidad, actualmente se habla de una Ingeniería en Requisitos10 , aunque
ella aún no existe formalmente.
Hay grupos de estudio e investigación, en todo el mundo, que están exclusivamente abocados a la
idear modelos, técnicas y procesos para intentar lograr la correcta captura, análisis y registro de
requerimientos. Estos grupos son los que normalmente hablan de la Ingeniería en Requisitos; es
decir se plantea ésta como un área o disciplina pero no como una carrera universitaria en sí
misma.
Algunos requisitos no necesitan la presencia del cliente, para ser capturados o analizados; en
ciertos casos los puede proponer el mismo analista o, incluso, adoptar unilateralmente decisiones
que considera adecuadas (tanto en requerimientos funcionales como no funcionales). Por citar
ejemplos probables: Algunos requisitos sobre la arquitectura del sistema, requisitos no funcionales
tales como los relativos al rendimiento, nivel de soporte a errores operativos, plataformas de
desarrollo, relaciones internas o ligas entre la información (entre registros o tablas de datos) a
STEPHANIE KATHERINE MURILLO TORRESGRUPO 1B GESTION EMPRESARIAL
12
TALLER DE SISTEMAS
almacenar en caso de bases o bancos de datos, etc. Algunos funcionales tales como opciones
secundarias o de soporte necesarias para una mejor o más sencilla operatividad; etc.
La obtención de especificaciones a partir del cliente (u otros actores intervinientes) es un proceso
humano muy interactivo e iterativo; normalmente a medida que se captura la información, se la
analiza y realimenta con el cliente, refinándola, puliéndola y corrigiendo si es necesario; cualquiera
sea el método de ERS utilizado. EL analista siempre debe llegar a conocer la temática y el
problema que resolver, dominarlo, hasta cierto punto, hasta el ámbito que el futuro sistema a
desarrollar lo abarque. Por ello el analista debe tener alta capacidad para comprender problemas
de muy diversas áreas o disciplinas de trabajo (que no son específicamente suyas); así por
ejemplo, si el sistema a desarrollar será para gestionar información de una aseguradora y sus
sucursales remotas, el analista se debe compenetrar en cómo ella trabaja y maneja su información,
desde niveles muy bajos e incluso llegando hasta los gerenciales. Dada a gran diversidad de
campos a cubrir, los analistas suelen ser asistidos por especialistas, es decir gente que conoce
profundamente el área para la cual se desarrollará el software; evidentemente una única persona
(el analista) no puede abarcar tan vasta cantidad de áreas del conocimiento. En empresas grandes
de desarrollo de productos software, es común tener analistas especializados en ciertas áreas de
trabajo.
Es bien conocida la presión que sufren los
desarrolladores de sistemas informáticos para
comprender y rescatar las necesidades de
los clientes/usuarios. Cuanto más complejo es el
contexto del problema más difícil es lograrlo, a
veces se fuerza a los desarrolladores a tener que
convertirse en casi expertos de los dominios
que analizan.
Cuando esto no sucede es muy probable
que se genere un conjunto de
requisitos erróneos o incompletos y por lo tanto un producto de software con alto grado de
desaprobación por parte de los clientes/usuarios y un altísimo costo de reingeniería y
mantenimiento. Todo aquello que no se detecte, o resulte mal entendido en la etapa inicial
provocará un fuerte impacto negativo en los requisitos, propagando esta corriente degradante a lo
largo de todo el proceso de desarrollo e incrementando su perjuicio cuanto más tardía sea su
detección (Bell y Thayer 1976) (Davis 1993).
STEPHANIE KATHERINE MURILLO TORRESGRUPO 1B GESTION EMPRESARIAL
13
TALLER DE SISTEMAS
MODELOS DE PROCESO O CICLO DE VIDA
Para cada una de las fases o etapas listadas en el ítem anterior, existen sub-etapas (o tareas).
El modelo de proceso o modelo de ciclo de vida utilizado para el desarrollo define el orden para las
tareas o actividades involucradas también definen la coordinación entre ellas, enlace y
realimentación entre las mencionadas etapas. Entre los más conocidos se puede
mencionar: modelo en cascada o secuencial, modelo espiral, modelo iterativo incremental. De los
antedichos hay a su vez algunas variantes o alternativas, más o menos atractivas según sea la
aplicación requerida y sus requisitos
INSTALACIÓN Y PASO A PRODUCCIÓN
La instalación del software es el proceso por el cual los programas desarrollados son transferidos
apropiadamente al computador destino, inicializados, y, eventualmente, configurados; todo ello con
el propósito de ser ya utilizados por el usuario final. Constituye la etapa final en el desarrollo
propiamente dicho del software. Luego de ésta el producto entrará en la fase de funcionamiento y
producción, para el que fuera diseñado.
La instalación, dependiendo del sistema desarrollado,
puede consistir en una simple copia al disco rígido destino
(casos raros actualmente); o bien, más comúnmente, con
una de complejidad intermedia en la que los distintos
archivos componentes del software
(ejecutables, bibliotecas, datos propios, etc.)
son descomprimidos y copiados a lugares específicos
preestablecidos del disco; incluso se crean vínculos con
otros productos, además del propio sistema operativo. Este
último caso, comúnmente es un proceso bastante
automático que es creado y guiado con herramientas software específicas (empaquetado y
distribución, instaladores).En productos de venta masiva las instalaciones completas, si son
relativamente simples, suelen ser realizadas por los propios usuarios finales (tales como sistemas
operativos, paquetes de oficina, utilitarios, etc.) con herramientas propias de instalación guiada;
incluso la configuración suele ser automática. En productos de diseño específico o «a medida» la
instalación queda restringida, normalmente, a personas especialistas involucradas en el desarrollo
del software en cuestión.
STEPHANIE KATHERINE MURILLO TORRESGRUPO 1B GESTION EMPRESARIAL