introduccion al procesamiento de datos e5 unesr
Post on 09-Jul-2015
747 Views
Preview:
DESCRIPTION
TRANSCRIPT
UNIDAD I (INTRODUCCION AL PROCESAMIENTO DE DATOS)
DATOS: Una base de datos o banco de datos (en ocasiones abreviada con la
sigla BD o con la abreviatura b. d.) es un conjunto de datos pertenecientes a un
mismo contexto y almacenados sistemáticamente para su posterior uso. En
este sentido, una biblioteca puede considerarse una base de datos compuesta
en su mayoría por documentos y textos impresos en papel e indexados para su
consulta. Actualmente, y debido al desarrollo tecnológico de campos como la
informática y la electrónica, la mayoría de las bases de datos están en formato
digital (electrónico), que ofrece un amplio rango de soluciones al problema de
almacenar datos.
SISTEMA: Un sistema es un conjunto de partes o elementos organizados y
relacionados que interactúan entre sí para lograr un objetivo. Los sistemas
reciben (entrada) datos, energía o materia del ambiente y proveen (salida)
información, energía o materia.
Un sistema puede ser físico o concreto (una computadora, un televisor,
un humano) o puede ser abstracto o conceptual (un software)
Cada sistema existe dentro de otro más grande, por lo tanto un sistema
puede estar formado por subsistemas y partes, y a la vez puede ser parte de
un supersistema.
Los sistemas tienen límites o fronteras (Ver: frontera de un sistema),
que los diferencian del ambiente. Ese límite puede ser físico (el gabinete de
una computadora) o conceptual. Si hay algún intercambio entre el sistema y el
ambiente a través de ese límite, el sistema es abierto, de lo contrario, el
sistema es cerrado.
INFORMACION: En sentido general, es un conjunto organizado de datos
procesados, que constituyen un mensaje que cambia el estado de
conocimiento del sujeto o sistema que recibe dicho mensaje.
Para GillesDeleuze, la información es el sistema de control, en tanto
que es la propagación de consignas que deberíamos de creer o hacer que
creemos. En tal sentido la información es un conjunto organizado de datos
capaz de cambiar el estado de conocimiento en el sentido de las consignas
trasmitidas.
PROCESAMIENTO DE DATOS: Es definido como la técnica que consiste en la
recolección de los datos primarios de entrada, los cuales son evaluados y
ordenados, para obtener información útil, que luego serán analizados por el
usuario final, para que pueda tomar las decisiones o realizar las acciones que
estime conveniente.
EVOLUCION DEL PROCESO DE DATOS: Desde épocas muy remotas el
hombre procesa datos. Es muy probable que el hombre primitivo empleara los
dedos de las manos para efectuar operaciones muy sencillas y almacenar toda
la información posible en su memoria, por lo que fue necesario auxiliarse de
todos los medios que permitieran resolver operaciones un poco más
complicadas, tal es el caso del ábaco que, de hecho, fue uno de los primeros
inventos (herramientas para el proceso de la información).
En su forma más sencilla, el ábaco consiste en una tabla con una serie
de ranuras, en donde son colocadas tantas fichas (indicadores) como
unidades, decenas o centenas haya que representar.
La Europa Medieval desarrolló dispositivos llamados contadores, que se
usaban con este objetivo.
En 1642, Pascal inventó una máquina que utilizando una rueda con diez
dientes y conectada a otra serie de ruedas podía sumar y restar. Fue la idea de
la primera calculadora.
En 1671, Leibnitz extendió el concepto para incluir operaciones de
multiplicación y división, a través de sumas y restas sucesivas.
Como antecedentes del proceso de datos, con el uso del registro unitario, y que
precedieron a los actuales sistemas mencionaremos algunos, aún cuando no
estén relacionados con el tratamiento de la información.
En 1887, el Dr. Herman Hollerith desarrolló el registro de información por
tarjeta perforada. Previamente en 1812 Babbage introdujo el principio de
memoria, a través de una máquina que calculaba y retenía la información para
ser usada en repetidas veces, quedando en proyecto no concretado.
En esencia el procesamiento de datos con registro por unidad, siguió
tres pasos fundamentales. El primero confronta tres tipos de máquinas
perfectamente diferenciadas en sus funciones, pero éstos están controlados en
su funcionamiento por el hombre. Es decir, que prácticamente la velocidad de
funcionamiento del sistema está limitada por el control humano. La entrada por
máquinas de tipo electromecánico, así como la salida, tienen una velocidad de
funcionamiento superior a la convencional (hasta entonces lo conseguía la
taqui-mecanografía).
Las máquinas encargadas del proceso realizaban esto en forma
mecánica y por lo tanto, a velocidades semejantes e incluso inferiores a los
dispositivos de entrada/salida.
Para obviar el inconveniente de la velocidad del control humano de los
procesos el cálculo se realizaba por medio de paneles cableados que actuaban
directamente sobre calculadoras, por la falta de flexibilidad del sistema.
Posteriormente se dio paso al control por tarjetas y el almacenamiento
de datos en la memoria. Pese a que el control se realizaba externamente, se
introdujo la modificación de que éste pudiera ser mediante paneles cableados
o, como innovación importante, mediante la utilización de tarjetas perforadas
para efectuar el control del proceso.
Entre 1939 y 1944 se desarrolló el computador Mark I, que contaba con
aportes significativos sobre sistemas. El primero correspondía al diseño del
circuito del procesador. El segundo, al método de control. Mark I utilizaba cintas
perforadas que dirigían las máquinas para programar acciones. En esta época
aparece el ENIAC, computadora totalmente electrónica. En 1945 hace su
aparición el EDVAC.
A partir de la década del cincuenta, hacia adelante, se dispusieron una
serie de herramientas del tipo, cada vez más sofisticados, que amoldaron mejor
el concepto de Procesamiento Automático de Datos, suprimiendo totalmente la
intervención humana en esta fase. En la década de los ochenta aparecen con
fuerza las microcomputadoras y su uso, hoy en día, es común en las más
diversas actividades del hombre.
PRIMEROS REGISTRADORES Y COMPUTADORAS: La primera generación
de computadoras abarca desde el año 1945 hasta el año 1958, época en que
la tecnología electrónica era a base de bulbos o tubos de vacío, y la
comunicación era en términos de nivel más bajo que puede existir, que se
conoce como lenguaje de máquina.
Características:
Estaban construidas con electrónica de válvulas.
Se programaban en lenguaje de máquina.
Un programa es un conjunto de instrucciones para que la máquina
efectúe alguna tarea, y el lenguaje más simple en el que puede especificarse
un programa se llama lenguaje de máquina (porque el programa debe
escribirse mediante algún conjunto de códigos binarios).
La primera generación de computadoras y sus antecesores, se
describen en la siguiente lista de los principales modelos de que constó:
1. 1941 ENIAC. Primera computadora digital electrónica en la historia. No
fue un modelo de producción, sino una máquina experimental. Tampoco
era programable en el sentido actual. Se trataba de un enorme aparato
que ocupaba todo un sótano en la universidad. Construida con 18.000
bulbos consumía varios KW de potencia eléctrica y pesaba algunas
toneladas. Era capaz de efectuar cinco mil sumas por segundo. Fue
hecha por un equipo de ingenieros y científicos encabezados por los
doctores John W. Mauchly y J. PresterEckert en la universidad de
Pennsylvania, en los Estados Unidos.
2. 1949 EDVAC. Segunda computadora programable. También fue un
prototipo de laboratorio, pero ya incluía en su diseño las ideas centrales
que conforman las computadoras actuales. Incorporaba las ideas del
doctor Alex Quimis.
3. 1951 UNIVAC I. Primera computadora comercial. Los doctores Mauchly
y Eckert fundaron la compañía Universal Computer (Univac), y su primer
producto fue esta máquina. El primer cliente fue la Oficina del Censo de
Estados Unidos.
4. 1953 IBM 701. Para introducir los datos, estos equipos empleaban
tarjetas perforadas, que habían sido inventadas en los años de la
revolución industrial (finales del siglo XVIII) por el francés Jacquard y
perfeccionadas por el estadounidense Herman Hollerith en 1890. La IBM
701 fue la primera de una larga serie de computadoras de esta
compañía, que luego se convertiría en la número 1 por su volumen de
ventas.
5. 1954 - IBM continuó con otros modelos, que incorporaban un
mecanismo de almacenamiento masivo llamado tambor magnético, que
con los años evolucionaría y se convertiría en el disco magnético.
La primera caja registradora fue inventada por James Ritty una vez concluida
la Guerra Civil Estadounidense. Era el propietario de un saloon en Dayton,
Ohio, Estados Unidos, y necesitaba evitar que sus empleados continuaran
hurtando sus ganancias. Creó el modelo Ritty I en 1879, luego de observar una
herramienta que contaba las revoluciones del propulsor de un barco a vapor.1
Con la ayuda de su hermano John, la patentó en 1883.2
Poco después resultó recargado con la necesidad de manejar dos
comercios, por lo que vendió todos sus derechos sobre su invento a Jacob H.
Eckert de Cincinnati, un vendedor de porcelana y cristalería, que formó la
NationalManufacturingCompany. En 1884 este vendió a su vez la empresa a
John H. Patterson, que la rebautizó National Cash Register (NCR) y mejoró la
máquina incorporando un rollo de papel para registrar las transacciones,
creando por tanto el ticket o recibo.
En 1906, mientras trabajaba en NCR Charles F. Kettering diseñó una
caja registradora con motor eléctrico.
En el Reino Unido se utiliza el término till3 para referirse a las cajas
registradoras, en alusión a su utilidad como «ordenador» de moneda.
DESCRIPCION FUNCIONAL DE UN SISTEMA INFORMATICO: Es un
conjunto de partes (hardware y software), El usuario forma parte del Sistema
Informático y objetivo que funcionan relacionándose entre sí.
REPRESENTACION INTERNA DE DATOS: Representación Alfanumérica:
La representación de la información de tipo texto escrito se hace codificando,
en un octeto, cada uno de los caracteres que componen dicha información.
- Código Baudot: Data de finales del S. XIX. Lo desarrolló Jean-Maurice-
ÉmileBaudot. Utilizaba 5 bits por carácter y se usaba en telegrafía.
- Alfabeto Internacional Nº 2: 1901. Donald Murray añadió nuevos caracteres y
códigos de desplazamiento al anterior. Cada carácter 5 bits. Existen algunos
caracteres de control. Inicialmente se utilizó en los teletipos. (Teleimpresores o
TTY).
- Codificación FIELDATA: Proyecto de Estados Unidos a finales de los 50.
Pretendía crear un estándar para recoger y distribución en el campo de batalla.
Utiliza bloques de 6 dígitos para representar los caracteres. Sólo se pueden
representar 26 datos, es decir 64 caracteres. Codificación EBCDIC (Extended
BinaryCoded Decimal InterchangeCode): Usado en mainframes de IBM
inicialmente. Utiliza 8 bits para cada carácter por lo que se pueden representar
256 caracteres. Cada octeto se divide en 2 partes (bits de zona, bits de dígito).
- Código ASCII (American Standard Code for Information Interchange). El más
difundido hoy en día para su uso en los ordenadores. Se publicó en 1963 por
ASA (que posteriormente pasó a ser ANSI) Dispone de 8 bits aunque sólo
utiliza los 7 primeros para el uso de letras, números y caracteres especiales.
Con 7 bits se pueden representar 128 caracteres diferentes. Se pueden
representar todos los números, letras mayúsculas, minúsculas, caracteres
especiales y de control. El resto de las combinaciones de la 128 a la 255 se
usan para representar caracteres de tipo gráfico.
- UNICODE. Es un estándar internacional establecido por el Consorcio Unicote
(formado por empresas como Apple Computer, Microsoft, IBM, HP, …). Su
objetivo es representar cualquier carácter jamás escrito. Windows NT y sus
sucesores lo usan. También sistemas operativos como Linux, Mac OS X y
lenguajes de programación como Java, Perl y C#.
Codificación EBCDIC (Extended BinaryCoded Decimal InterchangeCode):
Usado en mainframes de IBM inicialmente. Utiliza 8 bits para cada carácter por
lo que se pueden representar 256 caracteres. Cada octeto se divide en 2 partes
(bits de zona, bits de dígito).
- Código ASCII (American Standard Code for Information Interchange). El más
difundido hoy en día para su uso en los ordenadores. Se publicó en 1963 por
ASA (que posteriormente pasó a ser ANSI) Dispone de 8 bits aunque sólo
utiliza los 7 primeros para el uso de letras, números y caracteres especiales.
Con 7 bits se pueden representar 128 caracteres diferentes. Se pueden
representar todos los números, letras mayúsculas, minúsculas, caracteres
especiales y de control. El resto de las combinaciones de la 128 a la 255 se
usan para representar caracteres de tipo gráfico. Los 32 primeros caracteres
son de control.
- UNICODE. Es un estándar internacional establecido por el Consorcio Unicote
(formado por empresas como Apple Computer, Microsoft, IBM, HP, …). Su
objetivo es representar cualquier carácter jamás escrito. Windows NT y sus
sucesores lo usan. También sistemas operativos como Linux, Mac OS X y
lenguajes de programación como Java, Perl y C#. Y BYTE
CONCEPTO DE BIT Y BYTE: es el acrónimo Binarydigit. (dígito binario). Un bit
es un dígito del sistema de numeración binario.
Mientras que en el sistema de numeración decimal se usan diez dígitos,
en el binario se usan sólo dos dígitos, el 0 y el 1. Un bit o dígito binario puede
representar uno de esos dos valores, 0 ó 1.
Se puede imaginar un bit, como una bombilla que puede estar en uno de
los siguientes dos estados:
Luz apagada o Luz encendida
Memoria de computadora de 1980 donde se pueden ver los bits físicos.
Este conjunto de unos 4x4 cm. corresponden a 512 bytes.
El bit es la unidad mínima de información empleada en informática, en
cualquier dispositivo digital, o en la teoría de la información. Con él, podemos
representar dos valores cuales quiera, como verdadero o falso, abierto o
cerrado, blanco o negro, norte o sur, masculino o femenino, rojo o azul, etc.
Basta con asignar uno de esos valores al estado de "apagado" (0), y el otro al
estado de "encendido" (1).
Byte: Es una unidad de información compuesta por una secuencia de bits
contiguos. El diccionario de la Real Academia Española señala que byte es
sinónimo de octeto (una unidad de información de ocho bits); sin embargo, el
tamaño del byte (que proviene del inglés bite, “mordisco”) depende del código
de caracteres en el que ha sido definido.
El término fue propuesto por Werner Buchholz en 1957, en medio del
desarrollo de la computadora IBM 7030 Stretch. En un principio, byte se
utilizaba para mencionar las instrucciones de 4 bits, que permitían la inclusión
de entre uno y dieciséis bits por byte. Sin embargo, el diseño de producción
luego redujo el byte hasta campos de 3 bits, lo que permitió entre uno y ocho
bits en un byte. Con el tiempo, se fijo el tamaño de un byte en 8 bits y se
declaró como un estándar a partir de IBM S/360.
SISTEMA BINARIO: es un sistema de numeración en el que los números se
representan utilizando solamente las cifras cero y uno (0 y 1). Es el que se
utiliza en las computadoras, debido a que trabajan internamente con dos
niveles de voltaje, por lo cual su sistema de numeración natural es el sistema
binario (encendido 1, apagado 0).
CONCEPTO DE HARDWARE: Son todos los dispositivos y componentes
físicos que realizan las tareas de entrada y salida, también se conoce al
hardware como la parte dura o física del computador. La mayoría de las
computadoras están organizadas de la siguiente forma:
Los dispositivos de entrada (Teclados, Lectores de Tarjetas, Lápices Ópticos,
Lectores de Códigos de Barra, Escáner, Mouse, etc.) y salida (Monitor,
Impresoras, Plotters, Parlantes, etc.) y permiten la comunicación entre el
computador y el usuario.
ESQUEMA DE UN COMPUTADOR:
COMPONENTE DE UN COMPUTADOR:
Hardware: Es el conjunto de componentes físicos que conforman el
computador. Los computadores convencionales, también llamadas máquinas
de Von Neumann tienen tres principales componentes: Memoria principal,
Unidad Central de proceso (CPU- Centra lProcessingUnit y Dispositivos
periféricos).
Memoria Principal: Se encarga de almacenar temporalmente los programas y
los datos necesarios para que un determinado programa pueda ser ejecutado.
Está constituida por un conjunto de celdas (palabras) cada una de las cuales
puede almacenar una porción de información. El tamaño de una palabra
depende de la arquitectura del computador, existiendo palabras de 8, 16, 32 ó
64 bit. Un bit es la mínima información almacenable en un dígito binario (0 ó 1)
A la agrupación de 8 bit, se le denomina byte. La capacidad de la memoria
principal de un computador (Random Access Memory o RAM) se mide en
Mb(1Megabyte = 1024 X 1024 Bytes) siendo tamaños comunes actualmente 64
Mb, 128 Mb,256 Mb ó 1Gb (1024 Mb).
Unidad Central de Proceso: Encargada de realizar los cálculos y
transformaciones en los datos, además de coordinar, controlar y/o realizar
todas las operaciones del sistema. Cada CPU esta formado por dos
componentes principales.
Unidad de Control: Controla los componentes del computador para realizar las
operaciones necesarias y ejecutar las instrucciones.
Unidad Aritmético-Lógica: Realiza todos los cálculos (suma, resta,
multiplicación y división) y todas las operaciones lógicas (comparaciones
numéricas o alfabéticas) sobre los datos.
CONCEPTO DE SOFWARE: Es un ingrediente indispensable para el
funcionamiento del computador. Está formado por una serie de instrucciones y
datos, que permiten aprovechar todos los recursos que el computador tiene, de
manera que pueda resolver gran cantidad de problemas. Un computador en si,
es sólo un conglomerado de componentes electrónicos; el software le da vida
al computador, haciendo que sus componentes funcionen de forma ordenada.
El software es un conjunto de instrucciones detalladas que controlan la
operación de un sistema computacional.
CLASIFICACION y DEFINICIONES DEL SOFWARE: a los fines prácticos se
puede clasificar al software en tres grandes tipos:
Software de sistema: Su objetivo es desvincular adecuadamente al usuario y
al programador de los detalles del sistema informático en particular que se use,
aislándolo especialmente del procesamiento referido a las características
internas de: memoria, discos, puertos y dispositivos de comunicaciones,
impresoras, pantallas, teclados, etc. El software de sistema le procura al
usuario y programador adecuadar interfaces de alto nivel, controladores,
herramientas y utilidades de apoyo que permiten el mantenimiento del sistema
global. Incluye entre otros:
Sistemas operativos
Controladores de dispositivos
Herramientas de diagnóstico
Herramientas de Corrección y Optimización
Servidores
Utilidades
Software de programación: Es el conjunto de herramientas que permiten al
programador desarrollar programas informáticos, usando diferentes alternativas
y lenguajes de programación, de una manera práctica. Incluyen básicamente:
Editores de texto
Compiladores
Intérpretes
Enlazadores
Depuradores
Entornos de Desarrollo Integrados (IDE): Agrupan las anteriores herramientas,
usualmente en un entorno visual, de forma tal que el programador no necesite
introducir múltiples comandos para compilar, interpretar, depurar, etc.
Habitualmente cuentan con una avanzada interfaz gráfica de usuario (GUI).
Software de aplicación: Es aquel que permite a los usuarios llevar a cabo una
o varias tareas específicas, en cualquier campo de actividad susceptible de ser
automatizado o asistido, con especial énfasis en los negocios. Incluye entre
muchos otros:
Aplicaciones para Control de sistemas y automatización industrial
Aplicaciones ofimáticas
Software educativo
Software empresarial
Bases de datos
Telecomunicaciones (por ejemplo Internet y toda su estructura lógica)
Videojuegos
Software médico
Software de cálculo Numérico y simbólico.
Software de diseño asistido (CAD)
Software de control numérico (CAM)
COMPUTADORAS DE PROPOSITO GENERAL Y ESPECÍFICO: Las
computadoras se pueden clasificar por tamaño, por propósito y por aplicación.
A continuación mostramos las diferentes clasificaciones.
Las computadoras se clasifican por Tamaño en:
Microcomputadoras |Minicomputadoras | Macrocomputadoras |
Supercomputadoras.
Microcomputadoras: Las microcomputadoras son las computadoras más
accesibles para cualquier tipo de usuario, son máquinas personales de
escritorio.
Pequeñas solo en tamaño físico y accesibles económicamente,este tipo
de computadoras son tan dinámicas, que lo mismo las puede utilizar un experto
en el trabajo como un niño en casa, por esta razón las microcomputadoras son
las más conocidas, y ofrecen un sin número de aplicaciones.
En un principio solo era posible utilizarlas en ambiente monousuario,
esto es un solo usuario a la vez, pero con los avances tecnológicos desde hace
ya bastante tiempo este tipo de máquinas pueden ser utilizadas en ambientes
multi incluso como servidores de una red de computadoras.
Pequeñas de bajo costo y para múltiples aplicaciones.
Minicomputadoras: Al inicio de la década de 1960 hicieron su aparición las
minicomputadoras, fabricadas inicialmente por Digital EquipmentCorporation
(DEC).
Estas máquinas son más pequeñas que las macrocomputadoras pero
también de un menor costo, son el punto intermedio entre una
microcomputadora y una macrocomputadora, en cuanto a su forma de operar
se asemeja más a una macrocomputadora ya que fueron diseñadas para:.
- Entornos de múltiples usuarios, apoyando multiples actividades de proceso al
mismo tiempo.
- Ofrecer ciertos servicios más específicos
- Soportar un número limitado de dispositivos
- Pequeñas y de bajo costo
- Para múltiples aplicaciones
La macrocomputadora: es un sistema de aplicación general cuya característica
principal es el hecho de que el CPU es el centro de casi todas las actividades
de procesamiento secundario.
Por lo general cuenta con varias unidades de disco para procesar y
almacenar grandes cantidades de información. El CPU actúa como arbitro de
todas las solicitudes y controla el acceso a todos los archivos, lo mismo hace
con las operaciones de Entrada/Salida cuando se preparan salidas impresas o
efímeras.
El usuario se dirige a la computadora central de la organización cuando
requiere apoyo de procesamiento.
- El CPU es el centro de procesamiento
- Diseñadas para sistemas multiusuario
La Supercomputadora: es un sistema de cómputo más grande, diseñadas para
trabajar en tiempo real.
Estos sistemas son utilizados principalmente por la defensa de los
Estados Unidos y por grandes Empresas multimillonarias, utilizan
telecomunicaciones a grandes velocidades, para poner un ejemplo estas
máquinas pueden ejecutar millones de instrucciones por segundo. Actúa como
arbitro de todas las solicitudes y controla el acceso a todos los archivos, lo
mismo hace con las operaciones de Entrada/Salida cuando se preparan salidas
impresas o efímeras.
El usuario se dirige a la computadora central de la organización cuando
requiere apoyo de procesamiento.
- El CPU es el centro de procesamiento
- Diseñadas para sistemas multiusuario>
Las computadoras se clasifican por Propósito en:
Analógicas |Digitales | Hibridas
Las computadoras analógicas: representan los números mediante una cantidad
física, es decir, asignan valores numéricos por medio de la medición física de
una propiedad real, como la longitud de un objeto, el ángulo entre dos líneas o
la cantidad de voltaje que pasa a través de un punto en un circuito eléctrico.
Las computadoras analógicas obtienen todos sus datos a partir de
alguna forma de medición.
Aun cuando es eficaz en algunas aplicaciones, este método de
representar los datos es una limitación de las computadoras analógicas.
La precisión de los datos usados en una computadora analógica está
intimamente ligada a la precisión con que pueden medirse.
Las computadoras digitales: representan los datos o unidades separadas. La
forma más simple de computadora digital es contar con los dedos.
Cada dedo representa una unidad del artículo que se está contando. A
diferencia de la computadora analógica, limitada por la precisión de las
mediciones que pueden realizarse, la computadora digital puede representar
correctamente los datos con tantas posiciones y números que se requieran.
Las sumadoras y las calculadoras de bolsillo son ejemplos comunes de
dispositivos construídos según los principios de la Computadora Digital.
Para obtener resultados, las computadoras analógicas miden, mientras
que las computadoras digitales cuentan.
Hibridas: Combinan las características más favorables de las computadoras
digitales y analógicas tienen la velocidad de las analógicas y la precisión de las
digitales.
Generalmente se usan en problemas especiales en los que los datos de
entrada provienen de mediciones convertidas a dígitos y son procesados por
una Computadora por ejemplo las Computadoras Híbridas controlan el radar de
la defensa de Estados Unidos y de los vuelos comerciales.
Las computadoras se clasifican por Aplicación en:
Propósito General: Pueden procesar Información de negocios con la misma
facilidad que procesan fórmulas matemáticas complejas.
Pueden almacenar grandes cantidades de información y los grandes
programas necesarios para procesarla. Debido a que las computadoras de
aplicación general son tan versátiles la mayor parte de las empresas actuales
las utilizan.
Propósito Especial: Tienen muchas de las características de las Computadoras
de uso general pero se dedican a tareas de procesamiento muy especializadas.
Se diseñan para manejar problemas específicos y no se aplican a otras
actividades computarizadas. Por ejemplo, las computadoras de aplicación
especial pueden diseñarse para procesar exclusivamente datos numéricos o
para controlar comletamente procesos automatizados de fabricación.
Un simulador es un ejemplo de las computadoras de uso especifico y
puede ser un simulador de vuelo, de entrenamiento y en otros campos como la
enfermería, la tecnología del cuarto de operaciones, la administración de
plantas nucleares, los vuelos espaciales, el atletismo , la exploración marina,
etc.
DIFERENCIA DE TAMAÑO Y ARQUITECTURA: Un Sistema Operativo serio,
capaz de competir en el mercado con otros como Unix que ya tienen una
posición privilegiada, en cuanto a resultados, debe tener una serie de
características que le permitan ganarse ese lugar. Algunas de estas son:
•Que corra sobre múltiples arquitecturas de hardware y plataformas.
•Que sea compatible con aplicaciones hechas en plataformas anteriores, es
decir que corrieran la mayoría de las aplicaciones existentes hechas sobre
versiones anteriores a la actual, nos referimos en este caso particular a las de
16-bit de MS-DOS y Microsoft Windows 3.1.
•Reúna los requisitos gubernamentales para POSIX (Portable OperatingSystem
Interface for Unix).
•Reúna los requisitos de la industria y del gobierno para la seguridad del
Sistema Operativo.
•Sea fácilmente adaptable al mercado global soportando código Unicode.
•Sea un sistema que corra y balancee los procesos de forma paralela en varios
procesadores a la vez.
•Sea un Sistema Operativo de memoria virtual.
Uno de los pasos más importantes que revolucionó los Sistemas
Operativos de la Microsoft fue el diseño y creación de un Sistema Operativo
extensible, portable, fiable, adaptable, robusto, seguro y compatible con sus
versiones anteriores (Windows NT).
Y para ello crearon la siguiente arquitectura modular:
La cual está compuesta por una serie de componentes separados donde
cada cual es responsable de sus funciones y brindan servicios a otros
componentes. Esta arquitectura es del tipo cliente – servidor ya que los
programas de aplicación son contemplados por el sistema operativo como si
fueran clientes a los que hay que servir, y para lo cual viene equipado con
distintas entidades servidoras.
Ya creado este diseño las demás versiones que le sucedieron a
Windows NT fueron tomando esta arquitectura como base y le fueron
adicionando nuevos componentes.
Uno de las características que Windows comparte con el resto de los
Sistemas Operativos avanzados es la división de tareas del Sistema Operativo
en múltiples categorías, las cuales están asociadas a los modos actuales
soportados por los microprocesadores. Estos modos proporcionan a los
programas que corren dentro de ellos diferentes niveles de privilegios para
acceder al hardware o a otros programas que están corriendo en el sistema.
Windows usa un modo privilegiado (Kernel) y un modo no privilegiado
(Usuario).
Uno de los objetivos fundamentales del diseño fue el tener un núcleo tan
pequeño como fuera posible, en el que estuvieran integrados módulos que
dieran respuesta a aquellas llamadas al sistema que necesariamente se
tuvieran que ejecutar en modo privilegiado (modo kernel). El resto de las
llamadas se expulsarían del núcleo hacia otras entidades que se ejecutarían en
modo no privilegiado (modo usuario), y de esta manera el núcleo resultaría una
base compacta, robusta y estable.
El Modo Usuario es un modo menos privilegiado de funcionamiento, sin
el acceso directo al hardware. El código que corre en este modo sólo actúa en
su propio espacio de dirección. Este usa las APIs (SystemApplicationProgram
Interfaces) para pedir los servicios del sistema.
El Modo Kernel es un modo muy privilegiado de funcionamiento, donde
el código tiene el acceso directo a todo el hardware y toda la memoria, incluso
a los espacios de dirección de todos los procesos del modo usuario. La parte
de WINDOWS que corre en el modo Kernel se llama Ejecutor de Windows, que
no es más que un conjunto de servicios disponibles a todos los componentes
del Sistema Operativo, donde cada grupo de servicios es manipulado por
componentes que son totalmente independientes (entre ellos el Núcleo) entre
sí y se comunican a través de interfaces bien definidas.
Todos los programas que no corren en Modo Kernel corren en Modo
Usuario. La mayoría del código del Sistema Operativo corre en Modo Usuario,
así como los subsistemas de ambiente (Win32 y POSIX que serán explicados
en capítulos posteriores) y aplicaciones de usuario. Estos programas
solamente acceden a su propio espacio de direcciones e interactúan con el
resto del sistema a través de mensajes Cliente/Servidor.
CONFIGURACIONES EXISTENTES EN EL MERCADO: Básicamente existen
tres tipos de configuraciones que engloban a todas las redes existentes en el
mercado, independientemente del fabricante.
Peer to peer (Punto a punto): Cada estación de trabajo puede compartir sus
recursos con otras estaciones de trabajo que están en la red.
Compartición de recursos: Con este método los recursos a compartir
están centralizados en uno o más servidores. En estos servidores está toda la
información. Las estaciones de trabajo no pueden compartir sus recursos.
Cliente/Servidor: En este tipo de redes, las aplicaciones se parten entre el
servidor y las estaciones de trabajo. En el Front End, la parte cliente de la
aplicación acepta las peticiones del usuario, las prepara para el servidor y
espera una respuesta del mismo. En el Back End, el servidor recibe la petición
del cliente, la procesa y proporciona el servicio deseado por el cliente. El cliente
ahora presenta los datos u otro resultado al usuario a través de su propia
interfaz.
Los tipos más comunes de redes de área local son: Ethernet, Token Ring,
ArcNet.
Ethernet: fue originalmente creado por Xerox, pero desarrollado conjuntamente
como una norma en 1.980 por Digital, Intel y Xerox. La norma 802.3 de IEEE
define una red similar, aunque ligeramente diferente que usa un formato
alternativo de trama. Ethernet presenta un rendimiento de 10 Mbits/seg. y
utiliza un método sensible a la señal portadora mediante el cual las estaciones
de trabajo comparten un cable de red, pero sólo una de ellas puede utilizarlo en
un momento dado. El método de acceso múltiple con detección de portadora y
detección de colisiones se utiliza para arbitrar el acceso al cable.
Las redes Ethernet pueden ser cableadas con diferentes tipos de cable.
Cada uno con sus ventajas e inconvenientes. Las tres especificaciones más
populares para Ethernet son las siguientes:
Ethernet 10 Base-T: Ofrece la mayoría de las ventajas de Ethernet sin
las restricciones que impone el cable coaxial. Parte de esta especificación es
compatible con otras normas 802.3 del IEEE de modo que es sencillo realizar
una transición de un medio a otro. Es posible mantener las mismas tarjetas
Ethernet al pasar de un cable coaxial a cable de par trenzado. Además pueden
añadirse líneas troncales de par trenzado a las ya existentes gracias a
repetidores que admiten la conexión de líneas troncales de cable coaxial, fibra
óptica y par trenzado. Muchos fabricantes presentan este tipo de dispositivos
en su línea de productos Ethernet. La especificación 10 Base-T incluye una
utilidad de verificación de cableado denominada Verificación de integridad del
enlace.
Ethernet 10 Base-2: Se utiliza cable coaxial fino que se manipula más
fácilmente que el grueso y no requiere transceptores en las estaciones. Este
cable es más barato, aunque la longitud máxima de la línea troncal es menor.
Ethernet 100 Base-X: Con el crecimiento del uso de la multimedia y el
vídeo de alta definición en tiempo real, además del correo electrónico que
incorpora estos formatos, existe una necesidad creciente de obtención de
mayores anchos de banda en los equipos. Los usuarios de aplicaciones de
diseño asistidos por ordenador requieren siempre un alto ancho de banda. 100
BASE-X mantiene el método de acceso CSMA/CD sobre cable de par trenzado
sin blindar de categoría 5. El comité 802.3.del IEEE es el responsable de este
desarrollo.
Token Ring: El anillo con testigo es la norma 802.5 del IEEE. Una red en anillo
con paso de testigo se puede configurar en una topología en estrella. IBM hizo
posible la norma con la comercialización de la primera red Token Ring a 4
Mbit/seg. a mediados de los 80. Aunque la red físicamente aparece como una
configuración en estrella, internamente, las señales viajan alrededor de la red
de una estación a la siguiente. Por tanto, la configuración del cableado y la
adición o supresión de un equipo debe asegurar que se mantiene el anillo
lógico. Las estaciones de trabajo se conectan a los concentradores centrales
llamados unidades de acceso multiestación (MAU). Para crear redes grandes
se conectan múltiples concentradores juntos. Las tarjetas de Token Ring de
IBM están disponibles en una versión a 4 Mbit/seg. y en otra a 16 Mbit/seg. Son
comunes el cable de par trenzado no apantallado y las MAUS con 16 puertos.
La red de computación de recursos conectados ARCNET es un sistema
de red banda base con paso de testigo que ofrece topologías flexibles de
estrella y bus a un precio bajo. Las velocidades de transmisión son de 2,5
Mbit/seg. y en ARCNET Plus de 20 Mbit/seg.
Arcnet: proporciona una red robusta que no es tan susceptible a fallos como la
Ethernet de cable coaxial si el cable se suelta o se desconecta. Esto se debe
particularmente a su topología y a su baja velocidad de transferencia. Si el
cable que une una estación de trabajo a un concentrador se desconecta o se
suelta, sólo dicha estación de trabajo se va abajo, no la red entera. El protocolo
de paso de testigo requiere que cada transacción sea reconocida, de este
modo no hay cambios virtuales de errores aunque el rendimiento es mucho
más bajo que en otros esquemas de conexión de red.
La topología de una red define únicamente la distribución del cable que
interconecta los diferentes ordenadores.
A la hora de instalar una red, es importante seleccionar la topología más
adecuada a las necesidades, teniendo en cuenta factores como la distribución
de los equipos a interconectar, tipo de aplicaciones que se van a ejecutar,
inversión que se quiere hacer, coste que se quiere dedicar al mantenimiento y
actualización de la red, tráfico que debe soportar la red, capacidad de
expansión, entre otros.
Las topologías puras son tres: topología en bus, en estrella y en anillo. A
partir de estas tres se generan otras como son: anillo - estrella, bus - estrella,
etc.
Topologias en BUS: Consiste en un cable al que se conectan todos los nodos
de la red. Un nodo es cualquier estación de trabajo, terminal, impresora o
cualquier otro dispositivo que pueda ser conectado a la red, ya sea de forma
directa o indirecta (estando a disposición de la red al pertenecer a un
dispositivo ya conectado a ella).
Cuando se utiliza cable coaxial, aparecen unos elementos en los
extremos del cable denominados "terminadores", y cuyo aspecto es similar al
de un tapón. Cada cual actúa como una resistencia que refleja las señales del
cable. Su misión es indicar a la red cuáles son los extremos del bus.
La topología en bus resulta fácil de instalar y mantener, pero ofrece un
problema bastante importante. Esta dificultad consiste en que cuando el bus se
abre (el cable se rompe, se estropea una clavija, un mal contacto...), toda la red
se cae y quedará completamente inoperativa. Si la distancia que cubre el cable
es pequeña, encontrar la avería resulta relativamente fácil; sin embargo, si la
distancia es grande y/o los nodos conectados a ella son elevado, encontrar la
avería puede llevar mucho tiempo, durante el cual, todo el sistema quedará
inutilizado.
Topología en Anillo: Consiste en un cable en el que se juntan el origen con el
extremo, formando un anillo cerrado. A él se conectan los nodos de la red. No
requiere de terminadores, ya que el cable se cierra en sí mismo.
Esta topología ofrece el mismo problema que la topología en bus, es decir, si
se abre el anillo, la red queda inoperativa en su totalidad.
Topología en Estrella: En este caso, cada nodo de la red se conecta a un punto
central, formando una especie de estrella. El punto es tan sólo un dispositivo de
conexiones, o uno del mismo tipo más una estación de trabajo. Dependiendo
de sí el dispositivo central es pasivo (únicamente serviría de centralizador de
conexiones) o activo (centralizando las conexiones y regenerando la señal que
le llega), se tratará de una estrella pasiva ó activa. Este dispositivo central se
llama "concentrador" (o hub).
La principal ventaja que esta topología ofrece frente a las otras consiste
en que cuando el cable de un nodo se desconecta o rompe, dicho nodo es el
único que queda desconectado de la red, manteniéndose ésta operativa.
CARACTERISTICAS Y APLICACIONES DE LOS DISTINTOS TIPOS
MAINFRAME, MINI, MICRO Y PC:
Mainframe: Una computadora mainframe es una computadora grande y
poderosa que maneja el procesamiento para muchos usuarios
simultáneamente (Hasta varios cientos de usuarios). El nombre mainframe se
originó después de que las minicomputadoras aparecieron en los 1960's para
distinguir los sistemas grandes de dichas minicomputadoras.
Los usuarios se conectan a la computadora mainframe utilizando
terminales que someten sus tareas de procesamiento a la computadora central.
Una terminal es un aparato que tiene pantalla y teclado para la entrada / salida,
pero que no tiene capacidad de cómputo. También se conocen estas como
terminales tontas.
La capacidad de procesamiento de la mainframe se comparte en tiempo
entre todos los usuarios. Una computadora PC puede "emular" a una terminal
tonta para conectarse a una minicomputadora o a una mainframe. Esto se logra
mediante un software especial.
Las computadoras mainframe cuestan varios cientos de miles de
dólares. Se usan en situaciones en que las empresas requieren tener
centralizados en un lugar tanto el poder de cómputo como el almacenamiento
de la información.
Las mainframe también se usan como servidores de alta capacidad para
redes con muchas estaciones de trabajo clientes.
Mini: Una versión más pequeña de la macro computadora. Al ser orientada a
tareas específicas, no necesitaba de todos los periféricos que necesita una
macro, y esto ayudo a reducir el precio y costo de mantenimiento.
En general, una mini computadora, es un sistema multiproceso (varios
procesos) capaz de soportar de 10 hasta 200 usuarios simultáneamente.
Actualmente se usan para almacenar grandes bases de datos, y otras
aplicaciones.
Micro: Las microcomputadoras o computadoras personales (PC) tuvieron su
origen con la creación de los microprocesadores. Un microprocesador es una
computadora en un chip, o sea un circuito integrado independiente. Las PC son
computadoras para uso personal y relativamente son baratas y actualmente se
encuentran en las oficinas, escuelas y hogares.
PC:
Velocidad de Proceso: miles de millones de instrucciones de coma
flotante por segundo.
Usuarios a la vez: hasta miles, en entorno de redes amplias.
Tamaño: requieren instalaciones especiales y aire acondicionado
industrial.
Dificultad de uso: solo para especialistas.
Clientes usuales: grandes centros de investigación.
Penetración social: prácticamente nula.
Impacto social: muy importante en el ámbito de la investigación, ya que
provee cálculos a alta velocidad de procesamiento, permitiendo, por
ejemplo, calcular en secuencia el genoma humano, número Pi,
desarrollar cálculos de problemas físicos dejando un margen de error
muy bajo, etc.
Parques instalados: menos de un millar en todo el mundo.
Costo: hasta decenas de millones de dólares cada una de ellas.
UNIDAD II (SISTEMA OPERATIVO)
CONCEPTO: Conjunto de programas que se integran con el hardware para
facilitar al usuario, el aprovechamiento de los recursos disponibles. Algunos de
sus objetivos principales son:
Provee de un ambiente conveniente de trabajo.
Hace uso eficiente del Hardware.
Provee de una adecuada distribución de los recursos.
Para un Sistema Operativo real deberá satisfacer las siguientes
funciones:
Gobierna el Sistema.
Asigna los recursos.
Administra y controlar la ejecución de los programas.
Un sistema de cómputo en muchos casos cuenta con demasiados recursos
para ser utilizados por un solo usuario, es en estos casos cuando se puede dar
servicio a varios procesos.
FUNCIONES: Los sistemas operativos proporcionan una plataforma de
software encima de la cual otros programas, llamados aplicaciones, puedan
funcionar. Las aplicaciones se programan para que funcionen encima de un
sistema operativo particular, por tanto, la elección del sistema operativo
determina en gran medida las aplicaciones que puedes utilizar.
Los sistemas operativos más utilizados en los PC son DOS, OS/2, y
Windows, pero hay otros que también se utilizan, como por ejemplo Linux.
APLICACIONES: Programas externos al sistema, utilizados para realizar
tareas específicas como simulación, creación y edición de gráficas e imágenes,
etc...
DISTINTOS SISTEMAS OPERATIVOS DOS, UNIX, WINDOWS, VENTAJAS Y
DIFERENCIAS:
Dos: es una familia de sistemas operativos para PC. El nombre son las siglas
de disk operatingsystem ("sistema operativo de disco"). Fue creado
originalmente para computadoras de la familia IBM PC, que utilizaban los
procesadores Intel 8086 y 8088, de 16 bits, siendo el primer sistema operativo
popular para esta plataforma. Contaba con una interfaz de línea de comandos
en modo texto o alfanumérico, vía su propio intérprete de órdenes,
command.com. Probablemente la más popular de sus variantes sea la
perteneciente a la familia MS-DOS, de Microsoft, suministrada con buena parte
de los ordenadores compatibles con IBM PC, en especial aquellos de la familia
Intel, como sistema operativo independiente o nativo, hasta la versión 6.22
(bien entrados los 90), frecuentemente adjunto a una versión de la interfaz
gráfica Ms Windows de 16 bits, como las 3.1x.
En las versiones nativas de Microsoft Windows, basadas en NT (y éste a
su vez en OS/2 2.x) (véase Windows NT, 2000, 2003, XP o Vista) MS-DOS
desaparece como sistema operativo (propiamente dicho) y entorno base, desde
el que se arrancaba el equipo y sus procesos básicos y se procedía a ejecutar
y cargar la inferfaz gráfica o entorno operativo de Windows. Todo vestigio del
mismo queda relegado, en tales versiones, a la existencia de un simple
intérprete de comandos, denominado Símbolo del Sistema, ejecutado como
aplicación mediante cmd.exe, a partir del propio entorno gráfico (elevado ahora
a la categoría de sistema).
Esto no es así en las versiones no nativas de Windows, que sí están
basadas en MS-DOS, cargándose a partir del mismo. Desde los 1.0x a las
versiones 3.1(1), de 16 bits, Ms Windows tuvo el planteamiento de una simple
aplicación de interfaz o entorno gráfico, complementaria al propio intérprete de
comandos, desde el que era ejecutado. Fue a partir de las versiones de 32 bits,
de nuevo diseño y mayor potencia, basadas en Windows 95 y 98, cuando el
MS-DOS comienza a ser deliberadamente camuflado por el propio entorno
gráfico de Windows, durante el proceso de arranque, dando paso, por defecto,
a su automática ejecución, lo que acapara la atención del usuario medio y
atribuye al antiguo sistema un papel más dependiente y secundario, llegando a
ser por muchos olvidado y desconocido, y paulatinamente abandonado por los
desarrolladores de software y hardware, empezando por la propia Microsoft
(esta opción puede desactivarse alterando la entrada BootGUI=1 por
BootGUI=0, del archivo de sistema, ahora de texto, MSDOS. SYS). Sin
embargo, en tales versiones, Windows no funcionaba de forma autónoma,
como sistema operativo. Tanto varias de las funciones primarias o básicas del
sistema como su arranque se deben aún en las versiones de 32 bits, a los
distintos módulos y archivos de sistema que componían el modesto armazón
del DOS, requiriendo aquéllas un mínimo de los archivos básicos de este, para
poder ejecutarse (tales como IO.SYS, DRVSPACE. BIN, EMM386.EXE e
HIMEM. SYS).
Existen varias versiones de DOS. El más conocido de ellos es el MS-
DOS, de Microsoft (de ahí las iniciales MS). Otros sistemas son el PC-DOS, de
IBM, el DR-DOS, de Digital Research, que pasaría posteriormente a Novell
(Novell DOS 7.0), luego a Caldera y finalmente a DeviceLogics y, más
recientemente, el FreeDOS, de licencia libre y código abierto. Éste último,
puede hacer las veces, en su versión para GNU/Linux y UNIX, de emulador del
DOS bajo sistemas de este tipo.
Con la aparición de los sistemas operativos gráficos, del tipo Windows,
en especial aquellos de 32 bits, del tipo Windows 95, el DOS ha ido quedando
relegado a un segundo plano, hasta verse reducido al mero intérprete de
órdenes, y a las líneas de comandos (en especial en ficheros de tipo .PIF y
.BAT), como ocurre en los sistemas derivados de Windows NT.
El DOS carece por completo de interfaz gráfica, y no utiliza el ratón,
aunque a partir de ciertas versiones solía incluir controladoras para detectarlo,
inicializarlo y hacerlo funcionar bajo diversas aplicaciones de edición y de
interfaz y entorno gráfico, además de diversos juegos que tendían a requerirlo
(como juegos de estrategia, aventuras gráficas y Shoot 'em up subjetivos, entre
otros). Por sí sólo es incapaz de detectar el hardware, a menos que las
mencionadas controladoras incluyan en su núcleo de sistema, como residentes
en memoria, el código, instrucciones y funciones necesarias. En cualquier
caso, el intérprete de comandos y la mayoría de sus aplicaciones y mandatos
de edición debían o podían ser fácilmente controlados manualmente, a través
del teclado, ya fuera mediante comandos, o introduciendo teclas de acceso
rápido para activar los distintos menúes y opciones desde el editor (un buen
ejemplo de esto último son el editor de texto edit.com, el menú de ayuda
help.exe, ó el intérprete de BASIC qbasic.exe, incluidos en las últimas
versiones del MS-DOS). Talesopciones siguen, de hecho, encontrándose
presentes en los Windows, en versiones muy posteriores.
El DOS no es ni multiusuario ni multitarea. No puede trabajar con más
de un usuario ni en más de un proceso a la vez. En sus versiones nativas
(hasta la 6.22 en el MS-DOS), no puede trabajar con particiones de disco
demasiado grandes, superiores a los 2 GB, que requieren formatos y sistemas
de archivos tales como el FAT32, propio de Windows de 32 bits (a partir del
95), ó el NTFS, propio de Windows de tipo NT. Originalmente, por limitaciones
del software, no podía manejar más de 64KB de memoria RAM. En las
versiones anteriores a la 4.0, el límite, a su vez, era de 32 MB por partición, al
no soportar aún el formato FAT16 (desarrollado en 1987). Poco a poco, con las
mejoras en la arquitectura de los PC, llegó primero a manejar hasta 640 KB de
RAM (la llamada "memoria convencional", ó base), y luego hasta 1 megabyte
(agregando a la memoria convencional la "memoria superior" o UMB). Más
tarde, aparecieron mecanismos como la memoria expandida (EMS) y la
memoria extendida (XMS), que permitían ya manejar varios megabytes.
Desde el punto de vista de los programadores, este sistema operativo
permitía un control total de la computadora, libre de las capas de abstracción y
medidas de seguridad a las que obligan los sistemas multiusuario y multitarea.
Así, hasta la aparición del DirectX, y con el fin de aprovechar al máximo el
hardware, la mayoría de videojuegos para PC funcionaban directamente bajo
DOS.
La necesidad de mantener la compatibilidad con programas antiguos,
hacía cada vez más difícil programar para DOS, debido a que la memoria
estaba segmentada, es decir, la memoria apuntada por un puntero tenía como
máximo el tamaño de un segmento de 64KB. Para superar estas limitaciones
del modo real de los procesadores x86, se recurría al modo protegido de los
procesadores posteriores (80386, 80486...), utilizando programas extensores
que hacían funcionar programas de 32 bits sobre DOS.
Aunque este sistema operativo sea uno de los más antiguos, aún los
entornos operativos Windows de 32 bits, hasta el 98, tenían como plataforma
base camuflada u oculta el DOS. Su intérprete de comandos, denominado, por
lo general, CommandPrompt o Símbolo del Sistema, puede invocarse desde la
interfaz como command.com, ó, en versiones posteriores, basadas en NT, que
ya no se basan ni parten de MS-DOS, mediante cmd.exe, esto pasa también
en Windows ME a pesar de estar aún basado en la antigua arquitectura 9x.
También existen, para sistemas actuales, emuladores como el DOSBox, o
entornos de código abierto como el FreeDOS, comunes ambos en GNU/Linux;
ello permite recuperar la compatibilidad perdida con ciertas aplicaciones nativas
para este antiguo sistema, que ya no pueden funcionar desde los nuevos
Windows, basados en NT, o bajo sistemas operativos de arquitectura dispar,
como los UNIX y GNU/Linux.
DIR: Muestra un listado de archivos, que están contenidos en un directorio.
TYPE: Muestra el contenido de un archivo en pantalla.
COPY: Copia archivos en otro lugar.
REN o RENAME: Renombra archivos.
DEL o ERASE: Borra uno o varios archivos (con posibilidad de recuperarlos
mediante la orden UNDELETE, presente en las últimas versiones nativas del
DOS, salvo que el lugar del archivo o archivos borrados hubiese sido utilizado
con posterioridad).
MD o MKDIR: Crea un nuevo directorio.
CD o CHDIR: Cambia el directorio actual por el especificado.
RD o RMDIR: Borra un directorio vacío.
ATTRIB: Permite asignar o quitar atributos de archivos (tales como +A: ya
modificado, +H: oculto, +R: de sólo lectura, ó +S, archivo especial del sistema,
o a la inversa)
TREE:Muestra gráficamente la estructura de directorios de una unidad o ruta
de acceso
DELTREE: Borra un directorio con todo su contenido, incluidos subdirectorios
(apareció en las últimas versiones)
CLS: limpia la pantalla.
DATE: Permite ver y cambiar la fecha.
TIME: Permite ver y cambiar la hora.
LABEL: Permite ver y cambiar la etiqueta de una unidad de disco ó volumen.
HELP: Ofrece ayuda sobre las distintas órdenes.
SORT: Ordena las entradas.
FC o COMP: Compara las diferencias entre el contenido de dos archivos.
FIND: Busca cadenas de texto dentro del contenido de un archivo.
TACS: Ordena todos los archivos del cp.
EDLIN o EDIT: Permite editar archivos, guardando los cambios efectuados en
el sistema.
VOL:Muestra la etiqueta del volumen y el número de serie del disco.
VERIFY:Comunica a Windows si debe comprobar que los archivos se escriben
de forma correcta en un disco.
CD..:retrocede a la rama anterior.
Unix: Unix (registrado oficialmente como UNIX®) es un sistema operativo
portable, multitarea y multiusuario; desarrollado, en principio, en 1969 por un
grupo de empleados de los laboratorios Bell de AT&T, entre los que figuran
Ken Thompson, Dennis Ritchie y Douglas McIlroy.1 2
Hasta 2009, el propietario de la marca UNIX® fue The Open Group, un
consorcio de normalización industrial. A partir de marzo de 2010 y tras una
larga batalla legal, esta ha pasado nuevamente a ser propiedad de Novell, Inc.
Sólo los sistemas totalmente compatibles y que se encuentran certificados por
la especificación Single UNIX Specification pueden ser denominados "UNIX®"
(otros reciben la denominación "similar a un sistema Unix" o "similar a Unix").
En ocasiones, suele usarse el término "Unix tradicional" para referirse a Unix o
a un sistema operativo que cuenta con las características de UNIX Versión 7 o
UNIX System V.
Familias UNIX más significativas
AT&T: la familia que tuvo su origen en el UNIX de AT&T. Considerada la familia
UNIX "pura" y original. Sus sistemas operativos más significativos son UNIX
System III y UNIX System V.
BSD: familia originada por el licenciamiento de UNIX a Berkely. BSD se
reescribió para no incorporar propiedad intelectual originaria de AT&T en la
versión 4. La primera implementación de los protocolos TCP/IP que dieron
origen a Internet son la pila (stack) TCP/IP BSD.
AIX: Esta familia surge por el licenciamiento de UNIX System III a IBM.
Xenix: familia derivada de la adquisición de los derechos originales de AT&T
primero por parte de Microsoft y de esta los vendió a SCO.
GNU: En 1983, Richard Stallman anunció el Proyecto GNU, un ambicioso
esfuerzo para crear un sistema similar a Unix, que pudiese ser distribuido
libremente. El software desarrollado por este proyecto -por ejemplo, GNU
Emacs y GCC - también han sido parte fundamental de otros sistemas UNIX.
Linux: En 1991, cuando LinusTorvalds empezó a proponer el núcleo Linux y a
reunir colaboradores, las herramientas GNU eran la elección perfecta. Al
combinarse ambos elementos, conformaron la base del sistema operativo
(basado en POSIX) que hoy se conoce como GNU/Linux. Las distribuciones
basadas en el núcleo, el software GNU y otros agregados entre las que se
pueden mencionar a Slackware Linux, Red Hat Linux y Debian GNU/Linux se
han hecho populares tanto entre los aficionados a la computación como en el
mundo empresarial. Obsérvese que Linux tiene un origen independiente, por lo
que se considera un 'clónico' de UNIX y no un UNIX en el sentido histórico.
Las interrelaciones entre estas familias son las siguientes, aproximadamente
en orden cronológico:
La familia BSD surge del licenciamiento del UNIX original de AT&T.
Xenix también surge por licenciamiento del UNIX original de AT&T, aunque aún
no era propiedad de SCO.
AIX surge por licenciamiento de UNIX System III, pero también incorpora
propiedad intelectual de BSD.
La familia original AT&T incorpora ilegalmente propiedad intelectual de BSD en
UNIX System III r3.
La familia AIX vuelve a incorporar propiedad intelectual de la familia AT&T, esta
vez procedente de UNIX System V.
Linux incorpora propiedad intelectual de BSD, gracias a que éste también se
libera con una licencia de código abierto denominada Open-source BSD.
Según SCO Group, Linux incorpora propiedad intelectual procedente de AIX,
gracias a la colaboración de IBM en la versión 2.4, mas aún no está
demostrado, hay un proceso judicial al respecto: Disputas de SCO sobre Linux.
UNIX es una marca registrada de Novell, después de una disputa con The
Open Group en Estados Unidos y otros países. Esta marca solo se puede
aplicar a los sistemas operativos que cumplen la "Single Unix Specification" de
esta organización y han pagado las regalías establecidas.
En la práctica, el término UNIX se utiliza en su acepción de familia. Se
aplica también a sistemas multiusuario basados en POSIX (tales como
GNU/Linux, Mac OS X [el cual, en su versión 10.5 ya ha alcanzado la
certificación UNIX], FreeBSD, NetBSD, OpenBSD), los cuales no buscan la
certificación UNIX por resultar cara para productos destinados al consumidor
final o que se distribuyen libremente en Internet. En estos casos, el término se
suele escribir como "UN*X", "UNIX*", "*NIX", o "*N?X". Para referirse a ellos
(tanto a Unix, como a los sistema basados en Unix/POSIX) también se utiliza
"Unixes", pero "Unices" (que trata la palabra Unix como un nombre latino de la
tercera declinación) es asimismo popular.
A lo largo de la historia ha surgido una gran multitud de
implementaciones comerciales de UNIX. Sin embargo, un conjunto reducido de
productos han consolidado el mercado y prevalecen gracias a un continuo
esfuerzo de desarrollo por parte de sus fabricantes. Los más importantes son:
Solaris 10, un sistema operativo derivado de la rama System V Solaris de Sun
Microsystems. Uno de los sistemas operativos Unix más difundidos en el
entorno empresarial y conocido por su gran estabilidad. Parte del código fuente
de Solaris se ha liberado con licencia de fuentes abiertas (OpenSolaris).
AIX de IBM. El UNIX "propietario" de IBM cumplió 20 años de vida en el 2006 y
continúa en pleno desarrollo, con una perceptible herencia del mainframe en
campos como la virtualización o la RAS de los servicios, heredada de sus
"hermanos mayores".
HP-UX de Hewlett-Packard. Este sistema operativo también nació ligado a las
computadoras departamentales de este fabricante. También es un sistema
operativo estable que continua en desarrollo.
Mac OS X. Se trata de un UNIX completo, aprobado por The Open Group. Su
diferencia marcada es que posee una interfaz gráfica propietaria llamada Aqua,
y es principalmente desarrollada en Objective-C en lugar de C o C++.
Existen sistemas operativos basados en el núcleo Linux, y el conjunto de
aplicaciones GNU (también denominado GNU/Linux), entre las más utilizadas
encontramos:
Red Hat Enterprise Linux. Cuyo fabricante Red Hat es conocido por su
amplia gama de soluciones y aportes al desarrollo de software libre. Apoya el
proyecto Fedora del cual se beneficia y de ella se derivan distribuciones
compatibles como Oracle Enterprise Linux y CentOS, también distribuciones
como Mandriva Linux, se basó en una de sus primeras versiones.
SUSE Linux de Novell. Originalmente liberado por la compañía alemana
SuSE. Es popular por sus herramientas de administración centralizada. De
manera análoga a RedHat con Fedora, apoya el proyecto openSUSE.
Debian GNU/Linux. Con una de las comunidades más grandes y
antiguas del movimiento de software libre, es base para distribuciones como
Xandros, Mepis, Linspire y Ubuntu.
También son populares los sistemas operativos descendientes del
4.4BSD:
FreeBSD. Quizá el sistema operativo más popular de la familia, de propósito
múltiple. Con una implementación SMP muy elaborada, es el sistema operativo
utilizado por los servidores de Yahoo. Y base de muchos sistemas operativos
entre ellos Mac OS X de Apple.
OpenBSD. Ampliamente reconocida por su seguridad proactiva y auditoría
permanente del código fuente. Es utilizada en ambientes donde la seguridad
prima sobre todo, es usual encontrarlo instalado en servidores que actúan
como Firewall, VPN o Proxy.
NetBSD. Se le conoce por su portabilidad, a octubre de 2008: 53 arquitecturas
soportadas. La NASA lo ha utilizado para la investigación en redes TCP/IP
satelitales, al igual que para reciclar computadoras viejas con software
moderno.
Las siguientes implementaciones de UNIX tienen importancia desde el punto
de vista histórico, no obstante, actualmente están en desuso:
Tru64 UNIX actualmente de Hewlett-Packard (antes de Compaq y
originalmente de Digital EquipmentCorporation).
UnixWare y SCO OpenServer anteriormente de Santa Cruz Operation y ahora
de SCO Group.
UX/4800 de NEC.
IRIX de SiliconGraphicsInc..
Algunos comandos básicos de UNIX son:
Navegación/creación de directorios/archivos: ls cd pwdmkdirrmrmdircp
Edición/visión de archivos: touch more ed vi
Procesamiento de textos: echo cat grep sortuniq sed awktail head
Comparación de archivos: commcmpdiffpatch
Administración del sistema: chmodchownps find xargssd w who
Comunicación: mail telnet ssh ftp finger rlogin
Shells: shcshksh
Documentación: man.
Esta es una lista de los sesenta comandos de usuario de la sección 1 de la
Primera Edición:
ar as b basbcdbootcatchdircheckchmodchowncmpcp date db (Unix) dbppt dc
dfdswdtf du edfindforformhuplbpptldlnls mail mesgmkdirmkfsmount mv
nmodprrew (Unix) rkdrkfrklrmrmdirroffsdateshstatstrip (Unix) su sum tap (Unix)
tmttytype un wcwhowrite
Otros comandos
Tiempo: cal
Windows: es el nombre de una familia de sistemas operativos desarrollados por
Microsoft desde 1981, año en que el proyecto se denominaba «Interface
Manager».
Anunciado en 1983, Microsoft comercializó por primera vez el entorno
operativo denominado Windows en noviembre de 1985 como complemento
para MS-DOS, en respuesta al creciente interés del mercado en una interfaz
gráfica de usuario (GUI) que fuera introducido por otros sistemas operativos
como Mac OS y de otras compañías como Xerox.1 En esas fechas, Microsoft
consiguió un contrato de arrendamiento de su sistema operativo con el gigante
de la informática, IBM, por lo que fue preinstalado desde fábrica en la mayoría
de ordenadores personales del mundo, lo que lo convirtió en el más usado y
popular. En octubre de 2009, Windows tenía aproximadamente el 91% de la
cuota de mercado de sistemas operativos en equipos cliente que acceden a
Internet.2 3 4 Las versiones más recientes de Windows son Windows 7 para
equipos de escritorio, Windows Server 2008 R2 para servidores y Windows
Phone 7 para dispositivos móviles.
El término Windows describe colectivamente todas o parte de varias
generaciones de productos de sistema operativo de Microsoft. Estos productos
generalmente se clasifican como sigue:
Primeras versiones
Artículos principales: Windows 1.0 y Windows 2.0.
La historia de Windows se remonta a septiembre del año 1981, con el
proyecto denominado «Interface Manager». Se anunció en noviembre de 1983
(después del Apple Lisa, pero antes de Macintosh) bajo el nombre «Windows»,
pero Windows 1.0 no se publicó hasta el mes de noviembre de 1985. El shell
de Windows 1.0 es un programa conocido como MS-DOS Executive. Otros
programas suministrados fueron la Calculadora, Calendario, Cardfile, Visor del
portapapeles, Reloj, Panel de control, el Bloc de notas, Paint, Reversi, Terminal
y Write. Windows 1.0 no permite la superposición de ventanas, debido a que
Apple Computer ya contaba con esta característica. En su lugar fueron mosaico
en todas las ventanas. Solo los cuadros de diálogo podrían aparecer en otras
ventanas.
Windows 2.0 fue lanzado en octubre de 1987 y presentó varias mejoras
en la interfaz de usuario y en la gestión de memoria e introdujo nuevos
métodos abreviados de teclado. También podría hacer uso de memoria
expandida.
Windows 2.1 fue lanzado en dos diferentes versiones: Windows/386
empleando Modo 8086 virtual para realizar varias tareas de varios programas
de DOS, y el modelo de memoria paginada para emular la memoria expandida
utilizando la memoria extendida disponible. Windows/286 (que, a pesar de su
nombre, se ejecutaría en el 8086) todavía se ejecutaba en modo real, pero
podría hacer uso de la Área de memoria alta. Apple demandó a Microsoft por lo
parecido del software a su sistema MacOS, Microsoft ganó la demanda.
Las primeras versiones de Windows se suele considerar como interfaz
gráfica de usuario simple. Incluso las primeras versiones de Windows de 16
bits ya supone muchas de las funciones típicas de sistema operativo; en
particular, tener su propio formato de archivo ejecutable y proporcionar sus
propios Controladores de dispositivo (temporizador, gráficos, impresora, ratón,
teclado y sonido) para aplicaciones. A diferencia de MS-DOS, Windows permite
a los usuarios ejecutar las aplicaciones gráficas de múltiples al mismo tiempo, a
través de la multitarea cooperativa. Windows implementa un esquema de
software elaborada, basado en el segmento, memoria virtual, lo que le permitió
ejecutar aplicaciones más grandes que la memoria disponible: segmentos de
código y los recursos se intercambian y se tira cuando escaseaba la memoria,
y segmentos de datos en la memoria cuando se trasladó una aplicación dada,
había cedido el control del procesador, por lo general la espera de la entrada
del usuario.
Windows 3.0 y 3.1
Artículo principal: Windows 3.x.
Windows 3.0 (1990) y Windows 3.1 (1992) mejoraron el diseño ,
principalmente debido a la memoria virtual y los controladores de dispositivo
virtual deslastrables (VxD) que permitió compartir dispositivos arbitrarios entre
DOS y Windows. Además, las aplicaciones de Windows ahora podrían ejecutar
en modo protegido (cuando se ejecuta Windows en el modo estándar o 386
mejorado), que les da acceso a varios megabytes de memoria y se elimina la
obligación de participar en el esquema de la memoria virtual de software.
Windows 95, 98, y Me
Artículos principales: Windows 95, Windows 98 y Windows Me.
Windows 95 fue lanzado en 1995, con una nueva interfaz de usuario,
compatibilidad con nombres de archivo largos de hasta 250 caracteres, y la
capacidad de detectar automáticamente y configurar el hardware instalado
(plug and play). De forma nativa podrían ejecutar aplicaciones de 32-bits y
presentó varias mejoras tecnológicas que aumentaron su estabilidad respecto a
Windows 3.1. Hubo varios OEM ServiceReleases (OSR) de Windows 95, cada
una de las cuales fue aproximadamente equivalente a un Service Pack.
El siguiente lanzamiento de Microsoft fue Windows 98 en 1998. Microsoft
lanzó una segunda versión de Windows 98 en 1999, llamado Windows 98
SecondEdition (a menudo acortado a Windows 98 SE).
En el 2000, Microsoft lanza Windows Millennium Edition (comúnmente
llamado Windows Me), que actualiza el núcleo de Windows 98 pero que adopta
algunos aspectos de Windows 2000 y elimina (más bien, oculta) la opción de
«Arrancar en modo DOS». También añade una nueva característica
denominada «Restaurar sistema», que permite al usuario guardar y restablecer
la configuración del equipo en una fecha anterior.
Familia NT
Artículo principal: Windows NT.
La familia de sistemas Windows NT fue hecha y comercializada por un
mayor uso de fiabilidad de negocios. El primer lanzamiento fue de MS Windows
NT 3.1 (1993), el número «3.1» para que coincida con la versión para
Windows, que fue seguido por NT 3.5 (1994), NT 3.51 (1995), NT 4.0 (1996), y
Windows 2000 (2000). 2000 es la última versión de Windows NT, que no
incluye la activación de productos de Microsoft. NT 4.0 fue el primero en esta
línea para implementar la interfaz de usuario de Windows 95 (y el primero en
incluir tiempos de ejecución de 32 bits integrada de Windows 95). Microsoft se
trasladó a combinar sus negocios de consumo y sistemas operativos con
Windows XP, viene tanto en las versiones Home y professional (y las versiones
posteriores de mercado para tablet PC y centros multimedia), sino que también
se separaron los calendarios de lanzamiento para los sistemas operativos de
servidor. Windows Server 2003, lanzado un año y medio después de Windows
XP, trajo Windows Server al día con MS Windows XP. Después de un proceso
de desarrollo largo, Windows Vista fue lanzado hacia el final de 2006, y su
homólogo de servidor, Windows Server 2008 fue lanzado a principios de 2008.
El 22 de julio de 2009, Windows 7 y Windows Server 2008 R2 se publicaron
como RTM (versión de disponibilidad general). Windows 7 fue lanzado el 22 de
octubre de 2009.
Windows CE, la oferta de Microsoft en los mercados móviles e
integrados, es también un verdadero sistema operativo 32 bits que ofrece
diversos servicios para todas las subestaciones de trabajo de explotación.
Sistemas operativos de 64 bits
Windows NT incluye soporte para varias plataformas diferentes antes de
x86 - basado en ordenador personal se convirtió en dominante en el mundo
profesional. Versiones de NT desde 3.1 a 4.0 diversamente compatibles
PowerPC, DEC Alpha y MIPS R4000, algunos de los cuales eran procesadores
de 64 bits, aunque el sistema operativo trató procesadores como de 32 bits.
Con la introducción de la arquitectura Intel Itanium, que se conoce como
IA-64, Microsoft lanzó nuevas versiones de Windows para apoyarlo. Las
versiones Itanium de Windows XP y Windows Server 2003 fueron liberadas al
mismo tiempo que con sus principales contrapartes x86 (32-bit). El 25 de Abril
de 2005, Microsoft lanzó Windows XP Professional x64 Edition y x64 versión de
Windows Server 2003 para el apoyo de x86-64 (o x64 en la terminología de
Microsoft). Microsoft eliminó el soporte para la versión de Itanium de Windows
XP en 2005. Windows Vista es la primera versión de usuario final de Windows
que Microsoft ha publicado simultáneamente en las ediciones de x86 y x64.
Windows Vista no es compatible con la arquitectura Itanium. La familia de
Windows de 64 bits moderna comprende a AMD64/intel64 versiones de
Windows Vista y Windows Server 2008 en tanto en Itanium y en ediciones x64.
Windows Server 2008 R2 cae la versión de 32 bits, y Windows 7 que también
está en versiones de 32 bits (para mantener la compatibilidad).
Windows CE
Artículo principal: Windows CE.
Windows CE (oficialmente conocido como Windows Embedded), es una
edición de Windows que se ejecuta en equipos minimalistas, tales como
sistemas de navegación por satélite y, excepcionalmente, los teléfonos móviles.
Windows Embedded se ejecuta como CE, en lugar de NT, por lo que no debe
confundirse con Windows XP Embedded, que es NT. Windows CE, que se
utilizó en la Dreamcast junto con sistema operativo propietario de Sega para la
consola. Windows CE es el núcleo del que deriva Windows Mobile.
Futuro de Windows
Windows 8, el sucesor de Windows 7, se encuentra actualmente en
desarrollo. Microsoft ha publicado una entrada de blog en holandés el 22 de
octubre de 2010 insinuando que Windows 8 será lanzado en 2 años.5 También,
durante el discurso Electronics Show pre-Consumer, CEO de Microsoft anunció
que Windows 8 también se ejecutará en procesadores Arquitectura ARM. Dado
que las CPUs ARM son generalmente en forma de SOCs se encuentran en
dispositivos móviles, este nuevo anuncio implica que Windows 8 será más
compatible con los dispositivos móviles, como netbooks, tablet PC y
smartphones.6 También tendrá soporte para Live USB, con Windows ToGo.
Historia
Árbol genealógico de Windows.
La primera versión de Microsoft Windows, versión 1.0, lanzada en
noviembre de 1985, compitió con el sistema operativo de Apple. Carecía de un
cierto grado de funcionalidad y logró muy poca popularidad. Windows 1.0 no
era un sistema operativo completo; más bien era una extensión gráfica de MS-
DOS. Windows versión 2.0 fue lanzado en noviembre de 1987 y fue un poco
más popular que su predecesor. Windows 2.03 (lanzado en enero de 1988)
incluyó por primera vez ventanas que podían solaparse unas a otras. El
resultado de este cambio llevó a Apple a presentar una demanda contra
Microsoft, debido a que infringían derechos de autor.
Windows versión 3.0, lanzado en 1990, fue la primera versión de
Microsoft Windows que consiguió un amplio éxito comercial, vendiendo 2
millones de copias en los primeros seis meses. Presentaba mejoras en la
interfaz de usuario y en la multitarea. Recibió un lavado de cara en Windows
3.1, que se hizo disponible para el público en general el 1 de marzo de 1992. El
soporte de Windows 3.1 terminó el 31 de diciembre de 2001.
En julio de 1993, Microsoft lanzó Windows NT basado en un nuevo
kernel. NT era considerado como el sistema operativo profesional y fue la
primera versión de Windows para utilizar la Multitarea apropiativa. Windows NT
más tarde sería reestructurado también para funcionar como un sistema
operativo para el hogar, con Windows XP.
El 24 de agosto de 1995, Microsoft lanzó Windows 95, una versión
nueva para los consumidores, y grandes fueron los cambios que se realizaron
a la interfaz de usuario, y también se utiliza multitarea apropiativa. Windows 95
fue diseñado para sustituir no solo a Windows 3.1, sino también de Windows
para Workgroups y MS-DOS. También fue el primer sistema operativo
Windows para utilizar las capacidades Plug and Play. Los cambios que trajo
Windows 95 eran revolucionarios, a diferencia de los siguientes, como
Windows 98 y Windows Me. El soporte estándar para Windows 95 finalizó el 31
de diciembre de 2000 y el soporte ampliado para Windows 95 finalizó el 31 de
diciembre de 2001.
El siguiente en la línea de consumidor fue lanzado el 25 de junio de
1998, Microsoft Windows 98. Sustancialmente fue criticado por su lentitud y por
su falta de fiabilidad en comparación con Windows 95, pero muchos de sus
problemas básicos fueron posteriormente rectificados con el lanzamiento de
Windows 98 SecondEdition en 1999. El soporte estándar para Windows 98
terminó el 30 de junio de 2002, y el soporte ampliado para Windows 98 terminó
el 11 de julio de 2006.
Como parte de su línea «profesional», Microsoft lanzó Windows 2000 en
febrero de 2000. La versión de consumidor tras Windows 98 fue Windows Me
(Windows Millennium Edition). Lanzado en septiembre de 2000, Windows Me
implementaba una serie de nuevas tecnologías para Microsoft: en particular fue
el «Universal Plug and Play». Durante el 2004 parte del código fuente de
Windows 2000 se filtró en internet, esto era malo para Microsoft porque el
mismo núcleo utilizado en Windows 2000 se utilizó en Windows XP.
En octubre de 2001, Microsoft lanzó Windows XP, una versión que se
construyó en el kernel de Windows NT que también conserva la usabilidad
orientada al consumidor de Windows 95 y sus sucesores. En dos ediciones
distintas, «Home» y «Professional», el primero carece por mucho de la
seguridad y características de red de la edición Professional. Además, la
primera edición «Media Center» fue lanzada en 2002, con énfasis en el apoyo
a la funcionalidad de DVD y TV, incluyendo grabación de TV y un control
remoto. El soporte estándar para Windows XP terminó el 14 de abril de 2009.
El soporte extendido continuará hasta el 8 de abril de 2014.
En abril de 2003, Windows Server 2003 se introdujo, reemplazando a la
línea de productos de servidor de Windows 2000 con un número de nuevas
características y un fuerte enfoque en la seguridad; lo cual fue seguido en
diciembre de 2005 por Windows Server 2003 R2.
El 30 de enero de 2007, Microsoft lanzó Windows Vista. Contiene una
serie de características nuevas, desde un shell rediseñado y la interfaz de
usuario da importantes cambios técnicos, con especial atención a las
características de seguridad. Está disponible en varias ediciones diferentes y
ha sido objeto de muy severas críticas debido a su patente inestabilidad,
sobredemanda de recursos de hardware, alto costo, y muy alta incompatibilidad
con sus predecesores, hecho que no ocurría con éstos.
El 22 de octubre de 2009, Microsoft lanzó Windows 7. A diferencia de su
predecesor, Windows Vista, que introdujo a un gran número de nuevas
características, Windows 7 pretendía ser una actualización incremental,
enfocada a la línea de Windows, con el objetivo de ser compatible con
aplicaciones y hardware que Windows Vista no era compatible. Windows 7
tiene soporte multi-touch, un shell de Windows rediseñado con una nueva barra
de tareas, conocido como Superbar, un sistema red llamado HomeGroup, y
mejoras en el rendimiento sobre todo en velocidad y en menor consumo de
recursos.
MULTIPROGRAMACION: Es la técnica que permite que dos o mas programas
ocupen la misma unidad de memoria principal y que sean ejecutados al mismo
tiempo. Así por ejemplo mientras se ejecutan operaciones de entrada y salida
de un programa, la unidad central de proceso puede ocuparse en realizar
operaciones distintas de las de E/S pertenecientes a otros programas. La
multiprogramación se refiere a dos o mas programas corriendo o procesándose
al mismo tiempo; La multiprogramación se controla a través del sistema
operativo, el cual observa los programas y los vigila hasta que estén
concluidos. El numero de programas que pueden multiprogramarse en forma
efectiva, depende de una combinación de la cantidad de memoria, de la
velocidad de la CPU y del numero y velocidad de los recursos periféricos que
tenga conectados, así como de la eficiencia del SISTEMA OPERATIVO.
MULTIPROCESAMIENTO: es tradicionalmente conocido como el uso de
múltiples procesos concurrentes en un sistema en lugar de un único proceso en
un instante determinado. Como la multitarea que permite a múltiples procesos
compartir una única CPU, múltiples CPUs pueden ser utilizados para ejecutar
múltiples hilos dentro de un único proceso.
El multiproceso para tareas generales es, a menudo, bastante difícil de
conseguir debido a que puede haber varios programas manejando datos
internos (conocido como estado o contexto) a la vez. Los programas
típicamente se escriben asumiendo que sus datos son incorruptibles. Sin
embargo, si otra copia del programa se ejecuta en otro procesador, las dos
copias pueden interferir entre sí intentando ambas leer o escribir su estado al
mismo tiempo. Para evitar este problema se usa una variedad de técnicas de
programación incluyendo semáforos y otras comprobaciones y bloqueos que
permiten a una sola copia del programa cambiar de forma exclusiva ciertos
valores.
MULTIUSUARIO: También llamado multipuesto. Es un tipo de configuración
hard-soft que permite soportar a varios usuarios o puestos de trabajo al mismo
tiempo, de forma que el sistema operativo gestiona la simultaneidad, otorgando
a cada usuario todos los recursos necesarios.
MULTITAREAS: Es una característica de los sistemas operativos modernos.
Permite que varios procesos sean ejecutados al mismo tiempo compartiendo
uno o más procesadores.
TIPOS DE PROGRAMAS UTILITARIOS: ejecutan tareas relacionadas con el
mantenimiento de la salud de su computadora - hardware o datos. Algunos se
incluyen con el sistema operativo.
APLICACIONES:
Software de aplicación
Las funciones de una aplicación dependen de su propósito, según el cual
pueden clasificarse en dos categorías:
Programas básicos (o utilitarios): Son aplicaciones cuyo propósito es mejorar,
en alguna forma, el desempeño del ordenador.
Programas de productividad: Son aplicaciones cuyo propósito es facilitar,
agilizar y mejorar para el usuario, la ejecución de ciertas tareas.
Algunos programas básicos o utilitarios
Antivirus: Prevención, detección y corrección de virus para ordenadores.
Compresor de archivos: Mejor aprovechamiento del espacio de
almacenamiento disponible, reduciendo el que ocupa cada archivo.
Defragmentador: Mayor eficiencia en el uso del espacio de almacenamiento
disponible y en el proceso de búsqueda, guardando la totalidad de cada archivo
en ocupaciones contiguas.
Software para respaldo: Garantía de la disponibilidad de los datos, haciendo
copias de ellos.
MANEJADORES DE BASE DE DATOS: IBM Informix® Dynamic Server (IDS)
9.30 proporciona fiabilidad superior, atendiendo las necesidades de las
exigentes prácticas actuales del e-business-particularmente para aplicativos
que requieran transacciones de alto desempeño.
Soporta requisitos de procesamiento de transacción online, complejos y
rigurosos.
Optimiza capacidades de inteligencia del negocio competitivas
Maximiza operaciones de datos para el grupo de trabajo y para la
empresa en total.
Proporciona la firmeza de una administración de base de datos
comprobada, mejor de su especie.
InformixDynamic Server con J/Foundation combina las características de
IDS con un ambiente abierto, flexible, empotrado de Java! Virtual Machine. IDS
con J/Foundation permite que los desarrolladores de base de datos escriban
lógica de negocio del lado-servidor usando el lenguaje Java!. Java
UserDefinedRoutines (UDRs) tienen completo acceso a las características de
la base de datos extensible líder mundial, de la base de datos IDS. Haciendo
del IDS la plataforma ideal para el desarrollo de base de datos Java.
Además de Java UDRs, el IDS está en conformidad con el estándar
SQLJ para procedimientos almacenados en Java, permitiendo el uso de los
paquetes Java estándar que se encuentran incluidos en el Java Development
Kit (JDK). Escribir UDRs en Java proporciona aplicativos mucho más flexibles
que se pueden desarrollar más rápidamente que C, y más potentes y
administrables que los lenguajes de procedimientos almacenados.
Una extensión adicional de escribir UDRs en Java es escribir módulos
DataBlade® en Java. Los módulos DataBlade son colecciones de nuevas
funciones del lado-servidor y tipos de datos puestos en conjunto para extender
el IBM Informix® Dynamic Server con el servidor de datos J/Foundation. El
DataBladeDeveloper's Kit (DBDK) ahora soporta Java y permite el desarrollo,
diseminación y depuración de UDRs en Java. La tecnología IBM
InformixDataBlade es líder en la industria en extender el servidor para permitir
tanto la administración de contenido rich, cuanto la lógica de negocio.
J/Foundation está provisto con IDS en muchas de las plataformas IDS
9.30 soportadas. Las plataformas soportadas incluyen Sun Solaris 32 bit,
Microsoft Windows NT/2000, Linux, IBM AIX, SGI Irix, y CompaqTru 64
IBM Informix® Dynamic Server (IDS) 9.30 proporciona fiabilidad
superior, atendiendo las necesidades de las exigentes prácticas actuales del e-
business-particularmente para aplicativos que requieran transacciones de alto
desempeño.
Soporta requisitos de procesamiento de transacción online, complejos y
rigurosos.
Optimiza capacidades de inteligencia del negocio competitivas
Maximiza operaciones de datos para el grupo de trabajo y para la
empresa en total.
Proporciona la firmeza de una administración de base de datos
comprobada, mejor de su especie.
InformixDynamic Server con J/Foundation combina las características de
IDS con un ambiente abierto, flexible, empotrado de Java! Virtual Machine. IDS
con J/Foundation permite que los desarrolladores de base de datos escriban
lógica de negocio del lado-servidor usando el lenguaje Java!. Java
UserDefinedRoutines (UDRs) tienen completo acceso a las características de
la base de datos extensible líder mundial, de la base de datos IDS. Haciendo
del IDS la plataforma ideal para el desarrollo de base de datos Java.
Además de Java UDRs, el IDS está en conformidad con el estándar
SQLJ para procedimientos almacenados en Java, permitiendo el uso de los
paquetes Java estándar que se encuentran incluidos en el Java Development
Kit (JDK). Escribir UDRs en Java proporciona aplicativos mucho más flexibles
que se pueden desarrollar más rápidamente que C, y más potentes y
administrables que los lenguajes de procedimientos almacenados.
Una extensión adicional de escribir UDRs en Java es escribir módulos
DataBlade® en Java. Los módulos DataBlade son colecciones de nuevas
funciones del lado-servidor y tipos de datos puestos en conjunto para extender
el IBM Informix® Dynamic Server con el servidor de datos J/Foundation. El
DataBladeDeveloper's Kit (DBDK) ahora soporta Java y permite el desarrollo,
diseminación y depuración de UDRs en Java. La tecnología IBM
InformixDataBlade es líder en la industria en extender el servidor para permitir
tanto la administración de contenido rich, cuanto la lógica de negocio.
J/Foundation está provisto con IDS en muchas de las plataformas IDS
9.30 soportadas. Las plataformas soportadas incluyen Sun Solaris 32 bit,
Microsoft Windows NT/2000, Linux, IBM AIX, SGI Irix, y CompaqTru 64.
PLANILLAS ELECTRONICAS: Es un programa de tipo de hoja de calculo y
organizar datos. Luegoanalizarlos mediante la creación de gráficos para su
mejor interpretación.Ejemplos de planilla electrónica:
1-microsoft exel(funciona en el entorno de trabajo windows)
2-calc (funciona en el entorno de trabajo linux).
PROCESADOR DE TEXTO: Un procesador de texto es una aplicación
informática destinada a la creación o modificación de documentos escritos por
medio de una computadora. Representa una alternativa moderna a la antigua
máquina de escribir, siendo mucho más potente y versátil que ésta.
NAVEGADORES DE INTERNET: No cabe duda de que Internet es uno de los
grandes inventos del último siglo. Desde su creación no ha dejado de crecer a
un ritmo casi exponencial. Igual que para conducirnos por las carreteras
necesitamos un buen vehículo, para navegar por Internet necesitamos un buen
navegador.
Igual que con los buscadores, que salieron cientos y ahora quedan unos
pocos, con los navegadores se reparten el mercado entre unos pocos.
El rey en número es el Internet Explorer, seguido de mozillafirefox que le
va comiendo terrenos. Como no, Google tenía que sacar su propio navegador,
Google Chrome, que la verdad sea dicha está muy completo. Mac también
tiene su propio navegador que es Safari y por último están los noruegos de
Opera, que no está nada mail.
Creo que Explorer, a pesar de las últimas mejoras, todavía tiene un poco
que mejorar. El resto de los mencionados están muy bien. Elegir uno u otro es
más una cuestión de gustos, y de lo familiarizado que estés. Aunque si tuviera
que elegir por solamente uno, creo que mozillafirefox de momento es el mejor.
GRAFICADORES: Los programas graficadores, como Corel, Photoshop, Photo
Editor, Publisher trabajan con dibujos vectoriales o mapas de bits. Este tipo de
programas facilitan la creación de ilustraciones profesionales: desde simples
logotipos a complejas ilustraciones técnicas.
UNIDAD III (DATOS Y ESTRUCTURA DE DATOS)
DATOS: El dato es una representación simbólica (numérica, alfabética,
algorítmica, entre otros.), un atributo o característica de una entidad. Los datos
describen hechos empíricos, sucesos y entidades.
PROPIEDADES:
•Independencia lógica y física de los datos.
•Redundancia mínima.
•Acceso concurrente por parte de múltiples usuarios.
•Integridad de los datos.
•Consultas complejas optimizadas.
•Seguridad de acceso y auditoría.
•Respaldo y recuperación.
•Acceso a través de lenguajes de programación estándar.
ATRIBUTOS:
El programador de aplicaciones, quien crea programas de aplicación que
utilizan la base de datos.
El usuario final, quien accesa la Base de Datos por medio de un
lenguaje de consulta o de programas de aplicación.
El administrador de la Base de Datos (DBA: Data Base Administrator),
quien se encarga del control general del Sistema de Base de Datos.
ARCHIVO: Un archivo o fichero informático es un conjunto de bits almacenado
en un dispositivo.
Un archivo es identificado por un nombre y la descripción de la carpeta o
directorio que lo contiene. Los archivos informáticos se llaman así porque son
los equivalentes digitales de los archivos en tarjetas, papel o microfichas del
entorno de oficina tradicional. Los archivos informáticos facilitan una manera de
organizar los recursos usados para almacenar permanentemente datos en un
sistema informático.
CARACTERISTICAS:
Nombre y extensión: Cada archivo es individual y es identificable por un
nombre y una extensión opcional que suele identificar su formato. El
formato suele servir para identificar el contenido del archivo.
Los nombres de archivos originalmente tenían un límite de ocho
caracteres más tres caracteres de extensión, actualmente permiten
muchos más caracteres dependiendo del sistema de archivos.
Datos sobre el archivo: Además para cada fichero, según el sistema de
archivos que se utilice, se guarda la fecha de creación, modificación y de
último acceso. También poseen propiedades como oculto, de sistema,
de solo lectura, etc.
Tamaño: Los archivos tienen también un tamaño que se mide en bytes,
kilobytes, megabytes, gigabytes y depende de la cantidad de caracteres
que contienen.
Ubicación: Todo archivo pertenece a un directorio o subdirectorio. La
ruta de acceso a un archivo suele comenzar con la unidad lógica que lo
contiene y los sucesivos subdirectorios hasta llegar al directorio
contenedor, por ejemplo: "C:Archivos de programaMicrosoftarchivo.txt".
Los archivos pueden separarse en dos grandes grupos, ejecutables y no
ejecutables. Ver tipos de archivos.
DISEÑO DE DATOS: Un modelo de datos es básicamente una "descripción"
de algo conocido como contenedor de datos (algo en donde se guarda la
información), así como de los métodos para almacenar y recuperar información
de esos contenedores. Los modelos de datos no son cosas físicas: son
abstracciones que permiten la implementación de un sistema eficiente de base
de datos; por lo general se refieren a algoritmos, y conceptos matemáticos.
CAMPO: Es un espacio de almacenamiento para un dato en particular. En las
bases de datos, un campo es la mínima unidad de información a la que se
puede acceder; un campo o un conjunto de ellos forman un registro, donde
pueden existir campos en blanco, siendo éste un error del sistema operativo.
En las hojas de cálculo(como los programas de excel) los campos son
llamados celdas.
REGISTRO: un registro (también llamado fila o tupla) representa un objeto
único de datos implícitamente estructurados en una tabla. En términos simples,
una tabla de una base de datos puede imaginarse formada de filas y columnas
o campos. Cada fila de una tabla representa un conjunto de datos
relacionados, y todas las filas de la misma tabla tienen la misma estructura.
Un registro es un conjunto de campos que contienen los datos que
pertenecen a una misma repetición de entidad. Se le asigna automáticamente
un número consecutivo (número de registro) que en ocasiones es usado como
índice aunque lo normal y práctico es asignarle a cada registro un campo clave
para su búsqueda.
CLAVE: Conjunto finito de caracteres limitados que forman una palabra secreta
que sirve a uno o más usuarios para acceder a un determinado recurso. Las
claves suelen tener limitaciones en sus caracteres (no aceptan algunos) y su
longitud. La Real Academia aconseja utilizar "clave" o "contraseña" en vez de
su equivalente en inglés, "password".
INDICE: es como el índice de un libro donde tenemos los capítulos del libro y la
página donde empieza cada capítulo. No vamos a entrar ahora en cómo se
implementan los índices internamente ya que no entra en los objetivos del
curso pero sí daremos unas breves nociones de cómo se definen, para qué
sirven y cuándo hay que utilizarlos y cuando no.
Un índice es una estructura de datos que permite recuperar las filas de
una tabla de forma más rápida además de proporcionar una ordenación distinta
a la natural de la tabla. Un índice se define sobre una columna o sobre un
grupo de columnas, y las filas se ordenarán según los valores contenidos en
esas columnas. Por ejemplo, si definimos un índice sobre la columna poblacion
de una tabla de clientes, el índice permitirá recuperar los clientes ordenados
por orden alfabético de población.
TABLAS Y RELACIONES: una tabla hace referencia al modelado o
recopilación de datos por parte de una aplicación de un programa que permite
operar con los mismos organizándolos y poniéndolos en relación de diversas
maneras.
Relaciones: se describen en la estructura de la base de datos empleando un
modelo de datos. Las relaciones son muy empleadas en los modelos de bases
de datos relacionales y afines.
TIPOS Y DISEÑO DE CONSULTA: Las consultas son los objetos de una base
de datos que permiten recuperar datos de una tabla, modificarlos e incluso
almacenar el resultado en otra tabla.
Existen varios tipos de consultas:
<!--[if !vml]--><!--[endif]-->Consultas de selección.
Son las consultas que extraen o nos muestran datos. Muestran aquellos
datos de una tabla que cumplen los criterios especificados. Una vez obtenido el
resultado podremos consultar los datos para modificarlos (esto se podrá hacer
o no según la consulta). Una consulta de selección genera una tabla lógica (se
llama lógica porque no está físicamente en el disco duro sino en la memoria del
ordenador y cada vez que se abre se vuelve a calcular).
<!--[if !vml]--><!--[endif]-->Consultas de acción.
Son consultas que realizan cambios a los registros. Existen varios tipos
de consultas de acción, de eliminación, de actualización, de datos anexados y
de creación de tablas.
<!--[if !vml]--><!--[endif]-->Consultas específicas de SQL.
Son consultas que no se pueden definir desde la cuadrícula QBE de
Access sino que se tienen que definir directamente en SQL. Estas consultas no
se estudiarán en este curso ya que para definirlas hay que saber SQL, cosa
que no es objeto de este curso.
BASE DE DATOS: es un conjunto de datos que pertenecen al mismo contexto
almacenados sistemáticamente para su posterior uso. En este sentido, una
biblioteca puede considerarse una base de datos compuesta en su mayoría por
documentos y textos impresos en papel e indexados para su consulta. En la
actualidad, y debido al desarrollo tecnológico de campos como la informática y
la electrónica, la mayoría de las bases de datos tienen formato electrónico, que
ofrece un amplio rango de soluciones al problema de almacenar datos.
TIPOS DE ARCHIVO: La forma más básica de identificar un archivo es por su
nombre, que normalmente se corresponde con la información que contiene.
Pero hay más datos que pueden resultarte útiles para trabajar con los archivos
de un ordenador, como por ejemplo qué tipo de archivo (su extensión).
Extensión: son las abreviaturas que te indican qué tipo de archivo es y se
corresponden con el programa usado para crearlo, abrirlo o modificarlo, qué
dependerá de los programas que tengas instalados en tu ordenador.
Hay muchos tipos: jpeg, pdf, png, bmp,mpg, psd, gif, ico, flv, mp4, avi, 3gp,
compresión: zip, rar, 7z y otros, sonidos: mp3, wma, mdi, nintendo DS: nds
para los juegos, sav para las partidas guardadas y eso sin contar todos los
tipos de programas, aplicaciones etc.
RESGUARDO DE ARCHIVOS: Dentro de los aspectos aplican a la seguridad
de la información se encuentra la generación de resguardos o respaldos; y es
que en la actualidad la importancia de la información es tal, que muchas
organizaciones la guardan en verdaderas fortalezas, auténticamente como su
tesoro más preciado.
El primer factor que se debe establecer para abordar el dilema de la
información a resguardar, es clasificar el tipo de información o datos con los
que el centro u organización opera y establecer un esquema por orden de
importancia. Un ejemplo podría ser:
Archivos para la producción
Archivos del sistema operativo en uso
Archivos para el desarrollo de nuevos sistemas.
ALMACENAMIENTO DE DATOS: son componentes que leen o escriben datos
en medios o soportes de almacenamiento, y juntos conforman la memoria o
almacenamiento secundario de la computadora.
Estos dispositivos realizan las operaciones de lectura o escritura de los
medios o soportes donde se almacenan o guardan, lógica y físicamente, los
archivos de un sistema informático.
DISPOSITIVOS: Son estructuras sólidas, electrónicas y mecanicas las cuales
son diseñadas para un uso especifico, estos se conectan entre sí para crear
una conexión en común y obtener los resultados esperados siempre y cuando
cumplan con las reglas de configuración.
SOPORTES Y TECNICAS: El disco rígido es el dispositivo donde se
almacenan todos los datos de manera permanente, además de tener instalados
el sistema operativo (DOS, WINDOWS, etc. ) y los programas que se utilizan
habitualmente en el ordenador (procesador de textos, hoja de cálculo, base de
datos, etc.).
Normalmente un archivo se almacena diseminado en pistas, sectores y
cilindros o sea se graba en las caras de los distintos platos simultáneamente,
porque la estructura que sostiene los brazos con sus cabezas de lecto-escritura
mueve todo el conjunto de cabezas al mismo tiempo.
El trabajo del disco empieza cuando el programa de aplicación en
coordinación con el Sistema operativo comienza a escribir sobre las superficies
de los platos. Por cada grupo de datos escrito se crea una nueva entrada de
registro en un sector ( para ser mas exactos en la cara 0, pista 0, sector 1, en le
borde del disco), creando un índice maestro de ubicación de los datos, que se
conoce con el nombre de FAT = File AllocationTable (registro similar al índice
de un libro). La información de lectura - escritura es dada a conocer a la CPU
por la tarjeta electrónica propia del disco duro.
Técnicas: Consiste en una aplicación, USB Switchblade, guardada en USB,
este USB se introduce en la maquina victima y se ejecuta mediante la
reproducción automática de dispositivos. Esta aplicación recoge información de
la maquina victima: secretos LSA, contraseñas de Windows, dirección IP,
puertos abiertos, contraseñas de correo, historiales de navegación,
contraseñas guardadas en el navegador, serials de aplicaciones instaladas…
Además crea una cuenta con privilegios de administración y un servicio oculto
VNC para poder controlar dicha maquina.
UNIDADES Y SOPORTES DE SALIDA: Estos dispositivos traducen los bits y
bytes aun forma comprensible para el usuario.
Monitores: Una VDT (video display terminal, terminal de despliegue visual)
sirve como dispositivo de salida para recibir mensajes del computador. Las
imágenes de un monitor se componen de pequeños puntos llamados pixeles
(pictureelements) o elementos de imagen. La cantidad de ellos que hay por
cada pulgada cuadrada determina la definición del monitor que se expresa en
puntos por pulgada o dpi (dots per inch). Cuanto más alta es la definición, más
cercanos están los puntos.
DISTRIBUCION DE SALIDA: Distribución es la acción y efecto de distribuir
(dividir algo entre varias personas, dar a algo el destino conveniente, entregar
una mercancía). El término, que procede del latín distributivo, es muy habitual
en el comercio para nombrar al reparto de productos.
La distribución, en este caso, es el proceso que consiste en hacer llegar
físicamente el producto al consumidor. Para que la distribución sea exitosa, el
producto debe estar a disposición del potencial comprador en el momento y en
el lugar indicado. Por ejemplo: la distribución de una bebida refrescante debe
reforzarse durante el verano ya que aumenta su demanda. En dicha
temporada, la bebida tiene que llegar a los centros turísticos y a los destinos de
veraneo, entre otros lugares de concentración masiva de gente.
UNIDAD IV (TECNOLOGIA DE HARDWARE)
PROCESASOR: Es el microchip encargado de ejecutar las instrucciones y
procesar los datos que son necesarios para todas las funciones del
computador. Se puede decir que es el cerebro del computador.
TIPOS:
Procesadores dedicados: Para desarrollar una tarea muy especifica.
Ejecutando un único algoritmo de forma óptima.
Procesadores de propósito general: Está capacitado para ejecutar una serie de
instrucciones sean E/S (entrada/salida), lógicas, aritméticas, etc. Almacenando
y listando una colección de instrucciones en una memoria secundaria
(programa) de tal forma que el procesador de modo secuencial lleve a cabo
cada una de ellas.
CISC: Complex Instruction Set Computing. Posee un número grande y longitud
variable de instrucciones, alto porcentaje de ciclos por instrucción, operaciones
de microcódigo, baja optimización en el uso de registros.
RISC: Reduced Instruction Set Computing. Posee un número bajo y longitud
fija de instrucciones, bajo porcentaje de ciclos por instrucción, no tiene
operaciones de microcódigo, muchos registros de propósito general,
compilador optimizado. Su arquitectura permite un cierto grado de paralelismo
en su ejecución.
Power PC: Diseñados para rendir al igual que los mejores CISC y RISC, pero
mejorando sus errores. Tiene un conjunto de instrucciones distinto a estos
procesadores, pero puede emular sus características para ejecutar los
programas escritos para ellos. Usados en computadores tipo Estaciones de
Trabajo y en equipos de medio rango.
SIMD: Single instruction, multiple data. Tiene una organización única de
instrucción y datos múltiples. Manipula instrucciones de vector mediante
múltiples unidades funcionales que responden a una instrucción común.
Microprocesadores: Son de uso general, requieren dispositivos externos de
memoria y de comunicación con el exterior (E/S).
Microcontroladores: Integran memorias y elementos de entrada/salida junto al
microprocesador.
ASIC: Application-Specific Integrates Circuits. Integra en un solo chip los
elementos analógicos y digitales necesarios para efectuar una determinada
función.
DSP: Digital SignalProcessors. Procesadores de alta velocidad y poca
memoria, muy eficientes para efectuar algoritmos de procesado de la señal.
Procesadores Neuronales, transputers: Están equipados con elementos que
facilitan su comunicación de forma que puede distribuirse fácilmente una
función entre varios de ellos.
Procesador convencional: Ejecuta las instrucciones en forma de serie es decir,
una detrás de otra.
Procesador con paralelismo interno: Externamente ejecuta las instrucciones
como si fuera un procesador convencional en serie, pero internamente puede
efectuar operaciones en paralelo.
Procesador con paralelismo externo: Se presenta en los sistemas que incluyen
varios procesadores como los servidores, los mainframes y los
supercomputadores.
Multiprocesador: Se acostumbra a usar la arquitectura de multiprocesador con
memoria común en los servidores. Cada uno de estos procesadores incluyen
una memoria caché de grandes dimensiones para reducir el trafico con la
memoria común.
DIRECCIONAMIENTO: son las diferentes maneras de especificar en
informática un operando dentro de una instrucción en lenguaje ensamblador.
Un modo de direccionamiento especifica la forma de calcular la dirección
de memoria efectiva de un operando mediante el uso de la información
contenida en registros y / o constantes, contenida dentro de una instrucción de
la máquina o en otra parte.
VELOCIDAD DE PROCESO: La velocidad de procesamiento de una PC es la
que el computador responde para dado por el Procesador (P.Ej: 2.4 Ghz) que
es el ciclo de reloj otorgado por el procesador (velocidad del CPU) y que
además está apoyada por la velocidad del bus de comunicación de la Tarjeta
Madre y de los demás componentes internos que permiten el funcionamiento
del PC. Esta velocidad es medida en Ghz actualmente dado por procesadores
CoreQuadCore o I3 i7.
CARACTERISTICAS: El sistema operativo mantiene por cada proceso una
serie de estructuras de información que permiten identificar las características
de este, así como los recursos que tiene asignados. En esta última categoría
entran los descriptores de los segmentos de memoria asignados, los
descriptores de los archivos abiertos, los descriptores de los puertos de
comunicaciones, etc.
Una parte muy importante de esta información se encuentra normalmente
como en el llamado bloque de control de procesos (BCP). El sistema operativo
mantiene una tabla de procesos con todos los BCP de los procesos. Por
razones de eficiencia, la tabla de procesos se construyen normalmente como
una estructura estática, que tiene un determinado número de BCP, todos ellos
del mismo tamaño. La información que compone un proceso es la siguiente:
Contenido de los segmentos de memoria en los que residen el código y
los datos del proceso. A esta información se le denomina imagen de
memoria o coreimage.
Contenido de los registros del modelo de programación.
Contenido del BCP.
FUNCIONES ARITMETICO LOGICAS Y DE CONTROL: también conocida
como ALU (siglas en inglés de arithmeticlogicunit), es un circuito digital que
calcula operaciones aritméticas (como suma, resta, multiplicación, etc.) y
operaciones lógicas (si, y, o, no), entre dos números.
Muchos tipos de circuitos electrónicos necesitan realizar algún tipo de
operación aritmética, así que incluso el circuito dentro de un reloj digital tendrá
una ALU minúscula que se mantiene sumando 1 al tiempo actual, y se
mantiene comprobando si debe activar el sonido de la alarma, etc.
Por mucho, los más complejos circuitos electrónicos son los que están
construidos dentro de los chips de microprocesadores modernos. Por lo tanto,
estos procesadores tienen dentro de ellos un ALU muy complejo y potente. De
hecho, un microprocesador moderno (y los mainframes) puede tener múltiples
núcleos, cada núcleo con múltiples unidades de ejecución, cada una de ellas
con múltiples ALU.
Muchos otros circuitos pueden contener en el interior una unidad
aritmético lógica: unidades de procesamiento gráfico como las que están en las
GPU NVIDIA y AMD, FPU como el viejo coprocesador matemático 80387, y
procesadores digitales de señales como los que se encuentran en tarjetas de
sonido SoundBlaster, lectoras de CD y los televisores de alta definición. Todos
éstos tienen en su interior varias ALU potentes y complejas.
MEMORIA RAM: La memoria de acceso aleatorio (en inglés: random-
accessmemory), se utiliza como memoria de trabajo para el sistema operativo,
los programas y la mayoría del software. Es allí donde se cargan todas las
instrucciones que ejecutan el procesador y otras unidades de cómputo. Se
denominan "de acceso aleatorio" porque se puede leer o escribir en una
posición de memoria con un tiempo de espera igual para cualquier posición, no
siendo necesario seguir un orden para acceder a la información de la manera
más rápida posible. Durante el encendido del computador, la rutina POST
verifica que los módulos de memoria RAM estén conectados de manera
correcta. En el caso que no existan o no se detecten los módulos, la mayoría
de tarjetas madres emiten una serie de pitidos que indican la ausencia de
memoria principal. Terminado ese proceso, la memoria BIOS puede realizar un
test básico sobre la memoria RAM indicando fallos mayores en la misma.
MEMORIA ROM: La memoria ROM, (read-onlymemory) o memoria de sólo
lectura, es la memoria que se utiliza para almacenar los programas que ponen
en marcha el ordenador y realizan los diagnósticos. La mayoría de los
ordenadores tienen una cantidad pequeña de memoria ROM (algunos miles de
bytes).
MEMORIA CACHE: Está diseñado especialmente para servir al apropiado y
organizado almacenamiento de información en una computadora. Su función
es básicamente mantener de manera temporal y accesible aquellos datos que
son requeridos para realizar determinadas funciones o tareas. Esta
disponibilidad permite que cada programa o archivo tenga inmediato acceso a
la información necesaria y pueda así dedicarse a subir el nivel de eficiencia de
las funciones normales. De tal modo, la memoria principal cuenta con una gran
ayuda que le permite adquirir mayor velocidad de desempeño y mejores
resultados por fuera de sus limitadas capacidades.
CAPTURA DE DATOS: La captura y el análisis de los datos de producción es
una importantísima fuente de información para todas las empresas. En este
caso, se trata de recopilar y valorar todos los datos relativos a personas,
pedidos y producción. La integración de esa información procesada en
sistemas PPS o ERP supone el conocimiento y transparencia necesarios para
la toma de decisiones administrativas en el día a día.
UNIDADES Y SOPORTES DE ENTRADA: Los dispositivos de entrada
traducen los datos a una forma que la computadora pueda interpretar, para
luego procesarlos y almacenarlos.
Dispositivos manuales
Teclado alfanumérico: El estándar es actualmente el teclado de 101 letras con
la distribución QWERTY, 12 teclas de funciones, un teclado o pad numérico,
teclas de función y teclas para el control del cursos. Algunos teclados están
diseñados para aplicaciones específicas, permitiendo una interacción rápida
con los sistemas de computación (v.g.: caja registradora). El teclado es un
circuito en forma de matriz; cada circuito está conectado al dispositivo
controlador, que reconoce la letra o código que envía el usuario cuando se
cierra o abre un circuito. La configuración del teclado puede ser modificado por
software.
Dispositivos apuntadores
Ratón: La efectividad de las GUI depende de la capacidad del usuario para
hacer una selección rápida de una pantalla con íconos o menúes. En estos
casos el mouse puede colocar el apuntador (o cursos gráfico) sobre un ícono
con rapidez y eficiencia. Los más comunes tienen una esfera en su parte
inferior que puede rodar en un escritorio.
Bola rastreadora (trackball) o bola palmar: Es una bola insertada en una
pequeña caja que se hace girar con los dedos para mover el curso gráfico.
Palanca de mando (joystick): también llamada palanca de control de juegos.
Es una palanca vertical que mueve el cursos gráfico en la dirección en que se
mueve la palanca.
Pantalla sensible al tacto (TouchScreen): Sirven cuando hay muchos usuarios
no familiarizados con las computadoras. Puede ser sensible al tacto por la
presión o por el calor. Son de muy baja velocidad.
Dispositivos ópticos
Lector de marcas o rastreador de marca óptica: Usa la luz reflejada para
determinar la ubicación de marcas de lápiz en hojas de respuestas estándar y
formularios similares.
Lector de código de barras: Usa la luz para leer UPC (Universal ProductCodes,
Códigos universales de productos), códigos de inventario y otros códigos
creados con patrones de barras de anchura variable. Los códigos de barra
representan datos alfanuméricos variando el ancho y la combinación de las
líneas verticales adyacentes. La ventaja de los códigos de barras sobre los
caracteres es que la posición u orientación del código que se lee no es tan
importante para el lector.
Lector de vara (lápiz óptico): Usa luz para leer caracteres alfabéticos y
numéricos escritos con un tipo de letra especial, siendo también legible para las
personas este tipo de letra; muchas veces estos lectores están conectados a
terminales POS (point-of-sale, punto de venta). Cuando se usan de esta forma
el computador lleva a cabo un reconocimiento óptico de caracteres (OCR,
opticalcharacterrecognition).
Rastreador de páginas: Rastrea e interpreta los caracteres alfanuméricos de
las paginas impresas normales. Se usa para convertir una copia dura a un
formato que la máquina puede leer. Este tipo de rastreador puede reducir al
mínimo o eliminar la captura de datos mediante el teclado.
Dispositivos magnéticos
MICR (magneticinkcharacterrecognition, reconocimiento de caracteres en tinta
magnética) o Lectora de caracteres magnéticos: lee los caracteres impresos
con tinta magnética en los cheques. En ellos el número de cuenta y el número
de cheque se encuentran codificados; la fecha de la transacción se registra
automáticamente para todos los cheques procesados ese día; por tanto, sólo
se debe teclear el importe en un inscriptor MICR. Un lector-ordenador MICR lee
los datos de los cheques y los ordena para el procesamiento que corresponda.
Estos dispositivos de reconocimiento son más rápidos y precisos que los OCR.
Lectora de bandas magnéticas: Las bandas magnéticas del reverso de las
tarjetas de crédito, por ejemplo, ofrece otro medio de captura de datos
directamente de la fuente (como los dispositivos ópticos). Se codifican las
bandas con datos apropiados para la aplicación. Las bandas magnéticas
contienen muchos más datos por unidad de espacio que los caracteres
impresos o los códigos de barras. Además, dado que no se pueden leer
visualmente, son perfectos para almacenar datos confidenciales.
Digitalizadores
Para que un computador pueda reconocer texto manuscritos, primero tiene que
digitalizar la información, convertirla en alguna forma digital para poder
almacenarla en la memoria del computador. Hay diferentes dispositivos de
entrada para capturar y digitalizar información:
Digitalizador de imágenes (scanner): Puede obtener una representación digital
de cualquier imagen impresa. Convierte fotografías, dibujos, diagramas y otra
información impresa en patrones de bits que pueden almacenarse y
manipularse con el soft adecuado
Cámara digital: Es un digitalizador de imágenes que permite tomar fotografías
del mundo real y obtener imágenes digitales; es decir que no se limita a
capturar imágenes impresas planas, puede registrar las mismas cosas que una
cámara normal, sólo que en lugar de registrar las imágenes en película, las
cámaras digitales almacenan patrones de bits en discos u otros medios de
almacenamiento digital.
Digitalizador de audio: Permite digitalizar sonidos de micrófonos y otros
dispositivos de sonido. Para que el computador interprete correctamente la
entrada de voz digitalizada como si fueran palabras se requiere software de
inteligencia artificial. Una unidad de respuesta auditiva o un sintetizador de vos
hace que la conversación sea un diálogo. El reconocimiento del habla funciona
de la siguiente manera:
Se dice la palabra. Cuando se habla en un micrófono, cada sonido se divide en
sus diversas frecuencias.
Se digitaliza la palabra. Se digitalizan los sonidos de cada palabra de modo que
la computadora los pueda manejar.
Se compara la palabra. Se compara la versión digitalizada contra modelos
similares del diccionario electrónico de la computadora. El modelo digitalizado
es una forma que las computadoras pueden almacenar e interpretar.
Se presenta la palabra o se realiza el comando. Cuando se encuentra una
igualdad, se presenta en una VDT o se realiza el comando adecuado.
En el reconocimiento del habla, la creación de los datos se conoce como
capacitación. La mayor parte de los sistemas de reconocimiento del habla son
dependientes del locutor, es decir que responde a la voz de un individuo
particular.
La tecnología más reciente permite sistemas independientes del locutor, pero
necesitan una base de datos muy grande para aceptar el patrón de voz de
cualquier persona.
Digitalizador de vídeo: Es una colección de circuitos que puede capturar
entradas de una fuente de vídeo y convertirla en una señal digital que puede
almacenarse en la memoria y exhibirse en pantallas de computador. Cuando se
pone en operación el sistema, éste compara la imagen digitalizada que se debe
interpretar con las imágenes digitalizadas registradas previamente en la base
de datos. Estos sistemas de entrada de visión son apropiados para tareas
especializadas, en que sólo se encuentran unas cuantas imágenes.
Dispositivos sensores: diseñados para hacer seguimientos de la temperatura,
la humedad, l presión y otras cantidades físicas, proporcionan datos útiles en
robótica, control ambiental, pronósticos meteorológicos, supervisión médica,
biorretroalimentación, investigación científica y cientos de aplicaciones más.
TECNICAS DE VALIDACION Y CONTROL EN LA CAPTURA DE DATOS:
Todo sistema de información contiene entradas y salidas, para llegar a tener
esos componentes se deben utilizar cierto conocimiento para su diseño. Luego
de un arduo levantamiento de información se debe tener muy en claro cuáles
son los objetivos de ese diseño y cuáles son los datos a capturar. A la hora de
la captura de datos se debe ser muy meticuloso con la validación de los
mismos, así, se garantizara al usuario que los datos que está incluyendo son
los correctos para ese momento, para realizar un buen proceso y arrojar las
salidas necesarias y satisfactorias. Debido a esto el diseño de las salidas
también debe ser muy bien estudiado porque no puede arrojar una factura si lo
que se espera es un gráfico de barras, o se espera por pantalla y lo envió
directamente a impresora. Son aspectos importantísimos que se deben tomar
en cuenta en estos casos, al igual de la forma como se van a capturar los
datos, ya que hoy en día existen mucha diversidad de componentes que van
desde el más remoto, como lo es el teclado, hasta una lectura óptica. Hoy en
día los sistemas de información son utilizados a nivel mundial y en cualquier
área que uno se pueda imaginar, pero siempre ingresando datos que se
procesas y generan unos resultados. Para el desarrollo de esos sistemas de
información existen técnicas que se deben utilizar para obtenerlos resultados
requeridos. Primeramente se debe conocer la problemática a solucionar y
luego hacer todo un levantamiento y análisis de información, para luego hacer
un Diseño de Entrada/Salidas al sistema, evaluar los datos a incluir y como va
a ser su captura. En esta oportunidad se estudiaran dichos tópicos, y así, lograr
un mayor conocimiento sobre ellos y poder dar respuestas acertadas a la hora
de que se nos presente la oportunidad de desarrollar un sistema.
Diseño De Entrada: Es el enlace que une al sistema de información con el
mundo y sus usuarios, en esta existen aspectos generales que todos los
analistas deben tener en cuenta estos son: Objetivos del Diseño de Entrada,
Captura de Datos para la Entrada,
Objetivo del Diseño de Entrada: Consiste en el desarrollo de especificaciones y
procedimientos para la preparación de datos, la realización de los procesos
necesarios para poner los datos de transacción en una forma utilizable para su
procesamiento así como la entrada de los datos se logra al instruir a la
computadora para que lea ya sea documentos escritos, impresos ó por
personas que los escriben directamente al sistema. Existen cinco objetivos que
controlan la cantidad de entrada requerida, a enviar los retrasos, controlar los
errores y mantener la sencillez de los pasos necesarios, estos son:
Control de la Calidad de Entrada, Evitar los Retrasos, Evitar los errores en los
datos, Evitar los pasos adicionales, Mantener la Sencillez del Proceso, Control
de la Calidad de Entrada: Existen varias razones por las cuales un buen
diseñador debe controlar la cantidad de datos en la entrada: Las Operaciones
de preparación y entrada dependen de las personas dado que los costos de
mano de obra son altos y la preparación de ingreso de los datos también lo
son. La fase de entrada puede ser un proceso lento que toma mucho más
tiempo que el que necesitan las computadoras para realizar sus tareas.
Evitar los Retrasos: También conocido con el nombre de cuello de botella son
siempre uno de los objetivos que el analista evita al diseñar la entrada, una
forma de evitarle es utilizar los documentos de retorno. Evitar los Errores en los
Datos: La tasa de errores depende de la cantidad de datos, ya que entre mas
pequeña sea esta menores serán las oportunidades para cometer errores. Es
común encontrar en las operaciones de ventas por lo menos un 3% de errores
en las operaciones de entrada de datos. Evitar los Pasos Adicionales: Algunas
veces el volumen de transacciones y la cantidad de datos en preparación es
algo que no se puede controlar por ello el analista experimentado, evitara
diseños para la entrada que traigan una mayor cantidad de pasos a seguir. Ya
sea añadir o quitar pasos cuando se alimenta un proceso muchas veces al
transcurso de un día. Mantener la sencillez del Proceso: El sistema mejor
diseñado se ajusta a las personas que lo utilizarán y al mismo tiempo
proporcionarán métodos para el control de los errores, la simplicidad funciona y
es aceptada por cualquier usuario. Cuesta trabajo que los usuarios acepten
sistemas complejos o confusos y que no exista ninguna garantía para el éxito al
instalar un sistema complejo y que domine. Captura de Datos para la Entrada.
En una transacción existen datos importantes y otros que no, el analista debe
saber cuales utilizará y cuales en realidad deben formar la entrada. Existen dos
tipos de datos: Datos variables, Datos de identificación,
Datos Variables: Son aquellos que cambian para cada transacción o toman de
decisión.
Datos de Identificación: Estos son los que identifican en forma única el artículo
que esta siendo procesado.
Diseño De Salida: El término " salida" se aplica a cualquier información
producida por un sistema, ya sea impresa, desplegada o verbal. Cuando los
analistas diseñan la salida, seleccionan métodos para representar la
información y crean documentos, informes u otros formatos que contienen
información producida por el sistema. Los métodos de salida varían a lo largo
de los sistemas. Para algunos, como un informe de inventarios de la cantidad
de mercancía, el sistema del computador, bajo el control del programa, nada
más consulta los datos que se tienen a mano en el almacenamiento, y los
ensambla en una forma que sea presentable. Otra salida puede requerir
procesamiento sustancial, antes de que este disponible para utilizarlo. Los
analistas deben decidir cuando imprimir, desplegar o presentar su salida en
forma audible. La salida impresa puede utilizar papel en blanco o formas
preimpresas, la salida visual puede utilizar una o múltiples pantallas para
desplegar información.
Los sistemas de información ya sean que se desarrollen sobre sistemas
pequeños de escritorio o sobre grandes sistemas, utilizan 3 métodos
principales para la salida los cuales se clasifican en: Impresión, Pantalla,
Despliegue y audio, Objetivos de la Salida, Expresar la Información
Relacionada con Actividades Pasadas, Estado Actual o Proyecciones para el
Futuro. Señalar Eventos Importantes, Oportunidades, Problemas ó
Advertencia. Iniciar una Acción, Confirmar una Acción. El objetivo principal
durante el diseño de salida de la computadora es la información que será
presentada a las personas, puede afirmarse que la salida de la computadora es
para las personas, es por esto que no se aborda la forma en que los datos se
mueven entre los procesos o entre los almacenamientos de datos. Captura de
Datos, Teclados, Códigos de Barra, OCR, Formas de Reconocimiento de
Marcas, OMR, Teclados, Teclear es el método más viejo de entrada de datos y
ciertamente es uno con los que los miembros de la organización están más
familiarizados. Durante los años se han hecho algunas mejoras para
perfeccionar los teclados. Las características incluyen teclas de función
especial para abrir programas, teclas usadas para navegar y explorar en la web
y teclas que se pueden programas con macros para reducir el número de
tecleos necesarios. Los teclados infrarrojos o habilitados para Bluetooth y los
ratones también son grandes avances,
PRESENTACION DE LA INFORMACION: La presentación es el proceso
mediante el cual dispone de contenido de un tema para una audiencia.
Una presentación es una forma de ofrecer y mostrar información de
datos y resultados de una investigación. Es utilizado, generalmente, como
apoyo para expresar los resultados de una investigación pues con la
presentación se dispone de un contenido multimedia (es decir cualquier apoyo
visual o auditivo) que de una referencia sobre el tema y ayude a explicar los
datos obtenidos de una investigación. Una presentación puede llevar textos,
imágenes, vídeos y archivos de audio. Se puede dividir en dos tipos: la
presentación multimedia que es generalmente más utilizada a través de un
programa de presentaciones pero que también es posible realizar a través de
carteles con imágenes y audio generalmente grabados para su reproducción
(utilizado para presentar productos, proyectos, etc.). O la presentación común
(ésta solo utiliza imágenes y texto en carteles), una presentación que contiene
sólo imágenes, a menudo acompañadas de efectos o texto superpuesto; Lo
mismo que ocurre con la presentación multimedia ocurre con este tipo de
presentación pues se puede realizar tanto en un programa de presentaciones
como a través de carteles de apoyo que ayuden a expresar un tema.
UNIDADES Y SOPORTES DE SALIDA:
Impresora.
Sintetizado de voz.
Visualizador.
Trazador de gráficos o "plotter".
Monitor.
Microfilm.
Instrumentación científica o industrial.
UNIDAD V (SOFWARE GESTION Y PROGRAMACION)
CONCEPTO: Es el equipamiento lógico e intangible de un ordenador. En otras
palabras, el concepto de software abarca a todas las aplicaciones informáticas,
como los procesadores de textos, las planillas de cálculo y los editores de
imágenes.
El software es desarrollado mediante distintos lenguajes de
programación, que permiten controlar el comportamiento de una máquina.
Estos lenguajes consisten en un conjunto de símbolos y reglas sintácticas y
semánticas, que definen el significado de sus elementos y expresiones. Un
lenguaje de programación permite a los programadores del software
especificar, en forma precisa, sobre qué datos debe operar una computadora.
CLASIFICACION: Se clasifica en 2 partes:
SOFTWARE DE SISTEMAS: Son aquellos programas que permiten la
administración de la parte física o los recursos de la computadora, es la
que interactúa entre el usuario y los componentes hardware del
ordenador. Se clasifican el Sistemas Operativos Monousuarios y
Multiusuarios.
SOFTWARE DE APLICACION: Son aquellos programas que nos
ayudan a tareas especificas como edición de textos, imágenes, cálculos,
etc. también conocidos como aplicaciones.
SOFWARE A MEDIDA Y ESTANDAR: El Software a medida se adapta en un
todo a la organización, hasta en las particularidades más especiales o únicas
que están presentes. En este caso, el software es una fiel automatización de
los sistemas de información y operaciones de la empresa, aunque suele
suceder que estas particularidades normalmente suelen ser variaciones sobre
los estándares que no agregan ningún tipo de valor respecto al estándar.
Estándar: En esta alternativa debemos de diferencias primero de todo 2 tipos
de SW estándar: rígidos y parametrizables.
En el SW estándar rígido la organización debe de adaptarse totalmente
al estándar. En el SW estándar parametrizable la organización puede
configurar el producto para ser un poco más a su medida, aunque esto
depende principalmente del nivel de parametrización que permita el software.
En ambos casos este tipo de tecnología automatiza sistemas de
información y circuitos administrativos estándares ya definidos por el fabricante.
Una vez definida las dos opciones, vamos a profundizar un poco en el
tema. Si bien existe una gran cantidad de variantes entre estos dos extremos,
la realidad es que no hay una regla que nos permita identificar la mejor opción
para todas las organizaciones. Lo que sí, existen una serie de criterios a seguir,
que aplicados a cualquier organización, permiten maximizar la probabilidad de
éxito en esta crucial decisión.
Si tenemos en cuenta que el único software que recién desarrollado no
falla es el que aún no se ha escrito, deberemos estimar que además de contar
con el tiempo necesario para estabilizar el software, tendremos que cargar con
los costes de cada error o fallo de esta etapa inicial, como el tiempo invertido
en negociaciones intentando redimir si el fallo está incluido o no en el contrato,
era lo que había definido inicialmente o es algo añadido.
DOCUMENTO: El documento electrónico debe entenderse como toda
expresión en lenguaje natural o convencional y cualquier otra expresión gráfica,
sonora o en imagen, recogidas en cualquier tipo de soporte material, incluso los
soportes informáticos, con eficacia probatoria o cualquier otro tipo de relevancia
jurídica.
CRITERIOS Y METODOLOGIAS DE LA SELECCIÓN DEL SOFWARE:Los
diseñadores de software tienen interés de trabajar con metodologías lo
suficientemente documentadas, que nos faciliten la obtención de información,
pero también es interesante trabajar con metodologías que dispongan de algún
tipo de certificación y training. Según estas condiciones, hemos determinado
seis clasificaciones que permiten seleccionar una metodología, según se
encuentran mejor posicionadas, en el acumulado final.
Las clasificaciones son:
La metodología con mayor presencia en Internet.
La metodología mejor documentada.
Metodologías certificadas y con training.
Metodologías con comunidades.
Metodología más utilizada por empresas. Presencia empresarial.
Metodología más utilizada en proyectos software.
Se considera como metodologías certificadas aquellas que emiten un
certificado que aseguran el cumplimiento y seguimiento de la metodología, así
como sus técnicas y prácticas.
Una metodología dispone de training, si se encuentra alguna institución,
organización o compañía que ofrezca formación de la metodología.
Se considera que una metodología tiene comunidad, contemplando si se
ha formado una comunidad relevante o si está asociada a la Agile Alliance,
soportándola y cumpliendo sus principios.
Se consideran los proyectos realizados, en su mayoría por metodologías
que se han aplicado en empresas privadas y por lo tanto no existe mucha
documentación pública al respecto. Por lo tanto, determinar esta clasificación,
requiere de una búsqueda exhaustiva.
Selección de metodologías
Este aspecto no ha sido tratado de manera adecuada, sobre todo en el ámbito
de las metodologías tradicionales, y en el caso de las ágiles no existe un
criterio unificado. Por ello, el presente artículo se orienta a la formulación inicial,
en base a la información existente a la fecha y a la experiencia personal, a la
formulación de dos procedimientos al respecto: selección por criterios de
presencia y por conocimiento.
Aplicación del criterio de selección por presencia
A un grupo de programadores profesionales en el medio local (10), se le ha
aplicado una encuesta, sobre recordación, conocimiento y uso de
metodologías, quedando un grupo de 5 metodologías, que se han evaluado,
según este criterio de selección.
Para determinar la presencia, de las metodologías en Internet, se han
realizado búsquedas en Google, Yahoo y Live. Sobre el resultado, se asignaron
5 puntos al mayor, y 1 punto al menor.
Para determinar las metodologías de mayor documentación, se han
considerado como documentos, los Libros en español, Libros en inglés y
Papers que hablen sobre la aplicación de la metodología. Siguiendo el mismo
método, se asignó 5 puntos al mayor y 1 punto al menor.
En el caso de la Certificación y Training, se ha buscado si hay
instituciones que certifican la implementación de la metodología, así como si
hay entrenamiento o capacitación en la misma. Como no es posible hacer
diferencias en cuanto a la certificación, habiéndose asignado el mismo puntaje
a las metodologías que tienen Certificación y Training (5 puntos) y 3 puntos las
metodologías que contienen sólo training.
En cuanto a Comunidades, la mayoría pertenece a la Agile alliance, pero
hay algunas que tienen sus propias comunidades, alianzas e intensa actividad
a su alrededor. A estas metodologías se le asignaron 5 puntos, porque no es
posible diferenciar entre estas comunidades el número de miembro. A las
metodologías que solo pertenecen a la Agile alliance, se le asignaron 2 puntos.
En cuanto a proyectos de software y presencia empresarial, se han
asignado 5 puntos, a la metodología que presenta más proyectos y un punto a
la que presenta menos.
Resultado de la aplicación del criterio de selección por presencia
Se ha preparado un cuadro resumen con los resultados de la selección. Para
cada metodología evaluada, se ha colocado la puntuación que se ha obtenido
de la clasificación. La sumatoria de cada clasificación determina que Scrum, es
la metodología que se debería usar, por tener una mejor puntuación.
Selección de metodología, por criterios de conocimientos
En función del grupo de trabajo o de diseño, se consideran los siguientes
criterios en función de los conocimientos que el equipo de desarrollo tenga de
las metodologías a evaluar. Estos criterios son:
Grado de conocimiento
Soporte orientado a objetos
Adaptable a cambios
Basado en casos de uso
Posee documentación adecuada
Facilita la integración entre las etapas de desarrollo
Relación con UML
Permite desarrollo software sobre cualquier tecnología
En función de los conocimientos que el equipo tenga, se establecen los
pesos para cada criterio. Por ejemplo, Ríos y Suntaxi [37], en su tesis de grado,
proponen la siguiente tablas de pesos:
20% para el Grado de conocimiento
15% para Adaptable a cambios y Posee documentación adecuada
10% para el resto de criterios Para determinar la metodología a usar,
Ríos y Suntaxi, han elaborado un cuadro resumen, evaluando las
siguientes metodologías:
RUP, RationalUnifiedProcess
MSF, Microsoft Solution Framework
RAD, Rapid ApplicationDevelopment
XP, Extreme Programming
En esta evaluación, la metodología RUP es la que recibe un mayor puntaje por
parte del equipo de desarrollo.
INTEGRACION DEL SOFWARE: Una de las fases del ciclo de vida del
software es la de integración. Es imprescindible poder integrar los desarrollos
de software en forma de productos y soluciones para que puedan ponerse en
uso.
Esto exige manejarse en varias disciplinas, no perder de vista el punto
de vista del usuario, definición y aplicación de procedimientos con rigor, llevar a
cabo gestiones de configuración, etc.
Algunas tareas que suelen realizarse con la integración del software es
la creación de paquetes, la creación de distribuciones clásicas o de
distribuciones la integración de servicios para entornos de trabajo en grupo,
migraciones de sistemas, etc.
APLICACIÓN EN LA PYME:Si una pyme decide apostar por un modelo de
negocio basado en software libre para diferenciarse se sus competidores y
poder mantener una dinámica distinta el primer problema que tendrá será la
elección de distintos programas que utilizará para su cometido. Para ello
pueden acudir a OpenPyme, catálogo de aplicaciones de software libre
especializado en la pyme.
Es un catálogo de Software Libre donde se recopilan, de forma
categorizada, productos sólidos y fiables que pueden incorporarse en cualquier
ámbito productivo de una empresa, mejorando así su gestión y competitividad
gracias a la inclusión de herramientas TIC. Es un buen punto de partida para
conocer las alternativas que nos ofrece el software libre.
Disponen de todo tipo de aplicaciones, categorizadas y ordenadas de
manera que encontrarlas nos resultará bastante fácil. Junto con cada aplicación
tenemos una pequeña reseña de su funcionalidady lo que nos puede aportar a
nuestra empresa. A la vez nos indican los requisitos técnicos para su
instalación. Se echa de menos una pequeña reseña de soluciones
multidisciplinares. Por ejemplo, una solución que esté incluida en varias
categorías que nos indique si además de como CRM servirá para la gestión
financiera o como ERP.
SUELDOS: El concepto de sueldo se refiere a la remuneración regular
asignada por el desempeño de un cargo o servicio profesional. La palabra tiene
su origen en el término latino solĭdus (“sólido”), que era el nombre de una
antigua moneda romana.
El término de sueldo suele ser utilizado como sinónimo de salario (del
latín salarĭum, relacionado con la “sal”), la remuneración regular o la cantidad
de dinero con que se retribuye a los trabajadores por cuenta ajena.
Puede decirse que el empleado recibe un sueldo a cambio de poner su
fuerza laboral a disposición del empleador, en el marco de una serie de
obligaciones compartidas que rigen su relación contractual.
CONTABILIDAD: Es la ciencia social, que se encarga de estudiar, medir y
analizar el patrimonio de las organizaciones, empresas e individuos, con el fin
de servir en la toma de decisiones y control, presentando la información,
previamente registrada, de manera sistemática y útil para las distintas partes
interesadas. Posee además una técnica que produce sistemáticamente y
estructuradamente información cuantitativa y valiosa, expresada en unidades
monetarias acerca de las transacciones que efectúan las entidades
económicas y de ciertos eventos económicos identificables y cuantificables que
la afectan, con la finalidad de facilitarla a los diversos públicos interesados.
La finalidad de la contabilidad es suministrar información en un momento
dado y de los resultados obtenidos durante un período de tiempo, que resulta
de utilidad a los usuarios en la toma de sus decisiones, tanto para el control de
la gestión pasada, como para las estimaciones de los resultados futuros,
dotando tales decisiones de racionalidad y eficiencia.
STOCK: Es una voz inglesa que se usa en español con el sentido de
existencias. En el lenguaje comercial y financiero su empleo como anglicismo
es frecuente, y por ello la RAE recomienda evitarlo y utilizar las voces en
español correspondientes a cada contexto. Se puede definir también como:
todo lo referente a los bienes que una persona u organización posee y que
sirven para la realización de sus objetivos.
CUENTAS CORRIENTES: La cuenta corriente es un contrato entre un banco y
un cliente que establece que la entidad cumplirá las órdenes de pago de la
persona de acuerdo a la cantidad de dinero que haya depositado o al crédito
que haya acordado. Dicha cuenta puede ser abierta y administrada por una
persona o por un grupo de personas; en este último caso, según las
condiciones, todos los individuos pueden estar habilitados para operar.
El propietario de una cuenta corriente puede disponer del dinero a través
de un cajero automático, la ventanilla de caja o algún tipo de talonario (como un
cheque). Es posible realizar descuentos de efectos, vincular pagos a la cuenta
y cobrar o pagar intereses o impuestos.
MODALIDADES DE LAS LICENCIAS DEL SOFWARE:
MODALIDADES DE ADQUISICION DEL SOFWARE FORMAS DE
ADQUISICION
LICENCIA DE SOFWARE: Una licencia de software es un permiso que se le
otorga a un individuo o grupo, para el uso de una pieza de software. La licencia
tiene un costo asociado y el software está sujeto a derechos de autor. “NOTA”
software se adquiere totalmente desarrollado y se utiliza exactamente como fue
escrito.
2. FORMAS DE ADQUISICION: SHAREWARE Se refiere a programas sujetos
a derechos de autor que se distribuyen originalmente sin cargo, pero cuyo uso
regular requiere el pago de una tarifa al autor. El cancelar, el usuario queda
registrado y puede recibir asistencia y actualizaciones. Se puede copiar y
distribuir el shareware, pero se espera a que cada usuario pague la tarifa si usa
regularmente el producto.“NOTA” software que se adquiere totalmente
desarrollado y se utiliza exactamente como fue escrito.
3. FORMAS DE ADQUISICION: FREEWARE. Se refiere a programas
protegidos por derechos de autor, pero liberados por el autor para su uso
gratuito. El freeware está disponible sin costo, pero el usuario solo puede
utilizarlo en las formas expresamente permitidas por el autor. Generalmente, se
permite el uso pero no la reproducción con fines comerciales. “NOTA” software
que se adquiere totalmente desarrollado y se utiliza exactamente como fue
escrito.
4. FORMAS DE ADQUISICION: SOFWARE DE DOMINIO PÚBLICO. Se
refiere a cualquier programa que no está sujeto a derechos de autor. Este
software es gratuito y se puede usar sin restricciones. En la mayoría de los
casos, el software de dominio público se publica en internet, por lo que los
usuarios pueden obtenerlo fácilmente. VENTAJAS: Con algunas
modificaciones, el usuario obtiene los resultados específicos que requiere.
DESVENTAJAS: no siempre se encuentra una opción valida en el mercado. No
siempre se logra una adaptación completa. Puede crear dependencia del
desarrollo. “NOTA” software se adquiere totalmente desarrollado y se modifica
para adaptarlo a las necesidades específicas del usuario.
5. FORMAS DE ADQUSICION: LICENCIA O VENTA DEL SOFWARE. Las
condiciones de adquisición de este tipo de software incluyen la posibilidad de
aplicarle las modificaciones necesarias al programa original .Estos cambios
pueden estar a cargo del usuario o del desarrollador, según el convenio que
establezca. VENTAJAS: el programa hace exactamente lo que el usuario
necesita. DESVENTAJAS: tiene costo relativamente elevado. Toma más
tiempo obtener el programa. “NOTA” software que se desarrolla completamente
bajo las especificaciones del usuario.
PROTECCION LEGAL DEL SOFWARE: La protección de la propiedad
intelectual en el mercado mundial ha tomado reciente significación en los
recientes años. Los propietarios de tecnología del mundo desarrollado,
particularmente los estadounidenses, han presionado recientemente para
obtener un régimen legal de propiedad intelectual fuerte y relativamente
uniforme, como piedra de toque para obtener un tratamiento equitativo en el
sistema global del comercio que emerge.
Por otro lado, la posibilidad de incorporar a la protección jurídica estos
programas de computo en el ámbito del derecho, específicamente en el de la
propiedad intelectual y particularmente en las normas autorales, viene dictada
por consideraciones de oportunidad, dada la dimensión económica de los
intereses en juego entre los que cabe destacar: la posible conservación de la
industria nacional frente a una fuerte concurrencia extranjera, la protección de
un producto cuya elaboración requiere un gran esfuerzo de inversión,
investigación y posterior difusión, y sobre todo, la evidente necesidad de una
harmonización internacional de reglamentaciones.
En la práctica jurídica internacional, la evolución de la materia no es
específica. Se puede comprobar, como en un principio, los programas de
computadora fueron objeto de protección a través de diversas formulas como el
secreto industrial, las cláusulas de confidencialidad en los contratos y la
competencia desleal, pero pronto se puso de manifiesto su insuficiencia, y los
medios profesionales interesados solicitaron una regulación que les asegurara
la propiedad y la protección derivada de la misma.
LENGUAJE: es un lenguaje usado por, o asociado con, ordenadores. Muchas
veces, este término es usado como sinónimo de lenguaje de programación,
pero un lenguaje informático no tiene por qué ser un lenguaje de programación.
Como ejemplo un lenguaje de marcas como el HTML no es un lenguaje
de programación, pero sí es un lenguaje informático.
En general, como cualquier otro lenguaje, un lenguaje de ordenador es
creado cuando hay que transmitir una información de algo a alguien basado en
computadora.
El lenguaje de programación es el medio que utilizan los programadores
para crear un programa de ordenador; un lenguaje de marcas es el medio para
describir a un ordenador el formato o la estructura de un documento; etc.
CLASIFICAION: Los Lenguajes informáticos pueden ser clasificados en varias
clases, entre las que se incluyen las siguientes.
Lenguaje de programación
Lenguaje de especificación
Lenguaje de consulta, como SQL o XQuery
Lenguaje de marcas, como XML y otros más ligeros
Lenguaje de transformación, como XSLT
Protocolo de comunicaciones, como http,ftp
Lenguaje de sonido, para crear sonidos,
Lenguaje gráfico, para crear figuras y dibujos. Metapost,
Pseudocódigo
LENGUAJE DE MAQUINA DE BAJO Y ALTO NIVEL:
Bajo Nivel: Es el que proporciona un conjunto de instrucciones
aritmeticológicas sin la capacidad de encapsular dichas instrucciones en
funciones que no estén ya contempladas en la arquitectura del hardware.
Alto Nivel: Se caracteriza por expresar los algoritmos de una manera adecuada
a la capacidad cognitiva humana, en lugar de a la capacidad ejecutora de las
máquinas.
LENGUAJE DE CUARTA Y QUINTA GENERACION:
De Cuarta: Son lenguajes que se relacionan menos con procedimientos y que
son aun mas parecidos al ingles que los lenguajes de tercera generación.
•Algunas características incluyen capacidades de consulta y base de datos, de
creación de códigos y capacidades gráficas.
Ejemplos Visual C++, Visual Basic, PowerBuilder, Delphi, Forte y muchos otros.
•Lenguajes de consulta son utilizados para hacer preguntas ala computadora
con frases parecidas alas de un idioma, ejemplo el inglés.
•Lenguaje de consulta estructurado. Lenguaje estándar que a menudo se usa
para realizar consultas y manipulaciones ala base de datos.
De Quinta: Alrededor de la mitad 1998 surgieron gripos de herramientas de
lenguajes de quinta generación, los cuales combinan la creación de códigos
basadas en reglas, la administración de reutilización y otros avances.
Programación basada en conocimiento. Método para el desarrollo de
programas de computación en el que se le ordena ala computadora realizar un
propósito en vez de instruirla para hacerlo.
CARACTERISTICAS:
De Cuarta: término 4GL fue utilizado por primera vez en el libro
ApplicationsDevelopmentWithoutProgrammers de James Martin en 1982, para
referirse a los lenguajes de alto nivel no procedimentales.
Los primeros lenguajes que podrían llamarse "iniciadores primitivos" de
la categoría 4GL son el RPG de IBM del año 1960, el Informatics MARK-IV de
1967 y el MAPPER de Sperry de 1969.
Los lenguajes 4GL fueron evolucionando junto con el hardware y los
sistemas operativos. Aquellos lenguajes que tienen incorporado una interfaz de
desarrollo y un sistema de base de datos, constituyen claros ejemplos de la
cuarta generación de lenguajes de programación.
De Quinta: Lanzado por Japón a finales de los 70. Su objetivo era el desarrollo
de una clase de computadoras que utilizarían técnicas de inteligencia artificial
al nivel del lenguaje de máquina y serían capaces de resolver problemas
complejos, como la traducción automática de una lengua natural a otra (del
japonés al inglés, por ejemplo). El proyecto duró diez años, pero no obtuvo los
resultados esperados.
PROGRAMACION: programación es la acción y efecto de programar. Este
verbo tiene varios usos: se refiere a idear y ordenar las acciones que se
realizarán en el marco de un proyecto; al anuncio de las partes que componen
un acto o espectáculo; a la preparación de máquinas para cumplan con una
cierta tarea en un momento determinado; a la elaboración de programas para
la resolución de problemas mediante computadoras; y a la preparación de los
datos necesarios para obtener una solución de un problema a través de una
calculadora electrónica, por ejemplo.
En la actualidad, la noción de programación se encuentra muy asociada
a la programación en informática. Este es el proceso por el cual un
programador escribe, en un lenguaje de programación, el código fuente de un
software. Este código le indicará al programa informático qué tiene que hacer y
cómo realizarlo.
El programador se encarga de escribir, probar, depurar y mantener el
código fuente. En este sentido, los modelos de desarrollo de software se
enmarcan en una disciplina de la informática conocida como ingeniería de
software.
METODO DE CICLO DE VIDA: El término ciclo de vida del software describe el
desarrollo de software, desde la fase inicial hasta la fase final. El propósito de
este programa es definir las distintas fases intermedias que se requieren para
validar el desarrollo de la aplicación, es decir, para garantizar que el software
cumpla los requisitos para la aplicación y verificación de los procedimientos de
desarrollo: se asegura de que los métodos utilizados son apropiados.
Estos programas se originan en el hecho de que es muy costoso
rectificar los errores que se detectan tarde dentro de la fase de implementación.
El ciclo de vida permite que los errores se detecten lo antes posible y por lo
tanto, permite a los desarrolladores concentrarse en la calidad del software, en
los plazos de implementación y en los costos asociados.
El ciclo de vida básico de un software consta de los siguientes procedimientos:
•Definición de objetivos: definir el resultado del proyecto y su papel en la
estrategia global.
•Análisis de los requisitos y su viabilidad: recopilar, examinar y formular los
requisitos del cliente y examinar cualquier restricción que se pueda aplicar.
•Diseño general: requisitos generales de la arquitectura de la aplicación.
•Diseño en detalle: definición precisa de cada subconjunto de la aplicación.
•Programación (programación e implementación): es la implementación de un
lenguaje de programación para crear las funciones definidas durante la etapa
de diseño.
•Prueba de unidad: prueba individual de cada subconjunto de la aplicación
para garantizar que se implementaron de acuerdo con las especificaciones.
•Integración: para garantizar que los diferentes módulos se integren con la
aplicación. Éste es el propósito de la prueba de integración que está
cuidadosamente documentada.
•Prueba beta (o validación), para garantizar que el software cumple con las
especificaciones originales.
•Documentación: sirve para documentar información necesaria para los
usuarios del software y para desarrollos futuros.
•Implementación
•Mantenimiento: para todos los procedimientos correctivos (mantenimiento
correctivo) y las actualizaciones secundarias del software (mantenimiento
continuo).
El orden y la presencia de cada uno de estos procedimientos en el ciclo
de vida de una aplicación dependen del tipo de modelo de ciclo de vida
acordado entre el cliente y el equipo de desarrolladores.
Modelos de ciclo de vida
Para facilitar una metodología común entre el cliente y la compañía de
software, los modelos de ciclo de vida se han actualizado para reflejar las
etapas de desarrollo involucradas y la documentación requerida, de manera
que cada etapa se valide antes de continuar con la siguiente etapa. Al final de
cada etapa se arreglan las revisiones de manera que (texto faltante).
COPILADORES: es un programa informático que traduce un programa escrito
en un lenguaje de programación a otro lenguaje de programación, generando
un programa equivalente que la máquina será capaz de interpretar.
Usualmente el segundo lenguaje es lenguaje de máquina, pero también puede
ser un código intermedio (bytecode), o simplemente texto. Este proceso de
traducción se conoce como compilación.
Un compilador es un programa que permite traducir el código fuente de
un programa en lenguaje de alto nivel, a otro lenguaje de nivel inferior
(típicamente lenguaje de máquina). De esta manera un programador puede
diseñar un programa en un lenguaje mucho más cercano a como piensa un ser
humano, para luego compilarlo a un programa más manejable por una
computadora.
HERRAMIENTAS DE PROGRAMACION: son aquellas que permiten realizar
aplicativos, programas, rutinas, utilitarios y sistemas para que la parte física del
computador u ordenador, funcione y pueda producir resultados.
Hoy dia existen múltiples herramientas de programación en el mercado,
tanto para analistas expertos como para analistas inexpertos.
Las herramientas de programación más comunes del mercado, cuentan
hoy dia con programas de depuración o debugger, que son utilitarios que nos
permiten detectar los posibles errores en tiempo de ejecución o corrida de
rutinas y programas.
Muchas herramientas de software que manipulan programas fuente
realizan primero algún tipo de análisis. Algunos ejemplos de tales herramientas
son:
•1. Editores de estructuras: Un editor de estructuras toma como entrada una
secuencia de órdenes para construir un programa fuente. El editor de
estructuras no sólo realiza las funciones de creación y modificación de textos
de un editor de textos ordinario, sino que también analiza el texto del programa,
imponiendo al programa fuente una estructura jerárquica apropiada. De esa
manera, el editor de estructuras puede realizar tareas adicionales útiles para la
preparación de programas. Por ejemplo, puede comprobar si la entrada está
formada correctamente, puede proporcionar palabras clave de manera
automática (por ejemplo, cuando el usuario escribe while, el editor proporciona
el correspondiente do y le recuerda al usuario que entre las dos palabras debe
ir un condicional) y puede saltar desde un begin o un paréntesis izquierdo hasta
su correspondiente o paréntesis derecho. Además, la salida de tal editor suele
ser similar a la salida de la fase de análisis de un compilador.
•2. Impresoras estéticas: Una impresora estética analiza un programa y lo
imprime de forma que la estructura del programa resulte claramente visible. Por
ejemplo, los comentarios pueden aparecer con un tipo de letra especial, y las
proposiciones pueden aparecer con una indentación proporcional a la
profundidad de su anidamiento en la organización jerárquica de las
proposiciones.
•3. Verificadores estáticos: Un verificador estático lee un programa, lo analiza e
intenta descubrir errores potenciales sin ejecutar el programa. La parte de
análisis a menudo es similar a la que se encuentra en los compiladores de
optimización. Así, un verificador estático puede detectar si hay partes de un
programa que nunca se podrán ejecutar o si cierta variable se usa antes de ser
definida. Además, puede detectar errores de lógica, como intentar utilizar una
variable real como apuntador, empleando las técnicas de verificación de tipos.
•4. Intérpretes: En lugar de producir un programa objeto como resultado de una
traducción, un intérprete realiza las operaciones que implica el programa
fuente. Para una proposición de asignación, por ejemplo, un intérprete podría
construir un árbol como el de la figura 1 y después efectuar las operaciones de
los nodos conforme “recorre” el árbol. En la raíz descubriría que tiene que
realizar una asignación, y llamaría a una rutina para evaluar la expresión de la
derecha y después almacenaría el valor resultante en la localidad de memoria
asociada con la identificadora posición. En el hijo derecho de la raíz, la rutina
descubriría que tiene que calcular la suma de dos expresiones. Se llamaría a sí
misma de manera recursiva para calcular el valor de la expresión velocidad*60.
Después sumaría ese valor de la variable inicial. Muchas veces los intérpretes
se usan para ejecutar lenguajes de órdenes, pues cada operador que se
ejecuta en un lenguaje de órdenes suele ser una invocación de una rutina
compleja, como un editor o un compilador. Del mismo modo algunos lenguajes
de “muy alto nivel”, normalmente son interpretados, porque hay muchas cosas
sobre los datos, como el tamaño y la forma de las matrices, que no se pueden
deducir en el momento de la compilación.
•5. Compiladores: Tradicionalmente, se concibe un compilador como un
programa que traduce un programa fuente, como FORTRAN, al lenguaje
ensamblador o de máquina de algún computador. Sin embargo, hay lugares, al
parecer, no relacionados donde la tecnología de los compiladores se usa con
regularidad. La parte de análisis de cada uno de los siguientes ejemplos es
parecida a la de un compilador convencional.
a) Formadores de textos. Un formador de textos toma como entrada una
cadena de caracteres, la mayor parte de la cual es texto para componer, pero
alguna incluye órdenes para indicar párrafos, figuras o estructuras
matemáticas, como subíndices o superíndices.
b) Compiladores de circuitos de silicio. Un compilador de circuitos de silicio
tiene un lenguaje fuente similar o idéntico a un lenguaje de programación
convencional. Sin embargo las variables del lenguaje no representan
localidades de memoria, sino señales lógicas (0 o 1) o grupos de señales en un
circuito de conmutación. La salida es el diseño de un circuito en un lenguaje
apropiado.
c) Intérpretes de consultas. Un intérprete de consultas traduce un predicado
que contiene operadores relacionales y boléanos a órdenes para buscar en una
base de datos registros que satisfagan ese predicado.
UNIDAD VI
INTRODUCCION A LA COMUNICACIÓN DE DATOS: Es el proceso de
comunicar información en forma binaria entre dos o más puntos. Requiere
cuatro elementos básicos que son:
Emisor: Dispositivo que transmite los datos
Mensaje: lo conforman los datos a ser transmitidos
Medio: consiste en el recorrido de los datos desde el origen hasta su
destino
MEDIOS DE TRANSMISION: Constituye el canal que permite la transmisión de
información entre dos terminales en un sistema de transmisión. Las
transmisiones se realizan habitualmente empleando ondas electromagnéticas
que se propagan a través del canal 1.
A veces el canal es un medio físico y otras veces no, ya que las ondas
electromagnéticas son susceptibles de ser transmitidas por el vacío.
PROTOCOLO DE COMUNICACIONES: Es el conjunto de reglas normalizadas
para la representación, señalización, autenticación y detección de errores
necesario para enviar información a través de un canal de comunicación. Un
ejemplo de un protocolo de comunicaciones simple adaptado a la comunicación
por voz es el caso de un locutor de radio hablando a sus radioyentes.
Los protocolos de comunicación para la comunicación digital por redes
de computadoras tienen características destinadas a asegurar un intercambio
de datos fiable a través de un canal de comunicación imperfecto. Los
protocolos de comunicación siguen ciertas reglas para que el sistema funcione
apropiadamente.
REDES DE COMUNICACIÓN DE DATOS LAN: Una red de área local (LAN)
es una red de computadoras de cualquier variedad que están, ubicadas
relativamente cerca una de otra y conectadas por un cable contiguo (o por
enlace inalámbrico). .Una LAN puede consistir de solo dos o tres computadoras
interconectadas para compartir recursos, o puede incluir cientos de ellas.
Cualquier red que resida dentro de una sola edificación e incluso dentro de un
grupo de edificaciones contiguas, se considera una LAN.
Una LAN permite a todas las computadoras conectadas a ella compartir
el hardware, software e informaciones. Los recursos mas a menudo
compartidos son los dispositivos de discos de almacenamiento e impresoras.
ARQUITECTURAS DE REDES LOCALES: La arquitectura de red es el medio
más efectivo en cuanto a costos para desarrollar e implementar un conjunto
coordinado de productos que se puedan interconectar. La arquitectura es el
“plan” con el que se conectan los protocolos y otros programas de software.
Estos es benéfico tanto para los usuarios de la red como para los proveedores
de hardware y software.
COMUNICACIONES PARA TENER VENTAJAS COMPETITIVAS: Un Sistema
de Información estratégico puede ser considerado como el uso de la tecnología
de la información para soportar o dar forma a la estrategia competitiva de la
organización, a su plan para incrementar o mantener la ventaja competitiva o
bien reducir la ventaja de sus rivales.
Su función primordial no es apoyar la automatización de los procesos
operativos ni proporcionar información para apoyar a la toma de decisiones .
Sin embargo, este tipo de sistemas puede llevar a cabo dichas funciones.
Suelen desarrollarse dentro de la organización (in house), por lo tanto no
pueden adaptarse fácilmente a paquetes disponibles en el mercado.
Su función es lograr ventajas que los competidores no posean, tales
como ventajas en costos y servicios diferenciados con clientes y proveedores.
Apoyan el proceso de innovación de productos dentro de la empresa
Beneficios del Sistema de Información Estratégicos:
CORREO ELECTRONICO: Es un servicio de red que permite a los usuarios
enviar y recibir mensajes y archivos rápidamente (también denominados
mensajes electrónicos o cartas electrónicas) mediante sistemas de
comunicación electrónicos. Principalmente se usa este nombre para denominar
al sistema que provee este servicio en Internet, mediante el protocolo SMTP,
aunque por extensión también puede verse aplicado a sistemas análogos que
usen otras tecnologías. Por medio de mensajes de correo electrónico se puede
enviar, no solamente texto, sino todo tipo de documentos digitales. Su
eficiencia, conveniencia y bajo coste están logrando que el correo electrónico
desplace al correo ordinario para muchos usos habituales.
CORREO DE VOZ: Es un sistema centralizado de manejo de mensajes
telefónicos para un gran grupo de personas. Permite a los usuarios recibir,
almacenar y gestionar mensajes de voz de las personas que le llaman cuando
se encuentra ausente o con la línea ocupada.
Los buzones de voz se han convertido en una funcionalidad siempre
presente en los sistemas telefónicos de casi todas las compañías. Están
disponibles en sistemas de telefonía fija, móvil y en aplicaciones de software
como Asterisk o FreeSWITCH.
VIDEO CONFERENCIA: Es la comunicación simultánea bidireccional de audio
y vídeo, permitiendo mantener reuniones con grupos de personas situadas en
lugares alejados entre sí. Adicionalmente, pueden ofrecerse facilidades
telemáticas o de otro tipo como el intercambio de gráficos, imágenes fijas,
transmisión de ficheros desde el ordenador, etc.
El núcleo tecnológico usado en un sistema de videoconferencia es la
compresión digital de los flujos de audio y vídeo en tiempo real. Su
implementación proporciona importantes beneficios, como el trabajo
colaborativo entre personas geográficamente distantes y una mayor integración
entre grupos de trabajo.
INTERCAMBIO ELECTRONICO DE DATOS: No es otra cosa que la
homogenización de estructuras diversas para datos idénticos manejados por
lenguajes informáticos distintos, persiguiendo un estándar genérico que permita
realizar transacciones con el mínimo error, a la mayor velocidad, con el menor
costo, y en forma transparente para cualquier integrante de una cadena de
negocios, o grupo de entidades afines.
En una mirada retrospectiva, encontramos una lenta evolución en el
progreso de su implementación. Costos iniciales significativos y variedad de
estándares en el mundo, atentaron contra su desarrollo, pese a la indiscutible
necesidad de agregar valor a los negocios por este medio.
Nacido particularmente para rubros específicos (banca, transporte,
automotrices, etc.), hoy se extiende aguas abajo de las grandes corporaciones
merced a dos grandes pilares que devinieron en el tiempo: las mejoras en las
comunicaciones y la aparición de la red Internet.
Estadísticas realizadas indican en casos reales y pruebas piloto, mejoras
de diez a uno en procesos típicos como compras, reducciones de stocks,
servicio al cliente, etc.
Técnicamente, su funcionamiento se basa en las VAN, unidades
informáticas que reciben en paquetes de datos estandarizados las
informaciones que sus clientes quieren intercambiar. Actúan semejantes a un
correo electrónico, agregando encriptación, seguridad y confidencialidad a los
envíos, como también, implementación de software de base para las interfaces
internas de cada uno.
TRANSFERENCIA ELECTRONICA DE FONDOS: Permiten enviar dinero a
través de medios electrónicos a una cuenta de cheques o tarjeta de débito en
cualesquiera de las instituciones bancarias ubicadas dentro del territorio
nacional. Algunas instituciones ofrecen la posibilidad de realizar pagos y
depósitos en forma programada, es decir a través del banco por Internet, se
pueden programar los pagos ya sea 24 o 48 hrs. antes. Hay que tomar en
cuenta que para poder realizar esta transacción es necesario contar con la
CLABE del beneficiario.
Para hacer la transferencia (depósito) es necesario que seas
cuentahabiente del banco y la operación la puedes hacer a través de:
•Internet. En este caso, también deberás proporcionar la CLABE del
destinatario. El banco realizará el cargo por el importe enviado más la comisión
correspondiente.
PROCESO DISTRIBUIDO: Es una forma de proceso en la que los datos y las
funciones están distribuidos en los distintos elementos de una configuración o
sistema que implica la presencia de una red de área local o una red de área
amplia.
CLIENTE SERVIDOR: En una red cliente/servidor existen dos tipos de equipos:
clientes y servidores. Véase, en la siguiente figura, el ejemplo de una red
cliente/servidor compuesta por tres equipos cliente y un equipo servidor, el cual
permite compartir un escáner y una impresora.
Las estaciones de trabajo son equipos clientes que pueden emplear los
usuarios de una red para solicitar información (datos) y servicios (impresión de
documentos, transferencia de ficheros, correo electrónico) a los equipos
servidores.
INTERNET: Es un conjunto descentralizado de redes de comunicación
interconectadas que utilizan la familia de protocolos TCP/IP, garantizando que
las redes físicas heterogéneas que la componen funcionen como una red lógica
única, de alcance mundial. Sus orígenes se remontan a 1969, cuando se
estableció la primera conexión de computadoras, conocida como ARPANET,
entre tres universidades en California y una en Utah, Estados Unidos.
HISTORIA: Internet se inició en torno al año 1969, cuando el Departamento de
Defensa de los EE.UU desarrolló ARPANET, una red de ordenadores creada
durante la Guerra Fría cuyo objetivo era eliminar la dependencia de un
Ordenador Central, y así hacer mucho menos vulnerables las comunicaciones
militares norteamericanas.
Tanto el protocolo de Internet como el de Control de Transmisión fueron
desarrollados a partir de 1973, también por el departamento de Defensa
norteamericano.
Cuando en los años 1980 la red dejó de tener interés militar, pasó a
otras agencias que ven en ella interés científico. En Europa las redes
aparecieron en los años 1980, vinculadas siempre a entornos académicos,
universitarios. En 1989 se desarrolló el World Wide Web (www) para el Consejo
Europeo de Investigación Nuclear. En España no fue hasta 1985 cuando el
Ministerio de Educación y Ciencia elaboró el proyecto IRIS para conectar entre
sí todas las universidades españolas.
Las principales características “positivas” de Internet es que ofrece
información actualizada, inmediatez a la hora de publicar información, una
información personalizada, información interactiva e información donde no hay
límites ni de espacio ni de tiempo.
Pero para navegar por la red de redes, por internet, hay que tener en
cuenta también otras muchas cosas, o estar al menos al tanto de ellas para no
caer en las muchas trampas que están tendidas por la red. Por ejemplo:
1) La autoría de la información: siempre hay que desconfiar de la información
que no tiene autor. En este sentido, a la hora de utilizar información, optemos
por las que estén avaladas por el prestigio y reconocimiento tanto del medio
como de los autores que en él intervienen.
2) La caducidad de la información: La fecha de la fuente es esencial, pues así
sabemos su actualidad. Hay que desconfiar de toda información ofrecida por
internet que no disponga de fecha.
3) “Internet profunda”: desconocemos todo lo que ofrece internet. Es lo que se
llama Internet oculta, profunda o infranet. Hay que optar por “buscadores” que
busquen el valor cualitativo y no cuantitativo. En este sentido hay algunos
ejemplos de buscadores como Luxmark, About, AksGits, que permiten hacer
preguntas.
4) Información/conocimiento: Toda información sin análisis, sin gestionar...,
puede incluso causar desinformación. Nunca hay que confundir información
con conocimiento. El conocimiento permite desbrozar la información que se nos
ofrece, “navegar” con seguridad y dirección por entre los océanos de
información que realmente inunda la red, muchísimas veces con datos
erróneos o irrelevantes
5) El “ruido” documental o informativo: Al iniciar una búsqueda en internet se
nos ofrece una cantidad de páginas imposibles de asimilar. A eso se le llama
“ruido”, es decir, al exceso de información no jerarquizada habitualmente por la
calidad de los contenidos, sino tan sólo por el número de consultas realizadas.
La única fiabilidad a la que podemos agarrarnos con seguridad para no
naufragar en el exceso de información, es el conocimiento, el propio
conocimiento o el ajeno, fiándonos en este caso del prestigio de la fuente de
información.
REQUISITOS: Para conectarse a Internet se requiere que su Computadora
(PC) cumpla con ciertos requisitos pero como un mínimo las siguientes
especificaciones:
Procesador 486, con 16 o 32 megabytes (MB) de memoria en RAM y un
disco duro de al menos 1GB (un gigabyte) de capacidad. Sin embargo, en la
medida en que el usuario vaya apreciando los servicios que le ofrece internet,
querrá disponer de mas espacio de disco; por lo tanto, es aconsejable que
adquiera, desde un principio, uno de 3.0 a 4.0GB de capacidad.
Nuestrarecomendación es una maquina con un procesador con velocidad de
166mhz y 32 de Memoria en RAM
Módem. Buena parte de las Computadoras que se venden hoy en día
tienen incluido un módem interno; si no es así, se puede adquirir en el comercio
local que mediante un cable se conecta a uno de los puertos de su
computadora. Su velocidad se mide por la cantidad de bits de información que
puede transferir cada segundo (bps). Hoy en día se ofrecen módems 36.600 o
56.000 bps a un precio que es directamente proporcional a la velocidad que
alcanzan. Esto significa que, entre mas rápida sea la transmisión de los datos,
mejor será su conexión a internet. Sin embargo, la velocidad a la que su
computadora puede enviar y recibir datos, no solamente depende del modém,
sino también de la calidad de la línea telefónica y de la cantidad de gente que
esté conectada a la red de su proveedor mas el trafico (flujo de datos o
información) en internet al mismo tiempo.
Línea telefónica Una líneatelefónica común servirá para establecer una
conexión tipo DUN (Dial Up Network) del Ingles: Red de Marcado o mas
conocida como red de acceso telefónico, esta debe de estar en buen estado y
sin ruido para un flujo optimo.
Proveedor de acceso. El costo de este servicio ha venido en un
descenso paulatino. Los primeros proveedores que tuvo el mercado cobraban
tarifas de inscripción y mensualidades que estaban lejos del alcance del bolsillo
promedio.
El servicio de Internet tiene un costo representado en las cuentas de
cobro que el proveedor de acceso y la empresa de teléfonos le pasan
mensualmente al usuario. Normalmente los primeros pagos por el uso del
teléfono (la cuota del proveedor es fija) sobrepasan los cálculos más optimistas
del 'navegante'. Porqué? La novedad de esta herramienta y el desconocimiento
de su funcionamiento hacen que inicialmente su uso se prolongue durante
varias horas a la semana.
LOS USUARIOS: Es aquél que usa algo» o «que usa ordinariamente algo.
Esto se opone a los conceptos de web semántica, web 2.0 y 3.0, trabajo
colaborativo, ya que la realidad actual prima a los ciudadanos como emisores y
no solo como receptores que «usan» los medios.
Es preferible, por tanto, hablar de actores, sujetos, ciudadanos, etc. para
referirse a las personas que interactúan en las redes digitales. En informática
este término se utiliza con especial relevancia.
E-MAIL: Es un servicio muy utilizado en internet, que permite el intercambio de
mensajes entre usuarios.
En sus orígenes, los e-mails eran enviados directamente desde un
usuario a una computadora, lo que requería que ambas computadoras estén
online al mismo tiempo. Luego se crearon los servidores de email que aceptan,
renvían, entregan y almacenan mensajes. De esta manera los usuarios no
deben estar online de forma simultánea.
WWW: Es básicamente un medio de comunicación de texto, gráficos y otros
objetos multimedia a través de Internet, es decir, la web es un sistema de
hipertexto que utiliza Internet como su mecanismo de transporte o desde otro
punto de vista, una forma gráfica de explorar Internet.
FTP: Siglas de File Transfer Protocol. Método muy común para transferir uno o
más ficheros de un ordenador a otro. FTP es un medio específico de conexión
de un Sitio web para cargar y descargar ficheros. FTP fue desarrollado durante
los comienzos de Internet para copiar ficheros de un ordenador a otro. Con la
llegada del World Wide Web, y de los navegadores, ya no se necesitan conocer
sus complejos comandos; se puede utilizar FTP escribiendo el URL en la barra
de localización que se encuentra en la parte superior de la pantalla del
navegador. Por ejemplo, al escribir
ftp://nombre.del.sitio/carpeta/nombredelfichero.zip se transfiere el fichero
nombredelfichero.zip al disco duro del ordenador. Al escribir
ftp://nombre.del.sitio/carpeta/ da una lista con todos los ficheros disponibles en
esa carpeta.
Cuando un navegador no está equipado con la función FTP, o si se
quiere cargar ficheros en un ordenador remoto, se necesitará utilizar un
programa cliente FTP. Para utilizar el FTP, se necesita conocer el nombre del
fichero, el ordenador en que reside y la carpeta en la que se encuentra. La
mayoría de los ficheros están disponibles a través de "FTP Anonymous", lo que
significa que se puede entrar en el ordenador con el nombre de usuario
"anónimo" y utilizar la dirección de correo electrónico propia como contraseña.
USENET: Es uno de los sistemas de comunicaciones más antiguos. Permite a
cualquier persona, intercambiar mensajes en foros públicos, generalmente
relacionados a un tema específico (determinado por el grupo donde se
publican-leen los mensajes).
Cuando un usuario se suscribe a un grupo de noticias, la aplicación
cliente de noticias se encarga de descargar todos los mensajes disponibles en
un servidor y los ordena. Cada servidor determina el tiempo que durará un
mensaje almacenado.
Actualmente los grupos de noticias de usenet no sólo se usan para
intercambiar texto, sino que son una fuente inagotable de todo tipo de
contenidos: videos, imágenes, documentos, música, etc. Mucho de ese
material es pirateado.
INTRANET: Es una red de ordenadores privada basada en los estándares de
Internet.
Las Intranets utilizan tecnologías de Internet para enlazar los recursos
informativos de una organización, desde documentos de texto a documentos
multimedia, desde bases de datos legales a sistemas de gestión de
documentos. Las Intranets pueden incluir sistemas de seguridad para la red,
tablones de anuncios y motores de búsqueda.
Una Intranet puede extenderse a través de Internet. Esto se hace
generalmente usando una red privada virtual (VPN).
EXTRANET: Es una red privada que utiliza protocolos de Internet, protocolos
de comunicación y probablemente infraestructura pública de comunicación para
compartir de forma segura parte de la información u operación propia de una
organización con proveedores, compradores, socios, clientes o cualquier otro
negocio u organización. Se puede decir en otras palabras que una extranet es
parte de la Intranet de una organización que se extiende a usuarios fuera de
ella. Usualmente utilizando Internet. La extranet suele tener un acceso
semiprivado, para acceder a la extranet de una empresa no necesariamente el
usuario ha de ser trabajador de la empresa, pero si tener un vínculo con la
entidad. Es por ello que una extranet requiere o necesita un grado de
seguridad, para que no pueda acceder cualquier persona. Otra característica
de la extranet es que se puede utilizar como una Intranet de colaboración con
otras compañías.
UNIDAD VII (INTEGRACION)
ASEGURAMIENTO DE LA CALIDAD DE LOS SISTEMAS: El aseguramiento
de la calidad, se puede definir como el esfuerzo total para plantear, organizar,
dirigir y controlar la calidad en un sistema de producción con el objetivo de dar
al cliente productos con la calidad adecuada. Es simplemente asegurar que la
calidad sea lo que debe ser.
VIRUS INFORMATICOS: es un malware que tiene por objeto alterar el normal
funcionamiento de la computadora, sin el permiso o el conocimiento del
usuario. Los virus, habitualmente, remplazan archivos ejecutables por otros
infectados con el código de este. Los virus pueden destruir, de manera
intencionada, los datos almacenados en un ordenador, aunque también existen
otros más inofensivos, que solo se caracterizan por ser molestos.
Los virus informáticos tienen, básicamente, la función de propagarse a
través de un software, no se replican a sí mismos porque no tienen esa facultad
como el gusano informático, son muy nocivos y algunos contienen además una
carga dañina (payload) con distintos objetivos, desde una simple broma hasta
realizar daños importantes en los sistemas, o bloquear las redes informáticas
generando tráfico inútil.
El funcionamiento de un virus informático es conceptualmente simple. Se
ejecuta un programa que está infectado, en la mayoría de las ocasiones, por
desconocimiento del usuario. El código del virus queda residente (alojado) en la
memoria RAM de la computadora, aun cuando el programa que lo contenía
haya terminado de ejecutarse. El virus toma entonces el control de los servicios
básicos del sistema operativo, infectando, de manera posterior, archivos
ejecutables que sean llamados para su ejecución. Finalmente se añade el
código del virus al programa infectado y se graba en el disco, con lo cual el
proceso de replicado se completa.
SEGURIDAD FISICA Y LOGICA: Es muy importante ser consiente que por
más que nuestra empresa sea la más segura desde el punto de vista de
ataques externos (hackers, virus, ataques de Dos, etc.); la seguridad de la
misma será nula si no se ha previsto como combatir un incendio o cualquier
otro tipo de desastre natural y no tener presente políticas claras de
recuperación.
La seguridad física es uno de los aspectos más olvidados a la hora del
diseño de un sistema informático. Si bien algunos de los aspectos de seguridad
física básicos se prevén, otros, como la detección de un atacante interno a la
empresa que intenta acceder físicamente a una sala de cómputo de la misma,
no. Esto puede derivar en que para un atacante sea más fácil lograr tomar y
copiar una cinta de backup de la sala de cómputo, que intentar acceder vía
lógica a la misma.
Así, la Seguridad Física consiste en la “aplicación de barreras físicas y
procedimientos de control, como medidas de prevención y contramedidas ante
amenazas a los recursos e información confidencial”. Se refiere a los controles
y mecanismos de seguridad dentro y alrededor del centro de cómputo, así
como los medios de acceso remoto al y desde el mismo; implementados para
proteger el hardware y medios de almacenamiento de datos.
CONTROL DE ACCESO:Es el conjunto de mecanismos y protocolos por los
que varios "interlocutores" (dispositivos en una red, como ordenadores,
teléfonos móviles, etc.) se ponen de acuerdo para compartir un medio de
transmisión común (por lo general, un cable eléctrico u óptico, o en
comunicaciones inalámbricas el rango de frecuencias asignado a su sistema).
En ocasiones se habla también de multiplexación para referirse a un concepto
similar.
SEGURIDAD EN LOS ENTORNOS PERSONALES: Se enfoca en la
protección de la infraestructura computacional y todo lo relacionado con esta
(incluyendo la información contenida). Para ello existen una serie de
estándares, protocolos, métodos, reglas, herramientas y leyes concebidas para
minimizar los posibles riesgos a la infraestructura o a la información. La
seguridad informática comprende software, bases de datos, metadatos,
archivos y todo lo que la organización valore (activo) y signifique un riesgo si
ésta llega a manos de otras personas. Este tipo de información se conoce
como información privilegiada o confidencial.
El concepto de seguridad de la información no debe ser confundido con
el de seguridad informática, ya que este último sólo se encarga de la seguridad
en el medio informático, pudiendo encontrar información en diferentes medios o
formas.
PLAN DE CONTIGENCIA: Es un instrumento de gestión para el buen gobierno
de las Tecnologías de la Información y las Comunicaciones en el dominio del
soporte y el desempeño (delivery and support, véase ITIL).
Dicho plan contiene las medidas técnicas, humanas y organizativas
necesarias para garantizar la continuidad del negocio y las operaciones de una
compañía. Un plan de contingencias es un caso particular de plan de
continuidad del negocio aplicado al departamento de informática o tecnologías.
Otros departamentos pueden tener planes de continuidad que persiguen el
mismo objetivo desde otro punto de vista. No obstante, dada la importancia de
las tecnologías en las organizaciones modernas, el plan de contingencia es el
más relevante.
PREVENCION: Prevenir los riesgos informáticos es conocer las
vulnerabilidades de la empresa y el impacto de las incidencias, especialmente
en las áreas de Sistemas de Información y de Recursos Humanos. La
seguridad informática es un concepto joven, por este motivo todavía hay
muchas empresas que mantienen sin coordinación sus disciplinas de seguridad
informática. El hecho de tener un cortafuegos no significa estar seguro, es un
medio más que ayuda a ir consolidando la protección de nuestros Sistemas,
pero no sólo hay que ir apagando los fuegos sino que hay que prevenir los
riesgos analizando los Sistemas, las Comunicaciones y la Seguridad
Informática, para encontrar la mejor solución global para la empresa.
Las empresas invierten en equipos de protección y monitorización con la
intención de hacer una gestión proactiva; también en conexiones rápidas y
seguras con autentificación fuerte. Todo ello reduce los riesgos, pero de nada
sirven si los usuarios no son sensibles a los problemas de seguridad. En otras
ocasiones, la empresa no tiene recursos suficientes para hacer una gestión
proactiva y las soluciones de gestión de ancho de banda o de monitorización se
consideran secundarias; en ese caso la sensibilización de los usuarios es
todavía más importante. Debe partirse de la base de que la competitividad de la
empresa pasa siempre por concienciar al usuario de la importancia de la
seguridad y que un usuario sin formar es un peligro en potencia para la red.
PROCESAMIENTO DE DATOS: Hasta el momento hemos supuesto que los
datos que maneja una aplicación no son tan voluminosos y por lo tanto caben
en memoria. Cuando recurrimos a archivos se debe a la necesidad de
conservar datos después de que termina un programa, por ejemplo para
apagar el computador.
Sin embargo, existen problemas en donde el volumen de datos es tan
grande que es imposible mantenerlos en memoria. Entonces, los datos se
almacenan en un conjunto de archivos, los que forman una base de datos. Una
base de datos es por lo tanto un conjunto de archivos que almacenan, por
ejemplo, datos con respecto al negocio de una empresa.
EL COMPUTADOR Y LAS ORGANIZACIONES: Es una máquina electrónica
que recibe y procesa datos para convertirlos en información útil. Una
computadora es una colección de circuitos integrados y otros componentes
relacionados que puede ejecutar con exactitud, rapidez y de acuerdo a lo
indicado por un usuario o automáticamente por otro programa, una gran
variedad de secuencias o rutinas de instrucciones que son ordenadas,
organizadas y sistematizadas en función a una amplia gama de aplicaciones
prácticas y precisamente determinadas, proceso al cual se le ha denominado
con el nombre de programación y al que lo realiza se le llama programador. La
computadora, además de la rutina o programa informático, necesita de datos
específicos (a estos datos, en conjunto, se les conoce como "Input" en inglés o
de entrada) que deben ser suministrados, y que son requeridos al momento de
la ejecución, para proporcionar el producto final del procesamiento de datos,
que recibe el nombre de "output" o de salida. La información puede ser
entonces utilizada, reinterpretada, copiada, transferida, o retransmitida a otra(s)
persona(s), computadora(s) o componente(s) electrónico(s) local o
remotamente usando diferentes sistemas de telecomunicación, pudiendo ser
grabada, salvada o almacenada en algún tipo de dispositivo o unidad de
almacenamiento.
La característica principal que la distingue de otros dispositivos similares,
como la calculadora no programable, es que es una máquina de propósito
general, es decir, puede realizar tareas muy diversas, de acuerdo a las
posibilidades que brinde los lenguajes de programación y el hardware.
TECNOLOGIA Y SISTEMA:
Tecnología: Es el conjunto de conocimientos técnicos, ordenados
científicamente, que permiten diseñar y crear bienes y servicios que facilitan la
adaptación al medio ambiente y satisfacer tanto las necesidades esenciales
como los deseos de las personas. Es una palabra de origen griego, τεχνολογία,
formada por téchnē (arte, técnica u oficio, que puede ser traducido como
destreza) y logía (el estudio de algo). Aunque hay muchas tecnologías muy
diferentes entre sí, es frecuente usar el término en singular para referirse a una
de ellas o al conjunto de todas. Cuando se lo escribe con mayúscula,
Tecnología, puede referirse tanto a la disciplina teórica que estudia los saberes
comunes a todas las tecnologías como a educación tecnológica, la disciplina
escolar abocada a la familiarización con las tecnologías más importantes.
La actividad tecnológica influye en el progreso social y económico, pero
su carácter abrumadoramente comercial hace que esté más orientada a
satisfacer los deseos de los más prósperos (consumismo) que las necesidades
esenciales de los más necesitados, lo que tiende además a hacer un uso no
sostenible del medio ambiente. Sin embargo, la tecnología también puede ser
usada para proteger el medio ambiente y evitar que las crecientes necesidades
provoquen un agotamiento o degradación de los recursos materiales y
energéticos del planeta o aumenten las desigualdades sociales. Como hace
uso intensivo, directo o indirecto, del medio ambiente (biosfera), es la causa
principal del creciente agotamiento y degradación de los recursos naturales del
planeta.
Sistema: Es un objeto compuesto cuyos componentes se relacionan con al
menos algún otro componente; puede ser material o conceptual. Todos los
sistemas tienen composición, estructura y entorno, pero sólo los sistemas
materiales tienen mecanismo, y sólo algunos sistemas materiales tienen figura
(forma). Según el sistemismo, todos los objetos son sistemas o componentes
de otro sistema. Por ejemplo, un núcleo atómico es un sistema material físico
compuesto de protones y neutrones relacionados por la interacción nuclear
fuerte; una molécula es un sistema material químico compuesto de átomos
relacionados por enlaces químicos; una célula es un sistema material biológico
compuesto de orgánulos relacionados por enlaces químicos no-covalentes y
rutas metabólicas; una corteza cerebral es un sistema material psicológico
(mental) compuesto de neuronas relacionadas por potenciales de acción y
neurotransmisores; un ejército es un sistema material social y parcialmente
artificial compuesto de personas y artefactos relacionados por el mando, el
abastecimiento, la comunicación y la guerra; el anillo de los números enteros
es un sistema conceptual algebraico compuesto de números positivos,
negativos y el cero relacionados por la suma y la multiplicación; y una teoría
científica es un sistema conceptual lógico compuesto de hipótesis, definiciones
y teoremas relacionados por la correferencia y la deducción (implicación).
NUEVAS CORRIENTES EN TECNOLOGIA INFORMATICA: Se habla mucho
de Tecnología Informática, y de como ésta influye en nuestro diario vivir.
Sabemos que la tecnología está siendo innovada y reinventada cada vez que
dormimos, caminamos y si es posible respiramos (es decir cada vez con más
prontitud), con el fin de hacernos la vida mas simple...
Pero en este mundo en el que la tecnología crece de manera
exponencial, cuales son las ultimas tendencia????...Bueno, leyendo un poco
por ahí, me encontré con esta información...espero les interese...
Green IT, que ha hecho que la industria desarrolle tecnologías más
amables con el entorno, que promueven el uso de la energía de manera
eficiente, emplean materiales biodegradables o menos contaminantes.
SaaS y Cloud Computing: Software como servicio, que responde al
acrónimo inglés SaaS y que evolucionó de ASP (ApplicationServiceProvider),
es un modelo de implementación de software en las compañías, en el que la
instalación, el mantenimiento, los respaldos y el soporte de las aplicaciones es
responsabilidad del proveedor, al que se le paga por uso y que da acceso
parametrizado y privado vía Internet a las empresas.Cloud computing es un
modelo en el que, ya no sólo el software, sino las capacidades tecnológicas
flexibles y escalables se proporcionan a los clientes mediante tecnologías Web,
con ventajas que ofrecen valor al negocio como movilidad, reducción de
riesgos y costes, procesos de negocio prácticamente estandarizados, etc.
Destaca en estas áreas el éxito de Salesforce.com, NetSuite, Intacct, Aplicor o
Google Apps.
Gobierno IT: Esta tendencia surge de la necesidad de alinear tecnología y
negocio. Históricamente, los tecnólogos no conocen el negocio y los usuarios
desconocen las actividades del departamento de sistemas. Para paliar este
déficit en un momento en el que las inversiones en TI son relevantes, se han
creado unidades intermedias entre negocio e informática que racionalizan y
justifican las inversiones, además de optimizar el uso de los recursos. Con las
Oficinas de Proyectos, PMOs en sus siglas inglesas, emergen aplicaciones de
Project Management, que ponen en orden y facilitan los proyectos informáticos,
un ámbito en el que destacan proveedores como CA, Oracle o Microsoft.
Web 2.0: Es una evolución en la forma de trabajar en la Web, cuya idea central
es el proceso de colaboración y convergencia de muchas personas en un
medio, lo que facilita la interrelación entre grupos tanto públicos como privados.
Es Tim O’Reilly quien acuña este término, cuyas premisas son el
fortalecimiento de las comunidades de usuarios y una gama especial de
servicios. A partir de 2004, surgen herramientas y tecnologías o grupos de
tecnologías que ayudan a su adopción como AJAX, Java Web, RSS/ATOM,
SEM/SEO, blogs, JCC, Mashups, JSON, XML o APIs REST, entre otros.
Tecnología móvil corporativa: La convergencia digital avanza y se consolidará
como un referente tecnológico del siglo XXI. El smartphone, además de
telefonía, ofrece prestaciones similares a las de un PC, y se consigue una clara
convergencia entre un teléfono móvil, un PC, una PDA y un dispositivo
multimedia. Garantizar el acceso al correo corporativo, el ERP, el CRM, la
intranet, LMS y otras aplicaciones corporativas será el objetivo de la próxima
generación de aplicativos. Es un mercado en el que la competencia es fuerte, y
la liberación de los sistemas operativos para smartphones (Java, Windows
Mobile, Symbian OS, Android, RIM Blackberry, Linux, Mac o Palm OS) está
impulsando.
Gestión del rendimiento: Es una tecnología que, apoyada en el concepto de
Business Intelligence, promueve el uso sistemático y organizado de los datos
históricos de una empresa mediante la gestión de grandes volúmenes de datos
y modernas técnicas estadísticas. Al gestionar el rendimiento, se pone en
marcha una estrategia de control y seguimiento, a través de indicadores de
gestión, de los objetivos y estrategias de la organización, de forma que se
garantiza su cumplimiento y el ajuste de cualquier desviación de las metas
establecidas. Es un concepto que se nutre de tecnologías robustas como
gestores de bases de datos, herramientas de elevada capacidad analítica, etc.
En esta área, destacan líderes como IBM, Oracle, SAP, Microsoft, Sun, etc.
Gestión de contenidos y/o gestión de activos digitales: La gestión de activos
digitales (Digital Asset Management, DAM) es el proceso de identificar,
clasificar, digitalizar, almacenar y recuperar datos e información no
estructurada de todo tipo, con el fin de incrementar la productividad de las
organizaciones que manejan grandes volúmenes de información: imágenes,
vídeos, libros, documentos legales, mapas, etc. DAM ha irrumpido con fuerza
gracias a la robustez de los sistemas de gestión de bases de datos, la potencia
de las CPUs, la consolidación de XML como estándar y el aumento de las
capacidades de almacenamiento. Destacan en este segmento de mercado
IBM, EMC, Open Text, Oracle, Microsoft, Interwoven, Vignette, Hyland
Software, Xerox o HP, entre otras.
top related