Vicerrectorado Académico.Proyecto de Carrera: Ingeniería en Informática.Cátedra: Auditoría y Evaluación de Sistemas.
Semestre 2012-I. Sección 1.
Profesor: Integrantes:
Carlos Guevara Cristancho Yenifer C.I.: 17.632.071
Rodríguez, Joselyn C.I. 20.299.475
Rodríguez Keyla C.I.: 18.247.016
Puerto Ordaz, Mayo de 2012.
Índice
Página
Introducción 3
Objetivo General 4
Objetivos Específicos 4
Procesamiento Distribuido:
Definición 5
Características 5
Objetivo 6
Clasificación 6
Seguridad 8
Aplicaciones 8
Ejemplo 9
Arquitectura de Comunicaciones 10
Futuro del Procesamiento Distribuido
12
Auditoria de Redes 14
Etapas de la Auditorias de Redes 14
Auditoria Red Física
14
Auditoria Red Lógica 15
Analisis de Vulnerabilidad 15
Estrategia de Saneamiento 15
Plan de Contención 16
Seguimiento Continuo del desempeño del Sistema 16
Procedimiento y Metodología para Informe P. Distribuido 16
Planificación 18
Objetivo general Pagina Web 19
Objetivos Específicos Pagina Web
19
Conclusión 20
22
Bibliografía 21
Anexos 22
Introducción
Dada la creciente disponibilidad de PC y minicomputadores económicos
pero potentes, se ha producido una tendencia al alza del procesamiento de datos
distribuidos (DDP). El uso de DDP permite dispersar los procesadores, datos y
otros elementos del sistema dentro de una organización.
La tendencia de estas aplicaciones ha sido apoyada por la evolución de las
capacidades distribuidas del Sistema Operativo y de las utilidades de soporte. Se
ha explorado un amplio espectro de posibilidades:
Arquitectura de Comunicaciones.
Sistema Operativo de Red: Es la configuración en que existe una red
de máquinas de aplicación, generalmente workstations monousuario
y una o más máquinas servidoras.
Sistemas Operativos Distribuidos: Es un Sistema Operativo común
compartido por una red de computadores.
El Procesamiento Distribuido se define como la forma en que es posible
conectar distintas maquinas, PCs, en cierto tipo de red de comunicaciones,
generalmente una LAN o una red de área amplia o una red como Internet,
logrando así, que una sola tarea de procesamiento de datos pueda ser procesada o
ejecutada entre varias maquinas de la red, es decir que un solo proceso se pueda
realizar entre varias maquinas diferentes y conectadas a una red.
22
Objetivo General
Realizar informe, presentación y video sobre el Procesamiento Distribuido
(Redes).
Objetivos Específicos
Identificación del problema.
Búsqueda de la información.
Análisis de la información.
Tratamiento de la información.
Transformación de la información.
Elaboración de informa, presentación y video.
Aplicación de productos multimedia en el proceso didáctico (página
web).
22
Procesamiento Distribuido
Definición:
Distintas máquinas pueden estar conectadas en una red de comunicación tal
que una sola tarea de procesamiento de datos puede ocupar muchas máquinas en
la red. En general, cada servidor puede servir a muchos clientes, y cada cliente
puede accesar muchos servidores.
Un sistema de base de datos distribuido es cuando un cliente puede accesar
muchos servidores simultáneamente. Es decir, que una sola petición a "la base de
datos" puede combinar datos de varios servidores.
Método de procesamiento de la información en el que varios procesos
(programas en ejecución) en paralelo, en paralelo, en la misma máquina o
distribuidos entre ordenadores o computadoras interconectados a través de una red
de comunicaciones, colaboran en la realización de una tarea. Esta colaboración
pude ser tan sencilla como distribuir la carga de trabajo entre procesos idénticos,
en el caso por ejemplo de una red de cajeros automáticos, o tan complejo como
multitud de procesos distintos.
Características:
Para cada uno de los usuarios debe ser similar al trabajo en el Sistema
Centralizado.
Seguridad interna en el sistema distribuido.
22
Se ejecuta en múltiples computadoras.
Tiene varias copias del mismo Sistema Operativo o de diferentes Sistemas
Operativos que proveen los mismos servicios.
Entorno de trabajo cómodo.
Dependiente de redes (LAN, MAN, WAN, entre otros.).
Compatibilidad entre los dispositivos conectados.
Transparencia (El uso de múltiples procesadores y el acceso remoto debe
ser invisible).
Interacción entre los equipos.
Diseño de software compatible con varios usuarios y Sistemas Operativos.
Objetivo:
El procesamiento distribuido ha sido diseñado para resolver problemas
demasiado grandes para cualquier supercomputadora y mainframe, mientras se
mantiene la flexibilidad de trabajar en múltiples problemas más pequeños.
Clasificación:
En términos de funcionalidad, las mallas (como también es conocido el
procesamiento distribuido) se clasifican en computacionales (incluyendo mallas
de barrido de la CPU) y en mallas de datos; y en los estados son:
1. Globus: La herramienta Globus ha emergido como el estándar de
facto para la capa intermedia (middleware) de la malla. Globus tiene
recursos para manejar:
La gestión de recursos (Protocolo de Gestión de Recursos en
Malla o Grid Resource Management Protocol).
22
Servicios de Información (Servicio de Descubrimiento y
Monitorización o Monitoring and Discovery Service).
Gestión y Movimiento de Datos (Acceso Global al
Almacenamiento Secundario, Global Access to secondary
Storage y FTP en malla, GridFTP).
La mayoría de mallas que se expanden sobre las comunidades
académicas y de investigación de Globus Toolkit como núcleo de la
capa intermedia.
2. XML: Los servicios web basados en XML ofrecen una forma de
acceder a diversos servicios/aplicaciones en un entorno distribuido.
Recientemente, el mundo de la informática en malla y los servicios
web caminan juntos para ofrecer la malla con un servicio web. La
arquitectura está definida por la Open Grid Services Architecture
(OGSA). La versión 3.0 de Globus Toolkit, que actualmente se
encuentra fase alfa, será una implementación de referencia acorde
con el estándar OGSA.
Las mallas ofrecen una forma de resolver grandes retos, como el
plegamiento de las proteínas y descubrimiento de medicamentos,
modelización financiera, simulación de terremotos, inundaciones y
otras catástrofes naturales, modelización del clima/tiempo, entre
otros. Ofrecen un camino para utilizar los recursos de las tecnologías
de la información de forma óptima en una organización.
3. Computación de Ciclos Redundantes: El modelo de computación
de ciclos redundantes, también conocido como computación zombi,
es el empleado por aplicaciones como SETI@Home, consistente en
que un servidor o grupo de servidores distribuyen trabajo de
procesamiento en grupo de computadoras voluntarias a ceder
capacidad de procesamiento no utilizada. Básicamente, cuando
dejamos nuestro ordenador encendido, pero sin utilizarlo, la
capacidad de procesamiento se desperdicia por lo general en algún
protector de pantalla, este tipo de procesamiento distribuido utiliza
22
nuestra computadora cuando nosotros no la necesitamos,
aprovechando al máximo la capacidad de procesamiento.
4. Clustering: Otro método para crear sistemas de supercomputadoras
es el clustering. Un cluster o racimo de computadoras consiste en un
grupo de computadoras de relativo bajo costo conectadas entre sí
mediante un sistema de red de alta velocidad (Gigabit de fibra óptica
por lo general) y un software que realiza la distribución de la carga
de trabajo entre los equipos. Por lo general, este tipo de sistemas
cuentan con un centro de almacenamiento de datos único. Los
clusters tienen la ventaja de ser sistemas redundantes, al estar fuera
de servicio el procesador principal se dispara y actúa como un Fail
Over.
5. Grid: la computación en Grid o en malla es un nuevo paradigma de
computación distribuida en el cual todos los recursos de un número
indeterminado de computadores son englobados para ser tratados
como un único superordenador de manera transparente.
Estas computadoras englobadas no están conectadas o enlazadas
firmemente, es decir, no tienen por qué estar en el mismo lugar
geográfico. Se pueden tomar como ejemplo el proyecto
SETI@Home, en el cual trabajan computadoras alrededor de todo el
planeta para buscar vida extraterrestre.
Seguridad:
El punto de la seguridad es delicado en este tipo de computación distribuida
pues las conexiones se hacen de forma remota y no local, entonces suelen surgir
problemas para controlar el acceso a los otros nodos. Esto puede aprovecharse
para un ataque de DOS, aunque la red no va a dejar de funcionar porque uno falle.
Esa es una ventaja de este sistema Grid.
22
Aplicaciones:
Los ambientes en los que se encuentra con mayor frecuencia el uso de las
bases de datos distribuidas son:
Cualquier organización que tiene una estructura descentralizada.
Casos típicos de lo anterior son: Organismos gubernamentales y/o
servicio público.
La industria de la manufactura, particularmente, aquella con plantas
múltiples. Por ejemplo, la industria automotriz.
Aplicaciones de control y comando militar.
Líneas de transportación aérea.
Cadenas hoteleras.
Servicios bancarios y financieros.
Ejemplo:
En una compañía, la realización de tareas que requieran altas capacidades de
proceso, para lo cual se utilizarán los PCs conectados a la intranet de esta
empresa. Sin embargo, si queremos afrontar un proyecto de ámbito universal y
con un elevado grado de complejidad habremos de ser capaces de abordarlo
mediante análisis diferenciales que puedan ser realizados de forma separada, en
paralelo mediante diferentes máquinas presentes en nuestro ambicioso terreno de
juego: Internet. A continuación presentaremos dos de estos proyectos.
El proyecto SETI@Home desarrollado por la Universidad de California en
Berkeley comienza en Mayo de 1999. Más de 2 millones de voluntarios lo
convierten en la experiencia más grande de procesamiento distribuido hasta la
fecha. SETI (the Search for Extra-Terrestrial Inteligente) es un nombre colectivo
para designar los diferentes programas encargados de buscar evidencias de vida en
el cosmos. Para ello se utiliza como fuente los datos recogidos por
radiotelescopios, que como si de grandes pabellones auditivos se tratase, se
22
encargan de escudriñar el cielo en busca de señales de radio provenientes del
espacio. Como se comprenderá, la capacidad de computación necesaria para
analizar todos los datos que se recogen es desmesurada. Pero, ahí es precisamente
donde nace SETI@Home como proyecto de aplicación de computación
distribuida de la Universidad de Berkeley. Los datos de partida en este caso son
los recogidos por el telescopio de Arecibo en Puerto Rico, el más grande del
mundo.
De una forma similar a SETI@Home surge una nueva iniciativa conjunta
de las empresas Intel y United Devices centrada esta vez en la investigación del
cáncer. En este caso se pone el procesamiento distribuido de Internet al servicio
de la investigación molecular realizada en el departamento de Química de la
Universidad de Oxford en Inglaterra y la Fundación Nacional para la
Investigación del Cáncer en los EE.UU. El objetivo de estos centros es la
búsqueda de drogas que actúen contra el cáncer y la leucemia. Para ello es
necesario realizar complejos análisis de compatibilidad molecular sobre
moléculas, susceptibles de convertirse en un tratamiento efectivo para lo que se
precisa de una alta potencia de proceso.
Arquitectura de Comunicaciones:
Arquitectura Simple: Está dividida en 3 niveles:
Nivel de Acceso a la Red: Se ocupa del intercambio de datos entre el
computador y la red a la que está conectada. El computador que emite
debe proporcionarle a la red la dirección del destino, de forma que la red
pueda encaminar los datos al destino apropiado.
Nivel de Transporte: Asegura que los datos lleguen a su aplicación de
destino y que lo hacen en el mismo oren en que fueron enviados.
Nivel de Aplicación: Contiene la lógica necesaria para soportar varias
aplicaciones de usuario. Para cada clase diferente de aplicación, como la
22
transferencia de archivos, se necesitará un módulo separado y particular
para la misma.
Cada aplicación de un computador debe tener una dirección que sea única
dentro de su computador, lo que permite que el nivel de transporte envíe datos a la
aplicación correcta. Estas últimas direcciones se conocen como Puntos de Acceso
al Sistema (SAP).
Arquitectura OSI: La Organización Internacional de Estándares (ISO)
desarrolló una arquitectura de comunicaciones conocida como modelo de
Interconexión de Sistemas Abiertos (OSI). Una de las arquitecturas de redes
existentes se basa en el modelo OSI. Se compone de 7 capas, y cada una de ellas
posee un protocolo denominado Protocolo de Capa, que establece las funciones
que debe cumplir. Las 7 capas del modelo son las siguientes:
Capa Física: Conecta el computador con el medio de
comunicaciones. Controla y codifica la corriente de bits y permite
que ésta sea transferida hacia la red o hacia otro computador.
Capa de Enlace: Responsable de establecer, mantener y desactivar
el enlace entre el ETD fuente y el colector. Permite la transferencia
ordenada de las tramas, detecta y corrige errores que pudieron
haberse producido y contiene la dirección destino.
Capa de Red: Permite direccionar el tráfico de paquetes desde la
fuente hasta una estación colectora remota. Mediante mecanismos de
conmutación establece el camino que los paquetes deben seguir.
Capa de Transporte: Permite mantener la integridad de los datos en
la comunicación. Proporciona el encaminamiento y la segmentación,
y luego su unión en el mensaje original transmitido. Recupera
errores, si fuera el caso. Esta capa maneja mensajes.
Capa de Sesión: Maneja las disponibilidades de red. Controla las
memorias intermedias y verifica que la capacidad de procesamiento
22
de ésta no se vea saturada por la cantidad de datos que se transfieren;
provee la sincronización entre ETD.
Capa de Presentación: Se ocupa de la sintaxis de los datos, la
conversión de código, la compresión y descompresión de la
información, y todo otro tipo de funciones que se refieran a la
modificación de los datos enviados.
Capa de Aplicación: Controla y ejecuta las actividades que requiere
una determinada aplicación para que pueda ser transmitida hacia el
otro extremo. Facilita la transferencia de archivos y de mensajes de
correo, emulando terminales virtuales, y permite el acceso a bases de
datos remotas, o tareas que hacen el gerenciamiento de la red.
Protocolo TCP/IP: La arquitectura TCP/IP está también estructura en
niveles. Los niveles existentes son:
Acceso a la Red: Incluye los protocolos que ofrecen acceso a la red
de comunicaciones. Los protocolos de este nivel se establecen entre
un nodo de comunicaciones y un computador conectado.
Internet: Consta de los procedimientos necesarios para que los datos
puedan atravesar múltiples redes entre computadores, ofreciendo una
función de encaminamiento. El protocolo IP (Internet Protocol) se
implementa en computadores y encaminadores (routers).
Transporte: Proporciona la lógica necesaria para asegurar que los
datos intercambiados entre los computadores son enviados en forma
fiable. El protocolo de este nivel en conocido como Transmission
Control Protocol (TCP).
Aplicación: Incluye protocolos para aplicaciones específicas del
usuario.
Futuro del Procesamiento Distribuido:
22
Aunque la idea de distribución de datos es bastante atractiva, su realización
conlleva la superación de una serie de dificultades tecnológicas entre las que se
pueden mencionar:
Asegurar que el acceso entre diferentes sitios o nodos y el
procesamiento de datos se realice de manera eficiente,
presumiblemente óptima.
Transformar datos e integrar diferentes tipos de procesamiento entre
nodos de un ambiente distribuido.
Distribuir datos en los nodos del ambiente distribuido de una manera
óptima.
Controlar el acceso a los datos disponibles en el ambiente
distribuido.
Soportar la recuperación de errores de diferentes módulos del
sistema de manera segura y eficiente.
Asegurar que los sistemas locales y globales permanezcan como una
imagen fiel del mundo real evitando la interferencia destructiva que
pueden ocasionar diferentes transacciones en el sistema.
Así también, la aplicación de técnicas de distribución de información
requiere de superar algunas dificultades de índole organizacional y algunas otras
relacionadas con los usuarios. Entre ellas se puede mencionar:
El desarrollo de modelos para estimar la capacidad y el tráfico
esperado en el sistema distribuido.
Soportar el diseño de sistemas de información. Por ejemplo, ayudar
a decidir donde localizar algún dato particular o donde es mejor
ejecutar un programa de aplicación.
Considerar la competencia que habrá por el uso de los recursos entre
nodos diferentes.
22
Aun cuando las dificultades mencionadas son importantes, las ventajas de la
distribución de información han promovido su aplicación en ambientes del
presente y del futuro.
Auditoria de Redes
Es una serie de mecanismos mediante los cuales se pone a prueba una red
informática, evaluando su desempeño y seguridad, a fin de lograr una utilización
más eficiente y segura de la información.
Etapas de la Auditoria de Redes
Auditoria de Red Física
Auditoria de Red Lógica
Análisis de la Vulnerabilidad
Estrategia de Saneamiento
Plan de Contención ante posibles incidentes
Seguimiento Continuo del desempeño del Sistema
Auditoria de Red Física
Áreas de equipo de comunicación con control de acceso
Protección y tendido adecuado de cables y líneas de comunicación para
evitar accesos físicos
Control de utilización de equipos de prueba de comunicaciones para
monitorear la red y el tráfico en ella.
Prioridad de recuperación del sistema
Control de las líneas telefónicas
22
Equipos de comunicaciones deben estar en un lugar cerrado y con acceso
limitado
Seguridad fisica del equipo sea adecuada
Se tomen medidas para separar las actividades de los electricistass y de
cableado de lineas telfonicas
Las lineas de comunicación esten fuera de la vista
Auditoria de Red Lógica
En líneas telefónicas: No debe darse el numero como público y tenerlas
configuradas con retro-llamada, código de conexión o interruptores.
Usar contraseñas de acceso
Garantizar que en una transmisión, solo sea recibida por el destinatario.
Registrar actividades de los usuarios en la red.
Comprobar
Encriptar la información pertinente
Evitar la importación y exportación de datos
Inhabilidad el software o hardware con acceso libre
Generar estadísticas de las tasas de errores y transmisión
Crear protocolos con detección de errores.
Analisis de Vulnerabilidad
Este es sin duda el punto más crítico de toda la Auditoria, debido a que de
él dependerá directamente el curso de acción a tomar en las siguientes etapas y el
éxito de estas.
Estrategia de Saneamiento
22
Se identifican las “brechas” en la red y se procede a “parchearlas”, ya sea
actualizado el software afectado, reconfigurándolo de una manera mejor o
removiéndolo para reemplazarlo por otro software similar.
Plan de Contención
Consta de elaborar un “Plan B”, que previa un incidente aun después de
tomadas las medidas de seguridad, y que da respuesta a posibles eventualidades.
Seguimiento Continuo del desempeño del Sistema
La seguridad no es producto, es un proceso. Constante mente surgen
nuevos fallos de seguridad, nuevos virus, nuevas herramientas que facilitan la
intrusión en sistemas, como también nuevas y más efectivas tecnologías para
solucionar estos y otros problemas.
Procedimiento y Metodología para Informe Procesamiento Distribuido
1.- ¿Qué estrategias de búsqueda de Información se aplicará?
La búsqueda de Información que aplicaremos es la búsqueda en Internet,
como apoyo a la existente sobre procesamiento distribuido, de manera que se
pueda definir que contenidos abarca el tema, que se desconoce o se tiene poco
conocimientos, las relaciones y subtemas que abarcan el procedimiento
distribuido es decir, tipos de redes, arquitectura de cliente-servidor, procesamiento
paralelo. Debido a que realiza una búsqueda en Internet la cual puede llegar hacer
muy amplia, se hace uso de herramientas como buscadores que facilitan las
22
búsqueda de información, rapidez y con mayor validez, para ello es necesario
definir palabras claves como ayuda para obtener de información deseada.
2. ¿Cuál será el proceso de Diseño a seguir?
Identificación del problema.
Búsqueda de la información.
Análisis de la información.
Tratamiento de la información.
Transformación de la información.
3.- Herramientas a Utilizar
Internet.
Libros.
Software GanttProject
4.- ¿Cuál será el proceso para la Toma de Decisiones de las herramientas a
utilizar?
Observación -> Comparación -> Codificación -> Organización ->
Clasificación -> Resolución -> Evaluación -> Retroalimentación
22
Planificación
22
Página Web
Objetivo General
Desarrollar un portal web que sirva de alojamiento y permita la visualización de
los contenidos multimedia generados en el curso de Auditoría y Evaluación de
Sistemas, sirviendo de referencia para la búsqueda de información por parte de
profesionales o personas con actividades afines a la cátedra.
Objetivos Específicos
Definir el nombre, la estructura organizativa y pautas generales del
proyecto.
Crear un plan de trabajo para monitorear el trabajo.
Analizar y escoger la plataforma de desarrollo web que mejor satisfaga la
necesidad con los recursos disponibles
Establecer el formato y la diagramación de los temas para el sitio web.
Diseñar una interfaz sencilla y cómoda para la visualización del contenido.
22
Preparar la ponencia del producto.
Presentar el producto en las VII Jornadas de Investigación Institucional
UNEG.
Conclusión
Un error común es confundir procesamiento distribuido y paralelo, el
termino “procesamiento paralelo”, básicamente es el mismo, con excepción que
las maquinas distintas tienden a estar físicamente muy cerca en un sistema
“paralelo”, lo que no es necesario en un sistema “distribuido”. Por ejemplo una
aplicación distribuida podría ser una calculadora que usa una suma hecha en Java
en un equipo y la división implementada en C en otro equipo distinto.
El procesamiento distribuido permite una mejor utilización de equipos y
mejora el balanceo del procesamiento dentro de una aplicación, tiene una gran
importancia debido a que en algunas aplicaciones simplemente no hay una
maquina que sea capaz de realizar todo el procesamiento.
Para manejar este tipo de procesamiento en las aplicaciones existen diversas
maneras, siendo la arquitectura “cliente-servidor” la tendencia actual. Es tanto el
uso actual de esta arquitectura que por diversas razones, el termino “cliente-
servidor” ha llegado a aplicarse casi exclusivamente al caso en el que el cliente y
el servidor están, en efecto en maquinas distintas.
Una aplicación muy común del procesamiento distribuido es en las bases
de datos, donde el Procesamiento distribuido podría realizar la entrada/salida, la
22
selección y la validación de los datos en una computadora, y luego crear un
reporte basado en esos datos o una consulta en otra computadora.
Bibliografía
Ian Foster, Carl Kesselman (1999). La Grilla 2: Planos para una Nueva
Infraestructura Informática (The Grid 2: Blueprint for a New Computing
Infrastructure). Morgan Kaufmann Publishers. ISBN. Website.
Fran Berman, Anthony J.G. Hey, Geoffrey Fox (2003). La malla informática:
haciendo realidad la Infraestructura Global (Grid Computing: Making The
Global Infrastructure a Reality). Wiley. ISBN. Online version.
http://www.lania.mx/biblioteca/seminarios/basedatos/arq2.html
http://html.rincondelvago.com/bases-de-datos-distribuidas.html
http://www.cs.cinvestav.mx/SC/prof_personal/adiaz/Disdb/Cap_1.html
http://www.coit.es/publicac/publbit/bit131/internet.htm
22
22
22