estructuración física y funcional de un sistema informático

35
NOMBRE DE LA MATERIA: Manejo de sistemas operativos NOMBRE DEL TRABAJO: Estructuración física y funcional de un sistema informático NÚMERO DE EVIDENCIA: #3 NOMBRE DEL ALUMNO: Rodríguez López Armando Jaret NÚMERO DE MATRICULA: 111690217-0 GRADO: 3º semestre GRUPO: F AULA: 13 CARRERA: Informática FECHA DE PETICIÓN DE LA EVIDENCIA: 16 de agosto del 2012 FECHA DE ENTREGA DE EVIDENCIA: 30 de agosto del 2012 OBJETIVO DE LA EVIDENCIA: Conocer y enriquecer nuestras mentes con los sistemas operativos que son la base más importante de una computadora a la que tiene que estar bien informado FIRMA DE ALUMNO FIRMA DEL PADRE O TUTOR

Upload: jaret-rodriguez-lopez

Post on 30-Jul-2015

61 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Estructuración física y funcional de un sistema informático

NOMBRE DE LA MATERIA: Manejo de sistemas operativos

NOMBRE DEL TRABAJO: Estructuración física y funcional de un sistema informático

NÚMERO DE EVIDENCIA: #3

NOMBRE DEL ALUMNO: Rodríguez López Armando Jaret

NÚMERO DE MATRICULA: 111690217-0

GRADO: 3º semestre

GRUPO: F

AULA: 13

CARRERA: Informática

FECHA DE PETICIÓN DE LA EVIDENCIA: 16 de agosto del 2012

FECHA DE ENTREGA DE EVIDENCIA: 30 de agosto del 2012

OBJETIVO DE LA EVIDENCIA: Conocer y enriquecer nuestras mentes con los sistemas operativos que son la base más importante de una computadora a la que tiene que estar bien informado

FIRMA DE ALUMNO FIRMA DEL PADRE O TUTOR

INTRODUCCIÓN

Page 2: Estructuración física y funcional de un sistema informático

a)Descripción de un sistema informático. 1. Informática. 2. Sistema informático. Hardware y software. Redes de computadoras. 3. Información. Tipos. Características.

b) Identificación de sistemas operativos. 4. Definición 5. Sistema operativo monousuario- Procesadores. 6. Sistema operativo de red. Procesadores. Multitarea. Multiusuario. 7. Tipos de Sistemas operativos y proveedores más comunes.

c)Manejo de sistemas de codificación. 8. Representación por medio de números. El código decimal. Sistema binario. Código octal. Código hexadecimal. Cambios de base de numeración. Trabajo con números decimales. Representación de números reales. Razones para el uso del sistema binario. 9. Representación alfanumérica. Código ASCII. Código EBCDIC.

d) Medición de la información. 10. Unidades de medición.

Bit. Byte. Carácter. Múltiplos.

11. Equivalencias.

En el manejo de sistemas operativos (S.O) es la interacción entre el usuario con software y hardware.Este trabajo es realizado con fin de saber cada característica y composición de S.O desde que significa y algunos ejemplos que vienen en este trabajo y aunque resumido pero explica lo básico de cada tema y subtema desarrollado.No cabe duda de que para manejar esta materia de informática se necesita mucho lo que es las matemáticas, ingles y la lógica.

Page 3: Estructuración física y funcional de un sistema informático

Desde su creación, las computadoras digitales han utilizado un sistema de codificación de instrucciones en sistema de numeración binaria. Esto se debe a que los circuitos integrados funcionan con este principio haya corriente o no haya corriente.

UNIDAD DE APRENDIZAJEEstructuración física y funcional de un sistema informático.

PROPÓSITO DE LA UNIDADRealizar la estructuración física y funcional de los sistemas informáticos, software e información almacenada considerando sus características, medidas de seguridad y protección en el entorno físico.

RESULTADO DE APRENDIZAJEIdentifica los sistemas informáticos y la forma de codificar datos, a partir de sus análisis.Actividades de evaluación.

1.1.1: Realiza la descripción técnica de los elementos básicos de hardware y software en un sistema informático y la organización del soporte mediante distintos sistemas de almacenamiento de la información.

a) Descripción de un sistema informático.

1. Informática

El vocablo informática proviene del alemán informatik acuñado por Karl Steinbuch en 1957. Pronto, adaptaciones locales del término aparecieron en francés, italiano, español, rumano, portugués y holandés, entre otras lenguas, refiriéndose a la aplicación de las

Page 4: Estructuración física y funcional de un sistema informático

computadoras para almacenar y procesar la información. Es una contracción de las palabras information y automatik (información automática). En lo que hoy día conocemos como informática confluyen muchas de las técnicas, procesos y máquinas (ordenadores) que el hombre ha desarrollado a lo largo de la historia para apoyar y potenciar su capacidad de memoria, de pensamiento y de comunicación.

Se define informática como: Conjunto de conocimientos científicos y técnicas que hacen posible el tratamiento automático de la información por medio de ordenadores.

Los sistemas computacionales, generalmente implementados como dispositivos electrónicos, permiten el procesamiento automático de la información. Conforme a ello, los sistemas informáticos deben realizar las siguientes tres tareas básicas:

Entrada: captación de la información. Proceso: tratamiento de la información. Salida: transmisión de resultados.

Sistemas de mando y control, son sistemas basados en la mecánica y motricidad de dispositivos que permiten al usuario localizar, dentro de la logística, los elementos que se demandan. Están basados en la electricidad, o sea, no en el control del flujo del electrón, sino en la continuidad o discontinuidad de una corriente eléctrica, si es alterna o continua o si es inducida, contra inducida, en fase o desfase (ver periférico de entrada).

Sistemas de archivo, son sistemas que permiten el almacenamiento a largo plazo de información que no se demandará por un largo periodo de tiempo. Estos sistemas usan los conceptos de biblioteca para localizar la información demandada.

2. Sistema informático.

Un sistema informático como todo sistema, es el conjunto de partes interrelacionadas, hardware, software y de recurso humano (humanware) que permite almacenar y procesar información. El hardware incluye computadoras o cualquier tipo de dispositivo electrónico inteligente, que consisten en procesadores, memoria, sistemas de almacenamiento externo, etc. El software incluye al sistema operativo, firmware y aplicaciones, siendo especialmente importante los sistemas de gestión de bases de datos. Por último el soporte humano incluye al personal técnico que crean y mantienen el sistema (analistas, programadores, operarios, etc.) y a los usuarios que lo utilizan.

Los sistemas informáticos pasan por diferentes fases en su ciclo de vida, desde la captura de requisitos hasta el mantenimiento. En la actualidad se emplean numerosos sistemas informáticos en la administración pública.

Los sistemas informáticos suelen estructurarse en Subsistemas.

Page 5: Estructuración física y funcional de un sistema informático

Subsistema físico: asociado al hardware. Incluye entre otros elementos la CPU, memoria principal, la placa base, periféricos de entrada y salida, etc.

Subsistema lógico: asociado al software y la arquitectura. Incluye al sistema operativo, el firmware, las aplicaciones y las bases de datos.

Hardware y software.

Hardware: corresponde a todas las partes tangibles de un sistema informático; sus componentes son: eléctricos, electrónicos, electromecánicos y mecánicos.[1] Son cables, gabinetes o cajas, periféricos de todo tipo y cualquier otro elemento físico involucrado; contrariamente, el soporte lógico es intangible y es llamado software. El término es propio del idioma inglés (literalmente traducido: partes duras), su traducción al español no tiene un significado acorde, por tal motivo se la ha adoptado tal cual es y suena; la Real Academia Española lo define como «Conjunto de los componentes que integran la parte material de una computadora”. El término, aunque sea lo más común, no solamente se aplica a las computadoras; del mismo modo, también un robot, un teléfono móvil, una cámara fotográfica un reproductor multimedia posee hardware (y software).[

Software: Se conoce como software[] al equipamiento lógico o soporte lógico de un sistema informático, comprende el conjunto de los componentes lógicos necesarios que hacen posible la realización de tareas específicas, en contraposición a los componentes físicos, que son llamados hardware.

Los componentes lógicos incluyen, entre muchos otros, las aplicaciones informáticas; tales como el procesador de texto, que permite al usuario realizar todas las tareas concernientes a la edición de textos; el software de sistema, tal como el sistema operativo, que, básicamente, permite al resto de los programas funcionar adecuadamente, facilitando también la interacción entre los componentes físicos y el resto de las aplicaciones, y proporcionando una interfaz con el usuario.

El anglicismo "software" es el más ampliamente difundido, especialmente en la jerga técnica, el término sinónimo "logical", derivado del término francés "logiciel", es utilizado en países y zonas de habla francesa.

Redes de computadoras

Una red de computadoras también llamada de red de ordenadores, red de comunicaciones o de datos o red informática, es un conjunto de equipos informáticos y software conectados entre sí por medio de dispositivos físicos que envían y reciben impulsos eléctricos, electromagnéticas o cualquier otro medio para el transporte de datos, con la finalidad de compartir información, recursos y ofrecer servicios.

Como en todo proceso de comunicación se requiere de un emisor, un mensaje, un medio y un receptor. La finalidad principal para la creación de una red de computadoras es compartir los recursos y la información en la distancia, asegurar la confiabilidad y la disponibilidad de la información, aumentar la velocidad de transmisión de los datos y reducir el costo general de estas acciones. Un ejemplo es Internet, la cual es una gran red de millones de computadoras ubicadas en distintos puntos del planeta interconectadas básicamente para compartir información y recursos.

Page 6: Estructuración física y funcional de un sistema informático

La estructura y el modo de funcionamiento de las redes informáticas actuales están definidos en varios estándares, siendo el más importante y extendido de todos ellos el modelo TCP/IP basado en el modelo de referencia OSI. Este último, estructura cada red en siete capas con funciones concretas pero relacionadas entre sí; en TCP/IP se reducen a cuatro capas. Existen multitud de protocolos repartidos por cada capa, los cuales también están regidos por sus respectivos estándares.

El primer indicio de redes de comunicación fue de tecnología telefónica y telegráfica. En 1940 se transmitieron datos desde la Universidad de Darmouth, en Nuevo Hampshire, a Nueva York. A finales de la década de 1960 y en los posteriores 70 fueron creadas las minicomputadoras. En 1976, Apple introduce el Apple I, uno de los primeros ordenadores personales. En 1981, IBM introduce su primera PC. A mitad de la década de 1980 las PC comienzan a usar los módems para compartir archivos con otras computadoras, en un rango de velocidades que comenzó en 1200 bps y llegó a los 56 kbps (comunicación punto a punto o dial-up), cuando empezaron a ser sustituidos por sistema de mayor velocidad, especialmente ADSL.

Para poder formar una red se requieren elementos: hardware, software y protocolos. Los elementos físicos se clasifican en dos grandes grupos: dispositivos de usuario final (hosts) y dispositivos de red. Los dispositivos de usuario final incluyen los computadores, impresoras, escáneres, y demás elementos que brindan servicios directamente al usuario y los segundos son todos aquellos que conectan entre sí a los dispositivos de usuario final, posibilitando su intercomunicación.

El fin de una red es la de interconectar los componentes hardware de una red , y por tanto, principalmente, las computadoras individuales, también denominados hosts, a los equipos que ponen los servicios en la red, los servidores, utilizando el cableado o tecnología inalámbrica soportada por la electrónica de red y unidos por cableado o radiofrecuencia. En todos los casos la tarjeta de red se puede considerar el elemento primordial, sea ésta parte de un ordenador, de un conmutador, de una impresora, etc. y sea de la tecnología que sea (internet, Wi-Fi, Bluetooth, etc.)

3.Información

La información es un conjunto organizado de datos procesados, que constituyen un mensaje que cambia el estado de conocimiento del sujeto o sistema que recibe dicho mensaje.

Para Gilles Deleuze, la información es el sistema de control, en tanto que es la propagación de consignas que deberíamos de creer o hacer que creemos. En tal sentido la información es un conjunto organizado de datos capaz de cambiar el estado de conocimiento en el sentido de las consignas trasmitidas.

Los datos sensoriales una vez percibidos y procesados constituyen una información que cambia el estado de conocimiento, eso permite a los individuos o sistemas que poseen dicho estado nuevo de conocimiento tomar decisiones pertinentes acordes a dicho conocimiento.

Page 7: Estructuración física y funcional de un sistema informático

Desde el punto de vista de la ciencia de la computación, la información es un conocimiento explícito extraído por seres vivos o sistemas expertos como resultado de interacción con el entorno o percepciones sensibles del mismo entorno. En principio la información, a diferencia de los datos o las percepciones sensibles, tienen estructura útil que modificará las sucesivas interacciones del ente que posee dicha información con su entorno.

Tipos

Información internatodos los datos y contenidos necesarios para llevar a cabo UN proyecto, así como las informaciones relativas a la propia empresa que se ponen en conocimiento de todo el equipo. Debido a la composición variada de la empresa, podríamos establecer diversos estratos de información interna, algunos más genéricos y evadibles, otros más estratégicos y delicados.

Información privada:Es la información que no puede ir más allá de las personas que deban manejarla. Datos concretos sobre nuestra contabilidad, nuevas ideas en fase de definición, negociaciones en marcha, datos internos de clientes, filtraciones y rumores no propagables, etc.

Las personas que acceden a esta información tienen un alto grado de confianza y de responsabilidad. Almacenar y transmitir esta información de forma cifrada es una precaución sencilla que nos puede ahorrar grandes disgustos.

Características

Exactitud: En este sentido la información debe reflejar el evento al cual se refiere y su sistema de medición expresado con poca variabilidad.

Objetividad: La información debe ser el producto de criterios establecidos que permitan la interpretación en forma estandarizada por diferentes personas en circunstancias diversas de tiempo y lugar.

Válida: Se refiere a que la información ha de permitir medir en forma precisa el concepto que se estudia, con criterios uniformes.

Continuidad: La información ha de ser generada en forma permanente de tal manera que exista la disponibilidad de los datos a través del proceso de vigilancia.

Completa: Debe contener todos los datos y variables previamente establecidas para cumplir con su finalidad Oportuna: La información debe generarse y notificarse a la par con los acontecimientos de tal manera que permita la toma de decisiones y la actuación inmediata

Comparable: que permita ser confrontada con datos similares.Intelectual en su esencia, es decir, la información: crea y recrea el mundo de las ideas, a través del tiempo y del espacio; transmite esas ideas a nuestra mente y construye, así, poco a poco, el “contenido” de nuestro intelecto: el conocimiento.

Page 8: Estructuración física y funcional de un sistema informático

Novedosa: deberá transmitir algo nuevo, algo no conocido hasta entonces; no será información si la idea ya es conocida por el investigador.

Facilita la actividad humana: disminuye la incertidumbre, al proporcionar nuevos conocimientos; facilita, por tanto, la toma de decisiones.

b) Identificación de sistemas operativos

4. Definición

El sistema operativo es el programa (o software) más importante de un ordenador. Para que funcionen los otros programas, cada ordenador de uso general debe tener un sistema operativo. Los sistemas operativos realizan tareas básicas, tales como reconocimiento de la conexión del teclado, enviar la información a la pantalla, no perder de vista archivos y directorios en el disco, y controlar los dispositivos periféricos tales como impresoras, escáner, etc.

En sistemas grandes, el sistema operativo tiene incluso mayor responsabilidad y poder, es como un policía de tráfico, se asegura de que los programas y usuarios que están funcionando al mismo tiempo no interfieran entre ellos. El sistema operativo también es responsable de la seguridad, asegurándose de que los usuarios no autorizados no tengan acceso al sistema.

Los sistemas operativos pueden ser clasificados de la siguiente forma:

Multiusuario: Permite que dos o más usuarios utilicen sus programas al mismo tiempo. Algunos sistemas operativos permiten a centenares o millares de usuarios al mismo tiempo.

Multiprocesador: soporta el abrir un mismo programa en más de una CPU. Multitarea: Permite que varios programas se ejecuten al mismo tiempo. Multigrado: Permite que diversas partes de un solo programa funcionen al mismo

tiempo. Tiempo Real: Responde a las entradas inmediatamente. Los sistemas operativos

como DOS y UNIX, no funcionan en tiempo real.

5. Sistema operativo monousuario

Un sistema monousuario es es un sistema operativo que sólo puede ser ocupado por un único usuario en un determinado tiempo. Ejemplo de sistemas monousuario son las versiones domésticas de Windows. Administra recursos de memoria procesos y dispositivos de las PC'S

Page 9: Estructuración física y funcional de un sistema informático

Es un sistema en el cual el tipo de usuario no está definido y, por lo tanto, los datos que tiene el sistema son accesibles para cualquiera que pueda conectarse.

En algunos sistemas operativos se accede al sistema por medio de un usuario único que tiene permiso para realizar cualquier operación. Este es el caso de los sistemas operativos más antiguos como MS-DOS y algunos más recientes como la serie Windows 95/98/Me de Microsoft o MacOS (antes de MacOS X) de Macintosh. En estos sistemas no existe una diferenciación clara entre las tareas que realiza un administrador del sistema y las tareas que realizan los usuarios habituales, no disponiendo del concepto de multiusuario, un usuario común tiene acceso a todas las capacidades del sistema, pudiendo borrar, incluso, información vital para su funcionamiento. Un usuario malicioso (remoto o no) que obtenga acceso al sistema podrá realizar todo lo que desee por no existir dichas limitaciones.

6. Sistema operativo de red El sistema operativo de red permite la interconexión de ordenadores para poder acceder a los servicios y recursos. Al igual que un equipo no puede trabajar sin un sistema operativo, una red de equipos no puede funcionar sin un sistema operativo de red. Si no se dispone de ningún sistema operativo de red, los equipos no pueden compartir recursos y los usuarios no pueden utilizar estos recursos.Dependiendo del fabricante del sistema operativo de red, tenemos que el software de red para un equipo personal se puede añadir al propio sistema operativo del equipo o integrarse con él.

NetWare de Novell es el ejemplo más familiar y famoso de sistema operativo de red donde el software de red del equipo cliente se incorpora en el sistema operativo del equipo. El equipo personal necesita ambos sistema operativos para gestionar conjuntamente las funciones de red y las funciones individuales.

El software del sistema operativo de red se integra en un número importante de sistemas operativos conocidos, incluyendo Windows 2000 Server/Professional, Windows NT Server/Workstation, Windows 95/98/ME y Apple Talk.Cada configuración (sistemas operativos de red y del equipo separados, o sistema operativo combinando las funciones de ambos) tiene sus ventajas e inconvenientes. Por tanto, nuestro trabajo como especialistas en redes es determinar la configuración que mejor se adapte a las necesidades de nuestra red.Es un componente software de una computadora que tiene como objetivo coordinar y manejar las actividades de los recursos del ordenador en una red de equipos. Consiste en un software que posibilita la comunicación de un sistema informático con otros equipos en el ámbito de una red.

Procesadores

Este es el cerebro del computador. Dependiendo del tipo de procesador y su velocidad se obtendrá un mejor o peor rendimiento. Hoy en día existen varias marcas y tipos, de los cuales intentaremos darles una idea de sus características principales.

Las familias (tipos) de procesadores compatibles con el PC de IBM usan procesadores x86. Esto quiere decir que hay procesadores 286, 386, 486, 586 y 686. Ahora, a Intel se le ocurrió que su procesador 586 no se llamaría así sino "Pentium", por razones de mercadeo.

Page 10: Estructuración física y funcional de un sistema informático

Comenzó siendo del tamaño de un armario, posteriormente se redujo al de una gran caja, después se construyó en un placa de unos 15 por 15 pulgadas. Finalmente se construyó en un solo circuito integrado, encapsulado en un "chip", que se inserta en un zoket o zócalo de la placa-base o (madre) (0). La historia de los procesadores, ha pasado por diferentes situaciones siguiendo la lógica evolución de este mundo. Desde el primer procesador 4004 del año 1971, hasta el actual Core i7 del presente año ha llovido mucho en el campo de los procesadores. Aquel primer procesador presentado en el mercado el día 15 de noviembre, poseía unas características únicas para su tiempo. Para empezar, la velocidad del reloj sobrepasaba por poco los 100 KHz (Kilo hertzio) disponía de un ancho de bus de 4 bits. Fue expuesto por Roberto Pineda 2002 en la U.E.V.A.A

Máximo de 640 bytes de memoria. Realmente una auténtica joya, que para entonces podía realizar gran cantidad de tareas pero que no tiene punto de comparación con los actuales micros, entre sus aplicaciones podemos destacar su presencia en la calculadora Busicom, así como dotar de los primeros tintes de inteligencia a objetos inanimados. Sin embargo el 1º de Abril de 1972 Intel anunciaba una versión mejorada de su procesador. se trataba del 8008,que contaba como principal novedad un bus de 8 bytes y la memoria direccionable se ampliaba a los 16 Kb. Además, llegaba a la cifra de los 3500 transistores, casi el doble que su predecesor, y se le puede considerar como el antecedente del procesador que serviría de corazón a la primera computadora personal. Justo 2 años después Intel anunciaba esa tan esperada computadora personal, de nombre Altaír, cuyo nombre proviene de un destino de la nave Enterprise, en de los capítulos de la popular serie de televisión Star Trek, la semana en la que se creó la computadora. Esta computadora tenía un costo alrededor de los 400 dólares de la época, y el procesador suponía multiplicar por 10 el rendimiento del anterior, gracias a sus 2 MHz de decenas de miles de unidades en lo que suponía la aparición de la primera computadora que la gente podía comprar, y no ya simplemente utilizar. Intel al cual se le ocurrió que su procesador 586 se llamara PENTIUM, por razones de mercado. Tiene varios como son: Pentium, Pentium II, Pentium III y Pentium IV , AMD tiene el AMD586, K5 y el K6. Los 586 (Pentium) ya son prácticamente obsoletos.

Multitarea

La multitarea es la característica de los sistemas operativos modernos de permitir que varios procesos sean ejecutados al mismo tiempo, compartiendo uno o más procesadores.

Los procesos de usuario son quienes ceden la CPU al sistema operativo a intervalos regulares. Este tipo de multitarea es muy problemático, puesto que si el proceso de usuario se interrumpe y no cede la CPU al sistema operativo, todo el sistema quedará trabado, es decir, sin poder hacer nada. Da lugar también a latencias muy irregulares, y la imposibilidad de tener en cuenta este esquema en sistemas operativos de tiempo real. Un ejemplo sería Windows hasta la versión 2000.

Preferente el sistema operativo es el encargado de administrar el/los procesador(es), repartiendo el tiempo de uso de este entre los procesos que estén esperando para utilizarlo. Cada proceso utiliza el procesador durante cortos períodos de tiempo, pero el resultado final es prácticamente igual que si estuviesen ejecutándose al mismo tiempo. Ejemplos de sistemas de este tipo serían Unix y sus derivados (FreeBSD, Linux), VNS y derivados, AmigaOS, Windows NT.RealSolo se da en sistemas multiprocesador. Es aquella en la que varios procesos se ejecutan realmente al mismo tiempo, en distintos microprocesadores. Suele ser también

Page 11: Estructuración física y funcional de un sistema informático

preferente. Ejemplos de sistemas operativos con esa capacidad: variantes Unix, Linux, Windows NT, Mac OS X,

Multiusuario

La palabra multiusuario se refiere a un concepto de sistemas operativos, pero en ocasiones también puede aplicarse a programas de computadora de otro tipo (e.j. aplicaciones de base de datos) e incluso a sistemas de cómputo. En general se le llama multiusuario a la característica de un sistema operativo o programa que permite proveer servicio y procesamiento a múltiples usuarios simultáneamente, estrictamente es pseudo-simultáneo (tanto en paralelismo real como simulado).

En contraposición a los sistemas monousuario, que proveen servicio y procesamiento a un sólo usuario, en la categoría de multiusuario se encuentran todos los sistemas que cumplen simultáneamente las necesidades de dos o más usuarios, que comparten los mismos recursos. Actualmente este tipo de sistemas se emplean especialmente en redes, pero los primeros ejemplos de sistemas multiusuario fueron los centralizados, que los usuarios compartían a través del uso de múltiples dispositivos de interfaz humana (e.j. una unidad central y múltiples monitores y teclados).

Los recursos que se comparten son, normalmente, una combinación de:

Procesador. Memoria. Almacenamiento secundario (en disco duro). Programas. Periféricos como impresoras, plotters, escáner, etc.

De tal modo que múltiples usuarios utilizan una única computadora, comparten programas y usan un sistema operativo unificado, que les están dedicados por completo; teniendo la impresión de que lo hacen simultáneamente.

7.Tipos de Sistemas operativos y proveedores más comunes

Un sistema Operativo (SO) es en sí mismo un programa de computadora. Sin embargo, es un programa muy especial, quizá el más complejo e importante en una computadora. El SO despierta a la computadora y hace que reconozca a la CPU, la memoria, el tecla do, el sistema de vídeo y las unidades de disco.

Además, proporciona la facilidad para que los usuarios se comuniquen con la computadora y sirve de plataforma a partir de la cual se corran programas de aplicación.

Los sistemas operativos más conocidos son los siguientes:

1) DOS: El famoso DOS, que quiere decir Disk Operating System (sistema operativo de disco), es más conocido por los nombres de PC-DOS y MS-DOS. MS-DOS fue hecho por la compañía de software Microsoft y es en esencia el mismo SO que el PC-DOS.

La razón de su continua popularidad se debe al aplastante volumen de software disponible y a la base instalada de computadoras con procesador Intel.

Page 12: Estructuración física y funcional de un sistema informático

Cuando Intel liberó el 80286, DOS se hizo tan popular y firme en el mercado que DOS y las aplicaciones DOS representaron la mayoría del mercado de software para PC. En aquel tiempo, la compatibilidad IBM, fue una necesidad para que los productos tuvieran éxito, y la "compatibilidad IBM" significaba computadoras que corrieran DOS tan bien como las computadoras IBM lo hacían.

Aún con los nuevos sistemas operativos que han salido al mercado, todavía el DOS es un sólido contendiente en la guerra de los SO.

2) Windows 3.1: Microsoft tomo una decisión, hacer un sistema operativo que tuviera una interfaz gráfica amigable para el usuario, y como resultado obtuvo Windows. Este sistema muestra íconos en la pantalla que representan diferentes archivos o programas, a los cuales se puede accesar al darles doble clic con el puntero del mouse. Todas las aplicaciones elaboradas para Windows se parecen, por lo que es muy fácil aprender a usar nuevo software una vez aprendido las bases.

3) Windows 95: En 1995, Microsoft introdujo una nueva y mejorada versión del Windows 3.1. Las mejoras de este SO incluyen soporte multitareas y arquitectura de 32 bits, permitiendo así correr mejores aplicaciones para mejorar la eficacia del trabajo.

4) Windows NT: Esta versión de Windows se especializa en las redes y servidores. Con este SO se puede interactuar de forma eficaz entre dos o más computadoras.

5) OS/2: Este SO fue hecho por IBM. Tiene soporte de 32 bits y su interfaz es muy buena. El problema que presenta este sistema operativo es que no se le ha dad el apoyo que se merece en cuanto a aplicaciones se refiere. Es decir, no se han creado muchas aplicaciones que aprovechen las características de el SO, ya que la mayoría del mercado de software ha sido monopolizado por Windows.

6) Mac OS: Las computadoras Macintosh no serían tan populares como lo son si no tuvieran el Mac OS como sistema operativo de planta. Este sistema operativo es tan amigable para el usuario que cualquier persona puede aprender a usarlo en muy poco tiempo. Por otro lado, es muy bueno para organizar archivos y usarlos de manera eficaz. Este fue creado por Apple Computer, Inc.

7) UNIX: El sistema operativo UNIX fue creado por los laboratorios Bell de AT&T en 1969 y es ahora usado como una de las bases para la supercarretera de la información. Unix es un SO multiusuario y multitarea, que corre en diferentes computadoras, desde supercomputadoras, Mainframes, Minicomputadoras, computadoras personales y estaciones de trabajo. Esto quiere decir que muchos usuarios pueden estar usando una misma computadora por medio de terminales o usar muchas de ellas.

Linux: es un núcleo libre de sistema operativo basado en Unix.3 Es uno de los principales ejemplos de software libre. Linux está licenciado bajo la GPL v2 y está desarrollado por colaboradores de todo el mundo. El desarrollo del día a día tiene lugar en la Linux Kernel Mailing List Archive

El núcleo Linux fue concebido por el entonces estudiante de ciencias de la computación finlandés, Linus Torvalds, en 1991. Linux consiguió rápidamente desarrolladores y usuarios que adoptaron códigos de otros proyectos de software libre para su uso en el nuevo sistema operativo. El núcleo Linux ha recibido contribuciones de miles de programadores. Normalmente Linux se utiliza junto a un empaquetado de software, llamado distribución Linux.

Page 13: Estructuración física y funcional de un sistema informático

c)Manejos de sistemas de codificación.Una de las formas en que los datos pueden ser capturados precisa y eficientemente es mediante un empleo como conocimiento de varios códigos. El proceso de poner datos ambiguos o problemáticos en unos cuantos dígitos o letras fácilmente capturarles es llamado codificación (que no debe ser confundida con la codificación de programa).

La codificación ayuda a que el analista de sistemas alcance el objetivo de eficiencia, debido a que los datos que son codificados requieren menos tiempo para su captura y reducen la cantidad de conceptos capturados. La codificación también puede ayudar en el reordenamiento adecuado de los datos en un punto posterior del proceso de transformación de datos.

Además los datos codificados pueden ahorrar espacio valioso de memoria y de almacenamiento. Resumiendo, la codificación es una forma de ser elocuente, pero escueto, en la captura de datos.

8.Representación por medio de Números

En una computadora, hay varias formas de representar el signo de un número. Este artículo trata cuatro métodos de extender el sistema binario para representar números con signo: signo y magnitud, complemento a uno, complemento a dos y exceso a bn-1.

Para la mayoría de usos, las computadoras modernas utilizan típicamente la representación en complemento a dos, aunque pueden usarse otras en algunas circunstancias.

En las secciones a continuación, nos referiremos exclusivamente al caso de números signados en binario (y contrastaremos con el decimal con fines didácticos), esto no significa que lo mostrado aquí se pueda llevar en forma análoga a otras bases.

Un primer enfoque al problema de representar un número signado de n-bits consiste en asignar:

1. un bit para representar el signo. Ese bit a menudo es el bit más significativo o MSB (de sus siglas en inglés) y, por convención: un 0 denota un número positivo, y un 1 denota un número negativo;

2. los (n-1)-bits restantes para representar el significando que es la magnitud del número en valor absoluto.

Y se conoce como Signo y Magnitud.

Page 14: Estructuración física y funcional de un sistema informático

Este enfoque es directamente comparable a la forma habitual de mostrar el signo (colocando "+" o "-" al lado de la magnitud del número). Algunas de las primeras computadoras binarias (la IBM 7090) utilizaron esta representación, quizás por su relación obvia con la práctica habitual.

El formato Signo y Magnitud es además el habitual para la representación del significando en números en punto flotante

Sea una representación en formato de Signo y Magnitud que nos permite codificar un número entero en binario con 8 bits (un byte). Esto nos otorga 1 bit para el signo y 7 bits para la magnitud. Con 8 bits, podemos representar, en teoría al menos (véase Desventajas, más abajo), 28 = 256 números. Los cuales, según éste formato, van a estar repartidos entre 128 números positivos (bit de signo en 0) y 128 números negativos (bit de signo en 1).

Supongamos ahora, que tenemos que representar el número -9710 (decimal). Procedemos a:

1. Tomar nota del signo del número -9710, que siendo negativo, llevará como bit de signo un 1;2. Realizar la conversión: el valor absoluto de -9710 es |-9710| = 9710. Que en binario es:

11000012;3. Colocar todo junto, el número -9710 en binario con formato de Signo y Magnitud es:

111000012. Donde el 1 en el bit más significativo indica un número negativo, y 11000012 es el significando en valor absoluto.

Para el caso inverso, dado un número binario en Signo y Magnitud, por ejemplo, 101101012, procedemos a:

1. Analizar el bit más significativo, que siendo un 1 indica que el número es negativo;2. Convertir el significando a la base deseada, por ejemplo, en decimal, tomando en cuenta que

el valor obtenido está en valor absoluto y la magnitud real estará dada por el bit de signo obtenido antes: 01101012 = |5310|. Siendo que el bit de signo es 1, el número real es -5310. Si el bit de signo fuese 0, el número hubiese sido +5310.

Sistema Decimal

El código decimal: El código decimal es el código que utilizan los ordenadores para trabajar en base diez, y está compuesto por los números del 0 al 9. Cada instrucción o interpretación lógica del ordenador se reduce a un código integrado sólo por esos números

Page 15: Estructuración física y funcional de un sistema informático

Sistema binario.

El sistema binario, en matemáticas e informática, es un sistema de numeración en el que los números se representan utilizando solamente las cifras cero y uno (0 y 1). Es el que se utiliza en las computadoras, debido a que trabajan internamente con dos niveles de voltaje, por lo cual su sistema de numeración natural es el sistema binario (encendido 1, apagado 0).

Un número binario puede ser representado por cualquier secuencia de bits (dígitos binarios), que suelen representar cualquier mecanismo capaz de usar dos estados mutuamente excluyentes. Las siguientes secuencias de símbolos podrían ser interpretadas como el mismo valor numérico binario:

1 0 1 0 0 1 1 0 1 0| - | - - | | - | -X o x o o x x o x oY n y n n y y n y n

El valor numérico representado en cada caso depende del valor asignado a cada símbolo. En una computadora, los valores numéricos pueden representar dos voltajes diferentes; también pueden indicar polaridades magnéticas sobre un disco magnético. Un "positivo", "sí", o "sobre el estado" no es necesariamente el equivalente al valor numérico de uno; esto depende de la nomenclatura usada.

De acuerdo con la representación más habitual, que es usando números árabes, los números binarios comúnmente son escritos usando los símbolos 0 y 1. Los números binarios se escriben a menudo con subíndices, prefijos o sufijos para indicar su base. Las notaciones siguientes son equivalentes:

100101 binario (declaración explícita de formato) 100101b (un sufijo que indica formato binario) 100101B (un sufijo que indica formato binario) bin 100101 (un prefijo que indica formato binario) 1001012 (un subíndice que indica base 2 (binaria) notación) %100101 (un prefijo que indica formato binario) 0b100101 (un prefijo que indica formato binario, común en lenguajes de

programación)

Código octal.

El sistema numérico en base 8 se llama octal y utiliza los dígitos 0 a 7.

Para convertir un número en base decimal a base octal se divide por 8 sucesivamente hasta llegar a cociente 0, y los restos de las divisiones en orden inverso indican el número en octal. Para pasar de base 8 a base decimal, solo hay que multiplicar cada cifra por 8 elevado a la posición de la cifra, y sumar el resultado.

Page 16: Estructuración física y funcional de un sistema informático

Es más fácil pasar de binario a octal, porque solo hay que agrupar de 3 en 3 los dígitos binarios, así, el número 74 (en decimal) es 1001010 (en binario), lo agruparíamos como 1 / 001 / 010, después obtenemos el número en decimal de cada uno de los números en binario obtenidos: 1=1, 001=1 y 010=2. De modo que el número decimal 74 en octal es 112.

En informática a veces se utiliza la numeración octal en vez de la hexadecimal, y se suele indicar poniendo 0x delante del número octal. Tiene la ventaja de que no requiere utilizar otros símbolos diferentes de los dígitos. Sin embargo, para trabajar con bytes o conjuntos de ellos, asumiendo que un byte es una palabra de 8 bits, suele ser más cómodo el sistema hexadecimal, por cuanto todo byte así definido es completamente representable por dos dígitos hexadecimales.

Código hexadecimal.

Es un sistema de numeración que emplea 16 símbolos. Su uso actual está muy vinculado a la informática y ciencias de la computación, pues los computadores suelen utilizar el

byte u octeto como unidad básica de memoria; y, debido a que un byte representa valores posibles, y esto puede representarse como

Que, según el teorema general de la numeración posicional, equivale al número en

base 16 , dos dígitos hexadecimales corresponden exactamente —permiten representar la misma línea de enteros— a un byte.

En principio, dado que el sistema usual de numeración es de base decimal y, por ello, sólo se dispone de diez dígitos, se adoptó la convención de usar las seis primeras letras del alfabeto latino para suplir los dígitos que nos faltan. El conjunto de símbolos sería, por tanto, el siguiente:

Cambios de base de numeración.

Todos hemos estudiado en el colegio las Bases de numeración, y creo que pocos son los que realmente han comprendido lo que significa.

Sin querer dar una clase magistral sobre ello, os diré que cada base de numeración representaría los números si solo se trabajara con los dígitos que indica la base, es decir para el sistema binario solo tendríamos en cuenta dos dígitos, que para mayor comodidad serían los dos primeros de los números conocidos, (0 y 1), para base 3 tendríamos el 0,1 y 2, y así sucesivamente.

Page 17: Estructuración física y funcional de un sistema informático

En la actualidad la base con que nos manejamos es la Base 10, (0, 1, 2, 3, 4, 5, 6, 7, 8,9). Si quisiéramos trabajar con bases mayores deberíamos inventar nuevos dígitos. Por convenio se utilizan las letras según el orden alfabético (A, B, C, D, E, F,...).

Podría intentar explicar como se pasa de una Base a otra, pero hay demasiados sitios donde consultarlo y no creo que yo pudiera aportar nada nuevo.

Lo que si he hecho es un gadget muy simple que permite pasar números de una base a otra, desde Base 2 a Base 16.

Trabajo con números decimales.

Los números decimales forman parte del conjunto de números racionales y los utilizamos en variadas

ocasiones de nuestra vida diaria. Algunas veces estos se asocian a índices económicos, como cuando

decimos que el dólar se encuentra a 521,1 centavos o que el IPC subió en un 1,1%, pero también los

utilizamos al referimos a números que no son exactos, como cuando hablamos de que en el

supermercado compramos 2,5 kilos de carne o decimos que estamos pesando 59 kilos y medio.

Como podemos ver en el siguiente cuadro, los números decimales se encuentran formados por una

parte entera, una coma y una parte decimal.

Representación de números reales.

El objetivo es representar un número con un punto decimal en sistema binario (por ejemplo, 101.01, que no se lee ciento uno punto cero uno ya que es, de hecho, un número binario, 5,25 en sistema decimal) mediante el formato 1.XXXXX... * 2n (en nuestro ejemplo, 1.0101*22). El estándar IEEE 754 define cómo codificar un número real. Este estándar ofrece una forma de codificar un número utilizando 32 bits, y define tres componentes:

el signo más/menos se representa por un bit: el bit de mayor peso (aquel que se encuentra más a la izquierda)el exponente se codifica utilizando 8 bits inmediatamente después del signola mantisa (los bits después del punto decimal) con los 23 bits restantesAsí, la codificación sigue la forma: seeeeeeeemmmmmmmmmmmmmmmmmmmmmmmla s representa al bit del signo.cada e representa al exponente del bit

Page 18: Estructuración física y funcional de un sistema informático

cada m representa a la mantisa del bitSin embargo, hay ciertas restricciones para los exponentes:

el exponente 00000000 está prohibidoel exponente 11111111 está prohibido. Sin embargo, a veces se utiliza para informar de errores. Esta configuración numérica se denomina NaN (Not a number), que significa No es un número.Se le debe sumar 127 (01111111) al exponente para convertir al decimal en un número real dentro del sistema binario. Por lo tanto, los exponentes pueden variar de -254 a 255Así, la fórmula para expresar números reales es:

(-1)^S * 2^( E - 127 ) * ( 1 + F )donde:

S es el bit del signo y, por lo tanto, 0 se entiende como positivo ( -1^0=1 ).E es el exponente al que se le debe sumar 127 para obtener el equivalente codificadoF es la parte de la fracción, la única que se expresa, y la que se le suma a 1 para realizar el cálculo.Aquí hay un ejemplo: Se codificará el valor 525,5.

525,5 es positivo, por lo que el primer bit será 0.Su representación en el sistema binario (base 2) es: 1000001101.1Al normalizarlo, obtenemos: 1.0000011011*2^9Sumándole 127 al exponente, que es 9, da 136 o, en sistema binario (base 2): 10001000La mantisa está compuesta por la parte decimal de 525,5 en base 2 normal, que es 0000011011.Como la mantisa debe tomar 23 bits, se deben agregar ceros para completarla: 00000110110000000000000La representación binaria de 525,5 bajo el estándar IEEE 754 es, por lo tanto: 0 1000 1000 00000110110000000000000 0100 0100 0000 0011 0110 0000 0000 0000 (4403600 en sistema hexadecimal)A continuación hay otro ejemplo, esta vez utilizando un número real negativo : Se codificará el valor -0,625.

El bit s es 1, como 0,625 es negativo.0,625 se escribe en sistema binario (base 2) de la siguiente manera: 0.101Queremos escribirlo en la forma 1.01 x 2-1Consecuentemente, el exponente vale 1111110 como 127 - 1 = 126 (o 1111110 en sistema binario)La mantisa es 01000000000000000000000 (sólo se representan los dígitos después del punto decimal, ya que el número entero es siempre equivalente a 1)La representación binaria de 0,625 bajo el estándar IEEE 754 es, por lo tanto: 1 1111 1110 01000000000000000000000 1111 1111 0010 0000 0000 0000 0000 0000 (FF 20 00 00 en sistema hexadecimal)

Razones para el uso del sistema binario

Todas aquellas personas que se dedican a la informática es fundamental tener habilidad con este tipo de numeración. En este artículo voy a explicar un poco cómo se utiliza y en que consiste el sistema binario.

Page 19: Estructuración física y funcional de un sistema informático

En binario, tan sólo existen dos dígitos, el cero y el uno. Hablamos, por tanto, de un sistema en base dos, en el que 2 es el peso relativo de cada cifra respecto de la que se encuentra a la derecha. Es decir:

An, An-1, ….., A5, A4, A3, A2, A1, A0

El subíndice n indica el peso relativo (2n) La forma de contar es análoga a todos los sistemas de numeración, incluido el nuestro, se van generando números con la combinación progresiva de todos los dígitos. En base 10 (sistema decimal), cuando llegamos al 9, seguimos con una cifra más, pero comenzando desde el principio: 9, 10,11… en binario sería:

0, 1 (cero y uno)

10, 11 (dos y tres)

100, 101, 110, 111 (cuatro, cinco, seis y siete)

1000, 1001, 1010, 1011, 1100, 1101, 1110, 1111 (del ocho al quince)

10000, 10001, 10010, 10011, 10100….

Ya sabemos contar… pero si nos dan un número muy grande en binario… ¿como sabríamos qué número es contar hasta que lleguemos a ese número? Bien, para eso utilizaremos el siguiente método: multiplicaremos cada dígito por su peso y sumaremos todos los valores. Por ejemplo, dado el número en binario 11110100101:

1 1 1 1 0 1 0 0 1 0 1 — Número binario

10 9 8 7 6 5 4 3 2 1 0 — Posición – peso

1×210 + 1×29 + 1×28 + 1×27 + 0×26 + 1×25 + 0×24 + 0×23 + 1×22 + 0×21 + 1×20

=

1024 + 512 + 256 + 128 + 0 + 32 + 0 + 4 + 1 = 1957

9.Representación alfanumérica.

El sistema numérica en base 36 se llama sistema alfanumérica y utiliza para su representación los símbolos 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, A, B, C, D, E, F, G, H, I, J, K, L, M, N, O, P, Q, R, S, T, U, V, W, X, Y, Z. Recibe este nombre dado que los símbolos que utiliza para su representación concuerdan con la definición computacional tradicional de carácter alfanumérico; hay que tener presente que los caracteres alfabéticos utilizados corresponden al alfabeto latino con la supresión de la letra Ñ.

El sistema alfanumérico, en el contexto de la informática, no es una buena alternativa respecto de sistemas como el binario, el hexadecimal o cualquier otro en base . Esto se debe a que una palabra de cierto tamaño puede tener un manejo más intuitivo por los humanos si se escribe en base o bien usando varias bases tales que su producto sea . Así, la palabra (1111) puede ser sintetizada como (F) usando sólo un carácter hexadecimal. Claramente, no existe natural que permita que , por lo que el sistema alfanumérico no pueda usarse para este propósito.]. Por otro lado, el sistema alfanumérico puede ser una alternativa respecto de otros sistemas de bases menores a la hora de numerar o identificar los objetos de un conjunto, ya que una misma cantidad se

Page 20: Estructuración física y funcional de un sistema informático

puede representar con una cadena de símbolos más corta. Un ejemplo de esto puede ser su uso en la asignación de números de patente - ignorando la supresión de ciertos símbolos o palabras a causa de motivos visuales o de otra índole - u otro tipo de palabra alfanumérica identificadora a un objeto cualquiera. De este modo, el número de patente asignado a un vehículo puede ser (RT5183) en lugar de su equivalente decimal más largo y difícil de memorizar (1681530483).El principio anterior puede extenderse, utilizando otros sistemas como el base64, pero que pueden resultar menos intuitivos de emplear por humanos debido a la existencia simultánea de caracteres alfabéticos mayúsculos o minúsculos y otros caracteres de relleno cuando la cantidad de caracteres alfabéticos es insuficiente.

Código ASCII.

ASCII (acrónimo inglés de American Standard Code for Information Interchange — Código Estándar Estadounidense para el Intercambio de Información), pronunciado generalmente [áski] o [ásci] , es un código de caracteres basado en el alfabeto latino, tal como se usa en inglés moderno y en otras lenguas occidentales. Fue creado en 1963 por el Comité Estadounidense de Estándares (ASA, conocido desde 1969 como el Instituto Estadounidense de Estándares Nacionales, o ANSI) como una refundición o evolución de los conjuntos de códigos utilizados entonces en telegrafía. Más tarde, en 1967, se incluyeron las minúsculas, y se redefinieron algunos códigos de control para formar el código conocido como US-ASCII.

El código ASCII utiliza 7 bits para representar los caracteres, aunque inicialmente empleaba un bit adicional (bit de paridad) que se usaba para detectar errores en la transmisión. A menudo se llama incorrectamente ASCII a otros códigos de caracteres de 8 bits, como el estándar ISO-8859-1 que es una extensión que utiliza 8 bits para proporcionar caracteres adicionales usados en idiomas distintos al inglés, como el español.

ASCII fue publicado como estándar por primera vez en 1967 y fue actualizado por última vez en 1986. En la actualidad define códigos para 33 caracteres no imprimibles, de los cuales la mayoría son caracteres de control obsoletos que tienen efecto sobre cómo se procesa el texto, más otros 95 caracteres imprimibles que les siguen en la numeración (empezando por el carácter espacio).

Casi todos los sistemas informáticos actuales utilizan el código ASCII o una extensión compatible para representar textos y para el control de dispositivos que manejan texto como el teclado. No deben confundirse los códigos ALT+número de teclado con los códigos ASCII.

El código ASCII se desarrolló en el ámbito de la telegrafía y se usó por primera vez comercialmente como un código de tele impresión impulsado por los servicios de datos de Bell. Bell había planeado usar un código de seis bits, derivado de Fieldata, que añadía puntuación y letras minúsculas al más antiguo código de tele impresión Baudot, pero se les convenció para que se unieran al subcomité de la Agencia de Estándares Estadounidense (ASA), que habían empezado a desarrollar el código ASCII. Baudot ayudó en la automatización del envío y recepción de mensajes telegráficos, y tomó muchas características del código Morse; sin embargo, a diferencia del código Morse, Baudot usó códigos de longitud constante. Comparado con los primeros códigos telegráficos, el código propuesto por Bell y ASA resultó en una reorganización más conveniente para ordenar listas (especialmente porque estaba ordenado alfabéticamente) y añadió características como la 'secuencia de escape'.

Page 21: Estructuración física y funcional de un sistema informático

El código ASCII es una representación numérica de un carácter como ‘a’ o ‘@’.[]

ASCII es, en sentido estricto, un código de siete bits, lo que significa que usa cadenas de bits representables con siete dígitos binarios (que van de 0 a 127 en base decimal) para representar información de caracteres. En el momento en el que se introdujo el código ASCII muchos ordenadores trabajaban con grupos de ocho bits (bytes u octetos), como la unidad mínima de información; donde el octavo bit se usaba habitualmente como bit de paridad con funciones de control de errores en líneas de comunicación u otras funciones específicas del dispositivo. Las máquinas que no usaban la comprobación de paridad asignaban al octavo bit el valor cero en la mayoría de los casos, aunque otros sistemas como las computadoras Prime, que ejecutaban PRIMOS ponían el octavo bit del código ASCII a uno.

El código ASCII define una relación entre caracteres específicos y secuencias de bits; además de reservar unos cuantos códigos de control para el procesador de textos, y no define ningún mecanismo para describir la estructura o la apariencia del texto en un documento; estos asuntos están especificados por otros lenguajes como los lenguajes de etiquetas.

.

[

Código EBCDIC.

EBCDIC (Extended Binary Coded Decimal Interchange Code) es un código estándar de 8 bits usado por computadoras mainframe IBM. IBM adaptó el EBCDIC del código de tarjetas perforadas en los años 1960 y lo promulgó como una táctica customer-control cambiando el código estándar ASCII.

EBCDIC es un código binario que representa caracteres alfanuméricos, controles y signos de puntuación. Cada carácter está compuesto por 8 bits = 1 byte, por eso EBCDIC define un total de 256 caracteres.

Espacio en blanco - 0 1 0 0 0 0 0 0

Letras mayúsculas de la A a la Z: se dividen en tres grupos (A-I), (J-R), (S-Z) y en las primeras cuatro posiciones se identifica el grupo al cual pertenece la letra y en las restantes cuatro posiciones el dígito correspondiente a la posición de la letra en el grupo.

A - 1 1 0 0 0 0 0 1B - 1 1 0 0 0 0 1 0C - 1 1 0 0 0 0 1 1D - 1 1 0 0 0 1 0 0E - 1 1 0 0 0 1 0 1F - 1 1 0 0 0 1 1 0

Page 22: Estructuración física y funcional de un sistema informático

G - 1 1 0 0 0 1 1 1H - 1 1 0 0 1 0 0 0I - 1 1 0 0 1 0 0 1J - 1 1 0 1 0 0 0 1K - 1 1 0 1 0 0 1 0L - 1 1 0 1 0 0 1 1M - 1 1 0 1 0 1 0 0N - 1 1 0 1 0 1 0 1O - 1 1 0 1 0 1 1 0P - 1 1 0 1 0 1 1 1Q - 1 1 0 1 1 0 0 0R - 1 1 0 1 1 0 0 1S - 1 1 1 0 0 0 1 0T - 1 1 1 0 0 0 1 1U - 1 1 1 0 0 1 0 0V - 1 1 1 0 0 1 0 1W - 1 1 1 0 0 1 1 0X - 1 1 1 0 0 1 1 1Y - 1 1 1 0 1 0 0 0Z - 1 1 1 0 1 0 0 1

e) MEDICIÓN DE LA INFORMACIÓN.

El proceso de asignar un valor numérico a una variable se llama medición. Las escalas de medición sirven para ofrecernos información sobre las clasificaciones que podemos hacer con respecto a las variables (discretas o continuas).Cuando se mide una variable el resultado puede aparecer en uno de cuatro diversos tipos de escalas de medición; nominal, ordinal, intervalo y razón.Conocer la escala a la que pertenece una medición es importante para determinar el método adecuado para describir y analizar esos datos.Existen 4 principales escalas de medición de la Información* Nominales.* Ordinales.* De intervalo.* De razón.Es importante aclarar que existen mas escalas de información como el comparativo y no comparativo pero estas con complemento de las escalas mencionadas anteriormente pero aun asi se mencionaran más adelante.

10. Unidades de medición.

Una unidad de medida es una cantidad estandarizada de una determinada magnitud física. En general, una unidad de medida toma su valor a partir de un patrón o de una composición de otras unidades definidas previamente. Las primeras unidades se conocen como unidades básicas o de base (fundamentales), mientras que las segundas se llaman unidades derivadas.

Un conjunto de unidades de medida en el que ninguna magnitud tenga más de una unidad asociada es denominado sistema de unidades. Todas las unidades denotan cantidades escalares. En el caso de las magnitudes vectoriales, se interpreta que cada uno de los componentes está expresado en la unidad indicada.

Las unidades de medida en Informática a veces pueden resultar algo confusas. Vamos a

Page 23: Estructuración física y funcional de un sistema informático

tratar de aclarar algunos conceptos viendo a que se refieren. Podemos agrupar estas medidas en tres grupos: Almacenamiento, procesamiento y transmisión de datos.

Bit

Un bit es un dígito del sistema de numeración binario. Mientras que en el sistema de numeración decimal se usan diez dígitos, en el binario se usan sólo dos dígitos, el 0 y el 1. Un bit o dígito binario puede representar uno de esos dos valores, 0 ó 1.

Se puede imaginar un bit, como una bombilla que puede estar en uno de los siguientes dos estados: Apagada o encendida

El bit es la unidad mínima de información empleada en informática, en cualquier dispositivo digital, o en la teoría de la información. Con él, podemos representar dos valores cuales quiera, como verdadero o falso, abierto o cerrado, blanco o negro, norte o sur, masculino o femenino, rojo o azul, etc.

Con un bit podemos representar solamente dos valores, que suelen representarse como 0, 1. Para representar o codificar más información en un dispositivo digital, necesitamos una mayor cantidad de bits. Si usamos dos bits, tendremos cuatro combinaciones posibles:

0 0 - Los dos están "apagados"

0 1 - El primero (de izquierda a derecha) está "apagado" y el segundo "encendido"

1 0 - El primero (de izquierda a derecha) está "encendido" y el segundo "apagado"

1 1 - Los dos están "encendidos"

Con estas cuatro combinaciones podemos representar hasta cuatro valores diferentes, como por ejemplo, los colores azul, verde, rojo y magenta.

A través de secuencias de bits, se puede codificar cualquier valor discreto como números, palabras, e imágenes. Cuatro bits forman un nibble, y pueden representar hasta 24 = 16 valores diferentes; ocho bits forman un octeto, y se pueden representar hasta 28 = 256 valores diferentes. En general, con un número n de bits pueden representarse hasta 2n valores diferentes.

Nota: Un byte y un octeto no son lo mismo. Mientras que un octeto siempre tiene 8 bits, un byte contiene un número fijo de bits, que no necesariamente son 8. En los computadores antiguos, el byte podría estar conformado por 6, 7, 8 ó 9 bits. Hoy en día, en la inmensa mayoría de los computadores, y en la mayoría de los campos, un byte tiene 8 bits, siendo equivalente al octeto, pero hay excepciones.

Byte

Page 24: Estructuración física y funcional de un sistema informático

Es una secuencia de bits contiguos, cuyo tamaño depende del código de información o código de caracteres en que sea definido.

Se usa comúnmente como unidad básica de almacenamiento de datos en combinación con los prefijos de cantidad. Originalmente el byte fue elegido para ser un submúltiplo del tamaño de palabra de un ordenador, desde cinco a doce bits. La popularidad de la arquitectura IBM S/360 que empezó en los años 1960 y la explosión de las microcomputadoras basadas en microprocesadores de 8 bits en los años 1980 ha hecho obsoleta la utilización de otra cantidad que no sean 8 bits. El término octeto se utiliza ampliamente como un sinónimo preciso donde la ambigüedad es indeseable (por ejemplo, en definiciones de protocolos).

La unidad byte no tiene símbolo establecido internacionalmente, aunque en países anglosajones es frecuente la "B" mayúscula, mientras que en los francófonos es la "o" minúscula (de octet); la ISO y la IEC en la norma 80000-13:2008 recomiendan restringir el empleo de esta unidad a los octetos (bytes de 8 bits).

Una secuencia contigua de bits en una computadora binaria que comprende el sub-campo direccionable más pequeño del tamaño de palabra natural de la computadora. Esto es, la unidad de datos binarios más pequeña en que la computación es significativa, o se pueden aplicar las cotas de datos naturales. Por ejemplo, la serie CDC 6000 de mainframes científicas dividió sus palabras de 60 bits de punto flotante en 10 bytes de seis bits.

Estos bytesConvenientemente colocados forman los datos Hollerith de las tarjetas perforadas, típicamente el alfabeto de mayúsculas y los dígitos decimales. El CDC también refiere cantidades de 12 bits como bytes, cada una albergando dos caracteres de 6 bits, debido a la arquitectura de E/S de 12 bits de la máquina. El PDP-10 utilizaba instrucciones de ensamblado de 12 bits LDB y DPB para extraer bytes—estas operaciones sobreviven hoy en el Common Lisp. Los bytes de 6, 7 ó 9 bits se han utilizado en algunas computadoras, por ejemplo en las palabras de 36 bits del PDP-10.

Los bytes de 8 bits a menudo se llaman "octetos" en contextos formales como los estándares industriales, así como en redes informáticas y telecomunicaciones para evitar confusiones sobre el número de bits implicados. Sin embargo, los bytes de 8 bits se integran firmemente en estándares comunes como Ethernet y HTML. Un octeto es también la palabra utilizada para la cantidad de ocho bits en muchos lenguajes no ingleses.

La mitad de un byte de ocho bits se llama nibble o un dígito hexadecimal. El nibble a menudo se llama semiocteto en redes o telecomunicaciones y también por algunas organizaciones de estandarización. Además, una cantidad de 2 bits se llama crumb, aunque raramente se utiliza.

Carácter.

En terminología informática y de telecomunicaciones, un carácter es una unidad de información que corresponde aproximadamente con un grafema o con una unidad o símbolo parecido, como los de un alfabeto o silabario de la forma escrita de un lenguaje natural.

Page 25: Estructuración física y funcional de un sistema informático

Un ejemplo de carácter es una letra, un número o un signo de puntuación. El concepto también abarca a los caracteres de control, que no se corresponden con símbolos del lenguaje natural sino con otros fragmentos de información usados para procesar textos, tales como el retorno de carro y el tabulador, así como instrucciones para impresoras y otros dispositivos que muestran dichos textos (como el avance de página).

Los ordenadores y los equipos de comunicaciones representan caracteres mediante el uso de una codificación que asigna un valor a cada carácter (típicamente, un valor entero representado por una secuencia de bits) que puede ser almacenado o transmitido por una red. La codificación más común ha sido hasta hace poco ASCII, si bien actualmente se está haciendo más popular el Unicode. Un ejemplo de codificación no digital sería el código Morse, que en lugar de usar bits representa los caracteres mediante una serie de impulsos eléctricos de longitud variable (puntos y rayas).

Históricamente, el término «carácter» ha sido usado ampliamente por los profesionales de la industria para referirse a un «carácter codificado» (expuesto a menudo sólo mediante la API de un lenguaje de programación). De igual forma, el término conjunto de caracteres (character set) ha sido usado generalmente para aludir a un repertorio específico de «caracteres abstractos» que habían sido codificados mediante secuencias de bits específicas. Con la llegada de Unicode y los esquemas de codificación independientes de los bits, una terminología más precisa está viéndose cada vez más favorecida.

En algunos contextos es importante hacer la distinción de que un carácter es una unidad de información y por tanto no implica ninguna manifestación visual particular. Por ejemplo, la letra hebrea álef (א) es usada a menudo por los matemáticos para denotar ciertos tipos de infinito, pero también se usa en textos hebreos corrientes. En Unicode, ambos usos tienen caracteres diferentes a los que corresponden dos códigos diferentes, aunque puedan ser representados exactamente igual. En cambio, el logograma chino para agua (水) puede tener una apariencia ligeramente diferente en textos chinos y japoneses, lo que puede verse reflejado en los tipos de letra locales, pero representan a pesar de ello la misma información, por lo que se consideran un único carácter y como tal aparecen en Unicode.

El término «glifo» se usa para describir una apariencia física particular de un carácter. Muchas tipos de letra de ordenador consisten en glifos indizados según el código Unicode del carácter al que cada uno de ellos representa.

La definición de «carácter» o «carácter abstracto» es, según el estándar Unicode y el ISO/IEC 10646, «un miembro de un conjunto de elementos usado para la organización, control o representación de datos». La definición de Unicode añade una serie de notas explicativas animando al lector a distinguir entre caracteres, grafemas y glifos, entre otras cosas. El estándar también distingue entre estos caracteres abstractos y los «caracteres codificados» que ya han sido emparejados con códigos numéricos para facilitar su representación en sistemas informáticos.

Múltiplos.

Un múltiplo de un número es otro número que lo contiene un número entero de veces. En otras palabras, un múltiplo de n es un número tal que, dividido por n, da por resultado un número entero (el resto de la división euclídea es cero). Los primeros múltiplos del uno al diez suelen agruparse en las llamadas tablas de multiplicar.

Page 26: Estructuración física y funcional de un sistema informático

Ejemplo: 18 es múltiplo de 9.a=18b=9a=2·b

En efecto, 18 contiene 9 dos veces exactamente.El múltiplo de un número es aquel que contiene a éste un número exacto de veces.Los múltiplos de un número se forman multiplicando este número por la serie infinita de los números naturales 0, 1, 2, 3...; luego todo número tiene infinitos múltiplos.

El cero no es considerado fundamental cuando se habla de múltiplos, pues se acepta que: los múltiplos contienen una o más veces al número propuesto, en general. Ejemplos:

28 es múltiplo de 7, porque 28 contiene 4 veces al 7.12 es múltiplo de 6 porque 12 contiene 2 veces al 6.11 es múltiplo de 11, porque 11 contiene 1 vez al 11.

Como se observa el cero no puede considerarse múltiplo pues no contiene en ningún caso a los números naturales. También entre los números naturales es posible encontrar, con cierta facilidad, sus múltiplos y submúltiplos (factores o divisores).

Los divisores o factores (submúltiplos de un número) son aquellos números naturales, diferentes de cero, que lo dividen exactamente.Existen diversos métodos para encontrar los divisores de un número. Cuando los números son pequeños, pueden buscarse parejas de factores (tablas de multiplicar) o divisores que den como producto dicho número.

Múltiplo de un número es aquel que contiene a éste un número exacto de veces.Los múltiplos de un número se forman multiplicando este número por la serie infinita de los números naturales 0, 1, 2, 3...; luego todo número tiene infinitos múltiplos.Ejemplo: la serie infinita de los múltiplos de 4 es:0 x 4 = 01 x 4 = 42 x 4 = 83 x 4 = 124 x 4 = 164 x 5 = 204 x 6 = 24

4 x ... = (símbolo de infinito) n

Propiedades de los múltiplos-Si b es un múltiplo de a, entonces a es un divisor de b.-Todo número entero es múltiplo de 1 y de sí mismo.

Page 27: Estructuración física y funcional de un sistema informático

-Cero (0) es múltiplo de cualquier número.Si a y b son múltiplos de n, entonces a+b, a-b, ka y kb lo son para cualquier k natural.SubmúltiploUn número entero a es submúltiplo de otro número b si y sólo si b es múltiplo de a.

Propiedades de los submúltiplos

El número uno es submúltiplo de cualquier número. Todo número es submúltiplo de sí mismo. Todo número es submúltiplo del número cero

11. Equivalencias

En lógica, las sentencias p y q son lógicamente equivalentes si poseen el mismo contenido lógico.

Sintácticamente, p y q son equivalentes si cada una puede probar a la otra. Semánticamente, p y q son equivalentes si ambas tienen el mismo valor de verdad en cada modelo.

La equivalencia lógica de p y q a veces se denota o bien . Sin embargo, estos símbolos son también utilizados para denotar el bicondicional. La interpretación propia depende del contexto, y aunque ambos conceptos están fuertemente relacionados, la equivalencia lógica es diferente de la equivalencia material-

CONCLUCION

Cualquier persona podra saber si su maquina es Windows o Linux y hasta ahí, pero nosotros sabemos para que sirve este sistema operativo, sus características los tipos de sistemas operativos y como funcionan, también he llegado a la comclucion de que existen muchos sistemas operativos y diferentes tipos de medidas como el mas bajo que es el byte etc.