tarea 3

15
23-8-2013 SOFTWARE OPERATIVO Y DE DESARROLLO COMPUTACIÓN PARA INGENIEROS Tarea: 3 Leal Villavicencio Fernando Abel Correo: [email protected]

Upload: fernando-leal

Post on 26-Jul-2015

36 views

Category:

Documents


0 download

TRANSCRIPT

23-8-2013

Tarea: 3

Correo:

[email protected]

4-. MANEJO INTERNO DE DATOS

Objetivo: El alumno describirá cómo se almacenan los datos en los diferentes medios de un sistema de cómputo; así mismo manipulará los datos para minimizar los diferentes errores que pueden suscitarse en su almacenamiento.

4.1 Dispositivos y unidades de medida de almacenamiento: bit, byte y palabra:

• Clasificar y enumerar las unidades de almacenamiento

1000 kbytes= 1 MB

1000000 mbytes= 1 GB

1000000000 gbytes= 1 TB

100000000000 tbyte= 1 PB

100000000000000 pbyte= 1 EB

100000000000000000 ebyte= 1 ZB

100000000000000000000 zbyte= 1 YB

• Explique la relación entre el sistema binario y el lenguaje de máquina

El lenguaje de programación es un lenguaje artificial que se utiliza para definir una secuencia de instrucciones para su posterior procesamiento que en muchas ocasiones, resulta difícil para la mayoría de la gente.

La traducción de una serie de instrucciones en lenguaje ensamblador a un código máquina no es un proceso muy complicado y se realiza normalmente por un programa especial llamado compilador. Estas instrucciones son las que permiten que la computadora ejecute aquellas funciones que nosotros le ordenamos.

El mencionado compilador crea una lista de instrucciones de código máquina, el código objeto, basándose en un código fuente. El código objeto resultante es un programa rápido y listo para funcionar, pero que puede hacer que falle el ordenador si no está bien diseñado.

Y esta relación es total, porque el sistema operativo esta obligado a enviar todas sus instrucciones en lenguaje Binario y este es lenguaje de bajo nivel ya que el procesador solo entiende este tipo de lenguaje , es decir de 1 y 0 como los procesadores 32 bits trabajan con este tamaño de

palabra :01010101010101010101010101010101

• Explicar la relación del sistemas binario con el octal y el hexadecimal:

El Sistema Octal es un sistema de numeración en base 8, esta base que es una potencia exacta de 2 o de la numeración binaria, esta característica hace que la conversión a binario o viceversa sea bastante simple y usa 8 dígitos que son 0, 1, 2, 3, 4, 5, 6, 7 y estos tienen el mismo valor que en el sistema de numeración decimal.

La relación con sistema hexadecimal es la misma que la octal, es potencia de 2 y al igual su conversión es igual de simple ya que usa los dígitos 0, 1, 2 , 3, 4, 5, 6, 7, 8, 9,10, 11, 12, 13, 14, 15, 16 y es el mismo valor en el sistema decimal.

• Describe lo que es un bit, un byte y una palabra; así como la relación con los términos de Kbyte, Mbytes, Gbytes, etc.

1-.BIT:

Un bit es una señal electrónica que puede estar encendida (1) o apagada (0), es la unidad más pequeña de información que utiliza un ordenador y son necesarios 8 bits para crear un byte.

2-.BYTE:

Es la unidad fundamental de datos en los ordenadores personales, un byte son ocho bits contiguos, el byte es también la unidad de medida básica para memoria, almacenando el equivalente a un carácter.

El byte se relación con el kilobyte solo en la unidad ya que un kilobyte equivale a la 103 .

El megabyte equivale a la 106, el terabyte es igual a 109, el terabyte es igual a 1012, el petabyte es igual a 1015, el exabyte es igual a 1018, el zettabyte es igual a 1021 y yottabyte es igual a 1024.

3-.PALABRA:

Es una cadena finita de bits que son manejados como un conjunto por la máquina, su tamaño o longitud de la palabra hace referencia al número de bits contenidos en ella y es un aspecto muy importante al momento de diseñar una arquitectura de computadores. El tamaño de una palabra se refleja en muchos aspectos de la estructura y las operaciones de las computadoras, la mayoría de los registros en un ordenador normalmente tienen el tamaño de la palabra y el valor numérico típico manipulado por un ordenador es probablemente el tamaño de palabra.

Los ordenadores modernos normalmente tienen un tamaño de palabra de 16, 32 ó 64 bits, muchos otros tamaños se han utilizado en el pasado, como 8, 9, 12, 18, 24, 36, 39, 40, 48 y 60 bits y el slab es uno de los ejemplos de uno de los primeros tamaños de palabra. Algunos de los primeros ordenadores eran decimales en vez de binarios, típicamente teniendo un tamaño de palabra de 10 ó 12 dígitos decimales y algunos de los primeros ordenadores no tenían una longitud de palabra fija.

4.2-. Representación de datos tipo texto (códigos ASCII y EBCDIC)

• Explicar por qué se utiliza la codificación y decodificación en la representación de caracteres

Codificación y decoficicacion de caracteres:

Cuando hablamos de codificación de caracteres en informática nos referimos al método que permite convertir un caracter de un lenguaje natural en un símbolo de otro sistema de representación, esto con la finalidad de facilitar el almacenamiento de texto en computadoras o para facilitar la transmisión de texto a través de la redes de telecomunicaciones y un ejemplo muy simple puede ser el del código morse.

• Mencionar lo que es el código ASCII y su uso en la representación de caracteres

El código ASCII utiliza 7 bits para representar los caracteres, aunque inicialmente empleaba un bit adicional que se usaba para detectar errores en la transmisión. Casi todos los sistemas informáticos actuales utilizan el código ASCII o una extensión compatible para representar textos y para el control de dispositivos que manejan texto.

ASCII, como otros códigos de representación de caracteres, especifica una correspondencia entre cadenas de bits y símbolos escritos de la lengua, permitiendo de esta forma la comunicación entre dispositivos digitales así como su procesado y almacenamiento. El código de caracteres ASCI o una extensión compatible se usa casi en todos los ordenadores, especialmente ordenadores personales y estaciones de trabajo. El nombre más apropiado para este código de caracteres es “US-ASCII”.

ASCII es en sentido estricto un código de siete bits, lo que significa que usa cadenas de bits representables con siete dígitos binarios que van de 0 a 127 en base decimal para representar información de caracteres. En el momento en el que se introdujo el código ASCII muchos ordenadores trabajaban con grupos de ocho bits , como la unidad mínima de información donde el octavo bit se usaba habitualmente como bit de paridad con funciones de control de errores en líneas de comunicación u otras funciones específicas del dispositivo las máquinas que no usaban la comprobación de paridad asignaban al octavo bit el valor cero en la mayoría de los casos.

El código ASCII define una relación entre caracteres específicos y secuencias de bits; además de reservar unos cuantos códigos de control para el procesador de textos, y no define ningún mecanismo para describir la estructura o la apariencia del texto en un documento; estos asuntos están especificados por otros lenguajes como los lenguajes de etiquetas.

• Mencione lo que es el código EBCDIC y su uso en la representación de caracteres

Este código surge como una ampliación del código BCD, en las transmisiones de datos es necesario utilizar un gran número de caracteres de control para la manipulación de los mensajes y realización de otras funciones, de ahí que el código BCD se extendiera a una representación utilizando 8 bits dando origen al código EBCDIC. Este es un esquema de codificación desarrollado por IBM para utilizarlo en sus ordenadores o computadoras como método normalizado de asignación de valores binarios a los caracteres alfabéticos, numéricos, de puntuación y de control de transmisión.

EBCDIC es análogo al esquema de codificación ASCII aceptado más o menos en todo el mundo de los microordenadores o las microcomputadoras, se diferencia por utilizar 8 bits para la codificación, lo que permite 256 caracteres posibles, en este caso 8 bits para representar cada símbolo. Aunque EBCDIC no se utiliza mucho en las microcomputadoras, es conocido y aceptado internacionalmente, sobre todo como código de IBM para los mainframes y minicomputadoras de la compañía.

Tabla del código EBCDIC

Clave EBCDIC

Espacio en blanco - 0 1 0 0 0 0 0 0

Letras mayúsculas de la A a la Z: se dividen en tres grupos (A-I), (J-R), (S-Z) y en las primeras cuatro posiciones se identifica el grupo al cual pertenece la letra y en las restantes cuatro posiciones el dígito correspondiente a la posición de la letra en el grupo.

4.3-.Representación numérica: magnitud y signo, y complemento a dos

• Explique cómo se representa un número entero en memoria principal, tanto utilizando magnitud y signo como complemento a dos.

Es representar o codificar un número y expresarlo en forma binaria su representación de números en un ordenador es necesaria para que éste pueda almacenarlos y manipularlos, sin embargo el problema es que un número matemático puede ser infinito, pero la representación de un número en un ordenador debe ocupar un número de bits predeterminado.

Por lo tanto, la clave es predeterminar un número de bits y cómo se interpretan para que representen la cifra de la manera más eficiente posible, un numero entero se puede representar con 32 bits usando directamente su representación en base 2. La magnitud se usa cuando se tienen valores negativos, si quieren incluir se debe cambiar la representación y lo mas fácil es reservar un bit para indicar el signo y usar el resto como magnitud.

•Explique cómo se representa un número real en memoria principal, tanto utilizando magnitud y signo como complemento a dos.

Se sabe que muchos reales no pueden representarse mediante un número finito de cifras decimales, la precisión de una fracción decimal es una medida de cuánto se aproxima la representación al valor exacto del número como por ejemplo en base diez y el número racional 1/3 no puede representarse de forma exacta. Sin embargo, la representación con cuatro decimales 0.3333 es más precisa que la que sólo emplea dos 0.33. En las CPU las fracciones tienen necesariamente que almacenarse mediante un número finito de dígitos binarios, como en el caso de las fracciones decimales esto limita su precisión e implica que los cálculos que empleen estos números y raramente proporcionarán un resultado exacto. Para representar números reales se recurre a las técnicas basadas en el uso de

números en punto flotante 3 que permiten expresar un rango mayor de los números que emplean un número dado de bits.

Este método es similar al empleado para representar números en base diez en notación científica, denominada método estándar, un número en método estándar, consta de dos partes:

La primera es una cantidad del intervalo [1, 10[, con posibles decimales, y la segunda, una potencia de diez. Por ejemplo: 5.75 x 10 4 = 57 500 6.7 x 10 -5= 0.000 067

Nótese que el orden de magnitud del número está determinado por la potencia de diez, y el número de cifras significativas, o precisión de número está determinado por el número de cifras decimales en la primera parte.

4.4-.Tipos de errores en la manipulación de cantidades

•Mencione los tipos de errores en la manipulación de cantidades en la computadora: redondeo, truncamiento y sobre flujo

Error de redondeo :

Este ocurre por la necesidad de utilizar menos dígitos en alguna fracción, como por ejemplo 0.6666666666666666666667.

Se originan debido a que la computadora emplea un número determinado de cifras significativas durante un cálculo, los números tales como e no pueden expresarse como un número fijo de cifras significativas, por lo tanto no pueden ser representados exactamente por la computadora. Además, debido a que las computadoras usan una representación en base 2, no pueden representar exactamente algunos números en base 10 y esta discrepancia por la omisión de cifras significativas se llama error de redondeo.

Error de truncamiento :

Se presenta cuando se detiene algún proceso matemático recursivo sin alcanzar el resultado exacto, los errores de truncamiento son aquellos que resultan al usar una aproximación en lugar de un procedimiento matemático exacto, para obtener un conocimiento sobre las características de estos errores se debe considerar una formulación matemática que se utiliza ampliamente en los métodos numéricos para expresar funciones de manera aproximada.

4.5-.Formatos de archivos de texto, imágenes, video, audio, etc:

• Explicar lo que es un formato de almacenamiento de datos en archivos:

Los formatos de almacenamiento son el conjunto de reglas que define la manera correcta de almacenar datos en memoria, dado que una unidad de disco o de hecho cualquier memoria sólo puede almacenar bits, la computadora debe tener alguna manera de convertir la información a ceros y unos o viceversa. Hay diferentes tipos de formatos para diferentes tipos de información, sin embargo dentro de cada tipo de formato, por ejemplo documentos de un procesador de texto habrá normalmente varios formatos diferentes y a veces en competencia.

• Ejemplificar algunos formatos de archivos de texto, imágenes, video, audio, etc:

Archivos de audio:

Los archivos de sonido con pérdida son aquellos que usan un algoritmo de compresión con pérdida, es decir un tipo de compresión que representa la información, pero intentando utilizar para ello una cantidad menor de información y esto hace que sea imposible reconstruir exactamente la información original del archivo. Los archivos de sonido sin pérdida son aquellos que usando o no métodos de compresión, representan la información sin intentar utilizar menor cantidad de la información original. Hacen posible una reconstrucción exacta de la información original.

Son el AAC, MP3, MP3Pro, Vorbis, RealAudio, VQF, WMA, AIFF, FLAC, WAV, MIDI, mka, OGG.

Archivo de texto:

Un archivo de texto llano, simple, plano, sencillo o pelado es un archivo informático compuesto únicamente por texto sin formato sólo caracteres, lo que lo hace también legible por humanos, estos caracteres se pueden codificar de distintos modos dependiendo de la lengua usada.

Algunos de los sistemas de codificación más usados son: ASCII, ISO-8859-1 o Latín-1 y UTF-8. Carecen de información destinada a generar formatos como negritas, subrayado, cursivas, tamaño y tipos de letra

como Arial, Times, Courier. Algunos de estos son .TXT, .RTF, .ODT, .PDF, .DOC, .DOCX, .NFO, .HTML Y .HTM

Archivo de imagen:

Una imagen digital no es más que un archivo que contiene la información de la imagen trasformada y almacenada en forma de unos y ceros. Por esto que desde que existen los medios gráficos digitales se ha buscado una forma de convertir una imagen óptica a digital con la menor pérdida de información posible como colores, tonalidades, etc.

Obviamente, retener todos esos datos es relativamente sencillo, pero de esta forma se crearían archivos de imagen enormes. Era necesario comprimir la información de una forma eficiente, la compresión de imágenes requería necesariamente desechar la información menos relevante, y de aquí empezaron a surgir diferentes métodos de compresión de archivos, luego comenzó la revolución web, y se hizo necesario crear formatos más agresivos, que contuviesen menos información para que el archivo final pesase cada vez menos.

Hay diferentes formatos como el jpeg, tiff, raw, bmp, gif, ong, psd

Archivos de video:

Son aquellos que tienen extensión .wma .avi básicamente solamente pueden ser abiertos con programas que reproduzcan video, actualmente un archivo de

video son aquellos que tienen imágenes y audio con reproducción simultánea, aunque hay video sin audio, entonces al video se le denomina como una reproducción de varias imágenes.

Como AVI, MPEG, MOV, WMV, RM, FLV, MP4

• Explicar la relación que existe entre los formatos de archivos y el software que los interpreta:

Los datos se guardan en ficheros informáticos y la forma en que están organizados dichos ficheros es lo que llamamos formato de archivo, en principio esta organización debería ser transparente para el usuario, pero esto no es así porque los diferentes formatos no suelen ser compatibles entre sí. Dependiendo del uso que vayamos a dar a nuestros datos nos interesará guardarlos en uno u otro formato y los elementos principales que hay que tener en cuenta a la hora de trabajar con formatos son la relación entre calidad y tamaño del archivo, las características del formato y la compatibilidad entre el formato del fichero y los programas que vayamos a utilizar.

Calidad y tamaño del archivo:

Generalmente los archivos ocupan mucho espacio, sobre todo los gráficos, sonido y vídeo. Dependiendo del grado de compresión utilizado, el ahorro en espacio será mayor o menor, pero en general, al descomprimir el archivo se pierde algo de calidad, y cuanto mayor es el grado de compresión, mayor es la pérdida de fidelidad de los datos descomprimidos respecto del original.

 Características del formato:

Este aspecto se refiere a que en función de los métodos de comprensión utilizados, cada formato tiene unas características diferentes en cuanto al manejo de los datos por ejemplo en formatos gráficos el color, fondo transparente, animación, etc. Y son tratados de forma diferente según cada formato.

Compatibilidad:

Cada fabricante de software suele crear su propio formato, con la pretensión de que sea utilizado por todos los demás y pase a ser el formato estándar. Los fabricantes suelen dotar a sus aplicaciones de capacidad para trabajar con formatos diferentes al suyo, a esto es a lo que llamamos compatibilidad de un

producto software respecto de un formato, pero esta compatibilidad no es total, de manera que hay productos que no pueden trabajar con determinados formatos.

Por lo tanto conviene conocer con qué formatos pueden trabajar las aplicaciones que vayamos a utilizar, si además es posible que otras muchas personas trabajen con nuestros ficheros, conviene utilizar formatos con alto grado de compatibilidad.