ter_u3_a3_migm

5

Click here to load reader

Upload: miguel-guzman

Post on 13-Aug-2015

1.464 views

Category:

Documents


7 download

TRANSCRIPT

Page 1: TER_U3_A3_MiGM

Escuela:

Universidad Abierta y a Distancia de México (UnADM)

Carrera:

Ingeniería en Tecnología Ambiental.

Asignatura:

Termodinámica.

Facilitador:

Adán Misael Guerra Villa.

Tema:

Actividad 3. La entropía y el orden.

Alumno:

Miguel Ángel Guzmán Méndez

Fecha:

20/03/13

Page 2: TER_U3_A3_MiGM

La entropía y el orden

Muchos textos y artículos se refieren a la entropía como una medida del desorden o la “aleatoriedad”. Esta interpretación se justifica por la definición de entropía. El argumento es que un aumento en el desorden en un sistema corresponde a un aumento en la entropía. Sin embargo, existen dos problemas con esta interpretación: no agrega nada a la comprensión de la entropía y es inconsistente con la concepción común de desorden.

1. Para aclarar las ideas anteriores investiga y explica lo siguiente:

• Las razones para hacer la relación entre entropía y orden.

En la mayoría de los procesos naturales intervienen billones y billones de átomos que se pueden mover en infinidad de direcciones. Si, por casualidad, la disposición de átomos estuviera en un principio sometida a alguna clase de orden, es casi seguro que cualquier movimiento aleatorio, cualquier cambio espontáneo, disminuiría ese orden, o por decirlo de otra manera, aumentaría el desorden.

De acuerdo con el segundo principio de la termodinámica, la entropía del universo está en constante aumento; es decir, la distribución de energía en el universo está constantemente igualándose. Puede demostrarse que cualquier proceso que iguala las concentraciones de energía aumenta también el desorden. Por consiguiente, esta tendencia a incrementar el desorden en el universo con los movimientos aleatorios libres de las partículas que lo componen no es sino otro aspecto del segundo principio, y la entropía cabe considerarla como una medida del desorden que existe en el universo.

• Las ventajas y desventajas de tal relación.

Miradas las cosas de esta manera, es fácil ver la mano del segundo principio por doquier, porque los cambios naturales actúan claramente en la dirección del desorden; para restaurar el orden hace falta un esfuerzo especial.

Los objetos se descolocan, las cosas se desordenan... Y para tener las cosas a punto es preciso estar constantemente arreglando y limpiando el polvo y ordenando.

• La relación entre entropía y la carencia de información.

La conexión de la entropía con la información fue establecida por Shannon y Weaver en su teoría de información. Si el sistema es uno de comunicación, en este caso, la información transmitida tenderá a degradarse (a desordenarse); a medida que un mensaje circula, el ruido lo altera y el contenido original se va desordenando (un chisme, un "teléfono roto", una fotocopia de una fotocopia de una fotocopia, etc.). Ellos proponían entonces mecanismos de retroalimentación que permitieran mejorar la relación entre un mensaje enviado y un mensaje recibido. Y para hacerlo, la fórmula de entropía de la termodinámica resultó apropiada. Mientras que la entropía mide el nivel de desorden en el sistema, es decir la incertidumbre; la información representa el orden, la

Page 3: TER_U3_A3_MiGM

certidumbre. Por tanto, la información correspondería a entropía negativa dando la posibilidad de medir la cantidad de información en un sistema (o en un mensaje para compararlo con la cantidad enviada y corregir o reenviar en caso de pérdida de información).

• Las razones para relacionar la entropía con la carencia de información.

En el ámbito de la teoría de la información la entropía, también llamada entropía de la información y entropía de Shannon (en honor a Claude E. Shannon), mide la incertidumbre de una fuente de información.

La entropía también se puede considerar como la cantidad de información promedio que contienen los símbolos usados. Los símbolos con menor probabilidad son los que aportan mayor información; por ejemplo, si se considera como sistema de símbolos a las palabras en un texto, palabras frecuentes como "que", "el", "a" aportan poca información, mientras que palabras menos frecuentes como "corren", "niño", "perro" aportan más información. Si de un texto dado borramos un "que", seguramente no afectará a la comprensión y se sobreentenderá, no siendo así si borramos la palabra "niño" del mismo texto original. Cuando todos los símbolos son igualmente probables (distribución de probabilidad plana), todos aportan información relevante y la entropía es máxima.

El concepto de entropía es usado en termodinámica, mecánica estadística y teoría de la información. En todos los casos la entropía se concibe como una "medida del desorden" o la "peculiaridad de ciertas combinaciones". La entropía puede ser considerada como una medida de la incertidumbre y de la información necesaria para, en cualquier proceso, poder acotar, reducir o eliminar la incertidumbre. Resulta que el concepto de información y el de entropía están ampliamente relacionados entre sí, aunque se necesitaron años de desarrollo de la mecánica estadística y de la teoría de la información antes de que esto fuera percibido.

• Las ventajas y desventajas de usar la comparación entre entropía y carencia de información.

La información es tratada como magnitud física, caracterizando la información de una secuencia de símbolos utilizando la Entropía. Se parte de la idea de que los canales no son ideales, aunque muchas veces se idealicen las no linealidades, para estudiar diversos métodos de envío de información o la cantidad de información útil que se pueda enviar a través de un canal.

La información necesaria para especificar un sistema físico tiene que ver con su entropía.

Referencias:

Recuperado 18/03/13 de http://catarina.udlap.mx/u_dl_a/tales/documentos/lap/carmona_c_dc/capitulo1.pdf

Recuperado 18/03/13 de http://books.google.com.mx/books?id=lg49BBMdCAwC&pg=PA57&dq=La+relaci%C3%B3n+entre+ Recuperado 20/03/13 de entrop %C3%ADa+y+la+carencia+de+informaci%C3%B3n.&hl=es-

Page 4: TER_U3_A3_MiGM

419&sa=X&ei=1kBJUZuoH8i7qQH1k4DgBw&ved=0CDEQ6AEwAQ#v=onepage&q=La%20relaci%C3%B3n%20entre%20entrop%C3%ADa%20y%20la%20carencia%20de%20informaci%C3%B3n.&f=false

Recuperado 19/03/13 de http://books.google.com.mx/books?id=ZxVlO2ELnugC&pg=PA157&dq=La+relaci%C3%B3n+entre+entrop%C3%ADa+y+la+carencia+de+informaci%C3%B3n.&hl=es-419&sa=X&ei=1kBJUZuoH8i7qQH1k4DgBw&ved=0CCsQ6AEwAA#v=onepage&q=La%20relaci%C3%B3n%20entre%20entrop%C3%ADa%20y%20la%20carencia%20de%20informaci%C3%B3n.&f=false

Recuperado 20/03/13 de http://enciclopedia.us.es/index.php/Entrop%C3%ADa_(teor%C3%ADa_de_la_informaci%C3%B3n)