clase 5 teoría de sistemas
TRANSCRIPT
Entropía yneguentropíaTeoría General de sistemas
1. El flujo de recursos en un sistema
Todo sistema se define como un conjunto de partes interconectadas para lograr un objetivo.
Estas interconexiones permiten que los recursos dentro del sistema pasen por diferentes procesos ó fases (subsistemas) creando un flujo de energía o información según sea el tipo de recurso.
1. El flujo de recursos en un sistema
El flujo de energía o información en un sistema es clave para entender o evaluar la función de este.
Al observar cómo se transforman los recursos en función de diversas partes o componentes del sistema, permite establecer relaciones entre dichas partes o asignarles funciones específicas.
1. El flujo de recursos en un sistema
Con base a lo anterior, el flujo en un sistema permite realizar diferentes funciones sobre los recursos de un sistema:● Transformación● Distribución● Reunión● Amplificación● Reducción● Inversión
Transformación
DistribuciónReunión
+ -
Inversión
5
0.2
Amplificación
Reducción
1. El flujo de recursos en un sistema
El flujo en un sistema no se realiza de manera “gratuita”, transportar recursos o transmitir información tiene un costo dentro del sistema que tiene efectos sobre este.
Tales efectos son modelados según las leyes de la termodinámica.
2. Las leyes de la termodinámica
Describe las relaciones e intercambios de energía y cómo se transfiere esta de un cuerpo a otro.
A pesar de ser un principio físico, sus enunciados se acomodan a los efectos del transporte o flujo de recursos dentro de un sistema.
2.1 Ley cero
En física:Entre dos cuerpos a la misma temperatura no existe flujo de energía calórica, y permanecen en equilibrio estadístico.
En teoría de sistemas:No existe conexión entre dos componentes cuyo objetivo es manipular la misma cantidad y/o el mismo tipo de recurso.
A B
A B
Si A y B manejan el mismo tipo de recurso y en las misma cantidades, entonces no existe una conexión entre estas dentro del sistema de referencia
A y B tienen el mismo nivel y tipode recurso (no hay conexión)
A posee una cantidad o tipo de recurso diferente que B
2.1 Primera ley (En sistemas energéticos)
En física:En un sistema aislado, la energía total del sistema se conserva. Si un proceso de transformación de energía no es 100% efectivo, las pérdidas se dan en forma de calor (Energía no aprovechable).
En teoría de sistemas:● Un sistema no puede producir salidas superiores a sus entradas sin entrar
en déficit. ● Un sistema, por mucho, puede producir salidas iguales en cantidad a sus
entradas.● Si un sistema produce salidas menores al 100% de sus entradas, la
energía restante es entregada al medio o acumulada por el sistema
ES = EIN - EOUTESEIN EOUT
ELOST = EIN - EOUT
ES = 0
ELOST es energía no aprovechablepara el sistema
ESEIN
EOUT
ELOST
Sistema que acumula recursos
Sistema con pérdidas sin acumulación de recursos
2.2 Segunda ley
En física:El flujo de calor en un sistema termodinámico siempre va en dirección del cuerpo de mayor temperatura al de menor.
En teoría de sistemas:Un sistema que transforma un recurso de entrada en uno de salida normalmente no puede realizar el proceso inverso.
S
Si S transforma los recursos de A en los requeridos por B, no debe ser capazde realizar el proceso contrario. Para ello requiere otro subsistema diferente
A B
SA Bs
2.1 Segunda ley (Otra definición)
En física:Todo proceso de conversión de energía involucra que una porción se convierte en calor. Este calor no es aprovechable y por tanto todo proceso de intercambio de energía tiende eventualmente a convertir todo en calor.
En teoría de sistemas:Los recursos de un sistema no son 100% aprovechables, siempre habrá pérdidas que dirigen al sistema hacía su estado más probable (caos ó equilibrio estadiśtico).
15%10%0%
100%
0%
0%0%
0%
0%
90%0%
0%
85%
0%0%
30%
0%
0%
0%70% 40%
60%
0%
0%0% 50%
0%
0%
50%0%
1 2 3
4 5 6
3. Entropía
La entropía puede entenderse de varias maneras:● La tendencia que tiene todo sistema a alcanzar su
estado más probable (alta entropía).● La medida de la cantidad de energía que no es
aprovechable por el sistema para ser transformada de nuevo.
● La medida del caos o falta de organización en un sistema.
3. Entropía
De acuerdo a la definición anterior, un sistema con BAJA entropía cumple:● No se encuentra en su estado más probable.● La mayor parte de su energía puede ser usada en
nuevos procesos● Es altamente organizado
Ejemplos:
Castillo de naipes Huevo El aire bajo estructura de vientos(Alta organización) (Alta organización) (Energía eólica aprovechable)
3. Entropía
De acuerdo a la definición anterior, un sistema con ALTA entropía cumple:● Se encuentra en su estado más probable.● Su energía está presente pero no se puede aprovechar
de nuevas formas● Es altamente desordenado
Ejemplos:
Castillo de naipes Huevo El aire bajo estructura de vientos(Desordenado) (Roto) (El aire sino es viento no se puede aprovechar)
Cuestiones extra:
- Ques es más fácil de mantener ¿Un castillo de naipes o un conjunto desordenado de cartas?
- Un huevo sometido a las fuerzas del exterior ¿Es más fácil que permanezca entero? ¿O que se rompa?
- ¿El aire en un recinto se convierte en viento? sino ¿Que hay que hacer para generar viento?
3.1. Definición de estado más probable
El estado más probable de un sistema es aquel que asegura no ser alterado fácilmente por las condiciones del medio.
Normalmente una condición aleatoria o de azar asegura poca variabilidad a condiciones externas.
Se dice que el universo tiende a distribuir la energía de forma uniforme, maximizando la entropía y que por ende todo sistema tiene a maximizar su entropía (por naturaleza)
3.2. Entropía en sistemas cerrados
A pesar de que un sistema cerrado, (por definición), no se comunica con su medio; la generación de entropía es un hecho ineludible y se considera como una corriente de entrada permanente debido a que es inducida por la naturaleza del universo.
SISTEMA
Entropía
Por qué el aumento de entropía es un hecho ineludible en sistemas cerrados?
- La primera ley de la termodinámica asegura que la cantidad de energía en un sistema cerrado debe ser constante.
- La segunda ley implica que los procesos no son reversibles a través del mismo subsistema y que cada proceso involucra pérdidas de energía.
- Por tanto, si siempre hay cantidades de energía representadas en pérdidas y si la energía total del sistema no debe cambiar, significa que esa energía se convierte en energía no aprovechable (entropía).
Consecuencias de la entropía en sistemas cerrados:
- El nivel de entropía de los subsistemas no puede ser mayor al nivel de entropía del medio. (El sistema debe ser siempre más organizado que su exterior).
- Un sistema llega a sus estado más probable cuando su energía no está contenida en sus partes sino en el medio de forma no aprovechable
- En el estado mas probable, el sistema y sus partes no representan una estructura funcional con un objetivo y pierde su definición de sistema.
50%30%0%
50%
50%
0%0%
0%
0%
35%35%
25%
25%
0%0%
60%
0%
0%
20%20% 100%
0%
0%
0%0% 100%
Estado inicial (t=0): toda la energía incluida en el sistema
Estado (t=1): se pierde 30% de energía que recibe el exterior.
Estado (t=2):Debido a que los niveles de energía cada vez son mas homogéneos, se transfiere menos energía y hay menos pérdidas (20% esta vez).
Estado (t=3): Cada vez se transfiere menos energía, pero la entropía no deja de aumentar Equilibrio (t=∞): Eventualmente la energía es
absorbida por el medio, y no hay flujo.
Máxima entropía: Sin flujo de energía, no se distinguen componentes entre sí, se llega al estado más probable (caos) y desaparece el sistema.
Ejemplos y cuestiones:
Para los siguientes sistemas cerrados cual su estado más probable y por qué se llega ahí?
- Un sistema masa resorte- Un péndulo- Un ecosistema aislado (caja de petri)
Ejemplos y cuestiones:
Para los siguientes sistemas cerrados cual su estado mas probable y por qué se llega ahí?
- Un sistema masa resorte (Cero movimiento)- Un péndulo (Cero movimiento)- Un ecosistema aislado (Muerte)
3.2. Entropía en sistemas abiertos
El fenómeno de entropía también afecta a los sistemas abiertos y se considera como una corriente de entrada que impulsa el sistema a su estado de caos o destrucción
SISTEMAEntrada
Entropía
Salida
3.2. Entropía en sistemas abiertos
Al igual que en sistemas cerrados, la entropía es ineludible. Sin embargo, a diferencia de estos, los sistemas abiertos pueden tomar recursos del medio para contrarrestarla.
SISTEMAEntrada
Entropía
Salida
Ejemplos y cuestiones:
Para los siguientes sistemas abiertos cual su estado mas probable?
- Un ser vivo- Un negocio- Un péndulo invertido
Ejemplos y cuestiones:
Para los siguientes sistemas abiertos cual su estado mas probable?
- Un ser vivo (muerte)- Un negocio (quiebra)- Un péndulo invertido (masa en equilibrio hacia abajo)
- En los sistemas cerrado la entropía siempre es creciente, por tanto en algún momento el sistema llegará a su estado más probable que es el caos.
- Sin embargo hay sistemas que conforme pasa el tiempo no parecen desordenarse y, más aún, van evolucionando en un sistema más organizado.
- Note, sin embargo que este último grupo de sistemas normalmente caben dentro de la categoría de sistemas abiertos o vivos
Ejemplos y cuestiones:
Para los siguientes sistemas abiertos como se combate el estado más probable?
- Un ser vivo (metabolismo)- Un negocio (gestión)- Un péndulo invertido (control)
4. Neguentropía
También denominada entropía negativa, hace referencia a la acción que hace un sistema para contrarrestar su nivel de entropía creciente. Normalmente el sistema usa parte de sus recursos para tal acción.
SISTEMA
EntropíaSalida
Neguentropía
4. Neguentropía
La ley de conservación de energía también ilustra como la energía preservada por el sistema se puede usar para combatir la entropía
5. Entropía y neguentropía (sistemas de información)
Anteriormente se habló de que el conocimiento en un sistema de información siempre es creciente debido a la ley de incrementos.
5. Entropía y neguentropía (sistemas de información)
Sin embargo, entendiendo un sistema de información como un un proceso que toma información del medio, codifica un mensaje y lo entrega al receptor, es posible observar que el elemento encargado de codificar el mensaje puede ser sujeto de ruido, variaciones o corrupción del mensaje.
Canal o
medio de información
Información
Ruido
Mensaje
5. Entropía y neguentropía (sistemas de información)
Tal ruido o corrupción del mensaje se considera una fuente de entropía ya que reduce la información que se puede obtener del sistema y condiciona el estado más probable en el receptor del mensaje que es cualquier información (correcta o errada) que pueda suponer acerca del medio que estudia.
Canal o
medio de información
Información
Ruido
Mensaje
5. Entropía y neguentropía (sistemas de información)
Por su parte, la generación de nueva información se considera una fuente de neguentropía.
Así mismo, la calidad del canal de información también contribuye a la reducción de entropía.
Canal omedio de información
Información
Ruido
Mensaje
5.1. Medición de la máxima entropía (estado más probable) en sistemas de información.
El estado más probable en un sistema de información depende del número de estados ‘N’ que puede tener un mensaje.
Tal estado más probable se logra cuando todos los estados del mensaje tienen la misma probabilidad de ser entregados por el canal. Es decir P(1)=P(2)=P(3)…=P(n).
En el estado más probable, la máxima entropía se mide como la posibilidad de entregar el mensaje incorrecto asumiendo que todos los estados tienen la misma posibilidad de entregarse.
5.1. Medición de la máxima entropía (estado mas probable) en sistemas de información.
La fórmula de máxima entropía es:
Por ejemplo para un sistema de información donde la información solo tiene dos estados de respuesta (si ó no) tenemos N=2.
Para un sistema, que envía mensajes por medio de letras (26) y dígitos (10) tenemos N=36.
Un sistema con infinitos estados se tiene:
5.2. Cómo reducir la entropía en sistemas de información?
El estado de máxima entropía se reduce minimizando las posibilidades de estados erróneos y maximizando los correctos a través de:- Nuevos datos o información- Buena calidad de la comunicación
Canal omedio de información
Información
Ruido
Mensaje
Ejemplo:
Se tiene un piso cuadriculado de 6x6 baldosas. Se lanza una moneda sobre ese piso y se desea saber en qué baldosa cayó.
Numeramos los estados del 1 al 36:
Sin tener datos de donde cayó la moneda cualquier estado es posible.
El sonido que produce la moneda al caer indica donde cayó exactamente, sin embargo como el oido humano no es muy fino (mal canal), no es posible definir el estado correcto con seguridad
Si alguien me indica que cayó en una esquina, tengo información no del todo precisa pero se transmite de forma correcta (lenguaje humano)
Finalmente, la información precisa por un canal muy fiable, por ejemplo, ver donde cayó, minimiza la entropía.
5.2. Cómo reducir la entropía en sistemas de información?
La reducción de entropía o ruido es un problema recurrente en sistemas de comunicación digital (transmisión de bits) o de señales analógicas (radio frecuencia).