teoria moderna de control
DESCRIPTION
Estabilidad según Lyapunov.TRANSCRIPT
REPÚBLICA BOLIVARIANA DE VENEZUELA
MINISTERIO DEL PODER POPULAR
PARA LA EDUCACIÓN UNIVERSITARIA
INSTITUTO UNIVERSITARIO POLITÉCNICO “SANTIAGO MARIÑO”
TEORIA MODERNA DE CONTROL
(Estabilidad según Lyapunov, Controlabilidad, Observabilidad)
INTEGRANTE:
NELSON ORDONEZ
Caracas, Julio de 2013.
INTRODUCCION
La teoría de estabilidad juega un rol central en teoría de sistemas e ingeniería.
En sistemas dinámicos existen distintos tipos de problemas de estabilidad. En este
capítulo vamos a tratar estabilidad de puntos de equilibrio; más adelante en el curso
veremos otros problemas de estabilidad, como el de estabilidad entrada-salida. La
estabilidad de puntos de equilibrio generalmente se caracteriza en el sentido de
Lyapunov, un matemático e ingeniero ruso que estableció las bases de la teoría que
hoy lleva su nombre. Un punto de equilibrio se dice estable si todas las soluciones que
se inicien en las cercanías del punto de equilibrio permanecen en las cercanías del
punto de equilibrio; de otro modo el punto de equilibrio es inestable. Un punto de
equilibrio se dice asintóticamente estable si todas las soluciones que se inicien en las
cercanías del punto de equilibrio no sólo permanecen en las cercanías del punto de
equilibrio, sino que Aleksandr Lyapunov además tienden hacia el equilibrio a medida
que el tiempo 1857-1918 se aproxima a infinito. vemos cómo la estabilidad de un punto
de equilibrio puede determinarse mediante linealización. Los teoremas de estabilidad
de Lyapunov dan condiciones suficientes para estabilidad de puntos de equilibrio.
Existen teoremas conversos que establecen que, al menos conceptualmente, en los
teoremas de Lyapunov muchas de estas condiciones son también necesarias.
Trataremos estos teoremas conversos en el capítulo siguiente, junto a extensiones de
los resultados para sistemas inestacionarios.
Estabilidad según Lyapunov.
En matemáticas, la noción de estabilidad de Lyapunov se da en el estudio de los
sistemas dinámicos. De manera sencilla, si todas las soluciones de un sistema
dinámico descrito por una función X(t) se encuentran cerca de un punto de equilibrio
en una vecindad acotada por , entonces las trayectorias de la función X(t) son
estables. De manera fuerte, si la solución comienza en la vecindad de y converge
a , entonces es asintóticamente estable en el sentido de Lyapunov.
Se puede demostrar que si una función escalar V(x) en donde x es un vector de
dimensión n, es definida positiva, lo estados x que satisfacen
Para un sistema determinado, si se encuentra una función escalar definida positiva V(x)
tal que su derivada con respecto al tiempo, tomada a lo largo de una trayectoria, sea
siempre negativa, entonces, conforme se incrementa el tiempo, V(x) adopta valores
cada vez más pequeños de C. Conforme se incrementa el tiempo, V(x) finalmente se
reduce a cero y, por tanto, x también se reduce a cero. Esto explica la estabilidad
asintótica del origen del espacio de estados
Suponga que el sistema se describe mediante
x = (f(x,t) en donde f(0,t) = 0 para toda t
Si existe una función escalar V(x,t) con primeras derivadas parciales continuas, que
satisfaga las condiciones
1. V(x,t) es definida positiva
2. V(x,t) es definida negativa
Entonces el estado de equilibrio en el origen es uniforme y asintóticamente estable.
Un ejemplo sería:
Positiva V(x) = x1² + x2²
Negativa -V(x) = positivo
Con frecuencia nos referimos a una función como semidefinida ya sea positiva o
negativa, y se dice así porque no se pueden analizar juntas dos variables, por ejemplo
una función sería semidefinida negativa para la velocidad (la cual es una derivada), y
sería semidefinida positiva, para los ángulos, los cuales se requieren en forma de
gráfica que se formen círculos
Controlabilidad:
Se dice que un sistema es controlable en el tiempo to sise puede llevar de
cualquier estado inicial x(to) a cualquier otro estado, mediante un vector de control sin
restricciones, en un intervalo de tiempo finito.
Las condiciones de controlabilidad determinan la existencia de una solucion completa
para un problema de diseño de un sistema de control. Tal vez no exista una solucion a
este problema si el sistema considerado es no controlable.
Controlabilidad completa del estado de sistema en tiempo continuo.
Considere el sistema en tiempo continuo:
dx/dt=Ax + Bu
En donde x = vector de estados 8 vector de dimensión n)
u= señal de control (escala)
A = matriz de n x n
B = matriz de n x 1
Se dice que el sistema descrito mediante la ecuación dx/dt=Ax + Bu es de
estado controlable en t =to si es posible construir una señal de control sin restricciones
que transfiera un estado inicia a cualquier estado final en un intervalo de tiempo finito
to<=t<= t1.
si todos los estados son controlables, se dice que el sistema de estado completamente
controlable
Ahora obtendremos la condición para una contrabilidad completa del estado. Sin perder
la generalidad, suponemos que el estado final es el origen en el espacio de estados y
que el tiempo inicial es cero, ó to= 0.
La solución de la ecuación es :
Si el sistema es de estado completamente controlable entonces, dado cualquier estado
inicial x(0) la ecuación debe satisfacerse. Esto requiere que el rango de la matriz de n x
n sea n
A partir de este análisis, establecemos del modo siguiente la condición para la
contrabilidad completa del estado: el sistema obtenido mediante la ecuación dx/dt=Ax
+Bu es de estado completamente controlable si y solo si los vectores
son linealmente independientes, a la matriz de n x n.
El resultado recién obtenido se extiende al caso en el que el vector de control u es de
dimensión r. Si el sistema se describe mediante
dx/dt=Ax + Bu
En donde u es un vector de dimensión r , se demuestra que la condición para la
controlabilidad completa del estado es que la matriz de n x nr sea de rango n, o que
contenga n vectores columna linealmente independientes.
La matriz se denomina, por lo común, matriz de controlabilidad.
Contrabilidiad completa de salida:
En el diseño pactico de un sistema de control, tal vez pretendamos controlar la
salida en lugar del estado del sistema. Una controlabilidad completa del estado no es
necesaria ni suficiente para controlar la salida del sistema.
Por esta razón, es conveniente definir una controlabilidad completa de la salida por
separado. Considere el sistema descrito mediante
dx/dt=Ax + Bu 1
y= Cx + Du 2
en donde x= vector de estado (vector de dimensión n)
u= vector de control (vector de dimensión r)
y= vector de salida ( vector de dimensión n)
A = matriz de n x n
B = matriz de n x r
C= matriz de m x n
D = matriz de m x r
Se dice que el sistema descrito mediante las ecuaciones 1 y 2 es de estado
completamente controlable si es posible construir un vector de control sin restricciones
u(t) que transfiera cualquier salida inicial determinada y(to) a cualquier salida final y(t1)
en un intervalo de tiempo finito to<=t<=t1 .
Es posible demostrar que la condición para una controlabilidad completa de la salida es
la siguiente: el sistema descrito mediante las ecuaciones 1 y 2 es de salida
completamente controlables si y solo si la matriz m x (n+1)r.
Es de rango m.
Observabilidad :
La observabilidad se utiliza para calcular las variables de estado observando la salida
en caso de no tener acceso a esta.
Dado un estado y( t + 1) como salida
Puede estimarse x(t) como estado
La matriz de observabilidad esta determinada por :
Esta matriz nos sirve para determinar si un sistema de n-esimo orden es o no
completamente observable. El sistema es completamente observable si y solo si la
matriz M es de rango máximo, es decir, si M tiene n renglones linealmente
independientes.
El sistema
Por ejemplo, es completamente observable:
Observabilidad completa:
Si todo estado x(t0) del sistema es observable sobre [t0, t1], el sistema se dice que es
completamente observable sobre [t0, t1].
Ya que la respuesta de estado cero (los términos que contienen u en (2)) pueden ser
calculados directamente, el problema de la observabilidad del sistema puede ser
resuelto considerando que la u=0. Esto es, el problema se hace: dado un sistema (1) y
sus respuesta a entrada cero C(t).F(t,t0).x0 sobre el intervalo finito [t0, t1], encontrar el
estado inicial x0. Esto inmediatamente implica que solo las matrices A y C en el sistema
representado por (1) están involucradas en la caracterización de la observabilidad del
sistema.
Ejemplo:
Considere el sistema descripto por las ecuaciones [1], donde A, B, C y D son las
matrices constantes:
, , , D = 0
Entonces tenemos:
,
,
Y la ecuación de la salida:
De todo este conjunto de ecuaciones notamos que y depende solamente de x1, y
que el mismo es completamente independiente de x2. Esto es, el conocimiento de u(t) e
y(t) sobre un intervalo finito [0, t1] es suficiente para determinar x10 pero no x20. Usando
la definición I concluimos que en este sistema solo los estados del tipo [x10, 0]T son
observables. Entonces por definición II, este sistema no es completamente observable.
La siguiente figura muestra un diagrama de simulación de este sistema, haciendo notar
que el bloque de la dinámica de la segunda componente no se encuentra conectado a
la salida:
Resolver:
[X 1(K+1)X 2(k+1) ]=[ 0 1
−0.21 −1]∗[X 1(K )X 2(K )]+[01]
U(k) = 1 Para k = 0, 1, 2, 3…….
X 0=[X 1(0)
X 2(0)]=[ 2−3]Utilizando matlab:
>> syms z
>> h=[0;1]
h =
0
1
>> g=[0 1;-0.21 -1]
g =
0 1.0000
-0.2100 -1.0000
>> Xo=[2;-3]
Xo =
2
-3
>> a=z*eye(2)-g
a =
[ z, -1]
[ 21/100, z + 1]
>> matrans=inv(a)
matrans =
[ (100*z + 100)/(100*z^2 + 100*z + 21), 100/(100*z^2 + 100*z + 21)]
[ -21/(100*z^2 + 100*z + 21), (100*z)/(100*z^2 + 100*z + 21)]
>> I=iztrans(z*matrans)
I =
[ (7*(-3/10)^n)/4 - (3*(-7/10)^n)/4, (5*(-3/10)^n)/2 - (5*(-7/10)^n)/2]
[ (21*(-7/10)^n)/40 - (21*(-3/10)^n)/40, (7*(-7/10)^n)/4 - (3*(-3/10)^n)/4]
>> Xz=matrans*(z*Xo+h*Uk)
>> Uk=(z)/(z-1)
Uk =
z/(z - 1)
>> Xz=matrans*(z*Xo+h*Uk)
Xz =
(2*z*(100*z + 100))/(100*z^2 + 100*z + 21) - (100*(3*z - z/(z - 1)))/(100*z^2 + 100*z +
21)
- (42*z)/(100*z^2 + 100*z + 21) - (100*z*(3*z - z/(z - 1)))/(100*z^2 + 100*z + 21)
>> Xk=iztrans(Xz)
Xk =
(127*(-7/10)^n)/17 - (77*(-3/10)^n)/13 + 100/221
(231*(-3/10)^n)/130 - (889*(-7/10)^n)/170 + 100/221
CONCLUCION
Para un sistema determinado, si se encuentra una función escalar definida
positiva V(x) tal que su derivada con respecto al tiempo, tomada a lo largo de una
trayectoria, sea siempre negativa, entonces, conforme se incrementa el tiempo, V(x)
adopta valores cada vez más pequeños de C. Conforme se incrementa el tiempo, V(x)
finalmente se reduce a cero y, por tanto, x también se reduce a cero. Esto explica la
estabilidad asintótica del origen del espacio de estados
Se dice que un sistema es controlable en el tiempo to sise puede llevar de
cualquier estado inicial x(to) a cualquier otro estado, mediante un vector de control sin
restricciones, en un intervalo de tiempo finito.
Las condiciones de controlabilidad determinan la existencia de una solución
completa para un problema de diseño de un sistema de control. Tal vez no exista una
solución a este problema si el sistema considerado es no controlable.
Si todo estado x(t0) del sistema es observable sobre [t0, t1], el sistema se dice
que es completamente observable sobre [t0, t1].
Por otro lado, La observabilidad se utiliza para calcular las variables de estado
observando la salida en caso de no tener acceso a esta.