teoria moderna de control

16

Click here to load reader

Upload: wendy-agelvis

Post on 08-Jun-2015

304 views

Category:

Education


1 download

DESCRIPTION

Estabilidad según Lyapunov.

TRANSCRIPT

Page 1: TEORIA MODERNA DE CONTROL

REPÚBLICA BOLIVARIANA DE VENEZUELA

MINISTERIO DEL PODER POPULAR

PARA LA EDUCACIÓN UNIVERSITARIA

INSTITUTO UNIVERSITARIO POLITÉCNICO “SANTIAGO MARIÑO”

TEORIA MODERNA DE CONTROL

(Estabilidad según Lyapunov, Controlabilidad, Observabilidad)

INTEGRANTE:

NELSON ORDONEZ

Caracas, Julio de 2013.

Page 2: TEORIA MODERNA DE CONTROL

INTRODUCCION

La teoría de estabilidad juega un rol central en teoría de sistemas e ingeniería.

En sistemas dinámicos existen distintos tipos de problemas de estabilidad. En este

capítulo vamos a tratar estabilidad de puntos de equilibrio; más adelante en el curso

veremos otros problemas de estabilidad, como el de estabilidad entrada-salida. La

estabilidad de puntos de equilibrio generalmente se caracteriza en el sentido de

Lyapunov, un matemático e ingeniero ruso que estableció las bases de la teoría que

hoy lleva su nombre. Un punto de equilibrio se dice estable si todas las soluciones que

se inicien en las cercanías del punto de equilibrio permanecen en las cercanías del

punto de equilibrio; de otro modo el punto de equilibrio es inestable. Un punto de

equilibrio se dice asintóticamente estable si todas las soluciones que se inicien en las

cercanías del punto de equilibrio no sólo permanecen en las cercanías del punto de

equilibrio, sino que Aleksandr Lyapunov además tienden hacia el equilibrio a medida

que el tiempo 1857-1918 se aproxima a infinito. vemos cómo la estabilidad de un punto

de equilibrio puede determinarse mediante linealización. Los teoremas de estabilidad

de Lyapunov dan condiciones suficientes para estabilidad de puntos de equilibrio.

Existen teoremas conversos que establecen que, al menos conceptualmente, en los

teoremas de Lyapunov muchas de estas condiciones son también necesarias.

Trataremos estos teoremas conversos en el capítulo siguiente, junto a extensiones de

los resultados para sistemas inestacionarios.

Page 3: TEORIA MODERNA DE CONTROL

Estabilidad según Lyapunov.

En matemáticas, la noción de estabilidad de Lyapunov se da en el estudio de los

sistemas dinámicos. De manera sencilla, si todas las soluciones de un sistema

dinámico descrito por una función X(t) se encuentran cerca de un punto de equilibrio

en una vecindad acotada por , entonces las trayectorias de la función X(t) son

estables. De manera fuerte, si la solución comienza en la vecindad de y converge

a , entonces es asintóticamente estable en el sentido de Lyapunov.

Se puede demostrar que si una función escalar V(x) en donde x es un vector de

dimensión n, es definida positiva, lo estados x que satisfacen

Para un sistema determinado, si se encuentra una función escalar definida positiva V(x)

tal que su derivada con respecto al tiempo, tomada a lo largo de una trayectoria, sea

siempre negativa, entonces, conforme se incrementa el tiempo, V(x) adopta valores

cada vez más pequeños de C. Conforme se incrementa el tiempo, V(x) finalmente se

reduce a cero y, por tanto, x también se reduce a cero. Esto explica la estabilidad

asintótica del origen del espacio de estados

Suponga que el sistema se describe mediante

x = (f(x,t) en donde f(0,t) = 0 para toda t

Si existe una función escalar V(x,t) con primeras derivadas parciales continuas, que

satisfaga las condiciones

1. V(x,t) es definida positiva

2. V(x,t) es definida negativa

Entonces el estado de equilibrio en el origen es uniforme y asintóticamente estable.

Page 4: TEORIA MODERNA DE CONTROL

Un ejemplo sería:

Positiva V(x) = x1² + x2²

Negativa -V(x) = positivo

Con frecuencia nos referimos a una función como semidefinida ya sea positiva o

negativa, y se dice así porque no se pueden analizar juntas dos variables, por ejemplo

una función sería semidefinida negativa para la velocidad (la cual es una derivada), y

sería semidefinida positiva, para los ángulos, los cuales se requieren en forma de

gráfica que se formen círculos

Controlabilidad:

Se dice que un sistema es controlable en el tiempo to sise puede llevar de

cualquier estado inicial x(to) a cualquier otro estado, mediante un vector de control sin

restricciones, en un intervalo de tiempo finito.

Las condiciones de controlabilidad determinan la existencia de una solucion completa

para un problema de diseño de un sistema de control. Tal vez no exista una solucion a

este problema si el sistema considerado es no controlable.

Controlabilidad completa del estado de sistema en tiempo continuo.

Considere el sistema en tiempo continuo:

dx/dt=Ax + Bu

En donde x = vector de estados 8 vector de dimensión n)

u= señal de control (escala)

A = matriz de n x n

B = matriz de n x 1

Se dice que el sistema descrito mediante la ecuación dx/dt=Ax + Bu es de

estado controlable en t =to si es posible construir una señal de control sin restricciones

Page 5: TEORIA MODERNA DE CONTROL

que transfiera un estado inicia a cualquier estado final en un intervalo de tiempo finito

to<=t<= t1.

si todos los estados son controlables, se dice que el sistema de estado completamente

controlable

Ahora obtendremos la condición para una contrabilidad completa del estado. Sin perder

la generalidad, suponemos que el estado final es el origen en el espacio de estados y

que el tiempo inicial es cero, ó to= 0.

La solución de la ecuación es :

Si el sistema es de estado completamente controlable entonces, dado cualquier estado

inicial x(0) la ecuación debe satisfacerse. Esto requiere que el rango de la matriz de n x

n sea n

A partir de este análisis, establecemos del modo siguiente la condición para la

contrabilidad completa del estado: el sistema obtenido mediante la ecuación dx/dt=Ax

+Bu es de estado completamente controlable si y solo si los vectores

son linealmente independientes, a la matriz de n x n.

El resultado recién obtenido se extiende al caso en el que el vector de control u es de

dimensión r. Si el sistema se describe mediante

Page 6: TEORIA MODERNA DE CONTROL

dx/dt=Ax + Bu

En donde u es un vector de dimensión r , se demuestra que la condición para la

controlabilidad completa del estado es que la matriz de n x nr sea de rango n, o que

contenga n vectores columna linealmente independientes.

La matriz se denomina, por lo común, matriz de controlabilidad.

Contrabilidiad completa de salida:

En el diseño pactico de un sistema de control, tal vez pretendamos controlar la

salida en lugar del estado del sistema. Una controlabilidad completa del estado no es

necesaria ni suficiente para controlar la salida del sistema.

Por esta razón, es conveniente definir una controlabilidad completa de la salida por

separado. Considere el sistema descrito mediante

dx/dt=Ax + Bu 1

y= Cx + Du 2

en donde x= vector de estado (vector de dimensión n)

u= vector de control (vector de dimensión r)

y= vector de salida ( vector de dimensión n)

A = matriz de n x n

B = matriz de n x r

C= matriz de m x n

D = matriz de m x r

Se dice que el sistema descrito mediante las ecuaciones 1 y 2 es de estado

completamente controlable si es posible construir un vector de control sin restricciones

Page 7: TEORIA MODERNA DE CONTROL

u(t) que transfiera cualquier salida inicial determinada y(to) a cualquier salida final y(t1)

en un intervalo de tiempo finito to<=t<=t1 .

Es posible demostrar que la condición para una controlabilidad completa de la salida es

la siguiente: el sistema descrito mediante las ecuaciones 1 y 2 es de salida

completamente controlables si y solo si la matriz m x (n+1)r.

Es de rango m.

Observabilidad :

La observabilidad se utiliza para calcular las variables de estado observando la salida

en caso de no tener acceso a esta.

Dado un estado y( t + 1) como salida

Puede estimarse x(t) como estado

La matriz de observabilidad esta determinada por :

Esta matriz nos sirve para determinar si un sistema de n-esimo orden es o no

completamente observable. El sistema es completamente observable si y solo si la

matriz M es de rango máximo, es decir, si M tiene n renglones linealmente

independientes.

El sistema

Page 8: TEORIA MODERNA DE CONTROL

Por ejemplo, es completamente observable:

Observabilidad completa:

Si todo estado x(t0) del sistema es observable sobre [t0, t1], el sistema se dice que es

completamente observable sobre [t0, t1].

 Ya que la respuesta de estado cero (los términos que contienen u en (2)) pueden ser

calculados directamente, el problema de la observabilidad del sistema puede ser

resuelto considerando que la u=0. Esto es, el problema se hace: dado un sistema (1) y

Page 9: TEORIA MODERNA DE CONTROL

sus respuesta a entrada cero C(t).F(t,t0).x0 sobre el intervalo finito [t0, t1], encontrar el

estado inicial x0. Esto inmediatamente implica que solo las matrices A y C en el sistema

representado por (1) están involucradas en la caracterización de la observabilidad del

sistema.

Ejemplo:

Considere el sistema descripto por las ecuaciones [1], donde A, B, C y D son las

matrices constantes:

, , , D = 0

Entonces tenemos:

,

,

Y la ecuación de la salida:

De todo este conjunto de ecuaciones notamos que y depende solamente de x1, y

que el mismo es completamente independiente de x2. Esto es, el conocimiento de u(t) e

y(t) sobre un intervalo finito [0, t1] es suficiente para determinar x10 pero no x20. Usando

la definición I concluimos que en este sistema solo los estados del tipo [x10, 0]T son

observables. Entonces por definición II, este sistema no es completamente observable.

La siguiente figura muestra un diagrama de simulación de este sistema, haciendo notar

que el bloque de la dinámica de la segunda componente no se encuentra conectado a

la salida:

Page 10: TEORIA MODERNA DE CONTROL

Resolver:

[X 1(K+1)X 2(k+1) ]=[ 0 1

−0.21 −1]∗[X 1(K )X 2(K )]+[01]

U(k) = 1 Para k = 0, 1, 2, 3…….

X 0=[X 1(0)

X 2(0)]=[ 2−3]Utilizando matlab:

>> syms z

>> h=[0;1]

h =

0

1

>> g=[0 1;-0.21 -1]

g =

0 1.0000

Page 11: TEORIA MODERNA DE CONTROL

-0.2100 -1.0000

>> Xo=[2;-3]

Xo =

2

-3

>> a=z*eye(2)-g

a =

[ z, -1]

[ 21/100, z + 1]

>> matrans=inv(a)

matrans =

[ (100*z + 100)/(100*z^2 + 100*z + 21), 100/(100*z^2 + 100*z + 21)]

[ -21/(100*z^2 + 100*z + 21), (100*z)/(100*z^2 + 100*z + 21)]

>> I=iztrans(z*matrans)

I =

[ (7*(-3/10)^n)/4 - (3*(-7/10)^n)/4, (5*(-3/10)^n)/2 - (5*(-7/10)^n)/2]

[ (21*(-7/10)^n)/40 - (21*(-3/10)^n)/40, (7*(-7/10)^n)/4 - (3*(-3/10)^n)/4]

>> Xz=matrans*(z*Xo+h*Uk)

>> Uk=(z)/(z-1)

Page 12: TEORIA MODERNA DE CONTROL

Uk =

z/(z - 1)

>> Xz=matrans*(z*Xo+h*Uk)

Xz =

(2*z*(100*z + 100))/(100*z^2 + 100*z + 21) - (100*(3*z - z/(z - 1)))/(100*z^2 + 100*z +

21)

- (42*z)/(100*z^2 + 100*z + 21) - (100*z*(3*z - z/(z - 1)))/(100*z^2 + 100*z + 21)

>> Xk=iztrans(Xz)

Xk =

(127*(-7/10)^n)/17 - (77*(-3/10)^n)/13 + 100/221

(231*(-3/10)^n)/130 - (889*(-7/10)^n)/170 + 100/221

CONCLUCION

Page 13: TEORIA MODERNA DE CONTROL

Para un sistema determinado, si se encuentra una función escalar definida

positiva V(x) tal que su derivada con respecto al tiempo, tomada a lo largo de una

trayectoria, sea siempre negativa, entonces, conforme se incrementa el tiempo, V(x)

adopta valores cada vez más pequeños de C. Conforme se incrementa el tiempo, V(x)

finalmente se reduce a cero y, por tanto, x también se reduce a cero. Esto explica la

estabilidad asintótica del origen del espacio de estados

Se dice que un sistema es controlable en el tiempo to sise puede llevar de

cualquier estado inicial x(to) a cualquier otro estado, mediante un vector de control sin

restricciones, en un intervalo de tiempo finito.

Las condiciones de controlabilidad determinan la existencia de una solución

completa para un problema de diseño de un sistema de control. Tal vez no exista una

solución a este problema si el sistema considerado es no controlable.

Si todo estado x(t0) del sistema es observable sobre [t0, t1], el sistema se dice

que es completamente observable sobre [t0, t1].

Por otro lado, La observabilidad se utiliza para calcular las variables de estado

observando la salida en caso de no tener acceso a esta.