cópulas - ucm-universidad complutense de madrid · derivando en (1) con respecto a ambas variables...

31
Cpulas Alfonso Novales Departamento de Economa Cuantitativa Universidad Complutense 12 de noviembre de 2014 Versin preliminar No citar sin permiso del autor Estas notas estÆn extraidas del volumen II de Alexander: Market Risk Analysis (Practical Financial Econometrics) @Copyright 2014 Contents 1 Coecientes de correlacin de rangos 2 2 Cpulas. Deniciones 3 2.1 Cpulas condicionales ........................ 4 2.2 Cotas superior e inferior de dependencia: .............. 5 2.3 Ejemplos de copulas ......................... 6 2.3.1 Cpula Gaussiana ...................... 6 2.3.2 Copulas t-Student ...................... 8 2.3.3 Copulas de mixturas Normales ............... 9 2.3.4 Copulas Arquimedianas ................... 10 3 Uso de cpulas para simulacin, estimacin, cÆlculo de medidas de riesgo 13 4 Distribuciones condicionales de cpulas y curvas de cuantiles 14 5 Calibracin de cpulas 17 5.1 Correspondencia entre copulas y coecientes de correlacin de rangos ................................. 17 5.2 Estimacin por mÆxima verosimilitud ............... 18 5.3 Seleccin de copulas ......................... 19 6 Simulacin con cpulas 20 6.1 Utilizando copulas condicionales en la simulacin ......... 21 6.2 Simulacin con copulas elipticas ................... 22 1

Upload: hamien

Post on 25-Sep-2018

213 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Cópulas - UCM-Universidad Complutense de Madrid · Derivando en (1) con respecto a ambas variables tenemos una sencilla ex-presión para la función de densidad conjunta en tØrminos

Cópulas

Alfonso NovalesDepartamento de Economía Cuantitativa

Universidad Complutense

12 de noviembre de 2014Versión preliminar

No citar sin permiso del autorEstas notas están extraidas del volumen II de Alexander: Market

Risk Analysis (Practical Financial Econometrics)@Copyright 2014

Contents

1 Coe�cientes de correlación de rangos 2

2 Cópulas. De�niciones 32.1 Cópulas condicionales . . . . . . . . . . . . . . . . . . . . . . . . 42.2 Cotas superior e inferior de dependencia: . . . . . . . . . . . . . . 52.3 Ejemplos de copulas . . . . . . . . . . . . . . . . . . . . . . . . . 6

2.3.1 Cópula Gaussiana . . . . . . . . . . . . . . . . . . . . . . 62.3.2 Copulas t-Student . . . . . . . . . . . . . . . . . . . . . . 82.3.3 Copulas de mixturas Normales . . . . . . . . . . . . . . . 92.3.4 Copulas Arquimedianas . . . . . . . . . . . . . . . . . . . 10

3 Uso de cópulas para simulación, estimación, cálculo de medidasde riesgo 13

4 Distribuciones condicionales de cópulas y curvas de cuantiles 14

5 Calibración de cópulas 175.1 Correspondencia entre copulas y coe�cientes de correlación de

rangos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175.2 Estimación por máxima verosimilitud . . . . . . . . . . . . . . . 185.3 Selección de copulas . . . . . . . . . . . . . . . . . . . . . . . . . 19

6 Simulación con cópulas 206.1 Utilizando copulas condicionales en la simulación . . . . . . . . . 216.2 Simulación con copulas elipticas . . . . . . . . . . . . . . . . . . . 22

1

Page 2: Cópulas - UCM-Universidad Complutense de Madrid · Derivando en (1) con respecto a ambas variables tenemos una sencilla ex-presión para la función de densidad conjunta en tØrminos

7 Aplicaciones 257.1 Aplicación: Cálculo del Valor en Riesgo . . . . . . . . . . . . . . 257.2 Aplicación: Distribución de la suma . . . . . . . . . . . . . . . . 287.3 Aplicación: Gestión de carteras . . . . . . . . . . . . . . . . . . . 29

8 Cópulas en regresiones cuantílicas no lineales 31

1 Coe�cientes de correlación de rangos

Recordemos los coe�cientes de correlación de rangos. Se trata de medidas noparamétricas de dependencia basadas en datos de rangos. Para ello, si tenemosuna determinada muestra, asignamos a cada observación el número de orden queocupa en la muestra cuando se ordena de menor a mayor valor. Una vez hechaesta asignación de etiquetas numéricas, prescindimos de los valores observados,y nos quedamos únicamente con estos rangos.Coe�ciente de correlación de Spearman: Se aplica a dos conjuntos de datos de

igual tamaño, que guarden una cierta ordenación, de modo que pueda hablarsede pares (xi; yi): Esta asociación es natural cuando se dispone de dos seriestemporales que cubren un mismo período, pero no sería posible en una muestraen la que las observaciones no guardan ninguna ordenación. Cuando tenemoslos pares (xi; yi) , con rangos (dxi ; dyi) calculamos las diferencias de rangos:di = dyi � dxi y la suma de sus cuadrados:

D =nXi=1

= d2i

El coe�ciente de correlación de Spearman es:1

�S = 1�6D

n(n2 � 1)Coe�ciente de correlación de Kendall : Consideremos dos pares de observa-

ciones (x1; y1) , (x2; y2) . Decimos que ambos pares son concordantes si x1�x2tiene el mismo signo que y1�y2; y son discordantes en caso contrario.2 Es decir,los dos pares son concordantes si (x1 � x2)(y1 � y2) > 0, y son discordantes si(x1 � x2)(y1 � y2) < 0:Si denotamos por NC y por ND; respectivamente, a la suma de los número

de pares concordantes y discordantes a lo largo de todas las observaciones mues-trales,3 el coe�ciente de correlación de Kendall es:

1Que también puede calcularse utilizando el coe�ciente de correlación de Pearson a losdatos de ambas variables ordenados de acuerdo con los datos ordenados de acuerdo con susrangos, no con el período de observación.

2El par de observaciones (x; x) no es ni concordante ni discordante con otros pares deobservaciones muestrales.

3Sin contar las propias observaciones cuyo numero de concordancias y discordancias esta-mos calculando.

2

Page 3: Cópulas - UCM-Universidad Complutense de Madrid · Derivando en (1) con respecto a ambas variables tenemos una sencilla ex-presión para la función de densidad conjunta en tØrminos

� =NC �ND12n(n� 1)

donde las sumas NC ; ND están divididas por 2, para no contar doblementelas comparaciones entre pares de observaciones. Si hay datos repetidos, se lesasigna el rango promedio, no el mayor ni el menor rango. Por ejemplo, si losdatos ordenados crecientemente son: 1, 2, 2, 2, 5, ..., los rangos serán: 1, 3,3, 3, 5, .... Como comprobación, la suma de rangos debe ser siempre igual an(n+ 1)=2:

2 Cópulas. De�niciones

Aunque vamos a tratar con cópulas bivariantes, todos los conceptos que vamosa examinar pueden extenderse de modo natural al caso multivariante.Consideremos dos variables aleatorias X1; X2 con funciones de distribución

marginales continuas, F1(x1); F2(x2); y denotemos ui = F1(x1); u2 = F2(x2):Una cópula es una función bidimensional con propiedades:

� C : [0; 1]� [0; 1] �! [0; 1]

� C(u1; 0) = C(0; u2) = 0

� C(u1; 1) = u1; C(1; u2) = u2

� para todo u1; u2; v1; v2 en [0; 1] con u1 � v1; u2 � v2; se tiene: C(v1; v2)�C(u1; v2) � C(v1; u2)� C(u1; u2)

La primera condición postula que una cópula actua sobre los valores tomadospor las dos funciones de distribución F1; F2 (su rango). Las otras tres condicionesmuestran que cualquier función de distribución bivariante puede ser una copula.Teorema de Sklar (versión bivariante): Dada una función de distribución

bivariante F (x1; x2); existe una única cópula C : [0; 1]� [0; 1] �! [0; 1] tal que:

F (x1; x2) = C (F1(x1); F2(x2)) (1)

donde F1; F2 son las funciones de distribución marginales de F:Recíprocamente, si C es una cópula y F1(x1); F2(x2) son funciones de dis-

tribución, entonces (1) de�ne una función de distribución bivariante con dis-tribuciones marginales F1(x1); F2(x2):

Por ejemplo, supongamos que X1 y X2 son independientes, con distribu-ciones F1(x1); F2(x2) . Entonces, F (x1; x2) = F1(x1):F2(x2) , por lo que laúnica cópula a la que se re�ere el teorema de Sklar es en este caso:

C (F1(x1); F2(x2)) = F1(x1):F2(x2)

3

Page 4: Cópulas - UCM-Universidad Complutense de Madrid · Derivando en (1) con respecto a ambas variables tenemos una sencilla ex-presión para la función de densidad conjunta en tØrminos

Derivando en (1) con respecto a ambas variables tenemos una sencilla ex-presión para la función de densidad conjunta en términos de las funciones dedensidad marginales:

@2F (x1; x2)

@x1@x2=

@2C (F1(x1); F2(x2))

@F1(x1)@F2(x2)

@F1(x1)

@x1

@F2(x2)

@x2)

) f(x1; x2) = c (F1(x1); F2(x2)) :f1(x1):f(x2)

donde:

c (F1(x1); F2(x2)) =@2C (F1(x1); F2(x2))

@F1(x1)@F2(x2)

Ahora bien, sabemos que, para cualquier función de distribución, F1; F2; F1(x1)y F2(x2) siguen una distribución uniforme. Si sustituimos F1(x1) y F2(x2) porvariables u1; u2; con distribución uniforme, tenemos:

c (u1; u2) =@2C (u1; u2)

@u1@u2

que es la función de densidad de la cópula C:Dada la función de densidad de la cópula y las funciones de densidad mar-

ginales, si existen, tenemos la función de densidad conjunta de las variablesoriginales:

f(x1; x2; :::; xn) = c(F1(x1); :::; Fn(xn)):f1(x1):::fn(xn)

Con el cambio de notación u1 = F1(x1); u2 = F2(x2) tenemos que, dadasdos funciones de distribución F1; F2; toda función de distribución bivariante Fde�ne una cópula implicita:

C(u1; u2) = F�F�11 (u1); F

�12 (u2)

�Es fácil ver que este modo de construir cópulas satisface las condiciones

de la de�nición. Por ejemplo, sea x12 (posiblemente igual a in�nito) el ex-tremo superior del rango de valores de una variable aleatoria X2; es decir,P (X2 < x12 ) = 1: Entonces: C(u1; 1) = F

�F�11 (u1); F

�12 (1)

�= F (x1; x

12 ) =

P (X1 � x1; X2 � x12 ) = P (X1 � x1) = F1(x1) = u1:

2.1 Cópulas condicionales

Sobre una cópula bivariante pueden de�nirse las funciones de distribución dedos cópulas condicionales:

C1j2(u1 j u2) = P (U1 < u1 j U2 = u2)C2j1(u2 j u1) = P (U2 < u2 j U1 = u1)

4

Page 5: Cópulas - UCM-Universidad Complutense de Madrid · Derivando en (1) con respecto a ambas variables tenemos una sencilla ex-presión para la función de densidad conjunta en tØrminos

que pueden obtenerse mediante derivación [ver Joe, Harry (1997). Mul-tivariate Models and Dependence Concepts. London, New York: Chapman&Hall/CRC]:

C1j2(u1 j u2) =@C(u1; u2)

@u2; C2j1(u2 j u1) =

@C(u1; u2)

@u1

Una copula condicional puede caracterizarse a través de sus cuantiles asoci-ados. Para un nivel de probabilidad q; la ecuación:

C2j1(u2 j u1) = q

de�ne u2 en función de q y u1; aunque puede no ser posible expresarla comouna función explícita. En general tendremos:

u2 = gq(u1)

donde gq es una función implícita o explícita que se conoce como la curva q-cuantil. Los grá�cos de curvas q-cuantiles para distintos valores de q constituyenun buen modo de visualizar el tipo de correlación generado por una copula.

2.2 Cotas superior e inferior de dependencia:

Como ya vimos, la cópula consistente con la independencia de variables en elcaso multivariante, sería:

C(u1; u2; :::; un) = u1u2:::un

de modo que la distribución de probabilidad conjunta es igual al productode las funciones de distribución marginales.La cópula cota superior (upper bound) de Fréchet es:

C(u1; u2; :::; un) = min (u1; u2; :::; un)

Ninguna otra copula puede tomar un valor superior al de esta copula. Cuandolas variables aleatorias están relacionadas de acuerdo con la copula upper boundde Fréchet, se dice que tienen dependencia positiva perfecta.La copula cota inferior (lower bound) de Fréchet es:

C(u1; u2; :::; un) =Max (u1 + u2 + :::+ un � n+ 1; 0)

aunque es una cópula unicamente para n = 2:Ninguna otra copula puedetomar un valor inferior a ésta, y corresponde al caso de dependencia perfectanegativa.Decimos que una copula implica dependencia positiva o negativa si converge

a una de las copulas de Fréchet según varia alguno de sus parámetros. Pero, porejemplo, la copula Gaussiana que de�nimos más abajo, no tiende a la copulaupper bound de Fréchet segun aumenta su coe�ciente de correlación hacia +1,ni tampoco converge a la copula lower bound de Fréchet segun su coe�ciente

5

Page 6: Cópulas - UCM-Universidad Complutense de Madrid · Derivando en (1) con respecto a ambas variables tenemos una sencilla ex-presión para la función de densidad conjunta en tØrminos

de correlación tiende a -1. En el caso de variables Normales, la dependenciacon comonotonía4 corresponde a una correlación perfecta positiva, mientas quela dependencia con contramonotonía corresponde a una correlación perfectanegativa.

2.3 Ejemplos de copulas

Como vimos antes, podemos deducir una copula a partir de cualquier función dedistribución multivariante. La cópula implicita que se obtiene a partir de dichadistribución nos da la dependencia entre las variables aleatorias que consider-amos que, a su vez, pueden tener cualquier tipo de distribución. De este modo,podemos combinar cualquier tipo de cópula con cualquier tipo de distribucionesmarginales, que tampoco necesitan ser iguales para todas las variables. Portanto, las cópulas proporcionan mucha �exibilidad en la modelización de la de-pendencia entre variables.

2.3.1 Cópula Gaussiana

La cópula Gaussiana se deriva a partir de una distribución Normal multivari-ante �n para la dependencia, junto con distribuciones marginales � asimismoNormales:

C(u1; u2; :::; un;�) = �n���1(u1); :::;�

�1(un)�

Puesto que utilizamos distribuciones N(0; 1); debermos aplicarlas a rentabil-idades previamente estandarizadas.Esta copula no admite una formula explicita, y solo puede ser representada

mediante una integral. Diferenciando en la expresión anterior tenemos la den-sidad de copula Gaussiana (o Normal):

c(u1; u2; :::; un;�) = j�j�1=2 exp��12�0���1 � In

��

�(2)

donde � denota la matriz de correlación y covarianzas (puesto que las vari-ables tienen varianza unitaria), y � =(�1; :::; �n)

0; siendo �i el cuantil ui de la

distribución N(0; 1) :

ui = P (N(0; 1) < �i); i = 1; 2; :::; n

La copula Gaussiana debe considerarse una función de u1; u2; :::; un a travésde �:Si queremos imponer una copula Gaussiana a variables que no tienen dis-

tribución Normal, procedemos del siguiente modo:

4Dos variables X;Y presentan comonotonía si existe otra variable aleatoria Z tal quetanto X como Y son transformaciones monótonas de Z, ambas crecientes o decrecientes.Presentan contra-monotonía cuando una de ellas es una transformación monótona crecientede Z mientras que la otra es una transformación monótona decreciente.

6

Page 7: Cópulas - UCM-Universidad Complutense de Madrid · Derivando en (1) con respecto a ambas variables tenemos una sencilla ex-presión para la función de densidad conjunta en tØrminos

� utilizando las marginales Fi, calculamos ui = Fi(xi)

� aplicamos la inversa de la distribución N(0; 1): �i = ��1(ui); para i =1; 2; :::; n

� utilizamos la matriz de correlaciones � y el vector � en la expresión de ladensidad de cópula (2) :

En el caso bivariante, n = 2 :

C(u1; u2; �) = �2���1(u1);�

�1(u2)�=

=

Z ��1(u1)

0

Z ��1(u2)

0

1

2�

1p1� �2

exp

��x

21 � 2�x1x2 + x222(1� �2)

�dx1dx2

por lo que:

c(u1; u2; �) =1p1� �2

exp

���

2�21 � 2��1�2 + �2�222(1� �2)

�(3)

donde �1 = ��1(u1); �2 = �

�1(u2) son los cuantiles de variables NormalesN(0; 1):La copula Gaussiana es simétrica: C(u1; u2) = C(u2; u1):Tiene dependencia

en las colas nula o muy baja, a no ser que las dos variables tengan correlaciónigual a 1, por lo que no es muy apropiada para modelizar la dependencia en-tre rentabilidades �nancieras. Además, las rentabilidades �nancieras parecenestar mas correlacionadas cuando son altas y negativas que cuando son altas ypositivas, lo que sugiere que la dependencia en las colas es asimétrica.A falta de datos sobre x1; x2;los gra�cos de las copulas Normal y t-Student

que se muestran a continuación se han obtenido a partir de una rejilla de valoresen el intervalo [0,1], y aplicando los pasos 2 y 3 del algoritmo descrito másarriba. Como vemos, una cópula no tiene el aspecto habitual de las funcionesde densidad: es generalmente elevada en las colas, indicando la importancia dela dependencia en las colas, y reducida en el centro del rango de valores de lasvariables aleatorias.

Copula Normal bivariante con � = 0; 5 Copula Normal bivariante con � = �0; 25

0

0,5

1

1,5

2

2,5

3

3,5

4

0

0,5

1

1,5

2

2,5

7

Page 8: Cópulas - UCM-Universidad Complutense de Madrid · Derivando en (1) con respecto a ambas variables tenemos una sencilla ex-presión para la función de densidad conjunta en tØrminos

Copula bivariante t-Studentcon � = 0; 5 y � = 4

0

1

2

3

4

5

2.3.2 Copulas t-Student

La cópula t-Student se deriva a partir de una distribución t-Student multivari-ante t� para la dependencia, junto con distribuciones marginales t�i asimismot-Student:

C(u1; u2; :::; un;�) = t��t�1�1 (u1); :::; t

�1�n (un)

�como puede observarse, los grados de libertad de las distribuciones t-Student

de las distribuciones marginales no necesitan ser los mismos. Esta cópula tam-poco acepta una expresión en forma cerrada.En el caso n = 2 , tenemos:

c(u1; u2; �) = K1p1� �2

�1 +

�21 � 2��1�2 + �22� (1� �2)

�� �+22 ��

1 + ��1�21� �1 + ��1�22

�� �+12

donde:

K = ���2

��

�� + 1

2

��2���2+ 1�

En el caso general, la densidad de la cópula t-Student es:

c(u1; u2; :::; un; �) = K1

j�j1=2�1 + ��1�0��1�

�� �+n2

nQi=1

�1 + ��1�2i

� �+12 (4)

donde:

� =�T�1� (u1); :::; T

�1� (un)

�K = �

��2

�n�1�

�� + 1

2

��n�

�� + n

2

8

Page 9: Cópulas - UCM-Universidad Complutense de Madrid · Derivando en (1) con respecto a ambas variables tenemos una sencilla ex-presión para la función de densidad conjunta en tØrminos

y donde � es el número de grados de libertad de la cópula.Si queremos construir una densidad conjunta:

f(x1; x2; :::; xn) = c(x1; x2; :::; xn)f1(x1):::fn(xn)

a partir de una copula t-Student con � grados de libertad, pero donde unao mas de las marginales no son t-Student con v grados de libertad, hemosde comenzar expresando la copula en función de (x1; x2; :::; xn) :Para ello, pro-cedemos como en el caso de la copula Gaussiana:

� utilizamos las distribuciones marginales, cualesquiera que sean, para obtenervariables u1; u2 con distribución uniforme

� aplicamos la inversa de la t-Student con �i grados de libertad a cada unade dichas distribuciones uniformes

� aplicamos (4)

2.3.3 Copulas de mixturas Normales

Una cópula de mixturas Normales es una mixtura de dos o más cópulas Nor-males. Los parámetros de la cópula son las matrices de correlaciones (una paracada cópula) y las probabilidades de mezcla. En el caso de dos variables y unamixtura de sólo dos distribuciones, tendríamos:

c(u1; u2;�; �1; �2) = �:cN (u1; u2; �1) + (1� �):cN (u1; u2; �2)

donde cN denota la cópula bivariante Normal.

c(u1; u2;�; �1; �2) = �1p1� �21

exp

���

21�21 � 2�1�1�2 + �21�222(1� �21)

�+

+(1� �) 1p1� �22

exp

���

22�21 � 2�2�1�2 + �22�222(1� �22)

�De este modo pueden conseguirse pautas de correlación especiales. Por ejem-

plo, si una de las dos correlaciones es positiva y la otra es negativa, entonces lasdos variables tendrán asociación en los 4 vértices.

9

Page 10: Cópulas - UCM-Universidad Complutense de Madrid · Derivando en (1) con respecto a ambas variables tenemos una sencilla ex-presión para la función de densidad conjunta en tØrminos

Cópula Mixtura de Normales�1 = 0; 50; �2 = �0; 50

2.3.4 Copulas Arquimedianas

Las cópulas Gaussiana y t-Student son cópulas implícitas, por lo que hemosobtenido sus densidades utilizando lo que se conoce como método de inversión.Un método alternativo se basa en una función generatriz (u); y se de�ne unacopula Arquimediana mediante:

C(u1; u2; :::; un) = �1 ((u1) + (u2) + :::+(un))

con función de densidad:

c(u1; u2; :::; un) = �1(n) ((u1) + (u2) + :::+(un))

nQi=1

0(ui)

donde �1(n) denota la derivada de orden n de la inversa de la función gener-atriz.Cuando la función generatriz es: (u) = � ln(u), tenemos la copula de

independencia. Más generalmente, puede utilizarse como función generatrizcualquier función que satisfaga: (1) = 0 y (u) �!1 según u �! 0:

Copula de Clayton Utiliza como función generatriz:

(u) = ��1�u�� � 1

�; � 6= 0

que tiene como inversa:5

�1(x) = (�x+ 1)�1=�

Como:

(u1) + (u2) + :::+(un) = ��1�

nPi=1

u��i � n�

5x = ��1�u�� � 1

�) 1 + �x = u�� ) u = (1 + �x)�1=�

10

Page 11: Cópulas - UCM-Universidad Complutense de Madrid · Derivando en (1) con respecto a ambas variables tenemos una sencilla ex-presión para la función de densidad conjunta en tØrminos

la función de distribución de la copula de Clayton resulta:

C(u1; u2; :::; un) =

�1 + ���1

�nPi=1

u��i � n���1=�

=�u��1 + u��2 + :::+ u��n � n+ 1

��1=�En el caso bivariante:

C(u1; u2) =�u��1 + u��2 + 1

��1=�y, diferenciando:

@

@u1=

�� 1�

�(��)u���11

�u��1 + u��2 + 1

��1=��1= u���11

�u��1 + u��2 + 1

��1=��1@2

@u1@u2= (1 + �)u���11 u���11

�u��1 + u��2 + 1

��1=��2por lo que, en el caso bivariante:

c(u1; u2) = (�+ 1)�u��1 + u��2 � 1

��2�(1=�)u���11 u���12

En general, con n > 2 :

@

@u1= u���11

�u��1 + u��2 + :::+ u��n � n+ 1

��1=��1@2

@u1@u2= (1 + �)u���11 u���12

�u��1 + u��2 + :::+ u��n � n+ 1

��1=��2@3

@u1@u2@u3= (1 + �) (1 + 2�)u���11 u���12 u���13

�u��1 + u��2 + :::+ u��n � n+ 1

��1=��3obtenemos la densidad de la copula de Clayton:

c(u1; u2; :::; un) =

�1� n+

nPi=1

u��i

��n�(1=�) nQj=1

�u���1j (�(j � 1) + 1)

�Una copula de Clayton tiene dependencia simétrica en las colas. De hecho,

tiene dependencia igual a cero en la cola superior pero dependencia positiva enla cola inferior cuando � > 0;con:

�l = 2�1=� si � > 0

= 0 si � � 0

lo que hace que al variar �; la copula de Clayton pueda recoger distintos gra-dos de dependencia, con dependencia positiva perfecta según � �! 1; puesto

11

Page 12: Cópulas - UCM-Universidad Complutense de Madrid · Derivando en (1) con respecto a ambas variables tenemos una sencilla ex-presión para la función de densidad conjunta en tØrminos

que converge a la copula upper bound de Fréchet. El siguiente grá�co ilustraclaramente la alta dependencia en la cola negativa para todo � > 0; �nito.

Cópula de Clayton con � = 0; 50 Cópula de Gumbel: � = 1; 25

Copula de Gumbel La copula de Gumbel es una copula Arquimediana con:

(u) = �(lnu)�; � � 1

con función inversa:6

�1(x) = exp�(�x)1=�

�Además:

(u1) + (u2) + :::+(un) = �nPi=1

(lnui)�

tenemos la copula de Clayton:

C(u1; u2; :::; un) = exp

��

nPi=1

(� lnui)��1=�!

por lo que la distribución de la cópula de Gumbel puede escribirse:

C(u1; u2; :::; un; �) = exp(�A(u1; u2; :::; un; �))

donde: A = ��

nPi=1

(� lnui)��1=�

Diferenciando obtendriamos la densidad de la copula de Gumbel.En el caso n = 2 tenemos:

C(u1; u2; �) = exp(�A(u1; u2; �))

donde: A =�(� lnu1)� + (� lnu2)�

�1=�; y diferenciando:

6x = �(lnu)� ) x1=� = � lnu) exp(�x1=�) = u

12

Page 13: Cópulas - UCM-Universidad Complutense de Madrid · Derivando en (1) con respecto a ambas variables tenemos una sencilla ex-presión para la función de densidad conjunta en tØrminos

c(u1; u2; �) = (A+ � � 1)A1�2� exp(�A)(u1u2)�1 (� lnu1)��1 (� lnu2)��1

La copula de Gumbel tiene dependencia positiva en la cola superior si � > 1:De hecho, �l = 0 y �u = 2 � 21=�: Según varía el parametro � la copula deGumbel recoge un rango de dependencia entre la independencia (para � = 1)hasta la dependencia perfecta positiva. Es decir, según � ! 1, la copula deGumbel converge a la copula upper bound de Fréchet. Para � > 1; muestra altadependencia en la cola positiva.

3 Uso de cópulas para simulación, estimación,cálculo de medidas de riesgo

Como ilustración de los métodos, vamos a considerar cópulas bivariantes, aunquelos razonamientos se extienden sin di�cultad a cópulas multivariantes.Cálculo de momentos y medidas de riesgo:

� A partir de observaciones (datos) de las variables X1; X2 (generalmente,rentabilidades) aplicando las funciones de distribución marginales, obten-emos: u1 = F (X1); u2 = F (X2):

� A partir de aquí, se aplica la cópula. Si se trata de una copula Normal,haríamos: �1 = ��1(u1); �2 = ��1(u2); y la expresión de la densidadde cópula (3). Si se utiliza una cópula t-Student, una vez que hemoscalculado u1 y u2; calculariamos: �1 = T�1v (u1); �2 = T�1v (u2); y apli-caríamos la densidad de cópula t-Student. Nótese que estamos utilizandoahora el mismo número de grados de libertad para las dos variables �,pues se trata de la distribución de la cópula, no de posibles distribucionesmarginales, que podrían tener distintos grados de libertad. Una cópulade mixtura de Normales se aplicaría de modo similar. Las cópulas deClayton y de Gumbel se aplicarían directamente a los valores numéricosu1 = F (X1); u2 = F (X2):

� Una vez que disponemos de las densidades, podemos calcular los momentosde la distribucion conjunta, o de una función de las dos variables aleatorias.

� Ejemplo [EII.2.6] En este ejemplo se utiliza una cópula Normal para dosactivos, con marginales t-Student previamente estimadas con diferentesgrados de libertad. Ello permite calcular la densidad de cópula, y tam-bién la densidad conjunta, multiplicando la anterior por las densidadest-Student.

� A continuación, para ponderaciones dadas para cada activo, podemos cal-cular la rentabilidad esperada de la cartera, tomando una rejilla (ri; rj)de rentabilidades posibles en R2:

13

Page 14: Cópulas - UCM-Universidad Complutense de Madrid · Derivando en (1) con respecto a ambas variables tenemos una sencilla ex-presión para la función de densidad conjunta en tØrminos

mXi=1

nXj=1

(wri + (1� w)rj) :�c(��1(Tv1(ri))�1

;��1(Tv2(rj))�2

):tv1(ri)tv2(rj) (5)

Igualmente, podemos calcular el momento de orden 2, incluyendo (wri + (1� w)rj)2en la suma anterior, y la varianza de la rentabilidad de la cartera: V ar(rc) =E(rc) � E(r2c ): Para estos cálculos, hay que tener en cuenta que la densidadconjunta antes calculada aplica a rentabilidades estandarizadas. Por tanto, acada elemento de la rejilla de R2 hay que multiplicar por la desviación tipicade la rentabilidad correspondiente y sumar su rentabilidad media. El resul-tado son las rentabilidades que aparecen en (5) : No es preciso modi�car lasprobabilidades conjuntas o marginales (el resto de la expresión).

� En el ejercicio [EII.2.6] se calcula el ratio de Sharpe y se estima cualdeberia ser la composicion de la cartera para maximizar el ratio de Sharpe.Se examina como cambian los resultados con la correlacion de la cópulaNormal, que es un parámetro a estimar, no es una variable de elección delanalista.

Simulación:Simulamos variables uniformes independientes, aplicamos la inversa de las

funciones de distribución marginales para generar "rentabilidades"��1 = F

�11 (u1); �2 = F

�12 (u2)

�,

y se genera, mediante matriz de Cholesky (o alguna alternativa) las correlacionesdeseadas entre las rentabilidades ��1; �

�2. A continuación se aplica la función

de distribución de cópula Fc y, por último, las inversas de las distribucionesmarginales: �1 = F

�11 (u1); �2 = F

�12 (u2): Así tenemos rentabilidades cuya cor-

relación está modelizada mediante la cópula Fc con marginales F1; F2:Representación grá�ca de densidades:No disponiendo de datos, se parte de una rejilla de valores de [0; 1]x[0; 1];

se aplica a cada punto (u1; u2) de dicha rejilla las inversas de las distribucionesmarginales F�11 ; F�12 para obtener (�1; �2) y, a continuación, la densidad decópula.

4 Distribuciones condicionales de cópulas y cur-vas de cuantiles

Para resolver muchas cuestiones relativas a la simulación de cópulas, así comopara su uso en regresión, necesitamos las distribuciones de cópula condicionales.Estas se representan mediante las curvas de cuantiles. La curva q�cuantil sede�ne:

P (X2 < �2 j X1 = �1) = qComo veremos mas adelante, las curvas q�cuantil se utilizan en modelos

de regresión cuando las variables involucradas se correlacionan mediante unadeterminada cópula.

14

Page 15: Cópulas - UCM-Universidad Complutense de Madrid · Derivando en (1) con respecto a ambas variables tenemos una sencilla ex-presión para la función de densidad conjunta en tØrminos

En el caso de una Normal bivariante �2 estándar, es decir, con � = 02;� =I2; sabemos que la distribución de probabilidad de una de las dos variables, Y;condicional en X = x; es Normal univariante, con:

E(Y j X = x) = �x; V ar(Y j X = x) = (1� �2)

por lo que, condicional en x; la variable aleatoria:

Z =Y � �xp1� �2

sigue una distribución N(0; 1):Esto sugiere la distribución condicional de lacópula Normal bivariante, que se obtiene derivando:

C1j2(u1 j u2) =@

@u2�2���1(u1);�

�1(u2)�= �

��1(u2)� ���1(u1)p

1� �2

!2 [0; 1]

(6)La curva q�cuantil de la cópula Normal con marginales N(0; 1) puede es-

cribirse explícitamente, �jando la cópula condicional C1j2(u1 j u2) en un valornumérico q 2 [0; 1]; y despejando:

u2 = �����1(u1) +

p1� �2��1(q)

�Utilizando las densidades marginales, podemos expresar la curva q-cuantil

en términos de las (�1; �2) :

�2 = ��1 +p1� �2��1(q)

que en este caso es una linea recta con pendiente � y constantep1� �2��1(q):

Si las marginales fuesesn Normales no estándar, tendríamos:

�2�2= �

�1�1+�2�2� ��1

�1+p1� �2��1(q)

y si las marginales fuesen distribuciones F1; F2 cualesquiera, tendriamos unacurva q-cuantil no lineal:

�2 = F�12

h�����1(F1(�1)) +

p1� �2��1(q)

�iSi (Y;X) siguen una distribución t-Student bivariante con v grados de lib-

ertad, entonces, condicional en x; la variable aleatoria:7rv + 1

v + x2Y � �xp1� �2

7Cherubini, U., Luciano, E., Vechiatto, W., (2004) Copula Methods in Finance, John Wileyand Sons.

15

Page 16: Cópulas - UCM-Universidad Complutense de Madrid · Derivando en (1) con respecto a ambas variables tenemos una sencilla ex-presión para la función de densidad conjunta en tØrminos

sigue una distribución t-Student con v + 1 grados de libertad. Por tanto,tenemos la distribución condicional de la cópula t-Student bivariante con mar-ginales t-Student:

C1j2(u1 j u2) = Tv+1

sv + 1

v +�t�1v (u1)

�2 T�1v (u2)� �:T�1v (u1)p1� �2

!= q

donde tv denota la función de distribución t-Student con v grados de libertad.Despejando, obtenemos la curva q�cuantil de la cópula t-Student:

u2 = Tv

0@�:T�1v (u1) +

s(1� �2)

v +�T�1v (u1)

�2v + 1

t�1v+1(q)

1Aque, a diferencia del caso Normal, no es una linea recta.Utilizando �1 = t�1v (u1); �2 = t�1v (u2); podemos escribir la expresión de la

curva q-cuantil:

�2 = �:�1 +

s(1� �2) v + �

21

v + 1T�1v+1(q)

Bajo marginales arbitrarias, utilizando ui = Fi(�i); i = 1; 2; tenemos laexpresión de la curva q-cuantil en coordenadas (�1; �2) :

�2 = F�12

24Tv0@�:T�1v (F1(�1)) +

s(1� �2) v + T

�1v (F1(�1))

2

v + 1T�1v+1(q)

1A35En el caso de una cópulla de mixtura de Normales, no podemos obtener una

expresión explícita para la curva q-cuantil, y hemos de utilizar la ecuación:

q = �:�

��1(u2)� �1:��1(u1)p

1� �21

!+ (1� �):�

��1(u2)� �2:��1(u1)p

1� �22

!

para obtener el valor numérico de u2 para cada u1 y cada q:En la cópula de Clayton, la cópula condicional está dada por:

C2j1(u2 j u1;�) =@

@u1

�u��1 + u��2 � 1

��1=�= u

�(1+�)1

�u��1 + u��2 � 1

��(1+�)=�por lo que igualando a q y despejando, obtenemos la ecuación de la curva q-cuantil:

u2 = C2j1(v j u1;�) =�1 + u��1

�q��=(1+�) � 1

���1=�16

Page 17: Cópulas - UCM-Universidad Complutense de Madrid · Derivando en (1) con respecto a ambas variables tenemos una sencilla ex-presión para la función de densidad conjunta en tØrminos

y en coordenadas (�1; �2) :

�2 = F�12

��1 + F1(�1)

���q��=(1+�) � 1

���1=��Como veremos más adelante, la cópula condicional inversa de Clayton se uti-

liza para simular rentabilidades con marginales uniformes que tienen dependen-cia de�nida por la cópula de Clayton. Sobre estas marinales podemos imponerla inversa de las funciones de distribución marginales deseadas, para obtenerrentabilidades con dichas distribuciones y densidad de cópula de Clayton.La distribución condicional de la cópula bivariante de Gumbel es:

C2j1(u2 j u1;�) =@

@u1exp

��h(� lnu1)� + (� lnu2)�

i1=��=1

u1(� lnu1)��1A1��e�A

A =h(� lnu1)� + (� lnu2)�

i1=�que no admite una representación analítica explícita. Lo que hay que hacer

es igualar esta expresión a q y resolver el valor numérico de u2:

5 Calibración de cópulas

5.1 Correspondencia entre copulas y coe�cientes de cor-relación de rangos

Puede probarse que el coe�ciente de correlación de rangos & de Kendall guardauna relación directa con una copula bivariante mediante:

� = 4

Z 1

0

Z 1

0

C(u1; u2)dC(u1; u2)� 1

de modo que en copulas dependientes de un solo parametro, esta ecuaciónproporciona un modo de calibrar dicho parámetro utilizando una estimaciónmuestral de � :Por ejemplo, en el caso de una copula Gaussiana, con % comoúnico parámetro, tenemos:

% = seno��2��

Este mismo resultado es válido para una copula t-Student, y para cualquiercopula eliptica.Para la copula Normal (Gaussiana) existe asimismo una relación con el co-

e�ciente de correlación de rangos de Spearman, �:

� = 12

Z 1

0

Z 1

0

u1u2dC(u1; u2)� 3

lo que conduce a:

17

Page 18: Cópulas - UCM-Universidad Complutense de Madrid · Derivando en (1) con respecto a ambas variables tenemos una sencilla ex-presión para la función de densidad conjunta en tØrminos

% = 2:seno��6��

Para copulas Arquimedianas, tenemos:

� = 1 + 4

Z 1

0

(x)

0(x)dx

por lo que para la copula de Gumbel tenemos:

� = 1� ��1 ) � =1

1� �mientras que para la copula de Clayton:

� =�

�+ 2) � = 2

1� �

5.2 Estimación por máxima verosimilitud

En la estimación por maxima verosimilitud pueden seguirse dos estrategias:a) estimar primero los parámetros de las distribuciones marginales para estimarluego los parámetros de la copula, lo que se conoce como Inferencia en el margen,o b) Estimar todos los parámetros, de las distribuciones marginales y de ladistribución de la copula, simultaneamente, lo que se conoce como estimaciónde Máxima Verosimilitud Canónica. El segundo metodo es, naturalmente, mase�ciente, pero también es más complejo computacionalmente.Supongamos que tenemos una cópula multivariante:

f(x1; x2; :::; xn;�;�) = c (F1(x1;�1); F2(x2;�2); :::; Fn(xn;�n);�)nQi=1

fi(xi;�i)

donde, solo por simplicidad, hemos supuesto que cada distribucion marginaldepende de un solo parámetro, � es el vector de parámetros de las distribu-ciones marginales, y � es el vector de parámetros de la distribución de la copula.Tomando logaritmos, tenemos:

lnL(�;�;x1;x2; :::;xT ) =

TXt=1

ln c (F1(x1t;�1); F2(x2t;�2); :::; Fn(xnt;�n);�) +

nXi=1

ln fi(xit;�i)

!

donde xt = (x1t; x2t; :::; xnt) es el vector de observaciones de las n variablesen el periodo t:Por tanto, tenemos:

lnL(�;�;x1;x2; :::;xT ) =TXt=1

ln c (F1(x1t;�1); F2(x2t;�2); :::; Fn(xnt;�n);�)+nXi=1

TXt=1

ln fi(xit;�i)

18

Page 19: Cópulas - UCM-Universidad Complutense de Madrid · Derivando en (1) con respecto a ambas variables tenemos una sencilla ex-presión para la función de densidad conjunta en tØrminos

que muestra que es posible maximizar el logaritmo de la funcion de verosimil-itud en dos etapas:

� calibrar los parámetros para cada densidad marginal, individualmente,utilizando maxima verosimilitud del modo habitual:

Max�i

TXt=1

ln fi (xit;�i) ; para i = 1; 2; :::; n

� calibrar los parámetros de la copula resolviendo el problema de opti-mización, condicionado en las estimaciones de los parámetros �i:

Max�

TXt=1

ln c (F1(x1t; �1); F2(x2t; �2); :::; Fn(xnt; �n);�)

Ejemplo: En el ejercicio [EII.6.4] se calibra una cópula t-Student y unacópula Clayton, en ambos casos con marginales t-Student. Para ello, se comienzaestandarizando las rentabilidades de los dos activos considerados. A contin-uación, se estima el número de grados de libertad de cada distribución mar-ginal. Luego, se maximiza la función de verosimilitud8 de la cópula t-Studentpara estimar el número de grados de libertad y la correlación de cópula. Paracalibrar la cópula de Clayton: se toma Tv1(�1); Tv2(�2); siendo �i; i = 1; 2;las rentabilidades estandarizadas, y se formula el logaritmo de la densidad de

cópula: c(u1; u2) = (�+1)�u��1 + u��2 � 1

��2�(1=�)u���11 u���12 ; que se agrega

en el tiempo y se maximiza sobre �:

5.3 Selección de copulas

Es posible calibrar una copula sin especi�car las distribuciones marginales. Loque hacemos es transformar las rentabilidades observadas en variables uniformesmediante la distribución marginal empírica de cada rentabilidad, y luego apli-camos máxima verosimilitud a la función de densidad de la cópula para estimarlos parámetros de la cópula. Este es el procedimiento de máxima verosimilitudcanónica.Un modo natural de comparar copulas estimadas con una determinada mues-

tra es comparar los valores máximos de la funcion de verosimilitud alcanzados

8

c(u1; u2; �) = K1p1� �2

�1 +

�21 � 2��1�2 + �22� (1� �2)

�� �+22 ��

1 + ��1�21� �1 + ��1�22

�� �+12

donde:

K = ���2

�n�1�

�� + 1

2

��n�

�� + n

2

�siendo �1; �2 las rentabilidades estandarizadas.

19

Page 20: Cópulas - UCM-Universidad Complutense de Madrid · Derivando en (1) con respecto a ambas variables tenemos una sencilla ex-presión para la función de densidad conjunta en tØrminos

con cada una de dichas copulas. Como habremos de tener en cuenta el númerode parametros de cada copula, una posibilidad es utilizar el criterio de informa-ción de Akaike (AIC) o el criterio Bayesiano de información (BIC):

AIC = 2k � 2: lnLBIC = T�1(k: lnT � 2: lnL)

siendo preferible la copula que proporcione un valor menor de dichos crite-rios.Alternativamente, podemos comparar el ajuste entre la copula teorica esti-

mada y la copula empirica. La cópula empírica se calcula del siguiente modo:Dados pares de observaciones muestrales (xt; yt); t = 1; 2; :::; T; ordenamos cre-cientemente las observaciones de una y otra variable, por separado, y denotamospor x(i); i = 1; 2; :::; T ; y(j); j = 1; 2; :::; T los estadisticos de orden resultantes.9

La función de distribución empirica de la copula se de�ne:

C

�i

T;j

T

�= T�1nij ; i; j = 1; 2; :::; T

siendo: nij = número de pares (x; y) tales que x � x(i) e y � y(j):Cuando hay empates, puede ser más sencillo calcular la distribución de la

copula acumulando bidimensionalmente los valores de la densidad empírica decopula, que se de�ne:

c

�i

T;j

T

�= T�1 si

�x(i); y(j)

�es un elemento de la muestra

= 0 en caso contrario, i; j = 1; 2; :::; T

Para seleccionar una copula en base a la bondad de ajuste, puede utilizarsela raiz del error cuadratico medio, es decir, la raiz cuadrada de las diferencias alcuadrado entre copula estimada y copula empirica. Seria, sin embargo, preferibleutilizar un criterio que enfatice la bondad de ajuste de la copula estimada enlas colas de la distribución de frecuencias observadas.

6 Simulación con cópulas

Acabamos de ver que para estimar una cópula, es frecuente estimar primerolas distribuciones marginales y luego estimar la dependencia entre las variables.En simulación suele procederse al revés: simulando primero la dependencia ydespués las marginales. Precisamente la virtud de las copulas es que las distribu-ciones marginales pueden ser totalmente diferentes de la distribución utilizadapara modelizar la dependencia.

9x(1) = min fx1; x2; :::; xT g ; x(2) es el segundo menor valor observado de X; y asi sucesi-vamente.

20

Page 21: Cópulas - UCM-Universidad Complutense de Madrid · Derivando en (1) con respecto a ambas variables tenemos una sencilla ex-presión para la función de densidad conjunta en tØrminos

6.1 Utilizando copulas condicionales en la simulación

Algoritmo 1

� simulamos (u1; u2; :::; un) de distribuciones uniformes independientes

� �jamos u�1 = u1 y aplicamos la inversa de la copula condicional C�12j1 paratransformar u2 en u�2 : u

�2 = C�12j1(u2 j u�1); de modo que (u1; u2) son

simulaciones de la cópula con marginales uniformes,

� �jamos u�1 y u�2;y aplicamos la inversa de la copula condicional C�13j1;2 paratransformar u3 en u�3 : u

�3 = C

�13j1;2(u3 j u�1; u�2)

� repitiendo para i = 3; 4; :::; n obtenemos simulaciones fu�1; u�2; ::; u�ng obtenidasde la cópula especi�cada, con marginales uniformes.

Hasta aqui, hemos introducido la dependencia de cópula en las realizacionesuniformes.

� Llevar los valores uniformes fu�1; u�2; ::; u�ng a las inversas de las distribu-ciones marginales

�F�11 (u�1); F

�12 (u�2); :::; F

�1n (u�n)

para obtener una re-

alización de las variables aleatorias buscadas

Como puede verse, este algoritmo separa el trabajo con la copula (pasos 2a 4) del trabajo con las marginales (paso 5), por lo que puede utilizarse parasimular cualquier copula de dependencia con cualquier tipo de marginales. Sinembargo, según aumenta el numero de variables, el algoritmo se hace bastanteine�ciente.Este algoritmo está especialmente indicado para simular copulas Arquime-

dianas. Para ello necesitaremos las inversas de las distribuciones condicionales,que en el caso de la copula de Clayton bivariante es:

u2 = C�12=1(v j u1) =

h1 + u��1 (v��=(1+�) � 1)

i�1=�Consideremos una cópula bivariante. Partiendo de numeros aleatorios uni-

formes independientes (u1; v) obtenemos u2 del modo que indica la últimaecuación. El par (u1; u2) son simulaciones de la copula con marginales uni-formes. Para obtener simulaciones de las variables aleatorias, utilizamos lasinversas de las marginales (F�11 (u1); F

�12 (u2)).

En el caso de la copula de Gumbel no hay formulacion explicita para lainversa de la distribucion condicional de copula. En su lugar, debemos utilizar:

v = C2=1(u2 j u1) = u�11 (� lnu1)��1A(1��)e�A

donde: A =�(� lnu1)� + (� lnu2)�

�1=�: Esta es una relación implicita, de

la que debemos obtener el valor numérico de u2 a partir de las dos uniformesindependientes (u1; v):

21

Page 22: Cópulas - UCM-Universidad Complutense de Madrid · Derivando en (1) con respecto a ambas variables tenemos una sencilla ex-presión para la función de densidad conjunta en tØrminos

6.2 Simulación con copulas elipticas

Cuando las marginales y la copula se deducen de la misma distribución elipticaconjunta, podemos pasar directamente del paso 1 al paso 5 en el esquema delalgoritmo anterior. Esto es lo que sucederia si suponemso que la distribuciónconjunta es Normal o t-Student multivariante. En ambos caso, utilizariamosel factor Cholesky de la matriz de covarianzas para generar un conjunto derentabilidades con distribución Normal multivariante o t-Student multivariante.Algoritmo 2

� simulamos (u1; u2; :::; un) a partir de distribuciones uniformes independi-entes

� obtenemos xi = F�1i (ui) y aplicamos la matriz de Cholesky de la matriz decovarianzas a fx1; x2; :::; xng para obtener una simulación fx�1; x�2; :::; x�ng

� si se necesita, calculamos u�i = Fi(x�i ) para obtener una simulación fu�1; u�2; :::; u�ngde la copula, con marginales uniformes. Recordemos que las simulacionesde una cópula toman valores en [0; 1]:

El algoritmo 1 es más general, por cuanto que puede aplicarse a cualquierconjunto de distribuciones para la copula y las marginales. Cuando puedenaplicarse ambos algoritmos, puede comprobarse que generan el mismo resultado.Los dos grá�cos que se muestran a continuación representan una simulacion

de una cópula bivariante, y han sido obtenidas mediante el Algoritmo 2, condos distribuciones de copula diferentes.

u1 �! x1 = ��1(u1) �! x�1 = Cholesky(x1; x2) �! u�1 = �c(x

�1) �! Figura1

u2 �! x2 = ��1(u2) �! x�2 = Cholesky(x1; x2) �! u�2 = �c(x

�2) �! Figura1

Figura 1 (Uniformes)

Simulations from Normal Copula with Correlation 0.7

0,0

0,2

0,4

0,6

0,8

1,0

0,0 0,2 0,4 0,6 0,8 1,0

u1 �! x1 = T�1�1 (u1) �! x�1 = Cholesky(x1; x2) �! u�1 = T�c(x

�1) �! Figura2

u2 �! x2 = T�1�2 (u2) �! x�2 = Cholesky(x1; x2) �! u�2 = T�c(x

�2) �! Figura2

22

Page 23: Cópulas - UCM-Universidad Complutense de Madrid · Derivando en (1) con respecto a ambas variables tenemos una sencilla ex-presión para la función de densidad conjunta en tØrminos

Figura 2 (Uniformes)

La muestra de la distribución Normal bivariante (x�1; x�2), con correlación

0,7, que ha generado la copula Normal de la Figura 1 se muestra en la Figura3:

u1 �! x1 = ��1(u1) �! x�1 = Cholesky(x1; x2) �! Figura3

u2 �! x2 = ��1(u2) �! x�2 = Cholesky(x1; x2) �! Figura3

Figura 3

(a) Bivariate Standard Normal Returns

­4

­3

­2

­1

0

1

2

3

4

­4 ­3 ­2 ­1 0 1 2 3 4

A partir de la realización de dicha copula Normal (Figura 1), aplicando lasinversas de distribuciones t�1-Student, t�2-Student obtenemos una realización devariables aleatorias con distribuciones marginales t-Student, relacionadas medi-ante una copula Normal. En este caso, hemos utilizado 5 grados de libertadpara cada una de las dos marginales (Figura 4).

u1 �! x1 = ��1(u1) �! x�1 = Cholesky(x1; x2) �! u�1 = �c(x

�1)! Figura1 �! T�1�1 (u

�1) �! Figura4

u2 �! x2 = ��1(u2) �! x�2 = Cholesky(x1; x2) �! u�2 = �c(x

�2)! Figura1 �! T�1�2 (u

�2) �! Figura4

23

Page 24: Cópulas - UCM-Universidad Complutense de Madrid · Derivando en (1) con respecto a ambas variables tenemos una sencilla ex-presión para la función de densidad conjunta en tØrminos

Figura 4 (Rentabilidades)

(c) Normal Copula, t5 Marginals

­4

­3

­2

­1

0

1

2

3

4

­4 ­3 ­2 ­1 0 1 2 3 4

Por otra parte, si a la realización de la cópula t�c �Student (Figura 2) apli-camos alternativamente, la inversa de una distribución t�m � Student; o la in-versa de una distribución Normal(0,1), obtenemos realizaciones de dos variablesrelacionadas mediante una cópula t-Student, respectivamente con marginalesNormal (Figura 5) o t-Student (Figura 6):

u1 �! x1 = T�1�1 (u1) �! x�1 = Cholesky(x1; x2) �! u�1 = T�c(x

�1)! Figura2 �! ��1(u�1) �! Figura5

u2 �! x2 = T�1�2 (u2) �! x�2 = Cholesky(x1; x2) �! u�2 = T�c(x

�2)! Figura2 �! ��1(u�2) �! Figura5

Figura 5 (Rentabilidades)

u1 �! x1 = T�1�1 (u1) �! x�1 = Cholesky(x1; x2) �! u�1 = T�c(x

�1)! Figura2 �! T�1�1 (u

�1) �! Figura6

u2 �! x2 = T�1�2 (u2) �! x�2 = Cholesky(x1; x2) �! u�2 = T�c(x

�2)! Figura2 �! T�1�2 (u

�2) �! Figura6

24

Page 25: Cópulas - UCM-Universidad Complutense de Madrid · Derivando en (1) con respecto a ambas variables tenemos una sencilla ex-presión para la función de densidad conjunta en tØrminos

Figura 6 (Rentabilidades)

(d) t7 Copula, t5 Marginals

­4

­3

­2

­1

0

1

2

3

4

­4 ­3 ­2 ­1 0 1 2 3 4

Por último, consideremos como obtener una realización de dos variables conmarginales Normales, relacionadas mediante una cópula de Clayton:

u1 �! u�1 = u1 �! ��1(u�1) �! Figura7

u2 �! u�2 = C2=1(v=u�1) � Clayton condicional �! ��1(u�2) �! Figura7

Figura 7 (Rentabilidades)

(e) Clayton Copula, Standard Normal Marginals

­4

­3

­2

­1

0

1

2

3

4

­4 ­3 ­2 ­1 0 1 2 3 4

La cópula de Gumbel se simularía de modo similar.

7 Aplicaciones

7.1 Aplicación: Cálculo del Valor en Riesgo

Al estudiar los modelos factoriales, ya vimos cómo podría estimarse el VaRmediante simulación Monte Carlo. Para ello, simulamos un largo número desendas de rentabilidades (o de P&L) de cada uno de los factores de riesgo de lacartera sobre el horizonte de riesgo. Aplicamos la proyección sobre los factoresa cada senda simulada, y obtenemos la rentabilidad (o P&L) de la cartera endicha senda. Finalmente, estimamos el VaR como el percentil inferior de ladistribución simulada de rentabilidades (o de la distribución de P&L).

25

Page 26: Cópulas - UCM-Universidad Complutense de Madrid · Derivando en (1) con respecto a ambas variables tenemos una sencilla ex-presión para la función de densidad conjunta en tØrminos

Vamos a hacer ahora un ejercicio similar para cópulas bivariantes. Lascopulas de Clayton y Gumbel, entre otras, permiten modelizar dependenciaasimétrica en ambas colas de una distribución bivariante, lo que es sin dudainteresante en el análisis �nanciero. Si tenemos una cartera con dos activos, osi podemos representar el riesgo de nuestra cartera mediante el uso de dos fac-tores, podemos utilizar cópulas para representar la dependencia entre ambos,y utilizar la copula estimada para calcular el VaR mediante simulación MonteCarlo. En el caso del modelo factorial, el uso de las betas de la cartera nospermitiria calcular posteriormente el VaR de la cartera.Para ello, tendremos que especi�car el tipo de distribuciones marginales, asi

como el caracter de la distribución de la copula (por ejemplo, copula t-Studentcon marginales Normales). Una vez estimada dicha copula, simulamos la copulaestimada con las marginales especi�cadas, aplicamos los pesos de la carteraa los pares de valores simulados, nos aseguramos de transformarlos de modoque tengan las volatilidades de los activos o factores utilizados, y estimamos elcuantil deseado de la distribución bivariante simulada.Ejemplo 1 : Supongamos dos factores, ambos con distribución marginal Nor-

mal, para los que estimamos una copula t-Student. Una vez estimadas lasmarginales y la copula, el calculo del VaR, utilizando el Algoritmo 1, sería:

� simulamos uniformes independientes (u1; u2)

� aplicamos las inversas de las funciones de distribución marginales paraconvertirlas en t-Student aún independientes (con distintos grados de lib-ertad): (x1; x2) =

�T�1�1 (u1); T

�1�2 (u2)

�� las transformamos en t-Student dependientes (x�1; x�2) mediante la matrizCholesky de la matriz de correlaciones de los dos factores.

� aplicamos la función de distribución de la copula a ambas variables (u�1; u�2) =(Tc(x

�1); Tc(x

�2))

Hasta aquí tenemos variables uniformes en [0; 1] con la correlación deseada.Es una realización de una cópula t-Student con correlación %.

� aplicamos las inversas de las densidades marginales (x�1; x�2) =���1(u�1);�

�1(u�2)�

y multiplicamos por las desviaciones tipicas estimadas

� aplicamos las ponderaciones para obtener observaciones sobre la rentabil-idad de la cartera

� calculamos el VaR de dichas observaciones

Ejemplo 2 : supongamos que los dos factores tienen distribución marginalNormal, y que estimamos una copula Gaussiana. Una vez estimadas las dis-tribuciones marginales y la distribución de la copula, el calculo del VaR, apli-cando el Algoritmo 2, sería:

26

Page 27: Cópulas - UCM-Universidad Complutense de Madrid · Derivando en (1) con respecto a ambas variables tenemos una sencilla ex-presión para la función de densidad conjunta en tØrminos

� simulamos uniformes independientes (u1; u2)

� aplicamos las inversas de las funciones de distribución marginales paraconvertirlas enN(0; 1) aún independientes: (x1; x2) =

���1(u1);�

�1(u2)�

� las transformamos en variables N(0; 1) dependientes (x�1; x�2) mediante lamatriz Cholesky de la matriz de correlaciones de los dos factores.

� aplicamos la función de distribución de la copula a ambas variables (u�1; u�2) =(�(x�1);�(x

�2)) :

10

Hasta aquí tenemos variables uniformes en [0; 1] con la correlación deseada.Es una realización de una cópula Gaussiana con correlación %.

� ahora aplicaríamos las inversas de las densidades marginales (x�1; x�2) =���1(u�1);�

�1(u�2)�; con lo que llegamos a los mismos valores del punto

3.

� multiplicamos por las desviaciones tipicas estimadas

� aplicamos las ponderaciones para obtener observaciones sobre la rentabil-idad de la cartera

� calculamos el VaR de dichas observaciones

Ejemplo 3 : supongamos que los dos factores tienen distribución marginalNormal, y que modelizamos su dependencia mediante una copula Clayton.Supuestamente, habremos estimado una valor numérico de � que genere unacorrelación en las simulaciones similar a la correlación que hemos impuesto enlas copulas anteriores, Normal o t-Student. En su simulación utilizaremos lasdensidades de copula condicionales. Una vez estimadas las marginales y la cop-ula, el calculo del VaR se basa en una simulación mediante el Algoritmo 1:

� simulamos variables uniformes independientes: u1; v (las mismas de losejemplos previos)

� utilizamos la densidad condicional: u2 = C�12=1(v j u1) =�1 + u��1 (v��=(1+�) � 1)

��1=�para generar observaciones sobre u2: Asi tenemos una realización de unacopula de Clayton con marginales uniformes.

� aplicamos las inversas de las funciones de distribución marginales para con-vertirlas en N(0; 1) dependientes: (x1; x2) =

���1(u1);�

�1(u2)�:Estas

dos variables no tendrán una distribución conjunta Normal bivariante,puesto que la dependencia en la cola inferior será elevada.

� multiplicamos por las desviaciones tipicas estimadas

� aplicamos las para obtener observaciones sobre la rentabilidad de la cartera

� calculamos el VaR de dichas observaciones10Como en ocasiones anteriores, u�1 = u1:

27

Page 28: Cópulas - UCM-Universidad Complutense de Madrid · Derivando en (1) con respecto a ambas variables tenemos una sencilla ex-presión para la función de densidad conjunta en tØrminos

7.2 Aplicación: Distribución de la suma

En la evaluación del riesgo de una institución �nanciera, es natural que surjala necesidad de calcular el riesgo agregado de posiciones en varios activos ocarteras. Para ello, será necesario caracterizar la distribución de probabilidadde la suma de rentabilidades, conociendo la distribución de cada una de ellaspor separado. Matemáticamente, la operación se conoce como convolución.Si dos variables X1; X2 tienen distribución conjunta f(x1; x2); entonces, de-

notando por Y su suma, tenemos la densidad:

h(y) =

Zx1

f(x1; y � x1)dx1 =Zx2

f(y � x2; x2)dx2

lo cual se puede generalizar a 3 o 4 variables:

h(y) =

Zx1

Zx2

f(x1; x2; y � x1)dx1dx2

h(y) =

Zx1

Zx2

Zx3

f(x1; x2; x3; y � x1)dx1dx2dx3

expresiones que nos proporcionan la función de densidad de Y = X1+X2+X3o de Y = X1 +X2 +X3 +X4: Por ejemplo, si:

f(x1; x2; x3) = exp(�(x1 + x2 + x3)); x1 > 0; x2 > 0; x3 > 0;

entonces:

h(y) =

Z y

0

Z y�x3

0

e�ydx2dx3 =1

2y2e�y; y > 0

Ejemplo [EII.6.6] Consideremos dos variables aleatorias con distribuciónGamma(8; 1) y Gamma(10; 0,6) respectivamente. La hoja de cálculo describecomo obtener la función de densidad de su suma, modelizando la correlaciónentre ellas por medio de una cópula Normal y suponiendo que dicha correlaciónes a) 0,5, b) -0,5.Para ello, hemos de aplicar la densidad de cópula Normal a dos variables

obtenidas despues de aplicar ��1 a dos uniformes previamente generadas conla dependencia deseada. En este caso, son independientes (aunque no se dicenada al respecto en el enunciado). Comenzamos aplicando las funciones dedistribución11 marginales G1(8; 1); G2(10; 0:6);al rango elevante de avrlores enla recta real, obteniendo variables uniformes u1; u2 en (0,1). Aplicamos ��1 aambas uniformes, obteniendo �1; �2; a los que aplicamos la cópula Gaussiana.De este modo, obtenemos la densidad de cópula, c(�1; �2):

11En Excel, la instruccion DISTR.GAMMA(celda;alfa;beta;opcion) requiere introducir losvalores numéricos de los parámetros alfa y beta de la distribución de probabilidad GAMMA.Si la "opción" es 1, proporciona la función de distribución. Si es igual a 0, proporciona elvalor numérico de la función de densidad.

28

Page 29: Cópulas - UCM-Universidad Complutense de Madrid · Derivando en (1) con respecto a ambas variables tenemos una sencilla ex-presión para la función de densidad conjunta en tØrminos

Aplicamos a continuacion las densidades marginales Gamma g1; g2 a lo largode la recta real y multiplicamos por la densidad de cópula: c(�1; �2)g1(�1)g(�2),obteniendo la funcion de densidad bivariate. Finalmente, acumulamos las prob-abilidades (valores numéricos de la densidad), siguiendo las indicaciones de laintegral de convolución.Posteriormente, se propone el mismo ejercicio, esta vez utilizando una cópula

de mixtura de Normales para modelizar la correlación entre X1 y X2: Las dosdistribuciones Normales son las dos anteriores, con � = 0; 5 y � = �0; 5:Seprueba que hay dos modos de proceder:

� generando la densidad de la cópula de mixtura mediante combinaciónlineal de las dos densidades anteriores c(�1; �2) = �:c1(�1; �2) + (1 ��):c2(�1; �2): Seguidamente, tomamos la recta real, calculamos las den-sidades marginales g1; g2; y multiplicamos por la densidad de cópula antescalculada: c(�1; �2):g1(�1):g(�2); cuyos valores numéricos agregamos ade-cuadamente para obtener la densidad de la suma de ambas variables,

� agregando directamente las funciones de densidad de la suma X1 + X2obtenida bajo ambos valores de �:

7.3 Aplicación: Gestión de carteras

Para calcular las características de los resultados proporcionados por una carterapodemos seguir varias opciones. Una posibilidad sería construir hacia el pasadouna serie temporal de rentabilidades de la cartera utilizando las ponderacionesactuales. Pero esto puede ser complicado si hay valores que no han cotizado mu-cho tiempo. Alternativamente, podriamos utilizar la matriz de correlaciones delas rentabilidades de los activos de lacartera para, suponiendo algun tipo de dis-tribución conjunta, como la Normal multivariante, calcular alguos estadísticos,como el VaR. Pero supuestos como el de Normalidad pueden resultar bastantecontrarios a la evidencia empírica. En este punto, las cópulas pueden ayudar, alpermitir recoger asimetrias en la correlación, así como la posibilidad de fuertesdependencias en las colas de la distribución.[EII.6.4] [EII.6.8] Consideremos un inversor que tiene una posición en FTSE,

y desea reducir su riesgo tomando asimismo una posición en el índice de volatil-idad Vftse. Durante el periodo muestral de que dispone, las rentabilidadesanualizadas promedio del FTSE y Vftse fueron, respectivamente, 10,52% y -4,11%, con volatilidades promedio de 10,52% y 83,10%. A pesar de ello, el Vftsepuede proporcionar cierta cobertura porque, aunque las posiciones en volatil-idad ofrezcan a menudo rentabilidades negativas, las posiciones en volatilidadtienen habitualmente una correlación negativa y elevada con las posiciones enacciones.En este caso, comenzamos estandarizando ambas rentabilidades y ajustando

a cada una de ellas una distribución t-Student estandarizada, que resulta en 6,18grados de libertad para el FTSE y 5,02 para el Vftse [EII.6.4]. Es decir, estamossuponiendo que las rentabilidades siguen una distribución t-Student. A contin-uación, calibramos una copula t-Student de dos modos diferentes: uno, menos

29

Page 30: Cópulas - UCM-Universidad Complutense de Madrid · Derivando en (1) con respecto a ambas variables tenemos una sencilla ex-presión para la función de densidad conjunta en tØrminos

e�ciente estadisticamente, pero mas simple computacionalmente, que calibraprimero el parámetro de correlación � y luego utiliza maxima verosimilitud paraestimar el número de grados de libertad �; o estimar por maxima verosimilitudsimultáneamente ambos parametros. El primer metodo proporciona un coe�-ciente de correlación de Spearman de -0,689, por lo que: � = �0; 706;y unosgrados de libertad � = 6; 68; con logaritmo de la función de verosmilitud 538,91.El segundo método conduce a: � = 0; 795; � = 6; 66; con loglik = 555; 31, logi-camente mas elevado.En la segunda parte del ejercicio, vamos a caracterizar la cartera invertida

en ambos indices que maximiza el ratio de Sharpe. Para ello, a diferencia delejercicio anterior, vamos a utilizar la cópula Gaussiana, con las marginales t-Student que ya hemos estimado.Establecemos una partición �na (x) en la recta real, representando posibles

rentabilidades, y en cada elemento de dicha particion calculamos el valor decada una de las dos distribuciones t-Student marginales,12 T�1(x1i); T�2(x2j);en el rango relevante de rentabilidades, obteniendo dos variables con distribu-ción uniforme en [0; 1]. A continuación, aplicamos la inversa de la distribuciónN(0; 1);para obtener R1i � �1i = ��1(u1i); R2j � �2j = ��1(u2j); y calculamosel valor de la densidad de cópula Gaussiana con la correlación � deseada paralos pares (R1; R2): c(�1i; �2j ; �) � c(��1(u1i);��1(u2j); �).Consiideramos de nuevo los rangos relevantes de rentabilidades y aplicamos

las densidades marginales, t-Student t�1(x1i); t�2(x2j); para calcular en cada par(x1i; x2j) la densidad conjunta de ambas variables :

f(x1i; x2j) = t�1(x1i):t�2(x2j):c(��1(u1i);�

�1(u2j); �):

Finalmente, calculamos la rentabilidad de la cartera: rij = !(x1i�1 + �1) +(1 � !)(x2i�2 + �2) , su esperanza: E(r) =

Pi

Pj

rij :f(x1i; x2j) y la esperanza

matemática de las rentabilidades al cuadrado: E(r2) =Pi

Pj

r2ij :f(x1i; x2j); la

desviación típica: �c =pE(r2)� [E(r)]2; y el ratio de Sharpe: 250:E(r)�0;05p

250:�c;

que maximizamos con respecto a !:Con el nivel de correlación previamente estimado, � = �0; 795; la cartera

óptima se obtiene invirtiendo 91,4% del capital en FTSE y el restante 8,6% enVftse. Es interesante ver como cambiaría la composición de la cartera óptimaen función del nivel de correlación, lo que se ilustra en el siguiente grá�co:

12Recordemos que cada una de las dos rentabilidades sigue una distribución t-Student condistintos grados de libertad.

30

Page 31: Cópulas - UCM-Universidad Complutense de Madrid · Derivando en (1) con respecto a ambas variables tenemos una sencilla ex-presión para la función de densidad conjunta en tØrminos

88%

90%

92%

94%

96%

98%

100%

102%

­1 ­0,8 ­0,6 ­0,4 ­0,2 01

1,5

2

2,5

3

3,5

4

4,5

Weight on FTSESR

8 Cópulas en regresiones cuantílicas no lineales

31