6. comportamiento limite
DESCRIPTION
Notas de Probabilidad II ley de los grandes numerosTRANSCRIPT
-
Tema 6. Comportamiento lmite de sucesiones de vari-ables aleatorias
Guadalupe Carrasco LiceaNoviembre de 2013
Introduccin
Hasta aqu hemos estudiado el comportamiento de una variable aleatoria o de un vectorde variables aleatorias. Ahora vamos a estudiar sucesiones de variables aleatorias, es decir,colecciones numerables de este tipo de variables fX1; X2; X3; : : : g ; y un aspecto importantede este estudio es la convergencia.Como sabemos, una variable aleatoria es simplemente una funcin (medible) del espaciomuestral a los reales, as que una primera conjetura que se antoja plausible es que podemosaplicar la denicin de convergencia de una sucesin de funciones a una sucesin de variablesaleatorias.Empecemos por ver cmo se dene la convergencia de una sucesin de funciones.
Convergencia determinista de sucesiones de funciones
Hay dos formas en que podemos analizar la convergencia determinista de sucesiones defunciones.Consideremos una sucesin ffng de funciones denidas sobre A R y sea f otra funcindenida en el mismo dominio. Una idea consiste en analizar la convergencia de la sucesin denmeros ffn (x)g para cada x 2 A: Si en todos los elementos del dominio ffn (x)g convergea f (x) ; diremos que la sucesin de funciones converge puntualmente a f:
Denicin 0.1 Sea ffng de funciones denidas sobre A R y sea f otra funcin denidaen el mismo dominio. Si
limn!1
fn (x) = f (x) para toda x 2 A:
diremos que la sucesin de funciones converge puntualmente a f; cosa que se escribe as:
limn!1
fn = f:
1
-
f5f3
f4
f1
f2
x
Otra idea consiste en trasladar la denicin de convergencia de nmeros a las grcas delas funciones, es decir, tomar una franja de radio " alrededor de la grca de f y pedir quea partir de algn subndice N 2 N todas las grcas de las funciones con subndice mayorcaigan en esta franja. A esto se le conoce como convergencia uniforme.
Denicin 0.2 Sea ffng una sucesin de funciones denidas sobre A R; y sea f unafuncin tambin denida sobre A: f es el lmite uniforme de fn sobre A si para cada " > 0existe algn N tal que, para todo x 2 A;
jfn (x) f (x)j < " para toda n > N:
ee
Veamos la diferencia entre estas dos formas de convergencia en un ejemplo. Consideremosla sucesin de funciones dada por:
fn (x) =
xn si 0 x < 11 si x 1
2
-
se ve que, para 0 x < 1; limn!1 fn (x) = limn!1 xn = 0: Por otro lado, para x 1;limn!1 fn (x) = limn!1 1 = 1: Es decir, puntualemnte, las imgenes de nuestras funcionesfn (x) convergen siempre, y podemos tomar como funcin lmite la denida por
f (x) =
0 si 0 x < 11 si x 1
Sin embargo, la sucesin de funciones ffng no convergen uniformemente como se ve en lasiguienta grca
Observen que para una " < 12, las franjas alrededor de f no contienen a las grcas de las
funciones fn nunca. Se ve en las grcas que todas las funciones fn tienen como imagen dealgn x 2 (0; 1) al 1
2; sin embargo ninguna franja alrededor de f con " < 1=2 incluye a esa
imagen.
Proposicin 0.3 Si una sucesin de funciones ffng converge uniformemente a f , entoncestambin converge puntualmente a f:
El ejemplo anterior muestra que el recproco de esta proposicin no se cumple.Tratemos de aplicar estas deniciones de convergencia a una sucesin de variables aleatorias.
Ejemplo 0.4 Consideremos el espacio de probabilidad ((0; 1] ;B (0; 1] ; P ) donde P es lamedida que asocia a cada subintervalo, su longitud. Denimos la sucesin fXng mediante:
X1 = I(0;1]
X2 = I(0;1=2] X3 = I(1=2;1]
X4 = I(0;1=3] X5 = I(1=3;2=3] X6 = I(2=3;1]
X7 = I(0;1=4] X8 = I(1=4;2=4] X9 = I(2=4;3=4] X10 = I(3=4;1]
3
-
y as sucesivamente. Es decir, Xn = I( jn1kn ;jnkn] para algn par de naturales jn kn:
Se ve que las variables aleatorias Xn son cada vez ms parecidas a la variable constante iguala cero:
Analicemos la denicin de convergencia puntual en este ejemplo. Para cualquier ! en (0; 1]se tiene que X1 (!) = 1: Como ! est en alguno de los dos medios que forman el intervalo,una de las imgenes X2 (!) ; X3 (!) es cero y la otra es 1. Como ! est en alguno de lostercios del intervalo, una de las imgenes X4 (!) ; X5 (!) ; X6 (!) es 1 y las otras dos soncero. Y as sucesivamente, es decir, las imgenes brincan todo el tiempo entre los valores 0y 1: Aunque aumentando cada vez ms el nmero de cero, por lo que la sucesin de nmerosfXn (!)g no es convergente. De manera que de no hay convergencia puntual y, por tanto,tampoco hay convergencia uniforme.
En resumen, aunque intuitivamente vemos que la sucesin de variables aletorias del ejemploanterior converge a la variable constante cero, las deniciones de convergencia deterministade sucesiones de funciones nos dicen que no puede haber convergencia. La razn de esto esque el azar no cabe en la denicin determinista de convergencia. Por ello, se requiere unaforma distinta de denir la convergencia de sucesiones de variables aleatorias.
4
-
Distintas formas de convergencia de variables aleatorias
Hay varias formas de denir la convergencia de una sucesin fXng de variables aleatorias,denidas todas ellas sobre el mismo espacio muestral : Aqu veremos tres de ellas y en latarea examen analizarn algunas otras.
Convergencia en probabilidad
Sea fX1; X2;X3; : : : g una sucesin de variables aleatorias denidas sobre y X otra vari-able aleatoria denida en : La idea de esta denicin es pedir que para n grande. conprobabilidad pequea, Xn se encuentra lejos de X:
Denicin 0.5 La sucesin fXng converge en probabilidad a X; lo que escribimos comoXn
P! X; si para cada " > 0 se cumple quelimn!1
P (jXn Xj > ") = 0:
En palabras, la convergencia en probabilidad se da cuando para n grande Xn se aleja de Xcon probabilidad muy pequea.
Ejemplo 0.6 Analicemos de nuevo el ejemplo anterior, en el cual Xn = I( jn1kn ;jnkn]: Ntese
que kn ! 1 cuando n ! 1; es decir, el denominador de las fracciones va creciendo alcrecer el subndice de la variable.Calculando la longitud favorable entre la longitud total, se tiene que ,
P (Xn = 1) =1
kn; P (Xn = 0) = 1 1
kn
De ah que para una " < 1; P (jXnj > ") = 1=kn; de donde conclumos que
limn!1
P (jXnj > ") = 0; es decir, Xn P! 0:
Ejemplo 0.7 Ahora tomemos = [0; 1] y usemos nuevamente la medida de Lebesgue paraanalizar la convergencia de la sucesin cuyo trmino general es Xn = I(0;1=n]; o sea,
Xn (!) =
1 si ! 1=n0 en otro caso
5
-
Aqu tambin se ve que la sucesin converge en probabilidad a la constante X = 0: Paravericarlo tomemos una 0 < " < 1: Para cualquier Xn tenemos:
As que:
P (jXnj > ") =1=n si " < 10 en otro caso
Entonces limn!1 P (jXnj > ") = 0 y, por tanto, Xn P! X:Fjense que, como sucesin de funciones, las Xn convergen puntualmente a la variable Xdada por
X (!) =
1 si ! = 00 en otro caso
porque Xn (0) = 1 para toda n: Sin embargo, esto no afecta la convergencia en probabilidad.
Ejemplo 0.8 Tomando otra vez = (0; 1] y la misma medida de probabilidad que en elejemplo anterior, consideremos ahora la sucesin de variables aleatorias dadas por
Xn (!) =
I(0;1=n] si n es imparI(1=n;1] si n es par
Observemos cmo son las variables de la sucesin:
6
-
Se ve que el comportamiento lmite es diferente para las n pares que para las impares. Cuandon es impar se ve que se van hacia X = 0; mientras que si n es par, se van hacia X = 1.Entonces tomando X = 0 como variable lmite, tendramos que, para " < 1;
P (jXnj > ") =
1=n si n es impar1 (1=n) si n es par
y limn!1 P (jXnj > ") :no existe. Por otro lado, tomando X = 1 como variable lmite y" < 1;
P (jXn 1j > ") =1 (1=n) si n es impar1=n si n es par
y limn!1 P (jXn 1j > ") no existe. Para cualquier otro posible valor de la variable lmite,se tiene que el lmite no existe Por lo tanto, fXng no converge en probabilidad.Aunque no haremos aqu las demostraciones correspondientes, cabe destacar que la conver-gencia en Probabilidad tiene propiedades semejantes a la convergencia determinista.
Proposicin 0.9 1. Si XnP! X y Xn P! Y; entonces P (X = Y ) = 1; es decir, X y Y
son iguales excepto en un conjunto de probabilidad cero.
2. Si XnP! X; cualquier subsucesin de fXng converge en probabilidad a X:
3. Si XnP! X y c es una constante, entonces cXn P! cX:
4. Si XnP! X y Yn P! Y; entonces
(a) Xn + YnP! X + Y
(b) XnYnP! XY:
Convergencia casi segura (o con probabilidad 1)
En esta forma de convergencia, lo que se pide es que Xn converja deterministamente (pun-tualmente) a X; excepto en un conjunto de probabilidad cero.
Denicin 0.10 Una sucesin de variables aleatorias fXng converge casi seguramente a X;lo que escribimos Xn
cs! X; siPlimn!1
Xn = X= 1;
donde limn!1Xn = X , limn!1Xn (!) = X (!) para toda ! 2 :
7
-
En palabaras, la convergencia casi segura implica que el conjunto de ! 2 para los cualesno hay convregencia puntual, tiene probabilidad cero. De la denicin se desprende que aeste tipo de convergencia tambin se le puede llamar convergencia con probabilidad 1.Revisemos los ejemplos anteriores para el caso de la convergencia casi segura.
Ejemplo 0.11 En el ejemplo 0.4, vimos que no hay convergencia puntual de las funcionesXn (!) para ningn ! 2 (0; 1] ; as que no hay convergencia casi segura (el conjunto de ! endonde no hay convergencia puntual es todo (0; 1]):
Este ejemplo muestra que la convergencia en probabilidad no implica la convergencia casisegura.
Ejemplo 0.12 Sea = [0; 1] yXn = I[0;1=n]: Como vimos antes, se cumple que limn!1Xn (!) =0 para toda ! 2 (0; 1] ; as que el nico ! para el que no se cumple la convergencia a 0 es! = 0 y se tiene que P (limn!1Xn = 0) = 1, es decir, Xn
cs! 0:
Ejemplo 0.13 En el mismo espacio muestral, analicemos ahora
Xn (!) =
I(0;1=n] si n es imparI(1=n;1] si n es par
Como vimos antes, limn!1Xn (!) no existe para ningn ! 2 (0; 1] ; de manera que noconverge casi seguramente.
Como en el caso anterior, la convergencia casi segura tiene propiedades semejantes a la dela convergencia determinista.
Proposicin 0.14 1. Si Xncs! X y Xn cs! Y; entonces P (X = Y ) = 1; es decir, X y Y
son iguales excepto en un conjunto de probabilidad cero.
2. Si Xncs! X; cualquier subsucesin de fXng converge en probabilidad a X:
3. Si Xncs! X y c es una constante, entonces cXn cs! cX:
4. Si Xncs! X y Yn cs! Y; entonces
(a) Xn + Yncs! X + Y
(b) XnYncs! XY:
Convergencia en distribucin
Sabemos que para cada variable aleatoria, existe una funcin de distribucin, de manera quefXng genera una sucesin de funciones de distribucin fFXng : En esta forma de convergenciase pide que la sucesin de funciones de distribucin converja puntualmente a la funcinde distribucin de la variable aleatoria lmite. Sin embargo, existe el problema de quelas funciones de distribucin pueden tener discontinuidades de salto, donde se diculta laconvergencia, as que la denicin queda as:
8
-
Denicin 0.15 Una sucesin de variables aleatorias fXng converge en distribucin a lavariable aleatoria X, cosa que escribimos Xn
D! X; silimn!1
FXn (x) = FX (x) para todo x 2 R donde FX sea continua.
Volvamos sobre nuestros ejemplos anteriores.
Ejemplo 0.16 En el caso en que Xn = I(0;1=n]; la funcin de distribucin correspondientees
FXn (x) = P (Xn x) =8
-
y para n par
FXn (x) = P (Xn x) =8
-
Demostracin. De la denicin de convergencia en distribucin, se sigue inmediatamenteque FX (z) = FY (z) para cualquier real z en el que FX y FY sean continuas. Pero como elconjunto de discontinuidades de FX y de FY es numerable, entonces el conjunto de reales enlos que tanto FX como FY son continuas, es denso en R:La conclusin se sigue entonces dela continuidad por la derecha de FX y de FY :
Proposicin 0.20 Si XnD! X y c es una constante, entonces
1. cXnD! cX
2. Xn + cD! X + c
Relacin entre modos de convergencia de variables aleato-rias
De los ejemplos, se ve que la convergencia casi segura es la ms fuerte (la ms restrictiva),aunque la relacin entre la convergencia en probabilidad y la convergencia en distribucinno se alcanza a descubrir en lo que hemos visto. En realidad lo que vamos a demostrar esque, como se ve en la gura ??, la convergencia casi segura es la ms fuerte, le sigue laconvergencia en probabilidad y, la ms dbil es la convergencia en distribucin.
En distribucin
En probab.
CS
Modos de convergencia
El ejemplo 0.6 de la seccin anterior muestra que la convergencia en probabilidad no implicala convergencia casi segura. Veamos con un ejemplo que la convergencia en distribucintampoco implica la convergencia en probabilidad.
Ejemplo 0.21 Sea X una variable aleatoria con distribucin normal estndar y, para cadan 2 N; denamos
Xn =
X si n es imparX si n es par
11
-
Como la normal es simtrica, las variables aleatorias X y X tienen ambas distribucinnormal estndar, as que FXn (x) = FX (x) para toda x y se tiene convergencia en distribucinde la sucesin fXng :a X con distribucin normal estndar. Por otro lado, como las variablespares de la sucesin son iguales a X; tenemos que jX2n Xj = j2Xj = 2 jXj paracualquier n 2 N; as que
P (jX2n Xj > ") = P (2 jXj > ") = PjXj > "
2
para cualquier " > 0: Por lo tanto
limn!1
P (jX2n Xj > ") = PjXj > "
2
> 0
es decir, que este lmite es una constante positiva, as que fXng no converge en probabilidadporque no sucede que para n grande dicha probabilidad se achica hacia cero.
En conclusin, la convegencia en distribucin no implica la convergencia en probabilidady la convergencia en probabilidad no implica la convergencia casi segura. Ahora vamos ademostrar que se cumple que
Xncs! X ) Xn P! X ) Xn D! X
Proposicin 0.22 Sea fXng una sucesin de variables aleatorias tal que Xn P! X: EntoncesXn
D! X:
Demostracin. Para " > 0; n 2 N y t 2 R; se tiene
FX (t ") = P (X t ")= P (X t "; jX Xnj > ") + P (X t "; jX Xnj ")= P (X t "; jX Xnj > ") + P (X t ";X " Xn X + ") P (jX Xnj > ") + P (Xn t) = P (jX Xnj > ") + FXn (t) :
Por otro lado,
FXn (t) = P (Xn t)= P (Xn t; jX Xnj > ") + P (Xn t; jX Xnj ")= P (Xn t; jX Xnj > ") + P (Xn t;Xn " X Xn + ") P (jX Xnj > ") + P (X t+ ") = P (jX Xnj > ") + FX (t+ ") :
De las dos desigualdades anteriores, se tiene que
FX (t ") P (jX Xnj > ") FXn (t) FX (t+ ") P (jX Xnj > ")
Tomando lmite cuando n ! 1 y utilizando el hecho de que Xn P! X; se obtiene queparacualquier " > 0; n 2 N y t 2 R;
FX (t ") lim infn!1
FXn (t) lim supn!1
FXn (t) FX (t+ ")
12
-
Ahora, si t es un punto de continuidad de FX; entonces, tomando lmites cuando " ! 0; seobtiene
FX (t) lim infn!1
FXn (t) = lim supn!1
FXn (t) FX (t)As que limn!1 FXn (t) = FX (t) :Veamos ahora la otra implicacin
Proposicin 0.23 Sea fXng una sucesin de variables aleataorias tal que Xn cs! X: En-tonces, Xn
P! X:Demostracin. Por la convergencia casi segura, sabemos que P (limn!1Xn = X) = 1: Asque existe un conjunto 0 de probabilidad 0 tal que si ! 2 c0; entonce limn!1Xn (!) =X (!) : Esto signica que dado ! 2 c0 y " > 0; existe N tal que jXn (!)X (!)j < " paracualquier n > N: De hecho, podemos tomar una N tal que jXn (!)X (!)j " para todan N:Esto ltimo signica que ! 2
1\n=N
f! 2 : jXn (!)X (!)j "g : Dicho de otro modo, para
cada ! 2 c0; dada cualquier " > 0; existe algunam 2 N tal que ! 21\n=m
f! 2 : jXn (!)X (!)j "g ;lo que a su vez implica que
! 21[m=1
" 1\n=m
f! 2 : jXn (!)X (!)j "g#
de donde se concluye que
c0 =1[m=1
" 1\n=m
f! 2 : jXn (!)X (!)j "g#
y
P
1[m=1
" 1\n=m
f! 2 : jXn (!)X (!)j "g#!
= 1
Vamos a llamarle Bm (") al conjunto Bm (") =1\n=m
f! 2 : jXn (!)X (!)j "g, y en-tonces, para cada " tenemos una sucesin de eventos fBm (")g montona creciente: B1 (") B2 (") B3 (") y se cumple que
limm!1
P (Bm (")) = P
1[m=1
Bm (")
!= 1
de donde se concluye quelimm!1
P (Bcm (")) = 0:
Pero Bcm (") =1[m=1
f! 2 : jXn (!)X (!)j > "g ; as que [jXm Xj > "] Bcm (") : Por lotanto
limm!1
P (jXm Xj > ") limm!1
P (Bcm (")) = 0:
13
-
Hay un caso particular en el que la convergencia en distribucin s implica la convergenciaen probabilidad y es cuando la sucesin de variables aleatorias converge en distribucin a 0.
Proposicin 0.24 Sea fXng una sucesin de variables aleatorias tal que Xn D! 0: EntoncesXn
P! 0:Demostracin. Sea X = 0: Sabemos que la funcin de distribucin lmite es la distribucinque correponde a la constante X = 0; es decir,
limn!1
FXn (x) = FX (x) =
0 si x < 01 si x 0
Obsrvese que esta funcin es discontinua en x = 0 en donde el lmite por la derecha es 1 yel lmite por la izquierda es cero. Para " > 0;
P (jXnj > ") = P (Xn > ") + P (Xn < ") P (Xn > ") + P (Xn ")= 1 FXn (") + FXn (")
Aplicando lmite:
limn!1
P (jXnj > ") lim (1 FXn (") + FXn (")) = 0:
En resumen, tenemos que
Xncs! X ) Xn P! X ) Xn D! X
XnP! 0 ( Xn D! 0
Corolario 0.25 Sean fXng y fYng dos sucesiones de variables aleatorias tales que Xn D! 0y Yn
D! 0: Entonces1. Xn + Yn
D! 02. XnYn
D! 0
Teoremas lmite
Le llamamos teoremas lmite a los teoremas que establecen condiciones para que se de algunaconvergencia de una sucesin de variables aleatorias: Empezaremos recordando un teoremade convergencia en distribucin demostrado por Poisson, que vimos en Proba1.
Teorema 0.26 (Teorema de Poisson) Considerese la sucesin de variables aleatorias in-dependientes fXng cada una con distribucin Binomial de parmetros n y p 2 (0; 1) detal manera que = np sea constante (es decir, al crecer n se achica p): Para cualquierx 2 f0; 1; 2; : : : g
limn!1
P (Xn = x) =xe
x!;
es decir, XnD! X donde X tiene distribucin Poisson.
14
-
Demostracin.
P (X = x) =
n
x
px (1 p)nx = n (n 1) (n 2) (n x+ 1)
x!
n
x1
n
nx=
n (n 1) (n 2) (n x+ 1)nx
x
x!
1
n
nx=
n
n
n 1n
n 2n
n (x 1)
n
x
x!
1
n
n1
n
x= 1
1 1
n
1 2
n
1 x 1
n
x
x!
1
n
n1
n
xy tenemos los siguientes lmites cuando n!1 :
e = limn!1
1
n
n1 = lim
n!1
1 j
n
para cada j
1 = limn!1
1
n
x= lim
n!11
1 n
xy
x
x!es constante respecto a n; as que haciendo tender n ! 1 y dejando constante ;
obtenemos
limn!1
np constante
P (X = x) =x
x!e
La Ley de los Grandes Nmeros
Bajo el nombre de Ley de los grandes nmeros se agrupa una coleccin de teoremas que sepueden clasicar en dos clases segn el tipo de convergencia al que hacen referencia: la Leydbil de los grandes nmeros que usa convergencia en probabilidad, y la Ley fuerte de losgrandes nmeros que usa convergencia casi segura. Ambos tipos se reeren a condicionesbajo las cuales puede asegurarse que el promedio de las primeras n variables de una sucesin,converge al ir aumentando el nmero de variables incluidas.
Ley dbil de los grandes nmeros
La versin dbil, fue demostrada por primera vez por J. Bernoulli y publicada en 1713(en forma pstuma). Sea E es un experimento y A un evento en l con probabilidad p:Consideremos que este experimento se repite indenida del experimento E ; de tal maneraque cada repeticin es independiente de las otras. Entonces, llamando Zn al nmero de vecesque ocurre el evento A en n repeticiones, se tiene que
Znn
P! p:
15
-
Obsrevese que Zn = X1 +X2 + +Xn donde
Xi =
1 si ocurre A en la i sima repeticin0 en otro caso
de manera que el teorema demostrado por Bernoulli establece que el promedio de n vari-ables independientes que se distribuyen como Bernoulli, converge en probabilidad a una p:La primera versin de la forma general de este resultado se debe al matemtico sovieticoPafnuty L. Chebyshev, publicada en 1867. Recordemos, antes de ver la demostracin, dosdesigualdades que probamos en Proba 1:
1. Desigualdad de Markov. Sea X una variable aleatoria, g una funcin Borel mediblecon dominio en R y no negativa y k un real positivo, se tiene que
P (g (X) > k) 1kE (g (X))
2. Desigualdad de Chebyshev: Para cualquier variable aleatoria X de esperanza nita, ycualquier " > 0; se cumple que
P (jX E (X)j > ") = P jX E (X)j2 > "2 1"2V ar (X)
Teorema 0.27 (Ley dbil de los grandes nmeros-Chebyshev) Sea fXng una suce-sin de variables aleatorias independientes e identicamente distribuidas, con esperanza yvarianza nita 2. Entonces, cuando n!1;
X1 +X2 + +Xnn
P!
Demostracin. Para cada n 2 N; la variable aleatoria Xn = X1++Xnn tiene esperanza .Si la varianza de cada Xn es 2; como las Xi son independientes, la varianza de Yn es
V arXn= V ar
1
n
nXj=1
Xi
!=1
n2
nXj=1
2 =2
n
Tomemos una " > 0 arbitraria. Por la desigualdad de Chebyshev se tiene
PXn > " 1
"2V ar
Xn=2
n"2
de dondelimn!1
PXn > " = 0
y XnP! cuando n!1
El Teorema anterior admite una generalizacin cuando las variables aleatorias no estn iden-ticamente distribuidas, pero hay que agregar otra condicin sobre las varianzas nitas.
16
-
Teorema 0.28 (Ley dbil de los grandes nmeros-Markov) Sea fXng una sucesinde variables aleatorias independientes, con E (Xi) = i; y V ar (Xi) =
2i "! 1"2V ar
Xn=
2
n2"2
nXj=1
2j
de donde se obtiene el resultado deseado aplicando lmite.
Ejemplo 0.29 Sea fXng una sucesin de variables aleatorias independientes cuyas fun-ciones de densidad son
fn (x) =
1=2 si x 2 n1=4;n1=40 en otro caso
La esperanza de cada Xn es 0 (n = 0) y su varianza es
V ar (Xn) =1
2
n1=4 02 + 1
2
n1=4 02 = n1=2:As que
limn!1
1
n2
nXj=1
2j = limn!1
1
n2
nXj=1
pj lim
n!11
n
pn = lim
n!11pn= 0:
Por el Teorema anterior, se tiene entonces que 1n
Pnj=1Xj
P! 0:
17
-
Ejemplo 0.30 Sea fXng una sucesin de variables aleatorias independientes con funcionesde densidad
fn (x) =
1=2 si x 2 fn; ng0 en otro caso
Como en el ejemplo anterior, n = 0 y
V ar (Xn) =1
2 n2 + 1
2n2 = n2:
As que
limn!1
1
n2
nXj=1
2j = limn!1
1
n2
nXj=1
j2 = limn!1
n (n+ 1) (2n+ 1)
6n2=1:
De manera que no se cumple la condicin de Markov para concluir que 1n
Pnj=1Xj
P! 0:Pero la condicin del Teorema es suciente ms no necesaria, as que no podemos tampococonlcluir de aqu que la convergencia anterior no se cumple.Obsrvese que se tiene
1
nXn =
1
n
nXj=1
Xj 1n
n1Xj=1
Xj =1
n
nXj=1
Xj n 1n
1
n 1n1Xj=1
Xj
!
Si ocurriera que 1n
Pnj=1Xj
P! 0; tendramos que 1nXn
P! 0: (porque tambin1n1
Pn1j=1 Xj
P! 0): Pero 1nXn = 1 con probabilidad 1. As que esta convergencia no puede
ocurrir.
Hay otras variantes de la Ley dbil de los grandes nmeros que no demostraremos aqu.Por ejemplo, Chebyshev di una demostracin en la que no pide que las variables seanidnticamente distribudas y agrega slo la condicin de que las varianzas estn acotadassuperiormente.
Teorema 0.31 (Segunda Ley dbil de Chebyshev) Sea fXng una sucesin de variablesaleatorias independientes con E (Xi) = i y V ar (Xi) c
-
Ley fuerte de los grandes nmeros
En 1930, Andrey Nikolaevich Kolmogorov mostr una versin general de la Ley de los grandesnmeros, usando convergencia casi segura, sin especicar la distribucin de las variables dela sucesin. Antes de eso, se dieron demostraciones particulares, de las cuales vale la penadestacar la Ley fuerte de Borel para el caso en que las variables aleatorias tienen todas ellasdistribucin Bernoulli con parmetro p; misma que formulamos a continuacin.
Teorema 0.33 (Ley fuerte de los grandes nmeros-Borel) Sea fXng una sucesin devariables aleatorias independientes, todas con distribucin Bernoulli de parmetro p 2 (0; 1) :Entonces
X1 +X2 + +Xnn
cs! p
La primera versin de Kolmogorov es la siguiente.
Teorema 0.34 (Ley fuerte de los grandes nmeros-Kolmogorov) Sea fXng una suce-sin de variables aleatorias independientes e idnticamente distribuidas
Si E [jX1j]
-
Uno de los resultados importantes que se demostraron para esta segunda formulacin del laLey fuerte, es el siguiente:
Proposicin 0.37 (Desigualdad de Kolmogorov) Sea fX1; X2; : : : ; Xng una coleccinnita de variables aleatorias independientes con E (Xi) = i y V ar (Xi) =
2i
-
Es decir, si X se distribuye como Binomial con parmetros n y p; para k 2 f0; 1; : : : ; ng, setiene que P (X = k) fX (k) ; donde X se distribuye como normal con parmetros = npy 2 = npq: La aproximacin ser mejor mientras ms cerca est k de np como veremos enel siguiente ejemplo.
Ejemplo 0.40 Sea X una variable que se distribuye como Binomial con parmetros n = 50y p = 1=4: En este caso, np = 25
2y npq = 75
8: de acuerdo al resultado anterior
P (X = x) =
50
x
1
4
x3
4
50x 2
5
r1
3exp
( 475
x 25
2
2):
Para ver qu tan buena es la aproximacin, tomemos algunos valores particulares. Primero,un valor lejano de la media ( 12.5):
P (X = 2) =
50
2
(0:25)2 (0:75)48 = 7:7083 105
P (X = 2) 25
r1
3exp
( 475
2 25
2
2)= 3:6414 104
En este caso, tenemos los siguientes errores:
Error absolt = 3:6414 104 7:7083 105 = 2:87067 104 0:000287Error relat =
2:870677 1047:7083 105 = 3:724
Ahora tomemos un valor cercano a la media:
P (X = 10) =
50
10
(0:25)10 (0:75)40 = 0:098518
P (X = 10) 25
r1
3exp
( 475
10 25
2
2)= 0:09336
En este caso los errores son
Error absolt = 0:09336 0:098518 = 5:158 103 0:00516Error relat =
5:158 1030:098518
= 0:0523556
As que,la aproximacin normal a una binomial no es igualmente buena para todos los posi-bles valores de X:
Teorema 0.41 (Teorema integral de De Moivre-Laplace) Sean a y b dos nmeros reales,a < b; y fXng una sucesin de variables aleatorias con distribucin Binomial deparmetrosn y p: Entonces
limn!1
P
a ) 0:01:Usando la aproximacin Normal, tenemos
P (X > ) PX nppnpq
> nppnpq
= P
Z >
500p475
= 1 P
Z 500p
475
= 0:01
As que buscamos tal que
P
Z a 500p
475
= 0:99) a 500p
475 2:33
De donde 550:78: De manera que si asegura que en 10,000 lmparas no habr ms de551 defectuosas, en promedio, tendr que pagar a lo ms el 1% de los envos.
El Teorema Central del Lmite
Teorema 0.43 (Teorema Central del Lmite de Linderberg-Levy) Sea fXng una suce-sin de variables aleatorias independientes e identicamente distribudas de media y varianzanita 2 nita. Entonces
limn!1
P
X1 +X2 + +Xn n
pn
x=
1p2
Z x1e y
2=2dy;
es decir,X1 +X2 + +Xn n
pn
D! Z N (0; 1)
Observacin. Si Sn = X1 +X2 + +Xn; entonces,
E (Sn) =nXk=1
E (Xk) = n
V ar (Sn) =
nXk=1
V ar (Xk) = n2 por la independencia de las Xis
DE (Sn) = pn:
Por tanto, en el TCL se estandariza Sn restando su media y dividiendo entre su desviacinestndar. Dicho de otro modo, para n sucientemente grande podemos decir que
Sn N n; n2 ;
donde signica "se distribuye ms o menos como". Dicho de otro modo, para n sucien-temente grande
Sn npn
N (0; 1) :
22
-
Ejemplo 0.44 Sea fXng una sucesin de variables aleatorias independientes, todas condistribucin exponencial de parmetro = 1: Encuentra la n ms grande para la que secumpla
P
" 1nnXk=1
Xk 1 0:01
# 0:9
Usando el TCL se tiene
P
" 1nnXk=1
Xk 1 0:01
#= P
"nXk=1
Xk n 0:01n
#
= P
X1 +X2 + +Xn npn 0:01pn
P jZj 0:01pn = P 0:01pn Z 0:01pn 0:9Buscando en tablas, obtenemos que
0:01pn = 1:645) n (1:645)2 (10; 000) = 27; 060
Ejemplo 0.45 50 nmeros seleccionados al azar se redondean al entero ms cercano y de-spus se suman. Suponiendo que los errores de redondeo estn uniformemente distribuidosen el intervalo (0:5; 0:5) ; encontrar la probabilidad de que la suma obtenida diera del valorexacto en ms de 3 unidades.Sean a1; a2; : : : ; a50 los nmeros que se redondean y sean X1; X2; : : : ; X50 los errores de re-dondeo correspondientes. se tiene entonces que
E (Xi) = 0 y V ar (Xi) =1
12:
Entonces
P
"50Xi=1
(ai +Xi)50Xi=1
ai
> 3#= P
"50Xi=1
Xi
> 3#
= P
"P50
i=1Xip50=12
> 3p50=12#
= P
"P50
i=1Xip50=12
> 1:4697#
P [Z > 1:4697] = 0:14164
Ejemplo 0.46 En un lanzamiento de tiro al blanco, un tirador obtiene 10, 9, 8, 7, o 6puntos con probabilidades 0.05, 0.1, 0.15, 0.2 y 0.5 respectivamente. Lanza 100 tiros. Cules la probabilidad de que su puntaje exceda a 730?Denamos la variable
Xi = # de puntos del tiro en el i-simo lanzamiento;
23
-
donde Xi = 6; 7; 8; 9; 10. Primero calculemos E [Xi] y V ar [Xi]
E [Xi] =10Xi=6
xP (Xi = x)
= 6 (0:5) + 7 (0:2) + 8 (0:15) + 9 (0:1) + 10 (0:05)
= 7;
E2 [Xi] =
10Xi=6
x2P (Xi = x)
= 62 (0:5) + 72 (0:2) + 82 (0:15) + 92 (0:1) + 102 (0:05)
= 50:5;
entoncesV ar [Xi] = 50:5 49 = 1:5
Por lo que
P
"100Xi=1
Xi > 730
#= 1 P
"100Xi=1
Xi 730#
= 1 P"P100
i=1Xi 7 (100)p1:5 (100)
730 7 (100)p1:5 (100)
#t 1 P [Z 2:4494] = 1 (:5 + :4929) = 0:0071
Ejemplo 0.47 Suponga que en una ciudad dada existen N votantes registrados en el padrnelectoral de los cuales se selecvciona una muestra sin reemplazo de n votantes, 1 n N .Si se desea estimar la proporcin de votos declarados a favor del candidato A de tal maneraque 0.001 sea la probabilidad de que la proporcin muestral sea menor que 0.50 aun cuandola proporcin poblacional a favor de A es de 0.52, de que tamao tiene que ser la muestra?
Primero denamos Xi :1 si la i-sima eleccin es a favor del candidato A,0 e.o.c,
tenemos que
P (Xi = 1) =V FA
N= 0:52
donde V FA es el nmero de votantes a favor del candidato A. Por lo que si denimos
X : # de VFA en la muestra,
X es una variable de distribucin hipergeomtrica y adems X =Pn
i=1Xi; as que
E (X) = E
nXi=1
Xi
!= 0:52n
y
V ar (X) =(V FA)n (N V FA) (N n)
N2 (N 1) ;
24
-
que son la esperanza y varianza de una hipergeomtrica. Reduciendo la varianza
V ar (X) =0:52n (1 0:52) (N n)
(N 1)=
N nN 1 0:52 (0:48)n
De lo anterior se deduce que:
P
Pni=1Xin
< 0:5
P
Z " para una innidad de valores de ng) = 0para cualquier " > 0:
Demostracin. Supongamos que Xncs! 0: Para " > 0 denamos los conjuntos
A (") = f! 2 : jXn (!)j > " para una innidad de valores de ng)) Como P (limn!1Xn = 0) = 1; existe un conjunto 0 de probabilidad 1 tal que si! 2 0; entonces limn!1Xn = 0: Este lmite signica que dado ! 2 y " > 0; existe N talque jXn (!)j < " para cualquier n N: Por tanto, si ! 2 A (") ; entonces ! 2 c0 de dondese desprende que P (A (")) P (c0) = 0() Supongamos que.
P (f! 2 : jXn (!)j > " para una innidad de valores de ng) = 0para cualquier " > 0: Para cada r 2 N, sea
Br = f! 2 : jXn (!)j > 1=r para una innidad de valores de ngPor hiptesis, P (Br) = 0 para cualquier r 2 N y la sucesin de eventos Bc1; Bc2; Bc3; : : : esmontona decreciente. As que
P
1\r=1
Bcr
!= lim
r!1P (Bcr) = 1:
Pero
Bcr = f! 2 j existe N (!) tal que jXn (!)j 1=r para cualquier n N (!)gDe manera que si ! 2 T1r=1Bcr; entonces para cualquier r 2 N existe N (!) tal que jXn (!)j 1=r para cualquier n N (!) : En particular, dada " y r tales que 1=r < "; entoncesjXn (!)j 1=r < " para cualquier n N (!) ; lo cual signica que limn!1Xn (!) = 0: Enotras palabras
1\r=1
Bcr hlimn!1
Xn (!) = 0i
lo cual implica que
Phlimn!1
Xn (!) = 0i P
1\r=1
Bcr
!= 1:
Corolario 0.49 Sea fXng una sucesin de variables aleatorias y X otra variable aleatoria.Entonces Xn
cs! X si y slo siP (f! 2 : jXn (!)X (!)j > " para una innidad de valores de ng) = 0
para cualquier " > 0;
26
-
Enunciamos a continuacin un resultado que nos permitir redondear una condicin sucientepara tener una convergencia casi segura a cero.
Proposicin 0.50 Lema de Borel-Cantelli. Sea A1; A2; : : : una sucesin de eventostales que
P1n=1 P (An) ") " para una innidad de valores de ngPor la proposicin 0.50, P (A (")) = 0 para cualquier ": As que el resultado se obtieneaplicando la proposicin 0.48.
Corolario 0.52 Sea X1; X2; X3; : : : una sucesin de variables aleatorias tales que1Xn=1
P (jXn Xj > ")
-
Finalmente, ser til calcular antes de la demsotracin los momentos E (Xn) en el caso enque X B (n; p) : La funcin generadora de momentos es
mX (t) = Eetx=
nXx=0
etxnx
px (1 p)nx
=nXx=0
nx
etpx(1 p)nx = pet + 1 pn
Por tanto
E (X) =dmX (t)
dt
t=0
= npetpet + 1 pn1
t=0
= np (p+ 1 p)n1 = npPara E (X2) tenemos
EX2=
d2mX (t)
dt2
t=0
= n (n 1) pet2 pet + 1 pn2 + npet pet + 1 pn1t=0
= (n 1)np2 + np:En el caso de E (X3) obtenemos
EX3=d3mX (t)
dt3
t=0
=
= n (n 1) (n 2) pet3 pet + 1 pn3 + 2n (n 1) pet2 pet + 1 pn2t=0
+ n (n 1) pet2 pet + 1 pn2 + npet pet + 1 pn1t=0
= n (n 1) (n 2) p3 + 3n (n 1) p2 + np:Anlogamente para el 4o momento
EX4=d4mX (t)
dt4
t=0
=
= n (n 1) (n 2) (n 3) pet4 pet + 1 pn4 + 3n (n 1) (n 2) pet3 pet + 1 pn3t=0
+ 2n (n 1) (n 2) pet3 pet + 1 pn3 + 4n (n 1) pet3 pet + 1 pn2t=0
+ n (n 1) (n 2) pet3 pet + 1 pn3 + n (n 1) 2 pet2 pet + 1 pn2t=0
+ n (n 1) pet2 pet + 1 pn2 + npet pet + 1 pn1t=0
= n (n 1) (n 2) (n 3) p4:+ 6n (n 1) (n 2) p3 + 7n (n 1) p2 + np
28
-
Teorema 0.53 (Ley fuerte de los grandes nmeros-Borel) Sea fXng una sucesin devariables aleatorias independientes, todas con distribucin Bernoulli de parmetro p 2 (0; 1) :Entonces
X1 +X2 + +Xnn
cs! p:
Demostracin. Sea Sn = X1+X2+ +Xn: Entonces Sn tiene distribucin Binomial conparmetros n y p; as que
E (Sn) = np
ES2n= np+ n (n 1) p2
ES3n= np+ 3n (n 1) p2 + n (n 1) (n 2) p3
ES4n= np+ 7n (n 1) p2 + 6n (n 1) (n 2) p3 + n (n 1) (n 2) (n 3) p4
Por tanto:
E
"Snn p4#
=E (S4n)
n4 4E (S
3n)
n3p+ 6
E (S2n)
n2p2 4E (Sn)
np3 + p4
=np+ 7n (n 1) p2 + 6n (n 1) (n 2) p3 + n (n 1) (n 2) (n 3) p4
n4
4np2 + 3n (n 1) p3 + n (n 1) (n 2) p4
n3
+6np3 + n (n 1) p4
n2 4np
4
n+ p4
=p 7p2 + 12p3 6p4 + 7np2 18np3 + 11np4 + 6n2p3 6n2p4 + n3p
n3
+12p3 4p2 8p4 12np3 + 12np4 4n2p4
n2
+6p3 6p4 + 6np4
n 3p4
=p 7p2 + 12p3 6p4 + 3np2 6np3 + 3np4
n3
=3np2 (1 p)2 6p2 (1 p)2 + p (1 p)
n3
=1
n3p (1 p) [3np (1 p) 6p (1 p) + 1]
14n3
3n
4+ n
") 1"E (jXj) ;
as que
P
Snn p > " = P
Snn p4 > "4
!E
Snn p4"4
" para alguna k 2 N tal que 2n1 < k 2n
Usando estos eventos, tenemos que
A" = f! 2 : ! 2 Bn;" para una innidad de valores de ng
30
-
Entonces para probar que P (A") = 0 necesitamos vericar queP1
n=1 P (Bn;")
-
Demostracin. En el caso en que nX
n
P (Xn 6= Yn) =Xn
P (jXnj > n) =Xn
P (jX1j > n) E [jX1j]
-
para toda i = f1; 2; 3; ::::g ; en particular para i = 1: Por lo queXn
EjYn E (Yn)j2
n2
1Xj=1
jEjX1j I[j1
-
Proposicin 0.56 (Desigualdad de Kolmogorov) Sea fX1; X2; : : : ; Xng una coleccinnita de variables aleatorias independientes con E (Xi) = i y V ar (Xi) =
2i
-
Obsrvese queRAkskzkfSn (s) ds = E (IAkSkZk) y como las variables Sk y Zk son independi-
entes y E (Zk) = 0; esta integral vale 0. Por tanto, tenemos:ZAk
s2fSn (s) ds =
ZAk
s2kfSn (s) ds+
ZAk
szk2fSn (s) ds
ZAk
s2kfSn (s) ds a2P (Ak)
ya que jskj a en Ak: Finalmente
V ar (Sn) =nXi=1
2i a2nXk=1
P (Ak) = a2P (A)) P (A) 1
a2
nXi=1
2i :
Obsrvese que la desigualdad de Kolmogorov es una generalizacin de la de Chebyshev,misma que se obtiene haciendo n = 1 en la desigualdad que acabamos de probar.En la siguiente demostracin usaremos el lema de Kronecker que establece que si fang esuna sucesin de nmeros reales que satisface que
P1i=1
aii< 1; entonces se cumple que
limn!1 1nPn
i=1 ai = 0:
Teorema 0.57 (Segunda Ley Fuerte de Kolmogorov) Sea fXng una sucesin de vari-ables aleatorias independientes con E (Xi) = i y V ar (Xi) =
2i
-
Ahora, comohPki=1 Yii ai est contenido en el evento hmax1kn nPki=1 Yii o ai ; se
tiene que
P
"kXi=1
Yii
a# P
"max1kn
(kXi=1
Yii
) a# 1a2
nXi=1
2ii2;
as que
P
"kXi=1
Yii
< a# 1 1
a2
nXi=1
2ii2
Aplicnado lmite cuando a!1 en ambos miembros de la ltima desigualdad, obtenemos:
P
"kXi=1
Yii
-
Ahora bien, si k satisface que
np+ apnpq k np+ bpnpq;
entonces
n np bpnpq n k n np apnpqnq bpnpq n k nq apnpq:
De las desigualdades anteriores se desprende que
pp+
bppqpn
= npnp+ b
pnpq
npk npnp+ a
pnpq
=p
p+appqpn
q
q appqpn
= nqnq apnpq
nq
n k nq
nq bpnpq =q
q bppqpn
n k nk n + k + nk 1
12
1
n+1
k+
1
n k
112
1
n+
1
np+ apnpq
+1
nq bpnpq
enknk e 1121n+ 1np+a
pnpq
+ 1nqbpnpq
! 1
Por tanto,
limn!1
rnp
k
rnq
n kenknk = 1 uniformemente en k:
Los factores que nos faltan de P [Xn = k] sonnpk
k nqnknk
, mismos que podemos escribirde la forma: np
k
k nqn k
nk=
1knp
k nknq
nk : (0.3)Tomando yk;n =
knppnpq
tenemos que
k
np
k=
0@np+ k npp
npqpnpq
np
1Ak
=
np+ yk;n
pnpq
np
k=
1 + yk;n
pqpnp
np+yk;npnpq
37
-
yn knq
nk=
0@n k + np npp
npqpnpq
nq
1Ank
=
0@nq (k np)p
npqpnpq
nq
1Ank
=
nq yk;npnpq
nq
nk=
1 yk;n
pppnq
nqyk;npnpqEn los exponentes de las expresiones anteriores usamos que yk;n =
knppnpq
) k = np+yk;npnpqy n k = n np yn;kpnpq = nq yn;kpnpq:De lo anterior se desprende que
ln
npk
k nqn k
nk!= (np+ yk;npnpq) ln
1 + yk;n
pqpnp
(0.4)
(nq yk;npnpq) ln1 yk;n
pppnq
;
y si usamos la expansin en serie de Taylor del logaritmo natural alrededor de 1 (el primertrmino se elimina, al ser ln 1 = 0), se tiene
ln
npk
k nqn k
nk!
= (np+ yk;npnpq) 1Xk=1
(1)k+1 (k 1)!k!
yk;n
pqpnp
k!
(nq yk;npnpq) 1Xk=1
(1)k+1 (k 1)!k!
yk;n
pppnq
k!
= (np+ yk;npnpq) 1Xk=1
(1)k+1k
yk;n
pqpnp
k!
+(nq yk;npnpq) 1Xk=1
1
k
yk;n
pppnq
k!
Desarrollando tenemos
ln
npk
k nqn k
nk!
38
-
= np 1Xk=1
(1)k+1k
yk;n
pqpnp
k! yk;npnpq
1Xk=1
(1)k+1k
yk;n
pqpnp
k!
+nq
1Xk=1
1
k
yk;n
pppnq
k! yk;npnpq
1Xk=1
1
k
yk;n
pppnq
k!
= npyk;n
pqpnp
+np
2
yk;n
pqpnp
2 np3
yk;n
pqpnp
3+np
4
yk;n
pqpnp
4 :::
pnpqy2k;n p
ppnq
+
pnpqy3k;n2
pppnq
2pnpqy4k;n3
pppnq
3+ :::
+nq
yk;n
pppnq
+nq
2
yk;n
pppnq
2+nq
3
yk;n
pppnq
3+nq
4
yk;n
pppnq
4+ :::
pnpqy2k;n p
ppnq
pnpqy3k;n2
pppnq
2pnpqy4k;n3
pppnq
3 :::
Todos los trminos con np o nq (primer y tercer rengln de la ltima igualdad) se eliminanentre s, as que nos queda:
= y2k;n
q2 p+ p
2 p
+y3k;n
pq3
3pnp+
pp3
2pnq+
pp3
3pnqpp3
2pnq
!
+y4k;n
q2
4np p
2
3nq+p2
4nq p
2
3nq
+ ::::::
= y2k;n
2+
y3k;n6pnpq
q2 p2 y4k;n
12npq
q3 + p3
+
= y2k;n
2+ An (yk;n)
donde An (yk;n) =y3k;n6pnpq(q2 p2) y
4k;n
12npq(q3 + p3) + ; por lo que
limn!1
An (yk;n) = 0 uniformemente en k;
de donde conclumos que
limn!1
expAn (yk;n) = 1 uniformemente en k:
39
-
Por tanto,
P (Xn = k)1p
2pnpqe y
2k;n=2
=
1p2
1pnpq
pnpk
qnqnk
npk
k nqnknk
enknk
1p2pnpqe y
2k;n=2
= ey2k;n=2
rnp
k
rnq
n knpk
k nqn k
nkenknk
= ey2k;n=2
rnp
k
rnq
n kenknke y
2k;n=2eAn(yk;n)
=
rnp
k
rnq
n kenknkeAn(yk;n) !
n!11 uniformemente en k:
Corolario 0.59 Si Xn se distribuye como binomial de parmetros n y p y k es un enterono negativo, k n; entonces
P (X = k) 1pnpq
1p2exp
( (k np)
2
2npq
)
Es decir, si X se distribuye como Binomial con parmetros n y p; para k 2 f0; 1; : : : ; ng, setiene que P (X = k) fX (k) ; donde X se distribuye como normal con parmetros = npy 2 = npq: La aproximacin ser mejor mientras ms cerca est k de np como veremos enel siguiente ejemplo.
Teorema 0.60 (Teorema integral de De Moivre-Laplace) Sean a y b dos nmeros reales,a < b; y fXng una sucesin de variables aleatorias con distribucin Binomial deparmetrosn y p: Entonces
limn!1
P
a [za (t) 1] z
2
2
con a (t) = te3=3 > 0 para toda t positiva. As, para z > 2=a (t) tenemos que [a (t) 1] > 1y, en consecuencia
EetX 1p
2
Z 12=a(t)
e12z2dz =1
Sin embargo, para t negativa es fcil vericar que EetX< 1: La conclusin es que no
existe una vecindad del origen en la que EetXsea nita y por tanto X no tiene funcin
generadora de momentos.
Para solucionar el problema de asociar una funcin generadora a cada distribucin de prob-abilidad, denimos la funcin caracterstica:
Denicin 0.62 Sea X una variable aleatoria. La funcin caracterstica de X es una fun-cin : R! C dada por
X (t) = EeitX
donde i =
p1:
Tenemos entonces
X (t) =
Px P (X = x) e
itx si X es discretaR11 fX (x) e
itxdx si X es absol. continua
Para ver las principales caractersticas de X y su utilidad, requerimos la siguiente informa-cin acerca de los nmeros complejos:
1. Cualquier complejo z 2 C se puede escribir en la forma z = a+bi donde a y b son realesconocidos como parte real y parte imaginaria de z: Tambin se identica al complejoz como la pareja z = (a; b) :
2. El complejo conjugado de z es z = a bi:3. El producto entre dos complejos y = a+ bi y z = c+ di es yz = (ac bd)+ (ad+ bc) i:4. La norma de un complejo z se dene como jzj = pa2 + b2; es decir, jzj2 = zz:5. Para cualquier t 2 R, eit = cos t+ i sen t y jeitj = 1:6. Si r y son las coordenadas polares del punto (a; b) ; la forma polar de z es z =r (cos + i sen )
44
-
Ejemplo 0.63 a) Sea X una variable aleatoria con distribucin binomial de parmetros ny p: Entonces
X (t) = EeitX
=
nXx=0
n
x
peitxqnx =
peit + q
nb) Sea Y una variable aleatoria con distribucin Poisson de parmetro : Entonces
Y (t) = EeitY= e
1Xy=0
(eit)y
y!= eee
it
= e(eit1)
c) Supongamos ahora que Z N (0; 1) : Es posible demostrar que
Z (t) =1p2
Z 11e(itzz
2=2)dz = et2=2:
No haremos la demostracin de la ltima igualdad aqu por requerir un manejo ms profundode funciones complejas, pero obsrvese que en este caso la funcin caracterstica es un nmeroreal.d) Si X N (; 2) ; entonces X = + Z donde Z N (0; 1) ; obtenemos que
X (t) = e(it2t2=2)
Adems de las caractersticas de los nmeros complejos que sealamos antes, se cumple elsiguiente lema cuya demostracin nos saltaremos:
Lema 0.64 i) Sea fzng una sucesin de nmeros complejos, entonces1Xn=1
zn
X jznj :ii) Sea h : R! C, para todos t 2 R existen u y v funciones reales de variable real tales queh (t) = u (t) + iv (t) : Si u y v son absolutamente integrables, entonces en todo R;Z 11 h (t) dt
= Z 11 (u (t) + iv (t)) dt Z 11 jh (t)j dt:
Con todos estos elementos, podemos probar la siguiente proposicin:
Proposicin 0.65 Sea X una variable aleatoria con densidad. Entonces EeitX
existe
para todo t 2 R:
Demostracin. Para que EeitX
exista es necesario que
E eitX
-
ComoE eitX 1; la serie o la integral impropia que dene la funcin caracterstica
converge absolutamente y podemos escribir
X (t) = E [cos (tX)] + iE [sen (tX)] :
La siguiente proposicin, que enunciamos sin demostracin, es la base para ver que
dk
dtkX (t)
t=0
= ikEXk
lo que nos presenta el uso prctico de la funcin caracaterstica en la generacin de losmomentos de una variable aleatoria.
Proposicin 0.66 Sea X una variable aleatoria con funcin caracterstica dada por X ().Si E [Xr] existe para algn r 2 N, entonces
X (t) !t!0
1 +rXk=1
EXk (it)kk!
+R (tr) ;
donde R (tr) es el residuo de la expansin y representa una funcin que converge a cero msrpido que tr cuando t! 0, esto es,
limt!0
R (tr)
tr= 0:
La idea de la demostracin es utilizar la expansin de MacLaurin para ex. Veamos algunosejemplos:
Ejemplo 0.67 a) Si X B (n; p) ; entoncesd
dtX (t) =
d
dt
peit + q
n= n
peit + q
n1ipeit
como p+ q = 1; tenemos:
d
dt
peit + q
nt=0
= n (p+ q)n1 ip = inp:
b) Si X Poisson() ; entoncesd
dtX (t) =
d
dte(e
it1) = ieite(eit1)
y evaluando en t = 0;dk
dtkX (t)
t=0
= ie(11) = i:
Otro asunto importante es que si dos variables tienen la misma funcin caracterstica, nece-sariamente tienen la misma distribucin. Para ver esto, necesitaremos el siguiente resultadoque adems muestra que se puede obtener la densidad de una variable aleatoria a partir desu funcin caracterstica
46
-
Teorema 0.68 (Inversin de Lvy) Sea X una variable aleatoria con funcin de densi-dad fX (x) y funcin caracterstica X (t). Si a < b, entonces
P [a < X < b] +1
2P [X = a] +
1
2P [X = b] = lim
T!11
2
Z TT
eita eitbit
X (t) dt:
Demostracin.
MT =1
2
Z TT
eita eitbit
X (t) dt
=1
2
Z TT
eita eitbit
EeitX
dt
=1
2
Z TT
Z 11
eita eitbit
eitxf (x) dxdt
=
Z 11
Z TT
eit(xa) eit(xb)2it
dt
f (x) dx
=
Z 11
Z T0
eit(xa) eit(xa) eit(xb) eit(xb)2it
dtf (x) dx
=
Z 11
Z T0
sen t (x a) sen t (x b)t
dt
f (x) dx:
Sea Ia;b;T (x) =hR T0
sen t(xa)sen t(xb)t
dti: Ahora bien
1
Z T0
sent
tdt !T!1
12
si > 0;12si < 0;
por lo que
limT!1
Ia;b;T (x) =
8>>>>>>>:12 1
2= 0 si x < a;
0 12
= 1
2si x = a;
12 1
2
= 1 si a < x < b;
12 0 = 1
2si x = b;
12 1
2= 0 si x > b;
entonces
limT!1
MT = 0 +
Zfx:x=ag
1
2f (x) dx+
Zfx:x2(a;b)g
f (x) dx+
Zfx:x=bg
1
2f (x) dx+ 0
= P [a < X < b] + 12P [X = a] + 1
2P [X = b] :
Recordemos que en caso absolutamente continuo, 12P [X = a] + 1
2P [X = b] = 0, as que se
tendra que
P [a < X < b] = limT!1
1
2
Z TT
eita eitbit
X (t) dt:
47
-
Teorema 0.69 (Unicidad de Lvy) Sean X; Y variables aleatorias con funciones de dis-tribucin Fx, FY y funciones carectersticas X y Y respectivamente. Entonces
X = Y , Fx = FY :Demostracin. Del teorema de inversin de Lvy se tiene que
P [a < X x] + 12P [X = a] 1
2P [X = x] = FX (x) FX (a) + 1
2P [X = a]
12P [X = x]
= FY (x) FY (a) + 12P [Y = a]
12P [Y = x] ;
haciendo a ! 1 tenemosFX (x) = FY (x) ;
para todos los valores de continuidad de ambas funciones de distribucin. De donde seobtiene X = Y ) Fx = FY : Ahora bien si Fx = FY ; entonces
X (t) = EeitX
=
ZeitxfX (x) dx =
ZeitxfY (x) dx = Y (t) ;
por lo tantoX = Y , Fx = FY :
La mera existencia de la funcin caracterstica no implica la existencia de los momentos. Sinembargo, si la derivada de orden 2k de X es nita en el origen, entonces son nitos todoslos momentos de orden menor o igual a 2k: Tambin se puede demostrar que si la funcincaracterstica no es diferenciable en el origen, no es nito ningn momento de la variable.
Ejemplo 0.70 Distribucin Cauchy. La distribucin conocida como Cauchy estndares la densidad de una variable denida como la tangente de un ngulo seleccionado al azaren el intervalo
2; 2
: Para verlo, empecemos por ver que la densidad de un nmero Y
elegido al azar en ese intervalo es
fY (y) =1
I(2 ;2 )
(x) =
1
si 2< x <
2
0 en otro caso
Sea X = tanY: Como la funcin tangente es uno a uno en el intervalo, su inversa est biendenida ah y tenemos que
FX (x) = P (X x) = P (tanY x)= P (Y arctanx) = FY (arctanx)
De ah que
fX (x) = fY (arctanx)
1
1 + x2
=
1
(1 + x2)para todo x 2 R:
48
-
La grca de esta densidad es parecida a la Normal, simtrica respecto al eje Y: La funcinde distribucin correspondiente es
FX (x) =1
2+1
arctan (x) :
La versin ms general de la funcin de densidad de Cauchy es
fX (x) =1
1 +
x
2 para 1 < x
-
Teorema 0.72 (Continuidad de Lvy-Crmer) Sea Xn (t) la funcin caracterstica deXn para n 2 N: Si Xn D! X entonces Xn (t) ! X (t) para toda t 2 R donde X (t) esla funcin caracterstica de X: Recprocamente si Xn (t) ! (t) y la funcin lmite escontinua en t = 0 entonces, Xn
D! X y (t) es la funcin caracterstica de X:Demostracin. ))
limn!1
Xn (t) = limn!1
(E [cos tXn] + iE [sen tXn])
= E [cos tX] + iE [sen tX] = X (t) :
()Para dos puntos de continuidad a < x comunes a cada FXn y FX , el teorema de inversinde Lvy establece que
FX (x) FX (a) = limT!1
1
2
Z TT
eita eitxit
X (t) dt
= limT!1
1
2
Z TT
eita eitxit
limn!1
Xn (t)dt
= limn!1
limT!1
1
2
Z TT
eita eitxit
Xn (t) dt
= limn!1
(FXn (x) FXn (a)) ;
haciendo a! 1 se obtiene Xn D! X.
3. El Teorema Central del Lmite de Linderberg-Levy
Teorema 0.73 (Teorema Central del Lmite) Sea fXng una sucesin de variables aleato-rias independientes e identicamente distribudas de media y varianza nita 2 nita. En-tonces
limn!1
P
X1 +X2 + +Xn n
pn
x=
1p2
Z x1e y
2=2dy
Demostracin. Sea Si =(Xi)
y Wn =Pn
i=1(Xi)pn= 1p
n
Pni=1 Si. Con lo cual
E [Si] = 0;
V ar [Si] = 1;
entonces
Wn (t) = EeitWn
= E
he
itpn
Pni=1 Si
i= ni=1Si
tpn
=
Si
tpn
n;
50
-
y tpn!n!1
0. Utilizando la proposicin 0.66 se tiene
Wn (t) =
"1 +
itpnE [S1] +
(it)2
2nES21+R
t2
n
#n=
1 t
2
2n+R
t2
n
n=
1 an (t)
n
n;
donde an (t) =t2
2
1 2R
t2
n
t2=n
: Cuando n!1 se tiene que R
t2
n
t2=n
! 0; entonces
limn!1
Wn (t) = et22 :
Y si Z; una variable aleatoria, se distribuye como una normal de parmetros = 0 y 2 = 1,se tiene que
Z (t) = EeitZ=
1p2
Z 11eitz
z2
2 dz;
haciendo v = z it se tiene que v2 = z2 2itz t2. Entonces
Z (t) = et22
Z 11
1p2ev22 dz = e
t22 :
Por lo que WnD! Z:
51