6. comportamiento limite

51
Tema 6. Comportamiento lmite de sucesiones de vari- ables aleatorias Guadalupe Carrasco Licea Noviembre de 2013 Introduccin Hasta aqu hemos estudiado el comportamiento de una variable aleatoria o de un vector de variables aleatorias. Ahora vamos a estudiar sucesiones de variables aleatorias, es decir, colecciones numerables de este tipo de variables fX 1 ;X 2 ;X 3 ;::: g ; y un aspecto importante de este estudio es la convergencia. Como sabemos, una variable aleatoria es simplemente una funcin (medible) del espacio muestral a los reales, as que una primera conjetura que se antoja plausible es que podemos aplicar la denicin de convergencia de una sucesin de funciones a una sucesin de variables aleatorias. Empecemos por ver cmo se dene la convergencia de una sucesin de funciones. Convergencia determinista de sucesiones de funciones Hay dos formas en que podemos analizar la convergencia determinista de sucesiones de funciones. Consideremos una sucesin ff n g de funciones denidas sobre A R y sea f otra funcin denida en el mismo dominio. Una idea consiste en analizar la convergencia de la sucesin de nœmeros ff n (x)g para cada x 2 A: Si en todos los elementos del dominio ff n (x)g converge a f (x) ; diremos que la sucesin de funciones converge puntualmente a f: Denicin 0.1 Sea ff n g de funciones denidas sobre A R y sea f otra funcin denida en el mismo dominio. Si lim n!1 f n (x)= f (x) para toda x 2 A: diremos que la sucesin de funciones converge puntualmente a f; cosa que se escribe as: lim n!1 f n = f: 1

Upload: aracely-guadalupe-sanchez-guzman

Post on 18-Dec-2015

51 views

Category:

Documents


18 download

DESCRIPTION

Notas de Probabilidad II ley de los grandes numeros

TRANSCRIPT

  • Tema 6. Comportamiento lmite de sucesiones de vari-ables aleatorias

    Guadalupe Carrasco LiceaNoviembre de 2013

    Introduccin

    Hasta aqu hemos estudiado el comportamiento de una variable aleatoria o de un vectorde variables aleatorias. Ahora vamos a estudiar sucesiones de variables aleatorias, es decir,colecciones numerables de este tipo de variables fX1; X2; X3; : : : g ; y un aspecto importantede este estudio es la convergencia.Como sabemos, una variable aleatoria es simplemente una funcin (medible) del espaciomuestral a los reales, as que una primera conjetura que se antoja plausible es que podemosaplicar la denicin de convergencia de una sucesin de funciones a una sucesin de variablesaleatorias.Empecemos por ver cmo se dene la convergencia de una sucesin de funciones.

    Convergencia determinista de sucesiones de funciones

    Hay dos formas en que podemos analizar la convergencia determinista de sucesiones defunciones.Consideremos una sucesin ffng de funciones denidas sobre A R y sea f otra funcindenida en el mismo dominio. Una idea consiste en analizar la convergencia de la sucesin denmeros ffn (x)g para cada x 2 A: Si en todos los elementos del dominio ffn (x)g convergea f (x) ; diremos que la sucesin de funciones converge puntualmente a f:

    Denicin 0.1 Sea ffng de funciones denidas sobre A R y sea f otra funcin denidaen el mismo dominio. Si

    limn!1

    fn (x) = f (x) para toda x 2 A:

    diremos que la sucesin de funciones converge puntualmente a f; cosa que se escribe as:

    limn!1

    fn = f:

    1

  • f5f3

    f4

    f1

    f2

    x

    Otra idea consiste en trasladar la denicin de convergencia de nmeros a las grcas delas funciones, es decir, tomar una franja de radio " alrededor de la grca de f y pedir quea partir de algn subndice N 2 N todas las grcas de las funciones con subndice mayorcaigan en esta franja. A esto se le conoce como convergencia uniforme.

    Denicin 0.2 Sea ffng una sucesin de funciones denidas sobre A R; y sea f unafuncin tambin denida sobre A: f es el lmite uniforme de fn sobre A si para cada " > 0existe algn N tal que, para todo x 2 A;

    jfn (x) f (x)j < " para toda n > N:

    ee

    Veamos la diferencia entre estas dos formas de convergencia en un ejemplo. Consideremosla sucesin de funciones dada por:

    fn (x) =

    xn si 0 x < 11 si x 1

    2

  • se ve que, para 0 x < 1; limn!1 fn (x) = limn!1 xn = 0: Por otro lado, para x 1;limn!1 fn (x) = limn!1 1 = 1: Es decir, puntualemnte, las imgenes de nuestras funcionesfn (x) convergen siempre, y podemos tomar como funcin lmite la denida por

    f (x) =

    0 si 0 x < 11 si x 1

    Sin embargo, la sucesin de funciones ffng no convergen uniformemente como se ve en lasiguienta grca

    Observen que para una " < 12, las franjas alrededor de f no contienen a las grcas de las

    funciones fn nunca. Se ve en las grcas que todas las funciones fn tienen como imagen dealgn x 2 (0; 1) al 1

    2; sin embargo ninguna franja alrededor de f con " < 1=2 incluye a esa

    imagen.

    Proposicin 0.3 Si una sucesin de funciones ffng converge uniformemente a f , entoncestambin converge puntualmente a f:

    El ejemplo anterior muestra que el recproco de esta proposicin no se cumple.Tratemos de aplicar estas deniciones de convergencia a una sucesin de variables aleatorias.

    Ejemplo 0.4 Consideremos el espacio de probabilidad ((0; 1] ;B (0; 1] ; P ) donde P es lamedida que asocia a cada subintervalo, su longitud. Denimos la sucesin fXng mediante:

    X1 = I(0;1]

    X2 = I(0;1=2] X3 = I(1=2;1]

    X4 = I(0;1=3] X5 = I(1=3;2=3] X6 = I(2=3;1]

    X7 = I(0;1=4] X8 = I(1=4;2=4] X9 = I(2=4;3=4] X10 = I(3=4;1]

    3

  • y as sucesivamente. Es decir, Xn = I( jn1kn ;jnkn] para algn par de naturales jn kn:

    Se ve que las variables aleatorias Xn son cada vez ms parecidas a la variable constante iguala cero:

    Analicemos la denicin de convergencia puntual en este ejemplo. Para cualquier ! en (0; 1]se tiene que X1 (!) = 1: Como ! est en alguno de los dos medios que forman el intervalo,una de las imgenes X2 (!) ; X3 (!) es cero y la otra es 1. Como ! est en alguno de lostercios del intervalo, una de las imgenes X4 (!) ; X5 (!) ; X6 (!) es 1 y las otras dos soncero. Y as sucesivamente, es decir, las imgenes brincan todo el tiempo entre los valores 0y 1: Aunque aumentando cada vez ms el nmero de cero, por lo que la sucesin de nmerosfXn (!)g no es convergente. De manera que de no hay convergencia puntual y, por tanto,tampoco hay convergencia uniforme.

    En resumen, aunque intuitivamente vemos que la sucesin de variables aletorias del ejemploanterior converge a la variable constante cero, las deniciones de convergencia deterministade sucesiones de funciones nos dicen que no puede haber convergencia. La razn de esto esque el azar no cabe en la denicin determinista de convergencia. Por ello, se requiere unaforma distinta de denir la convergencia de sucesiones de variables aleatorias.

    4

  • Distintas formas de convergencia de variables aleatorias

    Hay varias formas de denir la convergencia de una sucesin fXng de variables aleatorias,denidas todas ellas sobre el mismo espacio muestral : Aqu veremos tres de ellas y en latarea examen analizarn algunas otras.

    Convergencia en probabilidad

    Sea fX1; X2;X3; : : : g una sucesin de variables aleatorias denidas sobre y X otra vari-able aleatoria denida en : La idea de esta denicin es pedir que para n grande. conprobabilidad pequea, Xn se encuentra lejos de X:

    Denicin 0.5 La sucesin fXng converge en probabilidad a X; lo que escribimos comoXn

    P! X; si para cada " > 0 se cumple quelimn!1

    P (jXn Xj > ") = 0:

    En palabras, la convergencia en probabilidad se da cuando para n grande Xn se aleja de Xcon probabilidad muy pequea.

    Ejemplo 0.6 Analicemos de nuevo el ejemplo anterior, en el cual Xn = I( jn1kn ;jnkn]: Ntese

    que kn ! 1 cuando n ! 1; es decir, el denominador de las fracciones va creciendo alcrecer el subndice de la variable.Calculando la longitud favorable entre la longitud total, se tiene que ,

    P (Xn = 1) =1

    kn; P (Xn = 0) = 1 1

    kn

    De ah que para una " < 1; P (jXnj > ") = 1=kn; de donde conclumos que

    limn!1

    P (jXnj > ") = 0; es decir, Xn P! 0:

    Ejemplo 0.7 Ahora tomemos = [0; 1] y usemos nuevamente la medida de Lebesgue paraanalizar la convergencia de la sucesin cuyo trmino general es Xn = I(0;1=n]; o sea,

    Xn (!) =

    1 si ! 1=n0 en otro caso

    5

  • Aqu tambin se ve que la sucesin converge en probabilidad a la constante X = 0: Paravericarlo tomemos una 0 < " < 1: Para cualquier Xn tenemos:

    As que:

    P (jXnj > ") =1=n si " < 10 en otro caso

    Entonces limn!1 P (jXnj > ") = 0 y, por tanto, Xn P! X:Fjense que, como sucesin de funciones, las Xn convergen puntualmente a la variable Xdada por

    X (!) =

    1 si ! = 00 en otro caso

    porque Xn (0) = 1 para toda n: Sin embargo, esto no afecta la convergencia en probabilidad.

    Ejemplo 0.8 Tomando otra vez = (0; 1] y la misma medida de probabilidad que en elejemplo anterior, consideremos ahora la sucesin de variables aleatorias dadas por

    Xn (!) =

    I(0;1=n] si n es imparI(1=n;1] si n es par

    Observemos cmo son las variables de la sucesin:

    6

  • Se ve que el comportamiento lmite es diferente para las n pares que para las impares. Cuandon es impar se ve que se van hacia X = 0; mientras que si n es par, se van hacia X = 1.Entonces tomando X = 0 como variable lmite, tendramos que, para " < 1;

    P (jXnj > ") =

    1=n si n es impar1 (1=n) si n es par

    y limn!1 P (jXnj > ") :no existe. Por otro lado, tomando X = 1 como variable lmite y" < 1;

    P (jXn 1j > ") =1 (1=n) si n es impar1=n si n es par

    y limn!1 P (jXn 1j > ") no existe. Para cualquier otro posible valor de la variable lmite,se tiene que el lmite no existe Por lo tanto, fXng no converge en probabilidad.Aunque no haremos aqu las demostraciones correspondientes, cabe destacar que la conver-gencia en Probabilidad tiene propiedades semejantes a la convergencia determinista.

    Proposicin 0.9 1. Si XnP! X y Xn P! Y; entonces P (X = Y ) = 1; es decir, X y Y

    son iguales excepto en un conjunto de probabilidad cero.

    2. Si XnP! X; cualquier subsucesin de fXng converge en probabilidad a X:

    3. Si XnP! X y c es una constante, entonces cXn P! cX:

    4. Si XnP! X y Yn P! Y; entonces

    (a) Xn + YnP! X + Y

    (b) XnYnP! XY:

    Convergencia casi segura (o con probabilidad 1)

    En esta forma de convergencia, lo que se pide es que Xn converja deterministamente (pun-tualmente) a X; excepto en un conjunto de probabilidad cero.

    Denicin 0.10 Una sucesin de variables aleatorias fXng converge casi seguramente a X;lo que escribimos Xn

    cs! X; siPlimn!1

    Xn = X= 1;

    donde limn!1Xn = X , limn!1Xn (!) = X (!) para toda ! 2 :

    7

  • En palabaras, la convergencia casi segura implica que el conjunto de ! 2 para los cualesno hay convregencia puntual, tiene probabilidad cero. De la denicin se desprende que aeste tipo de convergencia tambin se le puede llamar convergencia con probabilidad 1.Revisemos los ejemplos anteriores para el caso de la convergencia casi segura.

    Ejemplo 0.11 En el ejemplo 0.4, vimos que no hay convergencia puntual de las funcionesXn (!) para ningn ! 2 (0; 1] ; as que no hay convergencia casi segura (el conjunto de ! endonde no hay convergencia puntual es todo (0; 1]):

    Este ejemplo muestra que la convergencia en probabilidad no implica la convergencia casisegura.

    Ejemplo 0.12 Sea = [0; 1] yXn = I[0;1=n]: Como vimos antes, se cumple que limn!1Xn (!) =0 para toda ! 2 (0; 1] ; as que el nico ! para el que no se cumple la convergencia a 0 es! = 0 y se tiene que P (limn!1Xn = 0) = 1, es decir, Xn

    cs! 0:

    Ejemplo 0.13 En el mismo espacio muestral, analicemos ahora

    Xn (!) =

    I(0;1=n] si n es imparI(1=n;1] si n es par

    Como vimos antes, limn!1Xn (!) no existe para ningn ! 2 (0; 1] ; de manera que noconverge casi seguramente.

    Como en el caso anterior, la convergencia casi segura tiene propiedades semejantes a la dela convergencia determinista.

    Proposicin 0.14 1. Si Xncs! X y Xn cs! Y; entonces P (X = Y ) = 1; es decir, X y Y

    son iguales excepto en un conjunto de probabilidad cero.

    2. Si Xncs! X; cualquier subsucesin de fXng converge en probabilidad a X:

    3. Si Xncs! X y c es una constante, entonces cXn cs! cX:

    4. Si Xncs! X y Yn cs! Y; entonces

    (a) Xn + Yncs! X + Y

    (b) XnYncs! XY:

    Convergencia en distribucin

    Sabemos que para cada variable aleatoria, existe una funcin de distribucin, de manera quefXng genera una sucesin de funciones de distribucin fFXng : En esta forma de convergenciase pide que la sucesin de funciones de distribucin converja puntualmente a la funcinde distribucin de la variable aleatoria lmite. Sin embargo, existe el problema de quelas funciones de distribucin pueden tener discontinuidades de salto, donde se diculta laconvergencia, as que la denicin queda as:

    8

  • Denicin 0.15 Una sucesin de variables aleatorias fXng converge en distribucin a lavariable aleatoria X, cosa que escribimos Xn

    D! X; silimn!1

    FXn (x) = FX (x) para todo x 2 R donde FX sea continua.

    Volvamos sobre nuestros ejemplos anteriores.

    Ejemplo 0.16 En el caso en que Xn = I(0;1=n]; la funcin de distribucin correspondientees

    FXn (x) = P (Xn x) =8

  • y para n par

    FXn (x) = P (Xn x) =8

  • Demostracin. De la denicin de convergencia en distribucin, se sigue inmediatamenteque FX (z) = FY (z) para cualquier real z en el que FX y FY sean continuas. Pero como elconjunto de discontinuidades de FX y de FY es numerable, entonces el conjunto de reales enlos que tanto FX como FY son continuas, es denso en R:La conclusin se sigue entonces dela continuidad por la derecha de FX y de FY :

    Proposicin 0.20 Si XnD! X y c es una constante, entonces

    1. cXnD! cX

    2. Xn + cD! X + c

    Relacin entre modos de convergencia de variables aleato-rias

    De los ejemplos, se ve que la convergencia casi segura es la ms fuerte (la ms restrictiva),aunque la relacin entre la convergencia en probabilidad y la convergencia en distribucinno se alcanza a descubrir en lo que hemos visto. En realidad lo que vamos a demostrar esque, como se ve en la gura ??, la convergencia casi segura es la ms fuerte, le sigue laconvergencia en probabilidad y, la ms dbil es la convergencia en distribucin.

    En distribucin

    En probab.

    CS

    Modos de convergencia

    El ejemplo 0.6 de la seccin anterior muestra que la convergencia en probabilidad no implicala convergencia casi segura. Veamos con un ejemplo que la convergencia en distribucintampoco implica la convergencia en probabilidad.

    Ejemplo 0.21 Sea X una variable aleatoria con distribucin normal estndar y, para cadan 2 N; denamos

    Xn =

    X si n es imparX si n es par

    11

  • Como la normal es simtrica, las variables aleatorias X y X tienen ambas distribucinnormal estndar, as que FXn (x) = FX (x) para toda x y se tiene convergencia en distribucinde la sucesin fXng :a X con distribucin normal estndar. Por otro lado, como las variablespares de la sucesin son iguales a X; tenemos que jX2n Xj = j2Xj = 2 jXj paracualquier n 2 N; as que

    P (jX2n Xj > ") = P (2 jXj > ") = PjXj > "

    2

    para cualquier " > 0: Por lo tanto

    limn!1

    P (jX2n Xj > ") = PjXj > "

    2

    > 0

    es decir, que este lmite es una constante positiva, as que fXng no converge en probabilidadporque no sucede que para n grande dicha probabilidad se achica hacia cero.

    En conclusin, la convegencia en distribucin no implica la convergencia en probabilidady la convergencia en probabilidad no implica la convergencia casi segura. Ahora vamos ademostrar que se cumple que

    Xncs! X ) Xn P! X ) Xn D! X

    Proposicin 0.22 Sea fXng una sucesin de variables aleatorias tal que Xn P! X: EntoncesXn

    D! X:

    Demostracin. Para " > 0; n 2 N y t 2 R; se tiene

    FX (t ") = P (X t ")= P (X t "; jX Xnj > ") + P (X t "; jX Xnj ")= P (X t "; jX Xnj > ") + P (X t ";X " Xn X + ") P (jX Xnj > ") + P (Xn t) = P (jX Xnj > ") + FXn (t) :

    Por otro lado,

    FXn (t) = P (Xn t)= P (Xn t; jX Xnj > ") + P (Xn t; jX Xnj ")= P (Xn t; jX Xnj > ") + P (Xn t;Xn " X Xn + ") P (jX Xnj > ") + P (X t+ ") = P (jX Xnj > ") + FX (t+ ") :

    De las dos desigualdades anteriores, se tiene que

    FX (t ") P (jX Xnj > ") FXn (t) FX (t+ ") P (jX Xnj > ")

    Tomando lmite cuando n ! 1 y utilizando el hecho de que Xn P! X; se obtiene queparacualquier " > 0; n 2 N y t 2 R;

    FX (t ") lim infn!1

    FXn (t) lim supn!1

    FXn (t) FX (t+ ")

    12

  • Ahora, si t es un punto de continuidad de FX; entonces, tomando lmites cuando " ! 0; seobtiene

    FX (t) lim infn!1

    FXn (t) = lim supn!1

    FXn (t) FX (t)As que limn!1 FXn (t) = FX (t) :Veamos ahora la otra implicacin

    Proposicin 0.23 Sea fXng una sucesin de variables aleataorias tal que Xn cs! X: En-tonces, Xn

    P! X:Demostracin. Por la convergencia casi segura, sabemos que P (limn!1Xn = X) = 1: Asque existe un conjunto 0 de probabilidad 0 tal que si ! 2 c0; entonce limn!1Xn (!) =X (!) : Esto signica que dado ! 2 c0 y " > 0; existe N tal que jXn (!)X (!)j < " paracualquier n > N: De hecho, podemos tomar una N tal que jXn (!)X (!)j " para todan N:Esto ltimo signica que ! 2

    1\n=N

    f! 2 : jXn (!)X (!)j "g : Dicho de otro modo, para

    cada ! 2 c0; dada cualquier " > 0; existe algunam 2 N tal que ! 21\n=m

    f! 2 : jXn (!)X (!)j "g ;lo que a su vez implica que

    ! 21[m=1

    " 1\n=m

    f! 2 : jXn (!)X (!)j "g#

    de donde se concluye que

    c0 =1[m=1

    " 1\n=m

    f! 2 : jXn (!)X (!)j "g#

    y

    P

    1[m=1

    " 1\n=m

    f! 2 : jXn (!)X (!)j "g#!

    = 1

    Vamos a llamarle Bm (") al conjunto Bm (") =1\n=m

    f! 2 : jXn (!)X (!)j "g, y en-tonces, para cada " tenemos una sucesin de eventos fBm (")g montona creciente: B1 (") B2 (") B3 (") y se cumple que

    limm!1

    P (Bm (")) = P

    1[m=1

    Bm (")

    != 1

    de donde se concluye quelimm!1

    P (Bcm (")) = 0:

    Pero Bcm (") =1[m=1

    f! 2 : jXn (!)X (!)j > "g ; as que [jXm Xj > "] Bcm (") : Por lotanto

    limm!1

    P (jXm Xj > ") limm!1

    P (Bcm (")) = 0:

    13

  • Hay un caso particular en el que la convergencia en distribucin s implica la convergenciaen probabilidad y es cuando la sucesin de variables aleatorias converge en distribucin a 0.

    Proposicin 0.24 Sea fXng una sucesin de variables aleatorias tal que Xn D! 0: EntoncesXn

    P! 0:Demostracin. Sea X = 0: Sabemos que la funcin de distribucin lmite es la distribucinque correponde a la constante X = 0; es decir,

    limn!1

    FXn (x) = FX (x) =

    0 si x < 01 si x 0

    Obsrvese que esta funcin es discontinua en x = 0 en donde el lmite por la derecha es 1 yel lmite por la izquierda es cero. Para " > 0;

    P (jXnj > ") = P (Xn > ") + P (Xn < ") P (Xn > ") + P (Xn ")= 1 FXn (") + FXn (")

    Aplicando lmite:

    limn!1

    P (jXnj > ") lim (1 FXn (") + FXn (")) = 0:

    En resumen, tenemos que

    Xncs! X ) Xn P! X ) Xn D! X

    XnP! 0 ( Xn D! 0

    Corolario 0.25 Sean fXng y fYng dos sucesiones de variables aleatorias tales que Xn D! 0y Yn

    D! 0: Entonces1. Xn + Yn

    D! 02. XnYn

    D! 0

    Teoremas lmite

    Le llamamos teoremas lmite a los teoremas que establecen condiciones para que se de algunaconvergencia de una sucesin de variables aleatorias: Empezaremos recordando un teoremade convergencia en distribucin demostrado por Poisson, que vimos en Proba1.

    Teorema 0.26 (Teorema de Poisson) Considerese la sucesin de variables aleatorias in-dependientes fXng cada una con distribucin Binomial de parmetros n y p 2 (0; 1) detal manera que = np sea constante (es decir, al crecer n se achica p): Para cualquierx 2 f0; 1; 2; : : : g

    limn!1

    P (Xn = x) =xe

    x!;

    es decir, XnD! X donde X tiene distribucin Poisson.

    14

  • Demostracin.

    P (X = x) =

    n

    x

    px (1 p)nx = n (n 1) (n 2) (n x+ 1)

    x!

    n

    x1

    n

    nx=

    n (n 1) (n 2) (n x+ 1)nx

    x

    x!

    1

    n

    nx=

    n

    n

    n 1n

    n 2n

    n (x 1)

    n

    x

    x!

    1

    n

    n1

    n

    x= 1

    1 1

    n

    1 2

    n

    1 x 1

    n

    x

    x!

    1

    n

    n1

    n

    xy tenemos los siguientes lmites cuando n!1 :

    e = limn!1

    1

    n

    n1 = lim

    n!1

    1 j

    n

    para cada j

    1 = limn!1

    1

    n

    x= lim

    n!11

    1 n

    xy

    x

    x!es constante respecto a n; as que haciendo tender n ! 1 y dejando constante ;

    obtenemos

    limn!1

    np constante

    P (X = x) =x

    x!e

    La Ley de los Grandes Nmeros

    Bajo el nombre de Ley de los grandes nmeros se agrupa una coleccin de teoremas que sepueden clasicar en dos clases segn el tipo de convergencia al que hacen referencia: la Leydbil de los grandes nmeros que usa convergencia en probabilidad, y la Ley fuerte de losgrandes nmeros que usa convergencia casi segura. Ambos tipos se reeren a condicionesbajo las cuales puede asegurarse que el promedio de las primeras n variables de una sucesin,converge al ir aumentando el nmero de variables incluidas.

    Ley dbil de los grandes nmeros

    La versin dbil, fue demostrada por primera vez por J. Bernoulli y publicada en 1713(en forma pstuma). Sea E es un experimento y A un evento en l con probabilidad p:Consideremos que este experimento se repite indenida del experimento E ; de tal maneraque cada repeticin es independiente de las otras. Entonces, llamando Zn al nmero de vecesque ocurre el evento A en n repeticiones, se tiene que

    Znn

    P! p:

    15

  • Obsrevese que Zn = X1 +X2 + +Xn donde

    Xi =

    1 si ocurre A en la i sima repeticin0 en otro caso

    de manera que el teorema demostrado por Bernoulli establece que el promedio de n vari-ables independientes que se distribuyen como Bernoulli, converge en probabilidad a una p:La primera versin de la forma general de este resultado se debe al matemtico sovieticoPafnuty L. Chebyshev, publicada en 1867. Recordemos, antes de ver la demostracin, dosdesigualdades que probamos en Proba 1:

    1. Desigualdad de Markov. Sea X una variable aleatoria, g una funcin Borel mediblecon dominio en R y no negativa y k un real positivo, se tiene que

    P (g (X) > k) 1kE (g (X))

    2. Desigualdad de Chebyshev: Para cualquier variable aleatoria X de esperanza nita, ycualquier " > 0; se cumple que

    P (jX E (X)j > ") = P jX E (X)j2 > "2 1"2V ar (X)

    Teorema 0.27 (Ley dbil de los grandes nmeros-Chebyshev) Sea fXng una suce-sin de variables aleatorias independientes e identicamente distribuidas, con esperanza yvarianza nita 2. Entonces, cuando n!1;

    X1 +X2 + +Xnn

    P!

    Demostracin. Para cada n 2 N; la variable aleatoria Xn = X1++Xnn tiene esperanza .Si la varianza de cada Xn es 2; como las Xi son independientes, la varianza de Yn es

    V arXn= V ar

    1

    n

    nXj=1

    Xi

    !=1

    n2

    nXj=1

    2 =2

    n

    Tomemos una " > 0 arbitraria. Por la desigualdad de Chebyshev se tiene

    PXn > " 1

    "2V ar

    Xn=2

    n"2

    de dondelimn!1

    PXn > " = 0

    y XnP! cuando n!1

    El Teorema anterior admite una generalizacin cuando las variables aleatorias no estn iden-ticamente distribuidas, pero hay que agregar otra condicin sobre las varianzas nitas.

    16

  • Teorema 0.28 (Ley dbil de los grandes nmeros-Markov) Sea fXng una sucesinde variables aleatorias independientes, con E (Xi) = i; y V ar (Xi) =

    2i "! 1"2V ar

    Xn=

    2

    n2"2

    nXj=1

    2j

    de donde se obtiene el resultado deseado aplicando lmite.

    Ejemplo 0.29 Sea fXng una sucesin de variables aleatorias independientes cuyas fun-ciones de densidad son

    fn (x) =

    1=2 si x 2 n1=4;n1=40 en otro caso

    La esperanza de cada Xn es 0 (n = 0) y su varianza es

    V ar (Xn) =1

    2

    n1=4 02 + 1

    2

    n1=4 02 = n1=2:As que

    limn!1

    1

    n2

    nXj=1

    2j = limn!1

    1

    n2

    nXj=1

    pj lim

    n!11

    n

    pn = lim

    n!11pn= 0:

    Por el Teorema anterior, se tiene entonces que 1n

    Pnj=1Xj

    P! 0:

    17

  • Ejemplo 0.30 Sea fXng una sucesin de variables aleatorias independientes con funcionesde densidad

    fn (x) =

    1=2 si x 2 fn; ng0 en otro caso

    Como en el ejemplo anterior, n = 0 y

    V ar (Xn) =1

    2 n2 + 1

    2n2 = n2:

    As que

    limn!1

    1

    n2

    nXj=1

    2j = limn!1

    1

    n2

    nXj=1

    j2 = limn!1

    n (n+ 1) (2n+ 1)

    6n2=1:

    De manera que no se cumple la condicin de Markov para concluir que 1n

    Pnj=1Xj

    P! 0:Pero la condicin del Teorema es suciente ms no necesaria, as que no podemos tampococonlcluir de aqu que la convergencia anterior no se cumple.Obsrvese que se tiene

    1

    nXn =

    1

    n

    nXj=1

    Xj 1n

    n1Xj=1

    Xj =1

    n

    nXj=1

    Xj n 1n

    1

    n 1n1Xj=1

    Xj

    !

    Si ocurriera que 1n

    Pnj=1Xj

    P! 0; tendramos que 1nXn

    P! 0: (porque tambin1n1

    Pn1j=1 Xj

    P! 0): Pero 1nXn = 1 con probabilidad 1. As que esta convergencia no puede

    ocurrir.

    Hay otras variantes de la Ley dbil de los grandes nmeros que no demostraremos aqu.Por ejemplo, Chebyshev di una demostracin en la que no pide que las variables seanidnticamente distribudas y agrega slo la condicin de que las varianzas estn acotadassuperiormente.

    Teorema 0.31 (Segunda Ley dbil de Chebyshev) Sea fXng una sucesin de variablesaleatorias independientes con E (Xi) = i y V ar (Xi) c

  • Ley fuerte de los grandes nmeros

    En 1930, Andrey Nikolaevich Kolmogorov mostr una versin general de la Ley de los grandesnmeros, usando convergencia casi segura, sin especicar la distribucin de las variables dela sucesin. Antes de eso, se dieron demostraciones particulares, de las cuales vale la penadestacar la Ley fuerte de Borel para el caso en que las variables aleatorias tienen todas ellasdistribucin Bernoulli con parmetro p; misma que formulamos a continuacin.

    Teorema 0.33 (Ley fuerte de los grandes nmeros-Borel) Sea fXng una sucesin devariables aleatorias independientes, todas con distribucin Bernoulli de parmetro p 2 (0; 1) :Entonces

    X1 +X2 + +Xnn

    cs! p

    La primera versin de Kolmogorov es la siguiente.

    Teorema 0.34 (Ley fuerte de los grandes nmeros-Kolmogorov) Sea fXng una suce-sin de variables aleatorias independientes e idnticamente distribuidas

    Si E [jX1j]

  • Uno de los resultados importantes que se demostraron para esta segunda formulacin del laLey fuerte, es el siguiente:

    Proposicin 0.37 (Desigualdad de Kolmogorov) Sea fX1; X2; : : : ; Xng una coleccinnita de variables aleatorias independientes con E (Xi) = i y V ar (Xi) =

    2i

  • Es decir, si X se distribuye como Binomial con parmetros n y p; para k 2 f0; 1; : : : ; ng, setiene que P (X = k) fX (k) ; donde X se distribuye como normal con parmetros = npy 2 = npq: La aproximacin ser mejor mientras ms cerca est k de np como veremos enel siguiente ejemplo.

    Ejemplo 0.40 Sea X una variable que se distribuye como Binomial con parmetros n = 50y p = 1=4: En este caso, np = 25

    2y npq = 75

    8: de acuerdo al resultado anterior

    P (X = x) =

    50

    x

    1

    4

    x3

    4

    50x 2

    5

    r1

    3exp

    ( 475

    x 25

    2

    2):

    Para ver qu tan buena es la aproximacin, tomemos algunos valores particulares. Primero,un valor lejano de la media ( 12.5):

    P (X = 2) =

    50

    2

    (0:25)2 (0:75)48 = 7:7083 105

    P (X = 2) 25

    r1

    3exp

    ( 475

    2 25

    2

    2)= 3:6414 104

    En este caso, tenemos los siguientes errores:

    Error absolt = 3:6414 104 7:7083 105 = 2:87067 104 0:000287Error relat =

    2:870677 1047:7083 105 = 3:724

    Ahora tomemos un valor cercano a la media:

    P (X = 10) =

    50

    10

    (0:25)10 (0:75)40 = 0:098518

    P (X = 10) 25

    r1

    3exp

    ( 475

    10 25

    2

    2)= 0:09336

    En este caso los errores son

    Error absolt = 0:09336 0:098518 = 5:158 103 0:00516Error relat =

    5:158 1030:098518

    = 0:0523556

    As que,la aproximacin normal a una binomial no es igualmente buena para todos los posi-bles valores de X:

    Teorema 0.41 (Teorema integral de De Moivre-Laplace) Sean a y b dos nmeros reales,a < b; y fXng una sucesin de variables aleatorias con distribucin Binomial deparmetrosn y p: Entonces

    limn!1

    P

    a ) 0:01:Usando la aproximacin Normal, tenemos

    P (X > ) PX nppnpq

    > nppnpq

    = P

    Z >

    500p475

    = 1 P

    Z 500p

    475

    = 0:01

    As que buscamos tal que

    P

    Z a 500p

    475

    = 0:99) a 500p

    475 2:33

    De donde 550:78: De manera que si asegura que en 10,000 lmparas no habr ms de551 defectuosas, en promedio, tendr que pagar a lo ms el 1% de los envos.

    El Teorema Central del Lmite

    Teorema 0.43 (Teorema Central del Lmite de Linderberg-Levy) Sea fXng una suce-sin de variables aleatorias independientes e identicamente distribudas de media y varianzanita 2 nita. Entonces

    limn!1

    P

    X1 +X2 + +Xn n

    pn

    x=

    1p2

    Z x1e y

    2=2dy;

    es decir,X1 +X2 + +Xn n

    pn

    D! Z N (0; 1)

    Observacin. Si Sn = X1 +X2 + +Xn; entonces,

    E (Sn) =nXk=1

    E (Xk) = n

    V ar (Sn) =

    nXk=1

    V ar (Xk) = n2 por la independencia de las Xis

    DE (Sn) = pn:

    Por tanto, en el TCL se estandariza Sn restando su media y dividiendo entre su desviacinestndar. Dicho de otro modo, para n sucientemente grande podemos decir que

    Sn N n; n2 ;

    donde signica "se distribuye ms o menos como". Dicho de otro modo, para n sucien-temente grande

    Sn npn

    N (0; 1) :

    22

  • Ejemplo 0.44 Sea fXng una sucesin de variables aleatorias independientes, todas condistribucin exponencial de parmetro = 1: Encuentra la n ms grande para la que secumpla

    P

    " 1nnXk=1

    Xk 1 0:01

    # 0:9

    Usando el TCL se tiene

    P

    " 1nnXk=1

    Xk 1 0:01

    #= P

    "nXk=1

    Xk n 0:01n

    #

    = P

    X1 +X2 + +Xn npn 0:01pn

    P jZj 0:01pn = P 0:01pn Z 0:01pn 0:9Buscando en tablas, obtenemos que

    0:01pn = 1:645) n (1:645)2 (10; 000) = 27; 060

    Ejemplo 0.45 50 nmeros seleccionados al azar se redondean al entero ms cercano y de-spus se suman. Suponiendo que los errores de redondeo estn uniformemente distribuidosen el intervalo (0:5; 0:5) ; encontrar la probabilidad de que la suma obtenida diera del valorexacto en ms de 3 unidades.Sean a1; a2; : : : ; a50 los nmeros que se redondean y sean X1; X2; : : : ; X50 los errores de re-dondeo correspondientes. se tiene entonces que

    E (Xi) = 0 y V ar (Xi) =1

    12:

    Entonces

    P

    "50Xi=1

    (ai +Xi)50Xi=1

    ai

    > 3#= P

    "50Xi=1

    Xi

    > 3#

    = P

    "P50

    i=1Xip50=12

    > 3p50=12#

    = P

    "P50

    i=1Xip50=12

    > 1:4697#

    P [Z > 1:4697] = 0:14164

    Ejemplo 0.46 En un lanzamiento de tiro al blanco, un tirador obtiene 10, 9, 8, 7, o 6puntos con probabilidades 0.05, 0.1, 0.15, 0.2 y 0.5 respectivamente. Lanza 100 tiros. Cules la probabilidad de que su puntaje exceda a 730?Denamos la variable

    Xi = # de puntos del tiro en el i-simo lanzamiento;

    23

  • donde Xi = 6; 7; 8; 9; 10. Primero calculemos E [Xi] y V ar [Xi]

    E [Xi] =10Xi=6

    xP (Xi = x)

    = 6 (0:5) + 7 (0:2) + 8 (0:15) + 9 (0:1) + 10 (0:05)

    = 7;

    E2 [Xi] =

    10Xi=6

    x2P (Xi = x)

    = 62 (0:5) + 72 (0:2) + 82 (0:15) + 92 (0:1) + 102 (0:05)

    = 50:5;

    entoncesV ar [Xi] = 50:5 49 = 1:5

    Por lo que

    P

    "100Xi=1

    Xi > 730

    #= 1 P

    "100Xi=1

    Xi 730#

    = 1 P"P100

    i=1Xi 7 (100)p1:5 (100)

    730 7 (100)p1:5 (100)

    #t 1 P [Z 2:4494] = 1 (:5 + :4929) = 0:0071

    Ejemplo 0.47 Suponga que en una ciudad dada existen N votantes registrados en el padrnelectoral de los cuales se selecvciona una muestra sin reemplazo de n votantes, 1 n N .Si se desea estimar la proporcin de votos declarados a favor del candidato A de tal maneraque 0.001 sea la probabilidad de que la proporcin muestral sea menor que 0.50 aun cuandola proporcin poblacional a favor de A es de 0.52, de que tamao tiene que ser la muestra?

    Primero denamos Xi :1 si la i-sima eleccin es a favor del candidato A,0 e.o.c,

    tenemos que

    P (Xi = 1) =V FA

    N= 0:52

    donde V FA es el nmero de votantes a favor del candidato A. Por lo que si denimos

    X : # de VFA en la muestra,

    X es una variable de distribucin hipergeomtrica y adems X =Pn

    i=1Xi; as que

    E (X) = E

    nXi=1

    Xi

    != 0:52n

    y

    V ar (X) =(V FA)n (N V FA) (N n)

    N2 (N 1) ;

    24

  • que son la esperanza y varianza de una hipergeomtrica. Reduciendo la varianza

    V ar (X) =0:52n (1 0:52) (N n)

    (N 1)=

    N nN 1 0:52 (0:48)n

    De lo anterior se deduce que:

    P

    Pni=1Xin

    < 0:5

    P

    Z " para una innidad de valores de ng) = 0para cualquier " > 0:

    Demostracin. Supongamos que Xncs! 0: Para " > 0 denamos los conjuntos

    A (") = f! 2 : jXn (!)j > " para una innidad de valores de ng)) Como P (limn!1Xn = 0) = 1; existe un conjunto 0 de probabilidad 1 tal que si! 2 0; entonces limn!1Xn = 0: Este lmite signica que dado ! 2 y " > 0; existe N talque jXn (!)j < " para cualquier n N: Por tanto, si ! 2 A (") ; entonces ! 2 c0 de dondese desprende que P (A (")) P (c0) = 0() Supongamos que.

    P (f! 2 : jXn (!)j > " para una innidad de valores de ng) = 0para cualquier " > 0: Para cada r 2 N, sea

    Br = f! 2 : jXn (!)j > 1=r para una innidad de valores de ngPor hiptesis, P (Br) = 0 para cualquier r 2 N y la sucesin de eventos Bc1; Bc2; Bc3; : : : esmontona decreciente. As que

    P

    1\r=1

    Bcr

    != lim

    r!1P (Bcr) = 1:

    Pero

    Bcr = f! 2 j existe N (!) tal que jXn (!)j 1=r para cualquier n N (!)gDe manera que si ! 2 T1r=1Bcr; entonces para cualquier r 2 N existe N (!) tal que jXn (!)j 1=r para cualquier n N (!) : En particular, dada " y r tales que 1=r < "; entoncesjXn (!)j 1=r < " para cualquier n N (!) ; lo cual signica que limn!1Xn (!) = 0: Enotras palabras

    1\r=1

    Bcr hlimn!1

    Xn (!) = 0i

    lo cual implica que

    Phlimn!1

    Xn (!) = 0i P

    1\r=1

    Bcr

    != 1:

    Corolario 0.49 Sea fXng una sucesin de variables aleatorias y X otra variable aleatoria.Entonces Xn

    cs! X si y slo siP (f! 2 : jXn (!)X (!)j > " para una innidad de valores de ng) = 0

    para cualquier " > 0;

    26

  • Enunciamos a continuacin un resultado que nos permitir redondear una condicin sucientepara tener una convergencia casi segura a cero.

    Proposicin 0.50 Lema de Borel-Cantelli. Sea A1; A2; : : : una sucesin de eventostales que

    P1n=1 P (An) ") " para una innidad de valores de ngPor la proposicin 0.50, P (A (")) = 0 para cualquier ": As que el resultado se obtieneaplicando la proposicin 0.48.

    Corolario 0.52 Sea X1; X2; X3; : : : una sucesin de variables aleatorias tales que1Xn=1

    P (jXn Xj > ")

  • Finalmente, ser til calcular antes de la demsotracin los momentos E (Xn) en el caso enque X B (n; p) : La funcin generadora de momentos es

    mX (t) = Eetx=

    nXx=0

    etxnx

    px (1 p)nx

    =nXx=0

    nx

    etpx(1 p)nx = pet + 1 pn

    Por tanto

    E (X) =dmX (t)

    dt

    t=0

    = npetpet + 1 pn1

    t=0

    = np (p+ 1 p)n1 = npPara E (X2) tenemos

    EX2=

    d2mX (t)

    dt2

    t=0

    = n (n 1) pet2 pet + 1 pn2 + npet pet + 1 pn1t=0

    = (n 1)np2 + np:En el caso de E (X3) obtenemos

    EX3=d3mX (t)

    dt3

    t=0

    =

    = n (n 1) (n 2) pet3 pet + 1 pn3 + 2n (n 1) pet2 pet + 1 pn2t=0

    + n (n 1) pet2 pet + 1 pn2 + npet pet + 1 pn1t=0

    = n (n 1) (n 2) p3 + 3n (n 1) p2 + np:Anlogamente para el 4o momento

    EX4=d4mX (t)

    dt4

    t=0

    =

    = n (n 1) (n 2) (n 3) pet4 pet + 1 pn4 + 3n (n 1) (n 2) pet3 pet + 1 pn3t=0

    + 2n (n 1) (n 2) pet3 pet + 1 pn3 + 4n (n 1) pet3 pet + 1 pn2t=0

    + n (n 1) (n 2) pet3 pet + 1 pn3 + n (n 1) 2 pet2 pet + 1 pn2t=0

    + n (n 1) pet2 pet + 1 pn2 + npet pet + 1 pn1t=0

    = n (n 1) (n 2) (n 3) p4:+ 6n (n 1) (n 2) p3 + 7n (n 1) p2 + np

    28

  • Teorema 0.53 (Ley fuerte de los grandes nmeros-Borel) Sea fXng una sucesin devariables aleatorias independientes, todas con distribucin Bernoulli de parmetro p 2 (0; 1) :Entonces

    X1 +X2 + +Xnn

    cs! p:

    Demostracin. Sea Sn = X1+X2+ +Xn: Entonces Sn tiene distribucin Binomial conparmetros n y p; as que

    E (Sn) = np

    ES2n= np+ n (n 1) p2

    ES3n= np+ 3n (n 1) p2 + n (n 1) (n 2) p3

    ES4n= np+ 7n (n 1) p2 + 6n (n 1) (n 2) p3 + n (n 1) (n 2) (n 3) p4

    Por tanto:

    E

    "Snn p4#

    =E (S4n)

    n4 4E (S

    3n)

    n3p+ 6

    E (S2n)

    n2p2 4E (Sn)

    np3 + p4

    =np+ 7n (n 1) p2 + 6n (n 1) (n 2) p3 + n (n 1) (n 2) (n 3) p4

    n4

    4np2 + 3n (n 1) p3 + n (n 1) (n 2) p4

    n3

    +6np3 + n (n 1) p4

    n2 4np

    4

    n+ p4

    =p 7p2 + 12p3 6p4 + 7np2 18np3 + 11np4 + 6n2p3 6n2p4 + n3p

    n3

    +12p3 4p2 8p4 12np3 + 12np4 4n2p4

    n2

    +6p3 6p4 + 6np4

    n 3p4

    =p 7p2 + 12p3 6p4 + 3np2 6np3 + 3np4

    n3

    =3np2 (1 p)2 6p2 (1 p)2 + p (1 p)

    n3

    =1

    n3p (1 p) [3np (1 p) 6p (1 p) + 1]

    14n3

    3n

    4+ n

    ") 1"E (jXj) ;

    as que

    P

    Snn p > " = P

    Snn p4 > "4

    !E

    Snn p4"4

    " para alguna k 2 N tal que 2n1 < k 2n

    Usando estos eventos, tenemos que

    A" = f! 2 : ! 2 Bn;" para una innidad de valores de ng

    30

  • Entonces para probar que P (A") = 0 necesitamos vericar queP1

    n=1 P (Bn;")

  • Demostracin. En el caso en que nX

    n

    P (Xn 6= Yn) =Xn

    P (jXnj > n) =Xn

    P (jX1j > n) E [jX1j]

  • para toda i = f1; 2; 3; ::::g ; en particular para i = 1: Por lo queXn

    EjYn E (Yn)j2

    n2

    1Xj=1

    jEjX1j I[j1

  • Proposicin 0.56 (Desigualdad de Kolmogorov) Sea fX1; X2; : : : ; Xng una coleccinnita de variables aleatorias independientes con E (Xi) = i y V ar (Xi) =

    2i

  • Obsrvese queRAkskzkfSn (s) ds = E (IAkSkZk) y como las variables Sk y Zk son independi-

    entes y E (Zk) = 0; esta integral vale 0. Por tanto, tenemos:ZAk

    s2fSn (s) ds =

    ZAk

    s2kfSn (s) ds+

    ZAk

    szk2fSn (s) ds

    ZAk

    s2kfSn (s) ds a2P (Ak)

    ya que jskj a en Ak: Finalmente

    V ar (Sn) =nXi=1

    2i a2nXk=1

    P (Ak) = a2P (A)) P (A) 1

    a2

    nXi=1

    2i :

    Obsrvese que la desigualdad de Kolmogorov es una generalizacin de la de Chebyshev,misma que se obtiene haciendo n = 1 en la desigualdad que acabamos de probar.En la siguiente demostracin usaremos el lema de Kronecker que establece que si fang esuna sucesin de nmeros reales que satisface que

    P1i=1

    aii< 1; entonces se cumple que

    limn!1 1nPn

    i=1 ai = 0:

    Teorema 0.57 (Segunda Ley Fuerte de Kolmogorov) Sea fXng una sucesin de vari-ables aleatorias independientes con E (Xi) = i y V ar (Xi) =

    2i

  • Ahora, comohPki=1 Yii ai est contenido en el evento hmax1kn nPki=1 Yii o ai ; se

    tiene que

    P

    "kXi=1

    Yii

    a# P

    "max1kn

    (kXi=1

    Yii

    ) a# 1a2

    nXi=1

    2ii2;

    as que

    P

    "kXi=1

    Yii

    < a# 1 1

    a2

    nXi=1

    2ii2

    Aplicnado lmite cuando a!1 en ambos miembros de la ltima desigualdad, obtenemos:

    P

    "kXi=1

    Yii

  • Ahora bien, si k satisface que

    np+ apnpq k np+ bpnpq;

    entonces

    n np bpnpq n k n np apnpqnq bpnpq n k nq apnpq:

    De las desigualdades anteriores se desprende que

    pp+

    bppqpn

    = npnp+ b

    pnpq

    npk npnp+ a

    pnpq

    =p

    p+appqpn

    q

    q appqpn

    = nqnq apnpq

    nq

    n k nq

    nq bpnpq =q

    q bppqpn

    n k nk n + k + nk 1

    12

    1

    n+1

    k+

    1

    n k

    112

    1

    n+

    1

    np+ apnpq

    +1

    nq bpnpq

    enknk e 1121n+ 1np+a

    pnpq

    + 1nqbpnpq

    ! 1

    Por tanto,

    limn!1

    rnp

    k

    rnq

    n kenknk = 1 uniformemente en k:

    Los factores que nos faltan de P [Xn = k] sonnpk

    k nqnknk

    , mismos que podemos escribirde la forma: np

    k

    k nqn k

    nk=

    1knp

    k nknq

    nk : (0.3)Tomando yk;n =

    knppnpq

    tenemos que

    k

    np

    k=

    0@np+ k npp

    npqpnpq

    np

    1Ak

    =

    np+ yk;n

    pnpq

    np

    k=

    1 + yk;n

    pqpnp

    np+yk;npnpq

    37

  • yn knq

    nk=

    0@n k + np npp

    npqpnpq

    nq

    1Ank

    =

    0@nq (k np)p

    npqpnpq

    nq

    1Ank

    =

    nq yk;npnpq

    nq

    nk=

    1 yk;n

    pppnq

    nqyk;npnpqEn los exponentes de las expresiones anteriores usamos que yk;n =

    knppnpq

    ) k = np+yk;npnpqy n k = n np yn;kpnpq = nq yn;kpnpq:De lo anterior se desprende que

    ln

    npk

    k nqn k

    nk!= (np+ yk;npnpq) ln

    1 + yk;n

    pqpnp

    (0.4)

    (nq yk;npnpq) ln1 yk;n

    pppnq

    ;

    y si usamos la expansin en serie de Taylor del logaritmo natural alrededor de 1 (el primertrmino se elimina, al ser ln 1 = 0), se tiene

    ln

    npk

    k nqn k

    nk!

    = (np+ yk;npnpq) 1Xk=1

    (1)k+1 (k 1)!k!

    yk;n

    pqpnp

    k!

    (nq yk;npnpq) 1Xk=1

    (1)k+1 (k 1)!k!

    yk;n

    pppnq

    k!

    = (np+ yk;npnpq) 1Xk=1

    (1)k+1k

    yk;n

    pqpnp

    k!

    +(nq yk;npnpq) 1Xk=1

    1

    k

    yk;n

    pppnq

    k!

    Desarrollando tenemos

    ln

    npk

    k nqn k

    nk!

    38

  • = np 1Xk=1

    (1)k+1k

    yk;n

    pqpnp

    k! yk;npnpq

    1Xk=1

    (1)k+1k

    yk;n

    pqpnp

    k!

    +nq

    1Xk=1

    1

    k

    yk;n

    pppnq

    k! yk;npnpq

    1Xk=1

    1

    k

    yk;n

    pppnq

    k!

    = npyk;n

    pqpnp

    +np

    2

    yk;n

    pqpnp

    2 np3

    yk;n

    pqpnp

    3+np

    4

    yk;n

    pqpnp

    4 :::

    pnpqy2k;n p

    ppnq

    +

    pnpqy3k;n2

    pppnq

    2pnpqy4k;n3

    pppnq

    3+ :::

    +nq

    yk;n

    pppnq

    +nq

    2

    yk;n

    pppnq

    2+nq

    3

    yk;n

    pppnq

    3+nq

    4

    yk;n

    pppnq

    4+ :::

    pnpqy2k;n p

    ppnq

    pnpqy3k;n2

    pppnq

    2pnpqy4k;n3

    pppnq

    3 :::

    Todos los trminos con np o nq (primer y tercer rengln de la ltima igualdad) se eliminanentre s, as que nos queda:

    = y2k;n

    q2 p+ p

    2 p

    +y3k;n

    pq3

    3pnp+

    pp3

    2pnq+

    pp3

    3pnqpp3

    2pnq

    !

    +y4k;n

    q2

    4np p

    2

    3nq+p2

    4nq p

    2

    3nq

    + ::::::

    = y2k;n

    2+

    y3k;n6pnpq

    q2 p2 y4k;n

    12npq

    q3 + p3

    +

    = y2k;n

    2+ An (yk;n)

    donde An (yk;n) =y3k;n6pnpq(q2 p2) y

    4k;n

    12npq(q3 + p3) + ; por lo que

    limn!1

    An (yk;n) = 0 uniformemente en k;

    de donde conclumos que

    limn!1

    expAn (yk;n) = 1 uniformemente en k:

    39

  • Por tanto,

    P (Xn = k)1p

    2pnpqe y

    2k;n=2

    =

    1p2

    1pnpq

    pnpk

    qnqnk

    npk

    k nqnknk

    enknk

    1p2pnpqe y

    2k;n=2

    = ey2k;n=2

    rnp

    k

    rnq

    n knpk

    k nqn k

    nkenknk

    = ey2k;n=2

    rnp

    k

    rnq

    n kenknke y

    2k;n=2eAn(yk;n)

    =

    rnp

    k

    rnq

    n kenknkeAn(yk;n) !

    n!11 uniformemente en k:

    Corolario 0.59 Si Xn se distribuye como binomial de parmetros n y p y k es un enterono negativo, k n; entonces

    P (X = k) 1pnpq

    1p2exp

    ( (k np)

    2

    2npq

    )

    Es decir, si X se distribuye como Binomial con parmetros n y p; para k 2 f0; 1; : : : ; ng, setiene que P (X = k) fX (k) ; donde X se distribuye como normal con parmetros = npy 2 = npq: La aproximacin ser mejor mientras ms cerca est k de np como veremos enel siguiente ejemplo.

    Teorema 0.60 (Teorema integral de De Moivre-Laplace) Sean a y b dos nmeros reales,a < b; y fXng una sucesin de variables aleatorias con distribucin Binomial deparmetrosn y p: Entonces

    limn!1

    P

    a [za (t) 1] z

    2

    2

    con a (t) = te3=3 > 0 para toda t positiva. As, para z > 2=a (t) tenemos que [a (t) 1] > 1y, en consecuencia

    EetX 1p

    2

    Z 12=a(t)

    e12z2dz =1

    Sin embargo, para t negativa es fcil vericar que EetX< 1: La conclusin es que no

    existe una vecindad del origen en la que EetXsea nita y por tanto X no tiene funcin

    generadora de momentos.

    Para solucionar el problema de asociar una funcin generadora a cada distribucin de prob-abilidad, denimos la funcin caracterstica:

    Denicin 0.62 Sea X una variable aleatoria. La funcin caracterstica de X es una fun-cin : R! C dada por

    X (t) = EeitX

    donde i =

    p1:

    Tenemos entonces

    X (t) =

    Px P (X = x) e

    itx si X es discretaR11 fX (x) e

    itxdx si X es absol. continua

    Para ver las principales caractersticas de X y su utilidad, requerimos la siguiente informa-cin acerca de los nmeros complejos:

    1. Cualquier complejo z 2 C se puede escribir en la forma z = a+bi donde a y b son realesconocidos como parte real y parte imaginaria de z: Tambin se identica al complejoz como la pareja z = (a; b) :

    2. El complejo conjugado de z es z = a bi:3. El producto entre dos complejos y = a+ bi y z = c+ di es yz = (ac bd)+ (ad+ bc) i:4. La norma de un complejo z se dene como jzj = pa2 + b2; es decir, jzj2 = zz:5. Para cualquier t 2 R, eit = cos t+ i sen t y jeitj = 1:6. Si r y son las coordenadas polares del punto (a; b) ; la forma polar de z es z =r (cos + i sen )

    44

  • Ejemplo 0.63 a) Sea X una variable aleatoria con distribucin binomial de parmetros ny p: Entonces

    X (t) = EeitX

    =

    nXx=0

    n

    x

    peitxqnx =

    peit + q

    nb) Sea Y una variable aleatoria con distribucin Poisson de parmetro : Entonces

    Y (t) = EeitY= e

    1Xy=0

    (eit)y

    y!= eee

    it

    = e(eit1)

    c) Supongamos ahora que Z N (0; 1) : Es posible demostrar que

    Z (t) =1p2

    Z 11e(itzz

    2=2)dz = et2=2:

    No haremos la demostracin de la ltima igualdad aqu por requerir un manejo ms profundode funciones complejas, pero obsrvese que en este caso la funcin caracterstica es un nmeroreal.d) Si X N (; 2) ; entonces X = + Z donde Z N (0; 1) ; obtenemos que

    X (t) = e(it2t2=2)

    Adems de las caractersticas de los nmeros complejos que sealamos antes, se cumple elsiguiente lema cuya demostracin nos saltaremos:

    Lema 0.64 i) Sea fzng una sucesin de nmeros complejos, entonces1Xn=1

    zn

    X jznj :ii) Sea h : R! C, para todos t 2 R existen u y v funciones reales de variable real tales queh (t) = u (t) + iv (t) : Si u y v son absolutamente integrables, entonces en todo R;Z 11 h (t) dt

    = Z 11 (u (t) + iv (t)) dt Z 11 jh (t)j dt:

    Con todos estos elementos, podemos probar la siguiente proposicin:

    Proposicin 0.65 Sea X una variable aleatoria con densidad. Entonces EeitX

    existe

    para todo t 2 R:

    Demostracin. Para que EeitX

    exista es necesario que

    E eitX

  • ComoE eitX 1; la serie o la integral impropia que dene la funcin caracterstica

    converge absolutamente y podemos escribir

    X (t) = E [cos (tX)] + iE [sen (tX)] :

    La siguiente proposicin, que enunciamos sin demostracin, es la base para ver que

    dk

    dtkX (t)

    t=0

    = ikEXk

    lo que nos presenta el uso prctico de la funcin caracaterstica en la generacin de losmomentos de una variable aleatoria.

    Proposicin 0.66 Sea X una variable aleatoria con funcin caracterstica dada por X ().Si E [Xr] existe para algn r 2 N, entonces

    X (t) !t!0

    1 +rXk=1

    EXk (it)kk!

    +R (tr) ;

    donde R (tr) es el residuo de la expansin y representa una funcin que converge a cero msrpido que tr cuando t! 0, esto es,

    limt!0

    R (tr)

    tr= 0:

    La idea de la demostracin es utilizar la expansin de MacLaurin para ex. Veamos algunosejemplos:

    Ejemplo 0.67 a) Si X B (n; p) ; entoncesd

    dtX (t) =

    d

    dt

    peit + q

    n= n

    peit + q

    n1ipeit

    como p+ q = 1; tenemos:

    d

    dt

    peit + q

    nt=0

    = n (p+ q)n1 ip = inp:

    b) Si X Poisson() ; entoncesd

    dtX (t) =

    d

    dte(e

    it1) = ieite(eit1)

    y evaluando en t = 0;dk

    dtkX (t)

    t=0

    = ie(11) = i:

    Otro asunto importante es que si dos variables tienen la misma funcin caracterstica, nece-sariamente tienen la misma distribucin. Para ver esto, necesitaremos el siguiente resultadoque adems muestra que se puede obtener la densidad de una variable aleatoria a partir desu funcin caracterstica

    46

  • Teorema 0.68 (Inversin de Lvy) Sea X una variable aleatoria con funcin de densi-dad fX (x) y funcin caracterstica X (t). Si a < b, entonces

    P [a < X < b] +1

    2P [X = a] +

    1

    2P [X = b] = lim

    T!11

    2

    Z TT

    eita eitbit

    X (t) dt:

    Demostracin.

    MT =1

    2

    Z TT

    eita eitbit

    X (t) dt

    =1

    2

    Z TT

    eita eitbit

    EeitX

    dt

    =1

    2

    Z TT

    Z 11

    eita eitbit

    eitxf (x) dxdt

    =

    Z 11

    Z TT

    eit(xa) eit(xb)2it

    dt

    f (x) dx

    =

    Z 11

    Z T0

    eit(xa) eit(xa) eit(xb) eit(xb)2it

    dtf (x) dx

    =

    Z 11

    Z T0

    sen t (x a) sen t (x b)t

    dt

    f (x) dx:

    Sea Ia;b;T (x) =hR T0

    sen t(xa)sen t(xb)t

    dti: Ahora bien

    1

    Z T0

    sent

    tdt !T!1

    12

    si > 0;12si < 0;

    por lo que

    limT!1

    Ia;b;T (x) =

    8>>>>>>>:12 1

    2= 0 si x < a;

    0 12

    = 1

    2si x = a;

    12 1

    2

    = 1 si a < x < b;

    12 0 = 1

    2si x = b;

    12 1

    2= 0 si x > b;

    entonces

    limT!1

    MT = 0 +

    Zfx:x=ag

    1

    2f (x) dx+

    Zfx:x2(a;b)g

    f (x) dx+

    Zfx:x=bg

    1

    2f (x) dx+ 0

    = P [a < X < b] + 12P [X = a] + 1

    2P [X = b] :

    Recordemos que en caso absolutamente continuo, 12P [X = a] + 1

    2P [X = b] = 0, as que se

    tendra que

    P [a < X < b] = limT!1

    1

    2

    Z TT

    eita eitbit

    X (t) dt:

    47

  • Teorema 0.69 (Unicidad de Lvy) Sean X; Y variables aleatorias con funciones de dis-tribucin Fx, FY y funciones carectersticas X y Y respectivamente. Entonces

    X = Y , Fx = FY :Demostracin. Del teorema de inversin de Lvy se tiene que

    P [a < X x] + 12P [X = a] 1

    2P [X = x] = FX (x) FX (a) + 1

    2P [X = a]

    12P [X = x]

    = FY (x) FY (a) + 12P [Y = a]

    12P [Y = x] ;

    haciendo a ! 1 tenemosFX (x) = FY (x) ;

    para todos los valores de continuidad de ambas funciones de distribucin. De donde seobtiene X = Y ) Fx = FY : Ahora bien si Fx = FY ; entonces

    X (t) = EeitX

    =

    ZeitxfX (x) dx =

    ZeitxfY (x) dx = Y (t) ;

    por lo tantoX = Y , Fx = FY :

    La mera existencia de la funcin caracterstica no implica la existencia de los momentos. Sinembargo, si la derivada de orden 2k de X es nita en el origen, entonces son nitos todoslos momentos de orden menor o igual a 2k: Tambin se puede demostrar que si la funcincaracterstica no es diferenciable en el origen, no es nito ningn momento de la variable.

    Ejemplo 0.70 Distribucin Cauchy. La distribucin conocida como Cauchy estndares la densidad de una variable denida como la tangente de un ngulo seleccionado al azaren el intervalo

    2; 2

    : Para verlo, empecemos por ver que la densidad de un nmero Y

    elegido al azar en ese intervalo es

    fY (y) =1

    I(2 ;2 )

    (x) =

    1

    si 2< x <

    2

    0 en otro caso

    Sea X = tanY: Como la funcin tangente es uno a uno en el intervalo, su inversa est biendenida ah y tenemos que

    FX (x) = P (X x) = P (tanY x)= P (Y arctanx) = FY (arctanx)

    De ah que

    fX (x) = fY (arctanx)

    1

    1 + x2

    =

    1

    (1 + x2)para todo x 2 R:

    48

  • La grca de esta densidad es parecida a la Normal, simtrica respecto al eje Y: La funcinde distribucin correspondiente es

    FX (x) =1

    2+1

    arctan (x) :

    La versin ms general de la funcin de densidad de Cauchy es

    fX (x) =1

    1 +

    x

    2 para 1 < x

  • Teorema 0.72 (Continuidad de Lvy-Crmer) Sea Xn (t) la funcin caracterstica deXn para n 2 N: Si Xn D! X entonces Xn (t) ! X (t) para toda t 2 R donde X (t) esla funcin caracterstica de X: Recprocamente si Xn (t) ! (t) y la funcin lmite escontinua en t = 0 entonces, Xn

    D! X y (t) es la funcin caracterstica de X:Demostracin. ))

    limn!1

    Xn (t) = limn!1

    (E [cos tXn] + iE [sen tXn])

    = E [cos tX] + iE [sen tX] = X (t) :

    ()Para dos puntos de continuidad a < x comunes a cada FXn y FX , el teorema de inversinde Lvy establece que

    FX (x) FX (a) = limT!1

    1

    2

    Z TT

    eita eitxit

    X (t) dt

    = limT!1

    1

    2

    Z TT

    eita eitxit

    limn!1

    Xn (t)dt

    = limn!1

    limT!1

    1

    2

    Z TT

    eita eitxit

    Xn (t) dt

    = limn!1

    (FXn (x) FXn (a)) ;

    haciendo a! 1 se obtiene Xn D! X.

    3. El Teorema Central del Lmite de Linderberg-Levy

    Teorema 0.73 (Teorema Central del Lmite) Sea fXng una sucesin de variables aleato-rias independientes e identicamente distribudas de media y varianza nita 2 nita. En-tonces

    limn!1

    P

    X1 +X2 + +Xn n

    pn

    x=

    1p2

    Z x1e y

    2=2dy

    Demostracin. Sea Si =(Xi)

    y Wn =Pn

    i=1(Xi)pn= 1p

    n

    Pni=1 Si. Con lo cual

    E [Si] = 0;

    V ar [Si] = 1;

    entonces

    Wn (t) = EeitWn

    = E

    he

    itpn

    Pni=1 Si

    i= ni=1Si

    tpn

    =

    Si

    tpn

    n;

    50

  • y tpn!n!1

    0. Utilizando la proposicin 0.66 se tiene

    Wn (t) =

    "1 +

    itpnE [S1] +

    (it)2

    2nES21+R

    t2

    n

    #n=

    1 t

    2

    2n+R

    t2

    n

    n=

    1 an (t)

    n

    n;

    donde an (t) =t2

    2

    1 2R

    t2

    n

    t2=n

    : Cuando n!1 se tiene que R

    t2

    n

    t2=n

    ! 0; entonces

    limn!1

    Wn (t) = et22 :

    Y si Z; una variable aleatoria, se distribuye como una normal de parmetros = 0 y 2 = 1,se tiene que

    Z (t) = EeitZ=

    1p2

    Z 11eitz

    z2

    2 dz;

    haciendo v = z it se tiene que v2 = z2 2itz t2. Entonces

    Z (t) = et22

    Z 11

    1p2ev22 dz = e

    t22 :

    Por lo que WnD! Z:

    51