teorÍa de probabilidades · 2.1.1 deber n 1 ... n1!n2!n3!···nr! ahora, recordemos la fórmula...
TRANSCRIPT
TEORÍA DE PROBABILIDADES
EJERCICIOS RESUELTOS
Nadie nos arrebatará del paraíso que él creó
Club de Matemática EPN
Más que simple matemática
Viviana Gavilanes y Gabriel Granda
1
Cuadernos de Matemática
Club de Matemática EPN
Esta página ha sido dejada intencionalmente en blanco.
CUADERNOS DE MATEMÁTICA
CLUB DE MATEMÁTICA EPN
V. GAVILANES Y G. GRANDA
TEORÍA DE PROBABILIDADES
EJERCICIOS RESUELTOS
Nadie nos arrebatará del paraíso que él creó
Club de Matemática EPN
Más que simple matemática
Cuaderno de Matemática del Club de Matemática EPN No. 1
TEORÍA DE PROBABILIDADES: EJERCICIOS RESUELTOS
Viviana Gavilanes y Gabriel Granda
Revisión Académica: La obra no ha sido sometida a revisión por el momento
Registro de derecho autoral No. La obra no cuenta con registro por el momento
ISBN: La obra no cuenta con ISBN por el momento
Publicado en linea por el proyecto Alephsub0,Quito, Ecuador.
Primera edición: 2020
c© Club de Matemática EPN 2020
Se permite la distribución de la presente obra.
ÍNDICE GENERAL
CAP. 1 NOTACIONES GENERALES 1
CAP. 2 DEBERES 3
2.1 Primer bimestre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2.1.1 Deber N1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2.1.2 Deber N2 : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.1.3 Deber N3 : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.1.4 Deber N4 : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.1.5 Deber N5 : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.2 Segundo Bimestre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.2.1 Deber N6: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.2.2 Deber N7 : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.2.3 Deber N8: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
2.2.4 Deber N9 : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
2.2.5 Deber N10 : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
CAP. 3 PRIMERA PRUEBA 73
3.1 Semestre: 2019-A . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
3.2 Semestre: 2019-B . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
CAP. 4 EXAMEN 1 83
4.1 Semestre: 2019-A . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
4.2 Semestre: 2019-B . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
4.3 Semestre: 2019-A . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
4.4 Semestre: 2019-B . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
4.5 Semestre: 2019-A . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
4.6 Semestre: 2019-B . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
III
IV Índice general
4.7 Semestre: 2019-A . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
4.8 Semestre: 2019-B . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
4.9 Semestre: 2019-B . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
PREFACIO
La presente obra es una recopilación de ejercicios basados en las clases y evaluaciones de la
materia “Teoría de Probabilidades”, dictada en la carrera de Ingeniería Matemática y Matemática
de la Escuela Politécnica Nacional por el profesor Carlos Almeida durante los semestres 2019-
A y 2019-B. La soluciones de los ejercicios fueron elaboradas por Viviana Gavilanes y Gabriel
Granda, alumnos de esta materia en los periodos antes mencionados.
Este compendio de ejercicios tiene la finalidad de servir como una guía para aquellos estu-
diantes que tomen esta materia. En caso de que el lector encuentre errores puede dirigirlos a
[email protected] o [email protected].
“Teoría de Probabilidades: Ejercicios” forma parte de la serie “Cuaderno de Matemática del
Club de Matemática EPN”; la cual recolecta apuntes de clase y ejercicios resueltos generados por
estudiantes de la Facultad de Ciencias. El Club de Matemática EPN, junto al proyecto Alephsub0
y la Asociación de Estudiantes de Matemática e Ingeniería Matemática, administra la generación
y publicación en linea de estos trabajos e invita la comunidad de estudiantes que deseen apoyar
a este proyecto a sumarse al mismo.
V
CAPÍTULO 1
NOTACIONES GENERALES
Ω : Conjunto no vacío.F : Sigma-álgebra.P : Medida de probabilidad.N : Conjunto de los números naturales formado por 1, 2, . . . .↑: Denotará que una sucesión es creciente.↓: Denotará que una sucesión es decreciente.1A : Función indicatriz del conjunto A.c.s. : Denotará que una propiedad se cumple casi seguramente o casi todo punto.P−→: Convergencia en probabilidad.Lp
−→: Convergencia en el espacio de Banach Lp.d−→: Convergencia en distribución.v−→: Convergencia vaga.An i.o. : ω ∈ Ω : ω ∈ An para un número infinito de índices n ≥ 1.
1
CAPÍTULO 2
DEBERES
2.1 PRIMER BIMESTRE
2.1.1 Deber N1
EJERCICIO 2.1. Para el siguiente problema definimos el espacio muestral
Ω = ω : ω = (a1, ..., an); ai = b1, ..., br,
donde b1, ..., br son números dados. Sea
γi(ω) = números de (a1, ..., an) que son iguales a bi,
para cada i ∈ i, . . . , r y definamos la probabilidad de ω como
p(ω) = pγi(ω)i ...pγr(ω)
r , pi ≥ 0,r
∑i=1
pi = 1.
a) Demuestre que ∑ω∈Ω
p(ω) = 1.
b) Muestre que, si Am1,...,mr =
ω : γ1(ω) = m1, ..., γr(ω) = mr, conr
∑1
mi = n
enton-
ces
P(Am1,...,mr ) =
(n
n − r
)
pm11 · · · pmr
r .
a) Demostración. Notemos que
∑ω∈Ω
p(w) = ∑n1≥0,...,nr≥0,n1+···+nr=n
(n
n1, ..., nr
)
pn11 · · · pnr
r , (2.1)
donde ( nn1,...,nr
) es el número de sucesiones ordenadas (pi)ri=1 en las que bi ocurre ni veces
3
4 Deberes
para cada i ∈ 1, ..., r. Además, ni elementos bi pueden ser ubicados en n posiciones, es
decir, en ( nni) maneras para cada i ∈ 1, ..., r. Así, tenemos que ∑
ri=1 ni = n
Por otro lado, recordemos que(
n
r
)
=n!
(n − r)!r!,
vamos a probar que
(n
n1, ..., nr
)
=n!
n1!n2!n3! · · · nr!. (2.2)
En efecto,
(n
n1, ..., nr
)
=
(n
n1
)
·(
n − n1
n2
)
·(
n − (n1 − n2)
n3
)
· · ·
· · ·(
n − (n1 + n2 + n3 · · ·+ nr−2)
nr−1
)(n − (n1 + · · ·+ nr−1)
nr
)
=n!
(n − n1)!n1!· (n − n1)!
n2!(n − n1 − n2)!·
· · · (n − (n1 + n2))!(n − (n1 + n2 + n3))!)n3!
· · · (n − (n1 + n2 + · · ·+ nr−2))!(n − (n1 + n2 + · · ·+ nr−1))!nr−1!
· (n − (n1 + n2 + · · ·+ nr−1))!(n − (n1 + n2 + · · ·+ nr−1 + nr))!nr!
=n!
n1! · · · nr!(n − (n1 + n2 + · · ·+ nr−1 + nr))!nr!
=n!
n1!n2!n3! · · · nr(n − (∑ri=1 ni)!
=n!
n1!n2!n3! · · · nr(0!)
=n!
n1!n2!n3! · · · nr!
Ahora, recordemos la fórmula de Leibniz que generaliza al binomio de Newton para un
polinomio cualquiera de grado n.
Sea (a1, a2, ..., am) el polinomio que se expresa porm
∑i=1
ai. Queremos calcular su potencia
n-ésima.
(m
∑i=1
ai
)n
= (a1 + ... + an) · (a1 + ... + an) · · · (a1 + ... + an),
siendo un producto de n factores.
2.1 Primer bimestre 5
Si aplicamos de forma reiterada la propiedad distributiva, obtenemos que cualquier su-
mando del desarrollo es de la forma:
aα11 aα2
2 · · · aαmm = Πm
i=1aαii , (2.3)
donde la suma de exponentes es n, es decir,m
∑i=1
αi = n.
Para ver que el coeficiente que antecede a cada sumando, contamos las veces que aparece
repetido. Para ello, tengamos en cuenta que el término (2.3) proviene de una permutación
de los (ai)mi=1 en los que cada ai aparece repetido αi veces. Ese número de permutaciones
viene dado por (1), es decir,
(n
α1, ..., αm
)
=n!
α1!α2!α3! · · · αr!(2.4)
Luego,(
m
∑i=1
ai
)n
= ∑α1+···+αm=n
n!α1!α2!α3! · · · αm!
aα11 aα2
2 · · · aαmm (2.5)
Más información en Fórmula de Leibniz.
Finalmente, aplicando la fórmula de Leibniz (2.5) en (2.1) y la hipótesis de la definición, se
sigue que
P(ω) = ∑w∈Ω
p(ω) =
(r
∑i=1
pi
)n
= (1)n = 1.
b) Demostración.
P(Am1,...,mr ) = ∑ω∈Am1,...,mr
p(w)
= ∑m1,...,mr
pm11 · · · pmr
r
= ∑m1,...,mr
Πri=1 p
mii
6=(
n
n − r
)
pm11 · · · pmr
r
6 Deberes
EJERCICIO 2.2. Sean X, Y, variables aleatoria independientes, con Rx = x1, ..., xk y RY =
y1, ..., yl, definimos Z = X + Y.
a) Describir RZ.
b) Mostrar que
PZ(z) = P(Z = z) =k
∑i=1
PX(xi)PY(z − xi). (2.6)
c) Si X1, ..., Xn ∼ Ber(p) son variables aleatorias independientes, entonces
n
∑i=1
Xi ∼ Bi(n, p). (2.7)
a) Solución.
RZ := z : z = xi + yj, i = 1, ..., k; j = 1, ..., l.
b) Demostración. Tenemos que
PZ(z) = P(Z = z) = P(X + Y = z) = ∑(i,j): xi+yj=z
P(X = xi, Y = yj),
por la independencia de las variables aleatorias X e Y tenemos que
P(X = xi, Y = yj) = P(X = xi) P(Y = yj),
para todo i ∈ 1, ..., k y ∀j ∈ 1, ..., l.
Tomando yj = z − xi,, donde i ∈ 1, ..., k y j ∈ 1, ..., l tenemos que
PZ(z) =k
∑i=1
PX(xi) PY(z − xi).
para todo z ∈ Rz,, donde PY(z − xi) = 0 para todo i ∈ 1, ..., k, si z − xi /∈ RY.
c) Demostración. Notemos que si X e Y son variables aleatorias independientes con distribu-
ción de Bernoulli, tomando valores 1 y 0 con las respectivas probabilidades p y q, entonces
RZ = 0, 1, 2 y
PZ(0) = PX(0) PY(0) = q2,
PZ(1) = PX(0) PY(1) + PX(1) PY(0) = 2 pq,
2.1 Primer bimestre 7
PZ(2) = PX(1) PY(1) = p2.
Vamos a probar (2.7) mediante el método de inducción.
Si Xiki=1 es una sucesión de variables aleatorias de Bernoulli con P(Xi = 1) = p y
P(Xi = 0) = q, para cada i ∈ 1, ..., k. Supongamos que hasta k se satisface que
Zk =k
∑i=0
Xi ∼ Bi(k, p). (2.8)
Tomamos RZk= 0, 1, ..., k y como hipótesis inductiva a la siguiente ecuación
PZk(j) =
(k
j
)
pj qk−j, j = 0, 1, ..., k. (2.9)
Vamos a probar que (2.8) se satisface para k + 1. Definimos
RZk+1 = j : j = i + l, i = 0, 1, ..., k; l = 0, 1,
tenemos que
PZk+1(j) = P(Zk+1 = j) = P
(k+1
∑i=1
Xi = j
)
= P
(k
∑i=1
Xi + Xk+1 = j
)
= P(Zk + Xk+1 = j)
Por (2.6), tenemos que RZk+1 = 0, 1, ..., k + 1 y
PZk+1(j) = ∑(i,l):i+l=j
P(Zk = i, Xk+1 = l) =k
∑i=0
PZk(i) PXk+1(j − i),
si (j − i) 6= 0, entonces PXk+1(j − i) = 0
Tenemos que
PZk+1(0) =k
∑i=0
PZk(i) PXk+1(0 − i) = PZk
(0)PXk+1(0) =(
k
0
)
qk q = qk+1
PZk+1(1) =k
∑i=0
PZk(i) PXk+1(1 − i) = PZk
(0) PXk+1(1) + PZk(1) PXk+1(0)
= qk p + k pqk−1 q = (k + 1)pqk
PZk+1(2) =k
∑i=0
PZk(i) PXk+1(2 − i) = PZk
(0)PXk+1(2) + PZk(1)PXk+1(1) + PZk
(2)PXk+1(0)
= k p2qk−1 + k(k − 1)p2qk−1 = k2 p2qk−1
... si j = i,
8 Deberes
PZk+1(j) =k
∑j=0
PZk(j) PXk+1(0)
=(
PZk(0) + PZk
(1) + PZk(2) + · · ·+ PZk
(k))
PXk+1(0)(
qk + kpqk−1 + k (k − 1)p2qk−2 + · · ·+ pk)
q
= qk+1 + kpqk + k (k − 1)p2qk−1 + · · ·+ pkq.
... si j = i + 1,
PZk+1(j) =k
∑j=0
PZk(j) PXk+1(1)
=(
qk + kpqk−1 + k (k − 1)p2qk−2 + · · ·+ pk)
p
= qk p + kp2qk−1 + k (k − 1)p3qk−2 + · · ·+ pk+1,
de donde,
PZk+1(j) =
(k + 1
j
)
pjqk+1−j, j = 0, 1, ..., k + 1.
Por lo tanto, hemos probado que ZXk+1 ∼ Bi(k + 1, p).
EJERCICIO 2.3. Sean X1, ..., Xn variables aleatorias independientes, Y = max(X1, ..., Xn).
Muestre que
PY < x =n
∏i=1
PXi < x.
Demostración. Dado que Xini=1 son variables aleatorias definidas de Ω en R, donde Ω es el
espacio muestral del espacio de probabilidad. Si Y se define como
Y : Ω −→ R
ω 7−→ max(X1(ω), ..., Xn(ω)),
Para cada ω ∈ Ω, tenemos que
(Y(ω) < x) ⇔ (maxX1(ω), ..., Xn(ω)) ⇔ (X1(ω) < x, ..., Xn(ω) < x),
de donde,
P(Y < x) = P(X1 < x, ..., Xn < x).
2.1 Primer bimestre 9
Finalmente, por la independencia de las variables Xini=1, tenemos que
P(Y < x) = Pω ∈ Ω | X1(w) < x · · · Pω ∈ Ω | Xn(w) < x =n
∏i=1
PXi < x.
EJERCICIO 2.4. Sea PX(x) = PX = x, FX(x) = PX ≤ x. Muestre que, si x > 0, entonces
FX2(x) = FX(√
x)− FX(−√
x) + PX(−√
x). (2.10)
Demostración. Tenemos las siguientes equivalencias entre conjuntos:
ω ∈ Ω | X2(w) ≤ x
= ω ∈ Ω | X ≤√
x ∩ ω ∈ Ω | X ≥ −√
x (2.11)
ω ∈ Ω | X ≤ −√
x = ω ∈ Ω | X < −√
x ∪ ω ∈ Ω | X = −√
x (2.12)
Ω = ω ∈ Ω | X ≤√
x ∪ ω ∈ Ω | X ≥ −√
x (2.13)
∅ = ω ∈ Ω | X < −√
x ∩ ω ∈ Ω | X = −√
x (2.14)
Vamos a calcular FX2(x). Por (2.11) tenemos que
FX2(x) = P
ω ∈ Ω | X2(w) ≤ x
= Pω ∈ Ω | X ≤√
x ∩ ω ∈ Ω | X ≥ −√
x,
por la probabilidad de la unión se sigue que
FX2(x) = Pω ∈ Ω | X ≤√
x+ Pω ∈ Ω | X ≥ −√
x
− P(ω ∈ Ω | X ≤√
x ∪ ω ∈ Ω | X ≥ −√
x).
Por (2.13), la definición de función de distribución y tomando el complemento del segundo
término a la derecha de la anterior ecuación, obtenemos que
FX2(x) = P(X ≤ (
√x)+[1 − PX < −
√x]− 1
= FX(√
x)−[PX < −
√x+ PX = −
√x]+ PX < −
√x. (2.15)
Notemos que por (2.12) y (2.14) tenemos que
P(ω ∈ Ω | X ≤ −
√x)= P
(ω ∈ Ω | X < −
√x ∪ ω ∈ Ω | X = −
√x)
,
= Pω ∈ Ω | X < −√
x+ Pω ∈ Ω | X = −√
x. (2.16)
Finalmente, al reemplazar (2.16) en (2.15) y por la definición de distribución, hemos probado
(2.10).
10 Deberes
EJERCICIO 2.5. Sean X una variable aleatoria, Rx = x1, ..., xm y ϕ : R → R una función
medible, si
X(ω) =m
∑i=1
xi1Ai(xi),
donde, para cada i ∈ 1, ..., m, Ai = ω : X(ω) = xi y ξ = ϕ(X). Demuestre que
E[ξ] =m
∑i=1
ϕ(xi) PAi.
Demostración. Por definición, tenemos que
E[ξ] =m
∑k=1
ϕ(xk) P ξ = ϕ(xk) . (2.17)
Por otra parte, para cada i ∈ 1, ..., m, el evento Ai = X = xi, para algún xi tal que ϕ(xi) =
ϕ(xk) = ξ = ϕ(xk), para cada k ∈ 1, ..., m, puesto que quiere decir que ξ toma el valor
ϕ(xk) equivale a decir que X toma un valor cuya imagen por la función ϕ es ϕ(xk). Por lo tanto,
P ξ = ϕ(xk) = ∑i: ϕ(X(xi))=ϕ(xk)
PAi,
donde el conjunto de los valores de i sobre los que se suma es el conjunto de los valores tales
que φ(xi) = φ(xm). Sustituyendo en (2.17), tenemos que
E[ξ] =m
∑k=1
ϕ(xi) ∑i: ϕ(xi)=ϕ(xk)
PAi =m
∑k=1
∑i: ϕ(xi)=ϕ(xk)
φ(xi)PAi.
Ahora, la suma doble que parece en la última igualdad es la suma sobre todos los valores de i,
ya que cada i aparece una y solo una vez en la sumatoria doble, es decir,
E[ξ] =m
∑i=1
φ(xi)PAi.
Más información: aquí.
2.1.2 Deber N2 :
EJERCICIO 2.6. Sean Ω = R y F = B(R), para cada n ∈ N, consideremos
An =
[
0, 1n
]
para n impar,[
1 − 1n , 1]
para n par.
2.1 Primer bimestre 11
Calcule
1. lım supn→+∞
An,
2. lım infn→+∞
An.
Solución: Para n ∈ N impar, tenemos que la sucesión
([
0,1n
])
n∈N
,
es una sucesión decreciente, de igual forma, para n ∈ N par, se tiene que
([
1 − 1n
, 1])
n∈N
,
es una sucesión decreciente.
1. Ahora, para n ≥ 2 par, tenemos que
lımn→+∞
([
1 − 1n
, 1])
n∈N
= ∩n∈N
([
1 − 1n
, 1])
n∈N
=
[12
, 1]
.
Sea x ∈ R, consideremos los siguientes casos:
(a) Si x < 0, entonces
x 6∈ An,
para todo n ∈ N.
(b) Si x ∈ [0, 1[, con x impar, entonces
x ∈[
0,1n
]
.
(c) Si x ∈[
12 , 1]
, con x par, entonces
x ∈[
1 − 1n
, 1]
.
Con esto, tenemos que
lım supn→+∞
An = [0, 1] .
2. Para cada n ∈ N, es fácil comprobar que
A2n ∩ A2n+1 = ∅,
12 Deberes
de donde, dado que el límite inferior es el conjunto de los elementos que pertenecen a
todos los conjuntos de la sucesión salvo a lo sumo a un número finito, se sigue que
lım infn→+∞
An = ∅.
EJERCICIO 2.7. Sea An : n ≥ 1 una sucesión de conjuntos. Pruebe que
lım infn→+∞
An ⊂ lım supn→+∞
An.
Demostración. Sea x ∈ lım infn→+∞
=⋃
n≥1
⋂
m≥n
Am, así, existe n ∈ N tal que
x ∈⋂
m≥n
Am,
vamos a demostrar que
x ∈ lım supn→+∞
An,
para lo cual, debemos verificar que
x ∈⋃
m≥k
Am,
para todo k ∈ N. En efecto, sea k ∈ N, consideremos dos casos:
1. Si k ≥ n, entonces
x ∈ Ak,
dado que
x ∈⋂
m≥n
Am,
por lo tanto, se sigue que
x ∈⋃
m≥k
Am.
2. Ahora, si k < n, entonces
x ∈ An,
dado que
x ∈⋂
m≥n
Am,
de donde, puesto que
An ⊂⋃
m≥k
Am,
2.1 Primer bimestre 13
se sigue que
x ∈⋃
m≥k
Am.
Por lo tanto, podemos concluir que
x ∈⋃
m≥k
Am,
para todo k ∈ N, es decir, hemos probado que
x ∈ lım supn→+∞
An.
EJERCICIO 2.8. Sean An : n ≥ 1 y Bn : n ≥ 1 sucesiones de conjuntos. Demuestre o
refute:
a) lım supn→+∞
An ∩ Bn = lım supn→+∞
An ∩ lım supn→+∞
Bn,
b) lım supn→+∞
An ∪ Bn = lım supn→+∞
An ∪ lım supn→+∞
Bn,
c) lım infn→+∞
An ∩ Bn = lım infn→+∞
An ∩ lım infn→+∞
Bn,
d) lım infn→+∞
An ∪ Bn = lım infn→+∞
An ∪ lım infn→+∞
Bn.
Demostración. a) Para la primera contenencia, sea x ∈(
lım supn→+∞
An ∩ lım supn→+∞
Bn
)
, tenemos que
x ∈⋂
n∈N
⋃
m≥n
An o x ∈⋂
n∈N
⋃
m≥n
Bn,
así, consideremos los siguientes casos:
a) Si x ∈⋂
n∈N
⋃
m≥n
An, entonces para todo n ∈ N, existe m ≥ n tal que
x ∈ Am,
de donde, se tiene que para todo n ∈ N, existe m ≥ n tal que
x ∈ (Am ∩ Bm) ,
es decir,
x ∈⋂
n∈N
⋃
m≥n
An ∪ Bn.
14 Deberes
b) Ahora, si x ∈⋂
n∈N
⋃
m≥n
An, análogamente al literal anterior se prueba que
x ∈⋂
n∈N
⋃
m≥n
An ∪ Bn.
Por lo tanto, podemos concluir que
(
lım supn→+∞
An ∪ lım supn→+∞
Bn
)
⊂ lım supn→+∞
An ∪ Bn.
Para la otra contenencia, sea x ∈ lım supn→+∞
An ∪ Bn =⋂
n∈N
⋃
m≥n
An ∩ Bn, vamos a de-
mostrar que
x ∈(
lım supn→+∞
An ∪ lım supn→+∞
Bn
)
,
por reducción al absurdo, supongamos que
x /∈(
lım supn→+∞
An ∪ lım supn→+∞
Bn
)
,
así, tenemos que
x ∈⋃
n∈N
⋂
m≥n
Acn y x ∈
⋃
n∈N
⋂
m≥n
Bcn,
es decir, existen N1, N2 ∈ N tales que para todo m ≥ N1 y m ≥ N2, se tiene que
x ∈ Acm y x ∈ Bm ∈ c,
respectivamente, de donde, tomando N = maxN1, N2, se sigue que
x ∈ Acm ∩ Bc
m,
con esto, se tiene que
x ∈⋃
n∈N
⋂
m≥n
Acm,
lo cual, contradice que
x ∈⋂
n∈N
⋃
m≥n
An ∩ Bn,
por lo tanto, podemos concluir que
x ∈(
lım supn→+∞
An ∩ lım supn→+∞
Bn
)
,
2.1 Primer bimestre 15
de donde,
lım supn→+∞
An ∩ Bn ⊂(
lım supn→+∞
An ∩ lım supn→+∞
Bn
)
.
Con esto, hemos probado que
lım supn→+∞
An ∩ Bn = lım supn→+∞
An ∩ lım supn→+∞
Bn.
c) Sea x ∈(
lım infn→+∞
An ∪ lım infn→+∞
Bn
)
, vamos a demostrar que
x ∈ lım infn→+∞
An ∪ Bn.
Tenemos que
x ∈⋃
n∈N
⋂
m≥n
Am o x ∈⋃
n∈N
⋂
m≥n
Bm,
así, consideremos los siguientes casos
(1) Si x ∈⋃
n∈N
⋂
m≥n
Am, entonces existe N1 ∈ N tal que para todo m ≥ N1 se tiene que
x ∈ Am ⊂ (Am ∪ Bm),
de donde, se sigue que
x ∈⋃
n∈N
⋂
m≥n
Am ∪ Bm.
(2) Ahora, si x ∈⋃
n∈N
⋂
m≥n
Bm, entonces existe N2 ∈ N tal que para todo m ≥ N1 se tiene
que
x ∈ Bm ⊂ (Am ∪ Bm),
de donde, se sigue que
x ∈⋃
n∈N
⋂
m≥n
Am ∪ Bm.
Por lo tanto, podemos concluir que
x ∈ lım infn→+∞
An ∪ Bn,
lo cual, prueba que
(
lım infn→+∞
An ∪ lım infn→+∞
Bn
)
⊂ lım infn→+∞
An ∪ Bn.
16 Deberes
b) Por el literal (1), tomando el complemento, se sigue que
lım infn→+∞
An ∩ Bn = lım infn→+∞
An ∩ lım infn→+∞
Bn.
c) Por el literal (2), se sigue que
lım supn→+∞
An ∩ Bn ⊂(
lım supn→+∞
An ∩ lım supn→+∞
Bn
)
.
EJERCICIO 2.9. Sean An :≥ 1 una sucesión de conjuntos y 1Anla indicatriz de An, para
todo n ≥ 1. Pruebe que
1
⋃
n∈N An= max
n∈N
1Any 1
⋂
n∈N An= mın
n∈N
1An.
Demostración. Sea x ∈ Ω, tenemos que
1
⋃
n∈N An(x) =
1 si ∃ n ∈ N, x ∈ An,
0 si ∀ n ∈ Nx ∈ Acn.
Por otro lado, notemos que
maxn∈N
1An(x) = 1,
si y solo si existe n ∈ N tal que
x ∈ An,
además,
mınn∈N
1An(x) = 0,
si y solo si para todo n ∈ N,
x ∈ Acn.
Por lo tanto, podemos concluir que
1
⋃
n∈N An= max
n∈N
1An.
Ahora, tenemos que
1
⋂
n∈N An(x) =
1 si ∀ n ∈ N, x ∈ An,
0 si ∃ n ∈ N, x ∈ Acn.
2.1 Primer bimestre 17
Por otro lado, notemos que
mınn∈N
1An(x) = 1,
si y solo si para todo n ∈ N, se tiene que
x ∈ An,
además,
mınn∈N
1An(x) = 1,
si y solo si existe n ∈ N tal que
x ∈ Acn.
Con esto, hemos probado que
1
⋂
n∈N An= mın
n∈N
1An.
EJERCICIO 2.10. Sea An : n ≥ 1 una sucesión de conjuntos. Pruebe que
P
(
lım supn→+∞
An
)
≥ lım supn→+∞
P(An).
Demostración. Para n ∈ N, notemos que
An ⊂⋃
m≥n
Am,
de donde, dado que P es una probabilidad, tenemos que
P(An) ≤ P
(⋃
m≥n
Am
)
. (2.18)
Por otro lado, es fácil comprobar que
⋃
m≥n
Am
n∈N
, (2.19)
es una sucesión decreciente de eventos.
18 Deberes
Ahora, tomando el límite superior en (2.18), se sigue que
lım supn→+∞
P(An) ≤ lım sup P
(⋃
m≥n
Am
)
= lımn→+∞
P
(⋃
m≥n
Am
)
,
luego, junto con (2.19), obtenemos que
lım supn→+∞
P(An) ≤ P
(⋂
n∈N
⋃
m≥n
Am
)
= P
(
lım supn→+∞
An
)
,
es decir, hemos probado que
P
(
lım supn→+∞
An
)
≥ lım supn→+∞
P(An).
EJERCICIO 2.11. Sea Xn : n ≥ 1 una sucesión de variables aleatorias. Pruebe que
a) maxX1, X2 y mınX1, X2,
b) supn∈NXn y ınfn∈N Xn, son variables aleatorias.
c) Si Xn : n ≥ 1, para cada ω ∈ Ω, entonces
lımn→+∞
Xn(ω),
es una variable aleatoria.
a) Demostración. Vamos a demostrar que
ω : maxX1, X2 > x ∈ F
para todo x ∈ R, en efecto, sea x ∈ R, tenemos que
ω : maxX1, X2 > x = ω : X1 > x ∪ ω : X2 > x,
de donde, puesto que X1 y X2, son variables aleatorias, sabemos que
ω : X1 > x ∈ F y ω : X2 > x ∈ F ,
por lo tanto, se tiene que
ω : maxX1, X2 > x ∈ F ,
2.1 Primer bimestre 19
con esto, hemos probado que
maxX1, X2,
es una variable aleatoria.
Análogamente, dado que se tiene la identidad
ω : mınX1, X2 > x = (ω : X1 > x ∩ ω : X2 > x) ,
se sigue que
mınX1, X2,
es una variable aleatoria.
b) Demostración. Vamos a demostrar que
ω : supn∈N
Xn > x ∈ F y ω : ınfn∈N
Xn < x ∈ F
para todo x ∈ R, en efecto, sea x ∈ R, tenemos que
ω : supn∈N
Xn > x =⋃
n∈N
Xn ∈ F y ω : ınfn∈N
Xn < x =⋃
n∈N
Xn ∈ F ,
con esto, hemos probado que
ınfn∈N
Xn y supn∈N
Xn,
son variables aleatorias.
c) Demostración. Sea x ∈ R. Sabemos que lım supn→+∞
Xn es una variable aleatoria y como Xn →X cuando n → +∞, se tiene que
lımn→+∞
Xn = X = lım supn→+∞
Xn,
de donde,
ω : X(ω) ≤ x = ω : lım supn→+∞
Xn(ω) ≤ x ∈ F .
Por lo tanto, como x ∈ R es arbitrario hemos probado que X es una variable aleatoria.
20 Deberes
2.1.3 Deber N3 :
EJERCICIO 2.12. Sea (Ω,F , P) un espacio de probabilidad, supongamos que los eventos
An : n ≥ 1 son independientes. Muestre que
a)
P
⋃
k∈N
Ak
= 1 − ∏k∈N
(1 − PAk). (2.20)
b)
P
∞⋃
k=1
Ak
≥ 1 − exp
−∞
∑k=1
P(Ak)
. (2.21)
a) Demostración. Vamos a probar que
P
n⋃
k=1
Ak
= 1 −n
∏k=1
(1 − PAk), (2.22)
para cada n ∈ N, mediante el método de inducción.
Si n = 2, al calcular la probabilidad de la unión y al aplicar la independencia de eventos,
tenemos que
PA1 ∪ A2 = PA1+ PA2 − PA1 ∩ A2 = PA1+ PA2 − PA1PA2,
de donde,
P
2⋃
k=1
Ak
= 1 − (1 − PA1 − PA2+ PA1PA2) ,
= 1 − ((1 − PA1)(1 − PA2) = 1 −2
∏k=1
(1 − PAk).
Supongamos que (2.22) se cumple para n = j vamos a probar que se cumple para n = j+ 1.
Como hipótesis de inducción tenemos que
P
j⋃
k=1
Ak
= 1 −
j
∏k=1
(1 − PAk),
luego, calculando la probabilidad de la unión y aplicando la independencia de eventos,
2.1 Primer bimestre 21
tenemos que
P
j+1⋃
k=1
Ak
= P
j⋃
k=1
Ak ∪ Aj+1
= P
j⋃
k=1
Ak
+ P
Aj+1
− P
j⋃
k=1
Ak ∩ Aj+1
= P
j⋃
k=1
Ak
+ P
Aj+1
− P
j⋃
k=1
Ak
PAj+1,
= 1 −
1 − P
j⋃
k=1
Ak
− PAj+1
+ P
j⋃
k=1
Ak
PAj+1,
= 1 −
1 − P
j⋃
k=1
Ak
(1 − PAj+1),
de donde, aplicando la hipótesis de inducción tenemos que
P
j+1⋃
k=1
Ak
= 1 −
(
1 −j
∏k=1
(1 − PAk))
(1 − Aj+1) = 1 −j+1
∏k=1
(1 − PAk).
Por lo tanto, hemos probado (2.22). Finalmente, al tomar el límite cuando n tiende al infi-
nito, i.e.,
lımn→+∞
P
n⋃
k=1
Ak
= lımn→+∞
1 −n
∏k=1
(1 − PAk),
En consecuencia, hemos probado (2.20).
b) Demostración. Vamos a probar la siguiente desigualdad
P
j⋃
k=1
Ak
≥ 1 − exp
−j
∑k=1
PAk
,
para todo n ∈ N.
Recordemos que
u ≤ exp u y exp 1 − u ≤ exp−u,
para todo u ∈ R.
22 Deberes
Dado que para cada k ∈ N se tiene que 0 ≤ 1 − P(Ak) ≤ 1, entonces
1 − PAk ≤ exp 1 − PAk ≤ exp −PAk ,
de donde, tenemos que
j
∏k=1
(1 − PAk) ≤j
∏k=1
exp −PAk ,
≤ exp −PAk exp −PAk · · · exp−PAj
,
≤ exp
j
∑k=1
−PAk
.
Al multiplicar la desigualdad anterior por −1 y sumar 1 a ambos lados, obtenemos
1 −j
∏k=1
(1 − PAk) ≥ 1 − exp
−j
∑k=1
PAk
. (2.23)
Finalmente, reemplazando la ecuación (2.20) en (2.23) y tomando el límite cuando j → +∞,
se tiene que
lımj→+∞
P
j⋃
k=1
Ak
≥(
lımj→+∞
1 − exp
−j
∑k=1
PAk)
,
con esto, se sigue el resultado.
EJERCICIO 2.13. Sea (Ω,F , P) un espacio de probabilidad. Si Aknk=1 y Bjm
j=1 son dos
particiones tales que
X =n
∑k=1
xk 1Aky X =
m
∑j=1
xj 1Bj. (2.24)
Entoncesn
∑k=1
xk PAk =m
∑j=1
yj PBj. (2.25)
Demostración. Notemos que
n⋃
k=1
xk PAk = Ω =m⋃
j=1
yj PBj.
Por la definición de esperanza de una variable aleatoria simple y la continuidad de la esperanza,
tenemos que
n
∑k=1
xk PAk =n
∑k=1
xk E[1Ak
]
2.1 Primer bimestre 23
= E
[n
∑k=1
xk 1Ak
]
= E
[m
∑j=1
yj 1Bj
]
=m
∑j=1
yj E[
1Bj
]
=m
∑j=1
yj P(Bj)
EJERCICIO 2.14. Sean X e Y variables aleatorias no negativas. Muestre que
a) Si E[X] > 0, entonces PX > 0 > 0.
b) Si X = Y casi-seguramente, entonces E[X] = E[Y].
a) Demostración. Supongamos que E[X] > 0. Como
0 < E[X] =x
∑i=1
Xi PX = xi =∫ ∞
0PX > x dx,
de donde, PX > 0 > 0.
b) Demostración. Definamos
A = ω ∈ Ω : X(ω) = Y(ω),
sabemos que si X = Y casi seguramente entonces
PA = 1 ⇔ PAc = 0.
Por la definición de esperanza, tenemos que
E[X] =∫
ΩX dP =
∫
AX dP +
∫
AcX dP =
∫
AX dP
=∫
AY dP ≤
∫
ΩY dP = E[Y],
es decir, E[X] ≤ E[Y], de forma análoga tenemos que E[Y] ≤ E[X]. Por lo tanto,
E[X] = E[Y].
EJERCICIO 2.15. Sean (Ω,A, P) un espacio de probabilidad, X una variable aleatoria, no
negativa. Muestre que, si An : n ≥ 1 ⊂ A tal que An ↓ ∅ y E[X] < ∞ entonces E[X 1An] =
0.
24 Deberes
Demostración. Para cada n ∈ N, definamos
Xn = X 1An.
Sin pérdida de generalidad, podemos suponer que
supω∈Ω
X1(ω) = K < ∞.
Como Xn : n ≥ 1 es una sucesión no decreciente, tenemos que
0 ≤ Xn ≤ K
para cada n ∈ N. Así, para cada ε > 0,
0 ≤ Xn = Xn 1Xn>ε + Xn 1Xn≤ε
0 ≤ K 1Xn>ε + ε1Xn≤ε,
ahora, por la monotonía de la esperanza, tenemos que
0 ≤ E[Xn] ≤ K PXn > ε+ ε PXn ≤ ε
≤ K PXn > ε+ ε.
Como An ↓ ∅, por la continuidad de P, tenemos que PXn > ε ↓ 0. Entonces, E[Xn] ≥ E[Xn+1]
y
lım supn→+∞
E[Xn] ≤ ε.
Como ε > 0 es arbitrario, entonces
0 ≤ E[Xn] ↓ 0.
Por el teorema del sánduche, se sigue que E[X 1An] = 0, donde n ∈ N.
EJERCICIO 2.16. Sean (Ω,A, P) un espacio de probabilidad, X una variable aleatoria, si
lımx→+∞
xp P(|X| > x) = 0, (2.26)
donde p > 0, entonces E[|X|r] < ∞ para todo r < p.
2.1 Primer bimestre 25
Demostración. Notemos que
E[Xr] = E[Xr1|X|>x] + E[Xr
1|X|≤x],
de donde para r < p, se tiene que
E[Xr] ≤ E[xp1|X|>x] + xP|X| ≤ x
≤ xpE[1|X|>x] + x
= xpP|X| > x+ x,
es decir, tenemos que
E[Xr] ≤ xpP|X| > x+ x,
por otro lado, por la definición de límite al infinito, para ε > 0 existe k ∈ R tal que para todo
x > k, se tiene que
xpP|X| > x < ε,
luego, juntando las desigualdades precedentes, obtenemos que
E[Xr] < ε + x
para x ∈ R suficientemente grande, con esto se sigue que
E[Xr] < +∞.
2.1.4 Deber N4 :
EJERCICIO 2.17. Se lanza una moneda justa repetidamente (lanzamientos independientes),
para cada n ∈ N, consideremos el evento
An = en el n-ésimo lanzamiento sale cara.
Pruebe que
PAn i.o. = 1.
26 Deberes
Demostración. Para cada n ∈ N, tenemos que
PAn =12
,
de donde, se sigue que+∞
∑n=1
P An = +∞,
luego, dado que los lanzamientos son independientes, por el Teorema de Borel-Cantelli, obtene-
mos que
PAn i.o. = P
lım supn→+∞
An
= 1.
EJERCICIO 2.18. Sea An : n ≥ 1 una sucesión de eventos independientes dos a dos. Prue-
be que si
∑n∈N
P(An) = +∞,
entonces
PAn i.o. = 1.
Demostración. Para cada n ∈ N, consideremos
1n = 1An,
la función indicatriz de los eventos An, de donde, dado que estos eventos son independientes
dos a dos, obtenemos que
E[1m · 1n] = E[1m] · E[1n], (2.27)
para cualesquier m, n ∈ N tales que n 6= m.
Ahora, para cada ω ∈ Ω consideremos la serie
∑n∈N
1n(ω),
la cual, diverge si y solo si un número infinito de sus términos es igual a uno, es decir, si ω
pertenece a un número infinito de los eventos An, por lo tanto, el resultado es equivalente a
probar que
P
∑n∈N
1n = +∞
= 1.
2.1 Primer bimestre 27
Por otro lado, nuestra hipótesis puede reescribirse como
∑n∈N
E[1n] = +∞.
Para cada k ∈ N, consideremos la suma parcial
Jj =k
∑n=1
1n,
por la desigualdad de Chebyshev, para A > 0, se tiene que
P|Jk − E[Jk]| ≤ A σ(Jk) ≥ 1 − σ2(Jk)
A2σ2(Jk)= 1 − 1
A2 , (2.28)
donde σ2(Jk) es la varianza de Jk, para cada k ∈ K.
Ahora, para cada n ∈ N, denotemos
pn = E[1n] = P(An),
vamos a determinar el valor de σ2(Jk). Sea k ∈ N, junto con (2.27), tenemos que
E[J2k ] = E
[k
∑n=1
1
2n + 2 ∑
1≤m<n≤k
1m1n
]
=k
∑n=1
E[12n] + 2 ∑
1≤m<n≤k
E[1m]E[1n]
=k
∑n=1
E[1n]2 + 2 ∑
1≤m<n≤k
E[1m]E[1n] +k
∑n=1
(
E[1n]2 − E[12
n])
=
(k
∑n=1
pn
)2
+k
∑n=1
(pn − p2n),
con esto, tenemos que
σ2(Jk) = E[J2k ]− (E[Jk])
2 =k
∑n=1
(pn − p2n) =
k
∑n=1
σ2(1n).
Ahora, puesto quek
∑n=1
pn = E[Jk] → +∞, n → +∞,
se sigue que
σ(Jk) ≤ (E[Jk])12 = o(E[Jk]).
28 Deberes
Por lo tanto, si k > k0(A), junto con (2.28), tenemos que
P
Jk >12
E[Jk]
≥ 1 − 1A2 ,
de donde, tomando el límite cuando k → +∞, obtenemos que
P
lımk→+∞
Jk = +∞
≥ 1 − 1A2 ,
con esto, hemos probado que
lımk→+∞
Jk = +∞,
casi-seguramente.
EJERCICIO 2.19. Sea An : n ≥ 1 una sucesión de variables aleatorias independientes.
Pruebe que si
supn∈N
Xn < +∞ c.s.,
entonces
∑n∈N
PXn > A < +∞,
para algún A.
Demostración. Supongamos que
supn∈N
Xn < +∞ c.s.,
es decir que existen N ⊂ Ω un conjunto de medida nula y A > 0 un número real positivo, tales
que
supn∈N
Xn(ω) ≤ A,
para todo ω ∈ Ω, de donde, por la definición de supremo, tenemos que
Xn(ω) ≤ A,
para n ∈ N y A > 0, con esto, tenemos que
Pω : Xm(ω) > A ∀m ≥ n = 0,
así, se sigue que
∑n∈N
PXn(ω) > A < ∞,
2.1 Primer bimestre 29
dado que a partir de cierto m ∈ N esta suma es la suma de término nulos.
EJERCICIO 2.20. Sean α > 0 y Xn : n ≥ 1 una sucesión de variables aleatorias tal que
P(Xn = 0) = 1 − 1n2 y P(Xn = nα) =
1n2 ,
para todo n ≥ 1.
¿A dónde converge E[Xn]n∈N?
Demostración. Sean n ∈ N, se tiene que
E[Xn] = 0P(Xn = 0) + nαP(Xn = nα) =nα
n2 = nα−2,
con esto, tenemos que
lımn→+∞
E[Xn] =
0 si α < 2,
1 si α = 2,
+∞ si α = 2.
Finalmente, obtenemos que
lımn→+∞
E[Xn] = 0,
si α ∈ ]0, 2[.
EJERCICIO 2.21. Sean Xn : n ≥ 1 una sucesión de variables aleatorias y f : R → R una
función uniformemente continua y acotada. Pruebe que si
XnP−→ 0, n → +∞,
entonces
lımn→+∞
E[ f (Xn)] = E[ f (0)].
Demostración. Sea ε > 0, dado que f es uniformemente continua, sabemos existe δ > 0 tal que
|Xn(ω)| ≤ δ ⇒ | f (Xn(ω))− f (0)| ≤ ε,
para todo n ∈ N y ω ∈ Ω, lo cual, es equivalente a tener que
| f (Xn(ω))− f (0)| > ε ⇒ |Xn(ω)| > δ,
30 Deberes
es decir, tenemos la siguiente contenencia
ω : | f (Xn(ω))− f (0)| > ε ⊂ ω : |Xn(ω)| > δ,
de donde,
0 ≤ P| f (Xn(ω))− f (0)| > ε ≤ P|Xn(ω)| > δ,
así, por el Teorema del Sánduche y dado que XnP−→ 0, n → +∞, se tiene que
lımn→+∞
P| f (Xn(ω))− f (0)| > ε = 0,
es decir, hemos probado que
f (Xn)P−→ f (0), n → +∞.
Por otro lado, usando el hecho de que f es acotada, existe M > 0 tal que
| f (Xn(ω))| < M,
para todo n ∈ N, de donde,
E[| f (Xn(ω))|] < M,
para todo n ∈ N. Por lo tanto, podemos concluir que
lımn→+∞
E[ f (Xn)] = E[ f (0)].
EJERCICIO 2.22. Sea Xn : n ≥ 1 una sucesión de variables aleatorias. Pruebe que si
∑n∈N
P|Xn| > n < +∞,
entonces
lım supn→+∞
|Xn|n
≤ 1 c.s.
Demostración. Supongamos que
+∞
∑n=1
P|Xn| > n < +∞,
2.1 Primer bimestre 31
por el Teorema de Borel-Cantelli, tenemos que
P|Xn| > n i.o. = 0,
de donde, se sigue que
P|Xn| ≤ n io = P
|Xn|n
≤ 1 io
= 1,
es decir, existe N ⊂ Ω, un conjunto de medida nula tal que
lım supn→+∞
|Xn(ω)|n
≤ 1
con lo cual, hemos probado que
lım supn→+∞
|Xn|n
≤ 1 c.s.
EJERCICIO 2.23. Sean α > 0 y Xn : n ≥ 1 una sucesión de variables aleatorias tales que
PXn = 0 = 1 − 1nα
y PXn = −n = PXn = n =1
2nα,
para todo n ≥ 1.
Estudie la convergencia en probabilidad, casi segura y en Lp de esta sucesión dependien-
do del valor que toma α > 0.
Demostración. 1. Vamos a estudiar la convergencia en probabilidad, para ello, sea ǫ > 0, se
tiene que
P|Xn| > ǫ = PXn 6= 0 =1
2 nα+
12 nα
=1
nα.
Si α > 0, tomando el límite cuando n → +∞, se tiene que
lımn→+∞
P|Xn| > ǫ = lımn→+∞
1nα
= 0,
es decir,
XnP−→ 0.
2. Vamos a estudiar la convergencia casi segura, si α > 1 tenemos que,
∑n∈N
P|Xn| > ǫ = ∑n∈N
1nα
< +∞.
32 Deberes
Aplicando el teorema de Borel-Cantelli, obtenemos que
P|Xn| > ǫ, i.o = 0,
es decir,
Xnc.s−→ 0,
∀α > 1.
3. Vamos a estudiar la convergencia en LP, tenemos que
E[|Xn|p] = 0p E[|Xn| = 0] + |np| E[Xn = np] + |np| E[|Xn| = −np] = np−α,
para todo n ∈ N. Finalmente, si p < α tenemos que
E[|Xn|p] = np−α n→+∞−−−−→ 0,
es decir,
XnLP
−→ 0, n → +∞.
2.1.5 Deber N5 :
EJERCICIO 2.24. Pruebe que µnv−→ µ si y solo si se da una de las siguientes afirmaciones.
a) Para cada abierto O : lım infn∈N µn(O) ≥ µ(O).
b) Para cada cerrado F : lım supn∈Nµn(F) ≤ µ(F).
Demostración. a) ⇒ b) Supongamos que para cada abierto O ∈ A, se tiene que
lım infn→+∞
µn(O) ≥ µ(O).
Sea F ∈ A un cerrado, así, Fc es un abierto, de donde, por hipótesis, se sigue que
lım infn→+∞
µn(Fc) ≥ µ(Fc),
luego, puesto que µ es una medida, al tomar el complemento, tenemos que
1 − lım supn→+∞
µn(F) ≥ 1 − µ(F),
2.1 Primer bimestre 33
es decir,
µ(F) ≥ lım supn→+∞
µ(F).
b) ⇒ a), de forma análoga a la parte anterior.
Ahora, supongamos que µnv−→ µ, así, para toda función f ∈ Ck se tiene que
lımn→+∞
∫
R
f (x) µn(dx) =∫
R
f (x) µ(dx). (2.29)
Sea F ∈ A un cerrado cualquiera, tomemos F′ ⊂ F y f ∈ Ck tales que
f (x) =
1 si x ∈ F,
0 si x /∈ F,
de donde, junto con (2.29), se sigue que
∫
R
f (x) µn(dx) −→∫
R
f (x) µ(dx), n → +∞
Por otro lado, tenemos que
µn(F) ≤∫
R
f (x) µd(x) ≤ µn(F′)
⇒ lım supn→+∞
µn(F) ≤ µ(F′) ≤ µ(F).
Por lo tanto,
lım supn→+∞
µn(F) ≤ µ(F).
EJERCICIO 2.25. Sea Xn : n ≥ 1 una familia de variables aleatorias. Muestre que si
supn∈N
E[|Xn|1+δ] < +∞, (2.30)
para algún δ > 0, entonces |Xn|n≥1 es uniformemente integrable.
Demostración. Supongamos (2.30), tomemos p = 1 + δ y q = 1 + 1δ , así, por la desigualdad de
Hölder, tenemos que
E[|Xn|1|Xn|>n] ≤ (E[|Xn|p)1/p(
E[
1|Xn|>n])1/q
= (E[|Xn|p)1/p P|Xn| > n1/q .
34 Deberes
de donde, por la desigualdad de Chebyshev, se sigue que
E[|Xn|1|Xn|>n] ≤ (E[|Xn|p)1/p(
E[|Xn|p]np
)1/q
=E[|Xn|p]
np+q .
Por lo tanto,
supn∈N
E[
|Xn|1|Xn |>n]
≤ M
nδ,
donde, supn∈N
E[|Xn|1+δ] < M.
Finalmente, cuando n → +∞, obtenemos que
supn→+∞
|Xn|1|Xn|>n −→ 0, n → +∞.
EJERCICIO 2.26. Sean 0 < r < ∞, Xn ∈ Lr y XnP−→ X, n → +∞. Entonces las siguientes
proposiciones son equivalentes:
a) |Xn|rn≥1 es uniformemente integrable.
b) XnLp
−→ X, n → +∞.
c) E[|Xn|r] −→ E[|X|r], n → +∞, y < E[|X|r] + ∞.
Demostración. Vamos a demostrar una cadena de implicaciones.
a) ⇒ b) Supongamos que |Xn|rn≥1 es uniformemente integrable y que XnP−→ X, así, existe
Xnkk≥1 una subsucesión de Xnn≥1 tal que
Xnk
c.s.−→ X, n → +∞,
de donde, tenemos que
E[|X|r] ≤ lım infk→+∞
E[|Xnk]r, (2.31)
luego, puesto que |Xn|r : n ≥ 1 es uniformemente integrable, sabemos que
E[|Xn|r] ≤ M,
para todo n ∈ N, combinando la desigualdad precedente con (2.31), se sigue que:
E[|Xr|] ≤ M,
2.1 Primer bimestre 35
es decir,
X ∈ Lr.
Ahora, para todo r > 0, tenemos que
|Xn − X|r ≤ 2r(|Xn|r + |X|r) < +∞,
para todo n ∈ N, de donde, concluimos que |Xn − X|rn∈N es uniformemente integrable,
para r > 0, así,
∫
Ω|Xn − X|r dP =
∫
|Xn−X|>ε|Xn − X|r dP +
∫
|Xn−X|≤ε|Xn − X|r
≤∫
|Xn−X|>εdP + εr −→ 0, n → +∞,
debido a que |Xn − X|rn>1 es uniformemente integrable, por lo tanto hemos probado
que |Xn − X|r −→ 0, es decir,
XnLr
−→ X, n → +∞.
b)⇒ c) Supongamos que XnLr
−→ X n → +∞ Vamos a demostrar que E[|Xn|r] −→ E[|X|r], n →+∞.
Para r > 1, por la desigualdad de Minkowski, tenemos que
(E[|Xn|r])1/r − (E[|Xn − X|r])1/r ≤ (E[|X|r])1/r ≤ (E[|Xn|r])1/r + (E[|Xn − X|r])1/r ,
tomando el límite cuando n → +∞, obtenemos que
E[|Xn|r] −→ E[|X|r].
Ahora, si r ∈ (0, 1], entonces
|x + y|r ≤ |x|r + |y|r,
de donde para todo r > 0, tenemos que
E[|Xn|r] −→ E[|X|r].
c) ⇒ a) Supongamos que E[|Xn|r] −→ E[|X|r], n → +∞. Sea A > 0, consideremos la función
36 Deberes
borel medible fA dada por
fA(x)
= |X|r si |X| ≤ A,
≤ |X|r si A < |X| ≤ A + 1,
= 0 si |X| > A + 1,
se tiene que fA ∈ Ck. Así, tenemos que
∫
|Xn |r≤A+1|Xn|r dP ≥
∫
fA (Xn) dP,
de donde,
lım infn→+∞
∫
|Xn|≥A+1|Xn|r dP ≥ lım inf
n→+∞
∫
fA(Xn) dP = ınf fA(X) dP
≥∫
|X|≤AfA(X) dP =
∫
|X|≤A|X|r dP,
con esto, obtenemos que
lım supn→+∞
∫
|Xn|>A+1|Xn|r dP ≤
∫
|X|>A|X|r dP −→ 0, A → +∞.
Finalmente, dado ε > 0, existen A0(ε) y n0(A0(ε)) tales que
supn≥n0
∫
|Xn|>A|Xn|r dP < ε,
para A > A0. Por lo tanto,
|Xn|r : n ≥ 1,
es uniformemente integrable.
EJERCICIO 2.27. Sean Xn : n ≥ 1 una familia de variables aleatorias tal que
P|Xn| ≥ c ≤ P|X| ≥ c. (2.32)
para todo n y para todo c > 0. Muestre que si E[|X|] < +∞, entonces |Xn| : n ≥ 1 es
uniformemente integrable.
2.1 Primer bimestre 37
Demostración. Sea c > 0,por la desigualdad de Chebyshev, tenemos que
P|X| ≥ c ≤ E[|X|]c
,
de donde, junto con (2.32), obtenemos que
P|Xn| ≥ c ≤ E[|X|]c
,
luego, puesto que E[X] < +∞, se tiene que
P|Xn| ≥ c ≤ M
c,
así, por la definición se supremo, se sigue que
supn∈N
P|Xn| ≥ c −→ 0, c → +∞.
Con esto, hemos probado que
E[
|Xn|1|Xn|≥c]
−→ 0, c → +∞.
EJERCICIO 2.28. Si Xnn≥1 es uniformemente integrable, entonces la sucesión
1n
n
∑j=1
Xj
n∈N
es uniformemente integrable.
Demostración. Supongamos que Xn : n ≥ 1 es uniformemente integrable. Para cada n ∈ N,
consideremos Yn =
1n
n
∑j=1
Xj
, vamos a demostrar que
E[|Yn|1|Yn |≥c] −→ 0, c → +∞
lo cual, es equivalente a probar que E[|Yn|] < +∞ para cada n ∈ N.
En efecto, tenemos que
E[|Yn|] = E
[
1n
∣∣∣∣∣
n
∑j=1
Xj
∣∣∣∣∣
]
≤ E
[
1n
n
∑j=1
|Xj|]
,
38 Deberes
de donde, por propiedades de la esperanza, se sigue que
E[|Yn|] ≤1n
n
∑j=1
E[|Xj|], (2.33)
luego, dado que Xn : n ≥ 1 es integrable, para cada n ∈ N, tenemos que E[|Xn|] < +∞, junto
con (2.33), se tiene que
E[|Yn|] ≤1n
n
∑j=1
M,
donde supn∈N≤ M, así, tenemos que
E[|Yn|] ≤ M,
para todo n ∈ N.
Por lo tanto, por el Teorema de Caracterización de Uniformidad Integrable tenemos que Yn :
n ≥ 1 es uniformemente integrable.
2.2 Segundo Bimestre 39
2.2 SEGUNDO BIMESTRE
2.2.1 Deber N6:
EJERCICIO 2.29. Sea Xn : n ≥ 1 una sucesión de variables aleatorias independientes,
investigue la convergencia c.s de la sucesión Xn : n ≥ 1 hacia 0 en cada uno de los
siguientes casos
a) PXn = en = 1n2 y PXn = 0 = 1 − 1
n2 , para cada n ∈ N.
b) PXn = 0 = 1 − 1n y PXn = ±1 = 1
n , para cada n ∈ N.
Solución. a) Sean ε > 0 y n ∈ N, tenemos que
P|Xn| > ε = PXn 6= 0 = PXn = en =1n2 ,
de donde, se sigue que
∑n∈N
P|Xn| > ε = ∑n∈N
1n2 =
π2
6< +∞,
luego, por el Teorema de Borel-Cantelli, se sigue que
P|Xn| > ε io = 0,
con esto, hemos probado que
Xnc.s.−→ 0, n → +∞.
b) Sean n ∈ N y ε > 0, tenemos que
P|Xn| > ε = PXn 6= 0 = PXn = 1+ PXn = −1 =2n
,
de donde, se sigue que
∑n∈N
P|Xn| > ε = ∑n∈N
2n= +∞,
luego, dado que Xn : n ≥ 1 es una sucesión de variables aleatorias independientes, por el
Teorema de Borel-Cantelli, obtenemos que
P|Xn| > ε i.o. = 1,
40 Deberes
de donde,
Xn 6 c.s.−→ 0, n → +∞.
EJERCICIO 2.30. Proponga un contraejemplo para cada uno de los siguientes casos en el que
se muestre que no se cumple
a) Convergencia en probabilidad implica convergencia en Lp,
b) Convergencia en probabilidad implica convergencia casi segura,
c) Convergencia en Lp implica convergencia casi segura.
a) Solución: Sea Xn : n ≥ 1 una sucesión de variables aleatorias independientes tales que
PXn = en =1n2 y PXn = 0 = 1 − 1
n2
para cada n ∈ N.
Por el ejercicio 6.32, literal a), sabemos que
Xnc.s.−→ 0, n → +∞,
de donde,
XnP−→ 0, n → +∞.
Ahora, para n, tenemos que
E[Xpn ] = 0PX
pn = 0+ enpPX
pn = enp =
enp
n2 ,
de donde, se tiene que
lımn→+∞
E[Xn] = +∞.
Por lo tanto, concluimos que convergencia en probabilidad no implica convergencia en Lp.
b) Solución: Sea Xn : n ≥ 1 una sucesión de variables aleatorias independientes tales que
PXn = 1 =1n
y PXn = 0 = 1 − 1n
2.2 Segundo Bimestre 41
para cada n ∈ N, para ε > 0, tenemos que
P|Xn| > ε = PXn 6= 0 = PXn = 1 =1n
,
de donde,
lımn→+∞
P|Xn| > ε = 0,
es decir,
XnP−→ 0, n → +∞.
Sin embargo,
∑n∈N
P|Xn| > ε = +∞,
de donde, por el Teorema de Borel - Cantelli, se sigue que
P|Xn| > ε i.o. = 1,
es decir,
Xn 6 c.s.−→ 0, n → +∞.
c) Solución: Sean Ω = [0, 1],F = Bor([0, 1]) y P = medida de Lebesgue, consideremos
Ain =
[i − 1
n,
i
n
]
y Xin = 1Ai
n(ω),
para cada n ∈ N, i ∈ 1, 2, . . . , n y ω ∈ Ω, se tiene que la sucesión de variables aleatorias
X11 , X1
2 , X22 , X1
3 , X23 , X3
3 , . . . ,
converge en probabilidad y en Lp para p > 0, sin embargo, no converge para ningún punto
ω ∈ [0, 1].
EJERCICIO 2.31. Sea Xn : n ≥ 1 una sucesión de variables aleatorias estrictamente decre-
ciente tal que
P
Xn = ± 1n
=1n
.
Pruebe que
Xnc.s−→ 0, n → +∞.
42 Deberes
Demostración. Sea ε > 0, vamos a demostrar que
P|Xn| > ε i.o. = 0.
En primer lugar, vamos a demostrar que
ω : |Xm(ω)| > ε =
ω :⋃
n≥m
|Xn(ω)| > ε
,
en efecto,
1. La primera contenencia, se sigue inmediatamente, por la definición de unión,
ω : |Xm(ω)| > ε ⊂
ω :⋃
n≥m
|Xn(ω)| > ε
.
2. Para la otra contenencia, sea ω1 ∈ ω :⋃
n≥m
|Xn(ω)| > ε, así, existe n ∈ N tal que para
n ≥ m, se sigue que
|Xn(ω1)| > ε,
por otro lado, dado que Xn : n ≥ 1 es una sucesión de variables aleatorias decreciente,
sabemos que
|Xn(ω1)| < |Xm(ω1)|,
luego, combinando las desigualdades precedentes, obtenemos que
|Xm(ω1)| > ε,
es decir,
ω1 ∈ ω : |Xm(ω)| > ε.
con esto, tenemos que
ω :⋃
n≥m
|Xn(ω)| > ε
⊂ ω : |Xm(ω)| > ε.
Ahora, puesto que lımn→+∞
1n= 0, sabemos que existe N ∈ N tal que
1n< ε,
2.2 Segundo Bimestre 43
para todo n ≥ N, con esto, tenemos que
P|Xn| > ε = PXn 6= 0 = P
Xn =1n
+ P
Xn = − 1n
→ 0, n → +∞.
Finalmente, notemos que
P|Xn| > ε i.o. = P
⋂
n∈N
⋃
m≥n
|Xm| > ε
= lımn→+∞
P
⋃
m≥n
|Xm| > ε
= lımn→+∞
P|Xm| > ε
= 0,
por lo tanto, hemos probado que
Xnc.s−→ 0, n → +∞.
EJERCICIO 2.32. Sea Xn : n ≥ 1 una sucesión de variables aleatorias independientes e
idénticamente distribuidas, con función de densidad
f (x) =
e(−x+θ) si x ≥ θ,
0 si x < θ.
Para cada n ∈ N, consideremos
Xn =1n
n
∑i=1
Xi.
Muestre que
XnP−→ 1 + θ, n → +∞.
Demostración. Recordemos el siguiente teorema:
TEOREMA 2.1TEOREMA 2.1Sea Xn : n ≥ 1 una sucesión de variables aleatorias independientes dos a dos e idéntica-
mente distribuidas con medida finita m, tenemos que
Sn
n
P−→ m, n → +∞.
44 Deberes
Ahora, sea j ∈ N, vamos a calcular la esperanza de la variable aleatoria Xj, tenemos que
m = E[Xj] =∫ +∞
−∞x f (x) dx
=∫ θ
−∞0 dx +
∫ +∞
θxe−x+θ dx
= eθ∫ +∞
θx e−x dx
= eθ
(
−e−xx|+∞θ +
∫ +∞
θe−x dx
)
= eθθe−θ − eθe−x|+∞θ
= θ + eθe−θ
= 1 + eθ ,
es decir, tenemos que
m = 1 + eθ ,
por lo tanto, por el teorema mencionado, podemos concluir que
XnP−→ 1 + θ, n → +∞.
EJERCICIO 2.33. Sea Xn : n ≥ 1 una sucesión de variables aleatorias independientes.
Pruebe que si
∑n∈N
Var[Xn] < +∞,
entonces n
∑i=1
(Xn − E[Xn])
n∈N
,
converge casi-seguramente.
Demostración. Antes de realizar la demostración, recordemos el siguiente teorema:
TEOREMA 2.2TEOREMA 2.2Sea Xn : n ≥ 1 una sucesión de variables aleatorias independientes tal que
E[Xn] = 0 y E[X2n] = σ2(Xn) < +∞,
para cada n ∈ N, para todo ε > 0, se tiene que
P max1≥j≥n
|Sj| > ε ≤ σ2(Sn)
ε2 .
2.2 Segundo Bimestre 45
Ahora, para cada n ∈ N, definamos
Sn =n
∑k=1
E[Xk − E[XK]],
de donde, por el Teorema precedente, se sigue que
P
max1≥j≥n
|Sj| > ε
≤ σ2(Sn)
ε2
=Var [∑n
k=1 E[Xk − E[XK]]]
ε2
=∑
nk=1 Var[Xk]
ε2 < +∞,
de donde, por el Teorema de Borel - Cantelli, obtenemos que
P
max1≥j≥n
|Sj| > ε i.o.
= 0,
es decir,
max1≤j≤n
|Sj| c.s.−→ 0, n → +∞,
con lo cual, tenemos que
Snc.s.−→ 0, n → +∞.
2.2.2 Deber N7 :
EJERCICIO 2.34. Muestre que el límite de la convergencia vaga, si existe es único.
Demostración. Sea µnn∈N, una sucesión de medidas. Supongamos que existen µ, µ′ medidas
tales que
µnv−→ µ, n → +∞ y µn
v−→ µ′, n → +∞,
vamos a demostrar que µ = µ′. Por definición de convergencia vaga, sabemos que existen
D, D′ ⊂ R, densos tales que
∀a, b ∈ D, µn(a, b] −→ µ(a, b] y ∀d, c ∈ D, µn(c, d] −→ µ(c, d],
de donde, por las equivalencias de convergencia vaga, tenemos que
−ε + µ′(a + ε, b − ε) < µn(a, b) < µ′(a − ε, b + ε) + ε,
46 Deberes
así, para todo ǫ > 0, tenemos que
µn(a, b] −→ µ′(a, b],
por lo tanto,
µ(a, b] = µ′(a, b].
Finalmente, puesto que D, D′ ⊂ R, son conjuntos densos en R y (a, b) ⊂ R genera a B, obtene-
mos que
µ = µ′.
EJERCICIO 2.35. Sea Xn : n ≥ 1 una sucesión de variables aleatorias independientes de
una distribución exponencial estándar. Muestre que
lım infn→+∞
Xn
log(n)= 0 c.s., n → +∞. (2.34)
Demostración. Sea ε > 0, cualquiera. Vamos a demostrar que
P
lım infn→+∞
Xn
log n≤ ε
= 1.
Notemos que⋂
m∈N
⋃
n≥m
Xn
log(n)≤ ε
⊆
lım infn→+∞
Xn
log(n)≤ ε
, (2.35)
ahora, notemos que
P
⋂
m∈N
⋃
n≥m
Xn
log(n)
≤ ε
= lımm→+∞
P
⋃
n≥m
Xn
log(n)≤ ε
≥ lımm→+∞
P Xm ≤ ε log(m) ,
(2.36)
luego, usando el hecho de que Xn ∼ exp(1),, para cada n ∈ N, tenemos que
lımm→+∞
PXm ≤ ε log(m) = lımm→+∞
(
1 − 1mε
)
= 1,
combinando (2.35) y (2.36), obtenemos que
1 ≤ P
lım infn→+∞
Xn
log(n)≤ ε
≤ 1,
es decir,
P
lım infn→+∞
Xn
log(n)≤ ε
= 1.
con esto, hemos probado (2.34).
2.2 Segundo Bimestre 47
EJERCICIO 2.36. Sean Xn :≥ 1 una familia de variables aleatorias independientes e idén-
ticamente distribuidas, con función de distribución U(0, θ), θ > 0 y X(n) = maxX1, ..., Xn,
para cada n ∈ N. Muestre que X(n)P−→ θ, n → +∞.
Demostración. Sea ε > 0, cualquiera, vamos a demostrar que
P|X(n) − θ| > ε −→ 0, n → +∞,
en efecto, tenemos que
P|X(n) − θ| > ε = PX(n) < θ − ε+ PX(n) > θ + ε = PX(n) < θ − ε,
dado que θ + ε /∈ (0, θ), de donde, puesto que Xini=1 son independientes, tenemos que
P(|X(n) − θ| > ε) =n
∏i=1
P(Xi < θ − ε) = (θ − ε
θ)n (2.37)
ahora, dado que θ−εθ < 1, tenemos que
∑n∈N
(θ − ε
θ)n
< +∞,
de donde, por el Teorema de Borel-Cantelli, tenemos que
P|X(n) − θ| io = 0,
es decir,
X(n)c.s.−→ θ, n → +∞,
de donde,
X(n)P−→ θ, n → +∞.
EJERCICIO 2.37. Sean Xjnj=1 una familia finita de variables aleatorias independientes, idén-
ticamente distribuidas con E[Xi] = µ y E[|Xi|2 < ∞. Muestre que
Zn :=2
n(n + 1)
n
∑i=1
i XiP−→ µ. (2.38)
Demostración. Sea ε > 0, cualquiera. Vamos a demostrar que
P(|Zn − µ| > ε) −→ 0.
48 Deberes
Por la definición de esperanza, tenemos que
E[Zn] =2
n(n + 1)
n
∑i=1
i E[Xi] =2
n(n + 1)µ
(n
∑i=1
i
)
=2
n(n + 1)µ
(n(n + 1)
2
)
= µ.
Al calcular la varianza, tenemos que
Var(Zn) =4
n2(n + 1)2
n
∑i=1
i2 Var(Xi) =4 c
n2(n + 1)2
n
∑i=1
i2
=4 c
n2(n + 1)2n(n + 1)(2n + 1)
6=
2c
3(2n + 1)n(n + 1)
.
Por la desigualdad de Chebyshev, se tiene que
P(|Zn − µ| > ε) ≤ Var(Zn)
ε2 =2c
3(2n + 1)n(n + 1)
−→ 0, n → +∞.
Por lo tanto, hemos probado (2.38).
EJERCICIO 2.38. Sean Xn : n ≥ 1 una familia de variables aleatorias independientes, tal
que
PXn = n = PXn = −n =1
2n ln(n), y PXn = 0 = 1 − 1
n ln(n),
para cada n ∈ N.
Muestre que Snn
P−→ 0, n → +∞, pero no se tiene que Snn
c.s.−→ 0, n → +∞.
Demostración. La probabilidad está bien definida, en efecto, tenemos que
PXn = n+ PXn = −n+ PXn = 0) =1
2 n ln(n)+
12 n ln(n)
+ 1 − 1n ln(n)
= 1
1. Vamos a estudiar la convergencia en probabilidad, para ello, sea ε > 0, se tiene que
P
∣∣∣∣
Sn
n
∣∣∣∣> ε
= P|Sn| > ε n = PSn 6= 0 =1
2 n ln(n)+
12 n ln(n)
=1
n ln(n).
Tomando el límite cuando n → +∞,
lımn→+∞
P
∣∣∣∣
Sn
n
∣∣∣∣> ε
= lımn→+∞
1n ln(n)
= 0,
2.2 Segundo Bimestre 49
es decir,Sn
n
P−→ 0, n → +∞.
Segunda demostración: Por definición de esperanza, para cada n ∈ N, tenemos que
E[Xn] = 0PXn = 0+ nPXn = n − nPXn = −n
=1
ln(n)− 1
ln(n)
= 0,
es decir, para cada n ∈ N, tenemos que
E[Xn] = 0,
con lo cual, se tiene que
Xn : n ≥ 1,
es una sucesión de variables aleatorias idénticamente distribuidas, de donde, por la Ley
Débil de los Grandes Números, obtenemos que
Sn
n
P−→ 0, n → +∞.
2. Vamos a estudiar la convergencia casi segura. Tenemos que
∑n≥1
P
∣∣∣∣
Sn
n
∣∣∣∣> ε
= ∑n∈N
1n ln(n)
,
cuando n → +∞, la serie diverge. Luego, por la independencia de la sucesión Xn : n ≥ 1y aplicando el Teorema de Borel-Cantelli, obtenemos
P
∣∣∣∣
Sn
n
∣∣∣∣> ε i.o.
= 1,
es decir,Sn
n6 c.s.−→ 0, n → +∞.
EJERCICIO 2.39. Sean Xn : n ≥ 1 una sucesión de variables aleatorias independientes,
idénticamente distribuidas y Sn = ∑1≥j≥1n
Xj. Muestre que si Snc.s.−→ S, n → +∞, entonces
ϕSn(t) → ϕS(t), n → +∞.
50 Deberes
Demostración. Recordemos que
ϕSn(t) =
n
∏j=1
ϕXj(t) = [ϕXj
(t)]n, (2.39)
dado que las variables son idénticamente distribuidas, se tiene que
ϕXj(t) = E[ei t x] =
∫
R
ei t x dF(x) =∫
Ωei t xµ d(x).
De (2.39) y por las propiedades de la función característica
∣∣∣ϕXj
(t)∣∣∣ < 1,
entonces,
lımn→+∞
ϕSn(t)
existe.
Ahora, como Snc.s.−→, n → +∞S, de la definición de convergencia casi-segura, sabemos que
existe N ⊂ Ω tal que P(N) = 0
Sn(ω) −→ S(ω), n → +∞,
para cada ω ∈ ΩN,.
Como la función exponencial es continua, para cada ω ∈ Ω r N, tenemos que
ei t Sn(ω) −→ ei t S(ω), n→+∞.
Notemos que |ei t Sn | ≤ 1,, para cada n ∈ N, es decir,
∫
ei t Sn dP ≤ 1 < +∞.
Así, por el teorema de convergencia dominada, se sigue que
lımn→+∞
∫
Ωei t Sn dP =
∫
Ωei t s dP,
es decir,
lımn→+∞
ϕSn(t) = ϕS(t).
2.2 Segundo Bimestre 51
EJERCICIO 2.40. Sea ϕ una función característica y G una función de distribución tal que
G(0−) = 0. Muestre que
a)∫ 1
0 ϕ(ut)du.
b)∫ ∞
0 ϕ(ut)dG(u).
c)∫ ∞
0 ϕ(ut)e−udu.
son funciones características.
a) Demostración. Sean X : (Ω,F ) −→ (R,B) una variable aleatoria con ϕ, su función carac-
terística y U ∼ U (0, 1) variable aleatoria tal que
f (x) =
1 si x ∈ [0, 1],
0 caso contrario.
Definimos Z = X U, tal que Z es variable aleatoria pues es el producto entre dos variables
aleatorias. Aplicando la definición de función característica, tenemos que
ϕZ(t) = E[ei t Z] =∫
Ωei t Z dP
=∫ 1
0
∫
Ωei t x udF(u) dF(x)
=∫ 1
0
∫
Ωei t x udF(x)du
=∫ 1
0ϕ(u t)du.
Por lo tanto,∫ 1
0 ϕ(u t)du es función característica.
b) Demostración. Sean X variable aleatoria con ϕ su función característica y U ∼ G variable
aleatoria con Ω = Ω1 × Ω2. Definimos Z = X U con X y U independientes.
Por la definición de función característica, tenemos que
ϕZ(t) = E[ei t Z] = E[ei t X U ]
=∫ +∞
−∞
∫ +∞
−∞ei t x udF(x) dG(u)
=∫ +∞
0
∫ +∞
−∞ei t x udF(x) dG(u)
=∫ +∞
0ϕ(u t) dG(u).
Por lo tanto,∫ +∞
0 ϕ(u t) dG(u) es función característica.
52 Deberes
c) Demostración. Sea X variable aleatoria con función característica ϕ y U ∼ exp(1) tal que
Y = X U con X y U independientes, además fU(u) = e−u.
Por la definición de función característica, tenemos que
ϕY(t) = E[ei t y] =∫ ∞
−∞
∫ ∞
−∞ei t u x dF(x) dF(u)
=∫ ∞
0
∫ ∞
−∞ei t u x dF(x) fU(u) du
=∫ ∞
0
∫ ∞
−∞ei t u x dF(x) e−u du
=∫ +∞
0ϕ(u t) e−u du.
Por lo tanto,∫ +∞
0 ϕ(u t) e−u du es función característica.
EJERCICIO 2.41. Sean Xjnj=1 una familia finita de variables aleatorias independientes, con
distribución N (0, 1). Encuentre la función característica den
∑j=1
X2j .
Solución. Para cada n ∈ N,definamos Yn =n
∑j=1
X2j . Tenemos que
ϕYn(t) =
[
ϕX2j(t)
]n
, (2.40)
para cada n ∈ N.
En efecto, por la definición de función característica y la continuidad de la esperanza, obte-
nemos
ϕYn(t) = E
[
ei t Yn
]
=n
∏j=1
E[ei t X2
j ] = E
[n
∏j=1
ei t X2
j
]
=n
∏j=1
ϕX2j(t) =
[
ϕX2j(t)
]n
,
Por otro lado, para cada j ∈ 1, ..., n las variables aleatorias siguen una distribución normal
con media cero y varianza uno, es decir, Xj ∼ N (0, 1),, con lo cual, se sigue que
E[ei t X2
j ] =∫ ∞
−∞e
i t X2j
1√2 π
e−X2
j /2dXj
=1√2 π
∫ +∞
0e−X2
j /2(1−2 i t)dXj
=2√2 π
∫ ∞
0e−(1−2 i t) X2
j /2dXj
=1√
1 − 2 i t,
2.2 Segundo Bimestre 53
de donde, junto con (2.40) se sigue que
ϕYn(t) = (1 − 2 i t)−n/2,
para cada n ∈ N.
2.2.3 Deber N8:
EJERCICIO 2.42. Sea X una variable aleatoria con función de densidad dada por:
a)
f (x) =
θx e−θ
x! si x = 0, 1, 2, . . .
0 caso contrario.
b)
f (x) =1
b − a1(a,b)(x).
En cada caso, encuentre
1. La función de distribución,
2. E[X] y Var[X].
a) Solución. Para la primera función de densidad:
1. Por definición de función de distribución, tenemos que
FX(x) =x
∑i=0
θie−θ
i!
2. Por definición de esperanza, tenemos que
E[X] =+∞
∑i=0
iθie−θ
i!
= e−θ+∞
∑i=1
iθi
i!
= e−θ+∞
∑i=1
θi
(i − 1)!,
54 Deberes
de donde, si m = i − 1, se sigue que
E[X] = e−θ+∞
∑m=0
θm+1
m!
= θ · e−θ+∞
∑m=0
θm
m!,
de donde, dado que ∑m∈N
θm
m!= eθ , obtenemos que
E[X] = θ
(eθ
eθ
)
= θ.
Ahora, por definición de varianza, se tiene que
V[X] = E[X2]− (E[X])2,
así, para calcular la varianza basta con encontrar el valor de E[X2]. Tenemos que
E[X2] =+∞
∑i=1
i2θie−θ
i!
=+∞
∑i=1
(i(i − 1) + i)θie−θ
i!
=+∞
∑i=2
i(i − 1)θie−θ
i!+
+∞
∑i=1
iθie−θ
i!
=+∞
∑i=2
θie−θ
(i − 2)!+ θ,
de donde, si m = i − 2, obtenemos que
E[X2] = e−θ+∞
∑m=0
θm+2
m!+ θ
= θ2 · e−θ+∞
∑m=0
θm
m!+ θ
= θ2(
eθ
e−θ
)
+ θ.
Con esto, tenemos que
Var[X] = θ2 + θ − θ2 = θ.
b) Solución. Para la segunda función de densidad:
2.2 Segundo Bimestre 55
1. Por definición de función de distribución, tenemos que
FX(x) =∫ x
−∞f (y) dy
=∫ x
a
1b − a
dy
=1
b − ay|xa
=x − a
b − a,
es decir,
FX(x) =x − a
b − a.
2. Por definición de esperanza, se tiene que
E[X] =∫ +∞
∞x f (x) dx
=∫ b
a
x
b − adx
=x2|ba
2(b − a)
=b2 − a2
2(b − a)
=b + a
2,
es decir,
E[X] =b + a
2.
Por definición de varianza, tenemos que
Var[X] = E[X2]− (E[X])2,
así, basta con determinar
E[X2] =∫ +∞
−∞x2 f (x) dx
=∫ b
a
x2
b − adx
=x3|ba
3(b − a)
=b3 − a3
3(b − a)
=a2 + ab + b2
3,
56 Deberes
con esto, obtenemos que
Var[X] =a2 + ab + b2
3− (b + a)2
4
=(b − a)2
12,
es decir,
Var[X] =(b − a)2
12.
EJERCICIO 2.43. Sea F1(x)ni=1 una familia finita de funciones de distribución. Pruebe que
G(x) =n
∑i=1
piFi(x),
es una función de distribución, donde,
pi ≥ 0 yn
∑i=1
pi(x) = 1.
Demostración. Para probar que G : R → R es una una función de distribución, vamos a demos-
trar las propiedades que la definen.
1. Vamos a demostrar que G es no decreciente, es decir, sea x, y ∈ R, tales que
x ≤ y,
probaremos que
G(x) ≤ G(y),
dado que Fini=1 es una familia de funciones de distribución, tenemos que
Fi(x) ≤ Fi(y),
para todo i ∈ 1, . . . , n, de donde, dado que pi ≥ 0, obtenemos que
piFi(x) ≤ piFi(y),
para todo i ∈ 1, . . . , n, luego,
n
∑i=1
piFi(x) ≤n
∑i=1
piFi(y),
2.2 Segundo Bimestre 57
es decir,
G(x) ≤ G(y),
con lo cual, hemos probado que G es no decreciente.
2. Vamos a demostrar que G es continua por la derecha, es decir,
lımx→a+
G(x) = G(a),
para todo a ∈ R. En efecto, sea a ∈ R, dado que Fini=1 es una familia de funciones de
distribución, sabemos que
lımx→a+
Fi(x) = Fi(a),
para todo i ∈ 1, . . . , n, con esto, obtenemos que
lımx→a+
n
∑i=1
piFi(x) =n
∑i=1
pi lımx→a+
Fi(x)
=n
∑i=1
piFi(a)
= G(a),
es decir, hemos probado que
lımx→a+
G(x) = G(a).
3. Vamos a demostrar que
lımx→−∞
G(x) = 0,
dado que Fini=1 es una familia de funciones de distribución, sabemos que
lımx→−∞
Fi(x) = 0,
para todo i ∈ 1, . . . , n, con esto, obtenemos que
lımx→−∞
n
∑i=1
piFi(x) =n
∑i=1
pi lımx→−∞
Fi(x)
=n
∑i=1
pi · 0
= 0,
es decir, hemos probado que
lımx→−∞
G(x) = 0.
58 Deberes
4. Finalmente, vamos a demostrar que
lımx→+∞
G(x) = 1,
dado que Fini=1 es una familia de funciones de distribución, sabemos que
lımx→+∞
Fi(x) = 1,
para todo i ∈ 1, . . . , n, con esto, obtenemos que
lımx→−∞
n
∑i=1
piFi(x) =n
∑i=1
pi lımx→−∞
Fi(x)
=n
∑i=1
pi · 1
= 1,
es decir, hemos probado que
lımx→+∞
G(x) = 1.
EJERCICIO 2.44. Muestre que si X e Y son variables aleatorias independientes y f , g son
funciones Borel-medibles, entonces f (X) y g(Y) son variables aleatorias independientes.
Demostración. Supongamos que X y Y son variables aleatorias independientes, sea A ∈ Ω, va-
mos a demostrar que f (X) y f (Y) son variables aleatorias independientes, para lo cual, debemos
probar que
P f (X) ∈ A, f (Y) ∈ A = P f (X) ∈ AP f (Y) ∈ A,
tenemos que
P f (X) ∈ A, f (Y) ∈ A = PX ∈ f−1(A), Y ∈ f−1(A),
de donde, dado que X y Y son independientes, obtenemos que
P f (X) ∈ A, f (Y) ∈ A = PX ∈ f−1(A)PY ∈ f−1(A)
= P f (X) ∈ AP f (Y) ∈ A,
con esto, hemos probado que f (X) y f (Y) son variables aleatorias independientes.
2.2 Segundo Bimestre 59
EJERCICIO 2.45. Sean Xn : n ≥ 1 una sucesión de variables aleatorias y (cn)n∈Nuna
sucesión de números reales tal que lımn→+∞ cn = c, pruebe que si
Xn∗−→ X, n → +∞,
entonces
cnXn∗−→ cX, n → +∞,
donde, ∗ ∈ c.s., Lr, P, d.
Demostración. Por el Ejercicio 4.28, sabemos que si
XnLp
−→ X, n → +∞,
entonces
cnXnLp
−→ cX, n → +∞.
Además, sabemos que
(
cnXnLp
−→ cX, n → +∞)
⇒(
cnXnP−→ cX, n → +∞
)
⇒(
cnXnd−→ cX, n → +∞
)
,
por lo tanto, basta con demostrar el resultado para la convergencia casi-segura, en efecto, debe-
mos hallar N ⊂ ω un conjunto de medida nula tal que
lımn→+∞
Xn(ω) = X(ω),
para todo ω ⊂ Nc, sean ε > 0 y ω ∈ Ω, tenemos que
|cnXn(ω)− cX(ω)| ≤ |cn(Xn(ω)− X(ω))|+ |(cn − c)X(ω)|. (2.41)
Por hipótesis, (cn)n∈Nes una sucesión es números reales convergente, por lo tanto, es una
sucesión acotada, es decir, existe M > 0 tal que
|cn| ≤ M,
para todo n ∈ N.
Nuevamente, por hipótesis, sabemos existe N1 ⊂ Ω un conjunto de medida nula y n1 ∈ N
tal que
|(Xn − X)(ω)| < ε
2M
60 Deberes
para todo n1 ≥ n y para todo ω ∈ Nc1, de igual forma, sabemos existe n2 ∈ N tal que
|cn − c| < ε
2|X| ,
para todo n1 ≥ n, de donde, tomando
n = maxn1, n2 y N = N1,
junto con (2.41), obtenemos que
|cnXn(ω)− cX(ω)| < ε
2|X| +ε
2|X| = ε,
para todo n ≥ n y para todo ω ∈ Nc, es decir, hemos probado que
cnXnc.s.−→ cX, n → +∞.
EJERCICIO 2.46. Calcule la función característica de la siguiente variable aleatoria X que
tiene distribución
1. Normal con media µ y varianza σ2, es decir, X ∼ N (µ, σ2),
2. Poisson con parámetro λ, es decir, X ∼ Po(λ),
3. Exponencial con parámetro α, es decir, X ∼ Exp(α).
1. Solución. Recordemos que para η ∼ N (0, 1), la función característica viene dada por
ϕη(x) = e−t2/2,
de donde, si definimos
η =X − µ
σ,
entonces η ∼ N (0, 1), así, obtenemos que
ϕX(t) = eitµ ϕη(σt) = eitµ e−t2/2.
2. Solución. Por definición de función característica, tenemos que
ϕX(t) = E[eixt]
=+∞
∑x=0
eitx λxe−λ
x!
2.2 Segundo Bimestre 61
= e−λ+∞
∑x=0
(eitλ
)x
x!
= e−λ · e(expi t λ)
= eλ(eit−1),
es decir, tenemos que
ϕX(t) = eλ(eit−1).
3. Solución. Recordemos que la función de distribución de la variable aleatoria exponencial
viene dada por
f (x) =
λ e−λx si x ≥ 0,
0 caso contrario.
Por la definición de función característica, tenemos que
ϕX(t) = E[eixt]
=∫ +∞
−∞eitxλ e−λx dx
= λ
∫ +∞
0ex(it−λ) dx
=λ
it − λex(it−λ)|+∞
0
=λ
λ − it,
es decir, tenemos que
ϕX(t) =λ
λ − it.
62 Deberes
2.2.4 Deber N9 :
EJERCICIO 2.47. Sean X ∼ U (a, b) y Y ∼ U (a, b) variables aleatorias independientes, y
Z = X + Y. Encuentre la función de densidad de Z.
Solución. Sean X ∼ U (a, b) y Y ∼ U (a, b), entonces
fX(x) = fY(x) =
1b−a si a ≤ x ≤ b,
0 en otro caso.
La función de densidad de la suma está dada por
fZ(z) =∫ ∞
−∞fX(z − y) fY(y) dy,
además, RZ = z : z ∈ [2 a, 2 b]. Analicemos dos casos:
• Si z ∈ [2a, b + 1], entonces, x ∈ [a, z − a]. Así,
fZ(z) =∫ z−a
a
1(b − a)2 dx =
z − 2a
(b − a)2
• Si z ∈ [b + a, 2b], entonces x ∈ [z − b, b]. Así,
fZ(z) =∫ b
z−b
1(b − a)2 dx =
2b − z
(b − a)2 .
Por lo tanto,
fZ(z) =
z−2a(b−a)2 si 2a ≤ z ≤ b + a,
2b−z(b−a)2 si b + a ≤ z ≤ 2b,
0 caso contrario .
EJERCICIO 2.48. Sean X1, X2 variables aleatorias exponenciales independientes con paráme-
tro λ. Sea Y = X1 − X2.
a Encuentre la función de densidad de Y.
b Calcule la función característica de Y.
2.2 Segundo Bimestre 63
a Solución. Sea X1 ∼ exp(λ) y X2 ∼ exp(λ), entonces
fX1(x) = fX2(x) =
λ e−λ x si x ≥ 0,
0 si x < 0.
Notemos que Y = X1 + (−X2), la función de densidad está dada por
fY(y) =∫ +∞
−∞fX1(x) f−X2(y − x) dx;
además f−X2(y − x) = fX2(x − y), en efecto,
f−X2(y − x) = P−X2 = y − x = PX2 = x − y = fX2(x − y).
Analicemos dos casos:
– Si y < 0 , entonces x − y ≥ 0. Así,
fY(y) =∫ +∞
−∞fX1(x) fX2(x − y) dx
=∫ +∞
0λ2 e−λ x e−λ(x−y) dx
= λ2 eλ y∫ +∞
0e−2 λ x dx =
λ
2eλ y
– Por otro lado, si y ≥ 0. Notemos que −Y = X2 − X1, como X1 y X2 son variables
aleatorias idénticamente distribuidas, entonces Y es igual a −Y en distribución por lo
que la distribución de Y es simétrica en 0 y fY(y) = fY(−y) para cada y ≥ 0, así,
fY(y) =λ
2e−λ y
Por lo tanto, la función de densidad de Y está dada por
fY(y) =
λ2 eλy si y < 0,
λ2 e−λy si y ≥ 0.
b) Solución. La función característica de Y es
ϕY(y) =∫ +∞
−∞ei t y fY(y) dy
=∫ 0
−∞ei t y λ
2eλ y dy +
∫ +∞
0ei t y λ
2e−λ y dy
64 Deberes
=λ
2
(∫ 0
−∞e(i t+λ) y dy +
∫ +∞
0e(i t−λ) y dy
)
,
de donde, integrando, obtenemos que
ϕY(t) =λ2
λ2 + t2 .
EJERCICIO 2.49. Sea X una variable aleatoria con función característica φ. Muestre que
lımT→+∞
12T
∫ T
−T|φ(t)|2 dt = ∑
x∈R
(µ(x))2. (2.42)
Demostración. Sea X una variable aleatoria y ϕ la función característica. Ahora, supongamos que
existe una variable aleatoria Y independiente de X con las mismas funciones de distribución y
característica ϕ. Por lo tanto, |ϕ(t)|2 es la función característica de la variable aleatoria Z =
X − Y. En efecto, sea t ∈ R, cualquiera, ϕ(t) = ϕ(−t), así,
E[ei t (X−Y)] = E[ei t X ]E[ei t Y] = ϕ(t) ϕ(−t) = |ϕ(t)|2
Por otro lado la función de densidad de Z es µ ∗ µ′, donde, µ′(B) = µ(−B), para cada B ∈ B.
Recordemos que para cualquier x0 se tiene que
lımT→+∞
12 T
∫ T
−Tei t x0 |ϕ(t)|2 dt = µ ∗ µ′(x0).
En particular, para x0 = 0 se sigue que
lımT→+∞
12 T
∫ T
−T|ϕ(t)|2 dt = µ ∗ µ′(0). (2.43)
Además,
µ ∗ µ′(0) =∫
R
µ′ (0 − y) µ(dy)
=∫
R
µ′(−y) µ(dy)
= ∑y∈R
µ(y) µ(y),
de donde,
µ ∗ µ′(0) = ∑y∈R
(µy)2 (2.44)
Combinando (2.43) y (2.44), hemos probado (2.42).
2.2 Segundo Bimestre 65
EJERCICIO 2.50. Sean X, Y variables aleatorias independientes tal que E[X] = E[Y] = 0 y
E[X2] = E[Y2] = 1. Si X + Y, X − Y son independientes, entonces X Y ∼ N (0, 1).
Demostración. Como X, Y son variables aleatorias independientes y E[X] = E[Y] = 0. Definamos
ϕ a la función característica de X Y. Notemos que X = 12 ((X + Y) + (X − Y)) . Luego, como
X + Y y X − Y son variables aleatorias independientes tenemos que
ϕ(t) = E[ei t x] = E[ei t 12 (x+y)]E[ei t 1
2 (x−y)]
=(
E[ei t 12 x])2
E[ei t 12 y] E[e−i t 1
2 y]
= ϕ
(t
2
)3
ϕ
(
− t
2
)
.
Para t ∈ R, definamos la siguiente función
γ(t) =ϕ(t)
ϕ(−t),
de donde, tenemos que
γ(t) =ϕ(t/2)3
ϕ(−t/2)3ϕ(−t/2)3
ϕ(t/2)3ϕ(t/2)2
ϕ(−t/2)2 ,
con lo cual, obtenemos que
⇒ γ(t/2)2 = γ(t/22)22= γ(t/23)23
= · · · = γ(t/2n).
Por lo tanto, iterativamente, se sigue que
γ(t) = γ(t/2n)2n,
para cada n ∈ N.
Por otro lado,
γ(t) = γ(t/2n)2n −→ et(lımx→01x (γ(x)−1)) = 1.
Así, γ(t) = 1, en consecuencia
ϕ(t) = ϕ(−t) → ϕ(t) = ϕ(t/2)4 = ϕ(t/2n)2n
−→ e
(
t2 lımx→01
x2 (ϕ(x)−1))
= e−t2/2, n → +∞
66 Deberes
de donde,
ϕ(t) = e−t2/2
que es la función característica de X Y. Por lo tanto, X Y ∼ N (0, 1).
EJERCICIO 2.51. Sea Xn : n ≥ 1 una sucesión de variables aleatorias independientes que
siguen una distribución Bi(n, θ), donde θ ∈ (0, 1). Sea
Yn :=
ln(Xn/n) cuando Xn ≥ 1
1 cuando Xn = 0.(2.45)
Muestre que
a Ync.s.−→ ln θ.
b√
n(Yn − ln(θ)) d−→ Z ∼ N(
0, 1−θθ
)
a Demostración. Para cada n ∈ N, consideremos la variable aleatoria
Sn =n
∑j=1
Xk,
de donde, por la Ley Fuerte de los Grandes Números, se sigue que
Sn
n
c.s.−→ E[X1] = θ, n → +∞.
Ahora, para cada n ∈ N, consideremos
Wn = 1Xn 6=0Sn
n,
con esto, se sigue que
Yn = ln (Wn) + ln(exp1Xn 6=0
),
para cada n ∈ N.
Notemos que
+∞
∑n=1
P√
n1Xn 6=0 > ε =+∞
∑n=1
PXn = 0 =+∞
∑n=1
(1 − θ)n< +∞,
de donde, por el Teorema de Borel-Cantelli, obtenemos que
√n · 1Xn=0
c.s.−→ 0, n → +∞,
2.2 Segundo Bimestre 67
con lo cual, tenemos que
1Xn=0c.s.−→ 0, n → +∞,
lo cual, es equivalente a tener que
1Xn 6=0c.s.−→ 1, n → +∞,
por lo tanto, por la continuidad de la función logaritmo, obtenemos que
lımn→+∞
Yn = ln(
lımn→+∞
Wn
)
+ ln(
exp lımn→+∞
1Xn 6=0
)
= ln(
lımn→+∞
1Xn 6=0Sn
n
)
= ln(θ),
casi-seguramente,
b Demostración. Por el Teorema de Límite Central, tenemos que
√n
(Sn
n− θ
)d−→ N
(
0,1 − θ
θ
)
. (2.46)
Por otro lado, por el literal anterior, sabemos que
√n1Xn=0
c.s.−→ 0, n → +∞ ySn
n
c.s.−→ 0, n → +∞,
con lo cual, obtenemos que
1Xn=0Sn
n
c.s.−→ 0, n → +∞,
luego, junto con (2.46), se sigue que
√n
(Xn
n
)
− ∞Xn=0Xn√
n
d−→ N (0, θ(1 − θ)), n → +∞,
de donde, aplicando el Método de Delta, con g(t) = ln(t) y g′(t) = 1t , se tiene que
√n(ln(Wn)− ln(θ)) d−→ N
(
0,1 − θ
θ
)
. (2.47)
Finalmente, puesto que
√n(Yn − ln(θ)) =
√n (ln(Wn)− ln(θ)) +
√n1Xn=0,
para cada n ∈ N, junto con (2.47), obtenemos que
√n(Yn − ln(θ)) d−→ N
(
0,1 − θ
θ
)
.
68 Deberes
2.2.5 Deber N10 :
EJERCICIO 2.52. Sean G una σ−álgebra y X, Y variables aleatorias tales que
E[Y2|G ] = X2 y E[Y|G ] = X,
pruebe que
X = Y,
casi-seguramente.
Demostración. Sea A ∈ F , por definición de esperanza condicional, tenemos que
∫
AE[Y2|F ] dP =
∫
AY2 dP y
∫
AE[Y|F ] dP =
∫
AY dP,
de donde, por hipótesis, obtenemos que
∫
AX2 dP =
∫
AY2 dP y
∫
AX dP =
∫
AY dP,
con lo cual, obtenemos que
X2 = Y2 y X = Y,
casi-seguramente, es decir,
(X = Y o X = −Y) y X = Y
casi-seguramente, por lo tanto, podemos concluir que
X = Y,
casi-seguramente.
EJERCICIO 2.53. Pruebe que si X y XY son variables aleatorias integrables y Y ∈ F , entonces
E[XY|F ] = YE[X|F ],
casi - seguramente.
2.2 Segundo Bimestre 69
Demostración. Vamos a demostrar el resultado para funciones indicatrices, funciones simples y
funciones positivas, en efecto,
1. Sean A, B ∈ F , consideremos
Y = 1B,
así, tenemos que
∫
AXY dP =
∫
AX · 1B dP
=∫
A∩BX dP
=∫
A∩BE[X|F ]
=∫
A1B · E[X|F ]
=∫
AYE[X|F ],
con esto, hemos probado que
E[XY|F ] = YE[X|F ],
casi - seguramente, para funciones indicatrices.
2. Consideremos la función simple
Y =n
∑k=1
ak1Bk,
donde,
ak ≥ 0 y Bk ∈ F ,
para todo k ∈ 1, . . . , n. Por el literal anterior, tenemos que
E[X · ak1Bk|F ] = ak1Bk
E[X|F ]
para todo k ∈ 1, . . . , n, luego, por la aditividad de la esperanza, obtenemos que
E[XY|F ] = YE[X|F ],
casi-seguramente.
3. Sean Yn : n ≥ 1 una sucesión de variables aleatorias simples y Y una variable aleatoria
tales que
|Yn| ≤ Y y lımn→+∞
Yn = Y.
70 Deberes
Por el literal precedente, sabemos que
E[XYn|F ] = YnE[X|F ], (2.48)
para todo n ∈ N.
Ahora, notemos que
|XYn| ≤ |XY|,
para todo n ∈ N, y además, por hipótesis, sabemos que
E[XY] < +∞,
con esto, tenemos que
E[XYn|F ] → E[XY|F ], n → +∞,
casi-seguramente.
De igual forma, dado que E[X] < +∞, obtenemos que
YnE[X|F ] → YE[X|F ], n → +∞,
casi - seguramente.
Combinando las identidades precedentes con (2.48), se sigue que
YE[X|G ] = E[XY|G ],
casi-seguramente.
BIBLIOGRAFÍA
[1] ALBERT N. SHIRYAEV (2016) Probability-1, Moscow, Russia: Springer.
[2] KAI LAI CHUNG. (2012) A course in Probability Theory, New York: Academic Press.
71
CAPÍTULO 3
PRIMERA PRUEBA
3.1 SEMESTRE: 2019-A
EJERCICIO 3.1. Sean (Ω,F , P) un espacio de probabilidad, Xn : n ∈ N una sucesión de
variables que convergen puntualmente a una función X : Ω → [−∞, ∞]. Muestre que X
también es una variable aleatoria. Justifique claramente su respuesta.
Demostración. Sea x ∈ R. Sabemos que lım supn→+∞
Xn es una variable aleatoria y como Xn → X
cuando n → +∞, se tiene que
lımn→+∞
Xn = X = lım supn→+∞
Xn,
de donde,
ω : X(ω) ≤ x = ω : lım supn→+∞
Xn(ω) ≤ x ∈ F .
Por lo tanto, como x ∈ R es arbitrario hemos probado que X es una variable aleatoria.
EJERCICIO 3.2. Muestre que si An : n ≥ 1 ⊂ F son eventos independientes, entonces
P
⋃
j∈N
Aj
= 1 − ∏j∈N
(1 − P(Aj)).
Demostración. Vamos a demostrar que Acn : n ≥ 1 es una sucesión de eventos independientes,
para ello, procedemos por el método de inducción.
Si n = 2, entonces, por independencia, sabemos que P(A1 ∩ A2) = P(A1)P(A2). Luego,
tenemos que
P(Ac1 ∩ Ac
2) = P((A1 ∪ A2)c),
= 1 − (P(A1) + P(A2)− P(A1 ∩ A2)),
73
74 Primera prueba
= 1 − (P(A1) + P(A2)− (1 − P(Ac1))P(A2)),
= 1 − (P(A1 ∪ Ac1)− P(Ac
1)P(Ac2)),
= P(Ac1)P(Ac
2).
Por lo tanto Ac1 y Ac
2 son eventos independientes.
Ahora, supongamos que la independencia de los complementos de los eventos se cumple
para n = k, vamos a probar que se cumple para n = k + 1.
Por hipótesis de inducción, se tiene que
P
k⋂
j=1
Acj
=k
∏j=1
P(Acj ).
Luego, tenemos que
P
k+1⋂
j=1
Acj
= P
k+1⋃
j=1
Aj
c
= 1 − P
k⋃
j=1
Aj ∪ Ak+1
= 1 −
P
k⋃
j=1
Aj
+ P(Ak+1)− P
k⋃
j=1
Aj ∩ Ak+1
= 1 − P
k⋃
j=1
Aj
−
1 − P
k⋃
j=1
Aj
P(Ak+1)
= P
k⋂
j=1
Acj
− P
k⋂
j=1
Acj
P(Ak+1)
= P
k⋂
j=1
Acj
(1 − P(Ak+1))
=k
∏j=1
Acj P(Ac
k+1)
=k+1
∏j=1
P(Acj ).
Por lo tanto, Acn : n ≥ 1 son eventos independientes. Así, tenemos que Bn =
⋃nj=1 Aj es una
sucesión creciente, pues ∀B ∈ N : Bn ⊂ Bn+1, entonces
lımn→+∞
Bn =⋃
j∈N
Bj =⋃
j∈N
Aj, (3.1)
3.1 Semestre: 2019-A 75
además,
P(Bn) = 1 − P
n⋂
j=1
Acj
= 1 −n
∏j=1
(1 − P(Aj)
),
finalmente, tomando el límite cuando n → +∞ y por (3,1), tenemos que
P
⋃
j∈N
Aj
= lımn→+∞
P(Bn) = 1 − ∏j∈N
(1 − P(Aj)
).
EJERCICIO 3.3. Sea Xn : n ≥ 1 una sucesión de variables aleatorias tal que
supn∈N
E[
|Xn|1|Xn |>c]
→ 0, c → +∞ (3.2)
Muestre que supn∈N
E |Xn| < +∞.
Demostración. Sean ǫ > 0 y n ∈ N, notemos que
E[|Xn|] = E[
|Xn|1|Xn |>c]
+ E[
|Xn|1|Xn |≤c]
, (3.3)
de la definición de límite al infinito aplicada a (3,2), existe k ∈ R tal que si c > k entonces,
supn∈N
E[
|Xn|1|Xn |>c]
< ǫ. (3.4)
Por otro lado, por la monotonía de la esperanza y la definición de supremo, tenemos que
sup E[|Xn|] ≤ E[
|Xn|1|Xn |>c]
+ sup E[
|Xn|1|Xn |≤c]
. (3.5)
Ahora, para cada n ∈ N, se tiene que
|Xn| ≤ c,
|Xn|1|Xn |≤c ≤ c1|Xn|≤c,
E[|Xn|1|Xn |≤c] ≤ c E[1|Xn|≤c],
E[|Xn|1|Xn |≤c] ≤ c P(|Xn| ≤ c) ≤ c,
de donde, nuevamente, por la definición de supremo, se sigue que
supn∈N
E[
|Xn|1|Xn |≤ǫ]
≤ c.
76 Primera prueba
Combinando esta última desigualdad con (3,4) en (3,5) tenemos que
supn∈N
E|Xn| < ǫ + c,
para c > k. En consecuencia, hemos probado que
supn∈N
E|Xn| < +∞.
EJERCICIO 3.4. Sea X una variable aleatoria no negativa, tal que E[X] está definida. Si
Q(A) =∫
AX dP, A ∈ F .
a) Muestre que Q(A) es σ−finita.
b) Muestre que Q(A)/Q(Ω) es una medida de probabilidad si E[X] > 0.
a) Demostración. Recordemos la siguiente definición
DEFINICIÓN 3.1: Medida sigma finitaDEFINICIÓN 3.1: Medida sigma finitaSea (Ω,F ) un espacio medido, decimos que µ es sigma-finito si Ω puede ser cubierto
por una familia contable de conjuntos medibles de medida finita, es decir, si existe
An : n ≥ 1 ∈ F tal que para cada n ≥ 1
µ(An) < +∞ y⋃
n∈N
An = Ω.
Tenemos que X : (Ω,F ) → (R,B), es una variable aleatoria tal que X ≥ 0, para cada
n ∈ N definimos
An = X−1 ([0, n]) = ω : X(ω) ∈ [0, n],
como X : Ω → [0,+∞], entonces,
X−1([0,+∞]) = Ω,
de donde,⋃
n∈N
An =⋃
n∈N
X−1([0, n]) = X−1([0,+∞]) = Ω.
Por otro lado, para todo n ∈ N, tenemos que
Q(An) =∫
An
X dP ≤∫
ΩX dP = E[X] < +∞.
3.1 Semestre: 2019-A 77
Así, hemos probado que Q(A) es σ−finito.
b) Demostración. Supongamos que E[X] > 0, probaremos que P(A) := Q(A)Q(Ω)
= Q(A)E[X]
es una
medida de probabilidad, tenemos que verificar las propiedades que la definen:
(a) Vamos a demostrar que P(∅) = 0, tenemos que
P(∅) =Q(∅)
Q(Ω)=
∫
∅X dP
E[X]= 0.
(b) Vamos a demostrar que P(Ω) = 1, tenemos que
P(Ω) =Q(Ω)
Q(Ω)= 1.
(c) Sea An : n ≥ 1 ∈ F una familia de eventos disjunta dos a dos, es decir, Ai ∩ Aj =
∅, ∀i 6= j, se tiene que
P
(⋃
n∈N
An
)
= ∑n∈N
P(An).
En efecto,
P
(⋃
n∈N
An
)
=
Q
(⋃
n∈N
An
)
Q(Ω)=
∫
⋃
n∈N
AnX dP
Q(Ω),
= ∑n∈N
∫
AnX dP
Q(Ω)= ∑
n∈N
P(An).
Por lo tanto, Q(A)Q(Ω)
es una medida de probabilidad.
78 Primera prueba
3.2 SEMESTRE: 2019-B
EJERCICIO 3.5. Sean (Ω,F , P) un espacio de probabilidad, (an)n∈N una sucesión de núme-
ros reales tal que an → a y X una variable aleatoria.
a) Encuentre lım supn∈NX ≤ an .
b) Encuentre lım infn∈N X ≤ an .
c) Describa para qué tipo de sucesiones se tendría que:
lım supn∈N
X ≤ an = lım infn∈N
X ≤ an.
a) Solución. Por definición de límite superior, tenemos que
lım supn∈N
X ≥ an =⋂
n∈N
⋃
k≥n
X ≤ ak
=⋂
n∈N
⋃
k≥n
X−1 ((−∞, ak])
= X−1
(⋂
n∈N
⋃
k≥n
(−∞, ak]
)
.
Tenemos que
⋃
k≥n
(−∞, ak] =
(−∞, a) ak ↑ a
(−∞, supk≥n ak), ak → a
de donde,
⋂
n∈N
⋃
k≥n
(−∞, ak] =
(−∞, ınf a) ak ↑ a
(−∞, ınfn∈N supk≥n ak) ak → a
=
(−∞, a) ak ↑ a
(−∞, a) ak → a,.
Con esto, podemos concluir que
lım sup X ≤ an = X−1 (−∞, a] = X ≤ a.
3.2 Semestre: 2019-B 79
b) Solución. Por otro lado, tenemos que
lım infn∈N
X ≥ an =⋃
n∈N
⋂
k≥n
ω ∈ Ω : X(ω) ≤ ak,
=⋃
n∈N
ω ∈ Ω : ∀k ≥ n, X(ω) ≤ ak,
=⋃
n∈N
ω ∈ Ω : X(ω) ≤ ınfk≥n
ak,
= ω ∈ Ω : ∃n ∈ N, X(w) ≤ ınfk≥n
ak,
= ω ∈ Ω : X(ω) ≤ supn∈N
(
ınfk≥n
ak
)
,
= ω ∈ Ω : X(ω) ≤ lım infn→∞
an,
= X ≤ a.
c) Solución. El límite superior es igual al límite inferior cuando las sucesiones son convergen-
tes, como en el ejercicio anterior.
EJERCICIO 3.6. Sean (Ω,F , P) un espacio de probabilidad, X una variable aleatoria no ne-
gativa tal que:∫
ΩX dP = A < +∞,
y defina para todo B ∈ F :
ν(B) =1A
∫
BX dP,
muestre que ν define una medida de probabilidad sobre (Ω,F ).
Demostración. Para probar que ν define una medida de probabilidad sobre (Ω,F ), tenemos que
verificar las propiedades que la definen.
1. Vamos a demostrar que ν(Ω) = 1, tenemos que
ν(Ω) =1A
∫
ΩX dP =
1A
A = 1.
2. Vamos a demostrar que ∀B ∈ F , ν(B) ≥ 0, sea B ∈ F ,
80 Primera prueba
• Como ∅ ∈ F , se sigue que
ν(∅) =1A
∫
∅X dp =
1A
0 = 0.
• Por otro lado, puesto que X ≥ 0, se tiene que
E X · 1B ≥ E(0) = 0.
Con esto hemos probado que,
ν(B) =1A
∫
BX dP ≥ 0,
para todo B ∈ F .
3. Para (Bi)ni=1 ∈ F una familia finita disjunta dos a dos, es decir, Bi ∩ Bj = ∅, ∀i 6= j, se tiene
que ν
(⋃
n∈N
Bn
)
= ∑n∈N
ν(Bn)
ν
(⋃
n∈N
Bn
)
=1A
∫
∪n∈N Bn
X dP,
=1A ∑
n∈N
∫
Bn
X dP,
= ∑n∈N
1A
∫
Bn
X dP,
= ∑n∈N
ν(Bn).
Por lo tanto, hemos probado que ν es una medida de probabilidad.
EJERCICIO 3.7. Sean X, Y variables aleatorias que son idénticamente distribuidas sobre
(Ω,F , P) y f una función borel medible. Muestre que f (X) y f (Y) también son variables
aleatorias idénticamente distribuidas.
Demostración. Como f es una función borel medible y X e Y son variables aleatorias, se tiene
que f (X) y f (Y) son variables aleatorias.
Por hipótesis, X e Y son variables aleatorias idénticamente distribuidas, es decir, inducen la
misma medida de probabilidad, así, para todo A ∈ F , tenemos que
PX(A) = PY(A),
3.2 Semestre: 2019-B 81
lo cual, es equivalente a tener que
P(ω : X(ω) ∈ A) = P(ω : Y(ω) ∈ A). (3.6)
Como f es borel medible, en particular, f−1(A) ∈ F , de (3,6) tenemos que
P(ω : X(ω) ∈ f−1(A)) = P(ω : Y(ω) ∈ f−1(A)),
de donde,
P(ω : f (X(ω)) ∈ A) = P(ω : f (Y(ω) ∈ A),
es decir,
Pf (X)(A) = Pf (Y)(A).
En consecuencia, f (X) y f (Y) inducen la misma medida de probabilidad, por lo tanto, son va-
riables aleatorias idénticamente distribuidas.
EJERCICIO 3.8. Sea X una variable aleatoria no negativa sobre el espacio probabilístico
(Ω,F , P), muestre que para todo c > 0,
E[X] < +∞ si y sólo si ∑n≥1
P(X > n c) < +∞.
Demostración. Sea c > 0, recordemos que si
∑n∈N
P(|X| ≥ n) ≤ E([X]) ≤ 1 + ∑n∈N
P(|X| ≥ n),
entonces,
E([X]) < +∞ ⇔ ∑n∈N
P(|X| ≥ n) < +∞. (3.7)
Como X es una variable aleatoria no negativa, tenemos que Xc es también una variable alea-
toria no negativa. Por (3,7), se sigue que
E[X] < +∞ ⇔ E
(X
c
)
< +∞,
⇔ ∑n∈N
P
(X
c> n
)
< +∞,
⇔ ∑n∈N
P(X > n c) < +∞.
82 Primera prueba
CAPÍTULO 4
EXAMEN 1
4.1 SEMESTRE: 2019-A
EJERCICIO 4.1. Sean Xn : n ≥ 1 una sucesión de variables aleatorias y X una variable
aleatoria tales que para todo n ∈ N, Xn ≤ X casi-seguramente y E [Xn] < +∞. Pruebe que
E [Xn] → E[X], n → +∞ si y solo si supn∈N
E[
Xn1Xn>c]
→ 0, c → +∞.
Demostración. Para la primera implicación, supongamos que E [Xn] → E[X], n → +∞, sea
c > 0, vamos a demostrar que
supn∈N
E[
Xn1Xn>c]
→ 0, c → +∞,
para lo cual, basta con demostrar que para todo ε > 0, existe δ > 0 tal que para todo E ∈ F
P(E) < δ ⇒∫
E|Xn| dP ,
para todo n ∈ N.
En efecto, sean c > 0 y n ∈ N, por la desigualdad de Chebyshev, para todo n ∈ N, sabemos
que
P|Xn| ≥ c ≤ E[Xn]
c,
de donde, por la definición de supremo, se sigue que
supn∈N
P|Xn| ≥ c ≤ 1c
supn∈N
E [|Xn|] → 0, c → +∞,
por lo tanto, para c > 0 suficientemente grande y para cada n ∈ N, se tiene que cualquier
conjunto
|Xn| ≥ c,
83
84 Examen 1
puede tomarse como E. Con esto, para cada n ∈ N, se tiene que
supn∈N
E[
Xn1Xn>c]
< ε.
Para la otra implicación, supongamos que supn∈NE[
Xn1Xn>c]
→ 0, c → +∞, vamos a
demostrar que E [Xn] → E[X], por hipótesis, tenemos que
E[X] = E
[
lım infn→+∞
Xn
]
≤ lım infn→+∞
E[Xn] ≤ lım supn→+∞
E[Xn] ≤ E[lım supn→+∞
Xn] = E[X],
es decir, se tiene que
lımn→+∞
E[Xn] = E[X].
EJERCICIO 4.2. Sean Xn : n ≥ 1 una sucesión de variables aleatorias independientes con
distribución de Bernoulli; es decir, para cada n ∈ N,
Xn ∼ Ber(p),
con p ∈ ]0, 1[. Sea n ∈ N,
a) Si Bn = Xn = 1, entonces PBn i.o. = 1.
b) Si An = Xn = Xn+1 = · · · = X2n−1 = 1, (n éxitos de recorrido), entonces
Plım supn→+∞
An = 0.
Demostración. a) Para cada n ∈ N, tenemos que
PXn = 1 = p,
es decir, se tiene que
PBn = p,
para todo n ∈ N, con esto, tenemos que
∑n∈N
PBn = ∑n∈N
p = +∞,
así, dado que Xn : n ≥ 1 es una sucesión de variables aleatorias independientes, por el
Teorema de Borel-Cantelli, tenemos que
PBn i.o. = 1.
4.1 Semestre: 2019-A 85
b) Tenemos que
PAn = P
2n−1⋂
i=n
Xi = 1
,
de donde, puesto que (Xn : n ≥ 1)n∈Nes una sucesión de variables aleatorias independien-
tes, se sigue que
PAn =2n−1
∏i=n
PXi = n =2n−1
∏i=1
p = p(2n−1)−(n−1) = pn,
con esto, dado que p ∈ ]0, 1[, se sigue que
∑n∈N
pn =p
1 − p< +∞,
así, por el Teorema de Borel-Cantelli, tenemos que
P
lım supn→+∞
An
= 0.
EJERCICIO 4.3. Sean Xn : n ≥ 1 una sucesión de variables aleatorias y X una variable
aleatoria tales que sus funciones de distribución son
FXn =
0 si x < 0,
1 − 1n si 0 ≤ x < n
1 si x ≥ n.
y FX(x) =
0 si x < 0,
1 si x ≥ 0.,
respectivamente.
a) Muestre que Xn : n ≥ 1 converge en probabilidad y en distribución a X.
b) Muestre que Xn : n ≥ 1 no converge en Lp.
Demostración. a) Puesto que conocemos las funciones de distribución, las funciones de densi-
dad de Xn : n ≥ 1 están dadas por
fXn(x) =
1 − 1n si x = 0,
1n si x = n.
y fX(x) = 1, si x = 0,
respectivamente.
86 Examen 1
Tenemos que
PX = 0 = 1,
es decir, X = 0, sea ε > 0, vamos a demostrar que
XnP−→ 0, n → +∞,
en efecto, tenemos que
P|Xn| > ε = PXn 6= 0 = PXn = 1 =1n
,
de donde, sea ε1 > 0, puesto que lımn→+∞
1n= 0, sabemos existe n ∈ N tal que
P|Xn| > ε < ε1,
para todo n ≥ N, es decir,
lımn→+∞
P|Xn| > ε = 0,
con esto, hemos probado que Xn : n ≥ 1 converge en probabilidad a X.
Finalmente, dado que convergencia en probabilidad implica convergencia en distribu-
ción, tenemos que que Xn : n ≥ 1 converge en distribución a X.
b) Sea p ≥ 1, tenemos que
E[Xp] = 0PXn = 0+ npPXpn = 1
= np 1n
= np−1,
así, consideremos los siguientes casos:
(a) Si p = 1, entonces
lımn→+∞
E[Xn] = 1.
(b) Por otro lado, si p > 1, entonces
lımn→+∞
E[Xn] = +∞.
4.2 Semestre: 2019-B 87
4.2 SEMESTRE: 2019-B
EJERCICIO 4.4. Sea En : n ≥ 1 una sucesión de eventos arbitrarios que satisfacen
lımn→+∞
P(En) = 0 y+∞
∑n=1
P(En ∩ Ecn+1) < +∞,
entonces
PEn io = P
lım supn∈N
En
= 0.
Bonus: Muestre que pasa si 0 < p < 1.
Demostración. Por el Teorema de Borel-Cantelli, dado que ∑n∈N
P(En ∩ Ecn+1) < +∞, tenemos que
P
lım supn
En ∩ Ecn+1
= 0.
Por otro lado, por la definición de límite superior, se tiene que
lım supn→+∞
En ∩ Ecn+1 =
⋂
n∈N
(⋃
m≥n
(Em ∩ Ecm+1)
)
,
además, notemos que⋃
m≥n
(Em ∩ Ecm+1)
n∈N
,
es una sucesión de eventos decreciente, por lo tanto, tenemos que
P
lım supn∈N
En ∩ Ecn+1
= lımn→+∞
P
⋃
m≥n
(Em ∩ Ecm+1)
= 0.
Luego, usando álgebra de conjuntos (ver Set Theory de Pinter, Teorema 1.42), se sigue que
lımn→+∞
P
⋃
m≥n
(Em ∩ Ecm+1)
= lımn→+∞
P
(⋃
m≥n
Em
)
∩(⋃
n≥m
Ecm+1
)
,
de donde, dado que P es una medida de probabilidad, de la igualdad precedente, obtenemos
que
lımn→+∞
P
⋃
m≥n
(Em ∩ Ecm+1)
= lımn→+∞
[
P
⋃
m≥n
Em
+ P
⋃
n+1
Ecm+1
− P
(⋃
m≥n
Em
)
∪(⋃
m≥n
Ecm+1
)]
88 Examen 1
= lımn→+∞
[
P
⋃
m≥n
Em
+ 1 − P
⋂
n+1
Em+1
− P
(⋃
m≥n
Em
)
∪(⋃
m≥n
Ecm+1
)]
,
ahora, es fácil ver que(⋃
m≥n
Em
)
∪(⋃
m≥n
Ecm+1
)
= Ω,
con lo cual, tenemos que
lımn→+∞
P
⋃
m≥n
(Em ∩ ECm+1)
= lımn→+∞
[
P
⋃
m≥n
Em
+ 1 − P
⋂
n+1
Em+1
− PΩ]
= lımn→+∞
[
P
⋃
m≥n
Em
+ 1 − P
⋂
m≥n
Em+1
− 1
]
= lımn→+∞
[
P
⋃
m≥n
Em
− P
⋂
m≥n
Em+1
]
= 0,
es decir, se tiene que
lımn→+∞
P
⋃
m≥n
Em
= lımn→+∞
P
⋂
n+1
Em+1
. (4.1)
Finalmente, usando el hecho de que⋂
m≥n
Em+1 ⊂ En, obtenemos que
lımn→+∞
P
⋂
m≥n
Em+1
≤ lımn→+∞
PEn,
combinando la desigualdad precedente con (4.5), se sigue que
lımn→+∞
P
⋃
m≥n
Em
≤ lımn→+∞
PEn,
luego, dado que lımn→+∞ PEn = 0, se colige que
lımn→+∞
P
⋃
m≥n
Em
= 0,
es decir,
PEn i.o. = P
lım supn∈N
En
= 0,
como queríamos.
4.2 Semestre: 2019-B 89
EJERCICIO 4.5. Sean Xn : n ≥ 1 una sucesión de variables aleatorias y Sn =n
∑j=1
Xj. Pruebe
que si Xn converge a 0 en Lp para algún p ≥ 1, entonces
Sn
nconverge a 0 en Lp.
Demostración. Sean p ≥ 1 y ε > 0, vamos a demostrar que lımn→+∞
E
[∣∣∣∣
Sn
n− 0∣∣∣∣
p]
= 0, por propie-
dades de la esperanza, tenemos que
E
[∣∣∣∣
Sn
n− 0∣∣∣∣
p]
= E
[∣∣∣∣∣
∑nj=1 Xj
n
∣∣∣∣∣
p]
≤ 1np E
[(n
∑j=1
|Xj|)p]
,
por otro lado, por la Desigualdad de Minkowski, sabemos que
(
E
[(n
∑j=1
|Xj|)p])
1p
≤ (E[|X1|p])1p + · · ·+ (E[|Xn|p])
1p =
n
∑j=1
(E[|Xj|p]
) 1p ,
luego, combinando las desigualdades precedentes, obtenemos que
(
E
[∣∣∣∣
Sn
n
∣∣∣∣
p])1p≤ 1
n
n
∑j=1
(E[|Xj|p]
) 1p . (4.2)
Ahora, por hipótesis, existe N ∈ N tal que
E[|Xj − 0|p] = E[|Xj|p] < εp,
de donde, junto con (4.6), se sigue que
E
[∣∣∣∣
Sn
n− 0∣∣∣∣
p]
<1n
n
∑j=1
εp = εp,
para todo n ≥ N, es decir, hemos probado que
E
[∣∣∣∣
Sn
n
∣∣∣∣
p]
< ε,
para todo n ≥ N, por lo tanto, podemos concluir que
Sn
nconverge a 0, en Lp.
90 Examen 1
Por otro lado, si p ∈ ]0, 1[, se tiene que
∣∣∣∣∣
n
∑j=1
Xj
∣∣∣∣∣
p
≤ 2pn
∑j=1
|Xj|p,
de donde, por la monotonía de la esperanza se sigue que
1np E
[∣∣∣∣∣
n
∑j=1
Xj
∣∣∣∣∣
p]
≤(
2n
)p n
∑j=1
E|xj|p,
con esto, análogamente a la demostración cuando p > 1 se sigue el resultado.
EJERCICIO 4.6. Sea Xn : n ≥ 1 una sucesión de variables aleatorias con función de densidad
f (x) =
αx−α−1 si x > 1, α > 0,
0 caso contrario.
Consideremos la variable aleatoria definida por
Yn = n−1/α max1≤k≤n
Xk,
para cada n ∈ N. Muestre que Yn converge en distribución cuando n → +∞ y determine
su límite.
Demostración. Sea n ∈ N, tenemos que
FXn(x) = P(Xn ≤ x)
=∫ x
−∞f (y) dy
=∫ 1
−∞f (y) dy +
∫ x
1f (y) dy
= α
∫ x
1y−α−1dy
= α
[
− 1α
y−α
]x
1
= −(x−α − 1)
= 1 − x−α,
es decir, para cada n ∈ N se tiene que
FXn(x) = 1 − x−α. (4.3)
4.2 Semestre: 2019-B 91
Ahora, vamos a determinar la función de distribución de Yn, sea n ∈ N, tenemos que
FYn(x) = P
(
n−1/α max1≥k≥n
Xk ≤ x
)
= P
(
max1≥k≥n
Xk < n1/αXk
)
,
de donde, puesto que Xn : n ∈ N es una sucesión de variables aleatorias independientes,
obtenemos que
FYn(x) =
n
∏i=1
P(Xk ≤ n1/αx),
luego, por (4.7), se tiene que
FYn(x) =
n
∏i=1
(1 − (n1/αx)−α) =n
∏i=1
(
1 − 1nxα
)
=
(
1 − 1nxα
)n
,
de donde, tomando el límite cuando n → +∞, se sigue que
lımn→+∞
(
1 − 1nxα
)n
= exp(−xα),
es decir, hemos probado que
Ynp−→ exp(−xα).
EJERCICIO 4.7. Pruebe que si Xn : n ≥ 1 y Yn : n ≥ 1 son uniformemente integrables,
entonces Xn + Yn : n ≥ 1 es uniformemente integrable.
Demostración. Sea c > 0, vamos a demostrar que
supn∈N
E[
|Xn + Yn|1|Xn+Yn |>c]
→ 0, c → ∞,
en efecto, para n ∈ N tenemos que
|Xn + Yn|1|Xn+Yn |>c ≤ (|Xn|+ |Yn|)1|Xn+Yn |>c,
de donde, por la monotonía de la esperanza, obtenemos que
E[
|Xn + Yn|1|Xn+Yn |>c]
≤ E[
|Xn|1|Xn+Yn |>c]
+ E[
|Yn|1|Xn+Yn |>c]
,
luego, se sigue que
E[
|Xn + Yn|1|Xn+Yn |>c]
≤ E[
|Xn|1|Xn |> c2
]
+ E[
|Yn|1|Yn |> c2
]
,
92 Examen 1
así, por la definición de supremo, obtenemos que
supn∈N
E[
|Xn + Yn|1|Xn+Yn |>c]
≤ supn∈N
E[
|Xn|1|Xn |> c2]
+ supn∈N
E[
|Yn|1|Yn |> c2]
. (4.4)
Por otro lado, puesto que Xn : n ≥ 1 y Yn : n ≥ 1 son integrables, por definición, sabemos
existen N1 ∈ N y N2 ∈ N tales que
E[
|Xn|1|Xn |> c2]
<ε
2y E
[
|Yn|1|Yn |> c2]
<ε
2,
para todo n ≥ N1 y para todo n ≥ N2, respectivamente. Tomado N = maxN1, N2, junto con
(4.8), obtenemos que
supn∈N
E[
|Xn + Yn|1|Xn+Yn |>c
]
< ε,
para todo n ≥ N, es decir, hemos probado que
supn∈N
E[
|Xn + Yn|1|Xn+Yn |>c]
→ 0, c → ∞.
EJERCICIO 4.8. Sea Xn : n ≥ 1 una sucesión de variables aleatorias tales que
P(Xn = 0) = 1 − 1nα
y P(Xn = 1) =1
nα,
para n ≥ 1.
a) Estudie la convergencia en probabilidad, casi segura y en Lp de esta sucesión depen-
diendo del valor que toma α.
b) Verifique que para α > 1, Xn : n ≥ 1 es uniformemente integrable. ¿Qué pasa si
α = 1?
Demostración. a) (a) Convergencia en probabilidad: Sea ε > 0, vamos a demostrar que
lımn→+∞
P|Xn − 0| > ε,
en efecto, tenemos que
P|Xn| > ε = PXn 6= 0 = PXn = 1 =1
nα,
4.2 Semestre: 2019-B 93
con esto, se sigue que
lımn→+∞
P|Xn| > ε = 0 si y solo si α ≥ 1.
(b) Convergencia casi - seguramente: Para estudiar la convergencia casi-segura, vamos a
utilizar el siguiente resultado,
∀ε > 0, P|Xn| > ε io = 0 si y solo si Xncs−→ 0, n → +∞.
Sea ε > 0, tenemos que
∑n∈N
P|Xn| > ε = ∑n∈N
PXn 6= 0 = ∑n∈N
1nα
=
+∞ si α ≤ 1
< +∞ si α > 1,
con esto, si α > 1, entonces por el Teorema de Borel - Cantelli, obtenemos que
P|Xn| > ε io = 0,
es decir, hemos probado que
Xncs−→ 0, n → +∞.
(c) Convergencia en Lp: Para n ∈ N, tenemos que
E[|Xn|p] = 0pPXpn = 0p+ PX
pn = 1p =
1nα
,
de donde,
lımn→+∞
E[|Xn|p] = 0 si y solo si α ≥ 1,
es decir, para α ≥ 1 hemos probado que
XnLp
−→ 0, n → +∞.
4.3 Semestre: 2019-A 95
4.3 SEMESTRE: 2019-A
EJERCICIO 4.9. Sean Xn : n ≥ 1 una sucesión de variables aleatorias y X una variable
aleatoria tales que para todo n ∈ N, Xn ≤ X casi-seguramente y E [Xn] < +∞. Pruebe que
E [Xn] → E[X], n → +∞ si y solo si supn∈N
E[
Xn1Xn>c]
→ 0, c → +∞.
Demostración. Para la primera implicación, supongamos que E [Xn] → E[X], n → +∞, sea
c > 0, vamos a demostrar que
supn∈N
E[
Xn1Xn>c]
→ 0, c → +∞,
para lo cual, basta con demostrar que para todo ε > 0, existe δ > 0 tal que para todo E ∈ F
P(E) < δ ⇒∫
E|Xn| dP ,
para todo n ∈ N.
En efecto, sean c > 0 y n ∈ N, por la desigualdad de Chebyshev, para todo n ∈ N, sabemos
que
P|Xn| ≥ c ≤ E[Xn]
c,
de donde, por la definición de supremo, se sigue que
supn∈N
P|Xn| ≥ c ≤ 1c
supn∈N
E [|Xn|] → 0, c → +∞,
por lo tanto, para c > 0 suficientemente grande y para cada n ∈ N, se tiene que cualquier
conjunto
|Xn| ≥ c,
puede tomarse como E. Con esto, para cada n ∈ N, se tiene que
supn∈N
E[
Xn1Xn>c]
< ε.
Para la otra implicación, supongamos que supn∈NE[
Xn1Xn>c]
→ 0, c → +∞, vamos a
demostrar que E [Xn] → E[X], por hipótesis, tenemos que
E[X] = E
[
lım infn→+∞
Xn
]
≤ lım infn→+∞
E[Xn] ≤ lım supn→+∞
E[Xn] ≤ E[lım supn→+∞
Xn] = E[X],
96 Examen 1
es decir, se tiene que
lımn→+∞
E[Xn] = E[X].
EJERCICIO 4.10. Sean Xn : n ≥ 1 una sucesión de variables aleatorias independientes con
distribución de Bernoulli; es decir, para cada n ∈ N,
Xn ∼ Ber(p),
con p ∈ ]0, 1[. Sea n ∈ N,
a) Si Bn = Xn = 1, entonces PBn i.o. = 1.
b) Si An = Xn = Xn+1 = · · · = X2n−1 = 1, (n éxitos de recorrido), entonces
Plım supn→+∞
An = 0.
Demostración. a) Para cada n ∈ N, tenemos que
PXn = 1 = p,
es decir, se tiene que
PBn = p,
para todo n ∈ N, con esto, tenemos que
∑n∈N
PBn = ∑n∈N
p = +∞,
así, dado que Xn : n ≥ 1 es una sucesión de variables aleatorias independientes, por el
Teorema de Borel-Cantelli, tenemos que
PBn i.o. = 1.
b) Tenemos que
PAn = P
2n−1⋂
i=n
Xi = 1
,
de donde, puesto que (Xn : n ≥ 1)n∈Nes una sucesión de variables aleatorias independien-
tes, se sigue que
PAn =2n−1
∏i=n
PXi = n =2n−1
∏i=1
p = p(2n−1)−(n−1) = pn,
4.3 Semestre: 2019-A 97
con esto, dado que p ∈ ]0, 1[, se sigue que
∑n∈N
pn =p
1 − p< +∞,
así, por el Teorema de Borel-Cantelli, tenemos que
P
lım supn→+∞
An
= 0.
EJERCICIO 4.11. Sean Xn : n ≥ 1 una sucesión de variables aleatorias y X una variable
aleatoria tales que sus funciones de distribución son
FXn =
0 si x < 0,
1 − 1n si 0 ≤ x < n
1 si x ≥ n.
y FX(x) =
0 si x < 0,
1 si x ≥ 0.,
respectivamente.
a) Muestre que Xn : n ≥ 1 converge en probabilidad y en distribución a X.
b) Muestre que Xn : n ≥ 1 no converge en Lp.
Demostración. a) Puesto que conocemos las funciones de distribución, las funciones de densi-
dad de Xn : n ≥ 1 están dadas por
fXn(x) =
1 − 1n si x = 0,
1n si x = n.
y fX(x) = 1, si x = 0,
respectivamente.
Tenemos que
PX = 0 = 1,
es decir, X = 0, sea ε > 0, vamos a demostrar que
XnP−→ 0, n → +∞,
en efecto, tenemos que
P|Xn| > ε = PXn 6= 0 = PXn = 1 =1n
,
98 Examen 1
de donde, sea ε1 > 0, puesto que lımn→+∞
1n= 0, sabemos existe n ∈ N tal que
P|Xn| > ε < ε1,
para todo n ≥ N, es decir,
lımn→+∞
P|Xn| > ε = 0,
con esto, hemos probado que Xn : n ≥ 1 converge en probabilidad a X.
Finalmente, dado que convergencia en probabilidad implica convergencia en distribu-
ción, tenemos que que Xn : n ≥ 1 converge en distribución a X.
b) Sea p ≥ 1, tenemos que
E[Xp] = 0PXn = 0+ npPXpn = 1
= np 1n
= np−1,
así, consideremos los siguientes casos:
(a) Si p = 1, entonces
lımn→+∞
E[Xn] = 1.
(b) Por otro lado, si p > 1, entonces
lımn→+∞
E[Xn] = +∞.
4.4 SEMESTRE: 2019-B
EJERCICIO 4.12. Sea En : n ≥ 1 una sucesión de eventos arbitrarios que satisfacen
lımn→+∞
P(En) = 0 y+∞
∑n=1
P(En ∩ Ecn+1) < +∞,
entonces
PEn io = P
lım supn∈N
En
= 0.
Bonus: Muestre que pasa si 0 < p < 1.
4.4 Semestre: 2019-B 99
Demostración. Por el Teorema de Borel-Cantelli, dado que ∑n∈N
P(En ∩ Ecn+1) < +∞, tenemos que
P
lım supn
En ∩ Ecn+1
= 0.
Por otro lado, por la definición de límite superior, se tiene que
lım supn→+∞
En ∩ Ecn+1 =
⋂
n∈N
(⋃
m≥n
(Em ∩ Ecm+1)
)
,
además, notemos que⋃
m≥n
(Em ∩ Ecm+1)
n∈N
,
es una sucesión de eventos decreciente, por lo tanto, tenemos que
P
lım supn∈N
En ∩ Ecn+1
= lımn→+∞
P
⋃
m≥n
(Em ∩ Ecm+1)
= 0.
Luego, usando álgebra de conjuntos (ver Set Theory de Pinter, Teorema 1.42), se sigue que
lımn→+∞
P
⋃
m≥n
(Em ∩ Ecm+1)
= lımn→+∞
P
(⋃
m≥n
Em
)
∩(⋃
n≥m
Ecm+1
)
,
de donde, dado que P es una medida de probabilidad, de la igualdad precedente, obtenemos
que
lımn→+∞
P
⋃
m≥n
(Em ∩ Ecm+1)
= lımn→+∞
[
P
⋃
m≥n
Em
+ P
⋃
n+1
Ecm+1
− P
(⋃
m≥n
Em
)
∪(⋃
m≥n
Ecm+1
)]
= lımn→+∞
[
P
⋃
m≥n
Em
+ 1 − P
⋂
n+1
Em+1
− P
(⋃
m≥n
Em
)
∪(⋃
m≥n
Ecm+1
)]
,
ahora, es fácil ver que(⋃
m≥n
Em
)
∪(⋃
m≥n
Ecm+1
)
= Ω,
con lo cual, tenemos que
lımn→+∞
P
⋃
m≥n
(Em ∩ ECm+1)
= lımn→+∞
[
P
⋃
m≥n
Em
+ 1 − P
⋂
n+1
Em+1
− PΩ]
= lımn→+∞
[
P
⋃
m≥n
Em
+ 1 − P
⋂
m≥n
Em+1
− 1
]
100 Examen 1
= lımn→+∞
[
P
⋃
m≥n
Em
− P
⋂
m≥n
Em+1
]
= 0,
es decir, se tiene que
lımn→+∞
P
⋃
m≥n
Em
= lımn→+∞
P
⋂
n+1
Em+1
. (4.5)
Finalmente, usando el hecho de que⋂
m≥n
Em+1 ⊂ En, obtenemos que
lımn→+∞
P
⋂
m≥n
Em+1
≤ lımn→+∞
PEn,
combinando la desigualdad precedente con (4.5), se sigue que
lımn→+∞
P
⋃
m≥n
Em
≤ lımn→+∞
PEn,
luego, dado que lımn→+∞ PEn = 0, se colige que
lımn→+∞
P
⋃
m≥n
Em
= 0,
es decir,
PEn i.o. = P
lım supn∈N
En
= 0,
como queríamos.
EJERCICIO 4.13. Sean Xn : n ≥ 1 una sucesión de variables aleatorias y Sn =n
∑j=1
Xj.
Pruebe que si Xn converge a 0 en Lp para algún p ≥ 1, entonces
Sn
nconverge a 0 en Lp.
Demostración. Sean p ≥ 1 y ε > 0, vamos a demostrar que lımn→+∞
E
[∣∣∣∣
Sn
n− 0∣∣∣∣
p]
= 0, por propie-
dades de la esperanza, tenemos que
E
[∣∣∣∣
Sn
n− 0∣∣∣∣
p]
= E
[∣∣∣∣∣
∑nj=1 Xj
n
∣∣∣∣∣
p]
≤ 1np E
[(n
∑j=1
|Xj|)p]
,
4.4 Semestre: 2019-B 101
por otro lado, por la Desigualdad de Minkowski, sabemos que
(
E
[(n
∑j=1
|Xj|)p])
1p
≤ (E[|X1|p])1p + · · ·+ (E[|Xn|p])
1p =
n
∑j=1
(E[|Xj|p]
) 1p ,
luego, combinando las desigualdades precedentes, obtenemos que
(
E
[∣∣∣∣
Sn
n
∣∣∣∣
p])1p≤ 1
n
n
∑j=1
(E[|Xj|p]
) 1p . (4.6)
Ahora, por hipótesis, existe N ∈ N tal que
E[|Xj − 0|p] = E[|Xj|p] < εp,
de donde, junto con (4.6), se sigue que
E
[∣∣∣∣
Sn
n− 0∣∣∣∣
p]
<1n
n
∑j=1
εp = εp,
para todo n ≥ N, es decir, hemos probado que
E
[∣∣∣∣
Sn
n
∣∣∣∣
p]
< ε,
para todo n ≥ N, por lo tanto, podemos concluir que
Sn
nconverge a 0, en Lp.
Por otro lado, si p ∈ ]0, 1[, se tiene que
∣∣∣∣∣
n
∑j=1
Xj
∣∣∣∣∣
p
≤ 2pn
∑j=1
|Xj|p,
de donde, por la monotonía de la esperanza se sigue que
1np E
[∣∣∣∣∣
n
∑j=1
Xj
∣∣∣∣∣
p]
≤(
2n
)p n
∑j=1
E|xj|p,
con esto, análogamente a la demostración cuando p > 1 se sigue el resultado.
EJERCICIO 4.14. Sea Xn : n ≥ 1 una sucesión de variables aleatorias con función de densi-
102 Examen 1
dad
f (x) =
αx−α−1 si x > 1, α > 0,
0 caso contrario.
Consideremos la variable aleatoria definida por
Yn = n−1/α max1≤k≤n
Xk,
para cada n ∈ N. Muestre que Yn converge en distribución cuando n → +∞ y determine
su límite.
Demostración. Sea n ∈ N, tenemos que
FXn(x) = P(Xn ≤ x)
=∫ x
−∞f (y) dy
=∫ 1
−∞f (y) dy +
∫ x
1f (y) dy
= α
∫ x
1y−α−1dy
= α
[
− 1α
y−α
]x
1
= −(x−α − 1)
= 1 − x−α,
es decir, para cada n ∈ N se tiene que
FXn(x) = 1 − x−α. (4.7)
Ahora, vamos a determinar la función de distribución de Yn, sea n ∈ N, tenemos que
FYn(x) = P
(
n−1/α max1≥k≥n
Xk ≤ x
)
= P
(
max1≥k≥n
Xk < n1/αXk
)
,
de donde, puesto que Xn : n ∈ N es una sucesión de variables aleatorias independientes,
obtenemos que
FYn(x) =
n
∏i=1
P(Xk ≤ n1/αx),
4.4 Semestre: 2019-B 103
luego, por (4.7), se tiene que
FYn(x) =
n
∏i=1
(1 − (n1/αx)−α) =n
∏i=1
(
1 − 1nxα
)
=
(
1 − 1nxα
)n
,
de donde, tomando el límite cuando n → +∞, se sigue que
lımn→+∞
(
1 − 1nxα
)n
= exp(−xα),
es decir, hemos probado que
Ynp−→ exp(−xα).
EJERCICIO 4.15. Pruebe que si Xn : n ≥ 1 y Yn : n ≥ 1 son uniformemente integrables,
entonces Xn + Yn : n ≥ 1 es uniformemente integrable.
Demostración. Sea c > 0, vamos a demostrar que
supn∈N
E[
|Xn + Yn|1|Xn+Yn |>c]
→ 0, c → ∞,
en efecto, para n ∈ N tenemos que
|Xn + Yn|1|Xn+Yn |>c ≤ (|Xn|+ |Yn|)1|Xn+Yn |>c,
de donde, por la monotonía de la esperanza, obtenemos que
E[
|Xn + Yn|1|Xn+Yn |>c]
≤ E[
|Xn|1|Xn+Yn |>c]
+ E[
|Yn|1|Xn+Yn |>c]
,
luego, se sigue que
E[
|Xn + Yn|1|Xn+Yn |>c]
≤ E[
|Xn|1|Xn |> c2
]
+ E[
|Yn|1|Yn |> c2
]
,
así, por la definición de supremo, obtenemos que
supn∈N
E[
|Xn + Yn|1|Xn+Yn |>c]
≤ supn∈N
E[
|Xn|1|Xn |> c2]
+ supn∈N
E[
|Yn|1|Yn |> c2]
. (4.8)
Por otro lado, puesto que Xn : n ≥ 1 y Yn : n ≥ 1 son integrables, por definición, sabemos
existen N1 ∈ N y N2 ∈ N tales que
E[
|Xn|1|Xn |> c2]
<ε
2y E
[
|Yn|1|Yn |> c2]
<ε
2,
para todo n ≥ N1 y para todo n ≥ N2, respectivamente. Tomado N = maxN1, N2, junto con
104 Examen 1
(4.8), obtenemos que
supn∈N
E[
|Xn + Yn|1|Xn+Yn |>c
]
< ε,
para todo n ≥ N, es decir, hemos probado que
supn∈N
E[
|Xn + Yn|1|Xn+Yn |>c]
→ 0, c → ∞.
EJERCICIO 4.16. Sea Xn : n ≥ 1 una sucesión de variables aleatorias tales que
P(Xn = 0) = 1 − 1nα
y P(Xn = 1) =1
nα,
para n ≥ 1.
a) Estudie la convergencia en probabilidad, casi segura y en Lp de esta sucesión depen-
diendo del valor que toma α.
b) Verifique que para α > 1, Xn : n ≥ 1 es uniformemente integrable. ¿Qué pasa si
α = 1?
Demostración. a) (a) Convergencia en probabilidad: Sea ε > 0, vamos a demostrar que
lımn→+∞
P|Xn − 0| > ε,
en efecto, tenemos que
P|Xn| > ε = PXn 6= 0 = PXn = 1 =1
nα,
con esto, se sigue que
lımn→+∞
P|Xn| > ε = 0 si y solo si α ≥ 1.
(b) Convergencia casi - seguramente: Para estudiar la convergencia casi-segura, vamos a
utilizar el siguiente resultado,
∀ε > 0, P|Xn| > ε io = 0 si y solo si Xncs−→ 0, n → +∞.
4.4 Semestre: 2019-B 105
Sea ε > 0, tenemos que
∑n∈N
P|Xn| > ε = ∑n∈N
PXn 6= 0 = ∑n∈N
1nα
=
+∞ si α ≤ 1
< +∞ si α > 1,
con esto, si α > 1, entonces por el Teorema de Borel - Cantelli, obtenemos que
P|Xn| > ε io = 0,
es decir, hemos probado que
Xncs−→ 0, n → +∞.
(c) Convergencia en Lp: Para n ∈ N, tenemos que
E[|Xn|p] = 0pPXpn = 0p+ PX
pn = 1p =
1nα
,
de donde,
lımn→+∞
E[|Xn|p] = 0 si y solo si α ≥ 1,
es decir, para α ≥ 1 hemos probado que
XnLp
−→ 0, n → +∞.
4.5 Semestre: 2019-A 107
4.5 SEMESTRE: 2019-A
EJERCICIO 4.17. Sean α > 0 y Xn : n ≥ 1 una sucesión de variables aleatorias tales que:
PXn = 0 = 1 − 1nα
, PXn = −n = PXn = n =1
2 nα,
para cada n ∈ N. Estudie la convergencia en probabilidad, casi segura y en Lp de esta
sucesión dependiendo del valor que toma α.
Solución. La probabilidad está bien definida, en efecto, tenemos
PXn = 0+ PXn = −n+ PXn = n = 1 − 1nα
+1
2 nα+
12 nα
= 1,
1. Vamos a estudiar la convergencia en probabilidad, para ello, sea ǫ > 0, se tiene que
P|Xn| > ǫ = PXn 6= 0 =1
2 nα+
12 nα
=1
nα.
Si α > 0 tomando el límite cuando n → +∞, entonces
lımn→+∞
P|Xn| > ǫ = lımn→+∞
1nα
= 0,
es decir,
XnP−→ 0, n → +∞.
2. Vamos a estudiar la convergencia casi segura, si α > 1 tenemos que,
∑n∈N
P|Xn| > ǫ = ∑n∈N
1nα
< +∞.
Aplicando el teorema de Borel-Cantelli, obtenemos que
P|Xn| > ǫ, i.o = 0,
es decir,
Xnc.s−→ 0, n → +∞
para α > 1.
3. Vamos a estudiar la convergencia en LP, tenemos que
108 Examen 1
E[|Xn|p] = 0p E[|Xn| = 0] + |np| E[Xn = np] + |np| E[|Xn| = −np] = np−α.
Finalmente, si p < α tenemos que
E[|Xn|p] = np−α n→+∞−−−−→ 0,
es decir,
XnLP
−→ 0, n → +∞.
EJERCICIO 4.18. Sea Xn : n ≥ 1 una sucesión de variables aleatorias tales que:
P(Xn = a) =1n
y P(Xn = b) = 1 − 1n
,
para cada n ∈ N. Encuentre
a) La función característica de Xn.
b) El límite cuando n → ∞, de esta función característica.
c) (Si existe) la medida de probabilidad a la cual converge en distribución esta sucesión
de variables aleatorias.
a) Solución. Para n ∈ N, tenemos que
P(ei t Xn = ei t a) =1n
P(ei t Xn = ei t b) = 1 − 1n
.
Por definición de función característica
φXn(t) = E [ei t Xn ]
= ei t aP(ei t Xn = ei t a)) + ei t bP(ei t Xn = ei t b))
=1n(ei t a − ei t b) + ei t b,
es decir,
φXn(t) =1n(ei t a − ei t b) + ei t b,
para cada n ∈ N.
4.5 Semestre: 2019-A 109
b) Solución. Por el literal anterior, tenemos que
lımn→+∞
φXn(t) = lımn→+∞
(1n(ei t a − ei t b) + ei t b
)
= ei t b.
c) Solución. Sea B un conjunto Boreliano, definimos
δB(ω) =
1 si ω ∈ B,
0 si ω /∈ B.
Tenemos que
P(Xn ≤ ei t x) =∫
ei t x δB(dx) = ei t b,
para cada n ∈ N, de donde,
Xnd−→ δB.
EJERCICIO 4.19. Sea Xn : n ≥ 1 una sucesión de variables aleatorias tales que
Xn ∼ N(0, σ2n) con σ2
n → +∞,
para todo n ∈ N.
Sabiendo que la función característica de Xn es exp
− t2
2 σ2n
, para todo n ∈ N.
a) Encuentre la medida a la cual converge la sucesión de medidas imagen generadas por
esta sucesión de variables aleatorias.
b) ¿Es esta medida una medida de probabilidad?
c) Existe un resultado que dice que bajo ciertas condiciones la sucesión de funciones
características converge a la función característica límite. Comente este resultado para
este ejercicio.
Solución. a) De la definición de función característica y como σ2n → +∞,tenemos que
φXn(t) = e−t2 σ2
n2
n→+∞−−−−→ 0,
es decir, la medida a la cual converge la sucesión de medidas imagen es
µ : Ω → R
ω 7→ µ(ω) = 0
110 Examen 1
b) No, en efecto, µ(Ω) = 0 6= 1
c) Sean φnn∈N una familia de funciones características y µnn∈N, de medidas de proba-
bilidad. Si φn → φ∞ uniformemente en R, donde φ∞ es la función característica del límite
y φ∞ es continua en 0, si y solo si µnv−→ µ∞
4.6 SEMESTRE: 2019-B
EJERCICIO 4.20. Muestre que si Xn : n ≥ 1 es una sucesión creciente de variables aleato-
rias (es decir,Xn ≤ Xn+1 c.s. ) y X es una variable aleatoria, se tiene que si
XnP−→ X, n → +∞,
entonces
Xnc.s−→ X, n → +∞.
Demostración. Vamos a demostrar que para todo ε > 0
P(|Xn − X| > ǫ i.o.) = 0.
En efecto, sea ε > 0, tenemos que
P|Xn − X| > ǫ i.o. = P
lım supn→+∞
|Xn − X| > ǫ
,
= P
⋂
n∈N
⋃
k≥n
|Xk − X| > ǫ
,
= lımn→∞
P
⋃
k≥n
|Xk − X| > ǫ
.
Como Xn : n ≥ 1 es una sucesión de variables aleatorias creciente, sabemos que
|Xn − X| ⊂ |Xn + 1︸ ︷︷ ︸
k
− X|,
para todo n ∈ N, luego,
P(|Xn − X| > ǫ i.o.) = 1 − lımn→∞
P (|Xn − X| ≤ ǫ) . (4.9)
4.6 Semestre: 2019-B 111
Por otro lado, de la caracterización de convergencia en probabilidad, tenemos que
(
XnP−→ X, n → +∞
)
⇔ (∀ǫ > 0, P (|Xn − X| ≤ ǫ) → 1.) (4.10)
Combinando (4,9) y (4,10), tenemos que
P (|Xn − X| > ǫ i.o. ) = 0.
Por lo tanto,
Xnc.s−→ X, n → +∞.
Demostración. Sabemos que, si Xnp−→ X, n → +∞ entonces existe (Xnk
)k∈N una subsucesión
de (Xn)n∈N tal que
Xnk
c.s−→ X, k → ∞.
De la definición de convergencia casi segura, existe un conjunto N ⊂ Ω tal que P(N) = 0 y
∀ω ∈ Nc,
Xnk(ω) → X(ω).
Sea ǫ > 0, definamos el conjunto
Ank(ǫ) =
⋂
n≥nk
|Xn − X| ≤ ǫ
,
por la monotonía creciente de la sucesión, para cada ω ∈ Nc, existe N(ǫ, ω) tal que si nk >
N(ǫ, ω), entonces
|Xnk(ω)− X(ω)| < ǫ,
es decir, ω ∈ Ank(ǫ) para algún nk ∈ N.
Así, ω ∈∞⋃
nk=1
Ank(ǫ), es decir, Nc ⊂
∞⋃
nk=1
Ank(ǫ).
Luego,
P
∞⋃
nk=1
Ank(ǫ)
= 1
y como Ankes creciente, tenemos que
PAnk(ǫ) → 1, nk → ∞.
Por lo tanto,
Xnc.s−→ X, n → +∞.
112 Examen 1
EJERCICIO 4.21. Sea Xjnj=1 una familia finita de variables aleatorias independientes idén-
ticamente distribuidas con función de densidad
f (x) = α x−(α+1),
para x ≥ 1 y α > 0. Para cada n ∈ N, consideremos
Yn =
(n
∏i=1
Xi
) 1n
,
a) Calcule P(ln(Xi) ≤ x).
b) Muestre que
YnP−→ exp
(1α
)
. (4.11)
AYUDA: Use la Ley de los Grandes Números para ln(Xi) y el hecho de que si ZnP−→ Z y f
es una función continua, entonces f (Zn)P−→ f (Z).
Demostración. a) Tenemos que
FXn(x) = P(Xn ≤ x) =∫ x
1α y−(α−1) = 1 − x−α,
para todo n ∈ N, y para todo x ≥ 1.
Luego
P(ln(Xi) ≤ x) = P(Xi ≤ ex) = 1 − e−α x.
b) Vamos a demostrar (4,11), lo cual, es equivalente a mostrar que
1n
n
∑i=1
ln(Xi)P−→ 1
α.
Para cada i ∈ N, definamos
Zi = ln(Xi),
tenemos que,
E[Zi] = E [ln(Xi)] =∫ ∞
−∞ln(x)αx−(α+1) dx =
1α
.
4.6 Semestre: 2019-B 113
Luego, por la Ley de los Grandes Números, se sigue que
1n
n
∑i=1
ZiP−→ E [Zi] ⇔
1n
n
∑i=1
ln(Xi)P−→ 1
α
⇔ YnP−→ 1
α.
EJERCICIO 4.22. Sea Xn : n ≥ 1 una sucesión de variables aleatorias independientes, tal
que
P(Xn = 0) = 1 − p, y P(Xn = 1) = p,
para cada n ∈ N. Si f ∈ C([0,1]) y pn(p) = E[
f(
Snn
)]
. Muestre que
pn(p) → f (p). (4.12)
Donde Sn =n
∑i=1
Xi, para cada n ∈ N.
AYUDA: Use la Ley Fuerte de los Grandes Números.
Demostración. Vamos a demostrar (4,12).
Tenemos que
E[Xn] = 0 P(Xn = 0) + 1 P(Xn = 1) = p,
para todo i ∈ N.
Por la Ley de los Grandes Números obtenemos que
1n
n
∑i=1
XiP−→ p.
Ahora, sabemos que si ZnP−→ Z y f es una función continua, entonces f (Zn)
P−→ f (Z), por lo
tanto, como f ∈ C([0,1] podemos colegir que
f
(Sn
n
)P−→ f (p).
Por otro lado, recordando que si XnP−→ X, n → +∞ y Xn : n ≥ 1 está acotada, entonces
XnLp
−→ X, como f es continua, entonces f(
Snn
)
está acotada y por lo tanto,
f
(Sn
n
)LP
−→ f (p),
114 Examen 1
es decir,
E
[
f
(Sn
n
)]
→ E[ f (p)],
de donde,
E
[
f
(Sn
n
)]
→ f (p).
EJERCICIO 4.23. Sea Xjnj=1 una familia de variables aleatorias independientes que tienen
distribución normal con media 0 y varianza 1.
a) Encuentre la función característica de Xj.
b) Muestre quen
∑i=1
Xi ∼ N (0, n) (4.13)
a) Solución. Por definición de función característica, tenemos que
φXj(t) = E[ei t x] =
1√2 π
∫ ∞
−∞ex(i t− x
2 ) dx, (4.14)
para todo j ∈ N
de donde, derivando φXj(t) y usando el artificio
d
dx
(
−e−x22
)
= x e−x22 ,
obtenemos que
φ′Xj(t) =
i√2 π
∫ ∞
−∞ei t x
(
d
(
−ex22
))
, (4.15)
para todo j ∈ N.
Ahora, resolviendo (4,15) mediante el método de integración por partes, tenemos que
φ′Xj(t) = − 1√
2 πt∫ ∞
−∞ex(i t− x
2 ), (4.16)
para todo j ∈ N.
Luego, combinando las ecuaciones: (4,14) evaluada en t = 0 y (4,16) tenemos el problema
de valor inicial
φ′Xj(t) = −t φ(t),
φXj(0) = 1,
(4.17)
4.6 Semestre: 2019-B 115
para todo j ∈ N. Finalmente, al resolver (4,17), obtenemos
φXj(t) = e−
t22 , (4.18)
para todo j ∈ N.
b) Demostración. Vamos a demostrar (4,13).
Notemos quen
∑i=1
Xi es una variable aleatoria, pues es la suma finita de variables aleatorias.
Calculemos la función característica de ∑ni=1 Xi, en efecto, tenemos que
φ∑ni=1 Xi
(t) = E[
ei t ∑ni=1 Xi
]
,
=n
∏i=1
E[
ei t Xi
]
,
=n
∏i=1
φXi(t),
De (4,18), se sigue que
φ∑ni=1 Xi
(t) =
(
e−t22
)n
= e−n t22 . (4.19)
Por otro lado, si tenemos que Z ∼ N (0, n) para cualquier variable aleatoria Z,
φZ(t) =∫ ∞
−∞ei t x 1
n√
2 πe− x2
2 n2 = e−n t22 (4.20)
Finalmente, sabemos que si las funciones características de dos variables aleatorias coin-
ciden, entonces tienen la misma distribución, por lo tanto de (4,19) y (4,20), podemos
concluir que (4,13) se cumple.
4.7 Semestre: 2019-A 117
4.7 SEMESTRE: 2019-A
EJERCICIO 4.24. Sea Xn : n ≥ 1 una sucesión de variables aleatorias idénticamente distri-
buidas, pruebe que si
Xnn
n∈Nconverge casi-seguramente a 0, entonces E[X1] < +∞.
Demostración. Vamos a demostrar que E[X1] < +∞, para lo cual, debemos probar que
∑n∈N
P|X1| > n < +∞,
de donde, puesto que Xn : n ≥ 1 es una sucesión de variables aleatorias idénticamente distri-
buidas, vamos a probar que
∑n∈N
P|Xn > n < +∞.
Por hipótesis, existe N ⊂ Ω un conjunto de medida nula tal que para todo ω ∈ Ω r N tal que
lımn→+∞
Xn(ω)
n= 0,
luego, por la definición de límite, existe N ∈ N tal que
|Xn(ω)|n
< 1,
para todo n ≥ N y para todo ω ∈ Ω r N. Con esto, tenemos que
Pω : |Xn(ω)| > n = 0,
para todo n ≥ N, así, se sigue que
∑n∈N
Pω : |Xn(ω)| > n < +∞,
dado que es la suma de términos nulos a partir de N ∈ N, por lo tanto, hemos probado que
E[|X1|] < +∞.
EJERCICIO 4.25. Sea Xn : n ≥ 1 una sucesión de variables aleatorias definida sobre
118 Examen 1
([0, 1] ,B [0, 1] , λ), con λ > 0 la medida de Lebesgue, tales que
Xn(w) =
0 si 1n2 ≤ ω ≤ 1
en si 0 ≤ ω <1
n2 .
a) ¿Es Xn : n ≥ 1 convergente en probabilidad?
b) ¿Es Xn : n ≥ 1 convergente en casi-seguramente?
c) ¿Es Xn : n ≥ 1 convergente en Lp, para p > 0?
Demostración. En primer lugar, notemos que
λ
([1n2 , 1
])
= 1 − 1n2 y λ
([
0,1n2
[)
=1n2 ,
de donde, se sigue que
PXn = 0 = 1 − 1n2 y PXn = expn =
1n2 ,
para todo n ∈ N.
a) Sea ε > 0, vamos a demostrar que
lımn→+∞
P|Xn| > ε = 0,
en efecto, sea ε1 > 0, tenemos que
P|Xn| > ε = PXn 6= 0 = PXn = expn =1n2 ,
para todo n ∈ N, de donde, puesto que lımn→+∞
1n2 = 0, existe N ∈ N tal que
P|Xn| > ε < ε1,
para todo n ≥ N, es decir, se tiene que
lımn→+∞
P|Xn| > ε = 0.
b) Vamos a demostrar que Xnc.s−→ 0, n → +∞, lo cual, es equivalente a demostrar que para
todo ε > 0,
P|Xn| > ε i.o = 0,
4.7 Semestre: 2019-A 119
tenemos que
∑n∈N
P|Xn| > ε = ∑n∈N
1n2 =
π2
6< +∞,
así, por el Teorema de Borel-Cantelli, se sigue que
P|Xn| > ε i.o. = 0,
con esto, podemos concluir que
Xnc.s−→ 0, n → +∞.
c) Sean p > 0 y n ∈ N, tenemos que
E[Xpn ] = 0PX
pn = 0+ expnp PX
pn = expnp
=expnp
n2 ,
de donde, tomando el límite cuando n → +∞, obtenemos que
lımn→+∞
E[Xpn ] = +∞.
Por lo tanto, Xn : n ≥ 1 no es convergente en Lp, para p > 0.
EJERCICIO 4.26. Verifique que si tenemos que la sucesión de variables aleatorias indepen-
dientes Xn : n ≥ 1, la condición:
Para todo δ > 0,n
∑j=1
E[|Xj − E[Xj]|2+δ] → 0, n → +∞,
implica la condición:
Para todo η > 0,
n
∑j=1
∫
|x−E[Xj]|>η(x − E[Xj])
2 dFj(x) → 0, n → +∞.
Es decir, pruebe que la condición de Liaponuv implica la condición de Lindeberg.
Demostración. Supongamos que para todo δ > 0,
n
∑j=1
E[|Xj − E[Xj]|2+δ] → 0, n → +∞.
120 Examen 1
Sean η > 0 y j ∈ N, tenemos que
E[
|Xj − E[X − j]|2+δ]
=∫
x:|x−E[Xj]|>η|x − E[X − j]|2+δ dFj(x) +
∫
x:|x−E[Xj]|≤η|x − E[Xj]|2+δ dFj(x)
≥∫
x:|x−E[Xj]|>η|x − E[Xj]|2+δ dFj(x)
≥ ηδ∫
x:|x−E[Xj]|>η|x − E[Xj]|2 dFj(x),
es decir, tenemos que
∫
x:|x−E[Xj]|>η|x − E[Xj]|2 dFj(x) ≤ 1
ηδE[
|Xj − E[X − j]|2+δ]
,
para todo j ∈ N, así, se tiene que
0 ≤n
∑j=1
∫
x:|x−E[Xj]|>η|x − E[Xj]|2 dFj(x) ≤
n
∑j=1
1ηδ
E[
|Xj − E[X − j]|2+δ]
,
luego, junto con la hipótesis y por el Teorema del Sánduche, se sigue que
n
∑j=1
∫
x:|x−E[Xj]|>η|x − E[Xj]|2 dFj(x) → 0, n → +∞.
EJERCICIO 4.27. Sean (X, Y), (X, Z) vectores aleatorios que tienen la misma distribución
conjunta y g una función Borel medible tal que E[|g(Y)|] < +∞. Muestre que
E[g(Y)|X] = E[g(Z)|X].
Indicación: Pruebe para funciones indicatrices, funciones simples, funciones positivas.
Demostración. Consideremos los siguientes casos:
1. Sean A, B ∈ F , consideremos las funciones indicatrices
1A y 1B,
así, por la definición de probabilidad condicional, tenemos que
E[g(Y)|X] = E[1A|X] = PY|X,
luego, puesto que (X, Y) y (X, Z) tiene la misma distribución conjunta, sabemos que
PY|X = PZ|X = E[1B|X] = E[g(Z)|X],
4.7 Semestre: 2019-A 121
con esto, hemos probado que
E[g(Y)|X] = E[g(Z)|X].
2. Ahora, consideremos las funciones simples
gY(x) =n
∑j=1
ai1Aiy gZ(x) =
n
∑j=1
bi1Bi,
donde ai, bi ∈ R+, para todo i ∈ 1, . . . , n y Aini=1, Bin
i=1 son familias finitas disjuntas
de elementos de Ω. Tenemos que
E[g(Y)|X] =n
∑j=1
aiE[1Ai|X] =
n
∑j=1
aiPAi|X,
de donde, puesto que (X, Y) y (X, Z) tienen la misma distribución conjunta, se sigue que
n
∑j=1
aiPAi|X =n
∑j=1
biPBi|X =n
∑j=1
biE[1Bi|X] = E[g(Z)|X],
por lo tanto, podemos concluir que
E[g(Y)|X] = E[g(Z)|X].
3. Sean gY y gZ funciones positivas, es decir, existen gYn: n ≥ 1 y gZn : n ≥ 1 sucesiones
de funciones simples tales que
lımn→+∞
gYn= gY y lım
n→+∞gZn = gZ,
así, para cada n ∈ N, tenemos que
E [gYn|X] = E [gZn |X] ,
de donde, tomando el límite cuando n → +∞ y por el Teorema de la Convergencia Domi-
nada, se sigue que
E [gY|X] = E [gZ|X] .
122 Examen 1
4.8 SEMESTRE: 2019-B
EJERCICIO 4.28. Sean Xn : n ≥ 1 una sucesión de variables aleatorias y X una variable
aleatoria tales que Xn : n ≥ 1 converge a X en Lp y (cn)n∈Nuna sucesión de números
reales que converge a c. Pruebe que la sucesión cnXn : n ≥ 1 converge a cX en Lp.
Demostración. Vamos a demostrar que lımn→+∞
E[|cnXn − cX|p] = 0, para ello, sean ε > 0 y n ∈ N,
tenemos que
|cnXn − cX| = |(cnXn − cnX) + (cnX − cX)|,
por otro lado, para todo r > 0, se cumple la relación
|X + Y|r ≤ 2r(|X|r + |Y|r),
de donde, combinando las desigualdades precedentes, obtenemos que
|cnXn − cX|p ≤ 2p (|cn(Xn − X)|p + |X(cn − c)|) = 2p (|cn|p|Xn − X|p + |X|p|cn − c|p) ,
luego, por la monotonía de la esperanza, de la desigualdad precedente, obtenemos que
E [|cnXn − cX|p] ≤ 2p (|cn|pE [|Xn − X|p] + |cn − c|pE [|X|p]) . (4.21)
Puesto que (cn)n∈Nes una sucesión convergente es acotada, es decir, existe M > 0 tal que
|cn| ≤ M,
para todo n ∈ N.
Ahora, por hipótesis sabemos existe N1 ∈ N tal que
E[|Xn − X|p] < ε
2p+1 × M,
para todo n ≥ N1. Por otro lado, sabemos existe N2 ∈ N tal que
|cn − c| < p
√ε
2p+1 × E[|X|p] ,
para todo n ≥ N2.
4.8 Semestre: 2019-B 123
Finalmente tomando N = maxN1, N2, de (4.21), se sigue que
E [|cnXn − cX|p] < ε,
para todo n ≥ N, con esto hemos probado que
cnXnLp
−→ cX, n → +∞.
EJERCICIO 4.29. Muestre que si una variable aleatoria X es independiente a sí misma, en-
tonces es constante casi-seguramente (es decir, para algún c ∈ R, P(X = c) = 1).
Use este resultado para mostrar que si X y f (X) son independientes para alguna función
Borel-medible entonces f (X) es constante casi-seguramente.
Demostración. Supongamos que X es independiente a sí misma, vamos a demostrar que existe
a ∈ R, tal que PX = a = 1, para ello, sea c ∈ R, tenemos que
PX ≤ c = PX ≤ c, X ≤ c
= PX ≤ c2,
con esto, tenemos que
PX ≤ c = 0 o PX ≤ c = 1,
es decir, la función de distribución de la variable aleatoria X, solamente toma los valores de 0 ó
1, así, consideremos el conjunto definido por
A = x : F(x) = 0,
el cual, es un conjunto no vacío y acotado superiormente, en efecto, por las propiedades de la
función de distribución, se tiene que
lımc→−∞
F(c) = lımc→−∞
PX ≤ c = 0,
por lo tanto, A 6= ∅, por otro lado,
lımc→+∞
F(c) = lımc→+∞
PX ≤ c = 1,
con esto, tenemos que A está acotado superiormente.
124 Examen 1
Así, A admite un supremo, el cual, lo denotaremos por
ξ = supx : F(x) = 0,
por la definición de supremo, sabemos existe (xn)n∈Nuna sucesión de números reales, tal que
F(xn) = 0 y lımn→+∞
xn = ξ,
con esto, se sigue que
F(ξ−) = lımx→ξ−
F(x) = P(X < ξ) = 0. (4.22)
Nuevamente, por la definición de supremo, tenemos que
F
(
ξ +1n
)
= 1,
para cada n ∈ N, de donde, puesto que F es continua por la derecha, se tiene que
lımn→+∞
F
(
ξ +1n
)
= F(ξ) = 1,
es decir, hemos probado que
PX ≤ ξ = 1. (4.23)
Finalmente, combinando (4.22) y (4.23), obtenemos que
PX = ξ = PX ≤ ξ − PX < ξ = 1,
así, tomando a = ξ ∈ R, se sigue que
PX = a = 1.
Ahora, dado que X es independiente a sí misma, tenemos que
ϕX−X(t) = ϕX(t) ϕX(−t) = |ϕX(t)| = 1,
de donde, obtenemos que
ϕX = ea t i,
es decir
X = a, c.s.
Por otro lado, como X es una variable aleatoria y f es una función Borel-medible, entonces f (X)
4.8 Semestre: 2019-B 125
es una variable aleatoria.
Sean A, B ∈ F , tenemos que
P f (X) ∈ A, f (X) ∈ B = P
X ∈ f−1(A), f (X) ∈ B
= P
X ∈ f−1(A)
P f (X) ∈ B
= P f (X) ∈ A P f (X) ∈ B ,
de donde, podemos concluir que f (X) es independiente a sí misma y que
f (X) = c, c.s.
EJERCICIO 4.30. Sean X e Y variables aleatorias independientes con distribución de Poisson
de parámetros λ y µ, respectivamente.
a) Encuentre las funciones características de las distribuciones de X y de Y.
b) Encuentre la distribución de X + Y.
Demostración. a) Sabemos que X es una variable aleatoria discreta con distribución de Poisson,
por lo tanto, su función de distribución viene dada por
fX(x) =e−λλx
x!,
de donde, por la definición de función característica, tenemos que
ϕX(t) = E[eixt]
=+∞
∑x=0
eixt e−λλx
x!
= e−λ+∞
∑x=0
eixt λx
x!
= e−λ+∞
∑x=0
(eitλ
)x
x!,
luego, por el desarrollo en serie de Taylor de la función exponencial, se sigue que
ϕX(t) = e−λeeitλ = eλ(eit−1).
De igual forma, se sigue que
ϕY(t) = eµ(eit−1).
126 Examen 1
b) Para n ∈ N, consideremos el evento
X + Y = n,
el cual, se puede escribir como la unión disjunta de los eventos
X = k, Y = n − k,
para todo k = 0, 1, . . . , n, así, tenemos que
PX = k, Y = n − k =n
∑k=0
PX = k, Y = n − k
=n
∑k=0
PX = kPY = n − k
=n
∑k=0
exp−λ λk
k!exp−µ λn−k
(n − k)!
= exp−(λ+µ)n
∑k=0
λk
k!µn−k
(n − k)!
=exp−(λ+µ)
n!
n
∑k=0
n!k!(n − k)!
λkµn−k,
ahora, sabemos quen
∑k=0
n!k!(n − k)!
λkµn−k = (λ + µ)n,
con esto, se sigue que
PX + Y = n =exp−(λ+µ)(λ + µ)n,
n!,
es decir, se tiene que
X + Y ∼ Po(λ + µ).
EJERCICIO 4.31. Sea Xj : j ≥ 1 una sucesión de variables aleatorias independientes tales
que
Xj ∼ U [−j, j],
para todo j ≥ 1.
a) Muestre que esta sucesión satisface la condición de Lindeberg.
Hint: Verifique que para todo 1 ≤ j ≤ n, lımj→+∞1
Dj= 0 y use este resultado para
probar que |Xj| > εDn = ∅ para algún N ∈ N suficientemente grande.
b) Escriba la conclusión de la aplicación del Teorema Límite Central en este caso.
4.8 Semestre: 2019-B 127
Demostración. a) En primer lugar, sabemos que la función de densidad de Xj, viene dada por
f (x) =
12j si x ∈ [−j, j]
o si x /∈ [−j, j] .
Sea j ∈ N, tenemos que
E[Xj] =∫ +∞
−∞x f (x)
=12j
∫ j
−jx dx = 0,
por otro lado,
σXj= Var[Xj]
=12j
∫ j
−jx2dx
=j2
3.
En resumen, para todo j ∈ N, se tiene que
E[Xj] = 0 y Var[Xj] =j2
3.
Con esto, se sigue que
D2n = Var
[n
∑j=1
Xj
]
=n
∑j=1
Var[Xj]
=n
∑j=1
j2
3
=n(n + 1)(2n + 1)
18,
es decir, para todo n ∈ N, tenemos que
D2n =
n(n + 1)(2n + 1)18
.
128 Examen 1
Ahora, para n ∈ N, obtenemos que
n
Dn=
n√
n(n+1)(2n+1)18
,
de donde, tomando el límite cuando n → +∞, se sigue que
n
Dn= 0,
Luego, para todo ε > 0 existe N ∈ N tal que
∣∣∣∣
n
Dn
∣∣∣∣=
j
Dn< ε,
para todo n ≥ N, es decir, se tiene que
|Xj| ≤ j ≤ n ≤ εDn,
para todo n ≥ N, con esto, podemos concluir que
1|Xj |≥εDn = 0,
para N ∈ N y 1 ≤ j ≤ N, por lo tanto, se sigue que
n
∑k=1
E[
X21|Xj |≥εDn
]
< +∞,
luego, se tiene que1
D2n
n
∑k=1
E[
X21|Xj |≥εDn
]
→ 0, n → +∞.
b) Aplicando el Teorema Límite Central, tenemos que
Sn√
Var[Sn]=
√18Sn
√
n(n + 1)(2n + 1)d−→ N (0, 1),
donde Sn =n
∑j=1
Xj.
EJERCICIO 4.32. Sean X una variable aleatoria integrable y F ,G dos sub-σ-álgebras tales
que G ⊂ F muestre que
E(X|G) = E(X|F ) si y solo si E(X|F ) es G-medible.
4.8 Semestre: 2019-B 129
Demostración. Para la primera implicación, supongamos que
E(X|G) = E(X|F ),
de donde, dado que por definición E(X|G) es G-medible, se sigue que
E(X|F ),
es G-medible.
Para la otra implicación, supongamos que E(X|F ) es G- medible, vamos a demostrar que
E(X|G) = E(X|F ),
en efecto, para todo A ∈ G tenemos que
∫
AE(X|G) =
∫
AX dP,
de donde, puesto que G ⊂ F , se sigue que
∫
AE(X|F ) =
∫
AX dP,
con esto, podemos concluir que
E(X|G) = E(X|F ).
4.9 Semestre: 2019-B 131
4.9 SEMESTRE: 2019-B
EJERCICIO 4.33. Sean Xn ∼ Bi(n, θ), θ ∈ ]0, 1[ , n ∈ N variables aleatorias. Muestre que
Xn
n
c.s.−→ θ, n → +∞.
Demostración. Por definición de distribución binomial, para cada n ∈ N, tenemos que
Xn =n
∑k=1
Yk,
donde Y1, . . . , Yn, son variables aleatorias independientes con distribución de Bernoulli, tales
que
E[Yn] = 0PXn = 0+ 1PXn = 1 = θ,
es decir, son idénticamente distribuidas, así, por la Ley de los Grandes Números tenemos que
Sn
n=
n
∑k=1
Yk
n
c.s.−→ E[Y1] = θ,
con esto, hemos probado queXn
n
c.s.−→ θ, n → +∞.
EJERCICIO 4.34. Sea Xii≥1 variables aleatorias independientes. Supongamos que
n
∑j=1
(Xj − E[Xj])
σn
d−→ N (0, 1), n → +∞
donde σ2n = V
(n
∑j=1
Xj
)
. Muestre que
1n
n
∑j=1
(Xj − E[Xj])d−→ 0 ⇔ lım
n→+∞
σn
n= 0. (4.24)
Indicación: Puede usar el hecho de que si Xnd−→ X y an → a, entonces an Xn
d−→ a X.
132 Examen 1
Demostración. Para cada n ∈ N, definamos
Zn =n
∑j=1
(Xj − E[Xj])
tal queZn
σn
d−→ N (0, 1),
Para la primera implicación, supongamos que 1n Zn
d−→ 0, n → +∞, vamos a demostrar que
lımn→+∞σnn = 0, en efecto, tenemos que
lımn→+∞
ϕ 1n Zn
(t) = ϕ0(t),
es decir,
lımn→+∞
ei t 1n Zn = ei t 0
con esto, se tiene que
lımn→+∞
1n
Zn = 0.
Para la otra implicación, supongamos que lımn→+∞
σn
n= 0, así, por la indicación, tenemos que
lımn→+∞
σn
n
Zn
σn= 0 = lım
n→+∞
Zn
n,
de donde,
lımn→+∞
ϕei t 1
n Zn= ϕ0,
es decir,Zn
n
d−→ 0, n → +∞
EJERCICIO 4.35. Sean Xn variables aleatorias con distribución con N (µn, σ2n),
n = 1, 2, . . . y X una variable aleatoria con distribución N (µ, σ2). Pruebe que
Xnd−→ X, n → +∞ si y solo si lım
n→+∞µn = µ y lım
n→+∞σn = σ.
Demostración. Para la primera implicación, supongamos que Xnd−→ X, n → +∞, vamos a
demostrar que lımn→+∞ µn = µ y lımn→+∞ σn = σ, en efecto, tenemos que
lımn→+∞
ϕXn(t) = ϕX(t),
4.9 Semestre: 2019-B 133
es decir,
lımn→+∞
expitµn− 12 σ2
n t2= expitµ− 1
2 σ2t2,
con esto, se tiene que
lımn→+∞
itµn −12
σ2nt2 = itµ − 1
2σ2t2,
por lo tanto, podemos concluir que
lımn→+∞
µn = µ y lımn→+∞
σn = σ.
Para la otra implicación, supongamos que lımn→+∞
µn = µ y lımn→+∞
σn = σ, así, tenemos que
lımn→+∞
ϕXn(t) = lımn→+∞
expitµn− 12 σ2
n t2= expitµ− 1
2 σ2t2,
por otro lado, la función característica de la variable aleatoria X, viene dada por
ϕX(t) = expitµ− 12 σ2t2
,
por lo tanto, hemos probado que
Xnd−→ X, n → +∞.
EJERCICIO 4.36. Sean Xn : n ≥ 1 una sucesión de variables aleatorias independientes con
PXj = ±√
j =12
.
a) Muestre que esta sucesión satisface las condiciones de Lyapunov.
b) Escriba la conclusión de la aplicación del Teorema Centra Límite en este caso.
a) Demostración. Por definición de esperanza, para cada j ∈ N, tenemos que
E[Xj] = +√
j PXj =√
j −√
j PXj = −√
j = 0
=j
2− j
2
= 0,
por otro lado, para cada j ∈ N, tenemos que
σXj= Var[Xj] = E[X2
j ]−(E[Xj]
)2
134 Examen 1
= jPX2j = j+ jX2
j = j
= j.
En resumen, para todo j ∈ N, se tiene que
E[Xj] = 0 y Var[Xj] = j.
Con esto, se sigue que
D2n = Var
[n
∑j=1
Xj
]
=n
∑j=1
Var[Xj]
= j
=n(n + 1)
2,
es decir, para todo n ∈ N, tenemos que
D2n =
n (n + 1)2
.
Finalmente, tenemos que
1D2
n
n
∑j=1
E[|Xj|]2 −→ 0, n → +∞,
es decir, se satisface la condición de Lyapunov.
b) Solución. Aplicando el Teorema Límite Central, tenemos que
Sn√
Var[Sn]=
√2
√
n(n + 1)d−→ N (0, 1),
donde Sn =n
∑j=1
Xj, para cada n ∈ N.
EJERCICIO 4.37. Sean X una variable aleatoria integrable, Y una variable aleatoria acotada
y A ⊂ F . Muestre que
E [YE[X|A]] = E [XE[Y|A]]
4.9 Semestre: 2019-B 135
Demostración. Sea A ∈ A, tenemos que
∫
AE [XE[Y|A]] dP =
∫
AXE[Y|A] dP,
de donde, puesto que E[Y] < +∞, sabemos que
XE[Y|A] = E[YX|A],
casi-seguramente, luego, combinando las igualdades precedentes obtenemos que
∫
AE [XE[Y|A]] dP =
∫
AE[YX|A]] dP =
∫
AE[XY|A]] dP =
∫
AYE[X|A]],
de donde, se sigue que
∫
AE [XE[Y|A]] dP =
∫
AE [YE[X|A]] dP,
con esto, hemos probado que
E [YE[X|A]] = E [XE[Y|A]] .