características de algunas distribuciones discretas de probabilidad

17
Caractersticas de Algunas Distribuciones Discretas de Probabilidad Luis Alejandro MÆsmela Caita. Correo. [email protected]@gmail.com Universidad Distrital Francisco JosØ de Caldas Resumen Se presentan a continuacin algunas funciones de densidad de probabilidad de variables aleatorias discretas, las demostraciones de que efectivamente estas funciones cumplen con las condiciones para ser una funcion de densidad de probabilidad, se obtienen sus valores esperados, su varianzas y sus funciones generadoras de momentos. 1. Introduccin. En cursos bÆsicos de teora de la probabilidad, un captulo importante se reere a distribuciones de probabilidad. Este captulo hace mencin bÆsicamente a dos tipos de distribuciones de variables aleatorias, estas son, variables aleatorias discretas y variables aleatorias continuas. Una de las condiciones que requiere una funcin para que se denomine funcin de distribucin de probabilidad es, para el caso discreto, que la suma de esta funcin sobre todos los valores que toma la variable aleatoria sea la unidad, esto es, P x f (x)=1: Para el caso de variables aleatorias continuas se necesita que la funcin integre a uno. Estas distribuciones son caracterizadas a partir de su media y varianza 1 , as como tambiØn por su funcin generadora de momentos 2 . Dependiendo de la variable aleatoria de interØs, la funcion f (x) toma formas matemÆticas distintas y la caracterizacin de la misma a partir de la media, la varianza y la funcin generadora de momentos al depender de la funcin f (x) cambia. En el presente documento se hace una recopilacin de algunos ejemplos de distribuciones de probabilidad discretas, de las deducciones de las expresiones para valor esperado y varianza, la vericacin de la condicin que se menciona para que la funcin denida sea funcin de distribu- cin de probabilidad y se obtiene, ademÆs, su funcin generadora de momentos. Se han tomado como ejemplos las distribuciones discretas uniforme, binomial, hipergeomØtrica, binomial negativa, geomØtrica y Poisson ya que son las distribuciones mÆs comunes en un curso de probabilidad bÆsica. 1 Si la variable aleatoria discreta X tiene por funcin de distribucin la funcin f (x); su media o valor esperado se dene como = E(X)= P x xf (x) y su varianza por 2 = V (X)= P x (x ) 2 f (x): 2 De igual forma la funcin generadora de momentos se dene como M X (t)= E(e xt ); donde la notacin E denota valor esperado y e es el nœmero de euler. 1

Upload: luis-alejandro-masmela-caita

Post on 30-Jun-2015

1.350 views

Category:

Documents


0 download

DESCRIPTION

Características de Algunas Distribuciones Discretas de ProbabilidadLuis Alejandro Másmela Caita. Correo. [email protected]@gmail.com Universidad Distrital Francisco José de CaldasResumen Se presentan a continuación algunas funciones de densidad de probabilidad de variables aleatorias discretas, las demostraciones de que efectivamente estas funciones cumplen con las condiciones para ser una funcion de densidad de probabilidad, se obtienen sus valores esperados, su varianzas

TRANSCRIPT

Page 1: Características de Algunas Distribuciones Discretas de Probabilidad

Características de Algunas Distribuciones Discretas deProbabilidad

Luis Alejandro Másmela Caita.Correo. [email protected]@gmail.com

Universidad Distrital Francisco José de Caldas

Resumen

Se presentan a continuación algunas funciones de densidad de probabilidad de variablesaleatorias discretas, las demostraciones de que efectivamente estas funciones cumplen con lascondiciones para ser una funcion de densidad de probabilidad, se obtienen sus valores esperados,su varianzas y sus funciones generadoras de momentos.

1. Introducción.

En cursos básicos de teoría de la probabilidad, un capítulo importante se re�ere a distribucionesde probabilidad. Este capítulo hace mención básicamente a dos tipos de distribuciones de variablesaleatorias, estas son, variables aleatorias discretas y variables aleatorias continuas.Una de las condiciones que requiere una función para que se denomine función de distribución

de probabilidad es, para el caso discreto, que la suma de esta función sobre todos los valores quetoma la variable aleatoria sea la unidad, esto es,

Px f(x) = 1: Para el caso de variables aleatorias

continuas se necesita que la función integre a uno.Estas distribuciones son caracterizadas a partir de su media y varianza1 , así como también por

su función generadora de momentos2 . Dependiendo de la variable aleatoria de interés, la funcionf(x) toma formas matemáticas distintas y la caracterización de la misma a partir de la media, lavarianza y la función generadora de momentos al depender de la función f(x) cambia.En el presente documento se hace una recopilación de algunos ejemplos de distribuciones de

probabilidad discretas, de las deducciones de las expresiones para valor esperado y varianza, laveri�cación de la condición que se menciona para que la función de�nida sea función de distribu-ción de probabilidad y se obtiene, además, su función generadora de momentos. Se han tomadocomo ejemplos las distribuciones discretas uniforme, binomial, hipergeométrica, binomial negativa,geométrica y Poisson ya que son las distribuciones más comunes en un curso de probabilidad básica.

1Si la variable aleatoria discreta X tiene por función de distribución la función f(x); su media o valor esperadose de�ne como � = E(X) =

Px xf(x) y su varianza por �

2 = V (X) =Px(x� �)2f(x):

2De igual forma la función generadora de momentos se de�ne como MX(t) = E(ext); donde la notación E denota

valor esperado y e es el número de euler.

1

Page 2: Características de Algunas Distribuciones Discretas de Probabilidad

2. Distribución Uniforme.

Si la variable aleatoria X toma los valores x1; x2; :::; xk; con idénticas probabilidades, entoncesa X se le denomina variable aleatoria uniforme discreta y su función de densidad de probabilidad(f.d.p.) está dada por

u(x; k) =1

k; si x = x1; x2; :::; xk:

Se debe probar quekXi=1

u(xi; k) = 1;

así,

kXi=1

u(xi; k) =kXi=1

1

k

= k1

k= 1:

2.1. Valor Esperado y Varianza.Para la obtención de expresiones para la media y la varianza, se parte de sus de�niciones:

E(X) =

kXi=1

xiu(xi; k)

=kXi=1

xi1

k

=

kXi=1

xi

k:

De igual forma, para la varianza

V (X) =kXi=1

(xi � �)2 u(xi; k)

=1

k

kXi=1

(xi � �)2 :

2

Page 3: Características de Algunas Distribuciones Discretas de Probabilidad

2.2. Función Generadora de Momentos.Partiendo de la de�nición de la función generadora de momentos y de la función de densidad de

probabilidad para una variable aleatoria con distribución uniforme se tiene,

MX(t) = E(ext) =kXj=1

ejt1

k

=1

k

kXj=1

et�et�j�1

=et

k

1� ekt1� et :

3. Distribución Binomial.

Para de�nir una variable aleatoria binomial, en primera instancia se describe lo que es un procesode Bernoulli.Proceso de Bernoulli.El proceso de Bernoulli tiene las siguientes propiedades:

1. El experimento consiste en n pruebas que se repiten.

2. Cada prueba produce un resultado que se puede clasi�car como éxito o fracaso.

3. La probabilidad de un éxito, que se denota con p, permanece constante en cada prueba.

4. Las pruebas que se repiten son independientes.

El número de éxitos en n experimentos de Bernoulli se denomina variable aleatoria binomial.La distribución de probabilidad de esta variable aleatoria discreta se llama distribución binomial ysu f.d.p. esta dada por

b(x;n; p) =

�n

x

�px(1� p)n�x; si x = 0; 1; :::; n:

Para probar quePb(x;n; p) = 1; se parte del teorema del binomio, si n es un entero positivo

entonces para todos los números a y b,

(a+ b)n =nXi=0

�n

i

�aibn�i;

de esta formanXx=0

b(x;n; p) =nXx=0

�n

x

�px(1� p)n�x

= [p+ (1� p)]n

= 1:

3

Page 4: Características de Algunas Distribuciones Discretas de Probabilidad

3.1. Valor Esperado y Varianza.Para obtener una expresión para la media de la variable aleatoria binomial, se parte de la

de�nición de media, esto es,

E(X) =nXx=0

xb(x;n; p)

=nXx=1

x

�n

x

�px(1� p)n�x

=nXx=1

xn!

x!(n� x)!px(1� p)n�x

= npnXx=1

(n� 1)!(x� 1)!(n� x)!p

x�1(1� p)n�x

= npnXx=1

�n� 1x� 1

�px�1(1� p)n�x

haciendo y = x� 1 se tiene que

E(X) = npn�1Xy=0

�n� 1y

�py(1� p)n�1�y

= npn�1Xy=0

b(y;n� 1; p)

= np

En cuanto a la varianza,V (X) = E(X2)� [E(X)]2

dondeE(X2) = E [X(X � 1)] + E(X)

así,V (X) = E [X(X � 1)] + E(X)� [E(X)]2

por tanto basta con calcular E [X(X � 1)], así

E [X(X � 1)] =nXx=0

x(x� 1) n!

x!(n� x)!px(1� p)n�x

=nXx=2

(n� 2)!(n� 1)n(x� 2)!(n� x)! p

2px�2(1� p)n�x

= (n� 1)np2nXx=2

(n� 2)!(x� 2)!(n� x)!p

x�2(1� p)n�x

= (n� 1)np2nXx=2

�n� 2x� 2

�px�2(1� p)n�x

4

Page 5: Características de Algunas Distribuciones Discretas de Probabilidad

haiendo y = x� 2 se tiene

E [X(X � 1)] = (n� 1)np2n�2Xy=0

�n� 2y

�py(1� p)n�2�y

= (n� 1)np2n�2Xy=0

b(y;n� 2; p)

= (n� 1)np2:

Con base en este resultado la expresión para la varianza es

V (X) = E [X(X � 1)] + E(X)� [E(X)]2

= (n� 1)np2 + np� (np)2

= np(1� p):

3.2. Función Generadora de Momentos.Para la distribución binomial, la función generadora de momentos se obtiene,

MX(t) = E(ext) =

nXx=0

ext�n

x

�px(1� p)n�x

=nXx=0

�n

x

��etp�x(1� p)n�x

=�etp+ 1� p

�n:

4. Distribución de Hipergeométrica.

La variable aleatoria discreta hipergeométrica X, mide el número de exitos en una muestraaleatoria de tamaño n tomada de una población de N elementos de los que k se denominan éxitoy N �K fracaso. Su f.d.p. esta dada por

h(x;N;n; k) =

�k

x

��N � kn� x

��N

n

� si x = 0; 1:::;m��n fk; ng :

Para probar quenXx=0

h(x;N;n; k) = 1

5

Page 6: Características de Algunas Distribuciones Discretas de Probabilidad

partiendo de la serie binomial3

(1 + x)k =1Xi=0

�k

i

�xi

se tiene

(1 + x)a =1Xi=0

�a

i

�xi; (1 + x)b =

1Xi=0

�b

i

�xi; (1 + x)a+b =

1Xi=0

�a+ b

i

�xi

con base en estas expresiones1Xi=0

�a+ b

i

�xi = (1 + x)a+b

= (1 + x)a(1 + x)b

=

" 1Xi=0

�a

i

�xi

#" 1Xi=0

�b

i

�xi

#

=

��a

0

�+

�a

1

�x+

�a

2

�x2 + � � �

� ��b

0

�+

�b

1

�x+

�b

2

�x2 + � � �

�=

�a

0

��b

0

�+

��a

0

��b

1

�+

�a

1

��b

0

��x+

��a

0

��b

2

�+

�a

1

��b

1

�+

�a

2

��b

0

��x2 + � � �

=1Xi=0

24 iXj=0

�a

j

��b

i� j

�35xiluego �

a+ b

i

�=

iXj=0

�a

j

��b

i� j

�:

Con base en la anterior deducción se tiene que

nXx=0

h(x;N;n; k) =nXx=0

�k

x

��N � kn� x

��N

n

�=

1�N

n

� nXx=0

�k

x

��N � kn� x

=1�N

n

��k +N � kn

=1�N

n

��Nn

�= 1

3En la sección correspondiente a la Distribución Binomial Negativa se presenta la obtención de esta expresión apartir de series de Taylor.

6

Page 7: Características de Algunas Distribuciones Discretas de Probabilidad

4.1. Valor Esperado y Varianza.Para el valor esperado de X se tiene

E(X) =nXx=0

x

�k

x

��N � kn� x

��N

n

=nXx=1

xk!

x! (k � x)!

�N � kn� x

��N

n

=kNn

nXx=1

(k � 1)!(x� 1)! (k � x)!

�N � kn� x

��N � 1n� 1

=nk

N

nXx=1

�k � 1x� 1

��N � kn� x

��N � 1n� 1

�haciendo y = x� 1 se tiene

E(X) =nk

N

n�1Xy=0

�k � 1y

��N � kn� 1� y

��N � 1n� 1

�=

nk

N

n�1Xy=0

h(y;N � 1; n� 1; k � 1)

=nk

N

Para la varianzaV (X) = E(X2)� [E(X)]2

ademásE(X2) = E [X(X � 1)] + E(X)

7

Page 8: Características de Algunas Distribuciones Discretas de Probabilidad

así,

E [X(X � 1)] =nXx=0

x(x� 1)

�k

x

��N � kn� x

��N

n

=nXx=2

x(x� 1)

�k

x

��N � kn� x

��N

n

=k(k � 1)N(N�1)n(n�1)

nXx=2

(k � 2)!(x� 2)! (k � x)!

�N � kn� x

��N � 2n� 2

=k(k � 1)n(n� 1)N(N � 1)

nXx=2

�k � 2x� 2

��N � kn� x

��N � 2n� 2

�haciendo y = x� 2 se tiene

E [X(X � 1)] =k(k � 1)n(n� 1)N(N � 1)

n�2Xy=0

�k � 2y

��N � kn� 2� y

��N � 2n� 2

�=

k(k � 1)n(n� 1)N(N � 1)

n�2Xy=0

h(y;N � 2; n� 2; k � 2)

=k(k � 1)n(n� 1)N(N � 1) :

Con base en los resultados anteriores

V (X) = E(X2)� [E(X)]2

= E [X(X � 1)] + E(X)� [E(X)]2

=k(k � 1)n(n� 1)N(N � 1) +

nk

N��nk

N

�2haciendo algunas simpli�caciones sobre la última expresión se tiene

V (X) =N � nN � 1n

k

N

�1� k

N

�:

8

Page 9: Características de Algunas Distribuciones Discretas de Probabilidad

4.2. Función Generadora de Momentos.Partiendo de la de�nición de la f.g.m. y de la densidad de una variable aleatoria hipergeométrica

se de�ne

Mx;n(t) = E(ext) =

nXx=0

�k

x

��N � kn� x

��N

n

� ext:

Utilizando nuevamente la expansión binomial, pero esta vez para exponentes enteros positivos setiene

(1 + yet)k =kXi=0

�k

i

�eityi; (1)

y

(1 + y)N�k =N�kXj=0

�N � kj

�yj : (2)

Multiplicando las series (1) y (2) se obtiene

(1 + yet)k(1 + y)N�k =

��k

0

��N � k0

�e0t�y0 +

��k

0

��N � k1

�e0t +

�k

1

��N � k0

�et�y +

+ � � �+"

nXx=0

�k

x

��N � kn� x

�ext

#yn + � � �+

"NXx=0

�k

x

��N � kN � x

�ext

#yN ;

o equivalentemente

(1 + yet)k(1 + y)N�k =NXn=0

Mx;n(t)yn

�N

n

�: (3)

Derivando la ecuación en (3) n veces con respecto a y y haciendo y = 0 se obtiene una secuenciade funciones generadoras de momentos para sucesivos valores de n;

@n

@yn(1 + yet)k(1 + y)N�k

����y=0

= n!

�N

n

�Mx;n(t);

reescribiendo la ecuación anterior se obtiene una expresión para la función generadora de momentosde la distribución hipergeométrica,

Mx;n(t) =(N � n)!N !

@n

@yn(1 + yet)k(1 + y)N�k

����y=0

:

5. Distribución Binomial Negativa.

La variable aleatoria binomial negativa X mide, bajo un proceso de Bernulli, el número deensayos que deben realizarse para obtener k exitos, en donde la probabilidad de exito es p. Su f.d.p.

9

Page 10: Características de Algunas Distribuciones Discretas de Probabilidad

esta dada por

b�(x; k; p) =

� �x�1k�1�pk(1� p)x�k si x = k; k + 1; :::0 e.o.c.

Se debe probar queP1

x=k b�(x; k; p) = 1: Para ello, expandiendo (1 + x)k en serie de Taylor

alrededor de x0 = 0; llamando f(x) = (1 + x)k se tiene que

f (i)(0) = k(k � 1) � � � (k � i+ 1)

así, la serie de Taylor correspondiente es

f(x) =1Xi=0

f (i)(0)

i!xi (4)

=1Xi=0

k(k � 1) � � � (k � i+ 1)i!

xi

=

1Xi=0

�k

i

�xi

denominada Serie Binómica o Binomial. Sustituyendo k por �k tenemos

(1 + x)�k =

1Xi=0

�k(�k � 1) � � � (�k � i+ 1)i!

xi (5)

=

1Xi=0

��ki

�xi

ya que ��ki

�=

�k(�k � 1) � � � (�k � i+ 1)i!

= (�1)i k(k + 1) � � � (k + i� 1)i!

= (�1)i�k + i� 1

i

�:

Por ejemplo, si k = 5 e i = 3 se tiene��53

�=

(�5)(�6)(�7)3!

= (�1)3 (5)(6)(7)3!

= (�1)3 7!3!4!

= (�1)3�7

3

�:

10

Page 11: Características de Algunas Distribuciones Discretas de Probabilidad

Luego se puede establecer la siguiente propiedad como��ki

�= (�1)i

�k + i� 1

i

�: (6)

Además, es sencillo probar que �k + i� 1

i

�=

�k + i� 1k � 1

�: (7)

Con base en la serie de (5) haciendo en ella x = �q y utilizando las propiedades en (6) y (2)

(1� q)�k =1Xi=0

��ki

�(�q)i

=1Xi=0

(�1)i�k + i� 1

i

�(�1)iqi

=1Xi=0

�k + i� 1k � 1

�qi;

haciendo i = x� k

(1� q)�k =1Xx=k

�x� 1k � 1

�qx�k:

En la binomial negativa se tiene que q = 1� p entonces

(1� 1 + p)�k =1Xx=k

�x� 1k � 1

�(1� p)x�k

de donde1Xx=k

�x� 1k � 1

�(1� p)x�k = p�k: (8)

Ya que se desea probar

1Xx=k

b�(x; k; p) =1Xx=k

�x� 1k � 1

�pk(1� p)x�k = 1

entonces utilizando (8)

1Xx=k

�x� 1k � 1

�pk(1� p)x�k = pk

1Xx=k

�x� 1k � 1

�(1� p)x�k

= pkp�k

= 1:

11

Page 12: Características de Algunas Distribuciones Discretas de Probabilidad

5.1. Valor Esperado y Varianza.Para el cálculo del valor esperado y la varianza se calcula E(Xt):

E(Xt) =1Xx=k

xt�x� 1k � 1

�pk(1� p)x�k

=1Xx=k

xt(x� 1)!

(k � 1)!(x� k)!pk(1� p)x�k

=k

p

1Xx=k

xt�1x!

k!(x� k)!pk+1(1� p)x�k

=k

p

1Xx=k

xt�1�x

k

�pk+1(1� p)x�k:

A partir de la sustitución x = y � 1, se obtiene

E(Xt) =k

p

1Xy=k+1

(y � 1)t�1�y � 1k

�pk+1(1� p)y�1�k

=k

p

1Xy=k+1

(y � 1)t�1b�(y; k + 1; p)

=k

pE[(y � 1)t]

en donde y tiene una distribución binomial negativa con parámetros k + 1 y p: De esta forma, yaque

E(Xt) =k

pE[(y � 1)t�1]

haciendo en la anterior expresión t = 1;

E(X) =k

pE[1]

=k

p;

para obtener la varianza, haciendo t = 2 para obtener E(X2)

E(X2) =k

pE(y � 1)

=k

p[E(y)� 1]

=k

p[k + 1

p� 1]

=k2 + k � kp

p2

12

Page 13: Características de Algunas Distribuciones Discretas de Probabilidad

así,

V (X) = E(X2)� [E(X)]2

=k2 + k � kp

p2��k

p

�2=

k(1� p)p2

:

5.2. Función Generadora de Momentos.Para obtener la función generadora de momentos de una variable aleatoria distribuida binomial

negativa, partimos de la de�nición

MX(t) = E(ext) =1Xx=k

ext�x� 1k � 1

�pk(1� p)x�k

= pkekt1Xx=k

�et�x�k �x� 1

k � 1

�(1� p)x�k

=�pet�k 1X

x=k

�x� 1k � 1

��et (1� p)

�x�k=

�pet�k �

1� et (1� p)�k

de donde,

MX(t) =

�pet

1� et (1� p)

�k

6. Distribución Geométrica.

Un caso particular de la distribución binomial negativa es la denominada distribución geométri-ca, su variable mide el número de ensayos requeridos para obtener el primer éxito, su f.d.p. seestablece de la siguiente forma.Si pruebas independientes repetidas pueden tener como resultado un éxito con probabilidad p

y un fracaso con probabilidad q = 1 � p; entonces la distribución de probabilidad de la variablealeatoria X, el número de la prueba en la que ocurre el primer éxito, es

g(x; p) = pqx�1 si x = 1; 2; :::

Para probar quePg(x; p) = 1 se requiere de la denominada serie geométrica que se describe

como1Xi=0

ari =a

1� r si jrj < 1;

13

Page 14: Características de Algunas Distribuciones Discretas de Probabilidad

de esta forma partiendo de

1Xx=1

g(x; p) =1Xx=1

pqx�1

=1Xy=0

pqy

=p

1� q= 1:

6.1. Valor Esperado y Varianza.Para el calculo del valor esperado y la varianza se utilizan propiedades de series, más exactamente

el intercambio de derivadas y sumatorias justi�cada bajo la convergencia de la serie para jqj < 1:

E(X) =1Xx=1

xpqx�1

= p1Xx=0

xqx�1

= p1Xx=0

d

dqqx

= pd

dq

1Xx=0

qx

= pd

dq

�1

1� q

�luego

E(X) =p

(1� q)2 =p

p2=1

p:

Para la varianza se parte de

E [X(X � 1)] =1Xx=1

x(x� 1)pqx�1

= pqd2

dq2

1Xx=0

qx

= pqd2

dq2

�1

1� q

�=

2pq

(1� q)3

=2q

p2

14

Page 15: Características de Algunas Distribuciones Discretas de Probabilidad

entonces

V (X) = E [X(X � 1)] + E(X)� [E(X)]2

=2q

p2+1

p� 1

p2

=2� 2p+ p� 1

p2

=1� pp2

:

Cabe notar que estos resultados se puede obtener partiendo de los resultados de la binomialnegativa haciendo k = 1.

6.2. Función Generadora de Momentos.Para la distribución geométrica, por de�nición se tiene,

MX(t) = E(ext) =

1Xx=1

extpqx�1

=

1Xx=1

etp(etq)x�1 =etp

1� etq :

7. Distribución de Poisson.

A continuación se de�ne el proceso de Poisson el cual permite de�nir lo que es una variablealeatoria de Poisson que al mismo tiempo permite encontrar su función de densidad de probabilidad.Proceso de Poisson.

1. El número de resultados que ocurren en un intervalo o región especí�ca es independiente delnúmero que ocurre en cualquier otro intervalo o región del espacio disyunto. De esta forma sepuede observar que el proceso de Poisson no tiene memoria.

2. La probabilidad de que ocurra un posible resultado durante un intervalo muy corto o unaregión pequeña es proporcional a la longitud del intervalo o al tamaño de la región y nodepende del número de resultados que ocurren fuera de este intervalo o región.

3. La probabilidad de que ocurra más de un resultado en tal intervalo corto o que caiga en talregión pequeña es insigni�cante.

El número X de resultados que ocurren durante un experimento de Poisson se llama variablealeatoria de Poisson. El número medio de resultados se calcula por �t donde t es el tiempo o región

15

Page 16: Características de Algunas Distribuciones Discretas de Probabilidad

especí�ca de interés y � la tasa de ocurrencia de los resultados. La obtención de la f.d.p. de lavariable X se basa en las propiedades del proceso de Poisson, y esta dada por

p(x;�t) =e��t(�t)x

x!si x = 0; 1; :::

Para probar quePp(x;�t) = 1; basado en (4) se puede mostrar que

ek =1Xi=0

ki

i!

que es la serie de Maclaurin para la función f(x) = ex, con base en esta expresión se tiene que1Xx=0

p(x;�t) =1Xx=0

e��t(�t)x

x!

= e��t1Xx=0

(�t)x

x!

= e��te�t

= 1:

7.1. Valor Esperado y Varianza.Se puede veri�car que la media de la variable aleatoria de poisson esta dada por � = �t:

E(X) =

1Xx=0

xp(x;�t)

=

1Xx=1

xe��t(�t)x

x!

= �t1Xx=1

e��t(�t)x�1

(x� 1)!

haciendo y = x� 1 se obtiene

E(X) = �t1Xy=0

e��t(�t)y

y!

= �t

1Xy=0

p(y;�t)

= �t:

Para el calculo de la varianza

E [X(X � 1)] =1Xx=0

x(x� 1)e��t(�t)x

x!

= (�t)21Xx=2

e��t(�t)x�2

(x� 2)!

16

Page 17: Características de Algunas Distribuciones Discretas de Probabilidad

haciendo y = x� 2

E [X(X � 1)] = (�t)21Xy=0

e��t(�t)y

y!

= (�t)21Xx=2

p(y;�t)

= (�t)2;

así,

V (X) = E [X(X � 1)] + E(X)� [E(X)]2

= (�t)2 + �t� (�t)2

= �t:

7.2. Función Generadora de Momentos.Para la distribución de Poisson se tiene, llamando � = �t;

Mx;n(t) = E(ext) =1Xx=0

exte���x

x!

=

1Xx=0

e��(�et)x

x!

= e��e�et

= e�(et�1):

Referencias

[1] BLANCO L., MUÑOZ M. Introducción a la teoría avanzada de la probabilidad. UniversidadNacional de Colombia. Bogotá. Colombia. 2002.

[2] LESSING R. An Alternative Expression for the Hypergeometric Moment Generating Function.The American Statician, Vol. 27, No. 3, p. 115. 1973.

[3] FELLERW. An Introduction to Probability Theory and Its Applications. Volume 1. Hardcover.1971

[4] MARTÍN F., RUIZ-MAYA L. Fundamentos de Probabilidad. Editorial Thomson. 2002.

[5] MOOD A., GRAYBILL F., BOES D. Introduction to the theory of statistics. McGraw-HillInternational Editions. Third Edition. Singapore. 1963.

[6] ROSS S. A First Course in Probability. Prentice Hall. United States of America. 2002.

[7] WALPOLE R., MYERS, R., MYERS, S. YE, K. Probabilidad y Estadística para Ingeniería yCiencias. Pearson Education. Octava Edición. 2007.

17