probabilidad y estadística - fceia.unr.edu.arptorres/probabilidad/2017-2018/clasesvad.pdf ·...

Post on 29-Aug-2019

20 Views

Category:

Documents

0 Downloads

Preview:

Click to see full reader

TRANSCRIPT

PROBABILIDAD Y ESTADISTICA

Pablo Torres

Facultad de Ciencias Exactas, Ingenierıa y Agrimensura - Universidad Nacional de Rosario

Variables aleatorias discretas

INTRODUCCION

Definicion: Una variable aleatoria es una funcion a valores reales cuyodominio es un espacio muestral.

Definicion: Una v. a. Y se dice discreta si puede adoptar una cantidad finita oinfinita numerable de valores distintos.

Definicion: La probabilidad de que Y adopte el valor y, P(Y = y), se definecomo la suma de las probabilidades de los puntos muestrales de S quetienen asignado el valor y.

Definicion: La distribucion de probabilidad de una v. a. discreta Y puederepresentarse mediante una formula, una tabla o una grafica, queproporciona p(y) = P(Y = y) ∀y ∈ RY (rango de Y).

Ejemplo 1: Se deben seleccionar al azar 3 personas de un grupo de 8,formado por 4 menores de 40 anos y 4 mayores de 40 anos. Sea Y elnumero de mayores de 40 anos elegidos. Encontrar la distribucion deprobabilidad de Y.

p(y) =(4

y)(4

3−y)56 , y = 0,1,2,3.

INTRODUCCION

Definicion: Una variable aleatoria es una funcion a valores reales cuyodominio es un espacio muestral.

Definicion: Una v. a. Y se dice discreta si puede adoptar una cantidad finita oinfinita numerable de valores distintos.

Definicion: La probabilidad de que Y adopte el valor y, P(Y = y), se definecomo la suma de las probabilidades de los puntos muestrales de S quetienen asignado el valor y.

Definicion: La distribucion de probabilidad de una v. a. discreta Y puederepresentarse mediante una formula, una tabla o una grafica, queproporciona p(y) = P(Y = y) ∀y ∈ RY (rango de Y).

Ejemplo 1: Se deben seleccionar al azar 3 personas de un grupo de 8,formado por 4 menores de 40 anos y 4 mayores de 40 anos. Sea Y elnumero de mayores de 40 anos elegidos. Encontrar la distribucion deprobabilidad de Y.

p(y) =(4

y)(4

3−y)56 , y = 0,1,2,3.

INTRODUCCION

Definicion: Una variable aleatoria es una funcion a valores reales cuyodominio es un espacio muestral.

Definicion: Una v. a. Y se dice discreta si puede adoptar una cantidad finita oinfinita numerable de valores distintos.

Definicion: La probabilidad de que Y adopte el valor y, P(Y = y), se definecomo la suma de las probabilidades de los puntos muestrales de S quetienen asignado el valor y.

Definicion: La distribucion de probabilidad de una v. a. discreta Y puederepresentarse mediante una formula, una tabla o una grafica, queproporciona p(y) = P(Y = y) ∀y ∈ RY (rango de Y).

Ejemplo 1: Se deben seleccionar al azar 3 personas de un grupo de 8,formado por 4 menores de 40 anos y 4 mayores de 40 anos. Sea Y elnumero de mayores de 40 anos elegidos. Encontrar la distribucion deprobabilidad de Y.

p(y) =(4

y)(4

3−y)56 , y = 0,1,2,3.

INTRODUCCION

Definicion: Una variable aleatoria es una funcion a valores reales cuyodominio es un espacio muestral.

Definicion: Una v. a. Y se dice discreta si puede adoptar una cantidad finita oinfinita numerable de valores distintos.

Definicion: La probabilidad de que Y adopte el valor y, P(Y = y), se definecomo la suma de las probabilidades de los puntos muestrales de S quetienen asignado el valor y.

Definicion: La distribucion de probabilidad de una v. a. discreta Y puederepresentarse mediante una formula, una tabla o una grafica, queproporciona p(y) = P(Y = y) ∀y ∈ RY (rango de Y).

Ejemplo 1: Se deben seleccionar al azar 3 personas de un grupo de 8,formado por 4 menores de 40 anos y 4 mayores de 40 anos. Sea Y elnumero de mayores de 40 anos elegidos. Encontrar la distribucion deprobabilidad de Y.

p(y) =(4

y)(4

3−y)56 , y = 0,1,2,3.

INTRODUCCION

Definicion: Una variable aleatoria es una funcion a valores reales cuyodominio es un espacio muestral.

Definicion: Una v. a. Y se dice discreta si puede adoptar una cantidad finita oinfinita numerable de valores distintos.

Definicion: La probabilidad de que Y adopte el valor y, P(Y = y), se definecomo la suma de las probabilidades de los puntos muestrales de S quetienen asignado el valor y.

Definicion: La distribucion de probabilidad de una v. a. discreta Y puederepresentarse mediante una formula, una tabla o una grafica, queproporciona p(y) = P(Y = y) ∀y ∈ RY (rango de Y).

Ejemplo 1: Se deben seleccionar al azar 3 personas de un grupo de 8,formado por 4 menores de 40 anos y 4 mayores de 40 anos. Sea Y elnumero de mayores de 40 anos elegidos. Encontrar la distribucion deprobabilidad de Y.

p(y) =(4

y)(4

3−y)56 , y = 0,1,2,3.

INTRODUCCION

Definicion: Una variable aleatoria es una funcion a valores reales cuyodominio es un espacio muestral.

Definicion: Una v. a. Y se dice discreta si puede adoptar una cantidad finita oinfinita numerable de valores distintos.

Definicion: La probabilidad de que Y adopte el valor y, P(Y = y), se definecomo la suma de las probabilidades de los puntos muestrales de S quetienen asignado el valor y.

Definicion: La distribucion de probabilidad de una v. a. discreta Y puederepresentarse mediante una formula, una tabla o una grafica, queproporciona p(y) = P(Y = y) ∀y ∈ RY (rango de Y).

Ejemplo 1: Se deben seleccionar al azar 3 personas de un grupo de 8,formado por 4 menores de 40 anos y 4 mayores de 40 anos. Sea Y elnumero de mayores de 40 anos elegidos. Encontrar la distribucion deprobabilidad de Y.

p(y) =(4

y)(4

3−y)56 , y = 0,1,2,3.

VARIABLE ALEATORIA DISCRETA

Propiedad: Toda distribucion de probabilidades discreta satisface:

1 0≤ p(y)≤ 1, ∀y,

2 ∑y/p(y)>0

p(y) = 1.

Definicion: Sea Y una v.a.d. con funcion de probabilidad p(y). Entonces elvalor esperado (esperanza) de Y, notado E(Y), se define como

E(Y) = ∑y/p(y)>0

yp(y).

Definicion: Diremos que una funcion a valores reales g es una funcion de lav.a. Y si RY ⊆ Dom(g).Ejemplo 2: Sea Y una v.a.d. que asume los valores −1, 0 y 1 conprobabilidad 1

3 cada uno, y sea p(y) su funcion de probabilidad. Sea g(x) = x2

y p∗(y) su funcion de probabilidad.g(Y) es una v.a. que asume los valores 0 y 1 con probabilidad:p∗(0) = P(g(Y) = 0) = 1

3 y p∗(1) = P(g(Y) = 1) = 23 .

VARIABLE ALEATORIA DISCRETA

Propiedad: Toda distribucion de probabilidades discreta satisface:

1 0≤ p(y)≤ 1, ∀y,

2 ∑y/p(y)>0

p(y) = 1.

Definicion: Sea Y una v.a.d. con funcion de probabilidad p(y). Entonces elvalor esperado (esperanza) de Y, notado E(Y), se define como

E(Y) = ∑y/p(y)>0

yp(y).

Definicion: Diremos que una funcion a valores reales g es una funcion de lav.a. Y si RY ⊆ Dom(g).Ejemplo 2: Sea Y una v.a.d. que asume los valores −1, 0 y 1 conprobabilidad 1

3 cada uno, y sea p(y) su funcion de probabilidad. Sea g(x) = x2

y p∗(y) su funcion de probabilidad.g(Y) es una v.a. que asume los valores 0 y 1 con probabilidad:p∗(0) = P(g(Y) = 0) = 1

3 y p∗(1) = P(g(Y) = 1) = 23 .

VARIABLE ALEATORIA DISCRETA

Propiedad: Toda distribucion de probabilidades discreta satisface:

1 0≤ p(y)≤ 1, ∀y,

2 ∑y/p(y)>0

p(y) = 1.

Definicion: Sea Y una v.a.d. con funcion de probabilidad p(y). Entonces elvalor esperado (esperanza) de Y, notado E(Y), se define como

E(Y) = ∑y/p(y)>0

yp(y).

Definicion: Diremos que una funcion a valores reales g es una funcion de lav.a. Y si RY ⊆ Dom(g).

Ejemplo 2: Sea Y una v.a.d. que asume los valores −1, 0 y 1 conprobabilidad 1

3 cada uno, y sea p(y) su funcion de probabilidad. Sea g(x) = x2

y p∗(y) su funcion de probabilidad.g(Y) es una v.a. que asume los valores 0 y 1 con probabilidad:p∗(0) = P(g(Y) = 0) = 1

3 y p∗(1) = P(g(Y) = 1) = 23 .

VARIABLE ALEATORIA DISCRETA

Propiedad: Toda distribucion de probabilidades discreta satisface:

1 0≤ p(y)≤ 1, ∀y,

2 ∑y/p(y)>0

p(y) = 1.

Definicion: Sea Y una v.a.d. con funcion de probabilidad p(y). Entonces elvalor esperado (esperanza) de Y, notado E(Y), se define como

E(Y) = ∑y/p(y)>0

yp(y).

Definicion: Diremos que una funcion a valores reales g es una funcion de lav.a. Y si RY ⊆ Dom(g).Ejemplo 2: Sea Y una v.a.d. que asume los valores −1, 0 y 1 conprobabilidad 1

3 cada uno, y sea p(y) su funcion de probabilidad. Sea g(x) = x2

y p∗(y) su funcion de probabilidad.

g(Y) es una v.a. que asume los valores 0 y 1 con probabilidad:p∗(0) = P(g(Y) = 0) = 1

3 y p∗(1) = P(g(Y) = 1) = 23 .

VARIABLE ALEATORIA DISCRETA

Propiedad: Toda distribucion de probabilidades discreta satisface:

1 0≤ p(y)≤ 1, ∀y,

2 ∑y/p(y)>0

p(y) = 1.

Definicion: Sea Y una v.a.d. con funcion de probabilidad p(y). Entonces elvalor esperado (esperanza) de Y, notado E(Y), se define como

E(Y) = ∑y/p(y)>0

yp(y).

Definicion: Diremos que una funcion a valores reales g es una funcion de lav.a. Y si RY ⊆ Dom(g).Ejemplo 2: Sea Y una v.a.d. que asume los valores −1, 0 y 1 conprobabilidad 1

3 cada uno, y sea p(y) su funcion de probabilidad. Sea g(x) = x2

y p∗(y) su funcion de probabilidad.g(Y) es una v.a. que asume los valores 0 y 1 con probabilidad:

p∗(0) = P(g(Y) = 0) = 13 y p∗(1) = P(g(Y) = 1) = 2

3 .

VARIABLE ALEATORIA DISCRETA

Propiedad: Toda distribucion de probabilidades discreta satisface:

1 0≤ p(y)≤ 1, ∀y,

2 ∑y/p(y)>0

p(y) = 1.

Definicion: Sea Y una v.a.d. con funcion de probabilidad p(y). Entonces elvalor esperado (esperanza) de Y, notado E(Y), se define como

E(Y) = ∑y/p(y)>0

yp(y).

Definicion: Diremos que una funcion a valores reales g es una funcion de lav.a. Y si RY ⊆ Dom(g).Ejemplo 2: Sea Y una v.a.d. que asume los valores −1, 0 y 1 conprobabilidad 1

3 cada uno, y sea p(y) su funcion de probabilidad. Sea g(x) = x2

y p∗(y) su funcion de probabilidad.g(Y) es una v.a. que asume los valores 0 y 1 con probabilidad:p∗(0) = P(g(Y) = 0) = 1

3 y p∗(1) = P(g(Y) = 1) = 23 .

VARIABLE ALEATORIA

E(g(Y)) = 0.p∗(0)+1.p∗(1)

= 23 .

TEOREMA

Sea Y una v.a.d. con funcion de probabilidad p(y) y sea g(Y) una funcion deY, entonces:

E(g(Y)) = ∑y/p(y)>0

g(y)p(y).

En el ejemplo 2,

E(g(Y)) = g(−1)p(−1)+g(0)p(0)+g(1)p(1) = 1. 13 +0. 1

3 +1. 13 = 2

3 .

VARIABLE ALEATORIA

E(g(Y)) = 0.p∗(0)+1.p∗(1) = 23 .

TEOREMA

Sea Y una v.a.d. con funcion de probabilidad p(y) y sea g(Y) una funcion deY, entonces:

E(g(Y)) = ∑y/p(y)>0

g(y)p(y).

En el ejemplo 2,

E(g(Y)) = g(−1)p(−1)+g(0)p(0)+g(1)p(1) = 1. 13 +0. 1

3 +1. 13 = 2

3 .

VARIABLE ALEATORIA

E(g(Y)) = 0.p∗(0)+1.p∗(1) = 23 .

TEOREMA

Sea Y una v.a.d. con funcion de probabilidad p(y) y sea g(Y) una funcion deY, entonces:

E(g(Y)) = ∑y/p(y)>0

g(y)p(y).

En el ejemplo 2,

E(g(Y)) = g(−1)p(−1)+g(0)p(0)+g(1)p(1) = 1. 13 +0. 1

3 +1. 13 = 2

3 .

VARIABLE ALEATORIA

E(g(Y)) = 0.p∗(0)+1.p∗(1) = 23 .

TEOREMA

Sea Y una v.a.d. con funcion de probabilidad p(y) y sea g(Y) una funcion deY, entonces:

E(g(Y)) = ∑y/p(y)>0

g(y)p(y).

En el ejemplo 2,

E(g(Y)) = g(−1)p(−1)+g(0)p(0)+g(1)p(1)

= 1. 13 +0. 1

3 +1. 13 = 2

3 .

VARIABLE ALEATORIA

E(g(Y)) = 0.p∗(0)+1.p∗(1) = 23 .

TEOREMA

Sea Y una v.a.d. con funcion de probabilidad p(y) y sea g(Y) una funcion deY, entonces:

E(g(Y)) = ∑y/p(y)>0

g(y)p(y).

En el ejemplo 2,

E(g(Y)) = g(−1)p(−1)+g(0)p(0)+g(1)p(1) = 1. 13 +0. 1

3 +1. 13

= 23 .

VARIABLE ALEATORIA

E(g(Y)) = 0.p∗(0)+1.p∗(1) = 23 .

TEOREMA

Sea Y una v.a.d. con funcion de probabilidad p(y) y sea g(Y) una funcion deY, entonces:

E(g(Y)) = ∑y/p(y)>0

g(y)p(y).

En el ejemplo 2,

E(g(Y)) = g(−1)p(−1)+g(0)p(0)+g(1)p(1) = 1. 13 +0. 1

3 +1. 13 = 2

3 .

VARIABLE ALEATORIA

Definicion: La varianza de una v.a. Y se define como el valor esperado de(Y−E(Y))2.

Es decir,V(Y) = E

((Y−E(Y))2

).

La desviacion estandar de Y es la raız cuadrada positiva de V(Y).

En el ejemplo 1,

V(Y) = E((Y−E(Y))2

)=

3∑

i=0(i− 3

2 )2.p(i) = 15

28 .

VARIABLE ALEATORIA

Definicion: La varianza de una v.a. Y se define como el valor esperado de(Y−E(Y))2. Es decir,

V(Y) = E((Y−E(Y))2

).

La desviacion estandar de Y es la raız cuadrada positiva de V(Y).

En el ejemplo 1,

V(Y) = E((Y−E(Y))2

)=

3∑

i=0(i− 3

2 )2.p(i) = 15

28 .

VARIABLE ALEATORIA

Definicion: La varianza de una v.a. Y se define como el valor esperado de(Y−E(Y))2. Es decir,

V(Y) = E((Y−E(Y))2

).

La desviacion estandar de Y es la raız cuadrada positiva de V(Y).

En el ejemplo 1,

V(Y) = E((Y−E(Y))2

)=

3∑

i=0(i− 3

2 )2.p(i) = 15

28 .

VARIABLE ALEATORIA

Definicion: La varianza de una v.a. Y se define como el valor esperado de(Y−E(Y))2. Es decir,

V(Y) = E((Y−E(Y))2

).

La desviacion estandar de Y es la raız cuadrada positiva de V(Y).

En el ejemplo 1,

V(Y) = E((Y−E(Y))2

)

=3∑

i=0(i− 3

2 )2.p(i) = 15

28 .

VARIABLE ALEATORIA

Definicion: La varianza de una v.a. Y se define como el valor esperado de(Y−E(Y))2. Es decir,

V(Y) = E((Y−E(Y))2

).

La desviacion estandar de Y es la raız cuadrada positiva de V(Y).

En el ejemplo 1,

V(Y) = E((Y−E(Y))2

)=

3∑

i=0(i− 3

2 )2.p(i)

= 1528 .

VARIABLE ALEATORIA

Definicion: La varianza de una v.a. Y se define como el valor esperado de(Y−E(Y))2. Es decir,

V(Y) = E((Y−E(Y))2

).

La desviacion estandar de Y es la raız cuadrada positiva de V(Y).

En el ejemplo 1,

V(Y) = E((Y−E(Y))2

)=

3∑

i=0(i− 3

2 )2.p(i) = 15

28 .

VARIABLE ALEATORIA

TEOREMA

Sea Y una v.a.d. con funcion de probabilidad p(y), entonces:

1 Si c ∈ R, E(c) = c.

2 Si g(Y) una funcion de Y y c ∈ R, entonces

E (c.g(Y)) = c.E (g(Y)) .

3 Si g1(Y),g2(Y), . . . ,gk(Y) son k funciones de Y con k ∈ N, entonces

E

(k

∑i=1

gi(Y)

)=

k

∑i=1

E (gi(Y)) .

4 V(Y) = E(Y2)−(E(Y)2

).

DISTRIBUCION BINOMIAL

Ejemplo 3: Supongamos que los artıculos que salen de una lınea de produccion secalifican en defectuosos (D) y correctos (C). Se seleccionan al azar tres artıculos dela produccion de un dıa.

El espacio muestral es

S = {CCC,CCD,CDC,CDD,DCC,DCD,DDC,DDD}.

Supongamos que un artıculo es defectuoso con probabilidad 0,2 y correcto conprobabilidad 0,8. Ademas, supongamos que la clasificacion de un artıculo esindependiente de la clasificacion de los restantes y que las probabilidades anterioresse mantienen para todos los artıculos.

P(CCC) = (0,8)3, P(CCD) = (0,8)2(0,2), P(CDC) = (0,8)2(0,2), P(CDD) = (0,8).(0,2)2,

P(DCC) = (0,2).(0,8)2, P(DCD) = (0,2)2(0,8), P(DDC) = (0,2)2(0,8), P(DDD) = (0,2)3.

Nos interesa la cantidad de artıculos defectuosos seleccionados.Sea X la v.a. que asigna a cada punto muestral s ∈ S la cantidad de artıculosdefectuosos en s.

RX = {0,1,2,3}.

p(0) = (0,8)3, p(1) = 3.(0,8)2(0,2),

p(2) = 3(0,2)2(0,8), p(3) = (0,2)3.

DISTRIBUCION BINOMIAL

Ejemplo 3: Supongamos que los artıculos que salen de una lınea de produccion secalifican en defectuosos (D) y correctos (C). Se seleccionan al azar tres artıculos dela produccion de un dıa.El espacio muestral es

S = {CCC,CCD,CDC,CDD,DCC,DCD,DDC,DDD}.

Supongamos que un artıculo es defectuoso con probabilidad 0,2 y correcto conprobabilidad 0,8. Ademas, supongamos que la clasificacion de un artıculo esindependiente de la clasificacion de los restantes y que las probabilidades anterioresse mantienen para todos los artıculos.

P(CCC) = (0,8)3, P(CCD) = (0,8)2(0,2), P(CDC) = (0,8)2(0,2), P(CDD) = (0,8).(0,2)2,

P(DCC) = (0,2).(0,8)2, P(DCD) = (0,2)2(0,8), P(DDC) = (0,2)2(0,8), P(DDD) = (0,2)3.

Nos interesa la cantidad de artıculos defectuosos seleccionados.Sea X la v.a. que asigna a cada punto muestral s ∈ S la cantidad de artıculosdefectuosos en s.

RX = {0,1,2,3}.

p(0) = (0,8)3, p(1) = 3.(0,8)2(0,2),

p(2) = 3(0,2)2(0,8), p(3) = (0,2)3.

DISTRIBUCION BINOMIAL

Ejemplo 3: Supongamos que los artıculos que salen de una lınea de produccion secalifican en defectuosos (D) y correctos (C). Se seleccionan al azar tres artıculos dela produccion de un dıa.El espacio muestral es

S = {CCC,CCD,CDC,CDD,DCC,DCD,DDC,DDD}.

Supongamos que un artıculo es defectuoso con probabilidad 0,2 y correcto conprobabilidad 0,8. Ademas, supongamos que la clasificacion de un artıculo esindependiente de la clasificacion de los restantes y que las probabilidades anterioresse mantienen para todos los artıculos.

P(CCC) = (0,8)3, P(CCD) = (0,8)2(0,2), P(CDC) = (0,8)2(0,2), P(CDD) = (0,8).(0,2)2,

P(DCC) = (0,2).(0,8)2, P(DCD) = (0,2)2(0,8), P(DDC) = (0,2)2(0,8), P(DDD) = (0,2)3.

Nos interesa la cantidad de artıculos defectuosos seleccionados.Sea X la v.a. que asigna a cada punto muestral s ∈ S la cantidad de artıculosdefectuosos en s.

RX = {0,1,2,3}.

p(0) = (0,8)3, p(1) = 3.(0,8)2(0,2),

p(2) = 3(0,2)2(0,8), p(3) = (0,2)3.

DISTRIBUCION BINOMIAL

Ejemplo 3: Supongamos que los artıculos que salen de una lınea de produccion secalifican en defectuosos (D) y correctos (C). Se seleccionan al azar tres artıculos dela produccion de un dıa.El espacio muestral es

S = {CCC,CCD,CDC,CDD,DCC,DCD,DDC,DDD}.

Supongamos que un artıculo es defectuoso con probabilidad 0,2 y correcto conprobabilidad 0,8. Ademas, supongamos que la clasificacion de un artıculo esindependiente de la clasificacion de los restantes y que las probabilidades anterioresse mantienen para todos los artıculos.

P(CCC) = (0,8)3, P(CCD) = (0,8)2(0,2), P(CDC) = (0,8)2(0,2), P(CDD) = (0,8).(0,2)2,

P(DCC) = (0,2).(0,8)2, P(DCD) = (0,2)2(0,8), P(DDC) = (0,2)2(0,8), P(DDD) = (0,2)3.

Nos interesa la cantidad de artıculos defectuosos seleccionados.Sea X la v.a. que asigna a cada punto muestral s ∈ S la cantidad de artıculosdefectuosos en s.

RX = {0,1,2,3}.

p(0) = (0,8)3, p(1) = 3.(0,8)2(0,2),

p(2) = 3(0,2)2(0,8), p(3) = (0,2)3.

DISTRIBUCION BINOMIAL

Ejemplo 3: Supongamos que los artıculos que salen de una lınea de produccion secalifican en defectuosos (D) y correctos (C). Se seleccionan al azar tres artıculos dela produccion de un dıa.El espacio muestral es

S = {CCC,CCD,CDC,CDD,DCC,DCD,DDC,DDD}.

Supongamos que un artıculo es defectuoso con probabilidad 0,2 y correcto conprobabilidad 0,8. Ademas, supongamos que la clasificacion de un artıculo esindependiente de la clasificacion de los restantes y que las probabilidades anterioresse mantienen para todos los artıculos.

P(CCC) = (0,8)3, P(CCD) = (0,8)2(0,2), P(CDC) = (0,8)2(0,2), P(CDD) = (0,8).(0,2)2,

P(DCC) = (0,2).(0,8)2, P(DCD) = (0,2)2(0,8), P(DDC) = (0,2)2(0,8), P(DDD) = (0,2)3.

Nos interesa la cantidad de artıculos defectuosos seleccionados.

Sea X la v.a. que asigna a cada punto muestral s ∈ S la cantidad de artıculosdefectuosos en s.

RX = {0,1,2,3}.

p(0) = (0,8)3, p(1) = 3.(0,8)2(0,2),

p(2) = 3(0,2)2(0,8), p(3) = (0,2)3.

DISTRIBUCION BINOMIAL

Ejemplo 3: Supongamos que los artıculos que salen de una lınea de produccion secalifican en defectuosos (D) y correctos (C). Se seleccionan al azar tres artıculos dela produccion de un dıa.El espacio muestral es

S = {CCC,CCD,CDC,CDD,DCC,DCD,DDC,DDD}.

Supongamos que un artıculo es defectuoso con probabilidad 0,2 y correcto conprobabilidad 0,8. Ademas, supongamos que la clasificacion de un artıculo esindependiente de la clasificacion de los restantes y que las probabilidades anterioresse mantienen para todos los artıculos.

P(CCC) = (0,8)3, P(CCD) = (0,8)2(0,2), P(CDC) = (0,8)2(0,2), P(CDD) = (0,8).(0,2)2,

P(DCC) = (0,2).(0,8)2, P(DCD) = (0,2)2(0,8), P(DDC) = (0,2)2(0,8), P(DDD) = (0,2)3.

Nos interesa la cantidad de artıculos defectuosos seleccionados.Sea X la v.a. que asigna a cada punto muestral s ∈ S la cantidad de artıculosdefectuosos en s.

RX = {0,1,2,3}.

p(0) = (0,8)3, p(1) = 3.(0,8)2(0,2),

p(2) = 3(0,2)2(0,8), p(3) = (0,2)3.

DISTRIBUCION BINOMIAL

Ejemplo 3: Supongamos que los artıculos que salen de una lınea de produccion secalifican en defectuosos (D) y correctos (C). Se seleccionan al azar tres artıculos dela produccion de un dıa.El espacio muestral es

S = {CCC,CCD,CDC,CDD,DCC,DCD,DDC,DDD}.

Supongamos que un artıculo es defectuoso con probabilidad 0,2 y correcto conprobabilidad 0,8. Ademas, supongamos que la clasificacion de un artıculo esindependiente de la clasificacion de los restantes y que las probabilidades anterioresse mantienen para todos los artıculos.

P(CCC) = (0,8)3, P(CCD) = (0,8)2(0,2), P(CDC) = (0,8)2(0,2), P(CDD) = (0,8).(0,2)2,

P(DCC) = (0,2).(0,8)2, P(DCD) = (0,2)2(0,8), P(DDC) = (0,2)2(0,8), P(DDD) = (0,2)3.

Nos interesa la cantidad de artıculos defectuosos seleccionados.Sea X la v.a. que asigna a cada punto muestral s ∈ S la cantidad de artıculosdefectuosos en s.

RX = {0,1,2,3}.

p(0) = (0,8)3, p(1) = 3.(0,8)2(0,2),

p(2) = 3(0,2)2(0,8), p(3) = (0,2)3.

DISTRIBUCION BINOMIAL

Ejemplo 3: Supongamos que los artıculos que salen de una lınea de produccion secalifican en defectuosos (D) y correctos (C). Se seleccionan al azar tres artıculos dela produccion de un dıa.El espacio muestral es

S = {CCC,CCD,CDC,CDD,DCC,DCD,DDC,DDD}.

Supongamos que un artıculo es defectuoso con probabilidad 0,2 y correcto conprobabilidad 0,8. Ademas, supongamos que la clasificacion de un artıculo esindependiente de la clasificacion de los restantes y que las probabilidades anterioresse mantienen para todos los artıculos.

P(CCC) = (0,8)3, P(CCD) = (0,8)2(0,2), P(CDC) = (0,8)2(0,2), P(CDD) = (0,8).(0,2)2,

P(DCC) = (0,2).(0,8)2, P(DCD) = (0,2)2(0,8), P(DDC) = (0,2)2(0,8), P(DDD) = (0,2)3.

Nos interesa la cantidad de artıculos defectuosos seleccionados.Sea X la v.a. que asigna a cada punto muestral s ∈ S la cantidad de artıculosdefectuosos en s.

RX = {0,1,2,3}.

p(0) = (0,8)3, p(1) = 3.(0,8)2(0,2),

p(2) = 3(0,2)2(0,8), p(3) = (0,2)3.

DISTRIBUCION BINOMIAL

Muchos experimentos aleatorios satisfacen las siguientes condiciones:

1 El experimento consiste de n pruebas, para n ∈ N fijo.

2 Las pruebas son identicas y hay solo dos resultados posibles, quedenominaremos exito (E) y fracaso (F). Una prueba de este tipo se denomina deensayo de Bernoulli.

3 Las pruebas son independientes (el resultado de una prueba no influye sobre elresultado de las restantes).

4 La probabilidad de exito P(E) = p permanece constante en todas las pruebas.

Un experimento que satisface estas 4 condiciones se denomina experimentobinomial.

Ejemplos:1 Lanzar una moneda n veces y el exito es el suceso se obtiene cara.

2 Arrojar un dado n veces y el exito es el suceso se obtiene un numero non(impar).

3 Se extraen cuatro fichas con reposicion de una urna con ocho fichas negras ycinco blancas. El exito es el suceso la ficha extraıda es blanca.

4 ¿Que ocurre si el ejemplo anterior es sin reposicion?

DISTRIBUCION BINOMIAL

Muchos experimentos aleatorios satisfacen las siguientes condiciones:

1 El experimento consiste de n pruebas, para n ∈ N fijo.

2 Las pruebas son identicas y hay solo dos resultados posibles, quedenominaremos exito (E) y fracaso (F). Una prueba de este tipo se denomina deensayo de Bernoulli.

3 Las pruebas son independientes (el resultado de una prueba no influye sobre elresultado de las restantes).

4 La probabilidad de exito P(E) = p permanece constante en todas las pruebas.

Un experimento que satisface estas 4 condiciones se denomina experimentobinomial.

Ejemplos:1 Lanzar una moneda n veces y el exito es el suceso se obtiene cara.

2 Arrojar un dado n veces y el exito es el suceso se obtiene un numero non(impar).

3 Se extraen cuatro fichas con reposicion de una urna con ocho fichas negras ycinco blancas. El exito es el suceso la ficha extraıda es blanca.

4 ¿Que ocurre si el ejemplo anterior es sin reposicion?

DISTRIBUCION BINOMIAL

Muchos experimentos aleatorios satisfacen las siguientes condiciones:

1 El experimento consiste de n pruebas, para n ∈ N fijo.

2 Las pruebas son identicas y hay solo dos resultados posibles, quedenominaremos exito (E) y fracaso (F). Una prueba de este tipo se denomina deensayo de Bernoulli.

3 Las pruebas son independientes (el resultado de una prueba no influye sobre elresultado de las restantes).

4 La probabilidad de exito P(E) = p permanece constante en todas las pruebas.

Un experimento que satisface estas 4 condiciones se denomina experimentobinomial.

Ejemplos:1 Lanzar una moneda n veces y el exito es el suceso se obtiene cara.

2 Arrojar un dado n veces y el exito es el suceso se obtiene un numero non(impar).

3 Se extraen cuatro fichas con reposicion de una urna con ocho fichas negras ycinco blancas. El exito es el suceso la ficha extraıda es blanca.

4 ¿Que ocurre si el ejemplo anterior es sin reposicion?

DISTRIBUCION BINOMIAL

Muchos experimentos aleatorios satisfacen las siguientes condiciones:

1 El experimento consiste de n pruebas, para n ∈ N fijo.

2 Las pruebas son identicas y hay solo dos resultados posibles, quedenominaremos exito (E) y fracaso (F). Una prueba de este tipo se denomina deensayo de Bernoulli.

3 Las pruebas son independientes (el resultado de una prueba no influye sobre elresultado de las restantes).

4 La probabilidad de exito P(E) = p permanece constante en todas las pruebas.

Un experimento que satisface estas 4 condiciones se denomina experimentobinomial.

Ejemplos:1 Lanzar una moneda n veces y el exito es el suceso se obtiene cara.

2 Arrojar un dado n veces y el exito es el suceso se obtiene un numero non(impar).

3 Se extraen cuatro fichas con reposicion de una urna con ocho fichas negras ycinco blancas. El exito es el suceso la ficha extraıda es blanca.

4 ¿Que ocurre si el ejemplo anterior es sin reposicion?

DISTRIBUCION BINOMIAL

Muchos experimentos aleatorios satisfacen las siguientes condiciones:

1 El experimento consiste de n pruebas, para n ∈ N fijo.

2 Las pruebas son identicas y hay solo dos resultados posibles, quedenominaremos exito (E) y fracaso (F). Una prueba de este tipo se denomina deensayo de Bernoulli.

3 Las pruebas son independientes (el resultado de una prueba no influye sobre elresultado de las restantes).

4 La probabilidad de exito P(E) = p permanece constante en todas las pruebas.

Un experimento que satisface estas 4 condiciones se denomina experimentobinomial.

Ejemplos:1 Lanzar una moneda n veces y el exito es el suceso se obtiene cara.

2 Arrojar un dado n veces y el exito es el suceso se obtiene un numero non(impar).

3 Se extraen cuatro fichas con reposicion de una urna con ocho fichas negras ycinco blancas. El exito es el suceso la ficha extraıda es blanca.

4 ¿Que ocurre si el ejemplo anterior es sin reposicion?

DISTRIBUCION BINOMIAL

Muchos experimentos aleatorios satisfacen las siguientes condiciones:

1 El experimento consiste de n pruebas, para n ∈ N fijo.

2 Las pruebas son identicas y hay solo dos resultados posibles, quedenominaremos exito (E) y fracaso (F). Una prueba de este tipo se denomina deensayo de Bernoulli.

3 Las pruebas son independientes (el resultado de una prueba no influye sobre elresultado de las restantes).

4 La probabilidad de exito P(E) = p permanece constante en todas las pruebas.

Un experimento que satisface estas 4 condiciones se denomina experimentobinomial.

Ejemplos:1 Lanzar una moneda n veces y el exito es el suceso se obtiene cara.

2 Arrojar un dado n veces y el exito es el suceso se obtiene un numero non(impar).

3 Se extraen cuatro fichas con reposicion de una urna con ocho fichas negras ycinco blancas. El exito es el suceso la ficha extraıda es blanca.

4 ¿Que ocurre si el ejemplo anterior es sin reposicion?

DISTRIBUCION BINOMIAL

Muchos experimentos aleatorios satisfacen las siguientes condiciones:

1 El experimento consiste de n pruebas, para n ∈ N fijo.

2 Las pruebas son identicas y hay solo dos resultados posibles, quedenominaremos exito (E) y fracaso (F). Una prueba de este tipo se denomina deensayo de Bernoulli.

3 Las pruebas son independientes (el resultado de una prueba no influye sobre elresultado de las restantes).

4 La probabilidad de exito P(E) = p permanece constante en todas las pruebas.

Un experimento que satisface estas 4 condiciones se denomina experimentobinomial.

Ejemplos:1 Lanzar una moneda n veces y el exito es el suceso se obtiene cara.

2 Arrojar un dado n veces y el exito es el suceso se obtiene un numero non(impar).

3 Se extraen cuatro fichas con reposicion de una urna con ocho fichas negras ycinco blancas. El exito es el suceso la ficha extraıda es blanca.

4 ¿Que ocurre si el ejemplo anterior es sin reposicion?

DISTRIBUCION BINOMIAL

Muchos experimentos aleatorios satisfacen las siguientes condiciones:

1 El experimento consiste de n pruebas, para n ∈ N fijo.

2 Las pruebas son identicas y hay solo dos resultados posibles, quedenominaremos exito (E) y fracaso (F). Una prueba de este tipo se denomina deensayo de Bernoulli.

3 Las pruebas son independientes (el resultado de una prueba no influye sobre elresultado de las restantes).

4 La probabilidad de exito P(E) = p permanece constante en todas las pruebas.

Un experimento que satisface estas 4 condiciones se denomina experimentobinomial.

Ejemplos:1 Lanzar una moneda n veces y el exito es el suceso se obtiene cara.

2 Arrojar un dado n veces y el exito es el suceso se obtiene un numero non(impar).

3 Se extraen cuatro fichas con reposicion de una urna con ocho fichas negras ycinco blancas. El exito es el suceso la ficha extraıda es blanca.

4 ¿Que ocurre si el ejemplo anterior es sin reposicion?

DISTRIBUCION BINOMIAL

Muchos experimentos aleatorios satisfacen las siguientes condiciones:

1 El experimento consiste de n pruebas, para n ∈ N fijo.

2 Las pruebas son identicas y hay solo dos resultados posibles, quedenominaremos exito (E) y fracaso (F). Una prueba de este tipo se denomina deensayo de Bernoulli.

3 Las pruebas son independientes (el resultado de una prueba no influye sobre elresultado de las restantes).

4 La probabilidad de exito P(E) = p permanece constante en todas las pruebas.

Un experimento que satisface estas 4 condiciones se denomina experimentobinomial.

Ejemplos:1 Lanzar una moneda n veces y el exito es el suceso se obtiene cara.

2 Arrojar un dado n veces y el exito es el suceso se obtiene un numero non(impar).

3 Se extraen cuatro fichas con reposicion de una urna con ocho fichas negras ycinco blancas. El exito es el suceso la ficha extraıda es blanca.

4 ¿Que ocurre si el ejemplo anterior es sin reposicion?

VARIABLE ALEATORIA BINOMIAL

Definicion: Consideremos un experimento binomial con n repeticiones yP(E) = p. Se denomina v.a. binomial a la v.a.X: numero de exitos en las n repeticiones.Notacion: X ∼ Bi(n,p).

PROPOSICION

Si X ∼ Bi(n,p) entonces

P(X = k) =(

nk

)pk(1−p)n−k.

Ejemplo 3: Supongamos que un tubo de radio colocado en cierto equipotiene una probabilidad de 0,2 de funcionar mas de 100 horas. Si probamos20 tubos, ¿cual es la probabilidad de que exactamente k de ellos funcionenmas de 100 horas?

k = 0 1 2 3 4 5 6 7 8 9 10 11 a 20p(k) 0.012 0.057 0.137 0.205 0.219 0.174 0.109 0.055 0.022 0.007 0.002 < 0,001

VARIABLE ALEATORIA BINOMIAL

Definicion: Consideremos un experimento binomial con n repeticiones yP(E) = p. Se denomina v.a. binomial a la v.a.X: numero de exitos en las n repeticiones.Notacion: X ∼ Bi(n,p).

PROPOSICION

Si X ∼ Bi(n,p) entonces

P(X = k) =(

nk

)pk(1−p)n−k.

Ejemplo 3: Supongamos que un tubo de radio colocado en cierto equipotiene una probabilidad de 0,2 de funcionar mas de 100 horas. Si probamos20 tubos, ¿cual es la probabilidad de que exactamente k de ellos funcionenmas de 100 horas?

k = 0 1 2 3 4 5 6 7 8 9 10 11 a 20p(k) 0.012 0.057 0.137 0.205 0.219 0.174 0.109 0.055 0.022 0.007 0.002 < 0,001

VARIABLE ALEATORIA BINOMIAL

Definicion: Consideremos un experimento binomial con n repeticiones yP(E) = p. Se denomina v.a. binomial a la v.a.X: numero de exitos en las n repeticiones.Notacion: X ∼ Bi(n,p).

PROPOSICION

Si X ∼ Bi(n,p) entonces

P(X = k) =(

nk

)pk(1−p)n−k.

Ejemplo 3: Supongamos que un tubo de radio colocado en cierto equipotiene una probabilidad de 0,2 de funcionar mas de 100 horas. Si probamos20 tubos, ¿cual es la probabilidad de que exactamente k de ellos funcionenmas de 100 horas?

k = 0 1 2 3 4 5 6 7 8 9 10 11 a 20p(k) 0.012 0.057 0.137 0.205 0.219 0.174 0.109 0.055 0.022 0.007 0.002 < 0,001

VARIABLE ALEATORIA BINOMIAL

Definicion: Consideremos un experimento binomial con n repeticiones yP(E) = p. Se denomina v.a. binomial a la v.a.X: numero de exitos en las n repeticiones.Notacion: X ∼ Bi(n,p).

PROPOSICION

Si X ∼ Bi(n,p) entonces

P(X = k) =(

nk

)pk(1−p)n−k.

Ejemplo 3: Supongamos que un tubo de radio colocado en cierto equipotiene una probabilidad de 0,2 de funcionar mas de 100 horas. Si probamos20 tubos, ¿cual es la probabilidad de que exactamente k de ellos funcionenmas de 100 horas?

k = 0 1 2 3 4 5 6 7 8 9 10 11 a 20p(k) 0.012 0.057 0.137 0.205 0.219 0.174 0.109 0.055 0.022 0.007 0.002 < 0,001

VARIABLE ALEATORIA BINOMIAL

TEOREMA

Sea X ∼ Bi(n,p). Entonces

E(X) = np y V(X) = np(1−p).

En el ejemplo 3, E(X) = np = 20.(0,2) = 4 y V(X) = 20.(0,2).(0,8) = 3,2.

VARIABLE ALEATORIA BINOMIAL

TEOREMA

Sea X ∼ Bi(n,p). Entonces

E(X) = np y V(X) = np(1−p).

En el ejemplo 3, E(X) = np = 20.(0,2) = 4 y V(X) = 20.(0,2).(0,8) = 3,2.

DISTRIBUCION GEOMETRICA

Supongamos que se repiten en forma independiente ensayos de Bernoullicon probabilidad de exito p (0 < p < 1) constante de un ensayo a otro.

X: numero de ensayos hasta obtener el primer exito.

E1 : E,

E2 : FE,

E3 : FFE,......Ek : FF . . .F︸ ︷︷ ︸

k−1

E,

Dado que los ensayos son independientes resulta

p(k) = P(X = k) = P(Ek) = P(FF . . .F︸ ︷︷ ︸k−1

E) = (1−p)k−1p, k ∈ N.

DISTRIBUCION GEOMETRICA

Supongamos que se repiten en forma independiente ensayos de Bernoullicon probabilidad de exito p (0 < p < 1) constante de un ensayo a otro.

X: numero de ensayos hasta obtener el primer exito.

E1 : E,

E2 : FE,

E3 : FFE,......Ek : FF . . .F︸ ︷︷ ︸

k−1

E,

Dado que los ensayos son independientes resulta

p(k) = P(X = k) = P(Ek) = P(FF . . .F︸ ︷︷ ︸k−1

E) = (1−p)k−1p, k ∈ N.

DISTRIBUCION GEOMETRICA

Supongamos que se repiten en forma independiente ensayos de Bernoullicon probabilidad de exito p (0 < p < 1) constante de un ensayo a otro.

X: numero de ensayos hasta obtener el primer exito.

E1 : E,

E2 : FE,

E3 : FFE,......Ek : FF . . .F︸ ︷︷ ︸

k−1

E,

Dado que los ensayos son independientes resulta

p(k) = P(X = k) = P(Ek) = P(FF . . .F︸ ︷︷ ︸k−1

E) = (1−p)k−1p, k ∈ N.

DISTRIBUCION GEOMETRICA

Supongamos que se repiten en forma independiente ensayos de Bernoullicon probabilidad de exito p (0 < p < 1) constante de un ensayo a otro.

X: numero de ensayos hasta obtener el primer exito.

E1 : E,

E2 : FE,

E3 : FFE,......Ek : FF . . .F︸ ︷︷ ︸

k−1

E,

Dado que los ensayos son independientes resulta

p(k) = P(X = k) = P(Ek) = P(FF . . .F︸ ︷︷ ︸k−1

E) = (1−p)k−1p, k ∈ N.

DISTRIBUCION GEOMETRICA

Supongamos que se repiten en forma independiente ensayos de Bernoullicon probabilidad de exito p (0 < p < 1) constante de un ensayo a otro.

X: numero de ensayos hasta obtener el primer exito.

E1 : E,

E2 : FE,

E3 : FFE,

...

...Ek : FF . . .F︸ ︷︷ ︸

k−1

E,

Dado que los ensayos son independientes resulta

p(k) = P(X = k) = P(Ek) = P(FF . . .F︸ ︷︷ ︸k−1

E) = (1−p)k−1p, k ∈ N.

DISTRIBUCION GEOMETRICA

Supongamos que se repiten en forma independiente ensayos de Bernoullicon probabilidad de exito p (0 < p < 1) constante de un ensayo a otro.

X: numero de ensayos hasta obtener el primer exito.

E1 : E,

E2 : FE,

E3 : FFE,......Ek : FF . . .F︸ ︷︷ ︸

k−1

E,

Dado que los ensayos son independientes resulta

p(k) = P(X = k) = P(Ek) = P(FF . . .F︸ ︷︷ ︸k−1

E) = (1−p)k−1p, k ∈ N.

DISTRIBUCION GEOMETRICA

Supongamos que se repiten en forma independiente ensayos de Bernoullicon probabilidad de exito p (0 < p < 1) constante de un ensayo a otro.

X: numero de ensayos hasta obtener el primer exito.

E1 : E,

E2 : FE,

E3 : FFE,......Ek : FF . . .F︸ ︷︷ ︸

k−1

E,

Dado que los ensayos son independientes resulta

p(k) = P(X = k) = P(Ek) = P(FF . . .F︸ ︷︷ ︸k−1

E) = (1−p)k−1p, k ∈ N.

DISTRIBUCION GEOMETRICA

Definicion: Una v.a. X tiene distribucion de probabilidad geometrica si

p(k) = (1−p)k−1p, ∀k ∈ N.

Notacion: X ∼ Geo(p).

Ejemplo 4: Supongamos que la probabilidad de acertar a un blanco es dep = 0,02. Hallar la probabilidad de que debamos realizar mas de 2lanzamientos para acertar.

X: numero de lanzamientos hasta obtener el primer acierto.

P(X ≥ 3) = 0,9604.

TEOREMA

Sea X ∼ Geo(p) con 0 < p < 1. Entonces

E(X) =1p

y V(X) =1−p

p2 .

DISTRIBUCION GEOMETRICA

Definicion: Una v.a. X tiene distribucion de probabilidad geometrica si

p(k) = (1−p)k−1p, ∀k ∈ N.

Notacion: X ∼ Geo(p).

Ejemplo 4: Supongamos que la probabilidad de acertar a un blanco es dep = 0,02. Hallar la probabilidad de que debamos realizar mas de 2lanzamientos para acertar.

X: numero de lanzamientos hasta obtener el primer acierto.

P(X ≥ 3) = 0,9604.

TEOREMA

Sea X ∼ Geo(p) con 0 < p < 1. Entonces

E(X) =1p

y V(X) =1−p

p2 .

DISTRIBUCION GEOMETRICA

Definicion: Una v.a. X tiene distribucion de probabilidad geometrica si

p(k) = (1−p)k−1p, ∀k ∈ N.

Notacion: X ∼ Geo(p).

Ejemplo 4: Supongamos que la probabilidad de acertar a un blanco es dep = 0,02. Hallar la probabilidad de que debamos realizar mas de 2lanzamientos para acertar.

X: numero de lanzamientos hasta obtener el primer acierto.

P(X ≥ 3) = 0,9604.

TEOREMA

Sea X ∼ Geo(p) con 0 < p < 1. Entonces

E(X) =1p

y V(X) =1−p

p2 .

DISTRIBUCION GEOMETRICA

Definicion: Una v.a. X tiene distribucion de probabilidad geometrica si

p(k) = (1−p)k−1p, ∀k ∈ N.

Notacion: X ∼ Geo(p).

Ejemplo 4: Supongamos que la probabilidad de acertar a un blanco es dep = 0,02. Hallar la probabilidad de que debamos realizar mas de 2lanzamientos para acertar.

X: numero de lanzamientos hasta obtener el primer acierto.

P(X ≥ 3) = 0,9604.

TEOREMA

Sea X ∼ Geo(p) con 0 < p < 1. Entonces

E(X) =1p

y V(X) =1−p

p2 .

DISTRIBUCION GEOMETRICA

Definicion: Una v.a. X tiene distribucion de probabilidad geometrica si

p(k) = (1−p)k−1p, ∀k ∈ N.

Notacion: X ∼ Geo(p).

Ejemplo 4: Supongamos que la probabilidad de acertar a un blanco es dep = 0,02. Hallar la probabilidad de que debamos realizar mas de 2lanzamientos para acertar.

X: numero de lanzamientos hasta obtener el primer acierto.

P(X ≥ 3) = 0,9604.

TEOREMA

Sea X ∼ Geo(p) con 0 < p < 1. Entonces

E(X) =1p

y V(X) =1−p

p2 .

DISTRIBUCION GEOMETRICA

Definicion: Una v.a. X tiene distribucion de probabilidad geometrica si

p(k) = (1−p)k−1p, ∀k ∈ N.

Notacion: X ∼ Geo(p).

Ejemplo 4: Supongamos que la probabilidad de acertar a un blanco es dep = 0,02. Hallar la probabilidad de que debamos realizar mas de 2lanzamientos para acertar.

X: numero de lanzamientos hasta obtener el primer acierto.

P(X ≥ 3) = 0,9604.

TEOREMA

Sea X ∼ Geo(p) con 0 < p < 1. Entonces

E(X) =1p

y V(X) =1−p

p2 .

DISTRIBUCION GEOMETRICA

PROPOSICION (FALTA DE MEMORIA)Sea X ∼ Geo(p) y m,n ∈ N. Entonces

P(X > n+m|X > n) = P(X > m).

Ejemplo 5: Sea X: numero de tiros hasta obtener el primer 6 en unasucesion de tiros de un dado equilibrado perfecto.X ∼ Geo( 1

6 ).

P(X ≥ 2) = P(X > 1) = 56 .

Supongamos que deseamos conocer la probabilidad de obtener un 6 a partirdel septimo tiro sabiendo que no se obtuvo ningun 6 en los primeros 5 tiros.

P(X ≥ 7|X ≥ 6) = 56 .

DISTRIBUCION GEOMETRICA

PROPOSICION (FALTA DE MEMORIA)Sea X ∼ Geo(p) y m,n ∈ N. Entonces

P(X > n+m|X > n) = P(X > m).

Ejemplo 5: Sea X: numero de tiros hasta obtener el primer 6 en unasucesion de tiros de un dado equilibrado perfecto.

X ∼ Geo( 16 ).

P(X ≥ 2) = P(X > 1) = 56 .

Supongamos que deseamos conocer la probabilidad de obtener un 6 a partirdel septimo tiro sabiendo que no se obtuvo ningun 6 en los primeros 5 tiros.

P(X ≥ 7|X ≥ 6) = 56 .

DISTRIBUCION GEOMETRICA

PROPOSICION (FALTA DE MEMORIA)Sea X ∼ Geo(p) y m,n ∈ N. Entonces

P(X > n+m|X > n) = P(X > m).

Ejemplo 5: Sea X: numero de tiros hasta obtener el primer 6 en unasucesion de tiros de un dado equilibrado perfecto.X ∼ Geo( 1

6 ).

P(X ≥ 2) = P(X > 1) = 56 .

Supongamos que deseamos conocer la probabilidad de obtener un 6 a partirdel septimo tiro sabiendo que no se obtuvo ningun 6 en los primeros 5 tiros.

P(X ≥ 7|X ≥ 6) = 56 .

DISTRIBUCION GEOMETRICA

PROPOSICION (FALTA DE MEMORIA)Sea X ∼ Geo(p) y m,n ∈ N. Entonces

P(X > n+m|X > n) = P(X > m).

Ejemplo 5: Sea X: numero de tiros hasta obtener el primer 6 en unasucesion de tiros de un dado equilibrado perfecto.X ∼ Geo( 1

6 ).

P(X ≥ 2) = P(X > 1) = 56 .

Supongamos que deseamos conocer la probabilidad de obtener un 6 a partirdel septimo tiro sabiendo que no se obtuvo ningun 6 en los primeros 5 tiros.

P(X ≥ 7|X ≥ 6) = 56 .

DISTRIBUCION GEOMETRICA

PROPOSICION (FALTA DE MEMORIA)Sea X ∼ Geo(p) y m,n ∈ N. Entonces

P(X > n+m|X > n) = P(X > m).

Ejemplo 5: Sea X: numero de tiros hasta obtener el primer 6 en unasucesion de tiros de un dado equilibrado perfecto.X ∼ Geo( 1

6 ).

P(X ≥ 2) = P(X > 1) = 56 .

Supongamos que deseamos conocer la probabilidad de obtener un 6 a partirdel septimo tiro sabiendo que no se obtuvo ningun 6 en los primeros 5 tiros.

P(X ≥ 7|X ≥ 6) = 56 .

DISTRIBUCION GEOMETRICA

PROPOSICION (FALTA DE MEMORIA)Sea X ∼ Geo(p) y m,n ∈ N. Entonces

P(X > n+m|X > n) = P(X > m).

Ejemplo 5: Sea X: numero de tiros hasta obtener el primer 6 en unasucesion de tiros de un dado equilibrado perfecto.X ∼ Geo( 1

6 ).

P(X ≥ 2) = P(X > 1) = 56 .

Supongamos que deseamos conocer la probabilidad de obtener un 6 a partirdel septimo tiro sabiendo que no se obtuvo ningun 6 en los primeros 5 tiros.

P(X ≥ 7|X ≥ 6) = 56 .

DISTRIBUCION DE POISSON

Ejemplo 6: En la ciudad de Rosario se registraron aproximadamente 20000nacimientos al ano (dato 2012). Supongamos que en base a esta evidenciadeseamos obtener la probabilidad de 0, 1, 2, . . . nacimientos durante un periodo de 2horas.

Consideremos ademas que en cualquier instante es tan probable que ocurra unnacimiento como en cualquier otro momento.

Para comenzar podrıamos subdividir el intervalo de 2 horas en 12 subintervalos de 10minutos.Consideremos cada uno de estos 12 subint. como un ensayo de Bernoulli para el cualobservamos exactamente un nacimiento (E: exito) o ningun nacimiento (F: fracaso).

P(E) = 20000365·24·6 = 0,38.

De esta forma podrıamos decir que la probabilidad de observar tres nacimientosdurante un intervalo de 2 horas es(12

3)(0,38)3(0,62)9 = 0,163.

La dificultad radica en que desconocemos la posibilidad de que ocurran 2 o masnacimientos en los subintervalos de 10 minutos.Luego, el uso anterior de la distribucion binomial no serıa legıtimo, ya que podemosusar esta distribucion cuando existe una dicotomıa.

DISTRIBUCION DE POISSON

Ejemplo 6: En la ciudad de Rosario se registraron aproximadamente 20000nacimientos al ano (dato 2012). Supongamos que en base a esta evidenciadeseamos obtener la probabilidad de 0, 1, 2, . . . nacimientos durante un periodo de 2horas.Consideremos ademas que en cualquier instante es tan probable que ocurra unnacimiento como en cualquier otro momento.

Para comenzar podrıamos subdividir el intervalo de 2 horas en 12 subintervalos de 10minutos.Consideremos cada uno de estos 12 subint. como un ensayo de Bernoulli para el cualobservamos exactamente un nacimiento (E: exito) o ningun nacimiento (F: fracaso).

P(E) = 20000365·24·6 = 0,38.

De esta forma podrıamos decir que la probabilidad de observar tres nacimientosdurante un intervalo de 2 horas es(12

3)(0,38)3(0,62)9 = 0,163.

La dificultad radica en que desconocemos la posibilidad de que ocurran 2 o masnacimientos en los subintervalos de 10 minutos.Luego, el uso anterior de la distribucion binomial no serıa legıtimo, ya que podemosusar esta distribucion cuando existe una dicotomıa.

DISTRIBUCION DE POISSON

Ejemplo 6: En la ciudad de Rosario se registraron aproximadamente 20000nacimientos al ano (dato 2012). Supongamos que en base a esta evidenciadeseamos obtener la probabilidad de 0, 1, 2, . . . nacimientos durante un periodo de 2horas.Consideremos ademas que en cualquier instante es tan probable que ocurra unnacimiento como en cualquier otro momento.

Para comenzar podrıamos subdividir el intervalo de 2 horas en 12 subintervalos de 10minutos.

Consideremos cada uno de estos 12 subint. como un ensayo de Bernoulli para el cualobservamos exactamente un nacimiento (E: exito) o ningun nacimiento (F: fracaso).

P(E) = 20000365·24·6 = 0,38.

De esta forma podrıamos decir que la probabilidad de observar tres nacimientosdurante un intervalo de 2 horas es(12

3)(0,38)3(0,62)9 = 0,163.

La dificultad radica en que desconocemos la posibilidad de que ocurran 2 o masnacimientos en los subintervalos de 10 minutos.Luego, el uso anterior de la distribucion binomial no serıa legıtimo, ya que podemosusar esta distribucion cuando existe una dicotomıa.

DISTRIBUCION DE POISSON

Ejemplo 6: En la ciudad de Rosario se registraron aproximadamente 20000nacimientos al ano (dato 2012). Supongamos que en base a esta evidenciadeseamos obtener la probabilidad de 0, 1, 2, . . . nacimientos durante un periodo de 2horas.Consideremos ademas que en cualquier instante es tan probable que ocurra unnacimiento como en cualquier otro momento.

Para comenzar podrıamos subdividir el intervalo de 2 horas en 12 subintervalos de 10minutos.Consideremos cada uno de estos 12 subint. como un ensayo de Bernoulli para el cualobservamos exactamente un nacimiento (E: exito) o ningun nacimiento (F: fracaso).

P(E) = 20000365·24·6 = 0,38.

De esta forma podrıamos decir que la probabilidad de observar tres nacimientosdurante un intervalo de 2 horas es(12

3)(0,38)3(0,62)9 = 0,163.

La dificultad radica en que desconocemos la posibilidad de que ocurran 2 o masnacimientos en los subintervalos de 10 minutos.Luego, el uso anterior de la distribucion binomial no serıa legıtimo, ya que podemosusar esta distribucion cuando existe una dicotomıa.

DISTRIBUCION DE POISSON

Ejemplo 6: En la ciudad de Rosario se registraron aproximadamente 20000nacimientos al ano (dato 2012). Supongamos que en base a esta evidenciadeseamos obtener la probabilidad de 0, 1, 2, . . . nacimientos durante un periodo de 2horas.Consideremos ademas que en cualquier instante es tan probable que ocurra unnacimiento como en cualquier otro momento.

Para comenzar podrıamos subdividir el intervalo de 2 horas en 12 subintervalos de 10minutos.Consideremos cada uno de estos 12 subint. como un ensayo de Bernoulli para el cualobservamos exactamente un nacimiento (E: exito) o ningun nacimiento (F: fracaso).

P(E) = 20000365·24·6 = 0,38.

De esta forma podrıamos decir que la probabilidad de observar tres nacimientosdurante un intervalo de 2 horas es(12

3)(0,38)3(0,62)9 = 0,163.

La dificultad radica en que desconocemos la posibilidad de que ocurran 2 o masnacimientos en los subintervalos de 10 minutos.Luego, el uso anterior de la distribucion binomial no serıa legıtimo, ya que podemosusar esta distribucion cuando existe una dicotomıa.

DISTRIBUCION DE POISSON

Ejemplo 6: En la ciudad de Rosario se registraron aproximadamente 20000nacimientos al ano (dato 2012). Supongamos que en base a esta evidenciadeseamos obtener la probabilidad de 0, 1, 2, . . . nacimientos durante un periodo de 2horas.Consideremos ademas que en cualquier instante es tan probable que ocurra unnacimiento como en cualquier otro momento.

Para comenzar podrıamos subdividir el intervalo de 2 horas en 12 subintervalos de 10minutos.Consideremos cada uno de estos 12 subint. como un ensayo de Bernoulli para el cualobservamos exactamente un nacimiento (E: exito) o ningun nacimiento (F: fracaso).

P(E) = 20000365·24·6 = 0,38.

De esta forma podrıamos decir que la probabilidad de observar tres nacimientosdurante un intervalo de 2 horas es(12

3)(0,38)3(0,62)9 = 0,163.

La dificultad radica en que desconocemos la posibilidad de que ocurran 2 o masnacimientos en los subintervalos de 10 minutos.Luego, el uso anterior de la distribucion binomial no serıa legıtimo, ya que podemosusar esta distribucion cuando existe una dicotomıa.

DISTRIBUCION DE POISSON

Ejemplo 6: En la ciudad de Rosario se registraron aproximadamente 20000nacimientos al ano (dato 2012). Supongamos que en base a esta evidenciadeseamos obtener la probabilidad de 0, 1, 2, . . . nacimientos durante un periodo de 2horas.Consideremos ademas que en cualquier instante es tan probable que ocurra unnacimiento como en cualquier otro momento.

Para comenzar podrıamos subdividir el intervalo de 2 horas en 12 subintervalos de 10minutos.Consideremos cada uno de estos 12 subint. como un ensayo de Bernoulli para el cualobservamos exactamente un nacimiento (E: exito) o ningun nacimiento (F: fracaso).

P(E) = 20000365·24·6 = 0,38.

De esta forma podrıamos decir que la probabilidad de observar tres nacimientosdurante un intervalo de 2 horas es(12

3)(0,38)3(0,62)9 = 0,163.

La dificultad radica en que desconocemos la posibilidad de que ocurran 2 o masnacimientos en los subintervalos de 10 minutos.

Luego, el uso anterior de la distribucion binomial no serıa legıtimo, ya que podemosusar esta distribucion cuando existe una dicotomıa.

DISTRIBUCION DE POISSON

Ejemplo 6: En la ciudad de Rosario se registraron aproximadamente 20000nacimientos al ano (dato 2012). Supongamos que en base a esta evidenciadeseamos obtener la probabilidad de 0, 1, 2, . . . nacimientos durante un periodo de 2horas.Consideremos ademas que en cualquier instante es tan probable que ocurra unnacimiento como en cualquier otro momento.

Para comenzar podrıamos subdividir el intervalo de 2 horas en 12 subintervalos de 10minutos.Consideremos cada uno de estos 12 subint. como un ensayo de Bernoulli para el cualobservamos exactamente un nacimiento (E: exito) o ningun nacimiento (F: fracaso).

P(E) = 20000365·24·6 = 0,38.

De esta forma podrıamos decir que la probabilidad de observar tres nacimientosdurante un intervalo de 2 horas es(12

3)(0,38)3(0,62)9 = 0,163.

La dificultad radica en que desconocemos la posibilidad de que ocurran 2 o masnacimientos en los subintervalos de 10 minutos.Luego, el uso anterior de la distribucion binomial no serıa legıtimo, ya que podemosusar esta distribucion cuando existe una dicotomıa.

DISTRIBUCION DE POISSON

Consideremos entonces la sig. aproximacion. Una alternativa para asegurar que a losumo se registra un nacimiento en un intervalo de tiempo, es hacer que ese intervalosea pequeno.

Consideremos ahora 24 subintervalos de 5 minutos.Luego, P(E) = 20000

365·24·12 = 0,19.

Entonces la probabilidad de observar tres nacimientos durante un intervalo de 2horas es(24

3)(0,19)3(0,81)21 = 0,166.

Observemos que ahora tenemos una distribucion binomial (Bi(24;0,19)) pero condiferentes parametros a la anterior (Bi(12;0,38)).Sin embargo, el valor de n.p es igualen ambas, a saber n.p = 12 ·0,38 = 24 ·0,19 = 4,56.

Si continuamos con este procedimiento, aumentando el numero de subintervalos dela misma longitud, disminuiremos la probabilidad de registrar un nacimiento en dichosubint. de tal forma que n.p permanece constante.

¿Que ocurre con las probabilidades binomiales(n

k)pk(1−p)n−k si n→ ∞ y p→ 0 de

modo tal que n.p = λ permanece constante?

lımn→∞

P(X = k) =λ ke−λ

k!.

DISTRIBUCION DE POISSON

Consideremos entonces la sig. aproximacion. Una alternativa para asegurar que a losumo se registra un nacimiento en un intervalo de tiempo, es hacer que ese intervalosea pequeno.Consideremos ahora 24 subintervalos de 5 minutos.

Luego, P(E) = 20000365·24·12 = 0,19.

Entonces la probabilidad de observar tres nacimientos durante un intervalo de 2horas es(24

3)(0,19)3(0,81)21 = 0,166.

Observemos que ahora tenemos una distribucion binomial (Bi(24;0,19)) pero condiferentes parametros a la anterior (Bi(12;0,38)).Sin embargo, el valor de n.p es igualen ambas, a saber n.p = 12 ·0,38 = 24 ·0,19 = 4,56.

Si continuamos con este procedimiento, aumentando el numero de subintervalos dela misma longitud, disminuiremos la probabilidad de registrar un nacimiento en dichosubint. de tal forma que n.p permanece constante.

¿Que ocurre con las probabilidades binomiales(n

k)pk(1−p)n−k si n→ ∞ y p→ 0 de

modo tal que n.p = λ permanece constante?

lımn→∞

P(X = k) =λ ke−λ

k!.

DISTRIBUCION DE POISSON

Consideremos entonces la sig. aproximacion. Una alternativa para asegurar que a losumo se registra un nacimiento en un intervalo de tiempo, es hacer que ese intervalosea pequeno.Consideremos ahora 24 subintervalos de 5 minutos.Luego, P(E) = 20000

365·24·12 = 0,19.

Entonces la probabilidad de observar tres nacimientos durante un intervalo de 2horas es(24

3)(0,19)3(0,81)21 = 0,166.

Observemos que ahora tenemos una distribucion binomial (Bi(24;0,19)) pero condiferentes parametros a la anterior (Bi(12;0,38)).Sin embargo, el valor de n.p es igualen ambas, a saber n.p = 12 ·0,38 = 24 ·0,19 = 4,56.

Si continuamos con este procedimiento, aumentando el numero de subintervalos dela misma longitud, disminuiremos la probabilidad de registrar un nacimiento en dichosubint. de tal forma que n.p permanece constante.

¿Que ocurre con las probabilidades binomiales(n

k)pk(1−p)n−k si n→ ∞ y p→ 0 de

modo tal que n.p = λ permanece constante?

lımn→∞

P(X = k) =λ ke−λ

k!.

DISTRIBUCION DE POISSON

Consideremos entonces la sig. aproximacion. Una alternativa para asegurar que a losumo se registra un nacimiento en un intervalo de tiempo, es hacer que ese intervalosea pequeno.Consideremos ahora 24 subintervalos de 5 minutos.Luego, P(E) = 20000

365·24·12 = 0,19.

Entonces la probabilidad de observar tres nacimientos durante un intervalo de 2horas es(24

3)(0,19)3(0,81)21 = 0,166.

Observemos que ahora tenemos una distribucion binomial (Bi(24;0,19)) pero condiferentes parametros a la anterior (Bi(12;0,38)).Sin embargo, el valor de n.p es igualen ambas, a saber n.p = 12 ·0,38 = 24 ·0,19 = 4,56.

Si continuamos con este procedimiento, aumentando el numero de subintervalos dela misma longitud, disminuiremos la probabilidad de registrar un nacimiento en dichosubint. de tal forma que n.p permanece constante.

¿Que ocurre con las probabilidades binomiales(n

k)pk(1−p)n−k si n→ ∞ y p→ 0 de

modo tal que n.p = λ permanece constante?

lımn→∞

P(X = k) =λ ke−λ

k!.

DISTRIBUCION DE POISSON

Consideremos entonces la sig. aproximacion. Una alternativa para asegurar que a losumo se registra un nacimiento en un intervalo de tiempo, es hacer que ese intervalosea pequeno.Consideremos ahora 24 subintervalos de 5 minutos.Luego, P(E) = 20000

365·24·12 = 0,19.

Entonces la probabilidad de observar tres nacimientos durante un intervalo de 2horas es(24

3)(0,19)3(0,81)21 = 0,166.

Observemos que ahora tenemos una distribucion binomial (Bi(24;0,19)) pero condiferentes parametros a la anterior (Bi(12;0,38)).

Sin embargo, el valor de n.p es igualen ambas, a saber n.p = 12 ·0,38 = 24 ·0,19 = 4,56.

Si continuamos con este procedimiento, aumentando el numero de subintervalos dela misma longitud, disminuiremos la probabilidad de registrar un nacimiento en dichosubint. de tal forma que n.p permanece constante.

¿Que ocurre con las probabilidades binomiales(n

k)pk(1−p)n−k si n→ ∞ y p→ 0 de

modo tal que n.p = λ permanece constante?

lımn→∞

P(X = k) =λ ke−λ

k!.

DISTRIBUCION DE POISSON

Consideremos entonces la sig. aproximacion. Una alternativa para asegurar que a losumo se registra un nacimiento en un intervalo de tiempo, es hacer que ese intervalosea pequeno.Consideremos ahora 24 subintervalos de 5 minutos.Luego, P(E) = 20000

365·24·12 = 0,19.

Entonces la probabilidad de observar tres nacimientos durante un intervalo de 2horas es(24

3)(0,19)3(0,81)21 = 0,166.

Observemos que ahora tenemos una distribucion binomial (Bi(24;0,19)) pero condiferentes parametros a la anterior (Bi(12;0,38)).Sin embargo, el valor de n.p es igualen ambas, a saber n.p = 12 ·0,38 = 24 ·0,19 = 4,56.

Si continuamos con este procedimiento, aumentando el numero de subintervalos dela misma longitud, disminuiremos la probabilidad de registrar un nacimiento en dichosubint. de tal forma que n.p permanece constante.

¿Que ocurre con las probabilidades binomiales(n

k)pk(1−p)n−k si n→ ∞ y p→ 0 de

modo tal que n.p = λ permanece constante?

lımn→∞

P(X = k) =λ ke−λ

k!.

DISTRIBUCION DE POISSON

Consideremos entonces la sig. aproximacion. Una alternativa para asegurar que a losumo se registra un nacimiento en un intervalo de tiempo, es hacer que ese intervalosea pequeno.Consideremos ahora 24 subintervalos de 5 minutos.Luego, P(E) = 20000

365·24·12 = 0,19.

Entonces la probabilidad de observar tres nacimientos durante un intervalo de 2horas es(24

3)(0,19)3(0,81)21 = 0,166.

Observemos que ahora tenemos una distribucion binomial (Bi(24;0,19)) pero condiferentes parametros a la anterior (Bi(12;0,38)).Sin embargo, el valor de n.p es igualen ambas, a saber n.p = 12 ·0,38 = 24 ·0,19 = 4,56.

Si continuamos con este procedimiento, aumentando el numero de subintervalos dela misma longitud, disminuiremos la probabilidad de registrar un nacimiento en dichosubint. de tal forma que n.p permanece constante.

¿Que ocurre con las probabilidades binomiales(n

k)pk(1−p)n−k si n→ ∞ y p→ 0 de

modo tal que n.p = λ permanece constante?

lımn→∞

P(X = k) =λ ke−λ

k!.

DISTRIBUCION DE POISSON

Consideremos entonces la sig. aproximacion. Una alternativa para asegurar que a losumo se registra un nacimiento en un intervalo de tiempo, es hacer que ese intervalosea pequeno.Consideremos ahora 24 subintervalos de 5 minutos.Luego, P(E) = 20000

365·24·12 = 0,19.

Entonces la probabilidad de observar tres nacimientos durante un intervalo de 2horas es(24

3)(0,19)3(0,81)21 = 0,166.

Observemos que ahora tenemos una distribucion binomial (Bi(24;0,19)) pero condiferentes parametros a la anterior (Bi(12;0,38)).Sin embargo, el valor de n.p es igualen ambas, a saber n.p = 12 ·0,38 = 24 ·0,19 = 4,56.

Si continuamos con este procedimiento, aumentando el numero de subintervalos dela misma longitud, disminuiremos la probabilidad de registrar un nacimiento en dichosubint. de tal forma que n.p permanece constante.

¿Que ocurre con las probabilidades binomiales(n

k)pk(1−p)n−k si n→ ∞ y p→ 0 de

modo tal que n.p = λ permanece constante?

lımn→∞

P(X = k) =λ ke−λ

k!.

DISTRIBUCION DE POISSON

Consideremos entonces la sig. aproximacion. Una alternativa para asegurar que a losumo se registra un nacimiento en un intervalo de tiempo, es hacer que ese intervalosea pequeno.Consideremos ahora 24 subintervalos de 5 minutos.Luego, P(E) = 20000

365·24·12 = 0,19.

Entonces la probabilidad de observar tres nacimientos durante un intervalo de 2horas es(24

3)(0,19)3(0,81)21 = 0,166.

Observemos que ahora tenemos una distribucion binomial (Bi(24;0,19)) pero condiferentes parametros a la anterior (Bi(12;0,38)).Sin embargo, el valor de n.p es igualen ambas, a saber n.p = 12 ·0,38 = 24 ·0,19 = 4,56.

Si continuamos con este procedimiento, aumentando el numero de subintervalos dela misma longitud, disminuiremos la probabilidad de registrar un nacimiento en dichosubint. de tal forma que n.p permanece constante.

¿Que ocurre con las probabilidades binomiales(n

k)pk(1−p)n−k si n→ ∞ y p→ 0 de

modo tal que n.p = λ permanece constante?

lımn→∞

P(X = k) =λ ke−λ

k!.

DISTRIBUCION DE POISSON

Definicion: Una v.a. X tiene distribucion de Poisson sii

p(k) = P(X = k) =λ k

k!e−λ , k ∈ N0, λ > 0.

1 La esperanza de ocurrencia de un evento en un intervalo es la mismaque la esperanza de ocurrencia del evento en otro intervalocualesquiera, sin importar donde empiece el intervalo.

2 Las ocurrencias de los eventos son independientes, sin importar dondeocurran.

3 La probabilidad de que ocurra un evento en un intervalo de tiempodepende de la longitud del intervalo.

4 Las condiciones del experimento no varıan.

5 Nos interesa analizar el numero promedio de ocurrencias en el intervalo.

DISTRIBUCION DE POISSON

Definicion: Una v.a. X tiene distribucion de Poisson sii

p(k) = P(X = k) =λ k

k!e−λ , k ∈ N0, λ > 0.

1 La esperanza de ocurrencia de un evento en un intervalo es la mismaque la esperanza de ocurrencia del evento en otro intervalocualesquiera, sin importar donde empiece el intervalo.

2 Las ocurrencias de los eventos son independientes, sin importar dondeocurran.

3 La probabilidad de que ocurra un evento en un intervalo de tiempodepende de la longitud del intervalo.

4 Las condiciones del experimento no varıan.

5 Nos interesa analizar el numero promedio de ocurrencias en el intervalo.

DISTRIBUCION DE POISSON

Ejemplo 7: Supongamos que un proceso de fabricacion produce de tal forma quecierta proporcion p (constante) de artıculos son defectuosos. Si se obtiene un lote den art., la probabilidad de obtener exactamente k defectuosos puede calcularse de ladistribucion binomial

(nk)pk(1−p)n−k.

Si n es grande y p es pequeno podemos aproximar la probabilidad anterior por(np)k

k! e−np.

Sup. que un fabricante produce artıculos de los cuales 1 en mil es defectuoso, i.e.p = 0,001.

Utilizando la dist. binomial tenemos que la probabilidad de que ningun art. resultedefectuoso en un lote de 500 es (1−0,001)500 = 0,609.

Si usamos la dist. de Poisson es (500·0,001)0

0! e−500·0,001 = e−0,5 = 0,61.

La probabilidad de hallar dos o mas art. defectuosos es (Binomial)

1−(500

1)(0,001)1(0,009)499−0,609 = 0,087.

Aprox. por Poisson

1− 0,51! e−0,5− e−0,5 = 0,085.

DISTRIBUCION DE POISSON

Ejemplo 7: Supongamos que un proceso de fabricacion produce de tal forma quecierta proporcion p (constante) de artıculos son defectuosos. Si se obtiene un lote den art., la probabilidad de obtener exactamente k defectuosos puede calcularse de ladistribucion binomial

(nk)pk(1−p)n−k.

Si n es grande y p es pequeno podemos aproximar la probabilidad anterior por(np)k

k! e−np.

Sup. que un fabricante produce artıculos de los cuales 1 en mil es defectuoso, i.e.p = 0,001.

Utilizando la dist. binomial tenemos que la probabilidad de que ningun art. resultedefectuoso en un lote de 500 es (1−0,001)500 = 0,609.

Si usamos la dist. de Poisson es (500·0,001)0

0! e−500·0,001 = e−0,5 = 0,61.

La probabilidad de hallar dos o mas art. defectuosos es (Binomial)

1−(500

1)(0,001)1(0,009)499−0,609 = 0,087.

Aprox. por Poisson

1− 0,51! e−0,5− e−0,5 = 0,085.

DISTRIBUCION DE POISSON

Ejemplo 7: Supongamos que un proceso de fabricacion produce de tal forma quecierta proporcion p (constante) de artıculos son defectuosos. Si se obtiene un lote den art., la probabilidad de obtener exactamente k defectuosos puede calcularse de ladistribucion binomial

(nk)pk(1−p)n−k.

Si n es grande y p es pequeno podemos aproximar la probabilidad anterior por(np)k

k! e−np.

Sup. que un fabricante produce artıculos de los cuales 1 en mil es defectuoso, i.e.p = 0,001.

Utilizando la dist. binomial tenemos que la probabilidad de que ningun art. resultedefectuoso en un lote de 500 es (1−0,001)500 = 0,609.

Si usamos la dist. de Poisson es (500·0,001)0

0! e−500·0,001 = e−0,5 = 0,61.

La probabilidad de hallar dos o mas art. defectuosos es (Binomial)

1−(500

1)(0,001)1(0,009)499−0,609 = 0,087.

Aprox. por Poisson

1− 0,51! e−0,5− e−0,5 = 0,085.

DISTRIBUCION DE POISSON

Ejemplo 7: Supongamos que un proceso de fabricacion produce de tal forma quecierta proporcion p (constante) de artıculos son defectuosos. Si se obtiene un lote den art., la probabilidad de obtener exactamente k defectuosos puede calcularse de ladistribucion binomial

(nk)pk(1−p)n−k.

Si n es grande y p es pequeno podemos aproximar la probabilidad anterior por(np)k

k! e−np.

Sup. que un fabricante produce artıculos de los cuales 1 en mil es defectuoso, i.e.p = 0,001.

Utilizando la dist. binomial tenemos que la probabilidad de que ningun art. resultedefectuoso en un lote de 500 es (1−0,001)500 = 0,609.

Si usamos la dist. de Poisson es (500·0,001)0

0! e−500·0,001 = e−0,5 = 0,61.

La probabilidad de hallar dos o mas art. defectuosos es (Binomial)

1−(500

1)(0,001)1(0,009)499−0,609 = 0,087.

Aprox. por Poisson

1− 0,51! e−0,5− e−0,5 = 0,085.

DISTRIBUCION DE POISSON

Ejemplo 7: Supongamos que un proceso de fabricacion produce de tal forma quecierta proporcion p (constante) de artıculos son defectuosos. Si se obtiene un lote den art., la probabilidad de obtener exactamente k defectuosos puede calcularse de ladistribucion binomial

(nk)pk(1−p)n−k.

Si n es grande y p es pequeno podemos aproximar la probabilidad anterior por(np)k

k! e−np.

Sup. que un fabricante produce artıculos de los cuales 1 en mil es defectuoso, i.e.p = 0,001.

Utilizando la dist. binomial tenemos que la probabilidad de que ningun art. resultedefectuoso en un lote de 500 es (1−0,001)500 = 0,609.

Si usamos la dist. de Poisson es (500·0,001)0

0! e−500·0,001 = e−0,5 = 0,61.

La probabilidad de hallar dos o mas art. defectuosos es (Binomial)

1−(500

1)(0,001)1(0,009)499−0,609 = 0,087.

Aprox. por Poisson

1− 0,51! e−0,5− e−0,5 = 0,085.

DISTRIBUCION DE POISSON

Ejemplo 7: Supongamos que un proceso de fabricacion produce de tal forma quecierta proporcion p (constante) de artıculos son defectuosos. Si se obtiene un lote den art., la probabilidad de obtener exactamente k defectuosos puede calcularse de ladistribucion binomial

(nk)pk(1−p)n−k.

Si n es grande y p es pequeno podemos aproximar la probabilidad anterior por(np)k

k! e−np.

Sup. que un fabricante produce artıculos de los cuales 1 en mil es defectuoso, i.e.p = 0,001.

Utilizando la dist. binomial tenemos que la probabilidad de que ningun art. resultedefectuoso en un lote de 500 es (1−0,001)500 = 0,609.

Si usamos la dist. de Poisson es (500·0,001)0

0! e−500·0,001 = e−0,5 = 0,61.

La probabilidad de hallar dos o mas art. defectuosos es (Binomial)

1−(500

1)(0,001)1(0,009)499−0,609 = 0,087.

Aprox. por Poisson

1− 0,51! e−0,5− e−0,5 = 0,085.

DISTRIBUCION DE POISSON

Ejemplo 7: Supongamos que un proceso de fabricacion produce de tal forma quecierta proporcion p (constante) de artıculos son defectuosos. Si se obtiene un lote den art., la probabilidad de obtener exactamente k defectuosos puede calcularse de ladistribucion binomial

(nk)pk(1−p)n−k.

Si n es grande y p es pequeno podemos aproximar la probabilidad anterior por(np)k

k! e−np.

Sup. que un fabricante produce artıculos de los cuales 1 en mil es defectuoso, i.e.p = 0,001.

Utilizando la dist. binomial tenemos que la probabilidad de que ningun art. resultedefectuoso en un lote de 500 es (1−0,001)500 = 0,609.

Si usamos la dist. de Poisson es (500·0,001)0

0! e−500·0,001 = e−0,5 = 0,61.

La probabilidad de hallar dos o mas art. defectuosos es (Binomial)

1−(500

1)(0,001)1(0,009)499−0,609 = 0,087.

Aprox. por Poisson

1− 0,51! e−0,5− e−0,5 = 0,085.

DISTRIBUCION DE POISSON

Ejemplo 8: Sea X: numero de mensajes rechazados por segundo por unservidor. Supongamos X ∼ Po(5).

1 Calcular la probabilidad de que se rechacen exactamente 2 mensajesen un segundo.

2 Calcular la probabilidad de que se rechacen a lo sumo 2 mensajes enun segundo.

TEOREMA

Sea X ∼ Po(λ ). Entonces

E(X) = λ y V(X) = λ .

DISTRIBUCION DE POISSON

Ejemplo 8: Sea X: numero de mensajes rechazados por segundo por unservidor. Supongamos X ∼ Po(5).

1 Calcular la probabilidad de que se rechacen exactamente 2 mensajesen un segundo.

2 Calcular la probabilidad de que se rechacen a lo sumo 2 mensajes enun segundo.

TEOREMA

Sea X ∼ Po(λ ). Entonces

E(X) = λ y V(X) = λ .

DISTRIBUCION DE POISSON

Ejemplo 8: Sea X: numero de mensajes rechazados por segundo por unservidor. Supongamos X ∼ Po(5).

1 Calcular la probabilidad de que se rechacen exactamente 2 mensajesen un segundo.

2 Calcular la probabilidad de que se rechacen a lo sumo 2 mensajes enun segundo.

TEOREMA

Sea X ∼ Po(λ ). Entonces

E(X) = λ y V(X) = λ .

top related