tr bases 3

21

Upload: 04921

Post on 07-Jul-2015

214 views

Category:

Documents


2 download

TRANSCRIPT

Page 1: Tr bases 3

>Qu�e es la probabilidad?

Es la parte de las matem�aticas que proporciona modelos para la in-

certidumbre

La incertidumbre se da en los resultados de los experimentos aleatorios

>Qu�e es un experimento aleatorio?

Es una actividad en la que conocemos los posibles resultados pero no

podemos predecirlos con exactitud

Ejemplos:

1. Lanzar una dado tres veces

2. Medir la temperatura

3. N�umero de personas que van a venir a clase ma~nana

Al conjunto de todos los resultados posibles lo llamamos ,! ESPACIO

MUESTRAL

El objetivo de la PROBABILIDAD es medir la certidumbre

(o incertidumbre) de que ocurran determinados sucesos

Page 2: Tr bases 3

>Qu�e es un suceso?

Es un acontecimiento que puede o no ocurrir en un experimento

aleatorio y que es combinaci�on de posibles resultados

Ejemplos de sucesos:

1. La suma de los tres dados es 9

2. La temperatura que medimos ahora es superior a la �ultima medida

3. Ma~nana vienen entre 60 y 80 personas a clase

Si llamamosA a un suceso cualquiera

+

P (A)

es la probabilidad de que ocurra el sucesoA

Ejemplo: Tiramos una moneda \no trucada"

P (cara) = 1=2 P (cruz) = 1=2 P (canto) = 0 .

Page 3: Tr bases 3

Propiedades de la probabilidad:

1) 0 � P (A) � 1

2) Si A es un suceso que ocurre seguro, P (A) = 1

3) Si A es un suceso que no puede ocurrir, P (A) = 0

4) P (no A) = P ( �A) = 1� P (A)

5) Si A y B son dos sucesos que no tienen nada en com�un,

P (A �o B) = P (A) + P (B)

6) Si A y B son dos sucesos INDEPENDIENTES (la aparici�on de

uno no afecta a la aparici�on del otro),

P (A y B) = P (A;B) = P (A)P (B)

Page 4: Tr bases 3

>Qu�e entendemos cuando decimos que P (A) = p ?

Entre las diferentes interpretaciones que existen, la que da origen al

concepto de probabilidad que se utiliza hoy en d��a es la

INTERPRETACI�ON FRECUENTISTA

l

- Si el experimento se repite muchas veces, y

- Registramos cuantas veces sucedeA

La frecuencia relativa

fr =n�umero de veces que ocurre A

n�umero de pruebas

se aproxima cada vez m�as a la medida de incertidumbre P (A)

cuando aumenta el n�umero de pruebas

Page 5: Tr bases 3

Espacios muestrales discretos

Son aquellos en los que el n�umero de todos los posibles resultados es

�nito, o si es in�nito, se puede numerar

= fa1; : : : ; an; : : : g - Espacio muestral

En este caso el MODELO DE PROBABILIDAD queda perfectamente

especi�cado dando la probabilidad de cada resultado posible:

P (a1); : : : ; P (an); : : :

1. P (an) � 0 para todo an

2.P

nP (an) = 1

3. La probabilidad de cualquier suceso A es la suma de las proba-

bilidades de los resultados posibles que lo forman

4. Si el espacio muestral es �nito, y el experimento EQUIPROBA-

BLE: P (a1) = � � � = P (an) = 1=n

P (A) =casos favorables

casos posibles| {z },! Regla de Laplace

Page 6: Tr bases 3

>Nos interesan todos los detalles del experimento?

Generalmente, NO. Resumimos los resultados del experimento con

variables aleatorias

>Qu�e es una variable aleatoria?

Una VARIABLE ALEATORIA es una transformaci�on de los resultados

de un experimento aleatorio en valores num�ericos

Ejemplo 1: Lanzamos un dado tres veces y nos interesa la suma de los

puntos

= f(1; 1; 1); (1; 2; 1); : : : ; (6; 6; 6)g

La variable aleatoria asociada a este experimento es:

X � Suma de los puntos de los tres lanzamientos

X toma valores en el conjunto f3; 4; : : : ; 17; 18g| {z },! Soporte de X

Ejemplo 2: Medimos el nivel de ruido en tres puntos muy pr�oximos y nos

interesa la medici�on m�as alta

= (0;+1)� (0;+1)� (0;+1)

La variable aleatoria asociada a este experimento es:

Y � Nivel de ruido m�as alto entre los tres puntos

Y toma valores entre (0;+1)| {z },! Soporte de Y

Page 7: Tr bases 3

Tipos de variables aleatorias: �!

8>><>>:

- Discretas (como X)

- Continuas (como Y )

- Mixtas

>Qu�e nos interesa de una variable aleatoria?

Nos interesa saber: 1.- C�omo se distribuyen las probabilidades

entre todos los valores que puede tomar

2. Entorno a qu�e valor esperamos el resultado

3.- C�omo es la variabilidad

Distribuci�on de una variable aleatoria

Se entiende por DISTRIBUCI�ON de X a la forma en que se asignan

las probabilidades a los valores que toma X

La distribuci�on se puede representar por:

1. La funci�on de distribuci�on F (x), que se de�ne como

F (x) = P (X � x)

2. Para variables aleatorias discretas, por la funci�on de masa

o de probabilidad

3. Para variables aleatorias continuas, por la funci�on de densidad

Page 8: Tr bases 3

Variables aleatorias discretas

La DISTRIBUCI�ON de la v.a. discreta X viene determinada por:

- los valores x1; x2; : : : ; xk; : : : que puede tomar, y

- las probabilidades con que aparecen, p1; p2; : : : ; pk; : : :

pi = P (X = xi) i = 1; 2; : : : ; k; : : :

,! Funci�on de masa o de probabilidad

Comentarios:

1. 0 � P (X = xi) � 1 para todos los i, yP1

i=1pi = 1

2. Si conocemos la distribuci�on de X, podemos calcular la probabili-

dad de que tome valores entre a y b

P (a � X � b) = P (X = a) + P (X = a + 1) + � � �+ P (X = b� 1) + P (X = b)

=

bXxi=a

P (X = xi)

3. Para visualizar la FUNCI�ON DE MASA se utiliza el diagrama de

barras: - En el eje horizontal los valores que toma X

- En el eje vertical las probabilidades de cada valor

Ejemplo: X � no de caras en cuatro lanzamientos de una moneda equili-

brada

0 1 2 3 40

0.1

0.2

0.3

0.4

Page 9: Tr bases 3

Variables aleatorias continua

La DISTRIBUCI�ON de la v.a. continua X no puede venir determi-

nada por P (X = xi)

Si X es una v.a. continua =) P (X = x) = 0

La DISTRIBUCI�ON de una v.a. continua viene determinada por la

FUNCI�ON DE DENSIDAD f(x):

- En el eje horizontal los valores que toma X

- En el eje vertical la probabilidad de que la variable tome valores en un

entorno \muy peque~no" de cada punto dividida por la longitud del intervalo

f(x) = F 0(x)

−5 0 50

0.1

0.2

0.3

0.4

1. La funci�on de densidad representa probabilidades por �areas

Si conocemos la distribuci�on de X, podemos calcular la probabilidad

de que tome valores entre a y b

P (a � X � b) = �area que f(x) deja por debajo entre a y b

=

Rb

af(x)dx

2. Siempre es no negativa

3. El �area total que deja la curva por debajo es siempre 1

Page 10: Tr bases 3

Vectores aleatorios

Si tenemos las variables aleatoriasX e Y podemos construir el vector

aleatorio: (X; Y )Ejemplo:

X � Altura de una persona

Y � Peso de una persona

1. Cada variable sigue una DISTRIBUCI�ON de probabilidad MARGI-

NAL que puede ser: Discreta

P (X = x), P (Y = y)

�o Continua

f(x), f(y)

2. El vector aleatorio sigue una DISTRIBUCI�ON de probabilidad

CONJUNTA que puede ser: Discreta

P (X = x; Y = y)

�o Continua

f(x; y)

El volumen debajo es = 1 ,!

3. Las v.a. discretas X e Y

son independientes () P (X = x; Y = y) = P (X = x)P (Y = y)

para todo x 2 Sop(X) e y 2 Sop(Y )

Las v.a. continuas X e Y

son independientes () f(x; y) = f(x)f(y)

para todo x 2 Sop(X) e y 2 Sop(Y )

Page 11: Tr bases 3

Valores caracter��sticos de una variable aleatoria

Medida de posici�on: >Entorno a qu�e valor esperamos los resultados

del experimento?

1. Para v.a. discretas hacemos un promedio de todos los posibles resul-

tados, ponderando cada uno por su probabilidad de aparecer

E(X) =

1Xi=1

xipi

2. Para v.a. continuas hacemos lo mismo pero ponderando cada resultado

posible por su densidad de probabilidad (e integrando)

E(X) =

Z1

�1

xf(x)dx

E(X) es la MEDIA o ESPERANZA de la v.a. X

Propiedades:

1. Si X es una v.a. y a un n�umero cualquiera

E(aX) = aE(X)

2. Si X es una v.a., a y b dos n�umeros cualesquiera

E(aX + b) = aE(X) + b

3. Si X e Y son dos v.a.

E(X + Y ) = E(X) + E(Y )

4. Si X e Y son dos v.a., a y b dos n�umeros cualesquiera

E(aX + bY ) = aE(X) + bE(Y )

Page 12: Tr bases 3

Medida de escala: >C�omo es la variabilidad?

1. Para v.a. discretas hacemos un promedio de las discrepancias entre

todos los posibles resultados y el valor central (MEDIA), ponderando

cada una por la probabilidad de que se de el resultado

V (X) =

1Xi=1

(xi � E(X))2pi

2. Para v.a. continuas hacemos lo mismo pero ponderando cada discrep-

ancia por la densidad de probabilidad (e integrando)

V (X) =

Z1

�1

(x� E(X))2f(x)dx

V (X) es la VARIANZA de la v.a. X

pV (X) es la DESVIACI�ON T�IPICA de la v.a. X

Page 13: Tr bases 3

Propiedades de la varianza:

1. V (X) � 0

2. V (X) = E(X2)� E(X)2

3. Si X es una v.a. y a un n�umero cualquiera

V (aX) = a2V (X)

4. Si X es una v.a., a y b dos n�umeros cualesquiera

V (aX + b) = a2V (X)

5. Si X e Y son dos v.a. INDEPENDIENTES

V (X + Y ) = V (X) + V (Y )

-(

Si X e Y no son independientes,

NO ES CIERTO

Page 14: Tr bases 3

Valores caracter��sticos de un vector aleatorio

Medida de asociaci�on: >C�omo es la relaci�on?

Cov(X; Y ) = E [(X � E(X))(Y � E(Y ))]

Cov(X;Y ) es la COVARIANZA de la v.a. X

Propiedades:

1. La Cov(X;Y ) es una medida de asociaci�on lineal

2. Cov(X;Y ) = E(XY )� E(X)E(Y )

3. Si X e Y son v.a. discretas,

Cov(X;Y ) =

1Xi=1

1Xj=i

(xi � E(X))(yj � E(Y ))P (X = xi; Y = yj)

4. Si X e Y son v.a. continuas,

Cov(X;Y ) =

Z1

�1

Z1

�1

(x� E(X))(y � E(Y ))f(x; y)dxdy

5. Si X e Y son v.a. INDEPENDIENTES ) Cov(X;Y ) = 0

6. Si Cov(X; Y ) = 0; X e Y son v.a. INDEPENDIENTES

Page 15: Tr bases 3

DISTRIBUCI�ON NORMAL

Def: Sea X la variable aleatoria con funci�on de densidad

f(x) =1p2� �

e

�(x� �)2

2�2 x 2 R :

� 2 R y � > 0

Entonces, se dice que X tiene distribuci�on NORMAL

X � N (�; �2)

f(x)

µ

CARACTER�ISTICAS PRINCIPALES DE LA DENSIDAD:

1. Depende de dos par�ametros: � y �

2. Unimodal

3. Sim�etrica con respecto a �

Page 16: Tr bases 3

USOS PRINCIPALES:

1) Como modelo de probabilidad para muchos fen�omenos

2) En particular, representa la distribuci�on de probabilidad de muchos procesos

de medici�on sin errores sistem�aticos.

3) Aproxima otras distribuciones, entre ellas la BINOMIAL.

NORMAL EST�ANDAR:

f(z) =1p2�

e

�z2

2 z 2 R :

Z � N (0; 1)

Propiedades:

1) E(Z) =

Z1

�1

zp2�

e�

z2

2 dz = 0

2) V(Z) =

Z1

�1

z2p2�

e�

z2

2 dz = 1

3) F(z) = P (Z � z) =

Zz

�1

1p2�

e�

x2

2 dx ESTA TABULADA

Page 17: Tr bases 3

PROPIEDADES DE X � N(�; �2):

1) Z =X � �

�� N (0; 1) ESTADARIZACI�ON DE LA NORMAL

Si Z � N (0; 1) =) X = �Z + � � N (�; �2)

2) E(X) = E(�Z + �) = �E(Z) + � = �

V(X) = V (�Z + �) = �2V (Z) = �2

>C�omo afectan � y � a la distribuci�on?

- Cambios en la media �:

µ1

µ2

- Cambios en la varianza �2: �1 < �2

µ

σ1

σ2

Page 18: Tr bases 3

3) F(x) = P (X � x) = P (�+ �Z � x)

= P

�Z � x� �

�= FZ

�x� �

UTILIZAMOS LA TABLA DE LA N (0; 1) PARA CALCULAR

PROBABILIDADES ASOCIADAS A UNA N (�; �2)

Ejemplo:

Sea X � N (1; �2 = 4), >Cu�al es la probabilidad de que X tome valores entre

0 y 3?

P (0 � X � 3) = P

�0� 1

2� X � 1

2� 3� 1

2

= P (�0:5 � Z � 1) = P (Z � 1)� P (Z � �0:5)

= (1� P (Z > 1))� P (Z > 0:5) = 1� 0:1587� 0:3085

= 0:5328

0 3

N(1,4)

1

N(0,1)

−.5

N(0,1)

.5

Page 19: Tr bases 3

4) Para una N (�; �2) cualquiera, podemos calcular las probabilidades:

P (� � � � X � �+ �) = P (X est�e entre �� �) � 0:68

P (�� 2� � X � �+ 2�) = P (X est�e entre �� 2�) � 0:95

P (�� 3� � X � �+ 3�) = P (X est�e entre �� 3�) � 0:99

µ−σ µ+σ

68%

µ−2σ µ+2σ

95%

µ−3σ µ+3σ

99%

Page 20: Tr bases 3

6) Por el TEOREMA CENTRAL DEL L�IMITE, si los resultados de un experi-

mento se deben a:

1. un conjunto \grande" de causas (X1; : : : ; Xn),

2. independientes unas de otras,

3. que act�uan sumando sus efectos,

4. siendo cada una de \poca" importancia,

entonces la distribuci�on de los resultados del experimento es aprox-

imadamente NORMAL.

TCL: Sean X1; : : : ; Xn; : : : v.a. indep. con E(Xi) = �i y V (Xi) = �2

i.

Sea Y =P

n

i=1Xi, entonces

Y �P

n

i=1�ipP

n

i=1�2i

n!1�! Z � N (0; 1)

�Y � AN

�Pn

i=1�i;P

n

i=1�2

i

��

Page 21: Tr bases 3

5) La BINOMIAL se puede aproximar por la NORMAL

Si X � Bin(n; p), estamos en las condiciones del TCL

X =nX

i=1

Xi donde X1; : : : ; Xn son v:a:i:i:d: Bernoulli(p)

Entonces,X � nppnp(1� p)

n!1�! N (0; 1)

Lo que dice el teorema es que

Si X � Bin(n; p) =) limn!1

P

X � nppnp(1� p)

� x

!= P (Z � x)

APROXIMACIONES DE LA BINOMIAL

n grande

p peque~no =) Se aproxima por una P(np)np constante

np(1� p) > 5 =) Se aproxima por una N (np; np(1� p))

8) La POISSON tambi�en se puede aproximar por una NORMAL. La aproxi-

maci�on es buena cuando � > 5, entonces

Si Y � P(�) =) Y � �p�

n!1�! N (0; 1)