probabilidad
Post on 01-Jul-2015
3.633 Views
Preview:
TRANSCRIPT
Probabilidades y Variables Aleatorias
• Probabilidad que es?– Estudia los promedios de fenómenos en masa que ocurren ya sea
secuencialmente o en forma simultanea.– Ej.: llamadas telefónicas, ruido, teoría de colas, tomas de decisión.– Se lo representa mediante un numero entre 0 y 1.
• Por que?– Se ha observado que ciertos promedios se aproximan a un valor
constante, a medida que el numero de observaciones se incrementa.• Propósito
– Descubrir y predecir estos promedios en términos de probabilidades de eventos.
• Evento – Ocurrencia de un suceso
Axiomas de Probabilidad
• Siendo A: un evento especifico de un espacio Muestral S.
1. P{A} > 0
2. P{S} = 1
3. Si AB = {Ø} entonces P{A} + P{B} = P{A+B}
• Generalizando (3), Si eventos E1,E2,E3,… tales que Ei∩Ej={Ø} , para todo i≠j entonces:
11
i iii
P E P E
Espacio Muestral y Propiedades
• Espacio de Muestras: el conjunto de todos los resultados posibles dentro de un experimento.
• Propiedades – P {Ø} = 0– P(A) = 1- P(Ā)– Si A y B tienen elementos comunes:
• P(A+B) = P(A) + P(B) – P(AB)
Probabilidad Condicional
• Eventos conjuntos:– Resultados que ocurren cuando realizamos
dos o mas experimentos.• Ejemplo: Lanzamiento de dos dados, experimento
{lanzar un dado y luego otro} o {lanzar dos dados al mismo tiempo}.
• Resultado: 36 “tuples” o combinaciones (i,j) siendo i,j=1,…,6
• Probabilidad de cada evento puntual es de 1/36.
Probabilidad Condicional
• Si consideramos un experimento combinado tal que un evento ocurre con probabilidad P(AB)
• Supongamos que B ocurrió, cual es la probabilidad de que A ocurra?– P(A|B) “probabilidad de A dado que B ocurrió”
|P AB
P A BP B
P(B)>0
Probabilidad Total y Regla de Bayes
• Tenemos un espacio S y lo particionamos en eventos tal que la unión de estos reconstruya dicho espacio.
• S = A1 + A2 + A3 + …..+An , siendo Ai mutuamente excluyentes
• Si B es un evento arbitrario cual es P(B)?
1 2 1 2
1 2
1 1 2 2
... ...
...
Usando probabilidad condicional:
| | ... |
n n
n
n n
B BS
B B A A A BA BA BA
P B P BA P BA P BA
P B P B A P A PP B A P A P B A P A
Regla de Bayes
• En el anterior slide vimos que para hallar la P(B) necesitábamos P(B|Ai).
• Que pasaría si conocemos la probabilidad de B pero deseamos hallar P(Ai|B).
• Este pregunta es muy común en problemas de toma de decisión.– Significa: “si observo una señal B, cual es la
probabilidad de que “la señal transmitida” fue Ai?”
Regla de Bayes
1
||
||
|
i ii
i ii n
i ii
P B A P AP A B
P B
P B A P AP A B
P B A P A
Probabilidades en Toma de Decisiones
• P(Ai) : probabilidad “a priori” (“conocida”)
• B: evento de recibir una señal que sea parte del conjunto de señales Ai mas una distorsión debido al ruido.
• P(Ai |B): probabilidad “a posteriori” de Ai dado que recibimos la señal B.
• P(B| Ai): función de “verisimilitud” (“likelihood”), quiere decir, si tengo una señal A i cual es la probabilidad de que este “cerca de” B.
Variables Aleatorias• Si el conjunto de eventos posibles S tiene
varios elementos• Variable Aleatoria es una función X(s) cuyo
dominio es el espacio S y su rango es el conjunto de los números Reales.
s S
s4s3
s2s1
X(s2) X(s1) X(s3) X(s4)
S
Re
Funciones cdf y pdf
• CDF: Función de Distribución Acumulativa
xsXSsPxFx )(:
s4s3
s2s1
X(s2) X(s1) X(s3) X(s4)
S
x
Fx(x) = P[X(s2)]+P[X(s1)]+P[X(s3)]
1
x
Fx(x)
1
Fx(x)
x
Re
V.A. Discreta V.A. Continua
• Función densidad de Probabilidad
• Para variables discretas se define la función de masas probabilística.
xFdx
dxf xx
ii xXPp
Ejemplos de Variables Aleatorias
• Bernoulli– VA discreta, modela (1/0, “éxito”/”fracaso”)– “1”p y “0”1-p, siendo p “probabilidad”
• Binomial– VA discreta que resulta del conteo de “1”
(“exitos”) que ocurren en n repeticiones independientes.
k de valoresotros ;0
0;1 nkppk
nkXP
knk
-6 -4 -2 0 2 4 6 8 10 12 140
0.02
0.04
0.06
0.08
0.1
0.12
0.14
0.16
0.18
0.2
x
f(x)
Normal Distribution
= 5
= 2
Ejemplos de Variables Aleatorias
• Uniforme– VA continua, toma valores entre un rango
(a,b) con igual probabilidad sobre intervalos de igual longitud.
• Gaussiana– VA continua, muy común en
comunicacionesruido termico.
xde valoresotros ;0
;1
bxaabxf x
varianza: media,: ,2
1 22 2
x
x exf
VA. Gaussiana o Normal
• Función CDF de una V.A. Normal con =0, =1 es:
• Función Q:
• Normalización: N(,2) N(,)
2
21
2
xu
xx F x P X x e du
1Q x x P X x
xP X x Q
Tabla Q
Promedios Estadísticos
• Valor Esperado:
• Momento – n de variable x:
• Valor esperado para variables discretas:
xE x xf x dx
n nx xm x f x dx
i ii
E x x P x x
Varianza
• Varianza es la medida de cuan dispersos están los datos recolectados.
• Mide la concentración de datos (elementos de un espacio muestral) alrededor de un valor promedio (media).
22 var xx x E x f x dx
2 2 2E x E x
Procesos Estocásticos: Conceptos Básicos
Primera realización
Segunda realización
N-esima realización
ProcesoAleatorio
o Señales
Aleatorias
Descripción
• Existen dos formas de “observar” este proceso:
1. Funciones de tiempo o “realizaciones” de una muestra.
2. Conjunto de variables aleatorias dentro de un tiempo fijo tk.
tk
,j jx t X t s
1 2 1 2, ,..., , , , ,..., ,k k n k k k k nx t x t x t X t s X t s X t s
Descripción Estadística
• De las dos formas de “observar” un proceso, la segunda es la mas utilizada.
• Una descripción estadística completa de un proceso estocástico (o señal aleatoria) X(t) es conocida si para cualquier entero n y cualquier elección de tiempos (t1,t2,…,tn), la funcion densidad conjunta de (X(t1),X(t2),…,X(tn)) es conocida.
• Esto en otras palabras define el proceso como una colección de variables aleatorias indexadas.
Promedios Estadísticos
• Del hecho anterior (descripción estadística) es posible entonces encontrar ciertos promedios.
• MEDIA O ESPERANZA
xm t E X t
X(t,s2)
X(t,s1)
X(t,s3)
m(t)
t1
t2
Promedios Estadísticos• AUTOCORRELACION
– Estadística de segundo orden
– Utilizada para describir la densidad espectral de una señal.
– Mide la existencia de ciertos patrones de la señal, consigo misma
– Determina la presencia de una señal que esta opacada por el ruido, cierta frecuencia o armónicas dentro de la señal.
– Medida del grado de similitud de la distribucion de muestras, es funcion de los desplazamientos en el tiempo.
– Definición: 1 2 1 2,xxR t t E X t X t
1 21 2 1 2 1 2 1 2, ,xx x xR t t x x f x x dx dx
xR E X t X t
Procesos Estacionarios
• En algunas mediciones de señales aleatorias reales, se encuentra que la caracterización estadística del proceso es independiente del tiempo en que se inicia el proceso.
• Es decir si tenemos un proceso cuyas variables aleatorias X(t1), X(t2),..,X(tn) tomadas a diferentes tiempos, entonces, el proceso será ESTRICTAMENTE ESTACIONARIO si cumple:
1 2 1 21 2 1 2, ,..., , ,...,, ,..., , ,...,
n nn nx t x t x t x t x t x tF x x x F x x x
Procesos Ergodicos
• Un proceso es ergodico si los “promedios conjuntos” son iguales al “promedios de tiempo”.
• Interpretación:– “promedios de tiempo” promedios a lo largo del
proceso o a largo plazo.– “promedios conjuntos” media o esperanza de una
variable aleatoria X(tk) en un tiempo fijo tk, basado en el conjunto de valores posibles que pueda tomar dicha variable aleatoria.
Procesos ergodicos
• Promedio de tiempo nivel DC
• Promedio conjunto
• X es ergodico si
• Todo proceso ergodico es estacionario, sin embargo lo contrario puede no aplicarse.
2
2
1( , ) lim ,
T
i iT
T
X t s X t s dtT
,kk k x k kE X t s x f x dx
DC = X t knivel E X t
Sobre una “realizacion” especifica
Sobre una i-esima “realizacion”
Densidad Espectral de Potencia
• Definición– Si X(t) es un proceso aleatorio, y sea X(t,si) una i-
esima realización o muestra de dicho proceso, entonces la DEP es:
– Donde se tiene una señal truncada
– Para así obtener la transformada de Fourier
T
fXEfS
i
Tx
2ˆ
lim
tXFfX iiˆˆ
valoresotros ; 0
2T ; ,
,ˆˆ tstXstXtX iii
Teorema de Wiener-Khintchine
• El método anterior para hallar la PSD es poco practico.
• Un método adecuado es usar la autocorrelación del proceso X(t).
• Solo Si este proceso es estacionario en sentido amplio (WSS):
1. La media E[X(t)] constante (no depende del tiempo)
2. Rx(t1,t2) = Rx(), cuando =t2-t1
• Por tanto la PSD puede encontrarse asi:
xx RFfS
Aplicación de la PSD
• Para hallar la potencia promedio de una señal aleatoria.
• PSD medida en (W/Hz).• Potencia se define:
• Si el proceso es ergodico entonces el promedio del tiempo es igual a los promedios conjuntos:
dttXT
P
T
T
2
2
2 )(1
tXER
RtXtXE
x
x
20 :entonces 0 Si
dffSRP xx 0
Aplicaciones
• DC: Voltímetro, Amperímetro miden valores promedios E[X(t)]
• AC: RMS Voltímetro, mide:
• Potencia promedio normalizada RF, mide un medidor de potencia (power meter o Analizador de Espectro)
dffSRXEtXX xxrms 022
XEXP rmsac x
222
No olvidarse que la Señal aleatoria es medida enVoltios y para obtener varianza Hay que multiplicar la potencia medida por el valor de carga (50para RF)
Procesos Ruido Blanco
• Se usa para denotar procesos en que todas las componentes espectrales aparecen con igual potencia ”luz blanca”.
2o
x
NfS
2o
x
NR
Kelvin. gradosen aTemperatur :
/101.38Boltzman de Constante : 34-
T
KJk
kTNo
Señales Aleatorias y Sistemas Lineales
• El análisis es similar a lo visto en Sistemas Lineales, el objetivo es que deseamos conocer lo siguiente:– Media de la señal de salida– Autocorrelación de la salida– Varianza o Potencia de salida– Correlación cruzada entre la entrada y salida.
Sistema lineal
X(t) Y(t)
mx
Rx()Sx(f)
my
Ry()Sy(f)
Señales Aleatorias y Sistemas Lineales
• Media de señal de salida
• Autocorrelación de salida
• DEP
0Hmdhmm
dtXEhdtxhEthtXEYEm
xxy
y
fSfHfS xy
2
xy RhhR
A partir de aqui usando la transformada inversade Fourier podemos obtener Ry()
Ruido a través de un filtro paso bajo
Características:• El ruido blanco pasa a
través de un filtro paso bajo (ancho de banda B).
• La DEP resultante esta limitada en banda.
• Para obtener la auto correlación, aplicamos TF inversa.
El proceso aleatorio Gaussiano
• X(t) es una señal aleatoria gaussiana si las variables aleatorias x1=x(t1), x2=x(t2),…xN=x(tN), tienen una distribucion normal N-dimensional conjunta.
• Usando matrices:
Nx
x
x
2
1
x
mxCmxexpC
x 1212
212
1 T
NxDet
f
NN m
m
m
x
x
x
E
2
1
2
1
xm
NNNN
N
N
ccc
ccc
ccc
21
22221
11211
C
covarianzapromedio
Proceso Gaussiano
• Covarianza
• Si el proceso es WSS:
• Si los N elementos no están correlacionados, la matriz covarianza se reduce a:
jjiiij mxmxEc
2
2
2
00
00
00
C
22 mttRmmmmxxEc ijxjijijiij
= Rx(0)-m2
top related