gatica_ricardo_-_probabilidades

108
Probabilidad Para Ingenieros Apuntes EII-346 Ricardo Gatica Escobar, Ph.D. 5 de noviembre de 2003

Upload: cantodea

Post on 25-Jun-2015

330 views

Category:

Documents


2 download

TRANSCRIPT

Page 1: Gatica_Ricardo_-_probabilidades

Probabilidad Para Ingenieros

Apuntes EII-346

Ricardo Gatica Escobar, Ph.D.

5 de noviembre de 2003

Page 2: Gatica_Ricardo_-_probabilidades

Capıtulo 1

Introduccion

1.1. Definiciones y Conceptos Basicos

Definiciones

Fenomeno: Cualquier ocurrencia o hecho en la naturaleza que es observable y medible.

Fenomeno Determinıstico: Su comportamiento (resultado) esta completamente deter-minado por las condiciones en las que el fenomeno ocurre.

Ejemplo 1.1. La distancia (D) recorrida por un movil que se desplaza a velocidad con-stante es D = vt, donde v representa la velocidad y t representa el tiempo de desplaza-miento.

Ejemplo 1.2. La orbita que describe la Tierra alrededor del Sol es una funcion complejade las masas, posiciones, formas y velocidades de todos los cuerpos del Sistema Solar.

Fenomeno Aleatorio (no-determinıstico, estocastico, probabilıstico): Su comportamien-to no esta completamentamente determinado por las condiciones en las que el fenomenoocurre. Dadas ciertas condiciones iniciales (entradas) y ciertas acciones, el resultado esincierto, puede ser cualquier elemento de un set de posibles resultados.

Ejemplo 1.3. Al lanzar una moneda al aire, parece ser el caso que no existen condicionesiniciales o informacion alguna que perimita predecir si el resultado sera cara o sello.

Ejemplo 1.4. ¿Puede Ud. predecir la duracion de una ampolleta, o el tiempo entre dosfallas sucesivas de un automovil, o el tiempo exacto que toma el viaje de casa a la uni-versidad cada dıa?

1

Page 3: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 2

En esta clase estudiaremos fenomenos que presentan dos caracterısticas importantes:

Espacio muestral fijo: El set de posibles resultados es el mismo para toda ocurrenciadel fenomeno.

Regularidad Estadıstica: Suponga que un fenomeno puede ser observado bajo lasmismas condiciones un numero ilimitado de veces, entonces la secuencia de resultadosgenerados presenta cierta “regularidad” o “estabilidad” que permite construir modelosmatematicos para representar el fenomeno y hacer inferencias probabilısticas respecto desu comportamiento.

Ejemplo 1.5. Si una moneda balanceada es lanzada repetidamente, la proporcion deveces que se obtiene cara tiende a estar alrededor del 50 % a medida que el numero delanzamientos se incrementa.

Ejemplo 1.6. Si un dado no cargado es lanzado repetidamente, la proporcion de 1′s quese obtiene es cercana a 1/6.

Nota: De hecho, no todos los fenomenos aleatorios parecen satisfacer las condicionesanteriores. Por ejemplo, el numero de personas que visita un parque de entretenciones(el fenomeno) no es el mismo todos los dıas de la semana (ocurrencias del fenomeno),el tiempo entre fallas de una maquina tiende a disminuir en la medida que aumenta eltiempo de uso (edad) de la maquina. Muchas veces, redefinir el fenomeno en estudio essuficiente para evitar este problema. En otras, sin embargo, modelos mas sofisticados sehacen necesarios. Para nuestros propositos, si un fenomeno no satisface estas condiciones,trataremos sus ocurrencias como diferentes fenomenos.

Ejemplo 1.7. Considere otra vez un parque de entretenciones. En general, esperarıamosque el numero de personas que asisten en fines de semana es significativamente mayor queen dıas de semana. Por lo tanto, es aconsejable considerar diferentes dıas de la semanacomo diferentes fenomenos. Es tambien razonable esperar, por ejemplo, que todos los lunesasistira aproximadamente el mismo numero de personas, por lo tanto asumimos que loslunes de diferentes semanas son distintas ocurrencias del mismo fenomeno.

Nota: Observe que la regularidad estadıstica no implica que el resultado de la n-esimarepeticion de un fenomeno se hace mas predecible a medida que n se incrementa.

Modelo Matematico: Es una representacion matematica de un fenomeno, desarrolladocon el objeto de estudiar el fenomeno. Las caracterısticas del modelo no solo dependen dela naturaleza del fenomeno, sino tambien, en un grado importante, en el objetivo especıficodel estudio. Esto implica que pueden existir muchos modelos diferentes asociados al mismofenomeno.

Experimento: Es la repeticion de un fenomeno bajo condiciones controladas (para lospropositos de este curso no haremos distincion entre un experimento y una ocurrencianatural del fenomeno).

Page 4: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 3

¿Fenomenos aleatorios o Modelos aleatorios?

¿Existen los fenomenos aleatorios en el mundo real?. La respuesta parece simple. Nuestra vidaesta llena de situaciones en que experimentamos la incertidumbre. Los ejemplos 1.3 y 1.4 sonuna pequena muestra. Para los matematicos y estadısticos, sin embargo, la respuesta es menosclara. Algunos de ellos creen que la aleatoriedad es una propiedad intrınseca de la naturaleza.Esto implica que para algunos fenomenos, incluso el conocimiento exacto y completo de lascondiciones iniciales no es suficiente para predecir el resultado en forma exacta. Otros piensanque el mundo es completamente determinıstico y que el concepto de incertidumbre solo reflejanuestra falta de conocimiento respecto de los factores y relaciones (por ejemplo, las leyes fısicas)que gobiernan la evolucion de los distintos procesos que ocurren en la naturaleza.

Afortunadamente, la Teorıa de la Probabilidad (el objeto de este curso) ha mostrado ser utilpara modelar sistemas complejos, independientemente de cual de la visiones resenadas en elparrafo anterior es correcta. Desde un punto de vista practico, la seleccion entre un modelodeterminıstico o un modelo aleatorio esta fuertemente influenciada por el objetivo de estudio.Un fenomeno supuestamente aleatorio puede ser representado por un modelo determinıstico sisolo se necesitan estimadores gruesos de una medida de desempeno. Por otro lado, un mode-lo aleatorio puede ser apropiado para representar un sistema determınistico extremadamentecomplejo.

Es prudente establecer que este curso se concentra en modelos aleatorios mas que en fenomenosaleatorios, sin embargo, no profundizaremos mayormente en la diferencia entre estos conceptos.

¿Que es Teorıa de la Probabilidad?

Teorıa de la Probabilidad es la rama de las matematicas que ha sido desarrollada para lidiar conel concepto de aleatoriedad o incertidumbre. Provee el soporte matematico, los fundamentosconceptuales, las leyes y un lenguaje comun para modelar fenomenos (o experimentos) aleato-rios. A un nivel muy basico, el proposto de estos modelos es entender y analizar la estructurade probabilidades de los diferentes resultados posibles del fenomeno.

Ejemplo 1.8. Un modelo para calcular la probabilidad que al lanzar simultaneamente n mon-edas balanceadas, en exactamente k de ellas se obtenga cara es

n!k!(n− k)!

Teorıa de la Probabilidad v/s Estadıstica

La Estadıstica es la disciplina relacionada con los metodos cientificos para la recoleccion, organi-zacion, presentacion y analisis de un set de datos (generalmente, observados bajo incertidunbre),con el objeto de obtener conclusiones que sean utiles en un proceso de toma de decisiones.

Page 5: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 4

La Teorıa de la Probabilidad provee los fundamentos para la ciencia estadıstica, como tambienpara varias otras disciplinas, tales como Teorıa de la Confiabilidad, Teorıa de Colas, ProcesosEstocasticos, Analisis de Riesgo Financiero, etc.

Por otro lado, la gran mayorıa de las veces, los modelos probabilısticos se basan en ciertosvalores numericos denominados parametros, que son caracterısticos del fenomeno estudiado.Con frecuencia, en la vida real, los valores de estos parametros son desconocidos. La inferenciaestadıstica es utilizada en estos casos para estimar los valores de los parametros a partir dedatos observados de la realidad.

Ejemplo 1.9. Basados en el numero de fumadores observado en una encuesta (normalmentehecha a solo una muestra de la poblacion), podemos utilizar un modelo estadıstico para estimarla fraccion de fumadores en la poblacion. Conociendo este parametro, utilizamos un modelode probabilidad para estimar el contenido probable de cualquier muestra o subconjunto de lapoblacion sin necesidad de nuevas encuestas.

1.2. Conceptos basicos en Teorıa de la Probabilidad

Espacio muestral

Definicion 1.1. Sea E un experimento, se define el espacio muestral de E, denotado S,como el set de todos los resultados posibles de E.

Ejemplo 1.10. Si un experimento consiste en lanzar una moneda exactamente una vez, en-tonces S = cara, sello = C, T.

Ejemplo 1.11. Si una moneda es lanzada exactamente dos veces, entonces S =(C,C), (C, T ), (T,C), (T, T ).

Quiz: ¿Cual es el espacio muestral si dos monedas diferentes son lanzadas simultaneamente?.¿Como se modifica su respuesta si las monedas son indistinguibles?.

Ejemplo 1.12. Cuando se testea la duracion de una ampolleta, S = t |t ≥ 0 = <+.

Ejemplo 1.13. Si E consite en lanzar dos dados diferentes y registrar los valores respectivos,entonces

S =

(1, 1), (1, 2), (1, 3), (1, 4), (1, 5), (1, 6)(2, 1), (2, 2), (2, 3), (2, 4), (2, 5), (2, 6)(3, 1), (3, 2), (3, 3), (3, 4), (3, 5), (3, 6)(4, 1), (4, 2), (4, 3), (4, 4), (4, 5), (4, 6)(5, 1), (5, 2), (5, 3), (5, 4), (5, 5), (5, 6)(6, 1), (6, 2), (6, 3), (6, 4), (6, 5), (6, 6)

Page 6: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 5

Ejemplo 1.14. Si dos dados son lanzados y se registra la suma de los resultados respectivos,S = 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12.

Estos ejemplos muestran que el espacio muestral no es una caracterıstica del objeto utilizado enel experimento, sino que depende de la definicion completa del experimento a realizar. Observecomo dos experimentos esencialmente iguales pueden definir espacios muestrales diferentes. Espor eso que estrictamente hablando debe decirse “un espacio muestral asociado al experimentoE”, y no “el espacio muestral del experimento E”. En la Seccion ?? veremos como el con-cepto de variable aleatoria permite relacionar dos espacios muestrales asociados con un mismoexperimento.

Cardinalidad del espacio muestral

Cardinalidad se refiere al numero de elementos en el espacio muestral.

Definicion 1.2. Se dice que un espacio muestral es discreto, si sus elementos pueden colocarseen relacion 1-1 con el set de numeros naturales. Es decir, si su cardinalidad es finita o infinita-contable.

Ejemplo 1.15. Los espacios muestrales descritos en los ejemplos 1.10-1.11 y 1.13-1.14 sontodos discretos.

Ejemplo 1.16. Asuma que el experimento E consiste en lanzar una moneda repetıdamentehasta obtener cara, y registrar el numero de lanzamientos. Observe que aunque nuestra intu-icion indica que el numero de lanzamientos tiene que ser finito, es decir, en algun instantenecesariamente se obtendra cara, no podemos establecer a priori un numero maximo de lanza-mientos. El espacio muestral en este caso es entonces S = 1, 2, 3, . . .. note que S es discretopero infinito.

Definicion 1.3. Se dice que un espacio muestral es continuo si su cardinalidad es no-contable.En general en este caso, el espacio muestral corresponde a uno o varios intervalos en <.

Ejemplo 1.17. El espacio muestral descrito en el Ejemplo 1.12 es continuo.

Nota: Comunmente, los espacios muestrales continuos estan relacionados con tiempo, distan-cias, masa u otra cantidad de medida no contable.

Ejemplo 1.18. Suponga que se desea estudiar las fallas de una maquina. Cada vez que lamaquina falla se registra el tipo de falla y el tiempo que toma la reparacion. Observe que elset de posibles resultados asociados al tipo de falla es discreto, pero el tiempo de reparacion escontinuo. En este caso debe decidirse si estos aspectos seran estudiados en forma independienteo conjunta. La decision depende del objetivo de estudio. Si, por ejemplo, se desea saber como eltipo de falla influencia el tiempo de reparacion, la segunda opcion es la adecuada. En tal caso,tendrıamos un espacio muestral de dos dimensiones, una de ellas discreta y la otra continua.Se dice que un experimento de este tipo tiene un espacio muestral mixto.

Page 7: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 6

Eventos

Definicion 1.4. Sea E un experimento, S un espacio muestral asociado con E, y A ⊆ S. Sedice que A es un evento en S, o cuando no hay confusion posible, que A es un evento en E.

En palabras, un evento es cualquier subconjunto del espacio muestral. Un evento agrupa losresultados que comparten una propiedad de interes. Un resultado individual es en ocasionesdenominado evento elemental. Por definicion ∅ y S son tambien eventos.

Ejemplo 1.19. Si una moneda es lanzada exactamente dos veces (Ejemplo 1.11), el evento deobtener al menos una cara es A = (C,C), (C, T ), (T,C).

Ejemplo 1.20. Si el experimento E consiste en lanzar dos dados diferentes(Ejemplo 1.13), el evento de obtener dos pares o suma mayor a 10 es A =(2, 2), (2, 4), (2, 6), (4, 2), (4, 4), (4, 6), (6, 2), (6, 4), (6, 6), (5, 6), (6, 5).

Ejemplo 1.21. El evento que una ampolleta dure mas de r unidades de tiempo puede expresarsecomo A = t |t > r.

Algebra de los eventos

Todas las propiedades y operaciones asociadas con conjuntos aplican a espacios muestrales yeventos. En particular, si A, B y C son eventos en un espacio muestral S, se cumple que:

1. A ∪B ⊆ S (A ∪B es tambien un evento).

2. A ∩B ⊆ S

3. A ∪ S = S

4. A ∩ S = A

5. A ∪B = B ∪A

6. A ∩B = B ∪A

7. A ∪ (B ∩ C) = (A ∪B) ∩ (A ∪ C)

8. A ∩ (B ∪ C) = (A ∩B) ∪ (A ∩ C)

9. A′ = S −A ⊆ S. A′ is denominado como el evento complementario de A.

10. (A ∪B)′ = A′ ∩B′

11. (A ∩B)′ = A′ ∪B′

12. (A′)′ = A

Page 8: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 7

Definicion 1.5. Se dice que dos eventos A y B don mutuamente excluyentes si A∩B = ∅.Un conjunto A1, A2, . . . , An de eventos es mutuamente excluyentes si Ai y Aj son mutuamenteexcluyentes para todo 1 ≤ i, j ≤ n, i 6= j (ver figura 1.1).

Definicion 1.6. Un conjunto A1, A2, . . . , An de eventos es una particion del espacio muestralS si S = A1 ∪A2 ∪ . . . ∪An, y A1, A2, . . . , An son mutuamente excluyentes.

Ejemplo 1.22. Sea S = 1, 2, . . . , 10, A1 = 1, 2, 3, 4, A2 = 5, 7, 9 y A3 = 6, 8, 10.Entonces A1, A2 y A3 representan un particion de S.

Frecuencia Relativa

Sea E un experimento y S un espacio muestral asociado con E. Sean A y B dos eventos en S.Suponga que E es repetido n veces y defina nA y nB como el numero de veces que se obtieneA y B, respectivamente (observe que en general, A y B pueden ocurrir simultaneamente).

Definicion 1.7. La Frecuencia Relativa del evento A se define como na/n =: fA (tambiendenotada f(A)).

Propiedades de la frecuencia relativa

f1. 0 ≤ fA ≤ 1.

f2. fA = 1 si y solo si A ocurre en todas las repeticiones.

f3. fA = 0 si y solo si A no ocurre.

f4. fA∪B = fA + fB − fA∩B.

f5. fA∪B = fA + fB si y solo si A y B son mutuamente excluyente.

f6. fA′ = 1− fA.

f7. lımn→∞ fA existe. Es decir, fA converge cuando n tiende a infinito. Esta es una conse-cuencia de la regularidad estadıstitica mencionada anteriormente.

1.3. Definiciones de Probabilidad

Definicion 1.8. (clasica) Si un experimento tiene asociado un espacio muestral S compuestopor n (finito) elementos igualmente probables, entonces la probabilidad de un evento A en Sesta dada por

P (A) =numero de resultados en A

numero de resultados totales=

nA

n(1.1)

Page 9: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 8

La equacion 1.1 es comunmente expresada de la siguiente manera:

P (A) =resultados favorables

resultados totales(1.2)

La definicion clasica de probabilidad tiene dos limitaciones importantes: Primero, es circular enel sentido que asume que los posibles resultados del experimento son igualmente “probables”(tienen la misma probabilidad). Segundo, no aplica cuando el numero de resultados en el espaciomuestral es infinito. Sin embargo, a pesar de estas limitaciones, esta definicion provee unaherramienta util en muchos casos, y una intuicion general acerca de concepto de probabilidad.

Una generalizacion, aunque tambien circular, de la Definicion 1.8 esta dada por

P (A) = suma de las probabilidades de los resultados en A (1.3)

Ejemplo 1.23. Sea E el experimento de lanzar un dado balanceado, y A el evento de obtenerun resultado mayor a 4, entonces

P (A) =resultados favorables

resultados totales=

26

o equivalentemente,

P (A) = P (5) + P (6) =16

+16

Ejemplo 1.24. Suponga que para un experimento S = [10, 20] (el intervalo de los reales entre10 y 20), y que todos los resultados son igualmente probables. Si se define A = [12, 16], pareceintuitivamente razonable que

P (A) =resultados favorables

resultados totales=

16− 1220− 10

=410

Veremos en secciones posteriores, que este es efectivamente el caso.

Definicion 1.9. (basada en el concepto de frecuencia relativa) Suponga un experimento E quepuede ser repetido bajo las mismas condiciones un numero indefinido de veces. Se define laprobabilidad del evento A como

P (A) = lımn→∞

fA. (1.4)

Obsevar que la existencia del lımite esta garantizado por la propiedad f7. de la frecuenciarelativa.

La definicion de probabilidad basada en el concepto de frecuencia relativa provee una herramien-ta empırica para estimar probabilidades asociadas con diferentes eventos cuando los resultadosno son igualmente probables. En particular, si el espacio muestral es finito, puede usarse laEcuacion 1.4 para estimar la probabilidad de cada uno de los posibles resultados, y despues laEcuacion 1.3 para calcular la probabilidad de un evento cualquiera.

Page 10: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 9

La principal limitacion de este enfoque es que solo aplica a fenomenos que son repetibles. Inclusocuando ese es el caso, la definicion no provee ningun criterio respecto de que tan grande debeser el numero de repeticiones par obtener un “buen” estimador de P (A). De hecho este es unproblema de caracter estadıstico.

La siguiente es una definicion abstracta que soslaya las dificultades de los enfoques anteriores yprovee un marco matematico preciso para calcular y operar con probabilidades. Ademas, bajolas condiciones respectivas, ambos enfoques pueden interpretarse en el contexto de este marco.

Definicion 1.10. (axiomatica) Sea E un experimento. Sea S un espacio muestral asociado conE. Se denomina funcion de probabilidad, o simplemente probabilidad, a la funcion P ( ) queasocia con cada evento A en S, un numero real P (A) que satisface las siguientes propiedades:

P1. 0 ≤ P (A) ≤ 1

P2. P (S) = 1

P3. P (∅) = 0

P4. Para un set A1, A2, . . . , Ak de eventos mutuamente excluyentes,

P (A1 ∪A2 ∪ . . . ∪Ak) = P (A1) + P (A2) + . . . + P (Ak)

Puede demostrarse facilmente que P1., P2. y P4 implican P3. Otras propiedades son las sigu-ientes:

P5. P (A′) = 1− P (A)

P6. P (A ∪B) = P (A) + P (B)− P (A ∩B)

P7. Si A ⊆ B, entonces P (A) ≤ P (B)

Interpretacion subjetiva de probabilidad

La definicion Axiomatica de probabilidad constituye un set no ambiguo de propiedades que unafuncion de probabilidades debe satisfacer. Sin embargo, no provee orientacion alguna respecto decomo estas probabilidades pueden ser calculadas o interpretadas. En algunos casos, la definicionclasica y la basada en frecuencia relativa proveen tal orientacion. Pero ¿que sucede si el fenomenono puede repetirse bajo las mismas condiciones y el espacio muestral no es finito o equiprobable?.En algunos casos, se pueden hacer supuestos repecto del comportamiento del fenomeno basadosen consideraciones fısicas, o alguna teorıa previa. Pero en muchos otros, la probabilidad solopuede ser intepretada como un grado de conviccion personal respecto de las posibilidades deocurrencia de un evento. En estos casos, se habla de “probabilidades subjetivas”, y tıpicamentese las expresa en terminos de porcentaje.

Page 11: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 10

Por ejemplo, asuma que Ud. piensa que la probabilidad que el senor A gane las proximaselecciones municipales es a. Suponga que Ud. tiene la posibilidad de participar en el siguientejuego: Si el senor A gana las elecciones, Ud. gana X pesos, en otro caso, Ud. paga 1 peso. Parecerazonable que si a es muy pequeno, X debe ser muy grande para que Ud. decida jugar. Por otrolado, si X es grande, implica, que la persona que diseno el juego estima que la probabilidad quegane A es muy pequena. ¿Puede X ser calculada desde a, o viceversa?. En secciones posteriores,veremos que la respuesta a esta pregunta es en cierto sentido afirmativa. Mientras tanto, ¿leparece razonable que si a = 10%, entonces debe X ≥ 9 para que Ud. participe en el juego?.

Espacio de probabilidad

Definicion 1.11. Dado un experimento E, se denomina Espacio de Probabilidad a unespacio muestral S junto con una asignacion de probabilidad para todos los eventos contenidosen S. Formalmente, si F es la familia de todos los eventos en S, y P ( ) es una funcion deprobabilidad, el espacio de probabilidad es la terna (S, F, P ).

Ejemplo 1.25. Sea S = a, b, c. Se tiene F = ∅, a, b, c, a, b, a, c, b, c, a, b, c.El espacio de probabilidad (asumiendo resultados equiprobables) es descrito en el Tabla 1.1.

Tabla 1.1: Espacio de probabilidad Ejemplo 1.25

Evento Probabilidad∅ 0a 1/3b 1/3c 1/3a,b 2/3a,c 2/3b,c 2/3a,b,c 1

Nota: Observe que, en principio, la descripcion del espacio de probabilidad asociado con unexperimento requiere el listado completo de todos los posibles eventos con sus probabilidadesrespectivas. Afortunadamente, veremos en secciones posteriores que, en la mayorıa de los casos,existe una forma mucho mas compacta de representar el espacio de probabilidad.

Page 12: Gatica_Ricardo_-_probabilidades

Capıtulo 2

Espacios de Probabilidad Finitos yTecnicas de Enumeracion

2.1. Espacios de Probabilidad Finitos

Si un espacio muestral consiste en un numero finito de elementos, la Ecuacion (1.3) implicaque la probabilidad de cualquier evento puede calcularse como la suma de las probabilidadesindividuales de los resultados que constituyen el evento. En otra palabras, la funcion de proba-bilidad queda especificada por las probabilidades de los eventos elementales. Mas formalmente,un espacio de probabilidad finito puede describirse completamente por

1. Un espacio muestral de la forma S = s1, s2, . . . , sn

2. Un conjunto p1, p2, . . . , pn, denominado distribucion de probabilidad, que satisface lassiguientes propiedades:

pi ≥ 0, i = 1, 2, . . . , n

p1 + p2 + . . . + pn = 1

donde pi = P (si).

La probabilidad de un evento A = s[1], s[2], . . . , s[k], k ≤ n es entonces calculada por

P (A) = p[1] + p[2] + . . . + p[k] (2.1)

Observe que agregando la definicion P (∅) = 0, la descripcion anterior es completamente con-sistente con la definicion axiomatica de probabilidad (Definicion 1.10).

11

Page 13: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 12

Ejemplo 2.1. Sea S = a, b, c, d, e, f, g y sea .1, .2, .3, .05, .15, .1, .1 la distribucion de prob-abilidades de S. Sea A = a, b, f, B = a, c, d, f y C = d, e, f, g. Se tiene que:

P (A) = .1 + .2 + .1 = .4

P (B) = .1 + .3 + .05 + .1 = .55

P (C) = .05 + .15 + .1 + .1 = .4

A ∪B = a, b, c, d, f y P (A ∪B) = .1 + .2 + .3 + .05 + .1 = .75

A ∩B = a, f y P (A ∩B) = .1 + .1 = .2

A ∩B ∩ C = f y P (A ∩B ∩ C) = .1

C ′ = a, b, c y P (C ′) = .6

2.2. Espacios de Probabilidad Finitos Uniformes

Una tarea basica cuando se analiza un espacio de probabilidad finito es evaluar las probabil-idades de los resulatados individuales. En el Capıtulo 1 vimos que el concepto de frecuenciarelativa provee una herramienta para estimar estas probabilidades cuando el experimento puederepetirse un numero ilimitado de veces. Sin embargo, en el caso mas general, debe hacerse al-gunos supuestos para evaluarlas.

Un supuesto comun es que todos los resultados son igualmente probables. Aunque de hechoexiste una gran viariedad de fenomenos y experimentos que satisfacen esta propiedad, este nodeja de ser un supuesto muy restrictivo, y no puede hacerse sin una justificacion cuidadosa.

Cuando los resultados son igualmente probables, se dice que el espacio de probabilidades equi-probable o uniforme. En este caso, utilizado la definicion de probabilidad clasica(Ecuacion (1.1)), se tiene que

pi =1n

, para todo i = 1, 2, . . . , n

P (A) =k

n, donde k es el numero de elementos en A

Ejemplo 2.2. Si se lanza un dado balanceado, se tiene un espacio de probabilidad uniformecon S = 1, 2, 3, 4, 5, 6 y p1 = p2 = p3 = p4 = p5 = p6 = 1/6.

Ejemplo 2.3. Si el experimento consiste en lanzar dos dados balanceados distinguibles , setiene un espacio de probabilidad uniforme con S = (i, j) : i, j = 1, 2, . . . , 6 y pij = 1/36 paratodo i, j.

Page 14: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 13

Ejemplo 2.4. Si el experimento consiste en lanzar dos dados balanceados distinguibles y regis-trar la suma de los resultados, se tiene que S = 2, 3, . . . , 12. En este caso se puede verificar,por ejemplo, que P (2) = 1/36 y P ((5) = 4/36. Por lo tanto el espacio de probabilidad noes uniforme.

Quiz: Encuentre la distribucion de probabilidades asociada al espacio muestral descrito en elEjemplo 2.4.

2.3. Tecnicas de Enumeracion

La tarea principal cuando se calcula la probabilidades de un evento A asociado a un espaciomuestral finito uniforme S, es calcular el numero de resultados en A (resultados favorables) yel numero total de resultados en S (resultados totales). Esto es trivial si la cardinalidad delespacio muestral es pequena (una enumeracion total, o un diagrama de arbol es normalmentesuficiente) como en los ejemplos anteriores. En la medida que el tamano del espacio muestral seincrementa, esta tarea se vuelve cada vez mas difıcil. En esta seccion presentamos una coleccionde herramientas que nos permiten abordar esta dificultad. Estas herramientas son conocidascomo tecnicas de enumeracion, o mas informalmente como tecnicas de conteo.

1. Diagramas de Arbol

Un diagrama de arbol permite enumerar todas las formas alternativas en que puede resultarun experimento que consite en k etapas secuenciales. Es util cuando la cardinalidad del espaciomuestral es pequena.

Para construir un diagrama de arbol se parte de un punto denominado raız y se agrega unnumero de ramas equivalentes al numero de resultados posibles de la primera etapa. Entoncesse toma cada rama generada en la primera etapa y se divide en tantas ramas como resultadosposibles existen para la segunda etapa si la primera etapa resulta en la forma representada porla rama que se esta examinando. Procediendo de esta manera, para j = 2, 3, . . . , k, tomamoscada rama generada en la etapa j − 1 y la dividimos en tantas ramas como resultados posiblesexisten para la etapa j si las etapas 1 a j − 1 resultan de la forma representada por la rutadesde la raız hasta la rama actual. El numero total de resultados del experimento es el numerototal de ramas generadas en la etapa k.

Ejemplo 2.5. Suponga que se tiene un estante con tres cajones, cada cajon tiene dos com-partimientos. En un cajon hay dos monedas de oro (una en cada compartimiento). En el otrocajon, hay dos monedas de plata. En el ultimo cajon hay una moneda de oro y una de plata. Sise selecciona aleatoriamente un cajon y un compartimiento, ¿cual es la probabilidad de encon-trar una moneda de oro?. Si la moneda encontrada es oro, ¿cual es la probabilidad que el otrocompartimiento del mismo cajon contenga una moneda de plata?.

Page 15: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 14

Figura 2.1: Diagrama de arbol Ejemplo 2.5

La mayorıa de los principiantes responden “1/2” a ambas preguntas (¿entiende Ud. la logicade estas respuestas?). La respuesta correcta puede obtenerse utilizando un diagrama de arbol.En este caso, el experimento consiste en dos etapas. la primera etapa es seleccionar un cajon,y la segunda es seleccionar un compartimiento. El diagrama se muestra en la Figura 2.5.

Si P (oro) es la respuesta a la primera pregunta, y P (plata/oro) es la respuesta a la segundapregunta, se tiene

P (oro) =numero de compartimientos con una moneda de oro

numero total de compartimientos=

36

=12

P (plata/oro) =numero de comps. con oro que tienen plata en el comp. adyacente

numero de comps. con oro=

13

Nota: Este es un ejemplo complicado, donde la intuicion normal generalmente falla. La segundaprobabilidad es un ejemplo de lo que denominaremos probabilidad condicional. En el Capıtu-lo ??, presentaremos el Theorema de Bayes, que proporciona una manera elegante de resolverel problema.

2. Principio de Multiplicacion

Suponga que un experimento consiste en k procedimientos o etapas. Suponga tambien que:

El primer procedimiento tiene n1 resultados posibles

Para j = 2, 3, . . . , k, independientemente del resultado de los procedimientos 1 a j − 1, elprocedimiento j tiene nj resultados posibles.

Entonces, el numero total de resultados del experimento es

n1n2 . . . nk

Nota: Observe que solo se requiere que el numero de resultados de un procedimiento no dependadel resultado obtenido en los procedimientos anteriores. No se requiere que los nj resultadosposibles del procedimiento j sean los mismos independientemente de los resultados anteriores.

Ejemplo 2.6. El numero maximo de placas de patente consistentes en dos letras y dos numerosque pueden ser emitidas es 26 ∗ 26 ∗ 10 ∗ 10 ∗ 10 ∗ 10 = 6760000.

Quiz: ¿Cual es numero maximo de placas de patente que empiezan con un 2?.

Page 16: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 15

Ejemplo 2.7. El numero de palabras de tres letras empezadas en vocal, que pueden formarseutilizando las letras de la palabra “musica” es 3 ∗ 5 ∗ 4 = 60.

Quiz: Repita el Ejemplo 2.7 utilizando las letras de la palabra “musicologo”.

3. Principio de Adicion

Suponga que un experimento puede realizarse de k formas alternativas y excluyentes. Supongaademas que si el experimento se realiza de la forma j, hay nj resultados posibles. Entonces elnumero total de resultados posibles para el experimento es

n1 + n2 + . . . + nk.

Ejemplo 2.8. Si una carta es seleccionada al azar de un mazo ingles, el numero de formasposibles de obtener un rojo impar o un trebol es numero de corazones impar+numero dediamantes impar+numero de treboles= 7 + 7 + 13 = 27.

Nota: El principio de Adicion es analogo a la propiedad P4. de la funcion de probabilidad (verla Definicion 1.10).

Los principios de multiplicacion y adicion permiten construir tecnicas de conteo bastante massofisticadas. A continuacion se presentan tres conceptos claves en analisis combinatorial. Entodos ellos suponemos que se extraen sucesivamente k objetos de un set the n objetos. Laseleccion es al azar, es decir, cada vez que se extrae un objeto, todos los objetos todavıadisponibles en el set tienen la misma probabilidad de ser seleccionadas. Si cada vez que seextrae un objeto este es devuelto al set, se dice que las extracciones son con reemplazo, en casocontrario, las extracciones son sin reemplazo.

4. Permutaciones

Una permutacion de k desde n objetos es una seleccion ordenada de k objetos tomados sinreemplazo de un set de n objetos distinguibles. Esto es equivalente a seleccionar k objetossimultaneamente y luego ordenarlos.

El numero total de permutaciones de k desde n objetos se denota por Pnk y esta dado por

Pnk =

n!(n− k)!

(2.2)

Para derivar (2.2), suponga que se tiene k casilleros para ser llenados y n objetos para elegir.El primer casillero puede ser llenado con cualquiera de los n objetos. Una vez llenado el primercasillero, hay n − 1 objetos disponibles, cualquiera de los cuales puede usarse para llenar elsegundo casillero. Despues de llenar el segundo casillero, quedan n − 2 objetos disponibles, y

Page 17: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 16

ası sucesivamente. Para el k-esimo casillero habra n − k + 1 objetos disponibles. Aplicando elprincipio de multiplicacion, se tiene

Pnk = n(n− 1)(n− 2) . . . (n− k + 1) =

n!(n− k)!

Observe que si k = n, entonces Pnn = n! es el numero total de maneras de ordenar un set de n

objetos.

Ejemplo 2.9. El numero total de permutaciones de 5 cartas tomadas de un mazo de 52 cartases 52!/47! = 52 ∗ 51 ∗ 50 ∗ 49 ∗ 48 = 311875200.

Nota: Una seleccion ordenada de k objetos tomados con reemplazo de un set de n objetos esen ocasiones llamada permutacion con reemplazo. El principio de multiplicacion implica que elnumero total de permutaciones con reemplazo de k desde n objetos es nk (¿por que?).

5. Combinaciones

Una combinacion de k desde n objetos es una seleccion o subconjunto de k objetos tomados sinreemplazo de un set de n objetos distinguibles, sin ninguna consideracion de orden. El numerototal de combinaciones de k desde n objetos se denota Cn

k y esta dado por

Cnk =

n!k!(n− k)!

(2.3)

Observe que la diferencia clave entre el concepto de permutacion y el concepto de combinaciones que las permutaciones consideran el orden en que los objetos son extraıdos, mientras lascombinaciones solo consideran el contenido de la seleccion. Por ejemplo, suponga que se tienelos objetos A, B, C y D, y se quiere seleccionar tres objetos sin importar el orden (esto es unacombinacion de 3 desde 4 objetos). Las unicas alternativas son ABC, ABD, ACB y BCD. Seconcluye que existen solo cuatro combinaciones de tres objetos. Considere ahora, por ejemplo,la combinacion ABC y observe que puede ser ordenada de las siguientes 3! = 6 maneras: ABC,ACB, BAC, BCA, CAB y CBA. Estos ordenamientos representan diferentes permutaciones dela misma combinacion. Repitiendo el argumento para todas las combinaciones, se concluye quehay C4

3 ∗ 3! = 24 permutaciones de 3 desde 4 objetos. Generalizando, se tiene

Cnk k! = Pn

k ,

o equivalentemente,

Cnk =

Pnk

k!=

n!k!(n− k)!

Ejemplo 2.10. El numero e comites de tres miembros que pueden formarse en un grupo deocho personas es C8

3 = 8!/(3! ∗ 5!) = 56.

Page 18: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 17

Quiz: ¿cuantos comites de cinco personas pueden formarse?

Los numeros Cnk son tambien denotados por (n

k), y tienen, entre otras, las siguientes propiedades:

a) Cnk = Cn

n−k

b) Cnk = Cn−1

k−1 + Cn−1k

Una forma intuitiva de entender la propiedad a) es mediante la simple observacion que selec-cionar k objetos de un total de n es equivalente a descartar n − k objetos. La interpretacionde b) es un poco mas complicada. Considere un objeto especıfico en el set, denominado a1.Este objeto puede estar incluıdo en la seleccion, o puede estar excluıdo, pero no pueden ocurrirambas cosas. Si a1 esta incluıdo, deben seleccionarse k1 objetos adicionales de un total de n− 1disponibles. Si a1 no esta incluıdo, entonces deben seleccionarse k objetos de un total de n− 1disponibles. Como las opciones son excluyentes, el principio de adicion implica que el numerototal de maneras de seleccionar los k objetos es Cn−1

k−1 + Cn−1k .

Quiz: Demostrar las propiedad a) y b) algebraicamente.

Quiz: Demostrar la relacion Pnk = Pn−1

k + k!Pn−1k−1

6. Permutaciones con objetos repetidos

Previamente consideramos sets en que todos los objetos eran distinguibles. Ahora supongaque algunos de los objetos son identicos. Mas precisamente, suponga que tenemos un set de nobjetos, de los cuales n1 son tipo 1, n2 son tipo 2,. . . y nr son tipo r. Por supuesto, se tienen1 + n2 + . . . + nr = n. Objetos del mismo tipo son indistinguibles entre si. El numero depermutaciones (distintas) de los n objetos es

n!n1!n2! . . . nr!

Ejemplo 2.11. El numero de permutaciones diferentes de la palabra MISSISSIPPIes 11!/(1! ∗ 4! ∗ 4! ∗ 2!) = 34650.

2.4. Ejercicios Propuestos

2.1. Un comite de cinco personas debe ser seleccionado de un set de quince candidatos. En-cuentre el numero de maneras que esto puede ser hecho si el comite consiste en:

a) cinco miembros de igual autoridadb) presidente, vice-presidente, secretario, tesorero y delegadoc) presidente, vice-presidente, y tres directores (directores tienen la misma autoridad)

Page 19: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 18

2.2. Suponga que Ud. tiene tres libros de gramatica, cinco de matematicas, y cuatro de historia.Asumiendo que todos los libros son diferentes, encuentre el numero de maneras que los librospueden ordenarse en un estante si:

a) sin condicionb) los libros de cada materia deben permanecer juntosc) solo los libros de matematicas deben permanecer juntosd) un libro de gramatica debe ser el primeroe) un libro de gramatica debe ser el primero, y un libro de matematicas debe ser el ultimof) repetir a)-e) asumiendo que los libros de una misma materia son indistinguibles

2.3. Encuentre la probabilidad que una mano de cinco cartas tomadas de un naipe ingles:

a) no contenga corazonesb) contenga al menos un corazonc) contenga solo corazonesd) contenga la reina de hojae) no contenga la reina de hojaf) contenga el As de hoja y el As de diamanteg) contenga el As de hoja, el As de diamante, y ningun otro Ash) contenga dos corazones, dos hojas y un trebol impari) contenga todas las cartas de la misma pinta

2.4. Hay siete iglesias en el pueblo. Tres visitantes escogen una iglesia al azar para asistir amisa. Encuentre la probabilidad que:

a) los tres visitantes elijan la misma iglesiab) no todos elijan la misma iglesiac) todos elijan diferentes iglesiad) al menos dos de ellos elijan la misma iglesia

2.5. Encuentre la probabilidad que una mano de cuatro cartas contenga dos pares diferentes.

2.6. Encuentre la probabilidad que una mano de cinco cartas contenga:

a) dos ases y dos reyes (y no tres ases o tres reyes)b) dos ases o dos reyesc) a lo mas dos hojasd) exactamente dos hojas y a lo mas un corazone) exactamente dos hojas y al menos un corazon

2.7. Encuentre el numero de maneras que cinco americanos y cinco chilenos pueden sentarse

a) en una filab) en un circulo (rotaciones se consideran como el mismo ordenamiento

si no puede haber dos americanos ni dos chilenos juntos.

Page 20: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 19

2.8. Un comite de seis personas es seleccionado desde una poblacion de 4 rusos, 7 franceses y6 chilenos. Encuentre la probabilidad que el comite contenga al menos un ruso y un chileno.

2.9. Una caja contiene 10 bolas blancas, 20 rojas y 30 verdes. Si se extraen 5 bolas sin reemplazo,encuentre la probabilidad que la seleccion contenga:

a) 3 blancas o 2 rojas o 5 verdesb) todas la bolas del mismo colorc) exactamente una roja y al menos una blancad) ninguna roja o solo rojas

2.10. Explique por que el siguiente procedimiento para contar el numero de palabras de sieteletras con tres veces la letra A es incorrecto, y provea el correcto.

- escoja una posicion para la primera A- escoja una posicion para la segunda A- escoja una posicion para la tercera A- complete las posiciones restantes con letras diferentes de ARespuesta: 7 ∗ 6 ∗ 5 ∗ 254 (equivocada).

2.11. Una caja contiene M bolas. R bolas son rojas y M −R son verdes. Si se extraen exacta-mente k (k > R) bolas sin reemplazo, encuentre la probabilidad que las dos ultimas bolas rojassean seleccionadas en las ultimas dos extracciones.

2.12. Una caja contiene 20 bolas rojas, 20 verdes y 20 azules. Si se extraen 10 bolas sin reem-plazo, encuentre la probabilidad que al menos un color no este incluıdo en la seleccion.

2.13. Si una moneda balanceada es lanzada doce veces, encuentre la probabilidad que se obtenganexactamente cinco caras.

2.14. Una caja contiene 3 bolas rojas, 5 verdes y 2 blancas. Si se extraen 3 bolas sin reemplazo,encuentre la probabilidad que las tres sean de diferentes colores.

2.15. Un closet contiene ocho pares de zapatos. Si cinco zapatos son seleccionados al azar,encuentre la probabilidad que la seleccion contenga:

a) ningun parb) exactamente un parc) exactamente dos pares

Page 21: Gatica_Ricardo_-_probabilidades

Capıtulo 3

Probabilidad Condicional eIndependencia de Eventos

3.1. Ejemplo Introductorio

Considere un experimento que consiste en seleccionar una persona al azar de un grupo de 250personas agrupadas de la siguiente manera:

Hombres MujeresFumadores 55 35

No Fumadores 75 85

Defina los siguientes eventos:

H = la persona es hombreM = la persona es mujerF = la persona fumaN = la persona no fuma

Preguntas:

a) ¿Cual es la probabilidad que la persona sea una mujer fumadora?b) ¿Cual es la probabilidad que la persona sea mujer?c) ¿Si la persona resulta ser hombre, cual es la probabilidad que sea fumador?

Como todas las personas del grupo tienen la misma posibilidad de ser escogidas, contestaremosestas preguntas utilizando la Ecuacion (1.1) para espacios muestrales.

Nota: Utilizaremos notacion que definiremos mas adelante.

20

Page 22: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 21

Respuestas:

a) P (M ∩ F ) = numero de mujeres fumadorastotal de personas = 35

250 (Probabilidad Conjunta)

b) P (M) = # mujeres fumadoras + # mujeres no fumadorastotal de personas = 35+85

250 (Probabilidad Total)

c) P (F/H) = numero de hombres fumadorestotal de hombres = 55

55+75 (Probabilidad Condicional)

Observe que en c) ya se sabe que la persona es hombre, entonces, al aplicar (1.1) se reduce elnumero total de resultados (el denominador) al numero total de hombres (en vez del numerototal de personas como en a) y b)). En este caso se dice que el espacio muestral ha sido reducidoal evento la persona es hombre.

3.2. Probabilidad Conjunta y Condicional

Probabilidad Conjunta

Definicion 3.1. Sean A y B dos eventos arbitrarios en el espacio muestral S. La probabilidadconjunta de A y B es la probabilidad del evento A ∩ B, es decir, la probabilidad de que elresultado este contenido en A y B simultaneamente.

Probabilidad Condicional

Definicion 3.2. Sean A y B dos eventos arbitrarios en el espacio muestral S, tal que P (B) > 0.Definiremos la probabilidad condicional de A dado B, denotada P (A/B), como:

P (A/B) = P (A ∩B)/P (B) (3.1)

P (A/B) es la probabilidad que el resultado pertenezca a A, si se sabe que pertenece a B.En otras palabras, P (A/B) es la probabilidad de A dado que se tiene la informacion que Bocurrio. Formalmente, se dice que P (A/B) es la probabilidad de A cuando el espacio muestrales reducido desde S a B (ver Figura 3.1). De este modo, se puede pensar en P (A) como P (A/S).Para verificar esto observe que

P (A/S) = P (A ∩ S)/P (S) = P (A)/1 = P (A).

Nota: A/B no es un evento.

Page 23: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 22

Figura 3.1: Esquema Probabilidad Condicional

Ejemplo 3.1. Considere un experimento que consiste en extraer dos artıculos sin reemplazode un conjunto de diez artıculos. Siete de los objetos no son defectuosos, y tres de ellos sondefectuosos. Defina los siguientes eventos:

A =el primer objeto es defectuosoA′ =el primer objeto no es defectuosoB =el segundo objeto es defectuoso

Entonces:

P(A)=3/10

P(A’)=7/10

P (B ∩A) = C32/C10

2 = 1/15

P (B ∩A′) = 21/90 (¿por que?)

P (B/A) = P (B ∩A)/P (A) = (1/15)/(3/10) = 2/9

P (B/A′) = P (B ∩A′)/P (A′) = (21/9)/(7/10) = 3/9

Observe que estos resultados son intuitivos. Si el primer artıculo resulta ser defectuoso, en-tonces el segundo objeto debe ser seleccionado de un conjunto de 9 objetos con 2 defectuosos.Similarmente, si el primer objeto no es defectuoso, el segundo objeto debe ser seleccionado deun conjunto de 9 objetos con 3 defectuosos. Ademas observe que este es el mismo razonamientoque se utilizo anteriormente al aplicar el Principio de Multiplicacion.

Quiz: Repita el ejemplo asumiendo que los objetos se extraen con reemplazo. ¿Comentarios?.

Page 24: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 23

Propiedades de la Probabilidad conjunta y condicional

Sean A y B dos eventos arbitriarios en un espacio muestral S. Entonces:

C1. Si A y B son mutuamente excluyentes, entonces P (A ∩B) = P (A/B) = P (B/A) = 0

C2. Si A ⊆ B, entonces P (B/A) = P (B ∩A)/P (A) = P (A)/P (A) = 1

C3. P (·/A) es una funcion de probabilidad. Esto significa que, para una condicion fija A, lasprobabilidades condicionales satisfacen todas las propiedades (P1. a P7.) de una funcionde probabilidad.

C4. Si A1, A2, . . . , Ak son eventos mutuamente excluyentes en S, entonces

P (A1 ∪A2 ∪ . . . ∪Ak/B) = P (A1/B) + P (A2/B) + . . . + P (Ak/B)

Nota: Esto es consecuencia directa de C3.

C5. Teorema de la Multiplicacion de las Probabilidades

P (A/B)P (B) = P (B/A)P (A) = P (A ∩B)

(Por que?)

C6. Teorema de la Probabilidad Total

Sea A1, A2, . . . , Ak una particion de S, entonces

P (B) = P (B ∩A1) + P (B ∩A2) + . . . + P (B ∩Ak), (3.2)

o equivalentemente,

P (B) = P (B/A1)P (A1) + P (B/A2)P (A2) + . . . + P (B/Ak)P (Ak). (3.3)

Nota: Comunmente, cuando se calcula utilizando las ecuaciones (3.2) o (3.3), P (B) esreferida como la probabilidad total o marginal de B.

Nota: Observe que, en particular, A y A′ representan una particion de S. Por lo tanto elTeorema de la Probabilidad Total implica

P (B) = P (B ∩A) + P (B ∩A′). (3.4)

C7. Sea A1, A2, . . . , Ak una particion de S, entonces:

P (B∩A) = P (B∩A1)+P (B∩A2)+. . .+P (B∩Ak) = P (B/A1)P (A1)+. . .+P (B/Ak)P (Ak).

Quiz: Comprobar la propiedad C7.

Nota: En C1. a C7. asuma P (A) > 0, P (B) > 0 y/o P (Ai) > 0 segun sea necesario.

Page 25: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 24

Figura 3.2: Teorema de la Probabilidad Total

3.3. Independencia de Eventos

Definicion 3.3. Sean A y B dos eventos arbitrarios en un espacio muestral S. A y B sonindependientes si

P (A ∩B) = P (A)P (B) (3.5)

Propiedad 3.1. Si A y B son eventos independientes, entonces:

a) P (A/B) = P (A)

b) P (B/A) = P (B)

Nota: En efecto (3.5), a) y b) son equivalentes, es decir, cualquiera de ellas implica las otrasdos.

La independencia de los eventos A y B implica que la informacion relativa a la ocurrencia ono ocurrencia de uno de ellos no provee informacion adicional respecto de la probabilidad deocurrencia del otro.

Ejemplo 3.2. Considere un experimento que consiste en lanzar dos dados balanceados distin-guibles. Defina los siguientes eventos en el espacio muestral usual (36 pares ordenados):

A =el primer dado es parB =el segundo dado es 1 o 6

Parece intuitivamente obvio que el resultado de un lanzamiento no influencia (no aporta infor-macion) sobre el resultado del otro lanzamiento, en consecuencia A y B debieran ser independi-entes. Para comprobarlo, verifique mediante enumeracion (recordemos que estamos trabajandoen el espacio muestral de 36 pares)que:

Page 26: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 25

P (A) = 18/36 = 1/2

P (B) = 12/36 = 1/3

P (A ∩B) = 6/36 = 1/6 = 1/2 ∗ 1/3 = P (A)P (B)

Por lo tanto, nuestra intuicion es correcta. Note ademas que:

P (A/B) = P (A ∩B)/P (B) = (1/6)/(1/3) = 1/2 = P (A)

P (A/B) = P (A ∩B)/P (B) = (1/6)/(1/3) = 1/2 = P (A)

lo que verifica la propiedad 3.1.

Ejemplo 3.3. Considere nuevamente el Ejemplo 3.1. Utilizando el Teorema de la ProbabilidadTotal, tenemos:

P (B) = P (B ∩A) + P (B ∩A′) = 1/15 + 21/90 = 3/10

Dado que P (B/A) = 2/9 6= P (B), se concluye que A y B no son independientes. Observe,sin embargo, que P(A)=P(B), es decir, la probabilidad no condicional (o total) que el segundoobjeto sea defectuoso es la misma que la probabilidad que el primero sea defectuoso. Este ejemplodemuestra que este hecho no puede ser interpretado como independencia. Observe ademas, quela dependencia entre A y B puede concluirse del hecho que P (B/A) 6= P (B/A′) (¿Por que?).

Nota: En general, cuando extraemos objetos sin reemplazo desde un conjunto de objetos, laprobabilidades no condicionales o totales asociada con la primera, segunda,. . . , etc., extraccionson las mismas que las probabilidad asociada a la primera extraccion.

Nota: Observe que en general, si dos sucesos A y B son mutuamente excluyentes, no sonindependientes. En efecto, P (A/B) = 0 y P (B/A) = 0, por lo tanto, la ocurrencia de unode estos eventos, previene la ocurrencia del otro. Esto implica, que descontando el caso trivialcuando P (A) = P (B) = 0, A y B son altamente dependientes.

Definicion 3.4. Para k ≥ 3, se dice que k eventos A1, A2, . . . , Ak, son mutuamente indepen-dientes si cada subconjunto de k − 1 eventos son mutuamente independientes y

P (A1 ∩A2 ∩ . . . ∩Ak) = P (A1)P (A2) . . . P (Ak).

Ejemplo 3.4. Considere un experimento que consiste en lanzar dos dados balanceados distin-guibles. Defina los siguientes eventos en el espacio muestral uniforme usual (36 pares ordena-dos):

Page 27: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 26

A =El primer dado es parB =El segundo dado es parC =La suma de los dados es par

Como los resultados son equiprobables, es facil verificar por enumeracion (tarea para el lector)que:

P (A) = P (B) = 1/2

P (C) = 18/36 = 1/2

P (A ∩B) = 1/4 = 1/2 · 1/2 = P (A)P (B) ⇒ A y B son independientes

P (A ∩ C) = 1/4 = P (A)P (C) ⇒ A y C son independientes

P (B ∩ C) = 1/4 = P (B)P (C) ⇒ B y BC son independientes

Observe que P (C/A) = P (B) y P (C/B) = P (A) (¿por que?). Entonces P (A ∩C) y P (B ∩C)pueden ser calculados tambien como:

P (A ∩ C) = P (A)P (C/A) = P (A)P (B) = 1/2 · 1/2 = 1/4

P (A ∩B) = P (B)P (C/B) = P (B)P (A) = 1/2 · 1/2 = 1/4.

Pero A, B y C no son mutuamente independientes. Puede verificarse por enumeracion que

P (A ∩B ∩ C) = 1/4 6= P (A)P (B)P (C).

El problema surge del hecho que (A ∩B) ⊆ C, lo que implica que P (C/A ∩B) = 1 6= P (C).

3.4. El Teorema de Bayes

Teorema 3.1. Sea B1, B2, . . . , Bk una particion del espacio muestral S, y sea A un eventoarbitrario en S, con P (A) > 0, entonces

P (Bj/A) =P (Bj/A)P (A)

P (A)=

P (Bj ∩A)P (A)

=P (A/Bj)P (Bj)∑k

i=1(P (A/Bi)P (Bi))(3.6)

Page 28: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 27

Nota: Observe que en (3.6) simplemente aplicamos el Teorema de la Multiplicacion de lasProbabilidades (Propiedad C5.) al numerador, y el Teorema de la Probabilidad Total (PropiedadC6.) al denominador.

El Teorema de Bayes es util para calcular las llamadas probabilidades a posteriori. Cuandodos eventos A y B pueden ser logicamente ordenados (generalmente utilizando una relacion detiempo), y el orden esta dado por (A,B), entonces P(B/A) se llama probabilidad a priori, yP(A/B) se llama probabilidad a posteriori.

Ejemplo 3.5. Dos maquinas distintas M1 y M2 producen artıculos identicos. 10 % de los artıcu-los producidos por M1 son defectuosos, y 95 % de los producidos por M2 son no defectuosos. Ungrupo de 120 artıculos contiene 40 artıculos provenientes de M1 y 80 de M2. Si se seleccionaun artıculo al azar y resulta ser defectuoso, ¿cual es la probabilidad que el artıculo provenga deM1?. ¿Y de M2?.

Defina los siguientes eventos:

M1 =el artıculo proviene de M1M2 =el artıculo proviene de M2D =el artıculos es defectuosoN =el artıculos no es defectuoso

Se tiene la siguiente informacion:

P (M1) = 40/120 = 1/3

P (M2) = 80/120 = 2/3

P (D/M1) = 0.1

P (N/M2) = 0.95 ⇒ P (D/M2) = 0.05.

Entonces

P (M1/D) =P (D/M1)P (M1)

P (D/M1)P (M1) + P (D/M2)P (M2)=

0.1 · 1/30.1 · 1/3 + 0.05 · 2/3

=12

Ejemplo 3.6. Considere nuevamente el Ejemplo 2.5 (este ejemplo fue utilizado para ilustrarlos diagramas de arbol). El enunciado es el siguiente: Suponga que se tiene un estante con trescajones, cada cajon tiene dos compartimientos. En un cajon hay dos monedas de oro (una encada compartimiento). En el otro cajon, hay dos monedas de plata. En el ultimo cajon hay unamoneda de oro y una de plata. Si se selecciona al azar un cajon y un compartimiento, ¿cual es

Page 29: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 28

la probabilidad de encontrar una moneda de oro?. Si la moneda encontrada es oro, ¿cual es laprobabilidad que el otro compartimiento del mismo cajon contenga una moneda de plata?.

Definamos los siguientes eventos:

C1 =se selecciona el cajon con 2 monedas de oroC2 =se selecciona el cajon con 2 monedas de plataC3 =se selecciona el cajon con 1 moneda de oro y una de plataO =se encuentra una moneda de oroQ =se encuentra una moneda de plata

Se tiene la siguiente informacion:

P (C1) = P (C2) = P (C3) = 1/3

P (O/C1) = 1

P (Q/C2) = 1

P (O/C3) = P (Q/C3) = 1/2

Entonces,

P (O) = P (O/C1)P (C1)+P (O/C2)P (C2)+P (O/C3)P (C3) = 1 ·1/3+0 ·1/3+1/2 ·1/3 = 1/2

La segunda probabilidad puede ser interpretada como:

P (C3/O) =P (C3 ∩O)

P (O)=

P (O/C3)P (C3)P (O)

=1/2 · 1/3

1/2=

13

3.5. Ejercicios

3.1. Encuentre la probabilidad de que una carta sacada de un mazo de cartas sea un rey, si Ud.ya sabe que es una figura.

3.2. Dos cartas son extraıdas de un mazo ingles. Encuentre la probabilidad que:

a) la segunda carta sea una reina dado que la primera es una reinab) la segunda carta sea una reina dado que la primera es un Asc) se obtenga exactamente un As dado que la primera fue Asd) se obtenga al menos un As dado que la primera fue As

Page 30: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 29

3.3. Dos dados son lanzados. Encuentre la probabilidad que:

a) el primer dado sea 6 dado que la suma es 8.b) el primer dado sea impar dado que la suma es 8c) un dado sea 6 dado que la suma es 8.

3.4. Una caja contiene dos bolas rojas y una azul. Se extrae una bola de la caja y se reemplazapor una bola azul, luego se extrae una segunda bola. Encuentre la probabilidad que la segundabola sea azul.

3.5. La probabilidad de que un misil destruya el blanco es de 0.8. Los misiles son disparadosindependientemente al blanco hasta que el blanco es destruıdo. Encuentre la probabilidad de quese necesiten mas de tres misiles para destruir el blanco.

3.6. Asuma que usted saca cartas de un mazo de una a la vez. Encuentre la probabilidad deobtener un corazon antes que una carta negra.

3.7. Un dado cargado tiene P (1) = 0.2, P (2) = 0.3, P (3) = P (4) = P (5) = P (6) = 0.125. Siusted lanza el dado repetidas veces, encuentre la probabilidad de obtener:

a) un numero mayor que dos en el primer intentob) un numero par en el segundo intentoc) un numero par en el segundo intento dado que obtuvo un numero mayor que dos en elprimero.d) un numero impar en el quinto intento si en el primero y segundo intento obtuvo un 3.e) un 2 antes que un 1.

3.8. Una moneda cargada tiene probabilidad p de obtener cara, y 1 − p de obtener sello. Si lamoneda es lanzada 5 veces, encuentre la probabilidad de obtener:

a) 5 sellos.b) a lo menos una cara.c) la secuencia sello, sello, cara, cara, sellod) cualquier secuencia especıfica conteniendo exactamente dos caras y tres sellose) dos caras y tres sellos en cualquier ordenf) al menos tres sellos.

3.9. La moneda 1 tiene probabilidad .5 de obtener cara. La moneda 2 tiene probabilidad .25 deobtener cara. Encuentre la probabilidad de obtener dos caras si:

a) una moneda es seleccionada al azar y lanzada dos vecesb) Una moneda es seleccionada y lanzada una vez, y luego el proceso se repite.

3.10. Sean A, B y C eventos tales que P (A ∪ B) = 0.7, P (C) = 0.3, P (A/B) = P (B/A) yP (A ∩B/C) = P (C/A ∩B). Encuentre P (A) y P (B).

Page 31: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 30

3.11. Asuma que el 0.5 % de una poblacion tiene cancer. Un examen medico diagnostica canceren el 99 % de las personas que efectivamente tienen cancer, y en el 3 % en las personas que notienen cancer. Marıa ha sido diagnosticada con cancer. Encuentre la probabilidad de que ellano tenga cancer.

3.12. Si una maquina esta bien ajustada, solo el 4 % de los artıculos que produce son defec-tuosos. Pero si la maquina no esta bien ajustada, el 10 % de los artıculos son defectuosos.La maquina esta bien ajustada el 90 % de las veces. Encuentre la probabilidad que la maquinaeste bien ajustada si:

a) se tomo una muestra de 10 artıculos y no se encontro ninguno defectuosob) se tomo una muestra de 10 artıculos y 2 resultaron defectuosos (Recuerde el Ejercicio ??)c) los artıculos fueron inspeccionados de a uno y el primer defectuoso se encontro en la decimainspeccion.

3.13. AlwaysCola Ltda. tiene dos productos: A-cola y B-cola. Basados en los resultados de unaencuesta reciente, la companıa ha proporcionado las siguientes estimaciones:

Producto Hombres MujeresA-cola 66 %B-cola 30 % 50 %Ambas 14 %

Ninguna

Los numeros en la tabla representan el porcentaje de personas que consumen el respectivo pro-ducto (por ejemplo: El 66 % de los hombres consume A-cola). La encuesta tambien revelo queel 45 % de los consumidores de A-cola son mujeres, y que el 21 % de las personas consume soloB-cola. Si el porcentaje de hombres en la poblacion es 50 %, complete la tabla y encuentre elporcentaje de consumidores de AlwaysCola.

3.14. Suponga P (A) = 0.3, P (B) = 0.5 y P (A/B′) = 0.4. Encuentre:

a) P (B′)b) P (A ∩B′)c) P (A ∩B)d) P (A ∪B)

Page 32: Gatica_Ricardo_-_probabilidades

Capıtulo 4

Variables Aleatorias y Funciones deProbabilidad

4.1. Ejemplo Introductorio

Considere los siguientes experimentos:

Experimento 1: Lanzar dos dados distinguibles y registrar los resultados respectivos.

Experimento 2: Lanzar dos dados distinguibles y registrar la suma de los resultados.

Sean S1 y S2 los espacios muestrales asociados al experimentos 1 y 2, respectivamente. Enejemplos anteriores se ha establecido que

S1 = (1, 1), (1, 2), . . . , (1, 6), (2, 1), (2, 2), . . . , (6, 6) yS2 = 2, 3, . . . , 12.

La idea en este ejemplo es relacionar estos dos experimentos y sus espacios de probabilidad.Asumiendo que los dados son balanceados, se sabe que los resultados en S1 son equi-probables.Observar que para calcular la distribucion de probabilidades de S2, puede verse los elementosde S2 como eventos en S1. La Tabla 4.1 presenta estos calculos.

Sea F1 la familia de todos los eventos posibles en S1. La Tabla 4.1 muestra que S2 ⊂ F1. Porlo tanto el espacio de probabilidad asociado con el Experimento 1 provee toda la informacionnecesaria para definir el espacio de probabilidad del Experimento 2. Notar que S1 * F2, loque implica que esta no es una relacion de equivalencia, es decir, no es posible calcular ladistribucion de probabilidades del Experimento 1 utilizando la distribucion de probabilidadesdel Experimento 2.

31

Page 33: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 32

Tabla 4.1: Distrinucion de Probabilidades Experimento 2.Resultado en S2 Evento en S1 Resultados Probabilidad

favorables2 (1,1) 1 1/363 (1,2), (2,1) 2 2/364 (1,3), (2,2), (3,1) 3 3/365 (1,4), (2,3), (3,2),(4,1) 4 4/366 (1,5), (2,4), (3,3), (4,2), (5,1) 5 5/367 (1,6), (2,5), (3,4), (4,3), (5,2), (6,1) 6 6/368 (2,6), (3,5), (4,4), (5,3), (6,2) 5 5/369 (3,6), (4,5), (5,4), (6,3) 4 4/3610 (4,6), (5,5), (6,4) 3 3/3611 (5,6), (6,5) 2 2/3612 (6,6) 1 1/36

Para entender la relacion descrita en el parrafo anterior, puede pensarse que el Experimento 2esta compuesto de 2 fases. La primera fase consiste en lanzar los dados y registrar los resultadosindividuales. La segunda fase consiste en calcular y registrar la suma de los resultados. Obser-var, que de hecho, la primera fase corresponde al Experimento 1. Ademas, la segunda fase essimplemente una operacion determinıstica. En otras palabras, puede pensarse en S2 como unsegundo espacio muestral asociado con el Experimento 1.

Nota: En general, puede definirse un experimento como compuesto por una fase aleatoria yuna fase determinıstica. Si dos experimentos tienen la misma fase aleatoria, puede pensarse enellos como el mismo experimento con dos espacios muestrales distintos asociados. Observar queesto no implica la equivalencia de sus espacios de probabilidad.

Para formalizar la relacion entre S1 y S2, se procede como sigue: Sea P1 la funcion de probabili-dad asociada con el Experimento 1, y P2 la funcion de probabilidad asociada con el Experimento2. Sea X : S1 → S2 una funcion definida por X(i, j) = i + j. Entonces, se tiene que para todok ∈ S2

P2(k) = P1((i, j) ∈ S1 : X(i, j) = k) = P1((i, j) ∈ S1 : i + j = k).

Observar que la funcion X es una representacion matematica de la segunda fase del Experi-mento 2. Muchas otras funciones podrıan definirse en S1, generando una variedad de espaciosmuestrales asociados con el experimento. Este tipo de funciones son llamadas variables aleato-rias. Notar que el caracter aleatorio de X viene del hecho que su dominio es un espacio muestral,y no de su naturaleza funcional (la que es determinıstica).

Page 34: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 33

Figura 4.1: Ilustracion del concepto de variable aleatoria

4.2. Variables Aleatorias

Definicion 4.1. Sea E un experimento, y S un espacio muestral asociado con E. Una funcionX que asigna a cada elemento s ∈ S un numero real X(s) se denomina variable aleatoria(v.a.)1.

Nota: Implıcito en la definicion de variable aleatoria esta el requerimiento que X(s) este definidopara todo s ∈ S, y que X(s) ∈ <.

Definicion 4.2. El rango de una variable aleatoria X, denotado RX , es el conjunto de todoslos valores posibles de X.

Ejemplo 4.1. Considere el experimento de lanzar una moneda tres veces consecutivas. Ento-ces S = CCC, CCT,CTC, TCC, CTT, TCT, TTC, TTT. Sea X el numero de caras que seobtienen, entoces el rango de X es RX = 0, 1, 2, 3.

Cuando se piensa en RX como un nuevo espacio muestral asociado con S, aparece como naturalasociarle los conceptos de evento y probabilidad. Se dice que B es un evento en RX , o en unaforma menos precisa que B es un evento de X, si B ⊆ RX . Para definir una funcion deprobabilidad en RX se introduce el concepto se eventos equivalentes.

Definicion 4.3. Sea E un experimento y S un espacio muestral asociado con E. Sea X unavariable aleatoria definida en S. Sea A ⊆ S y B ⊆ RX . Se dice que A y B son equivalentes si

A = s ∈ S : X(s) ∈ B.

En palabras, A y B son equivalentes si A contiene todos y solo los elementos cuya imagen,despues de aplicar la funcion X, esta contenida en B (ver Figura 4.2).

1Comunmente se usara “v.a.” para abreviar “variable aleatoria”.

Page 35: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 34

Figura 4.2: Ilustracion eventos equivalentes.

Ejemplo 4.2. En el ejemplo introductorio de la Seccion 4.1, X = 5 es equivalente a(1, 4), (2, 3), (3, 2), (4, 1).

Ejemplo 4.3. En el ejemplo introductorio de la Seccion 4.1, X ≤ 4 es equivalente a(1, 1), (1, 2), (1, 3), (2, 1), (2, 2), (3, 1).

Definicion 4.4. Sea E un experimento y S un espacio muestral asociado con E. Sea X unavariable aleatoria definida en S. Se define la funcion de probabilidad de X como sigue: Si A ⊆ Sy B ⊆ RX tal que A y B son equivalentes, entonces

PX(B) = PS(A) = P (s ∈ S : X(s) ∈ B).

En palabras, la probabilidad de un evento en RX es la probabilidad de su evento equivalente enS. El lector puede verificar que PX(·) satisface las propiedades de una funcion de probabilidad(ver Definicion 1.10).

Ejemplo 4.4. En el ejemplo introductorio de la Seccion 4.1, X ≤ 4=6/36=1/6.

Ejemplo 4.5. En el Ejemplo 4.1, PX = 2 = PCCT, CTC, TCC = 3/8.

Notacion: Es convencional utilizar letras mayusculas, tales como X, Y , Z, etc., para denotarvariables aleatorias, y letras minusculas, tales como x, y, z, etc., para denotar los valores queuna v.a. puede tomar (es decir, elementos del rango de la v.a.).

Notacion: Observe que hemos utilizado la notacion PX para especificar que la funcion deprobabilidad esta definida en el rango de X, y PS cuando esta definida en el espacio muestraloriginal. Con frecuencia, cuando no hay posibilidad de inducir a errores los subındice X y Sse omiten. Tambien, cuando un evento es expresado por comprension o extension, la notacionP (.....) sera reemplazada por P......

Page 36: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 35

4.3. Variables Aleatorias Discretas

Definicion 4.5. Se dice que una variable aleatoria X es discreta (denotado X es v.a.d.) si surango RX es finito o infinito-contable. Es decir, el rango de X puede escribirse de la formaRX = x1, x2, . . ..

Funcion de Probabilidad Puntual

Definicion 4.6. Sea X una variable aleatoria discreta. La funcion de probabilidad puntual(f.p.p.) de X es la funcion p(·) que asocia a cada elemento xi ∈ RX un valor real pi = p(xi) =PX = xi.El valor pi es conocido como la probabilidad puntual de xi. Se denominada distribucion deprobabilidades de X a la coleccion de pares (xi, pi)2.

Observar que, por definicion, RX contiene todos los valores posibles de la v.a. X. Ademas, comolos eventos X = xi, i = 1, 2, . . ., son claramente excluyentes, estos constituyen una particiondel espacio muestral S asociado con X. Por lo tanto se tiene que:

pi ≥ 0, (4.1)∑xi∈RX

pi = 1. (4.2)

Usando un argumento similar, la probabilidad de un evento B = x[1], x[2], . . . , x[k] ⊆ RX escalculada como

P (B) = Pxi ∈ B =k∑

i=1

p[i].

Notacion: Como en casos anteriores, se utiliza la notacion pX(xi) cuando es necesario especi-ficar que la v.a. es X.

Ejemplo 4.6. Considere nuevamente el Ejemplo 4.1, la f.p.p. de X esta dada por p0 = 1/8,p1 = 3/8, p2 = 3/8 y p3 = 1/8.

Ejemplo 4.7. (La Distribucion Geometrica) Suponga que una moneda no balanceada tieneprobabilidad p de salir cara. Sea E un experimento que consiste en lanzar la moneda repetida-mente hasta obtener cara. Defina X como el numero total de lanzamientos. La funcion deprobabilidad puntual de X esta dada por la expresion

pk = PX = k = (1− p)k−1p, para k = 1, 2, . . . . (4.3)2Observar las similitudes con las definiciones de la Seccion 2.1

Page 37: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 36

Para derivar (4.3), observar que RX = 1, 2, . . ., y que el evento X = k es equivalente a seobtienen k − 1 sellos sucesivos y despues una cara. El resultado se confirma por el hecho quelos lanzamientos son independientes. La condicion (4.1) es claramente satisfecha. Para verificar(4.2), observar que

∞∑k=1

pk =∞∑

k=1

(1− p)k−1p = p

∞∑i=0

(1− p)i =p

1− (1− p)= 1.

Se dice que una variable aleatoria con f.p.p dada por (4.3) tiene una distribucion geometrica, oque es una variable aleatoria geometrica con parametro p.

Notacion: Cuando el rango de una v.a.d. es el set de numeros naturales, es convencional utilizarla notacion k en lugar de xk para denotar los elementos del rango de la variable.

Ejemplo 4.8. (La Distribucion Binomial) Suponga que una moneda no balanceada tieneprobabilidad p de salir cara. Sea E un experimento que consiste en lanzar la moneda exactamenten veces. Sea X el numero de caras que se obtienen. Entonces la funcion de probabilidad puntualde X esta dada por

pk = PX = k =(

n

k

)pk(1− p)n−k, para k = 0, 1, . . . , n. (4.4)

Para derivar (4.4), observar que hay(nk

)formas de obtener exactamente k caras y n− k sellos,

y cada una de esas formas ocurre con probabilidad pk(1− p)n−k (ver Ejercicio 3.8).

Se dice que una variable aleatoria con f.p.p. dada por (4.4) tiene distribucion bimomial, o esuna variable aleatoria binomial con parametros n y p.

Quiz: Demuestre que la distribucion binomial satisface (4.2).

4.4. Variables Aleatorias Continuas

Definicion 4.7. Se dice que una variable aleatoria X es continua (denotado Xes v.a.c.) si surango RX consiste en uno o mas intervalos en <.

Funcion de Densidad de Probabilidades

Definicion 4.8. Sea X una variable aleatoria continua. La funcion de densidad de probabil-idades (f.d.p) de X es una funcion f definida en RX que permite representar el espacio deprobabilidades de X, y satisface:

Page 38: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 37

D1. f(x) ≥ 0 para todo x ∈ RX .

D2.∫

RX

f(x)dx = 1.

D3. P (A) =∫

Af(x)dx, para todo A ⊆ RX .

Se denomina distribucion de probabilidades de X al conjunto (x, f(x)), x ∈ RX.

Nota: Puede verificarse que la funcion P (·) definida en D3. satisface todas la propiedades deuna funcion de probabilidad.

Nota: Con frecuencia, para simplificar la notacion, la f.d.p. es definida en todo el conjunto <,de la siguiente manera:

f(x) =

f(x) si x ∈ RX

0 otro caso.

Por ejemplo, con esta notacion D2. puede escibirse∫RX

f(x)dx =∫ ∞

−∞f(x)dx = 1.

Tambien, si A = X ≤ a, se tiene que

P (A) =∫

Af(x)dx =

∫x∈RX :x≤a

f(x)dx =∫ a

−∞f(x)dx

Notacion: Como en casos anteriores, se utiliza la notacion fX(·) en lugar de f(·) cuando esnecesario especificar que la v.a. es X.

La definicion 4.8 sugiere varias observaciones: Primero, f(x) no es la probabilidad de x. Dehecho, para cualquier valor fijo a

PX = a =∫X=a

f(x)dx =∫ a

af(x)dx = 0.

Es decir, la probabilidad de cualquier valor especıfico en RX es cero. Sin embargo, esto parececontradictorio, pues si a ∈ RX , entonces por definicion a es un valor posible para X. Paraanalizar este tipo de situaciones, se utiliza la siguiente terminologıa [Ash]: Un evento A es segurosi contiene todos los elementos de RX (A ⊇ RX). La probabilidad de un evento seguro es uno.Un evento es imposible si no contiene ningun elemento de RX (A ∩ RX = ∅). La probabilidadde un evento imposible es cero. Existen, sin embargo, eventos con probabilidad uno que no sonseguros, y eventos con probabilidad cero que no son imposibles. Para referirse a esos casos, sedice que el evento A ocurre (P (A) = 1) o no ocurre (P (A) = 0) “casi seguramente”.

Page 39: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 38

Ejemplo 4.9. Suponga que Ud. lanza una moneda balanceada repetıdamente. Sea X el numerode lanzamientos hasta obtener cara por primera vez. En tonces es posible pensar que Ud, siguelanzando la moneda por siempre sin nunca obtener cara. La probabilidad de tal evento es, sinembargo, .5∞ = 0. Por lo tanto se dice que X es finita casi “casi seguramente”. Note que estono implica que el rango de X pueda ser acotado por algun valor finito.

Segundo, si A = [a, b] = x : a ≤ x ≤ b, entonces P (A) es

P (A) =∫

Af(x)dx =

∫ b

af(x)dx = 0,

lo que puede ser interpretado como el area bajo la curva de la f.d.p. entre a y b (ver figura 4.3).Uniendo esto a la primera observacion, se tiene que la funcion de probabilidad, en el caso dev.a.c. no distingue entre intervalos abiertos y cerrados. Mas especıficamente,

Pa ≤ X ≤ b = Pa ≤ X < b = Pa < X ≤ b = Pa < X < b.

Figura 4.3: Representacion grafica de las probabilidades de una v.a.c.

Page 40: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 39

Figura 4.4: Interpretacion de la f.d.p

La tercera y ultima observacion se refiere a al interpretacion de la f.d.p.: Sea δ suficientementepequena, tal que f(x) es aproximadamente constante en el intervalo [a− δ/2, a + δ/2]. Se tiene

Pa− δ/2 ≤ x ≤ a + δ/2 =∫ a+δ/2

a−δ/2f(x)dx ≈ f(a)δ.

La funcion f(x) puede ser interpretado entonces, como la “tasa de probabilidad” de X en unavecindad de x (ver Figura 4.4). Usando esta interpretacion, se tiene, por ejemplo que f(a)/f(b)es la razon de las probabilidades que X se encuentre en una vecindad infinitesimal alrededorde a y b, respectivamente.

Ejemplo 4.10. Sea X una v.a.c. con RX = [0, 1]. Suponga que Ud. tiene la idea algo ambiguapero justificada que la probabilidad que X tome un valor cercano a x es directamente proporcianala x. Parece entonces razonable asumir que la f.d.p. de X esta dada por

f(x) = kx, para 0 ≤ x ≤ 1.

Utilizando la propiedad D2. en la Definicion 4.8, se tiene∫ 1

0kxdx =

kx2

2

∣∣∣∣10

=k

2= 1 ⇒ k = 2.

La probabilidad que X este en el intervalo [a, b] es

Pa ≤ x ≤ b =∫ b

a2xdx = x2

∣∣∣∣ba

= b2 − a2.

Ejemplo 4.11. Sea X una v.a.c. con RX = [a, b]. Suponga ahora que los resultados son todosequiprobables, entonces

f(x) = k, para a ≤ x ≤ b.

Page 41: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 40

Utilizando la propiedad D2. en la Definicion 4.8, se tiene∫ b

akdx = kx

∣∣∣∣ba

= k(b− a) = 1 ⇒ k =1

b− a.

La probabilidad que X este en el intervalo [c, d] es

Pa ≤ x ≤ b =∫ d

c

1b− a

dx =x

b− a

∣∣∣∣dc

=c− d

b− a.

Se dice que una variable aleatoria con f.d.p. como la descrita en el Ejemplo 4.11 tiene distribucionuniforme entre a y b. Observe que en este caso, la probabilidad que X este en un intervaloarbitrario [c, d] es directamente proporcional al largo del intervalo.

Ejemplo 4.12. Suponga que Ud. encontro en su contestadora automatica un mensaje de uncorreo privado diciendo que hay un paquete para Ud., y que lo entregaran en su domicilio entrelas 15:00 y la 18:00. Ud. no va a llegar a casa hasta la 16:00, y quiere estimar la probabilidadque pueda recibir el paquete. Sin Informacion adicional, parece razonable asumir que el tiempode arribo del cartero esta uniformemente distribuıdo entre las 15:00 y las 18:00. La probabilidadque Ud. se encuentre en casa al momento del arribo, serıa entonces 120/180 = 2/3.

Informacion util para mejorar esta estimacion puede ser, por ejemplo, si Ud. supiera que laempresa de entregas programa ventanas de tiempo de una hora, pero que a los clientes daventanas de tres horas para cubrirse de inprevistos. En ese caso, serıa mas probable que elpaquete llegara entre la 16:00 y las 17:00.

El Ejemplo 4.12 muestra que la distribucion uniforme representa un nivel de conocimiento muypequeno respecto del comportamiento de un fenomeno. Por esa razon, esta distribucion no esmuy comun en el mundo real. La regla general es que a mayor conocimiento se tenga de unfenomeno, mejor es el modelo que se puede contruir para representar su conducta probabilıstica.

4.5. Funcion de Distribucion Acumulada

Definicion 4.9. Sea X una variable aleatoria. Se define como la funcion de distribucion acu-mulada(f.d.a.) de X a la funcion F (·) que asigna a cada x ∈ < el valor

F (x) = PX ≤ x = Pw ∈ RX : w ≤ x.

Teorema 4.1. Sea X una variable aleatoria.

1. Si X es una v.a.d., entonces

F (x) = Pxi ∈ RX : xi ≤ x =∑

i:xi≤x

pi.

Page 42: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 41

Figura 4.5: Funcion de Distribucion Acumulada Ejemplo 4.13.

2. Si X es una v.a.c., entonces

F (x) =∫w≤x

f(w)dw =∫ x

−∞f(w)dw.

Ejemplo 4.13. Considere un experimento que consiste en lanzar una moneda balanceada exac-tamente tres veces. Sea X el numero de caras obtenidas. La f.p.p. de X esta dada por p0 = 1/8,p1 = 3/8, p2 = 3/8 y p3 = 1/8. La f.d.a. de X esta dada por (ver Figura 4.5)

F (x) =

0 si x < 01/8 si 0 ≤ x < 14/8 si 1 ≤ x < 27/8 si 2 ≤ x < 31 si 3 ≤ x

.

Ejemplo 4.14. Sea X una v.a.c. con f.d.p. f(x) = 2x, 0 ≤ x ≤ 1. La f.d.a. de X es (verFigura 4.14)

F (x) =

0 si x < 0x2 si 0 ≤ x < 11 si 1 ≤ x

.

Nota: Observar que F (·) se define siempre en todo <, no solo en RX . Si X es una v.a.d.,entonces F (·) es una funcion escalonada, con discontinuidades de magnitud pi en xi. Si X esuna v.a.c, entonces F (·) es una funcion continua.

Page 43: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 42

Figura 4.6: Funcion de Distribucion Acumulada Ejemplo 4.14.

Propiedades de la Funcion de Distribucion Acumulada

Propiedad 4.1. Sea X una v.a. con f.d.a F (·), Se tiene:

F1. F (·) es no-decreciente. Es decir, si x1 < x2, entonces F (x1) ≤ F (x2).

F2. lımx→−∞ F (x) = 0 y lımx→∞ F (x) = 1.

F4. Si X es v.a.d. con RX = x1, x2, . . ., entonces p1 = F (x1) y pi = F (xi)− F (xi−1), parai = 2, 3, . . ..

F4. Si X es v.a.c., entonces f(x) =∂F (x)

∂x, y Pa ≤ x ≤ b = F (b)− F (a).

Nota: Es muy importante destacar que tanto la funcion de distribucion acumulada como ladistribucion de probabilidades (f.p.p. o f.d.p., segun corresponda) proveen informacion completarespecto de la propiedades probabilisticas de la variable aleatoria. Por tanto, cualquiera de ellaspuede utilizarse para describir en forma compacta el espacio de probabilidad asociado, evitandoası la necesidad de expresarlo en forma explıcita.

Quiz: ¿Como se imagina Ud. una variable aleatoria mixta discreta-continua?

4.6. Funciones de Variables Aleatorias

En esta seccion se estudian funciones de variables aleatorias de la forma Y = H(X). Si E es unexperimento, S un espacio muestral asociaso con E, y X una variable aleatoria definida en S,entonces Y es tambien una variable aleatoria, pues Y asigna a cada valor s ∈ S, un valor realy = H(X(s)). Esto se muestra graficamente en la Figura 4.7. Se define el rango de Y, denotadoRY , como el set de todos los valores posibles de Y .

Page 44: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 43

Figura 4.7: Ilustracion funciones de variables aleatorias

Definicion 4.10. Sea E un experimento y S un espacio muestral asociado con E. Sea X unavariable aleatoria definida en S, Y = H(X). Sea C ⊆ RY , B ⊆ RX y A ⊆ S. Si

B = x ∈ RX : H(x) ∈ C,

se dice que B y C son equivalentes. Si ademas

A = s ∈ S : X(s) ∈ B,

se dice que A, B y C son equivalentes.

Al igual que con RX , puede pensarse en RY como un nuevo espacio muestral asociado con S, yasignar probabilidades a los diferentes eventos en RY . Si A, B y C satisfacen las condiciones de laDefinicion 4.10, se tiene por la Definicion 4.4 que P (C) := P (B) := P (A). Mas especıficamente,

PY (C) = PXx ∈ RX : H(x) ∈ C = PSs ∈ S : X(s) ∈ B = PSs ∈ S : H(X(s)) ∈ C.

Es decir, se puede calcular la probabilidad de un evento en RY como la probabilidad de suevento equivalente en RX , o como la probabilidad de su evento equivalente en S.

Nota: Observar que todo evento C ⊆ RY tiene un evento equivalente en RX , pero si la funcionno es H(·) no es invertible, un evento B ⊆ RX puede no tener un evenmto equivalente en RY .

4.6.1. Distribucion de probabilidad de una funcion de una variable aleatoria

Caso 1: X es v.a.d.

Es intuitivamente obvio que si X es una variable aleatoria discreta, entonces Y = H(X) estambien discreta.

Page 45: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 44

Tabla 4.2: Distribucion de Probabilidades Ejemplo 4.15

yj Evento en RX pY (yj)0 X = 2 3/81 X = 1 o X = 3 1/22 X = 0 1/8

Sea X una v.a.d. e Y = H(X). Suponga que RX = x1, x2, . . . y RY = y1, y2, . . .. SeaΩj = xi ∈ RX : H(xi) = yj, entonces la distribucion de probabilidades de Y esta dada por

pY (yj) = PY = yj = PX(Ωj) =∑

xi∈Ωj

pX(xi), para j = 1, 2, . . . .

Ejemplo 4.15. Sea X una v.a. con distribucion de probabilidades (0, 18), (1, 3

8), (2, 38), (3, 1

8).Sea Y = |X−2|. Se tiene que RY = 0, 1, 2. La distribucion de probabilidades de Y se presentaen la Tabla 4.2.

Caso 2: X es v.a.c, Y es v.a.d.

Sea X una v.a.c. con f.d.p f(·). Sea Y = H(X) y asuma que Y es discreta. Sea Ωj = x ∈ RX :H(x) = yj, entonces la distribucion de probabilidades de Y esta dada por

pY (yj) = PY = yj = PX(Ωj) =∫

Ωj

f(x)dx, para j = 1, 2, . . . .

Ejemplo 4.16. Sea X una v.a.c. con f.d.p. f(x) = x/20, 3 ≤ x ≤ 7. Sea Y = bx/2c, entoncesRY = 1, 2, 3. La distribucion de probabilidades de Y se presenta en la Tabla 4.3.

Tabla 4.3: Distribucion de Probabilidades Ejemplo 4.16

yj Evento en RX pY (yj)1 3 ≤ X < 4 7/402 4 ≤ X < 6 20/403 6 ≤ X ≤ 7 13/40

Quiz: Calcule las probabilidades de la Tabla 4.3.

Caso 3: X es v.a.c, Y es v.a.c.

Sea X una v.a.c. con f.d.p f(·). Sea Y = H(X) y asuma que H(·) es una funcion continua, en-tonces Y es una v.a.c. La f.d.p. de Y , denotada fY (·) puede determinarse utilizando el siguienteprocedimiento [Meyer]:

Page 46: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 45

Figura 4.8: Representacion v.a. Y en Ejemplo 4.17

Paso 1: Obtener el rango de Y .

Paso 2: Obtener FY (y) = P (Y ≤ y) = Px ∈ RX : H(x) ≤ y.

Paso 3: Obtener fY (y) =∂FY (y)

∂y.

Nota: El punto clave en este procedimiento es con frecuencia la adecuada definicion del eventoen RX equivalente a Y ≤ y.

Ejemplo 4.17. Sea X una v.a.c con fX(x) = .05, 10 ≤ x ≤ 30, y sea Y = (X − 20)2. Paraencontrar fY (·) se procede como sigue:

Paso 1: Puede verificarse en la Figura 4.8 que RY = [0, 100].

Paso 2:

FY (y) = PY ≤ y = PX(X − 20)2 ≤ y= PX|X − 20| ≤ √

y= PX−

√y ≤ X − 20 ≤ √

y= PX20−√y ≤ X ≤ 20 +

√y

= .05 ∗ 2√

y

= .1√

y

Paso 3:

fY (y) =∂FY (y)

∂y=

.05√

y.

Page 47: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 46

Teorema 4.2. Sea X una v.a.c. con f.d.p. f(·). Sea Y = H(X) con H(·) una funcion diferen-ciable y monotona (por lo tanto invertible). Entonces

fY (y) = f(H−1(y)|∂H−1(y)∂y

|

Ejemplo 4.18. Sea X una v.a.c. con fX(x) = .05x, 3 ≤ x ≤ 7. Sea Y = X2 (observar queH(x) = x2 es una funcion diferenciable y creciente en el intervalo [3, 7]). Se tiene:

RY = [9, 49]H−1(y) =

√y

∂H−1(y)∂y

=1

2√

y

Por lo tanto,

fY (y) = (.05√

y)| 12√

y| = .025.

Se concluye que fY (y) = 0.025, 9 ≤ y ≤ 49, es decir, Y es una variable aleatoria uniforme enel intervalo [9, 49].

Funciones de varias variables aleatorias

Sean X y Z variables aleatorias. Se han definido en la presente seccion, las funciones de unavariable aleatoria individual de la forma Y = H(X). Sin embargo, nada impide definir funcionesde varias variables aleatorias, por ejemplo, W = H(X, Z). Claramente, W tambien es unavariable aleatoria. Este topico sera discutido en el Capıtulo 8. En este capıtulo, simplemente sebusca establecer la existencia de tales funciones.

Un caso especial de funciones de varias variables aleatorias que se presentara con cierta fre-cuencia en capıtulos posteriores es el siguiente: Sea X1, X2, . . . , Xk, un conjunto de variablesaleatorias, y sean α1, α2, . . . , αk, numeros reales. Se dice que Y es una combinacion lineal deX1, X2, . . . , Xk, si

Y = α1X1 + α2X2 + . . . + αkXk.

4.7. Ejercicios

4.1. Suponga que una estacion de servicio vende gasolina de un solo tipo. La estacion recibelos envıos desde el proveedor una vez a la semana. El volumen de venta semanal (en miles debarriles) es una v.a. X con f(x) = k(1 − x)4, 0 ≤ x ≤ 1. ¿Que capacidad debiera tener eldeposito de la estacion para asegurar que la probabilidad de deficit sea a lo mas 1 %.

Page 48: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 47

4.2. Sea X una v.a.d. con f.p.p. PX = j = aj(1− a), j = 0, 1, 2, . . .

a) ¿Para que valores de “a” la f.p.p. descrita es valida?b) Provea una interpretacion de X.c) Encuentre una expresion para PX > s y PX ≥ s, con s un entero no-negativo.d) Demuestre que PX > s + t/x > s = PX ≥ t.

4.3. Un experimento consiste en seleccionar un numero desde una distribucion dada por PI =i = .5i, i = 1, 2, . . ., y despues lanzar una moneda cargada con probabilidad e−I de obtenercara. Si el experimento es realizado y se obtiene cara, encuentre la probabilidad que el numeroseleccionado fue 2.

4.4. Sea X una v.a.c. con la siguiente f.d.p.:

f(x) =

ax si 0 ≤ x ≤ 1a si 1 < x ≤ 2a(3− x) si 2 < x ≤ 3

.

a) Determine el valor de la constante a.b) Determine y grafique la f.d.a. de X.c) Encuentre PX > 1/X < 2d) Encuentre PX < 2.5/X ≥ .5.

4.5. Un punto es seleccionado al azar desde un intervalo de largo L, dividiendo ası el intervaloen dos segmentos. Encuentre la probabilidad que la razon entre el segmento mas corto y el maslargo sea menor a .25.

4.6. La vida util de cierto componente electronico es una v.a.c. con f(x) = 100/x2, x > 100.

a) Encuentre la probabilidad que el componente dure menos de 200 hrs., si se sabe que esta aunen condiciones operativas despues de 150 hrs.b) Si tres de tales componentes son instalados en una maquina, encuentre la probabilidad queexactamente uno de ellos deba ser reemplazado antes de 150 hrs.c)Encuentre el mınimo numero de componentes que debe ser instalados en una maquina demanera que la probabilidad que al menos un componente dure mas 150 hrs. sea igual o superiora .95.

4.7. Sea X una variable aleatoria con la siguiente f.d.a.:

F (x) =

0 si x < 0x/3 si 0 ≤ x < 1x/2 si 1 ≤ x < 21 si 2 ≤ x

.

a) Grafique F (·).b) ¿Es X discreta o continua?.

Page 49: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 48

c) Encuentre P.5 ≤ X ≤ 1.5.d) Encuentre P1 < X < 2.e) Encuentre P1 ≤ X ≤ 2.f) Encuentre PX = 1.g) Encuentre PX < 1.

4.8. Sean X, Y y Z variables aleatorias independientes con la misma f.d.a. F (w) = 1 − e−w.Encuentre:

a) Pmax(X, Y, Z) ≤ 5b) Pmın(X, Y, Z) ≥ 3c) Pmın(X, Y, Z) ≥ 3 y max(X, Y, Z) ≤ 5d) Pmın(X, Y, Z) ≤ 3 y max(X, Y, Z) ≤ 5

4.9. Un blanco consiste en cuatro cırculos concentricos de radios 1, 2, 3 y 5 cm., respectiva-mente. Los disparos que impactan en el interior del cırculo central tienen 10 puntos, disparosen el primer anillo tienen 5 puntos, en el segundo anillo tienen 2 puntos, y en el tercer anillono tienen puntaje. El punto de impacto de los disparos es una variable aleatoria distribuidauniformemente en toda el area del blanco. Impactos fuera del blanco tienen probabilidad cero.Encuentre la f.p.p. y la f.d.a del puntaje total despues de un disparo, y despues de dos disparos.Los disparos se asumen independientes.

4.10. Considere el siguiente juego: Un jugador selecciona un punto al azar desde el cuadrado0 ≤ x ≤ 1, 0 ≤ y ≤ 1. El jugador gana si las coordenadas del punto son ambas mayores que b.Encuentre b de tal manera que el juego tenga probabilidad .5 de exito.

4.11. Sea X una v.a.c. con f(x) = kx, −1 ≤ x ≤ 3, e Y = X2. Encuentre:

a) El valos de k.b) PX < 2c) PY < 1d) PY < 2e) PY > 1, X < 2f) PY > 1/X < 2g) PX < 0/Y < 1h) PX < 0/Y < 2i) La f.d.a. y la f.d.p. de Y .

4.12. Sea X una v.a.c. con f(x) = kx, −1 ≤ x ≤ 3, e Y = 9−X2. Encuentre:

a) PY < 8.5b) PY < 8/X > 0c) PX > 0/Y > 8d) La f.d.a. y la f.d.p. de Y .

Page 50: Gatica_Ricardo_-_probabilidades

Capıtulo 5

Principales Caracterısticas de lasVariables Aleatorias

En este capıtulo se presentan varias medidas que se utilizan para describir en forma resumidala distribucion de probabilidad de una variables aleatoria.

5.1. Valor Esperado

El concepto de promedio o media de un conjunto de numeros nos es familiar. Si tenemos nvalores x1, x2, . . . , xn, entonces la media aritmetica se define como x =

∑ni=1(xi/n). Por ejemplo,

suponga que usted participa en el siguiente juego: Una moneda balanceada es lanzada 3 veceso hasta obtener cara (lo que suceda primero). Si se obtiene cara en el primer, segundo o tercerlanzamiento usted ganara $2, $4 u $8, respectivamente. Si no obtiene cara, usted perdera $20. Deeste modo, si X es la variable aleatoria que representa la ganancia neta, entonces la distribucionde probabilidad de X esta dada por (2, 1/2), (4, 1/4), (8, 1/8), (−20, 1/8). Si ud juega n vecesy define Xi como la cantidad de dinero que usted gana en la ronda i, entonces X representara elpromedio ganado por juego (note que X es una combinacion lineal de variables aleatorias, porlo tanto es una variable aleatoria).

En general, parece razonable que usted estara dispuesto a participar en el juego si existen“buenas posibilidades” que la ganancia promedio por juego sea positiva. Si se define n0 comoel numero de veces que no obtenemos cara, y para i = 1, 2, 3, ni como el numero de veces queobtenemos cara en el i-esimo lanzamiento, se tiene que:

Ganancia promedio =2n1 + 4n2 + 8n3 − 20no

n= 2

n1

n+4

n2

n+8

n3

n−20

n0

n= 2f1+4f2+8f3−20f0

49

Page 51: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 50

donde fi representa las frecuencias relativas respectivas. Como lımn→∞ fi = pi, se tiene que:

lımn→∞

Ganancia promedio = 2p1 + 4p2 + 8p3 − 20p0 = 2 · 1/2 + 4 · 1/4 + 8 · 1/8− 20 · 1/8 = 0.5

La propiedad de regularidad nos dice que la ganancia promedio por juego va a tender a estevalor luego de muchos, muchos juegos.

Definicion 5.1. Sea X una variable aleatoria con cierta distribucion de probabilidad. Se defineel Valor Esperado(tambien llamado media o esperanza) de X, denotado por E(X), como:

1. Si X es una variable aleatoria discreta

E(X) =∑

xi∈Rx

pixi (5.1)

2. Si X es una variable aleatoria continua

E(X) =∫

Rx

xf(x)dx (5.2)

Nota: Observe que E(X) no necesita ser un valor en RX (como muestra el ejemplo introduc-torio).

Nota: El valor esperado de una variable aleatoria no es una variable aleatoria, es una constante,es una caracterıstica numerica de la distribucion de probabilidad.

Notacion: Comunmente, E(X) se denota tambien por µX , o, cuando no existe posibilidad deconfusion, simplemente por µ.

Sea E un experimento y X una variable aleatoria asociada a E. Como se ha indicado anterior-mente, si E se repite n veces y se difine Xi como la variable aleatoria asociada con la i-esimarepeticion. Entonces X =

∑ni=1(Xi/n) tiende a E(X) a medida que n aumenta. Veremos mas

adelante que La Ley de los Grandes Numeros permite modelar esta tendencia.

Observar que el concepto de valor esperado es analogo al concepto de “centro de masa” enmecanica. En este sentido, el valor esperado representa el “centro” de la distribucion de proba-bilidad. Por esta razon, se dice que E(X) es una medida de tendencia central. En un sentidogeneral, se espera que los valores de la variable aleatoria se concentren alrededor de E(X).

Ejemplo 5.1. Sea E un experimento que consiste en lanzar dos dados balanceados, y sea X lavariable aleatoria que representa la suma de los valores de los dados. Entonces:

E(X) = 2 · 136

+3 · 236

+4 · 336

+5 · 436

+6 · 536

+7 · 636

+8 · 536

+9 · 436

+10 · 336

+11 · 236

+12 · 136

= 7

Page 52: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 51

Ejemplo 5.2. (La Distribucion Geometrica) Si X es una variable aleatoria geometrica(ver Ejemplo 4.7), entonces el valor esperado de X esta dado por:

E(X) =∞∑i=1

i(1− p)i−1p = p(1− p)−1∞∑i=1

i(1− p)i = p(1− p)−1[ 1− p

(1− (1− p))2]

=1p

Ejemplo 5.3. (La Distribucion Uniforme): Si X ∼ U [a, b] (Ejemplo 4.11), entonces

E(X) =∫ b

a

x

b− adx =

x2

2(b− a)

∣∣∣ba

=b2 − a2

2(b− a)=

b + a

2

Ejemplo 5.4. Sea X una variable aleatoria continua con f(x) = 2x, 0 ≤ x ≤ 1. Entonces

E(X) =∫ 1

0x · 2xdx =

∫ 1

02x2dx =

2x3

3

∣∣∣10

=23

Propiedades del valor Esperado [Nelson]

Sean X e Y variables aleatorias, y sea c una constante, entonces:

E1. E(X + Y ) = E(X) + E(Y )

E2. E(cX) = c · E(X)

E3. E(X + c) = E(X) + c

E4. E(c) = c

E5. E(X) ≤ E(|X|)

E6. E(XY ) = E(X)E(Y ) si X e Y son independientes.

Nota: Para comprender totalmente la propiedad E6., se necesita el concepto de variablesaleatorias independientes. Este concepto se estudiara formalmente en el Capıtulo 8. Eneste punto se provee un definicion mas bien intuitiva: Dos variables aleatorias X e Y sonindependientes si el valor adquirido por una de ellas no influencia de ninguna manera el valoradquirido por la otra. De este modo, conocer el valor de, por ejemplo, X no proporcionainformacion respecto del valor de Y .

Page 53: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 52

Valor Esperado de una Funcion de una Variable Aleatoria

Como se establecio en la Seccion 4.6, si X es una variable aleatoria e Y = H(X), entoncesY tambien es una variable aleatoria. Si se quiere evaluar E(Y ),puede hacerse directamenteutilizando la Definicion 5.1. Pero esto requerirıa conocer la distribucion de probabilidad de Y .Encontrar la distribucion de probabilidad de Y puede ser una tarea difıcil, especialmente siH(X) es una funcion complicada. El Teorema 5.1 provee una forma alternativa (usualmentemas facil) para calcular E(Y ).

Teorema 5.1 (Meyer). Sea X una variable aleatoria y sea Y = H(X). Se tiene que:

a) Si X es una variable aleatoria discreta con distribucion de probabilidad (xi, p(xi)), i =1, 2 . . ., entonces

E(Y ) =∑

x∈Rx

H(xi)p(xi) (5.3)

b) Si X es una variable aleatoria continua con f.d.p. f(x), entonces:

E(Y ) =∫

Rx

H(x)f(x)dx (5.4)

Ejemplo 5.5. Sea X ∼ U [10, 30] e Y = (X − 20)2. Entonces

E(Y ) =∫ 30

10(x− 20)2

120

dx =(x− 20)3

60

∣∣∣30

10=

200060

= 33.33

Quiz: Calcular E(Y ) utilizando la definicion 5.1 (vea fY (y) en el Ejemplo 4.17).

5.2. Varianza

Suponga que usted quiere decidir entre dos marcas de ampolletas, la marca A y la marca B.Ambas, A y B aseguran que la duracion de sus ampolletas tiene un valor esperado de 1000horas. Esto implica que la duracion promedio de muchas ampolletas va a ser cercana a 1000horas en ambos casos. Pero esta informacion es incompleta, no indica cuan lejano de este valorpuede ser la vida util de una ampolleta en particular. Por ejemplo, asuma que la duracion deuna ampolleta de tipo A esta uniformemente distribuida entre 900 y 1100, y que la duracion deuna ampolleta B es casi siempre 700 horas, pero de vez en cuando hay una ampolleta que duramas de 2000 horas (para que en total promedien 1000), ¿cual escogerıa Ud.?

La varianza es una medida cuantitativa que nos ayudara a distinguir entre estas situaciones. Esuna medida de la dispersion de la variables aleatoria alrededor del valor esperado.

Page 54: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 53

Definicion 5.2. Sea X una variable aleatoria. Se define la varianza de X, donotada por V (X),como

V (X) = E[(X − E(X))2] = E[(X − µ)2] (5.5)

Definicion 5.3. Se define la Desviacion Estandar de X como:

σX =√

V (X) (5.6)

Nota: Observar que V (X) se expresa en unidades cuadradas de X y σx se expresa en lasmismas unidades que X

Nota: Observar que:

V (X) = E[(X − E(X))2] = E[X2 − 2XE(X) + (E(X))2]

= E(X2)− E(2XE(X)) + (E(X)2)

= E(X2)− 2E(X)E(X) + (E(X)2)

= E(X2)− (E(X)2)

Nota: Observe que (X −E(X))2 es simplemente una funcion de X. Por lo tanto V (X) es soloel valor esperado de una funcion de X.

Notacion: Comunmente, la varianza se denota tambien por σ2X , o simplemente σ2.

Ejemplo 5.6. Sea X la suma de dos dados (vea el Ejemplo 5.1), entonces:

E(X) = (−5)2 · 136

+ (−4)2 · 236

+ (−3)2 · 336

+ (−2)2 · 436

+ (−1)2 · 536

+ 0 · 636

+ 12 · 536

+ 22 · 436

+ 32 · 336

+ 42 · 236

+ 52 · 136

= 5.8333

Ejemplo 5.7. Sea X ∼ U [a, b], entonces

V (X) =∫ b

a

(x− (a + b)/2)2

b− adx =

(b− a)2

12

Quiz: Considere X como en el Ejemplo 5.4. Encuentre la varianza de X.

Propiedades de la Varianza.

Sean X e Y variables aleatorias, y c una constante, entonces:

V1. V (c) = 0

Page 55: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 54

Figura 5.1: Localizacion v/s Dispesion

V2. V (cX) = c2V (X)

V3. V (X + c) = V (X)

V4. V (X + Y ) = V (X) + V (Y )− 2E[(X − E(X))(Y − E(Y ))]

V5. V (X + Y ) = V (X) + V (Y ), si X e Y son independientes.

V6. V (X) = E[(X − c)2]− [E(X − c)]2

El coeficiente de la Variacion (Nelson)

El valor esperado y la varianza proveen dos caracterizaciones diferentes de una variables aleato-ria X. Puede pensarse en E(X) como una medida de la “localizacion” de X, mientras que V (X)proporciona informacion respecto de la “dispersion” de X. Estas medidas son independientesen el sentido de que el valor esperado no contiene informacion respecto de la dispersion, y lavarianza no da referencia alguna respecto de la localizacion de la variable. Observe, por ejemplo,que si X es desplazada en c unidades (se suma la constante c a X), el valor esperado se modificaa E(X + c) = E(X) + c, pero la varianza permanece inalterada, es decir, V (X + c) = V (X).La Figura 5.1 ilustra los conceptos de localizacion y dispersion.

Otra caracterıstica cualitativa de una variable aleatoria se denomina “Variabilidad”. Supongaque X ∼ U [50, 150] e Y ∼ U [9950, 10050]. Observe que V (X) = V (Y ) = 833, 33. Sin embargo,parece razonable decir que X es mas “variable” que Y , porque en terminos porcentuales pod-edemos hacer una prediccion mucho mas precisa de Y que la que podemos hacer de X (¿porque?). Esto motiva la definicion de una medida que compare el valor esperado y la varianza.

Definicion 5.4. Sea X una variable aleatoria. Se define el Coeficiente de Variacion de X como:

CX =σX

E(X)

Page 56: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 55

Ası mismo, se define el Coeficiente de Variacion cuadrado como:

C2X =

V (X)[E(X)]2

Observe que en el ejemplo del parrafo anterior CX = 0, 288 y CY = 0, 0288.

Varianza de una Funcion de Variable Aleatoria

Como en el caso del valor esperado, si X es una variable aleatoria e Y = H(X), V (Y ) puedecalcularse usando la Definicion 5.2, o usando el Teorema 5.1 de la siguiente manera:

V (Y ) = E[(Y − E(Y ))2] = E[(H(X)− E(H(X)))2] = E[(H(X))2]− [E(H(X))]2

Quiz: Encuentre V (Y ) para Y definida en el ejemplo 5.5.

5.3. Dos Teoremas Fundamentales

Teorema 5.2 (La Desigualdad de Markov). [Nelson] Si X es una variable aleatoria y h(x)es una funcion no-negativa y no-decreciente, entonces:

P (X ≥ x) ≤ E(h(X))h(x)

En particular, si X es no-negativa, entonces P (X ≥ x) ≤ E(X)/x.

Ejemplo 5.8. Si el tiempo esperado de respuesta de un sistema computacional es 1 segundo, laDesigualdad de Markov nos dice que a lo mas el 10% de los usuarios espera mas de 10 segundos.

Teorema 5.3 (La Desigualdad de Chebyshev). Sea X una variable aleatoria con E(X) =µ, c una constante y ε una constante positiva, entonces:

P|X − c| ≥ ε ≤ E[(X − c)2]/ε2 (5.7)

Dos consecuencias obvias de (5.7) son:

a) Si c = µ, se obtiene P|X − µ| ≥ ε ≤ V (X)ε2

b) Si c = µ y ε = kσX , entonces P|X − µ| ≥ kσX ≤1k2

Page 57: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 56

Ejemplo 5.9. Una consecuencia de b) es que cualquier variable aleatoria tiene una probabilidadde a lo mas 11% de estar alejada mas de 3 desviaciones estandar desde el valor esperado (hacerlos calculos).

La Desigualdad de Chebyshev es muy util para calcular cotas asociadas a la probabiidad deeventos, cuando no tenemos la distribucion de probabilidades exacta de una variable aleatoria,pero conocemos el valor esperado y su varianza. En particular, la consecuencia a) muestra comola varianza mide el “grado de concetracion” de X alradedor de E(X), nos dice que grandesdesviaciones desde E(X) son improbables si V (X) es pequena.

Nota: En efecto, la Desigualdad de Chebyshev es una consecuencia de la Desigualdad deMarkov.

Quiz: Demuestre la Desigualdad de Chebyshev utilizando la Desigualdad de Markov.

5.4. Momentos

El Valor esperado y la Varianza son las caracterısticas principales de una variable aleatoria.Ellas pertenecen a un conjunto mas amplio de medidas numericas, denominadas momentos, quecaracterizan completamente la distribucion de probabilidades de una variable aleatoria. Estoquiere decir, que el conjunto de todos los momentos determinan inequıvocamente la distribucion,y viceversa.

Definicion 5.5. Sea X una variable aleatoria. El r-esimo momento de X alrededor del origen sedefina como σr = E(Xr), y el r-esimo momento central de X se define como µ′r = E[(X−µ)r].

Nota: Observe que E(X) = µ1 y V (X) = µ′2.

Nota: Cualquiera de los dos conjuntos de momentos, µ′i o µi, basta para describir ladistribucion de probabilidades de la variable aleatoria.

En las primeras secciones de este capıtulo se ha indicado que tipo de informacion es proporciona-da por E(X) y V (X). Otros momnetos tambien poseen una facil interpretacion. Por ejemploµ′3 = E[(X − µ)3] se asocia con la simetrıa de la distribucion. Si la distribucion presenta ununico valor maximo, se tiene que:

µ′3 > 0 ⇒ La distribucion es asimetrica negativa.µ′3 = 0 ⇒ La distribucion es simetrica.µ′3 < 0 ⇒ La distribucion es asimetrica positiva.

Page 58: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 57

Figura 5.2: Simetrıa de una Distribucion

5.5. Distribuciones Condicionales y Valor Esperado Condi-cional

Distribucion Condicional

Sean A y B eventos en un espacio muestral S. En el Capıtulo 3 se definio la ProbabilidadCondicional de A dado B (P (A/B)) como la probabilidad del evento A dado que se sabe queel resultado del experimento esta en B (B ya ocurrio). Tambien se indico en el Capıtulo 3que la funcion P (·/B) es una funcion de probabilidad y, consecuentemente, satisface todas laspropiedades de una funcion general de probabilidad.

Cuando A y B son eventos asociados con una variable aleatoria X, la definicion permanece igual,pero necesitamos reemplazar S por RX . La funcion P (·/B) en este caso induce la definicion deDistribucion Condicional.

Definicion 5.6. Sea X una variable aleatoria discreta con distribucion de probabilidad(xi, p(xi)), i = 1, 2, . . . y B ⊆ Rx con P (B) 6= 0. Se define la funcion de probabilidad condi-cional puntual de X dado B como

pX/B(xi) = PX = xi/B =

p(xi)/P (B) si xi ∈ B,

0 en otro caso.para i = 1, 2, . . . . (5.8)

Notacion: Cuando no hay posibilidad de confusion, se utiliza la notacion pA(Xi) = pX/A(xi).

Definicion 5.7. Sea X una variable aleatoria continua con p.d.f. f(x), y B ⊆ Rx con P (B) 6=0. Se define la funcion de densidad de la probabilidad condiconal de X dado B como:

fX/B(x) =

f(x)/P (B) si x ∈ B,

0 en otro caso.(5.9)

Page 59: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 58

Notacion: Cuando no hay posibilidad de confusion, se utiliza la notacion fA(x) = fX/A(x).

Quiz: Demuestre que fX/B(x) =∂

∂x(PX ≤ x/B)

Valor Esperado Condicional

Luego de definir el concepto de distribuciones condicionales, parece natural definir el valoresperado condicional, esto es, el valor esperado de la variable aleatoria X cuando el rango delespacio se reduce de RX a B.

Definicion 5.8. Sea X una variable aleatoria y B ⊆ RX , con P (B) 6= 0. Se define el ValorEsperado Condicional de X dado B como:

a) Si X es una variable aleatoria discreta con distribucion de probabilidad (xi, p(xi)), i =1, 2, . . .,

E(X/B) =∑xi∈B

xipX/B(xi) (5.10)

b) Si X es una variable aleatoria continua con f.d.p. f(x),

E(X/B) =∫

x∈BxfX/B(x) (5.11)

Nota: Las definicion de Valor esperado Condicional de una funcion de una variable aleatoriaes analoga.

Quiz: Encuentre una expresion para la varianza condicional de X dado B.

Teorema 5.4 (El Teorema del Valor Esperado Total). Sea B1, B2, . . . , Bk una particionde Rx. Entonces,

E(X) =k∑

i=1

E(X/Bi)P (Bi) (5.12)

Ejemplo 5.10. Sea X una variable aleatoria continua con f(x) = 2x, 0 ≤ x ≤ 1 (recuerde losejemplos 4.10, 4.14 y 5.4). Sea A = X > 0.5, entonces:

P (A) = P (X > 0.5) = F (1)− F (0.5) = 0.75

P (A′) = P (X ≤ 0.5) = F (0.5) = 0.25

fX/A(x) =2x

0.75=

8x

3, 0.5 < x ≤ 1

fX/A′(x) =2x

0.25= 8x, 0 ≤ x ≤ 0.5

Page 60: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 59

E(X/A) =∫ 1

0.5xfX/A(x)dx =

∫ 1

0.5x(

83x)dx =

∫ 1

.5

83x2dx =

89x3∣∣∣10.5

=79

E(X/A′) =∫ 0.5

0xfX/A′(x)dx =

∫ 0.5

0x(8x)dx =

∫ 5

08x2dx =

83x3∣∣∣50

=13

E(X) = E(X/A)P (A) + E(X/A′)P (A′) =79· 0.75 +

13· 0, 25 =

23

Notar que este es el mismo resultado obtenido en el ejemplo 5.4.

Nota: Puede verificarse en el Ejemplo 5.10 que∫ 1

0.5fX/A(x)dx =

∫ 1

0.5

83xdx =

8x2

6

∣∣∣10,5

= 1.

Como obviamente fX/A ≥ 0, puede comprobarse que se satisfacen las propiedades D1. y D2. dela Definicion 4.8. Esto es cierto en general. Es decir, las distribuciones condicionales satisfacentodas las propiedades de una distribucion general de probabilidad.

Distribuciones Condicionales en general.

Reconsidere las definiciones 5.6 y 5.7. Sea E un experimento y S un espacio muestral asociadocon E. Asuma que X es una variable aleatoria definida en S. Sea B ⊆ S un evento en S (nonecesariamente en Rx) con P (B) 6= 0. Entonces todavıa tenemos que P (·/B) es una funcionde probabilidad y, por lo tanto, induce a una Distribucion Condicional para X, esto es,la Distribucion de Probabilidad de X dado que el espacio muestral se redujo de Sa B. El problema en este caso es que pX/B(·) o fX/B(·) (dependiendo de la naturaleza de X)no pueden encontrarse utilizando (5.8) o (5.9) y por lo tanto, deben ser tomadas como dadas.Sin embargo, la Definicion 5.8, y el Teorema 5.4, siguen siendo completamente validos. ElEjemplo 5.11 ilustra este concepto.

Notacion: RX/B denotara el espacio del rango condicional de X dado que el espacio muestralse reduce de S a B.

Nota: En el Teorema 5.4, B1, B2, . . . , Bk debe ser un particion de S. En la definicion 5.8, lasumatoria y la integral deben hacerse en RX/B , en vez de sobre B.

Ejemplo 5.11. Un estudiante tiene 3 alternativas para resolver un problema. El metodo Ademora una cantidad de tiempo que se distribuye uniformemente entre 2 y 3 horas, el metodoB toma un tiempo al azar cuya f.d.p esta dada por f(x) = x/4, 1 ≤ x ≤ 3, y el metodo 3 tomauna cantidad de tiempo cuya f.d.p esta dada por f(x) = 0.5e−0.5x, x ≥ 0. Se busca el tiempoesperado que el estudiante demorara en resolver el problema.

Page 61: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 60

Observar primero que, en este caso, las distribuciones condicionales son dadas. SiX es el tiempo que el estudiante demora en resolver el problema, y se de-fine A = el estudiante escoge el metodo A, B = el estudiante escoge B, y C =el estudiante escoge C, se tiene que:

fX/A(x) = 1, 2 < x < 3 y E(X) =52,

fX/B(x) = x/4, 1 ≤ x ≤ 3 y E(X/B) =∫ 31 (x2/4)dx =

2612

,

fX/B(x) = 0.5e−0.5x, x ≥ 0 y E(X/C) =∫∞0 0.5xe−0.5xdx = 2.

Luego, asumiendo que le estudiante escoge al azar entre los metodos A,B y C, se tiene,

E(X) = E(X/A)P (A) + E(X/B)P (B) + E(X/C)P (C) =52· 13

+2612· 13

+ 2 · 13

=209

.

5.6. Ejercicios

5.1. Una moneda balanceada es lanzada 3 veces. Encuentre el valor esperado y la varianza delnumero de caras obtenidas.

5.2. Una moneda balanceada es lanzada 3 veces o hasta que se obtiene cara. Encuentre:a) El valor esperado y la varianza del numero de carasb) El valor esperado y la varianza del numero de sellosc) El valor esperado y la varianza del numero total de lanzamientos.

5.3. Una caja contiene 3 bolas blancas y 7 rojas. Encuentre el valor esperado del numero de debolas blancas en una seleccion de 4 bolas.a) Con reemplazob) Sin reemplazo

5.4. Un experimento tiene un costo de prueba de $100, y probabilidad 0.2 de ser exitoso. Hayun presupuesto de $1000 y el experimento sera repetido hasta que sea exitoso o se acabe elpresupuesto. Si el experimento es exitoso se obtiene una ganancia de $2000. Encuentre el valoresperado de la ganancia neta.

5.5. Sean X e Y dos variables aleatorias independientes tal que E(X) = 10, σX = 2, E(Y ) = 6y E(Y 2) = 52. Encuentre:a) E(10X + 4)b) V (3X + 100)c) E(−X)d) V (−X)e) E(X2)

Page 62: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 61

f) V (Y )g) E(X + Y )

h) E

(3X + 2Y

4

)i) V

(3X + 2Y

4

)j) E(X − Y )k) V (X − Y )l) V (2X − 3Y )

5.6. Sea X una variable aleatoria continua con la siguiente f.d.p.

f(x) =

ax 0 ≤ x ≤ 1,

a 1 ≤ x ≤ 2,

a(3− x) 2 ≤ x ≤ 3.

a) Encuentre E(X).b) Encuentre V (X).c) Encuentre E(X/X < 1).d) Encuentre E(X/X > 2).

5.7. Cuando se procesa petroleo, la temperatura de destilado T (en grados centıgrados) es crucialpara la calidad del producto final. Si T es menos de 200, el producto se conoce como nafta, ygenera una ganancia neta de $0.2 por galon. Si 200 ≤ T ≤ 220, se conoce como petroleo refinadode alta calidad, y genera una ganancia neta de $0.5 por galon. Si T ≥ 220, el producto seconoce como petroleo refinado y genera una ganancia neta de $0.3 por galon. Si T se distribuyeuniformemente entre 150 y 300, encuentre la ganancia esperada por galon.

5.8. La vida util de un aparato electrico, en anos, es una variable aleatoria continua X, conf(x) = 0.5e−0.5x, x ≥ 0. El costo de manufactura es $50, y el precio de venta es de $120. Elfabricante asegura la devolucion total del dinero si el aparato dura menos de 1 ano. Encuentreel valor esperado y la varianza de la ganancia del fabricante por unidad.

5.9. Se sabe que una caja contiene 2 objetos defectuosos y 4 no-defectuosos. Los objetos seinspeccionan de uno a la vez hasta que se identifican los 2 defectuosos. Encuentre el numeroesperado de inspecciones que se debe realizar.

5.10. El radio R de una esfera es una v.a.c. con f(r) = 6r(1 − r), 0 < r < 1. Encuentre elcoeficiente de variacion del volumen de la esfera.

5.11. Sea X una variable aleatoria continua con f(x) = 1/x2, x ≥ 1, e Y otra variable aleatoriacontinua definida de la siguiente manera:

Y =

X3 si X ≤ 2,

8 si X > 2.

Encuentre E(X) y E(Y).

Page 63: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 62

5.12. La demanda diaria de pan fresco en una panaderıa, en miles de kilos, es una variablealeatoria continua D, con f(d) = ae−ad, d ≥ 0 y a = 1/1000. La produccion diaria es de1100 kilos. El dueno de la panaderıa envıa el pan que no se vende a una institucion benefica.Encuentre:a) La probabilidad de que la institucion reciba pan fresco en un dıa cualquiera.b) La probabilidad de que en el lapso de una semana, en por lo menos 6 dıas, la institucionreciba mas de 50 kilos de pan.c) La demanda esperada diaria.d) La cantidad esperada de pan que la institucion recibe diariamente.e) La cantidad esperada de pan que la institucion recibe semanalmente.

5.13. La cantidad demandada mensual de cierto producto es una variable aleatoria continua Dcon f(d) = kd, 20 ≤ d ≤ 30. El costo unitario del producto es de $3 y el precio de venta es de$7. Debido a que el producto se vuelve obsoleto muy rapidamente, todo lo que no se ha vendidopara el final del mes, debe descartarse a un costo de $1 por unidad. Asuma que le productorfabrica Q unidades mensualmente.a) Encuentre una expresion para la ganancia del productor, en funcion de Q y de D.b) Encuentre el valor esperado de la ganancia del productor en funcion de Q y de D.c) Determine la produccion mensual que maximiza la ganancia esperada.

5.14. Un dado se lanza 10 veces. Si se obtienen exactamente 6 unos, encuentre el valor esperadode numeros dos que se obtiene.

5.15. Sea X una variable aleatoria continua con f(x) = 3x2/28, −1 ≤ x ≤ 3, e Y = X2.Encuentre:a) E(Y ) y V (Y ).b) E(Y/X > 1).c) E(X/Y < 1).

5.16. Un estudiante que trabaja en un problema tiene 3 metodos para resolverlo. El metodoA le toma una cantidad de tiempo que se distribuye uniformemente entre 2 y 3 horas, y queno soluciona el problema. Utilizando el metodo B el estudiante se da por vencido sin habersolucionado el problema luego de un perıodo de tiempo que es una variable aleatoria continuacon f(x) = x/4, 1 ≤ x ≤ 3. El metodo C resuelve le problema luego de una cantidad detiempo aleatorio cuya f.d.p. es f(x) = 0.5e−0.5x, x ≥ 0. El estudiente escoge un metodo al azarentre estos, pero sin duda, descarta aquellos que ya ha intentado sin exito. Encuentre el tiempoesperado que el estudiante necesita para resolver el problema.

5.17. Diez parejas casadas (20 personas) se sientan al azar en 20 asientos en las siguinetesconfiguraciones:a) En cırculob) En filaEncuentre, en cada caso, el numero esperado de esposas que estan sentadas al lado de su marido.

5.18. Sean X, Y y Z, variables aleatorias independientes tal que: E(X) = 10, E(X2) =164, E(Y ) = 12, V (Y ) = 10, y E(X · Z) = 80. Encuentre:

Page 64: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 63

a) V (X)b) E(4X + 5Y )c) V (4X + 5Y )d) E(5X − 2Y )e) V (5X − 2Y )f) E(Z)g) E(X/Y )

Page 65: Gatica_Ricardo_-_probabilidades

Capıtulo 6

Proceso Bernoulli y Proceso Poisson

Un proceso estocastico es un modelo matematico de un experimento que evoluciona o se repiteen el tiempo, generando una secuencia de variables aleatorias. Ejemplos de procesos estocasticosson los siguientes:

El precio diario de una accion.

La demanda mensual de cierto producto.

El tiempo entre fallas de una maquina.

El numero de clientes que arriban a un banco en cada hora de la jornada bancaria.

Es este capıtulo se estudiaran el proceso Bernoulli y el proceso Poisson. Estos procesos generanalgunas de las variables aleatorias mas frecuentemente usadas en la practica para representarun variedad de fenomenos. Ademas, en cierto sentido, estos procesos son analogos, el primeroen un ambiente de tiempo discreto (el tiempo se mide en periodos) y el segundo en un ambientede tiempo continuo.

6.1. El Proceso Bernoulli

La Distribucion Bernoulli

Definicion 6.1. Sea X una variable aleatoria discreta con RX = 0, 1, y f.p.p. dada porPX = 1 = p y PX = 0 = 1 − p. Se dice que X tiene distribucion Bernoulli, o que X esuna variable aleatoria Bernoulli, con parametro p.

64

Page 66: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 65

Las variables Bernoulli, tıpicamente aparecen en el siguiente contexto: Si E un experimento yS en espacio muestral asociado con X. sea A ⊆ S un evento con P (A) = p. Si se define

X =

1 si A ocurre0 si A′ ocurre ,

entonces X es una v.a. Bernoulli.

Ejemplo 6.1. Sea E un experimento que consiste en lanzar una moneda balanceada exacta-mente una vez. Sea X = 1 si se obtiene cara y X = 0 si se obtiene sello. Entonces X es v.a.Bernoulli con parametro p = .5.

Ejemplo 6.2. Sea E un experimento que consiste en lanzar un dado balanceado exactamenteuna vez. Sea X = 1 si se obtiene un numero mayor a 4, y sea X = 0 en otro caso. Entonces,X es v.a. Bernoulli con p = 1/3.

En el contexto descrito mas arriba, cada una de las repeticiones del experimento E es llamadaun ensayo de Bernoulli, y los eventos A y A′ son referidos como exito y fracaso, respectivamente.

Propiedad 6.1. Sea X una variable aleatoria Bernoulli con parametro p. Entonces:

1. E(X) = p

2. V (X) = p(1− p)

Definicion 6.2. Considere una sequencia de ensayos de Bernoulli que satisface:

a) Los essayos son mutuamente independientes.b) Todos los ensayos tienen el mismo paramentro p.

Para i = 1, 2, . . ., sea Xi la variable aleatoria Bernoulli asociada con el i-esimo ensayo. Sedenomina proceso Bernoulli a la secuencia X1, X2, . . ..

Nota: Informalmente, se denomina tambien proceso Bernoulli a la secuencia de ensayos deBernoulli.

Varias caracterısticas de un proceso Bernoulli pueden estudiarse a traves de variables aleatoriasdiscretas. A continuacion se estudian tres de ellas. Las dos primeras corresponden a la distribu-cion Geometrica y a la distribucion Binomial, que se introdujeron en los ejemplos 4.7 y 4.8,respectivamente.

La Distribucion Geometrica

Considere un proceso de Bernoulli con parametro p, y defina X como el numero de ensayos nece-sarios para obtener el primer exito. Entonces la distribucion de probabilidades de X esta dadapor

PX = k = (1− p)k−1p, k = 1, 2, . . . . (6.1)

Page 67: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 66

Definicion 6.3. Se dice que una variable aleatoria discreta X con RX = 1, 2, . . . y f.p.p dadapor (6.1), es una variable aleatoria Geometrica, o que tiene una distribucion Geometrica conparametro p, lo que se denota X ∼ Geo(p).

Observe que dado un n, la secuencia Xn+1, Xn+2, . . ., es tambien un proceso Bernoulli, y esindependiente de X1, X2, . . . , Xn. Por esta razon, la distribucion Geometrica no solo permitemodelar el numero de ensayos hasta el primero de todos los exitos del proceso, sino tambienque el numero de ensayos necesarios para obtener un exito empezando en cualquier instante detiempo. En particular, permite modelar el numero de ensayos entre dos exitos sucesivos, estoes el numero de ensayos entre un exito y el siguiente, excluyendo el primero e incluyendo elsegundo. Esto es una consecuencia directa del hecho que los ensayos son independientes, lo quepermite asumir que el proceso se reinicia cada vez que ocurre un exito.

Propiedad 6.2. Sea X una variable aletoria Geometrica con parametro p. Entonces:

1. E(X) =1p.

2. V (X) =1− p

p2.

Quiz: Demuestre la Propiedad 6.2.

Quiz: Encuentre la funcion de distribucion acumulada de un a v.a. Geometrica.

Teorema 6.1 (La propiedad de no-memoria de la distribucion Geometrica). Sea Xuna variable aleatoria Geometrica con parametro p. Se cumple que

PX > s + t/X > s = PX > t.

Ademas, la distribucion Geometrica es la unica distribucion discreta con esta propiedad.

El Teorema 6.1 establece que si el evento A (exito) no ocurre en los primeros s ensayos, laprobabilidad que no ocurra en los proximos t ensayos es igual a la probabilidad que no ocurraen los primeros t ensayos. En este sentido, se dice que la distribucion Geometrica no tienememoria, el modelo olvida lo que ha pasado hasta el instante actual para hacer calculos deprobabilidad respecto de los ensayos futuros.

La Distribucion Binomial

Considere un proceso Bernoulli con parametro p. Sea X el numero de exitos en un set cualquierade n ensayos del proceso (tıpicamente se supone que estos ensayos son sucesivos, pero esto noes necesario). La funcion de probabilidad puntual de X esta dada por

PX = k =(

n

k

)pk(1− p)n−k, k = 0, 1, . . . , n. (6.2)

Page 68: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 67

Observar que si para i = 1, 2, . . . , n, Zi representa la variable Bernoulli asociada al i-esimoensayo en consideracion, entonces

X = Z1 + Z2 + . . . + Zn. (6.3)

Definicion 6.4. Se dice que una variable aleatoria discreta X con RX = 0, 1, . . . , n y f.p.pdada por (6.2), es una variable aleatoria Binomial, o que tiene una distribucion Binomial conparametros n y p, lo que se denota X ∼ b(n, p).

Propiedad 6.3. Sea X una variable alatoria Binomial con parametros n y p, entonces:

1. E(X) = np.

2. V (X) = np(1− p).

Quiz: Utilice (6.3) para demostrar la Propiedad 6.3.

Teorema 6.2 (Propiedad reproductiva de la distribucion Binomial). Sean Yi ∼ b(ni, p),para i = 1, 2, . . . , k, y sea X = Y1 + Y2 + . . . + Yk. Se tiene que X ∼ (n1 + n2 + . . . + nk, p).

El Teorema 6.2 establece que la suma de un conjunto de variables aleatorias binomiales conel mismo parametro p (el parametro n puede variar), es tambien una variable aleatoria Bino-mial. Las distribuciones que cumplen este tipo de propiedad se dice que tienen la propiedadreproductiva.

La Distribucion Pascal

Considere un proceso Bernoulli con parametro p. Sea X el numero de ensayos necesarios paraobtener el r-esimo exito. La distribucion de probabilidades de X esta dada por

PX = k =(

k − 1r − 1

)pr(1− p)k−r, k = r, r + 1, . . . . (6.4)

Para derivar (6.4), observe que el evento X = k es equivalente al evento se producen r − 1exitos en los primeros k − 1 ensayos, y el k-esimo ensayo es un exito. La primera parte deeste evento corresponde a una probabilidad binomial y la segunda parte corresponde a unaprobabilidad Bernoulli. Como los ensayos son independientes, se tiene

PX = k = Pr − 1 exitos en k − 1 ensayosPexito =(

k − 1r − 1

)pr−1(1− p)k−rp.

Definicion 6.5. Se dice que una variable aleatoria discreta X con RX = r, r + 1, . . ., yf.p.p. dada por (6.4), es una variable aleatoria Pascal, o que tiene una distribucion Pascal conparametros r y p, lo que se denota X ∼ bn(r, p).

Page 69: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 68

Nota: La distribucion Pascal es tambien conocida como la distribucion Binomial negativa.

Nota: La notacion propuesta para las distribuciones Geometrica y Pascal no es estandar en laliteratura. De hecho, no existe una notacion estandar para estas distribuciones, como si es elcaso para ela Binomial.

Propiedad 6.4. Sea X una variable aleatoria Pascal con parametros r y p. Se tiene:

1. E(X) =r

p.

2. V (X) =r(1− p)

p2.

Un argumento similar al usado en el caso de la Geometrica permite concluir que la distribucionPascal no solo permite modelar el numero de ensayos hasta el r-esimo exito en el procesoBernoulli, sino que tambien el numero de ensayos necesarios para obtener el r-esimo exitoempezando en cualquier instante de tiempo.

Claramente, cuando r = 1, la distribucion Pascal se reduce a la Geometrica. Es decir, laGeometrica es un caso particular de la distribucion Pascal. La relacion entra ambas, sin embargoes mas profunda. Para observar esta relacion, comsidere un proceso Bernoulli con parametro p.Sea

Y1= numero de ensayos hasta el primer exito (incluıdo).Yi= numero de ensayos desde el (i− 1)-esimo (excluıdo) hasta el i-esimo (incluıdo) exito.

Se tiene que Y1, Y2, . . ., son variables aleatorias Geometricas independientes, todas conparametro p. Si X = Y1 + Y2 + . . . + Yr, entonces X es el numero de ensayos hasta el r-esimoexito, por tanto X es Pascal con parametros r y p. Usando esta observacion se tiene:

E(X) = E(Y1) + E(Y2) + . . . + E(Yr) = r1p

=r

p, y

V (X) = V (Y1) + V (Y2) + . . . + V (Yr) = r1− p

p2=

r(1− p)p2

,

lo que demuestra la Propiedad 6.4.

La relacion entre las distribuciones Geometrica, Binomial y Pascal, en el contexto del procesoBernoulli, se muestra en la Figura 6.1.

Ejemplo 6.3. Suponga que los ıtems producidos por una maquina son inspeccionados uno auno. La probabilidad que un ıtem sea defectuoso es .04.

a) Encuentre la probabilidad que 100 ıtems sucesivos sean todos no-defectuosos.

Sea X el numero de defectuosos en 100 ıtems, entonces X ∼ b(100, .04), y PX = 100 =.96100.

Page 70: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 69

Figura 6.1: El proceso Bernoulli

b) Encuentre el valor esperado de ıtems defectuosos en un lote de 100 ıtems.

E(X) = 100 · .04 = 4.

c) ¿Cada cuantos ıtems se espera obtener un defectuoso?

Sea Y el numero de inspecciones necesarias para obtener el primer defectuoso, entoncesY ∼ Geo(.04), y E(Y ) = 1/.04 = 25.

d) Encuentre la probabilidad que el quinto ıtem defectuoso se encuentre exactamente en la30-esima inspeccion.

Sea Z el numero de inspecciones necesarias para obtener el quinto defectuoso, entonces

Z ∼ bn(5, .04), y P (Z = 30) =(

294

).045(.96)25.

Teorema 6.3. Sea X ∼ b(n, p) e Y ∼ bn(r, p). Se tiene:

1. PY ≤ n = PX ≥ r.

2. PY > n = PX < r.

Demostracion. Para verificar 1., observar que X ≥ r implica que hay al menos r exitos enn ensayos, por lo tanto, se necesitan a lo mas n ensayos para obtener r exitos. La parte 2. sedemuestra en forma similar.

Ejemplo 6.4. Considere una moneda cargada con probabilidad de obtener cara igual a 0.4. Sedesea encontrar la probabilidad que se necesiten mas de 10 lanzamientos para obtener dos caras.Si se define Y = bn(2, .4), la probabilidad buscada es

PY > 10 =∞∑

k=11

(k − 1

1

).42.6k−2.

Page 71: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 70

Si se define X ∼ b(10, .4), usando el Teorema 6.3 se tiene que

PY > 10 = PX < 2 = PX = 0+ PX = 1 = .610 +(

101

).4 · .69.

6.2. El proceso Poisson

La Distribucion Poisson

Definicion 6.6. Sea λ > 0. Si X es una variable aleatoria discreta con RX = 0, 1, . . ., yf.p.p. dada por

PX = k =e−λλk

k!, k = 0, 1, . . . , (6.5)

se dice que X es una variable aleatoria Poisson, o que tiene distribucion Poisson, con parametroλ, lo que se denota X ∼ Ps(λ).

La distribucion Poisson es usada frecuentemente para representar el numero de ocurrencias deun fenomeno en un intervalo de tiempo. Por ejemplo, el numero de clientes que entran a uncentro de servicio en un dıa, el numero de llamadas telefonicas recibidas por un operador enuna hora, la demanda semanal por cierto producto, etc. Tambien se usa para modelar algunosfenomenos espaciales como, por ejemplo, el numero de defectos en una pieza de algun material,o el numero de errores tipograficos por pagina en un libro.

Observar que a diferencia de la distribuciones asociadas al proceso Bernoulli, no se ha descritoun experimento en que la distribucion Poisson emerge naturalmente. Esto implica que cada vezque se quiera usar, se necesita verificar que efectivamente la distribucion Poisson es una aprox-imacion valida para el fenomeno en estudio. Esto se hace normalmente utillizando informacionpasada y algun tipo de test estadıstico. Los ejemplos del parrafo anterior representan casos enque tıpicamente estos test resultan positivos.

Propiedad 6.5. Sea X una variable aleatoria Poisson con parametro λ. Se tiene:

1. E(X) = λ.

2. V (X) = λ.

Ejemplo 6.5. Sea X el numero de buques que arriban al puerto de Valparaıso diariamente.Asuma que X ∼ Ps(2).

a) La probabilidad que en un dıa en particular lleguen exactamente 3 naves es

PX = 3 =e−223

3!.

Page 72: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 71

b) La probabilidad que en un dıa cualquiera llegue al menos un barco esPX ≥ 1 = 1− PX = 0 = 1− e−2.

c) El numero esperado de narcos que llegan en un dıa cualquiera es E(X) = 2.

c) La varianza del numero de narcos que llegan en un dıa cualquiera es V (X) = 2.

Teorema 6.4 (Propiedad reproductiva de la distribucion Poisson). SeanX1, X2, . . . , Xk, variables aleatorias independientes. Asuma Xi ∼ Ps(λi), i = 1, 2, . . . , k. SeaZ = X1 + X2 + . . . + Xk, entonces X ∼ Ps(λ1 + λ2 + . . . + λk).

Ejemplo 6.6. Sea X1 ∼ Ps(50) el numero de llamadas locales recibidas por un operador en undıa tıpico. Similarmente, sea X2 ∼ Ps(40) el numero de llamadas de larga distancia. EntoncesZ = X1 + X2 es el numero total de llamadas recibidas por el operador, y Z ∼ Ps(90).

Teorema 6.5. Sea X ∼ Ps(λ). Asuma que X representa el numero de ocurrencias de ciertoevento A. Suponga que una fraccion p de los eventos tienen la propiedad B, es decir, B ⊆ A yP(B/A)=p. Sea Y el numero de ocurrencias del evento B, entonces Y ∼ Ps(λp).

Ejemplo 6.7. El numero total de clientes que entran un dıa domingo a una tienda por departa-mentos es una variable aleatoria X ∼ Ps(400). Se sabe que en promedio el 10 % de las personasque entran a la tienda efectivamente compran. Sea Y el numero de clientes que efectivamentehacen un compra,. entoces Y ∼ Ps(40).

Observar que el Teorema 6.5 no implica que Y = pX. De hecho dado que X toma cierto valorx, el numero de ocurrencias del evento B es una variable aletoria Binomial con parametros x y p.En el caso del Ejemplo 6.7, se tiene que si se sabe que X = 300, la distribucion condicional de Y

es binomial con parametros n = 300 y p = .1, es decir PY = k/X = 300 =(

300k

).1k.9300−k.

Teorema 6.6 (Aproximacion Poisson a la distribucion Binomial). Sea X ∼ b(n, p).Asuma que n tiende a infinito y p tiende a cero. Se cumple que

PX = k ≈ e−np(np)k

k!.

El Teorema 6.6 establece que si n es grande y p es pequeno, una variable aleatoria Binomialcon parametros n y p puede ser aproximada por una variable aleatoria Poisson con parametronp.

Ejemplo 6.8. La probabiliad que un ıtem sea defectuoso es .0001. Se desea encontrar la prob-abilidad que un lote de 10000 ıtems contenga exactamente 12 defectuosos. Sea X el numerode defectuosos en el lote, entonces X ∼ b(10000, .0001). Por el Teorema 6.6, X puede seraproximada por una variable aletoria Poisson con parametro 10000× .0001 = 10. Por lo tanto,

PX = 12 =e−101012

12!.

Page 73: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 72

Figura 6.2: La distribucion Exponencial

La Distribucion Exponencial

Definicion 6.7. Sea λ > 0. Si X es una variable aleatoria continua con RX = [0,∞), y f.d.p.dada por

f(x) = λe−λx, x ≥ 0, (6.6)

se dice que X es una variable aleatoria Exponencial , o que tiene distribucion Exponencial, conparametro λ, lo que se denota X ∼ Exp(λ).

La Figura 6.2 muetra la forma generica de la f.d.p. de una variable aleatoria Exponencial.

La distribucion Exponencial es a menudo utilizada para representar tiempos de servicio, tiemposde proceso, tiempos entre arrivos a un centro de servicio, vida util de artıculos electronicos,tiempos entre fallas de maquinas, etc.

Propiedad 6.6. Sea X una variable aleatoria Exponencial con parametro λ. Se cumple:

1. E(X) =1λ.

2. V (X) =1λ2

.

3. F (x) =

1− e−λx si x ≥ 00 otro caso

.

Teorema 6.7 (No-memoria de la distribucion Exponencial). Sea X ∼ Exp(λ), y seans y t dos numeros no-negativos cualesquiera. Se cumple que

PX > s + t/X > s = PX > t.

Ademas, la Exponencial es la unica distribucion continua con esta propiedad.

Page 74: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 73

Demostracion. Para demostrar la primera parte observar que

PX > s + t/X > s =PX > s + t

PX > s=

e−λ(s+t)

e−λs= e−λt.

La demostracion de la segunda parte del teorema escapa al alcance de este texto.

Ejemplo 6.9. Suponga que el tiempo (en minutos) entre llegadas a una estacion de servicioes una variable aleatoria X ∼ Exp(.5).

a) Si la estacion esta vacıa en el instante actual, la probabilidad que continue vacıa despuesde 5 minutos es PX > 5 = e−2.5. Similarmente, la probabilidad que el proximo vehıculollegue antes de 3 minutos es PX < 3 = 1 − e−1.5. Note que en ninguno de los casosse considera el tiempo transcurrido desde la ultima llegada. Esto se debe al hecho que ladistribucion exponencial no tiene memoria.

b) El tiempo esperado hasta la proxima llegada es E(X) = 2 minutos.

Las distribuciones Gamma y Erlang

Definicion 6.8. Para k > 0, se define la funcion Gamma como

Γ(k) =∫ ∞

0xk−1e−xdx.

En particular, si k es entero, se tiene Γ(k) = k!.

Definicion 6.9. Sea k > 0 y λ > 0. Si X es una variable aleatoria continua con RX = [0,∞),y f.d.p. dada por

f(x) =λkxk−1e−λx

Γ(k), x ≥ 0, (6.7)

se dice que X es una variable aleatoria Gamma, o que tiene distribucion Gamma, con paramet-ros λ y k.

Propiedad 6.7. Sea X una variable aleatoria Gamma con parametros λ y k. Se cumple:

1. E(X) =k

λ.

2. V (X) =k

λ2.

Observe que si k = 1, la Ecuacion (6.7) se reduce a (6.6), lo que implica que la distribucıon Ex-ponencial es un caso particular de la Gamma. La siguiente definicion provee otro caso particularde la distribucion Gamma, el cual tambien incluye la Exponencial.

Page 75: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 74

Definicion 6.10. Sea λ > 0 y k un entero positivo. Si X es una variable aleatoria continuacon RX = [0,∞), y f.d.p. dada por

f(x) =λkxk−1e−λx

k!, x ≥ 0, (6.8)

se dice que X es una variable aleatoria Erlang, o que tiene distribucion Erlang, con parametrosλ y k.

Observe que para k entero, la reduccion desde (6.7) a (6.8) es directa. Consecuentemente, el valoresperado y la varianza de una variable aleatoria Erlang estan tambien dado por la Propiedad 6.7.El Teorema 6.8 establece una relacion importante entre las distribuciones Exponencial y Erlang.

Teorema 6.8. Sean X1, X2, . . . , Xk variables aleatorias independientes e identicamente dis-tribuidas (iid) con Xi ∼ Exp(λ). Sea Z = X1 + X2 + . . . + Xk, entonces Z es una variablealeatoria Erlang con parametros λ y k.

El Teorema 6.8 dice que la suma de un conjunto de variables Exponencial identicas tiene unadistribucion Erlang. Este resultado se usara mas adelante para mostrar que la relacion entre lasdistribuciones Exponencial y Gamma es analoga a la relacion entre las distribuciones Geometricay Pascal.

El Proceso Poisson

El proceso Bernoulli, descrito en la Seccion 6.1, permite modelar la ocurrencia de un evento (exi-to) en una secuencia de ensayos de Bernoulli. En este contexto, La terna Binomial-Geometrica-Pascal permite analizar tres caracterısticas importantes del proceso: el numero de exitos en unconjunto de n ensayos, el numero de ensayos entre dos exitos sucesivos, y el numero de ensayosnecessarios para obtener r exitos.

El proceso Bernoulli puede entenderse en una base temporal, donde el tiempo avanza en periodosdiscretos (por ejemplo dıas) y a cada periodo corresponde un unico ensayo de Bernoulli. Porejemplo, el proceso podrıa contar los dıas en que cierto ındice de contaminacion es excedido enla ciudad de Santiago, o el numero de semanas sin accidentes en una planta manufacturera, etc.

Sin embargo, muchas veces es mucho mas realista pensar que el fenomeno evoluciona en tiem-po continuo. Por ejemplo, en general, interesa el instante preciso en que una maquina falla yla duracion del desperfecto, y no si la maquina falla o no en un dıa determinado. El proce-so Poisson puede ser visto como un analogo al proceso Bernoulli, pero en una base tempo-ral continua. En este caso la terna Bimomial-Geometrica-Pascal es reemplazada por la ternaPoisson-Exponencial-Erlang.

Definicion 6.11. Sea X1, X2, . . ., una secuencia de variables aleatorias independientes e identi-camente distribuidas (iid). Suponga que Xi representa el tiempo transcurrido entre la (i − 1)-esima y la i-esima ocurrencia del cierto evento. Defina

Page 76: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 75

S0 = 0Sn = X1 + X2 + . . . + Xn, para n = 1, 2, . . ..

Sn representa el instante de la n-esima ocurrencia del evento. Se define como proceso de con-teo a la familia de variables aleatorias N(t), t ≥ 0, donde N(t) es el numero de ocurrenciasdel evento en el intervalo (0, t], esto es

N(t) = maxn ≥ 0 : Sn ≤ t, t ≥ 0. (6.9)

Se difine ademas N(s, t] como el numero de ocurrencias del evento en el intervalo (s, t], es decirN(s, t] = N(t)−N(s) para todo 0 < s < t.

Definicion 6.12. Sea X1, X2, . . ., una secuencia de variables aleatorias independientes eidenticamente distribuidas. Si Xi ∼ Exp(λ), i = 1, 2, . . ., se dice que el proceso de conteoN(t), t ≥ 0 es un proceso Poisson con tasa λ.

Ejemplo 6.10. Si el tiempo, en minutos, entre llamadas recibidas en una estacion telefonicase distribuye exponencial con parametro λ = 5, y N(t) es el numero de llamadas recibidas hastael tiempo t, entonces N(t), t ≥ 0 es un proceso Poisson con tasa 5 llamadas/minutos.

Ejemplo 6.11. Si el tiempo, en horas, entre llegadas de vehıculos a una estacion de servicio esExp(30), y N(t) es el numero de vehıculos que llegan hasta el tiempo t, entonces N(t), t ≥ 0es un proceso Poisson con tasa 30 vehıculos/hora.

Notacion: Si N(t), t ≥ 0 es un proceso Poisson con tasa λ, se utilizara la notacion compactaN(t) ∼ PP (λ).

Teorema 6.9. Sea N(t), t ≥ 0 un proceso Poisson con parametro λ. Se tiene:

1. Para todo t > 0, N(t) es una variable aleatoria Poisson con parametro λt. Es decir,

PN(t) = k =e−λt(λt)k

k!, k = 0, 1, . . . .

2. N(s, s + t] es una variable aleatoria Poisson con parametro λt.

3. Para todo s < t ≤ u < v, N(s, t] y N(u, v] son variables aleatorias independientes.

Nota: La parte 3. del Teorema 6.9 dice que el numero de ocurrecias del evento en intervalosde tiempo disjuntos son variables independientes.

Nota: Observar que la parte 1. del Teorema 6.9 es un caso particular de la parte 2.

Nota: El recıproco del Theorema 6.9 es tambien cierto. Es decir, si 1., 2. y 3. se cumplen,entonces N(t), t ≥ 0 es un proceso Poisson.

Page 77: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 76

La demostracion del Theorema 6.9 escapa al alcance de este texto. Sin embargo, para proveerun poco de intuicion al respecto, se examinara la relacion entre el numero de ocurrencias y eltiempo entre ocurrencias del evento en un proceso Poisson: Considere el instante de tiem-po de la primera ocurrencia del evento, X1 = S1, y observe que el evento X1 > t =el primer evento ocurre despues de t es equivalente a N(t) = 0 = ocurren cero eventosentre 0 y t. Por lo tanto, se tiene

FX1(t) = PX1 ≤ t = 1− PX1 > t = 1− PN(t) = 0 = 1− e−λt.

Por la Propiedad 6.6 parte .3, se sabe que FX1(·) corresponde a la distribucion acumulada deuna variable aleatoria Exponencial con parametro λ. Usando el Theorema 6.9, puede verificarseque X2, X3, . . . son tambien Exponenciales con parametro λ. Consecuentemente, el Teorema 6.8implica que Sn es una variable aleatoria Erlang con parametros λ y n. Usando la propiedad de nomemoria de la distribucion Exponencial, se tiene que el tiempo necesario para tener n ocurren-cias del evento, empezando en cualquier instante de tiempo es tambien Erlang con parametrosλ y n. De esta manera, se completa la analogıa entre las ternas Binomial-Geometrica-Pascal yPoisson-Exponencial-Erlang.

Quiz: Use la f.d.p. de la distribucion Erlang para demostrar la parte 1. del Teorema 6.9.

Nota: Con frecuencia se utilizara la expresion ”el n-esimo evento”en lugar de ”la n-esimaocurrencia del evento.

Ejemplo 6.12. Los clientes llegan a un estacion de servicio de acuerdo a un proceso Poissoncon tasa 30 vehıculos/hora. Suponga es actualmente 8:00 A.M.

a) La probabilidad que el proximo vehıculo llegue despues de las 8:10 se obtiene de la siguientemanera: Sea X el tiempo hasta la proxima llegada, entonces X ∼ Exp(30). Se busca

PX > 1/6 = e−30·1/6 = e−5.

Alternativamente, se puede definir Y como el numero de llegadas entre las 8:00 y las 8:10,en tal caso se tiene que Y = N(1/6) ∼ Ps(30/6), y

PX > 1/6 = PY = 0 = e−5.

b) La probabilidad que exactamente 20 vehıculos lleguen entre 8:30 y 9:00 es

PN(8.5, 9] = 20 =e−151520

20!.

c) La probabilidad que 20 vehıculos lleguen entre 8:00 y 9:00, 50 vehıculos lleguen entre 9:00y 11:00, y no lleguen vehıculos entre 11:00 y 12:00 es

PN(8, 9] = 20PN(9, 11] = 50PN(11, 12] =e−303020

20!· e−606050

50!· e−30.

Page 78: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 77

d) La probabilidad que 40 vehıculos lleguen entre 9:00 y 10:00, dado que solo 10 llegaronentre 8:00 y 9:00 es simplemente

PN(9, 10] = 40 =e−303040

40!,

debido a la independencia del numero de llegadas en intervalos disjuntos.

En la parte e) se explotara la siguiente consecuencia del Teorema 6.9:

PN(s + t) = n/N(s) = k =PN(s + t) = n, N(s) = k

PN(s) = k

=PN(s) = k, N(s, s + t] = n− k

PN(s) = k

=PN(s) = kPN(s, s + t] = n− k

PN(s) = k= PN(s, s + t] = n− k

(6.10)

e) La probabilidad que 65 vehıculos lleguen entre 9:00 y 10:30, dado que 40 llegaron entre9:00 y 10:00 es

PN(9, 10.5] = 65/ N(9, 10] = 40 = PN(10, 10.5] = 25 =e−151525

25!.

Superposicion y Separacion de Procesos Poisson

En esta seccion se examinan dos consecuencias importantes de los teoremas 6.4 y 6.5.

Superposicion es la operacion de juntar dos o mas procesos de conteo para generar un nuevoproceso. Por ejemplo, en un banco, el conteo de clientes puede superponerse al conteo de no-clientes para formar el proceso de conteo del total de personas que demandan servicio. Lapropiedad reproductiva de la distribucion Poisson permite concluir que la superposicion deprocesos Poisson es tambıen un proceso Poisson.

Teorema 6.10. Sean Ni(t), t ≥ 0, i = 1, 2, . . . , k, procesos Poisson independientes. Sea λi

la tasa de proceso i. Defina

N(t) = N1(t) + N2(t) + . . . + Nk(t).

Entoces N(t), t ≥ 0 es proceso Poisson con tasa λ = λ1 + λ2 + . . . + λk.

Ejemplo 6.13. Los trabajos enviados para su ejecucion en un computador central estan divi-didos en tres clases de prioridad. Los trabajos de prioridad baja llegan de acuerdo a un procesoPoisson con tasa 15 trabajos/minuto. Similarmente,los trabajos de prioridad media llegan deacuerdo a u PP (10) y los de prioridad alta de acuerdo a un PP (5).

Page 79: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 78

a) Sea N(t), t ≥ 0 el proceso de llegada total, entonces N(t) ∼ PP (30).

b) La probabilidad que lleguen exactamente 50 trabajos en los proximos 2 minutos es

PN(2) = 50 =e−606050

50!.

Teorema 6.11. Sean N(t), t ≥ 0 y Ni(t), t ≥ 0, i = 1, 2 . . . , k, procesos Poisson definidoscomo el el Teorema 6.10. Defina Zn = j si el n-esimo evento (llegada) en el proceso totalN(t), t ≥ 0 proviene del proceso Nj(t), t ≥ 0. Entonces, Zn, n = 1, 2, . . ., es una secuenciade variables aleatorias iid con f.p.p. dada por

PZn = i =λi

λ, i = 1, 2, . . . , k.

Ejemplo 6.14. Considere nuevamente el Ejemplo 6.13. Se desea calcular la probabilidad queentre las primeras 50 llegadas, se encuentren exactamente 5 trabajos de prioridad alta. El Teo-rema 6.11 implica que la probabilidad que cualquier trabajo sea de prioridad alta es 5/30 = 1/6.Por tanto, si X es el numero de trabajos de prioridad alta entre las 50 primeras llegadas, setiene que X ∼ b(50, 1/6), y

PX = 5 =(

505

)(16

)5(56

)45

.

Separacion es la operacion de generar dos o mas procesos de conteo a partir de un procesototal. La separacion ocurre tıpicamente cuando se desea dividir un flujo de llegada en diferentesclases de acuerdo a alguna propiedad de las entidades que llegan. El siguiente es una extesiondel Teorema 6.5, y establece que despues de separar un proceso Poisson, cada proceso individuales tambien Poisson.

Teorema 6.12. Sea N(t), t ≥ 0 un PP (λ). Suponga que N(t) cuenta el numero de ocur-rencias de cierto evento A. Suponga que A puede clasificarse en k categorıas excluyentesA1, A2, . . . , Ak con probabilidades p1, p2, . . . , pk, respectivamente. Es decir, A1, A2, . . . , Ak esuna particion de A y P (Ai/A) = pi. Para i = 1, 2, . . . , k, sea Ni(t), t ≥ 0 el proceso de conteode los eventos Ai. Se cumple que Ni(t), t ≥ 0 es proceso Poisson con tasa λi = λpi. Ademaslos k procesos individuales son mutuamente independientes.

Ejemplo 6.15. La llegada de vehıculos a una estacion de servicio es un proceso Poisson conλ = 60 vehıculos/hora. El 70 % de los vehıculos son automoviles y el 30 % son camionetas. SiN(t) denota el proceso de llegada total, N1(t) la llegada de automoviles y N2(t) la llegada decamionetas:

a) N1(t), t ≥ 0 es PP (42), y N2(t), t ≥ 0 es PP (18).

b) La probabilidad que 25 automoviles lleguen en un periodo de una hora es

PN1(1) = 25 =e−424225

25!.

Page 80: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 79

c) La probabilidad que 25 automoviles lleguen en un periodo de una hora, dado que 60camionetas llegaron en el mismo periodo es PN1(1) = 25/N2(1) = 60 = PN1(1) =25, debido a la independencia de los procesos indivuales.

d) La probabilidad que 80 vehıculos lleguen en una hora dado que 20 automoviles llegaron enel mismo periodo es

PN(1) = 80/N1(1) = 20 =PN(1) = 80, N1(1) = 20

PN1(1) = 20

=PN1(1) = 20, N2(1) = 60

PN1(1) = 20

=PN1(1) = 20 PN2(1) = 60

PN1(1) = 20= PN2(1) = 60

=e−181860

60!.

6.3. Ejercicios

6.1. El numero de barcos que llega al Puerto de Valparaıso en un dıa cualquiera es una v.a.Poisson con λ = 2. En la actualidad el puerto puede atender solo tres naves por dıa. Si lleganmas de tres naves, la diferencia es desviada al puerto de San Antonio.

a) Encuentre la probabilidad que en un dıa cualquiera, el puerto deba desviar naves a SanAntonio.b) Encuentre la probabilidad que en un periodo de un mes (30 dıas), el puerto deba desviarnaves a San Antonio en al menos tres ocasiones.c) Encuentre el numero esperado de dıas que el puerto desvıa naves a San Antonio en un periodode un mes.d) ¿Cada cuantos dıas en promedio, el puerto desvıa naves?e) Encuentre el numero esperado de naves que llegan por dıa.f) Encuentre el numero esperado de naves que llegan por mes.g) Encuentre el numero esperado de naves atendidas por dıa.h) Encuentre le numero esperado de naves desviadas a San Antonio por dıa.i) ¿En cuanto debieran crecer las instalaciones, de manera que que el puerto atienda todas lanaves que llegan, al menos el 90 % de los dıas?

6.2. Las estadısticas muestran que aproximadamente el 0.1 % de la poblacion esta involucradaen cierto tipo de accidente cada ano. Una empresa aseguradora tiene 10000 clientes asegurados(seleccionados aleatoriamente de la poblacion). Encuentre la probabilidad que no mas de 5 delos clientes efectivamente sufran el accidente.

Page 81: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 80

6.3. EL numero de fallas de transistores en un computador sigue un proceso Poisson con tasa0.1 fallas por hora. Cierto calculo requiere 20 horas de computacion para completarse. El calculose interrumpe si tres o mas transistores fallan. Encuentre la probabilidad que el el calculo notermine.

6.4. Una fuente radioactiva emite partıculas de acuerdo a un proceso Poisson con tasa 10partıculas por hora. El aparato que cuenta las emisiones falla en registrar una partıcula conprobabilidad 0.1.

a) Encuentre la distribucion de probabilidades del numero de partıculas registradas en un periodode una hora, en un periodo de tres horas, y en un periodo de un dıa.b) Encuentre el numero esperado de partıculas registradas en un periodo de una hora, en unperiodo de tres horas, y en un periodo de un dıa.c) Actualmente es 2:00 pm, encuentre la probabilidad que 40 partıculas sean registradas entre4:00 y 7:00.d) Encuentre la probabilidad que 40 partıculas sean registradas entre 4:00 y 7:00, dado que 16particulas fueron registradas entre 2:00 y 4:00.e) Si 50 partıculas son emitidas entre 4:00 y 7:00, encuentre el numero esperado de partıculasregistradas en el mismo periodo.f) Encuentre la distribucion de probabilidades y el valor esperado del tiempo que transcurreentre dos emisiones no registradas sucesivas.g) Encuentre la probabilidad que entre las 5:00 y las 7:00 todas las emisiones sean registradas.h) Encuentre la probabilidad que 15 partıculas sean registradas entre 2:00 y 5:00, si 5 partıculasson registradas entre 2:00 y 3:00.i) Encuentre la probabilidad que 9 partıculas sean registradas en un periodo de una hora, si 12particulas son emitidas en el mismo periodo.j) Encuentre la probabildiad que 10 partıculas sean registradas enter 2:00 y 4:00, dado que solo2 partıculas son emitidas entre 2:00 y 3:00.k) Encuentre la probabilidad que 12 partıculas fueron emitidas entre 6:00 y 7:00, dado que 9partıculas fueron registradas en el mismo periodo.

6.5. La demanda mensual por cierto ıtem tiene una distribucion Poisson con parametro λ = 8unidades. Los ıtems que no han sido vendidos al final del mes deben ser descartados. EL preciode venta del ıtem es $10 y el costo de produccion es $3. Si la produccion mensual es de 10unidades, encuentre la valor esperado de la utilidad obtenida por el fabricante.

6.6. El tiempo de servicio (en minutos) por cliente de un cajero de banco es exponencial conparametro λ = .2. Considere una sucursal con un solo cajero.

a) Un cliente ha empezado en este instante su servicio, y Ud. esta primero en la fila. Encuentrela probabilidad que Ud. tenga que esperar entre 3 y 8 minutos.b) Suponga ahora que Ud. ya lleva 5 minutos el principio de la fila. Encuentre la probabilidadque tenga de esperar entre 3 y 8 minutos adicionales.c) Suponga que hay 3 clientes antes que Ud. en la fila (incluyendo al que esta siendo atendido).Encuentre la probilidad que tenga que esperar al menos 10 minutos antes de empezar su servicio.

Page 82: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 81

6.7. Suponga que Ud. esta en la fila de un banco. El banco tiene dos cajeros. Cada cajero tieneun tiempo de servicio (en minutos) con distribucion Exponencial con parametro λ = .2. Ud.esta primero en la fila, y los dos cajeros estan ocupados con otros clientes.

a) Encuentre la probabilidad que Ud. tenga que esperar mas de 3 minutos para iniciar su ser-vicio.b) Encuentre la probabilidad que Ud. tenga que esperar entre 3 y 7 minutos.c) Encuentre la distribucion y el valor esperado del tiempo de espera.

6.8. Suponga que los autos llegan a una estacion de servicio de acuerdo a un proceso Poissoncon tasa 30 autos/hora. Similarmente, las camionetas llegan de acuerdo a un proceso Poissoncon tasa 20 camionetas/hora.

a) Encuentre el valor esperado del numero total de vehıculos que llegan en un periodo de doshoras.b) Encuentre la probabilidad que 60 vehıculos lleguen a la estacion de servicio en las proximasdos horas.c) Si 15 autos llegan en la proxima hora, encuentre le numero esperado de vehıculos que llegaranen el mismo periodo.d) Considere una llegada cualquiera, ¿cual es la probabilidad que el vehıculo sea auto?.e) Si en un periodo de una hora llegan 100 vehıculos, encuentre el valor esperado del numerode autos que llegan en el mismo periodo.

6.9. Asuma que en promedio el 10 % de las personas que entran a una tienda efectivamenterealiza una compra. Encuentre:

a) La probabilidad que entre las 50 primeras personas que entran a la tienda, se produzcanexactamente 5 ventas.b) El numero esperado de ventas entre los primeras 50 personas que entran a la tienda.c) La probabilidad que la sexta compra la realice el 50-esimo cliente potencial.d) El numero esperado de personas que se necesita que entren a la tienda pra realizar 6 ventas.e) La probabilidad que se necesiten mas de 10 clientes potenciales para realizar 2 ventas.

6.10. Los casos de emergencia llegan a un hospital de acuerdo a un Proceso Poisson con tasa6 pacientes por hora. El 30 % de los paciemtes son mujeres. En este instante es 8:00 am.

a) La probabilidad que la primera emergencia llegue antes de las 8 : 15.b) La probabilidad que la segunda emergencia llegue antes de las 8 : 15.c) La probabilidad que se produzcan 20 emergencias entre 8:00 y 11:00, dado que se produjeron10 entre 8:00 y 9:00.d) La probabilidad que 3 mujeres lleguen entre 8:00 y 9:00.e) La probabilidad que 3 mujeres lleguen entre 8:00 y 9:00, dado que se producen 10 emergenciasen total en ese periodo.f) El valor esperado del instante de llegada de la tercera mujer.

Page 83: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 82

6.11. Suponga que los autos, camionetas y motos, llegan a una estacion de servicio de acuerdo aprocesos Poisson independientes con tasas 30 autos/hora, 20 camionetas/hora y 10 motos /hora,respectivamente. En este instante es 10:00 am. El ultimo vehıculo llego a las 9:55. Encuentre:

a) La distribucion y el valor esperado del numero total de vehıculos que llegan en un periodo de2 horas.b) La probabilidad que exactamente 100 vehıculos lleguen en un periodo de 2 horas.c) La probabilidad que 15 autos, 25 camionetas y 5 motos lleguen en un periodo de una hora.d) La probabilidad que el primer auto llegue despues de 5 minutos.e) La probabilidad que 80 vehıculos lleguen entre 10:00 y 11:00, dado que 30 vehıculos llegaronentre 10:00 y 10:30.f) La probabilidad que 30 vehıculos lleguen entre 10:00 y 10:30, dado que 80 vehıculos lleganentre 10:00 y 11:00.

6.12. Considere los mismos procesos Poisson del Ejercicio 6.11. Suponga que 20 % de los autosy 10 % de las camionetas son marca Mazda (suponga que Mazda no fabrica motos). Encuentre:

a) La tasa de llegada de autos y camionetas marca Mazda.b) La distribucion y el valor esperado del numero de vehıculos marca Mazda que llegan a laestacion en un periodo de una hora.c) La probabilidad que 5 autos marca Mazda lleguen entre 10:00 y 11:00, dado que en totalllegan 30 autos en el mismo periodo.d) Los valores esperado del tiempo de llegada del proximo y del quinto auto marca Mazda.e) El numero esperado de vehıculos marca Mazda que llegan entre 11:00 y 13:00, si en el mismoperiodo llegan en total 40 autos, 40 camionetas, y 20 motos.

Page 84: Gatica_Ricardo_-_probabilidades

Capıtulo 7

La distribucion Normal y losTeoremas de Lımite

7.1. La Distribucion Normal

La distribucion normal es considerada como la distribucion continua mas importante. Se diceque es la piedra fundamental de la inferencia estadıstica. Su importancia proviene de las sigu-ientes caracterısticas:

a) Se ha demostrado empıricamente que muchas poblaciones y fenomenos reales puedenmodelarse a traves de una distribucion normal, o una de sus distribuciones relacionadas.

b) Muchas variables aleatorias continuas y discretas se pueden aproximar mediante unadistribucion normal.

c) Debido al Teorema del Lımite Central (que se introducira mas adelante), la distribucionnormal se utiliza para aproximar la suma y el promedio de un numero grande de variablesaleatorias con cualquier distribucion. En particular, si un fenomeno puede modelarse comoel resultado de muchas contribuciones pequenas e (aproximadamente) independientes,entonces puede ser aproximado por una distribucion normal. De hecho, es este principioel que en muchos casos justifica las dos propiedades anteriores.

d) La distibucion normal tiene muchas propiedades matematicas utiles, que facilitan su ma-nipulacion algebraica.

Definicion 7.1. Se dice que una variable aleatoria continua X con RX = (−∞,∞) y funcionde densidad de probabilidades dada por

83

Page 85: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 84

Figura 7.1: f.d.p. de la distribucon Normal

f(x) =1√2πσ

e−(x−µ)2

2σ2 ,−∞ < x < ∞ (7.1)

es una variable aleatoria normal con parametros µ y σ2, lo que se denota X ∼ N(µ, σ2). Losparametros µ y σ2 deben satisfacer −∞ < µ < ∞ y σ > 0.

Teorema 7.1. Sea X ∼ N(µ, σ2). Entonces

E(X) = µ (7.2)

V (X) = σ2 (7.3)

La distribucion normal tiene la conocida forma de campana que se presenta en la Figura 7.1.La campana esta centrada, y es simetrica respecto a la media µ.

Nota: Cuando sea necesario para evitar ambiguedad, se utilizara la notacion: µX = E(X) yσ2

X = V (X).

Teorema 7.2. Sea X ∼ N(µ, σ2), e Y = aX + b, entonces Y ∼ N(aµ + b, a2σ2).

Teorema 7.3 (Propiedad reproductiva de la distribucion normal). Sean X1, X2 . . . Xk

variables aleatorias independientes tal que Xi ∼ N(µi, σ2i ), para i = 1, 2, . . . , k. Sea Y = X1 +

X2 + . . . + Xk. Entonces Y ∼ N(∑k

i=1 µi,∑k

i=1 σ2i )

Observar que al combinar el Teorema 7.2 y el Teorema 7.3, se tiene que cualquier combinacionlineal de un numero finito de variables aleatorias es tambien una variables aleatoria normal.La media y la varianza de la nueva variable aleatoria se calculan utilizando las propiedadesgenerales del valor esperado y de la varianza, discutidas en el Capıtulo 5. De esta manera, si

Page 86: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 85

X1, X2 . . . Xk se definen como en el Teorema 7.3, e Y = a1X1 +a2X2 + . . .+akXk + b. EntoncesY ∼ N(

∑ki=1 aiµi + b,

∑ki=1 a2

i σ2i ).

La distribucion normal estandar

Definicion 7.2. Si X es una variable aleatoria normal con µ = 0 y σ2 = 1, se dice que Xtiene una distribucion normal estandar. La f.d.p de X se denota por φ(x), y esta dada por

φ(x) =1√2π

e−x2

2 , −∞ ≤ x ≤ ∞. (7.4)

La funcion de densidad de la distribucion normal no puede integrarse de manera exacta. Con-secuentemente, la distribucion acumulada de una variable aleatoria normal no tiene una formaconocida y todos los calculos de probabilidad deben hacerse utilizando aproximaciones numeri-cas. Las calculadoras modernas pueden realizar estos calculos sin problemas. Sin embargo,tradicionalmente, las probabilidades se obtenıan de tablas para la distribucion acumulada dela distribucion normal estandar, denotada por Φ(x), utilizando el Teorema 7.2 de la siguientemanera: Sea X ∼ N(µ, σ2), entonces:

Pa ≤ x ≤ b = P

a− µ

σ≤ x− µ

σ≤ b− µ

σ

= P

a− µ

σ≤ N(0, 1) ≤ b− µ

σ

= Φ

(b− µ

σ

)− Φ

(a− µ

σ

)

Notacion: Para α < 0.5, el percentil 100(1 − α) de la distribucion normal se denota por zα.Es decir, PN(0, 1) ≤ zα = Φ(zα) = 1− α.

Ejemplo 7.1. El diametro en milımetros X de un cable electrico se distribuye normal conmedia 0.5 y desviacion estandar 0.005. Las especificaciones dicen que el diametro debe ser entre0.49 y 0.51. Entonces la probabilidad que el cable satisfaga las especificaciones es:

Φ(

0.51− 0.50.005

)− Φ

(0.49− 0.5

0.005

)= Φ(2)− Φ(−2) ≈ 0.95

El Ejemplo 7.1 sugiere el siguiente problema: Si la distribucion normal tiene un rango de todoslos numeros reales (incluyendo los negativos), ¿como puede el diametro del cable, que debeser positivo, ser modelado como una variable aleatoria normal?. La validez del modelo vienedada por el hecho que P (X < 0) = Φ(−0.5/0.005) = Φ(−100) ∼= 0. Es decir, la probabilidadteorica que la variable aleatoria tome un valor negativo es practicamente cero. En general, puedeverificarse que Φ(−3) ≈ 0.0015 y Φ(−4) ≈ 0. De este modo, la probabilidad que una variablealeatoria normal tome un valor negativo es despreciable si σ ≤ µ/4 (¿por que?). En dichos casos,

Page 87: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 86

modelar un valor no-negativo utilizando una variable aleatoria normal, es perfectamente valido.Incluso para el caso σ ≤ µ/3, la distribucion normal puede todavıa ser una buena aproximacion.

Ejemplo 7.2. Un administrador de inventarios ha estimado que el tiempo de reaprovision-amiento (el tiempo que pasa desde el instante en que el da una orden a su proveedor hastaque los productos ordenados llegan a la bodega) de cierto producto se distribuye normal conmedia 8 dıas y desviacion estandar 1.5. Utilizando esta informacion, el administrador deseacalcular cuantos dıas antes de la fecha en que el stock actual se acabe, debe poner una orden dereaprovisionamiento para que la probabilidad de quedar en deficit sea a lo mas 0.02.

Sea X ∼ N(8, 1.52) el tiempo de reaprovisionamiento. Se busca un valor R tal que P (X > R) ≤0.02. Entonces, de

PX > R = P

X − 8

1.5>

R− 81.5

= 1− Φ

(R− 81.5

)≤ 0.02

se tiene queR− 81.5

≥ z0.02,

o equivalentemente queR ≥ 1.5z0.02 + 8 = 11.08.

De este modo, si el administrador pone una orden de reemplazo 12 dıas antes que el inventarioactual se acabe, la probabilidad de deficit sera a lo mas 0.02.

Ejemplo 7.3. El radio de un piston es una variable aleatoria X ∼ N(30, 0.052). El radiointerior del cilindro es una variable aleatoria Y ∼ N(30.25, 0.062). El espacio entre el cilindroy el piston esta dado por Z = X − Y . Se tiene que E(Z) = 30.25 − 30.00 = 0.25, y V (Z) =0.052 + 0.062 = 0.0061, y por tanto, Z ∼ N(0.25, 0.061). La probabilidad que un piston tomadoal azar encaje en un cilindro esta dada por:

P (Z ≥ 0) = 1− P (Z < 0) = 1− Φ(

−0.25√0.0061

)= 0.9993

.

Quiz Considere el Ejemplo 7.3. Si Ud. tiene 80 pares piston-cilindro seleccionados al azar,encuentre la probabilidad que exactamente 75 pares calzen (que el piston entre en el cilindro).¿Piensa Ud. que esta probabilidad es la misma que la probabilidad de obtener 75 pares quecalzen desde un grupo de 80 pistones y 80 cilindros?.

Page 88: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 87

7.2. Distribuciones Aproximadas por la Distribucion Normal

Teorema 7.4. Sea X ∼ b(n, p). Si n es grande, X puede ser aproximada por una distribucionNormal con parametros µ = np y σ2 = np(1− p). Es decir, para n grande se cumple que

PX ≤ x ≈ PN(np, np(1− p)) ≤ x = Φ

(x− np√np(1− p)

).

Nota: Una expresion mas formal para el Teorema 7.4 esta dada por

lımn→∞

P

X − np√np(1− p)

< z

= Φ(z).

Teorema 7.5. Sea X ∼ P (λ). Entonces, si λ es grande, X puede ser aproximada por undistribucion Normal con parametros µ = λ y σ2 = λ.

Nota: Si se considera una proceso Poisson con tasa λ, entonces el Teorema 7.5 implica que elnumero de eventos en un intervalo de tiempo largo (λt debe ser gande) se distribuye aproxi-madamente normal con parametros µ = λt y σ2 = λt.

Muchas otras distribuciones importantes pueden aproximarse por la distribucion normal, enparticular, todas aquellas que pueden representarse como la suma de variables aleatorias inde-pendientes. Esto es una consecuencia del Teorema del Lımite Central que se presentara en laSeccion 7.4. Entre las distribuciones con esta caracterıtica, ya se han visto la distribucion Pas-cal (que puede ser modelada como la suma de variable aleatorias Geometricas independientes)y la distribucion Gamma/Erlang (que puede ser modelada como una suma de variablesaleatorias Exponenciales independientes).

7.3. La Ley de los Grandes Numeros

La Media y la Varianza del Promedio Muestral

Considere una secuencia de variables aleatorias X1, X2, . . . , Xn, entonces la media aritmetica(o simplemente la media) de X1, X2, . . . , Xn es la variable aleatoria X =

∑ni=1

Xin . Utilizando

las propiedades del valor esperado y de la varianza, se puede verificar que:

E(X) =n∑

i=1

E(Xi)n

(7.5)

Page 89: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 88

V (X) =n∑

i=1

V (Xi)n2

, si X1, X2, . . . , Xn son independientes. (7.6)

Si X1, X2, . . . , Xn son variables aleatorias independientes e identicamente distribuidas (iid) conE(Xi) = µ, y V (Xi) = σ2, para todo i = 1, 2, . . . , n. Entonces se dice que X1, X2, . . . , Xn esuna muestra y que X es el promedio muestral. En este caso, (7.5) y (7.6) se reducen a:

E(X) = µ (7.7)

V (X) =σ2

n(7.8)

Las muestras comunmente aparecen en el siguiente contexto: Considere un experimento E quepuede ser repetido muchas veces bajo exactamente las mismas condiciones. Sea X una variablealeatoria generica asociada con E. Considere n repeticiones independientes del experimeto ysea Xi la variable aleatoria asociada con la i-esima repeticion, entonces X1, X2, . . . Xn es unamuestra de la variable aleatoria generica X. Se dice que el numero n es el tamano de la muestra.

Por ejemplo, asuma, como en el Ejemplo 7.3, que X ∼ N(30, 0.05) es el radio de un piston (lavariable aleatoria generica) y tenemos un conjunto de 80 de tales pistones numerados 1, 2, . . . , 80.Para i = 1, 2, . . . , 80, sea Xi el radio del piston i, entonces X1, X2, . . . , X80 es una muestrade tamano 80. Se ha asumido en este ejemplo que la precision de la maquina que produce lospistones no cambia entre cada piston. En este sentido, el experimento ”producir un piston”puedeser repetido muchas veces bajo las mismas condiciones.

Nota: El termino muestra tambien se usa para referirse a la secuencia x1, x2, . . . , xn de valoresespecıficos tomados por las variables aleatorias X1, X2, . . . , Xn. Informalmente tambien se usapara referirse al conjunto de objetos desde el cual se va a extraer X (los 80 pistones en elejemplo anterior). El concepto de muestra es un concepto clave en Estadıstica.

Teorema 7.6. La Ley de los Grandes Numeros: Asuma que X1, X2, . . . , Xn, es unamuestra de variables aleatorias independientes e identicamente distribuıdas, con E(Xi) = µy V (Xi) = σ2, para todo i = 1, 2, . . . , n. Entonces, por la Desigualdad de Chebyshev se tiene

P (|X − µ| < ε) ≥ 1− σ2

nε2, (7.9)

lo que implica,lım

n→∞P (|X − µ| < ε) = 1 (7.10)

Page 90: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 89

Observar que el Teorema 7.6 es en cierta forma, una declaracion formal de la propiedad de regu-laridad estadıstica mencionada anteriormente. El teorema dice que medida que el tamano dela muestra (el numero de reticiones del experimento) crece, el promedio muestral tiende, prob-abilısticamente, a ser cada vez mas cercano al valor esperado de la variable aleatoria genericaX. Esto es una consecuencia del hecho que mientras mas grande es n menor es la varianza delpromedio muestral (ver Ecuacion (7.8)).

Quiz: Aplique la Desigualdad de Chebyshev para derivar una “version Bernoulli” de la Ley delos Grandes Numeros. Esto es, demuestre que lımn→∞ P (|fA − P (A)| < ε) = 1, donde fA yP (A) son la frecuencia relativa y la probabilidad del evento A, respectivamente.

Ejemplo 7.4. Asuma que X es una variable aleatoria con E(X) = 30 y V (X) = 25. Se buscael tamano de muestra requerido para tener un 96 % de seguridad que el promedio muestral nodifiere del valor esperado en mas de dos unidades. De (7.9) se tiene que P (|X − 30| ≤ 2) ≥1 − 25/4n. Resolviendo 1 − 25/4n ≥ 0.96, se obtiene n ≥ 157. Observe que este resultado nodepende en lo absoluto de E(X). Depende solamente de la varianza.

Quiz: Repita el Ejemplo 7.4 asumiendo X ∼ N(30, 25)

7.4. El Teorema del Lımite Central (TLC)

Las aproximaciones descritas en la Seccion 7.2 son casos particulares de un resultados muchomas general, importante y notable en la Teorıa de la Probabilidad y en Estadıstica: El Teoremadel Lımite Central. A grandes rasgos, este teorema dice que la suma de un gran numero devariables aleatorias, con cualquier tipo de distribucion, se distribuye aproximadamente Normal.

Teorema 7.7 (Teorema del Lımite Central). Considere una secuencia X1, X2, . . . , Xn devariables aleatorias independientes con E(Xi) = µi y V (Xi) = σ2

i , para i = 1, 2, . . . , n. SeaY = X1 +X2 + . . .+Xn. Entonces, bajo ciertas condiciones generales, Y tiene una distribucionaproximadamente Normal con µY =

∑ni=1 µi, y σ2

Y =∑n

i=1 σ2i . Formalmente,

lımn→∞

P

Y − µY

σY≤ y

= Φ(y).

Las condiciones generales referidas en el Teorema 7.7 basicamente requieren que cada variablealeatoria individual contribuya con una cantidad despreciable a la suma total. Esto es, cadavariable individual tiene una varianza pequena y es incapaz de influenciar significativamente elvalor total de la suma.

Un caso particular del Teorema 7.7 se obtiene cuando la secuencia X1, X2, . . . , Xn representauna muestra iid. En esta caso Y es aproximadamente N(nµ, nσ2) y X es aproximadamenteN(µ, σ2/n).

Page 91: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 90

Ejemplo 7.5. Asuma que una mujer chilena tıpica tiene una altura promedio de 65 pulgadas,con una varianza de 9 pulgadas cuadradas.

a) Se busca la probabilidad que la altura promedio en una muestra promedio de 30 mujeresesta entre 64 y 66.

Sea X la variable aleatoria que representa la altura de una mujer. Por el Teorema delLımite Central (TLC), se tiene que X ∼ N(65, 0.3). Por tanto,

P64 ≤ X ≤ 66

= P

64− 65√

0.3≤ X − 65√

0.3≤ 66− 65√

0.3

= P −1.82 ≤ N(0, 1) ≤ 1.82= Φ(1.82)− Φ(−1.82) = 0.931.

b) Se busca el tamano de muestra requerido para asegurar que el promedio muestral este entre64.5 y 65.5 con un 95 % de probabilidad. Nuevamente por el TLC, se tiene que X ∼N(65, 9/n). Por lo tanto,

P64.5 ≤ X ≤ 65.5) = P

64.5− 65√

9/n≤ X − 65√

9/n≤ 65.5− 65√

9/n

= Φ(0.167

√n)− Φ(−0.167

√n)

= 1− 2Φ(−0.167√

n)

Resolviendo 1 − 2Φ(−0.167√

n) ≥ 0.95, se tiene Φ(−0.167√

n) ≤ 0.025, lo que implica−0.167

√n ≤ −z0.025 = −1.96 o, equivalentemente, n ≥ 138.

Ejemplo 7.6. La vida util (en dıas) de una ampolleta tiene media 10 y varianza 16. Cuandouna ampolleta se quema es reemplazada por una similar. Se busca la probabilidad que en losproximos tres anos (1095 dıas) se necesiten mas de 100 ampolletas. Para i = 1, 2, . . . , 100,sea Xi la variable aleatoria que representa la vida util de la i-esima ampolleta. Entonces Y =X1 + X2 + . . . + X100 representa el tiempo total cubierto por las primeras 100 ampolletas. Porel TLC, Y ∼ N(1000, 1600). Se desea calcular

PY < 1095 = P

Y − 1000√

1600<

1095− 1000√1600

= Φ(2.38)= 0.9913.

7.5. Ejercicios

7.1. El numero de barcos que llegan a una refinerıa cada dıa es una variable aleatoria Poissoncon parametro λ = 3. Las instalaciones actuales del puerto permiten el servicio de 3 naves

Page 92: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 91

diarias. Si llegan mas de 3 naves, los que sobrepasan este numero deben ser enviados a otropuerto.

a) Encuentre la distribucion del numero de naves que llegan al puerto en un perıodo de 6 meses(180 dıas).b) Encuentre la probabilidad que en un perıodo de 6 meses lleguen entre 340 y 400 naves alpuerto.c) Encuentre la probabiliadd que en un dıa particular el puerto deba mandar naves a otro puerto.d) Encuentre la probabilidad que en un perıodo de 6 meses el puerto mande naves a otro puertoen no mas de 80 dıas.e) Encuentre la probabilidad que en un periodo de 6 meses, se atiendan entre 250 y 300 naves.

(Ayuda: Usted debe utilizar las aproximaciones normales a las otras distribuciones en esteproblema )

7.2. El grosor de una placa de metal hecha por una maquina se distribuye normalmente conmedia 4.3 mm y desviacion estandar 0.12 mm. Si se ponen juntas 12 placas:

a) ¿Cual es la distribucion del grosor total de las 12 placas?b) Encuentre la probabilidad que el grosor total este entre 51 y 52 mm.c) Encuentre el mınimo numero de placas requeridas para que el grosor promedio este entre4.25 y 4.35 mm con probabilidad de al menos 99.7 %.

Page 93: Gatica_Ricardo_-_probabilidades

Capıtulo 8

Variables AleatoriasMultidimensionales

En los capıtulos 4 y 5 se estudio el concepto de variables aleatorias unidimensionales. Estoes variables aleatorias que representan una caracterıstica numerica unica de un experimento o unfenomeno. El interes se centra ahora en estudiar el comportamiento de dos o mas caracterısticasnumericas de un experimento en forma simultanea. Por ejemplo; la altura y el peso de unapersona: el volumen y el peso de los paquetes recibidos en la oficina de correos; la inflaciony la tasa de desempleo en una economıa; el precio, calidad y demanda de cierto producto; elingreso, costos de educacion y costos de alimentacion de las familias chilenas, etc. En cada unode estos ejemplos parece intuitivamente obvio que las dimensiones que hay que estudiar no sonindependientes. La discusion se concentra en el caso bidimensional. Esto no representa limitacionalguna, pues todos los conceptos y herramientas presentados son facilmente extendibles al casode mas de dos dimensiones.

8.1. Variables Aleatorias Bidimensionales y Distribuciones deProbabilidad Conjunta

Definicion 8.1. Sea E un experimeto y S un espacio muestral asociado con E. Sean X e Ydos funciones que asignan a cada elemento s ∈ S numeros reales X(s) e Y (s), respectivamente.Se denomina variable aleatoria bidimensional al par ordenado (X, Y ).

Definicion 8.2. El rango (X, Y ), denotado por RXY , es el conjunto de todos los valores posiblesdel par (X, Y ).

Definicion 8.3. Sea E un experimento y S un espacio muestral asociado con E. Sean X1 =X1(s), X2 = X2(s), . . . , Xn = Xn(s), n funciones, cada una de las cuales asigna un numero

92

Page 94: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 93

real a cada elemento s ∈ S . Se denomina variable aleatoria n-dimensional al vector(X1, X2, . . . , Xn) (tambien llamado vector aleatorio n-dimensional).

Como en el caso unidimensional, se busca asociar el concepto de probabilidad con la vari-able aleatoria bidimensional (X, Y ). Nuevamente, la distribucion de probabilidad de (X, Y )sera derivada de las probabilidades asociadas con el espacio muestral original utilizando elconcepto de eventos equivalentes.

Definicion 8.4. Sea E un experimento y S un espacio muestral asociado con E. Sea (X, Y )una variable aleatoria bidimensional definida en S. Sea B ⊆ RXY y A ⊆ S. Se dice que A y Bson equivalentes si

A = s ∈ S : (X(s), Y (s)) ∈ B.

Si A y B son equivalentes, la probabilidad del evento B esta dada por

P (B) = P (A) = Ps ∈ S/(X(s), Y (s)) ∈ B.

De manera analoga al Capıtulo 4, se distinguira entre dos tipos basicos de variables aleatoriasbidimensionale: discretas y continuas.

Definicion 8.5. Se dice que una variable aleatoria bidimensional (X, Y ) es discreta si el rangoRXY es finito o infinito contable. Es decir, RXY puede ser escrito como RXY = (xi, yj), i =1, 2, . . . , j = 1, 2, . . ..

Definicion 8.6. Sea (X, Y ) una variable aleatoria bidimensional discreta. La funcion de proba-bilidad puntual conjunta (f.p.p.) de (X, Y ) es la funcion p(·, ·) que asocia a cada (xi, yj) ∈ RXY

un valor pij = p(xi, yj) = PX = xi, Y = yj que satisface:

a) pij ≥ 0

b)∑∑

(xi,yj)∈Rxypij = 1

La coleccion de trıos (xi, yj , pij), se denomina distribuicion de probabilidad de (X, Y ).

En forma similar al caso unidimensional, puede verificarse que la probabilidad de un eventoB ⊆ RXY esta dada por

P (B) =∑∑

(xi,yj)∈Bpij (8.1)

Ejemplo 8.1. Considere una variable aleatoria bidimensional discreta (X, Y ) con funcion deprobabilidad conjunta dada en la Tabla 8.1. Se tiene:

Page 95: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 94

a) PX = 2, Y = 3 = p2,3 = 0.05

b) PX ≤ 1, Y = 2 = p0,2 + p1,2 = 0.05 + 0.05 = 0.1

c) PX ≤ 1, Y ≥ 2 = p0,2 + p1,2 + p0,3 + p1,3 = 0.05 + 0.05 + 0 + 0.1 = 0.2

d) PY = 0 = p0,0 + p1,0 + p2,0 = 0.1 + 0.05 + 0.2 = 0.35

e) PX = Y = p0,0 + p1,1 + p2,2 = 0.1 + 0.2 + 0.1 = 0.4

f) PX > Y = p1,0 + p2,0 + p2,1 = 0.05 + 0.2 + 0 = 0.25

Tabla 8.1: Distribucion de probabilidad Ejemplo 8.1

x/y 0 1 2 30 0.1 0.1 0.05 01 0.05 0.2 0.05 0.12 0.2 0 0.1 0.05

Ejemplo 8.2 (La distribucion trinomial). Considere un experimento E con tres posiblesresultados. Sean p1, p2 y p3 las probabilidades de los resultados 1, 2 y 3, respectivamente (p1 +p2 + p3 = 1). Suponga que ud. repite el experimento n veces y defina Xi como el numero deveces que el resultado del experimento es i. Note que para i = 1, 2, 3, Xi ∼ b(n, pi). Sin embargo,X1, X2 y X3 no son independientes, porque X1+X2+X3 = n. La funcion de probabilidad puntualconjunta de la variable aleatoria tridimensional (X1, X2, X3), esta dada por:

pijk = PX1 = i,X2 = j,X3 = k =

n!

i!j!k!pi1p

j2p

k3 si i+j+k=n,

0 de otra manera(8.2)

Se dice que una variable aleatoria tridimensional con f.p.p conjunta dada por 8.2 tiene unadistribucion trinomial, o que es una variable aleatoria trinomial con parametros n, p1, p2

y p3.

Quiz: Derive la expresion 8.2.

Quiz: Considere el Ejemplo 8.2. Encuentre la distribucion conjunta de la variable aleatoriabidimensional (X1, X2).

Definicion 8.7. Se dice que una variable aleatoria bidimensional (X, Y ) es continua si el rangoRXY es un subconjunto no contable del espacio Euclidiano.

Definicion 8.8. Sea (X, Y ) una variable aleatoria continua bidimensional. La Funcion dedensidad de probabilidad conjunta (f.d.p) de (X, Y ) es una funcion f(·, ·) definida en RXY

que permite representar el espacio de probabilidades de (X, Y ) y satisface:

Page 96: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 95

Figura 8.1: Ilustracion Ejemplo 8.3d)

a) f(x, y) ≥ 0, para todo (x, y) ∈ RXY

b)∫∫

RXY

f(x, y)dxdy = 1

c) P (A) =∫∫

Af(x, y)dxdy, para todo A ⊆ RXY

Ejemplo 8.3. Sea (X, Y ) una variable aleatoria bidimensional con

f(x, y) =

1

240xy si 4 ≤ x ≤ 6, 4 ≤ y ≤ 80 otro caso

a) PX ≤ 5, Y ≤ 6 =∫ 5

4

∫ 6

4f(x, y)dydx =

∫ 5

4

∫ 6

4

1240

xydydx = 0.1875

b) PX ≤ 5, 5 ≤ Y ≤ 7 =∫ 5

4

∫ 7

5f(x, y)dydx =

∫ 5

4

∫ 7

5

1240

xydydx = 0.225

c) PX ≤ 5 = PX ≤ 5, 4 ≤ Y ≤ 8 =∫ 5

4

∫ 8

4f(x, y)dydx =

∫ 5

4

∫ 8

4

1240

xydydx = 0.45

d) PX > Y =∫ 6

4

∫ x

4f(x, y)dydx =

∫ 6

4

∫ x

4

1240

xydydx = 0.5365 (ver Figura 8.1)

Ejemplo 8.4. Sea (X, Y ) una variable aleatoria bidimensional con

f(x, y) =

8xy si 0 ≤ x ≤ 1, x ≤ y ≤ 10 otro caso

Page 97: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 96

Figura 8.2: Ilustracion Ejemplo 8.4

a) PX ≤ .5, Y ≤ .6 =∫ .5

0

∫ .6

xf(x, y)dydx =

∫ .5

0

∫ .6

x8xydydx = 0.1175

(ver Figura 8.2a)

b) PY ≥ .5 =∫ .5

0

∫ 1

.58xydydx +

∫ 1

.5

∫ 1

x8xydydx = 1−

∫ .5

0

∫ .5

x8xydydx = 0.9375

(ver Figura 8.2b)

Ejemplo 8.5. Sea (X, Y ) una variable aleatoria bidimensional definida en RXY ⊆ R2. Si

f(x, y) =

1

Area(RXY ) para (x, y) ∈ RXY

0 otro caso

Se dice que (X, Y ) tiene una distribucion uniforme en RXY , o lo que es equivalente, que es unavariable aleatoria uniforme en RXY . En este caso, para cada A ⊆ RXY ,

P (A) =Area(A)

Area(Rxy).

8.2. Probabilidades y Valor Esperado de una Funcion de unaVariable Aleatoria Bidimensional

Sea (X, Y ) una variable aleatoria bidimensional, y sea Z = H(X, Y ). De la misma manera queen el caso unidimensional, es claro que Z es una variable aleatoria. Tambien como en el casounidmensional, en la mayorıa de las situaciones no es necesario encontrar la distribucion deprobabilidad de Z. Los calculos de probabilidad asociados con Z pueden realizarse utilizandoel concepto de eventos equivalentes de la siguiente manera:

Page 98: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 97

PZ ∈ B = P(x, y) ∈ RXY : H(x, y) ∈ B

Similarmente, el valor esperado de Z puede encontrarse utilizando la siguiente extension directadel Teorema 5.1.

Teorema 8.1. Sea (X, Y ) una variable aleatoria bidimensional, y sea Z = H(X, Y ). Entonces

a) Si (X, Y ) es discreta

E(Z) = E(H(X, Y )) =∑∑

xi,yj∈RXY

H(xi, yj)p(xi, yj) (8.3)

b) Si (X, Y ) es continua

E(Z) = E(H(X, Y )) =∫∫

RXY

H(x, y)f(x, y)dxdy (8.4)

Nota: Observe que si se define H(X, Y ) = X, entonces el Teorema 8.1 dice que E(X) =∫∫RXY

xf(x, y)dydx para (X, Y ) continua (el caso de (X, Y ) discreta se deja como ejercicio).De manera similar podemos calcular E(Y ). Otra forma de calcular E(X) y E(Y ), es utilizandola distribucion marginal de X e Y , que seran definidas en la siguiente seccion.

Ejemplo 8.6. Sea (X, Y ) una variable aleatoria bidimensional con

f(x, y) =

1

240xy si 4 ≤ x ≤ 6, 4 ≤ y ≤ 80 otro caso

,

entonces

E(X) =∫ 6

4

∫ 8

4xf(x, y)dydx =

∫ 6

4

∫ 8

4x

1240

xydydx =∫ 6

4

∫ 8

4

1240

x2ydydx = 5.066.

Sea Z = X + Y , entonces (ver Figura 8.3)

PZ ≤ 10 = PX + Y ≤ 10 =∫ 6

4

∫ 10−x

4

1240

xydydx.

E(Z) = E(X + Y ) =∫ 6

4

∫ 8

4(x + y)f(x, y)dydx =

∫ 6

4

∫ 8

4

1240

(x + y)xydydx.

Quiz: Complete los calculos anteriores.

Page 99: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 98

Figura 8.3: Ilustracion Ejemplo 8.6

8.3. Distribuciones Marginales

Considere una variable aleatoria discreta bidimensional (X, Y ) con rango RXY . Claramente loscomponentes individuales X e Y son variables aleatorias unidimensionales. Las distribuciones deprobabilidades de los componentes individuales, X e Y , pueden derivarse de la distribucion deprobabilidad conjunta de (X, Y ). Las distribuciones individuales se denominan distribucionesmarginales.

Considere una variable aleatoria bidimensional discreta con rango RXY , y una funcion de prob-abilidad puntual conjunta p(x, y). Las distribuciones marginales de X e Y estan dadas por:

pX(xi) = PX = xi =∑

j:(xi,yj)∈Rxy

p(xi, yj) (8.5)

pY (yj) = PY = yj =∑

i:(xi,yj)∈Rxy

p(xi, yj) (8.6)

Nota: Observar que en (8.5) se fija el indice i (es decir, de toma un xi especıfico) y se sumasobre todos los posibles valores de j. Similarmente, en (8.6), se fija j y se suma sobre todos losposibles valores de i.

Ejemplo 8.7. Considere una variable aleatoria bidimensional (X, Y ) con la funcion de prob-abilidad conjunta dada en la Tabla 8.2. Las distribuciones marginales de X e Y , estan dadasrespectivamente en la ultima fila y en la ultima columna de la tabla.

Considere ahora una variable aleatoria bidimensional continua (X, Y ) con rango RXY y funcionde densidad conjunta f(x, y). Las funciones de densidad marginales de X e Y estan dadas por:

Page 100: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 99

Tabla 8.2:

x/y 0 1 2 3 pX(xi)0 0.1 0.1 0.05 0 0.251 0.05 0.2 0.05 0.1 0.42 0.2 0 0.1 0.05 0.35

pY (yj) 0.35 0.3 0.2 0.15

fX(x) =∫y:(x,y)∈Rxy

f(x, y)dy (8.7)

fY (y) =∫x:(x,y)∈Rxy

f(x, y)dx (8.8)

Nota: Observar que en(8.7) se fija un valor X = x, y se integra sobre todos los valores posiblesde Y para ese valor x especıfico. En (8.8) se hace lo contrario. Los ejemplos siguientes ilustranel concepto.

Ejemplo 8.8. Sea (X, Y ) una variable aleatoria bidimensional con

f(x, y) =

1

240xy si 4 ≤ x ≤ 6, 4 ≤ y ≤ 80 de otra manera

.

entonces,

fX(x) =∫ 8

4

1240

xydy =110

x 4 ≤ x ≤ 6 (8.9)

fY (y) =∫ 6

4

1240

xydx =124

y 4 ≤ y ≤ 8 (8.10)

Ejemplo 8.9. Sea (X, Y ) una variable aleatoria bidimensional con:

f(x, y) =

8xy si 0 ≤ x ≤ 1, x ≤ y ≤ 10 de otra manera

,

entonces,

fX(x) =∫ 1

x8xydy = 4x(1− x2) 0 ≤ x ≤ 1 (8.11)

fY (y) =∫ y

08xydx = 4y3 0 ≤ y ≤ 1 (8.12)

Page 101: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 100

Figura 8.4: Rango de (X, Y ) en el Ejemplo 8.8

Figura 8.5: Rango de (X, Y ) en el Ejemplo 8.9

Comparando (8.9) y (8.11) se observa que los lımites de integracion en (8.9) son constantes,pero los lımites de integracion en (8.11) dependen de x. Esto es una consecuencia de la formade los rangos respectivos (vea la Figura 8.4 y la Figura 8.5). En el Ejemplo 8.8, para cualquiervalor de X, los valores posibles de Y van de 4 a 8 (4 ≤ y ≤ 8). En el Ejemplo 8.9 para X = xfijo, Y va desde x a 1 (x ≤ y ≤ 1). Un analisis similar se puede hacer para (8.10) y (8.12).

Nota: Como se sugiere en el comentario anterior, en muchos problemas relacionados con vari-ables aleatorias bidimensionales, es fundamental graficar el rango de (X, Y ) en el plano Euclid-iano.

Nota: Las distribuciones marginales son utiles cuando queremos cacular esperanzas o prob-abilidades de varios sucesos relacionados a un componente unico de una variable aleatoriamulti-dimensional.

Ejemplo 8.10. Considere nuevamente la variable aleatoria del Ejemplo 8.8. Se tiene:

Page 102: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 101

PX ≥ 5 =∫ 6

5fX(x)dx =

∫ 6

5

110

xdx =1120

P4 ≤ Y ≤ 6 =∫ 6

4fY (y)dy =

∫ 6

4

124

ydy =512

E(X) =∫ 6

4xfX(x)dx =

∫ 6

4x

110

xdx =∫ 6

4

110

x2dx = 5.066

Ejemplo 8.11. Considere nuevamente la variable aleatoria del Ejemplo 8.9. Se tiene:

PX ≥ 0.5 =∫ 1

0.5fX(x)dx =

∫ 1

0.54x(1− x2)dx = 0.56

P0.2 ≤ Y ≤ 0.8 =∫ 0.8

0.2fY (y)dy =

∫ 0.8

0.24y3dy = 0.6

E(Y ) =∫ 1

0yfY (y)dy =

∫ 1

0y4y3dy =

∫ 1

04y4dy = 0.8

8.4. Distribuciones Condicionales

Considere una variable aleatoria bidimensional (X, Y ), las distribuciones marginales permitenhacer calculos de probabilidad relacionados con una de las variable, independiente del valor quetome la otra variable. El interes en esta seccion se centra en el calculo de probabilidades rela-cionadas con una variable, por ejemplo X, cuando se sabe que la otra variable, Y , toma un valorespecıfico Y = y. Con este proposito se introduce el concepto de distribuciones condicionales.

Definicion 8.9. Sea (X, Y ) una variable aleatoria bidimensional discreta con rango RXY y fun-cion de probailidad puntual conjunta p(x, y). Se define la funcion de probabilidad puntualcondicional de X dado Y = yj, como sigue:

pX/Y =yj(xi) = PX = xi/Y = yj =

p(xi, yj)pY (yj)

para todo xi (8.13)

Similarmente, la funcion de probabilidad puntual condicional de Y dado X = xi, se define por

pY/X=xi(xj) = PY = yj/X = xi =

p(xi, yj)pX(xi)

para todo yj (8.14)

Nota: Observe que en (8.13), yj esta fijo. Por tanto, puede definirse una distribucion condi-cional para cada valor posible yj de Y . Lo mismo sucede en (8.14)

Page 103: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 102

Ejemplo 8.12. Considere la variable bidimensional discreta descrita en el Ejemplo (8.1). Ladistribucion condicional de X dado Y = 2 se obtiene de la siguiente manera.

pX/Y =2(0) = PX = 0/Y = 2 =0.050.2

= 0.25

pX/Y =2(1) = PX = 1/Y = 2 =0.050.2

= 0.25

pX/Y =2(2) = PX = 2/Y = 2 =0.10.2

= 0.5

Note que pX/Y =2(0)+pX/Y =2(1)+pX/Y =2(2) = 1, esto muestra que pX/Y =2(x) es una distribu-cion de probabilidad valida. Otras distribuciones condicionales estan dadas en las tablas (8.3) y(8.4). Observe que cada fila de las tablas representa una distribucion de probabilidad diferente.Las columnas, en cambio, no tienen un significado especıfico.

Tabla 8.3:

X 0 1 2pX/Y =0(xi) 2/7 1/7 3/7pX/Y =1(xi) 1/3 2/3 0pX/Y =2(xi) 0.25 0.25 0.5pX/Y =3(xi) 0 2/3 1/3

Tabla 8.4:

y 0 1 2 3pY/X=0(yj) 2/5 2/5 1/5 0pY/X=1(yj) 1/8 1/2 1/8 1/4pY/X=2(yj) 4/7 0 2/7 1/7

Definicion 8.10. Sea (X, Y ) una variable aleatoria bidimensional continua con rango espacialRXY y funcion de densidad conjunta f(x, y). Se define la funcion de densidad condicionalde X dado Y = y, como sigue

fX/Y =y(x) =f(x, y)fY (y)

para x ∈ RX/Y = x : (x, y) ∈ RXY (8.15)

Similarmente la distribucion condicional de Y dado X = x se define por

fY/X=x(y) =f(x, y)fX(x)

para y ∈ RY/X = x : (x, y) ∈ RXY (8.16)

Page 104: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 103

Nota: Como en el caso discreto, en (8.15) y esta fija, por lo tanto cada valor posible y de Yinduce a una distribucion condicional fX/Y =y(x) de X distinta.

Nota: Las distribuciones condicionales tienen todas las propiedades de las distribuciones gen-erales. En particular, ∫

RX/y

fX/Y =y(x)dx = 1

Ejemplo 8.13. Considere la variable aleatoria (X, Y ) descrita en el Ejemplo (8.9). Recuerdeque:

f(x, y) =

8xy si 0 ≤ x ≤ 1, x ≤ y ≤ 10 otro caso

,

fX(x) = 4x(1− x2), 0 ≤ x ≤ 1 yfY (y) = 4y3, 0 ≤ y ≤ 1

Por lo tanto,

fX/Y =y =8xy

4y3=

2x

y20 ≤ x ≤ 1

fY/X=x =8xy

4x(1− x2)=

2y

1− x2x ≤ y ≤ 1

Note que la manera mas facil de encontrar RX/y es utilizando el grafico de RXY (Figura (8.2)).Observe tambien que cada una de las expresiones anteriores provee una descripcion general deuna familia de distribuciones condicionales. Asignando diferentes valores numericos a y (re-spectivamente, x) obtendremos diferentes distribuciones condicionales especıficas para X (re-spectivamente, Y). Por ejemplo:

fX/Y =0.5 =2x

0.52= 8x 0 ≤ x ≤ 0.5

fX/Y =0.8 =2x

0.82= 3.125x 0 ≤ x ≤ 0.8

fY/X=0.4 =2y

1− 0.42= 2.5y 0.4 ≤ y ≤ 1

El lector puede verificar que en cada caso la integral sobre el rango condicional equivale a 1.

En los siguientes ejemplos se muestra el tipo de calculos que puede efectuarse utilizando lasdistribuciones condicionales:

PX ≤ 0.3/Y = 0.5 =∫ 0.3

0fX/Y =0.5(x)dx =

∫ 0.3

08xdx = 0.36

Page 105: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 104

PX ≥ 0.5/Y = 0.8 =∫ 0.8

0.5fX/Y =0.8(x)dx =

∫ 0.8

0.53.125xdx = 0.61

P0.6 ≤ Y ≤ 0.9/X = 0.4 =∫ 0.9

0.6fY/X=0.4(y)dy =

∫ 0.9

0.62.5ydy = 0.56

8.5. Valor Esperado Condicional

Como en el caso de la Seccion 5.5 , si se tiene una distribucion condicional, resulta naturaldefinir el valor esperado condicional. Esto es, por ejemplo, el valor esperado de X dado queconocemos que Y toma un valor especıfico Y = y.

Definicion 8.11. Sea (X, Y ) una variable aleatoria bidimensional, definimos el valor esperadocondicional de X dado que Y = y como:

a) Si (X, Y ) es discretaE(X/Y = yj) =

∑RX/y

xipX/Y =yj(xi) (8.17)

b) Si (X, Y ) es continua

E(X/Y = y) =∫

RX/y

xfX/Y =y(x)dx (8.18)

El valor esperado de Y dado X = x se define de forma similar.

Ejemplo 8.14. Considere nuevamente (X, Y ) como se definio en el Ejemplo (8.9) y (8.13).Entonces

E(X/Y = y) =∫ y

0xfX/Y =y(x) =

∫ y

0x

2x

y2dx =

∫ y

0

2x2

3y2dx =

23y

Note que E(X/Y = y) es una funcion de y, de modo que valores de y generan diferentes valoresesperados condicionale. Por ejemplo,

E(X/Y = 0.5) = (2/3) · 0.5 =13

E(X/Y = 0.8) = (2/3) · 0.8 =815

El lector puede verificar que estos valores son los mismos obtenidos al integrar las respectivasdistribuciones condicionales dadas en el Ejemplo 8.13. Por ejemplo:

Page 106: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 105

E(X/Y = 0.5) = 1/3 =∫ 0.5

0x · 8xdx.

Observe que como E(X/Y = y) es una funcion de y, e y es un valor de la variable aleatoriaY , entonces E(X/Y ) es una funcion de Y , y por lo tanto es tambien una variable aleatoria. Elsiguiente teorema es analogo al Teorema 5.4 (de la Esperanza Total).

Teorema 8.2. Sea (X, Y ) una variable aleatoria bidimensional. Entonces

E(X) = E(E(X/Y )) (8.19)

Nota: Observe que para el caso en que (X, Y ) es continua (8.19) implica

E(X) =∫

RY

E(X/Y = y)fy(y)dy

El lector puede encontrar una expresion similar para el caso discreto.

8.6. Independencia y Correlacion

Definicion 8.12. Sea (X, Y ) una variable aleatoria bidimensional, se dice que X e Y sonindependientes si

a) Si (X, Y ) es discreta

p(xi, yj) = pX(xi) · pY (yj) para todo (xi, yj) ∈ RXY (8.20)

b) Si (X, Y ) es continua

f(x, y) = fX(x) · fY (y) para todo (x, y) ∈ RXY (8.21)

Teorema 8.3. Sea (X, Y ) una variable aleatoria bidimensional, si X e Y son independientes,entonces

a) Si (X, Y ) es discreta

pX/Y =yj(xi) = pX(xi)

pY/X=xi(yj) = pY (yj)

para todo (xi, yj) ∈ RXY .

Page 107: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 106

b) Si (X, Y ) es continua

fX/Y =y(x) = fX(x)

fY/X=x(y) = fY (y)para todo (x, y) ∈ RXY .

Nota: La Definicion 8.12 es una formalizacion del mismo concepto de independencia que hemosutilizado anteriormente. Dice que dos variables aleatorias X e Y son independientes si un eventoasociado con X es independiente de cualquier evento relacionado con Y .

Ejemplo 8.15. Considere (X, Y ) como en el Ejemplo (8.8). Claramente:

f(x, y) =1

240xy =

110

x · 124

y = fX(x)fY (y).

Por lo tanto X e Y son independientes.

Ejemplo 8.16. Considere (X, Y ) como en el Ejemplo (8.9). Note que:

f(x, y) = 8xy 6= 4x(1− x2) · 4y3 = fX(x)fY (y).

Por lo tanto X e Y no son independientes.

Cuando dos variables aleatorias X e Y no son independientes, es deseable medir el ”grado deasociacion entre X e Y . Las siguientes definiciones permiten hacer esto.

Definicion 8.13. Sea (X, Y ) una variable aleatoria bidimensional. Definimos la covarianzaentre X e Y como:

Cov(X, Y ) = E[(X − E(X))(Y − E(Y ))] = E(XY )− E(X)E(Y ) (8.22)

Nota: De la Propiedad V4. de la Varianza en la Seccion 5.2 tenemos que:

V (X + Y ) = V (X) + V (Y )− 2E[(X − E(X))(Y − E(Y ))] = V (X) + V (Y ) + 2Cov(X, Y )

Teorema 8.4. Si X e Y son independientes, entonces E(XY ) = E(X)E(Y ) (Propiedad E6.del valor esperado en la Seccion 5.1), y Cov(X, Y ) = 0.

Nota: Lo contrario del Teorema (8.4) no es cierto en general, es decir, Cov(X, Y ) = 0 noimplica que X e Y sean independientes.

Definicion 8.14. Sea (X,Y) una variable aleatoria bidimensional. Sedefine el coeficiente decorrelacion entre X e Y como:

ρXY =Cov(X, Y )

σXσY(8.23)

Page 108: Gatica_Ricardo_-_probabilidades

Ricardo Gatica E. Probabilidad para Ingenieros 107

Se puede demostrar que el coeficiente de correlacion satisface −1 ≤ ρXY ≤ 1. ρXY puedeinterpretarse como una medida de dependencia lineal entre X e Y , como sigue: Un valor deρXY cercano a +1 o −1 implica que la relacion entre X e Y es cercana a la lineal. Un valorde ρXY cercano a cero implica que la relacion entre X e Y es distinta a la lineal. De hecho,ρXY = 1 si y solo si Y = aX + b, con a > 0, y ρXY = −1 si y solo si X = aY + b, con a < 0

Nota: Covarianza y la correlacion son conceptos clave en Estadıstica. Particularmente entopicos como regresion y diseno experimental.