tarea 1, 2 y 3 metodos 2

55
Aranda Martínez José Ricardo, 4cm9, metodología de la investigación y estadística 2. Tarea 1 ¿Para qué sirve la metodología de la investigación y su concepto? R= Metodología es un vocablo generado a partir de tres palabras de origen griego: metà (“más allá”), odòs (“camino”) y logos (“estudio”). El concepto hace referencia al plan de investigación que permite cumplir ciertos objetivos en el marco de una ciencia. Cabe resaltar que la metodología también puede ser aplicada en el ámbito artístico, cuando se lleva a cabo una observación rigurosa. Por lo tanto, puede entenderse a la metodología como el conjunto de procedimientos que determinan una investigación de tipo científico o marcan el rumbo de una exposición doctrinal. El valor de la metodología radica en su función como herramienta, con la cual podemos planificar, desarrollar y llevar acabo distintos procesos de una manera sistematizada y ordenada para lograr un conocimiento y/o corroborar conocimientos previos. Otra de las utilidades de esta ciencia es que nos ayuda a estandarizar las formas de obtener conocimiento (epistemología), ya que da los criterios o las bases de los procesos necesarios mínimos, para realizar conocimiento nuevo y/o corroboración de conocimiento previamente adquirido. ¿Qué es estadística y cuál es su aplicación a la medicina? R= El termino estadística proviene del latín statisticum collegium (“consejo de Estado”) y de su derivado italiano statista (“hombre de Estado o político”). En 1749, el alemán Gottfried Achenwall comenzó a utilizar la palabra alemana statistik para designar el análisis de datos estatales. Por lo tanto, los orígenes de la estadística están relacionados con el gobierno y sus cuerpos administrativos. La Estadística es la ciencia cuyo objetivo es reunir una información cuantitativa concerniente a individuos, grupos, series de hechos, etc. y deducir de ello gracias al análisis de estos

Upload: jose-ricardo-aranda-martinez

Post on 05-Apr-2017

79 views

Category:

Health & Medicine


0 download

TRANSCRIPT

Page 1: Tarea 1, 2 y 3 metodos 2

Aranda Martínez José Ricardo, 4cm9, metodología de la investigación y estadística 2.

Tarea 1¿Para qué sirve la metodología de la investigación y su concepto?

R= Metodología es un vocablo generado a partir de tres palabras de origen griego: metà (“más allá”), odòs (“camino”) y logos (“estudio”). El concepto hace referencia al plan de investigación que permite cumplir ciertos objetivos en el marco de una ciencia. Cabe resaltar que la metodología también puede ser aplicada en el ámbito artístico, cuando se lleva a cabo una observación rigurosa. Por lo tanto, puede entenderse a la metodología como el conjunto de procedimientos que determinan una investigación de tipo científico o marcan el rumbo de una exposición doctrinal.

El valor de la metodología radica en su función como herramienta, con la cual podemos planificar, desarrollar y llevar acabo distintos procesos de una manera sistematizada y ordenada para lograr un conocimiento y/o corroborar conocimientos previos. Otra de las utilidades de esta ciencia es que nos ayuda a estandarizar las formas de obtener conocimiento (epistemología), ya que da los criterios o las bases de los procesos necesarios mínimos, para realizar conocimiento nuevo y/o corroboración de conocimiento previamente adquirido.

¿Qué es estadística y cuál es su aplicación a la medicina?

R= El termino estadística proviene del latín statisticum collegium (“consejo de Estado”) y de su derivado italiano statista (“hombre de Estado o político”). En 1749, el alemán Gottfried Achenwall comenzó a utilizar la palabra alemana statistik para designar el análisis de datos estatales. Por lo tanto, los orígenes de la estadística están relacionados con el gobierno y sus cuerpos administrativos.

La Estadística es la ciencia cuyo objetivo es reunir una información cuantitativa concerniente a individuos, grupos, series de hechos, etc. y deducir de ello gracias al análisis de estos datos unos significados precisos o unas previsiones para el futuro.

La estadística, en general, es la ciencia que trata de la recopilación, organización presentación, análisis e interpretación de datos numéricos con e fin de realizar una toma de decisión más efectiva.

Otros autores tienen definiciones de la Estadística semejantes a las anteriores, y algunos otros no tan semejantes. Para Chacón esta se define como "la ciencia que tiene por objeto el estudio cuantitativo de los colectivos"; otros la

Page 2: Tarea 1, 2 y 3 metodos 2

definen como la expresión cuantitativa del conocimiento dispuesta en forma adecuada para el escrutinio y análisis.

La más aceptada, sin embargo, es la de Minguez, que define la Estadística como "La ciencia que tiene por objeto aplicar las leyes de la cantidad a los hechos sociales para medir su intensidad, deducir las leyes que los rigen y hacer su predicción próxima".

Los estudiantes confunden comúnmente los demás términos asociados con las Estadísticas, una confusión que es conveniente aclarar debido a que esta palabra tiene tres significados: la palabra estadística, en primer término se usa para referirse a la información estadística; también se utiliza para referirse al conjunto de técnicas y métodos que se utilizan para analizar la información estadística; y el término estadístico, en singular y en masculino, se refiere a una medida derivada de una muestra.

La estadística es la ciencia que estudia cómo debe emplearse la información y cómo dar una guía de acción en situaciones prácticas que entrañan incertidumbre. (Gutiérrez, p.23)

La estadística es la ciencia de los datos, la cual implica su recolección, clasificación, síntesis, organización, análisis e interpretación, para la toma de decisiones frente a la incertidumbre (Ángel, p. 28)

La estadística es la rama del conocimiento humano que tiene como objeto el estudio de ciertos métodos inductivos aplicables a fenómenos susceptibles de expresión cuantitativa. (López, p.1)

La estadística es el arte de aprender a partir de los datos. Está relacionada con la recopilación de datos, su descripción subsiguiente y su análisis, lo que nos lleva a extraer conclusiones. (Ross, p.3)

La importancia de los métodos estadísticos tradicionalmente se utiliza para propósitos descriptivos, para organizar y resumir datos numéricos. La estadística descriptiva, por ejemplo trata de la tabulación de datos, su presentación en forma gráfica o ilustrativa y el cálculo de medidas descriptivas.

Ahora bien, las técnicas estadísticas se aplican de manera amplia en mercadotecnia, contabilidad, control de calidad y en otras actividades; estudios de consumidores; análisis de resultados en deportes; administradores de instituciones; en la educación; organismos políticos; médicos; y por otras personas que intervienen en la toma de decisiones.

En la medicina, la estadística tiene una gran importancia ya que posee numerosas ventajas, por ejemplonos puede ayudar a conocer las problemáticas presentes en una comunidad, los factores de riesgo o predisposición a ciertas patologías y puede ser muy útil a la hora de buscaruna

Page 3: Tarea 1, 2 y 3 metodos 2

respuesta a esta, o al tratar de educar para evitarlas en futuras ocasiones. Todos estos aspectos positivos los cuales además le brindan credibilidad a este método es necesarioexaltar el auge que ha tenido dentro de la actividad médica particular y en la salud en general y por esto ciertos autores han expuesto sus puntos de vista sobre la estadísticaen la salud:

Bancroft nos dice que el médico se basa muchas veces en la estadística para emitir un diagnóstico sobre su paciente, ya sea para ver como varía una enfermedad enel individuo o la eficacia de un tratamiento.

Mainland por otro lado explica que la estadística es mayormente utilizada por aquellos profesionales que laboran más dentro delaboratorios o determinados sitios de investigación.

Hill expone que sin la estadística no es posible conocer si un tratamiento muestra mejores resultados que otros.Morichau-Beau-Chant explica que sin una buena fuente de conocimientos sobre la situación a estudiar no se puede realizar una correcta planificación, aplicación y evaluación del proyecto.

¿Qué es probabilidad y cual su aplicación en la medicina?

R= definición clásica: Sea un experimento aleatorio cuyo correspondiente espacio muestral E está formado por un número n finito de posibles resultados distintos y con la misma probabilidad de ocurrir {e1, e2, ... , en}

Si n1 resultados constituyen el subconjunto o suceso A1, n2 resultados constituyen el subconjunto o suceso A2 y, en general, nk resultados constituyen el subconjunto o suceso Ak de tal forma que: es decir, que la probabilidad de cualquier suceso A es igual al cociente entre el número de casos favorables que integran el suceso A Regla de Laplace para E finitos y el número de casos posibles del espacio muestral E.

Para que se pueda aplicar la regla de Laplace es necesario que todos los sucesos elementales sean equiprobables

La probabilidad verifica las siguientes condiciones:

La probabilidad de cualquier suceso es siempre un número no negativo entre 0 y 1

La probabilidad del suceso seguro E vale 1

La probabilidad del suceso imposible es 0

La probabilidad de la unión de varios sucesos incompatibles o excluyentes A1, A1,..., Ar es igual a la suma de probabilidades de cada uno de ellos

Page 4: Tarea 1, 2 y 3 metodos 2

Esta definición clásica de probabilidad fue una de las primeras que se dieron (1900) y se atribuye a Laplace; también se conoce con el nombre de probabilidad a priori pues, para calcularla, es necesario conocer, antes de realizar el experimento aleatorio, el espacio muestral y el número de resultados o sucesos elementales que entran a formar parte del suceso

Definición frecuentista: consiste en definir la probabilidad como el límite cuando n tiende a infinito de la proporción o frecuencia relativa del suceso.

Sea un experimento aleatorio cuyo espacio muestral es E Sea A cualquier suceso perteneciente a E Si repetimos n veces el experimento en las mismas Condiciones, la frecuencia relativa del suceso A será:

Cuando el número n de repeticiones se hace muy grande la frecuencia relativa converge hacia un valor que llamaremos probabilidad del suceso A.

Es imposible llegar a este límite, ya que no podemos repetir el experimento un número infinito de veces, pero si podemos repetirlo muchas veces y observar como las frecuencias relativas tienden a estabilizarse

Esta definición frecuentista de la probabilidad se llama también probabilidad a posteriori ya que sólo podemos dar la probabilidad de un suceso después de repetir y observar un gran número de veces el experimento aleatorio correspondiente. Algunos autores las llaman probabilidades teóricas

Definición subjetiva: Tanto la definición clásica como la frecuentista se basan en las repeticiones del experimento aleatorio; pero existen muchos experimentos que no se pueden repetir bajo las mismas condiciones y por tanto no puede aplicarse la interpretación objetiva de la probabilidad

En esos casos es necesario acudir a un punto de vista alternativo, que no dependa de las repeticiones, sino que considere la probabilidad como un concepto subjetivo que exprese el grado de creencia o confianza individual sobre la posibilidad de que el suceso ocurra

Se trata por tanto de un juicio personal o individual y es posible por tanto que, diferentes observadores tengan distintos grados de creencia sobre los posibles resultados, igualmente válidos

Definición axiomática: La definición axiomática de la probabilidad es quizás la más simple de todas las definiciones y la menos controvertida ya que está basada en un conjunto de axiomas que establecen los requisitos mínimos para dar una definición de probabilidad. La ventaja de esta definición es que permite un desarrollo riguroso y matemático de la probabilidad. Fue introducida por A. N. Kolmogorov y aceptada por estadísticos y matemáticos en general.

Page 5: Tarea 1, 2 y 3 metodos 2

Su utilidad en la medicina, se basa en la cuestión de que en esta ciencia no se manejan datos y variable constantes, lo que genera cambios probabilísticos en cada paciente, y en las tasa de mortalidad y morbilidad de una enfermedad en especial.

Tarea 2¿Cuáles son las propiedades de la probabilidad?

R= -Axiomas de la probabilidad

1. La probabilidad es positiva y menor o igual que 1.

0 ≤ p(A) ≤ 1

2. La probabilidad del suceso seguro es 1.

p(E) = 1

3. Si A y B son incompatibles, es decir A   B =   entonces:

p(A   B) = p(A) + p(B)

Propiedades de la probabilidad

1. La suma de las probabilidades de un suceso y su contrario vale 1, por tanto la probabilidad del suceso contrario es:

2. Probabilidad del suceso imposible es cero.

3. La probabilidad de la unión de dos sucesos es la suma de sus probabilidades restándole la probabilidad de su intersección.

4. Si un suceso está incluido en otro, su probabilidad es menor o igual a la de éste.

5. Si A1, A2, ..., Ak son incompatibles dos a dos entonces:

Page 6: Tarea 1, 2 y 3 metodos 2

6 Si el espacio muestral E es finito y un suceso es S = {x1, x2, ..., xn} entonces:

Fenómeno aleatorio:

Un experimento es cualquier situación u operación en la cual se pueden presentar uno o varios resultados de un conjunto bien definido de posibles resultados

Los experimentos pueden ser de dos tipos según si, al repetirlo bajo idénticas condiciones: Determinístico Se obtienen siempre los mismos resultados

Ej: medir con la misma regla e identicas condiciones la longitud de una barra Aleatorio No se obtienen siempre los mismos resultados

Ej: el lanzamiento de una moneda observando la sucesión de caras y cruces que se presentan Las siguientes son características de un experimento aleatorio:

El experimento se puede repetir indefinidamente bajo idénticas condiciones

Cualquier modificación a las condiciones iniciales de la repetición puede modificar el resultado

Se puede determinar el conjunto de posibles resultados pero no predecir un resultado particular

Si el experimento se repite gran número de veces entonces aparece algún modelo de regularidad estadística en los resultados obtenidos

Experimento aleatorio:

Un experimento es cualquier situación u operación en la cual se pueden presentar uno o varios resultados de un conjunto bien definido de posibles resultados

Los experimentos pueden ser de dos tipos según si, al repetirlo bajo idénticas condiciones: Determinístico Se obtienen siempre los mismos resultados

Ej: medir con la misma regla e idénticas condiciones la longitud de una barra Aleatorio No se obtienen siempre los mismos resultados

Ej: el lanzamiento de una moneda observando la sucesión de caras y cruces que se presentan Las siguientes son características de un experimento aleatorio:

Page 7: Tarea 1, 2 y 3 metodos 2

El experimento se puede repetir indefinidamente bajo idénticas condiciones

Cualquier modificación a las condiciones iniciales de la repetición puede modificar el resultado

Se puede determinar el conjunto de posibles resultados pero no predecir un resultado particular

Si el experimento se repite gran número de veces entonces aparece algún modelo de regularidad estadística en los resultados obtenidos

Espacio muestra:

Se denomina resultado básico o elemental, comportamiento individual o punto muestra a cada uno de los posibles resultados de un experimento aleatorio. Los resultados básicos elementales serán definidos de forma que no puedan ocurrir dos simultáneamente pero si uno necesariamente

Se denomina conjunto universal, espacio muestral o espacio de comportamiento E al conjunto de todos los resultados elementales del experimento aleatorio. Pueden ser de varios tipos: Espacio Muestral Discreto Espacio muestral finito Espacio muestral infinito numerable Tiene un número finito de elementos. Tiene un número infinito numerable de elementos es decir, se puede establecer una aplicación biyectiva entre E y N

Ejemplo: Experimento aleatorio consistente en lanzar un dado. El espacio muestral es

Experimento aleatorio consistente en lanzar un dado hasta que sea obtenido el número 1

Espacio Muestral Continuo Si el espacio muestral contiene un número infinito de elementos, es decir, no se puede establecer una correspondencia biunívoca entre E y N

Ejemplo: Experimento aleatorio consistente en tirar una bola perfecta sobre un suelo perfecto y observar la posición que ocupará esa bola sobre la superficie. E={Toda la superficie del suelo}

Suceso aleatorio: Un suceso es un subconjunto del espacio muestral, es decir, un subconjunto de resultados elementales del experimento aleatorio

Diremos que ocurre o se presenta el suceso cuando al realizarse el experimento aleatorio, da lugar a uno de los resultados elementales pertenecientes al subconjunto S que define el suceso Se pueden considerar cuatro tipos de sucesos según el nº de elementos que entren a formar parte:

Page 8: Tarea 1, 2 y 3 metodos 2

Suceso elemental, suceso simple o punto muestral es cada uno de los resultados posibles del experimento aleatorio luego los sucesos elementales son subconjuntos de E con sólo un elemento

Suceso compuesto es aquel que consta de dos o más sucesos elementales

Suceso seguro, cierto o universal es aquel que consta de todos los sucesos elementales del espacio muestral E, es decir, coincide con E. Se le denomina seguro o cierto porque ocurre siempre

Suceso imposible es aquel que no tiene ningún elemento del espacio muestral E y por tanto no ocurrirá nunca. Se denota por Ø

Tipos de suceso aleatorio:

-La unión de sucesos, A   B, es el suceso formado por todos los elementos de A y de B.

Es decir, el suceso A   B se verifica cuando ocurre uno de los dos, A o B, o ambos.

A   B se lee como "A o B".

Ejemplo

Consideramos el experimento que consiste en lanzar un dado, si A = "sacar par" y B = "sacar múltiplo de 3". Calcular A   B.

A = {2, 4, 6}

B = {3, 6}

A   B = {2, 3, 4, 6}

-La intersección de sucesos, A   B, es el suceso formado por todos los elementos que son, a la vez, de A y B.

Es decir, el suceso A   B se verifica cuando ocurren simultáneamente A y B.

Page 9: Tarea 1, 2 y 3 metodos 2

A   B se lee como "A y B".

Ejemplo

Consideramos el experimento que consiste en lanzar un dado, si A = "sacar par" y B = "sacar múltiplo de 3". Calcular A   B.

A = {2, 4, 6}

B = {3, 6}

A   B = {3}

Tarea 3Tipos de variables aleatorias:

-Variables aleatorias discretas:

Diremos que una variable aleatoria es discreta si su recorrido es finito o infinito numerable.

Generalmente, este tipo de variables van asociadas a experimentos en los cuales se cuenta el número de veces que se ha presentado un suceso o donde el resultado es una puntuación concreta.

Los puntos del recorrido se corresponden con saltos en la gráfica de la función de distribución, que correspondería al segundo tipo de gráfica visto anteriormente.

 

-Variables aleatorias continúas:

Page 10: Tarea 1, 2 y 3 metodos 2

Son aquellas en las que la función de distribución es una función continua. Se corresponde con el primer tipo de gráfica visto.

Generalmente, se corresponden con variables asociadas a experimentos en los cuales la variable medida puede tomar cualquier valor en un intervalo; mediciones biométricas, por ejemplo.

Un caso particular dentro de las variables aleatorias continúas y al cual pertenecen todos los ejemplos usualmente utilizados, son las denominadas variables aleatorias absolutamente continuas.

 

-Variables aleatorias absolutamente continuas:

Diremos que una variable aleatoria X continua tiene una distribución absolutamente continua si existe una función real f, positiva e integrable en el conjunto de números reales, tal que la función de distribución F de X se puede expresar como

Una variable aleatoria con distribución absolutamente continua, por extensión, se la clasifica como variable aleatoria absolutamente continua.

A la función f se la denomina función de densidad de probabilidad de la variable X.

Hay que hacer notar que no toda variable continua es absolutamente continua, pero los ejemplos son complicados, algunos utilizan para su construcción el conjunto de Cantor, y quedan fuera del nivel y del objetivo de este curso.

Igualmente indicaremos que los tipos de variables comentados anteriormente forman únicamente una parte de todos los posibles tipos de variables, sin embargo contienen prácticamente todas las variables aleatorias que encontramos usualmente.

Tal como se estudiará más adelante, existen algunas familias de funciones de distribución, tanto dentro del grupo de las discretas como de las continuas, que por su importancia reciben un nombre propio y se estudiarán en los capítulos siguientes.

Tipos de probabilidad (distribución Bernoulli, binomial, poisson, uniforme, normal, T-student, F-Fisher, chi cuadrada, exponencial).

Page 11: Tarea 1, 2 y 3 metodos 2

Distribución Bernoulli:

La distribución de Bernoulli (o distribución dicotómica), nombrada así por el matemático y científico suizo Jakob Bernoulli, es una distribución de probabilidad discreta, que toma valor 1 para la probabilidad de éxito ( ) y valor 0 para la probabilidad de fracaso ( ).

Si X es una variable aleatoria que mide "número de éxitos", y se realiza un único experimento con dos posibles resultados (éxito o fracaso), se dice que la variable aleatoria X se distribuye como una Bernoulli de parámetro P.

Su fórmula es:

 

Distribución Binomial:

La distribución Binomial es un caso particular de probabilidad de variable aleatoria discreta, y por sus aplicaciones, es posiblemente la más importante.

Esta distribución corresponde a la realización de un experimento aleatorio que cumple con las siguientes condiciones:

* Al realizar el experimento sólo son posible dos resultados: el suceso A, llamado éxito, y el suceso B, llamado fracaso.* Al repetir el experimento, el resultado obtenido es independiente de los resultados obtenidos anteriormente.

* La probabilidad del suceso A es constante, es decir, no varía de una prueba del experimento a otra.

* En cada experimento se realizan n pruebas idénticas.

Todo experimento que tenga estas características se dice que sigue el modelo de la distribución Binomial o distribución de Bernoulli. 

En general, si se tienen n ensayos Bernoulli con probabilidad de éxito p y de fracaso q, entonces la distribución de probabilidad que la modela es la distribución de probabilidad binomial y su regla de correspondencia es:

Page 12: Tarea 1, 2 y 3 metodos 2

Dónde:P(X)= es la probabilidad de ocurrencia del eventop = es la probabilidad de éxito del evento (en un intento) 

q = es la probabilidad de fracaso del evento (en un intento) (se define como q = 1 – p ) 

X = ocurrencia del evento o éxitos deseados n = número de intentos 

EJEMPLO

¿Cuál es la probabilidad de obtener exactamente 2 caras al lanzar una misma moneda 6 veces ?

Dónde:P(X)= Probabilidad de que ocurra el eventop = (0.5)q = (se define como q = 1 – p ) (0.5)X = 2n = 6

Al sustituir los valores en la fórmula obtenemos:

La posibilidad de obtener dos caras al lanzar una moneda 6 veces es de 0.234375

Page 13: Tarea 1, 2 y 3 metodos 2

Como el cálculo de estas probabilidades puede resultar algo tedioso se han construido tablas para algunos valores de  n  y  p  que nos facilitan el trabajo (Ver las tablas de la función de probabilidad Binomial).

Para una combinación de n y p, la entrada indica una probabilidad de obtener un valor específico de r. Para localizar la entrada, cuando p8804;0.50, localice p a lo largo del encabezado de la tabla, y en la columna correspondiente localice n y r en el margen izquierdo; cuando p8805;0.50, localice el valor de p en la parte inferior de la tabla, y n y r arriba, en el margen derecho.

Tenemos p = 0.50, n = 6 y r = 2 obteniendo resultado directo de tablas P(2 caras) = 0.2344

Page 14: Tarea 1, 2 y 3 metodos 2

Distribución Poisson:

La distribución de POISSON es también un caso particular de probabilidad de variable aleatoria discreta, el cual debe su nombre a Siméon Denis Poisson (1781-1840), un francés que la desarrolló a partir de los estudios que realizó durante la última etapa de su vida.

Page 15: Tarea 1, 2 y 3 metodos 2

Es útil cuando tratamos con cantidades de ocurrencia de un evento a lo largo de un intervalo de tiempo o espacio especificado.

Esta distribución se utiliza para describir ciertos procesos.

Características:En este tipo de experimentos los éxitos buscados son expresados por unidad de área, tiempo, pieza, etc:- # de defectos de una tela por m2- # de aviones que aterrizan en un aeropuerto por día, hora, minuto, etc.- # de bacterias por cm2 de cultivo- # de llamadas telefónicas a un conmutador por hora, minuto, etc, etc.- # de llegadas de embarcaciones a un puerto por día, mes, etc, etc.Para determinar la probabilidad de que ocurran x éxitos por unidad de tiempo, área, o producto, la fórmula a utilizar sería:

dónde:

p(X) = probabilidad de que ocurran x éxitos, cuando el número promedio de ocurrencia de ellos es //= media o promedio de éxitos por unidad de tiempo, área o productoe = 2.718 (base de logaritmo neperiano o natural)X = variable que nos denota el número de éxitos que se desea que ocurra Hay que hacer notar que en esta distribución el número de éxitos que ocurren por unidad de tiempo, área o producto es totalmente al azar y que cada intervalo de tiempo es independiente de otro intervalo dado, así como cada área es independiente de otra área dada y cada producto es independiente de otro producto dado.

EJEMPLO

Si un banco recibe en promedio 6 cheques sin fondo por día, ¿cuáles son las probabilidades de que reciba, a) cuatro cheques sin fondo en un día dado, b) 10 cheques sin fondos en cualquiera de dos días consecutivos? (e= 2.718281828) Resolviendo para :a) x = 4; / = 6 cheques sin fondo por día

Comprobando (sustituyendo en la fórmula):

Page 16: Tarea 1, 2 y 3 metodos 2

Por lo tanto la probabilidad de que el banco reciba cuatro cheques sin fondo en un día dado es de 0.133853 (13.39%)

Valores directos para determinar probabilidades de Poisson.Para un valor dado de /, la entrada indica la probabilidad de obtener un valor específico de X

Para el ejemplo, inciso a) que estamos viendo: ¿Cuál es la probabilidad de que el banco reciba cuatro cheques sin fondo en un día dado?Tenemos  x = 4; / = 6 cheques sin fondo por día; obteniendo resultado directo de tablas :

Distribución Uniforme:

La distribución Uniforme es el modelo (absolutamente) continuo más simple. Corresponde al caso de una variable aleatoria que sólo puede tomar valores comprendidos entre dos extremos a y b, de manera que todos los intervalos de una misma longitud (dentro de (a, b)) tienen la misma probabilidad. También puede expresarse como el modelo probabilístico correspondiente a tomar un número al azar dentro de un intervalo (a, b).

Page 17: Tarea 1, 2 y 3 metodos 2

De la anterior definición se desprende que la función de densidad debe tomar el mismo valor para todos los puntos dentro del intervalo (a, b) (y cero fuera del intervalo). Es decir,

.

 

Gráficamente:

 

La función de distribución se obtiene integrando la función de densidad y viene dada por:

 

Gráficamente:

Page 18: Tarea 1, 2 y 3 metodos 2

 

Propiedades del modelo Uniforme

1. Su esperanza vale (b + a)/2

2. Su varianza es (b − a)2/12

Distribución Normal:

La distribución normal es también un caso particular de probabilidad de variable aleatoria contínua, fue reconocida por primera vez por el francés Abraham de Moivre (1667-1754). Posteriormente, Carl Friedrich Gauss (1777-1855) elaboró desarrollos más profundos y formuló la ecuación de la curva; de ahí que también se le conozca, más comúnmente, como la "campana de Gauss". La distribución de una variable normal está completamente determinada por dos parámetros, su media (µ) y su desviación estándar (σ). Con esta notación, la densidad de la normal viene dada por la ecuación:

que determina la curva en forma de campana que tan bien conocemos.

Existen dos razones básicas por las cuales la distribución normal ocupa un lugar tan prominente en la estadística: 

Tiene algunas propiedades que la hacen aplicable a un gran número de situaciones en la que es necesario hacer inferencias mediante la toma de muestras.

La distribución normal casi se ajusta a las distribuciones de frecuencias reales observadas en muchos fenómenos, incluyendo características humanas, resultados de procesos físicos y muchas otras medidas de interés para los administradores, tanto en el sector público como en el privado.Propiedad:No importa cuáles sean los valores de µ y σ para un distribución de probabilidad normal, el área total bajo la curva siempre es 1, de manera que podemos pensar en áreas bajo la curva como si fueran probabilidades. Matemáticamente es verdad que:

Aproximadamente el 68% de todos los valores de una población normalmente distribuida se encuentra dentro de ± 1 desviación estándar de la media.

Page 19: Tarea 1, 2 y 3 metodos 2

Aproximadamente el 95.5% de todos los valores de una población normalmente distribuida se encuentra dentro de ± 2 desviaciones estándar de la media.

Aproximadamente el 99.7% de todos los valores de una población normalmente distribuida se encuentra dentro de ± 3 desviaciones estándar de la media.

Relación entre el área bajo la curva de distribución normal de probabilidad y la distancia a la media medida en desviaciones estándar.Estas gráficas muestran tres formas diferentes de medir el área bajo la curva normal. Sin embargo, muy pocas de las aplicaciones que haremos de la distribución normal de probabilidad implican intervalos de exactamente (más o menos) 1, 2 ó 3 desviaciones estándar a partir de la media. Para estos casos existen tablas estadísticas que indican porciones del área bajo la curva normal que están contenidas dentro de cualquier número de desviaciones estándar (más o menos) a partir de la media.Afortunadamente también podemos utilizar una distribución de probabilidad normal estándar para encontrar áreas bajo cualquier curva normal. Con esta tabla podemos determinar el área o la probabilidad de que la variable aleatoria distribuida normalmente esté dentro de ciertas distancias a partir de la media. Estas distancias están definidas en términos de desviaciones estándar.

USO DE LA TABLA DE DISTRIBUCIÓN NORLAM DE PROBABILIDAD NORMAL STANDAR

Para cualquier distribución normal de probabilidad, todos los intervalos que contienen el mismo número de desviaciones estándar a partir de la media contendrán la misma fracción del área total bajo la curva para cualquier distribución de probabilidad normal. Esto hace que sea posible usar solamente una tabla (Apéndice Tabla 1) de la distribución de probabilidad normal estándar. 

Page 20: Tarea 1, 2 y 3 metodos 2

El valor de z está derivado de la fórmula:

Page 21: Tarea 1, 2 y 3 metodos 2

En la que:x = valor de la variable aleatoria que nos preocupa.µ = media de la distribución de la variable aleatoria.σ = desviación estándar de la distribución.z = número de desviaciones estándar que hay desde x a la media de la distribución. (el uso de z es solamente un cambio de escala de medición del eje horizontal)

Distribución normal que ilustra la comparación de los valores de z y las desviaciones estándarEJEMPLO.

Partiendo de la misma premisa, µ = 500 y σ = 100. ¿Cuál es la probabilidad de que un candidato elegido al azar se tome entre 500 y 650 horas en completar el programa de entrenamiento?

Si buscamos Z=1.5 (refiérase a la tabla), encontramos una probabilidad de 0.4332.

Page 22: Tarea 1, 2 y 3 metodos 2

Por lo tanto, la probabilidad de que un candidato escogido al azar requiera entre 500 y 650 horas para terminar el programa de entrenamiento es de 0.4332

Distribución T-Student:

Las distribuciones t de Student fueron descubiertas por William S. Gosset (1876-1937) en 1908 cuando trabajaba para la compañía de cervezas Guinness en Dublín (Irlanda). No pudo publicar sus descubrimientos usando su propio nombre porque Guinness había prohibido a sus empleados que publicaran información confidencial. Gosset firmó sus publicaciones usando el nombre de "Student". Gosset tenía buena relación con Karl Pearson que había sido su maestro. Necesitaba una distribución que pudiera usar cuando el tamaño de la muestra fuera pequeño y la varianza desconocida y tenía que ser estimada a partir de los datos. Las distribuciones t se usan para tener en cuenta la incertidumbre añadida que resulta por esta estimación. Fisher comprendió la importancia de los trabajos de Gosset para muestras pequeñas.

Si el tamaño de la muestra es n entonces decimos que la distribución t tiene n-1 grados de libertad. Hay una distribución t diferente para cada tamaño de la muestra. Estas distribuciones son una familia de distribuciones de probabilidad continuas. Las curvas de densidad son simétricas y con forma de campana como la distribución normal estándar. Sus medias son 0 y sus varianzas son mayores que 1 (tienen colas más pesadas). Las colas de las distribuciones t disminuyen más lentamente que las colas de la distribución normal. Si los grados de libertad son mayores más próxima a 1 es la varianza y la función de densidad es más parecida a la densidad normal.

Cuando n es mayor que 30, la diferencia entre la normal y la distribución t de Student no suele ser muy importante. En la imagen podemos ver varios ejemplos de funciones de distribución acumulada.

Page 23: Tarea 1, 2 y 3 metodos 2

En Probabilidades en Distribuciones t-Student puedes ver una comparación más precisa entre las distribuciones t-Student y la normal estándar.

En el applet podemos ver varios ejemplos de distribución t de Student junto con la normal estándar.

Se aprecia cómo cuando el parámetro es 25 la distribución es muy parecida a la normal estándar.

Los puntos grises controlan la escala vertical y horizontal de la gráfica y pulsando el boton derecho y arrastrando podemos moverla a derecha e izquierda.

Distribución F-Fisher:

La necesidad de disponer de métodos estadísticos para comparar las varianzas de dos poblaciones es evidente a partir del análisis de una sola población. Frecuentemente se desea comparar la precisión de un instrumento de medición con la de otro, la estabilidad de un proceso de manufactura con la de otro o hasta la forma en que varía el procedimiento para calificar de un profesor universitario con la de otro.

Intuitivamente, podríamos comparar las varianzas de dos poblaciones,   

y  , utilizando la razón de las varianzas muestrales s21/s22. Si s21/s22 es casi

igual a 1, se tendrá poca evidencia para indicar que   y   no son iguales. Por otra parte, un valor muy grande o muy pequeño para s21/s22, proporcionará evidencia de una diferencia en las varianzas de las poblaciones.

Page 24: Tarea 1, 2 y 3 metodos 2

La variable aleatoria F se define como el cociente de dos variables aleatorias ji-cuadrada independiente, cada una dividida entre sus respectivos grados de libertad. Esto es,

Donde U y V son variables aleatorias ji-cuadrada independientes con grados de libertad  1 y  2 respectivamente.

Sean U y V dos variables aleatorias independientes que tienen distribución ji

cuadradas con   grados de libertad, respectivamente. Entonces la

distribución de la variable aleatoria   está dada por:

y se dice que sigue la distribución F con   grados de libertad en el numerador

y   grados de libertad en el denominador.

La media y la varianza de la distribución F son:

 para 

 para 

 

La variable aleatoria F es no negativa, y la distribución tiene un sesgo hacia la derecha. La distribución F tiene una apariencia muy similar a la distribución ji-

Page 25: Tarea 1, 2 y 3 metodos 2

cuadrada; sin embargo, se encuentra centrada respecto a 1, y los dos parámetros  proporcionan una flexibilidad adicional con respecto a la forma de la distribución.

Si s12 y s22 son las varianzas muestrales independientes de tamaño n1 y n2 tomadas de poblaciones normales con varianzas  12 y  22, respectivamente, entonces:

Para manejar las tablas de Fisher del libro de Introducción a la Inferencia Estadística del autor Güenther, se tendrá que buscar primero los grados de libertad dos para luego localizar el área correspondiente, relacionándola con los grados de libertad uno, para calcular el valor de F.

Las tablas tienen la siguiente estructura:

P 1 2 3 ……. ….. 500 … 

6 0.0005

0.001

0.005

.

.

0.9995 30.4

El valor de 30.4 es el correspondiente a una Fisher que tiene 3 grados de libertad uno y 6 grados de libertad dos con un área de cero a Fisher de 0.995. Si lo vemos gráficamente:

Page 26: Tarea 1, 2 y 3 metodos 2

Como nos podemos imaginar existen varias curvas Fisher, ya que ahora su forma depende de dos variables que son los grados de libertad.

 

 

Ejemplos :

1. Encontrar el valor de F, en cada uno de los siguientes casos:

a. El área a la derecha de F, es de 0.25 con  =4 y  =9.

b. El área a la izquierda de F, es de 0.95 con  =15 y  =10.

c. El área a la derecha de F es de 0.95 con con  =6 y  =8.

d. El área a la izquierda de F, es de 0.10 con con  =24 y 

=24

Solución:

a. Como el área que da la tabla es de cero a Fisher, se tiene que localizar primero los grados de libertad dos que son 9, luego un área de 0.75 con 4 grados de libertad uno.

Page 27: Tarea 1, 2 y 3 metodos 2

b. En este caso se puede buscar el área de 0.95 directamente en la tabla con sus respectivos grados de libertad.

c. Se tiene que buscar en la tabla un área de 0.05, puesto que nos piden un área a la derecha de F de 0.95.

d. Se busca directamente el área de 0.10, con sus respectivos grados de libertad.

1. Si s12 y s22 son las varianzas muestrales de muestras aleatorias independientes de tamaños n1=10 y n2 =20, tomadas de poblaciones normales que tienen las mismas varianzas, encuentre P(s12/s22  2.42).

Solución:

Primero se establecen los grados de libertad. Como en el numerador está la población uno y en el denominador la población dos, entonces los grados de libertad uno equivalen a 10-1=9 y los grados de libertad dos a 20-1=19.

Page 28: Tarea 1, 2 y 3 metodos 2

Se procede a ir a la tabla a buscar los grados de libertad dos que son 19 y se observa que no están, por lo tanto se tiene que interpolar entre 15 y 20 grados de libertad, buscando el valor de fisher que quedaría:

Este valor de 2.42 se busca en la columna de 9 grados de libertad uno, con 15 grados de libertad dos, y se encuentra los siguiente:

Área

0.90 2.09

0.95 2.59

Al interpolar entre estos dos valores nos queda un área de 0.933.

Se procede a hacer lo mismo pero con 20 grados de libertad dos:

Área

0.95 2.39

0.975 2.84

Al interpolar entre estos dos valores nos queda un área de 0.9516.

Ahora ya se tienen las dos áreas referentes a los grados de libertad dos, por lo que se interpolará para ver cuánto le corresponde a los grados libertad dos con un valor de 19.

Área

15 0.933

20 0.9516

Al interpolar nos queda que para 9 grados de libertad uno y 19 grados de libertad dos con un valor de Fisher de 2.42 el área a la izquierda es de 0.9478.

Page 29: Tarea 1, 2 y 3 metodos 2

2. Si s12 y s22 representan las varianzas de las muestras aleatorias independientes de tamaño n1= 25 y n2 = 31, tomadas de poblaciones normales con varianzas  12 =10 y 

22 = 15, respectivamente, encuentre P(s12/s22 > 1.26).

Solución:

Calcular el valor de Fisher:

Luego se va a la tabla de Fisher a buscar 30 grados de libertad 2 con 24 grados de libertad uno. Cuando se esté en esta posición se busca adentro de la tabla el valor de Fisher de 1.89. Al localizarlo y ver a la izquierda de este valor se obtiene un área de 0.95, pero esta área correspondería a la probabilidad de que las relaciones de varianzas muestrales fueran menor a 1.26, por lo que se calcula su complemento que sería 0.05, siendo esta la probabilidad de que s12/s22 > 1.26.

Intervalo de Confianza para el Cociente de Varianzas de Dos Distribuciones Normales

Supóngase que se tienen dos poblaciones normales e independientes con varianzas desconocidas  12 y  22, respectivamente. De este par de poblaciones, se tienen disponibles dos muestras aleatorias de tamaños n1 y n2, respectivamente, sean s12 y s22 las dos varianzas muestrales. Se desea conocer

Page 30: Tarea 1, 2 y 3 metodos 2

un intervalo de confianza del 100( ) por ciento para el cociente de las dos varianzas,  12/ 22.

Para construir el intervalo de confianza para el cociente de dos varianzas poblacionales, se coloca la varianza muestral mayor en el numerador del estadístico F.

Ejemplos:

1. Un fabricante de automóviles pone a prueba dos nuevos métodos de ensamblaje de motores respecto al tiempo en minutos. Los resultados se muestran en la tabla:

Método 1 Método 2

n1 = 31 n2 = 25

s12 = 50 s22 = 24

Construya un intervalo de confianza del 90% para  12/ 22.

Solución:

Por la recomendación de que la varianza muestral mayor va en el numerador se tiene la siguiente fórmula:

al despejar: .

F toma dos valores dependiendo del nivel de confianza y de los grados de libertad. En este caso los grados de libertad uno valen 30 y los grados de libertad dos 24.

Page 31: Tarea 1, 2 y 3 metodos 2

 y 

Estos resultados los podemos interpretar de la siguiente manera:

Con un nivel de confianza del 90% se sabe que la relación de varianzas  12/22 esta entre 1.07 y 3.93. Esto supondría que la varianza de la población 1 es mayor a la varianza de la población 2 entre 1.07 y 3.93.

2. Una compañía fabrica propulsores para uso en motores de turbina. Al ingeniero de manufactura le gustaría seleccionar el proceso que tenga la menor variabilidad en la rugosidad de la superficie. Para ello toma una muestra de n1=16 partes del primer proceso, la cual tiene una desviación estándar s1 = 4.7 micropulgadas, y una muestra aleatoria de n2=12 partes del segundo proceso, la cual tiene una desviación estándar s2 = 5.1 micropulgadas. Se desea encontrar un intervalo de confianza del 90% para el cociente de las dos varianzas  12/

22. Suponga que los dos procesos son independientes y que la rugosidad de la superficie está distribuida de manera normal.

Solución:

Por la recomendación de que la varianza muestral mayor va en el numerador se tiene la siguiente fórmula:

al despejar: .

En este caso los grados de libertad uno valen 11 y los grados de libertad dos 15.

Page 32: Tarea 1, 2 y 3 metodos 2

 y 

Estos resultados los podemos interpretar de la siguiente manera:

Puesto que este intervalo de confianza incluye a la unidad, no es posible afirmar que las desviaciones estándar de la rugosidad de la superficie de los dos procesos sean diferentes con un nivel de confianza del 90%.

 

Distribución chií cuadrada:

En realidad la distribución ji-cuadrada es la distribución muestral de s2. O sea que si se extraen todas las muestras posibles de una población normal y a cada muestra se le calcula su varianza, se obtendrá la distribución muestral de varianzas.

Para estimar la varianza poblacional o la desviación estándar, se necesita conocer el estadístico X2. Si se elige una muestra de tamaño n de una

población normal con varianza , el estadístico:

tiene una distribución muestral que es una distribución ji-cuadrada con gl=n-1 grados de libertad y se denota X2 (X es la minúscula de la letra griega ji). El estadístico ji-cuadrada esta dado por:

Page 33: Tarea 1, 2 y 3 metodos 2

donde n es el tamaño de la muestra, s2 la varianza muestral y   la varianza de la población de donde se extrajo la muestra. El estadístico ji-cuadrada también se puede dar con la siguiente expresión:

Propiedades de las distribuciones ji-cuadrada

1. Los valores de X2 son mayores o iguales que 0.

2. La forma de una distribución X2 depende del gl=n-1. En consecuencia, hay un número infinito de distribuciones X2.

3. El área bajo una curva ji-cuadrada y sobre el eje horizontal es 1.

4. Las distribuciones X2 no son simétricas. Tienen colas estrechas que se extienden a la derecha; esto es, están sesgadas a la derecha.

5. Cuando n>2, la media de una distribución X2 es n-1 y la varianza es 2(n-1).

6. El valor modal de una distribución X2 se da en el valor (n-3).

La siguiente figura ilustra tres distribuciones X2. Note que el valor modal aparece en el valor (n-3) = (gl-2).

La función de densidad de la distribución X2 esta dada por:

para x>0

La tabla que se utilizará para estos apuntes es la del libro de probabilidad y estadística de Walpole, la cual da valores críticos   (gl) para veinte valores especiales de  . Para denotar el valor crítico de una distribución X2 con gl

Page 34: Tarea 1, 2 y 3 metodos 2

grados de libertad se usa el símbolo   (gl); este valor crítico determina a su derecha un área de   bajo la curva X2 y sobre el eje horizontal. Por ejemplo para encontrar X20.05(6) en la tabla se localiza 6 gl en el lado izquierdo y  a o largo del lado superior de la misma tabla.

Cálculo de Probabilidad

El cálculo de probabilidad en una distribución muestral de varianzas nos sirve para saber cómo se va a comportar la varianza o desviación estándar en una muestra que proviene de una distribución normal.

Ejemplos:

1. Suponga que los tiempos requeridos por un cierto autobús para alcanzar un de sus destinos en una ciudad grande forman una distribución normal con una desviación estándar  =1 minuto. Si se elige al azar una muestra de 17 tiempos, encuentre la probabilidad de que la varianza muestral sea mayor que 2.

Solución:

Primero se encontrará el valor de ji-cuadrada correspondiente a s2=2 como sigue:

El valor de 32 se busca adentro de la tabla en el renglón de 16 grados de libertad y se encuentra que a este valor le corresponde un área a la derecha de 0.01. En consecuencia, el valor de la probabilidad es P(s2>2)

Page 35: Tarea 1, 2 y 3 metodos 2

2. Encuentre la probabilidad de que una muestra aleatoria de 25 observaciones, de una población normal con varianza 

, tenga una varianza muestral:

a. Mayor que 9.1

b. Entre 3.462 y 10.745

Solución.

a. Primero se procederá a calcular el valor de la ji-cuadrada:

Al buscar este número en el renglón de 24 grados de libertad nos da un área a la derecha de 0.05. Por lo que la P(s2 >9.1) = 0.05

1. Se calcularán dos valores de ji-cuadrada:

Aquí se tienen que buscar los dos valores en el renglón de 24 grados de libertad. Al buscar el valor de 13.846 se encuentra un área a la derecha de 0.95. El valor de 42.98 da un área a la derecha de 0.01. Como se está pidiendo la probabilidad entre dos valores se resta el área de 0.95 menos 0.01 quedando 0.94.

Por lo tanto la P(3.462   s2   10.745) = 0.94

Page 36: Tarea 1, 2 y 3 metodos 2

Estimación de la Varianza

Para poder estimar la varianza de una población normal se utilizará la distribución ji-cuadrada.

Al despejar esta fórmula la varianza poblacional nos queda:

Los valores de X2 dependerán de nivel de confianza que se quiera al cual le llamamos  . Si nos ubicamos en la gráfica se tiene:

Ejemplos:

1. Los siguientes son los pesos, en decagramos, de 10 paquetes de semillas de pasto distribuidas por cierta compañía: 46.4, 46.1, 45.8, 47.0, 46.1, 45.9, 45.8, 46.9, 45.2 y 46. Encuentre un intervalo de confianza de 95% para la varianza de todos los paquetes de semillas de pasto que distribuye esta compañía, suponga una población normal.

Page 37: Tarea 1, 2 y 3 metodos 2

Solución:

Primero se calcula la desviación estándar de la muestra:

al elevar este resultado al cuadrado se obtiene la varianza de la muestra s2= 0.286.

Para obtener un intervalo de confianza de 95% se elige un  = 0.05. Después con el uso de la tabla con 9 grados de libertad se obtienen los valores de X2.

Se puede observar en la gráfica anterior que el valor de X2 corre en forma normal, esto es de izquierda a derecha.

Por lo tanto, el intervalo de confianza de 95% para la varianza es:

Graficamente:

Page 38: Tarea 1, 2 y 3 metodos 2

Se observa que la varianza corre en sentido contrario, pero esto es sólo en la gráfica. La interpretación quedaría similar a nuestros temas anteriores referentes a estimación. Con un nivel de confianza del 95% se sabe que la varianza de la población de los pesos de los paquetes de semillas de pasto esta entre 0.135 y 0.935 decagramos al cuadrado.

 

2. En trabajo de laboratorio se desea llevar a cabo comprobaciones cuidadosas de la variabilidad de los resultados que producen muestras estándar. En un estudio de la cantidad de calcio en el agua potable, el cual se efectúa como parte del control de calidad, se analizó seis veces la misma muestra en el laboratorio en intervalos aleatorios. Los seis resultados en partes por millón fueron 9.54, 9.61, 9.32, 9.48, 9.70 y 9.26. Estimar la varianza de los resultados de la población para este estándar, usando un nivel de confianza del 90%.

Solución:

Al calcular la varianza de la muestra se obtiene un valor de s2= 0.0285.

Se busca en la tabla los valores correspondientes con 5 grados de libertad, obteniéndose dos resultados. Para X2(0.95,5)= 1.145 y para X2(0.0,5)= 11.07.

Entonces el intervalo de confianza está dado por:

y

Page 39: Tarea 1, 2 y 3 metodos 2

Distribución Exponencial:

A pesar de que la distribución Normal puede utilizarse para resolver muchos problemas en ingeniería y ciencias, existen aún numerosas situaciones que requieren diferentes tipos de funciones de densidad, tales como la exponencial y la gamma y algunas otras como la weibull, etc., etc., de momento solo trataremos sobre el uso de la exponencial.

Resulta que la exponencial es un caso especial de la distribución gamma, ambas tienen un gran número de aplicaciones. Las distribuciones exponencial y gamma juegan un papel importante tanto en teoría de colas como en problemas de confiabilidad. El tiempo entre las llegadas en las instalaciones de servicio y el tiempo de falla de los componentes y sistemas eléctricos, frecuentemente involucran la distribución exponencial. La relación entre la gamma y la exponencial permite que la distribución gamma se utilice en tipos similares de problemas.

 

La variable aleatoria x tiene una distribución exponencial, con parámetro b, si su función de densidad es:

 

                               , x > 0      ;  f(x) = 0   en cualquier otro caso

 

Donde b > 0

 

Page 40: Tarea 1, 2 y 3 metodos 2

La  media y la variancia de la distribución exponencial son:

 

                                    m = b              y                  s2 = b2

 

 Relación con el proceso de Poisson.

Las aplicaciones más importantes de la distribución exponencial son aquellas situaciones en donde se aplica el proceso de Poisson , es necesario recordar que un proceso de Poisson permite el uso de la distribución de Poisson. Recuérdese también  que la distribución de Poisson se utiliza para calcular la probabilidad de números específicos de “eventos” durante un período o espacio particular. En muchas aplicaciones, el período o la cantidad de espacio es la variable aleatoria. Por ejemplo un ingeniero industrial puede interesarse en el tiempo T entre llegadas en una intersección congestionada durante la hora de salida de trabajo en una gran ciudad. Una llegada representa el evento de Poisson.

La relación entre la distribución exponencial (con frecuencia llamada exponencial negativa) y el proceso llamado de Poisson es bastante simple. La distribución de Poisson se desarrolló como una distribución de un solo parámetro l, donde l puede interpretarse como el número promedio de eventos por unidad de “tiempo” . Considérese ahora la variable aleatoria descrita por el tiempo que se requiere para que ocurra el primer evento. Mediante la distribución de Poisson, se encuentra que la probabilidad de que no ocurran en el espacio hasta el tiempo t está dada por:

                                  ;   

 

Ahora puede utilizarse lo anterior  y hacer que X sea el tiempo para el primer evento de Poisson. La probabilidad de que el período hasta que ocurre el primer evento de Poisson exceda x es la misma que la probabilidad de que no ocurra un evento de Poisson en x. Esto último por supuesto está dado por  . Como resultado,

                                                     P(X ³ x) = 

 

Entonces, la función de distribución acumulada para x es:

Page 41: Tarea 1, 2 y 3 metodos 2

 

                                                P(0£ X £ x) = 1 - 

 

Ahora, con objeto de que se reconozca la presencia de la distribución exponencial, puede derivarse la distribución acumulada anterior para obtener la función de densidad:

                                                     f(x) = 

 La cual es la función de densidad de la distribución exponencial con   .

Nótese que la media de la distribución exponencial es el parámetro , el recíproco del parámetro en la distribución de Poisson. El lector debe recordar que con frecuencia se dice que la distribución de Poisson no tiene memoria, lo cuál implica que las ocurrencias en períodos de tiempo sucesivos son independientes. Aquí el parámetro importante   es el tiempo promedio entre eventos. En teoría de la confiabilidad,  donde la falla de un equipo concuerda con el proceso de Poisson,   recibe el nombre de tiempo promedio entre fallas. Muchas descomposturas de equipo siguen el proceso de Poisson, y entonces la distribución exponencial es aplicable.

En el siguiente ejemplo se muestra una aplicación simple de la distribución exponencial en un problema de confiabilidad. La distribución binomial también juega un papel importante en la solución.

 

Ejemplos:

1. Suponga que un sistema contiene cierto tipo de componente cuyo tiempo de falla en años está dado por la variable aleatoria T, distribuida exponencialmente con tiempo promedio de falla . S í 5 de estos componentes se instalan en diferentes sistemas, ¿cuál es la probabilidad de que al menos 2 continúen funcionando después de 8 años?

 

Solución:

Page 42: Tarea 1, 2 y 3 metodos 2

La probabilidad de que un determinado componente esté funcionando aún después de 8 años es:

 

                      la | nos indica que la integral se va  a evaluar desde 8 hasta ¥      

 

Sea x el número de componentes funcionando después de 8 años. Entonces mediante la distribución Binomial,

n = 5

p = 0.20 = probabilidad de que un componente esté funcionando después de 8 años

q = 1-p = 0.80 = probabilidad de que un componente no funcione después de 8 años

 

P(x ³ 2 ) = p(x=2) + p(x=3) + p(x=4)+p(x=5) = 1 – p(x = 0, 1)

 

               

 

2. El tiempo que transcurre antes de que una persona sea atendida en una cafetería es una variable aleatoria que tiene una distribución exponencial con una media de 4 minutos. ¿Cuál es la probabilidad de que una persona sea atendida antes de que transcurran 3 minutos en al menos 4 de los 6 días siguientes?

 

Solución:

 

                 la nos indica que la integral va a ser evaluada de 0 a 3

Page 43: Tarea 1, 2 y 3 metodos 2

 

x = número de días en que un cliente es atendido antes de que transcurran 3 minutos

      x = 0, 1, 2,...,6 días

 

p = probabilidad de que un cliente sea atendido antes de que transcurran 3 minutos en un día cualquiera = 0.5276

q = probabilidad de que un cliente no sea atendido antes de que transcurran  3 minutos en un día cualquiera = 1- p = 0.4724

 

                   

 

                                                    = 0.11587 + 0.02157 = 0.13744

Función de densidad y función de probabilidad (formulas)

Función densidad:

La función de densidad de probabilidad describe la probabilidad de cada valor específico que puede tener una variable.

Ejemplo de una PDF discreta

Para una variable discreta, la PDF es una lista que contiene cada valor que la variable puede tener y su probabilidad asociada. Por ejemplo, una fábrica de caramelos produce un solo tipo de caramelo en múltiples colores. Un 30% de los caramelos producidos son amarillos, 10% anaranjados, 10% rojos, 20% verdes y 30% azules.

Page 44: Tarea 1, 2 y 3 metodos 2

PDF discreta

Esta gráfica de barras muestra la PDF por color de caramelo. Cada barra representa la probabilidad de caramelos de ese color expresada como un porcentaje.

Ejemplo de una PDF continúa

Para una variable continua, la PDF es la curva que aproxima la forma cuando sus valores se muestran en una gráfica de barras o histograma. Por ejemplo, una máquina que corta corchos para botellas de vino produce corchos de diferentes diámetros. En la siguiente gráfica de barras de diámetros de corchos, cada barra representa el porcentaje de corchos con el correspondiente diámetro.

PDF continúa

La curva es la PDF para el diámetro del corcho. Utilice la PDF para determinar la probabilidad de que ocurra un evento. Por ejemplo, solo un pequeño porcentaje de corchos (1%) tiene un diámetro por debajo de 2.8 cm.

PDF continúa con límites de especificación

Si los límites de especificación para el diámetro de corchos son de 2.85 cm a 3.15 cm, la PDF ofrece la probabilidad o el porcentaje de todos los corchos de este proceso que cumplen con las especificaciones.

Page 45: Tarea 1, 2 y 3 metodos 2

La forma de la PDF es diferente para distribuciones diferentes. La curva familiar con forma de campana representa la PDF para una distribución normal. Aunque el diámetro de los corchos sigue una distribución normal, otras mediciones, tales como la fuerza necesaria para retirar el corcho de la botella de vino, pueden seguir una distribución diferente. Por ejemplo, la PDF para una distribución lognormal tiene una cola larga hacia la derecha.

PDF lognormal

Debido a que una botella de vino ocasionalmente requiere una cantidad poco común de fuerza para retirar el corcho, las mediciones de esta fuerza suelen seguir una distribución con una cola larga hacia la derecha tal como la distribución lognormal.

Función de probabilidad:

Se llama función de probabilidad de una variable aleatoria discreta X a la aplicación que asocia a cada valor de xi de la variable su probabilidad pi.

0 ≤ pi ≤ 1

p1 + p2 + p3 + · · · + pn = Σ pi = 1

Ejemplo

Calcular la distribución de probabilidad de las puntuaciones obtenidas al lanzar un dado.

x p i

1

2

Page 46: Tarea 1, 2 y 3 metodos 2

3

4

5

6

1

Representación

La representación de una distribución discreta de probabilidad es un diagrama de barras.

Función de probabilidad de la distribución binomial

La función de probabilidad de la distribución binomial, también denominada función de la distribución de Bernoulli, es:

Page 47: Tarea 1, 2 y 3 metodos 2

n es el número de pruebas.

k es el número de éxitos.

p es la probabilidad de éxito.

q es la probabilidad de fracaso.

El número combinatorio 

Ejemplo

La última novela de un autor ha tenido un gran éxito, hasta el punto de que el 80% de los lectores ya la han leido. Un grupo de 4 amigos son aficionados a la lectura:

1. ¿Cuál es la probabilidad de que el grupo hayan leido la novela 2 personas?

n = 4

p = 0.8

q = 0.2

B(4, 0.2)