bayes teorema

3
CHILLOPA MORALES EBER JORDAN 5°C Matutino Teorema de Bayes La interpretación más aceptada del teorema de Bayes, es que su estructura permite el cálculo de probabilidades después de haber sido realizado un experimento, a esto se le conoce como “probabilidades aposteriori”, esto basándose en el conocimiento de la ocurrencia de ciertos eventos que dependan del evento estudiado, o sea que, se parte de probabilidades conocidas antes de efectuar el experimento, a esto se le conoce como “probabilidades apriori”, las cuales son efectuadas por las probabilidades propias del experimento (estas aparecen durante la ocurrencia del evento). Es un resultado enunciado por Thomas Bayes en 1763, que expresa la probabilidad condicional de un evento aleatorio, A dado B en términos de la distribución de probabilidad condicional del evento B dado A y la distribución de probabilidad marginal de solo A. Es de enorme relevancia puesto que vincula la probabilidad de A dado B con la probabilidad de B dado A. El teorema de Bayes parte de una situación en la que es posible conocer las probabilidades de que ocurran una serie de sucesos Ai. A esta se añade un suceso B cuya ocurrencia proporciona cierta información, porque las probabilidades de ocurrencia de B son distintas según el suceso Ai que haya ocurrido. Conociendo que ha ocurrido el suceso B, la fórmula del teorema de Bayes nos indica como modifica esta información las probabilidades de los sucesos Ai. Ejemplo: Si seleccionamos una persona al azar, la probabilidad de que sea diabética es 0,03. Obviamente la probabilidad de que no lo sea es 0,97. Si no disponemos de información adicional nada más se podría decir, pero supongamos que al realizar un análisis de sangre los niveles de glucosa son superiores a 1.000 mg/l, lo que ocurre en el 95% de los diabéticos y sólo en un 2% de las personas sanas. ¿Cuál será ahora la probabilidad de que esa persona sea diabética? La respuesta que nos da el teorema de Bayes es que esa información adicional hace que la probabilidad sea ahora 0,595. Vemos así que la información proporcionada por el análisis de sangre hace pasar, la probabilidad inicial de padecer diabetes de 0,03, a 0,595.

Upload: aldairzacapamorales

Post on 18-Dec-2015

217 views

Category:

Documents


1 download

DESCRIPTION

bayes teorema

TRANSCRIPT

CHILLOPA MORALES EBER JORDAN5C MatutinoTeorema de BayesLa interpretacin ms aceptada del teorema de Bayes, es que su estructura permite el clculo de probabilidades despus de haber sido realizado un experimento, a esto se le conoce como probabilidades aposteriori, esto basndose en el conocimiento de la ocurrencia de ciertos eventos que dependan del evento estudiado, o sea que, se parte de probabilidades conocidas antes de efectuar el experimento, a esto se le conoce como probabilidades apriori, las cuales son efectuadas por las probabilidades propias del experimento (estas aparecen durante la ocurrencia del evento).Es un resultado enunciado por Thomas Bayes en 1763, que expresa la probabilidad condicional de un evento aleatorio, A dado B en trminos de la distribucin de probabilidad condicional del evento B dado A y la distribucin de probabilidad marginal de solo A.Es de enorme relevancia puesto que vincula la probabilidad de A dado B con la probabilidad de B dado A. El teorema de Bayes parte de una situacin en la que es posible conocer las probabilidades de que ocurran una serie de sucesos Ai. A esta se aade un suceso B cuya ocurrencia proporciona cierta informacin, porque las probabilidades de ocurrencia de B son distintas segn el suceso Ai que haya ocurrido. Conociendo que ha ocurrido el suceso B, la frmula del teorema de Bayes nos indica como modifica esta informacin las probabilidades de los sucesos Ai. Ejemplo: Si seleccionamos una persona al azar, la probabilidad de que sea diabtica es 0,03. Obviamente la probabilidad de que no lo sea es 0,97. Si no disponemos de informacin adicional nada ms se podra decir, pero supongamos que al realizar un anlisis de sangre los niveles de glucosa son superiores a 1.000 mg/l, lo que ocurre en el 95% de los diabticos y slo en un 2% de las personas sanas. Cul ser ahora la probabilidad de que esa persona sea diabtica? La respuesta que nos da el teorema de Bayes es que esa informacin adicional hace que la probabilidad sea ahora 0,595. Vemos as que la informacin proporcionada por el anlisis de sangre hace pasar, la probabilidad inicial de padecer diabetes de 0,03, a 0,595. Evidentemente si la prueba del anlisis de sangre hubiese sido negativa, esta informacin modificara las probabilidades en sentido contrario. En este caso la probabilidad de padecer diabetes se reducira a 0,0016.El teorema de Bayes es vlido en todas las aplicaciones de la teora de la probabilidad. En esencia, los seguidores de la estadstica tradicional solo admiten probabilidades basadas en experimentos repetibles y que tengan una confirmacin emprica mientras que los llamamos estadsticos bayesianos permiten probabilidades subjetivas. Puede servir entonces para indicar como debemos modificar nuestras probabilidades subjetivas cuando recibimos informacin adicional de un experimento. Est demostrando su utilidad en ciertas estimaciones basadas en el conocimiento subjetivo a priori y el hecho de permitir revisas esas estimaciones en funcin de la evidencia emprica, es lo que est abriendo nuevas formas de hacer conocimiento.

Modelos ocultos de Markov (HMM o Hidden Markov Models)Se conoce como cadena de Markov a un tipo especial de proceso estocstico(concepto matemtico que sirve para caracterizar una sucesin de variables aleatorias) discreto en el que la probabilidad de que ocurra un evento depende solamente del evento inmediatamente anterior. Esta caracterstica de falta de memoria recibe el nombre de propiedad de Markov.Se define como un proceso estocstico discreto que cumple con la propiedad de Markov, es decir, si se conoce la historia del sistema hasta su instante actual, su estado presente resume toda la informacin relevante para describir en probabilidad su estado futuro.Las cadenas de Markov son modelos probabilsticos que se usan para predecir la evolucin y el comportamiento a corto y a largo plazo de determinados sistemas.Los elementos de una cadena de Markov: Un conjunto finito de X estados, exhaustivos y mutuamente excluyentes (ejemplo: estados de la enfermedad) Ciclo de Markov (paso) : periodo de tiempo que sirve de base para examinar las transiciones entre estados (ejemplo, un mes) Probabilidades de transicin entre estados, en un ciclo (matriz P) Distribucin inicial del sistema entre los X estados posiblesTipos de modelos de Markov: Procesos de Markov (Modelos semi-markovianos): Las probabilidades de transicin entre estados pueden variar a medida que transcurren ms ciclos Cadenas de Markov:Las probabilidades de transicin se suponen constantes a lo largo del tiempoUna cadena de Markov es una secuencia X1, X2, X3,... de variables aleatorias. El dominio de estas variables es llamado espacio estado; el valor de Xn es el estado del proceso en el tiempo n. Estos modelos estadsticos cuentan con un gran nmero de aplicaciones reales.Podemos pensar en un modelo de Markov como una simple lnea de transferencia. Ejemplo:Se puede pensar en dos mquinas y en un inventario. Cada mquina es descrita por su tiempo de operacin, su tiempo para la falla y su tiempo para la reparacin. El tiempo de proceso se refiere a la cantidad de tiempo en que demora hacer una parte. El tiempo para la falla, es el tiempo que ocurre entre la ltima reparacin y el siguiente dao. El tiempo para reparacin, es el tiempo que transcurre entre el ltimo dao y el momento en que la mquina est disponible para operar. Estas cantidades pueden ser determinsticas, en estos casos se obtienen estados discretos y una cadena de Markov con transiciones discretas(o tiempos discretos en la cadena de Markov). Tambin puede ser continuo con variables aleatorias.Se asume que la primera mquina nunca deja de ser alimentada y la ltima maquina nunca es bloqueada.Se modela para una mquina y as tener una idea bsica de la cadena de Markov. En este caso el estado de la maquina se describe por su estatus.