estadistica diana

53
INTRODUCCIÓN A LA PROBABILIDAD Y EL CONTEO Los métodos estadísticos se utilizan para tomar decisiones basadas en el análisis de datos recopilados en experimentos de diseño minucioso. Puesto que la ciencia experimental no puede tener en cuenta toda posible contingencia, siempre habrá algo de incertidumbre, los métodos estadísticos sirven para evaluar el grado de incertidumbre de los resultados. Se los ha clasificado en tres categorías: * Estadística descriptiva_ mediante técnicas analíticas y graficas ésta describe o representa visualmente un conjunto de datos. * Estadística inferencial_ los métodos de la estadística inferencial permiten establecer conclusiones acerca de un gran grupo de objetos, observando solo una porción de objetos del grupo. De lo anterior, se denomina población al grupo total de objetos de los que se obtiene conclusiones; y muestra a una parte o subconjunto de la población que se obtiene y se usa para extraer las conclusiones de dicha población. * Construcción de modelos_ desarrolla ecuaciones predictivas a partir de datos experimentales. INTERPRETACIÓN DE LAS PROBABILIDADES La probabilidad es un número entre 0 y 1 que indica cuan factible es que ocurra un

Upload: guest526589

Post on 22-Jun-2015

7.796 views

Category:

Travel


1 download

DESCRIPTION

Introducción a la estadistica y probabilidad

TRANSCRIPT

Page 1: Estadistica Diana

INTRODUCCIÓN A LA PROBABILIDAD

Y EL CONTEO

Los métodos estadísticos se utilizan para tomar decisiones basadas en el análisis de

datos recopilados en experimentos de diseño minucioso. Puesto que la ciencia

experimental no puede tener en cuenta toda posible contingencia, siempre habrá algo

de incertidumbre, los métodos estadísticos sirven para evaluar el grado de

incertidumbre de los resultados.

Se los ha clasificado en tres categorías:

∗ Estadística descriptiva_ mediante técnicas analíticas y graficas ésta describe o

representa visualmente un conjunto de datos.

∗ Estadística inferencial_ los métodos de la estadística inferencial permiten

establecer conclusiones acerca de un gran grupo de objetos, observando solo una

porción de objetos del grupo.

De lo anterior, se denomina población al grupo total de objetos de los que se

obtiene conclusiones; y muestra a una parte o subconjunto de la población que se

obtiene y se usa para extraer las conclusiones de dicha población.

∗ Construcción de modelos_ desarrolla ecuaciones predictivas a partir de datos

experimentales.

INTERPRETACIÓN DE LAS PROBABILIDADES

La probabilidad es un número entre 0 y 1 que indica cuan factible es que ocurra un

Page 2: Estadistica Diana

evento, si la probabilidad es cercana a 1 indica que es muy factible que ocurra el

evento, si la probabilidad es cercana a 0 indica que poco factible que el evento ocurra,

en ambos casos no signifique que el evento ocurrirá o no ocurrirá sino que se trata de

un evento común en el primer caso y un evento poco usual en el segundo caso.

Si la probabilidad es cercana a 1/2 indica que es igualmente factible que el evento

ocurra o no.

Para interpretar las probabilidades una vez que se conocen, se utilizan tres métodos:

∗ El enfoque personal_ asigna una probabilidad al evento en base a la opinión personal

informada, la desventaja es que la precisión de la asignación depende de la

exactitud de la información disponible y la capacidad de evaluar de manera

correcta esa información

∗ El de frecuencia relativa_ se basa en la experimentación y observación repetidas,

la desventaja es que el evento debe ser susceptible de repetirse, toda

probabilidad obtenida de esta forma es una aproximación

∗ El clásico_ éste método puede usarse solamente cuando los posibles resultados del

experimento son igualmente probables

ESPACIOS MUESTRALES Y EVENTOS

El primer paso en el análisis de muchos experimentos es elaborar una lista de todos

los posibles resultados del experimento, llamada espacio muestral,

Uno de los sistemas para desarrollar el espacio muestral a medida que aumenta el

número de posibilidades es el diagrama de árbol.

Evento_ (en sentido matemático) se denomina así a todo subconjunto de un espacio

muestral.

Page 3: Estadistica Diana

Eventos mutuamente excluyentes_ se denominan así porque la presencia de un evento

impide la presencia del otro.

PERMUTACIONES Y COMBINACIONES

A medida que el experimento se torna más complejo las listas y árboles se vuelven

inmanejables, por esto se requiere métodos de conteo alternos.

Dos tipos comunes de problemas de conteo son el de permutaciones y el de

combinaciones.

Una permutación es un arreglo de objetos en un orden determinado.

Una combinación es una selección de objetos sin orden alguno.

Conteo de permutaciones

Si se tiene un problema cuyo orden es de total importancia, se pregunta cuántas

permutaciones o arreglos de los objetos dados son posibles, es usual que la respuesta

se la obtenga con el principio de multiplicación.

El principio de multiplicación_ mediante este principio se obtiene el número total de

las formas en que puede ocurrir un evento, se usa en la resolución de problemas de

permutación.

La fórmula para calcular el número de permutaciones de n objetos distintos, de los

cuales se toman r objetos en un momento dado, se expresa en el siguiente teorema:

Teorema. El numero de permutaciones de n objetos distintos, de los cuales se

toman r a la vez, denotados con rn P

)!(

!

rn

nPrn −

=

Page 4: Estadistica Diana

El principio de multiplicación es la primera opción que deberíamos tomar cuando se

tenga un problema que incluye un orden, natural o impuesto.

Conteo de combinaciones

Los problemas de conteo en que la atención se centra en situaciones en las que el

orden es irrelevante, son problemas de combinaciones

Para distinguirse entre combinaciones y permutaciones y permutaciones debe

buscarse las palabras claves “seleccionar” y “ordenar”, la primera indica que es un

problema de combinaciones, y la segunda que se busca una permutación.

Permutaciones de objetos que no se diferencian

Las permutaciones de objetos que no se diferencian analizan problemas de

permutaciones en las que es inevitable la repetición, y responde a la pregunta de

cuántos ordenamientos distintos de n objetos son posibles si algunos de los objetos

son idénticos y por lo tanto no se puede diferenciarlos

La formula general del número total de ordenamientos distintos de estos objetos esta

dada por:

Permutaciones de objetos que no se diferencian

k1K

nnnn nnn

n +++= ...!..!

!2

!21

Teorema. El numero de combinaciones de n objetos distintos, de los cuales se

seleccionan r a la vez, denotados con rnC o

r

n , esta dado por:

)!(!

!

rnr

n

r

nCrn −

=

=

Page 5: Estadistica Diana

La estadística mediante sus métodos: el enfoque personal, el de frecuencia relativa y

el clásico, permiten la asignación de una probabilidad frente a una situación en la que

haya incertidumbre en la respuesta que se desea obtener.

Se puede interpretar el comportamiento de sucesos que se estén estudiando mediante

el análisis de los métodos estadísticos.

Se puede construir modelos en base a los resultados obtenidos.

Para obtener las probabilidades que puede tener un problema expuesto es necesario,

dadas las características del problema, determinar que enfoque probabilístico se va a

utilizar para responder esta pregunta.

La probabilidad del enfoque de la frecuencia relativa es una aproximación, con un

número de ensayos altos pude llegar a ser muy precisa la probabilidad aproximada.

Las permutaciones y combinaciones son métodos de conteo alternos cuando no se

puede calcular la probabilidad con los métodos anteriores.

Con el conteo de permutaciones es posible responder cuantos arreglos de los objetos

dados son posibles.

Con el conteo de combinaciones es posible responder cuantas selecciones de los

objetos dados son posibles con no importa el orden en que se den.

Con las permutaciones de objetos que no se diferencian es posible responder cuantos

ordenamientos distintos de n objetos son posibles si algunos de los objetos no se

pueden diferenciar.

Page 6: Estadistica Diana

ALGUNAS LEYES DE PROBABILIDAD

AXIOMAS DE PROBABILIDAD

Las definiciones son los términos técnicos del sistema y los axiomas son

afirmaciones que se suponen verdaderas y que por lo tanto no necesitan

comprobación.

El axioma 1 expresa que la probabilidad asignada a un evento cierto es S es 1

El axioma 2 expresa que la probabilidades solo valores positivos

El axioma 3 afirma que cuando hay eventos mutuamente excluyentes, la

probabilidad de que ocurra por lo menos uno de ellos es la suma de las

probabilidades de esos eventos.

Axiomas de probabilidad

1. Sea S el espacio muestral de un experimento [ ] 1=SP

2. [ ] 0≥AP con cualquier evento A 3. Sean A1, A2, A3,... es una colección finita o infinita de eventos

mutuamente excluyentes. Entonces,

[ ] [ ] [ ] [ ] ⋅⋅⋅+−+=⋅⋅⋅∪∪ 321321 APAPAPAAAP

Page 7: Estadistica Diana

Por lo tanto una base hecha sobre axiomas y teoremas define lo que es y lo que

hace la probabilidad.

La regla general de la adición

La regla de adición permite calcular la probabilidad de que al menos uno de los

dos eventos tenga lugar cuando no sean por necesidad mutuamente

excluyentes.

La regla de adición relaciona a las operaciones de unión e intersección.

Si se conoce [ ]21 AAP ∩ , es posible usar la regla de adición para calcular

[ ]21 AAP ∪

PROBABILIDAD CONDICIONAL

La probabilidad condicional sirve para determinar la probabilidad de que ocurra

el evento A2 “condicionado” al supuesto de que ha tenido lugar otro evento, A1.

“si” y “dado que” son palabras claves que identifican una pregunta condicional.

Regla general de la adición

[ ] [ ] [ ] [ ]212121 AAPAPAPAAP ∩−+=∪

Page 8: Estadistica Diana

Donde [ ]1AP es la probabilidad de que ocurra el evento dado y

[ ]21 AAP ∩ la probabilidad de que tengan lugar tanto el evento dado como el

evento en cuestión

Ejemplo: se tira un dado y sabemos que la probabilidad de que salga un 2 es

1/6. Si incorporamos nueva información (por ejemplo, alguien nos dice que el

resultado anterior ha sido un número par) entonces la probabilidad de que el

resultado sea el 2 ya no es 1/6 sino un 1/3 aplicando la definición de

probabilidad condicional

INDEPENDENCIA Y LA REGLA DE LA MULTIPLICACIÓN

Esta definición es útil para calcular la probabilidad de que ocurran dos eventos

cuando son claramente independientes.

Definición (probabilidad condicional). Sean A1 y A2 eventos

tales que [ ]12 AAP y se define con la fórmula siguiente

[ ] [ ][ ]1

2112 AP

AAPAAP

∩=

Definición (eventos independientes). Los eventos A1 y A2 son independientes si y sólo si

[ ] [ ] [ ]2121 APAPAAP =∩

Page 9: Estadistica Diana

En este caso recibir la información de que ocurrió el evento A1 no tiene efecto

alguno en la probabilidad asignada al evento A2

Este teorema sirve para comprobar la independencia entre dos eventos

Esta definición tiene el propósito de servir como forma de cálculo de la

probabilidad de que ocurra una serie de eventos supuestamente independientes

Para usar la definición anterior hay que tener la certeza de que es razonable

suponer que los eventos son independientes antes de aplicarla al calculo de la

probabilidad de que ocurra una serie de eventos.

Ejemplo: la probabilidad de que al tirar una moneda salga cara (suceso B), condicionada a la probabilidad de que haga buen tiempo (suceso A), es igual a la propia probabilidad del suceso B.

Teorema. Sean A1 y A2 eventos tales que por lo menos [ ]1AP o

[ ]2AP difieren de cero. A1 y A2 son independientes si y sólo si: [ ] [ ] [ ][ ] [ ] [ ] 0

0

2112

1212

≠=

≠=

APsiAPAAP

yAPsiAPAAP

Definición. Sea niAC i ,,2,1: ⋅⋅⋅== un conjunto finito de

eventos. Estos eventos son independientes si y sólo si dado cualquier subconjunto ( ) ( ) ( )mAAA ,,, 21 ⋅⋅⋅ de elementos de C:

( ) ( ) ( )[ ] ( )[ ] ( )[ ] ( )[ ]mm APAPAPAAAP ⋅⋅⋅=∩⋅⋅⋅∩∩ 2121

Page 10: Estadistica Diana

LA REGLA DE LA MULTIPLICACIÓN

La regla de la multiplicación es otra forma de calcular la probabilidad de que

ocurran simultáneamente dos eventos si no son independientes.

TEOREMA DE BAYES

El Teorema de Bayes resuelve lo que se conoce como probabilidad inversa. Esto

significa que, contrario a la probabilidad clásica, donde lo que se busca es

conocer la probabilidad que se dé un evento de un total de casos conocidos, la

probabilidad inversa busca saber la probabilidad de lo contrario.

Ejemplo: El parte meteorológico ha anunciado tres posibilidades para el fin de

semana:

Regla de la multiplicación

[ ] [ ] [ ]11221 APAAPAAP =∩

Teorema (teorema de Bayes). Sean A1 , A2 , A3 , ... , An un conjunto de eventos mutuamente excluyentes, cuya union es S Sea B eventos tal que [ ] 0≠BP Entonces, para cualquier evento Aj,con j = 1,2,3,...,n, se tiene que:

[ ] [ ] [ ][ ] [ ]∑

=

= n

iii

jj

j

APABP

APABPBAP

1

Page 11: Estadistica Diana

a) Que llueva: probabilidad del 50%.

b) Que nieve: probabilidad del 30%

c) Que haya niebla: probabilidad del 20%.

Según estos posibles estados meteorológicos, la posibilidad de que ocurra un

accidente es la siguiente:

a) Si llueve: probabilidad de accidente del 10%.

b) Si nieva: probabilidad de accidente del 20%

c) Si hay niebla: probabilidad de accidente del 5%.

Resulta que efectivamente ocurre un accidente y como no estábamos en la

ciudad no sabemos que tiempo hizo (nevó, llovió o hubo niebla). El teorema de

Bayes nos permite calcular estas probabilidades:

Las probabilidades que manejamos antes de conocer que ha ocurrido un

accidente se denominan "probabilidades a priori" (lluvia con el 60%, nieve con

el 30% y niebla con el 10%).

Una vez que incorporamos la información de que ha ocurrido un accidente, las

probabilidades del suceso A cambian: son probabilidades condicionadas P (A/B),

que se denominan "probabilidades a posteriori".

Vamos a aplicar la fórmula:

[ ] [ ] [ ][ ] [ ]∑

=

= n

iii

jj

j

APABP

APABPBAP

1

a) Probabilidad de que estuviera lloviendo:

Page 12: Estadistica Diana

La probabilidad de que efectivamente estuviera lloviendo el día del accidente

(probabilidad a posteriori) es del 71,4%.

b) Probabilidad de que estuviera nevando:

La probabilidad de que estuviera nevando es del 21,4%.

c) Probabilidad de que hubiera niebla:

La probabilidad de que hubiera niebla es del 7,1%.

Page 13: Estadistica Diana

DISTRIBUCIONES DISCRETAS

Las distribuciones discretas son aquellas en las que la variable puede pude

tomar un número determinado de valores:

Ejemplo: si se lanza una moneda al aire puede salir cara o cruz; si se tira un

dado puede salir un número de 1 al 6; en una ruleta el número puede tomar un

valor del 1 al 32.

Las distribuciones continuas son aquellas que presentan un número infinito de

posibles soluciones:

Ejemplo: El peso medio de los alumnos de una clase puede tomar infinitos

valores dentro de cierto intervalo (42,37 kg, 42,3764 kg, 42, 376541kg, etc);

la esperanza media de vida de una población (72,5 años, 7,513 años, 72, 51234

años).

∗ Variable es una magnitud que puede tener un valor cualquiera de los

comprendidos en un conjunto.

VARIABLES ALEATORIAS

Definición (variable aleatoria discreta). Una variable aleatoria es discreta si puede asumir cuando mucho un número finito o uno infinito contable de valores posibles.

Page 14: Estadistica Diana

Una variable aleatoria no es discreta cuando se pregunta “¿Cuáles son los

valores posibles de la variable?” Esto indica que el conjunto de posibilidades

abarca un intervalo o un conjunto continuo de números reales

DENSIDADES DE PROBABILIDAD DISCRETAS

La función de distribución discreta y función de distribución acumulativa se

usan para lograr en algún sentido predecir los valores que probablemente

asumirá la variable en un momento dado

La densidad indica la probabilidad de que X asuma el valor específico de x

Las dos condiciones siguientes afirman que una función f sea de densidad

discreta

Definición (densidad discreta). Sea X una variable aleatoria discreta. La función f esta dada por:

[ ]xXPxf ==)(

para el número real x se llama función de densidad de X

Condiciones necesarias y suficientes para que una función sea una densidad discreta.

1)(.2

)(.1

==

∑∀x

xf

Pxf

Page 15: Estadistica Diana

Definición (distribución acumulativa: discreta). Sea X una variable aleatoria discreta con densidad f. La función de distribución acumulativa de X, denotada con F, se define con la fórmula siguiente:

[ ]xXPxF ≤=)( para todo número real x

Definición (valor esperado). Sea X una variable aleatoria discreta con densidad f. Sea H(X) una variable aleatoria. El valor esperado de H(X), que se denota con [ ])(XHE , esta dado por

[ ] ∑∀

=x

xfxHXHE )()()(

Siempre y cuando∑∀x

xfxH )()( sea finita. La suma abarca

todos los valores de X que ocurran con probabilidad distinta de cero.

DISTRIBUCIÓN ACUMULATIVA

Esta función suma o acumula las probabilidades calculadas por medio de la

densidad.

La distribución acumulativa indica la probabilidad de que X tenga un valor

menor o igual a x

ESPERANZA Y PARÁMETROS DE UNA DISTRIBUCIÓN

Page 16: Estadistica Diana

En el caso especial de que H(X)=X, el valor esperado de X se obtiene por:

∗ Ejemplo: Sean X y Y variables aleatorias, con E[X] = 3 y E[Y] = 4.

E[5X-3Y+8] = E5[X]+E[-3Y]+E[8]

= 5E[X]+(-3)E[Y]+E[8]

= 5E[X]-3E[Y]+8

= 5(3)-3(4)+8

= 11

Valor esperado de X

[ ] ∑∀

=x

xxfXE )(

Teorema (reglas de la esperanza). Sean X y Y variables aleatorias y sea c cualquier número real.

1. E[c]= c (El valor esperado de toda constante es esa constante.)

2. E[cX]= cE[X] (Las constantes se pueden factorizar a partir de las esperanzas.)

3. E[X+Y] = E[X]+ E[Y] (El valor esperado de una suma es igual a la suma de los valores esperados.)

Page 17: Estadistica Diana

VARIANZA Y DESVIACIÓN ESTÁNDAR

∗ La media es una medición del centro de localización de la distribución.

∗ La varianza y la desviación estándar miden la variabilidad de la variable

aleatoria en torno a su media

∗ Varianza es la media de las desviaciones cuadráticas de una variable

aleatoria, referidas al valor medio de esta.

Definición (varianza). Sean X una variable aleatoria con media

µ . La varianza de X, denotada como Var X o 2σ , esta dada

por

( )[ ]22 µσ −== XEVarX

Teorema (fórmula de cálculo de 2σ )

[ ] [ ]( )222 XEXEVarX −==σ

Definición (desviación estándar). Sean X una variable aleatoria con

varianza 2σ . La desviación estándar de X, denotada con σ , esta

dada por:

2σσ == VarX

Page 18: Estadistica Diana

∗ La desviación estándar esta dada por la raíz cuadrada no negativa de la

varianza

La desviación estándar es una medición de variabilidad

DISTRIBUCIÓN BINOMIAL

La distribución binomial parte de la distribución de Bernoulli:

La distribución de Bernoulli se aplica cuando se realiza una sola vez un

experimento que tiene únicamente dos posibles resultados (éxito o fracaso),

por lo que la variable sólo puede tomar dos valores: el 1 y el 0

La distribución binomial se aplica cuando se realizan un número "n" de veces el

experimento de Bernoulli, siendo cada ensayo independiente del anterior. La

variable puede tomar valores entre:

0: si todos los experimentos han sido fracaso

n: si todos los experimentos han sido éxitos

Ejemplo: se tira una moneda 10 veces: ¿cuantas caras salen? Si no ha salido

ninguna la variable toma el valor 0; si han salido dos caras la variable toma el

valor 2; si todas han sido cara la variable toma el valor 10

Page 19: Estadistica Diana

La distribución de probabilidad de este tipo de distribución sigue el siguiente

modelo:

Ejemplo: ¿Cuál es la probabilidad de obtener 6 caras al lanzar una moneda 10

veces?

" k " es el número de aciertos. En este ejemplo " k " igual a 6

" n" es el número de ensayos. En este ejemplo son 10

" p " es la probabilidad de éxito, es decir, que salga "cara" al lanzar la moneda.

Por lo tanto p = 0,5

La fórmula quedaría:

( )

20506

5.015.0)!610(!6

!10)6( 610

, ) P (x

xP k

==

−== −

Es decir, se tiene una probabilidad del 20,5% de obtener 6 caras al lanzar 10

veces una moneda

Distribución binomial

( ) knk ppknk

nkxP −−

−== 1

)!(!

!)(

Page 20: Estadistica Diana

DISTRIBUCIÓN BINOMIAL NEGATIVA

La distribución binomial negativa es una distribución de probabilidad discreta.

La distribución binomial negativa es lo inverso de la distribución binomial

En esta distribución la variable aleatoria el número de ensayos es fijo y el

número de ensayos cambia de un experimento a otro

∗ Un experimento consiste en una serie de ensayos, cuando al resultado de

cada ensayo lo podemos clasificar como éxito o fracaso el ensayo se

denomina ensayo de Bernoulli

Las siguientes propiedades caracterizan las situaciones en las que surge la

variable aleatoria binomial negativa

- El experimento consiste en una serie de ensayos de Bernoulli

independientes e idénticos con probabilidad p de éxito

- Los ensayos se observan hasta obtener exactamente r éxitos, el valor de

r lo fija el que realiza el experimento

- La variable aleatoria X es el número de ensayos que se necesitan para

lograr los r éxitos.

DISTRIBUCIÓN HIPERGEOMÉTRICA

Propiedades que caracterizan a la distribución hipergeométrica

- El experimento consiste en extraer una muestra aleatoria de tamaño n

sin

Page 21: Estadistica Diana

Reemplazo y sin considerar su orden, e un conjunto de N objetos.

- De los N objetos, solo r posee el rasgo que interesa

- La variable aleatoria X es el número de objetos de la muestra que posee

el rasgo

La distribución hipergeométrica es el modelo que se aplica en experimentos

del siguiente tipo:

En una urna hay bolas de dos colores (blancas y negras), ¿cuál es la

probabilidad de que al sacar 2 bolas las dos sean blancas?

Son experimentos donde, al igual que en la distribución binomial, en cada

ensayo hay tan sólo dos posibles resultados: o sale blanca o no sale. Pero se

diferencia de la distribución binomial en que los distintos ensayos son

dependientes entre sí:

Si en una urna con 5 bolas blancas y 3 negras en un primer ensayo saco una bola

blanca, en el segundo ensayo hay una bola blanca menos por lo que las

probabilidades son diferentes (hay dependencia entre los distintos ensayos).

La distribución hipergeométrica sigue el siguiente modelo:

Definición (definición hipergeométrica). Una variable aleatoria X tiene distribución hipergeométrica con parámetros N, n y r si su densidad está dada por:

−−

=

n

N

xn

rN

x

r

xf )(

Donde N, r y n son enteros positivos.

Page 22: Estadistica Diana

Donde explicándolo con el experimento dado:

N: es el número total de bolas en la urna

N1=>r: es el número total de bolas blancas

N2=>N-r: es el número total de bolas negras

x: es el número de bolas blancas cuya probabilidad se está calculando

n: es el número de ensayos que se realiza

Ejemplo: en una urna hay 7 bolas blancas y 5 negras. Se sacan 4 bolas ¿Cuál es

la probabilidad de que 3 sean blancas?

Entonces: N = 12; N1 = 7; N2 = 5; k = 3; n = 4

Si aplicamos el modelo:

==

4

12

1

5

3

7

)3(xP

Tenemos que, P (x = 3) = 0,3535. Es decir, la probabilidad de sacar 3 bolas

blancas es del 35,3%.

Page 23: Estadistica Diana

DISTRIBUCIÓN DE POISSON

La distribución de Poisson parte de la distribución binomial:

Cuando en una distribución binomial se realiza el experimento un número "n"

muy elevado de veces y la probabilidad de éxito "p" en cada ensayo es

reducida, entonces se aplica el modelo de distribución de Poisson.

Se tiene que cumplir que:

" p " < 0,10

" p * n " < 10

La distribución de Poisson sigue el siguiente modelo:

Donde:

e = 2,71828

k = n * p (es decir, el número de veces " n " que se realiza el experimento

multiplicado por la probabilidad " p " de éxito en cada ensayo)

x => es el número de éxito cuya probabilidad se está calculando

Ejemplo: La probabilidad de tener un accidente de tráfico es de 0,02 cada vez

que se viaja, si se realizan 300 viajes, ¿cual es la probabilidad de tener 3

accidentes?

Definición (distribución de Poisson). Una variable aleatoria X tiene distribución de Poisson con parámetros k si su densidad f está dada por:

0

,...2,1,0!

)(

>

==−

k

xx

kexf

xk

Page 24: Estadistica Diana

Como la probabilidad " p " es menor que 0,1, y el producto " n * p " es menor

que 10, entonces aplicamos el modelo de distribución de Poisson.

!3

6)3(

36−

== exP

P (x = 3) = 0,0892

Por lo tanto, la probabilidad de tener 3 accidentes de tráfico en 300 viajes es

del 8,9%

Page 25: Estadistica Diana

DISTRIBUCIONES CONTINUAS

Las distribuciones continuas son aquellas que presentan un número infinito de

posibles soluciones.

LA DISTRIBUCIÓN UNIFORME

Es aquella que puede tomar cualquier valor dentro de un intervalo, todos ellos

con la misma probabilidad.

Es una distribución continua porque puede tomar cualquier valor y no

únicamente un número determinado, como ocurre en las distribuciones

discretas.

DISTRIBUCIÓN NORMAL

Es el modelo de distribución más utilizado en la práctica, ya que multitud de

fenómenos se comportan según una distribución normal.

Esta distribución de caracteriza porque los valores se

distribuyen formando una campana de Gauss, en torno a un

Page 26: Estadistica Diana

valor central que coincide con el valor medio de la

distribución:

Un 50% de los valores están a la derecha de este valor central y otro 50% a la

izquierda

Esta distribución viene definida por dos parámetros:

-> El valor medio de la distribución y es precisamente donde se sitúa el centro

de la urva (de la campana de Gauss).

-> La varianza. Indica si los valores están más o menos alejados del valor

central: si la varianza es baja los valores están próximos a la media; si es alta,

entonces los valores están muy dispersos.

Cuando la media de la distribución es 0 y la varianza es 1se denomina "normal

tipificada", y su ventaja reside en que hay tablas donde se recoge la

probabilidad acumulada para cada punto de la curva de esta distribución.

Page 27: Estadistica Diana

DISTRIBUCIÓN NORMAL ESTÁNDAR

Hay un número ilimitado de distribuciones de probabilidad normal, aunque

afortunadamente todas están relacionadas con una distribución, la

distribución normal Estándar.

Propiedades de la Distribución Normal Standard

• El área total bajo la curva normal es igual a 1.

• La distribución tiene forma de campana y es simétrica; se extiende en

ambas direcciones y el eje x es su asíntota.

• Tiene media igual a 0 y desviación estándar igual a 1.

• La media divide el área en dos mitades.

DISTRIBUCION PROBABILIDAD GAMA.

Esta distribución se emplea de manera extensa en una gran variedad de áreas;

por ejemplo, para representar el tiempo aleatorio de falla de un sistema que

falla sólo si de manera exacta los componentes fallan y la falla de cada

componente ocurre con una frecuencia constante λ=1/β por unidad de tiempo.

La distribución Gamma es versátil puesto que exhibe varios perfiles que

dependen del valor del parámetro α, para α ≤1 la distribución Gamma tiene un

perfil en forma de J transpuesta. Para α>1, presenta un pico que ocurre en x =β

(α-1).

Page 28: Estadistica Diana

Los tiempos que tardan en revisar un motor de un automóvil ó avión tienen una

distribución de frecuencias sesgadas. Las poblaciones asociadas a estas

variables aleatorias frecuentemente tienen distribuciones que se pueden

modelar adecuadamente por la función de densidad tipo gamma.

Función de densidad de probabilidad para una variable aleatoria tipo gamma:

αβα ≤≤> y0;0,

)()(

/1

ατβ α

βα yeyyf

−−

=

En donde:

∫−−=

α αατ0

1)( dyey y

La cantidad de la de la función alfa se conoce como la función gamma. La

integración directa nos da que la función uno igual a uno. La integración por

partes nos da que la función de alfa menos uno alfa menos uno por la función

alfa menos uno para cualquier intervalo de alfa mayor o igual a uno y que la

función de n sea igual a n menos uno factorial, para un número entero n.

En el caso especial cuando alfa es un número entero, se puede expresar la

función de distribución de una variable aleatoria tipo gamma como una suma de

ciertas variables aleatorias de Poisson.

Si alfa no es un número entero, es imposible encontrar la antiderivada del

integrando de la expresión:

Page 29: Estadistica Diana

α<<< dc0

donde

dyeyd

c

y

∫−−

)(

/1

ατβ α

βα

Y por lo tanto es importante obtener las áreas bajo la función de densidad tipo

gamma mediante integración directa.

DISTRIBUCIÓN EXPONENCIAL

Devuelve la probabilidad de una variable aleatoria continua siguiendo una

distribución exponencial. Se usa para la planeación del tiempo entre dos

sucesos.

Esta distribución se puede usar en diversos casos tales como: el tiempo que

tardara una maquina de cajero automático en entregar efectivo. Esta función

puede usarse para determinar la probabilidad de que el proceso tarde como

máximo un minuto.

La función de densidad gamma para el caso especial siguiente, se denomina

función de densidad exponencial.

∞<≤> y0;0β

Page 30: Estadistica Diana

β

β

/1)(

y

eyf−

=

En cualquier punto.

La función de densidad exponencial muchas veces es útil en los modelos de

duración de componentes eléctricos.

Un fusible es un ejemplo de un componente para el cual este supuesto suele

cumplirse.

La ecuación de la distribución exponencial es:

( ) xexf λλλ −=;

La distribución exponencial puede modelar el lapso entre dos eventos

consecutivos de Poisson que ocurren de manera independiente y a una

frecuencia constante. Esta distribución se emplea con bastante frecuencia con

el objeto de modelar problemas del tipo tiempo-falla y como modelo para el

intervalo en problemas de líneas de espera.

La distribución exponencial es conocida por no tener memoria, es decir, la

probabilidad de ocurrencia de eventos presentes o futuros no depende de los

que hayan ocurrido en el pasado. De esta forma, la probabilidad de que una

unidad falle en un lapso específico depende nada más de la duración de éste, no

del tiempo en que la unidad ha estado en operación.

Page 31: Estadistica Diana

DESIGUALDADES DE CHEBYSHEV

Esta desigualdad nos sirve para estimar probabilidades cuando disponemos de

una distribución de probabilidad de una variable aleatoria cuyos valores estén

ordenados de forma creciente.

La desigualdad de Chebyshev es un resultado estadístico que ofrece una cota

inferior a la probabilidad de que el valor de una variable aleatoria con varianza

finita esté a una cierta distancia de su esperanza matemática o de su media;

equivalentemente, el teorema proporciona una cota superior a la probabilidad

de que los valores caigan fuera de esa distancia respecto de la media. El

teorema es aplicable incluso en distribuciones que no tienen forma de "curva

de campana" y acota la cantidad de datos que están o no "en medio".

DISTRIBUCIÓN WEIBULL

La distribución Weibull fue establecida por el físico del mismo nombre, quien

demostró, con base en una evidencia empírica, que el esfuerzo al que se

someten los materiales puede modelarse de manera adecuada mediante el

empleo de esta distribución. Esta distribución se empleo como modelo para

situaciones del tipo tiempo-falla y con el objetivo de lograr una amplia variedad

componentes mecánicos y eléctricos.

Page 32: Estadistica Diana

Devuelve la probabilidad de una variable aleatoria siguiendo una distribución de

Weibull. Esta distribución se aplica en los análisis de fiabilidad, para

establecer, por ejemplo, el periodo de vida de un componente hasta que

presenta una falla.

Page 33: Estadistica Diana

DISTRIBUCIONES CONJUNTAS

Para resolver problemas en los que intervienen simultáneamente 2 variables es necesario estudiar las variables aleatorias bidimensionales o variables aleatorias divariadas de tipo discreto y continuo.

Una variable aleatoria asocia un número con cada resultado del experimento aleatorio. Es aleatoria porque al no conocer el resultado del experimento antes de realizarlo, tampoco conocemos el valor que va a tomar la variable.

Una variable aleatoria es discreta si puede asumir cuando mucho un Número finito o uno infinito contable de valores posibles Ejemplo: número de piezas defectuosas

Una variable aleatoria es continua si en su rango contiene un intervalo. Ejemplo: duración batería.

DENSIDAD DISCRETA CONJUNTA.

Definición.- Sean X y Y variables aleatorias discretas. El par ordenado (X;Y) se denomina variable aleatoria discreta bidimensional. La función fXY se denomina variable aleatoria discreta bidimensional. La función fXY :

( ) [ ]yYxXPyxf XY === Λ,

se llama densidad conjunta de (X,Y)

Page 34: Estadistica Diana

El propósito de la densidad es el cálculo de la probabilidad de que la variable aleatoria (X,Y) asuma valores específicos. La densidad conjunta de (X,Y) es no negativa, puesto que representa una probabilidad La distribución de probabilidad conjunta de (X, Y), mide la probabilidad de que los dos resultados, x e y, ocurran al mismo tiempo.

DISTRIBUCIONES MARGINALES Cuando se trabaja con más de una variable y se quiere calcular las distribuciones de frecuencias de cada una de manera independiente, tenemos las distribuciones marginales. Podemos encontrar la densidad marginal de la variable aleatoria X sumando sobre todos los posibles valores de la variable aleatoria Y: Igualmente podemos encontrar la densidad marginal de la variable aleatoria Y sumando sobre todos los posibles valores de la variable aleatoria X:

Condiciones necesarias y suficientes para que una función sea

una densidad discreta conjunta

∑ ∑ =≥

x yXY

XY

yxf

yxf

1),(

.0),(

yxf(x)fy

XYX ∑= ),(

yxf(y)fx

XYY ∑= ),(

Page 35: Estadistica Diana

A través de la distribución conjunta, podremos encontrar la función de probabilidad condicional de la otra variable, condicional al valor que tomó la variable. INDEPENDENCIA Dos variables son independientes cuando la información de que ha ocurrido uno de ellos no aporta indicios sobre las probabilidades de que ocurra el otro. Se dirá que las variables aleatorias X e Y son independientes si y sólo si se verifica que la función de distribución conjunta fXY es igual al producto de sus distribuciones marginales ESPERANZA Y COVARIANZA La esperanza condicional proporciona el valor esperado de una variable cuando conocemos los valores que han tomado las otras variables de las cuales depende. La covarianza es útil para describir el comportamiento de una variable en relación a otra La covarianza describe y mide la relación lineal entre dos variables aleatorias, se define como

Variables aleatorias independientes.- Sean X y Y variables aleatorias con densidad conjunta fXY y densidades marginales fX y fY, respectivamente. X y Y son independientes si y solo si:

( ) )()(, yfxfyxf YXXY =

para todos los valores de x y y.

Page 36: Estadistica Diana

Cov(X,Y) = E[(X - µX)(Y - µY)]

Cov(X,Y) = E[XY]-E[X]E[Y]

Si la Cov(x,y) es positiva si los valores altos de X están asociados a los valores altos de Y y viceversa.

Si la Cov(x,y) es negativa si los valores altos de X están asociados a los valores bajos de Y y viceversa.

Si X e Y son variables aleatorias independientes Cov(x,y) = 0 .

La independencia es condición suficiente pero no necesaria para que la Cov(x,y) sea nula.

CORRELACIÓN • La correlación es una técnica estadística usada para determinar la relación entre dos o más variables

• El coeficiente de correlación nos permite valorar si ésta es fuerte o débil, positiva o negativa.

• La correlación puede ir de -1 a 1. Las correlaciones de signo negativo indican relación inversa; las de signo positivo, relación directa. Si el coeficiente es positivo, significa que cuando una variable aumenta, la otra también. Si el coeficiente es negativo, significa que cuando una variable aumenta, la otra disminuye (esto se suele denominar correlación "inversa").

• Una correlación igual a 0 indica que no existe relación entre las variables. El grado de relación lo da el valor absoluto de la correlación.

• El coeficiente de correlación es igual a la covarianza dividida por la raíz cuadrada del producto de la varianzas de X y Y

Coeficiente de correlación de Pearson.

))((

),(

YVarXVar

YXCovXY =ρ

Page 37: Estadistica Diana

Por ejemplo, la estatura y el peso se encuentran relacionados: las personas más altas suelen pesar más que las más bajas, pero la relación no es perfecta, es decir personas de igual altura que no pesan lo mismo y, a veces, una persona más baja pesa más que una más alta Existen caracteres que ni son independientes, ni se da entre ellos una relación de dependencia funcional, pero si se percibe una cierta relación de dependencia entre ambos; se trata de una dependencia estadística. Cuando los caracteres son de tipo cuantitativo, el estudio de la dependencia estadística se conoce como el problema de “regresión”, y el análisis del grado de dependencia que existe entre las variables se conoce como el problema de correlación. REGRESIÓN Cuando se estudian dos características simultáneamente sobre una muestra, se puede considerar que una de ellas influye sobre la otra de alguna manera. El objetivo principal de la regresión es descubrir el modo en que se relacionan. Por ejemplo, en una tabla de pesos y alturas de 10 personas se puede suponer que la variable “Altura” influye sobre la variable “Peso” en el sentido de que pesos grandes vienen explicados por valores grandes de altura. De las dos variables a estudiar, se denomina a X VARIABLE INDEPENDIENTE o EXPLICATIVA, y a Y como VARIABLE DEPENDIENTE o EXPLICADA. Por ejemplo, se anota el tiempo de estudio (en horas) y la nota de examen de cada alumno de una clase. En este caso un pequeño tiempo de estudio tenderá a obtener una nota más baja, y una nota buena indicará que tal vez el alumno ha estudiado mucho. Para determinar qué variable explica a la otra, está claro que el “tiempo de estudio”

Page 38: Estadistica Diana

explica la “nota de examen” y no al contrario, pues el alumno primero estudia un tiempo que puede decidir libremente, y luego obtiene una nota en la que ya no puede decidir arbitrariamente. Por tanto, X = Tiempo de estudio (variable explicativa o independiente) Y = Nota de examen (variable explicada o dependiente)

Page 39: Estadistica Diana

ESTADISTICA DESCRIPTIVA

La estadística descriptiva es el conjunto de técnicas diseñadas para recoger,

organizar, resumir y analizar los datos obtenidos para poder extraer

conclusiones sobre el comportamiento de las variables que se esta estudiando,

para tener un mayor conocimiento y poder tomar decisiones futuras, en las que

tener un conocimiento de su comportamiento pasado es de mucha utilidad.

El conjunto de todos los elementos que aportan información sobre la

investigación que se quiera realizar se denomina población, cuando estos

elementos son demasiado extensos, y la recolección de todos los datos no es

posible por el gran costo que represente en recursos (tiempo,dinero), lo que se

hace es tomar un subconjunto representativo del conjunto total para poder

obtener información, que refleje las características de la población, a este

subconjunto se lo denomina muestra. Individuo es cada uno de los elementos

objeto de estudio, que componen la población y Variable es cada una de las

características que se quieren estudiar sobre la población.

Así, si se estudia la preferencia por una marca de cualquier producto, se

recoge información de un subgrupo (muestra) que sea suficientemente

representativo para poder sacar conclusiones sobre cual es la marca preferida

por los consumidores(población) cada consumidor se denomina individuo y la

característica de conocer cual es preferencia es la variable que se quiere

estudiar.

Tipos de variables estadísticas

Page 40: Estadistica Diana

Cualitativas o atributos. Son las que expresan cualidades de los individuos y no toman valores numéricos (color de ojos, aceptable o defectuoso…). Cuantitativas. Son las que expresan cantidades de los individuos, toman valores numéricos. Cuantitativas discretas. Pueden tomar puntos aislados como valor, el

conjunto de valores es finito o infinito numerable (número de compras en un mes).

Cuantitativas continuas. Pueden tomar cualquier valor en algún intervalo o entre dos números reales (tiempo transcurrido entre la llegada de dos autobuses).

TABLA DE DISTRIBUCIÓN DE FRECUENCIAS

Frecuencia absoluta (ni) de una variable estadística es el número de veces que

cada valor de la variable se repite.

Cuando los atributos no se corresponden con una escala ordinal es conveniente

ordenarlos por su frecuencia de aparición. Si se trata de una variable

cuantitativa se ordenará por el orden de los valores que toma.

La frecuencia absoluta por sí sola no da una idea de la importancia o relevancia

de los datos obtenidos.

Frecuencia relativa (fr(xi)). La frecuencia relativa del valor xi es el cociente

entre la frecuencia absoluta y el número total de datos.

datosdetotalnixobservasequevecesn

ir xfº

º)( =

Se pueden multiplicar por 100 y así obtener porcentajes

Frecuencia absoluta acumulada (Ni).- es el resultado de acumular las

frecuencias absolutas.

Page 41: Estadistica Diana

Frecuencia relativa acumulada (Fi).- es el resultado de acumular las frecuencias

relativas.

Se puede dar que el porcentaje acumulado puede no sumar 100, debido a

errores de redondeo.

DATOS AGRUPADOS Cuando el número de valores distintos que toma una variable discreta es grande o cuando ésta sea continua, es conveniente agruparlos en clases. Para realizar la subdivisión por clases se tiene que: ♣ Redondear los datos, a lo sumo, tres cifras significativas y elegir las unidades de medida para que los datos tengan tres cifras enteras, siempre que sea posible.

♣ Decidir el número de clases entre 5 y 20. El número de clases es el entero más próximo a n , siendo n el número de datos. Es conveniente probar con varios y seleccionar la representación más clara.

♣ Se puede utilizar la siguiente tabla para determinar el número de clases en función del tamaño de la muestra.

Si n<16 el número de datos se considera insuficiente.

Número recomendado de clases en función del tamaño de la muestra

<16 Insuficiente 16-31 5 32-63 6 64-127 7 128-255 8

256-511 9 512-1023 10 1024-2047 11 2048-4095 12 4096-8190 13

Page 42: Estadistica Diana

♣ Seleccionar los límites de clase, que definirán los intervalos y la longitud de los mismos. Las observaciones se deben clasificar en una única clase sin ambigüedad.

♣ Contar el número de observaciones de cada clase para obtener la frecuencia absoluta de la clase.

Rango de datos =máximo – mínimo. Rango / nº clases = valor mínimo de amplitud para cubrir el rango. Para asegurarse de que ningún valor cae en el límite se comienza la primera clase ligeramente inferior al mínimo. Entonces la amplitud deberá ser un poco mayor que el cociente obtenido. El límite inferior se puede escoger ½ por debajo del mínimo. Medidas características de una distribución Cuando disponemos de un conjunto de datos homogéneo de una variable cuantitativa, resulta conveniente completar la distribución de frecuencias con ciertas medidas resumen. Medidas de tendencia central o centralización. Indican el valor medio de los

datos. Medidas de dispersión. Miden su variabilidad. Medidas de forma. Miden el grado de simetría y concentración de la

distribución. MEDIDAS DE LOCALIZACIÓN Media poblacional, µ, es el valor medio de la variable sobre toda la población. Mediana poblacional, M, aproximadamente el 50% de los valores de la población están en o por debajo de la mediana y el resto por encima de M. Los parámetros poblacionales son desconocidos y no pueden hallarse, pero es posible estimarlos a partir de una muestra, mediante la media muestral y la mediana muestral ( xx ~, )

Page 43: Estadistica Diana

Media muestral Sean x1,x2,…,xn un conjunto de n observaciones de la variable x. A la media aritmética de estos valores se le llama media muestral.

n

x

x

n

ii∑

== 1

Diferencias entre la media y la mediana La mediana tiene la ventaja de ser una medida resistente, es decir, una medida que se ve afectada sólo ligeramente por valores atípicos, valores alejados del resto de los datos. Mientras que la media muestral se ve muy afectada por este tipo de valores. La media tiene la ventaja de tener en cuenta todas las observaciones, mientras que la mediana sólo tiene en cuenta el orden de las mismas y no su magnitud. MEDIDAS DE DISPERSIÓN O VARIABILIDAD Se busca un estadístico que cumpla que cuando los datos están agrupados alrededor de la media, éste sea pequeño y que cuando los datos están distribuidos de manera amplia, su valor sea grande.

Parámetros poblacionales Parámetros muestrales. Estadísticos Varianza σ2 Varianza muestral s2

Desviación típica poblacional

σ Desviación típica muestral s

Rango intercuartílico IQR Rango intercuartílico muestral

iqr

Rango Rango muestral Varianza muestral Sean x1,x2,…,xn una muestra de n observaciones de la variable x, con media muestral x . La varianza muestral se denota por s2 y viene dada por la expresión:

n

nxxs

ii

i∑ −=

2

2

)(

Page 44: Estadistica Diana

Puesto que la varianza muestral no tiene las mismas unidades que los datos, se define la desviación típica muestral. Desviación típica muestral Sean x1,x2,…,xn una muestra de n observaciones de la variable x, con varianza muestral s2. La desviación típica muestral se simboliza por s y viene dada por la expresión:

n

nxxss i

ii∑ −==

2

2

)(

La desviación típica muestral no es un buen estimador de la desviación típica poblacional (se desvía a la izquierda de σ ). Para corregir esa desviación se suele hacer uso de la raíz cuadrada de la cuasivarianza muestral

1

)( 2

−∑n

nxxi

ii

La desviación típica se registra con un decimal más que los datos, sin antes redondear la varianza. La varianza se expresa con dos decimales más que los datos. Interpretación de la desviación típica La media y la desviación típica de una distribución proporcionan, de forma conjunta, una gran información. Entre la media y más/menos k veces la desviación típica se encuentra como mínimo el

)%1

1(1002k

− de los datos.

Rango muestral Sean x1,x2,…,xn una muestra de n observaciones de la variable x. El rango muestral es la diferencia entre el mayor y el menor de los valores observados. Percentiles Los percentiles son una medida de posición que no refleja la tendencia central. Son los noventa y nueve valores de la distribución que la dividen en cien partes, de forma que dentro de cada una están incluidos el 1% de los valores. Para distribuciones no agrupadas en intervalos se calculan previamente las frecuencias acumuladas y se calcula el valor que ocupa la posición s

n

100 de la

distribución.

Page 45: Estadistica Diana

Rango inter cuartíl, iqr Las medidas de dispersión utilizadas se ven muy afectadas por los datos atípicos. El rango intercuartíl es una medida resistente a los datos atípicos, y se define como la longitud del intervalo que contiene el 50% central de los datos.

iqr = q3 – q1

Si iqr es muy pequeño, implica que la mayoría de los datos están en el centro, si por el contrario es grande los datos se distribuyen ampliamente.

REPRESENTACIONES GRÁFICAS Diagrama de barras Un diagrama de barras permite transmitir la información contenida en una tabla de frecuencias para variables estadísticas cualitativas o cuantitativas discretas no agrupadas. ♣ Cada barra tiene la misma anchura. ♣ Cada barra representa una categoría. ♣ Las alturas dependen del número de observaciones por categoría. ♣ El eje vertical representa: frecuencias absolutas, frecuencias relativas o porcentajes.

La utilización de las frecuencias relativas o porcentajes tiene la ventaja de que la escala no dependerá de los datos, puesto que siempre oscilan entre 0 y 1 ó 0 y 100. También se pueden utilizar barras horizontales.

Page 46: Estadistica Diana

Histogramas Un histograma es una representación gráfica de los datos contenidos en una tabla de frecuencias de variables continuas o discretas agrupadas en intervalos. El área de cada barra es proporcional al número de objetos en la categoría o

clase que representa. Es posible utilizar las frecuencias absolutas, relativas o lo porcentajes.

Los histogramas proporcionan mucha información sobre la distribución de los datos. Diagrama de tallo y hojas Los diagramas de tallo y hojas permiten representar la distribución de una variable cuantitativa. Elegir los números que servirán de tallos.

o Para datos con 2 dígitos, se elegirán las decenas. o Para datos con 3 dígitos, se elegirán las decenas y centenas. Cada tallo define una clase y se escribe sólo una vez y el número de hojas representa su frecuencia absoluta.

Etiquetamos las filas con los tallos. Anotamos el dígito que sigue al tallo. Si la utilización del primer o de los dos primeros dígitos no proporciona suficiente información, entonces se pueden utilizar tallos dobles, en la primera rama se representan los valores menores que 5 y en la segundo los mayores. Ejemplo. El tiempo que una persona espera la llegada de un radio taxi

1.0 8.3 3.1 1.1 5.1 1.2 1.0 4.1 1.1 4.0 2.0 1.9 6.3 1.4 1.3 3.3 2.2 2.3 2.1 2.1 1.4 2.7 2.4 3.0 4.1 5.0 2.2 1.2 7.7 1.5

Page 47: Estadistica Diana

Diagrama de tallo y hojas

1 02409211435 2 02723411 3 310 4 101 5 01 6 3 7 7 8 3

Diagrama de cajas El diagrama de cajas es una representación gráfica de un conjunto de datos que facilita la percepción visual de su localización, extensión y del grado y la dirección del sesgo. También permite identificar datos atípicos.

♣ Calcular x~ , q1, q3, iqr. ♣ Determinar los separadores interiores:

f1 = q1 - 1,5 iqr f2 = q3 + 1,5 iqr

♣ Los puntos por debajo de f1 y por encima de f2 se consideran atípicos. ♣ Determinar los valores adyacentes a1 y a3: o a1 es el dato más próximo a f1 sin que esté por debajo de f1. o a3 es el dato más próximo a f2 sin que esté por encima de f2.

♣ Determinar los separadores exteriores F1 = q1 – 2(1,5) iqr F2 = q3 + 2(1,5) iqr

♣ Dibujar en una recta todos los puntos calculados. ♣ Dibujar una caja con q1 y q3. o Una línea en la mediana. o Representar por una “x” los valores a1 y a3. Bigotes – unirlos con una línea discontinua. o Los puntos entre f i y Fi son círculos abiertos, es decir, datos atípicos moderados. o Los puntos fuera de F=[F1, F2] son asteriscos, es decir, datos atípicos extremos.

Page 48: Estadistica Diana

La línea central indica la simetría de la distribución. Si la línea no está centrada la distribución será asimétrica en la dirección del lado más largo.

F1 f1 q1 x~ q3

f2

* *

F2

a3

a1

Page 49: Estadistica Diana

ESTIMACIÓN

ESTIMACIÓN DE PARÁMETROS

La teoría de muestreo puede emplearse para obtener información acerca de

muestras obtenidas aleatoriamente de una población conocida.

Esto nos sirve en la práctica para poder ser capaz de inferir información

acerca de una población a partir de muestras de ella, de ahí su importancia

Los problemas planteados que tenemos sobre los que queremos obtener

conclusiones de su comportamiento y evolución son tratados por la inferencia

estadística que utiliza principios de muestreo.

Un problema importante de la inferencia estadística es la estimación de

parámetros poblacionales o simplemente parámetros (como la media y la

varianza poblacionales)

La ventaja de la media es que es muy fácil de calcular, pero su desventaja es

que es muy sensible a valores extremos, es decir, si la mayoría de los datos se

encuentran alrededor de la media, pero si existe uno o varios valores cargados

hacia uno de los extremos el valor de la media se desplaza hacia ese lado.

La media aritmética es un promedio de los valores observados, mientras que la

mediana es cualquier valor que se encuentre en el promedio de todas las

posiciones de un arreglo ordenado. La mediana es una medida de tendencia

central más apropiada que la media cuando el conjunto de datos contiene unos

pocos valores extremos, altos o bajos.

Page 50: Estadistica Diana

La estimación es un proceso por el que se trata de averiguar un parámetro de

la población representado por una muestra, a partir del valor de un estadístico

llamado estimador y esta representado por .

El problema se resuelve en base al conocimiento de la "distribución muestral"

del estadístico que se use (varianza, desviación estándar, rangos muestrales).

.

Si para cada muestra posible calculamos la media muestral ( ) obtenemos un

valor distinto ( es un estadístico: es una variable aleatoria y sólo depende de

la muestra), habrá por tanto una distribución muestral de medias para .

Varianza de :

ntamañodealeatoriamuetran

ianza

muestralmediaX

nXVar

→→

=

var2

2

σ

σ

La desviación típica de esta distribución se denomina error típico de la media.

Evidentemente, habrá una distribución muestral para cada estadístico, no sólo

para la media, y en consecuencia un error típico para cada estadístico.

Si la distribución muestral de un estadístico estuviera relacionada con algún

parámetro de interés, ese estadístico podría ser un estimador del parámetro.

Así al procedimiento utilizado cuando se quiere conocer las características de

un parámetro poblacional, a partir del conocimiento de la muestra, se denomina

estimación. Hay que tener en cuenta que la población a muestrear es una

población presente, que ya existe en el momento de darse el proceso de lo

contrario se trataría de un pronostico, no de una estimación

Page 51: Estadistica Diana

INTERVALO DE CONFIANZA

Se llama así a un intervalo en el que sabemos que está un parámetro, con un

nivel de confianza específico.

Si se tiene que la media se encuentra en el intervalo (2,8 3,2) con un nivel de

confianza del 95%, lo que se dice es que si se hace muestras de tamaño 40, y

se fueran contabilizando sus medias, en el 95% de los casos, la media calculada

estaría en dicho intervalo.

NIVEL DE CONFIANZA

También se tiene que el porcentaje de intervalos que se puede esperar

contengan el valor real del parámetro, cuando se utilice una y otra vez el mismo

procedimiento de construcción de intervalo, se denomina nivel de confianza.

Es la probabilidad de que el parámetro a estimar se encuentre en el intervalo

de confianza.

Los valores que se suelen utilizar para el nivel de confianza son el 95%, 99% y

99,9%

ERROR DE ESTIMACIÓN MÁXIMO

Es el radio de anchura del intervalo de confianza.

Este valor nos dice en qué margen de la media muestral se encuentra la media

poblacional al nivel de confianza asignado.

Varianza de un estimador

Page 52: Estadistica Diana

Una propiedad importante de un estimador es su varianza (o su raíz cuadrada,

la desviación estándar).

La importancia de la desviación estándar es que permite darle un sentido

numérico a la cercanía del valor del estimador a su valor esperado.

Entonces entre menor sea la desviación estándar (o la varianza) de

un

estimador, será más probable que su valor en una muestra específica se

encuentre mas cerca del valor esperado.

Bien si se considera T1 y T2 dos estimadores en la que ambos son insesgados y

que la varianza de T1 es menor que la de T2. ¿Qué quiere decir esto? Que en

un entorno fijo del valor del parámetro, los valores de T1 son más probables

que los de T2. O sea que vamos a encontrar a T1 más cerca del valor del

parámetro que a T2. Esto hace que las preferencias estén con T1.

Cuando un estimador tiene una varianza menor que otro se entiende que el

estimador es más eficiente.

Una estimación de un parámetro de la población dada por un solo número se

llama una estimación de punto del parámetro, se utiliza cuando el parámetro

poblacional como ya se mencionó se expresa en un sólo valor numérico, por

ejemplo, el tiempo máximo para que los estudiantes completen un examen de

matemáticas, el cual es de 2 hora

Una estimación de un parámetro de la población dada por dos puntos, entre los

cuales se pueden considerar encajado al parámetro, se llama una estimación del

intervalo del parámetro.

Page 53: Estadistica Diana

Ejemplo:

Un fabricante indica que una resistencia de 1 KΩ tiene una precisión de ± 0.5,

el fabricante esta dando una estimación por intervalo.

El margen de error o la percepción de una estimación, nos informa su

fiabilidad.

En general, las estimaciones de intervalo, que indican la precisión de una

estimación, las prefieren más que a las estimaciones de punto.

Para construir un intervalo, hay que hacer que la estimación puntual sea el

centro del intervalo y se crea un intervalo arriba y uno abajo del centro por

medio del error estándar del estimador, éste último es la desviación estándar

de la distribución muestral del estimador. Así se logra que el parámetro

desconocido supuestamente esté dentro de ese intervalo, mas no

necesariamente en su centro.