probabilidad y estadstica1 (1).doc

134
PROBABILIDAD Y ESTADÍSTICA UNIDAD I. TEORÍA DE LA PROBABILIDAD 1.1 Conjuntos, sus operaciones, leyes y su representación Definición de conjunto Por Extensión y por Comprensión Un conjunto queda perfectamente definido si se conocen con exactitud los elementos que lo integran o que pertenecen a él; es decir, si se nombran todos sus elementos o bien si se usa un enunciado o propiedad que lo identifique. Independientemente de la forma en que se lo represente, siempre se usa una letra mayúscula que lo define. Esta letra mayúscula representa a un conjunto específico de elementos. Existen dos maneras de definir un conjunto dado: a) Por extensión o enumeración: se define nombrando a cada elemento del conjunto. Por comprensión: se define mediante un enunciado o atributo que representa al conjunto (se busca una frase que represente a la totalidad de elementos sin nombrar a ninguno en particular). Por comprensión Por extensión A = {Números dígitos} A = {0, 1, 2, 3, 4, 5, 6, 7, 8, 9} B = {Números pares] B = {2, 4, 6, 8, 10, 12, 14, ...} C = {Múltiplos de 5} C = {5, 10, 15, 20, 25, 30, 35...}

Upload: oovat

Post on 06-Dec-2014

150 views

Category:

Documents


7 download

TRANSCRIPT

Page 1: Probabilidad y estadstica1 (1).doc

PROBABILIDAD Y ESTADÍSTICA

UNIDAD I. TEORÍA DE LA PROBABILIDAD

1.1Conjuntos, sus operaciones, leyes y su representación

Definición de conjunto

Por Extensión y por Comprensión

Un conjunto queda perfectamente definido si se conocen con exactitud los elementos que lo integran o que pertenecen a él; es decir, si se nombran todos sus elementos o bien si se usa un enunciado o propiedad que lo identifique. Independientemente de la forma en que se lo represente, siempre se usa una letra mayúscula que lo define. Esta letra mayúscula representa a un conjunto específico de elementos.

Existen dos maneras de definir un conjunto dado:

a) Por extensión o enumeración: se define nombrando a cada elemento del conjunto.

Por comprensión: se define mediante un enunciado o atributo que representa al conjunto (se busca una frase que represente a la totalidad de elementos sin nombrar a ninguno en particular).

Por comprensión Por extensión

A = {Números dígitos} A = {0, 1, 2, 3, 4, 5, 6, 7, 8, 9}

B = {Números pares] B = {2, 4, 6, 8, 10, 12, 14, ...}

C = {Múltiplos de 5} C = {5, 10, 15, 20, 25, 30, 35...}

Diagrama de Venn y entre llaves.

Es habitual representar los conjuntos en forma gráfica mediante los Diagramas de Venn.

En estos diagramas el conjunto se representa mediante una superficie limitada por una línea. En su interior se colocan los elementos del conjunto. Cada porción del plano limitada se nombra con una letra mayúscula.

Page 2: Probabilidad y estadstica1 (1).doc

 

El conjunto A está formado por los elementos 1, 2, 3.

El conjunto B está formado por los elementos a, b, c, d.

Existe, además, otra forma de representarlos que es entre llaves.

En estos ejemplos se escribe:

A = {1, 2, 3}

B = {a, b, c, d}

 

Otro ejemplo:

Por diagrama Entre llaves

S = {a, e, i, o, u}

Se escribe una coma para separar los elementos.

Conjunto Disjunto, Conjunto Subconjunto

1) Conjuntos disjuntos: Son aquellos conjuntos que no tienen elementos en común.

Por ejemplo:              

El conjunto A tiene como elementos a los números 1, 2 y 3. El conjunto B tiene como elementos a las letras a, b, c y d. No hay elementos comunes entre los

Page 3: Probabilidad y estadstica1 (1).doc

conjuntos A y B. En otras palabras, ningún elemento del conjunto A pertenece al conjunto B; a su vez, ningún elemento de B pertenece al conjunto A.

En consecuencia, los conjuntos A y B son disjuntos.

  Tomando otro ejemplo:

Si  E = { pizarrón, tiza, borrador} (Conjunto E formado por pizarrón, tiza, borrador)

     F =  { tiza, profesor, regla}   (Conjunto F formado por tiza, profesor, regla)

G = { niño, cuaderno, sala, lápiz } (Conjunto G formado por niño, cuaderno, sala, lápiz)

E y G son conjuntos disjuntos porque: pizarrón, tiza, borrador no pertenecen al conjunto G.  

E y F no son disjuntos ya que  tiza pertenece a  E y también a  F.

F y G son conjuntos disjuntos porque: tiza, profesor, regla no pertenecen a G, y niño, cuaderno, sala, lápiz no pertenecen a F.

2) Conjunto Subconjunto: Un conjunto es subconjunto de otro si todos los elementos de un conjunto también pertenecen al otro.

Si se tienen los siguientes conjuntos:

P = { a, e, i, o, u }                 y                    R = { a, i } 

R es subconjunto de P porque todos los elementos de R están en P.

En general, para expresar que un conjunto es subconjunto de otro conjunto se

pone entre ellos el símbolo  . En este ejemplo se escribe:

R   P

Se lee “ R es subconjunto de P”

no es subconjunto de otro cuando al menos un elemento del primero no pertenece al segundo conjunto. El símbolo que representa la frase “no es subconjunto de“ es

.

Si se tienen los siguientes conjuntos:

C =  { 3, 5, 7, 9 }                 y                   H =  { 3, 5, 8  }

Page 4: Probabilidad y estadstica1 (1).doc

H no es subconjunto de C porque el elemento 8 no pertenece al conjunto C. Se escribe:

H    C

Se lee “ H no es subconjunto de C”

           También los subconjuntos pueden representarse mediante Diagramas de Venn.

Ejemplo:

         S      C

Propiedades de la relación subconjunto

1.- Todo conjunto es subconjunto de sí mismo.

                    Si   T =  { x, z, y, z  }, se tiene que  T  T

2.- El conjunto vacío es subconjunto de cualquier conjunto (el conjunto vacío es aquel que no tiene elementos; se representa por: { } o bien por Ø

Si se tiene el conjunto B se puede establecer que   Ø    T

Relaciones entre conjuntos

Sean los conjuntos

 A =  { 5, 7 }

B = { 3, 5, 7, 9 }

Los elementos 5 y 7 forman parte del conjunto A.

Page 5: Probabilidad y estadstica1 (1).doc

En otras palabras, los elementos 5 y 7 pertenecen ( ) al conjunto A.

                                                           5    A     y    7    A

Los elementos 3, 5, 7, 9 forman parte del conjunto B, es decir, pertenecen al conjunto B

                   3    B                 5 B                  7  B                  9    B

Se puede observar, además, en el diagrama, que los elementos del conjunto A están incluidos dentro del conjunto B; por lo tanto, dichos elementos también pertenecen al conjunto B.

En otras palabras, A es subconjunto de B.

                                                 A    B

Operaciones entre conjuntos

Intersección de conjuntos ( ) La intersección entre dos o más conjuntos es otro conjunto formado por los elementos comunes a ellos; es decir, a los elementos comunes o repetidos de ambos conjuntos A y B.

La intersección se simboliza con el signo y se coloca entre las letras que representan a cada conjunto.

                                          

Conjunto A = {3, 8, 24}

Conjunto B = {13, 7, 8, 12}

Page 6: Probabilidad y estadstica1 (1).doc

Los elementos que se repiten entre A y B son: 3 y 8. Estos elementos se anotan en la parte de color amarillo pues representa el lugar común entre ambos conjuntos.

Otro ejemplo:                             

B =  { a, b, c, d, e, f }

C =  { a, d, f, g, h }

B    C  = { a, d, f }

En el diagrama de Venn la parte ennegrecida representa la intersección de B y C.

Unión de conjuntos: La unión de dos o más conjuntos es otro conjunto formado por los elementos que pertenecen a uno u otro conjunto o a ambos. La unión se

representa por el símbolo Si un elemento está repetido, se coloca una sola vez.

 

Cuando no hay elementos comunes o repetidos (esquema 1) se anotan todos los elementos en un solo conjunto (una sola figura cerrada):

A B = {2, 3, 4, 5, 6, 7}.

 

Si hay elementos repetidos, éstos se anotan en   la zona común a ambos conjuntos (esquema 2), donde se juntan ambas figuras cerradas:

W Z = {9, 6, 8, 5, 7}.

La cardinalidad de un conjunto se representa con el símbolo # y corresponde al número de elementos que tiene el conjunto.

Ejemplos:

Page 7: Probabilidad y estadstica1 (1).doc

W  =  { $, %, &, /, ª  }      El conjunto W está integrado por 5 elementos, por lo tanto, su cardinalidad es 5 (  #  =  5 )

Q =

El conjunto Q está formado por 3 elementos

                # Q =  3

K = El conjunto K tiene un elemento

               # K= 1          

Conjuntos equivalentes              

Son aquellos que tienen igual cardinalidad, es decir, igual número de elementos.

T = {   ,      ,     } 

#  T  =   3

P = {  a, b, c  }  #  P  =   3

Los conjuntos T y P son equivalentes porque tienen la misma cardinalidad.

Conjuntos iguales

Son todos aquellos conjuntos que tienen elementos iguales. Los elementos de un conjunto también pertenecen al mismo conjunto.

Ejemplo:

      D                        F                  D  =   F

 Los conjuntos D  y  F  son iguales porque tienen el mismo elemento. A veces pueden estar desordenados los elementos cuando son más de uno, en tal caso, debe recordarse que en un conjunto no importa el orden en que estén los elementos.

Conjunto universo

Page 8: Probabilidad y estadstica1 (1).doc

En el Diagrama de Venn de la izquierda se puede observar que el conjunto U contiene a los conjuntos M y N. U es el conjunto universo porque es un conjunto que contiene a todos los conjuntos.

Otro ejemplo:

Sea  Y  =   { enero, febrero }  ;    Ñ  =  { marzo, junio, agosto }

El conjunto universo será:              U  =  {  meses del año }     

1.2Probabilidad de eventos aleatorios

Probabilidad de eventos

Para calcular la probabilidad de eventos es necesario que éstos se comporten de una maner más o menos estable. Precisamente, se echa mano de la regularidad estadística, que es la propiedad de los fenómenos aleatorios, y que consiste en que al aumentar el número de repeticiones de un experimento en condiciones prácticamente constantes, la frecuencia relativa de ocurrencia para cada evento tiende a un valor fijo.

Sin embargo, al momento de definir la probabilidad de un evento podemos tomar en cuenta los siguientes criterios:

1. La probabilidad subjetiva de un evento se la asigna la persona que hace el estudio, y depende del conocimiento que esta persona tenga sobre el tema. Precisamente por su carácter de subjetividad no se considera con validez científica, aunque en la vida diaria es de las más comúnes que se utilizan al no apoyarse más que en el sentido común y los conocimientos previos, y no en resultados estadísticos.

2. La probabilidad frecuencial de un evento es el valor fijo al que tienden las frecuencias relativas de ocurrencia del evento de acuerdo a la regularidad estadística. Esta definición sería la más real, pero proporciona probabilidades aproximadas, es decir, proporciona estimaciones y no valores reales. Además, los resultados son a posteriori, pues se necesita realizar el experimento para poder obtenerlo. (Para ver un ejemplo haz click aquí.)

3. La probabilidad clásica de un evento E, que denotaremos por P(E), se define como el número de eventos elementales que componen al evento E,

Page 9: Probabilidad y estadstica1 (1).doc

entre el número de eventos elementales que componen el espacio muestral:

Es la definición más utilizada porque supone de antemano, y se necesita como requisito indispensable, que todos los eventos elementales tienen la misma probabilidad de ocurrir.

Axiomas de la probabilidad

Recordemos primero que las frecuencias relativas de una distribución tenían las siguientes propiedades:

1. Las frecuencias relativas son mayores o iguales que cero. 2. La frecuencia relativa del espacio muestral es igual a la unidad. 3. Si dos eventos son mutuamente excluyentes, es decir que no ocurren

simultáneamente, entonces la frecuencia relativa de su unión es la suma de las frecuencias relativas de cada uno.

Tomando en cuenta que la probabilidad de un evento, de acuerdo a la definición ya expuesta, es la frecuencia relativa cuando se aumenta el tamaño de la muestra, se tienen lo siguiente.

Si E es un evento de un espacio muestral S y P(E) es la probabilidad de E, entonces se satisfacen los axiomas de la probabilidad:

1. 0 P(E)1. 2. P(S) = 1. 3. Si E1, E2, ... , En son eventos mutuamente excluyentes, entonces

Con estos axiomas podremos tratar algunas de las propiedades de la probabilidad de eventos.

Posibilidades y probabilidades

Se habla muy comúnmente en sitios de apuestas, como en las autódromos o hipódromos, de que "las apuestas a tal o cual participante es de x a y", es decir, que las posibilidades de que gane es de x a y. Esta manera de expresarse se refiere al uso de razones.

Page 10: Probabilidad y estadstica1 (1).doc

En términos generales, la posibilidad de que ocurra un evento se determina mediante la razón de la probabilidad de que ocurra a la probabilidad de que no ocurra.

Esto quiere decir que si la probabilidad de que un evento ocurra es p, entonces las posibilidades de que ocurra son x a y, es decir

Tales que x y y son enteros positivos.

Por ejemplo: Si se tiran dos monedas normales (no trucadas), la probabilidad de que las dos monedas caigan cara es de ¼. Esto quiere decir si alguien apuesta a que las dos monedas no caen simultáneamente en cara, la posibilidad de ganar la apuesta es de

es decir, 3 a 1.

Hemos de considerar que si es mayor la probabilidad de que no ocurra un evento, entonces se acostumbra mencionar las posibilidades en contra del evento.

Por ejemplo: Si se tira un dado no trucado, sabemos que la probabilidad de obtener un cuatro es 1/6, es decir que la posibilidad de obtener un cuatro es de 1 a 6; pero se acostumbra decir que las posibilidades en contra, esto es, de no obtener un cuatro es de 6 a 1.

Inversamente, en el caso de tener las posibilidades de un evento, entonces es fácil obtener su probabilidad, pues si la posibilidad de un evento es de x a y, entonces la probabilidad p de que ocurra tal evento es

Por ejemplo: En la Copa Mundial de Futbol Francia 1998 se decía que el equipo mexicano tenía una posibilidad de 1 a 75 de llegar a ser el campeón del torneo.

Si se desea encontrar la probabilidad de que el equipo mexicano llegase a ser campeón, entonces se tiene que

Page 11: Probabilidad y estadstica1 (1).doc

es la probabilidad de que ocurriese el evento.

Esto tiene la ventaja de que permite, en combinación con el tercer axioma de la probabilidad, medir la confiabilidad que tienen las opiniones de las personas sobre las posibilidades que le asignan a algunos eventos. Esto quiere decir que el cálculo de las probabilidades de dos eventos mutuamente excluyentes a partir de las posibilidades otorgadas de manera subjetiva resulta como un criterio de consistencia.

Por ejemplo: Un criminólogo piensa que las posibilidades de que en la próxima semana la cantidad de delitos en una ciudad aumente con respecto a la anterior es de 5 a 2, de que sea la misma cantidad de delitos es de 1 a 3 y las posibilidades de que aumente la cantidad o sea la misma es de 7 a 4.

Si se desea saber si son consistentes las probabilidades correspondientes habría que hacer los cálculos.

Las probabilidades de aumente la cantidad de delitos, sea igual la cantidad de delitos, y de que aumente o sea igual la cantidad de delitos es, respectivamente, de

y dado que (como son eventos mutuamente excluyentes) no es lo mismo que 7/11, entonces los criterios del criminólogo pueden ser cuestionados.

Propiedades de la probabilidad de eventos no elementales

Cuando se tienen eventos elementales no existe mucho problema en el sentido del cálculo de las probabilidades, pues basta con una contabilización o el uso directo del cálculo combinatorio. Pero en el caso de eventos no elementales, que son los compuestos por más de un evento elemental, el proceder de manera análoga resulta muy complejo y las operaciones pueden sobrepasar la capacidad de cálculo existente. Sin embargo, utilizando los axiomas de la probabilidad y las siguientes propiedades, se podrán expresar las probabilidades de estos eventos en términos de los eventos elementales que lo componen, siempre y cuando se conozcan las probabilidades de éstos.

Veamos la probabilidad de una unión de eventos, la cual la podremos calcular de la siguiente manera:

Propiedad 1. Si A y B son dos eventos, la probabilidad de que ocurra A o B es igual a la suma de las probabilidades de ocurrencia de A y de B, menos la probabilidad de que ocurran A y B simultáneamente. Es decir,

Page 12: Probabilidad y estadstica1 (1).doc

P(AB) = P(A) + P(B) - P(AB)

Ahora, si el caso es que los eventos sean mutuamente excluyentes se tiene:

Propiedad 2. Si dos eventos, A y B, son mutuamente excluyentes entonces la probabilidad de que ocurra A o B es igual a la suma de las probabilidades de ocurrencia de A y de B. Es decir

P(AB) = P(A) + P(B)

Otra propiedad que se deriva de las anteriores es cuando se busca la probabilidad del complemento de un evento E, que denotaremos como ~E:

Propiedad 3. Si E es un evento y ~E su complemento, entonces

P(~E) = 1 - P(E)

Retomando los conceptos de eventos dependientes o condicionales, se va a definir la probabilidad condicional como sigue:

Propiedad 4. La probabilidad de que ocurra un evento A dado que ocurrió el evento B (el evento A depende del evento B), denotado P(A|B), es:

Hay que notar que esta propiedad no es conmutativa, situación que sí ocurre con la probabilidad de unión o la intersección de eventos, por lo que no hay que confundir P(A|B) y P(B|A).

Finalmente, el criterio para la independencia de eventos queda como sigue:

Propiedad 5. Dos eventos A y B son independientes si y sólo si

P(A|B) = P(A) y P(B|A) = P(B)o, que es lo mismo:P(AB) = P(A) · P(B)

1.3Espacio muestral y eventos

Page 13: Probabilidad y estadstica1 (1).doc

Modelos:Modelo determinista: designamos así al modelo que estipula que las condiciones en las que se verifica un experimento determinan el resultado del mismo. El modelo señala que las condiciones en las cuales se verifican ciertos fenómenos determinan el valor de ciertas variables observables: la magnitud de la velocidad, el área recurrida durante un cierto tiempo, etc.Modelo no determinista (o probabilístico o estocástico): en este modelo las condiciones experimentales solo determinan el comportamiento probabilístico (la distribución probabilística) de los resultados observables. Usamos consideraciones específicas para especificar una distribución de probabilidades.Características de un experimento aleatorio: Es posible repetir cada experimento en forma indefinida sin cambiar esencialmente las condiciones. Aunque en general no podemos especificar cual será el resultado particular, podemos describir el conjunto de todos los resultados posibles del experimento. Cuando el experimento se repite un gran número de veces, aparece un patrón definido o regularidad. Esta regularidad hace posible la construcción de un modelo preciso con el cual podemos analizar el experimento.Espacio muestral:Para cada experimento E definimos el espacio muestral como el conjunto de todos los resultados posibles de E. Usualmente se designa este conjunto como S.El espacio muestral, de acuerdo con el número de resultados posibles, puede ser: finito, infinito numerable, infinito no numerable.Eventos:Un evento A (respecto a un espacio muestral particular S asociado a un experimento E) es simplemente un conjuno de resultados posibles. En terminología de conjuntos, un evento es un subconjunto del espacio muestral S. Esto implica que S tambien es un evento asi como lo es el conjunto vacio. Cualquier resultado individual tambien puede considerarse como un evento.Se dice que dos eventos A y B, son mutuamente excluyentes si no pueden ocurrir juntos. Expresamos esto escribiendo IMAGEN; es decir, la intersección de A y B es el conjunto vacío.Frecuencia relativa:Supongamos que repetimos n veces el experimento E, y sean A y B dos eventos asociados con E. Sean nA y nB el número de veces que el evento A y el B (respectivamente) ocurrieron en las n repeticiones. Entonces, definimos fA = nA / n como la frecuencia relativa del evento A en las n repeticiones de E.La frecuencia relativa fA tiene las siguientes propiedades: 0 fA 1 fA = 1 si y sólo si A ocurre cada vez en las n repeticiones. fA = 0 si y sólo si A nunca ocurre en las n repeticiones. Si A y B son dos eventos mutuamente excluyentes, y si f(A U B) es la frecuencia relativa asociada al evento A U B, entonces f(A U B) = fA + fB.

Page 14: Probabilidad y estadstica1 (1).doc

fA, basada en la n repeticiones del experimento y considerada para una función de n, "converge" en cierto sentido probabilístico a P(A) cuando n-->+oo. (Esto NO es lo mismo que el concepto corriente de convergencia que se encuentra en otra parte en matematicas. En realidad, ésta no es una conclusión matemática, sino simplemente un hecho empírico.) Lo importante de esta propiedad es que si un experimento se realiza un gran número de veces, la frecuencia relativa con que ocurre un evento A tiende a variar cada vez menos a medida que el número de repeticiones aumenta. A esta característica se la conoce como regularidad estadística.Nociones básicas de probabilidad:Sea E un experimento y S un espacio muestral asociado con E. Con cada evento A asociamos un número real, designado con P(A) y llamado probabilidad de A, el cual satisface las siguientes propiedades: 0 P(A) 1 P(S) = 1 i A y B son dos eventos mutuamente excluyentes, P(A U B) = P(A) + P(B) Si X es el conjunto vacio, entonces P(X) = 0 Si AC es el evento complementario de A, entonces P(A) = 1 - P(AC) Si A y B son dos eventos cualesquiera, entonces P(A U B) = P(A) + P(B) - P(A IMAGEN C) Si A B, entonces P(A) P(B)

1.4 Definición clásica de la probabilidad

Page 15: Probabilidad y estadstica1 (1).doc

El concepto de Probabilidad ha evolucionado en el transcurso del tiempo. La probabilidad nació en el juego y es jugando como mejor se aprende la probabilidad. A los aljebristas del siglo XVI, Pacioli, Cardano, Tartaglia, se deben las primeras consideraciones matemáticas profundas a propósito de los juegos de azar. Los fundamentos del cálculo de probabilidades surgen alrededor del año 1650, cuando sugerido por los juegos de dados, de cartas, del lanzamiento de una moneda, se planteó el debate de determinar la probabilidad de ganar la partida. Fermat y Pascal, esquematizado el tema propuesto (ver primer problema), dieron en 1654 la primera definición de probabilidad. Se aceptaba como intuitivo el concepto de equiprobabilidad, se admitía que la probabilidad de conseguir un acontecimiento fuese igual al cociente entre el número de casos favorables y el de casos posibles. El cálculo de probabilidades tuvo un notable desarrollo sobre la base de la anterior definición de probabilidad. Destacan en 1713 el teorema de Bernoulli y la distribución binomial, y en 1738 el primer caso particular estudiado por De Moivre, del teorema central del límite. En 1809 Gauss inició el estudio de la teoría de errores y en 1810 Laplace, que había considerado anteriormente el tema, completó el desarrollo de esta teoría.  

A mediados del siglo  XIX, un fraile agustino austríaco, Gregor Mendel, inició el estudio de la herencia, la genética, con sus interesantes experimentos sobre el cruce de plantas de diferentes características. Su obra, La matemática de la Herencia, fue una de las primeras aplicaciones importantes de la teoría de probabilidad a las ciencias naturales.

1.5 Definición en base a la frecuencia relativa

Probabilidad de eventos

Para calcular la probabilidad de eventos es necesario que éstos se comporten de una maner más o menos estable. Precisamente, se echa mano de la regularidad estadística, que es la propiedad de los fenómenos aleatorios, y que consiste en que al aumentar el número de repeticiones de un experimento en condiciones prácticamente constantes, la frecuencia relativa de ocurrencia para cada evento tiende a un valor fijo.

Sin embargo, al momento de definir la probabilidad de un evento podemos tomar en cuenta los siguientes criterios:

1. La probabilidad subjetiva de un evento se la asigna la persona que hace el estudio, y depende del conocimiento que esta persona tenga sobre el tema. Precisamente por su carácter de subjetividad no se considera con validez científica, aunque en la vida diaria es de las más comúnes que se utilizan al no apoyarse más que en el sentido común y los conocimientos previos, y no en resultados estadísticos.

Page 16: Probabilidad y estadstica1 (1).doc

2. La probabilidad frecuencial de un evento es el valor fijo al que tienden las frecuencias relativas de ocurrencia del evento de acuerdo a la regularidad estadística. Esta definición sería la más real, pero proporciona probabilidades aproximadas, es decir, proporciona estimaciones y no valores reales. Además, los resultados son a posteriori, pues se necesita realizar el experimento para poder obtenerlo. (Para ver un ejemplo haz click aquí.)

3. La probabilidad clásica de un evento E, que denotaremos por P(E), se define como el número de eventos elementales que componen al evento E, entre el número de eventos elementales que componen el espacio muestral:

Es la definición más utilizada porque supone de antemano, y se necesita como requisito indispensable, que todos los eventos elementales tienen la misma probabilidad de ocurrir.

1.6 Definición axiomatica de la probabilidad

Axiomas de la probabilidad

Recordemos primero que las frecuencias relativas de una distribución tenían las siguientes propiedades:

1. Las frecuencias relativas son mayores o iguales que cero. 2. La frecuencia relativa del espacio muestral es igual a la unidad. 3. Si dos eventos son mutuamente excluyentes, es decir que no ocurren

simultáneamente, entonces la frecuencia relativa de su unión es la suma de las frecuencias relativas de cada uno.

Tomando en cuenta que la probabilidad de un evento, de acuerdo a la definición ya expuesta, es la frecuencia relativa cuando se aumenta el tamaño de la muestra, se tienen lo siguiente.

Si E es un evento de un espacio muestral S y P(E) es la probabilidad de E, entonces se satisfacen los axiomas de la probabilidad:

1. 0 P(E)1. 2. P(S) = 1. 3. Si E1, E2, ... , En son eventos mutuamente excluyentes, entonces

Page 17: Probabilidad y estadstica1 (1).doc

Con estos axiomas podremos tratar algunas de las propiedades de la probabilidad de eventos.

Para hacer una definición rigurosa de la probabilidad, necesitamos precisar ciertas leyes o axiomas que deba cumplir una función de probabilidad. Intuitivamente estos axiomas deberían implicar, entre otras, las siguientes cuestiones, que nos parecen lógicas en términos de lo que se puede esperar de una función de probabilidad:

La probabilidad sólo puede tomar valores comprendidos entre 0 y 1(no

puede haber sucesos cuya probabilidad de ocurrir sea del ni del ;

La probabilidad del suceso seguro es 1, es decir, el ; La probabilidad del suceso imposible debe ser 0. La probabilidad de la intersección de dos sucesos debe ser menor o igual

que la probabilidad de cada uno de los sucesos por separado, es decir,

La probabilidad de la unión de sucesos debe ser mayor que la de cada uno de los sucesos por separado:

Page 18: Probabilidad y estadstica1 (1).doc

Más aún, si los sucesos son disjuntos (incompatibles) debe ocurrir que

La probabilidad del suceso contrario de A, debe valer . Esto en realidad puede deducirse del siguiente razonamiento:

En las últimas líneas hemos esbozado ciertas propiedades que debería cumplir una función que queramos llamar probabilidad. Hemos de tener en cuenta entonces que siguiendo esos puntos:

1. La función de probabilidad debe calcularse sobre subconjuntos de E. No es estrictamente necesario que sean todos, pero si es necesario que si se puede calcular sobre un conjunto, lo pueda ser también sobre su complementario, y que si se puede calcular sobre dos conjuntos A y B, que también se pueda calcular sobre su unión y su intersección. Para ello introduciremos el concepto de -álgebra de sucesos, que será una clase de subconjuntos de Esobre los que podamos aplicar las reglas de la probabilidad.

2. Entre las leyes que debe cumplir una función de probabilidad y que hemos escrito antes, hemos observado que algunas son redundantes, ya que se

Page 19: Probabilidad y estadstica1 (1).doc

pueden deducir de las demás. Con la definición axiomática de la probabilidad pretendemos dar el menor conjunto posible de estas reglas, para que las demás se deduzcan como una simple consecuencia de ellas.

Precisemos entonces los conceptos de -álgebra de sucesos y de probabilidad.

1.7 Diagramas de árbol

Tablas de contingencia y diagramas de árbol.

En los problemas de probabilidad y en especial en los de probabilidad condicionada, resulta interesante y práctico organizar la información en una tabla de contingencia o en un diagrama de árbol.Las tablas de contingencia y los diagramas de árbol están íntimamente relacionados, dado uno de ellos podemos construir el otro. Unas veces, los datos del problema permiten construir fácilmente uno de ellos y a partir de él podemos construir el otro, que nos ayudará en la resolución del problema.

Conversión de una tabla en diagrama de árbol

Las tablas de contingencia están referidas a dos características que presentan cada una dos o más sucesos.

En el caso de los sucesos A, , B y , expresados en frecuencias absolutas, relativas o probabilidades la tabla, adopta la forma adjunta.

Dicha tabla adopta la forma del diagrama de árbol del dibujo. En éste, a

cada uno de los sucesos A y se les ha asociado los sucesos B y .

A TOTAL

B P( A B ) P( B ) P( B )

P( A ) P( ) P( )

TOTAL P( A ) P( ) 1

Page 20: Probabilidad y estadstica1 (1).doc

Sobre las ramas del diagrama de árbol se han anotado las probabilidades condicionadas correspondientes, deducidas de las relaciones análogas a:

Conversión de un diagrama en tabla de contingencia

De manera recíproca, dado el diagrama de árbol podemos construir la tabla de contingencia equivalente si más que utilizar la expresión

P( B A ) = P( B/A ) · P( A ),

para calcular las probabilidades de las intersecciones de sucesos que forman la tabla.

1.8 permutaciones y combinaciones

Análisis combinatorio

En ocasiones el trabajo de enumerar los posibles sucesos que ocurren en una situación dada se convierte en algo difícil de lograr o, simplemente, tedioso. El análisis combinatorio, o cálculo combinatorio, permite enumerar tales casos o sucesos y así obtener la probabilidad de eventos más complejos.

Page 21: Probabilidad y estadstica1 (1).doc

En el caso de que existan más de un suceso a observar, habría que contar el número de veces que pueden ocurrir todos los sucesos que se desean observar, para ello se utiliza el principio fundamental de conteo:

Si un suceso se puede presentar de n1 formas, y otro se puede presentar de n2

formas, entonces el número de formas en que ambos sucesos pueden presentarse en ese orden es de n1·n2.

En otras palabras, basta multiplicar el número de formas en que se pueden presentar cada uno de los sucesos a observar.

Este principio nos remite automáticamente al factorial de un número natural, que se puede pensar como una función con dominio los números naturales junto con el cero y codominio los números naturales. El factorial de un número n, denotado n!, se define como:

Ahora, n es muy grande el proceso de cálculo se vuelve tedioso y muy cargado, incluso para una computadora, por lo que se utiliza la aproximación de Stirling a n!:

donde e2.71828..., que es la base de los logaritmos neperianos.

En Excel existe la función FACT( n ) que calcula el factorial de un número entero no negativo n.

 

En el análisis combinatorio se definen las permutaciones, con o sin repetición, y las combinaciones.

Permutaciones (u ordenaciones) con repetición

Las permutaciones son también conocidas como ordenaciones, y de hecho toman este nombre porque son ordenaciones de r objetos de n dados. En este curso las representaremos como ORn

r ó nORr.

Por ejemplo: Sea A={a,b,c,d}, ¿cuántas "palabras" de dos letras se pueden obtener?

Page 22: Probabilidad y estadstica1 (1).doc

Se pide formar permutaciones u ordenaciones de 2 letras, cuando el total de letras es 4. En este caso r=2 y n=4.

Las "palabras" formadas son: aa, ab, ac, ad, ba, bb, bc, bd, ca, cb, cc, cd, da, db, dc, dd. En total son 16.

En general, si se toman r objetos de n, la cantidad de permutaciones u ordenaciones con repetición obtenidas son:

ORnr = nORr = n r

Permutaciones (u ordenaciones) sin repetición

En este caso, a diferencia del anterior, se realizan ordenaciones de r objetos de n dados atendiendo a la situación de cada objeto en la ordenación. Su representación será Pn

r ó nPr.

Por ejemplo: Sea el mismo conjunto A={a,b,c,d}, ¿cuántas ordenaciones sin repetición se pueden obtener?

Lo que resulta es: ab, ac, ad, ba, bc, bd, ca, cb, cd, da, db, dc. Son 12 en total.

En general, si se toman r objetos de un total de n, la cantidad de permutaciones

Pnr = nPr =

El Excel cuenta con la función PERMUTACIONES( n , r ) que realiza el cálculo.

Combinaciones

Es una selección de r objetos de n dados sin atender a la ordenación de los mismos. Es decir, es la obtención de subcojuntos, de r elementos cada uno, a

partir de un conjunto inicial de n elementos. La denotaremos con Cnr, nCr ó .

Por ejemplo: Si tomamos el mismo conjunto A={a,b,c,d}, ¿cuántos subconjuntos de 2 elementos cada uno se pueden obtener?

Page 23: Probabilidad y estadstica1 (1).doc

Haciéndolos se obtienen: {a,b}, {a,c}, {a,d}, {b,c}, {b,d}, {c,d}. Son seis los subconjuntos.

En general, si de n objetos dados se hacen combinaciones de r objetos cada una, el número de combinaciones obtenidas son:

Cnr = nCr =

o, que es lo mismo,

Cnr = nCr =

En Excel la función COMBINAT( n , r ) calcula las combinaciones de n objetos tomando r de ellos.

1.9 Probabilidad condicional e independencia

Posibilidades y probabilidades

Se habla muy comúnmente en sitios de apuestas, como en las autódromos o hipódromos, de que "las apuestas a tal o cual participante es de x a y", es decir, que las posibilidades de que gane es de x a y. Esta manera de expresarse se refiere al uso de razones.

En términos generales, la posibilidad de que ocurra un evento se determina mediante la razón de la probabilidad de que ocurra a la probabilidad de que no ocurra.

Esto quiere decir que si la probabilidad de que un evento ocurra es p, entonces las posibilidades de que ocurra son x a y, es decir

Tales que x y y son enteros positivos.

Por ejemplo: Si se tiran dos monedas normales (no trucadas), la probabilidad de que las dos monedas caigan cara es de ¼. Esto quiere decir si alguien apuesta a

Page 24: Probabilidad y estadstica1 (1).doc

que las dos monedas no caen simultáneamente en cara, la posibilidad de ganar la apuesta es de

es decir, 3 a 1.

Hemos de considerar que si es mayor la probabilidad de que no ocurra un evento, entonces se acostumbra mencionar las posibilidades en contra del evento.

Por ejemplo: Si se tira un dado no trucado, sabemos que la probabilidad de obtener un cuatro es 1/6, es decir que la posibilidad de obtener un cuatro es de 1 a 6; pero se acostumbra decir que las posibilidades en contra, esto es, de no obtener un cuatro es de 6 a 1.

Inversamente, en el caso de tener las posibilidades de un evento, entonces es fácil obtener su probabilidad, pues si la posibilidad de un evento es de x a y, entonces la probabilidad p de que ocurra tal evento es

Por ejemplo: En la Copa Mundial de Futbol Francia 1998 se decía que el equipo mexicano tenía una posibilidad de 1 a 75 de llegar a ser el campeón del torneo.

Si se desea encontrar la probabilidad de que el equipo mexicano llegase a ser campeón, entonces se tiene que

es la probabilidad de que ocurriese el evento.

Esto tiene la ventaja de que permite, en combinación con el tercer axioma de la probabilidad, medir la confiabilidad que tienen las opiniones de las personas sobre las posibilidades que le asignan a algunos eventos. Esto quiere decir que el cálculo de las probabilidades de dos eventos mutuamente excluyentes a partir de las posibilidades otorgadas de manera subjetiva resulta como un criterio de consistencia.

Por ejemplo: Un criminólogo piensa que las posibilidades de que en la próxima semana la cantidad de delitos en una ciudad aumente con respecto a la anterior es de 5 a 2, de que sea la misma cantidad de delitos es de 1 a 3 y las posibilidades de que aumente la cantidad o sea la misma es de 7 a 4.

Page 25: Probabilidad y estadstica1 (1).doc

Si se desea saber si son consistentes las probabilidades correspondientes habría que hacer los cálculos.

Las probabilidades de aumente la cantidad de delitos, sea igual la cantidad de delitos, y de que aumente o sea igual la cantidad de delitos es, respectivamente, de

y dado que (como son eventos mutuamente excluyentes) no es lo mismo que 7/11, entonces los criterios del criminólogo pueden ser cuestionados.

Propiedades de la probabilidad de eventos no elementales

Cuando se tienen eventos elementales no existe mucho problema en el sentido del cálculo de las probabilidades, pues basta con una contabilización o el uso directo del cálculo combinatorio. Pero en el caso de eventos no elementales, que son los compuestos por más de un evento elemental, el proceder de manera análoga resulta muy complejo y las operaciones pueden sobrepasar la capacidad de cálculo existente. Sin embargo, utilizando los axiomas de la probabilidad y las siguientes propiedades, se podrán expresar las probabilidades de estos eventos en términos de los eventos elementales que lo componen, siempre y cuando se conozcan las probabilidades de éstos.

Veamos la probabilidad de una unión de eventos, la cual la podremos calcular de la siguiente manera:

Propiedad 1. Si A y B son dos eventos, la probabilidad de que ocurra A o B es igual a la suma de las probabilidades de ocurrencia de A y de B, menos la probabilidad de que ocurran A y B simultáneamente. Es decir,

P(AB) = P(A) + P(B) - P(AB)

Ahora, si el caso es que los eventos sean mutuamente excluyentes se tiene:

Propiedad 2. Si dos eventos, A y B, son mutuamente excluyentes entonces la probabilidad de que ocurra A o B es igual a la suma de las probabilidades de ocurrencia de A y de B. Es decir

P(AB) = P(A) + P(B)

Page 26: Probabilidad y estadstica1 (1).doc

Otra propiedad que se deriva de las anteriores es cuando se busca la probabilidad del complemento de un evento E, que denotaremos como ~E:

Propiedad 3. Si E es un evento y ~E su complemento, entonces

P(~E) = 1 - P(E)

Retomando los conceptos de eventos dependientes o condicionales, se va a definir la probabilidad condicional como sigue:

Propiedad 4. La probabilidad de que ocurra un evento A dado que ocurrió el evento B (el evento A depende del evento B), denotado P(A|B), es:

Hay que notar que esta propiedad no es conmutativa, situación que sí ocurre con la probabilidad de unión o la intersección de eventos, por lo que no hay que confundir P(A|B) y P(B|A).

Finalmente, el criterio para la independencia de eventos queda como sigue:

Propiedad 5. Dos eventos A y B son independientes si y sólo si

P(A|B) = P(A) y P(B|A) = P(B)o, que es lo mismo:P(AB) = P(A) · P(B)

1.10 Teorema de bayes

Teorema de Bayes

Si los sucesos Ai son una partición y B un suceso tal que p(B) 0

Page 27: Probabilidad y estadstica1 (1).doc

Demostración

Aplicaciones

Diagnóstico médico (en general clasificaciones no biunívocas): El diagnóstico consiste en establecer la enfermedad de un paciente, a partir de una serie de síntomas. Pero los síntomas y las enfermedades no están ligados de un modo biunívoco.

Llamemos Ei al conjunto de enfermedades E1: tuberculosis pulmonar; E2 :cáncer de pulmón; E3: bronquitis obstructiva; etc. y Si a los síntomas y síndromes asociados con las mismas. S1: tos; S2: estado febril; S3: hemotisis; etc. La información accesible en los libros de patología, o en un archivo de historias clínicas es del tipo.Para E1: algunos (digamos el 20%) tienen hemotisis; muchos (80%) tienen tos; etc.

y lo mismo para las demás enfermedades.

En términos de probabilidad condicionada, esta información es p(S3|E1) = 0,2; p(S1|E1) = 0,8 etc. para diagnosticar la tuberculosis se ha de evaluar, para los síntomas que presenta el paciente p(E1|Si) para lo que se puede usar el teorema de Bayes si las enfermedades forman una partición (son mutuamente excluyentes y se consideran todas las enfermedades compatibles con el síntoma) y se conocen sus prevalencias.

Nótese que un mismo conjunto de síntomas podría dar lugar a un diagnóstico diferente en poblaciones en las que las prevalencias fueran diferentes.

Pruebas diagnósticas: Supóngase una prueba diagnóstica, por ejemplo nivel de glucosa en sangre, en ayunas, para diagnosticar la diabetes. Se considera que la prueba es positiva si se encuentra un nivel por encima de un cierto valor, digamos 120 mg/l.

Para evaluar la prueba, (habrá que hacerlo para distintos valores de corte) se somete a la misma a una serie de individuos diabéticos diagnosticados por otro procedimiento (el patrón de oro o "gold standar") y a una serie de individuos no diabéticos. Los resultados se pueden representar en una tabla de doble entrada

Page 28: Probabilidad y estadstica1 (1).doc

  

Patrón de oro 

  

NE E  

Prueba

- a b r

+ c d s

   t u  

Si la prueba fuera perfecta b=c=0, desgraciadamente nunca ocurre. Se denomina coeficiente falso-positivo (CFP) al cociente c/t, y es una estimación de la probabilidad condicionada p(+|NE), se denomina coeficiente falso-negativo (CFN) al cociente b/u, y es una estimación de la probabilidad condicionada p(-|E). Estos dos coeficientes cuantifican los dos errores que la prueba puede cometer y caracterizan a la misma. Simétricamente, los coeficientes que cuantifican los aciertos son la sensibilidad, p(+|E), y la especificidad p(-|NE).

Cuando la prueba se usa con fines diagnósticos (o de "screening") interesa calcular p(E|+) y/o p(NE|-).

Como E y NE son una partición, usando el Teorema de Bayes

y

Nótese que ambas dependen de la prevalencia de la enfermedad: una prueba diagnóstica que funciona muy bien en la clínica Mayo, puede ser inútil en el Hospital Ramón y Cajal.

Ejemplo 9:

una prueba diagnóstica para la diabetes tiene un CFP de 4% y un CFN del 5%. Si la prevalencia de la diabetes en la población donde se usa es del 7% ¿cuál es la

Page 29: Probabilidad y estadstica1 (1).doc

probabilidad de que sea diabético un individuo en el que la prueba dé positiva? y ¿de que no lo sea uno en el que dé negativo?

p(+|NE) = 0,04 p(-|NE) = 0,96 p(-|E) = 0,05 p(+|E) = 0,95 p(E) = 0,07 p(NE) = 0,93

y

Pruebas en serie: Cuando se aplican pruebas en serie, para cada prueba p(E) y p(NE), serán la p(E|+) y p(NE|+) de la prueba anterior (si dio positiva) o p(E|-) y p(NE|-) si dio negativa.

Teorema de Bayes.

En el año 1763, dos años después de la muerte de Thomas Bayes (1702-1761), se publicó una memoria en la que aparece, por vez primera, la determinación de la probabilidad de las causas a partir de los efectos que han podido ser observados. El cálculo de dichas probabilidades recibe el nombre de teorema de Bayes.

Sea A1, A2, ...,An un sistema completo de sucesos, tales que la probabilidad de cada uno de ellos es distinta de cero, y sea B un suceso cualquier del que se conocen las probabilidades condicionales P(B/Ai). entonces la probabilidad P(Ai/B) viene dada por la expresión:

En los problemas relacionados con la probabilidad, y en particular con la probabilidad condicionada, así como con la probabilidad total y el teorema de Bayes, es aconsejable que, con la información del problema, construyas una tabla de contingencia o un diagrama de árbol.

El teorema de Bayes parte de una situación en la que es posible conocer las probabilidades de que ocurran una serie de sucesos Ai.

Page 30: Probabilidad y estadstica1 (1).doc

A esta se añade un suceso B cuya ocurrencia proporciona cierta información, porque las probabilidades de ocurrencia de B son distintas según el suceso Ai que haya ocurrido.

Conociendo que ha ocurrido el suceso B, la fórmula del teorema de Bayes nos indica como modifica esta información las probabilidades de los sucesos Ai.

Ejemplo: Si seleccionamos una persona al azar, la probabilidad de que sea diabética es 0,03. Obviamente la probabilidad de que no lo sea es 0,97.Si no disponemos de información adicional nada más podemos decir, pero supongamos que al realizar un análisis de sangre los niveles de glucosa son superiores a 1.000 mg/l, lo que ocurre en el 95% de los diabéticos y sólo en un 2% de las personas sanas.

¿Cuál será ahora la probabilidad de que esa persona sea diabética?

La respuesta que nos dá el teorema de bayes es que esa información adicional hace que la probabilidad sea ahora 0,595.Vemos así que la información proporcionada por el análisis de sangre hace pasar, la probabilidad inicial de padecer diabetes de 0,03, a 0,595.Evidentemente si la prueba del análisis de sangre hubiese sido negativa, esta información modificaría las probabilidades en sentido contrario. En este caso la probabilidad de padecer diabetes se reduciría a 0,0016.

Es una consecuencia del teorema de las probabilidades totales.

Sea el conjunto total  Ω formado por una partición (colección de sucesos con intersección vacía dos a dos).

Ahora el interés se centrará en la obtención de la probabilidad de cualquier suceso de la partición condicionada a un suceso A cualquiera.

El resultado será :

que es conocido como teorema o regla de Bayes.

Page 31: Probabilidad y estadstica1 (1).doc

Unidad II. Variables aleatorias y distribuciones

2.1 variable aleatoria y funciones de distribución

FUNCION DE DISTRIBUCION

Definición: Dado un espacio de probabilidad oe , y una variable aleatoria X definida sobre él, la función de distribución de X, que será denotada por FX, está definida por

para cada número real a.

Ejemplo: Sean las funciones X, Y, Z definidas sobre el campo de probabilidad asociado al experimento aleatorio que se considere:

1) Sea X el número de mujeres en una comisión conformada por tres personas, seleccionadas al azar de un grupo de 5 personas, entre las cuales hay dos mujeres.

2) Sea Y el número de caras obtenidas al tirar dos veces sucesivas una moneda.

3) Sea Z el número de una ficha que se seleccione al azar de un grupo de tres fichas numeradas 0,1, 2.

Sean las variables X, Y, Z de acuerdo a la definición de función de distribución, que

a) Si a < 0 no hay eventos elementales que por X se apliquen sobre números negativos con lo cual es

b) Si 0 £ a < 1, entonces tenemos en [ X £ a ] todas las comisiones de tres personas entre las cuales haya cero mujeres, con probabilidad 1/10, ésto es

FX (a) = 1/10 para 0 £ a < 1

c) Si 1 £ a < 2, entonces tenemos que considerar todas las comisiones con una o ninguna mujer, las cuales se dan con probabilidad 7/10, es decir

FX (a) = 7/10 para 1 £ a < 2

Page 32: Probabilidad y estadstica1 (1).doc

d) Siendo a un número real cualquiera puede, finalmente, satisfacer la desigualdad a £ 2 y entonces debemos considerar comisiones conformadas por cualquier número de mujeres en el experimento en cuestión, obteniéndose

FX (a) = 1 para a £ 2

Resumiendo los resultados obtenidos, tenemos que la función de distribución de X está dada por

En forma similar tendremos para las variables aleatorias Y, Z

Las funciones de distribución de nuestras variables aleatorias X, Y, Z, las determinan completamente pues describen su comportamiento, con relación a sus valores, en términos de probabilidad y, en este ejemplo comprobamos que a pesar de tener el mismo recorrido, el comportamiento de estas variables es diferente. Sin embargo, puede ocurrir que dos o más variables aleatorias diferentes tengan no sólo el mismo recorrido, sino también la misma función de distribución.

2.2 Valor esperado y momentos

Valor esperado o esperanza matemática

Sea X una v.a. discreta. Se denomina esperanza matemática de X o valor

esperado, y se denota bien o bien , a la cantidad que se expresa como:

Page 33: Probabilidad y estadstica1 (1).doc

donde es el conjunto numerable de índices de los valores que puede tomar la

variable (por ejemplo para un número finito de valores de la v.a. o bien para una cantidad infinita numerable de los mismos.

Si X es una v.a. continua, se define su esperanza a partir de la función de densidad como sigue:

Observación

Recordamos que si

y por tanto tiene sentido calcular su esperanza matemática:

Por las analogías existente entre la definición de media aritmética y esperanza matemática, las propiedades de linealidad de la primera se trasladan a la segunda, como es inmediato comprobar:

Page 34: Probabilidad y estadstica1 (1).doc

2.3 Distribuciones discretas

Propiedades de la Función de Distribución

La función de distribución de una variable aleatoria además de estar bien definida, pues está definida en términos de la función probabilidad la cual es una función definida axiomáticamente, tiene las propiedades que se dan a través de los siguientes teoremas.

Teorema: La función de distribución es no decreciente.

Teorema: Para toda función de distribución FX se cumple

Teorema: Toda función de distribución es continua por la derecha.

Teorema: Toda función de distribución es continua por la derecha.

Ejemplo: Para la función h (x) definida por

se tiene

Page 35: Probabilidad y estadstica1 (1).doc

a) h (x) toma valores sobre una recta con pendiente ½ o toma valores sobre el eje x, o sobre una recta paralela al eje x, por lo que podemos afirmar que es una función no decreciente.

b) y dado que para se tiene

c) lo que implica

d) En cada punto, interior a un intervalo de definición, h(x) toma valores sobre una recta, es decir es una función lineal y, por lo tanto, es contínua. En los puntos "críticos" se tiene, considerando un número k > 0 que

de lo que podemos afirmar que h (x) no sólo es continua por la derecha, sino que es continua en cada punto real.

Como h (x) satisface las condiciones de una función de distribución, ella es una función de distribución y podría ser asignada como tal a cualquier

variable aleatoria X cuyo recorrido sea el intervalo .

Como consecuencia de su definición y de sus propiedades, para la función de distribución FX se satisfacen además las propiedades establecidas en el siguiente teorema.

Page 36: Probabilidad y estadstica1 (1).doc

Teorema: Dada una variable aleatoria X con función de distribución FX, entonces

a) para todo par de números reales a < b.

b) Para todo número real a es

donde

Ejemplo: Si consideramos la variable aleatoria X del 3.8, para la cual es

vemos que FX es continua en todo punto real que no pertenezca al conjunto {0, 1, 2}, por lo que será

para todo a real tal que

Además es

puesto que si Î > 0 entonces FX (- Î ) = 0. Por otro lado, si Î > 0 entonces es 1 - Î < 1, 2 - Î < 2, con lo cual se obtiene

Si lo que nos interesa es que la variable aleatoria X tome valores en un cierto intervalo, entonces se tiene, por ejemplo

Page 37: Probabilidad y estadstica1 (1).doc

2.4 Variables aleatorias y distribuciones continuas

Distribución de Probabilidad de una Variable Aleatoria

Consideremos las variables aleatorias X y Y definidas de la manera siguiente

X = Número de puntos obtenidos al tirar un dado correcto.

Y = Distancia al origen de un punto elegido al azar sobre el segmento [0,1].

cuyas funciones de distribución están dadas por :

Observamos que mientras el recorrido de X está constituido por un conjunto finito, el recorrido de Y es un conjunto infinito no numerable y, que la función de distribución de X tiene saltos, lo que no ocurre para la función de distribución de Y. Luego, podemos afirmar que la naturaleza de estas dos variable aleatorias es diferente.

Estas dos variables aleatorias constituyen ejemplos de dos de las categorías de variables aleatorias, las cuales se determinan, como veremos, tomando en cuenta su recorrido y/o su función de distribución. De acuerdo a ésto, las variables aleatorias se clasifican en Discretas, Absolutamente Continuas y Mixtas. Consideraremos en primer lugar las discretas.

2.5 Variables Aleatorias Discretas

Definición: Una variable aleatoria X se dice discreta si su recorrido es un conjunto contable (finito o infinito numerable) de números reales.

Esta definición implica que los posibles valores de X, su recorrido RX, pueden ser listados como x1, x2,...., xn, ..... donde sin pérdida de generalidad, podemos suponer una ordenación como x1, < x2 < .... < xn < xn+1 < .... Además, considerando los eventos de la forma [X = xn] se tiene que se cumple

Page 38: Probabilidad y estadstica1 (1).doc

y

donde la unión se extiende para todos los valores de n. En consecuencia se cumple

y para cualquier número real a

Por otro lado, por las propiedades de la función de distribución se tiene en este caso

En conclusión, se tiene que si X es una variable aleatoria discreta con función de distribución FX, existe otra función px a la cual se le denomina Función de Cuantía o Función de Densidad Discreta de X, definida por

para lo cual se cumplen las siguientes condiciones

1) R

2)

3)

Las dos primeras condiciones deben ser satisfechas por cualquier función real valorada, cuyo dominio sea un conjunto contable de números reales

Page 39: Probabilidad y estadstica1 (1).doc

para ser una función de cuantía, mientras que la satisfacción de las tres condiciones determina la función de cuantía de una variable aleatoria X específica.

El conjunto de pares de la forma (xn, px (xn)) recibe el nombre de Distribución de Probabilidad de la Variable Aleatoria Discreta X, y contiene toda la información necesaria para estudiar a esta variable aleatoria.

Ejemplo: Un fabricante de motores sabe que en un lote de 10 motores, hay 2 motores defectuosos. Cada motor le cuesta 7,500 nuevos soles y lo puede vender en 10,000 nuevos soles. Al ofrecer el lote a una tienda le dicen que lo someterán a una prueba que consistirá en seleccionar, al azar, dos motores y probar su funcionamiento. Si no se obtienen motores defectuosos le compran el lote. En caso contrario, se lo rechazan.

Si X es la ganancia neta que deja el lote al fabricante, se tendrá que

X = 10 (10,000 - 7,500) = 25,000 si se vende el lote, y

X = 10 (0 - 7,500) = - 75,000 si le rechazan el loteç

luego X es variable aleatoria discreta con

y con dominio

donde d y significa motor defectuoso y motor no defectuoso, respectivamente.

La función de cuantía de X está dada por

puesto que no vende si se encuentra por lo menos un motor defectuoso, que es el evento contrario de no encontrar defectuosos.

Con los resultados obtenidos, la distribución de probabilidad de X se presenta en la siguiente tabla.

Page 40: Probabilidad y estadstica1 (1).doc

X - 75,000 25,000

PX

La definición de una variable aleatoria absolutamente continua, las propiedades de la función de distribución de algunas propiedades del análisis, llevan a los siguientes resultados:

1) fx es no negativa.

Condición necesaria para que FX sea una función no decreciente.

2)

Resultado que deriva del hecho de que sea y de la definición de la integral impropia.

3) FX (x) es continua en todo X real y si fx es continua en x0, entonces FX es derivable en x0 y se cumple

Resultado justificado por el Teorema Fundamental del Cálculo Integral, que dice "si una función real valorada h es integrable en el sentido de Riemann sobre el intervalo [a, b], entonces la función

para todo x [a, b] es continua sobre [a, b] y si h es continua en x0

entonces H(x) es derivable en x0 y se cumple

4) P[x = a] = 0 para cualquier número real a.

Como sabemos, en general, se cumple

Page 41: Probabilidad y estadstica1 (1).doc

y, como la continuidad de FX implica la igualdad de FX (a) y el límite considerado en esta expresión, se tiene entonces que una variable aleatoria absolutamente continua toma cada uno de los valores reales, aún los de su recorrido, con probabilidad cero. Teniendo en cuenta el axioma de aditividad de la función probabilidad, se sigue que la probabilidad asignada a un conjunto contable de puntos en RX es nula.

5) Si a y b son dos números reales tales que a < b, entonces

independientemente de si se incluye o no a la igualdad en los extremos.

Este resultado se sigue de la consideración de la propiedad de FX que establece

y del resultado 4 anterior.

Geométricamente este resultado se interpreta de la siguiente manera: La probabilidad de que una variable aleatoria absolutamente continua tome valores en el intervalo de extremos a, b, abierto o cerrado, es el área bajo la curva de fX comprendida entre las rectas x= a y x = b.

Observaciones

1) La función fX no es en sí una probabilidad, pero sí es la densidad de probabilidad en cada punto y para un intervalo infinitesimal de amplitud dx se tiene

2) Los resultados 1 y 2 constituyen condición necesaria y suficiente para que una función real valorada cualquiera sea una función de densidad de probabilidad.

3) Una variable aleatoria X es, entonces, absolutamente continua si su función de distribución es continua y derivable con primera derivada continua en todo punto del eje real, salvo un conjunto a lo más infinito numerable de puntos. Esta primera derivada es la función de densidad de probabilidad de X.

Page 42: Probabilidad y estadstica1 (1).doc

4) De la observación anterior se sigue que la función de densidad de probabilidad fX puede ser discontinua en algunos puntos y, eventualmente, podría hacerse infinita en algún punto. Dado la validez del resultado 2, se tiene que:

- Si RX es un intervalo de longitud infinita, fX tiende a cero cuando x crece y definidamente sobre RX.

- Si fX (x0) es infinita, la integral

tiende a cero cuando a y b tienden independientemente a cero.

Ejemplo: Dada la variable aleatoria X cuya función de distribución está dada por

se quiere saber si X tiene una distribución absolutamente continua.

En primer lugar debemos estudiar la continuidad de FX, para lo cual bastará con estudiar los puntos donde FX cambia su expresión funcional, pues en los intervalos comprendidos entre dos de estos puntos la función es lineal y, por ende, continua en cada punto.

Así tenemos que

de donde podemos afirmar que FX tiene un punto de discontinuidad en a = - 2 y ésto es suficiente para afirmar que X no es una variable aleatoria absolutamente continua.

Page 43: Probabilidad y estadstica1 (1).doc

2.6 Distribuciones especiales de probabilidad para una variable aleatoria continua: Distribución uniforme, exponencial, normal y normal estandar

Variables Aleatorias Mixtas

Definición: Una variable aleatoria X es mixta si su función de distribución es de la forma

donde F1 es la función de distribución de una variable aleatoria discreta y F2

es la función de distribución de una variable aleatoria absolutamente continua y es un número comprendido entre 0 y 1.

Si R1 es el recorrido para la variable aleatoria con F1 y R2 es el recorrido para la variable aleatoria correspondiente a F2, entonces se tiene RX = R1

R2, y como la probabilidad de cada uno de los puntos de R2 es nula, se tiene:

Como ilustraremos a continuación, en el ejemplo tenemos un caso de variable mixta.

Ejemplo: Para la variable aleatoria X cuya función de distribución es

se cumple

Page 44: Probabilidad y estadstica1 (1).doc

para todo número real a, si se define

Como ya sabemos, la función de distribución de una variable aleatoria cualquiera, contiene toda la información con respecto a la variable aleatoria y, por lo tanto, las variables aleatorias mixtas serán estudiadas en términos de su función de distribución. Sin embargo, es muy útil expresar a ésta, como una combinación lineal convexa de una función de distribución discreta y una función de distribución absolutamente continua.

Unidad 3 Estadística descriptiva y Teoría de muestreo

3.1Distribuciones de frecuencia, de frecuencia relativa y frecuencia acumulada

Distribución de Frecuencias

Cuando la información que se tiene es un gran volumen, resulta muy conveniente ordenar y agrupar los datos para manejarlos de acuerdo a la distribución de frecuencias la cual consiste en agrupar los datos en clases o categorías que estarán definidas por un límite mínimo y uno máximo de variación, mostrando en cada clase el número de elementos que contiene o sea la frecuencia.

Otra forma común para estudiar la disposición espacial de los individuos de una población consiste en comparar la distribución de frecuencias observadas en un muestreo basado en cuadrículas, con las frecuencias esperadas dada una distribución teórica (e.g. la de Poisson). Las frecuencias están referidas al número

Page 45: Probabilidad y estadstica1 (1).doc

de oportunidades en las cuales se obtiene un número determinado de individuos en una cuadrícula. Si en un estudio observamos los siguientes resultados:

4 5 4 6 7 1 5 2 2 4 4 3

donde cada número representa el número de individuos contados en una cuadrícula, tendremos que la frecuencia con la cual se obtiene 1 individuo es 1/12 (siendo n = 12 el total de cuadrículas), la frecuencia de 2 individuos es 2/12, la de 3 = 1/12, la de 4 = 4/12, la de 5 = 2/12, la de 6 = 1/12, la de 7 = 1/12, mientras que la de 8 individuos en adelante es 0/12. Una frecuencia es así una proporción con la cual ocurre un determinado evento. El conjunto de estas proporciones permite gráficamente formar una distribución de frecuencias. La distribución de las frecuencias obtenidas anteriormente se observa en la siguiente figura:

Para analizar si los individuos de la población bajo estudio se distribuyen de acuerdo a un determinado patrón hipotético, se estima un valor conocido como la bondad del ajuste de la distribución observada a la distribución teórica. La bondad de un ajuste está referida a cuán próximas se encuentran las dos distribuciones a ser comparadas, entendiendo como proximidad las diferencias numéricas existentes en cada uno de los eventos posibles (eje X de la figura anterior). Cuanto mayor sea la suma de estas diferencias, menor será la bondad del ajuste. El estadístico de prueba más corrientemente empleado para estimar la bondad de un ajuste es:

Page 46: Probabilidad y estadstica1 (1).doc

El cual se distribuye según una 2 (chi- cuadrada), con (n - número de parámetros obtenidos de los datos) grados de libertad, con n = número de eventos (clases de frecuencia). Si este estadístico es mayor que el valor tabulado un nivel de significancia , se rechaza la hipótesis nula de que la distribución observada es igual a la distribución teórica.

¿Cómo se utiliza este procedimiento para estimar la disposición espacial de un conjunto de individuos? Partiendo del hecho de que tenemos un conjunto de cuentas de ocurrencias en n cuadrículas, el trabajo consiste en hallar las distribuciones teóricas que mejor parezcan corresponder a nuestros datos. Luego, se estudia la bondad del ajuste de los valores predichos por tales distribuciones a los observados, y la que mejor se ajuste (aquella que resulte en un mínimo de diferencias no significativas) es la que mejor representa la disposición espacial de la población (Fig. 3).

Figura 3: Representación gráfica de la distribución de frecuencias del ejemploal ser comparada con una distribución de Poisson para verificar la bondad del

ajuste.

El resultado de aplicar este procedimiento es la obtención de un modelo que explica la disposición espacial de los individuos de la población. El mejor modelo,

Page 47: Probabilidad y estadstica1 (1).doc

como hemos insistido, es aquel que representa la ubicación exacta de cada individuo sobre el espacio (deja de ser un modelo para convertirse en un mapa). Sin embargo, la obtención del mismo tiene inconvenientes metodológicos importantes en la mayoría de los casos. De esta manera, la bondad de ajuste consiste en explorar un universo de infinitas posibles distribuciones estadísticas para encontrar la que mejor se adapta a los resultados.

¿Cómo llevar a cabo esta búsqueda? En la aplicación tradicional de las técnicas para el estudio de la disposición espacial, la búsqueda no es demasiado intensiva, y comprende generalmente sólo dos distribuciones teóricas: la Poisson y la binomial negativa. La primera, como hemos visto, representa un conjunto de frecuencias de eventos que ocurren al azar, mientras que la segunda es representativa de un patrón de disposición espacial agregado. Las disposiciones uniformes son tan frecuentes en la literatura como en la naturaleza, habiendo recibido muy poca atención. De esta manera, un procedimiento conveniente al ajustar distribuciones a datos consiste en: (1) probar si las observaciones se desvían significativamente de un patrón aleatorio, mediante cualquiera de las técnicas vistas hasta el momento, y (2) en caso negativo, ajustar la distribución de frecuencias observadas a una distribución binomial negativa. Veamos, paso a paso:

1. Ajuste de datos a una distribución de Poisson:

Consideremos los siguientes datos, tomados de Krebs (1989):

0;0;0;0;0;0;1;1;1;1;1;1;1;1;2;2;2;2;2;2;2;2;2;3;3;3;3;3;3;4;4;4;4;4;4;5;5;7;7;7;8;9;9;9;9

En el conjunto, n = 50, y la media muestral = 3,46. La siguiente tabla muestra las frecuencias observadas para cada evento. La división de cada frecuencia entre n resulta en las frecuencias relativas de cada uno de los eventos, sobre el total.

Número de individuos en una cuadrícula, x

Número de cuadrículas con x individuos

0 6

1 8

2 9

3 6

Page 48: Probabilidad y estadstica1 (1).doc

4 6

5 2

6 5

7 3

8 1

9 4

Aplicando la ecuación de Poisson (ver página anterior), podemos calcular las frecuencias esperadas:

P0 = proporción de cuadrículas con 0 individuos (equivalente a la probabilidad de que una cuadrícula tenga 0 individuos) = e-3,46(3,460/0!)=0,0314

P1 = proporción de cuadrículas con 1 individuo = e-3,46(3,461/1!)=0,1087

P2 = e-3,46(3,462/2!)=0,1881

P3 = e-3,46(3,463/3!)=0,2170

P4 = e-3,46(3,464/4!)=0,1877

P5 = 0,1299

P6 = 0,0749

P7 = 0,0370

P8 = 0,0160

P9 = 0,0062

Para obtener las frecuencias esperadas según la distribución de Poisson, sólo hace falta multiplicar cada proporción por el número total de cuadrículas muestreadas, n=50. La siguiente tabla muestra los cálculos de frecuencias observadas, esperadas y del estadístico 2para cada x.

x Frec. Obs. Frec. Esp.(Frec. Obs. - Frec. Esp.)2

Frec. Esp.

0 6 1,57 12,50

Page 49: Probabilidad y estadstica1 (1).doc

1 8 5,44 1,20

2 9 9,41 0,019

3 6 10,85 2,18

4 6 9,39 1,22

5 2 6,50 3,12

6 5 3,75 0,42

7 3 1,85 0,72

8 1 0,80 0,050

9 4 0,31 43,92

>9 0 0,155 0,155

= 65,51

En este punto, cabe hacer mención de dos consideraciones adicionales. En primer lugar, puede notarse que fue añadida una clase de frecuencia adicional, para el caso en el que el número de cuentas en cuadrículas es mayor que 9. Esto se debe a que las frecuencias esperadas deben sumar 1, en forma de proporciones, o 50, el número total de cuadrículas. La frecuencia esperada en este caso fue calculada restando las frecuencias restantes a la unidad, resultando en 0,0031. La otra consideración es que suele recomendarse para la prueba chi-cuadrada que el número de cuentas en una clase no sea inferior a 3 (o a 5, según el autor). Aunque en este espacio se han incluido las frecuencias tal y como fueron obtenidas para fines ilustrativos, es preferible en la práctica que las clases de frecuencia sean agrupadas con el fin de que se cumpla esta regla. Se han desarrollado pruebas más potentes que la chi- cuadrada para resolver este problema, las cuales pueden ser consultadas por el lector en la literatura disponible.

El número de grados de libertad para esta prueba es =11-2=9, ya que sólo se obtuvieron de los datos la media y el número de cuadrículas. El valor crítico de para estos grados de libertad y =0,05 es 16,92, y por lo tanto se rechaza la hipótesis nula de que la población se dispone espacialmente según una Poisson.

Dado que la varianza de los datos es 7,356 y la media 3,46, el cociente entre estas dos variables (2,13) indica que la población presenta algún grado de agregación. Por lo tanto pasamos a evaluar el ajuste de los datos a una distribución binomial negativa.

Page 50: Probabilidad y estadstica1 (1).doc

2. Ajuste de datos a una distribución binomial negativa:

La binomial negativa (Fig. 4) es la distribución estadística de uso más generalizado para el modelaje de poblaciones agregadas, llegándose incluso en ocasiones a tratar a ambas distribuciones (espacial y estadística) como sinónimos. Al igual que la de Poisson, la binomial negativa es una distribución de frecuencias discretas, siendo su forma matemática:

donde Px la probabilidad de observar una cuadrícula con x individuos, la media de la distribución, k el exponente de la binomial negativa y la función Gamma.

Figura 4: Representación gráfica de la distribución de frecuencias de unabinomial negativa con =10 y k=2,5 (n=100).

La binomial negativa está determinada por dos parámetros, k y p, relacionados a la media por cuanto =kp. El parámetro k suele ser visto como una medida de agregación, considerándose que mientras menor su valor, mayor la agregación. De esta manera, el enfoque tradicional plantea que ajustar una distribución binomial a un patrón de disposición espacial consiste en encontrar un valor de k que, dada una media muestral, permita modelar cualquier patrón de agregación como una de las infinitas formas de la binomial negativa.

Page 51: Probabilidad y estadstica1 (1).doc

Para facilitar los cálculos de frecuencias esperadas según la binomial negativa, se tiene la siguiente serie de fórmulas:

Para la estimación de k, se emplean ciertas reglas que el lector puede consultar en la bibliografía recomendada. Los procedimientos varían según el número de cuadrículas con ningún individuo y la media muestral, y en muchos casos están basados en procedimientos iterativos por ensayo y error, partiendo de un k aproximado, obtenido a partir de la varianza de la distribución: 2=+(2/k):

Para el ejemplo que venimos desarrollando, esta primera aproximación de k es 3,07, la cual se transforma en 2,65 tras la aplicación de uno de los procedimientos de ensayo y error disponibles. La utilización de este valor de k en las fórmulas para el cálculo de las frecuencias esperadas origina los resultados presentados en la tabla a continuación:

x Frec. Obs. Frec. Esp.(Frec. Obs. - Frec. Esp.)2

Frec. Esp.

0 6 5,47 0,051

1 8 8,20 0,0049

Page 52: Probabilidad y estadstica1 (1).doc

2 9 8,47 0,033

3 6 7,44 0,28

4 6 5,95 0,00042

5 2 4,48 1,37

6 5 3,23 0,97

7 3 2,26 0,24

8 1 1,54 0,19

9 4 1,04 8,42

>9 0 1,91 1,91

= 13,43

Los grados de libertad para la prueba chi-cuadrada son, al igual que en el caso anterior igual al número de clases de frecuencia utilizadas menos el número de parámetros estimados a partir de los datos. En este caso se estimaron tres parámetros, correspondientes a la media, el número de muestras y k. Por lo tanto, buscamos el valor crítico para la distribución con 8 grados de libertad, para un valor de =0,05, el cual es 15,51. Concluimos que el patrón de disposición espacial se distribuye según una binomial negativa. Empleando la relación convencional entre distribuciones, concluimos que el patrón de disposición es agregado.

3.2Medidas de tendencia central: media, mediana, moda, promedio (ponderado, móvil) media geométrica, armónica, cuantiles (cuartiles, deciles y percentiles)

Los fenómenos biológicos no suelen ser constantes, por lo que será necesario que junto a una medida que indique el valor alrededor del cual se agrupan los datos, se asocie una medida que haga referencia a la variabilidad que refleje dicha fluctuación.

En este sentido pueden examinarse varias características, siendo las más comunes:

La tendencia central de los datos;

Page 53: Probabilidad y estadstica1 (1).doc

La dispersión o variación con respecto a este centro;

Los datos que ocupan ciertas posiciones.

La simetría de los datos.

La forma en la que los datos se agrupan.

   Figura: Medidas representativas de un conjunto de datos estadísticos

A lo largo de este capítulo, y siguiendo este orden, iremos estudiando los estadísticos que nos van a orientar sobre cada uno de estos niveles de información: valores alrededor de los cuales se agrupa la muestra, la mayor o menor fluctuación alrededor de esos valores, nos interesaremos en ciertos valores que marcan posiciones características de una distribución de frecuencias así como su simetría y su forma.

1.4.1 MEDIA, MEDIA PONDERADA

Page 54: Probabilidad y estadstica1 (1).doc

La media aritmética de una variable estadística es la suma de todos sus posibles valores, ponderada por las frecuencias de los mismos. Es decir, si la tabla de valores de una variable X es

X ni fi

x1 n1 f1

... ... ...

xk nk fk

la media es el valor que podemos escribir de las siguientes formas equivalentes:

Si los datos no están ordenados en una tabla, entonces

La media tiene las siguientes características:

Es el centro de gravedad de la distribución y es única para cada distribución.

Cuando aparecen valores extremos y poco significativos (demasiado grandes o demasiado pequeños), la media puede dejar de ser representativa.

No tiene sentido en el caso de una variable cualitativa ni cuando existen datos agrupados con algún intervalo no acotado.

Para variables agrupadas, los xi serán las marcas declase de cada intervalo.

Además, la media cumple las siguientes propiedades:

Page 55: Probabilidad y estadstica1 (1).doc

Si se suma una constante a todos los valores, la media aumenta en dicha constante.

Si se multiplican todos los valores de la variable por una constante, la media queda multiplicada por dicha constante.

Observación

Hemos supuesto implícitamente en la definición de media que tratábamos con una variable X discreta. Si la variable es continua tendremos que cambiar los valores de xi por las marcas de clase correspondientes. En general, la media aritmética obtenida a partir de las marcas de clase ci, diferirá de la media obtenida con los valores reales, xi. Es decir, habrá una perdida de precisión que será tanto mayor cuanto mayor sea la diferencia entre los valores reales y las marcas de clase, o sea, cuanto mayores sean las longitudes ai, de los intervalos.

Proposición

La suma de las diferencias de la variable con respecto a la media es nula, es decir,

Demostración Basta desarrollar la sumatoria para obtener

Este resultado nos indica que el error cometido al aproximar un valor cualquiera de la variable, por ejemplo x1, mediante el valor central , es compensado por los demás errores:

Si los errores se consideran con signo positivo, en este caso no pueden compensarse. Esto ocurre si tomamos como medida de error alguna de las siguientes:

Page 56: Probabilidad y estadstica1 (1).doc

que son cantidades estrictamente positivas si algún .

Ejemplo

Obtener las desviaciones con respecto a la media en la siguiente distribución y comprobar que su suma es cero.

li-1 - li ni

0 - 10 1

10 - 20 2

20 - 30 4

30 - 40 3

Solución:

li-1 - li ni xi xi ni

0 - 10 1 5 5 -19 -19

10 - 20 2 15 30 -9 -18

20 - 30 4 25 100 +1 +4

30 - 40 3 35 105 +11 +33

  n=10    

La media aritmética es:

Como se puede comprobar sumando los elementos de la última columna,

Page 57: Probabilidad y estadstica1 (1).doc

Medias generalizadas

En función del tipo de problema varias generalizaciones de la media pueden ser consideradas. He aquí algunas de ellas aplicadas a unas observaciones x1, ..., xn:

La media geométrica

, es la media de los logaritmos de los valores de la variable:

Luego

Si los datos están agrupados en una tabla, entonces se tiene:

La media armónica

, se define como el recíproco de la media aritmética de los recíprocos, es decir,

Page 58: Probabilidad y estadstica1 (1).doc

Por tanto,

La media cuadrática

, es la raíz cuadrada de la media aritmética de los cuadrados:

MEDIANA

Consideramos una variable discreta X cuyas observaciones en una tabla estadística han sido ordenadas de menor a mayor. Llamaremos mediana, Medal

primer valor de la variable que deja por debajo de sí al de las observaciones. Por tanto, si n es el número de observaciones, la mediana corresponderá a la

observación [n/2]+1, donde representamos por la parte entera de un número.

 

Page 59: Probabilidad y estadstica1 (1).doc

En el caso de variables continuas, las clases vienen dadas por intervalos, y aquí la fórmula de la mediana se complica un poco más (pero no demasiado): Sea (li-1,li] el

intervalo donde hemos encontrado que por debajo están el de las observaciones. Entonces se obtiene la mediana a partir de las frecuencias absolutas acumuladas, mediante interpolación lineal (teorema de Thales).

Observación

La relación Corresponde a definir para cada posible observación, , su frecuencia relativa acumulada, F(x), por interpolación lineal entre los valores F(lj-1) = Fj-1 y F(lj) = Fj de forma que

Figura: Cálculo geométrico de la mediana

Page 60: Probabilidad y estadstica1 (1).doc

De este modo, Med es el punto donde . Esto equivale a decir que la

mediana divide al histograma en dos partes de áreas iguales a .

Observación

Entre las propiedades de la mediana, vamos a destacar las siguientes:

Como medida descriptiva, tiene la ventaja de no estar afectada por las observaciones extremas, ya que no depende de los valores que toma la variable, sino del orden de las mismas. Por ello es adecuado su uso en distribuciones asimétricas.

Es de cálculo rápido y de interpretación sencilla.

A diferencia de la media, la mediana de una variable discreta es siempre un valor de la variable que estudiamos (ej. La mediana de una variable número de hijos toma siempre valores enteros).

Si una población está formada por 2 subpoblaciones de medianas Med1 y Med2, sólo se puede afirmar que la mediana, Med, de la población está comprendida entre Med1 y Med2

El mayor defecto de la mediana es que tiene unas propiedades matemáticas complicadas, lo que hace que sea muy difícil de utilizar en inferencia estadística.

Es función de los intervalos escogidos.

Puede ser calculada aunque el intervalo inferior o el superior no tenga límites.

La suma de las diferencias de los valores absolutos de n puntuaciones respecto a su mediana es menor o igual que cualquier otro valor. Este es el equivalente al teorema de König (proposición 2.1) con respecto a la media, pero donde se considera como medida de dispersión a:

Ejemplo

Page 61: Probabilidad y estadstica1 (1).doc

Sea X una variable discreta que ha presentado sobre una muestra las modalidades

Si cambiamos la última observación por otra anormalmente grande, esto no afecta a la mediana, pero si a la media:

En este caso la media no es un posible valor de la variable (discreta), y se ha visto muy afectada por la observación extrema. Este no ha sido el caso para la mediana.

Ejemplo

Obtener la media aritmética y la mediana en la distribución adjunta. Determinar gráficamente cuál de los dos promedios es más significativo.

li-1 - li ni

0 - 10 60

10 - 20 80

20 - 30 30

30 - 100 20

100 - 500 10

Solución:

li-1 - li ni ai xi xi ni Ni

0 - 10 60 10 5 300 60 60

10 - 20 80 10 15 1.200 140 80

20 - 30 30 10 25 750 170 30

30 - 100 20 70 65 1.300 190 2,9

100 - 500 10 400 300 3.000 200 0,25

  n=200        

La media aritmética es:

Page 62: Probabilidad y estadstica1 (1).doc

La primera frecuencia absoluta acumulada que supera el valor n/2=100 es Ni=140. Por ello el intervalo mediano es [10;20). Así:

Para ver la representatividad de ambos promedios, realizamos el histograma de la figura 2.3, y observamos que dada la forma de la distribución, la mediana es más representativa que la media.

  Figura: Para esta distribución de frecuencias es más representativo usar como estadístico de tendencia central la mediana que la media.

MODA

La moda se suele definir como el valor más frecuente. En el caso de una variable no agrupada, es el valor de la variable que más se repite. En el caso de una variable agrupada por intervalos de igual amplitud se busca el intervalo de mayor

Page 63: Probabilidad y estadstica1 (1).doc

frecuencia (intervalo o clase modal) y se aproxima la moda por el valor obtenido al aplicar la fórmula

donde:

Li-1 es el límite inferior del intervalo modal.

ni es la frecuencia absoluta del intervalo modal.

ni-1 es la frecuencia absoluta del intervalo anterior al intervalo modal.

ni+1 es la frecuencia absoluta del intervalo posterior al intervalo modal.

ci es la amplitud del intervalo.

La moda cumple que

Puede ser que exista más de una moda. En dicho caso, se dice que la distribución es bimodal, trimodal, ..., según el número de valores que presentan la mayor frecuencia absoluta.

La moda es menos representativa que la media, a excepción de las distribuciones con datos cualitativos.

Si los intervalos no tienen la misma amplitud, se busca el intervalo de mayor densidad de frecuencia (que es el cociente entre la frecuencia absoluta

y la amplitud del intervalo: ) y se calcula con la fórmula anterior.

Llamaremos moda a cualquier máximo relativo de la distribución de frecuencias, es decir, cualquier valor de la variable que posea una frecuencia mayor que su anterior y su posterior.

   Figura: Cálculo geométrico de la moda

Page 64: Probabilidad y estadstica1 (1).doc

En el caso de variables continuas es más correcto hablar de intervalos modales. Una vez que este intervalo, (li-1, li], se ha obtenido, se utiliza la siguiente fórmula para calcular la moda, que está motivada en la figura 2.4:

Observación De la moda destacamos las siguientes propiedades:

Es muy fácil de calcular. Puede no ser única. Es función de los intervalos elegidos a través de su amplitud, número y

límites de los mismos. Aunque el primero o el último de los intervalos no posean extremos inferior

o superior respectivamente, la moda puede ser calculada.

3.3 Medidas de dispersión: Rango o amplitud de variación, desviación media, varianza y desviación estandar, momentos y courtosis.

Page 65: Probabilidad y estadstica1 (1).doc

Imagina que tenemos 3 conjuntos de personas y nos dicen que en todos los casos, la media del peso es 55. ¿Significa esto que los tres conjuntos de datos son iguales o similares? Conseguimos los datos originales y nos encontramos con que las observaciones son las siguientes:

Grupo 1: 55 55 55 55 55 55 55

Grupo 2: 47 51 54 55 56 59 63

Grupo 3: 39 47 53 55 57 63 71

vemos que, aunque la media es la misma, los conjuntos de datos son muy diferentes. Fíjate si hacemos el diagrama de tallo y hojas lo que obtenemos

    5    

    5    

    5    

    5    

    5    

    5    

    5    

3 4 5 6 7

         

         

    9    

    6    

    5    

    4    

  7 1 3  

3 4 5 6 7

         

         

         

         

    7    

    5    

9 7 1 3 1

3 4 5 6 7

Entonces ¿cómo podemos detectar esas diferencias entre los conjuntos de datos? Parece que las medidas de centralización no nos proporcionan información suficiente en muchas situaciones, así que debemos encontrar alguna otra cantidad que nos diga cómo de lejos están los datos entre ellos y de la media, es decir, nos surje la necesidad de medir la dispersión de los datos. Lo primero que vemos es que en el primer caso todos los datos son iguales, en el segundo hay más diferencia entre el mayor y el menor, y en el tercero más aún que en el segundo. Exactamente tenemos que

55-55=0

63-47=16

71-39=32

A esta cantidad la llamamos rango de los datos. Sin embargo, aunque es muy fácil de calcular, no se usa demasiado, porque si hay un sólo valor muy grande o muy pequeño, el rango varía mucho, así que no siempre es una medida útil. ¿Cómo podríamos encontrar un número que nos dé una aproximación de la distancia de los datos a la media? Pues podemos calcular todas las diferencias (en valor absoluto) entre las observaciones y la media y luego calcular la media de esas

Page 66: Probabilidad y estadstica1 (1).doc

diferencias. A esta cantidad la llamamos desviación media. Calculemos la desviación media del grupo 2 de datos, tenemos

Sin embargo, habitualmente se usa otra medida de la variabilidad, que responde a la media de los cuadrados de las desviaciones de los datos respecto a la media, así conseguimos que las desviaciones mayores influyan más que las pequeñas. Pero vamos a ver la definición rigurosa de todos estos conceptos.

RANGO

Rango: mide la amplitud de los valores de la muestra y se calcula por diferencia entre el valor más elevado y el valor más bajo.

VARIANZA

Varianza: Mide la distancia existente entre los valores de la serie y la media. Se calcula como sumatoria de las diferencias al cuadrado entre cada valor y la media, multiplicadas por el número de veces que se ha repetido cada valor. El sumatorio obtenido se divide por el tamaño de la muestra.

La varianza siempre será mayor que cero. Mientras más se aproxima a cero, más concentrados están los valores de la serie alrededor de la media. Por el contrario, mientras mayor sea la varianza, más dispersos están.

COEFICIENTE DE ASIMETRÍA DE PEARSON

Diremos que una distribución es simétrica cuando su mediana, su moda y su media aritmética coincidan. Claramente las distribuciones de los ejemplos de los niveles de colinesterasa y del n° de hijos no son por tanto, simétricas.

Page 67: Probabilidad y estadstica1 (1).doc

Diremos que una distribución es asimétrica a la derecha si las frecuencias (absolutas o relativas) descienden más lentamente por la derecha que por la izquierda.

Si las frecuencias descienden más lentamente por la izquierda que por la derecha diremos que la distribución es asimétrica a la izquierda.

Existen varias medidas de la asimetría de una distribución de frecuencias. Aquí estudiaremos dos de ellas.

a. Coeficiente de Asimetría de Pearson

Se define como:

siendo cero cuando la distribución es simétrica, positivo cuando existe asimetría a la derecha y negativo cuando existe asimetría a la izquierda.

En el ejemplo del número de hijos Ap es igual a

indicando una ligera asimetría a la izquierda en la distribución de frecuencias correspondiente.

De la misma manera, para el ejemplo de los niveles de colinesterasa también se observa una ligera asimetría a la izquierda, al ser

De la definición se observa que este coeficiente solo se podrá utilizar cuando la distribución sea unimodal. La otra medida de asimetría que veremos no presenta este inconveniente

3.4 Muestreo aleatorio: simple, sistemático, estratificado, por conglomerados

Introducción al muestreo.

Page 68: Probabilidad y estadstica1 (1).doc

a. Concepto e importanciaEs la actividad por la cual se toman ciertas muestras de una población de elementos de los cuales vamos a tomar ciertos criterios de decisión, el muestreo es importante porque a través de él podemos hacer análisis de situaciones de una empresa o de algún campo de la sociedad.

b. Terminología básica para el muestreoLos nuevos términos, los cuales son frecuentemente usados en inferencia estadística son:

Estadístico:Un estadístico es una medida usada para describir alguna característica de una muestra , tal como una media aritmética, una mediana o una desviación estándar de una muestra.

Parámetro:Una parámetro es una medida usada para describir alguna característica de una población, tal como una media aritmética, una mediana o una desviación estándar de una población.Cuando los dos nuevos términos de arriba son usados, por ejemplo, el proceso de estimación en inferencia estadística puede ser descrito como le proceso de estimar un parámetro a partir del estadístico correspondiente, tal como usar una media muestral ( un estadístico para estimar la media de la población (un parámetro).Los símbolos usados para representar los estadísticos y los parámetros, en éste y los siguientes capítulos, son resumidos en la tabla siguiente:

Tabla 1Símbolos para estadísticos y parámetros correspondientesMedida Símbolo para el estadístico Símbolo para el parámetro(muestra) (Población)Media X µDesviación estándar s Número de elementos n NProporción p P

Distribución en el muestreo:Cuando el tamaño de la muestra (n) es más pequeño que el tamaño de la población (N), dos o más muestras pueden ser extraídas de la misma población. Un cierto estadístico puede ser calculado para cada una de las muestras posibles extraídas de la población. Una distribución del estadístico obtenida de las muestras es llamada la distribución en el muestreo del estadístico.Por ejemplo, si la muestra es de tamaño 2 y la población de tamaño 3 (elementos A, B, C), es posible extraer 3 muestras ( AB, BC Y AC) de la población. Podemos calcular la media para cada muestra. Por lo tanto, tenemos 3 medias muéstrales para las 3 muestras. Las 3 medias muéstrales forman una distribución. La distribución de las medias es llamada la distribución de las medias muéstrales, o la

Page 69: Probabilidad y estadstica1 (1).doc

distribución en el muestreo de la media. De la misma manera, la distribución de las proporciones (o porcentajes) obtenida de todas las muestras posibles del mismo tamaño, extraídas de una población, es llamada la distribución en el muestreo de la proporción.

Error Estándar:

La desviación estándar de una distribución, en el muestreo de un estadístico, es frecuentemente llamada el error estándar del estadístico. Por ejemplo, la desviación estándar de las medias de todas la muestras posibles del mismo tamaño, extraídas de una población, es llamada el error estándar de la media. De la misma manera, la desviación estándar de las proporciones de todas las muestras posibles del mismo tamaño, extraídas de una población, es llamada el error estándar de la proporción. La diferencia entre los términos "desviación estándar" y "error de estándar" es que la primera se refiere a los valores originales, mientras que la última está relacionada con valores calculados. Un estadístico es un valor calculado, obtenido con los elementos incluidos en una muestra.

Error muestral o error de muestreo

La diferencia entre el resultado obtenido de una muestra (un estadístico) y el resultado el cual deberíamos haber obtenido de la población (el parámetro correspondiente) se llama el error muestral o error de muestreo. Un error de muestreo usualmente ocurre cuando no se lleva a cabo la encuesta completa de la población, sino que se toma una muestra para estimar las características de la población. El error muestral es medido por el error estadístico, en términos de probabilidad, bajo la curva normal. El resultado de la media indica la precisión de la estimación de la población basada en el estudio de la muestra. Mientras más pequeño el error muestras, mayor es la precisión de la estimación. Deberá hacerse notar que los errores cometidos en una encuesta por muestreo, tales como respuestas inconsistentes, incompletas o no determinadas, no son considerados como errores muéstrales. Los errores no muéstrales pueden también ocurrir en una encuesta completa de la población.

Métodos de selección de muestras.

Una muestra debe ser representativa si va a ser usada para estimar las características de la población. Los métodos para seleccionar una muestra representativa son numerosos, dependiendo del tiempo, dinero y habilidad disponibles para tomar una muestra y la naturaleza de los elementos individuales de la población. Por lo tanto, se requiere una gran volumen para incluir todos los

Page 70: Probabilidad y estadstica1 (1).doc

tipos de métodos de muestreo.Los métodos de selección de muestras pueden ser clasificados de acuerdo a:

1. El número de muestras tomadas de una población dada para un estudio y 1. La manera usada en seleccionar los elementos incluidos en la muestra. Los

métodos de muestreo basados en los dos tipos de clasificaciones son expuestos en seguida.

Métodos de muestreo clasificados de acuerdo con el número de muestras tomadas de una población.Bajo esta clasificación, hay tres tipos comunes de métodos de muestreo. Estos son, muestreo simple, doble y múltiple.

Muestreo simple

Este tipo de muestreo toma solamente una muestra de una población dada para el propósito de inferencia estadística. Puesto que solamente una muestra es tomada, el tamaño de muestra debe ser los suficientemente grande para extraer una conclusión. Una muestra grande muchas veces cuesta demasiado dinero y tiempo.

Muestreo doble

Bajo este tipo de muestreo, cuando el resultado dele estudio de la primera muestra no es decisivo, una segunda muestra es extraída de la misma población. Las dos muestras son combinadas para analizar los resultados. Este método permite a una persona principiar con una muestra relativamente pequeña para ahorrar costos y tiempo. Si la primera muestra arroja una resultado definitivo, la segunda muestra puede no necesitarse.Por ejemplo, al probar la calidad de un lote de productos manufacturados, si la primera muestra arroja una calidad muy alta, el lote es aceptado; si arroja una calidad muy pobre, el lote es rechazado. Solamente si la primera muestra arroja una calidad intermedia, será requerirá la segunda muestra. Un plan típico de muestreo doble puede ser obtenido de la Military Standard Sampling Procedures and Tables for Inspection by Attributes, publicada por el Departamento de Defensa y también usado por muchas industrias privadas. Al probar la calidad de un lote consistente de 3,000 unidades manufacturadas, cuando el número de defectos encontrados en la primera muestra de 80 unidades es de 5 o menos, el lote es considerado bueno y es aceptado; si el número de defectos es 9 o más, el lote es considerado pobre y es rechazado; si el número está entre 5 y 9, no puede llegarse a una decisión y una segunda muestra de 80 unidades es extraída del lote. Si el número de defectos en las dos muestras combinadas (incluyendo 80 + 80 = 160 unidades) es 12 o menos, el lote es aceptado si el número combinado es 13 o más, el lote es rechazado.

Page 71: Probabilidad y estadstica1 (1).doc

Muestreo múltiple

El procedimiento bajo este método es similar al expuesto en el muestreo doble, excepto que el número de muestras sucesivas requerido para llegar a una decisión es más de dos muestras.Métodos de muestreo clasificados de acuerdo con las maneras usadas en seleccionar los elementos de una muestra.Los elementos de una muestra pueden ser seleccionados de dos maneras diferentes:a. Basados en el juicio de una persona.b. Selección aleatoria (al azar)

Muestreo de juicio

Una muestra es llamada muestra de juicio cuando sus elementos son seleccionados mediante juicio personal. La persona que selecciona los elementos de la muestra, usualmente es un experto en la medida dada. Una muestra de juicio es llamada una muestra probabilística, puesto que este método está basado en los puntos de vista subjetivos de una persona y la teoría de la probabilidad no puede ser empleada para medir el error de muestreo, Las principales ventajas de una muestra de juicio son la facilidad de obtenerla y que el costo usualmente es bajo.

Muestreo Aleatorio

Una muestra se dice que es extraída al azar cuando la manera de selección es tal, que cada elemento de la población tiene igual oportunidad de ser seleccionado. Una muestra aleatoria es también llamada una muestra probabilística son generalmente preferidas por los estadísticos porque la selección de las muestras es objetiva y el error muestral puede ser medido en términos de probabilidad bajo la curva normal. Los tipos comunes de muestreo aleatorio son el muestreo aleatorio simple, muestreo sistemático, muestreo estratificado y muestreo de conglomerados.

A. Muestreo aleatorio simple

Una muestra aleatoria simple es seleccionada de tal manera que cada muestra posible del mismo tamaño tiene igual probabilidad de ser seleccionada de la población. Para obtener una muestra aleatoria simple, cada elemento en la población tenga la misma probabilidad de ser seleccionado, el plan de muestreo puede no conducir a una muestra aleatoria simple. Por conveniencia, este método

Page 72: Probabilidad y estadstica1 (1).doc

pude ser reemplazado por una tabla de números aleatorios. Cuando una población es infinita, es obvio que la tarea de numerar cada elemento de la población es infinita, es obvio que la tarea de numerar cada elemento de la población es imposible. Por lo tanto, ciertas modificaciones del muestreo aleatorio simple son necesarias. Los tipos más comunes de muestreo aleatorio modificado son sistemático, estratificado y de conglomerados.

B. Muestreo sistemático.

Una muestra sistemática es obtenida cuando los elementos son seleccionados en una manera ordenada. La manera de la selección depende del número de elementos incluidos en la población y el tamaño de la muestra. El número de elementos en la población es, primero, dividido por el número deseado en la muestra. El cociente indicará si cada décimo, cada onceavo, o cada centésimo elemento en la población va a ser seleccionado.El primer elemento de la muestra es seleccionado al azar. Por lo tanto, una muestra sistemática puede dar la misma precisión de estimación acerca de la población, que una muestra aleatoria simple cuando los elementos en la población están ordenados al azar.

C. Muestreo Estratificado

Para obtener una muestra aleatoria estratificada, primero se divide la población en grupos, llamados estratos, que son más homogéneos que la población como un todo. Los elementos de la muestra son entonces seleccionados al azar o por un método sistemático de cada estrato. Las estimaciones de la población, basadas en la muestra estratificada, usualmente tienen mayor precisión (o menor error muestral) que si la población entera muestreada mediante muestreo aleatorio simple. El número de elementos seleccionado de cada estrato puede ser proporcional o desproporcional al tamaño del estrato en relación con la población.

D. Muestreo de conglomerados.

Para obtener una muestra de conglomerados, primero dividir la población en grupos que son convenientes para el muestreo. En seguida, seleccionar una porción de los grupos al azar o por un método sistemático. Finalmente, tomar todos los elementos o parte de ellos al azar o por un método sistemático de los grupos seleccionados para obtener una muestra. Bajo este método, aunque no todos los grupos son muestreados, cada grupo tiene una igual probabilidad de ser seleccionado. Por lo tanto la muestra es aleatoria.Una muestra de conglomerados, usualmente produce un mayor error muestral (por lo tanto, da menor precisión de las estimaciones acerca de la población) que

Page 73: Probabilidad y estadstica1 (1).doc

una muestra aleatoria simple del mismo tamaño. Los elementos individuales dentro de cada "conglomerado" tienden usualmente a ser iguales. Por ejemplo la gente rica puede vivir en el mismo barrio, mientras que la gente pobre puede vivir en otra área. No todas las áreas son muestreadas en un muestreo de áreas. La variación entre los elementos obtenidos de las áreas seleccionadas es, por lo tanto, frecuentemente mayor que la obtenida si la población entera es muestreada mediante muestreo aleatorio simple. Esta debilidad puede reducida cuando se incrementa el tamaño de la muestra de área. El incremento del tamaño de la muestra puede fácilmente ser hecho en muestra muestra de área. Los entrevistadores no tienen que caminar demasiado lejos en una pequeña área para entrevistar más familias. Por lo tanto, una muestra grande de área puede ser obtenida dentro de un corto período de tiempo y a bajo costo.Por otra parte, una muestra de conglomerados puede producir la misma precisión en la estimación que una muestra aleatoria simple, si la variación de los elementos individuales dentro de cada conglomerado es tan grande como la de la población.

3.5 Muestreo no aleatorio: dirigido, por cuotas, deliberado

Muestreos no aleatorios

El muestreo no aleatorio, llamado «opinático puro», consiste en la elección de una muestra según el juicio del equipo investigador. Naturalmente, la calidad del muestreo no puede valorarse ni a priori ni objetivamente, pues depende de los criterios utilizados para escoger a los componentes de la muestra. A veces, razones de economía y rapidez lo hacen aconsejable. En ocasiones se completa el muestreo con el denominado «sistema de cuotas», que consiste en realizar cierto número de encuestas entre cada uno de los distintos grupos en que se divide el universo. Así, se puede exigir que haya «X» entrevistas a familias que tengan dos hijos, «Y» entrevistas a familias que vivan los padres con ellos... Esas especificaciones se determinan teniendo en cuenta las características conocidas del universo.

Dentro de este apartado, tenemos el muestreo denominado «semialeatorio», consistente en la obtención al azar de ciertos grupos del colectivo para dejar, a criterio del entrevistador, la elección del elemento que se va a elegir.

Un muestreo, bastante utilizado en las entrevistas y que según algunos autores puede resultar prácticamente aleatorio, es el denominado «muestreo por rutas», en el que partiendo de unos puntos determinados (calle, número...), los agentes van siguiendo su itinerario y efectúan las entrevistas de acuerdo con un ritmo (por ejemplo, cada 10 edificios) y unas normas (para la elección de viviendas).

Una variante de muestreo no aleatorio, que suele utilizarse frecuentemente en determinados casos, son las «reuniones de grupo» o «grupos de discusión». Su importancia en determinados estudios es tal que hemos considerado oportuno incluirlo como tema independiente al final del capítulo.  

Tamaño de la muestra

La muestra es el número de elementos, elegidos o no al azar, que hay que tomar de un universo para que los resultados puedan extrapolarse al mismo, y con la condición de que sean representativos de la población. El tamaño de la muestra depende de tres aspectos:

• Del error permitido.

Page 74: Probabilidad y estadstica1 (1).doc

• Del nivel de confianza con el que se desea el error.

• Del carácter finito o infinito de la población.

Las fórmulas generales que permiten determinar el tamaño de la muestra son las siguientes:

• Para poblaciones infinitas (más de 100.000 habitantes):

• Para poblaciones finitas (menos de 100.000 habitantes):

Leyenda:

n = Número de elementos de la muestra.

N = Número de elementos del universo.

P/Q = Probabilidades con las que se presenta el fenómeno.

Z2 = Valor crítico correspondiente al nivel de confianza elegido; siempre se opera con valor sigma 2, luego Z  =  2.

E = Margen de error permitido (a determinar por el director del estudio).

Cuando el valor de P y de Q no se conozca, o cuando la encuesta se realice sobre diferentes aspectos en los que estos valores pueden ser diferentes, es conveniente tomar el caso más favorable, es decir, aquel que necesite el máximo tamaño de la muestra, lo cual ocurre para P  =  Q  =  50, luego, P  =  50 y Q  =  50. En mi larga trayectoria profesional siempre he visto los valores P  x  Q como 50  x  50.

Para facilitar el cálculo del tamaño de la muestra pueden utilizarse unas tablas especiales, incorporadas en el anexo I y II, cuyo uso viene dado por el fácil método del eje de coordenadas.

Page 75: Probabilidad y estadstica1 (1).doc

En ambos casos si hubiésemos ido a las tablas de los anexos I y II hubiésemos obtenido el mismo resultado.

Unidad IV Inferencia estadística.

4.1 Estimación puntual y por intervalos de confianza

ESTIMACION

El objetivo principal de la estadística inferencial es la estimación, esto es que mediante el estudio de una muestra de una población se quiere generalizar las conclusiones al total de la misma. Como vimos en la sección anterior, los estadísticos varían mucho dentro de sus distribuciones muéstrales, y mientras menor sea el error estándar de un estadístico, más cercanos serán unos de otros sus valores.

Existen dos tipos de estimaciones para parámetros; puntuales y por intervalo. Una estimación puntual es un único valor estadístico y se usa para estimar un parámetro. El estadístico usado se denomina estimador.

Una estimación por intervalo es un rango, generalmente de ancho finito, que se espera que contenga el parámetro.

Page 76: Probabilidad y estadstica1 (1).doc

Estimación Puntual

La inferencia estadística está casi siempre concentrada en obtener algún tipo de conclusión acerca de uno o más parámetros (características poblacionales). Para hacerlo, se requiere que un investigador obtenga datos muestrales de cada una de las poblaciones en estudio. Entonces, las conclusiones pueden estar basadas en los valores calculados de varias cantidades muestrales . Po ejemplo, representamos con (parámetro) el verdadero promedio de resistencia a la ruptura de conexiones de alambres utilizados para unir obleas de semiconductores. Podría tomarse una muestra aleatoria de 10 conexiones para determinar la resistencia a la ruptura de cada una, y la media muestral de la resistencia a la ruptura se podía emplear para sacar una conclusión acerca del

valor de . De forma similar, si es la varianza de la distribución de resistencia a la ruptura, el valor de la varianza muestral s2 se podría utilizar pra inferir algo

acerca de .

Cuando se analizan conceptos generales y métodos de inferencia es conveniente tener un símbolo genérico para el parámetro de interés. Se utilizará la letra griega

para este propósito. El objetivo de la estimación puntual es seleccionar sólo un número, basados en datos de la muestra, que represente el valor más razonable de .

Una muestra aleatoria de 3 baterías para calculadora podría presentar duraciones observadas en horas de x1=5.0, x2=6.4 y x3=5.9. El valor calculado de la duración media muestral es = 5.77, y es razonable considerar 5.77 como el valor más adecuado de .

Una estimación puntual de un parámetro es un sólo número que se puede considerar como el valor más razonable de . La estimación puntual se obtiene al seleccionar una estadística apropiada y calcular su valor a partir de datos de la muestra dada. La estadística seleccionada se llama estimador puntual de .

 

El símbolo (theta sombrero) suele utilizarse para representar el estimador de y

la estimación puntual resultante de una muestra dada. Entonces se lee como "el estimador puntual de es la media muestral ". El enunciado "la estimación

puntual de es 5.77" se puede escribir en forma abreviada .

Ejemplo:

Page 77: Probabilidad y estadstica1 (1).doc

En el futuro habrá cada vez más interés en desarrollar aleaciones de Mg de bajo costo, para varios procesos de fundición. En consecuencia, es importante contar con métodos prácticos para determinar varias propiedades mecánicas de esas aleaciones. Examine la siguiente muestra de mediciones del módulo de elasticidad obtenidos de un proceso de fundición a presión:

44.2 43.9 44.7 44.2 44.0 43.8 44.6 43.1

Suponga que esas observaciones son el resultado de una muestra aleatoria. Se

desea estimar la varianza poblacional . Un estimador natural es la varianza muestral:

En el mejor de los casos, se encontrará un estimador para el cual siempre.

Sin embargo, es una función de las Xi muestrales, por lo que en sí misma una variable aleatoria.

Entonces el estimador preciso sería uno que produzca sólo pequeñas diferencias de estimación, de modo que los valores estimados se acerquen al valor verdadero.

Propiedades de un Buen Estimador

Insesgado.- Se dice que un estimador puntual es un estimador insesgado

de si , para todo valor posible de . En otras palabras, un estimador insesgado es aquel para el cual la media de la distribución muestral eÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿ

Page 78: Probabilidad y estadstica1 (1).doc

ÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿ

Page 79: Probabilidad y estadstica1 (1).doc

ÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿ

Page 80: Probabilidad y estadstica1 (1).doc

ÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿ

Page 81: Probabilidad y estadstica1 (1).doc

ÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿÿsuficientemente amplia, ésta será representativa. Además, es necesario atender al método mediante el cual se elige físicamente la muestra:

• Muestreo aleatorio o probabilístico.

• Muestreo no aleatorio u opinático.

4.2 Prueba de hipótesis y planteamiento de las hipótesis

Las secciones anteriores han mostrado cómo puede estimarse un parámetro a partir de los datos contenidos en una muestra. Puede encontrarse ya sea un sólo número (estimador puntual) o un intervalo de valores posibles (intervalo de confianza). Sin embargo, muchos problemas de ingeniería, ciencia, y administración, requieren que se tome una decisión entre aceptar o rechazar una proposición sobre algún parámetro. Esta proposición recibe el nombre de hipótesis. Este es uno de los aspectos más útiles de la inferencia estadística, puesto que muchos tipos de problemas de toma de decisiones, pruebas o experimentos en el mundo de la ingeniería, pueden formularse como problemas de prueba de hipótesis.

Una hipótesis estadística es una proposición o supuesto sobre los parámetros de una o más poblaciones.

Suponga que se tiene interés en la rapidez de combustión de un agente propulsor sólido utilizado en los sistemas de salida de emergencia para la tripulación de aeronaves. El interés se centra sobre la rapidez de combustión promedio. De manera específica, el interés recae en decir si la rapidez de combustión promedio es o no 50 cm/s. Esto puede expresarse de manera formal como

Ho; = 50 cm/s

H1; 50 cm/s

Page 82: Probabilidad y estadstica1 (1).doc

La proposición Ho; = 50 cm/s, se conoce como hipótesis nula, mientras que la

proposición H1; 50 cm/s, recibe el nombre de hipótesis alternativa. Puesto que la hipótesis alternativa especifica valores de que pueden ser mayores o menores que 50 cm/s, también se conoce como hipótesis alternativa bilateral. En algunas situaciones, lo que se desea es formular una hipótesis alternativa unilateral, como en

Ho; = 50 cm/s Ho; = 50 cm/s

ó

H1; < 50 cm/s H1; > 50 cm/s

Es importante recordar que las hipótesis siempre son proposiciones sobre la población o distribución bajo estudio, no proposiciones sobre la muestra. Por lo general, el valor del parámetro de la población especificado en la hipótesis nula se determina en una de tres maneras diferentes:

1. Puede ser resultado de la experiencia pasada o del conocimiento del proceso, entonces el objetivo de la prueba de hipótesis usualmente es determinar si ha cambiado el valor del parámetro.

2. Puede obtenerse a partir de alguna teoría o modelo que se relaciona con el proceso bajo estudio. En este caso, el objetivo de la prueba de hipótesis es verificar la teoría o modelo.

3. Cuando el valor del parámetro proviene de consideraciones externas, tales como las especificaciones de diseño o ingeniería, o de obligaciones contractuales. En esta situación, el objetivo usual de la prueba de hipótesis es probar el cumplimiento de las especificaciones.

Un procedimiento que conduce a una decisión sobre una hipótesis en particular recibe el nombre de prueba de hipótesis. Los procedimientos de prueba de hipótesis dependen del empleo de la información contenida en la muestra aleatoria de la población de interés. Si esta información es consistente con la hipótesis, se concluye que ésta es verdadera; sin embargo si esta información es inconsistente con la hipótesis, se concluye que esta es falsa. Debe hacerse hincapié en que la verdad o falsedad de una hipótesis en particular nunca puede conocerse con certidumbre, a menos que pueda examinarse a toda la población. Usualmente esto es imposible en muchas situaciones prácticas. Por tanto, es necesario desarrollar un procedimiento de prueba de hipótesis teniendo en cuenta la probabilidad de llegar a una conclusión equivocada.

La hipótesis nula, representada por Ho, es la afirmación sobre una o más características de poblaciones que al inicio se supone cierta (es decir, la "creencia a priori").

Page 83: Probabilidad y estadstica1 (1).doc

La hipótesis alternativa, representada por H1, es la afirmación contradictoria a Ho, y ésta es la hipótesis del investigador.

La hipótesis nula se rechaza en favor de la hipótesis alternativa, sólo si la evidencia muestral sugiere que Ho es falsa. Si la muestra no contradice decididamente a Ho, se continúa creyendo en la validez de la hipótesis nula. Entonces, las dos conclusiones posibles de un análisis por prueba de hipótesis son rechazar Ho o no rechazar Ho.

Prueba de una Hipótesis Estadística

Para ilustrar los conceptos generales, considere el problema de la rapidez de combustión del agente propulsor presentado con anterioridad. La hipótesis nula es que la rapidez promedio de combustión es 50 cm/s, mientras que la hipótesis alternativa es que ésta no es igual a 50 cm/s. Esto es, se desea probar:

Ho; = 50 cm/s

H1; 50 cm/s

Supóngase que se realiza una prueba sobre una muestra de 10 especímenes, y que se observa cual es la rapidez de combustión promedio muestral. La media muestral es un estimador de la media verdadera de la población. Un valor de la media muestral que este próximo al valor hipotético = 50 cm/s es una evidencia de que el verdadero valor de la media es realmente 50 cm/s; esto es, tal evidencia apoya la hipótesis nula Ho. Por otra parte, una media muestral muy diferente de 50 cm/s constituye una evidencia que apoya la hipótesis alternativa H1. Por tanto, en este caso, la media muestral es el estadístico de prueba.

La media muestral puede tomar muchos valores diferentes. Supóngase que si 48.5 51.5, entonces no se rechaza la hipótesis nula Ho; = 50 cm/s, y que si

<48.5 ó >51.5, entonces se acepta la hipótesis alternativa H1; 50 cm/s.

Los valores de que son menores que 48.5 o mayores que 51.5 constituyen la región crítica de la prueba, mientras que todos los valores que están en el intervalo 48.5 51.5 forman la región de aceptación. Las fronteras entre las regiones crítica y de aceptación reciben el nombre de valores críticos. La costumbre es establecer conclusiones con respecto a la hipótesis nula Ho. Por tanto, se rechaza Ho en favor de H1 si el estadístico de prueba cae en la región crítica, de lo contrario, no se rechaza Ho.

Este procedimiento de decisión puede conducir a una de dos conclusiones erróneas. Por ejemplo, es posible que el valor verdadero de la rapidez promedio de combustión del agente propulsor sea igual a 50 cm/s. Sin embargo, para todos los especímenes bajo prueba, bien puede observarse un valor del estadístico de

Page 84: Probabilidad y estadstica1 (1).doc

prueba que cae en la región crítica. En este caso, la hipótesis nula Ho será rechazada en favor de la alternativa H1cuando, de hecho, Ho en realidad es verdadera. Este tipo de conclusión equivocada se conoce como error tipo I.

El error tipo I se define como el rechazo de la hipótesis nula Ho cuando ésta es verdadera. También es conocido como ó nivel de significancia.

Si tuviéramos un nivel de confianza del 95% entonces el nivel de significancia sería del 5%. Análogamente si se tiene un nivel de confianza del 90% entonces el nivel de significancia sería del 10%.

Ahora supóngase que la verdadera rapidez promedio de combustión es diferente de 50 cm/s, aunque la media muestral caiga dentro de la región de aceptación. En este caso se acepta Ho cuando ésta es falsa. Este tipo de conclusión recibe el nombre de error tipo II.

El error tipo II ó error se define como la aceptación de la hipótesis nula cuando ésta es falsa.

Por tanto, al probar cualquier hipótesis estadística, existen cuatro situaciones diferentes que determinan si la decisión final es correcta o errónea.

Decisión Ho es verdadera Ho es falsa

Aceptar Ho No hay error Error tipo II ó

Rechazar Ho Error tipo I ó No hay error

1. Los errores tipo I y tipo II están relacionados. Una disminución en la probabilidad de uno por lo general tiene como resultado un aumento en la probabilidad del otro.

2. El tamaño de la región crítica, y por tanto la probabilidad de cometer un error tipo I, siempre se puede reducir al ajustar el o los valores críticos.

3. Un aumento en el tamaño muestral n reducirá y de forma simultánea.

4. Si la hipótesis nula es falsa, es un máximo cuando el valor real del parámetro se aproxima al hipotético. Entre más grande sea la distancia

entre el valor real y el valor hipotético, será menor

Page 85: Probabilidad y estadstica1 (1).doc

4.5 Pruebas unilaterales y bilaterales

4.6 Prueba de hipótesis para una distribución muestral de diferencias de medias

PASOS PARA ESTABLECER UN ENSAYO DE HIPOTESIS

INDEPENDIENTEMENTE DE LA DISTRIBUCION QUE SE ESTE TRATANDO

1. Interpretar correctamente hacia que distribución muestral se ajustan los datos del enunciado.

2. Interpretar correctamente los datos del enunciado diferenciando los parámetros de los estadísticos. Así mismo se debe determinar en este punto información implícita como el tipo de muestreo y si la población es finita o infinita.

3. Establecer simultáneamente el ensayo de hipótesis y el planteamiento gráfico del problema. El ensayo de hipótesis está en función de parámetros ya que se quiere evaluar el universo de donde proviene la muestra. En este punto se determina el tipo de ensayo (unilateral o bilateral).

4. Establecer la regla de decisión. Esta se puede establecer en función del valor crítico, el cual se obtiene dependiendo del valor de (Error tipo I o nivel de significancia) o en función del estadístico límite de la distribución muestral. Cada una de las hipótesis deberá ser argumentada correctamente para tomar la decisión, la cual estará en función de la hipótesis nula o Ho.

5. Calcular el estadístico real, y situarlo para tomar la decisión. 6. Justificar la toma de decisión y concluir.7.

4.9 Muestreo pequeño: Distribución de ji-cuadrada. Cuadros de contingencia, limitaciones de la prueba de ji-cuadrada

Distribución muestral de Proporciones

Existen ocasiones en las cuales no estamos interesados en la media de la muestra, sino que queremos investigar la proporción de artículos defectuosos o la proporción de alumnos reprobados en la muestra. La distribución muestral de proporciones es la adecuada para dar respuesta a estas situaciones. Esta distribución se genera de igual manera que la distribución muestral de medias, a excepción de que al extraer las muestras de la población se calcula el estadístico proporción (p=x/n en donde "x" es el número de éxitos u observaciones de interés y "n" el tamaño de la muestra) en lugar del estadísitico media.

Page 86: Probabilidad y estadstica1 (1).doc

Una población binomial está estrechamente relacionada con la distribución muestral de proporciones; una población binomial es una colección de éxitos y fracasos, mientras que una distribución muestral de proporciones contiene las posibilidades o proporciones de todos los números posibles de éxitos en un experimento binomial, y como consecuencia de esta relación, las afirmaciones probabilísticas referentes a la proporción muestral pueden evaluarse usando la aproximación normal a la binomial, siempre que np 5 y n(1-p) 5. Cualquier evento se puede convertir en una proporción si se divide el número obtenido entre el número de intentos.

Generación de la Distribución Muestral de Proporciones

Suponga que se cuenta con un lote de 12 piezas, el cual tiene 4 artículos defectuosos. Se van a seleccionar 5 artículos al azar de ese lote sin reemplazo. Genere la distribución muestral de proporciones para el número de piezas defectuosas.

Como se puede observar en este ejercicio la Proporción de artículos defectuosos de esta población es 4/12=1/3. Por lo que podemos decir que el 33% de las piezas de este lote están defectuosas.

El número posible de muestras de tamaño 5 a extraer de una población de 12 elementos es 12C5=792, las cuales se pueden desglosar de la siguiente manera:

Artículos Buenos

Artículos Malos

Proporción de artículos defectuoso

Número de maneras en las que se puede obtener la muestra

1 4 4/5=0.8 8C1*4C4=8

Page 87: Probabilidad y estadstica1 (1).doc

2 3 3/5=0.6 8C2*4C3=112

3 2 2/5=0.4 8C3*4C2=336

4 1 1/5=0.2 8C4*4C1=280

5 0 0/5=0 8C5*4C0=56

Total 792

Para calcular la media de la distribución muestral de proporciones se tendría que hacer la sumatoria de la frecuencia por el valor de la proporción muestral y dividirla entre el número total de muestras.

Como podemos observar la media de la distribución muestral de proporciones es igual a la Proporción de la población.

p = P

También se puede calcular la desviación estándar de la distribución muestral de proporciones:

La varianza de la distribución binomial es 2= npq, por lo que la varianza de la distribución muestral de proporciones es 2

p =(Pq)/n. Si se sustituten los valores en esta fórmula tenemos que , este valor no coincide con el de 0.1681, ya que nos falta agregar el factor de corrección para una población finita y un muestreo sin reemplazo:

Page 88: Probabilidad y estadstica1 (1).doc

La fórmula que se utilizará para el cálculo de probabilidad en una distribución muestral de proporciones está basada en la aproximación de la distribución normal a la binomial . Esta fórmula nos servirá para calcular la probabilidad del comportamiento de la proporción en la muestra.

Ejemplo:

Se ha determinado que 60% de los estudiantes de una universidad grande fuman cigarrillos. Se toma una muestra aleatoria de 800 estudiantes. Calcule la probabilidad de que la proporción de la muestra de la gente que fuma cigarrillos sea menor que 0.55.

Solución:

Este ejercicio se puede solucionar por dos métodos. El primero puede ser con la aproximación de la distribución normal a la binomial y el segundo utilizando la fórmula de la distribución muestral de proporciones.

Aproximación de la distribución normal a la binomial:

Datos:

n=800 estudiantes

p=0.60

x= (.55)(800) = 440 estudiantes

p(x 440) = ?

Media= np= (800)(0.60)= 480

Page 89: Probabilidad y estadstica1 (1).doc

p(x 440) = 0.0017. Este valor significa que existe una probabilidad del 0.17% de que al extraer una muestra de 800 estudiantes, menos de 440 fuman cigarrillos.

 

Distribución Muestral de Proporciones

Datos:

n=800 estudiantes

P=0.60

p= 0.55

p(p 0.55) = ?

Unidad V Análisis de regresión y correlación.

5.1 Regresión lineal simple, curvilínea y múltiple

Page 90: Probabilidad y estadstica1 (1).doc

Regresión lineal simple

En un problema de regresión, los carácteres no son considerados de la misma forma. Uno de ellos es el carácter ''a explicar'', los otros son ''explicativos''. Vamos primero a

considerar el caso de dos carácteres, (explicativo) e (a explicar). ''Explicar'' significa aquí expresar una dependencia

funcional de como función de , de manera tal de prever el

valor de conociendo el de . Si para todo individuo ,

, y si se observa un valor del carácter en un

nuevo individuo, daremos como predicción del

carácter en este nuevo individuo. La situación ideal donde

no se encuentra nunca en la práctica. Más bien se buscará, en una familia fija de funciones, aquella para la que

los se encuentran más cerca de los . La cercanía se mide en general por el error cuadrático medio:

(3.2)

Hablamos entonces de regresión en el sentido de los mínimos cuadrados. Las diferencias entre los valores

observados y los valores que predice el modelo , se llaman los residuos. Si el modelo se ajusta de manera tal que la serie de los residuos sea centrada (de media nula),

Page 91: Probabilidad y estadstica1 (1).doc

entonces el error cuadrático es la varianza de los

residuos. La regresión lineal consiste en buscar entre las funciones afines. La solución se expresa de manera simple a

partir de las carácterísticas de e .

Proposición 3.5   Sean e dos muestras observadas sobre una misma población de tamaño . Denotemos por

la función de en definida por:

Si (el carácter no es constante), la función admite un mínimo en:

   y El valor de este mínimo es:

Definición 3.6   Llamamos recta de regresión lineal de

sobre a la recta de ecuación .

Demostración:  Si fijamos , es un polinomio de

grado en . El alcanza su mínimo para un tal que la derivada se anule. Calculando:

Page 92: Probabilidad y estadstica1 (1).doc

Obtenemos por tanto . Substituimos este valor

en  :

Esta función es un polinomio de grado en , que alcanza su mínimo en el punto donde se anula su derivada. Obtenemos:

sea:

Pongamos:

   y

Tenemos entonces para todo par :

El valor del mínimo es:

 

   

   

   

Como se esperaba, el error cuadrático minimal es menor cuando la correlación es más fuerte.

Page 93: Probabilidad y estadstica1 (1).doc

Es importante observar la diferencia de los roles que

desempeñan e . Geométricamente, la recta de regresión

lineal de con respecto a minimiza la suma de las

distancias verticales de los puntos a la recta. La recta

de regresión lineal de con respecto a minimiza las distancias horizontales. Las dos rectas se cortan en el centro

de gravedad, , de la nube de puntos. La separación entre las dos rectas es mayor cuando la correlación es más débil.

La predicción es la primera aplicación de la regresión lineal. A continuación tenemos las estaturas en centímetros

(muestra ) y el peso en kilogramos ( ) de niños de años.

Niño 1 2 3 4 5 6 7 8 9 10

Estatura 121 123 108 118 111 109 114 103 110 115

Peso 25 22 19 24 19 18 20 15 20 21Las carácterísticas numéricas toman los siguientes valores:

Page 94: Probabilidad y estadstica1 (1).doc

Gráfico 14: Estatura y peso de niños de 6 años: recta de regresión.

Hacer una regresión lineal quiere decir que se piensa que el peso debe crecer, en general, proporcionalmente a la estatura. La recta de regresión lineal constituye un modelo de predicción. Por ejemplo diremos que el peso promedio de un niño de 6 años que mide 120 centímetros será de

kg. Evidentemente esta predicción no es infalible. Ella sólo da un orden de magnitud. El valor observado será probablemente distinto y el error previsible

será del orden de kg.

Como segunda aplicación se puede extender el ajuste por cuantiles a familias de leyes invariantes por

transformaciones afines, como las leyes normales . Sea una muestra continua de tamaño para la cual queremos verificar si ella podría haber salido de una ley normal

Page 95: Probabilidad y estadstica1 (1).doc

, con parámetros y desconocidos. Para

, denotemos como siempre por los estadígrafos de orden. Si la hipótesis de normalidad es

pertinente, entonces debe estar cerca del cuantil

de la ley . Recordemos que si una

variable aleatoria sigue la ley , entonces

sigue la ley . Esto es lo mismo que

decir que para todo :

Denotemos por los valores de la función

cuantil de la ley en los puntos . Si la hipótesis de

normalidad se verifica, los puntos de coordenadas

deberían estar cercanos de la recta de ecuación .

Una regresión lineal de las con respecto a las nos da a

la vez una estimación de los valores de y , y una indicación sobre la calidad del ajuste (figura 15). Antes de que existieran los programas de cálculo, se vendía papel ''gausso-aritmético'', graduado en las abscisas según los

cuantiles de la ley . Bastaba poner en las ordenadas

los valores de las para trazar a mano la recta de regresión lineal, que lleva el nombre de ''recta de Henry'', por el nombre del coronel que inventó este método en el siglo XIX para estudiar el alcance de los cañones.

Page 96: Probabilidad y estadstica1 (1).doc

Gráfico 15: Estaturas de niños de 6 años. Cuantiles

de la ley normal y estadígrafos de orden. Superposición de la recta de Henry.

El problema de la regresión es determinar en una familia de funciones dada, cual es la función que minimiza el error cuadrático (3.2). Pero es frecuente que no haya una solución explícita. Para ciertas familias de funciones, se transforma el problema de manera tal de llevarlo a una regresión lineal. Presentamos aquí algunos casos frecuentes.

Familia Funciones Transformación Forma afín

exponencial

potencia

inversa

logística

Page 97: Probabilidad y estadstica1 (1).doc

Como ejemplo de aplicación, vamos a tomar el problema del ajuste por los cuantiles para la familia de leyes de Weibull, las cuales se emplean frecuentemente para modelar tiempos de sobrevida en medicina o tiempos de funcionamiento en

fiabilidad. La función cuantil de la ley de Weibull es:

Sea una muestra que queremos ajustar por una ley de

Weibull de parámetros y desconocidos. Para

, el estadígrafo de orden debe estar cerca del cuantil

.

o sea:

Pongamos y . Los

puntos deberían estar cerca de la recta de ecuación

. Una regresión lineal nos dará no solamente los valores para y , sino también una indicación sobre la calidad del ajuste. Antes de los programas de cálculo, existía también un ''papel Weibull'',

Page 98: Probabilidad y estadstica1 (1).doc

graduado de manera tal que se podía automatizar este caso particular de regresión no lineal.

5.2 Correlación

Otra forma de análisis bivariado es la correlación y regresión de variables numéricas y discretas. El concepto de correlación y regresión se basa en el grado de relación que poseen dos variables numéricas entre si.

El coeficiente de correlación permite predecir si entre dos variables existe o no una relación o dependencia matemática.

Supongamos que queremos estudiar la correlación existente entre peso y altura de un grupo de personas tomadas al azar. Sometemos los datos recogidos de peso y altura al análisis de correlación y encontramos el coeficiente de correlación entre ambas, que se representa con la letra r. El r = 0.78. Esto significa que a mayor altura correspondería mayor peso.

Los coeficientes de correlación r siempre oscilan entre valores de 1 y –1. El valor cero 0 significa que no existe correlación entre ambas variables. Un valor positivo indica que a incrementos en la variable A se producen incrementos proporcionales en B y un valor negativo indica lo contrario.

Podemos graficar la correlación entre las dos variables a través de una gráfica de dos ejes (abscisas y ordenadas) cartesianos.

En el siguiente gráfico observamos la correlación entre potencia de motor de un automóvil y consumo en Litros por cada 100 Km. El r = 0.87 (correlación positiva). (SPSS). Evidentemente a mayor potencia se observa mayor consumo de combustible. El valor de significación para ese r es de una p < 0.01. Esto quiere decir que la correlación entre potencia y consumo no es aleatoria.

En el siguiente gráfico encontramos la relación existente entre peso del automóvil en kg. y aceleración 0 a 100 Km. / hora en segundos. El r = - 0.56 con una p < 0.05. Esto significa que

Page 99: Probabilidad y estadstica1 (1).doc

existe una correlación negativa significativa, entre peso del auto y respuesta de la aceleración. Automóviles más pesados presentan una respuesta más tardía y viceversa. (SPSS)

Para interpretar el coeficiente de correlación, Colton a dado los siguientes lineamientos generales:

Valor de r de 0 a 0.25 implica que no existe correlación entre ambas variables. Valor de r de 0.25 a 0.50 implica una correlación baja a moderada. Valor de r de 0.50 a 0.75 implica correlación moderada a buena. Valor de r de 0.75 o mayor, implica una muy buena a excelente correlación. Estos rangos de valores se pueden extrapolar a correlaciones negativas también.

Se debe tener cuidado al analizar la correlación entre dos variables, de que ambas varíen juntas permanentemente. Esto parece redundante, pero es importante. Por ejemplo, si correlacionamos edad y altura. La altura irá aumentando con la edad hasta un determinado punto en donde ya no aumentará más.

5.3 Regresión y correlación para datos agrupados

Recta de regresión

Supongamos que en una variable bidimensional queremos precisar la relación que existe entre las dos variables que la forman. En concreto queremos expresar mediante una relación cómo depende una de ellas (variable dependiente) de la otra (variable independiente). Normalmente se elige como y la variable dependiente y como x la independiente.

Si esa relación se expresa mediente una función lineal del tipo y = ax + b, su gráfica correspondería a una recta.

Page 100: Probabilidad y estadstica1 (1).doc

En el caso que nos ocupa nos interesa la recta que mejor "se ajuste" a los puntos de la nube de puntos de la variable. Dicha recta se denomina: recta de regresión.

Por un método que se denomina de "mínimos cuadrados" y cuya concrección no corresponde a este nivel de estudio, se deduce que la recta de regresión debe pasar por el punto correspondiente a las medias de ambas variables y que debe tener por pendiente la covarianza dividida por la varianza de la variable x.

Con ello la expresión de la recta de regresión será:

Esta es la llamada "Recta de regresión de y sobre x". Si se deseara estudiar la dependencia de x respecto a y sólo habría que cambiar en la expresión de la recta x por y, obteniéndose la recta regresión de x sobre y.

En la imagen siguiente se muestra la recta de regresión de y (peso) sobre x (talla) del ejemplo 1 de este tema. En este caso se supone que represente cómo depende el peso de una persona de su talla.

Si recordamos que entre la talla y el peso decíamos que existía una dependencia directa, la recta de regresión lo confirma ya que su pendiente es positiva: a medida que aumenta la talla aumenta el peso. Por tanto:

Dependencia directa - Pendiente de la recta positiva - Función creciente.

Pero ¿qué utilidad tiene la recta de regresión?

En la tabla de valores de la variable talla - peso, solamente nos dan los valores de un determinado número de personas (10 en este caso): las personas de las que se conocen dichos valores. Mediante la recta de regresión podríamos obtener de

Page 101: Probabilidad y estadstica1 (1).doc

manera aproximada el peso de una persona de la que conociéramos la talla, en una población semejante a aquella de la que se ha obtenido la muestra.

Si observamos la gráfica anterior, podríamos suponer por ejemplo que una persona de 185 cm pesaría algo más de 80 kg.

De manera más precisa, si conocemos la expresión de la recta de regresión, se pueden calcular valores para la variable y, conocidos los de x, como si se tratara de una función.

Ejemplo 4.- La recta de regresión de la variable y (talla) sobre x (peso) será la recta:

- que pasa por el punto (172,6 ; 66,3)

- tiene de pendiente: 55,32 / 50,71 = 1,0909

Recta: y - 66,3 = 1,0909 ( x - 172,6) que operando y simplificando queda:

y = 1,0909x - 121,9

El valor del peso que suponíamos aproximado para una talla de 185 cm sería: Peso= 1.0909 · 185 - 121,9 = 79.9

Este valor obtenido es algo menor al esperado. Eso quiere decir que las predicciones hechas con la recta de regresión no son exactas. En el apartado siguiente precisaremos la "fiabilidad" de las mismas.

Por tanto la recta de regresión se puede utilizar para realizar predicciones para la variable y a partir de valores conocidos de la variable x.

Ejercicio 4.- Observar la tabla de valores siguiente y la escena donde dichos valores están representados. En la escena a los pares de valores le llamamos (a,a1) ; (b,b1); etc.

x 2 4 6 8 10 12

y 8 7 7 6 6 4

- Calcular la recta de regresión de y sobre x.

Se debe obtener los valores siguientes:

Page 102: Probabilidad y estadstica1 (1).doc

Media de x: 7 ; Media de y: 6,33 ; covarianza: -3,99 ; varianza de x: 11,66 y con ello:

recta de regresión: y = -0,342 x + 8,72

- ¿Cómo es la pendiente ? ¿qué tipo de dependencia existe entre las variables?

- Dar algunos valores a x y obtener los correspondientes a y según la recta de regresión. Comprobar en la escena si los valores obtenidos son correctos.

- Cambiar los valores iniciales de la tabla en la escena viendo cómo varía la recta de regresión y calcularla en los casos que se desee (por ejemplo un caso en que la pendiente de la recta sea positiva).

 

Coeficiente de correlación

Una vez observado que en una variable bidimensional existe una cierta dependencia entre las dos características o variables que la forman (nube de puntos y covarianza), podemos precisar el grado de dicha dependencia.

- Si los puntos de la nube estuvieran todos sobre la recta de regresión se diría que existe una dependencia funcional. De su estudio se encargan las funciones.

- Si los puntos no están todos sobre la recta de regresión se dice que entre las variables hay una cierta correlación lineal. Este es el caso que nos ocupa. Para cuantificar el grado de dicha correlación se usa el:

Coeficiente de correlación de Pearson. Si le llamamos r, su valor es:

Puede observarse que el signo del coeficiente de correlación es el mismo que el de la covarianza y puede deducirse que el valor del mismo esta comprendico entre -1 y 1.

En la escena siguiente se puede observar la escena del ejercicio 4, donde se ha añadido el valor del coeficiente de correlación.

 

Page 103: Probabilidad y estadstica1 (1).doc

Se pueden deducir las siguientes conclusiones relativas al coeficiente de correlación (r):

- Su signo es el mismo de la covarianza, luego si r es positivo la dependencia es directa y si es negativo inversa.

- Si r se acerca a -1 o a +1, la dependencia es fuerte y por tanto las predicciones que se realicen a partir de la recta de regresión serán bastante fiables.

- Si r se acerca a 0 la dependencia es débil y por tanto las predicciones que se realicen a partir de la recta de regresión serán poco fiables.

 

Ejercicio 5.- Calcular el coeficiente de correlación para la variable talla - peso y deducir del valor del mismo el tipo de dependencia y la fiabilidad de las predicciones. (Sol: r = 0,90)

5.4 Correlación por rangos

Correlación por rangos

Hay varios modos de determinar la magnitud de un coeficiente de correlación. El más sencillo es el coeficiente de correlación por rangos, cuyo símbolo es p, (la letra griega rho).

El primer paso para obtener p es ordenar a los sujetos por sus rendimientos en cada uno de los tests analizados. Luego se comparan los rangos y de esta comparación se deriva el valor de p.

Si hubiese correlación positiva perfecta, no habrá diferencia entre los dos conjuntos de rangos.

En cambio si la correlación fuese algo menos que perfecta, las diferencias entre los rangos no sería 0, en modo alguno. Cuanto mayores sean las disparidades de los rangos, menor será la relación positiva entre los dos conjuntos de puntuaciones. Por lo tanto, la medida de las diferencias del rango proporciona, evidentemente un modo de medir el coeficiente de correlación. Cuanto mayor sea la medida, menor será la correlación positiva.

Siendo + 100 la correlación positiva mayor posible, para obtener el coeficiente de correlación restaremos de cien la media de las diferencias entre los rangos.

Page 104: Probabilidad y estadstica1 (1).doc

Cuánto más elevada sea la media de las diferencias entre los rangos, menor será el coeficiente de correlación.

Fórmula: la cuantía de la correlación es I menos la media de las diferencias entre los rangos, o

P = I - sumatoria D2

___________

N

Fórmula derivada por lógica, que es de estructura muy semejante a la obtenida matemáticamente.

Por diversas razones matemáticas, la verdadera fórmula es:

P = I -6sumatoriad2

________________

N(N2 - I)

El mismo razonamiento sirve para la correlación negativa por rangos.

5.5 Coeficiente de correlación para datos nominales

Correlación de producto-momento

El coeficiente de correlación más frecuentemente usado es el coeficiente de correlación producto-momento.

La fórmula es: r =sumatoria xy

__________

Noxoy

X e y son las desviaciones de las puntuaciones individuales de las medias del grupo, ox es la desviación standard de las puntuaciones en el test x y oy la desviación standard de las puntuaciones en el test y.

Page 105: Probabilidad y estadstica1 (1).doc

Por regla general, se prefiere el coeficiente de correlación por rangos cuando el número de casos es pequeño (15 ó 20) y cuando hay poca ligazón entre los rangos. En otros casos, el coeficiente de correlación de p-m resulta más conveniente.

Un error lógico que frecuentemente se comete en la interpretación del coeficiente de correlación es el argumento de causa y efecto. Se admite a menudo que si dos variables están muy correlacionadas, una es la causa de la otra. No obstante, la correlación elevada entre dos fenómenos indica simplemente que ambos son causados por un tercer factor y no que un fenómeno cause o influencie el otro. En estadística se usa, a menudo el coeficiente de correlación en problemas de los que se sabe que no hay relación causal entre los dos conjuntos de medida que se correlacionan.

Errores de medida

El error se debe a un instrumento de medida inexacto, a un método imperfecto de aplicar el instrumento, a nuestra manera inadecuada de leerlo o registrarlo o a cualquier otro factor.

En la ciencia, por depender en gran parte del raciocinio de las mediciones, se tiene mucho cuidado con los errores de medida y se ha aprendido mucho acerca de su naturaleza, origen y control. En los casos que se ha sido incapaz de eliminarlos, se han desarrollado técnicas que permiten estimar el grado de error. Sabiendo la magnitud del error se puede enunciar el grado de confianza en las conclusiones basadas en las medidas. El estudio de los errores de medida es uno de los básicos de la estadística.

Fiabilidad

No existe un instrumento de medida absolutamente perfecto. Hasta el instrumento de medida más simple, la regla, no está libre de error. Algunos instrumentos de medida nos dan errores mayores que otros.

La fiabilidad de un aparato de medida(incluido su método de aplicación) puede definirse como el grado en que medidas repetidas de la misma cantidad, con el mismo instrumento de medida, dan las mismas lecturas.

La fiabilidad medida por correlación: el coeficiente de correlación nos da un índice numérico que expresa el grado de fiabilidad de una prueba. Cuando se usa con este fin, el coeficiente de correlación recibe el nombre de coeficiente de fiabilidad.

Veracidad de las formas comparables: La mayoría de las pruebas psicológicas constan de gran número de elementos, problemas y preguntas. La correlación de las dos formas comparables nos daría la fiabilidad de una y otra forma.

Page 106: Probabilidad y estadstica1 (1).doc

El método de las formas comparables evita el problema de la memoria y quizás el de fastidio, pero deja intacto el del tiempo. Las dos formas se aplican en tiempos diferentes, y durante el intervalo pueden suceder muchas cosas que dificultan la interpretación de la correlación entre las dos formas comparables.

Fiabilidad compartida: la base del método de fiabilidad bipartida es idéntica a la del de formas comparables. Este método suele llamarse del “ coeficiente de pares-impares” y cuenta con dos ventajas: primera, las dos subpruebas(pares y nones) se hacen a la vez, en las mismas condiciones de motivación, idénticas condiciones de examen y con el mismo grado de atención. Segunda, por haber divido la prueba de pares-impares, hemos garantizado la comparabilidad de formas, no sólo en cuanto al contenido, sino también en cuanto al contenido, sino también en cuanto al modo de administración.

Estos y otros métodos pueden proporcionarnos una valiosa información sobre la utilidad de una prueba como instrumento de medida. Sin embargo, saber que una prueba es fiable no basta para permitirnos apreciar su valor como instrumento de medición Puede ser muy fiable y por el contrario, constituir un mal instrumento de medida, por carecer de validez.

Validez

Los términos de “fiabilidad” y “validez” se usan indistintamente en el lenguaje vulgar. No obstante, en la teoría de la medición, tienen un significado distinto. El estadístico preocupado por el problema de la fiabilidad e un instrumento con lo que mide. Cuando le interesa la cuestión de la validez, pregunta si el instrumento mide lo que él quiere medir. Un instrumento puede hacer medidas acordes(puede tener fiabilidad), pero acaso no mide lo que se quiere medir(acaso tiene poca validez). Pero a la mayoría de los tests que tratan de medir fenómenos más complejos no se les adscribe la validez con tanta facilidad. En primer lugar, la validez, lo mismo que la fiabilidad, no es asunto de todo nada. Una prueba tiene grados de validez. El grado de validez de las preguntas de clase sólo estaría influido por la comprensión por parte del alumno de los principios psicológicos. En este caso diríamos que las preguntas tienen validez perfecta como medida de la comprensión de principios psicológicos; pero, más probablemente, la puntuación en las preguntas es la resultante de la comprensión psicológica, más la aptitud memorista. La prueba tiene alguna validez para la comprensión psicológica y alguna otra para la capacidad memorista, pero no es una prueba “pura” de ninguna de las dos. Como en la fiabilidad, necesitamos algún medio para expresar el grado de validez de un instrumento de medida de un instrumento de medida y, de nuevo como en aquella, el coeficiente de correlación nos facilita ese medio.

La validez medida por correlación: Es evidente que una prueba es válida en el grado en que sus medidas se correlacionan con lo que mide. Cuando se usa de este modo el coeficiente de correlación se llama coeficiente de validez.

Page 107: Probabilidad y estadstica1 (1).doc

El principio general para determinar la validez de una prueba es bastante simple, correlacionamos sus puntuaciones con su criterio. La dificultad consiste en que, frecuentemente, no podemos hallar un criterio con el que compararlas. Por ejemplo se quiere medir la validez de una prueba de inteligencia. Se pude obtener las puntuaciones del test con mucha facilidad, pero qué servirá de criterio de “inteligencia” ¿Las calificaciones escolares? ¿El dinero ganado en la vida real? ¿La originalidad y creatividad? ¿La primacía en cuestiones sociales? Personas diferentes sugerirían distintos criterios y algunos de ellos plantearían, por sí mismos, problemas e medida.

Se han hecho muchos intentos de resolver el problema del criterio. Entre las técnicas más corrientes está el llamado método del “grupo conocido”.

Grupos conocidos y validez: No hay puntuaciones-criterio de originalidad y creatividad fácilmente disponibles.

Una prueba puede tener gran fiabilidad y poca validez, en el sentido que no mida lo que intentábamos que midiese. En cambio, una prueba de mucha validez no puede tener poca fiabilidad. Las pruebas poco fiables no pueden compararse consecuentemente con n conjunto de puntuaciones-criterio, porque sus medidas son, en gran parte, erróneas y por consiguiente deben tener poca validez.

http://www.itch.edu.mx/academic/industrial/estadistica1/cap02.html

http://prof.usb.ve/ejmarque/cursos/ea2181/core/desp05.html

http://ftp.medprev.uma.es/libro/node61.htm

http://coqui.lce.org/mdejesus/CLAS4/index.htm

http://www.profesorenlinea.cl/quinto/matematica/ConjuntosRelaciones.htm