Download - Diseño_cap2
-
Jaime Ortega PhD 6
Capitulo 2 Experimentos Comparativos Simples
2.1 Introduccin
En este captulo se considerarn experimentos para comparar resultados de dos condiciones,
frmulas o tratamientos. A menudo se conocen dichos experimentos como experimentos
comparativos simples. El anlisis de stos obligar a una revisin de conceptos estadsticos
bsicos
Ejemplo 2.1: Se desea comparar la resistencia a la traccin de un cemento portland con la de un
nuevo cemento al que se le han aadido emulsiones de un cierto polmero. Los datos
observados de la resistencia a la traccin de 10 observaciones de cada cemento, se listan en la
Tabla 2.1.
muestra
Nuevo Cemento
(kg/cm2)
Cemento Portland
(kg/cm2)
1 16.85 17.50
2 16.40 17.63
3 17.21 18.25
4 16.35 18.00
5 16.52 17.86
6 17.04 17.75
7 16.96 18.22
8 17.15 17.90
9 16.59 17.96
10 16.57 18.15
media 16.76 17.92
Tabla 2.1 Datos de Resistencia a la Traccin de Dos Cementos
Los datos sugieren que la resistencia del cemento Portland es mayor a la del nuevo cemento
pues la diferencia en los promedios parece ser significativa; sin embargo no es obvio que dicha
diferencia sea lo suficientemente grande para concluir que ambos cementos son diferentes. Es
posible que otras dos muestras arrojen resultados opuestos. Una tcnica estadstica llamada Test
de Hiptesis o de Significacin puede emplearse para ayudar al investigador a comparar los dos
tipos de cementos. Antes de presentar el procedimiento del mencionado examen, es conveniente
recordar algunos conceptos elementales de estadstica y de probabilidades.
2.2 Conceptos Estadsticos Bsicos
Cada uno de los resultados del experimento anterior difiere de los otros. Esta fluctuacin o
"ruido" implica la existencia de un error experimental. Si se asume que dicho error es inevitable
y no es controlable, entonces se est en presencia de un error estadstico y por lo tanto la
medicin de la resistencia a la traccin es una variable aleatoria siendo susceptible de anlisis
estadsticos.
-
Jaime Ortega PhD 7
Distribuciones de Probabilidad
En la teora de la probabilidad y estadstica, la distribucin de probabilidad de una variable
aleatoria es una funcin que asigna a cada suceso definido sobre la variable aleatoria la
probabilidad que dicho suceso ocurra. La distribucin de probabilidad est definida sobre el
conjunto de todo el rango de valores (todos los posibles eventos) de la variable aleatoria. En
otras palabras: la estructura de probabilidad de una variable aleatoria, llmese sta y, se describe
por su distribucin de probabilidades. Si y es discreta, a la distribucin de probabilidades de y,
p(y), se le llama funcin de probabilidad de y . Si y es contnua, la distribucin de probabilidad
de y, f(y), es denominada funcin de densidad de y .
La figura 2.1 ilustra distribuciones hipotticas de probabilidad. Ntese que en la distribucin de
probabilidad discreta, es la altura de la funcin p(y) la que representa la probabilidad. En el caso
continuo, la probabilidad est representada por el rea bajo la curva f(y), asociada a un
intervalo.
(a) Distribucin Discreta
(b) Distribucin Continua
Fig. 2.1 Distribuciones de Probabilidad Continua y Discreta
p(y)
yi y
yj
p(y=yj) = p(yj)
p(y)
a y
b
p (a < y < b)
-
Jaime Ortega PhD 8
Las propiedades de las distribuciones de probabilidad se pueden resumir de la siguiente manera:
y discreta:
1)(
todopara )()(
todopara 1)(0
todos
jy
j
jjj
jj
yp
yypyyp
yyp
(2.1)
y continua:
1)(
)()(
)(0
dyyf
dyyfbyap
yf
b
a
(2.2)
Notar que la segunda propiedad expresada en la Ecuacin 2.12 implica que la probabilidad
puntual es cero: ( = ) = ( = ) = 0
Media, Varianza y Valores Esperados
La media de una distribucin de probabilidades es una medida de su tendencia central.
Matemticamente, la esperanza de una variavle aletoria, E(y) se define de la siguiente manera:
y
yyyp
ydyyyf
yE
todo
discreta )(
continua )(
)(
(2.3)
A la larga, para ciertas distribuciones se cumple que : E(y)=. Donde es un parmetro de la funcin de distribucin.
Ejemplo: Supngase que la variable aleatoria y es el nmero que queda hacia arriba al lanzar un
dado legal. La funcin de probabilidad correspondiente es () =1
6 para y = 1, 2, 3, 4, 5, 6
-
Jaime Ortega PhD 9
Por consiguiente:
() = ()
6
1
= 1 (1
6) + 2 (
1
6) + 3 (
1
6) + 4 (
1
6) + 5 (
1
6) + 6 (
1
6) = 3.5
que quiere decir que 3.5 es el valor esperado, lo que significa que 3.5 es el valor central de la
distribucin. Obsrvese que no es necesario que el valor esperado sea un valor posible de la
variable aleatoria. Tambin se interpreta en el sentido que en 10 ejecuciones del experimento,
por ejemplo, se espera que la suma de los nmeros obtenidos sea de (10)(3.5) = 351.
Nota: la Media de una Distribucin de Probabilidades o valor esperado puede ser entendida
como un promedio ponderado, en el que los valores posibles se ponderan mediante sus
probabilidades correspondientes de ocurrencia (pesos o importancia).
La dispersin de una distribucin de probabilidades se mide por la Varianza:
y
yypuy
ydyyfuy
todo
2
2
2
discreta )(
continua )(
(2.4)
La Varianza se emplea de manera tan extensa que es conveniente definir un operador V tal que:
22)()( uyEyV (2.5)
Si y es una variable aleatoria con media y varianza 2 y c es una constante, entoces:
222
2
)()( 6
)( 5
0)( 4
)()( 3
)( 2
)( 1
cyVccyV
yV
cV
cycEcyE
yE
ccE
1 La ecuacin del ejemplo puede escribirse como: () = ()6=1 = (1
6)
6=1
Cuando la probabilidad es constante, la media es conocida como media aritmtica
-
Jaime Ortega PhD 10
En el caso de dos variables aleatorias, y1 y y2 con
2
11 11 )(y )( yVyE y 2
22 22 )(y )( yVyE se tiene:
221121
212121
212121
),(
:donde
),(2)()()(
:y
)()()(
yyEyyCov
yyCovyVyVyyV
yEyEyyE
(2.6)
La Covarianza Cov y y( , )1 2 es una medida de la asociacin linear de las dos variables. En el
caso que sean independientes, el valor de sta es cero.
Tambin se puede demostrar que:
V y y V y V y Cov y y( ) ( ) ( ) ( , )1 2 1 2 1 22- -
(2.7)
Si y1 y y2 son independientes, entonces:
2
2
2
12121 )()()( yVyVyyV
(2.8)
212121 )()()( yEyEyyE
(2.9)
En general se cumple que:
)2
1
2
1
(
)(
yE
yE
y
yE
(210)
.... sin importar si y1 y y2 son independientes.
-
Jaime Ortega PhD 11
2.3 Muestreo y Distribuciones Muestrales
Muestras Aleatorias, Media Muestral y Varianza Muestral
El objetivo de la Inferencia Estadstica es obtener conclusiones acerca de una o varias
caractersticas de una poblacin mediante el empleo de muestras extradas de la misma. La
mayora de los mtodos que aqu se estudiarn, asumen muestras aleatorias; es decir, si la
poblacin contiene N elementos y ha de seleccionarse una muestra de n de ellos, entonces las
!)!/(! nnNN posibles muestras tienen la misma probabilidad de ser elegidas.
Un estadgrafo es cualquier funcin matemtica de las observaciones hechas sobre una muestra
que no contiene parmetros desconocidos. Conceptualmente, un estadgrafo (nmero ndice) es
un parmetro que aporta mucha ms informacin que la misma poblacin. Sean
y y y yn1 2 3, , ,........ representantes de una muestra, se define la Media Muestral como:
y
y
n
i
i
n
1
(2.11)
y la Varianza Muestral como:
S
y y
n
i
i
n
2
2
1
1
( )
(2.12)
Estas cantidades son medidas de la tendencia central y de la dispersin de la muestra
respectivamente. En ocasiones, la cantidad S S 2 , llamada Desviacin Estndar, es
empleada como una medida de la dispersin pues tiene las mismas unidades de la variable de
inters, y.
Propiedades de la Media y Varianza Muestrales
La Media Muestral, y , es un estimador puntual de la Media Poblacional ; y la Varianza
Muestral, S2, es un estimador puntual de la Varianza Poblacional 2 . En general, un estimador puntual de un parmetro desconocido, es un estadgrafo que corresponde a dicho parmetro.
Tres de las ms importantes propiedades de los estimadores puntuales son:
1. Los estimadores puntuales son variables aleatorias.
-
Jaime Ortega PhD 12
2. Los estimadores puntuales son insesgados2. Esto significa que el valor esperado del
estimador puntual es igual al parmetro que esta siendo estimado. Puede demostrarse que
)(yE y 22 )( SE
3. Los estimadores puntuales tienen varianza mnima. Esta propiedad establece que la
Varianza de un estimador puntual insesgado de un parmetro, es menor a la Varianza de
cualquier otro estimador de dicho parmetro.
Grados de Libertad
A la cantidad n-1 de la Eq. (2.12) se le llama grados de libertad de la suma de los cuadrados
(SC). Donde SC y yi ( )2. Este resultado general permite afirmar que si y es una variable
aleatoria con Varianza 2 , 2)( yySC i y grados de libertad, entonces se cumple que:
2
SCE
(2.13)
El nmero de grados de libertad de una suma de cuadrados, es igual al nmero de elementos
independientes en dicha suma. El uso de (n-1) en lugar de n en el denominador confunde a
muchas personas. El nmero de grados de libertad de una suma de cuadrados, es igual al
nmero de elementos independientes en dicha suma. En aquellas raras ocasiones cuando se
conoce la media poblacional, , la formula de S2 tendr n en el denominador. En Estadstica, la
suma de los residuos (a diferencia de la suma de los errores, que no es conocida) es
necesariamente 0 ya que existen variables con valores superiores e inferiores a la media.
0)(11
nn
i
ini
n
i
ynyyy
Ahora imaginemos que se tienen 3 valores de y que se pueden modificar arbitrariamente, pero
con la condicin de que la suma de los residuos sea 0. Se puede asignar cualquier cantidad a dos
de los tres valores de y, porque el otro va a estar dado por la frmula, es decir que tienes dos
grados de libertad.
Esto tambin significa que los residuos estn restringidos a encontrarse en un espacio de
dimensin n-1 (en este ejemplo, en el caso general a n-r) ya que, si se conoce el valor de n-1 de
estos residuos, la determinacin del valor del residuo restante es inmediata. As, se dice que "el
error tiene n-1 grados de libertad" (el error tiene n-r grados de libertal para el caso general).
2 En estadstica se llama sesgo de un estimador a la diferencia entre su esperanza matemtica y el valor del parmetro que
estima. Un estimador cuyo sesgo es nulo se llama insesgado o centrado.
-
Jaime Ortega PhD 13
En aquellas raras ocasiones cuando se conoce la media poblacional, , la formula de S2 tendr
n en el denominador.
Distribucin Normal y Otras Distribuciones Muestrales
A menudo es posible determinar la distribucin de probabilidad de un estadgrafo en particular
si se conoce la distribucin de probabilidad de la poblacin de la cual se extrajo la muestra. La
distribucin de probabilidad de un estadgrafo se conoce como distribucin muestral.
Una de las distribuciones ms tiles3, es la Distribucin Normal. Si y es una variable aleatoria
normal, entonces la distribucin de probabilidades de y es:
yeyf y 2
1)(
2]/))[(2/1(
(2.14)
Donde es la media de la Distribucin y 2 la Varianza. La representacin grfica de la Distribucin Normal se presenta en la Fig. 2.2
Fig 2.2 Distribucin Normal
3 Caracteres morfolgicos de personas, animales o plantas de una especie: tallas, pesos, envergaduras, dimetros, permetros.
Caracteres fisiolgicos: efecto de una misma dosis de un frmaco, o de una misma cantidad de abono.
Caracteres sociolgicos: consumo de cierto producto por un mismo grupo de individuos, puntuaciones de examen.
Caracteres psicolgicos: cociente intelectual, grado de adaptacin a un medio
Errores cometidos al medir ciertas magnitudes.
Valores estadsticos maestrales, por ejemplo: la media.
Otras distribuciones como la binomial o la de Poisson son aproximaciones normales.
En general cualquier caracterstica que se obtenga como suma de muchos factores.
-
Jaime Ortega PhD 14
Frecuentemente se emplea la notacin y ~ N(, 2 ) para indicar que y se distribuye "normal"
con media y varianza 2 .
Un caso importante de la Distribucin Normal es la Distribucin Normal Estndar donde =0
y 12 . Si y ~ N(, 2), entonces la variable
zy
(2.15)
sigue la Distribucin Normal Estndar, esto es: z ~ N(0,1). Muchas tcnicas de anlisis
estadstico asumen que la variable aleatoria en estudio se distribuye "normal". Si se toman
muestras aleatorias de tamao n de poblaciones que obedecen la distribucin normal, la
distribucin de la media muestral, y , ser tambin normal con la misma media y desviacin
estndar n/ .
Si la distribucin de la poblacin no fuese normal; la distribucin de la media muestral, y , ser
aproximadamente normal si se analizan muestras razonablemente grandes (n > 30). Este
resultado se conoce como el Teorema del Lmite Central.
Teorema del Lmite Central
Si y y y yn1 2 3, , ,........ es una secuencia de n variables aleatorias independientes de idntica
distribucin, con nii yyyxyVyE ....y )( , )( 21 2 , entonces la variable:
zx n
nn
2
(2.16)
tiene aproximadamente una distribucin N(0,1). En algunos casos, esta aproximacin es
adecuada para pequeos valores de n (n100).
En experimentacin, la utilidad de la suma de variables normales radica en el hecho que el error
experimental es la suma de errores de fuentes independientes; por tanto, la Distribucin Normal
se constituye en un modelo plausible para el estudio de error experimental combinado.
El teorema central del lmite es uno de los resultados fundamentales de la estadstica. Este
teorema nos dice que si una muestra es lo bastante grande (generalmente cuando el tamao
muestral (n) supera los 30, sea cual sea la distribucin de la media muestral, seguir
aproximadamente una distribucin normal. Es decir, dada cualquier variable aleatoria, si
extraemos muestras de tamao n (n>30) y calculamos los promedios muestrales, dichos
promedios seguirn una distribucin normal. Un caso concreto del teorema central del lmite es
la distribucin binomial. A partir de n=30, la distribucin binomial se comporta
estadsticamente como una normal, por lo que podemos aplicar los tests estadsticos apropiados
para esta distribucin.
-
Jaime Ortega PhD 15
Ejemplo:
Se sabe que los dimetros de ejes fabricados por un cierto proceso se distribuyen normal con
media = 2.5 cm y desviacin estndar = 0.009 cm. Indagar la distribucin de la media
muestral de los dimetros de una muestra de nueve ejes escogidos al azar. Calcular la fraccin
de dicha medias muestrales que se espera que exceda los 2.505 cm.
La distribucin de la media muestral, y , ser normal con media 2.5 cm y desviacin estandar
cmn 003.09/009.0/ .
Para calcular la probabilidad que 505.2y )505.2( yP es necesario emplear la variable
normal estndar. Es decir:
048.066.1003.0
500.2
003.0
500.2505.2
003.0
500.2)505.2(
yP
yPyP
Distribucin 2
Una importante distribucin de probabilidades definida en trminos de variables aleatorias
normales, es la Distribucin 2 (chi-cuadrado o ji-cuadrado de Pearson). Si
z z z z zi n1 2 3, , ,....... .... son variables aleatorias normales e independientes con media 0 y varianza
1, entonces la variable
k i kz z z z
212
22 2 2 ..... .....
(2.17)
sigue la Distribucin Chi-cuadrado con k grados de libertad. La funcin de densidad Chi-
cuadrado es:
0
22
1)( 22/
1)2/(2
2/
2 2
ek
fk
k
(2.18)
La Fig. 2.3 muestra curvas de densidad para 6, 12, 18, 24 y 30 grados de libertad.
-
Jaime Ortega PhD 16
Fig. 2.3 Distribuciones Chi Cuadrado
Para k = 2 la distribucin es una distribucin exponencial. Cuando k es suficientemente grande
se aproxima por la distribucin normal:
La Distribucin Chi-cuadrado es asimtrica con media kk 2 y varianza 2 . Una
aplicacin inmediata e importante de esta distribucin es la siguiente: supngase que
y y y y yi n1 2 3, , ,....... .... es una muestra aleatoria de una poblacin N(, 2). Entonces se cumple
que:
2
12
1
2
2
n
n
i
i yysc
(2.19)
La Eq. 2.19 es muy importante pues ocurre repetidamente en experimentacin.
La Eq. 2.12 puede escribirse como:
1
2
n
SCS
(2.20)
Si las observaciones de la muestra son variables aleatorias independientes que se distribuyen
N(, 2), entoces la distribucin de la Varianza Muestral S2 es una constante multiplicada por la
distribucin Chi-cuadrado, si la poblacin se distribuye normalmente.
2
1
22
1
n
nS
(2.21)
-
Jaime Ortega PhD 17
Si las variables aleatorias 2y kz son independientes, entonces la variable:
k
zt
k
k
/2
(2.22)
sigue la Distribucin t de Student4 con k grados de libertad. La funcin de densidad de t es:
-
Jaime Ortega PhD 18
La ultima distribucin a considerar en este captulo es la Distribucin F. Si 22 y vu son dos
variables aleatorias independientes chi-cuadrado, con u y v grados de libertad respectivamente,
entonces el radio
v
uF
v
u
/
/2
2
(2.25)
sigue la distribucin F con (u,v)grados de libertad. Una aplicacin inmediata de la Eq. 2.25 es la
siguiente: Si y y y n11 12 1 1, ,,..... y 2,222,21 ,..... nyyy son muestras aleatorias independientes de n1 y
n2 elementos, de varianza comn 2 , de dos poblaciones normales, entonces el radio:
S
S
12
22
(2.26)
Sigue la distribucin F con n-1, n-2 grados de libertad.
2.4 Anlisis de Medias y Diseo Aleatorio
En esta seccin se estudiar la forma en la cual datos de experimentos comparativos pueden ser
analizados empleando procedimientos de " test de hiptesis " e intervalos de confianza. A lo
largo de toda la seccin se asumir el empleo de un diseo experimental totalmente aleatorio.
2.4.1 Test de Hiptesis (Docimasia)
Una hiptesis estadstica es una afirmacin acerca de los parmetros de una distribucin de
probabilidad. Por ejemplo, en el caso de cemento portland (Seccin 2.1), se puede afirmar que
las resistencias medias a la traccin de los dos cementos son iguales. Tal afirmacin o hiptesis
puede enunciarse de la siguiente manera:
H
H
o:
:
1 2
1 1 2
(2.27)
donde 1 2 y son las resistencias medias de los dos cementos, Ho es la hiptesis nula, y H1
es la hiptesis alternativa.
Para probar la hiptesis, el procedimiento consiste en tomar muestras aleatorias, calcular
estadgrafos apropiados, y rechazar o aceptar la hiptesis nula Ho . En este procedimiento se
cometen dos tipos de error:
-
Jaime Ortega PhD 19
(error tipo I) rechazar es verdadera)
(error tipo II) (no rechazar is falsa )
P H H
P H H
o o
o o
( /
/
(2.28)
El procedimiento general consiste en especificar un valor de probabilidad de ocurrencia del
error del tipo I o nivel de significacin de tal manera que la probabilidad de ocurrencia del error
del tipo II sea lo suficientemente pequeo. Ahora bien, si se trabaja con muestras normales
independientes, entonces la distribucin de y y N n n1 2 1 2 2 1 21 1 es [ , ( / / )] . Por tanto, si
se conoce 2 , entonces la variable:
Zy y
n n
o
1 2
1 2
1 1
(2.29)
se distribuye N(0,1); sin embargo, si la varianza muestral no se conoce, sta debe ser
reemplazada por un estimador Sp . Por consiguiente y segn la Eq. 2.24 la variable:
21
21
11
nnS
yyt
p
o
(2.30)
se distribuye t con n n1 2 2 grados de libertad. El estimador Sp , se calcula mediante:
2
)1()1(
21
2
22
2
1
nn
SnSnS p
(2.31)
Para ilustrar el procedimiento, considere los datos de la Tabla 2.1. A partir de dichos datos se
obtiene lo siguiente:
Nuevo Cemento Cemento Portland
kg / cm kg / cm
2 2y y
S S
S S
n n
1 2
12
12
1 1
1 1
16 76 17 92
0 100 0 061
0 316 0 247
10 10
. .
. .
. .
Substituyendo en la Eq. 2.31 se tiene:
284.0081.021010
)061.0(9)100.0(92
pp SS
-
Jaime Ortega PhD 20
Substituyendo este valor en la Eq. 2.30 se obtiene:
to
16 76 17 92
0 248 1 10 1 109 13
. .
. / /.
Ahora, supngase que se desea un error del primer tipo del orden de 0 05. (5%) y por
tanto un intervalo de confianza de la media poblacional, , de 0.95 (95%). En trminos grficos, lo dicho arriba se puede representar como se muestra en la Figura 2.5
Mediante tablas, se ve que t n n /2 1 2 2 18 con grados de libertad es igual 2.101. Dado que
t to 9 13 0 025 18. . , se puede concluir que la hiptesis nula, Ho , no es verdadera y por tanto debe
ser rechazada. En otras palabras, las resistencias medias a la traccin de ambos cementos son
diferentes.
2.4.2 Eleccin del Tamao de la Muestra
Uno de los aspectos mas importantes en el Diseo Experimental es la seleccin del tamao
apropiado de la muestra. El tamao de la muestra y la probabilidad de ocurrencia del error del
tipo II estn relacionados. Supngase que est examinando la siguiente hiptesis:
211
21
:
:
H
H o
y que las medias no son iguales; es decir, 1 2 . Dado que Ho 1 2 no es verdad, el investigador estar interesado en errneamente fallar en rechazar la hiptesis nula dado que esta
es falsa, es decir, en valorar el error . La probabilidad de depende de . Un grfico de P()
versus d 1 2 2/ , para un tamao total de muestras, n n n ( )1 2 , y un valor de =
-
Jaime Ortega PhD 21
0.05, se muestra en la Fig. 2.5. Las curvas mostradas en dicho grfico reciben el nombre de
"curvas caractersticas operacionales".
El parmetro d implica conocer las medias y varianza poblacionales que son generalmente
desconocidas. Sin embargo, es el investigador el que puede definir diferencias criticas. Por otro
lado, puede ser evaluado a partir de la precisin del instrumento. Por ejemplo, en el caso del cemento Portland, se desea determinar, con alto grado de probabilidad, diferencias
significativas hasta de 0.5 Kg/cm2 . As mismo, se sabe que la precisin del instrumento es de
0.25 Kg/cm2. Con estos valores, se tiene que d = 1. Asumiendo un valor muy bajo de
ocurrencia del error II se ve que n =30 y por tanto n n1 2 15 . Las curvas caractersticas
operacionales deben ser obtenidas antes de empezar la serie de experimentos.
2.4.3 Intervalos de Confianza
A menudo, es necesario conocer el o los intervalos dentro de los cuales se espera encontrar el o
los valores de los parmetros estudiados. A estos intervalos se les conoce como intervalos de
confianza. En muchos procesos, el investigador sabe de antemano que las medias poblacionales
difieren y por tanto probar que 1 2 es de poco inters. En su lugar, es de mayor utilidad
conocer el intervalo de confianza de 1 2
Definicin:
Supngase que es el parmetro en estudio. Para obtener el intervalo de confianza de se requiere encontrar dos estadgrafos L y U tal que se cumpla;
P L U( ) 1
(2.26)
El intervalo:
L U (2.27)
Fig. 2.6
-
Jaime Ortega PhD 22
es el intervalo de confianza de .
Ejemplo: se desea encontrar un intervalo de la diferencia de medias del problema del cemento
Portland. En virtud de la Eq. 2.19, el estadgrafo:
21
2121
11
nnS
yy
p
(2.28)
se distribuye t con n n1 2 2 grados de libertad ( )tn n1 2 2 . Por lo tanto, el intervalo ser:
1
112 ,2/
21
21212 ,2/ 2121 nn
p
nn t
nnS
yytP
Lo que re-ordenando da:
1
1111
21
2 ,2/2121
21
2 ,2/21 2121 nnStyy
nnStyyP pnnpnn
Para un nivel de significacin del 95 %, substituyendo los valores de la pgina 18 se tiene:
1 43 0 891 2. .
En otras palabras, el intervalo del 95 % confianza de la diferencia de medias es:
1 2 1 16 0 27 . . Kg / cm Kg / cm2 2
Ntese que la diferencia 1 2 0 no esta incluida en el intervalo y por tanto no apoya la
hiptesis de 1 2 !.
-
Jaime Ortega PhD 23
2.4.4 El Caso de 22
2
1
Si se esta examinando la hiptesis de la Eq. 2.21 y no se puede asumir que las varianzas
poblacionales sean iguales, entonces la variable de la Eq. 2.24 se convierte en:
2
2
2
1
2
1
21
n
S
n
S
yyto
(2.29)
la misma que no se distribuye t. Sin embargo, uno puede aproximarse a la distribucin t
utilizando el estadgrafo:
1
/
1
/
2
2
2
2
2
1
2
1
2
1
2
2
2
2
1
2
1
n
nS
n
nS
n
S
n
S
v
(2.30)
2.4.5 El Caso de 1 2 y Conocidos
En este caso se empleara el estadgrafo
2
2
2
1
2
1
21
nn
yyzo
(2.31)
El mismo que se distribuye N(0,1) siempre que las poblaciones sean normales o las muestras lo
suficientemente grandes tal que se cumpla el teorema del Limite Central.
2.5 Inferencias Acerca de Diferencias en las Medias. Diseo de Pares de Comparacin
En algunos experimentos comparativos es posible incrementar la precisin haciendo
comparaciones mediante "pares correspondientes" de material experimental. Por ejemplo, la
dureza de un metal se mide mediante de la hendidura que deja la punta del durmetro en la
muestra al aplicarse una determinada carga. Supngase que se tienen disponibles dos puntas
"idnticas" para una misma maquina. Sin embargo, se sospecha que dichas puntas dan lecturas
diferentes. Para probar o rechazar tal afirmacin, un experimento puede disearse de la
siguiente manera: se seleccionan al azar 20 piezas de metal y la mitad de stas se prueban con la
punta 1y la otra mitad con la punta 2. Dado que este es un experimento totalmente aleatorio, se
puede utilizar las tcnicas descritas en la Seccin 2.4. Sin embargo, por una serie de factores
-
Jaime Ortega PhD 24
desconocidos (barras diferentes, gradientes de temperatura en las barras, etc) podra existir falta
de homogeneidad en el material lo que contribuira a incrementar el error experimental y por
tanto a conclusiones errneas acerca de las mencionadas puntas.
Para evitar la posibilidad arriba sealada, considere un diseo experimental alternativo: (a)
tmese muestras lo suficientemente grandes tal que se hagan dos mediciones en la misma: una
con la punta 1 y otra con la punta 2 y (b) divdase al azar cada muestra en dos porciones de
iguales dimensiones. Despus de llevar a cabo el experimento, se construye la siguiente tabla:
Muestra Punta 1 (en m) Punta 2 (en m)
1 7 6
2 3 3
3 3 5
4 4 3
5 8 8
6 3 2
7 2 4
8 9 9
9 5 4
10 4 5
Es posible proponer un modelo estadstico que describe los datos del experimento de la
siguiente manera:
10,.....2,1
2,1
j
i y ijjiij
(2.32)
Donde y i j
i
j
ij
i
j
ij i
es la lectura de la punta en la muestra
es la dureza media verdadera dada por la punta
es un efecto en la dureza debido a la muestra
es el error experimental con media cero y varianza
2
Si se calculan las j-simas diferencias apareadas se tiene
d y y jj j j 1 2 1 2 10 , ,.......
(2.33)
Siendo el valor esperado de las diferencias
d j j j j jE d E y y E y E y ( ) ( ) ( ) ( )1 2 1 2 1 2
-
Jaime Ortega PhD 25
Por tanto, es posible hacer inferencias acerca de la diferencia de las medias, 1 2 , mediante
inferencias acerca de la media de las diferencias, d . En otras palabras, examinar Ho: 1 2
es equivalente a proponer H
H
o d
d
:
:
0
01
El estadgrafo para esta hiptesis ser:
td
S no
d
/
(2.34)
que se distribuye t con n-1 grados de libertad.
donde
1
)(
y 1 1
2
2
1 n
dd
Sdn
d
n
j
j
d
n
j
j
Substituyendo los valores numricos se tiene to 0 26. . En tablas se ve que t0 25 9 2 262. , . .
Como t to 0 25 9. , no hay evidencia que indique que ambas puntas producen diferentes valores
de dureza.