diseño_cap2

20
Jaime Ortega PhD 6 Capitulo 2 Experimentos Comparativos Simples 2.1 Introducción En este capítulo se considerarán experimentos para comparar resultados de dos condiciones, fórmulas o tratamientos. A menudo se conocen dichos experimentos como “experimentos comparativos simples”. El análisis de éstos obligará a una revisión de conceptos estadísticos básicos Ejemplo 2.1: Se desea comparar la resistencia a la tracción de un cemento portland con la de un nuevo cemento al que se le han añadido emulsiones de un cierto polímero. Los datos observados de la resistencia a la tracción de 10 observaciones de cada cemento, se listan en la Tabla 2.1. muestra Nuevo Cemento (kg/cm 2 ) Cemento Portland (kg/cm 2 ) 1 16.85 17.50 2 16.40 17.63 3 17.21 18.25 4 16.35 18.00 5 16.52 17.86 6 17.04 17.75 7 16.96 18.22 8 17.15 17.90 9 16.59 17.96 10 16.57 18.15 media 16.76 17.92 Tabla 2.1 Datos de Resistencia a la Tracción de Dos Cementos Los datos sugieren que la resistencia del cemento Portland es mayor a la del nuevo cemento pues la diferencia en los promedios parece ser significativa; sin embargo no es obvio que dicha diferencia sea lo suficientemente grande para concluir que ambos cementos son diferentes. Es posible que otras dos muestras arrojen resultados opuestos. Una técnica estadística llamada Test de Hipótesis o de Significación puede emplearse para ayudar al investigador a comparar los dos tipos de cementos. Antes de presentar el procedimiento del mencionado examen, es conveniente recordar algunos conceptos elementales de estadística y de probabilidades. 2.2 Conceptos Estadísticos Básicos Cada uno de los resultados del experimento anterior difiere de los otros. Esta fluctuación o "ruido" implica la existencia de un error experimental. Si se asume que dicho error es inevitable y no es controlable, entonces se está en presencia de un error estadístico y por lo tanto la medición de la resistencia a la tracción es una variable aleatoria siendo susceptible de análisis estadísticos.

Upload: maribel-fidel

Post on 03-Oct-2015

218 views

Category:

Documents


0 download

DESCRIPTION

Diseño Experimental capitulo II

TRANSCRIPT

  • Jaime Ortega PhD 6

    Capitulo 2 Experimentos Comparativos Simples

    2.1 Introduccin

    En este captulo se considerarn experimentos para comparar resultados de dos condiciones,

    frmulas o tratamientos. A menudo se conocen dichos experimentos como experimentos

    comparativos simples. El anlisis de stos obligar a una revisin de conceptos estadsticos

    bsicos

    Ejemplo 2.1: Se desea comparar la resistencia a la traccin de un cemento portland con la de un

    nuevo cemento al que se le han aadido emulsiones de un cierto polmero. Los datos

    observados de la resistencia a la traccin de 10 observaciones de cada cemento, se listan en la

    Tabla 2.1.

    muestra

    Nuevo Cemento

    (kg/cm2)

    Cemento Portland

    (kg/cm2)

    1 16.85 17.50

    2 16.40 17.63

    3 17.21 18.25

    4 16.35 18.00

    5 16.52 17.86

    6 17.04 17.75

    7 16.96 18.22

    8 17.15 17.90

    9 16.59 17.96

    10 16.57 18.15

    media 16.76 17.92

    Tabla 2.1 Datos de Resistencia a la Traccin de Dos Cementos

    Los datos sugieren que la resistencia del cemento Portland es mayor a la del nuevo cemento

    pues la diferencia en los promedios parece ser significativa; sin embargo no es obvio que dicha

    diferencia sea lo suficientemente grande para concluir que ambos cementos son diferentes. Es

    posible que otras dos muestras arrojen resultados opuestos. Una tcnica estadstica llamada Test

    de Hiptesis o de Significacin puede emplearse para ayudar al investigador a comparar los dos

    tipos de cementos. Antes de presentar el procedimiento del mencionado examen, es conveniente

    recordar algunos conceptos elementales de estadstica y de probabilidades.

    2.2 Conceptos Estadsticos Bsicos

    Cada uno de los resultados del experimento anterior difiere de los otros. Esta fluctuacin o

    "ruido" implica la existencia de un error experimental. Si se asume que dicho error es inevitable

    y no es controlable, entonces se est en presencia de un error estadstico y por lo tanto la

    medicin de la resistencia a la traccin es una variable aleatoria siendo susceptible de anlisis

    estadsticos.

  • Jaime Ortega PhD 7

    Distribuciones de Probabilidad

    En la teora de la probabilidad y estadstica, la distribucin de probabilidad de una variable

    aleatoria es una funcin que asigna a cada suceso definido sobre la variable aleatoria la

    probabilidad que dicho suceso ocurra. La distribucin de probabilidad est definida sobre el

    conjunto de todo el rango de valores (todos los posibles eventos) de la variable aleatoria. En

    otras palabras: la estructura de probabilidad de una variable aleatoria, llmese sta y, se describe

    por su distribucin de probabilidades. Si y es discreta, a la distribucin de probabilidades de y,

    p(y), se le llama funcin de probabilidad de y . Si y es contnua, la distribucin de probabilidad

    de y, f(y), es denominada funcin de densidad de y .

    La figura 2.1 ilustra distribuciones hipotticas de probabilidad. Ntese que en la distribucin de

    probabilidad discreta, es la altura de la funcin p(y) la que representa la probabilidad. En el caso

    continuo, la probabilidad est representada por el rea bajo la curva f(y), asociada a un

    intervalo.

    (a) Distribucin Discreta

    (b) Distribucin Continua

    Fig. 2.1 Distribuciones de Probabilidad Continua y Discreta

    p(y)

    yi y

    yj

    p(y=yj) = p(yj)

    p(y)

    a y

    b

    p (a < y < b)

  • Jaime Ortega PhD 8

    Las propiedades de las distribuciones de probabilidad se pueden resumir de la siguiente manera:

    y discreta:

    1)(

    todopara )()(

    todopara 1)(0

    todos

    jy

    j

    jjj

    jj

    yp

    yypyyp

    yyp

    (2.1)

    y continua:

    1)(

    )()(

    )(0

    dyyf

    dyyfbyap

    yf

    b

    a

    (2.2)

    Notar que la segunda propiedad expresada en la Ecuacin 2.12 implica que la probabilidad

    puntual es cero: ( = ) = ( = ) = 0

    Media, Varianza y Valores Esperados

    La media de una distribucin de probabilidades es una medida de su tendencia central.

    Matemticamente, la esperanza de una variavle aletoria, E(y) se define de la siguiente manera:

    y

    yyyp

    ydyyyf

    yE

    todo

    discreta )(

    continua )(

    )(

    (2.3)

    A la larga, para ciertas distribuciones se cumple que : E(y)=. Donde es un parmetro de la funcin de distribucin.

    Ejemplo: Supngase que la variable aleatoria y es el nmero que queda hacia arriba al lanzar un

    dado legal. La funcin de probabilidad correspondiente es () =1

    6 para y = 1, 2, 3, 4, 5, 6

  • Jaime Ortega PhD 9

    Por consiguiente:

    () = ()

    6

    1

    = 1 (1

    6) + 2 (

    1

    6) + 3 (

    1

    6) + 4 (

    1

    6) + 5 (

    1

    6) + 6 (

    1

    6) = 3.5

    que quiere decir que 3.5 es el valor esperado, lo que significa que 3.5 es el valor central de la

    distribucin. Obsrvese que no es necesario que el valor esperado sea un valor posible de la

    variable aleatoria. Tambin se interpreta en el sentido que en 10 ejecuciones del experimento,

    por ejemplo, se espera que la suma de los nmeros obtenidos sea de (10)(3.5) = 351.

    Nota: la Media de una Distribucin de Probabilidades o valor esperado puede ser entendida

    como un promedio ponderado, en el que los valores posibles se ponderan mediante sus

    probabilidades correspondientes de ocurrencia (pesos o importancia).

    La dispersin de una distribucin de probabilidades se mide por la Varianza:

    y

    yypuy

    ydyyfuy

    todo

    2

    2

    2

    discreta )(

    continua )(

    (2.4)

    La Varianza se emplea de manera tan extensa que es conveniente definir un operador V tal que:

    22)()( uyEyV (2.5)

    Si y es una variable aleatoria con media y varianza 2 y c es una constante, entoces:

    222

    2

    )()( 6

    )( 5

    0)( 4

    )()( 3

    )( 2

    )( 1

    cyVccyV

    yV

    cV

    cycEcyE

    yE

    ccE

    1 La ecuacin del ejemplo puede escribirse como: () = ()6=1 = (1

    6)

    6=1

    Cuando la probabilidad es constante, la media es conocida como media aritmtica

  • Jaime Ortega PhD 10

    En el caso de dos variables aleatorias, y1 y y2 con

    2

    11 11 )(y )( yVyE y 2

    22 22 )(y )( yVyE se tiene:

    221121

    212121

    212121

    ),(

    :donde

    ),(2)()()(

    :y

    )()()(

    yyEyyCov

    yyCovyVyVyyV

    yEyEyyE

    (2.6)

    La Covarianza Cov y y( , )1 2 es una medida de la asociacin linear de las dos variables. En el

    caso que sean independientes, el valor de sta es cero.

    Tambin se puede demostrar que:

    V y y V y V y Cov y y( ) ( ) ( ) ( , )1 2 1 2 1 22- -

    (2.7)

    Si y1 y y2 son independientes, entonces:

    2

    2

    2

    12121 )()()( yVyVyyV

    (2.8)

    212121 )()()( yEyEyyE

    (2.9)

    En general se cumple que:

    )2

    1

    2

    1

    (

    )(

    yE

    yE

    y

    yE

    (210)

    .... sin importar si y1 y y2 son independientes.

  • Jaime Ortega PhD 11

    2.3 Muestreo y Distribuciones Muestrales

    Muestras Aleatorias, Media Muestral y Varianza Muestral

    El objetivo de la Inferencia Estadstica es obtener conclusiones acerca de una o varias

    caractersticas de una poblacin mediante el empleo de muestras extradas de la misma. La

    mayora de los mtodos que aqu se estudiarn, asumen muestras aleatorias; es decir, si la

    poblacin contiene N elementos y ha de seleccionarse una muestra de n de ellos, entonces las

    !)!/(! nnNN posibles muestras tienen la misma probabilidad de ser elegidas.

    Un estadgrafo es cualquier funcin matemtica de las observaciones hechas sobre una muestra

    que no contiene parmetros desconocidos. Conceptualmente, un estadgrafo (nmero ndice) es

    un parmetro que aporta mucha ms informacin que la misma poblacin. Sean

    y y y yn1 2 3, , ,........ representantes de una muestra, se define la Media Muestral como:

    y

    y

    n

    i

    i

    n

    1

    (2.11)

    y la Varianza Muestral como:

    S

    y y

    n

    i

    i

    n

    2

    2

    1

    1

    ( )

    (2.12)

    Estas cantidades son medidas de la tendencia central y de la dispersin de la muestra

    respectivamente. En ocasiones, la cantidad S S 2 , llamada Desviacin Estndar, es

    empleada como una medida de la dispersin pues tiene las mismas unidades de la variable de

    inters, y.

    Propiedades de la Media y Varianza Muestrales

    La Media Muestral, y , es un estimador puntual de la Media Poblacional ; y la Varianza

    Muestral, S2, es un estimador puntual de la Varianza Poblacional 2 . En general, un estimador puntual de un parmetro desconocido, es un estadgrafo que corresponde a dicho parmetro.

    Tres de las ms importantes propiedades de los estimadores puntuales son:

    1. Los estimadores puntuales son variables aleatorias.

  • Jaime Ortega PhD 12

    2. Los estimadores puntuales son insesgados2. Esto significa que el valor esperado del

    estimador puntual es igual al parmetro que esta siendo estimado. Puede demostrarse que

    )(yE y 22 )( SE

    3. Los estimadores puntuales tienen varianza mnima. Esta propiedad establece que la

    Varianza de un estimador puntual insesgado de un parmetro, es menor a la Varianza de

    cualquier otro estimador de dicho parmetro.

    Grados de Libertad

    A la cantidad n-1 de la Eq. (2.12) se le llama grados de libertad de la suma de los cuadrados

    (SC). Donde SC y yi ( )2. Este resultado general permite afirmar que si y es una variable

    aleatoria con Varianza 2 , 2)( yySC i y grados de libertad, entonces se cumple que:

    2

    SCE

    (2.13)

    El nmero de grados de libertad de una suma de cuadrados, es igual al nmero de elementos

    independientes en dicha suma. El uso de (n-1) en lugar de n en el denominador confunde a

    muchas personas. El nmero de grados de libertad de una suma de cuadrados, es igual al

    nmero de elementos independientes en dicha suma. En aquellas raras ocasiones cuando se

    conoce la media poblacional, , la formula de S2 tendr n en el denominador. En Estadstica, la

    suma de los residuos (a diferencia de la suma de los errores, que no es conocida) es

    necesariamente 0 ya que existen variables con valores superiores e inferiores a la media.

    0)(11

    nn

    i

    ini

    n

    i

    ynyyy

    Ahora imaginemos que se tienen 3 valores de y que se pueden modificar arbitrariamente, pero

    con la condicin de que la suma de los residuos sea 0. Se puede asignar cualquier cantidad a dos

    de los tres valores de y, porque el otro va a estar dado por la frmula, es decir que tienes dos

    grados de libertad.

    Esto tambin significa que los residuos estn restringidos a encontrarse en un espacio de

    dimensin n-1 (en este ejemplo, en el caso general a n-r) ya que, si se conoce el valor de n-1 de

    estos residuos, la determinacin del valor del residuo restante es inmediata. As, se dice que "el

    error tiene n-1 grados de libertad" (el error tiene n-r grados de libertal para el caso general).

    2 En estadstica se llama sesgo de un estimador a la diferencia entre su esperanza matemtica y el valor del parmetro que

    estima. Un estimador cuyo sesgo es nulo se llama insesgado o centrado.

  • Jaime Ortega PhD 13

    En aquellas raras ocasiones cuando se conoce la media poblacional, , la formula de S2 tendr

    n en el denominador.

    Distribucin Normal y Otras Distribuciones Muestrales

    A menudo es posible determinar la distribucin de probabilidad de un estadgrafo en particular

    si se conoce la distribucin de probabilidad de la poblacin de la cual se extrajo la muestra. La

    distribucin de probabilidad de un estadgrafo se conoce como distribucin muestral.

    Una de las distribuciones ms tiles3, es la Distribucin Normal. Si y es una variable aleatoria

    normal, entonces la distribucin de probabilidades de y es:

    yeyf y 2

    1)(

    2]/))[(2/1(

    (2.14)

    Donde es la media de la Distribucin y 2 la Varianza. La representacin grfica de la Distribucin Normal se presenta en la Fig. 2.2

    Fig 2.2 Distribucin Normal

    3 Caracteres morfolgicos de personas, animales o plantas de una especie: tallas, pesos, envergaduras, dimetros, permetros.

    Caracteres fisiolgicos: efecto de una misma dosis de un frmaco, o de una misma cantidad de abono.

    Caracteres sociolgicos: consumo de cierto producto por un mismo grupo de individuos, puntuaciones de examen.

    Caracteres psicolgicos: cociente intelectual, grado de adaptacin a un medio

    Errores cometidos al medir ciertas magnitudes.

    Valores estadsticos maestrales, por ejemplo: la media.

    Otras distribuciones como la binomial o la de Poisson son aproximaciones normales.

    En general cualquier caracterstica que se obtenga como suma de muchos factores.

  • Jaime Ortega PhD 14

    Frecuentemente se emplea la notacin y ~ N(, 2 ) para indicar que y se distribuye "normal"

    con media y varianza 2 .

    Un caso importante de la Distribucin Normal es la Distribucin Normal Estndar donde =0

    y 12 . Si y ~ N(, 2), entonces la variable

    zy

    (2.15)

    sigue la Distribucin Normal Estndar, esto es: z ~ N(0,1). Muchas tcnicas de anlisis

    estadstico asumen que la variable aleatoria en estudio se distribuye "normal". Si se toman

    muestras aleatorias de tamao n de poblaciones que obedecen la distribucin normal, la

    distribucin de la media muestral, y , ser tambin normal con la misma media y desviacin

    estndar n/ .

    Si la distribucin de la poblacin no fuese normal; la distribucin de la media muestral, y , ser

    aproximadamente normal si se analizan muestras razonablemente grandes (n > 30). Este

    resultado se conoce como el Teorema del Lmite Central.

    Teorema del Lmite Central

    Si y y y yn1 2 3, , ,........ es una secuencia de n variables aleatorias independientes de idntica

    distribucin, con nii yyyxyVyE ....y )( , )( 21 2 , entonces la variable:

    zx n

    nn

    2

    (2.16)

    tiene aproximadamente una distribucin N(0,1). En algunos casos, esta aproximacin es

    adecuada para pequeos valores de n (n100).

    En experimentacin, la utilidad de la suma de variables normales radica en el hecho que el error

    experimental es la suma de errores de fuentes independientes; por tanto, la Distribucin Normal

    se constituye en un modelo plausible para el estudio de error experimental combinado.

    El teorema central del lmite es uno de los resultados fundamentales de la estadstica. Este

    teorema nos dice que si una muestra es lo bastante grande (generalmente cuando el tamao

    muestral (n) supera los 30, sea cual sea la distribucin de la media muestral, seguir

    aproximadamente una distribucin normal. Es decir, dada cualquier variable aleatoria, si

    extraemos muestras de tamao n (n>30) y calculamos los promedios muestrales, dichos

    promedios seguirn una distribucin normal. Un caso concreto del teorema central del lmite es

    la distribucin binomial. A partir de n=30, la distribucin binomial se comporta

    estadsticamente como una normal, por lo que podemos aplicar los tests estadsticos apropiados

    para esta distribucin.

  • Jaime Ortega PhD 15

    Ejemplo:

    Se sabe que los dimetros de ejes fabricados por un cierto proceso se distribuyen normal con

    media = 2.5 cm y desviacin estndar = 0.009 cm. Indagar la distribucin de la media

    muestral de los dimetros de una muestra de nueve ejes escogidos al azar. Calcular la fraccin

    de dicha medias muestrales que se espera que exceda los 2.505 cm.

    La distribucin de la media muestral, y , ser normal con media 2.5 cm y desviacin estandar

    cmn 003.09/009.0/ .

    Para calcular la probabilidad que 505.2y )505.2( yP es necesario emplear la variable

    normal estndar. Es decir:

    048.066.1003.0

    500.2

    003.0

    500.2505.2

    003.0

    500.2)505.2(

    yP

    yPyP

    Distribucin 2

    Una importante distribucin de probabilidades definida en trminos de variables aleatorias

    normales, es la Distribucin 2 (chi-cuadrado o ji-cuadrado de Pearson). Si

    z z z z zi n1 2 3, , ,....... .... son variables aleatorias normales e independientes con media 0 y varianza

    1, entonces la variable

    k i kz z z z

    212

    22 2 2 ..... .....

    (2.17)

    sigue la Distribucin Chi-cuadrado con k grados de libertad. La funcin de densidad Chi-

    cuadrado es:

    0

    22

    1)( 22/

    1)2/(2

    2/

    2 2

    ek

    fk

    k

    (2.18)

    La Fig. 2.3 muestra curvas de densidad para 6, 12, 18, 24 y 30 grados de libertad.

  • Jaime Ortega PhD 16

    Fig. 2.3 Distribuciones Chi Cuadrado

    Para k = 2 la distribucin es una distribucin exponencial. Cuando k es suficientemente grande

    se aproxima por la distribucin normal:

    La Distribucin Chi-cuadrado es asimtrica con media kk 2 y varianza 2 . Una

    aplicacin inmediata e importante de esta distribucin es la siguiente: supngase que

    y y y y yi n1 2 3, , ,....... .... es una muestra aleatoria de una poblacin N(, 2). Entonces se cumple

    que:

    2

    12

    1

    2

    2

    n

    n

    i

    i yysc

    (2.19)

    La Eq. 2.19 es muy importante pues ocurre repetidamente en experimentacin.

    La Eq. 2.12 puede escribirse como:

    1

    2

    n

    SCS

    (2.20)

    Si las observaciones de la muestra son variables aleatorias independientes que se distribuyen

    N(, 2), entoces la distribucin de la Varianza Muestral S2 es una constante multiplicada por la

    distribucin Chi-cuadrado, si la poblacin se distribuye normalmente.

    2

    1

    22

    1

    n

    nS

    (2.21)

  • Jaime Ortega PhD 17

    Si las variables aleatorias 2y kz son independientes, entonces la variable:

    k

    zt

    k

    k

    /2

    (2.22)

    sigue la Distribucin t de Student4 con k grados de libertad. La funcin de densidad de t es:

  • Jaime Ortega PhD 18

    La ultima distribucin a considerar en este captulo es la Distribucin F. Si 22 y vu son dos

    variables aleatorias independientes chi-cuadrado, con u y v grados de libertad respectivamente,

    entonces el radio

    v

    uF

    v

    u

    /

    /2

    2

    (2.25)

    sigue la distribucin F con (u,v)grados de libertad. Una aplicacin inmediata de la Eq. 2.25 es la

    siguiente: Si y y y n11 12 1 1, ,,..... y 2,222,21 ,..... nyyy son muestras aleatorias independientes de n1 y

    n2 elementos, de varianza comn 2 , de dos poblaciones normales, entonces el radio:

    S

    S

    12

    22

    (2.26)

    Sigue la distribucin F con n-1, n-2 grados de libertad.

    2.4 Anlisis de Medias y Diseo Aleatorio

    En esta seccin se estudiar la forma en la cual datos de experimentos comparativos pueden ser

    analizados empleando procedimientos de " test de hiptesis " e intervalos de confianza. A lo

    largo de toda la seccin se asumir el empleo de un diseo experimental totalmente aleatorio.

    2.4.1 Test de Hiptesis (Docimasia)

    Una hiptesis estadstica es una afirmacin acerca de los parmetros de una distribucin de

    probabilidad. Por ejemplo, en el caso de cemento portland (Seccin 2.1), se puede afirmar que

    las resistencias medias a la traccin de los dos cementos son iguales. Tal afirmacin o hiptesis

    puede enunciarse de la siguiente manera:

    H

    H

    o:

    :

    1 2

    1 1 2

    (2.27)

    donde 1 2 y son las resistencias medias de los dos cementos, Ho es la hiptesis nula, y H1

    es la hiptesis alternativa.

    Para probar la hiptesis, el procedimiento consiste en tomar muestras aleatorias, calcular

    estadgrafos apropiados, y rechazar o aceptar la hiptesis nula Ho . En este procedimiento se

    cometen dos tipos de error:

  • Jaime Ortega PhD 19

    (error tipo I) rechazar es verdadera)

    (error tipo II) (no rechazar is falsa )

    P H H

    P H H

    o o

    o o

    ( /

    /

    (2.28)

    El procedimiento general consiste en especificar un valor de probabilidad de ocurrencia del

    error del tipo I o nivel de significacin de tal manera que la probabilidad de ocurrencia del error

    del tipo II sea lo suficientemente pequeo. Ahora bien, si se trabaja con muestras normales

    independientes, entonces la distribucin de y y N n n1 2 1 2 2 1 21 1 es [ , ( / / )] . Por tanto, si

    se conoce 2 , entonces la variable:

    Zy y

    n n

    o

    1 2

    1 2

    1 1

    (2.29)

    se distribuye N(0,1); sin embargo, si la varianza muestral no se conoce, sta debe ser

    reemplazada por un estimador Sp . Por consiguiente y segn la Eq. 2.24 la variable:

    21

    21

    11

    nnS

    yyt

    p

    o

    (2.30)

    se distribuye t con n n1 2 2 grados de libertad. El estimador Sp , se calcula mediante:

    2

    )1()1(

    21

    2

    22

    2

    1

    nn

    SnSnS p

    (2.31)

    Para ilustrar el procedimiento, considere los datos de la Tabla 2.1. A partir de dichos datos se

    obtiene lo siguiente:

    Nuevo Cemento Cemento Portland

    kg / cm kg / cm

    2 2y y

    S S

    S S

    n n

    1 2

    12

    12

    1 1

    1 1

    16 76 17 92

    0 100 0 061

    0 316 0 247

    10 10

    . .

    . .

    . .

    Substituyendo en la Eq. 2.31 se tiene:

    284.0081.021010

    )061.0(9)100.0(92

    pp SS

  • Jaime Ortega PhD 20

    Substituyendo este valor en la Eq. 2.30 se obtiene:

    to

    16 76 17 92

    0 248 1 10 1 109 13

    . .

    . / /.

    Ahora, supngase que se desea un error del primer tipo del orden de 0 05. (5%) y por

    tanto un intervalo de confianza de la media poblacional, , de 0.95 (95%). En trminos grficos, lo dicho arriba se puede representar como se muestra en la Figura 2.5

    Mediante tablas, se ve que t n n /2 1 2 2 18 con grados de libertad es igual 2.101. Dado que

    t to 9 13 0 025 18. . , se puede concluir que la hiptesis nula, Ho , no es verdadera y por tanto debe

    ser rechazada. En otras palabras, las resistencias medias a la traccin de ambos cementos son

    diferentes.

    2.4.2 Eleccin del Tamao de la Muestra

    Uno de los aspectos mas importantes en el Diseo Experimental es la seleccin del tamao

    apropiado de la muestra. El tamao de la muestra y la probabilidad de ocurrencia del error del

    tipo II estn relacionados. Supngase que est examinando la siguiente hiptesis:

    211

    21

    :

    :

    H

    H o

    y que las medias no son iguales; es decir, 1 2 . Dado que Ho 1 2 no es verdad, el investigador estar interesado en errneamente fallar en rechazar la hiptesis nula dado que esta

    es falsa, es decir, en valorar el error . La probabilidad de depende de . Un grfico de P()

    versus d 1 2 2/ , para un tamao total de muestras, n n n ( )1 2 , y un valor de =

  • Jaime Ortega PhD 21

    0.05, se muestra en la Fig. 2.5. Las curvas mostradas en dicho grfico reciben el nombre de

    "curvas caractersticas operacionales".

    El parmetro d implica conocer las medias y varianza poblacionales que son generalmente

    desconocidas. Sin embargo, es el investigador el que puede definir diferencias criticas. Por otro

    lado, puede ser evaluado a partir de la precisin del instrumento. Por ejemplo, en el caso del cemento Portland, se desea determinar, con alto grado de probabilidad, diferencias

    significativas hasta de 0.5 Kg/cm2 . As mismo, se sabe que la precisin del instrumento es de

    0.25 Kg/cm2. Con estos valores, se tiene que d = 1. Asumiendo un valor muy bajo de

    ocurrencia del error II se ve que n =30 y por tanto n n1 2 15 . Las curvas caractersticas

    operacionales deben ser obtenidas antes de empezar la serie de experimentos.

    2.4.3 Intervalos de Confianza

    A menudo, es necesario conocer el o los intervalos dentro de los cuales se espera encontrar el o

    los valores de los parmetros estudiados. A estos intervalos se les conoce como intervalos de

    confianza. En muchos procesos, el investigador sabe de antemano que las medias poblacionales

    difieren y por tanto probar que 1 2 es de poco inters. En su lugar, es de mayor utilidad

    conocer el intervalo de confianza de 1 2

    Definicin:

    Supngase que es el parmetro en estudio. Para obtener el intervalo de confianza de se requiere encontrar dos estadgrafos L y U tal que se cumpla;

    P L U( ) 1

    (2.26)

    El intervalo:

    L U (2.27)

    Fig. 2.6

  • Jaime Ortega PhD 22

    es el intervalo de confianza de .

    Ejemplo: se desea encontrar un intervalo de la diferencia de medias del problema del cemento

    Portland. En virtud de la Eq. 2.19, el estadgrafo:

    21

    2121

    11

    nnS

    yy

    p

    (2.28)

    se distribuye t con n n1 2 2 grados de libertad ( )tn n1 2 2 . Por lo tanto, el intervalo ser:

    1

    112 ,2/

    21

    21212 ,2/ 2121 nn

    p

    nn t

    nnS

    yytP

    Lo que re-ordenando da:

    1

    1111

    21

    2 ,2/2121

    21

    2 ,2/21 2121 nnStyy

    nnStyyP pnnpnn

    Para un nivel de significacin del 95 %, substituyendo los valores de la pgina 18 se tiene:

    1 43 0 891 2. .

    En otras palabras, el intervalo del 95 % confianza de la diferencia de medias es:

    1 2 1 16 0 27 . . Kg / cm Kg / cm2 2

    Ntese que la diferencia 1 2 0 no esta incluida en el intervalo y por tanto no apoya la

    hiptesis de 1 2 !.

  • Jaime Ortega PhD 23

    2.4.4 El Caso de 22

    2

    1

    Si se esta examinando la hiptesis de la Eq. 2.21 y no se puede asumir que las varianzas

    poblacionales sean iguales, entonces la variable de la Eq. 2.24 se convierte en:

    2

    2

    2

    1

    2

    1

    21

    n

    S

    n

    S

    yyto

    (2.29)

    la misma que no se distribuye t. Sin embargo, uno puede aproximarse a la distribucin t

    utilizando el estadgrafo:

    1

    /

    1

    /

    2

    2

    2

    2

    2

    1

    2

    1

    2

    1

    2

    2

    2

    2

    1

    2

    1

    n

    nS

    n

    nS

    n

    S

    n

    S

    v

    (2.30)

    2.4.5 El Caso de 1 2 y Conocidos

    En este caso se empleara el estadgrafo

    2

    2

    2

    1

    2

    1

    21

    nn

    yyzo

    (2.31)

    El mismo que se distribuye N(0,1) siempre que las poblaciones sean normales o las muestras lo

    suficientemente grandes tal que se cumpla el teorema del Limite Central.

    2.5 Inferencias Acerca de Diferencias en las Medias. Diseo de Pares de Comparacin

    En algunos experimentos comparativos es posible incrementar la precisin haciendo

    comparaciones mediante "pares correspondientes" de material experimental. Por ejemplo, la

    dureza de un metal se mide mediante de la hendidura que deja la punta del durmetro en la

    muestra al aplicarse una determinada carga. Supngase que se tienen disponibles dos puntas

    "idnticas" para una misma maquina. Sin embargo, se sospecha que dichas puntas dan lecturas

    diferentes. Para probar o rechazar tal afirmacin, un experimento puede disearse de la

    siguiente manera: se seleccionan al azar 20 piezas de metal y la mitad de stas se prueban con la

    punta 1y la otra mitad con la punta 2. Dado que este es un experimento totalmente aleatorio, se

    puede utilizar las tcnicas descritas en la Seccin 2.4. Sin embargo, por una serie de factores

  • Jaime Ortega PhD 24

    desconocidos (barras diferentes, gradientes de temperatura en las barras, etc) podra existir falta

    de homogeneidad en el material lo que contribuira a incrementar el error experimental y por

    tanto a conclusiones errneas acerca de las mencionadas puntas.

    Para evitar la posibilidad arriba sealada, considere un diseo experimental alternativo: (a)

    tmese muestras lo suficientemente grandes tal que se hagan dos mediciones en la misma: una

    con la punta 1 y otra con la punta 2 y (b) divdase al azar cada muestra en dos porciones de

    iguales dimensiones. Despus de llevar a cabo el experimento, se construye la siguiente tabla:

    Muestra Punta 1 (en m) Punta 2 (en m)

    1 7 6

    2 3 3

    3 3 5

    4 4 3

    5 8 8

    6 3 2

    7 2 4

    8 9 9

    9 5 4

    10 4 5

    Es posible proponer un modelo estadstico que describe los datos del experimento de la

    siguiente manera:

    10,.....2,1

    2,1

    j

    i y ijjiij

    (2.32)

    Donde y i j

    i

    j

    ij

    i

    j

    ij i

    es la lectura de la punta en la muestra

    es la dureza media verdadera dada por la punta

    es un efecto en la dureza debido a la muestra

    es el error experimental con media cero y varianza

    2

    Si se calculan las j-simas diferencias apareadas se tiene

    d y y jj j j 1 2 1 2 10 , ,.......

    (2.33)

    Siendo el valor esperado de las diferencias

    d j j j j jE d E y y E y E y ( ) ( ) ( ) ( )1 2 1 2 1 2

  • Jaime Ortega PhD 25

    Por tanto, es posible hacer inferencias acerca de la diferencia de las medias, 1 2 , mediante

    inferencias acerca de la media de las diferencias, d . En otras palabras, examinar Ho: 1 2

    es equivalente a proponer H

    H

    o d

    d

    :

    :

    0

    01

    El estadgrafo para esta hiptesis ser:

    td

    S no

    d

    /

    (2.34)

    que se distribuye t con n-1 grados de libertad.

    donde

    1

    )(

    y 1 1

    2

    2

    1 n

    dd

    Sdn

    d

    n

    j

    j

    d

    n

    j

    j

    Substituyendo los valores numricos se tiene to 0 26. . En tablas se ve que t0 25 9 2 262. , . .

    Como t to 0 25 9. , no hay evidencia que indique que ambas puntas producen diferentes valores

    de dureza.