pruebas de hipÓtesis con variables ...2.6 valores crÍticos para muestras grandes. 24 2.7 valores...

98
COLEGIO DE POSTGRADUADOS INSTITUCIÓN DE ENSEÑANZA E INVESTIGACIÓN EN CIENCIAS AGRÍCOLAS INSTITUTO DE SOCIOECONOMÍA, ESTADÍSTICA E INFORMÁTICA PROGRAMA EN ESTADÍSTICA PRUEBAS DE HIPÓTESIS CON VARIABLES DEPENDIENTES E IDÉNTICAMENTE DISTRIBUIDAS EDUARDO GUTIÉRREZ GONZÁLEZ T E S I S PRESENTADA COMO REQUISITO PARCIAL PARA OBTENER EL GRADO DE: M A E S T R O EN C I E N C I A S MONTECILLO, TEXCOCO, EDO. DE MÉXICO 2004

Upload: others

Post on 28-Dec-2019

29 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

COLEGIO DE POSTGRADUADOS INSTITUCIÓN DE ENSEÑANZA E INVESTIGACIÓN

EN CIENCIAS AGRÍCOLAS INSTITUTO DE SOCIOECONOMÍA, ESTADÍSTICA E INFORMÁTICA

PROGRAMA EN ESTADÍSTICA

PRUEBAS DE HIPÓTESIS CON

VARIABLES DEPENDIENTES E

IDÉNTICAMENTE DISTRIBUIDAS

EDUARDO GUTIÉRREZ GONZÁLEZ

T E S I S

PRESENTADA COMO REQUISITO PARCIAL PARA OBTENER EL GRADO DE:

M A E S T R O EN C I E N C I A S

MONTECILLO, TEXCOCO, EDO. DE MÉXICO

2004

Page 2: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

III

La presente tesis titulada: PRUEBAS DE HIPÓTESIS CON VARIABLES DEPENDIENTES

E IDÉNTICAMENTE DISTRIBUIDAS, realizada por el alumno: Eduardo Gutiérrez

González, bajo la dirección del consejo particular indicado, ha sido aprobada por el mismo y

aceptada como requisito parcial para obtener el grado de

MAESTRO EN CIENCIAS PROGRAMA EN ESTADÍSTICA

CONSEJO PARTICULAR

CONSEJERO Dr. José A. Villaseñor Alva ASESOR Dr. Humberto Vaquera Huerta ASESOR Dr. Filemón Ramírez Pérez ASESOR Dr. Barry C. Arnold

MONTECILLO, TEXCOCO, EDO. DE MÉXICO; JULIO DEL 2004

Page 3: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

IV

Agradecimientos

Al consejo nacional de ciencia y Tecnología por el apoyo económico brindado para la realización

de mis estudios de Maestría en Ciencias.

Al Colegio de Postgraduados por la oportunidad que me brindó.

Al Consejo particular integrado por Dr. José A. Villaseñor Alva, Dr. Humberto Vaquera Huerta,

Dr. Filemón Ramírez Pérez, y el Dr. Barry C. Arnold por el trabajo y el tiempo dedicado a esta

tesis.

Page 4: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Resumen V

V

RESUMEN

En este trabajo se estudia el problema de probar la hipótesis

01

00

:

:

ppH

ppH

>

en donde, 0p es una constante conocida y p es la probabilidad de que las variables

aleatorias tomen valores por encima de un valor q constante y definido de antemano, es decir,

[ ]qXPp i >= , para toda i.

cuando se tiene variables aleatorias intercambiables nXXX ,,, 21 K , idénticamente

distribuidas normalmente con parámetros µ y 2σ .

I. En primera instancia se trata el problema para el caso cuando las variables son independientes, en donde se sigue el esquema clásico basándose en los estimadores de máxima verosimilitud para los parámetros media y varianza y el resultado de que X y

2XS son independientes. Posteriormente, se determina que el estadístico de prueba

σµ

ˆ

ˆ−=

qT (en donde, µ y σ son los estimadores de máxima verosimilitud de µ y

σ ), tiene una distribución t no central. Con base en una aproximación a la t central se obtiene la expresión de la constante crítica para el tamaño de la prueba.

II. Para el caso de variables aleatorias dependientes normales con covarianzas homogéneas, se siguen las mismas ideas que en la situación de independencia. En donde, primeramente se estudian las restricciones para la covarianza para poder utilizar los resultados de la distribución multivariada, concluyendo que la covarianza debe ser positiva. Posteriormente se obtiene una transformación de las variables, con la cual se

puede demostrar que X y 2XS siguen siendo independientes. Por otro lado, se

encuentra la distribución de la media y varianza muestrales y se usa el mismo

estadístico de prueba que en el caso de variables independientes, σ

µˆ

ˆ−=

qT (en donde,

µ y σ son los estimadores de momentos de µ y σ ). Se encuentra que la distribución de T es también una distribución t no central, pero con otro parámetro de no centralidad diferente al caso de independencia. Con base en una aproximación a la t central se obtiene la expresión de la constante crítica para un tamaño de la prueba dado, la cual resulta ser igual al caso de variables independientes.

III. Finalmente se presenta una extensión de la prueba t para observaciones intercambiables.

Page 5: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Resumen VI

VI

ABSTRACT

This work studies the problem of proving the hypothesis

01

00

:

:

ppH

ppH

>

where 0p is a known constant and p is the probability that the variables have values above

q constant and defined beforehand

[ ]qXPp i >= , for all i.

When there are exchangeable random variables nXXX ,,, 21 K , identically distributed

normally with parameters µ and 2σ .

I. Firstly the problem is when the variables are independent following the classic scheme based on the estimates of maximum likelihood for the mean and variance parameters

and the result of X and 2XS are independent. Later it is determined that the test

statistic σ

µˆ

ˆ−=

qT (where µ and σ are the estimates of maximum likelihood of µ

and σ ) has a non central t distribution. Based on an approximation of the central t, the expression of the constant critical for the size of the test is obtained.

II. In the case of normal dependent variables with homogenous covariants the same ideas are followed as in the independent situation. Where first the restrictions for the covariants are studied to utilize the results of the multivariable distribution, concluding that the covariance must be positive. Then a transformation of the variables is obtained

with which it can be demonstrated that X and 2XS remain independent. On the other

hand we find the distribution of the mean and sample variants and use the same test

statistic as in the case of the variable independents , σ

µˆ

ˆ−=

qT (where µ and σ are

the moment estimators of µ and σ ). It is found that the distribution of T is also a non central t distribution, but with another parameter not centralized different to the independent case. Based on an approximation of central t the expression of the constant critical for the size of the given test is obtained and results equal to the case of the variable independents.

III. Finally an extension of the test t for exchangeable observation is presented.

Page 6: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

VII

Contenido Contenido VII

Introducción

1

Predicción con variables aleatorias dependientes. 1

Objetivos. 2

Antecedentes de variables aleatorias dependientes. 3

Capítulo 1

5

Marco Teórico. 5

PARTE I. PROPIEDADES DE LA NORMAL MULTIVARIADA 5

1.1 DISTRIBUCIÓN NORMAL MULTIVARIADA 5

1.2 PROPIEDADES DEL VALOR ESPERADO Y VARIANZA DE LA NORMAL

MULTIVARIDA 7

PARTE II. MÉTODO DE MÁXIMA VEROSIMILITUD 8

1.3 FUNCIONES Y ESTIMADORES DE MÁXIMA VEROSIMILITUD 8

Función de verosimilitud. 8

Estimadores de máxima verosimilitud. 9

PARTE III. PRUEBAS DE HIPÓTESIS 9

1.4 REGIONES CRÍTICAS 9

1.5 TIPOS DE ERRORES Y FUNCIÓN DE PRUEBA 10

Prueba de tamaño alfa. 11

Función de prueba. 11

1.6 FUNCIÓN DE POTENCIA DE LA PRUEBA 11

PARTE IV. MATRICES 13

1.7 VALORES Y VECTORES CARACTERÍSTICOS 13

Teorema 1.1 Condiciones para el valor propio. 13

Teorema 1.2 Sistema de valores propios. 14

Page 7: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Pruebas de hipótesis para variables dependientes idénticamente distribuidas y normales VIII

VIII

Teorema 1.3 Multiplicidad de valores propios. 14

Teorema 1.4 Cantidad de vectores propios. 14

1.8 DIAGONALIZACIÓN 14

Matrices similares. 14

Teorema 1.5 matrices similares y vectores propios. 14

Matriz diagonalizable. 15

Teorema 1.6 Matriz diagonalizable y vectores propios. 15

1.9 MATRICES SIMÉTRICAS Y DIAGONALIZACIÓN ORTOGONAL 15

Matriz diagonalizable ortogonalmente. 15

Teorema 1.7 Matriz simétrica real y vectores propios. 15

Teorema 1.8 Matriz simétrica real y vectores propios ortonormales. 15

Teorema 1.9 Matriz simétrica real y diagonalización. 15

Capítulo 2 16

Prueba de hipótesis para variables aleatorias independientes e idénticamente

distribuidas.

2.1 PLANTEAMIENTO DEL PROBLEMA. 16

2.1.1 Estadística de Prueba. 17

2.2 ESTIMADORES DE MÁXIMA VEROSIMILITUD PARA µ Y 2σ 17

2.2.1 Derivada con respecto al parámetro media. 17

2.2.2 Derivada con respecto al parámetro varianza. 18

2.3 DISTRIBUCIÓN DE LA MEDIA Y LA VARIANZA 18

2.3.1 Distribución de la media muestral. 18

2.3.2 Distribución de la varianza. 19

2.4 DISTRIBUCIÓN DE LA ESTADÍSTICA DE PRUEBA. 19

Teorema 2.1 Distribución de la estadística de prueba (t-nocentral). 20

2.5 APROXIMACIÓN DE LA T NO-CENTRAL CON LA T CENTRAL. 21

Proposición 2.1 Monotonía de la función δ(G ). 22

2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24

2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29

Page 8: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Contenido IX

IX

Capítulo 3 30

Prueba de hipótesis para variables aleatorias dependientes e idénticamente

distribuidas.

3.1 PLANTEAMIENTO DEL PROBLEMA. 30

3.1.1 Estadística de Prueba. 30

3.2 ACOTACIONES DEL PROBLEMA 31

Teorema 3.1 Determinante de la matriz de covarianzas. 32

3.2.1 Restricción del problema en la covarianza. 33

3.3 REPRESENTACIÓN DE LA MATRIZ DE COVARIANZAS 34

3.3.1 Valores propios de la matriz J. 34

3.3.2 Vectores propios de la matriz J. 35

3.4 SISTEMA DE VECTORES ORTOGONALES EQUIVALENTE A LOS VECTORES

PROPIOS DE LA MATRIZ J. 37

3.4.1 Ortonormalización del sistema de vectores equivalente a los vectores propios de

la matriz J. 38

3.5 MATRIZ DE TRANSFORMACIÓN. 41

3.5.1 Distribución de las variables transformadas. 41

Teorema 3.2 Distribución de la matriz transformada. 42

3.6 PROPIEDADES DE LAS VARIABLES TRANSFORMADAS 44

3.7 DISTRIBUCIÓN DE LA MEDIA Y LA VARIANZA 45

3.7.1 Distribución de la media muestral. 45

3.7.2 Distribución de la varianza muestral. 46

3.8 DISTRIBUCIÓN DE LA ESTADÍSTICA DE PRUEBA. 46

Teorema 3.3 Distribución de la estadística de prueba (t-nocentral). 46

3.8.1 Estudio del coeficiente de la estadística de prueba. 49

Proposición 3.1 Monotonía de la función )(ρh . 49

3.9 APROXIMACIÓN DE LA T NO-CENTRAL CON LA T CENTRAL. 50

Proposición 3.2 Monotonía de la función δ(G ). 51

Page 9: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Pruebas de hipótesis para variables dependientes idénticamente distribuidas y normales X

X

3.10 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 51

3.11 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 54

Capítulo 4 56

Aplicaciones.

4.1 VARIABLES ALEATORIAS INTERCAMBIABLES O SIMÉTRICAMENTE

DEPENDIENTES 56

Teorema Variables intercambiables binomiales 57

4.2 MATRIZ DE COVARIANZAS PARA DATOS INTERCAMBIABLES 57

Teorema 4.1 Covarianza de variables intercambiables 57

4.3 APLIACIONES A DATOS INTERCAMBIABLES 59

4.4 EXTENSIÓN DE LA PRUEBA T PARA OBSERVACIONES DEPENDIENTES 59

4.4.1 Caso de independencia. 60

4.4.1 Caso de dependencia. 60

Capítulo 5 64

Conclusiones.

Discusión 65

Apéndice A 66

Método de máxima verosimilitud para probar la hipótesis de variables aleatorias

dependientes e idénticamente distribuidas.

A.1 PLANTEAMIENTO DEL PROBLEMA. 66

A.2 ESTIMADORES DE MÁXIMA VEROSIMILITUD PARA µ , 2σ Y C 67

A.2.1 Derivada con respecto al parámetro media. 69

A.2.2 Derivada con respecto al parámetro varianza. 70

A.2.3 Derivada con respecto al parámetro de covarianza. 74

Apéndice B 77

Simulación de valores críticos para muestras pequeñas. 77

B.1 PROGRAMA EN S-PLUS. 77

B.2 TABLAS DE CUANTILES 80

Page 10: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Contenido XI

XI

B.3 COMPARACIONES 83

Bibliografía 85

Page 11: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

1

Introducción

PREDICCIÓN CON VARIABLES ALEATORIAS DEPENDIENTES

Uno de los objetivos de la Estadística consiste en realizar predicciones de los diferentes

fenómenos aleatorios con base en observaciones del fenómeno con fines de hacer una

mejor planeación. Por ejemplo, para planear la compra de acciones de una cierta empresa

se puede hacer mediante la predicción de su precio en las próximas semanas, meses o años.

El problema de la predicción tiene siglos estudiándose. Desde sus orígenes hasta la

aparición de aparatos que facilitaron su estudio, las predicciones se llevaban a cabo

mediante supuestos que transformaban el problema en otro mucho más sencillo de resolver. Por ejemplo, se suponía normalidad e independencia en las variables.

Actualmente con los avances tecnológicos los diferentes fenómenos aleatorios se han

ido estudiando con base en su naturaleza, es decir, analizando sus distribuciones sin

suponer cierto comportamiento, pero debido a la complejidad de su análisis en el caso de

variables dependientes en muchas situaciones se sigue suponiendo la independencia.

Los problemas sobre variables aleatorias dependientes son poco tratados en la

literatura clásica de Estadística (ver [3], [12], [16], [19]). Algunos autores de libros como

W. Feller, tienen sólo algunas secciones que le dedican a las variables aleatorias

dependientes (ver [7]). En general, los textos clásicos en donde se habla sobre variables

aleatorias dependientes, se refieren a los procesos estocásticos (ver [15], [17]) y series de

tiempo (ver [2], [3] y [5]), en donde se tratan diferentes tipos de dependencias.

Por ejemplo, en las finanzas, en donde las variables aleatorias tX pueden representar

el valor diario del índice de la bolsa de valores o los precios diarios de una acción y lo

único que se conoce de ellas es que provienen de la misma distribución y que son

dependientes con ciertas covarianzas.

En ese tipo de problemas resulta de interés poder contar con una prueba para el

contraste de hipótesis:

Page 12: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Introducción

2

01

00

:

:

ppH

ppH

>

en donde, p es la probabilidad de que al tiempo t la variables aleatoria )(tX tome valores

por encima de un valor q constante y definido de antemano, esto es:

[ ]qtXPp >= )( .

Aquí el valor constante q puede representar el valor del índice de la bolsa de valores a partir del cual el inversionista considera óptima su participación y por consiguiente quiere realizar el contraste de hipótesis, para conocer la significancia del riesgo de su inversión.

Por desgracia este tipo de pruebas resultan demasiado complicadas para el caso de

dependencia. Pero si se hacen algunas consideraciones sobre las covarianzas, de tal forma

que se tenga un proceso débilmente estacionario, se puede llegar a un resultado interesante

para el contraste de hipótesis antes mencionado.

OBJETIVOS

1. Proponer una prueba estadística para el caso cuando las variables aleatorias

nXXX ,,, 21 K son iid con distribución normal y parámetros µ y 2σ , para el

contraste de hipótesis:

01

00

:

:

ppH

ppH

>

en donde, p es la probabilidad de que las variables aleatorias del proceso iX tomen

valores por encima de un valor dado q constante y definido de antemano, esto es:

[ ] 0pqXP i ≤> , para toda i.

2. Proponer una prueba estadística para el contraste de hipótesis anterior cuando las

variables aleatorias nXXX ,,, 21 K tienen la misma distribución normal con

parámetros µ y 2σ , y covarianzas homogéneas, c.

3. Desarrollar aplicaciones de las pruebas propuestas.

Page 13: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Introducción. 3

3

ANTECEDENTES DE VARIABLES ALEATORIAS DEPENDIENTES

Como se sabe algunos de los primeros estudios sobre fenómenos aleatorios con variables

dependientes se tienen en los procesos estocásticos. En donde, uno de sus principales

estudiosos fue el botánico R. Brown quien en 1827 descubrió el movimiento que lleva su

nombre, movimiento browniano. En física, la teoría de difusión y la teoría cinética de la

materia estudian los movimientos agregados de colisiones de moléculas o partículas en las

que hay un movimiento continuo producto de las colisiones entre partículas. En 1923 N.

Wiener establece un fundamento matemático del proceso del movimiento Browniano. En

la parte financiera se tiene a Luis Bachelier, quien en 1900 realizó la primera aplicación

importante del movimiento browniano, en su tesis doctoral (dirigida por H. Poincare).

Bachelier, quien es considerado el fundador de los métodos cuantitativos en Finanzas, hizo

una descripción de las fluctuaciones de precios del mercado financiero francés. Su trabajo

lo titulo “Teoría de la especulación”.

Actualmente los procesos estocásticos se usan en una gran gama de aplicaciones, en

las diferentes esferas de las ciencias, como son:

• Administración. Debido a que los procesos estocásticos proporcionan un método para estudiar y manejar las operaciones económicas. Se tiene que éstos

desempeñan un papel importante en las disciplinas modernas de la ciencia de la

administración y la investigación operativa. Los dos campos en los que los

procesos estocásticos han encontrado la mayor aplicación en la administración son

en control de inventarios y el análisis de las líneas de espera. Además, en los

diferentes negocios se ha incrementado el uso de los procesos estocásticos para

mejorar la administración de publicidad, etc.

• Finanzas. Por ejemplo, en la fluctuación de precios de mercado, bolsa de valores, cotización del dólar, etc.

• Economía. Compañías de seguros.

• En diferentes fenómenos sociales, biológicos, físicos, etc.

Otra rama de la Estadística que estudia variables aleatorias dependientes es la de

series de tiempo (ver [2], [3], [5] y [14]). En esta parte se tiene que prácticamente con el

libro de Box-Jenkins (1970) se inició una nueva era en las aplicaciones de los modelos de

series de tiempo. Puesto que antes de 1970 la metodología de ajuste de modelos de Series

de Tiempo era demasiado complicada y poca gente la dominaba. Box y Jenkins

Page 14: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Introducción

4

simplificaron considerablemente la metodología de series de tiempo, por lo que ahora muchas más personas usan apropiadamente esta metodología.

En el enfoque de Box-Jenkins se emplean modelos estadísticos para estimación de

parámetros, las predicciones tienen propiedades óptimas y se obtienen intervalos de

confianza para las predicciones.

Otro tema de la Estadística que estudia variables aleatorias dependientes se refiere a

las variables intercambiables, las cuales inicialmente fueron estudiadas por B. de Finetti

en 1970 (ver [7], Capítulo 7, parágrafo 4). Actualmente dicho tipo de variables se usa en la

medicina en datos apareados. Por otro lado, también aparecen en los datos que son

reunidos en bloques completamente aleatorizados con k tratamientos. Uno de los

estadísticos que ha dedicado parte de su tiempo a este tipo de problemas es el Dr. Ronald

Randles de la Universidad de Florida.

Page 15: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

5

Capítulo 1

Marco teórico

En el presente capítulo se revisarán los conceptos principales que servirán para el desarrollo

del trabajo en los Capítulos 2, 3 y el Apéndice A.

En la primera parte se discutirán las propiedades principales de variables aleatorias con distribución normal, su valor esperado y varianza.

En una segunda parte se discute el método de máxima verosimilitud para estimadores

puntuales.

En la tercera parte se revisan algunos resultados de la Inferencia Estadística para

pruebas de hipótesis.

Finalmente en una cuarta parte se revisan algunos resultados del Álgebra de matrices

simétricas.

PARTE I. PROPIEDADES DE LA NORMAL MULTIVARIADA

1.1 DISTRIBUCIÓN NORMAL MULTIVARIADA

El papel fundamental que desempeña la distribución normal multivariada en la teoría de los

fenómenos aleatorios (consultar [15]) se debe a lo siguiente:

• La mayor parte de los fenómenos aleatorios importantes se pueden aproximar mediante variables aleatorias normales multivariadas.

• La mayor parte de las preguntas que se presentan se pueden responder para variables normales multivariadas con más facilidad que para otras variables.

Se dice que las n variables aleatorias nXXX ,,, 21 K están distribuidas normalmente

conjuntamente si su función característica conjunta es dada, para todos los números reales,

por:

Page 16: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Capítulo 1

6

−= ∑∑==

n

kjkjkj

n

jjjnXX uKumuiuu

n1,1

1,, 21

exp),,(1

KKϕ ,

donde, nkj ,,2,1, K= y además

jj XEm = , kjjk XXK ,cov= .

Si la matriz de covarianzas está dada por:

=

nnnn

n

n

KKK

KKKKKK

LMOMM

LL

21

22221

11211

Ó ,

y es tal que posee una matriz inversa:

=

=

nnnn

n

n

nnnn

n

n

KKK

KKKKKK

KKK

KKKKKK

LMOMM

LL

LMOMM

LL

21

22221

112111

21

22221

11211

1Ó ,

entonces se puede demostrar que nXXX ,,, 21 K tiene una densidad de probabilidad

conjunta dada para todos los números reales nxxx ,,, 21 K mediante

−−−= ∑=

n

kjkk

jkjjn

mxKmxf1,

2)()(

21

exp)det()2(

1)(

ÓxX

π.

Así, sea nXXX ,,, 21 K una muestra aleatoria, cuya función de densidad de

probabilidades conjunta es la siguiente:

−−−= − )()(

21

exp)det()2(

1)( 1

2ìxÓìx

ÓxX

t

nf

π,

en donde el vector de variables aleatorias iX tiene al vector x como una realización de la

muestra con vector de medias ì y matriz de covarianzas Ó.

Page 17: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Marco Teórico. 7

7

1.2 PROPIEDADES DEL VALOR ESPERADO Y VARIANZA DE LA NORMAL MULTIVARIADA

Supóngase que

tnXX ),,( 1 K=X son variables aleatorias distribuidas conjuntamente con distribución

normal y medias tn ),,( 1 µµ K=ì y varianzas t

n ),,( 221

2 σσ K=ó , respectivamente.

(i). c, k , naa ,,1 K y nbb ,,1 K representan constantes reales.

(ii). tnaa ),,( 1 K=a , t

nbb ),,( 1 K=b , tncc ),,( 1 K=c y t

nkk ),,( 1 K=k

representan vectores reales.

(iii). A, B, C, K representan matrices no aleatorias.

Entonces se tienen las siguientes propiedades

1. XacXac EE tt +=+

2. XAcAXc EE +=+

3. KXACAXKC EE +=+

4. XYYX ,cov,cov =

5. tXYYX ,cov,cov =

6. [ ][ ] YEXEXYEYEYXEXEYX −=−−= )()(,cov

7. [ ][ ] [ ]ttt EEEEEE YXXYYYXXYX −=−−= )()(,cov

8. bYXaYbXa ,cov,cov ttt kc =++

9. aXaXaXaXa var,covvar tttt ccc =++=+

10. tBYXABYkAXc ,cov,cov =++

11. tAXAAXc varvar =+

12. ∑∑= =

=+n

i

n

jjiji

t XXaac1 1

,covvar Xa

13. La matriz Xvar es no-negativa definida

14. Si ),(~ ÓìX N y se define la transformación lineal AXcY += , entonces

( )tN AAÓAìcY ,~ +

Page 18: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Capítulo 1

8

15. Si ),(~ ÓìX N y sea 1X un subvector de X, entonces ),(~ 1111 ÓìX N . En donde,

1ì es el correspondiente subvector de ì y 11Ó la correspondiente submatriz de Ó.

16. Sea ),(~ ÓìX N , entonces las variables nXX ,,1 K son independientes si y sólo si Ó es

una matriz diagonal cuyos elementos son las varianzas de las variables.

PARTE II. MÉTODO DE MÁXIMA VEROSIMILITUD

1.3 FUNCIONES Y ESTIMADORES DE MÁXIMA VEROSIMILITUD

El método de máxima verosimilitud (consultar [1], [4], [6], [12], [16]) considera un problema de estimación muy simple. Se basa en la función de densidad conjunta de n variables aleatorias

nXX ,,1 K , dependientes de un vector de parámetros ),,( 1 mθθ K=è , sobre los cuales se

maximiza la función de densidad conjunta para el caso de una realización nxx ,,1 K .

Definición 1.1 Función de verosimilitud (ver [12])

La función de verosimilitud de n variables aleatorias nXX ,,1 K está definida

como la densidad conjunta de las n variables, es decir, );( èxXf , la cual es considerada

como una función de è . En particular, si nXX ,,1 K es una muestra aleatoria de

densidades );( èxf , entonces la función de verosimilitud es

∏=

=n

iixff

1

);();( èèxX .

Note que la función de verosimilitud es una función de è y se suele utilizar la notación

);(),,;( 1 èxè XfxxL n =K .

La función de verosimilitud ),,;( 1 nxxL Kè da la verosimilitud cuando las variables

aleatorias asuman un valor particular nxx ,,1 K . La verosimilitud es el valor de una función de

densidad, y en el caso de las variables aleatorias discretas la verosimilitud es una probabilidad.

Si se denota por Θ al espacio de parámetros, se tiene que el problema de los estimadores de

máxima verosimilitud consiste en determinar el valor de Θ∈è , él cual se denotará por è , y será

tal que maximiza la función de verosimilitud ),,;( 1 nxxL Kè . El valor de è , que maximiza la

función de verosimilitud en general es una función de nxx ,,1 K , es decir,

Page 19: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Marco Teórico. 9

9

),,(ˆ1 nxxg K=è .

Cuando esto sucede la variable aleatoria ),,(ˆ1 nXXg K=È es llamada el estimador de

máxima verosimilitud del estimador è .

Definición 1.2 Estimador de máxima verosimilitud (ver [12])

Sea ),,;()( 1 nxxLL Kèè = la función de verosimilitud para las variables aleatorias

nXX ,,1 K . Si è (donde ),,(ˆ1 nxxg K=è es una función de las observaciones

nxx ,,1 K ) es el valor de Θ∈è con el cual se maximiza )(èL , entonces la variable

aleatoria ),,(ˆ1 nXXg K=È es el estimador de máxima verosimilitud de è .

Mientras que ),,(ˆ1 nxxg K=è es el estimador de máxima verosimilitud de è para

la realización nxx ,,1 K .

Nota

Para obtener el máximo de la función ),,;()( 1 nxxLL Kèè = , se aplican las diferentes

técnicas del cálculo como son: máximos y mínimos relativos, máximos y mínimos

absolutos y extremos de funciones monótonas, así como métodos numéricos.

PARTE III. PRUEBAS DE HIPÓTESIS

1.4 REGIONES CRÍTICAS

Sea nXX ,,1 K una muestra aleatoria con densidades );( θxf , en donde θ es el parámetro

de la distribución, por otro lado, se formula el contraste de hipótesis

0

00

:

:

θθ

θθ

>

AH

H

Introduciendo el conjunto xx |=Χ una realización de X , y formando una partición del

conjunto X a la que se denota por RA ΧΧ , , en donde,

AΧ se le llama región de no rechazo.

RΧ se le llama región de rechazo o región critica.

Page 20: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Capítulo 1

10

Por otro lado, en general, si X es un vector de observaciones con densidad );( θxf

en donde Ω∈θ las hipótesis serán del tipo siguiente:

ωθ

ωθ

−Ω∈

:

:0

AH

H

donde Ω⊂ω y kR⊂Ω .

Así, en realidad el problema consiste en buscar una familia de densidades, de tal

manera que basados en X se quiere decidir si se rechaza o no 0H . Para esto último se

tiene una regla de decisión dada por:

Rechazar 0H si RΧ∈x .

No rechazar 0H si AΧ∈x .

1.5 TIPOS DE ERRORES Y FUNCIÓN DE PRUEBA

Generalmente cuando se usa una prueba ( RΧ ), se está propenso a cometer dos tipos de

errores.

Error tipo I: Cuando se rechaza 0H siendo que es verdadera.

Error tipo II: Cuando no se rechaza 0H siendo que es falsa.

De tal forma que es razonable identificar la prueba que minimiza las probabilidades

de ambos errores respecto a todas las pruebas posibles. Sin embargo, generalmente cuando

se minimiza la probabilidad de uno de los errores el otro aumenta. Por lo tanto, dado un

valor )1,0(∈α se considera todas las pruebas tales que

α≤ΧRP usando I Error tipo ,

y entre ellas se busca la prueba que tiene mínima probabilidad de error tipo II, a la que se le

llama la prueba más poderosa.

Definición 1.3

Una prueba RΧ que satisface

α≤ΧRP usando I Error tipo

se dice que es una prueba de tamaño α .

Page 21: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Marco Teórico. 11

11

De la definición se puede notar que una prueba queda completamente especificada si

se define a RΧ .

Definición 1.4

Se dice que una función 1,0: →ΧΦ es una función de prueba, cuando

=Φ0

0

rechazar indica ,1

rechazar no indica ,0)(

H

Hx

Obsérvese que a cada partición de X en AΧ y RΧ , le corresponde una función de

prueba

Χ∈

Χ∈=Φ Χ

R

A

R x

xx

si ,1

si ,0)(

e inversamente a cada función de prueba )(xΦ le corresponde una partición

1)(|)(

0)(|)(

=Φ=ΦΧ

=Φ=ΦΧ

xx

xx

R

A.

1.6 FUNCIÓN DE POTENCIA DE UNA PRUEBA

Supóngase que se tiene el contraste de hipótesis ωθ ∈:0H vs ωθ −Ω∈:AH y nótese

que una prueba Φ es de tamaño α , si

αωθ ≤∈=Φ |1)(xP .

Además, RΧ∈⇔=Φ xx 1)( , de tal forma que resulta la siguiente definición.

Definición 1.5

Se dice que una función [ ]1,0: →ΩΦβ es la función de potencia de la

prueba Φ , cuando

θθθβ | usando rechazar |1)()( 0 Φ==Φ=Φ HPP x .

Definición 1.6

Se dice que una prueba Φ es de tamaño )1,0(∈α si

αθβωθ

=Φ∈

)(max .

Page 22: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Capítulo 1

12

La prueba será de tamaño α , si la máxima probabilidad de cometer el error tipo I es

menor o igual que α .

Obsérvese que si ωθ −Ω∈ , entonces

θ

θθθβ

| usando II Error tipo1

|0)(1|1)()(

Φ−=

=Φ−==Φ=Φ

P

PP xx

Esto es, θ| usando II Error tipo ΦP es pequeña cuando )(θβΦ es próxima a uno

con ωθ −Ω∈ . Por lo tanto, es deseable encontrar una prueba *Φ de tamaño α tal que su

función de potencia )(* θβΦ

es uniformemente máxima respecto a todas las pruebas de

tamaño α . Es decir, *Φ es tal que

1) αθβωθ

≤Φ∈

)(max * .

2) )()(* θβθβ ΦΦ≥ , con ωθ −Ω∈ .

Para toda prueba Φ , que satisface (1). Si se cumple (2), entonces *Φ es la prueba

que tiene la mínima probabilidad de error tipo II.

Finalmente se discutirá brevemente algunos temas del Álgebra lineal para matrices

simétricas y sus valores y vectores propios. Estos temas se pueden consultar en las

siguientes referencias [9], [11] y [18].

Page 23: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Marco Teórico. 13

13

PARTE 4. MATRICES

1.7 VALORES Y VECTORES CARACTERÍSTICOS

Sea V un espacio vectorial y T una transformación lineal VVT →: , se tiene que en

muchos casos es útil hallar un vector V∈v , tal que vT y v sean paralelos. Es decir, se

busca un vector v y un escalar λ , tales que

vv λ=T , con 0v ≠ .

Se dice que λ es un valor característico de T mientras que a v se le llama el vector

característico de T correspondiente al valor característico λ .

Cuando V es de dimensión finita, entonces T se puede representar mediante una

matriz A, de tal forma que se analizan los valores y vectores propios de una matriz

cuadrada A.

Definición 1.7

Sea A una matriz de tamaño (orden) nn × con elementos reales. El número λ (real o complejo) recibe el nombre de valor característico o propio de A si

existe algún vector diferente de cero nC∈v tal que

vAv λ= , con 0v ≠

En este caso se dice que el vector 0v ≠ es un vector característico o propio

de A correspondiente al valor propio λ .

En este trabajo sólo se empleará el caso cuando ambos vector y valor propio son

reales.

Con respecto a los valores y vectores propios existen diferentes resultados, el primero

de ellos se refiere a la forma de calcularlos.

Teorema 1.1

Sea A una matriz real de nn × , entonces λ es un valor propio de A si y sólo si

0)det()( =−= IA λλP

En donde, la igualdad 0)( =λP recibe el nombre de la ecuación característica de A y

a )(λP se le llama el polinomio característico de A. Por el teorema fundamental del

álgebra 0)( =λP tiene n valores propios, incluyendo multiplicidades.

Page 24: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Capítulo 1

14

Teorema 1.2

Sea A una matriz real de orden nn × y mλλλ ,,, 21 K diferentes valores

propios de A con vectores propios correspondientes mvvv ,,, 21 K , entonces

mvvv ,,, 21 K son linealmente independientes. Además si mλλλ ,,, 21 K son

reales, entonces mvvv ,,, 21 K forman una base del espacio euclidiano mR .

Cuando los valores propios son de multiplicidad, se tiene el siguiente resultado.

Teorema 1.3

Sea A una matriz real de orden nn × y λ uno de sus valores propios, entonces

la multiplicidad geométrica de λ es igual a la nulidad de IA λ− .

Por otro lado, multiplicidad geométrica de ≤λ multiplicidad algebraica de λ .

Del teorema anterior se concluye un resultado sobre la independencia de los vectores

propios.

Teorema 1.4

Sea A una matriz real de orden nn × , entonces A tiene n vectores propios

linealmente independientes si y sólo si la multiplicidad geométrica de cada

valor propio es igual a su multiplicidad algebraica.

1.8 DIAGONALIZACIÓN

Aquí se verá una relación interesante que puede existir entre dos matrices.

Definición 1.8

Se dice que las matrices A y B de orden nn × son similares, si existe una

matriz C del mismo orden, tal que

ACCB 1−=

Teorema 1.5

Si A y B son matrices similares de orden nn × , entonces A y B tienen la misma

ecuación característica, y por lo tanto tienen los mismos valores propios.

Page 25: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Marco Teórico. 15

15

Definición 1.9

Se dice que la matriz A de orden nn × es diagonalizable si y sólo si existe una

matriz diagonal D del mismo orden, tal que A sea similar a D.

Teorema 1.6

Una matriz A de orden nn × es diagonalizable, si y sólo si tiene n vectores

propios linealmente independientes. Además si nλλλ ,,, 21 K son los valores

propios de A y sus vectores propios correspondientes mvvv ,,, 21 K , entonces

ACCD 11 ),,( −=nλλ K

en donde la matriz C, tiene como columnas a los vectores propios nvv ,,1 K .

1.9 MATRICES SIMÉTRICAS Y DIAGONALIZACIÓN ORTOGONAL

Cuando las matrices son simétricas los resultados anteriores se siguen cumpliendo con ciertas propiedades adicionales.

Teorema 1.7

Sea A una matriz simétrica real de orden nn × , entonces los vectores propios

de A son reales.

Teorema 1.8

Sea A una matriz simétrica real de orden nn × , entonces A tiene n vectores

propios ortonormales y reales.

Definición 1.10

Se dice que una matriz A de orden nn × es diagonalizable ortogonalmente si existe una matriz ortogonal Q tal que

DAQQ =t

Teorema 1.9

Sea A una matriz real de orden nn × , entonces A es diagonalizable

ortogonalmente si y sólo si A es simétrica.

Page 26: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

16

Capítulo 2

Prueba de hipótesis para variables aleatorias independientes e idénticamente distribuidas

2.1 PLANTEAMIENTO DEL PROBLEMA

Sean nXXX ,,, 21 K variables aleatorias independientes normalmente distribuidas con

parámetros µ y 2σ . Se quiere encontrar una prueba para el contraste de hipótesis:

01

00

:

:

ppH

ppH

>

en donde, 0p es una constante conocida y p es la probabilidad de que las variables

aleatorias tomen valores por encima de un valor q constante y definido de antemano, esto

es:

[ ]qXP i > , para toda i.

Por la normalidad de las variables aleatorias y estandarizando resulta:

−>=

−Φ−=

σµ

σµ q

ZPq

p 1 ,

donde )(xΦ es la función de distribución normal estándar. De donde, 0H es equivalente a

Φ≤−σ

µqp01 .

Así, las hipótesis anteriores son equivalentes a:

)1(:

)1(:

01

1

01

0

pq

H

pq

H

−Φ<−

−Φ≥−

σµ

σµ

(2.1)

Page 27: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Prueba de hipótesis para variables aleatorias independientes e idénticamente distribuidas. 17

17

2.1.1 ESTADÍSTICA DE PRUEBA

De la expresión (2.1) se propone una prueba basada en la estadística dada por:

σ

µˆ

ˆ−=

qT , (2.2)

en donde, µ y σ son los estimadores de máxima verosimilitud de µ y σ .

Así, la prueba rechaza cuando αkT < , donde αk es tal que

( ) αα ≤< 0| HkTP (2.3)

para una )1,0(∈α dada.

2.2 ESTIMADORES DE MÁXIMA VEROSIMILITUD PARA µ y 2σ

En base al estadístico de prueba se buscan los estimadores de máxima verosimilitud para la

media y la varianza. Sean nXXX ,,, 21 K las variables aleatorias independientes

normalmente distribuidas con parámetros µ y 2σ , de tal forma que su función de

verosimilitud está dada por:

−−=

=

−−==

=

=

n

iinn

n

ii

x

xfL

1

222

1

22

2~,~|

2

)(2

1exp

)2(

1

)(2

1exp

2

1),|(),( 2

µσπσ

µσπσ

σµσµσµ

xX

(2.4)

Extrayendo el logaritmo natural se tiene

∑=

−−−−=n

ii

n xn

1

22

222 )(2

1)ln(

2)2(ln),|( µ

σσπσµxl (2.5)

2.2.1 DERIVADA CON RESPECTO AL PARÁMETRO MEDIA

Derivando la expresión (2.5) con respecto a la media

[ ] )()(1

),|(2

12

2~,~| 2 µ

σµ

σσµ

µ σµ−=−=

∂∂ ∑

=

xn

xn

iix

Xl

Igualando a cero la expresión de la derivada y despejando la media,

Page 28: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Capítulo 2

18

0)(2

=− µσ

xn

,

se obtiene el estimador de máxima verosimilitud para la media

x=µ . (2.6)

2.2.2 DERIVADA CON RESPECTO AL PARÁMETRO VARIANZA

Para la varianza se deriva la expresión (2.5) con respecto a 2σ

[ ] [ ]

( ) ∑

=

=

−+−=

∂∂−−

∂∂−=

∂∂

n

ii

n

ii

xn

xn

1

2222

221

222

22

)(2

1

2

1)(

21

)ln(2

),|(

µσσ

σσµσ

σσµ

σxl

Al igualar a cero la derivada anterior resulta la ecuación

( )0)(

2

1

2 1

2222

=−+− ∑=

n

iix

σσ.

Multiplicando la ecuación anterior por 42σ se obtiene la ecuación

0)(1

22 =−+− ∑=

n

iixn µσ .

Despejando la varianza de la expresión anterior y sustituyendo el estimador de

máxima verosimilitud para la media se obtiene el estimador de máxima verosimilitud para

la varianza

22

1

22

ˆ

)ˆ(1ˆ

s

xn

n

ii

=

−= ∑=

σ

µσ (2.7)

2.3 DISTRIBUCIÓN DE LA MEDIA Y LA VARIANZA

Se obtuvo en la expresión (2.2) que la estadística de prueba está dada en función de los

estimadores de la media y la varianza por consiguiente se necesita la distribución de estos

dos estimadores.

2.3.1 DISTRIBUCIÓN DE LA MEDIA MUESTRAL

Primeramente se nota que el vector de variables tiene la distribución:

Page 29: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Prueba de hipótesis para variables aleatorias independientes e idénticamente distribuidas. 19

19

( )I1X 2)( ,~ σµnN , (2.8)

Ahora de las propiedades de la distribución normal (capítulo 1) y (2.8) resulta:

n

NX2

,~σ

µ . (2.9)

2.3.2 DISTRIBUCIÓN DE LA VARIANZA

De forma similar a la media muestra se puede formular el resultado:

−Γn

nS

22 2,

21

X . (2.10)

En donde, ∑=

−=n

ii XX

nS

1

22 )(1

X .

Comprobación

Se deduce inmediatamente del resultado para muestras aleatorias con distribución normal

estándar nZZZ ,,, 21 K (ver [12], páginas 243-246), el cual concluye que

( ) 21

1

2~ −

=∑ − n

n

ii ZZ χ , además 2Z y 2

ZS son independientes.

Luego,

[ ] 21

2

1

2

1 1

2

12

2

~1

−== ==∑∑ ∑∑ −=

−−

=

−= n

n

ii

n

i

n

i

iin

i

i ZZX

n

XXXnSχ

σµ

σµ

σσX

Así, de esta forma resulta

−Γ=− 2,

21

~ 212

2 nnSnχ

σX , de donde

−Γn

nS

22 2,

21

X .

2.4 DISTRIBUCIÓN DE LA ESTADÍSTICA DE PRUEBA

De la expresión (2.2) se tiene que el estadístico de prueba es:

σµ

ˆ

ˆ−=

qT .

Como se puede observar el estadístico de prueba es función de la media y desviación

estándar muestrales, de tal forma que utilizando los resultados anteriores se formula el

siguiente Teorema.

Page 30: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Capítulo 2

20

Teorema 2.1

Sean nXX ,,1 K variables aleatorias independientes igualmente distribuidas, y

( )I1X 2)( ,~ σµnN , en donde I es la matriz identidad de orden nn × , entonces

la estadística de prueba σ

µˆ

ˆ−=

qT , tiene una distribución t no central con

parámetro de no centralidad

σµ q

n .

Demostración

Es bien conocido que en este caso, X y 2XS son independientes.

u De la expresión (2.10), se nota que

21

22

2,2

1~ −=

Γ

n

nS

σ X . (2.11)

Transformando la estadística de prueba y utilizando la expresión (2.11), se obtiene:

)1()1(

1

1

)1(

1

ˆ

ˆ

21

2

2

2

2

22

2

2

−−=

−−=

−=

−=

−=

− n

qX

n

n

n

Sn

qX

nn

nS

n

Xq

S

XqqT

nχσ

σσ

σσ

σµ

X

XX

Por medio de la expresión (2.9), se tiene

−−

nqNqX

2

,~σ

µ ,

de tal forma que

Page 31: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Prueba de hipótesis para variables aleatorias independientes e idénticamente distribuidas. 21

21

−−1,~

22

n

qN

n

qX

σ

µ

σ. (2.12)

Así, la estadística de prueba se puede transformar en

−−=

−−=

)1(1

1

)1()1(

21

central no

21

2

2

2

n

qnZ

n

n

n

qX

n

n

nT

n

n

χ

σµ

χ

σ

σ

σ

Por otro lado, de la definición de una distribución t student no central se tiene que la

estadística de prueba cumple con la distribución

−−=

σµ q

nTn

T *central no

1

1.

El teorema queda demostrado. t

2.5 APROXIMACIÓN DE LA T NO-CENTRAL CON LA T CENTRAL

En la sección anterior se probó que la estadística de prueba para el problema planteado es

una t no central, por consiguiente, se requiere la forma de pasar a una t central. Problema

que no resulta sencillo, de hecho las formas de trabajarse siempre son con aproximaciones,

por ejemplo, consultar los artículos [7], [9] y [12]. En está sección se estudiará la

aplicación del artículo [9] al problema que se está tratando en la Tesis. Para esto se usa la

simbología

• ν grados de libertad,

• δ parámetro de no centralidad,

Page 32: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Capítulo 2

22

• *k percentil y

• la función ν+

=2

)(z

zzr .

Ahora con base en el resultado de HELENA CHMURA KRAEMER de Stanford University y MINJA PAIK (Agosto de 1979) de Department of Statistics California State

University, Hayward, se tiene que para cada valor *k fijo,

[ ][ ][ ]

0)(1)(1

)()(lim

2*2

**

)( 0* =

−−

−−∞→ δ

δνδν ν rkr

rkrFkF TT

,

donde 0T tiene distribución t central con ν grados de libertad.

Para la aplicación de dicho resultado se requiere estudiar la monotonía del argumento

de la distribución de 0T central. Para esto se representa el argumento como

[ ]

[ ][ ])(1)(1

)()()(

2*2

*

δ

δνδrkr

rkrG

−−

−= . (2.13)

De tal forma que el resultado anterior se escribe de la siguiente manera

[ ] 0)(lim0*

*)(

=−∞→

δδν ν

GFkF TT. (2.14)

Proposición 2.1

La función )(δG es una función monótona decreciente.

Demostración

u La función en estudio está dada en la expresión (2.13), sustituyendo los valores de

)( *kr y )(δr se obtiene:

Page 33: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Prueba de hipótesis para variables aleatorias independientes e idénticamente distribuidas. 23

23

[ ][ ][ ]

+−+=

++

++

+−+

=

+

+−

+−

+=

−−

−=

νδνδν

νδν

ννδν

νδνδν

νδδ

ν

νδ

δ

νν

δ

δνδ

2*2*

22*

22*

2*2*

2

2

2*

2*

22*

*

2*2

*

1

11

)(1)(1

)()()(

kk

k

k

kk

k

k

k

k

rkr

rkrG

Derivando respecto a δ ,

+−

+=′ ν

νδ

δν

δ 2*

2

*1)( k

kG (2.15)

Analizando cuando 0=δ , resulta

0)0(2*

<+

−=′ν

νkG .

Similarmente, para el caso en que 0* =k se cumple

01)( <−=′ δG .

Por lo tanto, considerando 0y 0 * ≠≠ kδ , de tal forma que se puede factorizar *y kδ

en la expresión (2.15), obteniendo:

Page 34: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Capítulo 2

24

++

+=

++

+

=

+−

+

=′

1)(

11

1

1

11

1

1

1

1)(

*

22*

2*

22*

*

*2*

*

2*

*

2

*

ksign

k

k

kk

kkk

kk

kG

δ

δννν

ν

δνν

δ

δν

ν

ν

δν

δ

δν

δ

Como 112*

>+k

ν y 11

2>+

δν

esto implica que

1

11

1

22*

<

++δνν

k

.

Por lo tanto,

1

11

1)(

11

1

22*

*

22*

<

++

++δνν

δ

δνν

k

ksign

k

.

De donde,

0)( <′ δG ,

luego, la función es monótona decreciente. La proposición queda demostrada. t

2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES

Primeramente se define al conjunto

RR∈−Φ+≥== − )1(:),( 01 pq σµσµω è .

Page 35: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Prueba de hipótesis para variables aleatorias independientes e idénticamente distribuidas. 25

25

Ahora buscando el valor de una constante k, tal que

αωω

≤∈<∈

èè

|max kTP . (2.16)

Para esto se emplea el Teorema 2.1 sustituyendo el estadístico de prueba y calculando

la probabilidad siguiente

∈<−

−=∈< ωω èè |1

1| * kT

nPkTP .

En donde, *T tiene la distribución

σµ q

nt central no .

Continuando con el cálculo de la probabilidad del error tipo I, multiplicando por

1−− n , se obtiene

( )11

|1|

*

*

−−−=

∈−−>≤∈<

nkF

nkTPkTP

T

ωω èè

Así,

( )11| * −−−≤∈< nkFkTPT

ωè . (2.17)

Ahora utilizando una aproximación de la distribución t no central con la distribución t central, para lo cual se emplea la siguiente simbología:

• 1−= nν grados de libertad,

• El parámetro de centralidad

−=

σµδ q

n ,

• νkk −=* y

• la función ν+

=2

)(z

zzr .

Así sustituyendo en (2.17) el resultado de la aproximación (2.14), se tiene:

Page 36: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Capítulo 2

26

( )( )( )

( ))(

)(1

1

11|

0

0

*

*

*

δ

δ

ω

GF

GF

kF

nkFkTP

T

T

T

T

=

−=

−=

−−−≤∈< è

Como la función 0TF es decreciente, su máximo lo alcanza cuando el argumento,

)(δG , es mínimo.

Por otro lado, se demostró en la proposición (2.1) que )(δG es decreciente por lo

tanto, su mínimo lo alcanza cuando su argumento, δ, es máximo.

Para encontrar el valor máximo de δ, se usa la representación anterior y el hecho de

que ω∈è ,

np

qn

qn

)1( 01 −Φ−≤

−=

=

σµ

σµ

δ

Como 0p se considerará mayor a 0.5, se tiene que

np )1( 01

0 −Φ−=≤ −δδ .

Por otro lado, 0)1( 01 >−Φ− − np , esto es

0 0 >δ . (2.18)

De esta forma, por la monotonía de )(δG ,

( ) ( ) ( ) αδδδωθ ≤−=≤≤∈< )(1)()(| 00 000GFGFGFkTP TTT .

Ahora, para encontrar el valor de k, note que

( )

)1()(

1)(

10

0

0

0

αδ

αδ

−≥

−≥

−T

T

FG

GF

Definiendo 0α por

Page 37: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Prueba de hipótesis para variables aleatorias independientes e idénticamente distribuidas. 27

27

)1(10 0

αα −= −TF . (2.19)

Considerando 5.0≤α , se tiene:

0)1(10 0

>−= − αα TF . (2.20)

Sustituyendo kk ν−=* , se obtiene lo siguiente

1

1

1)(

20

20

20

20

2*0

20

*0

+−+−=

+−+−=

+−+=

kk

kk

kkG

δνδ

ννδνδνν

νδνδν

δ

Es decir, por (2.20), k es tal que

02

020 1 αδνδ ≥+−+− kk .

Ahora falta encontrar el valor de k. Para esto se observa que

01200

20 >++≥+− kk δανδ .

Luego, de (2.18) y (2.20) se tiene que necesariamente,

0<k (2.21)

Resolviendo la ecuación 02

020 1 αδνδ =+−+− kk en k, considerando (2.18).

(2.20) y (2.21)

( ) ( )

[ ] 02

2

2

21

1

1

1

20

20

200

2

2200

20

20

220

2200

20

20

220

20

2200

20

220

200

20

02

020

02

020

=−+

++

+++=

++++=+

++++=+

+−−=+

−=+++

=+−+−

δανδαν

ννδααδ

νδνδααδδ

νδνδααδ

νδαδ

αδνδ

αδνδ

kk

kk

kkkk

kkk

kk

kk

kk

Page 38: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Capítulo 2

28

Se resuelve la ecuación

[ ] 02 20

20

200

2 =−+

++ δανδαν kk ,

y se obtiene que

( )

νναδνδα

ν

νδναναδανδα

ν

δαννδανδα

+±+−=

+−+±+−=

−−

+±+−

=

200

200

20

20

20

20

20

200

20

20

2200

200

2

44442

2

422k

Así de esta forma las dos raíces son

νναδνδα

νναδνδα

+++−=

+++−=

200

200

200

200

k

k

De las cuales la segunda raíz siempre es negativa, luego, cumple con (2.21) y por

consiguiente es un valor de k.

Mientras que la primera raíz cumple (2.21), cuando

0200

200 <+++− ναδνδα

Al resolver se introducen raíces extrañas.

Así, para 5.00 ≥p , 5.0≤α y tamaños de muestras, n, grandes; la constante crítica k

está dada por:

ν

ναδνδα +++−=

200

200k .

Page 39: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Prueba de hipótesis para variables aleatorias independientes e idénticamente distribuidas. 29

29

2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS

Note que en la demostración del Teorema 2.1, se obtuvo que el estadístico de prueba

−−=

− )1(1

12

1

central no

n

qnZ

nT

σµ

donde central noZ y 21−nχ son variables aleatorias independientes. Luego,

( )

<

+−Φ≤

<+

<

−−≤

∈<

−−≤∈<

02

1

1

02

1

02

1

21

central no

)1(

nula hipótesis la utilizando

)1(1

1

)1(1

1|

HkZpn

P

HkZ

qn

P

Hkn

Zq

n

nP

kn

qnZ

nPkTP

n

n

n

n

χ

χ

σµ

χ

σµ

ωχ

σµ

ω èè

Así, de la última expresión se pueden calcular las probabilidades por simulación para valores dados de n, p y k. De tal forma que para valores dados de n, p y tamaño de prueba

)1,0(∈α , se obtiene el valor critico k.

En el Apéndice B, se muestran algunas tablas de valores críticos para ciertos n, p y

)1,0(∈α y el programa en S-PLUS con el cual se generaron y por último una tabla de

comparaciones de los valores críticos calculados por simulación con los valores obtenidos

por la aproximación para muestras grandes, ν

ναδνδα +++−=

200

200k .

Page 40: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

30

Capítulo 3

Prueba de hipótesis para variables aleatorias dependientes e idénticamente distribuidas

3.1 PLANTEAMIENTO DEL PROBLEMA

Sean nXXX ,,, 21 K variables aleatorias dependientes normalmente distribuidas con

parámetros µ y 2σ . Se quiere encontrar una prueba para el contraste de hipótesis:

01

00

:

:

ppH

ppH

>

en donde, 0p es una constante conocida y p es la probabilidad de que las variables

aleatorias tomen valores por encima de un valor q constante y definido de antemano, esto

es:

[ ]qXPp i >= , para toda i.

Suponiendo normalidad de las variables aleatorias y estandarizando resulta que 0H es

equivalente a

01 pq

ZPq ≤

−>=

−Φ−

σµ

σµ

.

De donde,

Φ≤−σ

µqp01 .

Así, las hipótesis son equivalentes a:

)1(:

)1(:

01

1

01

0

pq

H

pq

H

−Φ<−

−Φ≥−

σµ

σµ

(3.1)

Page 41: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Prueba de hipótesis para variables aleatorias dependientes e idénticamente distribuidas. 31

31

3.1.1 ESTADÍSTICA DE PRUEBA

De la expresión (3.1) se propone una prueba basada en la estadística dada por:

σ

µˆ

ˆ−=

qT . (3.2)

En donde, la distribución de la estadística de prueba depende de los estimadores de

momentos de la media µ y varianza 2σ , y a partir de los cuales se encuentra la

distribución de T bajo 0H .

Así, la prueba rechaza cuando αkT < , donde αk es tal que

( ) αα ≤< 0| HkTP (3.3)

para una )1,0(∈α dada.

3.2 ACOTACIONES DEL PROBLEMA

En está sección se estudiarán las acotaciones que se harán en la solución del problema

sobre el contraste de hipótesis (3.1). Sean nXXX ,,, 21 K variables aleatorias dependientes

normalmente distribuidas con parámetros µ y 2σ , cuya función de densidad de

probabilidad conjunta es la siguiente:

−−−= − )()(

21

exp)det()2(

1)( 1

2ìxÓìx

ÓxX

t

nf

π,

en donde x es una realización de la muestra, con vector de medias ì y matriz de

covarianzas Ó. Para el caso de estudio se supondrá que se tiene la misma media, 1ì µ= ,

varianza, 2σ , y cuando cualquier par de variables aleatorias tienen la misma covarianza,

cXX ji =),cov( con ji ≠ . Es decir,

=2

2

2

σ

σσ

LMOMM

LL

cc

cccc

Ó (3.4)

Page 42: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Capítulo 3

32

En el siguiente Teorema, se puede apreciar una condición para que la matriz de covarianzas sea positiva definida y se pueda aplicar la teoría de las distribuciones normales.

Teorema 3.1

Sea la matriz de covarianzas dada en la expresión (3.4), entonces se cumple

[ ]212 )1()()det( σσ +−−= − ncc nÓ .

Demostración

u Para calcular el determinante de la matriz de covarianzas se denota a las matrices

=2

2

2

σ

σσ

LMOMM

LL

cc

cccc

nÓ y

=2

2*

σ

σ

LMOMM

LL

cc

ccccc

nÓ .

En donde, n representa el orden de la matriz.

De esta forma después de cambiar el renglón 1 por el mismo menos el renglón dos y

usando los menores resulta

( ) ( )( ) ( )[ ]*

112

*1

21

2

2

2

22

detdet)(

det)(det)(

0

det)det(

−−

−−

+−=

−−−=

−−=

nn

nn

c

cc

cc

cccc

ÓÓ

ÓÓ

Ó

σ

σσ

σ

σσσ

LMOMM

LL

Antes de continuar se puede notar que si en la matriz *nÓ se lleva a cabo la misma

reducción entre renglones se obtiene:

( )

( )( )*

12

*1

2

2

2

2

*

det)(

det)(

00

detdet

−=

−−=

−=

n

n

n

c

c

cc

ccc

Ó

Ó

Ó

σ

σ

σ

σσ

LMOMM

LL

Page 43: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Prueba de hipótesis para variables aleatorias dependientes e idénticamente distribuidas. 33

33

Tomando en cuenta esta última consideración y continuando con el mismo

procedimiento en ambas matrices

( ) ( )[ ]( ) ( ) ( )[ ]( ) ( )[ ]( ) ( )[ ]

( ) ( )[ ]*22

22

*33

32

*22

22

*2

*22

22

*11

2

det)2(det)(

det3det)(

det2det)(

detdetdet)(

detdet)()det(

ÓÓ

ÓÓ

ÓÓ

ÓÓÓ

ÓÓÓ

−+−=

+−=

+−=

++−=

+−=

−−

−−

−−−

−−

nc

c

c

c

c

n

nn

nn

nnn

nn

σ

σ

σ

σ

σ

M

Por otro lado, calculando los determinantes de segundo orden

( ) 242

2

2 detdet cc

c −=

= σ

σσÓ y ( ) 22

2*2 detdet ccc

cc −=

= σσÓ .

Finalmente, se tiene

[ ][ ][ ]212

22422

222422

)1()(

)1()2()(

))(2()()det(

σσ

σσσ

σσσ

+−−=

−−−+−=

−−+−−=

ncc

cncnc

ccncc

n

n

El teorema queda demostrado. t

3.2.1 RESTRICCIÓN DEL PROBLEMA EN LA COVARIANZA

Para desarrollar la solución del problema se hará uso de la teoría de las distribuciones normales, cuestión que restringe el problema debido a que la matriz de covarianzas

respectiva debe ser positiva definida. Luego, resulta que la matriz de covarianzas del

problema, (3.4), tiene que ser positiva definida. Es decir, el determinante calculado en el

teorema 3.1 debe ser positivo. Así, del teorema anterior se tiene:

[ ] 0)1()()det( 212 >+−−= − σσ ncc nÓ .

Como c>2σ , la expresión anterior se puede dividir entre 12 )( −− ncσ , obteniendo

0)1( 2 >+− σnc .

Page 44: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Capítulo 3

34

De donde, la condición para que la matriz de covarianzas sea positiva definida es:

1

1

−−>

nρ (3.5)

Restricciones

Así, para las restricciones del problema se tomará en cuenta sólo variables

aleatorias nXXX ,,, 21 K que tengan

• la misma distribución marginal,

• sean dependientes,

• con covarianzas homogéneas y positivas.

Para la solución del, problema en el apéndice A se mostrará que no se pueden utilizar

los estimadores de máxima verosimilitud para los parámetros µ , σ y c ya que estos no

existen. Por consiguiente, surge la necesidad de llevar a cabo otro desarrollo diferente al

caso de variables independientes.

3.3 REPRESENTACIÓN DE LA MATRIZ DE COVARIANZAS

Para resolver el problema, primeramente se representa la matriz de covarianzas (3.4) como:

IJÓ )( 2σ−−= cc .

En donde, J es la matriz de unos de orden nn × , mientras que I se refiere a la matriz identidad del mismo orden.

Ahora se calculan los valores y vectores propios de la matriz J.

3.3.1 VALORES PROPIOS DE LA MATRIZ J

Sea J la matriz de unos de orden nn × , se buscarán sus valores propios. Para tal efecto, se

escribe el sistema de ecuaciones

vJv λ= .

Para la solución se forma el sistema homogéneo

0vIJ =− )( λ . (3.6)

En donde, se buscan los valores propios λ , tal que satisfagan la ecuación siguiente:

( ) 0det =− IJ λ

Page 45: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Prueba de hipótesis para variables aleatorias dependientes e idénticamente distribuidas. 35

35

Así,

0

111

111111

det =

−−

λ

λλ

LMOMM

LL

Un determinante de este tipo se resolvió en el teorema 3.1, para la matriz de

covarianzas. De esta forma, al sustituir los valores 1=c y λσ −= 12 , se tiene

[ ]

[ ] 0)(

11)11(

111

111111

det

1

1

=−−=

−+−−−=

−−

λλ

λλ

λ

λλ

n

n

n

n

LMOMM

LL

.

De donde resultan los valores propios

n=λ es un valor propio simple.

Mientras que

0=λ es un valor propio de multiplicidad 1−n .

3.3.2 VECTORES PROPIOS DE LA MATRIZ J

El valor propio n=λ , se sustituye en el sistema de ecuaciones (3.6). Por otro lado, de la definición de valor propio se puede eliminar una ecuación cualesquiera del sistema.

Eliminando la primera ecuación queda la matriz ampliada del sistema (3.6)

−−

−−

01111111

01111111011111110111111101111111

n

nn

nn

LMMMOMMMMM

LLLL

Se hacen ceros los elementos de la primera columna, a partir de la segunda fila

Page 46: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Capítulo 3

36

−−

−−

000000

00000000000000000001111111

nn

nnnn

nnn

LMMMOMMMMM

LLLL

Ahora a partir de la segunda fila se dividen entre n todas las restantes,

−−

−−

01000010

00010010000010100000011001111111

LMMMOMMMMM

LLLLn

Si txxxtxtx nn ====⇒=⇒= −1432 L , luego de la ecuación 1, del sistema

anterior (reducido), resulta que

tx =1 .

De tal forma que el vector propio para n=λ está dado por:

1v =

=

1

11

1 M.

Para el otro valor propio, se sustituye 0=λ en el sistema de ecuaciones (3.6). Por

otro lado, de la definición de valor propio de multiplicidad 1−n , resulta que se pueden

eliminar 1−n ecuaciones del sistema.

Eliminando las primeras 1−n ecuaciones queda la matriz ampliada del sistema (3.6)

( )01111 L .

De donde, 11 tx = , 22 tx = , ..., 11 −− = nn tx y )( 121 −+++−= nn tttx L .

Así, los vectores propios resultantes para 0=λ son:

=

1

001

2

Mv ,

=

1

010

3

Mv , ...,

=

110

0M

nv .

Page 47: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Prueba de hipótesis para variables aleatorias dependientes e idénticamente distribuidas. 37

37

Con lo cual el sistema de vectores propios de la matriz J queda completo e igual a:

1v =

=

1

11

1 M,

=

1

001

2

Mv ,

=

1

010

3

Mv , ...,

=

110

0M

nv .

3.4 SISTEMA DE VECTORES ORTOGONALES EQUIVALENTE A LOS

VECTORES PROPIOS DE LA MATRIZ J

Utilizando las mismas ideas que en el caso de variables aleatorias independientes se

encontrará una matriz adecuada para transformar las variables de tal forma que con las

nuevas variables se demuestre que X y 2XS son independientes. Para esto se obtendrá un

sistema de vectores propios equivalente al anterior.

Ahora se buscan los nuevos vectores ortonormalizados como combinaciones lineales

de los vectores propios, considerando que el primer vector ortonormalizado sea ( )1n1 .

Como los vectores propios son independientes se tiene que forman una base de nRR .

De tal forma que por medio de combinaciones lineales entre ellos se puede obtener otra

representación de los vectores propios también independientes. Así, de esta manera por medio de las combinaciones lineales siguientes

==

1

11

1*1 Mvv ,

=−=

0

011

23*2

Mvvv ,

=−=

0

101

24*3

Mvvv , ...,

=−=

10

01

2* Mvv n . (3.7)

En general,

21* vvv −= +kk para 1,,3,2 −= nk K y

==

1

11

1*1 Mvv ,

=−=

10

01

2* Mvv n .

Resulta un nuevo sistema de vectores independientes que se va a normalizar con el proceso

de ortonormalización de Gram-Schmidt.

Page 48: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Capítulo 3

38

3.4.1 ORTONORMALIZACIÓN DEL SISTEMA DE VECTORES EQUIVALENTE A LOS VECTORES PROPIOS DE LA MATRIZ J

Para la ortonormalización se usa el proceso de Gram-Schmidt, con

1

11

+

++ =

k

kk w

wu .

En donde,

kkkkkkk uuvuuvuuvvw )()()( *122

*111

*1

*11 ⋅−−⋅−⋅−= +++++ L ; 1,,2,1 −= nk K . (3.8)

Con )( uv ⋅ igual al producto escalar ( uvuv t=⋅ )( ) de los vectores uv y .

De tal forma que

===

1

11

1*1

*1

1

11 Mnv

v

w

wu .

Similarmente para 2u , primeramente se ortogonaliza con los vectores anteriores,

=

=⋅−=

0

011

1

11

10

0

011

)( 11*2

*22

MM

M nuuvvw .

Ahora normalizando el vector ortogonalizado

==

0

011

2

1

2

22

Mw

wu .

Similarmente para 3u , primeramente se ortogonaliza con los vectores anteriores,

Page 49: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Prueba de hipótesis para variables aleatorias dependientes e idénticamente distribuidas. 39

39

−−

=

=

=

⋅−⋅−=

0

211

2

1

0

011

2

1

0

101

0

011

2

1

0

011

0

101

2

1

1

11

10

0

101

)()( 22*311

*3

*33

MMM

MMMM

M n

uuvuuvvw

Ahora normalizando el vector ortogonalizado

−−

×=

−−

+++==

0

211

23

1

0

211

411

1

3

33

MMw

wu .

Similarmente para 4u , primeramente se ortogonaliza con los anteriores,

−−−

=

=

−−+

−+−

−++−

=

××

−+×

+−

×++−

=

−−

×−

=

−−

×

−−

×−

=

=⋅−⋅−⋅−=

0

3111

31

0

1313

131

0

131

21

00

3

1

2

1

2

10

31

21

21

1

0

1

223

100

23

1

2

10

231

21

1

0

0211

231

0

0011

21

0

1001

0

211

23

1

0

211

01001

23

1

0

011

2

1

0

011

01001

2

1

1

11

10

01001

)()()( 33*422

*411

*4

*44

M

MMM

MMM

MMMMMn

uuvuuvuuvvw

Ahora normalizando el vector ortogonalizado

Page 50: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Capítulo 3

40

−−−

×=

−−−

+=

−−−

+++==

0

3111

34

1

0

3111

33

1

0

3111

9111

12

4

44

MMMw

wu .

En forma general, para 1+ku , primeramente se ortogonaliza con los vectores anteriores,

−−

=

=

−+

−−−−+++

−+

×−

−+−

=

−−=

−−=

⋅−−⋅−⋅−=

=

=

=+

=+

+++++

0

1

11

1

0

1

1

1

1

0

11

1)2)(1(

2000

11

112

10

1

1

11

1

1

1

)1(1

)()()(

3

2

2

*1

2

*1

*122

*111

*1

*11

M

M

M

M

M

L

M

L

kkk

k

k

kkkkk

ii

ii

ii

ii

k

i

k

i

k

iik

k

iik

kkkkkkk

uv

uv

uuvuuvuuvvw

Ahora normalizando el vector ortogonalizado

−−

+=

−−

+=

−−

++++==

+

++

0

1

11

)1(

1

0

1

11

1

0

1

11

111

122

veces

1

11

M

M

M

M

M

M

43421 L kkkkkkkkk

k

kk

w

wu .

De tal forma que la matriz ortonormal queda

Page 51: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Prueba de hipótesis para variables aleatorias dependientes e idénticamente distribuidas. 41

41

( )

−−

−−

−−−

−−−−

==

)1(

100

1

)1(

1

)2(3

20

1)1(

1

)2(3

1

)1(2

11)1(

1

)2(3

1

)1(2

11

21*

nn

n

n

nnn

nnn

nnn

n

L

MOMMM

L

L

L

L uuuU .

Se probará que X=µ y 22ˆ XS=σ son independientes y que tienen distribuciones

normal y Ji-cuadrada, respectivamente. Con estos resultados es posible obtener la distribución del estadístico de prueba.

σµ

ˆ

ˆ−=

qT .

Antes de continuar se deben analizar algunas de las propiedades que se obtienen con la matriz de transformaciones.

3.5 MATRIZ DE TRANSFORMACIÓN

La matriz de transformación adecuada se representa como:

−−

−−

−−

−−

==

)1(

1

)1(

1

)1(

1

)1(

1

0)2(3

2

)2(3

1

)2(3

1

00)1(2

1

)1(2

1

1111

*

nn

n

nnnnnn

nnnn

t

L

MOMMM

L

L

L

UA (3.9)

La matriz por construcción es ortonormal.

3.5.1 DISTRIBUCIÓN DE LAS VARIABLES TRANSFORMADAS

En la subsección anterior se obtuvo la matriz de transformación adecuada para la

independencia de variables aleatorias normales dependientes. Ahora se estudiará un

teorema que muestra la distribución de las variables transformadas.

Page 52: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Capítulo 3

42

Teorema 3.2

Sean nXXX ,,, 21 K variables aleatorias dependientes e idénticamente

distribuidas, con distribución normal, además con covarianzas homogéneas,

(3.4) y sea la transformación AXY = (en donde la matriz de transformación A

está dada en (3.9)), entonces se cumple

( )( ))(,),(,)1(,~ 2221

)( ccncnN n −−+− σσσµ KDeY .

En donde, D es la matriz diagonal de orden n y )0,,0,0,1(1 K=′e .

Demostración

u Si AXY = , de la teoría de variables aleatorias con distribución normal resulta lo

siguiente

( )tnN AAÓA1AXY ,~ )( µ= . (A3)

Llevando a efecto los cálculos se tiene

1

0

01

0

0 eA1 µµµµ nn

nn

=

=

=MM

, (B3)

en donde,

=

0

01

1 Me .

Por otro lado,

IAJAAIJAAAÓ )()( 22 σσ −−=−−= cccc ttt . (C3)

Calculando el primer término del segundo miembro de la igualdad (C3), se tiene

[ ] [ ][ ]

),,,(

),,,(),,,(

),,,(),,,(

),,,(),,,(

1

11

111

111

(B3) de

00e

00e00e

001AeeeA

AeeeA111AAJA

K

KK

KK

KK

cn

nncnnc

ncnc

nccc

t

ttt

ttt

=

==

==

==

Page 53: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Prueba de hipótesis para variables aleatorias dependientes e idénticamente distribuidas. 43

43

en donde, ),,,( 21 neee K representa una matriz cuyas columnas son los vectores dados.

Además los vectores neee ,,, 21 K forman la base canónica del espacio euclideano nR , es

decir, ie representa al vector con todas sus componentes cero, excepto la i-ésima, la cual

vale 1. Por lo tanto, sustituyendo en (C3) la igualdad anterior

[ ]( )( ))(,),(,)1(

)(,,)(,)(

),,,)((),,,()(),,,(

222

22

21

2

212

12

1

ccnc

ccccn

ccnccn

n

nt

−−+−=

−−−−=

−−=−−=

σσσ

σσσ

σσ

K

K

KKK

D

eee

eee00eI00eAAÓ

Se obtiene

( ))(,),(,)1( 222 ccnct −−+−= σσσ KDAAÓ . (D3)

En donde, ( ))(,),(,)1( 222 ccnc −−+− σσσ KD representa una matriz diagonal con

elementos en la diagonal principal )(,),(,)1( 222 ccnc −−+− σσσ K , respectivamente.

Sustituyendo (B3) y (D3) en (A3), se obtiene la distribución de las variables

transformadas

( )( ))(,),(,)1(,~ 2221

)( ccncnN n −−+− σσσµ KDeY .

El teorema queda demostrado. t

Nota

De la expresión (D3) se obtiene una demostración mucho más simple del Teorema 3.1, despejando la matriz de covarianzas:

( )ADAÓ )(,),(,)1( 222 ccnct −−+−= σσσ K .

Ahora calculando el determinante

( )[ ]( )

( )2)1(2

2)1(2

222

)1()(

)1())(det()det(

)det()(,),(,)1(det)det()det(

σσ

σσ

σσσ

+−−=

+−−=

−−+−=

ncc

ncc

ccnc

n

nt

t

AA

ADAÓ K

Page 54: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Capítulo 3

44

3.6 PROPIEDADES DE LAS VARIABLES TRANSFORMADAS

Con la transformación AXY = , resultan las siguientes propiedades.

Propiedad 1

Las iY tienen distribución normal y son independientes.

Comprobación

Del Teorema 3.2, se tiene

( )( ) nicNY

ncnNY

i ,,3,2 todapara ,,0~

)1(,~

2

21

K=−

+−

σ

σµ

y además son independientes.

Propiedad 2

∑∑==

=n

ii

n

ii XY

1

2

1

2 .

Comprobación

∑∑==

=====n

ii

tttttn

ii XY

1

2

1

2 )()( XXAXAXAXAXYY .

Propiedad 3

XnY =1 .

Comprobación

XnXnn

Xn

Yn

ii === ∑

=

11

11 .

Propiedad 4

∑=

=n

iiY

nS

2

22 1X .

Comprobación

∑∑∑∑====

=−=−=−=n

ii

n

ii

n

ii

n

ii Y

nY

nY

nXY

nXX

nS

2

221

1

2(3) Prop.

2

1

2(2) Prop.

2

1

22 11111X .

Propiedad 5

X y 2XS son independientes.

Page 55: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Prueba de hipótesis para variables aleatorias dependientes e idénticamente distribuidas. 45

45

Comprobación

Se deduce de las propiedades (1), (3) y (4).

3.7 DISTRIBUCIÓN DE LA MEDIA Y LA VARIANZA

Una de las dificultades para determinar las distribuciones muestrales de la media y la

varianza reside en que las variables son dependientes y por consiguiente no existen

resultados conocidos en estos casos. Para resolver el problema se usarán las ideas del

capítulo anterior para caso de variables aleatorias independientes.

En la sección 3.1.1 se vio que la estadística de prueba estaba en función de la media y la varianza, por consiguiente, se requiere de la distribución de estas dos estadísticas.

Primeramente se nota que el vector de variables tiene distribución:

( )Ó1X ,~ )( µnN , (3.10)

con IJÓ )( 2σ−−= cc y J la matriz de unos de orden nn × , mientras que I se refiere a la

matriz identidad del mismo orden con 0),cov( >= cXX ji para toda ji ≠ .

3.7.1 DISTRIBUCIÓN DE LA MEDIA MUESTRAL

Después de haber visto las subsecciones anteriores, está todo preparado para ver la

distribución de la media. De las propiedades anteriores se tiene lo siguiente:

+−n

ncNX

2)1(,~

σµ . (3.11)

Comprobación

De la propiedad (3)

1

1Y

nX = .

Por la propiedad (1)

+−=

n

ncn

nNY

nX

2

1

)1(,

1~

1 σµ .

Luego,

+−n

ncNX

2)1(,~

σµ .

Page 56: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Capítulo 3

46

3.7.2 DISTRIBUCIÓN DE LA VARIANZA MUESTRAL

De forma similar a la media muestra resulta:

−−Γn

cnS

22 2,

21

X . (3.12)

Comprobación

De la propiedad (4)

∑∑==

−==

n

i

in

ii

c

Y

n

cY

nS

2

2

2

2

2

22 1

σ

σX .

De la propiedad (1), se tiene que

Γ=

−−

=∑ 2,

2

1~ 2

12

2

2

n

c

Yn

n

i

i χσ

.

Luego,

−−Γ

−= ∑

= n

cn

c

Y

n

cS

n

i

i2

2

2

2

22 2,

2

1~

σ

σ

σX .

3.8 DISTRIBUCIÓN DE LA ESTADÍSTICA DE PRUEBA

En la sección 3.1 se estableció el estadístico de prueba que se requiere para probar el

contraste de hipótesis y se ha visto que está en función de la media y la varianza muestrales,

de tal forma que utilizando los resultados anteriores se puede establecer el siguiente

Teorema.

Teorema 3.3

Sean nXXX ,,, 21 K variables aleatorias dependientes e idénticamente

distribuidas, con distribución conjunta normal y con covarianzas homogéneas y

positivas, esto es ( )Ó1X ,~ )( µnN con IJÓ )( 2σ−−= cc , 0>c y J la matriz

de unos de orden nn × , mientras que I se refiere a la matriz identidad del

mismo orden, entonces la estadística de prueba σ

µˆ

ˆ−=

qT , tiene una

distribución t no central con parámetro de no centralidad

+−−

1)1(n

qn

ρσµ

.

Page 57: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Prueba de hipótesis para variables aleatorias dependientes e idénticamente distribuidas. 47

47

Demostración

u De la expresión (3.12), se nota que

21

22

2,2

1~ −=

Γ

− n

nS

c

σ X . (3.13)

Trasformando la estadística de prueba y utilizando la expresión (3.13) se obtiene:

)1()1)((

1

1

)1)((

1

ˆ

ˆ

21

2

2

2

2

22

2

2

−−−=

−−−=

−=

−=

−=

− n

qX

n

nc

n

S

c

n

qX

nnc

n

cS

c

n

Xq

S

XqqT

nχσ

σσ

σσ

σµ

X

XX

Por medio de la expresión (3.11), se tiene

+−−−n

ncqNqX

2)1(,~

σµ ,

de tal forma que

+−

+−

−1,

)1(~

)1( 22

n

nc

qN

n

nc

qX

σ

µ

σ. (3.14)

Así de esta manera la estadística de prueba se puede expresar como

Page 58: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Capítulo 3

48

+−

−−+−

−=

+−

−−

+−

−=

)1(

)1(

)1)((

)1(

)1(

)1(

)1)((

)1(

21

2central no

2

2

21

2

2

2

n

nc

qnZ

nc

nc

n

n

nc

qX

n

nc

n

nc

T

n

n

χ

σ

µ

σσ

χ

σ

σ

σ

Por otro lado, transformado su representación del numerador y denominador de la

cantidad subradical, cambiando c por ρσ 2 , se tiene:

Numerador

( )1)1()1()1( 2222 +−=+−=+− nnnc ρσσρσσ .

Denominador

)1)(1()1)(( 222 −−=−− nn ρσρσσ .

Cociente

( ))1)(1(

1)1(

)1)(1(

1)1(

)1)((

)1(2

2

2

2

−−+−

=−−+−

=−−

+−n

n

n

n

nc

nc

ρρ

ρσρσ

σσ

.

Sustituyendo el cociente por esta última expresión y definiendo el coeficiente por:

)1)(1(

1)1()(

−−+−

−=n

nh

ρρ

ρ (3.15)

Resulta que la estadística de prueba tiene la distribución

Page 59: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Prueba de hipótesis para variables aleatorias dependientes e idénticamente distribuidas. 49

49

.1)1(

)(

)1()1)(1(

1)1(

)1(

)1(

)1)(1(

1)1(

*central no

2

*central no

21

2central no

+−

−=

+−

−−−+−

−=

+−

−−+−

−=−

n

qnTh

nc

qnT

n

n

n

nc

qnZ

n

nT

n

ρσ

µρ

σ

µρ

ρ

χ

σ

µ

ρρ

El teorema queda demostrado. t

3.8.1 ESTUDIO DEL COEFICIENTE DE LA ESTADÍSTICA DE PRUEBA

En el teorema anterior resulto una función, en el coeficiente del estadístico de prueba. Por

otro lado, al estudiar el tamaño de la prueba se tendrá que acotar la estadística de prueba,

luego, es conveniente que se analice la monotonía de la función )(ρh .

Proposición 3.1

La función )(ρh resultante en la estadística de prueba T, es negativa y

monótona decreciente en [ )1,0 .

Demostración

u La función en estudio está dada en la expresión (3.15) por:

)1)(1(

1)1()(

−−+−

−=n

nh

ρρ

ρ .

Está claro que la función es negativa, luego sólo falta probar su monotonía. Para esto

se calcula la derivada de la expresión del subradical dado que es positivo, resultando:

Page 60: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Capítulo 3

50

[ ] [ ][ ]

[ ]

[ ]

1 para ,0)1()1(

)1()1(

1)1()1)(1(

)1()1(

)1(1)1()1)(1(

)1)(1(

))1((1)1()1()1)(1(

)1)(1(

1)1(

2

2

22

2

2

>>−−

=

−−+−+−−=

−−−+−+−−

=

−−

−−+−−−−−=

−−+−

nn

n

n

nn

n

nnn

n

nnnn

n

n

d

d

ρ

ρρρ

ρρρ

ρ

ρρρ

ρρ

Así, )1)(1(

1)1(

−−+−

n

n

ρρ

es monótona creciente, luego

)1)(1(

1)1()(

−−+−

−=n

nh

ρρ

ρ ,

es monótona decreciente (negativa) para 10 <≤ ρ . La proposición queda demostrada. t

3.9 APROXIMACIÓN DE LA T NO-CENTRAL CON LA T CENTRAL

Al igual que en la sección 2.5 se trabajará con una aproximación de la t no central por

medio de la t central. Para esto se usa la simbología

• ν grados de libertad,

• δ parámetro de centralidad,

• *k percentil y

• la función ν+

=2

)(z

zzr .

Ahora con base en el resultado de HELENA CHMURA KRAEMER de Stanford

University y MINJA PAIK (agosto de 1979) de Department of Statistics California State

University Hayward, se tiene que para un valor dado *k ,

[ ][ ][ ]

0)(1)(1

)()(lim

2*2

**

)( 0* =

−−

−−∞→ δ

δνδν ν rkr

rkrFkF TT

.

donde 0T tiene distribución t central con 1−n grados de libertad.

Page 61: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Prueba de hipótesis para variables aleatorias dependientes e idénticamente distribuidas. 51

51

Para la aplicación de dicho resultado, se requiere estudiar la monotonía del argumento

de la distribución central. Para esto se representa el argumento como

[ ]

[ ][ ])(1)(1

)()()(

2*2

*

δ

δνδrkr

rkrG

−−

−= . (3.16)

De tal forma que el resultado anterior se puede formular de la siguiente manera

[ ] 0)(lim0*

*)(

=−∞→

δδν ν

GFkF TT. (3.17)

Proposición 3.2

La función )(δG es una función monótona decreciente.

La demostración es idéntica a la realizada en la sección 2.5.

3.10 VALORES CRÍTICOS PARA MUESTRAS GRANDES

Primeramente se define el espacio paramétrico bajo la hipótesis como

0,)1(:),,( 01 >∈−Φ+≥== − cpqc RRσµσµω è .

Ahora para que la prueba sea de tamaño α se busca el valor de una constante k, tal

que

αωω

≤∈<∈

èè

|max kTP . (3.18)

Para esto se usa el Teorema 3.3, sustituyendo el estadístico de prueba y calculando la

siguiente probabilidad

ωρω ∈<=∈< èè |)(| * kThPkTP .

En donde, *T tiene la distribución

+−

1)1( central no

n

qnt

ρσ

µ con 1−n grados de

libertad

Continuando con el cálculo de la probabilidad del error tipo I, dividiendo entre )(ρh ,

y considerando el resultado de la Proposición 3.1 se tiene

Page 62: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Capítulo 3

52

−=

∈>≤∈<

)(1

|)(

|

*

*

ρ

ωρ

ω

h

kF

hk

TPkTP

T

èè

De tal forma que )(

1

ρh es creciente (negativa), luego su mínimo se obtiene cuando ρ

es mínima, es decir, 0=ρ .

Así,

−≤∈<

)0(1| *

h

kFkTP

Tωè . (3.19)

Ahora utilizando una aproximación de la *T no central con la 0T central, para lo cual

se usa la siguiente simbología:

• 1−= nν grados de libertad,

• El parámetro de centralidad

+−

−=

1)1(n

qn

ρσ

µδ ,

• )0(

*

h

kk = y

• la función ν+

=2

)(z

zzr .

Así al sustituir en (3.19) el resultado de la aproximación (3.17), se tiene:

( )( )

( ))(

)(1

1

)0(1|

0

0

*

*

*

δ

δ

ω

GF

GF

kF

h

kFkTP

T

T

T

T

=

−=

−=

−≤∈< è

Como la función 0TF es decreciente, su máximo lo alcanza cuando el argumento,

)(δG , es mínimo.

Page 63: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Prueba de hipótesis para variables aleatorias dependientes e idénticamente distribuidas. 53

53

Por otro lado, se demostró en la proposición (3.2) que )(δG es decreciente, por lo

tanto, su mínimo lo alcanza cuando su argumento, δ, es máximo.

Para obtener el valor máximo de δ bajo 0H se usa la representación anterior,

→≥−Φ−Φ−=<−Φ−Φ−=

→≤−Φ−−Φ−=>−Φ−−Φ−≤

+−−Φ−≤

+−

−−=

+−−=

−−

−−

−−

−−

)1( 0)1( si)1()0( 0)1( si)1(

)1( 0)1( si)1()0( 0)1( si)1(

1)1(

1)1(

1)1(

1

1)1(

01

01

01

01

01

01

01

01

01

ρρ

ρρ

ρ

ρσµ

ρσµδ

pppnp

pppnp

nnp

n

qn

n

qn

Como 0p se considerará mayor a 0.5, resultando la cota

np )1( 01

0 −Φ−=≤ −δδ .

Por otro lado, 0)1( 01 >−Φ− − np , esto es

0 0 >δ . (3.20)

De esta forma, se selecciona k tal que

( ) ( ) ( ) αδδδω ≤−=≤≤∈< )(1)()(| 00 000GFGFGFkTP TTTè .

Despejando el argumento

( )

)1()(

1)(

10

0

0

0

αδ

αδ

−≥

−≥

−T

T

FG

GF

Definiendo 0α por

)1(10 0

αα −= −TF . (3.21)

Considerando 5.0≤α , se tiene:

Page 64: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Capítulo 3

54

0)1(10 0

>−= − αα TF (3.22)

Sustituyendo kn

kh

kk ν−=

−−==

11)0(* , resulta lo siguiente

1

1

1)(

20

20

20

20

2*0

20

*0

+−+−=

+−+−=

+−+=

kk

kk

kkG

δνδ

ννδνδνν

νδνδν

δ

Por lo tanto,

02

020 1 αδνδ ≥+−+− kk

Falta encontrar el valor de k. Para esto de las expresiones (3.21) y (3.22) se nota que

01200

20 >++≥+− kk δανδ

Luego,

0<k (3.23)

De forma similar como se resolvió en el capítulo 2 en las páginas 27 y 28, se resuelve

la ecuación 02

020 1 αδνδ =+−+− kk en k, y se obtiene el valor de la constante crítica

k.

Así, para 5.00 ≥p , 5.0≤α y tamaño de muestra n, la constante crítica k es dada por:

ν

ναδνδα +++−=

200

200k .

3.11 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS

Note que en la demostración del Teorema 3.3, se obtuvo que el estadístico de prueba

+−

−−+−−=

− )1(

)1(

)1)((

)1(2

1

2central no

2

2

n

nc

qnZ

nc

ncT

σ

µ

σσ

Page 65: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Prueba de hipótesis para variables aleatorias dependientes e idénticamente distribuidas. 55

55

donde central noZ y 21−nχ son variables aleatorias independientes. Luego,

( )

<

+−Φ≤

<+

∈<

+−

−+−

−=

<

+−

−−+−

−≤∈<

02

1

1

02

1

21

2

2

2

02

1

2central no

2

2

)1(

nula hipótesis la utilizando

tienese ,0 que doconsideran

)1()1(

)1(

)1(

)1)((

)1(|

HkZpn

P

HkZ

qn

P

c

k

Znc

qn

c

ncP

Hkn

nc

qnZ

nc

ncPkTP

n

n

n

n

χ

χ

σµ

ωχ

σ

µ

σσ

χ

σ

µ

σσ

ω

è

è

Así, la última expresión coincide con la obtenida en 2.7. Luego en el Apéndice B, se

muestran algunas tablas de valores críticos para ciertos n, p y )1,0(∈α y el programa en S-

PLUS con el cual se generaron y por último una tabla de comparaciones de los valores

críticos calculados por simulación con los valores obtenidos por la aproximación para

muestras grandes, ν

ναδνδα +++−=

200

200k .

Page 66: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

56

Capítulo 4

Aplicaciones

4.1 VARIABLES ALEATORIAS INTERCAMBIABLES O SIMÉTRICAMENTE DEPENDIENTES

Una generalización de las variables aleatorias iid son las variables aleatorias intercambiables primeramente introducidas por B. De Finetti en 1970.

Definición 4.1

Las variables aleatorias nXX ,,1 K se llaman simétricamente dependientes o variables intercambiables (exchangeable random variables), si cualquier permutación de cualquier subconjunto de ellas de tamaño k ( nk ≤ ) tiene la misma distribución.

De Finetti demostró un elegante teorema para cualquier sucesión infinita de variables aleatorias intercambiables. Él demostró que cualquier sucesión de variables intercambiables es una mezcla de variables aleatorias iid. El siguiente teorema muestra que la distribución de una sucesión infinita de variables intercambiables nX se obtiene de una

aleatorización de una distribución binomial. Aquí, nn XXS ++= L1 y se llama al suceso

1=kX éxito.

Teorema

Para cada sucesión infinita de variables intercambiables, que toman sólo valores de 0 y 1, les corresponde una distribución F dada en [0,1], tal que

∫ −+ −=====

1

011 )1(0,,0,1,,1 θθθ dFXXXXP knk

nkk KK

∫ −−

==

1

0

)1( θθθ dFkn

kSP knkn .

Page 67: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Aplicaciones 57

57

Generalización

Se puede llevar acabo un razonamiento similar con variables aleatorias, que permiten tres

valores, en tal caso se tendrán dos parámetros libres. En general, el teorema y su

demostración se pueden utilizar con variables aleatorias que tomen un número finito de

valores. Este hecho significa que en un caso más general, las variables aleatorias

intercambiables se obtienen de sucesiones de variables aleatorias independientes con una

aleatorización por medio de algún parámetro. En algunos casos no se tiene ninguna dificultad, pero el problema en general es difícil, puesto que los parámetros no están

definidos claramente. A pesar de todo esto, se han demostrado resultados generales del

teorema. Ver Hewitt E., Savage L. J., Symmetric measures on Cartesian products, Trans.

American Math. Soc., 80 (1956), 470-501. Ver Loève (1963). Ver Bühlmann H.,

Austauschbare stochastische Variabeln und ihre Grenzwertsätze, Univ. of California

Publications in Statistics, 3, No. 1 (1960), 1-36.

4.2 MATRIZ DE COVARIANZAS PARA DATOS INTERCAMBIABLES

En el caso de que las variables aleatorias nXXX ,,, 21 K sean intercambiables, su matriz de

covarianzas es del tipo que se ha utilizado en el capítulo anterior para la prueba de

hipótesis. De manera más formal, se tiene el siguiente teorema.

Teorema 4.1

Sean las variables aleatorias nXXX ,,, 21 K intercambiables, entonces su matriz de varianzas y covarianzas es de la forma:

=2

2

2

σ

σσ

LMOMM

LL

cc

cccc

Ó .

Demostración

u Sea el vector

),,,( 21 nXXX K=X ,

en donde las variables nXXX ,,, 21 K son intercambiables.

Sea )(⋅τ una permutación del argumento. Aplicando la permutación al vector anterior, se

obtiene un nuevo vector de variables dado por

Page 68: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Capítulo 4

58

),,,()( )()2()1( nXXX ττττ K=X .

Por otro lado, de la definición de variables intercambiables se tiene que la distribución

de los vectores X y )(Xτ es la misma. Se sabe que si dos vectores tienen la misma

distribución, entonces sus matrices de covarianzas deben ser iguales.

Así, de esta forma la matriz de covarianzas para cualquier permutación )(Xτ es la

misma

=2

)()2(),()1(),(

)(),2(2

)2()1(),2(

)(),1()2(),1(2

)1(

)(

nnn

n

n

cc

cc

cc

τττττ

τττττ

τττττ

τ

σ

σσ

LMOMM

L

L

Sea )(* Xτ otra permutación de las variables, luego su matriz de covarianzas está dada por:

=

2

)()2(),()1(),(

)(),2(

2

)2()1(),2(

)(),1()2(),1(

2

)1(

)(

*****

*****

*****

*

nnn

n

n

cc

cc

cc

τττττ

τττττ

τττττ

τ

σ

σ

σ

LMOMM

L

L

XÓ .

De tal forma que

)()( * XX ÓÓττ = .

Pero del Álgebra de matrices se sabe que dos matrices son iguales cuando sus

elementos correspondientes son iguales, de tal forma que se cumple

2)(

2)( * ii ττ σσ = para toda ni ,,2,1 K= .

Como )(iτ y )(* iτ son dos permutaciones cualesquiera para ni ,,2,1 K= , se debe

satisfacer

22)(

2)( * σσσ

ττ ==ii para toda ni ,,2,1 K= .

Similarmente para las covarianzas.

)(),()(),( ** jiji ccττττ = para toda nji ,,2,1, K= y ji ≠ .

Page 69: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Aplicaciones 59

59

Pero )(⋅τ y )(* ⋅τ son dos permutaciones cualesquiera para ni ,,2,1 K= , luego, se

debe cumplir que

cccjiji ==)(),()(),( ** ττττ para toda nji ,,2,1, K= y ji ≠ .

Así, se concluye que

=2

2

2

)(

σ

σσ

τ

LMOMM

LL

cc

cccc

XÓ .

El teorema queda demostrado. t

4.3 APLICACIONES A DATOS INTERCAMBIABLES

Se ha visto que en el caso de que las variables aleatorias nXXX ,,, 21 K sean

intercambiables, su matriz de covarianzas es del tipo que se ha utilizado en la prueba del

contraste de hipótesis visto en el capítulo 3.

Por otro lado, los datos intercambiables resultan en diferentes áreas. Por ejemplo, el

Dr. Ronald Randles de la Universidad de Florida ha hecho uso de la intercambiabilidad en

datos apareados, aplicados a la medicina. Él ha supuesto que cada paciente tiene una

medida tomada antes y después del tratamiento, con base en este hecho a formulado la

hipótesis nula de que las medidas antes de que y después de que son tomadas en un

tratamiento son intercambiables, es decir, que ninguna medida es afectada por el

tratamiento. Así los pares (Antes de, Después de) y (Después de, Antes de) tienen la

misma distribución.

Otra aplicación de datos intercambiados se tiene cuando los datos son reunidos en

bloques completamente aleatorizados en los que cada uno de los k tratamientos medidos

dentro de cada bloque, la hipótesis nula se refiere a que no existe ningún efecto del

tratamiento es que las !k observaciones dentro de cada bloque es intercambiable, es decir,

que todas las !k permutaciones de los datos dentro de cada bloque serían igualmente probables.

Page 70: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Capítulo 4

60

4.4 EXTENSIÓN DE LA PRUEBA t PARA OBSERVACIONES DEPENDIENTES

4.4.1 Caso de independencia

Para el caso de una muestra aleatoria nXXX ,,, 21 K de variables ),( 2σµN se analiza (ver

[12], páginas 428-431), por medio del método de pruebas de la razón de verosimilitudes generalizada, el contraste de hipótesis

0,:

0,:2

01

200

>≠

>=

σµµ

σµµ

H

H

en donde, 0µ es una constante conocida, el parámetro 2σ es desconocido, el espacio

paramétrico bajo la hipótesis nula es 20

2 ,|),( σµµσµω === è y el espacio

paramétrico +×=Ω RR .

Para utilizar el método anterior primeramente se obtienen los estimadores de máxima

verosimilitud de los parámetros ),( 2σµ bajo +×=Ω RR , los cuales resultan iguales a

),()ˆ,ˆ( 21

2−= nSXσµ . Por otro lado, los estimadores de los parámetros bajo ω son

−= ∑

=

n

iiX

n 1

200

20 )(

1

1,)ˆ,( µµσµ .

De está manera al aplicar el método de la razón de verosimilitudes generalizada y el

resultado de que X y 21−nS son independientes, se obtiene el estadístico de prueba

nS

XT

n 1

0

−=

µ.

Donde T tiene una distribución t-student con 1−n grados de libertad y la hipótesis

nula se rechaza cuando kT −< o kT > , con la constante crítica k igual al cuantil

)1(21 −− nt α .

4.4.2 Caso de dependencia

Para el caso en que las variables aleatorias nXXX ,,, 21 K son dependientes la prueba

anterior se complica enormemente, y su solución depende de la matriz de covarianzas. En

general, en la literatura de Estadística no se tienen pruebas para estos casos.

Cuando nXXX ,,, 21 K son variables aleatorias intercambiables normalmente

distribuidas con parámetros µ , 2σ y con covarianzas homogéneas, c, se demuestra en el

Page 71: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Aplicaciones 61

61

apéndice A que no se puede aplicar el método de pruebas de la razón de verosimilitudes

generalizada, debido a que no existen los estimadores de máxima verosimilitud para µ , 2σ

y c.

De tal forma que si nXXX ,,, 21 K son variables aleatorias intercambiables

normalmente distribuidas con parámetros µ , 2σ y c la prueba para el contraste de

hipótesis

0,:

0,:2

01

200

>≠

>=

σµµ

σµµ

H

H

en donde, 0µ es una constante conocida, el parámetro 2σ es desconocido, el espacio

paramétrico bajo la hipótesis nula es cc ,,|),,( 20

2 σµµσµω === è y el espacio

paramétrico ++ ××=Ω RRR ; se busca en base a un estadístico similar al caso de independencia.

En las sección 3.7.1 y 3.7.2 se demostró que en el caso de variables intercambiables

normalmente distribuidas con parámetros µ y 2σ se tiene que

+−n

ncNX

2)1(,~

σµ y

−−Γn

cnSn

22 2,

21

además, en la propiedad 5 de la sección 3.6 se demostró que X y 21−nS siguen siendo

independientes. De tal forma que bajo 0H se cumple

( )1,0~)1( 2

0 N

n

nc

X

σ

µ

+−

− y 2

12

2

2,2

1~ −=

−Γ

− nn n

c

nSχ

σ y son independientes.

Así la distribución de la siguiente estadística *T se obtiene de la distribución t central

con 1−n grados de libertad

1

)(

)1()(

22

2

0*

−−

+−−

=

n

cnS

n

ncX

Tn σ

σµ

.

Simplificando la expresión anterior, se obtiene

Page 72: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Capítulo 4

62

1)1(1

)1( 1

02

2

1

0*

+−−−

=+−

−−=

−− nnS

X

nc

c

nS

XT

nnρ

ρµσ

σµ

De tal forma que

1

1

0* ~)( −−

−= n

n

thnS

XT ρ

µ,

en donde, X y 21−nS son la media y varianza muestrales y son independientes, y

1)1(

1)(

+−−

=n

ρρ con 10 <≤ ρ .

Para llevar a cabo la prueba se usará un estadístico similar al caso de variables

aleatorias independientes, y que se denota por

nS

XT

n 1

0

−=

µ.

Ahora se busca la constante crítica k, tal que

[ ]

=

=

<=

<<−=

<<−=−

<≤

<≤

<≤

<≤

<≤

)(max

)(max

|)(max

|)(

max

|max1

10

10

0*

10

0

*

10

010

*

*

ρ

ρ

ρ

ρ

α

ρ

ρ

ρ

ρ

ρ

hkF

khF

HkhTP

Hkh

TkP

HkTkP

T

T

Proposición

La función )(⋅h es monótona decreciente

Para probar se deriva 1)1(

1

+−−

nρρ

[ ][ ] [ ]

01)1(1)1(

)1)(1(1)1(

1)1(

122

<+−

−=+−

−−−+−−=

+−

n

n

n

nn

nd

d

ρρ

ρρρ

ρρ

.

Page 73: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Aplicaciones 63

63

Luego, 1)1(

1

+−−

nρρ

es monótona decreciente y la función raíz cuadrada es monótona

creciente, esto implica que )(ρh es monótona decreciente.

De la proposición anterior resulta que el máximo de la función )(⋅h se obtiene cuando

0=ρ , es decir, cuando 1)0( =h . Así,

[ ]

[ ]kF

khF

hkF

T

T

T

*

*

*

)0(

)(max110

=

=

=−

<≤ρα

ρ

Finalmente se tiene que la prueba no rechaza 0H cuando kTk <<− , donde k es tal

que para )1,0(∈α ,

( ) α−≤<<− 1| 0* HkTkP .

Con )1(21 −= − ntk α el 21 α− cuantil de la distribución t-student con 1−n grados

de libertad.

De tal forma que se obtiene la misma prueba que en el caso de independencia.

Page 74: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

64 64

Capítulo 5

Conclusiones

Dadas las variables aleatorias nXXX ,,, 21 K , normalmente distribuidas con parámetros µ

y 2σ la prueba para el contraste de hipótesis

01

00

:

:

ppH

ppH

>

en donde, 0p es una constante conocida y p es la probabilidad de que las variables

aleatorias tomen valores por encima de un valor q constante y definido de antemano; está

basada en una distribución t, tanto para el caso de independencia como el de variables

aleatorias dependientes normalmente distribuidas con covarianzas homogéneas. Teniendo

como resultado la coincidencia de la prueba en ambos casos. Aquí se puede hacer notar

que aún cuando las pruebas coinciden, en el caso de dependencia no existen los estimadores

de máxima verosimilitud para los parámetros, como los utilizados en el caso de variables

aleatorias independientes.

En el caso de variables aleatorias intercambiables resulta que éstas cumplen las

condiciones de variables aleatorias dependientes con covarianzas homogéneas, por

consiguiente, se puede aplicar la prueba anterior a este tipo de datos.

Por otro lado, el método de la razón de verosimilitud generalizada para la prueba de hipótesis de la media de variables aleatorias independientes con distribución normal y

parámetros µ y 2σ resulta una herramienta muy útil, sin embargo, para el caso de

variables aleatorias intercambiables no es posible implementar el método, ya que no existen

los estimadores de máxima verosimilitud de los parámetros respectivos.

Page 75: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Conclusiones 65

65

De esta forma para llevar acabo una prueba de hipótesis sobre la media de variables aleatorias intercambiables se propone usar un estadístico de prueba similar al que se obtiene

en el método de la razón de verosimilitud generalizada para el caso de variables aleatorias

independientes. Resultando que aún cuando se trate de variables aleatorias intercambiables

la prueba coincide con la de variables aleatorias independientes.

DISCUSIÓN

En el desarrollo de la prueba para las variables aleatorias dependientes con covarianzas

homogéneas se lleva a efecto una transformación para las variables. En esta parte se puede

apreciar que las ideas y resultados que aquí se obtiene se pueden extender a otro tipo de

matrices de varianzas y covarianzas, en especial para el caso de procesos estocásticos con

covarianzas estacionarias. Cabe señalar que aunque las ideas parecen ser propicias para

llevar a cabo una prueba en estas últimas condiciones, queda la pregunta abierta referente a

la transformación adecuada para llegar a la independencia de X y 2XS o de alguna función

lineal de estas.

Page 76: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

66

Apéndice A

Método de máxima verosimilitud para probar la hipótesis de variables aleatorias dependientes e idénticamente distribuidas

A.1 PLANTEAMIENTO DEL PROBLEMA

Sean nXXX ,,, 21 K variables aleatorias dependientes normalmente distribuidas con

parámetros µ y 2σ . Se quiere encontrar una prueba para el contraste de hipótesis:

01

00

:

:

ppH

ppH

>

en donde, 0p es una constante conocida y p es la probabilidad de que las variables

aleatorias tomen valores por encima de un valor q constante y definido de antemano, esto

es:

[ ]qXPp i >= , para toda i.

Suponiendo normalidad de las variables aleatorias y estandarizando resulta:

>=

Φ−=σ

µσ

µ qZP

qp 1 .

De donde,

Φ≤−σ

µqp01 .

Así, las hipótesis son equivalentes a:

)1(:

)1(:

01

1

01

0

pq

H

pq

H

−Φ<−

−Φ≥−

σµ

σµ

(a.1)

Page 77: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Método de máxima verosimilitud para probar la hipótesis de variables aleatorias dependientes e idénticamente distribuidas. 67

67

De donde, la estadística de prueba para la solución del problema está dada por:

σ

µˆ

ˆ−=

qT . (a.2)

Es decir, se buscará la distribución de la estadística de prueba T de tal forma que cumpla con el contraste de hipótesis

)1(:

)1(:

01

1

01

0

pTH

pTH

−Φ<

−Φ≥

(a.3)

A.2 ESTIMADORES DE MÁXIMA VEROSIMILITUD PARA µ , σ y c

Sean nXXX ,,, 21 K las variables aleatorias del proceso de manera que su función de

verosimilitud está dada por

−−−= − )()(

21

exp)det()2(

1),,|( 1

2

2~,~,~| 2 1xÓ1x

Óx

Xµµ

πσµ

σµt

nccf (a.4)

En donde, 1µ es el vector cuyas componentes son todas iguales a µ, x una realización

de la muestra y Ó matriz de covarianzas con la misma varianza, 2σ , y covarianzas

homogéneas, cXX ji =),cov( . Es decir, para

=2

2

2

σ

σσ

LMOMM

LL

cc

cccc

Ó (a.5)

Los cálculos de la inversa y el determinante se tienen en el Teorema A.1.

Teorema A.1

Sea la matriz de covarianzas dada en la expresión (a.5), entonces se cumple

a).- ( ) ( )

[ ]22

2

422

21

)1()(

)1(

)2()1(

)1(

σσσ

σσσ

+−−−+−

=−−−−

+−−=−

ncc

cnc

cncn

ncc JIIJÓ .

b).- [ ]212 )1()()det( σσ +−−= − ncc nÓ .

En donde I representa la matriz identidad de orden nn × , y J la matriz de unos también del mismo orden.

Page 78: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Apéndice A

68

Demostración u Primeramente se representa la matriz de covarianzas de la siguiente forma:

IJÓ )( 2 cc −+= σ

a).- De esta manera la comprobación es sencilla, basta con verificar las igualdades

IÓÓÓÓ == −− 11

Luego, se tiene

[ ][ ]

[ ] [ ]422

2222222

22422

1

)2()1(

)())(1()()1(

)1()()2()1(

1

σσσσσσσ

σσσσ

−−−−−−−−−−+−−−

=

−−−−+−−−−

=−

cncn

cccnccccnc

cnccccncn

IIIIIJJIJIJJ

IIJIJÓÓ

Como JJJ n= , III = , JIJJI == , se tendrá

[ ]

[ ]

I

I

IJJ

IIJJJJÓÓ

=

−−−−+−−+−−

=

−−−−−−−−−+−=

−−−−−−−−−−+−−−=−

422

2422

422

22222

422

22222221

)2()1(

)1()1(

)2()1(

)())(1(

)2()1(

)())(1()()1(

σσσσσ

σσσσσ

σσσσσσσ

cncn

ccncn

cncn

cccncc

cncn

cccnccccnnc

Similarmente IÓÓ =−1 .

b).- El determinante se cálculo en el teorema 3.1. El teorema queda demostrado. t

Continuando con los cálculos, considerando el logaritmo natural de la expresión (a.4)

( ) ( ))det(ln2

12ln

2)()(

2

1),,|( 12

~,~,~| 2 Ó1xÓ1xxX

−−−−−= − πµµσµσµ

nc t

cl . (a.6)

Falta derivar con respecto a los diferentes parámetros.

Page 79: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Método de máxima verosimilitud para probar la hipótesis de variables aleatorias dependientes e idénticamente distribuidas. 69

69

A.2.1. DERIVADA CON RESPECTO A LA MEDIA

[ ]

( ) ( ) ( )

−+−=

−+−=∂∂

−−−−

−−

1Ó11Óx1Ó1xÓ1

1Ó1x1xÓ1xX

1111

112~

,~

,~

|

21

21

21

21

)()(21

)(21

),,|(2

tttt

tt

cc

µµ

µµσµµ σµ

l

Como cada término de la última igualdad es un número, esto significa que las

transpuestas correspondientes son iguales, luego se tiene

[ ] 1Ó1xÓ1xX

112~,~,~|

),,|(2−− −=

∂∂ tt

cc µσµ

µ σµl .

Igualando a cero la expresión de la derivada y despejando la media, se obtiene su

estimador de máxima verosimilitud

1Ó1

xÓ11

1

ˆ−

=t

t

µ .

Empleando la inversa de la matriz de covarianzas del teorema anterior, para calcular

el estimador de la media

[ ]

[ ]

[ ]

( )

( )( )( )

2

22

2

422

2

22

422

2422

2422

1

)1(

)1(

)2()1(

)1()2()1(

1

)1()2()1(

1

)1()2()1(

1

σ

σσσ

σσσ

σσσ

σσσ

σσσ

+−=

+−−−=

−−−−−

=

−−−−−−−

=

−−−−−−−

=

−−−−−−−

=−

nc

n

ncc

cn

cncn

cn

nnnccncncn

ncccncn

ncccncn

ttt

tt

1111J11

1IIJ11Ó1

Similarmente, para el numerador

Page 80: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Apéndice A

70

[ ]

[ ]

[ ]

( )

xnc

n

xcncn

cn

xnxcncncn

xxncxcncncn

ncccncn

ncccncn

n

ii

n

ii

n

ii

ttt

tt

+−=

−−−−−

=

−−−−−

=

−−−

−−−−=

−−−−−−−

=

−−−−−−−

=

∑∑∑===

2

422

2

2422

1

2

11422

2422

2422

1

)1(

)2()1(

)2()1(

1

)1()2()1(

1

)1()2()1(

1

)1()2()1(

1

σ

σσσ

σσσ

σσσ

σσσ

σσσ

x1x1Jx1

xIIJ1xÓ1

Finalmente, resulta

x

xt

t

=

==−

)(

)(ˆ1

1

1Ó1

1Ó1µ

(a.7)

A.2.2. DERIVADA CON RESPECTO A LA VARIANZA

Para la varianza se deriva la expresión (a.6) con respecto a 2σ

[ ] ( ) ( ))det(ln21

)()(21

),,|(2

12

2~,~,~|2 2 Ó1xÓ1xx

X σµ

σµσµ

σ σµ ∂∂−−

∂−−=∂

∂ −t

ccl (a.8)

Derivando la matriz inversa de covarianzas

( ) [ ]

[ ] [ ][ ][ ]2422

22422

24222

12

)2()1(

2)2()1()()2()1(

)1()2()1(

1

σσ

σσσσ

σσσσσ

−−−−

+−−−−+−−−−−=

−−−−−−−∂

∂=

∂∂ −

cncn

cnncccncn

ncccncn

IIJI

IIJÓ

Simplificando el numerador de la última expresión

Page 81: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Método de máxima verosimilitud para probar la hipótesis de variables aleatorias dependientes e idénticamente distribuidas. 71

71

[ ] [ ][ ][ ] [ ] [ ][ ]

[ ] [ ][ ] [ ] [ ] [ ]

[ ] [ ]222

42222

4224222

224222

222422

22422

)1(2)2(

)1(2)1(2)2(

2222)2)(1()2()1(2)2(

2)2()1()2()1(2)2(

2)2()1(2)2()()2()1(

2)2()1()()2()1(

σσ

σσσ

σσσσσ

σσσσσ

σσσσσ

σσσσ

+−−+−=

=+−+−−+−

=+−+−+−−+−−−−−+−

=+−+−+−−−−−+−

=+−+−−+−+−−−−−

=+−−−−+−−−−−

cncnc

cncncnc

nncnnccncncnc

cnnccncncnc

cnnccnccncn

cnncccncn

IJ

IJ

IJ

IJ

IJI

IIJI

Sustituyendo la expresión para el numerador, se tiene:

( ) [ ] [ ][ ]2422

2221

2)2()1(

)1(2)2(

σσ

σσσ −−−−

+−−+−=∂

∂ −

cncn

cncnc IJÓ (a.9)

Sustituyendo la expresión (a.9) en el primer término de la expresión (a.8) y

reduciendo

( ) [ ] [ ][ ]

)()2()1(

)1(2)2()(

2

1)()(

2

12422

2221

21x

IJ1x1xÓ1x µ

σσ

σσµµ

σµ −

−−−−

+−−+−−−=−

∂−− −

cncn

cncnctt (a.10)

En la expresión (a.10) se tomarán los productos entre matrices y vectores

( )

0

(a.10)expresión la De

)()()()(

22

2

1

22

11

2

1

2

=

−=

−=

+−−

=

+−−=−−

∑∑∑

=

===

µ

µ

µµµ

µµµµµ

xn

nx

nxnxnx

n

ii

n

ii

n

ii

n

ii

ttttt J11J1xJx1Jxx1xJ1x

Similarmente con la matriz identidad.

Page 82: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Apéndice A

72

2

2

1

2

22

1

2

222

1

2

2

1

2

2

11

2

2

1

)(1

21

21

2

)()()()()(

n

n

ii

n

ii

n

ii

n

ii

n

ii

n

ii

ttttt

nS

xxn

n

xxxn

n

xxxxn

n

xxn

n

nxx

=

−=

−+−=

+−+−=

+−=

+−=

+−−=−−

∑∑

=

=

=

=

==

µ

µµ

µµ

µµ

µµµµµ I11I1xIx1Ixx1xI1x

Sustituyendo los resultados de los productos entre matrices y vectores en la expresión

(a.10), resulta

( ) [ ] [ ][ ]

[ ] [ ][ ]

[ ][ ]

[ ]( )[ ]

−=

+−−−

+−=

−−−−

+−=

−−−−

+−−−−+−−−−=

−−−−

+−−+−−−=−

∂−− −

22

2

222

222

2422

222

2422

222

2422

2221

2

)(2

)1()(

)1(

2

1

)2()1(

)1(

21

)2()1(

)1()()(2)2()()(

2

1

)()2()1(

)1(2)2()(

2

1)()(

2

1

c

Sn

cnc

cnnS

cncn

cnnS

cncn

cncnc

cncn

cncnc

n

n

n

tt

tt

σ

σσ

σ

σσ

σ

σσ

σµµσµµ

µσσ

σσµµ

σµ

1xI1x1xJ1x

1xIJ

1x1xÓ1x

Esto es

( )

−=−

∂−− −

22

21

2 )(2)()(

2

1

c

Sn nt

σµ

σµ 1xÓ1x (a.11)

Page 83: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Método de máxima verosimilitud para probar la hipótesis de variables aleatorias dependientes e idénticamente distribuidas. 73

73

Por otro lado, de la expresión (a.6) se observa que falta la derivada del logaritmo del determinante de la matriz de covarianzas, para esto se utiliza la expresión del determinante

calculado en el Teorema A.1.

( ) ( )[ ]

( )( )

( )( )

( )

( )( )

( )22

2

22

22

22

222

22

22

212

12222

21222

)1()(

)2(

)1()(

)2(

)1()(

)1()12(

)1()(

)()1()1(

)1()(

)()1())(1(

)1()(ln)det(ln

σσ

σ

σσ

σ

σσ

σσ

σσ

σσ

σσ

σσσ

σσσσ

+−−

+−=

+−−

+−=

+−−

−+−++−=

+−−

−++−−=

+−−

−++−−−=

+−−∂

∂=

∂∂

−−

ncc

ncn

ncc

nnnc

ncc

cnnnc

ncc

cncn

ncc

cnccn

ncc

n

nn

Esto es

( ) ( )( )

+−−

+−=

∂22

2

2 )1()(

)2(

2)det(ln

2

1

σσ

σ

σ ncc

ncnÓ (a.12)

Finalmente, sustituyendo (a.11) y (a.12) en (a.6)

[ ] ( )( )

( )( )

( ) ( )( )

+−−+−−−+−

=

+−−+−

−−

=

+−−+−

−=

∂∂

222

2222

22

2

22

2

22

2

22

22

~,~,~|2

)1()(

)2()()1(

2

)1()(

)2(

)(2

)1()(

)2(

2)(2),,|(2

σσσσσ

σσσ

σ

σσσ

σσµ

σ σµ

ncc

nccncSn

ncc

nc

c

Sn

ncc

ncn

c

Snc

n

n

nc

xX

l

Al igualar a cero la derivada, resulta la ecuación

( ) ( )

( ) 0)1()(

)2()()1(222

2222

=+−−

+−−−+−

σσ

σσσ

ncc

nccncSn (a.13)

Page 84: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Apéndice A

74

A.2.3. DERIVADA CON RESPECTO A LA COVARIANZA

Para la covarianza se deriva la expresión (a.6) con respecto a c.

[ ] ( ) ( ))det(ln21

)()(21

),,|( 12~,~,~| 2 Ó1xÓ1xx

X ccc

ct

c ∂∂−−

∂∂−−=

∂∂ − µµσµ

σµl (a.14)

Derivando la matriz inversa de covarianzas

( ) [ ]

[ ] [ ][ ][ ]2422

22422

2

422

1

)2()1(

)2()1(2)1())1(()2()1(

)1()2()1(

1

σσ

σσσσ

σσσ

−−−−

−−−−−−−−−−−−−=

−−−−−−−∂

∂=

∂∂ −

cncn

ncnnccncncn

ncccncncc

IIJIJ

IIJÓ

Simplificando el numerador de la última expresión

[ ] [ ][ ][ ]

[ ] [ ][ ] [ ]2242

422242

22422

2422

22422

)1()1(

)1(2)1()1(

)2()1(2)1()1()2()1(

)2()1(2)2()1(

)2()1(2)1())1(()2()1(

σσ

σσσ

σσσσ

σσσ

σσσσ

+−+−−−=

=+−+−+−−−=

=−−−+−+−−−−−−+

+−−−−−−−−=

=−−−−−−−−−−−−−

nccn

nccncn

ncnncncncn

ncnccncn

ncnnccncncn

IJ

IJ

I

J

IIJIJ

Sustituyendo la expresión para el numerador, se tendrá:

( ) [ ] [ ]2422

42221

)2()1(

)1()1(

σσ

σσ

−−−−

+−−+−=

∂∂ −

cncn

cnnc

c

JIÓ (a.15)

Sustituyendo la expresión (a.15) en el primer término de la expresión (a.14)

( ) [ ] [ ] )(

)2()1(

)1()1()(

21

)()(21

2422

42221 1x

JI1x1xÓ1x µ

σσ

σσµµµ −

−−−−

+−−+−−−=−

∂∂

−− −

cncn

cnncc

tt (a.16)

En la expresión (a.16) se utilizan los productos entre matrices y vectores que se

realizaron para la expresión (a.10), en donde resultó:

0)()( =−− 1xJ1x µµ t y 2)()( nt nS=−− 1xI1x µµ

Se obtiene

( ) [ ][ ]

−−=

+−−

+−−=−

∂∂

−− −22

2

2222

2221

)(2)1()(

)1(

2)()(

2

1

c

Sn

ncc

ncSn

cnnt

σσσ

σµµ 1xÓ1x (a.17)

Page 85: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Método de máxima verosimilitud para probar la hipótesis de variables aleatorias dependientes e idénticamente distribuidas. 75

75

Por otro lado, de la expresión (a.14) se observa que falta la derivada del logaritmo del determinante de la matriz de covarianzas, para esto se utiliza la expresión del determinante

calculado en el Teorema A.1.

( ) ( )[ ]

( )( )

( )[ ]( )

( )22

22

22

212

12222

212

)1()(

)1(

)1()(

)()1()1(

)1()(

)1()()1())(1(

)1()(ln)det(ln

σσ

σσσσ

σσσσσ

σσ

+−−−−

=

+−−−−+−−−

=

+−−−−++−−−−

=

+−−∂∂

=∂∂

−−

ncc

ncn

ncc

cncn

ncc

ncnccn

ncccc

n

nn

Esto es

( ) ( )

+−−−

−=∂∂

22 )1()(

)1(

2)det(ln

2

1

σσ ncc

ncn

cÓ (a.18)

Finalmente, sustituyendo (a.17) y (a.18) en (a.14)

[ ] ( )

( )( )

( )

+−−−−++−−

=

=

+−−−

+−

−=

=

+−−−

+

−−=

∂∂

222

222

2222

2

2222

22

~,~,~|

)1()(

)1()()1(

2

)1()(

)1(

)(2

)1()(

)1(

2)(2),,|(2

σσσσ

σσσ

σσσσµ

σµ

ncc

nccncSn

ncc

nc

c

Sn

ncc

ncn

c

Snc

c

n

n

nc

xX

l

Al igualar a cero la derivada, resulta la ecuación

( )

( ) 0)1()(

)1()()1(222

222

=+−−

−−++−−

σσ

σσ

ncc

nccncSn (a.19)

Se forma el sistema de ecuaciones, para encontrar los estimadores de máxima

verosimilitud. Así de las ecuaciones (a.7), (a.13) y (a.19)

Page 86: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Apéndice A

76

( ) ( )( )

( )( )

=+−−

−−++−−

=+−−

+−−−+−

=−

)19a.(0)1()(

)1()()1(

)13a.(0)1()(

)2()()1(

)7a.(0

222

222

222

2222

σσσσ

σσ

σσσ

µ

ncc

nccncS

ncc

nccncS

x

n

n

Sumando (a.13) + (a.19), se obtiene

( )( )

( )( )

( )

0)1(

1

0)1()(

)(

0)1()(

)2()1()(

0)1()(

)1()()2()(

2

222

22

222

22

222

222

=+−

=+−−

=+−−

−−−−−

=+−−

−−++−−−

σ

σσσ

σσσσ

σσσσσ

nc

ncc

c

ncc

ncncc

ncc

nccncc

Es decir, ¡no existen estimadores de máxima verosimilitud!, puesto que la última

igualdad se cumple sólo cuando c o 2σ crecen indefinidamente.

Otra forma de demostrar que los estimadores de máxima verosimilitud no existen, se

tiene al analizar la propiedad 1 del capítulo 3, página 44. En donde, se puede observar que

las variables de la transformación AXY = , 1Y y las restantes variables iY ni ≤≤2 tienen

diferentes varianzas y son independientes. Ahora, como se necesitan estimar 3 parámetros

se puede dar un valor cualesquiera a uno de ellos y de esta forma se puede elegir una función de máxima verosimilitud cada vez más grande, sin acotación.

Page 87: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

77

Apéndice B

Simulación de valores críticos para muestras pequeñas

B.1 PLOGRAMA EN S-PLUS

A continuación se muestra el programa elaborado en S-PLUS, para calcular tanto la tabla

de cuantiles, como los resultados de comparar los valores simulados, con los valores

críticos calculados en la aproximación que se obtuvo de forma analítica.

#SE PROGRAMA UNA SIMULACIÓN CON R REPETICIONES PARA CALCULAR LOS CUANTILES DE LA DISTRIBUCIÓN DESCONOCIDA

numerador<-function(n,p,r) (sqrt(n)*qnorm(1-p)+rnorm(r))/sqrt(n-1) denominador<-function(n,r) sqrt(rchisq(r,(n-1))/(n-1)) Probabilidad<-function(n,p,r) numerador(n,p,r)/denominador(n,r) suma<-function(n,p,alfa,r) s<-0 k<-1 ordenar<-sort(Probabilidad(n,p,r)) while(s <= alfa) s<-s+abs(ordenar[k]/r) k<-k+1 cuantil<-ordenar[k-1] cuantil

Page 88: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Apéndice B

78

teorico<-function(n,p,alfa) alfa0<-qt(1-alfa,n-1) delta0<-(-qnorm(1-p)*sqrt(n)) -(alfa0*sqrt(delta0^2+n-1)+delta0*sqrt(alfa0^2+n-1))/(n-1) final<-function(alfa, cp=c(0.6,0.7,0.75,0.8,0.9,0.95,0.99,0.995),

cn=c(5:30,35,40,45,50),r=100000) valoresp<- cp valoresn<-cn np<-length(valoresp) nn<-length(valoresn) resultados<-matrix(NA,nn,np) for(i in 1:np) for(j in 1:nn) posi<-valoresp[i] posj<-valoresn[j] resultados[j,i]<-suma(posj,posi,alfa,r) cat("\n"," Critical values for alfa=", alfa, "\n") presentacion<-matrix(NA,nn,np) for(i in 1:np) presentacion[,i]<-resultados[,i] row.names(presentacion)<- valoresn names(presentacion)<-

c("p=0.60","p=0.70","p=0.75","p=0.80","p=0.90","p=0.95","p=0.99","p=0.995")

print( presentacion) cat("\n" ) tablas<-function(valoresf=c(0.01,0.02,0.025,0.05,0.10,0.20)) for(i in 1:length(valoresf)) final(valoresf[i]) comprobar<-function(ca=c(0.01,0.02,0.025,0.05,0.10,0.20),

cn=c(5,10,15,20,25,30,40,50),cp=c(0.6,0.7,0.75,0.8,0.9,0.95,0.99,0.995), alfa,m=5,r=100000)

Page 89: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Simulación de valores críticos para muestras pequeñas. 79

79

for(s in 1:length(ca)) alfai<-ca[s] tn<-length(cn) tp<-length(cp) cat("\n"," Comparacion de resultados por simulacion y

aproximado, respectivamente, para alfa=", alfai, "\n") comparacion<- matrix(NA,tn,tp) comparacion1<- matrix(NA,tn,tp) for(i in 1:tn) for(j in 1:(tp/2)) aux<-2*j-1 jj<-aux+1 vni<-cn[i] vpj<-cp[j] comparacion[i,aux]<-suma(vni,vpj,alfai,r) comparacion[i,jj]<-teorico(vni,vpj,alfai) jc<-j+4 vpj<-cp[jc] comparacion1[i,aux]<-suma(vni,vpj,alfai,r) comparacion1[i,jj]<-teorico(vni,vpj,alfai) row.names(comparacion)<- cn names(comparacion)<-

c("p=0.60","p=0.60","p=0.70","p=0.70","p=0.75","p=0.75","p=0.80","0.80")

print( comparacion) cat("\n") row.names(comparacion1)<- cn names(comparacion1)<-

c("p=0.90","p=0.90","p=0.95","p=0.95","p=0.99","p=0.99","p=0.995","0.995")

print( comparacion1)

B.2 TABLAS DE CUANTILES

Page 90: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Apéndice B

80

n

n

Page 91: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Simulación de valores críticos para muestras pequeñas. 81

81

n

n

Page 92: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Apéndice B

82

n

n

Page 93: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Simulación de valores críticos para muestras pequeñas. 83

83

B.3 COMPARACIONES

En las siguientes tablas se muestran algunas comparaciones entre los valores simulados y

los valores calculados con la aproximación del valor crítico.

n

n

n

Page 94: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Apéndice B

84

De las comparaciones anteriores, se puede apreciar que cuando el valor de p, es más

grande ( 15.0 << p ) y el nivel de significancia disminuye los valores simulado y

aproximado se asemejan más a partir de muestras de tamaño 30, en los demás casos se

requieren muestras mayores.

n

n

n

Page 95: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

85

Bibliografía

[1] Billingsley, Patrick, Probability and Measure, JOHN WILEY & SONS, New York,

1979.

[2] Box, George E. P; Jenkins, Gwilym M. and Reinsel, Gregory C., Time Series

Analysis. Forecasting and Control, PRENTICE HALL INTERNATIONAL, INC.,

USA, 1994.

[3] Brocwell, Peter J. and Richard A. Davis, Introduction to Time Series and

Forecasting, SPRINGER-VERLANG, New-York, Inc. 1996.

[4] Casella, G. & Berger, R.L., Statistical Inference, DUXBURY PRESS, Belmont,

California, 1990.

[5] Chatfield, Chris, The analysis of Time series an introduction (fifth edition),

CHAPMAN & HALL/CRC, UK. 1999.

[6] Chung, Kai Lai, A course in Probability Theory, Harcourt, Brace & World, Inc.

1968.

[7] Feller, William, An Introduction to Probability Theory and its Applications V.2,

Second edition, JOHN WILEY & SONS, New York, 1971.

[8] Halperin, Max Approximations to the Non-Central t, With Applications,

TECHNOMETRICS, Vol. 5, No. 3, pp 295-305, August 1963.

[9] Herstein, I. N. & Winter, D. J., A primer on Linear Algebra, MACMILLAN

PUBLISHING COMPANY, United States of America, 1988.

[10] Kraemer, H. Ch., & Paik. A Central t Approximation to the Noncentral t-

Distribution, TECHNOMETRICS, Vol. 21, No. 3, pp 357-360, August 1979.

[11] Maltsev, A. I. Fundamentos de Álgebra Lineal, Editorial Mir, Moscú, 1972.

Page 96: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis

Bibliografía

86

[12] Mood, A.M., Graybill, F. A. & Boes, D. C., Introduction to the theory of statistics, Third Edition, McGraw Hill, Singapore, 1974.

[13] Owen, D. B. A Survey of Properties and Applications of the Noncentral t-

Distribution, TECHNOMETRICS, Vol. 10, No. 3, pp 445-473, August 1968.

[14] Pankrants, Alan, Forecasting with univariate Box-Jenkins Models. Concepts and

Cases, JOHN WILEY & SONS Inc, New York, 1983.

[15] Parzen, Emanuel, Procesos estocásticos, PARANINFO, Madrid-España, 1972.

[16] Rohatgi, Vijay K., Statistical Inference, JOHN WILEY & SONS Inc, New York,

1984.

[17] Ross, Sheldon M., Stochastic Processses, Second Edition, JOHN WILEY, New York,

1996.

[18] Searle, S. R., Matrix Algebra Useful for Statistics, JOHN WILEY, New York, 1982.

[19] Wilks, Samuel S., Mathematical Statistics, JOHN WILEY & SONS Inc, New York, 1962.

Page 97: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis
Page 98: PRUEBAS DE HIPÓTESIS CON VARIABLES ...2.6 VALORES CRÍTICOS PARA MUESTRAS GRANDES. 24 2.7 VALORES CRÍTICOS PARA MUESTRAS PEQUEÑAS. 29 Contenido IX IX Capítulo 3 30 Prueba de hipótesis