equipo 7 estadistica

3
 3.3 PRUEBA DE BONDAD DE AJUSTE NORMAL DE ANDERSON DARLING La prueba Anderson-Darling es, en general, más potente que la pruebas X 2 de Pearson y la de Kolmogorov-Smirnov (Stephens,1974, Cap. 4). Resulta lógico pensar que la X 2 de Pearson es menos potente que la de Kolmogorov-Smirnov y la de Anderson- Darling debido a que trabaja con datos agrupados debido al agrupamiento. Hay pérdida de información. Por otro lado, la prueba Kolmogorov- Smirnov es menos sensible a desajustes que pudieran haber en las colas de la distribución, que la prueba Anderson- Darling (Easterling 1976; Stephens 1974, Cap 4). En particular, la prueba Anderson- Darling funciona mejor que cualquiera otra, cuando haya casos extraordinarios o aberrantes (outliers).  La estadística Anderson-Darli ng está dada por la siguiente expresión:   A 2 =-n- (1/n)  Σ [(2i - 1) Ln(P ( i ) ) + (2n +1 - 2i)Ln{1 - p ( i )  } ]  Donde P (i) es el área bajo la curva normal para el intervalo  (-oo,z ( i ) ), o sea es la función distribución normal estándar evaluada en el i-ésimo elemento (en orden ascendente) de la muestra.  Se presentan dos s ituaciones para la estadística Anderson-Darling: la primera en que se conocen los parámetros de la distribución llamado caso 0 (cero), y la otra en que se desconoce al menos uno de ellos (casos 1, 2 y 3).  Situándonos en el caso de bondad de ajuste a la distribución normal se consideran los siguientes casos: Caso 0: µ y s 2 conocidos.  Caso 1: s 2 conocida y µ desconocida y estimada por X . Caso 2: µ conocida y s 2 desconocida y estimada por s (n) = Σ ( x i - µ ) 2  /n Caso 3: ambos desconocidos, estimados por X y s n-1 = Σ ( x i - x) 2  /n-1 Para cada uno de los casos existe una tabla estadística para realizar la prueba de la hipótesis, Ho: "La muestra aleatoria proviene de una distribución normal". La estadística de Anderson-Darling se calcula para los cuatro casos de la misma manera; sin embargo, en el caso 3 se debe multiplicar por un factor de corrección el cual es: 1 + (0.75/n) + (2.25/n 2 ), que mejora la aproximación.  La prueba Anderson-Darli ng para la bondad de ajuste normal, en el caso 0, se realiza siguiendo los siguientes pasos: Presentamos en seguida el uso de la estadística Anderson-Dar ling aplicada a un conjunto de datos para el caso 0.

Upload: angel-barragan-robles

Post on 11-Jul-2015

6.448 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Equipo 7 Estadistica

5/11/2018 Equipo 7 Estadistica - slidepdf.com

http://slidepdf.com/reader/full/equipo-7-estadistica 1/3

 

3.3 PRUEBA DE BONDAD DE AJUSTE NORMAL DE ANDERSON DARLING 

La prueba Anderson-Darling es, en general, más potente que la pruebas X2

de Pearson y la de

Kolmogorov-Smirnov (Stephens,1974, Cap. 4). Resulta lógico pensar que la X2

de Pearson es menos

potente que la de Kolmogorov-Smirnov y la de Anderson- Darling debido a que trabaja con datos

agrupados debido al agrupamiento. Hay pérdida de información. Por otro lado, la prueba Kolmogorov-Smirnov es menos sensible a desajustes que pudieran haber en las colas de la distribución, que la prueba

Anderson- Darling (Easterling 1976; Stephens 1974, Cap 4). En particular, la prueba Anderson- Darling

funciona mejor que cualquiera otra, cuando haya casos extraordinarios o aberrantes (outliers). 

La estadística Anderson-Darling está dada por la siguiente expresión: 

 A2

=-n- (1/n) Σ [(2i - 1) Ln(P ( i )) + (2n +1 - 2i)Ln{1 - p ( i ) }]  

Donde P(i) es el área bajo la curva normal para el intervalo  (-oo,z(i)), o sea es la función distribución

normal estándar evaluada en el i-ésimo elemento (en orden ascendente) de la muestra. 

Se presentan dos situaciones para la estadística Anderson-Darling: la primera en que se conocen los

parámetros de la distribución llamado caso 0 (cero), y la otra en que se desconoce al menos uno de ellos

(casos 1, 2 y 3). 

Situándonos en el caso de bondad de ajuste a la distribución normal se consideran los siguientes

casos: 

Caso 0: µ y s2

conocidos. 

Caso 1: s2

conocida y µ desconocida y estimada por X . 

Caso 2: µ conocida y s2

desconocida y estimada por s(n) = Σ (x i - µ)2 /n 

Caso 3: ambos desconocidos, estimados por X y sn-1 = Σ (x i- x)2 /n-1 

Para cada uno de los casos existe una tabla estadística para realizar la prueba de la hipótesis, Ho:

"La muestra aleatoria proviene de una distribución normal". La estadística de Anderson-Darling secalcula para los cuatro casos de la misma manera; sin embargo, en el caso 3 se debe multiplicar por un

factor de corrección el cual es: 1 + (0.75/n) + (2.25/n2), que mejora la aproximación. 

La prueba Anderson-Darling para la bondad de ajuste normal, en el caso 0, se realiza siguiendo los

siguientes pasos:

Presentamos en seguida el uso de la estadística Anderson-Darling aplicada a un conjunto de datos

para el caso 0.

Page 2: Equipo 7 Estadistica

5/11/2018 Equipo 7 Estadistica - slidepdf.com

http://slidepdf.com/reader/full/equipo-7-estadistica 2/3

 

 Ejemplo 3.7: Supongamos que tenemos 40 pesos en libras de estudiantes varones, cuya media y

desviación estándar poblacionales son, respectivamente 147 y 13. ¿Provienen estos datos d una

distribución normal? 

154  135  126  138  132  135  125  135 136  128  138  147  140  152  142  144 

144  145  145  176  156  157  158  161 163  164  165  168  173  146  146  140 147  148  149  150  150  142  119  153 Solución: Ho: Los datos se ajustan a un modelo normal. 

Ha: Los datos no se ajustan a un modelo normal.

Cálculos: a) Primero, se ordenan los valores de la muestra en forma ascendente: 

119  125  126  128  132  135  135  135 136  138  138  140  140  142  142  144 144  145  145  146  146  147  147  148 149  150  150  152  153  154  156  157 158  161  163  164  165  168  173  176 

b) Se estandariza cada valor de X , y se calcula su probabilidad acumulada p ( i ) de la siguiente

manera:

Page 3: Equipo 7 Estadistica

5/11/2018 Equipo 7 Estadistica - slidepdf.com

http://slidepdf.com/reader/full/equipo-7-estadistica 3/3

 

d) Por último, se compara con el valor de la Tabla T-7 de la distribución de A2. Se recomienda que la

muestra conste de cinco o más elementos (n > 5) para una mejor confiabilidad de la bondad de

ajuste. 

En nuestro ejemplo 0.1889 está entre 0.175 y 0.200, por lo tanto, la probabilidad de que ocurra un

valor como 0.1889 está entre (1-0.0042) = 0.9958 y (1-0.0096) = 0.9904, por lo tanto, no se puede

rechazar la hipótesis nula H0: "La muestra aleatoria proviene de una distribución normal". 

De lo que se trata en las pruebas de bondad de ajuste, es de no rechazar Ho, contrariamente a lo

que se pretende en las pruebas de hipótesis ordinarias: pruebas de igualdad de medias o de varianzas.

Con una probabilidad tan alta (confianza tan pobre) como la que se nos presenta en el ejemplo, no

podremos rechazar Ho. Como conclusión del ejemplo diremos que al parecer nuestros 40 datos sí 

provienen de una población normal. 

Ahora supongamos, para efectos de comparación, que se hubiera desconocido alguno o algunos de

los parámetros. El propósito de esto es situarnos en los casos 1, 2 y 3 y ver que tan distintos habrían

sido los resultados. 

El siguiente cuadro ilustra tal comparación:

Aunque por los valores de A2

obtenidos no llegamos en este ejemplo a conclusiones opuestas, si

debemos advertir en primer lugar la variación del valor de A2', que en algún momento pudiera llegar a

ser significativo. No es necesario precisar el valor-P* para darse cuenta de la discrepancia entre losvalores de A

2; con observar simplemente el valor de A' requerido para un valor-P * de 0.025, estamos

ya advirtiendo que nuestra decisión puede cambiar: 

Valor-P *, es el valor a partir del cual cambia la decisión entre no rechazar y rechazar la

hipótesis nula. 

 El valor de ta estadística A2 con parámetros estimados puede ser muy diferente del valor de A2 del

caso cero, ya que ésta puede depender del tamaño de la muestra, así como de los parámetros

estimados y del método de cómo se les estima.. Lo que si puede observarse es que los valores de

tablas sí cambian dramáticamente según sea el caso (0................3).