analisis discriminante

39
ANÁLSIS MULTIVARIADO ANÁLISIS DISCRIMINANTE Introducción El problema de discriminación que abordaremos, puede plantearse de varias formas y aparece en muchas áreas de la actividad humana: desde la diagnosis médica a los sistemas de concesión de créditos o de reconocimiento de falsas obras de arte. El planteamiento estadístico del problema es el siguiente. Se dispone de un conjunto amplio de elementos que pueden venir de dos o más poblaciones distintas. En cada elemento se ha observado una variable aleatoria p-dimensional X, cuya distribución se conoce en las poblaciones consideradas. Se desea clasificar un nuevo elemento, con valores de las variables conocidas, en una de las poblaciones. Por ejemplo, la primera aplicación del análisis discriminante consistió en clasificar los restos de un cráneo descubierto en una excavación como humano, utilizando la distribución de medidas físicas para los cráneos humanos y los de antropoides. El problema de discriminación aparece en muchas situaciones en que necesitamos clasificar elementos con información incompleta. Por ejemplo, los sistemas automáticos de concesión de créditos (credit scoring) implantados en muchas instituciones financieras tienen que utilizar variables medibles hoy (ingresos, antigüedad en el trabajo, patrimonio, etc.) para prever el comportamiento futuro. En otros casos la información podría estar disponible, pero puede requerir destruir el elemento, como en el control de calidad de la resistencia a la tensión de unos componentes. Finalmente, en otros casos la información puede ser muy costosa de adquirir. En ingeniería este problema se ha estudiado con el nombre de reconocimiento de patrones (pattern recognition), para diseñar máquinas capaces de clasificar de manera automática. Por ejemplo, reconocer voces y sonidos, clasificar billetes o monedas, reconocer caracteres escritos en una pantalla de ordenador o clasificar cartas según el distrito postal. Otros ejemplos de aplicaciones del análisis discriminante son: asignar un texto escrito de procedencia desconocida a uno de varios autores por las frecuencias de utilización de palabras, Página 1

Upload: odrareg-xiul

Post on 27-Nov-2015

118 views

Category:

Documents


3 download

TRANSCRIPT

Page 1: ANALISIS DISCRIMINANTE

ANÁLSIS MULTIVARIADO

ANÁLISIS DISCRIMINANTE

Introducción

El problema de discriminación que abordaremos, puede plantearse de varias formas y aparece en muchas áreas de la actividad humana: desde la diagnosis médica a los sistemas de concesión de créditos o de reconocimiento de falsas obras de arte. El planteamiento estadístico del problema es el siguiente. Se dispone de un conjunto amplio de elementos que pueden venir de dos o más poblaciones distintas. En cada elemento se ha observado una variable aleatoria p-dimensional X, cuya distribución se conoce en las poblaciones consideradas. Se desea clasificar un nuevo elemento, con valores de las variables conocidas, en una de las poblaciones. Por ejemplo, la primera aplicación del análisis discriminante consistió en clasificar los restos de un cráneo descubierto en una excavación como humano, utilizando la distribución de medidas físicas para los cráneos humanos y los de antropoides.

El problema de discriminación aparece en muchas situaciones en que necesitamos clasificar elementos con información incompleta. Por ejemplo, los sistemas automáticos de concesión de créditos (credit scoring) implantados en muchas instituciones financieras tienen que utilizar variables medibles hoy (ingresos, antigüedad en el trabajo, patrimonio, etc.) para prever el comportamiento futuro. En otros casos la información podría estar disponible, pero puede requerir destruir el elemento, como en el control de calidad de la resistencia a la tensión de unos componentes. Finalmente, en otros casos la información puede ser muy costosa de adquirir. En ingeniería este problema se ha estudiado con el nombre de reconocimiento de patrones (pattern recognition), para diseñar máquinas capaces de clasificar de manera automática. Por ejemplo, reconocer voces y sonidos, clasificar billetes o monedas, reconocer caracteres escritos en una pantalla de ordenador o clasificar cartas según el distrito postal.

Otros ejemplos de aplicaciones del análisis discriminante son: asignar un texto escrito de procedencia desconocida a uno de varios autores por las frecuencias de utilización de palabras, asignar una partitura musical o un cuadro a un artista, una declaración de impuestos como potencialmente defraudadora o no, una empresa como en riesgo de quiebra o no, las enseñanzas de un centro como teóricas y aplicadas, un paciente como enfermo de cáncer o no, un nuevo método de fabricación como eficaz o no.

Las técnicas que vamos a estudiar reciben también el nombre de clasificación supervisada, para indicar que conocemos una muestra de elementos bien clasificados que sirve de pauta o modelo para la clasificación de las siguientes observaciones. Existen varios enfoques posibles para este problema. El primero, que se presenta en este capítulo, es el análisis discriminante clásico debido a Fisher, basado en la normalidad multivariante de las variables consideradas y que es óptimo bajo dicho supuesto. Si todas las variables son continuas, es frecuente que aunque los datos originales no sean normales es posible transformar las variables para que lo sean, y los métodos de este capítulo pueden aplicarse a las variables transformadas. Sin embargo, cuando tengamos variables discretas y continuas para clasificar, la hipótesis de normalidad multivariante es poco realista.

Página 1

Page 2: ANALISIS DISCRIMINANTE

ANÁLSIS MULTIVARIADO

El análisis discriminante es aplicable a muy diversas áreas de conocimiento:

En la Medicina En el campo de los recursos humanos

• En la meteorología En la Banca

Página 2

Page 3: ANALISIS DISCRIMINANTE

ANÁLSIS MULTIVARIADO

En la Investigación de Mercados

ANTECEDENTES

KARL PEARSON (1857-1936)

Tiene su origen en un trabajo de PEARSON, usando datos antropométricos. El propuso un coeficiente "C", que "mediría la distancia" entre 2 poblaciones, para el año de 1921.

Estadístico británico. Inventor del contraste ji-cuadrado. Obtuvo el estimador del coeficiente de correlación en muestras y se enfrentó al problema de determinar si dos grupos de personas,

Página 3

Page 4: ANALISIS DISCRIMINANTE

ANÁLSIS MULTIVARIADO

de los que se conocen sus medidas físicas, pertenecen a la misma raza (si dos muestras multivariantes provienen de la misma población).

Su trabajo de 1921, donde encuentra el plano de mejor ajuste a un conjunto de observaciones astronómicas, da lugar a las componentes principales. Ambos problemas son también resueltos desde otro enfoque (más o menos simultáneamente) por Harold Hotelling.

P.C. Mahalanobis (1893-1972)

En 1936, FISHER publicó su primer trabajo sobre Funciones Discriminantes. El enfoque de FISHER no es aquel de medir "distancias" entre poblaciones, sino esencialmente clasificar un valor de una muestra en alguna de 2 poblaciones teóricas.

Ronald A. Fisher(1890 – 1962)

Estadístico británico, inventor del análisis discriminante, el método de máxima verosimilitud y del diseño estadístico de experimentos. Considerado el padre de la Estadística en el siglo XX.

Da la primera solución al problema de la clasificación, inventando un método general, basado en el análisis de la varianza. El problema era clasificar un cráneo encontrado en

En 1925, MAHALANOBIS, propone el coeficiente D2 que es "una medida de distancia generalizada" entre 2 poblaciones, usándolo para discutir la composición de mezclas raciales.

Estadístico hindú. Considerado el padre de la Estadística en la India. Se interesó por la estadística como instrumento para resolver los problemas económicos y culturales en la India. Inventor de la distancia de Mahalanobis, que utilizó para investigar las diferentes razas en la India.

Página 4

Page 5: ANALISIS DISCRIMINANTE

ANÁLSIS MULTIVARIADO

una excavación arqueológica como perteneciente a un homínido o no. La idea de Fisher es encontrar una variable indicadora, combinación lineal de las variables originales de las medidas del cráneo, que consiga máxima separación entre las dos poblaciones en consideración (MANOVA), fue este problema de antropología (el famoso problema de los cráneos de las momias egipcias) que llevan a Fisher a desarrollar el análisis discriminante.

En 1937 visita la India invitado por Mahalanobis, donde descubre la relación entre la distancia de Mahalanobis y sus resultados en análisis discriminante. Consigue unificar estas ideas y relacionarlas con los trabajos de Hotelling sobre el contraste de medias de poblaciones multivariantes.

Un estudiante de Mahalanobis, C. R. Rao, va a extender el análisis discriminante de Fisher para clasificar un elemento a más de dos poblaciones. Desarrolló técnicas consideradas claves para en la experimentación comparativa: El diseño experimental en bloques, que permite el control local del efecto introducido por factores no deseados, sobre las variables observadas.

La aleatorización, que constituye una protección contra la introducción de factores impredecibles, en el experimento. El diseño factorial, para el estudio del efecto de varios factores, simultáneos. Análisis de varianza, técnica de análisis de los resultados de la experimentación que permite separar las fuentes de variación, y poder determinar el grado de influencia de cada factor. Estás técnicas fueron aplicadas en áreas agrícolas. Desarrolló una teoría de estimación basada en resumir los datos de un modo eficiente, que preserve la mayor cantidad de información contenida en ellos. Fisher observó que la Función de Verosimilitud, la probabilidad de obtener la muestra dada, es un resumen de la información contenida en los datos. El método de maximizar la verosimilitud, provee entonces, el estimador más eficiente, que no puede ser mejorado, según su teoría.

ANÁLISIS DISCRIMINANTE

1. DEFINICIÓN El análisis discriminante es una técnica estadística capaz de decirnos qué

variables permiten diferenciar a los grupos y cuántas de estas variables son necesarias para alcanzar la mejor clasificación posible.

Ayuda a identificar las características que diferencian (discriminan) a dos o más grupos y a crear una función capaz de distinguir con la mayor precisión posible a los miembros de uno u otro grupo.

Análisis discriminante de dos grupos: Técnica del análisis discriminante en la que variable de criterio tiene dos categorías, en este caso solo es posible calcular una función discriminante.

Análisis discriminante múltiple: Técnica del análisis discriminante en la que la variable de criterio comprende tres o más categorías, en este caso se pueden calcular más de una función discriminante.

2. SIMILITUDES Y DIFERENCIAS ENTRE EL ANOVA, LA REGRESIÓN Y EL ANÁLISIS DISCRIMINANTE:

Página 5

Page 6: ANALISIS DISCRIMINANTE

ANÁLSIS MULTIVARIADO

ANOVA Regresión Análisis Discriminante

SIMILITUDES

Numero de Variables dependientes Una Una Una

Numero de variables independientes Múltiples Múltiples Múltiples

DIFERENCIAS

Naturaleza de la variable dependiente Métrica Métrica Categórica

Naturaleza de la variable independiente Categórica Métrica Métrica

El modelo en que se basa el análisis el análisis discriminante es:

Donde:

D = calificación discriminante.

b = valores relativos o coeficientes discriminantes.

X = variable independiente o de predicción.

3. OBJETIVOS Desarrollo de las funciones discriminantes, o combinaciones lineales de las

variables independientes o de predicción, que discriminan mejor entre las categorías de la variable dependiente o de criterio (grupos).

Estudio para identificar diferencias significativas entre los grupos, en términos de las variables de predicción.

Determinación de las variables de predicción que contribuyen en mayor medida a las diferencias entre los grupos.

Clasificación de los casos para uno de los grupos con base en los valores de las variables de predicción.

Evaluación de la exactitud de la clasificación.

4. RESTRICCIONES O SUPUESTOS• Se tiene una variable categórica y el resto de variables son de intervalo o de razón y

son independientes respecto de ella.

• Es necesario que existan al menos dos grupos, y para cada grupo se necesitan dos o más casos.

Página 6

Page 7: ANALISIS DISCRIMINANTE

i

i

1

ANÁLSIS MULTIVARIADO

• El número de variables discriminantes debe ser menor que el número de objetos menos dos: x1,....., xp, donde: p < (n − 2) y n: es el número de objetos.

• Ninguna variable discriminante puede ser combinación lineal de otras variables discriminantes.

• El número máximo de funciones discriminantes es igual al mínimo entre el número de variables y el número de grupos menos 1 (con q grupos, (q−1) funciones discriminantes).

5. ESTADÍSTICOS RELACIONADOS CON EL ANÁLISIS DISCRIMINANTE• Lambda de Wilks:

Es un estadístico que mide el poder discriminante de un conjunto de variables. Viene dada por la razón de las sumas de cuadrados dentro de los grupos con la suma total de los cuadrados:

• Correlación canónica:

Mide el grado de asociación entre las calificaciones discriminantes y los grupos. Toma valores entre 0 y 1 de forma que, cuanto más cerca de 1 esté su valor,

mayor es la potencia discriminante de la i-esima función discriminante.

Cri =

i = 1,..., s

• Centroide:

Está constituido por los valores medios de las calificaciones discriminantes para un grupo en particular.

Existen tantos centroides como grupos. Hay uno para cada grupo.

• Matriz de clasificación:

Se conoce también como matriz de confusión o predicción, contiene el número de casos que se clasifican en forma correcta y errónea.

Los elementos fuera de la diagonal representan los casos que se clasifican en forma errónea.

La suma de los elementos de la diagonal dividida entre el número total de casos representa la razón de aciertos.

6. COEFICIENTES DE LA FUNCIÓN DISCRIMINANTE NO ESTANDARIZADOS:

Página 7

Page 8: ANALISIS DISCRIMINANTE

Formular el Problema

Estimar los coeficientes de función discriminante

Determinar la significancia de las funciones discriminantes

ANÁLSIS MULTIVARIADO

Son los multiplicadores de las variables, cuando estas se encuentran en las unidades de mediciones originales.

Calificaciones discriminantes:Los coeficientes discriminantes no estandarizados se multiplican por los valores de las

variables.

Valor específico:

Para cada función discriminante, el valor específico es la razón de las sumas de los cuadrados entre y dentro de los grupos.

Valores F y su significancia:Los valores F se calculan a partir del ANOVA unidireccional, con la variable de grupo como variable independiente categórica. Cada indicador, a su vez, sirve como la variable dependiente métrica en el ANOVA.

Medidas y Desviaciones estándar de grupo:Se calculan para cada indicador de cada grupo.

Matriz agrupada de correlaciones dentro de los grupos:Se calculan mediante el promedio de las matrices de covarianza separadas para todos los grupos.

Coeficientes estandarizados de función discriminante:Se utilizan como los multiplicadores cuando las variables se estandarizan en una media de 0 y una varianza de 1.

Correlaciones de estructura:También se les conoce como cargas discriminantes, representan las correlaciones sencillas entre los indicadores y la función discriminante.

 

• Matriz de correlación total:

Si los casos se tratan como si fueran de una sola muestra y se calculan las correlaciones, se obtiene una matriz de correlación total.

PROCEDIMIENTO DEL ANÁLISIS DISCRIMINANTE

Página 8

Page 9: ANALISIS DISCRIMINANTE

ANÁLSIS MULTIVARIADO

Formulación

Formular el problema por medio de la identificación de los objetivos, la variable de criterio y las variables independientes.

La variable de criterio debe consistir en dos o más categorías mutuamente excluyentes y colectivamente exhaustivas.

Cuando la variable dependiente tiene una escala de intervalo o razón, primero debe convertirse en categorías.

Sea un conjunto de n objetos divididos en q grupos donde: Gi; i=1,..., q de tamaños ng; g=1,..., q que constituyen una partición de la población de la que dichos objetos proceden.

Sea X = (X1,..., Xp)' un conjunto de variables numéricas observadas sobre dichos objetos con el fin de utilizar dicha información para discriminar entre los q grupos anteriores.

Mientras no se diga lo contrario, supondremos que las variables anteriores son cuantitativas.

Los objetivos del Análisis Discriminante pueden sintetizarse en dos:

Analizar si existen diferencias entre los grupos en cuanto a su comportamiento con respecto a las variables consideradas y averiguar en qué sentido se dan dichas diferencias.

Página 9

Page 10: ANALISIS DISCRIMINANTE

ANÁLSIS MULTIVARIADO

Elaborar procedimientos de clasificación sistemática de individuos de origen desconocido, en uno de los grupos analizados.

Ramas dentro del Análisis Discriminante

El Análisis Discriminante Descriptivo El Análisis Discriminante Predictivo.

Estimación

Calculamos las funciones discriminantes: El número de funciones discriminantes está dado por: Min {q-1, p} y

estimamos sus parámetros.

7. PROCEDIMIENTO DISCRIMINANTE DE FISHER

• Enfoque de Fisher para 2 poblaciones:

Sea la combinación lineal:

Donde:

EJEMPLO:

Considere los siguientes datos para la posibilidad de la detección de portadores de hemofilia A

Página 10

Page 11: ANALISIS DISCRIMINANTE

ANÁLSIS MULTIVARIADO

• Enfoque de Fisher para tres o más poblaciones

• En el análisis discriminante de Fisher es una necesidad obtener una representación de las poblaciones que implica solamente algunas combinaciones lineales de las observaciones tal como:

• El propósito principal del análisis discriminante de Fisher es separar las poblaciones, sin embargo eso puede ser usado para la clasificación.

• Sin embargo nosotros asumimos que matriz de covarianzas p x p son iguales y de rango completo.

• Sea el vector de medias de las poblaciones combinadas y la suma entre grupos del producto cruzado, de este modo:

• Sea W, la matriz de la suma de cuadrados de las medias agrupadas dentro de los grupos, de este modo:

Página 11

Page 12: ANALISIS DISCRIMINANTE

ANÁLSIS MULTIVARIADO

• Si denota auto valores diferentes de cero de y los correspondientes auto vectores (de este modo que ). Entonces el vector de coeficientes que maximize la razón:

• Es determinado por . La combinación lineal es llamada la primera discriminante.

• El valor maximiza la razón sujeto hacia la . La combinación lineal es llamada la segunda discriminante. Continuando maximiza la razón sujeto hacía y es llamada el k discriminante. Además donde i = 1,….., s.

Ejemplo:

Considere las observaciones en p = 2 variables de q = 3 poblaciones. Asumiendo que las poblaciones tiene una matriz de covarianza común.

Página 12

W−1 Β0s≤min (g−1 , p )λ1≥ λ2≥.. .≥ λs≥0

e '∑ e=1e1 , e2 ,. . ., es

ℓ1=e1 .

Cov (ℓk' X ,ℓi

' X )=0ℓ2=e2

Var (ℓ i' X )=1

ℓk' Xi≤kCov (ℓ1

' X ,ℓ2' X )=0

ℓk=ekℓ2' X

S3=[1 11 4 ]S2=[ 1 −1

−1 4 ]S1=[ 1 −1−1 4 ]

π3 (n3=3)π2( n2=3 )π1(n1=3 )

X3=[ 1 0 −1−2 0 −4 ]X 2=[0 2 1

6 4 2 ]X1=[−2 0 −15 3 1 ]

X3=[ 0−2]X 2=[14 ]X1=[−1

3 ]

Page 13: ANALISIS DISCRIMINANTE

ANÁLSIS MULTIVARIADO

• De este modo:

• Solución para la auto valores diferentes de cero de ,la solución resulta:

• Usando la formula cuadrática, hallamos y Normalizando los auto vectores y resolviendo obtenemos:

Y escalando los resultados tal que:

Y luego la normalización,

Igualmente;

Entonces las dos discriminantes son:

Página 13

X=[ 05/3]

Β0=∑i=1

g

( X i− X )( X i−X )'=[2 11 62 /3 ]

W =∑i=1

g

∑j=1

ni

( X ij−X i )( X ij− X i )'=(n1+n2+n3−3 )Spooled=[ 6 −2−2 24 ]

W−1= 1140 [24 2

2 6 ]W−1 Β0s≤min (g−1 , p )=min(2,2)=2

|W−1 Β0− λΙ|=|[0.3571− λ 0 . 46670 . 0714 0 . 9000− λ ]|=0

W−1 Β0=[0 .3571 0 . 46670. 0714 0 . 9000 ]

(0 .3571−λ )(0 . 9000−λ )−(0 . 4667 )(0.0714 )= λ2−1. 2571 λ+0 . 2881=0

λ2=0. 3015λ1=0 . 9556ℓ2ℓ1

(W−1 Β0− λ i Ι ) ℓi=0 (W−1 Β0− λ i Ι ) ℓi=0

(W−1 Β0− λ i Ι ) ℓi=[0 .3571−0 .9556 0. 46670 .0714 0 .9000−0 .9556 ] [ ℓ11

ℓ12]=[00 ]

ℓ1' S pooled ℓ1=1 ℓ1

' = [ 0. 385 0 . 495 ]

ℓ2' =[ 0. 938 −0 .112 ]

y1=ℓ1' X= [0 .385 0 .495 ] [ X1

X2]=0.385 X1+0 .495 X2

y2=ℓ2' X= [0 .938 −0.112 ] [ X1

X2]=0 .938 X1−0.112 X2

Page 14: ANALISIS DISCRIMINANTE

BW W

)p,1qmin

1ii1

1

p,1qmin

1kjj1log

2

qp1n

ANÁLSIS MULTIVARIADO

• Determinación del grado de significancia:

La lambda de wilks:

A= =

Sus valores fluctúan entre 0 y 1 de forma que, cuanto más cerca de 0 esté, mayor es el poder discriminante de las variables consideradas y cuanto más cerca de 1, menor es dicho poder.

Correlación Canónica:

Mide el grado de asociación entre las calificaciones discriminantes y los grupos.

Toma valores entre 0 y 1 de forma que, cuanto más cerca de 1 esté su valor, mayor es la potencia discriminante de la i-esima función discriminante.

Determinación del número de funciones discriminantes

El número de funciones discriminantes significativas se determina mediante un contraste de hipótesis secuencial.

Ho: lk+1 = … = lmin{G-1,p} = 0

Y el estadístico de contraste viene dado por:

T =

El cual se distribuye como una c2(p- k)(q-k-1) si Ho es verdad.

Página 14

Page 15: ANALISIS DISCRIMINANTE

ANÁLSIS MULTIVARIADO

PROCEDIMIENTOS DE SELECCIÓN DE VARIABLES:

Cuando se están considerando varias variables para fines de discriminación, el lector podría hacer preguntas como:

1. ¿En realidad son necesarias todas las variables para realizar una discriminación eficaz?

2. ¿Cuáles variables son las mejores para discriminar?

Se han propuesto procedimientos de selección de las variables que pueden dar lugar a cierta guía a los investigadores que estén deseando seleccionar un subconjunto de las variables de las medidas para usarlas con fines de discriminación. La mayoría de los procedimientos existentes de selección de variables son un tanto semejantes a los procedimientos correspondientes que se usaron para los problemas de regresión múltiple.

Un procedimiento de selección hacia adelante. Un procedimiento de eliminación hacia atrás. Un procedimiento de selección por pasos (combinación de las dos anteriores).

INTERPRETACIÓN DE LOS RESULTADOS

Significado de las dimensiones de discriminación entre los grupos proporcionadas por las funciones discriminantes mediante el análisis de la matriz de estructura y de la de los coeficientes estandarizados de las funciones discriminantes.

Análisis del sentido de la discriminación entre dichos grupos, es decir, averiguar qué grupos separa cada función discriminante y en qué sentido. Este análisis se lleva a cabo mediante representaciones gráficas del espacio de discriminación así como de perfiles multivariantes correspondientes a cada grupo.

Página 15

Page 16: ANALISIS DISCRIMINANTE

ANÁLSIS MULTIVARIADO

Aplicación mediante SPSS

Primero debemos definir nuestras variables y grupos, luego introduciremos los valores a SPSS

Figura 1: Introducción de los datos

Ejercicio N°1: Se consideran los datos recogidos sobre 32 cráneos en el Tíbet.

Los datos corresponden a dos tipos raciales diferentes en los que se practicaron diferentes medidas antropométricas de longitudes, anchuras de cráneo y de cara. Se trata de hacer un análisis discriminante sobre los dos tipos raciales.

El menú adecuado para realizar este análisis será:

Analizar Clasificar Discriminante

Página 16

Page 17: ANALISIS DISCRIMINANTE

ANÁLSIS MULTIVARIADO

Figura 2: Ventana del análisis

Para realizar el análisis tendremos que introducir en variable de agrupación la variable discriminante. Esta variable solo podrá tomar valores enteros, de tal manera que indicaremos el máximo y el mínimo de los valores. En variables independientes introducimos las variables con las que formular el modelo. Es interesante señalar que si elegimos usar método de inclusión por pasos activamos otro botón. Finalmente con variable de selección podremos utilizara algún procedimiento de selección de individuos.Botón Clasificar Probabilidades previas: Estos valores se utilizan para la clasificación. Se puede elegir entre:1. Todos los grupos iguales: las probabilidades previas serán iguales para todos los grupos.2. Calcular según tamaños de grupos: los tamaños de grupo observados en la muestra determinan las probabilidades de la pertenencia al grupo.

Visualización: 1. Resultados para cada caso: muestran para cada caso los códigos del grupo real de pertenencia, el grupo pronosticado, las probabilidades posteriores y las puntuaciones discriminantes. 2. Tabla de resumen: número de casos correctos e incorrectamente asignados a cada uno de los grupos basándose en el análisis discriminante. Suele recibir el nombre de tabla de clasificación 3. Clasificación dejando uno fuera: se clasifica cada caso del análisis mediante la función derivada a partir de todos los casos, excepto el propio caso.

Reemplazar los valores perdidos con la media.  Usar matriz de covarianzas. Se puede Clasificar usando alguna de estas matrices de covarianzas:

1. Intra grupos: se utiliza la matriz de covarianza intra-grupos combinada para Clasificar los casos. 

Página 17

Page 18: ANALISIS DISCRIMINANTE

ANÁLSIS MULTIVARIADO

2. Grupos separados: para la clasificación se utilizan las matrices de covarianza de los grupos separados.

Gráficos.  1. Grupos combinados: crea un diagrama de dispersión de los valores en las dos primeras funciones discriminantes. Si sólo hay una función obtendremos un histograma. 2. Grupos separados: crea diagramas de dispersión de los grupos por separado, para los valores en las dos primeras funciones discriminantes. Un histograma en caso de una función.

3. Mapa territorial: Gráfico de las fronteras utilizadas para Clasificar los casos en grupos a partir de los valores en las funciones. Los números corresponden a los grupos en los que se clasifican los casos. La media de cada grupo se indica mediante un asterisco situado dentro de sus fronteras. No se mostrará el mapa si sólo hay una función discriminante.

Figura 3: Botón de clasificar

Botón Estadísticos  Descriptivos: 1. Medias: muestra la media y desviación típica totales y las medias y desviaciones típicas de cada grupo para las variables independientes. 2. Anovas univariados: realiza un análisis de varianza de un factor sobre la igualdad de las medias de grupo para cada variable independiente. Con este análisis se puede comprobar si las varianzas para cada grupo de cada variable son iguales. 3. M de Box: contraste sobre la igualdad de las matrices de covarianza de los grupos.Coeficientes de la función :  1. De Fisher: muestra los Coeficientes de la función de clasificación de Fisher que pueden utilizarse directamente para la clasificación. Se obtiene un conjunto de Coeficientes para cada grupo, y se asigna un caso al grupo para el que tiene una mayor puntuación discriminante. 2. No tipificados.

Página 18

Page 19: ANALISIS DISCRIMINANTE

ANÁLSIS MULTIVARIADO

 Matrices:  

Correlación intra-grupos. Covarianza intra-grupos.   Covarianza de grupos separados. Covarianza total.

Figura 4: Botón estadísticos

2.1.- Verificación de los supuestos.Una de los supuestos necesarios para el método es la igualdad de las matrices de covarianza de grupo. Por ejemplo, las varianzas de longitud deben ser iguales en los dos grupos razas ( o en todos los grupos en un problema multivariado), y la varianzas poblacional entre longitud y altura deben ser iguales para los grupos. En el caso de que las observaciones en un grupo sigan una distribución normal multivariadas, los grupos formarían elipsoides de concentración de puntos, los cuales estarían construidos usando la misma media, la desviación estándar y la matriz de covarianza de cada grupo.

El SPSS provee el estadístico multivariado M de Box para probar la hipótesis nula que las matrices de covarianzas son iguales.Los valores de esta tabla Logaritmo de los determinantes dan una indicación de las matrices de covarianzas que más difieren. En esta tabla se observan una dispersión de los puntos del grupo 2 relativamente menor al otro grupo.

Página 19

Page 20: ANALISIS DISCRIMINANTE

ANÁLSIS MULTIVARIADO

Logaritmo de los determinantes

Tipo

Rango

Logaritmo del determinante

1,00 5 16,1642,00 5 15,773Intra-grupos combinada

5 16,727

Los rangos y logaritmos naturales de los determinantes impresos son los de las matrices de covarianzas de los grupos.

Los resultados de la prueba se muestran en la tabla a continuación. La hipótesis nula de igual en las matrices de covariancias poblacionales no se rechaza. Note, sin embargo, puede existir situaciones con matrices de covarianzas poblacionales no son demasiado diferentes, en donde la prueba puede ser significativa. Esto puede ocurrir cuando los tamaños muestrales intra-grupos son grandes o cuando es violada el supuesto de normalidad multivariada.

Resultados de la prueba

M de Box 22,371F Aprox. 1,218

gl1 15

gl2 3489,901

Sig. ,249

Contrasta la hipótesis nula de que las matrices de covarianzas poblacionales son iguales.

Además, es importante comparar las desviaciones estándar de cada variable dentro de los grupos. En la tabla Estadístico del grupo es posible analizar estas diferencias de las variables. Se observa que anchura de la cara presenta la mayor diferencia de las varianzas en el grupo 1 y longitud en el grupo 2. Las otras variables no evidencia diferencias en las varianzas.

Estadísticos de grupo

Tipo

Media Desv. típ.

N válido (según lista)

No ponderados Ponderados

1,00 Longitud 174.8235 6.74755 17 17,000

Anchura 139.3529 7.60297 17 17,000

Altura 132.0000 6.00781 17 17,000

Página 20

Page 21: ANALISIS DISCRIMINANTE

ANÁLSIS MULTIVARIADO

Altura.Cara 69.8235 4.57555 17 17,000

Anchura.Cara

130.3529 8.13704 17 17,000

2,00 Longitud 185.7333 8.62692 15 15,000

Anchura 138.7333 6.11166 15 15,000

Altura 134.7667 6.02633 15 15,000

Altura.Cara 76.4667 3.91183 15 15,000

Anchura.Cara

137.5000 4.23843 15 15,000

Total Longitud 179.9375 9.36513 32 32,000

Anchura 139.0625 6.84123 32 32,000

Altura 133.2969 6.08258 32 32,000

Altura.Cara 72.9375 5.39078 32 32,000

Anchura.Cara

133.7031 7.44427 32 32,000

La siguiente matiz de covarianza permite comparar las varianzas de las variables en los grupos.

Matrices de covarianzas

TipoLongitud Anchura Altura

Altura.Cara

Anchura.Cara

1,00 Longitud 45,529 25,222 12,391 22,154 27,972

Anchura 25,222 57,805 11,875 7,519 48,055

Altura 12,391 11,875 36,094 -,313 1,406

Altura.Cara 22,154 7,519 -,313 20,936 16,769

Anchura.Cara

27,972 48,055 1,406 16,769 66,211

2,00 Longitud 74,424 -9,523 22,737 17,794 11,125

Anchura -9,523 37,352 -11,263 ,705 9,464

Altura 22,737 -11,263 36,317 10,724 7,196

Altura.Cara 17,794 ,705 10,724 15,302 8,661

Anchura.Cara

11,125 9,464 7,196 8,661 17,964

El estadístico Lambda de Wilks (Pruebas de la igualdad de las medias de los grupos) es usado para probar la hipótesis nula que la media de todas las variables a través de los grupos son iguales. Los valores del estadístico lambda de Wilks son de 0 a 1. Los valores más pequeños indican una fuerte diferencias entre los grupos. Según la tabla, los valores del estadístico F indica que las diferencias son altamente significativas de las medias de las variables entre los dos grupos, excepto para la variables Anchura y Altura.

Página 21

Page 22: ANALISIS DISCRIMINANTE

ANÁLSIS MULTIVARIADO

Pruebas de igualdad de las medias de los grupos

Lambda de Wilks F gl1 gl2 Sig.

Longitud ,651 16,072 1 30 ,000Anchura ,998 ,063 1 30 ,803Altura ,947 1,685 1 30 ,204Altura.Cara ,610 19,210 1 30 ,000Anchura.Cara

,763 9,315 1 30 ,005

Modelo discriminante.

El propósito principal de una análisis discriminante esta relacionado al tema de la clasificación predictiva de casos. Una vez que el modelo ha sido terminado y las funciones discriminantes derivadas, debemos preguntarnos que tan bien podemos predecir la pertenencia de un caso a ungrupo particular.

Funciones de clasificación Estas funciones son usadas para determinar la pertenencia de un caso a grupo. Se obtienen tantas funciones de clasificación como grupos existan. Las columnas de la tabla coeficientes de la función de clasificación contiene los coeficientes de la función para cada grupo. Los coeficientes son calculados para maximizar las distancia entre los dos grupos.

Coeficientes de la función de clasificación

Tipo

1,00 2,00

Longitud 1,468 1,558Anchura 2,361 2,205Altura 2,752 2,747Altura.Cara ,775 ,952Anchura.Cara ,195 ,372(Constante) -514,956 -545,419

Funciones discriminantes lineales de Fisher

La función de clasificación para los 32 cráneos en el Tíbet para el grupo 1 es:

Z1 = 1.468 longitud + 2.361 Anchura + 2.752 Altura + 0.775 Altura.Cara + 0.195 Anchura.Cara – 514.956

Página 22

Page 23: ANALISIS DISCRIMINANTE

ANÁLSIS MULTIVARIADO

La función de clasificación para los 32 cráneos en el Tíbet para el grupo 2 es:

Z2 = 1.558 longitud + 2.205 Anchura + 2.747 Altura + 0.952 Altura.Cara + 0.372 Anchura.Cara – 545.419

Cada función permite calcular los puntajes de clasificación para cada caso. Una vez realizado esto, es fácil decidir como clasificar el caso: en general, un casos se dice pertenecer a un grupo cuando su puntaje clasificación a aquel grupo es mayor que a otros grupos.

Función discriminante lineal de Fisher. Cuando hay dos grupos pueden utilizarse las funciones clasificación para obtener la función discriminante lineal. En un diagrama de dispersión esta función representa a una lineal que divide a los dos grupos. Los coeficientes de la función discriminante lineal son calculados mediante la diferencia entre los coeficientes de las funciones de clasificación 1 y 2.

FD = (1.468-1.558) longitud + (2.361-2.205) Anchura + (2.752-2.747)Altura+ (0.775-0.952) Altura Cara + (0.195-0.372) AnchuraCara + (-514.956+545.419)

FD = -0.09 longitud +0.156Anchura +0.005Altura -0.177 Altua Cara – 0.177 Anchura.Cara + 30.463

Resumen de la función canónica discriminante.

Autovalores. Mide la dispersión del centroides de los grupos. En este caso el autovalor es uno que indica que los centroides de los dos grupos están relativamente cerca. El autovalor corresponde al cociente entre la suma de cuadrados intra-grupos y suma de cuadrados inter-grupos.

Correlación canónica Mide la asociación entre los puntajes discriminantes y los del grupo. Cuando hay solamente dos grupos ésta es la correlación de Pearson..

Página 23

Page 24: ANALISIS DISCRIMINANTE

ANÁLSIS MULTIVARIADO

Autovalores

FunciónAutovalor

% de varianza % acumulado

Correlación canónica

dimension0

1 ,930a 100,0 100,0 ,694

a. Se han empleado las 1 primeras funciones discriminantes canónicas en el análisis.

Lambda de Wilks. Este indica la proporción de la varianza total en los puntajes discriminantes que no son explicados por las diferencias entre los grupo. En este caso, casi el 50% de la varianza no es explicada por las diferencias de los grupos. El lambda es docimado con una distribucion X². Con una X² de 18.083 se tiene que la diferencia entre los dos centroides es significativa, considerando las medias de las variables simultáneamente.

Lambda de Wilks

Contraste de las funciones

Lambda de Wilks Chi-cuadrado gl Sig.

dimension0

1 ,518 18,083 5 ,003

Matriz de estructura. Una manera para determinar que variables son las que definen una función discriminante es observar las correlaciones intra-grupo de cada variable predictora con la variable canónica o funcion discriminante (mostradas en la matriz de estructura). Haciando una anlogia al anlisis factorual, esstos correalaciones pueden pensarse como cargas factoriales de las variables en cada funcion discriinante.

Página 24

Page 25: ANALISIS DISCRIMINANTE

ANÁLSIS MULTIVARIADO

Matriz de estructura

Función

1

Altura.Cara ,830Longitud ,759Anchura.Cara

,578

Altura ,246Anchura -,048

Correlaciones intra-grupo combinadas entre las variables discriminantes y las funciones discriminantes canónicas tipificadas Variables ordenadas por el tamaño de la correlación con la función.

Funciones en los centroides de los grupos. Esta tabla indica los valores tomados por las funciones discriminantes canónicas no tipificadas evaluadas en las medias de los grupos.

Funciones en los centroides de los grupos

Tipo Función

1

1,00 -,8772,00 ,994

Funciones discriminantes canónicas no tipificadas evaluadas en las medias de los grupos

Clasificación de los casos.Estadísticos por caso. Esta tabla. permite comparar la información de los miembros de su grupo actual a los miembros pronosticados por el método. La pertenencia de un caso a uno de los dos grupos, se calcula a través de la funciones de clasificación. Además se entrega la probabilidad de pertenencia de un caso a uno de los dos grupos.

Página 25

Page 26: ANALISIS DISCRIMINANTE

ANÁLSIS MULTIVARIADO

Por ejemplo, para el caso 2 (Argentina) el puntaje de pertenencia a las zonas es:

Z1 = 1.468 longitud + 2.361 Anchura + 2.752 Altura + 0.775 Altura.Cara + 0.195 Anchura.Cara – 514.956La función de clasificación para los países en la zona templada son.

Z2 = 1.558 longitud + 2.205 Anchura + 2.747 Altura + 0.952 Altura.Cara + 0.372 Anchura.Cara – 545.419.172.5 132 125.5 63 121

Z1=1.468*172.5+2.361*132+2.752*125.5+0.775*63+0.195*121-514.956 =467.722

Z2=1.558*172.5+2.205*132+2.747*125.5+0.952*63+0.372*121-545.419=464.1325

El puntaje de pertenencia del cráneo 2 es mayor para el grupo 1. Por lotanto, el cráneo 2 es clasificado como perteneciente a la raza 2.

Página 26

Page 27: ANALISIS DISCRIMINANTE

ANÁLSIS MULTIVARIADO

Distancias Mahalanobis (D2) Esta es una medida de distancias entre dos puntos en un espacio definido por dos o más variables (dimensiones) correlacionadas . Por ejemplo, si hay dos variables que no están correlacionadas, entonces las distancias Mahalanobis entre los puntos insertos en un espacio bidimensional seria idéntica a la distancia Euclidiana, esto es, la distancia, por ejemplo, medida por una regla. ahora bien, en los casos de tener dos variables correlacionadas los ejes que definen el espacio ya no serian ortogonales, por lo tanto, la distancia Euclidiana no correspondería a una métrica apropiada, mientras que la distancias Mahalanobis explicaría adecuadamente las similitudes entre los puntos.

Distancias Mahalanobis y la probabilidad de pertenencia de los casos. A cada grupo puede definirse un punto que representa las media del grupo. Estos puntos son llamados centroides del grupo. Entonces, para cada punto asociado a un caso puede calcularse las distancias Mahalanobis con respecto a los centroides de los grupos. Por lo tanto, podemos clasificar los casos pertenecientes a un determinado grupo, de acuerdo con el criterio de la menor de las distancias Mahalanobis. Los casos con grandes valores distancias Mahalanobis de la media del grupo pueden ser identificados como casos atípicos. Para muestras grandes de una distribución normal multivariada, la distancia Mahalanobis de una caso a la media de su grupo es distribuida aproximadamente como una c2 con grados de libertad igual al número de variables en la función.

La probabilidad de pertenencia indica que tanto se identifica un caso a las características de un determinado grupo. Estas probabilidades son derivadas de las distancias Mahalanobis.Por ejemplo, la probabilidad de pertenecer el cráneo 2 al grupo 1 (0.311) es bastante alta comparada a la probabilidad de pertenencia al grupo 2 (0,022). Estas probabilidades son derivadas del calculo de las distancias Mahalanobis entre el caso y el centroide del grupo.

Predicción.Un resultado que cualquiera debería observar para determinar que tan bien las funciones declasificación pronostica que los casos sean miembros de un grupo es la matriz de clasificación.

Resultados de la clasificación. Esta tabla muestra el número (o porcentaje) de casos clasificados correctamente e incorrectamente. Entre los 32 craneos en el Tibet (grupo 1), 14 (82.4%) están clasificados correctamente y 3 (17.6%) están clasificados incorrectamente. Para el grupo 2, 12 (80%) los 32 craneos en el Tibet están clasificados correctamente y 3 (20%) están mal clasificados. En general, el 81.3% de los casos de la muestra están clasificados correctamente.

Página 27

Page 28: ANALISIS DISCRIMINANTE

ANÁLSIS MULTIVARIADO

Resultados de la clasificacióna

Tipo Grupo de pertenencia pronosticado

Total1,00 2,00

Original Recuento 1,00 14 3 17

2,00 3 12 15

% 1,00 82,4 17,6 100,0

2,00 20,0 80,0 100,0

Clasificados correctamente el 81.3% de los casos agrupados originales.

Selección de variables

En los análisis de discriminante se trabaja con muchas variables, evidentemente algunas serán más influyentes que otras a la hora de discriminar a un individuo en un grupo u otro. Lo que intentaremos con esta opción será utilizar solo aquellas variables más influyentes con lo que simplificaremos el modelo.

Para seleccionar las variables tendremos que, en la ventana del análisis seleccionar usar método de selección de variables, al hacer esto el botón de Método se activa, pudiendo seleccionar en esta ventana el método por el cual se elegirán las variables a utilizar. En nuestro caso usaremos el método de la Lambda de Wilks.

Selección de variables

Una vez elegidas las variables con las que trabajar volveríamos a repetir el análisis pero solo para esas variables.

Página 28

Page 29: ANALISIS DISCRIMINANTE

ANÁLSIS MULTIVARIADO

Variables introducidas/excluidasa,b,c,d

Paso

Introducidas

Lambda de Wilks

Estadístico gl1 gl2 gl3

F exacta

Estadístico gl1 gl2 Sig.

1 Altura.Cara ,610 1 1 30,000 19,210 1 30,000 ,000

En cada paso se introduce la variable que minimiza la lambda de Wilks global.

a. El número máximo de pasos es 10.

b. La F parcial mínima para entrar es 3.84.

c. La F parcial máxima para salir es 2.71

d. El nivel de F, la tolerancia o el VIN son insuficientes para continuar los cálculos.

Variables en el análisis

Paso Tolerancia F para salir

1 Altura.Cara 1,000 19,210

Por lo que en el modelo solo entran la variable Altura.Cara, simplificándose de modo importante el modelo. Esto puede ser debido a que las otras variables presenten multicolinealidad o que no aporten información a la discriminación.

Coeficientes de las

funciones canónicas

discriminantes

Función

1

Altura.Cara ,234

(Constante) -17,047

Coeficientes no tipificados

Ecuacion optima :

D= 0.234 Altura.Cara -17.047

EJEMPLOS:

Análisis Discriminante de 2 grupos:

Análisis Discriminante Múltiple:

Página 29