Universidad de Extremadura
Departamento de Informática
TESIS DOCTORAL
Proposición, Validación y Prueba de una Metodología Morfológica para el Análisis de
Datos Hiperespectrales que Integra Información Espacial y Espectral
Doctorando: ANTONIO PLAZA MIGUEL
Cáceres, 2002
A mis padres, Antonio y Mª Josefa,
y a mis hermanos, Javier y Carlos.
Resumen En los últimos años, la evolución en los sensores hiperespectrales ha supuesto un salto
cualitativo en las aplicaciones orientadas a la observación remota de la tierra. Estos
instrumentos se caracterizan por su capacidad para medir la radiación reflejada en una amplia
gama de longitudes de onda, pudiendo registrar información en cientos de canales espectrales.
Las técnicas de desmezclado espectral o spectral unmixing son, en la actualidad, las más
ampliamente aceptadas a la hora de llevar a cabo el análisis y clasificación de imágenes
hiperespectrales. Estas técnicas suelen consistir en dos pasos claramente diferenciados: en
primer lugar, se identifican firmas espectrales asociadas a componentes espectralmente puros en
la imagen, denominados endmembers. A continuación, el resto de componentes de la imagen se
expresan mediante combinaciones de endmembers, evitando así el habitual problema de la
mezcla espectral y permitiendo un análisis sub-pixel de los datos.
A pesar de la fuerte interrelación entre la información espacial y espectral que reside en las
imágenes hiperespectrales, la mayor parte de las técnicas de desmezclado tienden a considerar
únicamente la información espectral, descartando la correlación espacial entre los pixels de la
imagen. En la actualidad, la importancia de analizar de forma simultánea los patrones espaciales
y espectrales de la información hiperespectral ha sido reconocida por gran cantidad de
investigadores como un objetivo deseable, que puede mejorar los resultados obtenidos por las
técnicas existentes de análisis hiperespectral.
En esta memoria, presentamos un nuevo método automático para el análisis y clasificación
de imágenes hiperespectrales que considera la información espacial y espectral de forma
combinada. El método se basa en conceptos de morfología matemática, una técnica clásica de
análisis de imágenes que ha sido extendida al caso de imágenes multi-dimensionales.
La evaluación del método con imágenes hiperespectrales simuladas revela que las
operaciones morfológicas extendidas pueden ser utilizadas para extraer endmembers a partir de
los objetos presentes en la escena. El ajuste de las propiedades espaciales de las operaciones
morfológicas permite adaptar el método a aplicaciones muy diversas, siendo su funcionamiento
muy robusto en presencia de ruido. Por otra parte, los experimentos realizados con imágenes
reales demuestran que el método proporciona resultados superiores a los obtenidos utilizando
algunas técnicas estándar de análisis hiperespectral.
Con objeto de facilitar el análisis de imágenes hiperespectrales de gran dimensionalidad de
forma rápida y precisa, en esta memoria se proponen dos arquitecturas VLSI, basadas en arrays
de sistólicos, para soportar las operaciones morfológicas extendidas realizadas por el método
propuesto.
Abstract Imaging spectroscopy, also known as hyperspectral remote sensing, allows a sensor on a
moving platform to gather reflected radiation from a ground target so that a detector system can
record a great deal (up to hundreds) of spectral channels simultaneously. With such detail, the
ability to detect and identify individual materials or classes is greatly improved.
During the last several years, a great deal of new airborne and spaceborne sensors have been
improved for hyperspectral remote sensing applications. Although the development of effective
devices with new and improved technical capabilities stands out, the evolution in the design of
algorithms for data processing has not been as positive.
Spectral unmixing is widely accepted as one of the most important approaches for the
analysis and classification of hyperspectral datasets. This approach involves two steps: the first
one is to find spectrally-unique signatures of pure ground components, usually referred to as
endmembers, and the second stage is to express individual pixels as combinations of
endmembers.
Despite the inherent spatial-spectral duality that resides in a multi-dimensional data cube,
most available processing techniques tend to focus exclusively on the spectral domain, handling
the data not as an image but as an unordered listing of spectral measurements. The importance
of analyzing spatial and spectral patterns simultaneously has been identified as a desired goal by
many scientists who are devoted to multi-dimensional data analysis.
In this work, we present a novel automated method for the analysis and classification of
hyperspectral data that integrates both spatial and spectral responses in simultaneous manner.
The method is based on mathematical morphology, a classic non-linear spatial processing
technique that provides a remarkable framework to achieve the desired integration.
Results with simulated hyperspectral data reveal that the method can accurately model the
spatial distribution of spectral patterns in the scene by extended morphological operations. The
spatial properties (size and shape) of the kernel allow tuning of the method for different
applications. Also, the method is robust in the presence of noise and non-linear mixture effects.
On other hand, experiments with real hyperspectral data show that the proposed method
produces results which can improve those found using other widely accepted hyperspectral
methodologies.
Two different VLSI implementations, based on systolic arrays, are proposed to support the
morphological operations performed by the proposed approach, allowing fast and accurate
analysis of hyperspectral scenes with large dimensionality.
Índice de Contenidos
Capítulo 1. Motivaciones y objetivos. 1
1.1. Motivaciones. 2
1.2. Objetivos. 3
Capítulo 2. Antecedentes. 7
2.1. Medida de la radiación. 8
2.2. Técnicas espaciales. 13
2.2.1. Convolución espacial y morfología matemática. 14
2.2.2. Umbralización. 26
2.2.3. Crecimiento de regiones. 29
2.3. Técnicas espectrales. 33
2.3.1. Sensores hiperespectrales. 34
2.3.2. Técnicas de análisis hiperespectral. 44
2.3.2.1. Algoritmos de clasificación de pixels. 52
2.3.2.2. Algoritmos de estimación de abundancias. 62
2.4. Técnicas que combinan información espacial y espectral. 93
2.4.1. Procesamiento espectral seguido de procesamiento espacial. 95
2.4.2. Procesamiento espacial seguido de procesamiento espectral. 97
Capítulo 3. Métodos. 99
3.1. Primeros intentos. 100
3.1.1. Técnicas que solamente consideran el dominio espectral. 102
3.1.2. Técnicas que utilizan información espacial y espectral. 108
3.2. Metodología propuesta. 114
3.2.1. Extensión de la morfología a imágenes hiperespectrales. 115
3.2.2. Algoritmo AMEE. 124
3.2.2.1. Aplicación de operadores morfológicos extendidos. 126
3.2.2.2. Identificación automática de pixels puros. 145
3.2.2.3. Crecimiento de regiones adaptativo. 146
3.2.2.4. Eliminación de endmembers redundantes. 148
3.2.2.5. Identificación de endmembers y estimación de abundancias. 150
Capítulo 4. Análisis y discusión de resultados. 153
4.1. Metodología de análisis y discusión de resultados. 154
4.1.1. Metodología de análisis de imágenes sintéticas. 156
4.1.2. Metodología de análisis de imágenes reales. 160
4.2. Análisis de imágenes sintéticas. 162
4.2.1. Proceso de generación de imágenes sintéticas. 156
4.2.1.1. Selección de firmas espectrales. 163
4.2.1.2. Asignación de abundancias. 164
4.2.1.3. Simulación de ruido. 166
4.2.2. Imágenes sintéticas utilizadas en el estudio. 168
4.2.3. Experimentos realizados con imágenes sintéticas. 172
4.2.3.1. Primer experimento: detección de pixels puros y mezcla. 163
4.2.3.2. Segundo experimento: identificación de endmembers. 182
4.2.3.3. Tercer experimento: estimación de abundancias. 194
4.2.3.4. Cuarto experimento: detección de objetos. 194
4.3. Análisis de imágenes reales. 212
4.3.1. Imágenes utilizadas y características. 212
4.3.1.1. AVCUP95. 213
4.3.1.2. AVIP92. 216
4.3.1.3. CASI01. 217
4.3.1.4. AVJR97. 220
4.3.1.5. DSCA01. 221
4.3.1.6. RSCA01. 223
4.3.2. Experimentos realizados con imágenes reales. 225
4.3.2.1. Primer experimento. Firmas espectrales verdad terreno. 227
4.3.2.2. Segundo experimento. Mapas temáticos verdad terreno. 235
4.3.2.3. Tercer experimento. Mapas de abundancia verdad terreno. 240
4.3.2.4. Cuarto experimento. Valores de abundancia verdad terreno. 248
4.3.2.5. Quinto experimento. Verdad terreno no disponible. 259
4.3.2.6. Sexto experimento. Vuelos a diferentes alturas. 259
Capítulo 5. Propuesta de arquitecturas. 279
5.1. Metodología de diseño. 280
5.1.1. Del algoritmo secuencial al grafo de dependencias. 281
5.1.2. Del grafo de dependencias al algoritmo sistólico. 285
5.2. Primera arquitectura (A1). 286
5.3. Segunda arquitectura (A2). 293
5.4. Estudio comparativo. 299
Capítulo 6. Principales aportaciones y conclusiones. 303
Capítulo 7. Líneas futuras. 307
Referencias bibliográficas. 315
Capítulo 1
Motivaciones y Objetivos
1.1. Motivaciones
El trabajo objeto de la presente memoria consiste en la obtención de un método de análisis
hiperespectral robusto que utiliza de forma conjunta los dominios espacial y espectral,
permitiendo realizar el análisis de forma no supervisada y totalmente automática.
El trabajo desarrollado se enmarca dentro de las líneas de investigación actuales del Grupo
de Redes Neuronales y Procesamiento de Señal (GRNPS) del Departamento de Informática de
la Universidad de Extremadura. En sus inicios, la investigación realizada en el GRNPS estaba
orientada al desarrollo de algoritmos de computación neuronal para la cuantificación de
espectros. Esta línea de investigación fue pronto extendida al caso de imágenes hiperespectrales
obtenidas de forma remota.
Las imágenes hiperespectrales suponen una extensión del concepto de imagen digital, en el
sentido de que sus pixels no están formados por un único valor discreto, sino por un conjunto
amplio de valores correspondientes a las diferentes mediciones espectrales realizadas por un
sensor o instrumento de medida en diferentes longitudes de onda. Estas imágenes se
caracterizan porque pueden ser analizadas desde dos puntos de vista diferentes: el espacial y el
- 2 - Capítulo 1. Motivaciones y objetivos.
espectral. Así, los datos hiperespectrales pueden ser entendidos al mismo tiempo como un
conjunto de medidas espectroscópicas y como una colección de imágenes.
A pesar de esta dualidad presente en la información hiperespectral, las técnicas clásicas de
análisis, incluyendo las anteriormente desarrolladas en nuestro grupo, se han basado,
fundamentalmente, en propiedades espectrales, descartando por completo la información
relacionada con la correlación espacial. De este modo, las técnicas mencionadas no procesan los
datos hiperespectrales como imágenes, sino como colecciones de medidas espectrales cuya
ordenación y/o disposición no resulta relevante en el proceso de análisis.
La comunidad científica dedicada al análisis de datos hiperespectrales ha identificado la
necesidad de incorporar la representación pictórica de los datos a la hora de abordar su
procesamiento. En la literatura, existen algunas aproximaciones al análisis hiperespectral
basadas en la utilización de técnicas espaciales para refinar el resultado de un procesamiento en
el dominio espectral, normalmente realizado de forma supervisada. De forma similar, existen
algunas técnicas que refinan, mediante aproximaciones espectrales, los resultados obtenidos a
partir de un procesamiento previo en el dominio espacial. El orden en que se realizan los dos
tipos de procesamiento condiciona los resultados obtenidos.
La utilización conjunta de los dominios espacial y espectral de forma no supervisada supone
una novedad en el marco de las tecnologías disponibles para el análisis de datos
hiperespectrales. Este hecho nos ha llevado a considerar la posibilidad de utilizar, de forma
conjunta, la información espacial y espectral en el proceso de análisis.
En este trabajo, intentamos solventar el vacío existente en cuanto a la aplicación de técnicas
de análisis de imagen a datos hiperespectrales, mediante el desarrollo de un nexo de unión entre
técnicas clásicas en el dominio espacial y técnicas de análisis espectral. De esta forma, la
presente memoria puede entenderse como un compendio de varias discusiones sobre las
ventajas obtenidas al incorporar información espacial en el análisis de datos de gran
dimensionalidad espectral.
Por último, conviene destacar que uno de los aspectos que han condicionado en mayor
medida las metodologías propuestas en esta memoria es la posibilidad de obtener técnicas de
análisis computacionalmente eficientes. Las imágenes hiperespectrales se caracterizan por
requerimientos extremos en cuanto a espacio de almacenamiento, ancho de banda de
transmisión y velocidad de procesamiento. Estos requerimientos deben traducirse en algoritmos
de análisis susceptibles de ser ejecutados en paralelo. Los algoritmos hiperespectrales son
altamente susceptibles de ser paralelizados, debido a sus escasas restricciones secuenciales. En
este sentido, una de las posibilidades más interesantes es la obtención de técnicas de
procesamiento y compresión a bordo, implementadas mediante mecanismos hardware y
Capítulo 1. Motivaciones y objetivos. - 3 -
capaces de ofrecer una respuesta en tiempo real. En este trabajo realizamos un primer paso en
dicha dirección, mediante la propuesta de arquitecturas sistólicas que soportan los desarrollos
realizados.
1.2. Objetivos
Este trabajo pretende desarrollar técnicas de análisis de imágenes hiperespectrales que
utilicen de forma simultánea la información espacial y espectral contenida en este tipo de datos.
Por tanto, se plantea el siguiente objetivo global: diseñar, implementar y validar un nuevo
método automático, robusto, y eficiente en términos computacionales para el análisis de
imágenes hiperespectrales, cuyo funcionamiento considera de forma simultánea la
información espacial y espectral.
La consecución de este objetivo general se lleva a cabo abordando una serie de objetivos
específicos, los cuales se enumeran a continuación:
Analizar las ventajas e inconvenientes planteados por la integración de información
espacial y espectral en el procesamiento de datos hiperespectrales.
Diseñar una metodología cuyo funcionamiento sea automático, es decir:
La interacción entre el usuario y el método debe realizarse exclusivamente
mediante un conjunto de parámetros de entrada.
Los resultados proporcionados por el algoritmo deben ser repetibles, es decir,
para una misma imagen hiperespectral y para un mismo conjunto de parámetros
de entrada, la respuesta de la metodología diseñada debe ser la misma.
Implementar la metodología mediante técnicas algorítmicas, de forma que pueda
facilitarse la difusión de la misma a la comunidad científica dedicada al análisis de
datos hiperespectrales.
Plantear posibles implementaciones de la metodología mediante técnicas hardware,
evaluando las ventajas de esta implementación con respecto a las basadas en técnicas
software.
Estudiar, mediante datos sintéticos, la influencia de los siguientes elementos en el
resultado final proporcionado por el método:
Características de los parámetros de entrada utilizados por el algoritmo y su
relación con las características de las imágenes analizadas.
- 4 - Capítulo 1. Motivaciones y objetivos.
Presencia de ruido en los datos a analizar.
Influencia de la corrección atmosférica en los datos analizados.
Situaciones de mezcla entre componentes.
Comprobar la viabilidad de aplicar la metodología diseñada en aplicaciones reales,
utilizando para ello imágenes obtenidas por una variedad de sensores hiperespectrales.
Comparar los resultados obtenidos por la metodología propuesta con los
proporcionados por técnicas estándar de análisis hiperespectral.
Teniendo presentes los anteriores objetivos, procedemos a describir la organización del resto
de esta memoria, estructurada en una serie de capítulos cuyos contenidos se describen a
continuación.
2.- Antecedentes. En este capítulo introductorio se describe el estado del arte en cuanto a
las técnicas de análisis de datos obtenidos de forma remota y, en particular, en las
técnicas de análisis hiperespectral. El capítulo está compuesto por los siguientes
bloques:
2.1. Medida de la radiación. Este bloque presenta algunos aspectos introductorios
sobre la forma en que se mide la radiación electromagnética.
2.2. Técnicas espaciales. En este bloque se describen las aproximaciones existentes
al problema desde un punto de vista exclusivamente espacial.
2.3. Técnicas espectrales. En este apartado se realiza una revisión detallada de las
técnicas de análisis de datos obtenidos remotamente mediante aproximaciones
basadas en espectroscopía de imágenes
2.4. Técnicas que combinan información espacial y espectral. Por último, se
presenta un bloque con las tendencias existentes en la actualidad en cuanto a la
integración de métodos espaciales y espectrales
3.- Metodología. Este capítulo describe propuestas algorítmicas originales para el análisis
hiperespectral. El capítulo se organiza en dos grandes bloques:
3.1. Primeros intentos. En este bloque se detallan los primeros intentos realizados
en cuanto al diseño de metodologías de análisis hiperespectral. Estas primeras
experiencias constituyen la base sobre la que se asientan los fundamentos de la
metodología desarrollada.
3.2. Metodología propuesta. Este apartado contiene una descripción crítica de la
metodología finalmente adoptada, describiendo las implementaciones
Capítulo 1. Motivaciones y objetivos. - 5 -
algorítmicas consideradas, posibles variaciones sobre las mismas y líneas
futuras de ampliación.
4. Análisis y discusión de resultados. Para validar la metodología propuesta en el capítulo
anterior, en este capítulo se muestran los resultados obtenidos con datos reales y datos
sintéticos. El capítulo se divide en tres grandes bloques:
4.1. Metodología de análisis y discusión de resultados. Este bloque describe, a
modo de sinopsis, la metodología de análisis seguida a la hora de mostrar y
discutir los resultados.
4.2. Análisis de imágenes sintéticas. En este apartado se describe una batería de
experimentos realizados con imágenes sintéticas, caracterizadas por simular
propiedades del mundo real mediante representaciones simplificadas.
4.3. Análisis de imágenes reales. Por último, este apartado muestra un conjunto de
experimentos realizados con datos reales y una comparativa del método
propuesto con respecto a otras aproximaciones existentes en la literatura.
5. Propuesta de arquitecturas. En este capítulo se describen y evalúan posibles
implementaciones eficientes de la metodología propuesta, utilizando arrays de sistólicos. El
capítulo está estructrurado en cuatro grandes bloques.
5.1. Metodología de diseño. Este apartado describe la metodología de diseño
utilizada, a partir de la cual se desarrollan las dos aproximaciones propuestas.
5.2. Primera arquitectura. Esta sección contiene una descripción funcional de la
arquitectura sistólica denominada A1.
5.3. Segunda arquitectura. En este apartado se describe una arquitectura sistólica
alternativa denominada A2.
5.4. Estudio comparativo. Finalmente, este apartado contiene una comparativa
entre las arquitecturas paralelas A1 y A2, y la arquitectura serie
correspondiente.
6. Principales aportaciones y conclusiones. Este capítulo está dedicado a resumir las
principales aportaciones realizadas por la presente memoria y a mostrar las conclusiones
derivadas.
7. Líneas futuras. Por último, este capítulo sugiere un conjunto de líneas de trabajo que
pueden ser abordadas en futuros trabajos.
La memoria concluye con las referencias bibliográficas.
Capítulo 2
Antecedentes
La disponibilidad de información digital acerca de la superficie terrestre, obtenida de forma
remota a partir de satélites o plataformas aerotransportadas, ha supuesto una auténtica
revolución en nuestra concepción actual del mundo. Esta observación remota de la tierra
constituye el marco de estudio de la teledetección, traducción latina del término inglés remote
sensing, que surgió a principios de los años 50 para designar cualquier medio de observación
remota, si bien se aplicó fundamentalmente a la fotografía aérea, principal sensor de aquel
momento (Chuvieco, 1999). En 1957, el lanzamiento del Sputnik, el primer satélite construido
por el hombre, supuso el comienzo de la era espacial y, al mismo tiempo, el inicio de una larga
andadura para la disciplina hoy conocida como teledetección (Short y col., 2002).
No obstante, la llegada de la era dorada de la teledetección tuvo que esperar hasta que
confluyeron una serie de circunstancias bien diferenciadas. En primer lugar, el desarrollo del
computador digital permitió optimizar los mecanismos de almacenamiento, procesamiento y
transmisión de los datos proporcionados por dispositivos remotos. En segundo lugar, el
desarrollo de las técnicas de reconocimiento de patrones, propiciado en parte por la creciente
capacidad de cómputo de los computadores digitales, ha supuesto que, en la actualidad, la
extracción de información significativa y relevante a partir de los datos de observación remota
sea una tarea simple y cada vez más automatizada (Landgrebe, 2002). Finalmente, no podemos
olvidar otras circunstancias clave como el desarrollo tecnológico en los instrumentos de medida
y en las técnicas de aerotransporte y navegación espacial.
- 8 - Capítulo 2. Antecedentes.
Históricamente, las técnicas de análisis de datos obtenidos de forma remota han seguido una
serie de etapas marcadas por la evolución en los instrumentos de observación remota (Short y
col., 2002). En etapas tempranas, los medios de observación remota se caracterizaban por estar
montados sobre plataformas exclusivamente espaciales, por lo que las técnicas de análisis
derivadas se basaron en enfoques fundamentalmente espaciales. Posteriormente, la
disponibilidad de instrumentos capaces de medir singularidades en el espectro de la luz reflejada
por los diferentes materiales presentes en el mundo real trajo como consecuencia la introducción
de técnicas basadas en espectroscopía.
En la actualidad, existen instrumentos que permiten un enfoque integrado en el que se
considera tanto la información espacial como la espectral (Landgrebe, 2002). El trabajo descrito
en esta memoria se engloba dentro de esta última categoría.
En el presente capítulo describimos los antecedentes de las técnicas de análisis
características de cada uno los enfoques anteriormente mencionados. El capítulo está
estructurado de la siguiente forma:
1.- En primer lugar, destacamos algunos aspectos introductorios sobre el proceso de
observación remota y la forma en que se mide la radiación electromagnética.
2.- Seguidamente, describimos las técnicas de análisis que más interesan en el dominio
espacial.
3.- A continuación, realizamos una revisión detallada de las técnicas de análisis de datos
obtenidos remotamente mediante aproximaciones basadas en espectroscopía de
imágenes.
4.- Finalmente, a título de presentación del trabajo propuesto en esta memoria,
analizamos las tendencias existentes en lo referente a integración de métodos
espaciales y espectrales.
2.1. Medida de la radiación
La observación remota de un determinado objeto está basada en la captación, por parte de un
instrumento de medida o sensor, de la radiación electromagnética proveniente de la interacción
entre el objeto y la fuente de la radiación. La radiación electromagnética recibe varios nombres
dependiendo de la longitud de onda que la caracteriza, como puede apreciarse en la figura 2.1.1.
Para medir la radiación emitida o reflejada por una determinada superficie es preciso
cuantificar la cantidad de flujo energético que procede de la misma. Por tanto, es necesario
Capítulo 2. Antecedentes. - 9 -
disponer de una serie de unidades de medida basadas en el denominado flujo radiante (), que se
define como la cantidad de energía emitida por una fuente de radiación, en todas las direcciones,
por unidad de tiempo. Para analizar el flujo energético en una determinada dirección, se utiliza
el flujo energético por ángulo sólido ().
Visible
10-7 10-5 10-3 10 103 105 103
Longitud de onda (m)
Ultravioleta Infrarrojo
Microondas
Radar
Rayos X
Rayos
10-1
0.4 m 0.7 m
Figura 2.1.1. El espectro electromagnético.
La intensidad radiante se define como el flujo radiante por unidad de ángulo sólido, y viene
dada por la expresión que se muestra a continuación:
I (2.1.1)
Esta magnitud se mide en Watios por estéreo-radián (W/sr). No obstante, la magnitud física
que está directamente relacionada con nuestra percepción del brillo es la reflectividad, R, que se
define como el flujo irradiado por unidad de superficie proyectada (Sp) y ángulo sólido en una
determinada dirección . La radiancia se mide en Watios por metro cuadrado y estéreo-radián
(W/m2sr).
pA
IR (2.1.2)
- 10 - Capítulo 2. Antecedentes.
El flujo incidente i interactúa con una superficie S, de forma que una parte del flujo es
reflejada (r), otra es absorbida por la propia superficie (a) y, finalmente, una tercera parte (t)
es transmitida a las capas inferiores (Short y col., 2002). La relación entre el flujo reflejado y el
flujo incidente es la magnitud relativa conocida como reflectancia, .
i
r
(2.1.3)
La radiancia detectada en el sensor dependerá por tanto de la reflectancia, del flujo
incidente, de la superficie, del ángulo de observación y del ángulo sólido. Además, la radiancia
detectada por el sensor es también dependiente de la geometría de la observación y, en
particular, del ángulo formado por la normal a la superficie con la radiación incidente (ángulo
de incidencia ) y del ángulo formado por el haz detectado por el sensor con la normal a la
superficie (ángulo de reflexión, ). Estas magnitudes aparecen descritas en la figura 2.1.2.
Sp
Fuente radiación
Detector
t Capas inferiores
i r
a
Normal
Ángulo incidencia
Ángulo reflexión
Superficie
Figura 2.1.2. Flujo incidente (i), flujo reflejado (r), flujo absorbido (a) y flujo transmitido (t).
Existen dos comportamientos posibles para la superficie observada (denominada también
como "cubierta") respecto de la geometría de la observación:
1.- Por un lado, las cubiertas especulares se caracterizan por reflejar la radiación incidente
en una dirección cuyo ángulo de reflexión coincide con el ángulo de incidencia (ver
parte izquierda de la figura 2.1.3).
Capítulo 2. Antecedentes. - 11 -
2.- Por otra parte, las cubiertas lambertianas se caracterizan por reflejar la radiación
incidente de igual forma en todas las direcciones, independientemente de cuál sea el
ángulo de incidencia (ver parte derecha de la figura 2.1.3).
Normal
Cubierta especular
Normal
Cubierta lambertiana
Ángulo incidencia
Ángulo reflexión
Figura 2.1.3. Propiedades de las cubiertas especulares (izquierda) y lambertianas (derecha).
A modo de resumen general de las ideas anteriormente presentadas, podemos definir la
radiancia detectada (D) como una función de las siguientes magnitudes:
,,,S,,fD i (2.1.4)
Todas estas magnitudes dependen del intervalo de longitud de onda considerado, y reciben
el nombre de magnitudes espectrales. La radiancia medida por el detector o sensor se calcula
mediante la siguiente expresión:
hDr , (2.1.5)
Donde h es una función de transferencia que depende del sensor y D es la radiancia
detectada. Como en todo proceso de medida, la señal detectada incluye una componente
ruidosa, que será analizada en detalle en el apartado 2.3.1. Además, el proceso de medida puede
verse afectado por una serie de imprecisiones adicionales, motivadas por efectos secundarios
como los que se enumeran a continuación (Shaw y Manolakis, 2002):
Radiancia adicional medida por el sensor debido a efectos de dispersión de la luz
solar, causados por efectos atmosféricos (Sreeka y col., 2002).
Efectos de dispersión múltiple (García-Haro y Sommer, 2002) sobre el material
observado, causados por la luz reflejada por otros objetos en la escena.
Efectos de sombra.
- 12 - Capítulo 2. Antecedentes.
Efectos de absorción del flujo incidente debidos a la atmósfera.
Variaciones del ángulo de incidencia debidas a la orografía del paisaje.
Estado fenológico de las cubiertas desde el punto de vista ambiental (Key y col.,
2001).
La figura 2.1.4 ilustra de forma gráfica algunas de las fuentes de error comentadas, mediante
un diagrama representativo del proceso de medición de la radiación en circunstancias reales.
Dispersión múltipleSombras
Absorción y dispersión
Radianciaadicional
Figura 2.1.4. Proceso de medida de la radiación en un entorno real.
FOV
IFOV
GIFOV
Alturavuelo
Figura 2.1.5. Ilustración gráfica de los conceptos de IFOV y GIFOV.
Capítulo 2. Antecedentes. - 13 -
La resolución espacial de un sensor se refiere a la capacidad del mismo para obtener
información acerca de los detalles espaciales de la escena (Chuvieco, 1999). En los sensores
opto-electrónicos, se utiliza el concepto de campo de visión instantáneo o instantaneous field of
view (IFOV), definido como la sección angular en mrad observada por el sensor en un
determinado momento (Small, 2002). También se suele utilizar la distancia sobre el terreno que
corresponde a ese ángulo o ground instantaneous field of view (GIFOV), el cual tiene en cuenta
la altura de vuelo y la velocidad de exploración del sensor. Estos conceptos aparecen ilustrados
en la figura 2.1.5.
En el siguiente apartado destacamos las técnicas de análisis que se basan en la información
espacial anteriormente introducida.
2.2. Técnicas espaciales
La teledetección espacial se plantea desde el punto de vista del análisis e interpretación de
una o varias imágenes digitales. Por tanto, las técnicas de análisis de este tipo de datos toman su
base en el procesado digital de imágenes (Haralick y Shapiro, 1992).
A pesar de que las técnicas espaciales permiten obtener información sobre áreas muy
extensas a bajo coste, el uso de un enfoque estrictamente espacial no está exento de algunas
limitaciones prácticas (Landgrebe, 2002). Así, la posibilidad de extraer modelos complejos
utilizando exclusivamente información en el dominio espacial puede ser limitada. Este hecho ha
propiciado que, en la actualidad, las técnicas espectrales sean las más ampliamente utilizadas a
la hora de interpretar los datos terrestres adquiridos de forma remota (Richards y Jia, 1993).
Teniendo en cuenta las anteriores consideraciones, comenzamos el presente apartado
realizando una descripción, a modo introductorio, del concepto de imagen digital. A
continuación detallamos diferentes técnicas de análisis de imágenes digitales, particularizando
en las técnicas más ampliamente utilizadas en las aplicaciones que nos ocupan.
El concepto de imagen digital en teledetección
El proceso de adquisición de una imagen digital por parte de un sensor de observación
remota se basa en la exploración secuencial, por parte del sensor, de la superficie terrestre. El
sensor adquiere, a intervalos regulares, la radiación que proviene de los objetos sobre él
situados. La información recibida está en función de las características de la parcela del terreno
que observa el sensor en cada instante, y el tamaño de ésta será una función de la resolución
- 14 - Capítulo 2. Antecedentes.
espacial del sensor (Chuvieco, 1999), tal y como se describió en la figura 2.1.5. Cada una de
estas parcelas, que constituyen la unidad mínima de información en la imagen, se denomina
pixel, término que proviene del vocablo picture element (González y Woods, 2002).
El valor asociado a cada pixel viene definido por un valor numérico denominado nivel
digital (ND). El nombre se justifica por tratarse de un valor numérico, no visual, pero que puede
fácilmente traducirse a una intensidad visual o nivel de gris mediante cualquier convertidor
digital-analógico.
Teniendo presentes estas ideas, la organización de los datos obtenidos de forma remota en
una imagen digital puede esquematizarse tal y como se describe en la figura 2.2.1. Como
vemos, los datos se organizan en una matriz numérica de dos dimensiones que se corresponden
con las coordenadas geográficas de la imagen. Las filas de la matriz suelen recibir el nombre de
líneas, mientras que las columnas también suelen denominarse muestras. Cada celda de la
matriz almacena un único ND.
Líneas
Mu
estr
as
ND del pixel en coordenadas (x,y)
Líneas
Mu
estr
as
ND del pixel en coordenadas (x,y)
Figura 2.2.1. Representación de una imagen digital en forma de matriz de datos.
A continuación describimos los antecedentes de algunas técnicas clásicas de análisis de
imágenes digitales, insistiendo especialmente en aquellas metodologías directamente
relacionadas con el trabajo descrito en la presente memoria.
2.2.1. Convolución espacial y morfología matemática.
Convolución espacial
Una de la técnicas más ampliamente utilizadas en el dominio espacial es el filtrado. Esta
técnica se basa en un procesamiento de grupo en el que el ND para el pixel de la imagen
Capítulo 2. Antecedentes. - 15 -
resultante depende del ND del pixel correspondiente en la imagen original y de los ND’s de los
pixels que lo rodean (es decir, se trata de una operación sensible al contexto).
Matemáticamente, un operador de filtrado se puede representar como un operador que,
aplicado a la imagen de entrada, I, da lugar a una función de salida O=(I) (Pratt, 1991). De
forma conceptual, podemos distinguir entre dos tipos de filtros espaciales: lineales y no lineales.
Los filtros lineales se utilizan de forma habitual debido a su simplicidad (Haralick y Shapiro,
1992; Shen, 1996). Cuando el filtrado es lineal e invariante frente a desplazamientos espaciales,
el operador se corresponde con la operación de convolución espacial.
I(x,y)
Imagen original
Kernel deconvolución
I
K
O(x,y)
Imagen resultante
O
a b cd e fg h i
Operación de convolución
1y,1xI1y,xI1y,1xI
y,1xIy,xIy,1xI
1y,1xI1y,xI1y,1xI
9
1
i hg
fe d
c ba
a = K(-1,-1)b = K(0,-1)c = K(1,-1)d = K(-1,0)e = K(0,0)f = K(1,0)g = K(-1,1)h = K(0,1)i = K(1,1)
Figura 2.2.2. Operación de convolución sobre una imagen digital.
La figura 2.2.2 muestra un ejemplo que ilustra una operación de convolución sobre una
imagen I. Puede apreciarse cómo el ND del pixel I(x,y) en la imagen original y los de sus 8
vecinos se multiplican por los correspondientes coeficientes de convolución definidos en una
ventana cuadrada que rodea al pixel. Este tipo de ventanas son características de las técnicas de
procesamiento espacial, y aparecen normalmente denominadas como kernels en la literatura
(Katkovnik y Shmulevich, 2002). Posteriormente, los resultados obtenidos se suman y el
resultado promediado define el valor del pixel O(x,y) en la imagen resultante. El proceso se
realiza para cada pixel en la imagen original. El conjunto de coeficientes en la figura 2.2.2 se
conoce como kernel de convolución, de forma que dichos coeficientes define los diferentes tipos
- 16 - Capítulo 2. Antecedentes.
de filtros espaciales lineales existentes en la literatura, tales como filtros pasa-alta, filtros pasa-
baja, filtros de gradiente, filtros de detección de borde, etc. (Ramponi, 1999).
Si suponemos que K denota un kernel de convolución cuadrado de n pixels de alto por n
pixels de ancho, podemos formalizar la operación de convolución espacial antes ilustrada
mediante la siguiente expresión:
2/n
2/ni
2/n
2/nj2
)j,i(K)jy,ix(I1
)y,x(On
(2.2.1)
Como puede apreciarse en la figura 2.2.2, la elección del tamaño de kernel resulta
determinante a la hora de realizar el proceso de convolución. A la hora de seleccionar un
determinado tamaño de kernel, es preciso analizar en detalle las características espaciales
concretas de las formas y objetos de la imagen que se desean caracterizar. Si no se dispone de
información previa sobre los rasgos de interés en la imagen, o bien si las características
espaciales de los objetos de interés son variables, la utilización de un único tamaño de kernel
puede no resultar suficiente para caracterizar la totalidad de los objetos presentes en la imagen.
Una de las técnicas más utilizadas para solventar las limitaciones anteriormente descritas
consiste en utilizar un conjunto de kernels de tamaño variable (Burt y Adelson, 1983). En la
literatura, esta opción aparece englobada dentro del conjunto de técnicas denominadas
descomposición multi-escala de una imagen. Conviene destacar que existen múltiples formas de
realizar descomposiciones de este tipo (Gauch y Pizer, 1993; Strickland y Hahn, 1997), aunque,
ciertamente, el uso de kernels de tamaño variable es una de las más populares (Bister y col.,
1990).
En la figura 2.2.3 se muestra un ejemplo de creación de una descomposición multi-escala
sobre una imagen en ND’s, utilizando kernels de tamaño variable. La descomposición consta de
un conjunto de niveles, de forma que en diferentes niveles se realiza un tratamiento local
alrededor de cada pixel que viene definido por el tamaño de kernel. En este ejemplo, el kernel
actúa como una función de vecindad variable alrededor de cada pixel en la imagen original.
Además de las técnicas de filtrado lineal comentadas anteriormente, existen otras cuyo
principio de funcionamiento sigue un comportamiento no lineal. Entre estas técnicas destacan
las operaciones de morfología matemática (Serra, 1982), que presentan algunas características
en común con la operación de convolución, como el uso de kernels. Por su parte, las técnicas
morfológicas también han sido utilizadas para construir descomposiciones multi-escala de
imágenes en ND’s (Jackway y Deriche, 1996).
Capítulo 2. Antecedentes. - 17 -
Figura 2.2.3. Descomposición multi-escala de una imagen en ND’s.
A pesar de sus excelentes propiedades como técnicas de filtrado (Schavemaker y col., 2000),
las técnicas morfológicas se han utilizado principalmente en el terreno de la detección de
formas. A continuación, presentamos en detalle los fundamentos de las técnicas morfológicas,
destacando sus propiedades en cuando a la identificación de objetos en la imagen.
Morfología matemática
Los conceptos fundamentales del procesamiento morfológico de imágenes tienen su base en
los estudios de Matheron, 1975 y Serra, 1982. La matemática morfológica es una teoría para el
análisis de estructuras espaciales dentro de una imagen. Su lenguaje es el de la teoría de
conjuntos, de forma que los conjuntos en matemática morfológica representan formas, tanto en
imágenes binarias como en imágenes en niveles de gris (Serra, 1993; Vincent, 1993). A pesar de
que estas técnicas fueron inicialmente diseñadas para trabajar con imágenes binarias (Serra,
1982), no tardaron en ser extendidas a imágenes en ND’s (Sternberg, 1986) y en color (Lambert
y Chanussot, 2000). A continuación detallamos cada una de estas aproximaciones.
Morfología binaria.
En morfología binaria, las imágenes se representan según la teoría de conjuntos (Serra,
1982). Si dividimos los pixels de una imagen binaria I en dos conjuntos: objetos y fondo, los
pixels pertenecientes a los objetos formarán parte de un conjunto que denominamos X, mientras
que los pixels pertenecientes al fondo pertenecen al conjunto complementario XC.
- 18 - Capítulo 2. Antecedentes.
Las dos operaciones básicas de la morfología binaria son la erosión y la dilatación (Serra,
1982). Estas operaciones se basan en la transformación de los objetos de la imagen por medio
de un nuevo conjunto K, conocido como elemento estructural, que realiza una función similar a
la del kernel utilizado en la operación de convolución espacial. Así, la forma y tamaño del
elemento estructural van a determinar las características espaciales de la imagen resultante de la
transformación. De este modo, podemos definir la operación de dilatación de un objeto X
utilizando un elemento estructural K mediante la siguiente expresión:
XK :IaKX a (2.2.2)
Donde Ka es el kernel o elemento estructural que rodea al pixel a de la imagen. Es decir, el
resultado de la dilatación de un determinado objeto es una nueva forma, definida por los
elementos estructurales que rodean a cada pixel del objeto, tales que su intersección con el
objeto inicial es distinta del conjunto vacío.
Por su parte, la erosión de un objeto X utilizando un elemento estructural K puede denotarse
como:
XK :IaKX a (2.2.3)
De este modo, el resultado de la erosión de un objeto es una nueva forma, definida por los
elementos estructurales que rodean a cada pixel del objeto, tales que pueden incluirse de forma
completa en el objeto inicial. Conviene destacar que las operaciones de erosión y dilatación son
duales y complementarias entre sí (Serra, 1982).
X
KX
Kb
w
XK
Kb
w
X
Figura 2.2.4. Interpretación gráfica de la operación de erosión (izquierda) y dilatación (derecha) de
una imagen binaria.
La figura 2.2.4 muestra una interpretación gráfica de las operaciones de erosión y dilatación,
aplicadas a un objeto rectangular. Como puede apreciarse en la parte izquierda de la figura, el
Capítulo 2. Antecedentes. - 19 -
resultado de la dilatación es el ensanchamiento espacial del objeto según las propiedades
espaciales (forma y tamaño) del elemento estructural. Por el contrario, la erosión (ver parte
derecha de la figura) consiste en una operación de contracción (shrinking) del objeto
dependiendo de la morfología del elemento estructural utilizado. En el ejemplo descrito en la
figura 2.2.4 se ha utilizado como elemento estructural un cuadrado de ancho w. En la práctica,
los elementos estructurales más utilizados debido a su simetría y sencillez son, precisamente,
estas formas cuadradas (Chen y col., 2002).
Además de la erosión y la dilatación, la morfología matemática dispone de otras operaciones
más complejas (Serra, 1993). Así, la apertura morfológica de un objeto X respecto de un
elemento estructural K puede definirse de la siguiente forma:
K)KX(X K (2.2.4)
De forma similar, definimos la clausura morfológica de un objeto X utilizando un elemento
estructural K como:
K)KX(XK (2.2.5)
Como puede apreciarse en las expresiones (2.2.4) y (2.2.5), la apertura consiste en una
operación de erosión seguida de una dilatación. Por su parte, la clausura se obtiene mediante la
realización de una dilatación seguida de una erosión. En ambos casos, se recomienda utilizar el
mismo elemento estructural en las dos operaciones con el objetivo de no alterar en gran medida
el tamaño y forma del objeto original (Van Horebeek y Tapia-Rodríguez, 2001).
La figura 2.2.5 muestra un ejemplo de aplicación de las operaciones morfológicas binarias
antes descritas sobre una imagen simple, correspndiente a una ilustración original de Pablo
Picasso. La figura muestra el resultado de aplicar las operaciones de erosión, dilatación, apertura
y clausura utilizando como elemento estructural un cuadrado de 5x5 pixels.
Una propiedad importante de las operaciones morfológicas binarias es la no linearidad. A
continuación, ilustramos esta propiedad mediante un ejemplo. En la figura 2.2.5, la firma del
autor de la ilustración, situada en la esquina superior izquierda, es filtrada al aplicar la operación
de erosión con el elemento estructural de 5x5 pixels. La operación de apertura consiste en dilatar
la imagen resultante de la erosión, utilizando el mismo elemento estructural. Sin embargo, la
dilatación no puede recuperar rasgos espaciales eliminados por la erosión. Este es el motivo por
el cual la firma del autor no aparece en la imagen resultante de la operación de apertura.
La propiedad de no linearidad condiciona gran parte de la filosofía inherente a la morfología
matemática (Saryazdi y col., 2000). Así, el procesamiento de una imagen en términos
- 20 - Capítulo 2. Antecedentes.
morfológicos da como resultado una información que resulta extremadamente rica en cuanto sus
propiedades descriptivas respecto de los objetos en el dominio espacial (Serra, 1993).
Dilatación 5x5Erosión 5x5Imagen original
Clausura 5x5Apertura 5x5
Figura 2.2.5. Aplicación de las operaciones de erosión y dilatación sobre una imagen de ejemplo.
Morfología en niveles de gris.
Los conceptos de la morfología binaria han sido extendidos al caso de imágenes en niveles
de gris o ND’s (Sternberg, 1986). La idea fundamental de estas operaciones puede expresarse
considerando la imagen en ND’s como una función f(x,y), en la que el valor en las coordenadas
(x,y) viene dado por el ND en dicho punto. Esta función puede ser también entendida como un
relieve sobre el que se desliza un elemento estructural K.
En la figura 2.2.6 se muestra el efecto obtenido al deslizar un elemento estructural sencillo
sobre una sección unidimensional del relieve. Si el elemento estructural se desliza por la parte
exterior de la función tenemos el caso de la dilatación, mientras que si se desliza por la parte
interior de la función tenemos el caso de la erosión. La figura 2.2.6 pone de manifiesto que la
variación del tamaño y forma del elemento estructural en operaciones morfológicas es crítica:
así, la utilización de un elemento estructural pequeño permite conservar de forma muy
aproximada el aspecto de los rasgos de la imagen original, mientras que la utilización de un
elemento estructural grande tiende a eliminar los rasgos de la imagen original más pequeños que
el elemento estructural. La alteración del tamaño del elemento estructural permite por tanto
conservar o eliminar determinadas frecuencias espaciales en la imagen.
Capítulo 2. Antecedentes. - 21 -
max
f(x-1)f(x)
f(x+1)
k(s)
Dilataciones
Erosiones
Dilataciones
Erosiones
k(s))sx(f)x)(Kf( MaxK s
min
k(s))sx(f)x)(Kf( MinK s
Figura 2.2.6. Interpretación gráfica de las operaciones morfológicas de erosión y dilatación en
ND’s.
Una vez introducidos estos conceptos previos, procedemos a definir las operaciones básicas
de la morfología matemática en ND’s. La dilatación de una imagen f(x,y) utilizando un
elemento estructural K se define de la siguiente forma:
t)k(s,t)y ,sx(f)y,x)(Kf( MaxK )t ,s(
(2.2.6)
Por otra parte, la erosión de f(x,y) utilizando K se define como:
t)k(s,t)y ,sx(f)y,x)(Kf( MinK )t ,s(
(2.2.7)
De forma similar a las operaciones en morfología binaria, la apertura y la clausura de f(x,y)
mediante K se definen, respectivamente, de la siguiente forma:
)y,x)(K)Kf((y) ,x(fK (2.2.8)
)y,x)(K)Kf((y) ,x(K f (2.2.9)
Como puede deducirse a partir de las expresiones (2.2.6) y (2.2.7), las operaciones de
dilatación y erosión en ND’s son semejantes a la operación de convolución, descrita en la
- 22 - Capítulo 2. Antecedentes.
expresión (2.2.1). En concreto, las diferencias entre las operaciones de dilatación y erosión
sobre imágenes en niveles de grises y la expresión de convolución son las siguientes:
El producto entre los pixels de la imagen y los pixels del kernel es reemplazado por
una operación de resta en el caso de la dilatación y una operación de suma en el caso
de la erosión.
El doble sumatorio es reemplazado por el cálculo del elemento máximo en el caso de
la dilatación y del mínimo en la operación de erosión.
Finalmente, el kernel de convolución suele recibir el nombre de elemento estructural
en las operaciones morfológicas.
Por razones ilustrativas, la figura 2.2.7 muestra un sencillo ejemplo de aplicación de las
operaciones de erosión y dilatación descritas a una imagen en ND’s muy simple. En el ejemplo,
se utiliza un elemento estructural plano, de forma cuadrada y dimensiones 3x3. pixels.
Dilatación
Elemento estructuralde tamaño 3x3 alrededor del pixel P
Erosión
Max Min
P
Imagen original
Figura 2.2.7. Ejemplo de aplicación de las operaciones de erosión y dilatación a una imagen en
ND’s.
Como puede apreciarse, la operación de erosión consiste en seleccionar el pixel con ND
mínimo en una vecindad alrededor del pixel considerado en un momento dado en la imagen
original. Este pixel se coloca en una posición equivalente a la del pixel considerado en la imagen
original, pero en una imagen nueva que denominamos imagen erosionada. De forma similar, la
operación de dilatación selecciona el pixel con ND máximo en la vecindad que rodea al pixel
considerado en la imagen original. Este pixel se coloca en la misma posición que el original en
Capítulo 2. Antecedentes. - 23 -
una nueva imagen, denominada imagen dilatada. El efecto de la erosión es reducir las zonas más
claras de la imagen, permitiendo el crecimiento de las zonas más oscuras, caracterizadas por un
ND bajo. El efecto de la operación de dilatación es el contrario; en este caso, las zonas con ND
alto se ensanchan, mientras que las zonas oscuras se encogen.
El proceso de extensión/contracción de objetos se realiza en función de las propiedades
espaciales del elemento estructural utilizado. De este modo, si consideramos un elemento
estructural en forma de disco con radio igual a L pixels, una operación de dilatación utilizando
este elemento estructural hará que los objetos con ND alto se ensanchen en aproximadamente
L/2 pixels en todas las direcciones. Por el contrario, una operación de erosión con el mismo
elemento estructural dará como resultado el efecto contrario, es decir, la expansión en todas
direcciones de las zonas de la imagen con ND bajo (Baxes, 1994). Este hecho aparece ilustrado
en la figura 2.2.8, en la que se ha erosionado y dilatado una sencilla imagen utilizando como
elemento estructural un disco de 4 pixels de radio.
Imagen original
Erosión
K K
Dilatación
Disco de 4 pixels de radio
Figura 2.2.8. Erosión y dilatación de una imagen en ND’s utilizando un disco de 4 pixels de radio.
Las operaciones morfológicas ND’s pueden utilizarse para reconocer objetos en la imagen.
Esta particularidad aparece ilustrada mediante un ejemplo en la figura 2.2.9, en la que se ha
aplicado una serie de operadores de apertura sobre la imagen original mostrada en la figura
2.2.8, utilizando como elementos estructurales discos de radio progresivamente creciente entre 2
y 8 pixels. Como puede apreciarse en la figura, las propiedades espaciales del elemento
- 24 - Capítulo 2. Antecedentes.
estructural utilizado determinan qué objetos son reconocidos. Este sencillo ejemplo pone de
manifiesto la importancia del elemento estructural utilizado en operaciones morfológicas
(Soille, 2000).
KKKK
Imagen original
Apertura morfológica
Disco (radio = 2 pixels) Disco (radio = 4 pixels) Disco (radio = 6 pixels) Disco (radio = 8 pixels)
KKKK
Imagen original
Apertura morfológica
Disco (radio = 2 pixels) Disco (radio = 4 pixels) Disco (radio = 6 pixels) Disco (radio = 8 pixels)
Figura 2.2.9. Apertura morfológica de la imagen mostrada en la figura 9 utilizando discos de radio
igual a 2, 4, 6 y 8 pixels.
Finalmente, destacamos que las operaciones de dilatación y erosión en ND’s pueden
aplicarse múltiples veces (de forma recursiva) en cada uno de los operadores de apertura y
clausura, acentuando así su efecto sobre los objetos de la imagen original (Wang y col., 1995).
El número de operaciones de erosión/dilatación en cada apertura/clausura y el tamaño del
elemento estructural determinarán, como es previsible, el área de los objetos resaltados.
Morfología cromática.
La literatura contempla algunos intentos orientados a extender las operaciones morfológicas
en ND’s a imágenes en color. Los primeros intentos realizados se conocen, de forma global,
como aproximación marginal (Ortiz, 2000), y consisten en tratar cada componente o canal
cromático de forma individual, tal y como se muestra en la figura 2.2.10. Evidentemente, este
tipo de procesamiento es escalar, y se obtiene directamente a partir de la morfología en ND’s,
puesto que cada canal cromático es una imagen en ND’s.
Capítulo 2. Antecedentes. - 25 -
Operación Morfológica
Canal R
Canal G
Canal B
Resultado R
Resultado G
Resultado B
Operación Morfológica
Operación Morfológica
Figura 2.2.10. Aproximación marginal a la morfología cromática.
La aproximación marginal presenta la ventaja de ser sencilla de implementar (Ortiz, 2000).
Sin embargo, su principal inconveniente consiste en que no se trata de una operación
morfológica en el sentido estricto, sino de 3 operaciones morfológicas sobre imágenes distintas.
Este hecho trae como consecuencia que las operaciones morfológicas que se realizan en una
posición (x,y) de la imagen afectan individualmente a cada componente de esa posición, con lo
que el pixel resultante puede venir asociado a una combinación de color no existente en la
imagen original. Esta problemática aparece ilustrada en la figura 2.2.11 mediante un ejemplo,
utilizando una operación de dilatación con un elemento estructural cuadrado de 3x3 pixels.
Figura 2.2.11. Problemática asociada a la aproximación marginal a la morfología cromática.
Para evitar la situación descrita en la figura 2.2.11, Lambert y Chanussot, 2000, proponen
analizar los pixels de la imagen utilizando una aproximación vectorial, es decir, considerando
los pixels como vectores y no como un conjunto de valores separados (ver figura 2.2.12).
- 26 - Capítulo 2. Antecedentes.
Canal R
Canal G
Canal B
Resultado R
Resultado G
Resultado B
Operación Morfológica
Figura 2.2.12. Aproximación vectorial a la morfología cromática.
El problema que plantea la forma de actuar ilustrada en la figura 2.2.12 es la necesidad de
introducir una relación de orden en el espacio de estos datos multivaluados. La función de
ordenación, que puede ser parcial (Lambert y Chanussot, 2000), viene dada por la siguiente
expresión:
Z : 3 P , (2.2.10)
Donde Z3 es el espacio de datos compuesto por los pixels de la imagen en color. La función
P define por tanto un orden parcial, tal y como se muestra en la siguiente expresión:
)()(,xZZ),( 33 yxyxyx PP , (2.2.11)
donde x e y son dos pixels de la imagen original. Es importante destacar que no existe un
método universal para ordenar vectores; al contrario, hay numerosas formas de abordar el
problema, dependiendo del objetivo que se pretenda alcanzar con la ordenación. Los autores
consideran la utilización de los siguientes tipos de ordenación vectorial: canónica, según una
componente, por medida de la distancia, lexicográfica y por entrelazado de bits (Lambert y
Chanussot, 2000; Ortiz, 2000).
2.2.2. Umbralización.
Las técnicas de detección que se han descrito en el apartado anterior producen como
resultado imágenes en las cuales la distinción entre objetos de interés y fondo es notoria. A
partir de este resultado, uno de los pasos clave en la visión de bajo nivel es la segmentación o
Capítulo 2. Antecedentes. - 27 -
separación estricta entre objetos y fondo. Este paso no siempre es inmediato, y existen
aproximaciones muy diversas en la literatura para llevarlo a cabo (Haralick y Shapiro, 1992).
No obstante, las técnicas de umbralizado (Sahoo y col., 1988) constituyen el enfoque más
simple e intuitivo para separar entre objetos de interés y fondo en imágenes en ND. Estas
técnicas presuponen que el alto contraste existente entre objetos de interés y fondo en las
imágenes obtenidas tras la etapa de detección hace que sea relativamente sencillo encontrar un
nivel umbral para establecer la separación. Así, los pixels cuyo ND se encuentra por encima del
umbral establecido serán considerados como pertenecientes a objetos de interés, mientras que
los pixels con ND por debajo del establecido se consideran como pertenecientes al fondo.
Como puede intuirse, el paso clave en el proceso anteriormente descrito es la elección de un
nivel umbral adecuado para realizar el proceso de umbralización, de forma que el porcentaje de
acierto al asignar los pixels a las clases sea lo más alto posible (Lee y Chung, 1990). El proceso
de selección de este valor puede verse afectado por un cúmulo de circunstancias que, en su
mayor parte, van a depender de las características de la aplicación concreta. Este hecho hace que
muchas de las técnicas de umbralización sean supervisadas, necesitando una gran cantidad de
conocimiento a priori (Haralick y Shapiro, 1985).
Dado que uno de los objetivos del presente trabajo es diseñar una metodología no
supervisada para el análisis de datos hiperespectrales, nuestro interés se centra en aquellos
esfuerzos en la literatura orientados al diseño de técnicas automáticas, capaces de obtener el
valor umbral óptimo en condiciones variables, y en problemas diferentes. Entre estas técnicas
destaca el método de Otsu (Otsu, 1979), capaz de seleccionar, de forma automática y no
supervisada, un valor umbral óptimo para una imagen en función de la distribución de los ND’s
en la misma. En concreto, este método tiene como objetivo fundamental la separación de los
pixels de la imagen en varias categorías o clases dependiendo de una serie de criterios
relacionados con la varianza de los ND’s de los pixels en la imagen.
El método de Otsu puede formalizarse mediante la siguiente notación (Otsu, 1979; Sahoo y
col., 1988). Sea L el número de ND’s de la imagen, y sea ni el número de pixels de la imagen en
los que iND . En virtud de lo anterior, podemos expresar el número total de pixels de una
imagen, n, como:
1L
0iinn (2.2.12)
Por otra parte, la probabilidad de ocurrencia del nivel digital i, pi, puede expresarse como:
n
np i
i (2.2.13)
- 28 - Capítulo 2. Antecedentes.
El objetivo del método de Otsu es la obtención de un valor umbral óptimo t capaz de separar
el conjunto de ND’s de la imagen, 1-L 1,..., ,0G , en dos clases: t1,..., ,0C0 y
1-L 1,..., t,1tC1 , correspondientes a fondo y objetos de interés. En lo sucesivo,
asumimos que el 0ND es el más oscuro y que el 1LND es el más claro. Sea 2T la
varianza total en G, definida de la siguiente forma:
1L
0ii
2T
2T pi ,
1L
0iiT pi . (2.2.14)
Por otra parte, sea 2B la varianza entre las clases C0 y C1, definida de la siguiente forma:
201102B , (2.2.15)
donde:
t
0ii0 p , 01 1 , (2.2.16)
y:
0
t0
,
0
tT1 1
,
t
0iit pi . (2.2.17)
El umbral óptimo t, según el método de Otsu, se calcula mediante la siguiente expresión,
basada en la selección del valor que maximiza una función dependiente de la varianza total de la
imagen y de la varianza en las dos clases resultantes del proceso de umbralizado, utilizando
dicho valor umbral:
2T
2B
GtMin_Argt (2.2.18)
El método de Otsu ha sido aplicado de forma satisfactoria en numerosas aplicaciones de
segmentación (Sahoo y col., 1988), incluyendo algunas relacionadas con imágenes obtenidas de
forma remota (Dulyakarn, 1999).
Capítulo 2. Antecedentes. - 29 -
2.2.3. Crecimiento de regiones.
La fase de segmentación descrita en el apartado anterior da como resultado una imagen
binaria con dos únicos ND’s, de forma que uno de ellos viene asociado a objetos de interés,
mientras que el otro viene asociado a fondo (objetos o zonas no relevantes). Esta separación
brusca entre componentes suele traer como consecuencia pequeñas imprecisiones a la hora de
establecer de forma exacta el contorno y la distribución espacial de los objetos (Haralick y
Shapiro, 1992).
Una de las aproximaciones más utilizadas para solucionar este problema y obtener una
descripción exacta del borde de los objetos segmentados es la técnica denominada crecimiento
de regiones. Esta aproximación se ha tenido en cuenta en el presente trabajo debido a que puede
ser extendida de forma sencilla para incluir información espectral, mediante la utilización de
criterios de similaridad en dicho dominio.
La técnica de crecimiento de regiones parte del supuesto de que existe un conjunto de puntos
o regiones, denominados “semillas” (Adams y Bischof, 1994), que han sido obtenidos a partir
de un método previo, por ejemplo, a partir de un proceso de segmentación. Sean r,..,1i ,R i
las regiones semilla a partir de las cuales se inicia el proceso de crecimiento. El funcionamiento
del método se basa en la realización de los pasos que a continuación se enumeran.
1.- En primer lugar, se establece un valor umbral de similaridad o tolerancia, T, que suele
obtenerse a partir de propiedades específicas de la imagen (Nalwa y Binford, 1986).
2.- A continuación, se selecciona una determinada región semilla, iR .
3.- Seguidamente, se obtienen los pixels vecinos de la región semilla, utilizando para ello
la expresión (2.2.19), donde V(x,y) es una función de vecindad que proporciona los
pixels en la vecindad del pixel I(x,y) de la imagen original. Por regla general, las
funciones de vecindad utilizadas son las que se muestran en la figura 2.2.13,
denominadas conectividad-4 y conectividad-8 (González y Woods, 2002).
ii Ryx,V );y,x(I)R(V (2.2.19)
4.- Una vez obtenidos los pixels vecinos de la región iR , se incorporan a iR todos
aquellos vecinos que satisfacen un criterio de similaridad con respecto a la región. El
criterio de similaridad suele estar relacionado con el parecido entre los ND’s de los
pixels vecinos y los pixels que componen la región (Adams y Bischof, 1994). Esta
situación aparece descrita en la expresión (2.2.20), donde S es una medida de
similaridad entre el ND del pixel I(x,y) y el ND de los pixels ii Rr .
- 30 - Capítulo 2. Antecedentes.
)y,x(IRR Try),I(x,S ,Rr )R(V)y,x(I iiiiii (2.2.20)
5.- Si el paso 4 trajo como consecuencia la incorporación de algún pixel a iR , se repiten
los pasos 4-6 hasta que ninguno de los vecinos sea incorporado a la región.
6.- Seleccionamos una nueva región y repetimos los pasos 4-6 hasta que se hayan
procesado las r regiones semilla iniciales.
I(x+1,y+1)I(x,y+1)I(x-1,y+1)
I(x+1,y)I(x,y)I(x-1,y)
I(x+1,y-1)I(x,y-1)I(x-1,y-1)
V(x,y)
Conectividad-8
I(x+1,y+1)I(x,y+1)I(x-1,y+1)
I(x+1,y)I(x,y)I(x-1,y)
I(x+1,y-1)I(x,y-1)I(x-1,y-1)
V(x,y)
Conectividad-8
I(x,y+1)
I(x+1,y)I(x,y)I(x-1,y)
I(x,y-1)
V(x,y)
Conectividad-4
I(x,y+1)
I(x+1,y)I(x,y)I(x-1,y)
I(x,y-1)
V(x,y)
Conectividad-4
Figura 2.2.13. Funciones de vecindad denominadas conectividad-4 y conectividad-8.
A lo largo del proceso de crecimiento, puede ocurrir que dos o más regiones se unan. Se dice
que dos regiones iR y jR se unen cuando:
)R(VR R)R(V jiji (2.2.21)
En caso de que se produzca esta situación, es preciso comprobar el grado de similaridad
entre las regiones que se unen. Si las dos regiones son suficientemente similares, las regiones se
combinan para dar lugar a una única región, tal y como se muestra en la siguiente expresión:
jiiji RRRT)R,R(S (2.2.22)
Si las regiones no son lo suficientemente similares, es decir, T)R,R(S ji , las regiones no
se combinan y son susceptibles de crecer por separado, pero evitando que una crezca en la otra y
viceversa (Adams y Bischof, 1994).
La figura 2.2.14 muestra un ejemplo de la aplicación de este proceso sobre una imagen
sencilla. Como puede apreciarse, el crecimiento depende de las propiedades de cada una de las
regiones, de forma que hay regiones que crecen en mayor medida que otras. El proceso de unión
de regiones también aparece ilustrado en el ejemplo, en el que se puede comprobar un caso en el
Capítulo 2. Antecedentes. - 31 -
que dos regiones dan lugar a una única región y otra situación en la que dos regiones, a pesar de
unirse, mantienen su identidad propia y crecen por separado.
Imagen original
Vegetación
Suelo
Fondo
Zonas urbanas
R1 R2 R3 R4
Regiones semilla(fase segmentación)
R9
R10
R5
R6
R7
R8
R1, R2 y R3 se combinan
R4 y R9 se combinan, pero no crecen en el interior de
R5, R6, R7, R8, R10
R6 y R8 crecen sin invadir la región resultante de la unión
de R4 y R9
Paso 1 Paso 2 Paso 3
Imagen original
Vegetación
Suelo
Fondo
Zonas urbanas
R1 R2 R3 R4
Regiones semilla(fase segmentación)
R9
R10
R5
R6
R7
R8
R1 R2 R3 R4
Regiones semilla(fase segmentación)
R9
R10
R5
R6
R7
R8
R1, R2 y R3 se combinan
R4 y R9 se combinan, pero no crecen en el interior de
R5, R6, R7, R8, R10
R6 y R8 crecen sin invadir la región resultante de la unión
de R4 y R9
Paso 1 Paso 2 Paso 3
Figura 2.2.14. Ejemplo de crecimiento de regiones utilizando una imagen sencilla.
Un aspecto a tener en cuenta a la hora de garantizar el buen funcionamiento de esta técnica
es la necesidad de establecer de forma adecuada el umbral de similaridad inicial T. A
continuación, realizamos algunas consideraciones acerca de las implicaciones de utilizar
diferentes criterios de similaridad (González y Woods, 2002):
La utilización de un criterio de similaridad no demasiado estricto puede traer como
consecuencia el sobre-crecimiento de algunas regiones. Esta situación aparece
ilustrada en la figura 2.2.15.
Por otra parte, la utilización de un criterio de similaridad muy estricto puede dar como
resultado varias detecciones para una misma región, situación que aparece descrita
mediante un ejemplo en la figura 2.2.16.
En base a las consideraciones anteriormente realizadas, podemos afirmar que la utilización
de criterios de similaridad relajados o demasiado estrictos puede traer como consecuencia una
- 32 - Capítulo 2. Antecedentes.
menor precisión a la hora de identificar el contorno exacto de los objetos detectados mediante el
proceso de crecimiento de regiones.
Regiones semilla(Segmentación)
Crecimiento (criterio no estricto)
Sobre-crecimientode regiones
Imagen original
Vegetación
Suelo
Fondo
Zonas urbanas
Regiones semilla(Segmentación)
Crecimiento (criterio no estricto)
Sobre-crecimientode regiones
Imagen original
Vegetación
Suelo
Fondo
Zonas urbanas
Imagen original
Vegetación
Suelo
Fondo
Zonas urbanas
Figura 2.2.15. Crecimiento de regiones que utiliza un criterio de similaridad no muy estricto.
Regiones semilla(Segmentación)
Crecimiento (criterio estricto)
Dos instanciasde una misma región
Imagen original
Vegetación
Suelo
Fondo
Zonas urbanas
Regiones semilla(Segmentación)
Crecimiento (criterio estricto)
Dos instanciasde una misma región
Imagen original
Vegetación
Suelo
Fondo
Zonas urbanas
Imagen original
Vegetación
Suelo
Fondo
Zonas urbanas
Figura 2.2.16. Crecimiento de regiones que utiliza un criterio de similaridad muy estricto.
Capítulo 2. Antecedentes. - 33 -
Antes de finalizar el presente apartado, dedicado a técnicas de análisis de imagen basadas en
el dominio espacial, destacamos que la revisión metodológica presentada en el mismo no
pretende completar un estudio exhaustivo de todas las técnicas disponibles. Existen otras
muchas aproximaciones que han demostrado su utilidad en diversas aplicaciones, pero su
descripción está fuera del ámbito de la presente memoria. El objetivo fundamental del presente
apartado ha sido introducir las técnicas que, de uno u otro modo, han inspirado los desarrollos
realizados en el trabajo que nos ocupa. Desde nuestro punto de vista, los métodos espaciales
descritos resultan de suma importancia, puesto que pueden utilizarse para ampliar,
complementar y refinar los resultados obtenidos por otras aproximaciones que trabajan
exclusivamente en el dominio espectral. A continuación, procedemos a describir estas
aproximaciones.
2.3. Técnicas espectrales
Las técnicas de teledetección espectral se basan en el hecho de que todos los materiales
presentes en el mundo real reflejan, absorben y emiten energía electromagnética de forma
distinta en diferentes longitudes de onda (Clark, 1999a).
En la actualidad, existe un amplio conjunto de instrumentos o sensores capaces de medir
singularidades espectrales en diferentes longitudes de onda a lo largo de áreas espaciales
extensas (Landgrebe, 2002). La disponibilidad de estos instrumentos ha facilitado una
redefinición del concepto de imagen digital a través de la extensión de la idea de pixel. Así, en
un esquema puramente espacial, un pixel está constituido por un único valor discreto, mientras
que, en un esquema espectral, un pixel consta de un conjunto de valores. Estos valores pueden
ser entendidos como vectores N-dimensionales (Boardman y col., 1995), siendo N el número de
bandas espectrales en las que el sensor mide información.
La ampliación del concepto de pixel da lugar a lo que se conoce como imagen multi-
dimensional, como aparece ilustrado en la figura 2.3.1. En dicha figura, el orden de magnitud de
N permite realizar una distinción a la hora de hablar de imágenes multi-dimensionales. Así,
cuando el valor de N es reducido, típicamente unas cuantas bandas espectrales (Hsieh y
Landgrebe, 1998), se habla de imágenes multiespectrales, mientras que, cuando el orden de
magnitud de N es de cientos de bandas (Green y col., 1998), se habla de imágenes
hiperespectrales.
- 34 - Capítulo 2. Antecedentes.
Líneas
Mu
estr
asBan
das 1
- 4
Pixel en posición (x,y)
ND en banda 1
ND en banda 2
ND en banda 3
ND en banda 4
Figura 2.3.1. Ejemplo ilustrativo de una imagen multi-dimensional de 4 bandas.
El orden de magnitud de N permite realizar una distinción a la hora de hablar de imágenes
multi-dimensionales. Así, cuando el valor de N es reducido, típicamente unas cuantas bandas
espectrales (Hsieh y Landgrebe, 1998), se habla de imágenes multiespectrales, mientras que,
cuando el orden de magnitud de N es de cientos de bandas (Green y col., 1998), se habla de
imágenes hiperespectrales.
En este apartado presentamos el estado del arte en cuanto a las técnicas de análisis
hiperespectral, de forma previa a la descripción de la nueva metodología que proponemos para
el procesamiento de este tipo de datos, la cual será presentada en capítulos posteriores. El
apartado comienza analizando algunas características funcionales de los sensores
hiperespectrales más relevantes en la actualidad. Seguidamente, se plantean los conceptos
fundamentales en los que se asienta el análisis de datos hiperespectrales. El apartado finaliza
con una descipción de las técnicas y algoritmos de análisis hiperespectral más relevantes que
pueden encontrarse en la literatura.
2.3.1. Sensores hiperespectrales.
Comenzamos este apartado describiendo algunos aspectos acerca del funcionamiento de los
sensores hiperespectrales actuales, detallando el concepto de resolución del sensor y los tipos de
resolución existentes, los tipos de sensores según la forma en que adquieren los datos, y el
concepto de relación señal-ruido, uno de los parámetros más importantes a la hora de determinar
las prestaciones del aparato de medida en el proceso de adquisición de datos.
Capítulo 2. Antecedentes - 35 -
Una vez descritos estos aspectos fundamentales, el apartado concluye con una descripción
detallada de los sensores hiperespectrales a partir de los cuales se han obtenido las imágenes
utilizadas en este trabajo. En concreto, se profundiza en las características de cuatro
instrumentos: AVIRIS, CASI, DAIS 7915 y ROSIS.
Aspectos fundamentales sobre sensores hiperespectrales
Dentro de las características más importantes de los sensores hiperespectrales, destacamos la
resolución del sensor, el proceso de adquisición de datos y la relación señal-ruido.
Resolución del sensor.
El concepto de resolución puede estar referido a diferentes aspectos, entre los que se
encuentran la resolución espacial, ya comentada, y las resoluciones espectral y radiométrica,
que se describen a continuación.
Resolución espectral.
La resolución espectral está relacionada con los siguientes parámetros (Kruse, 2000):
Número de canales espectrales en los que el sensor adquiere datos.
Anchura de las bandas espectrales correspondientes a dichos canales.
De forma intuitiva, cuanto mayor sea el número de bandas disponibles, mejor será la
caracterización de los materiales presentes en la escena. Además, conviene que estas bandas
sean estrechas, puesto que la utilización de bandas anchas introduce un promediado de valores
que puede encubrir la diferenciación espectral entre cubiertas (Warner y col., 2001).
Podemos introducir el concepto de firma espectral de un determinado material o superficie
como el conjunto de valores de radiancia o reflectancia en los diferentes canales espectrales del
sensor. Si el número de bandas espectrales del sensor es muy grande y las bandas son muy
estrechas, la firma espectral puede ser considerada como un espectro casi continuo (Landgrebe,
2002).
La figura 2.3.2. muestra un ejemplo de dos firmas espectrales asociadas a una cubierta
vegetal. La primera de ellas (parte izquierda) fue adquirida por un sensor multiespectral, en
concreto, Landsat Thematic Mapper (Kalman y Pelzer, 1993), que dispone de un total de 7
- 36 - Capítulo 2. Antecedentes
bandas en el rango 0.48 – 2.21 m. La firma espectral mostrada en la parte derecha de la figura
2.3.2 fue adquirida por el sensor hiperespectral AVIRIS (Green y col., 1998), con 224 bandas
espectrales en el rango 0.4 a 2.4 m. Como puede apreciarse en la figura, la firma espectral
obtenida mediante un sensor hiperespectral se asemeja a un espectro continuo de valores,
mientras que la firma proporcionada por un sensor multiespectral es mucho menos detallada
(Kalman y Pelzer, 1993). De hecho, los sensores hiperespectrales también reciben el nombre de
“espectrómetros de imagen” en la literatura, pues son instrumentos capaces de combinar las
propiedades de los sensores de imagen con las propiedades analíticas de un espectro-radiómetro
de altas prestaciones (Green y col., 1998).
0
2000
4000
6000
8000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Radiancia
0
2000
4000
6000
8000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Radiancia
Firma espectral vegetación (Landsat TM)
Firma espectral vegetación (AVIRIS)
Figura 2.3.2. Firmas espectrales de vegetación obtenidas por el sensor multiespectral Landsat TM (7
bandas) y el sensor hiperespectral AVIRIS (224 bandas).
Resolución radiométrica.
Esta resolución indica la sensibilidad del sensor, entendiendo ésta como la capacidad de
detectar variaciones en los valores de radiancia espectral recibida. El número máximo de valores
que pueden ser detectados y, por tanto, la resolución radiométrica, viene habitualmente limitado
por el número de bits utilizado para codificar los valores de radiancia (Legleiter y col., 2002).
Adquisición de datos.
Atendiendo al procedimiento empleado por estos instrumentos para recibir la radiación
procedente de los objetos, podemos dividir los sensores hiperespectrales en dos grandes
categorías.
1.- Sensores de barrido (whiskbroom). Se basan en la oscilación de un espejo móvil de
forma perpendicular a la trayectoria del sensor, permitiendo una exploración en ambos
Capítulo 2. Antecedentes - 37 -
lados de la franja de la dirección de barrido. La información recibida por el
componente óptico se dirige a una serie de detectores que la amplifican y la convierten
en señal eléctrica (Aspinall y col., 2002). Esta señal puede almacenarse a bordo o ser
transmitida hacia estaciones de tierra a través de antenas receptoras. La figura 2.3.3
muestra un diagrama ilustrativo acerca del funcionamiento de un sensor hiperespectral
de barrido.
Oscilaciónespejo móvil
Línea
Figura 2.3.3. Funcionamiento del un sensor hiperespectral de barrido (whiskbroom).
2.- Sensores de empuje (pushbroom). No necesitan el espejo oscilante propio de los
sensores de barrido, pues están provistos de una cadena de detectores que cubre el
campo de visión del sensor (Aspinall y col., 2002). En cada momento se explora una
línea completa, línea que se va desplazando simultáneamente con la plataforma donde
se coloca el sensor. La figura 2.3.4 muestra un ejemplo de funcionamiento de un
sensor hiperespectral de empuje.
Por otra parte, existe una segunda clasificación de los sensores relativa al modo en que son
transportados en el momento de la toma de datos. La mayor parte de los sensores
hiperespectrales actuales son aerotransportados. Este es el caso de instrumentos como AVIRIS
(Green y col., 1998); DAIS 7915 y ROSIS (Müller y col., 2001); CASI (Keller y Fischer, 1998),
AISA (Mao y col., 1997), MIVIS (Bianchi y col., 2001) o HYMAP (Cocks y col., 1998). No
obstante, también existen proyectos para utilizar sensores hiperespectrales instalados en
plataformas tipo satélite como ARIES-1 (Roberts y col., 1997) o HYPERION (Kruse y col.,
2001). En el caso de utilizar una plataforma tipo satélite, la zona espacial de cobertura es
mucho mayor, aunque la resolución espacial se resiente debido a la altura de vuelo (Short y col.,
2002).
- 38 - Capítulo 2. Antecedentes
Cadena de detectores
Línea
Figura 2.3.4. Funcionamiento de un sensor hiperespectral de empuje (pushbroom).
Relación señal-ruido.
Un parámetro fundamental a la hora de definir la calidad de un sensor hiperespectral es la
relación señal-ruido o signal-to-noise ratio (SNR), que puede entenderse, en términos globales,
como la relación entre la amplitud de la señal obtenida y la amplitud del ruido o, lo que es lo
mismo, la cantidad de señal adquirida por unidad de ruido (Dabney, 1995).
En la literatura existen diferentes definiciones para este concepto. La definición más
intuitiva es aquella que cuantifica la energía de la señal frente a la energía del ruido. Esta
definición viene dada por la expresión que se muestra a continuación (Kerekes y Landgrebe,
1989a).
)y,x(
T
)y,x(
)y,x(')y,x()y,x(')y,x(
)y,x()y,x(
ESNRssss
ssT
(2.3.1)
Donde s es un vector N-dimensional que contiene los valores de una firma espectral sin
ruido, obtenida en el pixel (x,y) de la imagen, sT(x,y) es el mismo vector transpuesto y s’(x,y)
contiene la misma firma espectral pero alterada por condiciones de ruido en el proceso de
medición por parte del sensor. En lo sucesivo, utilizamos el tipo de letra negrita y cursiva para
denotar vectores, y el superíndice T para indicar la transposición de un vector.
Como resultado de esta expresión, se obtiene un ratio que ofrece una medida acerca de la
proporción entre la energía de la señal y la energía del ruido. Si el valor de la SNR es r, la
Capítulo 2. Antecedentes - 39 -
energía de señal es r veces mayor que la energía del ruido, con lo que el ratio de SNR puede
expresarse como r:1 (Green y col., 1988; Green y Boardman, 2000).
Una definición alternativa es la denominada relación SNR de pico (PSNR), que se mide en
dB’s y suele emplearse cuando el ruido es de tipo impulsivo (Kerekes y Landgrebe, 1989b). La
expresión que caracteriza la PSNR es la que se muestra a continuación:
)y,x(
T
T
)y,x(10
)y,x(')y,x()y,x(')y,x(
)y,x()y,x(Maxlog 10PSNR
ssss
ss (2.3.2)
Finalmente, una última definición de la relación señal-ruido fue dada por Harsanyi y Chang,
1994. Esta alternativa, definida para cada una de las bandas del sensor, se denota como SNR,
donde hace referencia a una longitud de onda concreta. Este valor consiste en la relación entre
la mitad de la energía de la señal y la desviación estándar del ruido en la banda asociada a dicha
longitud de onda.
La definición de Harsanyi y Chang ha sido utilizada ampliamente en la literatura para
imponer una relación señal-ruido predeterminada en cada una de las bandas de una imagen
simulada. De este modo, se puede generar una relación SNR de r:1 en las diferentes bandas del
sensor utilizando la siguiente expresión (Ifarraguerri y Chang, 1999):
)y,x(y)(x,2
y)(x,' sns
r (2.3.3)
donde s(x,y) es la firma espectral original, n(x,y) es un vector que se multiplica a la firma
antes mencionada para simular el efecto introducido por el ruido, y s’(x,y) es el espectro ruidoso
resultante. Los valores del vector n(x,y) son números aleatorios en el rango [-1,1] que siguen
una distribución de probabilidad normal y desviación estándar igual a 1. Las multiplicaciones
entre los términos vectoriales que aparecen en la expresión son realizadas elemento a elemento.
Como puede apreciarse, la firma espectral original s(x,y) es reescalada utilizando un factor
igual al 50% de la relación señal-ruido que se desea imponer en los datos. Esta operación es
equivalente a reducir la desviación estándar del ruido en un factor (2/r), con lo que se obtiene
como resultado un ratio de r:1, según la definición vista anteriormente.
- 40 - Capítulo 2. Antecedentes
Sensores hiperespectrales utilizados
Una vez descritas de forma general las características más importantes de los sensores
hiperespectrales, describimos de forma detallada las características de los sensores utilizados en
el presente trabajo. La tabla 2.3.1 muestra las características principales de los sensores
utilizados.
Sensor
Rango
espectral
Bandas
IFOV
Pixels
por línea
Tipo
Resolución
radiométrica
Resolución
temporal
AVIRIS 0.4 - 2.5 m 224 1 mrad 512 Barrido 12 bits 20.4 Mb/s
CASI 0.4 - 1 m 288 1.3 mrad 612 Empuje 12 bits 1 Mb/s
DAIS
7915
0.5 - 12.5 m 79 3.3 mrad 512 Barrido 15 bits 1.2 Mb/s
ROSIS 0.43 - 0.86 m 115 0.56 mrad 512 Empuje 14 bits 4.2 Mb/s
TABLA 2.3.1. RESUMEN DE CARACTERÍSTICAS GENERALES DE LOS SENSORES UTILIZADOS.
A continuación, detallamos brevemente algunas de las principales peculiaridades de los
sensores anteriormente mencionados.
AVIRIS.
Las siglas AVIRIS son un acrónimo de Airborne Visible-InfraRed Imaging Spectrometer.
Como su nombre indica, AVIRIS es un sensor hiperespectral aerotransportado con capacidades
analíticas en las zonas visible e infrarroja del espectro (Green y col., 1998).
El sensor entró en funcionamiento en 1987 como el primer sistema de adquisición de
imágenes capaz de obtener información en una gran cantidad de bandas espectrales estrechas y
casi contiguas. En realidad, AVIRIS es un instrumento único en el mundo de la teledetección,
pues permite obtener información espectral en 224 canales espectrales contiguos, cubriendo un
rango de longitudes de onda entre 0.4 y 2.5 m, siendo el ancho entre las bandas muy pequeño,
aproximadamente 0.01 m.
A partir de 1989, AVIRIS se convirtió en un instrumento aerotransportado. Desde ese
momento, se realizan varias campañas de vuelo cada año con objeto de tomar datos mediante
AVIRIS. En concreto, el sensor ha realizado tomas de datos en Estados Unidos, Canadá y
Europa, utilizando para ello dos plataformas diferentes:
Capítulo 2. Antecedentes - 41 -
Un avión ER-2 perteneciente a NASA/Jet Propulsion Laboratory. El ER-2 puede volar
a un máximo de 20 km sobre el nivel del mar, a una velocidad máxima de
aproximadamente 730 km/h.
Un avión denominado Twin Otter, capaz de volar a un máximo de 4 km sobre el nivel
del mar, a velocidades de 130 km/h.
Algunas de las características más relevantes del sensor AVIRIS son las que se detallan a
continuación:
El sensor utiliza un explorador de barrido (whiskbroom) que permite obtener un total
de 614 pixels por cada oscilación.
La cobertura de la parte visible del espectro es realizada por un espectrómetro EFOS-
A, compuesto por un array de 32 detectores lineales.
La cobertura en el infrarrojo es realizada por los espectrómetros EFOS-B, EFOS-C y
EFOS-D, compuestos todos ellos por arrays de 64 detectores lineales.
La señal medida por cada detector se amplifica y se codifica utilizando 12 bits. Esta
señal se almacena en una memoria intermedia donde es sometida a una etapa de
preprocesado, siendo registrada a continuación en una cinta de alta densidad de 10.4
Gb a velocidad de 20.4 Mb/s.
El sensor dispone de un sistema de calibración a bordo (on-board calibrator), que
utiliza una lámpara halógena de cuarzo que proporciona la radiación de referencia
necesaria para comprobar el estado de los diferentes espectrómetros.
Figura 2.3.5. Relación SNR en los diferentes canales de AVIRIS a lo largo de los años
(Reproducido con permiso de Robert O. Green, investigador principal del proyecto AVIRIS).
- 42 - Capítulo 2. Antecedentes
A lo largo de los últimos años, el sensor ha ido mejorando sus prestaciones en cuanto
a la relación señal-ruido. La figura 2.3.5 muestra una descripción de las prestaciones
del sensor en cuanto a la relación SNR a lo largo de los últimos años (Green y Pavri,
2000). Llama la atención el considerable aumento de prestaciones que se ha producido
en los últimos años.
CASI.
El sensor CASI (Compact Airborne Spectrographic Imager) ha estado disponible
comercialmente a través de la compañía ITRES Research Limited, con sede en Calgary, Canadá,
desde el año 1989. En la actualidad, hay un total de 20 sistemas CASI en funcionamiento
(Keller y Fischer, 1998), utilizados por diversos centros de investigación, compañías privadas,
agencias espaciales internacionales, y organizaciones de carácter militar.
El sensor CASI es un sensor de empuje que mide datos en las regiones visible e infrarrojo
cercano (ver tabla 2.2.1). Las prestaciones del sensor son elevadas, con un valor de PSNR de
aproximadamente 420:1. El sistema está compuesto por un conjunto de detectores ópticos
integrados en una unidad denominada Sensor Head Unit (SHU), complementada por una unidad
Instrument Control Unit (ICU) que permite a un operador controlar de forma sencilla el proceso
de adquisición de datos.
La característica funcional más destacable del sensor CASI es que se trata de un sensor
programable, es decir, uno de sus modos de operación permite seleccionar un conjunto de
bandas espectrales en longitudes de onda seleccionadas en un rango de 545 nm dentro del
intervalo espectral entre 0.4 y 1 m. Esta peculiaridad hace de CASI un potente instrumento, a
pesar de que su rango de cobertura espectral no es tan amplio como el de otros sensores como
AVIRIS.
DAIS 7915.
El sensor DAIS 7915 (Digital Airborne Imaging Spectrometer) fue desarrollado por la
compañía Geophysical Environmental Research, GER (Chang y col., 1993) y, en la actualidad,
su mantenimiento y explotación es realizada por la Agencia Espacial Alemana, DLR.
Desde 1994 este sensor ha realizado numerosas campañas (Strub y col., 1999; Müller y col.,
2001). El sensor DAIS 7915 se caracteriza por cubrir un amplio rango del espectro, mediante 79
bandas espectrales entre 0.4 y 12.5 m. No obstante, la separación de las bandas en este
Capítulo 2. Antecedentes - 43 -
intervalo no es regular. En concreto, el sensor está formado por un conjunto de cuatro detectores
con diferentes características (Strobl y col., 1997), las cuales aparecen descritas en la tabla 2.3.2.
Detector Rango espectral Número bandas Separación entre bandas
1 0.5 - 1 m 32 15-30 nm
2 1. - 1.8 m 45 45 nm
3 2 - 2.5 m 32 20 nm
3 - 5 m 1 2 m
4 8 - 12.5 m 6 0.9 m
TABLA 2.3.2. CARACTERÍSTICAS DE LOS DETECTORES DEL SENSOR DAIS 7915.
Algunas características destacables del sensor DAIS 7915 son las que se enumeran a
continuación:
El sensor se encuentra montado sobre un avión Do228, operado por personal de DLR.
Se trata de un sensor con mecanismo de adquisición de datos de tipo whiskbroom que
proporciona un total de 512 pixels por línea.
El sensor dispone de dos fuentes de calibración externa que permiten obtener una
elevada precisión a la hora de determinar el nivel promedio de energía de los datos
registrados.
La relación SNR es reducida para las longitudes de onda comprendidas entre 2 y 2.5
nm, debido a fuentes de ruido en el detector 3 (Strobl y col., 1998).
ROSIS.
El sensor ROSIS (Reflective Optics System Imaging Spectrometer) fue desarrollado de
forma conjunta por la compañía Dornier Satellite Systems (DSS) y la Agencia Espacial
Alemana (DLR).
Este sensor comenzó a ser utilizado a partir de 1994, año en el que superó las últimas
pruebas de puesta a punto. Originalmente, el sensor fue diseñado con objeto de detectar
cubiertas con características espectrales muy similares en aplicaciones de análisis de zonas
costeras y aguas poco profundas (Gege y col., 1994).
- 44 - Capítulo 2. Antecedentes
El detector de ROSIS está formado por una matriz de dispositivos CCD (Gege y col., 1998),
de forma que cada fila de la matriz está compuesta por 552 elementos, los cuales se describen en
la tabla 2.3.3.
Número de elementos Descripción
8 Elementos inactivos (pre-escaneado).
8 Elementos de referencia (pre-escaneado)
4 Elementos de aislamiento (pre-escaneado)
512 Elementos detectores (pixels por línea)
4 Elementos de aislamiento (post-escaneado)
8 Elementos de referencia (post-escaneado)
8 Elementos inactivos (post-escaneado)
TABLA 2.3.3. CARACTERÍSTICAS DE LOS DETECTORES DEL SENSOR ROSIS.
La calibración espectral de los datos obtenidos por el sensor ROSIS se realiza en el
momento del vuelo, utilizando para ello los elementos de referencia mencionados en la tabla
2.3.3 (Gege y col., 1998).
En la actualidad, los sensores DAIS 7915 y ROSIS están siendo utilizados dentro de la
iniciativa HySens de la Comunidad Europea, cuyo objetivo es proporcionar datos a diferentes
grupos europeos que realizan estudios en el marco de la teledetección y análisis hiperespectral
(Müller y col., 2001).
2.3.2. Técnicas de análisis hiperespectral.
En este subapartado se describen los algoritmos existentes en la actualidad para analizar
imágenes hiperespectrales, enfatizando las posibilidades que ofrecen a la hora de evaluar el
grado de pureza de los pixels de la imagen. El subapartado comienza con una breve introducción
al enfoque hiperespectral, en la que se introduce en el concepto de pixel puro y pixel mezcla y
las métricas más relevantes para el análisis de datos hiperespectrales. Seguidamente, se realiza
una descripción de las metodologías clásicas de análisis de este tipo de datos.
Capítulo 2. Antecedentes - 45 -
Breve introducción al concepto de análisis hiperespectral
El análisis hiperespectral se basa en la capacidad de los sensores hiperespectrales, descritos
anteriormente, para adquirir imágenes digitales en una gran cantidad de canales espectrales muy
cercanos entre sí, obteniendo, para cada pixel, una firma espectral característica de cada material
(Landgrebe, 2002). Este proceso facilita la identificación y cuantificación de los materiales
presentes en la escena (Shaw y Manolakis, 2002; Stein y col., 2002).
Longitud de onda (m)
Ref
lec t
a nci
a
Sensor hiperespectral
Imagen hiperespectral
Pixel hiperespectralFirma espectral
0.4 2.5
224 bandas
Figura 2.3.6. Procedimiento de análisis hiperespectral.
El resultado de la toma de datos por parte de un sensor hiperespectral sobre una determinada
escena puede ser representado en forma de cubo de datos, con dos dimensiones para representar
la ubicación espacial de un pixel, y una tercera dimensión que representa la singularidad
espectral de cada pixel en diferentes longitudes de onda. La figura 2.3.6 ilustra el procedimiento
de análisis hiperespectral mediante un sencillo diagrama, en el que se ha considerado como
ejemplo el sensor AVIRIS. Como puede apreciarse, la capacidad de observación de este sensor
es mucho más avanzada que la de otros dispositivos, y permite la obtención de pixels formados
por 224 valores espectrales, a partir de los cuales puede obtenerse una firma espectral
característica que será utilizada en el proceso de análisis.
- 46 - Capítulo 2. Antecedentes
Concepto de pixel mezcla
La existencia de mezclas a nivel sub-pixel es un fenómeno bastante habitual en imágenes
hiperespectrales, como aparece ilustrado de forma gráfica en la figura 2.3.7, en la que se
muestra la diferencia entre pixels puros y pixels mezcla.
Pixel puro(agua)
Pixel mezcla(suelo + rocas)
Pixel mezcla(árboles + suelo)
Figura 2.3.7. Concepto de pixel puro y pixel mezcla en una imagen hiperespectral.
Podemos definir un pixel mezcla como aquel en el que cohabitan diferentes cubiertas (Hsieh
y col., 2001; Kustas y Norman, 2002; Faraklioti y Petrou, 2001; Tu y col., 1999). Los pixels
mezcla constituyen la mayor parte de los pixels de una imagen hiperespectral, y su existencia se
debe a una de las dos razones que mencionamos a continuación:
1.- Mezcla macroscópica. Si el tamaño de pixel no es lo suficientemente grande para
separar diferentes materiales, dichos elementos ocuparán el espacio asignado al pixel,
con lo que el espectro resultante obtenido por el sensor será en realidad un espectro
correspondiente a una mezcla de componentes (Chen, 1999). Esta situación aparece
ilustrada mediante un ejemplo en las figura 2.3.8a y 2.3.8b.
2.- Mezcla íntima. Pueden obtenerse pixels mezcla cuando diferentes materiales se
combinan, dando lugar a lo que se conoce como mezcla íntima entre materiales
(Keshava y Mustard, 2002; Johnson y col., 1983). Esta situación, ilustrada en la figura
2.3.9, ocurre independientemente de cuál sea la resolución espacial del sensor.
Capítulo 2. Antecedentes - 47 -
Suelo
Árbol
Pasto
Mezcla macroscópica:
15% suelo, 25% árbol, 60% pasto en un pixel de 3x3 metros
12 metros
12 m
etro
s
Figura 2.3.8.a. Mezcla motivada por la superposición de varios materiales en un pixel.
0
1000
2000
3000
4000
5000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Rad
ian
cia
0
1000
2000
3000
4000
5000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Rad
ian
cia
0
1000
2000
3000
4000
5000
6000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Rad
ian
cia
0
1000
2000
3000
4000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Rad
ian
cia
0.15
0.25
0.60
++
+
+
Suelo
Árbol
Pasto
Pixel mezcla
Figura 2.3.8.b. Obtención de un pixel mezcla a partir de una combinación lineal de espectros puros.
- 48 - Capítulo 2. Antecedentes
Afloramiento rocoso con partículas muy pequeñas de arena
Mezcla íntima:
Roca y arena entremezcladas en un pixel de 1x1 metros
4 metros
4 m
etro
s
Figura 2.3.9. Mezcla íntima entre materiales.
El fenómeno de la mezcla es característico del mundo real, y tiene la propiedad de ocurrir
independientemente de la escala que sea considerada (Verhoeye y De Wulf, 2002). En último
extremo, la mezcla de materiales tiene lugar a nivel microscópico (Vaughan y col., 2001). Por
este motivo, las técnicas de análisis deben tener muy en cuenta el fenómeno de la mezcla. En la
literatura existen modelos muy diversos que simulan las propiedades de la mezcla de
componentes en objetos del mundo real (Borel y Gerstl, 1994).
Métricas para el análisis de imágenes hiperespectrales
La distinción entre pixel puro y pixel mezcla pone de manifiesto que la operación de
comparación de firmas espectrales va a ser crucial para la determinación del grado de pureza de
un determinado pixel (Faraklioti y Petrou, 2000). La determinación del grado de similaridad
entre dos firmas espectrales puede ser realizada utilizando un amplio abanico de métricas. Por
este motivo, la elección de una medida de similaridad apropiada resultará de gran importancia a
la hora de cuantificar e interpretar los resultados finales obtenidos (Sweet y col., 2000). A
continuación, presentamos las métricas de comparación de firmas espectrales más ampliamente
utilizadas en la literatura, destacando sus ventajas e inconvenientes principales.
Las medidas que van a ser introducidas en esta sección no incorporan información acerca de
las propiedades físicas de los objetos cuyas firmas espectrales son analizadas. Al contrario, las
magnitudes introducidas proporcionan una serie de métricas comparativas que únicamente
permiten cuantificar el grado de similaridad entre dos firmas espectrales.
En la actualidad, la incorporación de parámetros físicos en las métricas de comparación y,
por tanto, en algoritmos de análisis hiperespectral, ha comenzado a ser explorada en la literatura
Capítulo 2. Antecedentes - 49 -
(Zarco-Tejada y col., 2001; White y col., 2001; Hu y col., 2000). Es previsible que esta
disciplina suponga uno de los campos de estudio más activos en los próximos años.
Teniendo en cuenta las consideraciones anteriormente mencionadas, procedemos a detallar
las medidas de comparación más relevantes en el análisis de datos hiperespectrales. La
importancia de estas medidas radica en que se utilizan de forma recurrente como base del
funcionamiento de muchos algoritmos de análisis hiperespectral.
Ángulo espectral (SAM).
Sean u y v dos firmas espectrales expresadas en forma de dos vectores N-dimensionales. El
coseno del ángulo espectral (Boardman y col., 1995) entre ambos vectores, denotado SAM(u,v),
se calcula mediante la siguiente expresión:
22
, cos),(SAM
vu
vuvu (2.3.4)
Esta medida aparece frecuentemente denominada en la literatura simplemente como ángulo
espectral (Bruce y col., 2001). A continuación, destacamos algunas características interesantes
relacionadas con esta medida:
x y
z
u = (x0, y0, z0)
v = (x1, y1, z1)
x y
z
u = (x0, y0, z0)
v = (x1, y1, z1)
Mejor caso SAM: cos () = 1, cuando = 0
Peor caso SAM: cos () = 0, cuando = /2
Figura 2.3.10. Representación gráfica de la medida SAM en una imagen con 3 bandas espectrales.
El valor de la medida SAM se encuentra siempre entre 0 y 1, puesto que los vectores
comparados contienen valores de radiancia o reflectancia, los cuales son siempre
positivos (Keshava y Mustard, 2002). Esta situación aparece ilustrada mediante un
- 50 - Capítulo 2. Antecedentes
ejemplo en la figura 2.3.10 (Bruce y col., 2001), en la que se describe de forma gráfica
la medida SAM en el caso simplificado de una imagen con 3 bandas espectrales.
Por otra parte, la medida SAM es invariante frente a la multiplicación de los vectores
u y v por valores constantes. De este modo, se trata de una medida robusta frente a
cambios en la escala de las firmas espectrales debidos a condiciones diferentes de
iluminación de la escena, y a divergencias en la orientación angular (Schweizer y
Moura, 2001), condiciones que la convierten en una medida muy apropiada para
analizar el grado de similitud en cuanto a la forma de dos signaturas espectrales.
Divergencia espectral (SID).
Esta medida se basa en la entropía de las firmas espectrales comparadas (Chang, 2000). Sea
TN21 u,...,u,uu un pixel de una imagen hiperespectral con N bandas. Si se satisface la
restricción de que todos los componentes del vector u son no negativos, una suposición que se
cumple este caso al estar compuesto u por valores de radiancia o reflectancia, puede definirse
una medida de probabilidad P para una determinada componente de dicho vector mediante la
siguiente expresión:
N
1iijjj uupuP (2.3.5)
El vector TN21 p,...,p,pp se denomina vector de probabilidad asociado al pixel u. Para
calcular la divergencia espectral SID entre dos pixels u y v es necesario en primer lugar obtener
el vector de probabilidad asociado al pixel v. Así, la medida de probabilidad P para una
determinada componente del vector v se calcula de la siguiente forma:
N
1iijjj vvqvP (2.3.6)
El vector de probabilidad asociado al pixel v será por tanto TN21 q,...,q,qq . Una vez
realizadas estas definiciones, la entropía relativa de u con respecto a v viene dada por la
siguiente expresión:
i
iN
1ii q
plogp||D vu , (2.3.7)
Capítulo 2. Antecedentes - 51 -
Finalmente, la divergencia espectral entre los vectores u y v, denotada como SID(u,v), se
expresa de la siguiente forma:
uvvuvu ||D||D),(SID (2.3.8)
Esta medida ofrece una nueva visión acerca de la similaridad de dos firmas espectrales,
haciendo uso de conceptos de probabilidad, teoría de la información (Aiazzi y col., 2001) y de
la entropía relativa de las firmas espectrales comparadas. En algunos trabajos (Chang, 2000) se
ha demostrado la robustez de esta medida, que permite cuantificar de forma precisa las
diferencias en el dominio espectral de las firmas comparadas.
Error cuadrático (SE) y error cuadrático medio (RMSE).
Sean TN21 u,...,u,uu y TN21 v,...,v,vv dos firmas espectrales expresadas en forma
de vectores N-dimensionales. El error cuadrático entre ambas, denotado como SE(u,v), viene
dado por la siguiente expresión:
N
1i
2ii vu),(SE vu (2.3.9)
El error cuadrático cuantifica la diferencia de las firmas espectrales considerando cada una
de las bandas. Conviene destacar que esta medida, a diferencia de las medidas SAM y SID, es
sensible a los cambios de iluminación en la imagen original.
El error cuadrático puede utilizarse para obtener una medida de error entre dos imágenes
hiperespectrales A y B. Así, el error cuadrático medio entre A y B, denotado como RMSE(A,B),
se obtiene calculando el error SE entre todos los pixels coincidentes de las dos imágenes, tal y
como se muestra en la siguiente expresión:
)y,x(
y,xB,y,xASEN
1)B,A(RMSE (2.3.10)
Una vez descritas las métricas de análisis hiperespectral más comunes, procedemos a
detallar las metodologías más conocidas de análisis hiperespectral, las cuales se caracterizan por
utilizar las métricas anteriormente mencionadas.
Tradicionalmente, los algoritmos de análisis hiperespectral se dividen en dos grandes grupos
(Manolakis y Shaw, 2002).
- 52 - Capítulo 2. Antecedentes
1.- Algoritmos de clasificación de pixels. Abordan el problema de la clasificación desde
una perspectiva simplificada, suponiendo que los pixels están constituidos por un
único material.
2.- Algoritmos de estimación de abundancias. Contemplan el problema desde la
perspectiva de analizar, de forma pormenorizada, las diferentes sustancias que
cohabitan en un pixel mezcla. Esta aproximación también se ha denominado análisis
sub-pixel en la literatura (Manolakis y col., 2001).
A continuación detallamos las características fundamentales de cada una de estas
aproximaciones, insistiendo en la descripción de las diferentes metodologías existentes en cada
caso.
2.3.2.1. Algoritmos de clasificación de pixels
La forma más simple de abordar el problema de la clasificación de pixels en una imagen
hiperespectral es considerar que los pixels de interés están compuestos por un solo material,
utilizando las técnicas convencionales de clasificación de patrones (Chang y Ren, 2000) pero
con mayor precisión, debido al elevado número de bandas espectrales disponibles.
En la práctica, el uso de sensores hiperespectrales permite una mejor determinación de la
composición interna de cada pixel, que raramente estará compuesto por un único material, pues
el fenómeno de la mezcla es muy habitual en el mundo real, independientemente de cuál sea la
escala espacial considerada (Chen, 1999).
Existe un conjunto de técnicas de clasificación de patrones que realizan la interpretación de
una escena obtenida de forma remota en base a la asignación de una etiqueta o clasificación
individual a cada uno de los pixels de la misma. Estas técnicas ofrecen resultados interesantes en
determinadas aplicaciones, particularmente en las que se destacan a continuación.
1.- Clasificación temática. Las técnicas de clasificación han sido utilizadas de forma
satisfactoria en aplicaciones que tienen como objetivo la obtención de un mapa
temático en el que cada pixel de la imagen hiperespectral está debidamente etiquetado
como perteneciente a una clase concreta (Stehman, 1997). Puede existir una clase
adicional denominada "fondo" o "resto" que representa a los pixels que no han sido
clasificados en ninguna de las clases anteriores. El resultado ideal se obtiene cuando
todas las clases, incluyendo la clase "fondo", son mutuamente excluyentes entre sí. La
tarea clave en este tipo de aplicaciones suele ser la determinación del número de
clases y la caracterización de las mismas en términos de datos de entrenamiento o
información de verdad-terreno.
Capítulo 2. Antecedentes - 53 -
2.- Detección de targets. Las técnicas de clasificación también han sido utilizadas de
forma muy extensa en aplicaciones de detección de objetivos o targets en imágenes
hiperespectrales (Chiang y col., 2001). En este tipo de aplicaciones, el objetivo
fundamental es la identificación de un material u objeto específico (denominado
target en la bibliografía) entre todos los pixels de la imagen.
Conceptualmente, los dos problemas mencionados puede considerarse como un problema de
clasificación binario:
En la detección de targets, los pixels son clasificados en dos clases, denominadas
"objeto" y "fondo", dependiendo de si contienen o no el target buscado.
En la clasificación temática, hay varias clases posibles asociadas a distintos objetos. El
objetivo es, en última instancia, determinar la existencia o no de cada uno de los
objetos considerados en cada pixel, situación que puede expresarse como un problema
de clasificación binario (Manolakis y Shaw, 2002).
0
2000
4000
6000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Rad
ianc
ia
Suelo
Árbol
Suelo
Árbol
Banda X (600 nm)
Ban
da Y
(105
0 nm
) Suelo
Árbol
Espacio de patrones
Imagen hiperespectralX Y
Figura 2.3.11. Ilustración gráfica del problema de clasificación en imágenes hiperespectrales.
El problema de clasificación binaria se puede formular matemáticamente del siguiente
modo. Sea R el espacio N-dimensional formado por todos los pixels de la imagen hiperespectral.
Sea TN21 u,...,u,uu un vector N-dimensional, asociado a un pixel concreto. La
- 54 - Capítulo 2. Antecedentes
clasificación binaria consiste en dividir el espacio R en dos regiones, Ro y Rf, de forma que u es
clasificado como "objeto" si uRo y como "fondo" si uRf. Este problema puede ilustrarse de
forma gráfica utilizando un diagrama de dispersión entre dos bandas poco correlacionadas de la
imagen hiperespectral, como se muestra en la figura 2.3.11.
El diagrama mostrado en la figura 2.3.11 se denomina “diagrama de dispersión”. Como
puede apreciarse en la figura, la situación ideal en un problema de clasificación se produce
cuando la separación entre objeto y fondo está claramente definida en agrupaciones o clusters
claramente diferenciables.
Los algoritmos de clasificación de imágenes hiperespectrales pueden dividirse en dos
grandes categorías (Keshava y Mustard, 2002): algoritmos supervisados y algoritmos no
supervisados.
1.- Algoritmos supervisados. Parten de un cierto conocimiento sobre las clases
existentes, a partir del cual pueden derivarse criterios de clasificación. Esta
aproximación suele venir dada por un paso previo en el que se seleccionan firmas
espectrales características de las clases existentes.
2.- Algoritmos no supervisados. Presuponen que no existe ningún tipo de conocimiento
a priori sobre las clases existentes. El objetivo de estas técnicas es identificar, de
forma automatizada, clases o agrupaciones de pixels, utilizando para ello una métrica
de similaridad.
A continuación, algunas de las aproximaciones más relevantes en cada una de estas dos
categorías.
Algoritmos supervisados.
Dentro de las técnicas de clasificación supervisadas, destacamos los filtros de similaridad
(matched filters) y el método SAM (Spectral Angle Mapper), ambos basados en estadísticas de
primer orden.
Filtros de similaridad (MF).
Sea Ro el objeto a detectar y K1,..,i ;R if u el fondo, constituido por los pixels que no
pertenecen al objeto. Sean f y f, respectivamente, el vector promedio y la matriz de
covarianza del fondo, los cuales se definen de la siguiente forma:
Capítulo 2. Antecedentes - 55 -
K
1if K
1iuμ (2.3.11)
K
1i
Tfff K
1μuu ii (2.3.12)
Dada una firma espectral s, representativa del objeto a detectar, puede obtenerse un valor de
similaridad MF(s) para dicha firma utilizando la siguiente expresión:
ss
μss
)(MF
1f
Tf
1f
T
, (2.3.13)
donde 1f es la inversa de la matriz de covarianza del fondo.
Los filtros de similaridad han sido utilizados en numerosos problemas de análisis
hiperespectral, pues proporcionan un mecanismo eficiente para detectar objetos utilizando un
conocimiento previo acerca de los mismos (Funk y col., 2001). En particular, los filtros de
similaridad son muy populares en aplicaciones de detección de targets (Ifarraguerri y Chang,
1999), en las que han demostrado su eficacia como método de identificación de objetos.
Método SAM.
Este método utiliza la medida SAM, descrita en el apartado 2.3.2, y consiste en calcular el
coseno del ángulo espectral entre una firma espectral característica de un objeto que se desea
identificar y las firmas espectrales de todos los pixels de la imagen. Aquellos pixels para los que
el valor obtenido sea cercano a 0 tendrán una alta probabilidad de estar constituidos por el
material buscado (Bruce y col., 2001).
La figura 2.3.12 muestra, mediante una sencilla representación bidimensional basada en un
diagrama de dispersión entre dos bandas espectrales poco correlacionadas, cómo la distancia
SAM puede ser utilizada para caracterizar de forma única a los pixels en función del ángulo que
forman con uno de los ejes del sistema de coordenadas. En este ejemplo, los pixels cuyo ángulo
espectral respecto a un vector de referencia de la clase es superior a un valor umbral, son
asociados a dicha clase, mientras que el resto de pixels se asocia a otra clase distinta. La
elección de un valor adecuado para el ángulo umbral, así como la relación entre el valor
escogido y la distribución de los puntos en el espacio, son los dos factores determinantes a la
hora de evaluar si la información angular presenta o no propiedades adecuadas en cuanto a la
separación de muestras.
- 56 - Capítulo 2. Antecedentes
Banda X
Ban
da Y
Clase 1 (Ángulo )
Clase 2 (Ángulos < )
Figura 2.3.12. Clasificación de pixels utilizando el ángulo espectral.
La principal ventaja del método SAM viene dada por las propiedades de la distancia en la
que se basa. La diferencia de ángulo espectral ofrece, como hemos visto anteriormente, muy
buenos resultados en caso de que los pixels de la imagen estén afectados por condiciones de
iluminación variable (Boardman y col., 1995), permitiendo establecer una clasificación que no
se ve afectada por estos detalles. Por otra parte, el método SAM presenta algunas limitaciones
cuando la magnitud de los valores es importante a la hora de discriminar la información,
circunstancia que tiene lugar en determinadas aplicaciones (Richards y Jia, 1999).
Algoritmos no supervisados.
Las técnicas de clasificación de pixels de forma no supervisada en imágenes hiperespectrales
se encuentran en plena fase de desarrollo (Landgrebe, 2002). Entre las técnicas existentes,
destaca el método K-Means (Theiler y Gisler, 1997), que supone la existencia de K clases
(parámetro que debe ser determinado a priori) y realiza una agrupación de los pixels de la
imagen en dichas clases utilizando los vectores métodos puramente estadísticos basados en los
espectros promedio de dichas clases.
Por otra parte, el método ISODATA (Richards, 1993) también requiere la inicialización de
un parámetro K relativo al número de clases deseadas, de forma previa a la ejecución del
algoritmo. Además, este método necesita información relativa al número mínimo de firmas
pertenecientes a una clase. Si el valor inicial de K es bajo, la dispersión entre clases diferentes
puede ser muy alta. Por el contrario, si el valor inicial de K es alto, la distancia entre clases
puede ser muy pequeña, provocando el particionamiento de una misma clase en varias clases
similares entre sí. En general, la literatura reciente demuestra que los resultados obtenidos por
Capítulo 2. Antecedentes - 57 -
estas dos técnicas no han sido demasiado satisfactorios, salvo en aplicaciones muy concretas
(Sweet y col., 2000).
Una vez presentadas las técnicas más habituales de clasificación de imágenes
hiperespectrales, concluimos el presente apartado destacando algunas técnicas utilizadas para
evaluar dichos algoritmos.
Técnicas de evaluación de algoritmos de clasificación.
La gran cantidad de técnicas existentes, así como la continua proliferación de nuevas
metodologías, hace patente la necesidad de esquemas comparativos o métricas que permitan
analizar de forma cualitativa el rendimiento de las nuevas metodologías planteadas,
contrastando sus resultados con los proporcionados por las ya existentes (Chang y Ren, 2000).
La mayor parte de las técnicas de evaluación de algoritmos de análisis de imágenes digitales
de teledetección se basan en el concepto de verdad terreno, ampliamente utilizado en análisis de
imágenes obtenidas de forma remota (Rellier y col., 2002). Podemos definir idealmente el
concepto de verdad terreno como el resultado de clasificación o interpretación óptimo al que
debe llegar un algoritmo (Madhok y Landgrebe, 1998; Tadjudin y Landgrebe, 1998).
La verdad terreno suele venir caracterizada por información relevante acerca de las
propiedades en el mundo real de un conjunto de objetos que se desean identificar o caracterizar.
Esta información suele obtenerse mediante mediciones realizadas directamente en la zona de
estudio cubierta por la imagen (Naesset, 2002), aunque también es posible obtener información
de verdad terreno mediante la aplicación de técnicas algorítmicas (Clark y col., 1999a). En todo
caso, la primera alternativa es la más fiable, aunque puede resultar costosa debido a la necesidad
de organizar campañas con instrumentación de medidas sobre el terreno (Swayze y col., 1992;
Swayze y col., 1998; Bagheri y col., 2001; Chabrillat y col., 2001; Launeau y Despan, 2001;
Schott y col., 2001; Dennison y col. 2001; Vaughan y col., 2001).
Asumiendo la existencia de la información de verdad terreno, existen varias metodologías
que permiten comparar el resultado proporcionado por un algoritmo de análisis de imágenes con
dicha información. En este apartado se presenta una breve descripción de las diferentes métricas
que se pueden aplicar para evaluar la habilidad de un algoritmo computacional en cuanto a la
clasificación e identificación de objetos de interés en una imagen digital obtenida de forma
remota. En concreto, destacamos dos de las aproximaciones más ampliamente utilizadas: la
matriz de confusión y las curvas ROC.
- 58 - Capítulo 2. Antecedentes
Matriz de confusión.
La matriz de confusión (Congalton, 1989) es una técnica que permite evaluar la precisión de
algoritmos de clasificación de imágenes digitales obtenidas de forma remota. Esta técnica
presupone que la información verdad terreno viene expresada en forma de un mapa temático
(Stehman, 2000; Steele y col., 1998), caracterizado por las siguientes propiedades:
1.- Cada pixel se encuentra etiquetado como perteneciente a una determinada clase, de
forma que se tienen N clases o regiones de referencia N
1iiR .
2.- Las regiones de referencia son mutuamente excluyentes entre sí, es decir, dos regiones
diferentes no tienen ningún pixel en común: ji ,RR ji .
Supongamos que cada píxel i de la imagen a evaluar, I, es asignado por el algoritmo como
perteneciente a una determinada clase Ci, de forma que se tienen N clases. Los conjuntos Ci
determinan una partición de la imagen a evaluar, es decir, la unión de todos ellos da como
resultado la imagen y dos conjuntos distintos no tienen ningún elemento en común:
ji ,CCy IC ji
N
1ii
(2.3.14)
Lago (R0)
Carretera (R1)
Árboles (R2)
Suelo (R3)
Mapa temático (verdad terreno)
Lago (C0)
Carretera (C1)
Árboles (C2)
Suelo (C3)
Clasificación (Algoritmo)
a33=|C3R3|a32=|C3R2|a31=|C3R1|a30=|C3R0|C3
a23=|C2R3|a22=|C2R2|a21=|C2R1|a20=|C2R0|C2
a13=|C1R3|a12=|C1R2|a11=|C1R1|a10=|C1R0|C1
a03=|C0R3|a02=|C0R2|a01=|C0R1|a00=|C0R0|C0
R3R2R1R0
a33=|C3R3|a32=|C3R2|a31=|C3R1|a30=|C3R0|C3
a23=|C2R3|a22=|C2R2|a21=|C2R1|a20=|C2R0|C2
a13=|C1R3|a12=|C1R2|a11=|C1R1|a10=|C1R0|C1
a03=|C0R3|a02=|C0R2|a01=|C0R1|a00=|C0R0|C0
R3R2R1R0
Matriz de confusión
Figura 2.3.13. Ejemplo de construcción de una matriz de confusión.
Teniendo en cuenta las anteriores consideraciones, la figura 2.3.13 muestra un ejemplo del
proceso de construcción de una matriz de confusión. En la figura, se muestra el mapa temático
de clasificación verdad terreno asociado a la imagen a clasificar, el resultado de clasificación
proporcionado por un determinado algoritmo para dicha imagen, y la matriz de confusión que
Capítulo 2. Antecedentes - 59 -
cuantifica la precisión del algoritmo en la tarea de clasificación. Como puede apreciarse, las
entradas de la matriz vienen expresadas en la forma jka , siendo kjjk RCcardinala , el
número de pixels de la región resultante al efectuar la intersección entre una clase jC obtenida
por el algoritmo y una clase verdad terreno kR (Congalton, 1989).
A partir de la matriz de confusión pueden derivarse algunas medidas de precisión genéricas
(Jäger y Benz, 2000; Nishii y Tanaka, 1999), como el porcentaje de acierto global (tanto por
ciento de pixels clasificados de forma correcta en todas las clases) y el porcentaje de fallo global
(tanto por ciento de pixels clasificados de forma incorrecta).
Curvas ROC.
La teoría de la detección (McMillan y Creelman, 1992), cuyo máximo exponente son las
curvas ROC (Receiving Operating Characteristics), ha sido ampliamente utilizada para medir la
habilidad con la que un algoritmo computacional es capaz de llevar a cabo una tarea de
reconocimiento de formas u objetos en imágenes digitales (Alsing y col., 2002). En particular,
estas curvas han sido utilizadas para evaluar nuevos algoritmos de análisis hiperespectral (Bruce
y col., 2001), fundamentalmente aquellos algoritmos orientados a identificar targets u objetos
de interés (Chang y col., 1999).
Las curvas ROC pueden entenderse como un caso particular de la matriz de confusión
cuando el problema de clasificación es binario, es decir, limitado a dos únicas clases (McMillan
y Creelman, 1992). De este modo, para construir una curva ROC es necesario partir del
supuesto de que la información verdad terreno viene expresada en forma de una imagen binaria,
en la que cada pixel viene etiquetado como perteneciente una de dos clases: objeto, Vo, o fondo,
Vf, siendo estas clases mutuamente excluyentes entre si. Por su parte, el algoritmo de
clasificación da como resultado dos clases binarias mutuamente excluyentes: objeto, Co, y
fondo, Cf. Teniendo en cuenta estas definiciones, la tabla 2.3.3 describe la nomenclatura
utilizada en análisis ROC.
Vo Vf
Co VPs = |CoVo | FPs = |CoVf |
Cf FNs = |CfVo | TNs = |CfVf |
TABLA 2.3.4. NOMENCLATURA UTILIZADA EN ANÁLISIS ROC.
Las medidas mostradas en la tabla 2.3.4 se interpretan de la siguiente forma:
- 60 - Capítulo 2. Antecedentes
Verdaderos positivos (VPs): son los aciertos, es decir, el número de pixels
etiquetados de forma correcta por el algoritmo de clasificación como pertenecientes al
objeto a detectar.
Falsos positivos (FPs): son las falsas alarmas, es decir, el número de pixels
etiquetados incorrectamente por el algoritmo de clasificación como pertenecientes al
objeto.
Verdaderos negativos (TNs): son las desestimaciones correctas, es decir, el número
de pixels que el algoritmo etiqueta de forma correcta como no pertenecientes al objeto.
Falsos negativos (FN): son las omisiones, o el número de pixels que el algoritmo
etiqueta de forma errónea como no pertenecientes al objeto.
Teniendo en cuenta esta nomenclatura, podemos expresar el porcentaje de acierto global o
sensibilidad mediante la siguiente expresión:
VNs +VPs
VPs =H (2.3.15)
De forma similar, podemos expresar el porcentaje de fallo o especificidad mediante la
siguiente expresión:
VNs +FPs
FPs=F (2.3.16)
Las curvas ROC son representaciones gráficas de la sensibilidad con respecto a la
especificidad. El rango de variación de H y F es el intervalo [0,1]. Así, la sensibilidad será
perfecta si H=1 y F=0, mientras que la sensibilidad será nula si H=F. La construcción de una
curva ROC se lleva a cabo mediante la obtención de diferentes pares de puntos (H,F) a través de
la selección de diferentes valores para una variable de decisión. En el caso de aplicaciones de
detección de targets en imágenes en ND’s, la variable de decisión consiste en un valor umbral,
de forma que:
Los pixels cuyo ND está por encima del umbral establecido se consideran como
pertenecientes al objeto a detectar.
Los pixels cuyo ND está por debajo de dicho umbral se consideran como
pertenecientes al fondo.
La figura 2.3.14 muestra un sencillo ejemplo de la construcción de una curva ROC para una
imagen de clasificación proporcionada por un algoritmo de detección de targets, en la que los
pixels con ND claro tienen mayor probabilidad de pertenecer a los objetos de interés (árboles),
mientras que los pixels con ND mas bajo tienen mayor probabilidad de pertenecer al fondo
Capítulo 2. Antecedentes - 61 -
(suelo). La construcción de la curva ROC se ha realizado mediante la selección de cinco ND’s
umbrales equidistantes en el rango dinámico de la imagen resultante del algoritmo. La figura
pone de manifiesto que la construcción de curvas ROC permite obtener una medida cualitativa
de la bondad del algoritmo de detección, independientemente de la selección de valores
umbrales específicos.
Árboles (Objeto de interés)
Suelo (Fondo)
Algoritmo
Umbral 1(H=0, F=0)
Umbral 2(H=0.3, F=0)
Umbral 3(H=0.9, F=0.1)
Umbral 4(H=1, F=0.4)
Umbral 5(H=1, F=1)
Verdad terreno
Árboles (Objeto de interés)
Suelo (Fondo)
0
0,2
0,4
0,6
0,8
1
0 0,2 0,4 0,6 0,8 1
Especificidad (F)
Sen
sib
ilid
ad (
H)
Área bajo la curva = 89%
Figura 2.3.14. Ejemplo de construcción de una curva ROC.
Según la teoría de la detección (McMillan y Creelman, 1992), una medida adecuada para
cuantificar la precisión con la que algoritmo de detección identifica los objetos de interés es el
área bajo la curva ROC. En el ejemplo mostrado en la figura 2.3.14, el área bajo la curva ROC
se aproxima al 90% con respecto al área total en la cuadrícula, lo cual indica que la precisión del
algoritmo de detección en este ejemplo se sitúa en torno al 90%.
- 62 - Capítulo 2. Antecedentes
2.3.2.2. Algoritmos de estimación de abundancias.
Los métodos de estimación de abundancias se basan en la interpretación adecuada del
fenómeno de la mezcla espectral, descrito con anterioridad. En numerosos trabajos (Bell y col.,
2002; Rand y Keenan, 2001) se ha demostrado que el espectro de un pixel mezcla puede ser
descompuesto en una colección de espectros "puros" o "característicos" (denominados
endmembers en la terminología) y en un conjunto de valores denominados abundancias que
indican la proporción o contribución individual de cada uno de los espectros puros en el pixel
mezcla (Boardman y col., 1995). Para realizar esta operación, basada en la resolución de un
sistema de ecuaciones, es necesario que el número de bandas de la imagen original sea mucho
mayor que el número de endmembers, suposición totalmente justificada en el caso de imágenes
hiperespectrales (Keshava y Mustard, 2002). Los espectros puros normalmente vienen asociados
a componentes macroscópicos claramente identificables en la imagen, como agua, suelo,
vegetación, minerales, etc., de forma que, habitualmente, con unos cuantos endmembers se
pueden interpretar todos los puntos de la imagen.
El modelo utilizado para describir la situación anteriormente comentada es el denominado
“modelo de mezcla”, el cual considera que cualquier escena está constituida por un conjunto de
endmembers con propiedades espectrales características y diferentes entre sí, y que aparecen
mezclados en distintas proporciones (Kruse, 1998; Settle, 1996). Dentro del modelo de mezcla,
se consideran dos posibilidades diferentes:
1.- Modelo lineal. Supone que cada haz de radiación solar incidente solamente interactúa
con un único componente o endmember, de forma que la radiación total reflejada por
un pixel mezcla se puede descomponer de forma proporcional a la abundancia de cada
uno de los endmembers en el pixel (Petrou y Foschi, 1999; Hu y col., 1999). Este
modelo aparece ilustrado en la figura 2.3.15.
2.- Modelo no lineal. Supone que los endmembers interactúan según un modelo no
lineal. Borel y Gerstl, 1994, demostraron que los efectos no lineales que se producen
en este caso se deben, fundamentalmente, a efectos de dispersión múltiple en la luz
reflejada por los diferentes materiales (García-Haro y Sommer, 2002). El modelo no
lineal aparece ilustrado mediante un ejemplo en la figura 2.3.16.
El modelo lineal proporciona resultados adecuados en gran cantidad de aplicaciones (Collins
y col., 2001; Roberts y col., 1998), y se caracteriza por su simplicidad (Bateson y col., 2000).
Por su parte, el modelo no lineal ha sido utilizado con gran éxito en determinadas aplicaciones
de carácter específico, especialmente en aplicaciones orientadas a estudiar las propiedades de
cubiertas vegetales (Zarco-Tejada y col., 2001).
Capítulo 2. Antecedentes - 63 -
Comportamiento lineal
Figura 2.3.15. Representación gráfica del modelo de mezcla lineal.
Comportamiento no lineal
Figura 2.3.16. Representación gráfica del modelo de mezcla no lineal.
El modelo lineal proporciona resultados adecuados en gran cantidad de aplicaciones (Collins
y col., 2001; Roberts y col., 1998), y se caracteriza por su simplicidad (Bateson y col., 2000).
Por su parte, el modelo no lineal ha sido utilizado con gran éxito en determinadas aplicaciones
de carácter específico, especialmente en aplicaciones orientadas a estudiar las propiedades de
cubiertas vegetales (Zarco-Tejada y col., 2001).
En cualquier caso, conviene destacar que tanto el modelo lineal como el no lineal
constituyen una simplificación del mundo real, en el que se producen efectos secundarios
debidos a la luz reflejada por las diferentes cubiertas, efectos de absorción y difusión, sombras,
- 64 - Capítulo 2. Antecedentes
etc. (ver figura 2.1.4). Este hecho plantea una interesante pregunta, aún carente de una respuesta
clara en la literatura: se trata de conocer qué tipo de mezclas (lineales o no lineales) son las que
predominan en los espectros obtenidos por el sensor para los pixels mezcla.
La respuesta a la anterior pregunta depende, en gran medida, de las características propias de
la escena considerada. De este modo, el debate entre el modelo lineal y el no lineal se puede
resumir en una pregunta: ¿deben los procedimientos de análisis hiperespectral tener en cuenta
los aspectos físicos del proceso de mezcla de componentes?. A modo de respuesta genérica a
dicha pregunta, podemos afirmar que la gran complejidad asociada a los modelos de mezcla no
lineales ha hecho que el modelo lineal sea aceptado en la mayor parte de aplicaciones (Bateson
y col., 2000).
A pesar de que el trabajo realizado en esta memoria toma como punto de referencia el
modelo lineal de mezcla, consideramos interesante realizar un breve repaso a la aproximación
no lineal de forma previa a la descripción del modelo lineal.
Breve repaso del modelo no lineal de mezcla
En la literatura existen varias técnicas orientadas a tratar efectos de mezcla no lineal como
los mostrados en la figura 2.3.16. En particular, estos efectos son abundantes cuando los
elementos implicados son cubiertas vegetales (García-Haro y Sommer, 2002), caso en el que los
errores obtenidos al utilizar modelo lineales de mezcla pueden ser elevados debido a los
numerosos efectos de dispersión múltiple introducidos (Hu y col., 2002).
Entre las técnicas orientadas a tratar situaciones de mezcla no lineal en vegetación destaca la
incorporación de parámetros físicos, conocidos a priori, acerca de las cubiertas vegetales
observadas y el comportamiento de la luz reflejada al interactuar con dichas cubiertas (Goel y
Thompson, 2000). La validez de estos modelos ha sido demostrada mediante experimentos en
laboratorio, en los que se adopta un modelo de reflectancia bidireccional (Gao y col., 2002), el
cual ha sido extrapolado a situaciones en el mundo real. Algunos experimentos realizados han
demostrado que la incorporación de propiedades físicas acerca de los objetos observados puede
dar lugar a precisiones muy elevadas en las simulaciones (Asner y col., 1998; Asner y Lobell,
2000; Zarco-Tejada y col., 2001).
En otras aplicaciones, por ejemplo en identificación de minerales, el espectro resultante en
un pixel en el que tiene lugar una mezcla íntima de componentes no suele poder expresarse
como una combinación lineal de endmembers (Johnson y col., 1983), por lo que el modelo no
lineal también puede mejorar de forma considerable los resultados proporcionados por el
modelo lineal.
Capítulo 2. Antecedentes - 65 -
A pesar de las ventajas que proporciona el uso de modelos no lineales para representar
situaciones de mezcla íntima entre componentes, conviene destacar que el enfoque no lineal ha
sido mayormente estudiado en simulaciones realizadas en el laboratorio (Hu y col., 2002). Entre
las principales razones por las que los modelos no lineales no han sido aplicados de forma
regular en el análisis de datos hiperespectrales, destacamos las siguientes:
En primer lugar, los modelos no lineales son complejos y específicos. Estos modelos
suelen incorporar una gran cantidad de parámetros propios de la aplicación concreta y
que, por tanto, resultan difíciles de generalizar (por ejemplo, las propiedades físicas de
las cubiertas vegetales son muy diferentes a las de suelos o minerales). Por el
contrario, el modelo lineal es simple, y puede adaptarse de forma sencilla a una gran
variedad de aplicaciones diferentes.
El estudio detallado de las propiedades de dispersión múltiple de los fotones
incidentes solamente es viable en la actualidad suponiendo que la mayor parte de las
superficies presentes en la escena son lambertianas, es decir, dispersan la luz por igual
en todas las direcciones (ver figura 2.1.3). Cualquier otra suposición introduce
demasiada complejidad en los modelos empleados (Keshava y Mustard, 2002).
La aproximación lambertiana antes comentada resulta apropiada en el caso de
superficies planas observadas desde el nadir (Kimes y col., 2002). Sin embargo, la
obtención de una descripción detallada acerca de otro tipo de superficies necesita un
conocimiento exacto de la orientación angular de la plataforma de observación. Esta
información debe ser contrastada con información concreta sobre la elevación del
terreno, proporcionada por modelos digitales de elevación (DEMs).
En definitiva, el modelo no lineal constituye una aproximación muy prometedora y de
interés ciertamente creciente. No obstante, el estado del arte actual en esta disciplina se
compone, en su práctica totalidad, de modelos específicos, orientados en su mayor parte al
estudio de cubiertas vegetales. Esta especificidad, motivada por la dependencia del modelo no
lineal con respecto a las propiedades físicas de las cubiertas estudiadas, hace que, por el
momento, el diseño de métodos de estimación de abundancias capaces de funcionar en
aplicaciones diversas tenga como referencia el modelo lineal de mezcla.
Debido al pretendido carácter flexible de la metodología descrita en esta memoria, hemos
optado por utilizar como referencia el modelo lineal, a pesar de las ventajas sustanciales que el
modelo no lineal ofrece en aplicaciones específicas. En este sentido, una de las líneas futuras
ambicionadas por los autores de esta memoria es la incorporación de variables biofísicas propias
de los materiales en la metodología propuesta.
- 66 - Capítulo 2. Antecedentes
El modelo lineal de mezcla
En este apartado describimos las técnicas de análisis hiperespectral basadas en el modelo
lineal de mezcla. El apartado comienza con una breve descripción en términos matemáticos del
modelo. A continuación, se plantean algunas limitaciones del mismo. Finalmente, se presenta la
metodología tradicional de análisis hiperespectral basada en el modelo lineal de mezcla,
describiendo sus pasos fundamentales y las distintas técnicas disponibles para llevar a cabo cada
uno de estos pasos.
Descripción.
El modelo lineal de mezcla presupone que la proporción de componentes o endmembers que
se mezclan en un determinado pixel de la imagen sigue un proceso lineal. Sea s la firma
espectral obtenida por un sensor hiperespectral en un determinado pixel. Este espectro puede ser
considerado como un vector N-dimensional, donde N es el número de bandas espectrales del
sensor. El vector s puede modelarse en términos de una combinación lineal de vectores
endmembers, ei, i=1..E, de acuerdo con la expresión que se muestra a continuación.
E
1iii es c , (2.3.17)
donde E es el número total de endmembers, ci es un valor escalar que representa la
abundancia del endmember ei en el pixel s, y es un vector de error que debe ser lo más
reducido posible.
La expresión (2.3.17) puede entenderse también desde un punto de vista matricial,
utilizando para ello la siguiente notación, equivalente a la anterior:
wEcs , (2.3.18)
donde s(x,y) es un vector columna de dimensión N; w es un vector de error de dimensión N;
c es un vector columna de dimensión E; y E es una matriz de dimensiones NxE. A continuación,
enumeramos algunas consideraciones respecto a la notación matricial que acabamos de
introducir:
Las columnas de la matriz E son los vectores endmembers, ei, i=1..E, cada uno de
ellos con dimensión N, tal y como se muestra a continuación.
Capítulo 2. Antecedentes - 67 -
..., ,, E10 eeeE (2.3.19)
Los elementos del vector c son los coeficientes de abundancia, ci, i=1..E, de cada uno
de los E endmembers en el pixel s(x,y), es decir, el vector c contiene un coeficiente de
abundancia para cada endmember.
E
1
0
...
c
c
c
c (2.3.20)
El modelo lineal de mezcla puede interpretarse de forma gráfica utilizando un diagrama de
dispersión entre dos bandas poco correlacionadas de la imagen, tal y como se muestra en la
figura 2.3.17.
Endmember s
Endmember v
Endmember u
mezcla:1/2 u + 1/2 s
mezcla:1/2 u + 1/2 v
centroide:1/3 u + 1/3 v + 1/3 s
s
u
v
Banda i
Ban
da j
mezcla:c1 s + c2 v = –c3 u
Figura 2.3.17. Interpretación gráfica del modelo lineal de mezcla.
En la figura, puede apreciarse cómo todos los puntos de la imagen quedan englobados
dentro del triángulo formado por los tres puntos más extremos. Los vectores asociados a dichos
puntos constituyen un nuevo sistema de coordenadas con origen en el centroide de la nube de
puntos, de forma que cualquier punto de la imagen puede expresarse como una combinación
lineal de los puntos más extremos, por lo que estos puntos son los mejores candidatos para ser
seleccionados como endmembers.
- 68 - Capítulo 2. Antecedentes
Limitaciones.
La representación gráfica mostrada en la figura 2.3.17 muestra que el modelo lineal de
mezcla se basa en la identificación de los puntos más extremos de la nube de puntos (Boardman
y col., 1995). Estos puntos generalmente se corresponden con los endmembers del modelo, y
pueden utilizarse para construir un hiperpolígono convexo que engloba al resto de puntos de la
imagen (Ifarraguerri y Chang, 1999).
Esta aproximación, denominada habitualmente en la literatura como geometría convexa
(Boardman, 1993), resulta adecuada para explicar el sentido físico de los endmembers, pero no
está exenta de algunas limitaciones (Keshava y Mustard, 2002), que enumeramos a
continuación:
Variabilidad espectral. Por regla general, es frecuente que exista una notable
variabilidad en la forma espectral de los pixels correspondientes a un mismo objeto
dentro de la imagen. Esta particularidad hace que pixels adyacentes, y pertenecientes a
un mismo material, puedan presentar una firma espectral diferente debido a
condiciones de iluminación variable, efectos de sombra y a la relación existente entre
los ángulos de incidencia y reflexión (ver figura 2.1.2). Este último aspecto,
relacionado con la información angular, constituye un factor relevante en
determinadas aplicaciones, particularmente en estudios de vegetación (Berger y col.,
2000; Berger y col., 2001; ESA, 2001).
Presencia de outliers. La variabilidad en los endmembers antes comentada puede
producir pequeñas variaciones en la ubicación de los puntos, dando lugar a outliers
(Hsieh y Landgrebe, 1998) o puntos que no pueden englobarse dentro del
hiperpolígono definido por los endmembers, con lo cual sus coeficientes de
abundancia estimados tienen valor negativo. Para solucionar este problema, algunos
autores han propuesto la utilización de endmembers “falsos” (Tompkins y col., 1997),
tal y como se muestra en la figura 2.3.18.
En la figura 2.3.18 se aprecia un caso en el que la variabilidad espectral hace que sea
necesario utilizar endmembers generados de forma artificial, de forma que el hiperpolígono
definido por estos endmembers engloba a todos los puntos de la imagen. La otra solución para
representar los puntos fuera del triángulo implica la incorporación de valores de abundancia
negativos en el modelo lineal de mezcla, lo cual no resulta conceptualmente atractivo.
Algunos autores (Staenz y col., 1998) descartan la utilización de endmembers "falsos" por
considerar que puede derivar en el uso de componentes cuyas características espectrales no se
encuentran presentes en ningún objeto perteneciente al mundo real. Por el contrario, otros
Capítulo 2. Antecedentes - 69 -
autores (Tompkins y col., 1997) justifican la creación de estos puntos artificiales en base a
obtener una descripción coherente, en términos físicos, de las abundancias finales, evitando las
inconsistencias anteriormente mencionadas.
Banda i
Ban
da
j
- Outliers
- Endmembers reales
- Endmembers falsos
Figura 2.3.18. Uso de endmembers falsos para contrarrestar el fenómeno de la aparición de outliers.
Para reducir al máximo el efecto nocivo de los endmembers artificiales a la hora de realizar
la estimación de abundancias, algunos autores (Keshava y Mustard, 2002) recomiendan que los
nuevos puntos generados sean lo más cercanos posibles a puntos existentes. En términos
matemáticos, este problema se plantea desde el punto de vista de identificar el simplex (Winter,
1999) de menor volumen que engloba a todos los puntos, siendo los puntos extremos de dicho
simplex buenos candidatos para ser utilizados como endmembers.
A modo de resumen de las ideas presentadas en este apartado, puede afirmarse que los
modelo lineales basado en identificación de endmembers pueden ser sensibles a la presencia de
outliers y pixels ruidosos, los cuales pueden alterar la forma de la nube de puntos.
En la práctica, los problemas anteriormente comentados pueden solucionarse mediante la
utilización de métodos estadísticos. Nuestra propuesta para solucionar el problema, como
veremos a lo largo de la presente memoria, es la incorporación de información espacial en el
proceso de selección de endmembers.
Una vez planteadas las principales limitaciones del modelo lineal de mezcla, procedemos a
describir la metodología tradicional de análisis hiperespectral basada en este modelo.
- 70 - Capítulo 2. Antecedentes
Método clásico de análisis.
La metodología clásica de análisis de imágenes hiperespectrales utilizando el modelo lineal
de mezcla aparece ilustrada en la figura 2.3.19 (Kruse y Huntington, 1996).
Reducción dimensional
Mapas de abundancia
Imagen pre-procesada
Identificación de endmembers
Estimación de abundancias
Imagen reducida dimensionalmente
0
1000
2000
3000
4000
5000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Ref
lect
anci
a (%
*100
)
endmembers
Figura 2.3.19. Metodología clásica de análisis de imágenes hiperespectrales.
Como puede apreciarse en la figura 2.3.19, la metodología parte de una imagen pre-
procesada, es decir, corregida geométricamente (Schläpfer, 1998) y atmosféricamente (Green y
Gao, 1993; Berk y col., 1999; Richter, 2000). A continuación, se efectúan los siguientes pasos:
1.- Reducción dimensional. Este paso es opcionalmente utilizado por ciertos algoritmos
con objeto de reducir la carga computacional de pasos sucesivos mediante la
eliminación de ruido e información redundante en la imagen.
2.- Identificación de endmembers. En este paso se identifican las firmas espectrales
puras que se combinan para dar lugar a pixels mezcla en la imagen.
3.- Estimación de abundancias. La abundancia de las firmas espectrales puras o
endmembers es estimada en cada pixel de la imagen.
A partir del conjunto de pasos anteriormente descrito, el paso de identificación de
endmembers y el paso de estimación de abundancias pueden ser considerados problemas
separados (Manolakis y Shaw, 2002). Así, en la literatura se encuentran ejemplos de métodos de
Capítulo 2. Antecedentes - 71 -
estimación de abundancias que parten del supuesto de que los endmembers son previamente
conocidos (Hu y col., 1999), mientras que otros métodos se encargan de identificar los
endmembers de forma previa al proceso de cálculo de abundancias (Winter, 2000; Staenz y col.,
1998; Bowles y col., 1995). En cualquier caso, la precisión con la que se realicen estos dos
pasos es fundamental en el proceso (Kruse, 1998).
A continuación, se describen las técnicas más relevantes para llevar a cabo cada uno de los
pasos anteriormente mencionados.
Reducción dimensional.
La etapa de reducción dimensional no es, en sí misma, necesaria para el análisis de imágenes
hiperespectrales (Jiménez y Landgrebe, 1996). Sin embargo, se trata de un paso que muchos
algoritmos incorporan, debido a la alta dimensionalidad de los datos analizados.
Por otra parte, las técnicas de reducción dimensional suelen traer como consecuencia una
mejora de la relación SNR en los datos a través de la eliminación de ruido (Chang y col., 1999),
lo cual hace atractiva su utilización de forma previa al paso de identificación de endmembers. El
inconveniente que presenta esta alternativa es la dificultad para interpretar los datos espectrales
tras la etapa de reducción.
Es importante distinguir las técnicas de reducción dimensional de las técnicas de compresión
de imágenes hiperespectrales (Qian y col., 2000). Contrariamente al objetivo de los métodos de
compresión, el proceso de simplificación dimensional no permite, por regla general, reconstruir
la imagen original. Al contrario, el objetivo de la reducción dimensional es obtener una
representación mínima de la imagen que contenga la información indispensable para realizar el
análisis sobre un sub-conjunto reducido de la imagen original. De este modo, los algoritmos de
reducción dimensional suelen estar diseñados de forma que minimizan los errores cometidos al
trabajar con dicho sub-conjunto, despreocupándose de la posibilidad de recuperar la imagen
original (Kaarna y col., 2000).
A continuación describimos las técnicas de reducción dimensional más ampliamente
utilizadas en análisis hiperespectral.
Análisis de componentes principales.
El método de análisis de componentes principales o Principal Component Analysis (PCA)
aprovecha la elevada correlación existente entre bandas consecutivas de una imagen
- 72 - Capítulo 2. Antecedentes
hiperespectral (Ifarraguerri y Chang, 2000). La transformación PCA permite obtener un
conjunto reducido de bandas (denominadas autovectores) poco correlacionadas entre sí,
(ortogonales, en el caso ideal) que contienen la mayor parte de la información presente en la
imagen original. Así, el primer autovector contiene el mayor porcentaje de la varianza de la
imagen original; el segundo contiene mayor porcentaje de varianza que el tercero, y así
sucesivamente.
Las últimas bandas de la descomposición suelen venir caracterizadas por un escaso
contenido en cuanto a información relevante, estando en su mayor parte compuestas por el ruido
presente en la imagen original). De esta forma, la transformación PCA permite separar ruido de
información útil (Subramanian y col., 2001).
Es importante destacar que el conjunto de bandas resultante de la transformación PCA es
obtenido a partir de combinaciones lineales de las bandas originales de la imagen (Eastman y
Fulk, 1993). El procedimiento utilizado se basa en la identificación de un nuevo sistema de ejes
ortogonales sobre el que se proyectan los datos. Estos ejes tienen su origen en el vector
promedio de los datos, y son rotados de forma sucesiva con objeto de maximizar la varianza.
Los ejes se identifican a partir de la descomposición de la matriz de covarianza de la imagen, ,
según la expresión que se muestra a continuación:
Ti
P
1iiP
1μuμu
, (2.3.21)
donde los ui hacen referencia a pixels de la imagen, es el vector promedio de todos los
pixels y P es el número de pixels de la imagen.
El resultado de proyectar los pixels de la imagen hiperespectral sobre los nuevos ejes
obtenidos es una nueva imagen hiperespectral, formada por bi, i=1..N bandas (siendo N es el
número de bandas de la imagen original). Estas bandas, también denominadas componentes
principales, pueden obtenerse como proyecciones de un conjunto de autovectores que indican la
ponderación a aplicar a cada una de las bandas originales. Además, se obtiene un conjunto de i,
i=1..N autovalores (escalares) asociados, cuya magnitud indica la cantidad de información
contenida en los datos del autovector correspondiente (Lee y col., 1990). De esta forma, la
matriz de covarianza puede expresarse de la siguiente forma:
TVV , (2.3.22)
donde V es la matriz unitaria de autovectores y es la matriz diagonal de autovalores de .
La transformación PCA aparece ilustrada de forma gráfica en la figura 2.3.20. Como puede
Capítulo 2. Antecedentes - 73 -
apreciarse en la figura, esta transformación permite obtener un nuevo sistema de coordenadas
sobre el que se proyectan los datos.
Banda X
Ban
da Y
Componente 1
Componente 2
Figura 2.3.20. Ilustración gráfica de la transformación PCA.
Banda PCA 1 Banda PCA 2 Banda PCA 3 Banda PCA 4 Banda PCA 5
Banda PCA 6 Banda PCA 7 Banda PCA 8 Banda PCA 9 Banda PCA 10
Banda PCA 11 Banda PCA 12 Banda PCA 13 Banda PCA 14 Banda PCA 15
Banda PCA 16 Banda PCA 17 Banda PCA 18 Banda PCA 19 Banda PCA 20
Figura 2.3.21. Ejemplo de aplicación de la transformada PCA sobre una imagen hiperespectral real.
En la figura 2.3.21 se muestra un ejemplo de la aplicación de la transformación PCA a una
imagen hiperespectral real, que se describe en el apartado 4.3.1.4. La figura muestra las
- 74 - Capítulo 2. Antecedentes
primeras 20 bandas obtenidas a partir de la transformada PCA. Visualmente, puede
comprobarse que la presencia de ruido es mucho menor en las primeras bandas, aumentando de
forma considerable en las últimas.
La transformación PCA se utiliza de forma habitual para obtener representaciones efectivas
acerca de la distribución de los datos en el espacio ocupado por los mismos (Ifarraguerri y
Chang, 2000). De este modo, una aproximación bastante utilizada para obtener una idea de la
distribución de los puntos de una imagen hiperespectral consiste en realizar un diagrama de
dispersión de dos de las bandas resultantes con mayor varianza, obtenidas como resultado de la
transformación PCA. Esta aproximación da como resultado diagramas en dos dimensiones que
resultan fácilmente interpretables. La figura 2.3.22 muestra un diagrama de dispersión entre las
dos primeras bandas obtenidas en la figura 2.3.21.
-30000
-20000
-10000
0
10000
20000
30000
40000
50000
-20000 -10000 0 10000 20000
Banda PCA 1
Ban
da P
CA
2
Figura 2.3.22. Representación de las dos primeras bandas mostradas en la figura 2.2.21.
Fracción mínima de ruido.
La transformación Minimum Noise Fraction, MNF, es un método de reducción dimensional
de imágenes hiperespectrales que consiste en la realización de los pasos que se describen a
continuación (Green y col., 1988).
1.- En primer lugar, se aplica una transformación PCA sobre la imagen original, a través
de la cual se separa la señal del ruido, que queda aislado en las últimas bandas.
2.- A continuación, se estima la matriz de covarianza de la señal, S, y la matriz de
covarianza del ruido, R, utilizando la expresión 2.3.21.
3.- Seguidamente, se obtiene un conjunto de componentes que contienen información
ponderada sobre la varianza presente en el conjunto de datos original. Para ello, se
Capítulo 2. Antecedentes - 75 -
utiliza un índice MNF que estima la proporción entre señal y ruido presente en las
componentes proporcionadas por la transformada PCA. La componente que presenta
la fracción mínima de ruido es aquella cuyo autovector asociado, v, maximiza la
siguiente expresión:
vv
vv
RT
ST
(2.3.23)
La principal diferencia entre la transformación PCA y la transformación MNF es el hecho de
que, en el segundo caso, se realiza una descripción más detallada de la relación existente entre la
cantidad de señal presente en la imagen y la cantidad de ruido (Curran y Dungan, 1989). De este
modo, la primera banda resultante de la transformación MNF es la que presenta mayor relación
SNR. La segunda banda presenta mejor SNR que la tercera, y así sucesivamente.
Banda MNF 1 Banda MNF 2 Banda MNF 3 Banda MNF 4 Banda MNF 5
Banda MNF 6 Banda MNF 7 Banda MNF 8 Banda MNF 9 Banda MNF 10
Banda MNF 11 Banda MNF 12 Banda MNF 13 Banda MNF 14 Banda MNF 15
Banda MNF 16 Banda MNF 17 Banda MNF 18 Banda MNF 19 Banda MNF 20
Figura 2.3.23. Ejemplo de aplicación de la transformada MNF sobre una imagen hiperespectral real.
Como consecuencia de la estimación más precisa de las condiciones de ruido presentes en la
imagen, en determinadas aplicaciones la descomposición MNF puede ofrecer resultados más
robustos que la transformada PCA (Gordon, 2000), pues es menos sensible a outliers y pixels
ruidosos. La transformación MNF realiza una traslación de los datos, de forma que el origen de
- 76 - Capítulo 2. Antecedentes
coordenadas es el centroide de la nube de puntos resultante. En ocasiones, esta característica
permite obtener una mejor descripción de los datos.
A título comparativo, la figura 2.3.23 muestra las primeras 20 bandas obtenidas a partir de la
aplicación de la transformada MNF sobre la imagen hiperespectral real anteriormente utilizada.
Una vez descritas las técnicas más comunes de reducción dimensional, procedemos a
describir las metodologías más utilizadas para realizar la tercera etapa de la metodología clásica
de análisis hiperespectral (identificación de endmembers).
Identificación de endmembers.
En esta sección describimos los métodos existentes en la literatura orientados a la detección
de endmembers a partir de imágenes hiperespectrales. Los métodos existentes pueden agruparse
en tres categorías fundamentales (Keshava y Mustard, 2002):
1.- Métodos interactivos. Estos métodos se caracterizan porque el proceso de selección
de endmembers se realiza siguiendo un proceso supervisado basado en la observación
de propiedades relativas al conjunto de datos analizado. La naturaleza supervisada de
este tipo de métodos hace que raramente seleccionen endmembers asociados a ruido u
otras fuentes de error en la imagen original.
2.- Métodos semiautomáticos. Estos algoritmos vienen caracterizados por combinar
procedimientos supervisados o interactivos con módulos totalmente automáticos.
3.- Métodos automáticos. Estos métodos se diferencian de los anteriores en su naturaleza
totalmente no supervisada. Conviene destacar que los procedimientos automáticos
pueden derivar en la selección de firmas espectrales no reales desde un punto de vista
físico.
Procedemos a describir cada una de las aproximaciones antes comentadas.
Métodos interactivos.
Los métodos interactivos vienen caracterizados por la realización de procesos de prueba y
error (Stein y col., 2002). Así, un analista espectral, poseedor de ciertos conocimientos acerca
de la zona de estudio o sobre conjunto de datos disponible, utiliza dichos conocimientos para
supervisar y guiar un procedimiento de análisis de los datos. Dentro de esta categoría,
destacamos dos aproximaciones, las cuales se describen a continuación.
Capítulo 2. Antecedentes - 77 -
Método de selección manual.
El procedimiento más sencillo para seleccionar un conjunto de endmembers a partir de una
imagen consiste en localizar, de forma manual, un conjunto de pixels de la imagen
hiperespectral en los que se conoce a priori que la abundancia de un determinado endmember es
elevada (Dalton y col., 2001). Existen herramientas interactivas que permiten realizar esta tarea
de forma visual (Bateson y Curtiss, 1996).
A pesar de que esta técnica se ha utilizado de forma satisfactoria en algunas aplicaciones
(Kuo y Landgrebe, 2001), su utilización no es recomendable en términos generales. El proceso
de selección manual es muy costoso, siendo precisa una fase de etiquetado de muestras que
puede requerir una gran cantidad de tiempo y recursos. Además, este procedimiento es
susceptible de introducir errores en la fase de etiquetado de muestras (Jackson y Landgrebe,
2001).
Por otra parte, este esquema presenta el inconveniente añadido de que, en una imagen
hiperespectral típica, la probabilidad de encontrar un pixel puro (con abundancia del 100% de
un determinado endmember) es remota, aunque sí puede ser viable la identificación de pixels
casi puros utilizando herramientas interactivas basadas en la definición de regiones de interés o
ROIs (Dalton y col., 2001).
Método MEST.
Una variante del método manual es la técnica Manual Endmember Selection Tool, MEST
(Bateson y Curtiss, 1996). Esta técnica se caracteriza por utilizar una herramienta interactiva
que permite identificar endmembers en base a su condición de puntos extremos en la nube de
puntos. El procedimiento seguido para identificar firmas espectrales de referencia utilizando
esta herramienta manual puede resumirse en los siguientes pasos:
1.- En primer lugar, se establece un valor umbral de tolerancia, T.
2.- A continuación, se determina de forma automática el número de endmembers a
identificar. Este proceso se realiza mediante los siguientes pasos:
a. Se realiza una transformación PCA sobre la imagen hiperespectral original, que
da como resultado un conjunto de vi, i=1..N autovectores y sus correspondientes
i autovalores, siendo N el número de bandas de la imagen.
b. A continuación, se realiza un proceso en el que se suman los autovalores
obtenidos para las primeras bandas de la descomposición PCA. Si la suma de
- 78 - Capítulo 2. Antecedentes
los primeros D autovalores da como resultado un valor por encima del umbral
de tolerancia establecido, esto indica que la mayor parte de la varianza está
contenida en los primeros D autovectores. La anterior operación puede
resumirse en encontrar el valor de D más pequeño para el que se satisface la
siguiente expresión:
D
1ii Tv (2.3.24)
c. A partir del paso anterior, el número de endmembers se fija a D+1, es decir, el
número de vértices necesarios para definir un hiperpolígono que engloba a
todos los puntos de un espacio de D dimensiones (Boardman y col., 1995).
3.- Una vez identificado el número óptimo de endmembers, MEST proporciona al usuario
una herramienta interactiva mediante la cual se pueden realizar representaciones de las
bandas resultantes de la transformación PCA, unas frente a otras. Tras un proceso
interactivo de prueba y error, el usuario selecciona los D+1 puntos que aparecen como
extremos en diferentes representaciones.
A pesar de proporcionar un mecanismo eficiente para evaluar la singularidad espectral de los
puntos, el principal inconveniente del método MEST es sin duda su alto componente
interactivo, que hace que el análisis de los datos no pueda ser realizado de forma rutinaria y
automatizada (Bateson y Curtiss, 1996). Por otra parte, el proceso de prueba y error empleado es
susceptible de descartar algunos puntos válidos para ser utilizados como endmembers que no
aparecen como extremos en las representaciones de unas bandas frente a otras.
Métodos semiautomáticos.
Los métodos semiautomáticos de identificación de endmembers se caracterizan por utilizar
módulos totalmente automáticos junto con otros módulos total o parcialmente supervisados.
Generalmente, los módulos supervisados se basan en procedimientos de prueba y error. El
método semiautomático más popular en la literatura es el método PPI, descrito a continuación.
Método PPI.
Este método tiene como objetivo localizar los puntos espectralmente más puros de la imagen
hiperespectral (Boardman y col., 1995). Para ello, el método se basa en la suposición de que los
Capítulo 2. Antecedentes - 79 -
puntos más extremos de la nube de puntos son los mejores candidatos para ser utilizados como
endmembers.
Los parámetros de entrada de PPI son los que se enumeran a continuación.
Número de iteraciones a realizar.
Valor umbral para seleccionar pixels puros.
Una vez fijados de antemano los anteriores parámetros, el funcionamiento del algoritmo se
basa en los siguientes pasos:
1.- En primer lugar, el algoritmo asigna un índice de pureza a todos los pixels de la
imagen. El contador de cada punto se inicializa al valor 0.
2.- Seguidamente, se genera un vector unitario aleatorio, que recibe el nombre de skewer
o “divisor” (Theiler y col., 2000). El objetivo de este vector es particionar la nube de
puntos, como veremos a continuación.
3.- El tercer paso consiste en proyectar todos los puntos de la imagen hiperespectral sobre
el vector unitario antes generado, identificando los puntos extremos en la dirección
definida por el vector unitario. El índice de pureza de los puntos extremos se
incrementa en una unidad.
4.- Los pasos 2-3 del algoritmo se repiten tantas veces como el usuario especifique en el
parámetro de entrada.
5.- Tras la ejecución de un número amplio de iteraciones, se obtiene como resultado una
imagen de pureza formada por los índices asociados a cada uno de los pixels de la
imagen.
6.- Utilizando el valor umbral especificado como parámetro, se seleccionan los puntos de
la imagen cuyo índice de pureza asociado supera dicho valor umbral. Estos puntos son
etiquetados como “puros”. La figura 2.3.24 ilustra el procedimiento seguido hasta este
punto, suponiendo que se realizan tres iteraciones y que se seleccionan como
endmembers aquellos puntos que han sido seleccionados como extremos una o más
veces.
7.- Los pixels seleccionados se cargan en una herramienta interactiva denominada N-
Dimensional Visualizer (Boardman y col., 1995). Esta herramienta es muy similar a la
herramienta de visualización proporcionada por la técnica MEST (Bateson y Curtiss,
1996), y permite realizar diagramas de dispersión de los primeros autovectores
obtenidos tras la aplicación de una transformación MNF sobre los datos originales.
- 80 - Capítulo 2. Antecedentes
8.- Utilizando la herramienta anteriormente descrita, el usuario selecciona manualmente
aquellos puntos o agrupaciones de puntos que aparecen como extremos en
proyecciones sucesivas, identificando un conjunto final de endmembers. En el caso de
seleccionar una agrupación de puntos, los endmembers se obtienen a partir del cálculo
del espectro promedio en cada una de las regiones seleccionadas.
Skewer 1
Skewer 2
Skewer 3
Pixel extremo
Pixel extremo
Pixel extremo
Pixel extremo
Figura 2.3.24. Selección de puntos extremos a partir de la utilización de vectores que particionan la
nube de puntos (skewers).
Como puede deducirse a partir de los pasos mencionados, el método PPI contiene etapas
totalmente automatizadas, como la fase de generación de la imagen de pureza, pero es necesaria
una etapa final, altamente interactiva, en la que el usuario selecciona manualmente los pixels
que quiere utilizar como endmembers. A diferencia del método MEST, el usuario no conoce a
priori cuál es el número apropiado de endmembers a seleccionar, por lo que debe escoger el
número de endmembers en base a su intuición. Este hecho pone de manifiesto la conveniencia
de cierto conocimiento a priori sobre la imagen. Esta característica, unida a otras como la
aleatoriedad en el proceso de generación de vectores unitarios (Theiler y col., 2000), representan
los principales inconvenientes de esta metodología. Por otra parte, es importante destacar que el
método PPI puede generar endmembers artificiales en el caso en el que el usuario del método
seleccione conjuntos de puntos en el proceso interactivo de identificación de firmas espectrales
extremas.
Existen algunos trabajos orientados a mejorar las prestaciones del método PPI. Algunos
autores (Theiler y col., 2000) han basado sus esfuerzos en el planteamiento de nuevas
Capítulo 2. Antecedentes - 81 -
alternativas en el proceso de generación de vectores unitarios para dividir el conjunto de datos.
Estas técnicas se basan en la utilización de procedimientos inteligentes para identificar
direcciones privilegiadas en la nube de puntos.
La figura 2.3.25 muestra un ejemplo en el que se muestran las direcciones privilegiadas en
una representación en forma de diagrama de dispersión de dos bandas poco correlacionadas en
una imagen multi-dimensional con cuatro endmembers, etiquetados como A, B y C. Como
puede apreciarse en la figura, la aplicación de la transformación MNF hace que el origen de
todos los vectores sea el centroide, , de la nube de puntos.
C
A
Banda i
B
Banda j
Figura 2.3.25. Identificación de direcciones privilegiadas en la nube de puntos.
A simple vista, resulta sencillo localizar en la figura 2.3.25 aquellas direcciones en las que
se produce la mezcla entre componentes. En los extremos de dichas direcciones se encuentran
los endmembers de la imagen, mientras que el resto de puntos en cada dirección viene dado por
mezclas entre los componentes puros. Como ilustra la figura, la práctica totalidad de los puntos
de la imagen suele concentrase en las proximidades de alguna dirección privilegiada.
A partir de la figura 2.3.25, resulta intuitivo pensar que la identificación de dichas
direcciones puede optimizar las prestaciones del método PPI. Algunos estudios realizados
(Theiler y col., 2000), demuestran que la utilización de direcciones privilegiadas para
particionar la nube de puntos permite acelerar y refinar la etapa de identificación de pixels
puros, pues las proyecciones de los endmembers sobre dichos vectores resultan siempre en
valores extremos.
- 82 - Capítulo 2. Antecedentes
Métodos automáticos.
La necesidad de disponer de metodologías automáticas para la selección de endmembers
es una circunstancia ampliamente reconocida en la literatura (Boardman y col., 1995). El motivo
de esta necesidad es simple: los procedimientos basados en ensayo y error proporcionan
resultados que pueden ser difíciles de repetir y, por tanto, de analizar de forma comparativa con
respecto a otras aproximaciones.
Recientemente se han desarrollado varios métodos capaces de extraer endmembers a partir
de una imagen de forma automática. Estos métodos se caracterizan porque su funcionamiento
puede controlarse a partir de una serie de parámetros de entrada. Es importante destacar que la
salida de un método parametrizado debe ser idéntica siempre que se utilicen los mismos
parámetros al invocarlo. El grado de control sobre el método dependerá en gran medida del
número de parámetros utilizados y de las características de los mismos. Dentro de los métodos
comentados, destacamos las siguientes aproximaciones.
Método ORASIS.
El algoritmo ORASIS (Bowles y col., 1995) fue el primer método de selección de
endmembers capaz de ofrecer una respuesta en tiempo casi real. Este método, desarrollado por
el Laboratorio de Investigaciones Navales de Estados Unidos, recibe como parámetro de entrada
único un ángulo espectral denominado ángulo mínimo, min. Las etapas realizadas por el
algoritmo ORASIS son las que a continuación se enumeran.
1.- En primer lugar, el algoritmo realiza un proceso de reducción dimensional de la
imagen mediante la transformada MNF.
2.- A continuación, tiene lugar una etapa de simplificación de la imagen, basado en los
siguientes pasos:
a. Cada vez que un pixel es capturado por el sensor, se compara con una lista de
pixels ejemplares o endmembers. Si la distancia SAM (ver figura 2.3.10) entre
el pixel capturado y todos y cada uno de los pixels ejemplares es superior a min,
el pixel se añade al conjunto de ejemplares.
b. Si la distancia SAM entre el pixel capturado y alguno de los pixels ejemplares
es inferior a min, el pixel es eliminado.
Capítulo 2. Antecedentes - 83 -
c. El proceso se repite de forma iterativa con todos los pixels capturados por el
sensor. Conviene destacar que el primer pixel obtenido se convierte
automáticamente en el primer elemento ejemplar.
3.- Una vez eliminados los pixels redundantes, los ejemplares (endmembers) se utilizan
para definir un nuevo sistema de ejes de coordenadas sobre el que se proyectan los
datos, logrando una representación simplificada de la imagen original. Esta
aproximación, ilustrada gráficamente en la figura 2.3.26, es similar a la técnica de
componentes principales, descrita con anterioridad en el presente capítulo.
minmin
Banda X
Ban
da Y
Pixel inicial (Ejemplar 1)
1
2
3
4
Ejemplar 2
Eje coordenadas 1
Eje coordenadas 2
Figura 2.3.26. Ilustración gráfica del método ORASIS.
Como puede apreciarse en la figura 2.3.26, el método ORASIS utiliza un procedimiento
iterativo para seleccionar las firmas espectrales más singulares de la imagen. Es importante
destacar que este método no produce endmembers artificiales, es decir, los endmembers
extraídos necesariamente se corresponden con pixels presentes en la imagen original.
La principal limitación del método ORASIS es su sensibilidad al parámetro min, que debe
fijarse cuidadosamente con vistas a no eliminar pixels susceptibles de ser seleccionados como
endmembers a las primeras de cambio. No obstante, el algoritmo se ha implementado de forma
eficiente mediante un módulo hardware a bordo del sensor (Bowles y col., 1995), lo cual hace
de ORASIS una de las escasas alternativas en la actualidad para seleccionar endmembers en
tiempo real durante el momento de adquisición de las imágenes.
- 84 - Capítulo 2. Antecedentes
Método N-FINDR.
El algoritmo N-FINDR (Winter, 1999) utiliza una técnica basada en identificar los
endmembers como los vértices del simplex de mayor volumen que puede formarse en la nube de
puntos. Al contrario que el método ORASIS, caracterizado por una etapa previa de
simplificación de la imagen, N-FINDR trabaja con todo el cubo de datos original, sin ningún
tipo de reducción previa. Los parámetros iniciales recibidos por el algoritmo son los siguientes:
Número máximo de endmembers a identificar.
Valor de sensibilidad. Este parámetro es similar al utilizado por el método ORASIS:
se trata de un ángulo espectral mínimo que será utilizado a la hora de incorporar un
nuevo pixel al conjunto de endmembers seleccionados.
Los pasos realizados por este algoritmo son los detallados a continuación.
1.- Inicialmente, se selecciona un número aleatorio de pixels (dependiendo del primer
parámetro) y se etiquetan como endmembers. Esta selección inicial será refinada de
forma iterativa.
2.- El segundo paso consiste en seleccionar un pixel cualquiera de la imagen original.
Este pixel va reemplazando de forma sucesiva a cada uno de los endmembers
inicialmente seleccionados.
3.- Cada vez que tiene lugar un reemplazamiento, se calcula el volumen del
hiperpolígono definido por los endmembers iniciales no sustituidos y el nuevo punto
considerado.
4.- Si el volumen obtenido tras el reemplazamiento es mayor que el que había antes del
reemplazamiento, el nuevo punto trae como consecuencia un reemplazamiento en el
conjunto de endmembers. En caso contrario, se deshace el cambio. En este paso se
analiza también la similaridad espectral del punto con respecto a los endmembers del
conjunto (segundo parámetro), de forma que si el punto es demasiado similar en
términos espectrales a los ya almacenados, un pequeño incremento de volumen no se
traduce en la incorporación del punto al conjunto por motivos de redundancia.
5.- Los pasos 2-5 se repiten de forma iterativa hasta que no se producen más
reemplazamientos.
En virtud de los pasos anteriormente descritos, es claro que el método es sensible al primer
paso del algoritmo, en el que se establece de forma aleatoria un conjunto inicial de endmembers.
Si la estimación inicial es adecuada, el algoritmo no necesitará realizar demasiadas iteraciones
Capítulo 2. Antecedentes - 85 -
hasta llegar a la solución óptima. Por el contrario, una estimación inicial errónea puede dar
como resultado una alta complejidad computacional del algoritmo.
Por otra parte, el algoritmo presupone que un aumento en el volumen del hiperpolígono
definido al incorporar un nuevo pixel en el conjunto de endmembers conlleva una mayor calidad
de los mismos. Sin embargo, la figura 2.3.27 demuestra que el hecho de utilizar un polígono de
mayor volumen no asegura una mejor descripción de la nube de puntos. Un parámetro más
fiable es el aumento en el número de pixels que pueden describirse utilizando el nuevo conjunto
de endmembers.
Banda X
Ban
da Y
Volumen 1
Volumen 2
Volumen 1 > Volumen 2
Figura 2.3.27. Selección de endmembers en el método N-FINDR.
Finalmente, es importante destacar que los endmembers identificados por el algoritmo N-
FINDR corresponden a pixels pertenecientes al conjunto de datos original. Utilizando este
algoritmo, no es posible generar endmembers artificiales, pues los reemplazamientos se realizan
siempre utilizando puntos existentes en el conjunto de muestras disponibles. De este modo,
puede ocurrir que los endmembers seleccionados no sean los más puros.
Método IEA.
El algoritmo de análisis de error iterativo o iterative error analysis, IEA (Staenz y col.,
1998) se basa, como su nombre indica, en un procedimiento de análisis sucesivo del error
- 86 - Capítulo 2. Antecedentes
obtenido al utilizar un conjunto de puntos de la imagen original como endmembers. Al igual que
NFINDR, el método IEA trabaja con todo el cubo de datos original, sin aplicar ningún tipo de
reducción previa sobre los datos. Los parámetros de entrada que el algoritmo recibe son los
siguientes:
Número máximo de endmembers a identificar.
Umbral de error RMSE mínimo. Este parámetro se refiere a un valor de error mínimo
que será utilizado a la hora de seleccionar los puntos.
Los pasos realizados por este algoritmo son los que se detallan a continuación.
1.- El primer paso consiste en seleccionar un vector inicial, que habitualmente es el vector
promedio de todos los datos de la imagen (centroide), y se etiqueta como endmember.
2.- A continuación, se realiza un proceso de estimación de abundancias utilizando el
vector anteriormente mencionado. La estimación se efectúa utilizando una técnica de
mínimos cuadrados que será explicada en detalle en apartados posteriores. Al tratarse
del pixel menos puro en términos espectrales, el proceso de estimación de abundancias
dará lugar a errores RMSE significativos en la mayor parte de los puntos.
3.- En un tercer paso se seleccionan aquellos puntos que dan como resultado un mayor
RMSE en la estimación. Estos puntos, los más alejados del centroide inicialmente
seleccionado, son buenos candidatos para ser utilizados como endmembers.
4.- Los puntos anteriormente mencionados son ahora utilizados para estimar las
abundancias. De nuevo, la técnica de mínimos cuadrados permite obtener una serie de
puntos en los que el RMSE en la estimación de abundancias es significativo.
5.- A partir de este momento, se repiten de forma iterativa los pasos 3-5 del algoritmo
hasta que el conjunto de endmembers contiene tantos puntos como se haya
especificado en el primer parámetro de entrada del algoritmo o bien hasta que se
alcance un valor global de error RMSE inferior al especificado como segundo
parámetro del algoritmo.
A partir de los pasos anteriores, podemos intuir que el método IEA es sensible a la selección
del vector inicial a partir del que se realiza todo el proceso. En este caso, la elección del
centroide de la nube de puntos puede considerarse, en términos generales, una decisión acertada,
aunque otra alternativa, no considerada por los autores del método, podría ser el elemento más
alejado del centroide; esta selección ahorraría una iteración.
Por otra parte, a pesar de que no se han publicado en la literatura estimaciones de coste
computacional asociadas al algoritmo, es razonable suponer que la repetición reiterativa del
Capítulo 2. Antecedentes - 87 -
método de mínimos cuadrados para la estimación de abundancias propicie un coste
computacional elevado del algoritmo.
Una particularidad del método es que no tiene en cuenta la distribución espectral de los
endmembers seleccionados, con lo que pueden tenerse muchos endmembers en una determinada
zona y muy pocos en otra, tal y como se muestra en la figura 2.3.28.
x y
z Endmember 1Endmember 2
Endmember 3
Endmember 4
Figura 2.3.28. Distribución espectral irregular de endmembers en el método IEA.
Finalmente, destacamos que IEA, al igual que NFINDR y PPI, selecciona endmembers que
se corresponden en todo momento a pixels pertenecientes al conjunto de datos original, no
siendo posible generar endmembers artificiales.
Método SOM
Por último, destacamos un método automático para la extracción de endmembers basado en
redes neuronales (Aguilar, 2000). En concreto, este método hace uso del modelo auto-
organizativo o Self-Organizing Map, SOM (Kohonen, 1998).
La arquitectura de la SOM utilizada aparece ilustrada en la figura 2.3.29. El conjunto total
de neuronas de la red se agrupa en:
Un conjunto de N neuronas de entrada, que reciben la información total
correspondiente a cada firma hiperespectral, de manera que cada neurona de entrada
recibe la información de una determinada longitud de onda o banda de cada firma.
- 88 - Capítulo 2. Antecedentes
Un conjunto de E neuronas de salida que forma una capa unidimensional de tipo
competitivo. Cada una de estas neuronas representa uno de los posibles endmembers
que se pretenden obtener.
Conexiones hacia delante que unen cada una de las N neuronas de entrada con las E
neuronas de salida. Cada una de estas conexiones almacena un peso, de forma que el
conjunto de todos los pesos puede ser representado mediante una matriz W.
Conexiones laterales entre las E neuronas de la capa de salida, las cuales indican la
influencia de una cierta neurona (la neurona ganadora) sobre sus vecinas durante una
etapa de actualización de pesos.
Conexiones autorecurrentes de cada neurona de salida sobre sí misma.
Firmas espectrales
Imagen clasificada
W (endmembers)
1
2
N
1
2
E
Firmas espectrales
Imagen clasificada
W (endmembers)
1
2
N
1
2
E
Figura 2.3.29. Arquitectura de la red SOM para identificación automática de endmembers.
Utilizando la arquitectura anteriormente descrita, la red es entrenada con un conjunto de
firmas hiperespectrales. Hay dos posibilidades en cuanto a la fase de entrenamiento:
1.- Entrenar la red con todas las firmas hiperespectrales de la imagen. En este caso, el
conjunto de entrenamiento es muy grande. Teniendo en cuenta que las firmas
hiperespectrales contienen un gran número de bandas, esta aproximación puede ser
costosa. Además, se plantea el problema de que la red puede aprender como
endmembers algunas firmas que se obtienen como mezcla de otras firmas puras.
2.- Para solucionar el problema anteriormente comentado, el autor propone añadir al
proceso un sistema de discriminación previo capaz de seleccionar un subconjunto
reducido de pixels puros para entrenar la red. Este subconjunto puede ser obtenido
mediante métodos manuales, como los que se han visto anteriormente, o bien
Capítulo 2. Antecedentes - 89 -
mediante métodos automáticos. Una futura línea de trabajo consiste en utilizar la
metodología propuesta en esta memoria como pre-procesado para la red SOM.
Después de la fase de entrenamiento, los pesos asociados a cada neurona de salida de la red
contienen información relativa a los endmembers de la imagen. Esta red puede también ser
utilizada para proporcionar un resultado de clasificación, sin más que volver a introducir cada
uno de los pixels de la imagen por la capa de entrada. Para cada píxel, se activará la neurona
(ganadora) cuyo peso (endmember) asociado se parezca más a la firma de entrada introducida
(Martínez y col., 2001; Pérez y col., 2001).
Con objeto de ofrecer una visión global sobre los métodos de identificación de endmembers
presentados hasta el momento, la tabla 2.3.5 muestra un resumen de las principales
características de los métodos descritos. Como puede apreciarse en la tabla, una característica
común de todos los métodos comentados es la no utilización de información espacial en el
proceso de selección de endmembers.
Método Funcionamiento Reducción dimensional
Uso de información espacial
Selección manual Manual Ninguna No
MEST Manual PCA No
PPI Semiautomático MNF No
ORASIS Automático, parametrizado MNF No
N-FINDR Automático, parametrizado Ninguna No
IEA Automático, parametrizado Ninguna No
SOM Automático, parametrizado Ninguna No
TABLA 2.3.5. PRINCIPALES CARACTERÍSTICAS DE LOS MÉTODOS DE EXTRACCIÓN DE ENDMEMBERS
DESCRITOS.
Una vez descritos los principales métodos para extraer endmembers a partir de imágenes
hiperespectrales, comentamos las técnicas existentes para obtener los coeficientes de
abundancias del resto de puntos.
Estimación de abundancias.
Las técnicas de estimación de abundancias basadas en el modelo de mezcla lineal aparecen
denominadas en la literatura como técnicas de desmezclado espectral lineal o Linear Spectral
Unmixing (LSU). Algunos autores (Heinz y Chang, 2000) han introducido dos restricciones en
el modelo lineal de mezcla, conocidas en la literatura como restricciones de no-negatividad y
suma unitaria. Estas restricciones son las que se mencionan a continuación:
- 90 - Capítulo 2. Antecedentes
No-negatividad. Consiste en que los coeficientes de abundancia no son nunca
negativos, es decir, la abundancia de un determinado material en un pixel estará
siempre entre 0 (abundancia nula) y 1 (abundancia total). Esta limitación restringe las
posibles mezclas que se producen en un mismo vector, tal y como puede observarse
en una de las mezclas mostradas en la figura 2.3.17.
Suma unitaria. Consiste en que la suma de todos los coeficientes de abundancia debe
ser la unidad. Esta restricción resulta atractiva desde un punto de vista conceptual,
pero puede introducir algunas inconsistencias a la hora de realizar el proceso de
estimación (Díaz y col., 1992), en particular, cuando el método de identificación de
endmembers no asegura la detección de todos los endmembers presentes en la imagen
para su utilización en el proceso de inversión.
Las técnicas de estimación de abundancias que incorporan las restricciones anteriormente
utilizadas se denominan técnicas totalmente restringidas (Heinz, 2001), o Fully Constrained
Linear Spectral Unmixing (FCLSU).
En este apartado presentamos los métodos disponibles en la literatura para estimar las
abundancias de dichos elementos puros en la imagen original, utilizando siempre un modelo
lineal de mezcla. Los métodos existentes pueden agruparse en dos categorías fundamentales:
1.- Métodos de mínimos cuadrados. Se basan en minimizar el error RMSE cometido al
realizar la estimación.
2.- Métodos que utilizan un número de endmembers variable. No utilizan un único
endmember para caracterizar cada material, sino un conjunto más o menos amplio de
firmas espectrales. El objetivo de estas técnicas es incorporar la idea de variabilidad
espectral en el proceso de desmezclado.
A continuación describimos cada una de estas aproximaciones.
Métodos de mínimos cuadrados
Si consideramos un determinado pixel de la imagen s(x,y), situado en las coordenadas
espaciales (x,y), podemos definir el funcionamiento del método de mínimos cuadrados mediante
una simple operación de inversión. En la literatura se han propuesto numerosas alternativas
diferentes para solucionar el problema de inversión matricial, como la utilización de la pseudo-
inversa (Díaz, 1994) o redes neuronales de Hopfield (Pérez, 1995). En nuestro caso, la
operación utilizada se basa en minimizar el error RMSE entre dicho pixel y la mejor
aproximación del mismo que puede obtenerse utilizando la matriz de endmembers obtenida, E,
Capítulo 2. Antecedentes - 91 -
y un vector de coeficientes de abundancia, c(x,y) asociado al mismo (Keshava y Mustard,
2002). Este vector contiene un coeficiente por cada endmember. En términos matriciales, la
solución al sistema de ecuaciones lineales según el método de mínimos cuadrados puede
calcularse de la siguiente forma:
y)(x,y)(x,y)(x,y)(x,y)x, T1T1 sEEEsEc cEs( (2.3.25)
Esta expresión se caracteriza porque minimiza el error RMSE, 2y)(x,yx, cEs . No
obstante, las restricciones opcionales de no-negatividad y suma unitaria no se encuentran
incorporadas. Por este motivo, el método descrito aparece identificado en la literatura como
desmezclado espectral lineal no restringido o Linear Spectral Unmixing (LSU).
Incorporación de la restricción de suma unitaria
Para incorporar la restricción de suma unitaria al procedimiento LSU, se aplica el siguiente
proceso. Sea z un vector fila, de dimensiones 1xE, con todas las componentes iguales a 1, de
forma que se satisface 1y)(x, cz . La obtención del vector de coeficientes que satisface la
anterior restricción de suma unitaria, y)(x,SUc , puede obtenerse aplicando multiplicadores de
Lagrange (Kay, 1993).
Incorporación de la restricción de no negatividad
La minimización de 2y)(x,yx, cEs manteniendo Ec 1,..,i ,0y)(x,i es un
problema típico de programación lineal, y se caracteriza por presentar complejidad
computacional de orden cuadrático (Keshava y Mustard, 2002). En la práctica, la restricción de
no negatividad se incorpora de forma eficiente mediante la utilización del algoritmo de mínimos
cuadrados no negativos (Lawson y Hanson, 1974). Esta aproximación consiste en estimar de
forma iterativa el valor de c, de forma que en cada iteración se busca una solución por mínimos
cuadrados pero solamente para aquellos coeficientes de c que son no negativos, utilizando las
columnas de la matriz E asociadas a estos coeficientes. Así, la estimación de los coeficientes de
abundancia de forma que se satisface la restricción de no negatividad, y)(x,NNc , se basa en
minimizar 2pos y)(x,y)(x, cEs , de forma que:
1.- EE pos en aquellas columnas en las que 0y)(x,NN c .
- 92 - Capítulo 2. Antecedentes
2.- El vector nulo aparece en las columnas en las que 0y)(x,NN c .
Imagen hiperespectral original
0
1000
2000
3000
4000
5000
6000
7000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Rad
ian
cia
(μW
/cm
2 /n
m/
sr)
Grass - trees
Grass - pasture
Corn - notill
Soybean - notill
endmembers identificados
Cálculo del vector c(x,y) en cada pixel de la
imagen hiperespectralMapas de abundancia (uno por endmember)
Figura 2.2.35. Interpretación gráfica del concepto de mapa de abundancia.
Por último, destacamos que los vectores y)(x,c descritos en este apartado pueden
representarse en forma de un conjunto de mapas de abundancia de cada uno de los endmembers,
tal y como aparece ilustrado en la figura 2.3.35. Los mapas de abundancia son representaciones
de los vectores de abundancias en cada uno de los pixels de la imagen original.
Métodos que utilizan un número de endmembers variable
En esta categoría destaca fundamentalmente un algoritmo que realiza el proceso de inversión
para estimar las abundancias utilizando un conjunto variable de endmembers. Se trata del
método Múltiple Endmember Spectral Mixture Analysis, MESMA, el cual se describe a
continuación.
MESMA.
Este método utiliza el siguiente procedimiento para realizar el proceso de desmezclado
(Roberts y col., 1998):
1.- En primer lugar, se considera un pixel concreto de la imagen hiperespectral.
Capítulo 2. Antecedentes - 93 -
2.- A continuación, se prueban de forma iterativa diferentes modelos de mezcla en dicho
pixel, utilizando conjuntos diferentes de endmembers obtenidos directamente a partir
de una librería espectral previamente disponible.
3.- Los coeficientes de abundancia para cada modelo probado se determinan de forma que
el espectro obtenido como combinación lineal de endmembers produzca el menor
valor de error RMSE posible al compararlo con el espectro original presente en el
pixel. Los coeficientes de abundancia resultantes satisfacen las restricciones de no
negatividad y suma unitaria.
4.- El proceso anteriormente descrito se repite para todos los pixels de la imagen.
El funcionamiento del algoritmo MESMA presenta una serie de particularidades que
conviene resaltar:
A diferencia de las aproximaciones vistas hasta el momento, el número de
endmembers utilizado para desmezclar una imagen puede ser considerablemente
mayor que el número de endmembers que realmente se encuentran en cualquier pixel
individual de la escena.
Por otra parte, es posible utilizar en cada pixel de la escena un conjunto diferente de
endmembers.
La complejidad computacional del algoritmo es considerable, pues se basa en un
procedimiento de prueba y error que utiliza distintos conjuntos de endmembers,
tratando de obtener el mínimo error RMSE posible.
El elemento clave en el buen funcionamiento del algoritmo es la disponibilidad de una
librería espectral adecuada, de forma que pueda abordarse de forma viable el proceso
de desmezclado a nivel de pixel.
2.4. Técnicas que combinan información espacial y espectral
En apartados anteriores se han descrito los antecedentes de las técnicas de análisis de
imágenes remotas basadas en aproximaciones espaciales y espectrales. Las técnicas basadas
exclusivamente en el dominio espacial presentan la limitación de que una caracterización
precisa de los objetos del mundo real necesitaría una resolución espacial demasiado elevada,
circunstancia no soportada por los sensores actuales (Landgrebe, 2002).
- 94 - Capítulo 2. Antecedentes
Por otra parte, varios autores (Madhok y Landgrebe, 1998; Pinzón y col., 1998; Peppin y
col., 2001; Hudgins y Hines, 2001) han argumentado que la principal limitación de las técnicas
exclusivamente espectrales radica en que el proceso de análisis no tiene en cuenta la correlación
espacial presente en la imagen. Para ilustrar esta idea, la parte izquierda de la figura 2.4.1
muestra una imagen hiperespectral original y la parte derecha muestra una nueva imagen
hiperespectral, obtenida a partir de un proceso de re-ordenación aleatorio de los pixels de la
imagen anterior. La diferencia entre las imágenes mostradas en la figura 2.4.1 radica por tanto
en la disposición de los pixels, es decir, en el dominio espacial. La aplicación de técnicas
exclusivamente espectrales puede producir distintos resultados dependiendo del método
utilizado, aunque, en ambos casos, la información espectral del resultado obtenido será la
misma.
Vegetación Suelo Carretera Zonas urbanas
Procesamientoespectral
Mismo resultado
Ordenaciónaleatoria
Ordenaciónaleatoria
Procesamientoespectral
Figura 2.4.1. Ejemplo ilustrativo de la importancia de no considerar únicamente la información
espectral en el análisis de una imagen hiperespectral.
A partir de la figura 2.4.1, parece razonable introducir metodologías que incorporen
información relativa al dominio espacial a la hora de analizar imágenes hiperespectrales. De
hecho, las técnicas espaciales y espectrales se necesitan mutuamente, puesto que las
aportaciones de unas compensan las carencias de las otras y viceversa (Madhok y Landgrebe,
1998).
En el presente apartado describimos las metodologías existentes en la literatura que integran
información espacial y espectral en el análisis de imágenes hiperespectrales. Conviene destacar
Capítulo 2. Antecedentes - 95 -
que los intentos realizados hasta el momento son escasos, y pueden agruparse en dos categorías
fundamentales.
1.- En primer lugar, hay una serie de metodologías que realizan un procesamiento inicial
de los datos en el dominio espectral, refinando el resultado obtenido utilizando la
información espacial.
2.- En segundo lugar, existen aproximaciones en los que una fase de análisis espacial
precede a una etapa de refinamiento guiada por propiedades espectrales de los datos.
A continuación se describe el estado del arte en la literatura de cada una de las
aproximaciones anteriormente mencionadas, caracterizadas porque el tratamiento en los
dominios espacial y espectral se realiza de forma separada.
2.4.1. Procesamiento espectral seguido de procesamiento espacial.
Dentro de este apartado destacan las metodologías propuestas por Madhok y Landgrebe,
1998, y Jiménez y Rivera-Medina, 1999. En ambos casos, los autores utilizan un procedimiento
denominado clasificación contextual, el cual viene dado por una serie de etapas que se describen
a continuación.
1.- En primer lugar, tiene lugar un proceso de reducción dimensional de la imagen
hiperespectral, basado en la transformación PCA. (Jiménez y col., 2000)
2.- A continuación, se realiza una fase de clustering o agrupamiento de patrones no
supervisado en el dominio espectral. Los autores proponen dos aproximaciones
diferentes para llevar a cabo esta etapa: los métodos ISODATA y K-Means. Como
resultado de esta etapa, cada pixel de la imagen original es asociado a una determinada
clase.
3.- Como resultado del paso anterior, se identifica un conjunto de clases formadas por
puntos con propiedades similares en el dominio espectral. Cada punto de la imagen es
asociado a una clase en virtud de una medida de similaridad, como las mencionadas
SAM o SID, entre la firma espectral asociada al punto y el vector promedio o
centroide de la clase. Como resultado de esta etapa, se obtiene una clasificación en
forma de mapa temático en el dominio espacial.
4.- Finalmente, en una última etapa se realiza un post-procesado que tiene en cuenta la
información contextual alrededor de cada pixel. En el post-procesado, las asociaciones
entre pixels y clases en el mapa temático anteriormente obtenido pueden ser
modificadas. Los pasos realizados durante esta etapa son los siguientes:
- 96 - Capítulo 2. Antecedentes
a. En primer lugar, se considera un determinado pixel del mapa temático.
b. A continuación, se define una función de vecindad que rodea a dicho pixel. Las
funciones consideradas por los autores son las denominadas conectividad-4 y
conectividad-8 (ver figura 2.15).
c. El siguiente paso consiste en determinar la clase predominante en la vecindad.
d. Por último, el pixel analizado se asocia a la clase predominante anteriormente
identificada. De este modo, es posible que la clasificación inicialmente
establecida para el pixel se vea modificada por la información contextual
alrededor del mismo.
La técnica de clasificación contextual proporciona resultados adecuados cuando el resultado
de clasificación inicial es satisfactorio (Jiménez y Rivera-Medina, 1999). Según los autores, el
principal inconveniente de esta aproximación consiste en que su principio de funcionamiento
presupone que siempre existe una gran similaridad, en términos espectrales, entre pixels
cercanos en el dominio espacial.
Árbol Pasto
Clasificación espectral Clasificación final
ProcesoContextual
ProcesoContextual
Figura 2.4.2. Modificación errónea de la clasificación inicial en el dominio espectral.
La figura 2.4.2 muestra un ejemplo de esta situación: se trata de una imagen hiperespectral
que simula una zona caracterizada por vegetación semi-árida formada por árboles y pasto, de
forma que, en términos aproximados, cada árbol viene representado por un pixel. En este caso,
la clasificación inicial, basada únicamente en propiedades espectrales, distingue entre una clase
árbol y una clase pasto. Sin embargo, el proceso contextual realizado posteriormente modifica
de forma incorrecta la clasificación inicial, asignando erróneamente el pixel a la clase más
prioritaria en su vecindad.
Capítulo 2. Antecedentes - 97 -
2.4.2. Procesamiento espacial seguido de procesamiento espectral.
Recientemente, se han propuesto diversas aproximaciones que utilizan un procesamiento
espacial seguido de un post-procesado en el dominio espacial (Pina y Barata, 2000; Hudgins y
col., 2001; Gardner y col., 2001). Las técnicas propuestas pueden resumirse en una serie de
etapas que se describen a continuación:
1.- En primer lugar, se obtiene una representación espacial de la información contenida en
la imagen hiperespectral. Este paso ha sido abordado en la literatura de varias formas
diferentes:
a. Una primera opción consiste en utilizar una banda concreta de la imagen,
asociada a una determinada longitud de onda (Pina y Barata, 2000).
Obviamente, esta opción tiene el problema de que las características de la banda
seleccionada pueden condicionar de forma decisiva el proceso de análisis
espacial, debido al diferente comportamiento de los objetos en distintas
longitudes de onda. Esta situación aparece ilustrada mediante un ejemplo en la
figura 2.3.3. Como puede apreciarse en la figura, la selección de una u otra
banda para el procesamiento puede derivar en la pérdida de la información
espacial relativa a algunos objetos, debido a respuestas espectrales muy
similares por parte de objetos diferentes en una misma longitud de onda. Por
tanto, esta aproximación requiere un conocimiento preciso de la respuesta
espectral de los objetos a caracterizar, lo cual puede limitar su utilización en
aplicaciones diferentes.
b. La segunda opción consiste en obtener una representación simplificada de la
información hiperespectral en forma de imagen en niveles digitales, de forma
que la representación obtenida contenga la mayor cantidad de información
posible del conjunto de datos original (Kruse, 2000). En esta memoria se han
descrito varias técnicas que permiten obtener esta representación, como las
transformaciones PCA y MNF. Las primeras bandas obtenidas a partir de
dichas transformaciones son, por tanto, susceptibles de ser utilizadas para
realizar el procesamiento espacial inicial.
2.- Una vez obtenida una representación espacial de la imagen, esta representación es
procesada mediante técnicas exclusivamente espaciales, como las descritas en el
apartado 2.1 del presente capítulo. En este sentido, diversos trabajos han propuesto la
utilización de técnicas de filtrado espacial combinados con operadores detectores de
rasgos lineales (Gardner y col., 2001), operadores morfológicos (Pina y Barata, 2000)
y técnicas de crecimiento de regiones (Hudgins y col., 2001).
- 98 - Capítulo 2. Antecedentes
El principal inconveniente del método descrito es, como aparece ilustrado en la figura 2.4.3,
la gran dependencia del mismo con respecto a la representación espacial inicialmente
considerada (Pina y Barata, 2000). Otro inconveniente, ya comentado anteriormente, es su
difícil adaptación a problemas diferentes.
Imagen original
0
1000
2000
3000
4000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Ref
lect
anci
a (%
*100
)
0
1000
2000
3000
4000
5000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Ref
lect
anci
a (%
*100
)
0
1000
2000
3000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Ref
lect
anci
a (%
*100
)
0
1000
2000
3000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Ref
lect
anci
a (%
*100
)
Banda en longitud de onda 900 nm
Banda en longitud de onda 1200 nm
Figura 2.4.3. Implicaciones de seleccionar una u otra banda de la imagen para la etapa de
procesamiento espacial.
Una evaluación conceptual de las técnicas presentadas en este apartado nos lleva a afirmar
que la utilización de la información espacial y espectral de forma separada puede derivar en
resultados de clasificación erróneos. Este hecho se debe a que los dominios espacial y espectral
se tratan de forma totalmente independiente, con lo que el orden en el que se aplican las etapas
espacial y espectral puede tener una influencia significativa en el resultado final obtenido. Así,
la información que se pierde en una etapa resulta irrecuperable en la siguiente. Numerosos
trabajos recientes (Madhok y Landgrebe, 1998; Asner y Lobell, 2000; Pinzón y col., 1998;
Bielski y col., 2002; Green y Boardman, 2000) han puesto de manifiesto la necesidad de diseñar
algoritmos de análisis hiperespectral capaces de combinar de forma simultánea la información
espacial y espectral, de forma que ninguna de ellas se vea favorecida a lo largo del proceso.
Capítulo 3
Métodos
En este capítulo se describe un conjunto de nuevos algoritmos para la identificación de
endmembers y estimación de abundancias en imágenes hiperespectrales. El capítulo se
encuentra estructurado de la siguiente forma:
1.- El primer apartado contiene una descripción de los primeros intentos realizados,
enfocados a la tarea de identificar firmas espectrales puras, planteando las limitaciones
encontradas. Estas primeras experiencias constituyen la base sobre la que se asientan
los fundamentos de la metodología que posteriormente hemos desarrollado.
2.- Una vez expuestas estas primeras aproximaciones y sus limitaciones, presentamos la
nueva metodología de análisis hiperespectral propuesta, basada en la combinación de
técnicas de morfología matemática y crecimiento de regiones, cuya principal
característica es el tratamiento integrado de información espacial y espectral. La
descripción metodológica de esta nueva técnica viene acompañada de detalles acerca
de su implementación, incluyendo comentarios sobre las diferentes opciones de diseño
consideradas e insistiendo en las ventajas e inconvenientes de cada opción
implementada, así como en su complejidad computacional.
A continuación, describimos los algoritmos de análisis hiperespectral diseñados, cuyos
resultados serán presentados de forma detallada en el siguiente capítulo.
- 100 - Capítulo 3. Métodos.
3.1. Primeros intentos
En este apartado detallamos nuestros primeros pasos para abordar la identificación
automática de firmas espectrales puras o endmembers de la imagen. Estas primeras
aproximaciones resultaron de gran utilidad a la hora de identificar los requisitos fundamentales
de la metodología finalmente propuesta, pues sus ventajas e inconvenientes condicionaron las
decisiones de diseño finalmente adoptadas. El apartado está organizado de la siguiente forma.
1.- En primer lugar, se describen dos imágenes test, generadas de forma artificial, que
vamos a utilizar para ilustrar y evaluar de forma preliminar los diferentes métodos
propuestos en este capítulo, así como la metodología de evaluación adoptada.
Conviene destacar que la metodología de evaluación utilizada en este capítulo es muy
simple. Esta metodología será convenientemente extendida y complementada en el
siguiente capítulo, dedicado por entero al análisis de los resultados proporcionados por
las técnicas propuestas.
2.- A continuación, se presentan y evalúan preliminarmente una serie de métodos para la
identificación de endmembers mediante técnicas que solamente tienen en cuenta el
dominio espectral de la imagen. Las experiencias realizadas con estos métodos
confirman la necesidad de incorporar información espacial en el proceso de análisis,
ya apuntada en el apartado 2.4.
3.- Por último, se plantea la utilización de técnicas que consideran tanto la información
espacial como la espectral. Teniendo en cuenta los antecedentes presentados en el
capítulo 2, describimos los primeros intentos realizados en cuanto al desarrollo de
técnicas capaces de combinar información espacial y espectral de forma simultánea.
Imágenes test y metodología de evaluación
Las imágenes de prueba utilizadas en el presente capítulo han sido generadas utilizando
firmas espectrales reales, obtenidas a partir del sensor AVIRIS. En el apartado 4.2.1 del
siguiente capítulo puede encontrarse una justificación de las ventajas obtenidas al utilizar
imágenes simuladas para evaluar de forma preliminar los algoritmos diseñados, así como una
descripción detallada del procedimiento utilizado para generar dichas imágenes.
Como puede apreciarse en la figura 3.1.1, las dos imágenes consideradas se caracterizan por
su reducido número de pixels (en ambos casos, 8x7=56 pixels en total). Esta característica hace
que dichas imágenes sean únicamente válidas para efectuar una evaluación preliminar de los
métodos propuestos. Las firmas espectrales utilizadas en el proceso de generación de las
Capítulo 3. Métodos. - 101 -
imágenes corresponden a espectros de vegetación y suelo, los cuales constan de 224 valores
espectrales (ver figura 4.2.1).
imagen_test_1
224 bandas
224 bandas
imagen_test_2
RV RM RSRV RM’ RM RS
imagen_test_1
224 bandas
224 bandas
imagen_test_2
RV RM RSRV RM RSRV RM’ RM RS
Figura 3.1.1. Imágenes test utilizadas para evaluar de forma preliminar los métodos presentados a lo
largo del capítulo.
La imagen catalogada como imagen_test_1 contiene tres regiones: VR , formada por 18
pixels de vegetación; SR , formada por 15 pixels de suelo; y MR , formada por 23 pixels
obtenidos artificialmente a partir de mezclas entre vegetación y suelo con aproximadamente la
misma contribución.
Por su parte, la imagen catalogada como imagen_test_2 está formada por cuatro regiones en
forma de bandas verticales con anchura de 2 pixels y altura de 8 pixels. Las regiones son VR ,
compuesta por pixels de vegetación; MR , compuesta por mezclas entre vegetación y suelo con
aproximadamente la misma contribución; 'MR , compuesta por mezclas entre vegetación y suelo
con mayor contribución de vegetación; y SR , compuesta por pixels de suelo.
Finalmente, conviene destacar que las firmas espectrales utilizadas para generar las regiones
anteriormente descritas se caracterizan por una ligera variabilidad espectral, es decir, no se
utiliza siempre la misma firma espectral para simular los pixels englobados en una misma
región, sino firmas obtenidas a partir de pixels similares en una imagen hiperespectral real (ver
figura 4.2.1). Esta opción se ha adoptado por los motivos que se detallan a continuación:
Las imágenes reales vienen caracterizadas por pequeñas irregularidades en el terreno y
condiciones de iluminación variable, las cuales se traducen en ligeras variaciones
espectrales entre pixels pertenecientes a una misma región.
- 102 - Capítulo 3. Métodos.
A la hora de generar las imágenes mostradas en la figura 3.1.1, no se ha simulado la
relación SNR del instrumento de medida. Como se mencionó en el apartado 2.3.1,
dedicado a la descripción de los principales sensores hiperespectrales, el ruido en
dichos aparatos suele ser de tipo impulsivo, lo cual se traduce en pequeñas variaciones
en las mediciones espectrales obtenidas. Las imágenes sintéticas utilizadas en el
próximo capítulo se caracterizan por una simulación mucho más precisa del ruido del
sensor.
Haciendo uso de las dos imágenes anteriormente descritas, proponemos la utilización de una
sencilla metodología para evaluar las técnicas propuestas a lo largo del capítulo. El esquema de
evaluación utilizado se basa en la comprobación de una serie de propiedades que enumeramos a
continuación:
1.- Sensibilidad del método con respecto a los parámetros de entrada utilizados.
2.- Impacto de la variabilidad espectral en los resultados proporcionados por el método.
3.- Estimación sobre el coste computacional del mismo.
4.- Grado de automatización.
5.- Cantidad de información descartada por el método en los dominios espacial y
espectral.
6.- Integración de información espacial y espectral.
Una vez presentadas las imágenes que serán utilizadas a la hora de testear los algoritmos
propuestos y la metodología de evaluación preliminar adoptada, procedemos a describir
nuestros primeros intentos.
3.1.1. Técnicas que solamente consideran el dominio espectral
En este apartado describimos las primeras aproximaciones que nos planteamos para la
identificación de endmembers, basados en técnicas puramente espectrales. En este sentido, se
evaluaron dos aproximaciones preliminares al problema, las cuales son expuestas a
continuación.
Identificación de direcciones privilegiadas.
Esta primera técnica surgió con motivo de subsanar una de las principales limitaciones del
método de identificación de endmembers PPI, descrito en el apartado 2.3.2.2. La limitación
Capítulo 3. Métodos. - 103 -
radica en que PPI no incorpora procedimientos para identificar direcciones “privilegiadas” en el
espacio N-dimensional, entendiendo por direcciones privilegiadas aquellas en cuyos extremos
se encuentran los elementos espectralmente puros, tal y como se apuntó en la descripción del
método PPI.
En este apartado proponemos una alternativa al procedimiento anteriormente mencionado,
consistente en un proceso de barrido o sondeo sistemático del espacio N-dimensional en busca
de direcciones privilegiadas, en las cuales suele haber una mayor concentración de puntos,
como se ilustró en la figura 2.3.25. El procedimiento utilizado para localizar direcciones
privilegiadas consta de los pasos que a continuación se enumeran:
1.- En primer lugar, se calcula el centroide global de la nube de puntos.
2.- A continuación, se determina el elemento más extremo de la nube de puntos mediante
un proceso en el que se calcula la distancia SAM de todos los puntos con respecto al
centroide. El elemento que resulta en una distancia máxima es etiquetado como
endmember, y se almacena en una lista de elementos puros LP. En lo sucesivo, nos
referimos a este elemento como .
3.- Dada su condición de elemento puro, es probable que constituya el extremo de una
dirección privilegiada en la que hay una alta concentración de puntos, motivada por la
mezcla de dicho elemento con otros en distintas proporciones. Con objeto de
identificar direcciones privilegiadas en el espacio N-dimensional que tienen a como
extremo, utilizamos el siguiente procedimiento:
3.1. En primer lugar, se define un objeto con forma de cilindro de radio , centrado
en y cuyo extremo es el punto .
3.2. Este objeto se gira de forma aleatoria en el espacio N-dimensional, procurando
recorrer las direcciones de forma regular.
3.3. Si la proporción entre el número de puntos incluidos dentro del cilindro en una
determinada dirección y el número total de puntos de la imagen supera un
determinado valor umbral, introducido como parámetro, la dirección analizada
se considera privilegiada y se calcula el punto extremo opuesto a . Este punto,
E1, se etiqueta como endmember y se almacena en la lista LP.
4.- El proceso descrito en el paso 3 es repetido con cada uno de los puntos que van siendo
introducidos en LP, hasta que todos los puntos de la nube han sido englobados en
algún cilindro de búsqueda.
- 104 - Capítulo 3. Métodos.
E1
Banda i
Banda j
LP = { E1 }
Paso 1
LP = {E1, E2, E3 }
E1
E2
E3
Paso 2
E1
E2
E3
E4
LP = {E1, E2, E3 , E4 }
Paso 3
Figura 3.1.2. Procedimiento de identificación de direcciones privilegiadas en un espacio N-
dimensional.
El proceso descrito aparece ilustrado de forma gráfica en la figura 3.1.2. Como puede
apreciarse en la figura, en el paso 1 se identifica el centroide, , y se obtiene el elemento más
extremo a partir de . En los pasos 2 y 3 se efectúa el proceso de barrido de todos los puntos de
la imagen, utilizando un cilindro de radio . Como resultado de este proceso, el método
identifica cuatro endmembers en el conjunto de datos original.
A continuación, evaluamos de forma preliminar el método, utilizando el esquema visto en el
apartado 3.1. A partir de la experimentación preliminar realizada, se han obtenido las siguientes
conclusiones:
1.- Sensibilidad a parámetros de entrada. El método propuesto es sensible al radio del
cilindro, . Cuanto menor sea el radio del cilindro, mayor será el número de
iteraciones que el algoritmo deberá realizar hasta localizar todos los endmembers. Esta
situación aparece ilustrada cualitativamente en la figura 3.1.3, en la que se muestran
Capítulo 3. Métodos. - 105 -
algunos resultados preliminares obtenidos al aplicar el método a la imagen_test_1.
Como puede apreciarse en la parte izquierda de la figura, la utilización de cilindros de
radio pequeño hace que queden muchos puntos de la nube sin evaluar, siendo
necesario realizar más iteraciones. Por otra parte, la utilización de cilindros con radio
grande soluciona el problema anteriormente comentado, pero puede dar lugar a la
detección de endmembers redundantes al considerarse como privilegiadas direcciones
que son muy similares, como se aprecia en la parte derecha de la figura 3.1.3.
RS
RV
RM
Muchos puntos sin evaluar (dirección puede considerarse
no privilegiada)
RS
RV
RM
Dirección privilegiada 1
Dirección privilegiada 2
Endmem
bers
redundantes
Figura 3.1.3. Aplicación del método de identificación de direcciones privilegiadas sobre la
imagen_test_1 utilizando cilindros de radio pequeño (parte izquierda) y radio grande (parte
derecha).
2.- Impacto de la variabilidad espectral. Como puede apreciarse en la figura 3.1.3, el
método es sensible a la variabilidad espectral, siendo necesario ajustar el radio del
cilindro en función del grado de variabilidad presente en la imagen.
3.- Coste computacional. El coste computacional del método puede resultar elevado si el
radio del cilindro empleado es pequeño en comparación con la variabilidad espectral
de la imagen, puesto que el número de iteraciones del algoritmo necesarias en ese caso
aumenta considerablemente. En caso de aumentar dicho radio, el coste computacional
decrece, pero aumenta el riesgo de detectar endmembers redundantes.
4.- Grado de automatización. El método propuesto se ejecuta de forma totalmente
automática, una vez introducidos los parámetros de entrada.
- 106 - Capítulo 3. Métodos.
5.- Información descartada. Al tratarse de un método que utiliza únicamente
información en el dominio espectral, toda la información relativa a la correlación
espacial de los pixels en la imagen es descartada.
6.- Grado de integración de información espacial y espectral. El método no considera
la integración de ambas fuentes de información en el proceso de identificación de
endmembers.
Para finalizar la discusión relativa al método comentado, destacamos que, a pesar de que
esta técnica no incorpora información acerca del grado de correlación espacial, se trata de un
enfoque interesante para identificar endmembers en base a sus propiedades espectrales. Entre las
futuras aportaciones a realizar, consideramos imprescindible una evaluación más detallada del
funcionamiento de este método, la cual permitirá profundizar en detalles como la identificación
automática del radio más adecuado del cilindro a utilizar o la aplicación de cilindros con
diferente radio que permitan una exploración más eficiente de las direcciones privilegiadas en la
nube de puntos.
Identificación de endmembers utilizando el centroide de la imagen.
Esta técnica presenta un principio de funcionamiento similar al de la técnica basada en
identificación de direcciones privilegiadas. A diferencia de dicha técnica, en este caso los
endmembers se identifican a partir de la distancia SAM entre los puntos de la imagen y el
centroide, . El procedimiento utilizado se basa en la realización de los siguientes pasos:
1.- Asociar a cada punto de la imagen un contador de pureza. Todos los contadores son
inicializados a cero.
2.- Calcular el centroide global, , de la nube de puntos.
3.- Calcula la distancia SAM entre cada uno de los puntos de la imagen y . El contador
de pureza asociado a cada punto considerado se actualiza cono el valor resultante de la
distancia.
4.- A partir de los contadores de pureza obtenidos para cada punto, se realiza una
selección de los elementos espectralmente más puros mediante el establecimiento
manual de un valor umbral de pureza, introducido como parámetro al algoritmo.
Aquellos puntos cuyo contador de pureza supera el umbral establecido son etiquetados
como endmembers.
A continuación, evaluamos de forma preliminar el método utilizando el esquema habitual:
Capítulo 3. Métodos. - 107 -
1.- Sensibilidad a parámetros de entrada. Experimentalmente, hemos comprobado que
el método es sensible al valor umbral establecido para seleccionar los endmembers. La
selección de un valor bajo puede derivar en la identificación de muchos candidatos,
mientras que la selección de un valor elevado puede propiciar la pérdida de
endmembers extremos en algunas direcciones.
2.- Impacto de la variabilidad espectral. El método resulta sensible a la variabilidad
espectral y, en general, a la estadística de la imagen (distribución de puntos en la
misma). Esta situación aparece ilustrada en la figura 3.1.4, en la que se muestran
algunos resultados preliminares obtenidos al aplicar el método a la imagen_test_1
(parte izquierda) y a la imagen_test_2 (parte derecha). En esta figura se aprecia cómo
la ubicación del centroide depende del número de puntos puros y el número de puntos
mezcla. La variabilidad en la ubicación del centroide produce diferentes valores en la
estimación de la pureza de los puntos extremos, e1 y e2, circunstancia que no resulta
razonable debido a que la extremidad de dichos es la misma en las dos imágenes
consideradas, independientemente de dónde quede ubicado el centroide.
RS
RV
RMSAM(,e1)
e1
SAM(,e2)
e2
RS
RV
RM
e1
e2
RM’ SAM(,e1)
SAM(,e2)
Figura 3.1.4. Influencia de la estadística de las imágenes imagen_test_1 (parte izquierda) e
imagen_test_2 (parte derecha) en la ubicación del centroide y el consiguiente cálculo del índice de
pureza de los endmembers.
3.- Coste computacional. En la práctica, el coste computacional de este método es más
reducido que el del algoritmo anterior. Este hecho se debe a que esta aproximación se
basa en operaciones como el cálculo del centroide de la imagen y el cálculo de la
distancia SAM entre cada punto de la imagen y el centroide.
- 108 - Capítulo 3. Métodos.
4.- Grado de automatización. A pesar de que el cálculo de los contradores de pureza
asociados a cada píxel de la imagen se realiza de forma automática, la selección del
valor umbral para seleccionar el conjunto final de endmembers se realiza de forma
totalmente manual.
5.- Información descartada. Al igual que en el método anteriormente comentado,
únicamente se considera la información en el dominio espectral, con lo que la
información espacial es totalmente descartada.
6.- Grado de integración de información espacial y espectral. Nuevamente, el método
no considera la integración de ambos tipos de información.
A partir de la limitación relativa a la dependencia del método con respecto a la estadística de
la imagen, parece claro que la utilización del centroide global de la imagen puede acarrear
problemas en la estimación de la pureza de cada pixel. La solución a este problema puede
consistir en utilizar centroides locales, que no vienen condicionados en exceso por las
estadísticas de la imagen, particularmente cuando la localidad alrededor del pixel es reducida.
De este modo, podemos obtener propiedades globales acerca de la imagen mediante el análisis
de pequeñas porciones de la misma, reduciendo de forma considerable el efecto negativo
producido por las estadísticas globales. Este enfoque es el tradicionalmente utilizado por las
técnicas espaciales clásicas de procesado digital de imágenes, como se mostró en el apartado
2.2.1 de la presente memoria. Por otra parte, la limitación relativa a la dependencia del valor
umbral para seleccionar los endmembers indica que sería deseable utilizar una metodología
automática capaz de seleccionar el valor umbral óptimo para identificar el conjunto final de
endmembers de forma robusta.
3.1.2. Técnicas que utilizan información espacial y espectral.
En este subapartado describimos dos aproximaciones preliminares al problema de considerar
la información espacial y espectral de la imagen de forma conjunta. Las ventajas de integrar
ambos tipos de información fueron analizadas en detalle en el apartado 2.4.
La primera aproximación realizada se basa en el desarrollo de una herramienta que permite
visualizar la información espacial y espectral asociada a un determinado pixel de la imagen.
Utilizando la información proporcionada por dicha herramienta, en una segunda aproximación
exploramos un primer intento de combinar la información en los dominios espacial y espectral.
Capítulo 3. Métodos. - 109 -
Visualización de la información espacial y espectral asociada a un pixel.
Como hemos mencionado anteriormente, la primera aproximación a la integración
simultánea de información espacial y espectral consistió en el desarrollo de una herramienta
capaz de visualizar las firmas espectrales de todos los puntos incluidos en la vecindad de un
determinado pixel, seleccionado de forma interactiva en la imagen.
A la hora de abordar el desarrollo de esta herramienta, el primer aspecto tenido en cuenta fue
el modo en que el entorno local alrededor de cada pixel debía ser considerado. Siguiendo una de
las aproximaciones más ampliamente utilizadas en la literatura, descrita en el apartado 2.2.1, se
optó por utilizar funciones de vecindad o kernels, con determinadas propiedades espaciales en
cuanto a forma y tamaño, alrededor de cada pixel. Los kernels inicialmente utilizados se
caracterizaron por su simplicidad, y consistieron en ventanas cuadradas de diferente tamaño.
Primera prueba Segunda prueba Tercera prueba
K1
K3 K3
Figura 3.1.5. Estudio de la variabilidad espectral en la vecindad espacial alrededor de un píxel.
La figura 3.1.5 muestra algunos ejemplos obtenidos a partir de la herramienta descrita,
utilizando como base la imagen_test_2. En la primera prueba, el kernel K1 (5x5 pixels) abarca
una zona en la que se producen mezclas de un elemento espectralmente puro en distintas
proporciones, dando lugar a cambios muy sutiles en las firmas espectrales visualizadas. En la
segunda prueba, K2 (3x3 pixels) cubre una zona en la que la variabilidad espectral es menor, con
lo que la variabilidad en las firmas espectrales obtenidas es mucho menor. Finalmente, en la
tercera prueba se utiliza un kernel (K3, 2x2 pixels) cuya anchura y forma se asemeja a la
- 110 - Capítulo 3. Métodos.
distribución espacial de los pixels que componen una de las zonas de la imagen, permitiendo así
una caracterización más precisa. Esta circunstancia se traduce en una variabilidad espectral muy
reducida en las firmas espectrales visualizadas.
A continuación, procedemos a evaluar esta sencilla aproximación utilizando la batería de
pruebas descrita en el apartado 3.1:
1.- Sensibilidad a parámetros de entrada. La herramienta diseñada es sensible al
tamaño de kernel utilizado, de forma que el ajuste de las propiedades espaciales del
mismo permite obtener una mejor caracterización de los objetos presentes en la
imagen.
2.- Impacto de la variabilidad espectral. Como puede apreciarse en la figura 3.1.5, la
variabilidad espectral obtenida está en función del ajuste del kernel a la forma de los
objetos de la imagen.
3.- Coste computacional. La herramienta se ha diseñado de forma que se analiza la
vecindad local a partir de un determinado píxel, por lo que el coste computacional
dependerá del tamaño de kernel escogido. En cualquier caso, la herramienta
únicamente visualiza firmas espectrales sin realizar otro tipo de operaciones, por lo
que el coste computacional es reducido.
4.- Grado de automatización. La herramienta diseñada se caracteriza por ser totalmente
interactiva, siendo necesario seleccionar un determinado pixel de la imagen para
obtener un resultado. Por lo tanto, el grado de automatización presente en la
herramienta es reducido.
5.- Información descartada. La información descartada viene dada por las propiedades
espaciales del kernel considerado. Cuanto mayor sea el kernel, menor será la cantidad
de información descartada. En cualquier caso, el método considera la información
espacial y espectral, por lo que no se descarta información en dichos dominios.
6.- Grado de integración de información espacial y espectral. Esta herramienta viene
marcada por un alto grado de integración entre la información espacial y espectral,
que son consideradas de forma simultánea.
A partir de las anteriores aseveraciones, deducimos que la forma y tamaño de la función de
vecindad utilizada tiene una gran influencia en la variabilidad espectral observada en las
cercanías del pixel estudiado. Esta sencilla experiencia pone de manifiesto la viabilidad de
obtener operadores detectores capaces de incorporar propiedades espaciales y espectrales
similares a las de los objetos que se desean identificar en la imagen. Obviamente, el diseño de
estos operadores queda supeditado al conocimiento previo de las características de la imagen. A
Capítulo 3. Métodos. - 111 -
continuación describimos brevemente los primeros intentos realizados en el diseño de este tipo
de detectores.
Detectores en el dominio espacial y espectral.
Haciendo uso de la información proporcionada por la herramienta descrita en el apartado
anterior, el siguiente paso consistió en diseñar operadores detectores capaz de identificar objetos
en una imagen utilizando de forma combinada la información espacial y espectral.
La figura 3.1.6 muestra un ejemplo de un operador detector de tamaño de 4x4 pixels,
diseñado específicamente para detectar zonas de vegetación pura, con respuesta espectral
conocida a priori, que se encuentran rodeadas por zonas en la que la vegetación aparece en un
grado de crecimiento ligeramente inferior sobre el suelo. Según el diseño el operador, se supone
que la anchura de la zona de vegetación con mayor crecimiento es de 2 pixels.
0
1000
2000
3000
4000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Ref
lect
anci
a (%
*100
)
0
1000
2000
3000
4000
5000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Ref
lect
anci
a (%
*100
)
Vegetación pura 80% Vegetación + 20% Suelo
Figura 3.1.6. Operador detector que utiliza propiedades espaciales y espectrales conocidas a priori.
Como puede apreciarse, el detector no es más que un pequeño cubo de datos cuya dimensión
espectral es la misma que la de la imagen original. El detector considera tanto la información
espacial (tamaño y distribución de los elementos que lo componen) como espectral (asociación
de una firma espectral a cada elemento). En el proceso de detección, el detector se mueve por
todos los pixels de la imagen, calculando un valor de similaridad entre las firmas
correspondientes a la zona analizada en un momento dado y las firmas espectrales almacenadas
- 112 - Capítulo 3. Métodos.
en el detector. Para ello, se calcula la suma de las distancias SAM entre firmas espectrales
coincidentes, tal y como se muestra en la siguiente expresión:
K)y,x(
)y,x(),y,x(SAMS kp , (3.1.1)
donde p(x,y) y k(x,y) denotan, respectivamente, el pixel de la imagen hiperespectral y el
pixel del detector en la posición (x,y), y K es el detector utilizado. El valor de similaridad
obtenido, S, ofrece una idea de lo bien que se ajusta el detector a la zona estudiada, de forma
que, en aquellos casos en los que el operador coincide exactamente con la zona a identificar, se
obtiene un valor de S alto, mientras que en los casos en que el operador no coincide, se obtienen
valores de S bajos.
El proceso de detección aparece ilustrado mediante un sencillo ejemplo en la figura 3.1.7, en
la que se ha tomado como ejemplo la imagen_test_2. En la primera prueba, todos los pixels del
detector coinciden con los correspondientes pixels de la imagen, por lo que el valor de S será
alto. Esta prueba ilustra cómo se tratan las situaciones en las que los elementos a detectar se
encuentran en el borde de la imagen: en este caso, solamente se compara la parte del detector
que coincide con los rasgos a detectar (el resto de elementos no se compara). En la segunda
prueba, solamente la mitad de los pixels del detector coinciden con los de la imagen, por lo que
el valor de S será intermedio. Finalmente, en la tercera prueba el valor de S será bajo al no
coincidir ninguno de los pixels del detector con los de la imagen.
Primera prueba Segunda prueba Tercera prueba
Similaridad alta Similaridad intermedia Similaridad baja
Figura 3.1.7. Uso de detectores en el dominio espacial y espectral para reconocer objetos en la
imagen.
A continuación, evaluamos la técnica basada en detectores espaciales/espectrales utilizando
los criterios habituales:
1.- Sensibilidad a parámetros de entrada. Este método es sensible a las propiedades
espaciales (tamaño y forma) y espectrales (firmas asociadas a cada píxel) del detector
Capítulo 3. Métodos. - 113 -
considerado. Al igual que en la aproximación anterior, el ajuste de dichas propiedades
permitirá caracterizar objetos con mayor precisión.
2.- Impacto de la variabilidad espectral. El impacto de la variabilidad espectral sobre el
método es reducida, puesto que la distancia SAM se caracteriza, como hemos visto en
el capítulo de antecedentes (apartado 2.3.2), por su independencia frente a las
pequeñas variaciones en la escala motivadas por la diferente iluminación de los
objetos, que suelen causar parte de la variabilidad presente en la imagen.
3.- Coste computacional. El coste de esta metodología depende de las propiedades
espaciales y espectrales de los detectores considerados. El operador se mueve por
todos los pixels de la imagen, por lo que el tamaño de la imagen también influye en el
coste computacional del método. Experimentalmente, hemos comprobado que, cuando
el tamaño de los detectores utilizados es moderado (entre 3x3 pixels y 25x25 pixels,
con hasta 224 valores espectrales por pixel), el procesamiento de la imagen puede
realizarse en un tiempo razonable (en el próximo capítulo se presentan resultados
cuantitativos acerca del coste computacional de las técnicas desarrolladas).
4.- Grado de automatización. La herramienta diseñada se caracteriza por ser semi-
automática. Una vez aplicado el detector sobre todos los pixels de la imagen, etapa
que se realiza de forma automática, el usuario debe extraer los endmembers de forma
interactiva a partir de aquellas zonas de la imagen que dan como resultado valores de
similaridad altos.
5.- Información descartada. Una de las ventajas de este método es que no se descarta
información a lo largo del proceso, puesto que todos los pixels de la imagen son
procesados analizando la información espacial y espectral.
6.- Grado de integración de información espacial y espectral. El proceso de detección
se caracteriza por considerar la información espacial y espectral de forma simultánea.
En base a las propiedades de las dos técnicas descritas en este apartado, podemos enumerar
una serie de consideraciones:
La utilización de funciones de vecindad locales alrededor de cada pixel de la imagen
permite analizar las propiedades espaciales y espectrales de los elementos que
aparecen englobados en el interior de dicha vecindad. Además, este enfoque permite
considerar la información espacial y espectral de forma simultánea.
Esta aproximación es sensible a las propiedades de la función de vecindad utilizada, lo
cual permite ajustar el proceso de análisis a la detección de objetos cuyas propiedades
- 114 - Capítulo 3. Métodos.
son conocidas de antemano, permitiendo así la incorporación de información a priori
en el proceso.
En el caso de no disponer de información previa sobre los rasgos de interés en la
imagen, la utilización de una única función de vecindad puede no resultar suficiente
para caracterizar la totalidad de los objetos presentes en la imagen. En este caso,
siguiendo los conceptos de las aproximaciones multi-escala vistas en el capítulo de
antecedentes (apartado 2.2.1), puede utilizarse un conjunto de funciones de vecindad
de distinto tamaño.
Las consideraciones anteriormente mencionadas han sido tenidas muy en cuenta a la hora de
adoptar decisiones de diseño en la metodología finalmente propuesta, la cual se describe en el
siguiente apartado del capítulo.
3.2. Metodología propuesta
En este apartado describimos la nueva metodología que proponemos para la identificación
de firmas espectrales puras o endmembers en la imagen. A partir de los primeros experimentos,
descritos en el apartado anterior, los requerimientos que nos planteamos a la hora de diseñar esta
metodología son los siguientes:
El método debe poder ser adaptado a diferentes aplicaciones y situaciones
particulares.
Debe tratarse de un método poco sensible a las pequeñas variaciones presentes en los
pixels de la imagen hiperespectral, motivadas por irregularidades y condiciones de
iluminación variable.
El coste computacional del método debe ser lo más reducido posible.
El grado de automatización del mismo debe ser elevado, permitiendo al mismo tiempo
el uso de parámetros para favorecer su adaptabilidad.
La información descartada por el método a la hora de identificar firmas espectrales
puras debe seguir un criterio económico, de forma que se elimine la menor cantidad
posible de información relevante.
Finalmente, es deseable que el método diseñado tenga en cuenta la información
espacial y espectral de forma simultánea, con motivo de no favorecer a ninguna de
ellas a lo largo del proceso.
Capítulo 3. Métodos. - 115 -
La descripción de la metodología propuesta se basa en una serie de pasos que se describen a
continuación:
1.- Inicialmente, presentamos un esquema para extender las operaciones morfológicas,
introducidas en el apartado 2.2.1, al caso de imágenes hiperespectrales. Este paso
permite obtener operadores morfológicos extendidos capaces de caracterizar de forma
precisa cada uno de los pixels de la imagen en el dominio espacial y espectral.
2.- A continuación, se describe en detalle el algoritmo propuesto, basado en la aplicación
de operadores morfológicos extendidos sobre la imagen original, tarea que se
complementa con técnicas de crecimiento de regiones.
A la hora de describir las diferentes etapas de la metodología propuesta, insistimos en los
motivos que nos han llevado a escoger la realización y secuenciamiento de cada una de las
etapas mencionadas, así como en aspectos de diseño tales como parámetros de entrada y
resultados proporcionados en cada paso.
3.2.1. Extensión de la morfología a imágenes hiperespectrales.
En primer lugar, enumeramos algunos puntos clave que nos han llevado a introducir un
esquema basado en conceptos de morfología matemática.
Como se comentó en el apartado 2.2.1, las técnicas morfológicas son no lineales. El
proceso de identificación de endmembers es una tarea esencialmente no lineal, por lo
que la morfología matemática puede resultar adecuada para llevar a cabo dicha tarea.
Un endmember es, como se vió en el apartado 2.3.2.2, un elemento espectralmente
puro que representa a otros elementos en la imagen. Las operaciones morfológicas se
basan en la selección local de pixels que cumplen unas determinadas características en
relación con sus vecinos, por lo que estas operaciones pueden constituir una
alternativa razonable para identificar endmembers.
Además, una de las características fundamentales de las operaciones morfológicas es
su gran adaptabilidad. La utilización de funciones de vecindad de diferentes tamaños y
formas permite adaptar el funcionamiento de los operadores morfológicos a muy
diversas situaciones, así como incorporar información a priori sobre la imagen. Este
hecho puede favorecer el proceso de selección de endmembers en aplicaciones en las
que se tiene un cierto conocimiento previo sobre las características de los objetos a
identificar.
- 116 - Capítulo 3. Métodos.
Por otra parte, las técnicas morfológicas se caracterizan por abordar el análisis global
de una imagen mediante el tratamiento separado de pequeñas porciones de la misma.
Este enfoque presenta una serie de características interesantes:
a. En primer lugar, este modo de actuar permite la localización de puntos
extremos locales en la imagen que compiten entre sí hasta que se obtienen
puntos extremos globales. Esta aproximación estructurada a la búsqueda de
endmembers es totalmente novedosa, y puede solventar el componente de
aleatoriedad presente en metodologías ampliamente utilizadas en la actualidad,
como el método PPI (ver descripción en apartado 2.3.2.2).
b. Además, el tratamiento de diferentes porciones de la imagen es totalmente
independiente y, por tanto, susceptible de ser realizado en paralelo mediante
arquitecturas hardware diseñadas de forma específica, favoreciendo el
rendimiento en términos computacionales del método de análisis.
Finalmente, cabe destacar que la morfología matemática es una técnica muy
consolidada en el análisis de datos espaciales, y además es susceptible de ser
extendida al dominio espectral, como se describió en el apartado dedicado a
morfología cromática en el capítulo de antecedentes.
Una vez expuestos los argumentos que nos han llevado a escoger la morfología matemática
como base de nuestro algoritmo, presentamos un esquema para introducir las operaciones
morfológicas básicas, definidas originalmente para imágenes binarias, en niveles de gris y en
color (ver apartado 2.2.1) al caso de imágenes hiperespectrales.
Como se mencionó en dicho apartado, las operaciones morfológicas se basan en el cálculo
del valor máximo y mínimo en una vecindad o región espacial alrededor de cada pixel de la
imagen, donde la forma y tamaño de la región considerada vienen determinadas por las
propiedades espaciales de una función de vecindad denominada elemento estructural.
La determinación de los valores máximo y mínimo viene supeditada a la existencia de una
relación de orden entre los pixels de la imagen. En el caso de imágenes binarias y en niveles de
gris, el orden viene dado por la intensidad o nivel digital asociado a cada punto. Sin embargo, el
principal problema a la hora de extender las operaciones morfológicas clásicas, basadas en el
cálculo de valores máximos y mínimos, al caso de imágenes hiperespectrales, consiste en la
ausencia de una relación de orden en los pixels de la imagen. Este hecho se debe al carácter
vectorial de dichos pixels, que no vienen caracterizados por un valor discreto sino por un vector
de N valores, donde N es el número de bandas espectrales en las que el sensor puede medir
información.
Capítulo 3. Métodos. - 117 -
Por tanto, el primer paso a la hora de abordar la extensión de las técnicas morfológicas a este
tipo de imágenes debe basarse en la imposición de una relación de orden, que puede ser parcial
como indica la expresión (2.2.11), en el conjunto de pixels de la imagen.
A continuación, presentamos un esquema genérico que permite conseguir el objetivo
anteriormente mencionado (Plaza y col., 2001a; Plaza y col., 2002a). El esquema propuesto se
basa en la utilización de una medida de distancia entre vectores. El apartado concluye con una
breve discusión acerca de las diferentes distancias que pueden ser utilizadas en la construcción
de operadores morfológicos extendidos.
Esquema genérico.
Antes de presentar el esquema propuesto para extender los operadores morfológicos a
imágenes multi-dimensionales, introducimos una serie de definiciones:
N es el número de dimensiones de la imagen.
f es una imagen hiperespectral, entendida como una función de la forma:
N2 ZZ: f (3.2.1)
f(x,y) denota un vector de N dimensiones asociado con el píxel de la imagen en las
coordenadas espaciales (x,y).
)K(Zy)(x, );y,x(K 2 f es un conjunto que denota los vectores que pertenecen al
elemento estructural utilizado en las operaciones morfológicas, donde )K(Z2 es el
conjunto de posiciones (s,t) de dicho elemento.
M es el número de elementos en la vecindad impuesta por el elemento estructural K
alrededor del pixel f(x,y).
k(s,t) es el vector asociado a cada uno de los elementos del elemento estructural.
Finalmente, Dist es la distancia entre los vectores correspondientes a los dos pixels
f(x,y) y f(x’,y’) de la imagen.
En base a las anteriores aseveraciones, podemos definir la distancia acumulada D entre un
determinado pixel, f(x,y); (x,y)K, y el resto de los elementos de K mediante las siguientes
expresiones, de las cuales expresión (3.2.2) será empleada en la operación de dilatación y
(3.2.3) será empleada en la operación de erosión:
- 118 - Capítulo 3. Métodos.
)K(Z)t,s( 2
t)(s,t)-ys,-(x ),y,x(Dist)K,y)(x,(D kfff (3.2.2)
)K(Z)t,s( 2
t)(s,t)ys,(x ),y,x(Dist)K,y)(x,(D kfff (3.2.3)
Como puede comprobarse en el apartado 2.2.1, las expresiones (3.2.2) y (3.2.3) son una
extensión de las expresiones (2.1.7) y (2.1.8), utilizadas respectivamente para llevar a cabo la
dilatación y erosión de imágenes en niveles de grises.
El valor proporcionado por la distancia acumulada D en cada pixel permite imponer una
relación de orden en el espacio N-dimensional dado por los puntos de la imagen multi-
dimensional f. La relación de orden es parcial, es decir, puede haber empates en los valores. A
pesar de ello, la relación de orden D permite obtener el vector máximo y mínimo en la vecindad
dada por K, un requisito indispensable para poder realizar la operación morfológica en un
sentido puramente vectorial. El enfoque vectorial presenta numerosas ventajas frente a otras
aproximaciones, como la marginal, tal y como se mencionó en el apartado del capítulo de
antecedentes dedicado a morfología cromática.
Conviene destacar que la complejidad computacional para calcular D puede expresarse en
términos del número de operaciones internas entre elementos de los vectores considerados como
T(MxMxN), puesto que el cálculo de la distancia entre dos pixels conlleva N operaciones
puntuales y es necesario calcular esta distancia entre cada uno de los pixels y todos sus vecinos,
es decir, M2 veces. En notación asintótica, este tiempo computacional se traduce en una
complejidad computacional cúbica O(n3). Esta elevada complejidad puede reducirse a O(n2) en
el caso de que la distancia utilizada sea lineal, como veremos al final del presente apartado. Esta
complejidad resulta aceptable, en términos generales, a la hora de procesar imágenes
hiperespectrales (Plaza y col., 2001a).
Una vez definida la distancia acumulada D, la cual permite imponer una relación de orden
parcial de forma sencilla y computacionalmente eficiente, es posible extender las operaciones de
erosión y dilatación a imágenes hiperespectrales. Dichas operaciones se basan, respectivamente,
en el cálculo del elemento mínimo y máximo. La dilatación hiperespectral puede expresarse
como:
y))(x,(D arg_Max)y,x()y,x(K)K(Zt)(s, 2
fdf
(3.2.4)
Por otra parte, la erosión hiperespectral puede expresarse del siguiente modo:
Capítulo 3. Métodos. - 119 -
y)(x,(D arg_Min)y,x()y,x(K -
)K(Zt)(s, 2fef
(3.2.5)
En ambos casos, los operadores arg_Min y arg_Max seleccionan, respectivamente, el pixel
de la vecindad para el cual el valor de la distancia acumulada D es mínimo/máximo.
Conviene recordar, de forma previa a la interpretación gráfica de estas operaciones mediante
ejemplos, que no hay limitación alguna en lo que se refiere a las propiedades del elemento
estructural en las operaciones morfológicas (ver apartado 2.2.1). No obstante, por razones de
simplicidad, los elementos estructurales utilizados en este trabajo presentan las limitaciones que
se enumeran a continuación:
1.- En lo sucesivo, consideramos únicamente elementos estructurales planos. Este tipo
simplificado de elementos estructurales resulta cuando (s,t)K, k(s,t)=[0,...,0].
2.- Además, los elementos estructurales utilizados en este trabajo tienen siempre forma de
cuadrado regular, siguiendo la tendencia más habitual en las operaciones de
procesamiento espacial clásicas (ver apartado 2.2.1).
Como línea futura inmediata, consideramos imprescindible la realización de un estudio
detallado acerca de la influencia de utilizar otros tipos de elementos estructurales (no planos, no
regulares, orientados, etc.).
Una vez planteadas las características de los elementos estructurales empleados en este
trabajo, la figura 3.2.1 muestra una sencilla interpretación gráfica de la relación de orden
impuesta al utilizar la distancia acumulada D. En este ejemplo, se ha limitado el número de
dimensiones de la imagen a dos, de forma que los puntos que se encuentran dentro de la
vecindad definida por el elemento estructural K pueden representarse en un plano
bidimensional. El elemento máximo resultado de la operación de dilatación, etiquetado en la
figura como d, es aquel que presenta mayor distancia acumulada con respecto a todos sus
vecinos. Por otra parte, el elemento mínimo, resultado de la erosión y etiquetado en la figura
como e, es que se encuentra a menor distancia del resto de pixels.
Como puede apreciarse en la figura 3.2.1, la distancia acumulada D permite distinguir entre
los elementos puros y elementos mezcla en la imagen. Como se muestra en la figura, existe la
posibilidad de que se produzcan empates; sin embargo, este hecho no supone un problema,
puesto que cualquiera de los elementos a seleccionar (d y d’ en el caso de la dilatación; e y e’ en
el caso de la erosión) son buenos candidatos para ser utilizados en las operaciones morfológicas.
Así, tanto d como d’ son elementos extremos en la nube de puntos, mientras que e y e’ son
elementos mezcla.
- 120 - Capítulo 3. Métodos.
K d K
e
d’
e’
Figura 3.2.1. Interpretación gráfica de las operaciones de dilatación (parte izquierda) y erosión (parte
derecha) utilizando la distancia acumulada D.
Una vez definidas las operaciones morfológicas básicas, pasamos a mostrar un ejemplo de
aplicación de las mismas sobre una de las imágenes de prueba que se han venido utilizando a lo
largo del presente capítulo. En concreto, la figura 3.2.2 muestra un ejemplo en el que se ilustra
el efecto de aplicar las operaciones de erosión y dilatación extendidas sobre la imagen_test_2,
definida en la figura 3.1.1. En ambos casos, la distancia Dist, utilizada en (3.2.2) y (3.2.3)
corresponde a la distancia SAM, definida en el apartado 2.3.2.
Como puede apreciarse en la figura, las operaciones morfológicas se basan en la utilización
de un elemento estructural plano de 3x3 pixels, que se mueve por todos los pixels de la imagen,
definiendo una vecindad local alrededor de cada punto considerado. El máximo (dilatación) o el
mínimo (erosión) en la vecindad es seleccionado y colocado en la posición ocupada por el pixel
analizado en una nueva imagen, denominada imagen dilatada o erosionada.
El ejemplo mostrado en la figura 3.2.2 pone de manifiesto que la operación de dilatación
expande las zonas espectralmente puras de la imagen; dicha expansión se realiza de una forma
que depende de las características espaciales del elemento estructural utilizado. Por el contrario,
la operación de erosión da como resultado una reducción de las zonas espectralmente puras
según el tamaño y forma del elemento estructural utilizado. En ambos casos, los operadores
consideran de forma simultánea la información espacial y espectral a la hora de producir su
resultado (Plaza y col., 2002a).
Para el caso de la operación de dilatación, podemos imaginar una situación en la que se
produjese un empate a la hora de calcular el elemento máximo. En este supuesto, motivado por
la existencia de dos vectores a la misma distancia del resto, la selección de uno u otro vector no
tendría influencia en el comportamiento del algoritmo, ya que los dos elementos serían
igualmente puros. Al desplazar el elemento estructural, es muy probable que este equilibrio se
rompa a favor de uno de los dos endmembers.
Capítulo 3. Métodos. - 121 -
Dilatación Erosión
Máximo Mínimo
3x3 kernel
Imagen_test_1
3.2.2. Efecto de aplicar las operaciones morfológicas de erosión y dilatación sobre la imagen_test_1
utilizando un elemento estructural plano de 3x3 pixels.
Las consideraciones anteriormente mencionadas plantean la posibilidad de llevar un control
de los endmembers que van siendo seleccionados por las operaciones morfológicas, de forma
que se evite que un mismo endmember sea seleccionado demasiadas veces en perjuicio de otros.
Por ejemplo, esta funcionalidad podría incorporarse calculando la distancia mínima con respecto
a los endmembers ya seleccionados. Esta alternativa se plantea como una posible ampliación
futura de los operadores morfológicos extendidos.
En el ejemplo mostrado en la figura 3.2.2, hemos destacado que la distancia Dist utilizada
para extender las operaciones morfológicas equivale a la distancia SAM. En el siguiente
apartado comentamos las diferentes distancias que pueden utilizarse para implementar las
operaciones morfológicas extendidas.
Distancias consideradas.
La distancia acumulada mostrada en las expresiones (3.2.2) y (3.2.3) se basa en la utilización
de una medida Dist que calcula la distancia punto a punto entre dos vectores N-dimensionales.
A la hora de describir las posibles medidas utilizadas, consideramos dos grandes grupos:
- 122 - Capítulo 3. Métodos.
distancias lineales y distancias no lineales. A continuación se detallan las características
fundamentales de cada uno de estos dos grandes grupos.
Distancias lineales.
Dentro de este grupo destacamos las distancias SAM y RMSE, descritas previamente en el
capítulo de antecedentes de la presente memoria (apartado 2.3.2). Por motivos ilustrativos, en el
presente apartado se ha mostrado un ejemplo en el que se utiliza la distancia SAM para
implementar las operaciones morfológicas extendidas.
Como ya se ha mencionado anteriormente, en el caso de utilizar una distancia lineal, puede
reducirse la complejidad computacional en el cálculo del elemento máximo y el elemento
mínimo (Plaza y col., 2001a). Para ello, es necesario realizar los siguientes pasos:
1.- En primer lugar, se considera un elemento estructural K.
2.- A continuación, se calcula el centroide del elemento estructural, K, utilizando para
ello la siguiente expresión:
)K(Z)t,s(
K2
)t,s(M
1fΦ (3.2.6)
3.- Utilizando el centroide previamente definido, podemos expresar la distancia D’ entre
cada elemento perteneciente a K y el centroide mediante la siguiente expresión, donde
Dist se refiere a una distancia lineal entre vectores.
),y)x,(Dist)K),y,x(('D KΦ ,f(f (3.2.7)
La complejidad computacional para calcular la distancia D’ puede expresarse en términos
del número de operaciones internas entre elementos de los vectores considerados como T(MxN),
puesto que el cálculo de la distancia entre cualquier pixel y el centroide conlleva N operaciones
puntuales y es necesario calcular esta distancia para cada pixel del kernel, es decir, M veces. En
notación asintótica, este tiempo computacional se traduce en una complejidad computacional
cuadrática O(n2), sensiblemente inferior a la complejidad de cálculo de la distancia acumulada
D, expresada asintóticamente como O(n3).
Matemáticamente, se demuestra que la utilización de las distancias D y D’ a la hora de
calcular el elemento máximo y mínimo en la vecindad definida por K es equivalente siempre y
cuando la distancia utilizada Dist sea lineal y k(s,t) sea el vector origen de coordenadas de la
Capítulo 3. Métodos. - 123 -
dimensión espectral (Plaza y col., 2002a). De este modo, las operaciones de erosión y dilatación
multi-dimensional pueden definirse en términos de la distancia D’ de la siguiente forma:
K)y),(x,(D' arg_Min)y,x()y,x(K)K(Zy)(x, 2
fef
(3.2.8)
K)y),(x,(D' arg_Max)y,x()y,x(K)K(Zy)(x, 2
fdf
(3.2.9)
En ambos casos, los operadores arg_Min y arg_Max seleccionan, respectivamente, el pixel
de la vecindad para el cual el valor de la distancia D’ al centroide local es mínimo/máximo.
La figura 3.2.3 muestra una interpretación gráfica del proceso de selección del elemento
máximo y mínimo en una vecindad en base a la distancia al centroide del kernel. El elemento
máximo, resultado de la operación de dilatación y etiquetado como d, es aquel que presenta
mayor distancia respecto a dicho elemento, mientras que el elemento mínimo, resultado de la
erosión y etiquetado en la figura como e, es que se encuentra a menor distancia del centroide. Al
igual que en la situación ilustrada en la figura 3.2.1, pueden seguir produciéndose situaciones de
empate, las cuales no tienen una influencia significativa en el funcionamiento del método.
K d K
e
K K
Figura 3.2.3. Interpretación gráfica de las operaciones de dilatación (parte izquierda) y erosión (parte
derecha) utilizando la distancia al centroide del kernel K.
Distancias no lineales.
La propiedad de no linealidad, característica de las operaciones morfológicas, hace que, de
forma alternativa, pueda considerarse la posibilidad de utilizar distancias no lineales a la hora de
abordar la extensión de las operaciones morfológicas básicas. En el capítulo 2 del presente
trabajo (apartado 2.3.2) se describió una distancia no lineal que puede resultar apropiada para la
tarea mencionada anteriormente; se trata de la distancia SID, basadas en conceptos de
- 124 - Capítulo 3. Métodos.
probabilidad y especialmente diseñada para contrastar la divergencia espectral entre firmas
espectrales asociadas a pixels de imágenes hiperespectrales. Una particularidad destacable de la
distancia SID es que la definición de las medidas D y D’ en función de dicha distancia no es
equivalente, en términos generales. Dentro de las líneas futuras de trabajo se plantea, por tanto,
la necesidad de experimentar con distancias no lineales.
3.2.2. Algoritmo AMEE.
En este apartado presentamos el método automático para la selección de firmas espectrales
puras o endmembers en imágenes de alta dimensionalidad que constituye el punto central del
trabajo de esta Tesis Doctoral. El método ha sido denominado Automated Morphological
Endmember Extraction (AMEE), y su funcionamiento consta de una serie de etapas que se
enumeran a continuación (Plaza y col., 2002a):
1.- Aplicación de operadores morfológicos extendidos. En primer lugar, se aplica un
conjunto de operadores morfológicos sobre la imagen original para estimar la pureza
de los pixels de la imagen. Este paso da como resultado una imagen en la que cada
pixel lleva asociado un valor de pureza.
2.- Identificación automática de pixels puros. En esta etapa, se realiza un proceso de
identificación automática de pixels puros a partir de la imagen de pureza obtenida en
el paso anterior.
3.- Crecimiento de regiones adaptativo. Opcionalmente, puede realizarse un proceso de
crecimiento de regiones adaptativo que permite seleccionar de forma preliminar un
conjunto de firmas espectrales puras.
4.- Eliminación de endmembers redundantes. En este paso se descartan firmas
espectrales redundantes obtenidas en la etapa inmediatamente anterior.
5.- Identificación de endmembers y estimación de abundancias. En un último paso, se
realiza un proceso de identificación de endmembers en la imagen, que permitirá
obtener un resultado de clasificación para la misma. Además, se realiza una
estimación de los porcentajes de abundancia de los endmembers en cada píxel de la
imagen.
La figura 3.2.4 muestra un diagrama de bloques genérico en el que se resume el
funcionamiento general del algoritmo.
Capítulo 3. Métodos. - 125 -
ImagenOriginal
Aplicación de Operadores Morfológicos Extendidos
Identificación automática de regiones puras
Identificación de endmembersy estimación abundancias
Imagen depureza
end-members Crecimiento de
regiones adaptativo
Eliminación de endmembers
redundantes
Opcional
Figura 3.2.4. Diagrama de bloques que resume el funcionamiento del método AMEE.
Con objeto de justificar la realización de cada una de las etapas anteriormente mencionadas,
consideramos interesante plantear una serie de cuestiones de diseño que serán respondidas en la
descripción de las diferentes fases. Estas cuestiones son las siguientes:
1.- Elección del método. Esta cuestión se refiere a las razones que justifican las técnicas
empleadas en una determinada etapa, y a las ventajas de las mismas con respecto a
otras posibles opciones.
2.- Secuenciamiento escogido. En esta cuestión, se justifica la secuencia escogida para
realizar una determinada etapa.
3.- Alternativas de secuenciamiento. Por último, en esta cuestión se comentan algunas
posibles opciones de secuenciamiento alternativas, susceptibles de ser consideradas en
el futuro, así como las posibles implicaciones de las mismas en el resultado final.
A continuación, describimos y justificamos cada una de las etapas individuales que
componen el método propuesto. De forma previa a esta exposición razonada de los fundamentos
del método, realizamos una serie de consideraciones previas sobre el mismo.
Consideraciones previas.
En este punto enumeramos algunas consideraciones previas sobre la metodología propuesta,
que será descrita en profundidad en apartados sucesivos:
En primer lugar, el método utiliza como entrada la imagen hiperespectral completa, sin
necesidad de realizar ningún tipo de reducción dimensional previa sobre la misma (Plaza y col.,
2001b). Así, la metodología de análisis propuesta considera la totalidad de la información
- 126 - Capítulo 3. Métodos.
espectral asociada a cada pixel. No obstante, el método puede aplicarse de la misma forma a
imágenes que hayan sufrido un proceso de reducción dimensional previo, con el inconveniente
que ello supondría para la identificación de los endmembers a partir de librerías espectrales.
Esta opción se plantea como uno de los trabajos futuros a desarrollar.
Por otra parte, el método propuesto es susceptible de ser aplicado a imágenes en unidades de
radiancia y reflectancia (Plaza y col., 2002b). Uno de los objetivos fundamentales del capítulo
dedicado a evaluación de resultados será la comprobación del efecto de ambas opciones en el
resultado final proporcionado por el algoritmo.
Es recomendable eliminar, de forma previa al procesamiento, aquellos valores espectrales
asociados a bandas típicamente ruidosas en el instrumento de medida, fundamentalmente en el
caso de trabajar con datos de radiancia (la práctica totalidad de las técnicas de corrección
atmosférica utilizadas para obtener datos de reflectancia corrige este tipo de situaciones). Los
picos en los valores de radiancia debidos a bandas ruidosas pueden tener un efecto nocivo en el
funcionamiento del algoritmo (Martínez y col., 2002).
Aparte de la circunstancia anteriormente mencionada, no es necesario realizar ningún tipo de
pre-procesamiento o acondicionamiento previo de la imagen. Como línea futura, queda abierta
la posibilidad de aplicar un proceso de normalización de las firmas espectrales asociadas a los
pixels de la imagen, con el objetivo de reducir la variabilidad espectral introducida por
condiciones dispares de iluminación a lo largo de la escena. Si bien esta opción puede ser una
alternativa, en nuestro caso optamos por solventar esta circunstancia mediante la incorporación
de distancias robustas a esta situación, como SAM. Esta decisión de diseño tiene como base la
independencia de esta medida de distancia con respecto a los factores introducidos por el
iluminante y los ángulos.
Una vez presentadas estas consideraciones previas, procedemos a describir de forma
razonada las etapas del método.
3.2.2.1. Aplicación de operadores morfológicos extendidos.
El primer paso del algoritmo propuesto consiste en la aplicación de operadores morfológicos
extendidos sobre la imagen hiperespectral original. Las cuestiones de diseño que nos han
llevado a optar por este tipo de procesamiento son las que se detallan a continuación:
1.- Elección del método. En primer lugar, la morfología matemática es una herramienta
que permite integrar de forma satisfactoria la información espacial y espectral presente
en la imagen, como se ha justificado en el apartado 3.2.1. De este modo, una de las
principales ventajas de aplicar un procesamiento morfológico sobre la imagen original
Capítulo 3. Métodos. - 127 -
es la posibilidad de obtener información detallada en ambos dominios sin que ninguno
de ellos se vea favorecido sobre el otro. Por otra parte, las técnicas morfológicas son
adaptables y susceptibles de ser implementadas de forma automática y
computacionalmente eficiente.
2.- Secuenciamiento escogido. Consideramos interesante realizar la etapa de
procesamiento morfológico en primer lugar, con vistas a no descartar información
relevante en la primera etapa de procesamiento. Como vimos en el apartado 2.4, una
desventaja de los métodos que consideran la información espacial y espectral de forma
separada es que la primera etapa de procesamiento (ya sea espacial o espectral) puede
descartar información útil que no puede recuperarse en etapas posteriores.
3.- Alternativas de secuenciamiento. Una alternativa al secuenciamiento escogido
consistiría en realizar en primer lugar la etapa de eliminación de endmembers
redundantes. Esta opción permitiría descartar firmas espectrales no suficientemente
puras de forma previa al procesamiento morfológico, lo cual optimizaría el
rendimiento de los operadores morfológicos. Sin embargo, esta secuencia alternativa
requiere que la información descartada en primera instancia sea redundante, para no
incurrir en los problemas de los métodos que realizan el procesamiento espacial y
espectral de forma separada.
Una vez analizadas estas cuestiones de diseño previas, procedemos a describir la forma en la
que los operadores morfológicos básicos se combinan para obtener indicadores de pureza.
Concretamente, presentamos dos aproximaciones diferentes para calcular el índice de pureza de
un pixel, basadas, respectivamente, en dos sistemas que hemos denominado “votación” y
“evaluación” de firmas espectrales (Plaza y col., 2002a). En cada caso, presentamos las
opciones de implementación adoptadas, destacando sus ventajas e inconvenientes.
Sistema de votación.
Este sistema permite obtener el grado de pureza de un determinado pixel mediante la
operación de dilatación morfológica extendida. El proceso de estimación de los índices de
pureza se realiza mediante las etapas que se describen a continuación.
1.- Asociar un contador, que será utilizado como índice de pureza, a cada pixel de la
imagen. Los contadores son inicializados a cero.
2.- Definir un elemento estructural K, introducido como parámetro de entrada a
algoritmo, y cuyas propiedades espaciales permiten determinar una función de
vecindad alrededor de cada pixel.
- 128 - Capítulo 3. Métodos.
3.- Seleccionar un pixel cualquiera de la imagen para su procesamiento, por ejemplo,
f(x,y), en las coordenadas espaciales (x,y). La ubicación del pixel a procesar
inicialmente es indiferente, puesto que todos los pixels de la imagen deben ser
procesados. Suponiendo que la imagen a tratar consta de L líneas y M muestras, lo
más habitual será utilizar un recorrido por líneas o por columnas, como se ilustra en la
figura 3.2.5.
f(L,M)…..f(L,1)f(L,0)
…..…..…..…..
f(1,M)…..f(1,1)f(1,0)
f(0,M)…..f(0,1)f(0,0)
f(0,0), f(0,1),…, f(0,M), f(1,0), f(1,1),…, f(1,M),…, f(L,0), f(L,1),…,f(L,M)
f(0,0), f(1,0),…, f(L,0), f(0,1), f(1,1),…, f(L,1),…, f(0,M), f(1,M),…,f(L,M)
Recorrido por líneas:
Recorrido por columnas:
Figura 3.2.5. Recorridos más habituales de los pixels de la imagen original.
4.- Para cada pixel recorrido, se aplica una operación de dilatación morfologica en la
vecindad que rodea al pixel f(x,y), definida por el elemento estructural K. El efecto de
dicha operación es la selección del máximo en la vecindad mediante un sistema de
votación en el que cada pixel es evaluado por todos sus vecinos, que actúan como
votantes. Los pasos que se ejecutan son los siguientes:
4.1. Inicialmente, se selecciona un determinado pixel perteneciente a la vecindad.
4.2. El pixel es evaluado por cada uno de sus vecinos, que emiten una puntuación en
base a la distancia a la que se encuentran con respecto al pixel evaluado
(candidato), de modo que la puntuación será mayor cuanto más grande sea la
distancia entre votante y candidato.
4.3. Cuando todos los vecinos han emitido su voto, las puntuaciones individuales se
suman y el valor acumulado se asigna al pixel candidato.
Capítulo 3. Métodos. - 129 -
4.4. La operación es repetida de forma que cada pixel asume el papel de candidato
una única vez.
4.5. El pixel que presenta el mayor valor acumulado en la vecindad (ganador de la
votación) es seleccionado como puro, y su contador de pureza asociado se
incrementa en una unidad. La figura 3.2.6 muestra un ejemplo del proceso de
selección del máximo en una vecindad muy simple formada únicamente por
cuatro pixels. El elemento seleccionado en este ejemplo es aquel que se
encuentra a mayor distancia acumulada con respecto a todos sus vecinos.
5.- El paso 4 es repetido para todos los pixels de la imagen.
K
K
K
Va=Dist(b,a)+Dist(c,a)+Dist(d,a)
K Máximo
d
a
bc
Vb=Dist(a,a)+Dist(c,b)+Dist(d,b)
Vc=Dist(a,c)+Dist(b,c)+Dist(d,c) Vd=Dist(a,d)+Dist(b,d)+Dist(c,d)
d
a
bc
d
a
bc
d a
bc
Figura 3.2.6. Selección del pixel máximo en una vecindad mediante un proceso de votación.
El sistema descrito presenta una serie de limitaciones que ilustramos a continuación
mediante una serie de ejemplos (Plaza y col., 2001b). La figura 3.2.7 muestra un ejemplo en el
que el sistema de votación produce una estimación incorrecta del índice de pureza, utilizando la
imagen_test_1.
- 130 - Capítulo 3. Métodos.
K
Caso a)
Puro
K
Caso b)
Puro
Figura 3.2.7. Estimación incorrecta del índice de pureza utilizando el sistema de votación sobre
imagen_test_1.
Como puede apreciarse en el caso a) de la figura 3.2.7, el pixel etiquetado como máximo es,
en efecto, el más alejado con respecto a sus vecinos. No obstante, en el caso b) todos los
elementos que entran dentro de la vecindad considerada tienen un índice de pureza bajo, pues se
obtienen a partir de una mezcla al 50% de vegetación y suelo. A pesar de esta particularidad, en
ambos casos los pixels seleccionados incrementan su contador de pureza en una unidad. Esta
limitación se debe a los posibles empates en el sistema de votación.
K
Caso b)
K
Caso a)
Puro
Puro
Figura 3.2.8. Estimación incorrecta del índice de pureza utilizando el sistema de votación sobre
imagen_test_2
Capítulo 3. Métodos. - 131 -
Por otra parte, la figura 3.2.8 muestra otro ejemplo en el que la estimación del índice de
pureza no resulta satisfactoria, utilizando esta vez la imagen_test_2.
Como puede apreciarse en el caso a) de la figura 3.2.8, el máximo de la vecindad
corresponde a un elemento que no es totalmente puro (75% vegetación y 25% suelo). Sin
embargo, en el caso b) el máximo corresponde a un elemento totalmente puro (100%
vegetación). En ambos casos, el contador de pureza asociado al pixel seleccionado se
incrementa en una unidad, aunque lo más adecuado sería que el contador asociado al pixel
seleccionado en el caso b) se incrementase en mayor medida que el contador asociado al pixel
seleccionado en el caso a). A partir de este sencillo ejemplo, intuimos la conveniencia de
incorporar información acerca de la extremidad de los puntos seleccionados en el proceso.
Las limitaciones mencionadas ponen de manifiesto la necesidad de diseñar un sistema capaz
de evaluar la pureza relativa de cada pixel de la imagen. Nuestra propuesta en dicha dirección es
descrita a continuación.
Sistema de evaluación.
Este sistema se caracteriza por tener en cuenta no sólo el pixel máximo en cada vecindad,
sino también el pixel mínimo. Cada elemento es por tanto evaluado utilizando las operaciones
morfológicas de erosión y dilatación, mediante el proceso que a continuación se detalla.
1.- El primer paso consiste en asociar un índice de excentricidad a cada uno de los pixels
de la imagen. Inicialmente, el valor del índice será cero para todos los puntos.
2.- En un segundo paso se define un elemento estructural K que será utilizado en las
operaciones de erosión y dilatación morfológica. El elemento K se introduce como
parámetro de entrada del algoritmo.
3.- A continuación, seleccionamos un pixel cualquiera de la imagen, por ejemplo, f(x,y),
en las coordenadas espaciales (x,y).
4.- Seguidamente, se aplican las operaciones de dilatación y erosión morfológica en la
vecindad que rodea al pixel f(x,y), definida por el elemento estructural K. La
dilatación selecciona el pixel máximo en la vecindad, mientras que la erosión
identifica el pixel mínimo.
5.- El siguiente paso consiste en realizar una evaluación del pixel seleccionado como
máximo en función de su extremidad. Este proceso se basa en el cálculo de una
medida de distancia entre el pixel máximo y el mínimo. Para ello, introducimos una
medida de calidad denominada índice de excentricidad morfológico o Morphological
- 132 - Capítulo 3. Métodos.
Eccentricity Index (MEI), cuya interpretación gráfica aparece descrita en la figura
3.2.9. Siguiendo la notación utilizada en dicha figura, sean (n,m) las coordenadas
espaciales del pixel (fK)(x,y), seleccionado como máximo en la vecindad que rodea
a f(x,y), y sea (fK)(x,y) el pixel mínimo en dicha vecindad. El índice de
excentricidad asociado al pixel (n,m) se calcula utilizando la siguiente expresión,
donde Dist es una medida de distancia punto a punto entre vectores:
)y,x(K),y,x(KDist)m,n(MEI ff (3.2.10)
6.- Los pasos 3-5 son repetidos para todos los pixels de la imagen, independientemente de
cuál sea el orden escogido para recorrer dichos pixels.
Imagen original f
Dilatación f K
MEI
f (x,y)
K
Imagen pureza
ActualizarMEI(n,m)
(f K)(x,y) (f K)(x,y)
Erosión f K
Figura 3.2.9. Cálculo del índice MEI mediante la combinación de operaciones morfológicas de
erosión y dilatación.
El sistema de evaluación puede considerarse como una técnica de morfología borrosa en el
sentido de que las operaciones morfológicas de dilatación y erosión obtienen varios
representantes para un mismo píxel, cada uno de los cuales es ponderado en función de su
Capítulo 3. Métodos. - 133 -
excentricidad. De esta forma, el mecanismo de evaluación viene a solucionar uno de los
problemas identificados a la hora de plantear la extensión de las operaciones morfológicas
básicas a imágenes hiperespectrales: la selección de un único candidato como máximo o
mínimo (ver figura 3.2.1).
En términos generales, podemos afirmar que el sistema de evaluación proporciona un
mecanismo robusto que permite cuantificar la capacidad de un determinado pixel para
representar al más puro de sus vecinos espaciales. La figura 3.2.10 muestra un ejemplo de las
mejoras obtenidas al utilizar el sistema de evaluación con respecto al sistema de votación,
ilustradas utilizando la imagen_test_1. Estos resultados pueden ser contrastados con los
mostrados en la figura 3.2.7. En el caso a), el índice MEI ofrece una medida de la distancia entre
el máximo y el mínimo, dando así una clara indicación acerca de la extremidad del punto en el
espacio. Por otra parte, en el caso b) se aprecia que el índice MEI es bajo cuando el elemento
estructural contiene muestras de escasa pureza espectral.
K
Caso a)
MEI bajo
K
Caso b)
MEI alto
Figura 3.2.10. Mejoras del sistema de evaluación con respecto al sistema de votación, ilustradas
utilizando imagen_test_1.
A pesar de las mejoras introducidas por el sistema de evaluación, no podemos dejar de
mencionar algunas consideraciones sobre su funcionamiento. En primer lugar, es importante
destacar que existe una gran interdependencia entre el tamaño y forma del elemento estructural
utilizado y el valor proporcionado por el índice MEI. Esta dependencia, característica de las
técnicas morfológicas clásicas, hace que sea necesario establecer de antemano las propiedades
espaciales de los elementos estructurales utilizados para obtener el resultado deseado. Esta
particularidad permite que el método propuesto sea flexible y adaptable a gran cantidad de
- 134 - Capítulo 3. Métodos.
aplicaciones, desde el reconocimiento de objetos individuales con características espaciales y/o
espectrales conocidas a priori hasta el análisis y clasificación global de una escena. La
dependencia entre MEI y elemento estructural aparece ilustrada mediante ejemplos sobre
imagen_test_1 en la figura 3.2.11.
K
Caso a)
MEI alto
K
Caso b)
MEI bajo
No evaluado
Figura 3.2.11. Dependencia entre el índice MEI y el elemento estructural utilizado.
En el caso a), el elemento estructural contiene muestras cuya pureza espectral es muy
similar. En este caso, a pesar de que el elemento está totalmente incluido en una zona
espectralmente pura, no hay suficiente información para contrastar el grado de pureza de las
muestras disponibles, con lo que la estimación del MEI da como resultado un valor bajo. Este
ejemplo pone de manifiesto que el tamaño y la forma de los elementos estructurales empleados
debe ajustarse a los objetos que se desean caracterizar.
Como solución al problema anteriormente comentado, proponemos una definición
alternativa del índice MEI que puede ser considerada en futuros desarrollos del método. La
alternativa consiste en definir el índice MEI de forma global, como se muestra en la siguiente
expresión:
)y,x(),y,x(KDist)y,x(MEIG fff , (3.2.11)
Donde I denota la imagen completa, de forma que MEIG mide la distancia entre el máximo
local en K y el mínimo global de toda la imagen.
Capítulo 3. Métodos. - 135 -
Por otra parte, en el caso b) de la figura 3.2.11 se muestra otra situación en la que el
elemento estructural no resulta apropiado para la correcta interpretación de la vecindad
analizada, pues únicamente se evalúa uno de los dos pixels extremos presentes en dicha
vecindad. Esta circunstancia hace que se “pierda” un elemento espectralmente singular, cuyo
índice de pureza debería haber sido también incrementado. En la práctica, hemos comprobado
que esta solución no compromete de manera significativa los resultados finales, debido a que el
elemento estructural se va desplazando por todos los pixels de la imagen; no obstante, es posible
que se produzcan leves efectos no deseados (Plaza y col., 2001b).
Como solución al problema de pérdida de elementos puros, proponemos una nueva
definición alternativa del índice MEI para su consideración en líneas futuras de trabajo. En esta
definición, todos los pixels de la escena son evaluados. Sea f(x,y) un determinado pixel de la
imagen y K el elemento estructural que determina la vecindad alrededor de dicho punto.
Podemos asociar un índice MEIT al pixel f(x,y) utilizando la siguiente expresión.
)y,x(K),y,x(Dist)y,x(MEIT ff (3.2.12)
De este modo, cada punto de la imagen será evaluado con respecto al mínimo en la vecindad
que lo rodea, evitando casos como el mostrado en el caso b) de la figura 3.2.11. La nueva
definición aparece ilustrada gráficamente en la figura 3.2.12.
Imagen original f
MEI
f (x,y)
K
Imagen pureza
ActualizarMEI(x,y)
(f K)(x,y)
Erosión f K
Figura 3.2.12. Definición alternativa del índice MEI.
La principal característica de las dos definiciones alternativas del índice MEI es su menor
dependencia respecto a las propiedades espaciales del elemento estructural considerado. Esta
- 136 - Capítulo 3. Métodos.
circunstancia aparece ilustrada mediante un ejemplo en la figura 3.2.13, en la cual se considera
un mismo píxel, perteneciente a la imagen_test_1, y cuatro elementos estructurales, K1, K2, K3 y
K4 alrededor del mismo.
Pixel analizado (MEI alto en todos los casos)
K1 K2 K3
K4
Figura 3.2.13. Influencia del tamaño y forma del elemento estructural en la definición alternativa del
índice MEI.
Como puede apreciarse en la figura, el uso de elementos estructurales de formas dispares no
condiciona de manera decisiva la estimación del grado de pureza del pixel considerado. Este
enfoque resulta apropiado cuando se desea realizar una clasificación genérica de la escena, y no
se dispone de ningún tipo de conocimiento previo acerca de objetos o zonas de especial interés
en la misma. Por el contrario, la tarea de reconocer objetos con propiedades espaciales
conocidas de antemano puede resultar menos eficaz si se utilizan las aproximaciones
alternativas comentadas.
Una vez realizadas estas consideraciones previas sobre el índice MEI, procedemos a
describir tres alternativas de implementación consideradas a la hora de aplicar el sistema de
evaluación a todos los pixels de la imagen original, incidiendo en la complejidad computacional
de cada una de las opciones presentadas (Plaza y col., 2001b).
Implementación basada en elementos estructurales progresivamente crecientes.
A la hora de exponer los conceptos fundamentales del sistema de evaluación se ha destacado
la necesidad de establecer el tamaño y la forma de los elementos estructurales utilizados para
obtener una representación adecuada de la escena.
La implementación que presentamos en este apartado se basa en un proceso de
descomposición multi-escala en el que se utilizan elementos estructurales progresivamente
Capítulo 3. Métodos. - 137 -
crecientes, de modo que pueda asegurarse que en un determinado momento se utilizará un
elemento estructural de tamaño óptimo o cuasi-óptimo (Plaza y col., 2001a). Esta idea se ha
adoptado siguiendo el razonamiento presentado en el apartado 2.2.1 del capítulo de
antecedentes, en el que se presentó la idoneidad de utilizar descomposiciones multi-escala de la
imagen cuando no se dispone de información a priori sobre los objetos a detectar en la misma.
La figura 3.2.14 muestra un sencillo ejemplo del proceso de creación de una descomposición
multi-escala de 2 niveles en la que la imagen original, situada en un nivel que denotamos como
L0, se procesa utilizando elementos estructurales progresivamente crecientes, siendo el mínimo
elemento estructural utilizado (KMIN) de 3x3 pixels y el máximo (KMAX) de 9x9 pixels.
Figura 3.2.14. Proceso de creación de una descomposición multi-escala de una imagen
hiperespectral mediante elementos estructurales progresivamente crecientes.
A continuación describimos los pasos seguidos en esta aproximación.
1.- En primer lugar, consideramos un elemento estructural de tamaño mínimo KMIN,
introducido como parámetro de entrada.
2.- El elemento estructural se desplaza por todos los pixels de la imagen, estableciendo
vecindades alrededor de cada pixel en las que se calcula el índice MEI. Así, el MEI en
el pixel (n,m) se calcula utilizando la siguiente expresión:
)y,x(K),y,x(KDist)m,n(MEI MINMIN ff (3.2.13)
- 138 - Capítulo 3. Métodos.
3.- A continuación, se considera un nuevo elemento estructural de tamaño mayor al
anteriormente considerado. Las estrategias seguidas a la hora de introducir un nuevo
elemento estructural son las siguientes:
3.1. El nuevo elemento es generado de forma automática, utilizando un patrón de
incremento constante ( cteK ) que se aplica en iteraciones sucesivas del
algoritmo. Esta aproximación es sencilla, especialmente si los elementos
utilizados son regulares, aunque poco flexible, y se caracteriza por ser la más
recomendable cuando no se dispone de información a priori acerca de la
escena.
3.2. El nuevo elemento se obtiene a partir de una lista introducida como parámetro
de entrada. Esta solución es muy flexible, pero requiere un paso previo en el
que debe establecerse de antemano el tamaño y forma de todos y cada uno de
los elementos estructurales utilizados a lo largo del proceso. Esta solución es la
más recomendable cuando se desea realizar un reconocimiento de objetos
supervisado por un conocimiento previo de las características de dichos
elementos.
3.3. Los pasos 2-3 se repiten de forma iterativa hasta que se utiliza un elemento
estructural de tamaño máximo KMAX. A lo largo del proceso, puede ocurrir que
el MEI que se asocia a un determinado pixel al considerar un elemento
estructural Ki sea diferente al obtenido para un elemento estructural Kj, siendo
el tamaño de Ki mayor que el de Kj. En este caso, se plantea un problema de
actualización del índice MEI, que se resuelve teniendo en cuenta que el
elemento estructural Ki es mayor, con lo que el endmember obtenido en la
mayor escala debe favorecerse. De este modo, el índice MEI se actualiza con el
nuevo valor, puesto que es razonable suponer que este elemento estructural
ofrecerá una mejor descripción de la vecindad espacial alrededor del pixel que
Kj. No obstante, el éxito de esta decisión vendrá también condicionado por la
relación existente entre los elementos Ki, Kj y la distribución espacial y
espectral de patrones en la escena, situación que se ha analizado en detalle a lo
largo del presente apartado.
4.- Como último paso del proceso, se obtiene una imagen de pureza a partir de los valores
obtenidos para el índice MEI en iteraciones sucesivas. La imagen resultante puede
entenderse como una matriz de datos o imagen digital en niveles de gris que contiene
un índice de pureza asociado a cada uno de los pixels. Este índice de pureza ha sido
Capítulo 3. Métodos. - 139 -
establecido mediante un procedimiento que tiene en cuenta la información espacial y
espectral de forma combinada.
A continuación, procedemos a evaluar preliminarmente esta implementación utilizando la
metodología presentada en el apartado 3.1.
1.- Sensibilidad a parámetros de entrada. Esta implementación es sensible al tamaño y
forma del elemento estructural utilizado. El ajuste de las propiedades de dicho
elemento permite adaptar la metodología a situaciones particulares, conocidas de
antemano.
2.- Impacto de la variabilidad espectral. Como se ha discutido a lo largo del presente
apartado, el índice MEI es robusto frente a la variabilidad espectral presente en la
imagen.
3.- Coste computacional. La complejidad computacional de esta aproximación depende
en gran medida del tamaño de los elementos estructurales utilizados. Un incremento
automático del tamaño del kernel en iteraciones sucesivas puede dar lugar a una
complejidad computacional exponencial, O(cn) en notación asintótica.
4.- Grado de automatización. Esta implementación es automática, siendo únicamente
necesario establecer un tamaño mínimo y un tamaño máximo para el elemento
estructural utilizado. A partir de la introducción de estos parámetros, el
comportamiento del método es totalmente autónomo.
5.- Información descartada. La realización de una descomposición multi-escala sobre la
imagen original y el hecho de que el método trabaja de forma simultánea en los
dominios espacial y espectral aseguran que la cantidad de información descartada
durante el proceso de análisis es mínima.
6.- Grado de integración de información espacial y espectral. El método se caracteriza
por un alto grado de integración entre la información espacial y espectral.
Precisamente, la principal ventaja de la implementación presentada es su capacidad
para proporcionar una descripción muy completa de los rasgos espaciales y
espectrales presentes en la escena.
A partir de esta evaluación preliminar, el principal inconveniente de la solución presentada
en este apartado es su elevada complejidad computacional, la cual nos ha llevado a plantearnos
otras alternativas de implementación menos costosas.
- 140 - Capítulo 3. Métodos.
Implementación basada en operaciones morfológicas en cascada.
Una solución al aumento exponencial en la complejidad producido por la utilización de
elementos estructurales progresivamente crecientes consiste en la utilización de operaciones
morfológicas en cascada o recursivas (Plaza y col., 2001b). A continuación, describimos las
etapas necesarias para extender esta idea al caso de imágenes hiperespectrales.
1.- En primer lugar, consideramos un elemento estructural de tamaño K, introducido
como parámetro de entrada. El tamaño de este elemento estructural se mantendrá
constante a lo largo del proceso.
2.- A continuación, creamos una descomposición multi-escala de la imagen original f. En
lo sucesivo, utilizamos el término Li para denotar un determinado nivel de la
descomposición. La imagen original está en el nivel inferior L0 y el último nivel de la
descomposición es LY, siendo Y es el número total de niveles empleado. Los pasos
necesarios para obtener la descomposición antes mencionada son los que se describen
a continuación:
2.1. En primer lugar, consideramos la imagen hiperespectral f en el nivel L0.
2.2. Sobre esta imagen, aplicamos una operación de dilatación y una operación de
erosión morfológica, obteniendo dos nuevas imágenes hiperespectrales: dilatada
(d1) y erosionada (e1), que constituyen el nivel L1 de la descomposición. Estas
imágenes se obtienen a partir de las expresiones que se muestran a
continuación.
)y,x(K)y,x(1 fd (3.2.14)
)y,x(K)y,x(1 fe (3.2.15)
2.3. Calculamos el índice MEI asociado al nivel L1 (MEI1) utilizando la siguiente
expresión, donde d1(x,y) es el pixel máximo en la vecindad de f(x,y) y e1(x,y) es
el pixel mínimo en la vecindad de dicho pixel.
)y,x(),y,x(Dist)y,x(MEI 111 ed (3.2.16)
2.4. Consideramos ahora la imagen dilatada d1 y repetimos el proceso descrito en
los pasos 2.2 y 2.3 sobre dicha imagen. De este modo, el índice MEI en un
determinado nivel L se calcula mediante las siguientes expresiones:
)y,x(K)y,x( 1LL dd (3.2.17)
Capítulo 3. Métodos. - 141 -
)y,x(K)y,x( 1LL de (3.2.18)
)y,x(),y,x(Dist)y,x(MEI LLL ed (3.2.19)
Como resultado del proceso anteriormente descrito se obtiene una imagen digital en niveles
de gris a partir de los valores de pureza proporcionados por el índice MEI en escalas sucesivas.
La imagen resultante contiene un índice de pureza asociado a cada uno de los pixels. El proceso
completo aparece ilustrado en la figura 3.2.15.
MEI1
Elemento estructural K (constante en todas las iteraciones)
Nivel 1
Imagen original f
Nivel 0
Nivel L
MEIL
d1(x,y)=(f K)(x,y)
f (x,y)
e1(x,y)=(f K)(x,y)
dL(x,y)=(dL-1K)(x,y) eL(x,y)=(eL-1K)(x,y)
Figura 3.2.15. Proceso de creación de una descomposición multi-escala de una imagen
hiperespectral mediante operaciones morfológicas en cascada.
Como puede apreciarse en la figura, esta implementación se basa en un proceso competitivo
que propaga hacia niveles superiores aquellos pixels que han sido seleccionados como máximos
locales. De este modo, en niveles superiores solamente se encuentran aquellos pixels que han
“salido a flote” a partir de niveles inferiores. Los puntos ganadores en cada nivel son evaluados
utilizando el índice MEI.
- 142 - Capítulo 3. Métodos.
Finalmente, procedemos a evaluar de forma preliminar esta implementación utilizando la
metodología utilizada a lo largo del capítulo.
1.- Sensibilidad a parámetros de entrada. Al igual que la implementación
anteriormente descrita, esta aproximación es sensible las propiedades del elemento
estructural utilizado. En particular, la aproximación descrita en este apartado es más
sensible a dicho parámetro que la presentada en el apartado anterior, puesto que el
tamaño y forma del elemento estructural permanece constante a lo largo del proceso.
2.- Impacto de la variabilidad espectral. Experimentalmente, hemos comprobado que
la utilización de un índice MEI multi-escala hace que el método propuesto sea robusto
en presencia de variabilidad espectral.
3.- Coste computacional. La principal ventaja de esta aproximación es su menor coste
computacional en comparación con la alternativa basada en elementos estructurales de
tamaño progresivamente creciente. En esta implementación, el elemento estructural
presenta un tamaño constante, por lo que podemos definir el tiempo computacional
para procesar una imagen multi-dimensional formada por P pixels como
T(LxPxMxN), donde L es el número de niveles de la descomposición multi-escala, M
es el número de pixels del elemento estructural (constante) y N es el número de
dimensiones de la imagen. La anterior expresión resulta en una complejidad cúbica,
O(n3) en notación asintótica, la cual es inferior a la complejidad exponencial obtenida
en el caso de utilizar elementos estructurales progresivamente mayores.
4.- Grado de automatización. La implementación descrita es totalmente automática,
siendo únicamente necesario establecer las propiedades del elemento estructural
utilizado a lo largo del proceso. El método se comporta de forma autónoma a partir de
la introducción de dicho parámetro.
5.- Información descartada. Un inconveniente de esta implementación consiste en que
solamente se propaga un pixel desde un determinado nivel hacia el nivel
inmediatamente superior. Este hecho puede traer como consecuencia la pérdida, en
niveles inferiores, de pixels puros que no son seleccionados por tener algún vecino
más puro que ellos. Por el contrario, puede ocurrir que pixels, que no son del todo
puros, se propaguen a niveles superiores por no existir vecinos más puros que ellos en
la vecindad que los rodea. Al contrario que en la implementación basada en elementos
estructurales progresivamente crecientes, la pérdida de un pixel en un nivel de la
descomposición multi-escala implica que ese pixel no puede volver a ser considerado
de nuevo en iteraciones sucesivas.
Capítulo 3. Métodos. - 143 -
6.- Grado de integración de información espacial y espectral. Al igual que el método
descrito en el apartado anterior, este método se caracteriza por un alto grado de
integración entre la información espacial y espectral.
A partir de la evaluación preliminar anteriormente realizada, intuimos que puede resultar
deseable que el tamaño del elemento estructural utilizado en esta implementación sea pequeño,
con vistas a preservar la mayor cantidad de información entre iteraciones sucesivas.
Una posible solución al problema anteriormente apuntado, que puede ser considerada en
futuros desarrollos, puede consistir en aplicar conceptos de lógica borrosa a la morfología
matemática, de forma que para cada pixel no se seleccione solamente un máximo sino varios,
siendo el número de elementos seleccionados fijo. De esta forma, cada uno de los elementos
seleccionados podría ser ponderado en función de su excentricidad. Esta posibilidad de
almacenar varios posibles endmembers tiene la ventaja de plantear la inclusión de los nuevos
elementos teniendo en cuenta su parecido con los anteriormente seleccionados, evitando así
duplicidades. Un buen proceso de selección de endmembers debería tener en cuenta la creación
de una base de referencia lo más independiente posible, en el sentido de que un nuevo
endmember no debe ser combinación lineal de otros previamente almacenados.
Implementación basada en operaciones morfológicas en pirámide.
Por último, presentamos una modificación de la anterior implementación que permite
reducir aún más el coste computacional del procedimiento. El método propuesto se basa en la
utilización de operaciones morfológicas en forma piramidal (Plaza y col., 2001b). A
continuación explicamos en detalle esta aproximación, comentando las etapas que la componen.
1.- En primer lugar, consideramos un elemento estructural de tamaño K, introducido
como parámetro de entrada. Al igual que en la implementación anterior, el tamaño de
este elemento estructural se mantendrá constante a lo largo del proceso.
2.- En un segundo paso, procedemos a crear una descomposición multi-escala de la
imagen original f en forma de pirámide. Sea L un determinado nivel de la
descomposición y D el número total de niveles empleados. La descomposición
morfológica en pirámide se obtiene mediante los siguientes pasos:
2.1. En primer lugar, consideramos la imagen hiperespectral f, situada en el nivel 0.
2.2. Para generar el siguiente nivel, aplicamos operaciones de dilatación erosión
morfológica restringidas. Estas operaciones se diferencian de las tradicionales
en que la vecindad impuesta por el elemento estructural K alrededor de un
- 144 - Capítulo 3. Métodos.
determinado punto de f no puede tener ningún punto en común con la vecindad
definida por el mismo elemento alrededor de cualquiera de los puntos restantes
de la imagen.
2.3. Se calcula el índice MEI asociado en dicho nivel.
2.4. Consideramos ahora la imagen obtenida a partir de la operación de dilatación
restringida (que será menor que la del nivel inmediatamente inferior) y
repetimos el proceso descrito en los pasos b-d un número de veces que
establecido como parámetro.
3.- Como resultado del proceso se obtiene una imagen digital en niveles de gris a partir
formada por los valores de pureza proporcionados por el índice MEI en iteraciones
sucesivas. El proceso completo aparece ilustrado de forma gráfica en la figura 3.2.16.
Figura 3.2.16. Proceso de creación de una descomposición multi-escala de una imagen
hiperespectral mediante operaciones morfológicas en pirámide.
De nuevo, evaluamos la implementación propuesta mediante la metodología habitual.
1.- Sensibilidad a parámetros de entrada. El método es sensible al elemento estructural
utilizado, el cual permanece constante a lo largo del proceso. Este hecho permite
ajustar el método a situaciones en las que existe un cierto conocimiento previo sobre
la imagen a analizar.
Capítulo 3. Métodos. - 145 -
2.- Impacto de la variabilidad espectral. Al igual que en los métodos anteriores, la
utilización del índice MEI asegura robustez en presencia de variabilidad espectral.
3.- Coste computacional. Esta implementación es considerablemente más rápida que
cualquiera de las presentadas anteriormente. Como puede apreciarse en la figura
3.2.16, el tamaño de las imágenes en niveles sucesivos decrece de forma logarítmica.
Este hecho hace que la complejidad computacional del método pueda expresarse en la
forma nlognO en notación asintótica, lo cual supone una reducción computacional
considerable con respecto a las aproximaciones anteriormente discutidas.
4.- Grado de automatización. La implementación basada en operaciones morfológicas
en pirámide es totalmente automática a partir de la selección del elemento estructural
utilizado a lo largo del proceso.
5.- Información descartada. El método se caracteriza porque se pierde una cantidad de
información entre iteraciones sucesivas. El hecho de que un pixel descartado en una
determinada iteración no pueda volver a ser recuperado en iteraciones sucesivas hace
que sea necesario encontrar un compromiso entre la eficiencia computacional del
método y la cantidad de información descartada por el mismo.
6.- Grado de integración de información espacial y espectral. Al igual que las dos
implementaciones anteriormente descritas, esta aproximación integra de forma
adecuada la información espacial y espectral, pero puede incurrir en pérdidas de
información significativas en ambos dominios.
A partir de la discusión anteriormente realizada, el principal inconveniente del método es la
pérdida de información entre iteraciones sucesivas. Para solucionar este problema, proponemos
la utilización en el futuro de conceptos basados en morfología borrosa, de un modo similar al
descrito en la implementación anterior.
Una vez descritas las diferentes alternativas para llevar a cabo el primer paso del algoritmo
AMEE, consistente en la aplicación de operadores morfológicos extendidos sobre la imagen
original, procedemos a describir la segunda etapa del algoritmo, basada en la identificación de
pixels puros en la imagen.
3.2.2.2. Identificación automática de pixels puros.
El segundo paso del algoritmo propuesto tiene como objetivo la identificación automatizada
de un conjunto de pixels puros a partir de la imagen de pureza (MEI) proporcionada por las
diferentes implementaciones discutidas en el anterior apartado. El proceso de selección de pixels
- 146 - Capítulo 3. Métodos.
puros a partir de dicha imagen se realiza utilizando el método de umbralización automática de
Otsu, el cual fue descrito en el apartado 2.2.2. Las cuestiones de diseño que nos han llevado a
optar por utilizar esta etapa son las que se detallan a continuación:
1.- Elección del método. La imagen de pureza proporcionada en la etapa anterior puede
expresarse como una imagen en ND’s, correspondientes a los valores de pureza
asociados a cada pixel. De este modo, parece razonable abordar su procesamiento
mediante técnicas espaciales clásicas. Por otra parte, uno de los objetivos que nos
planteamos a la hora de diseñar una nueva metodología de análisis fue la necesidad de
que la metodología fuese lo más automática posible. En este sentido, como vimos en
el apartado 2.2.2, la técnica automática de Otsu constituye una de las aproximaciones
más eficaces para realizar la separación entre pixels de interés y fondo en imágenes en
ND’s.
2.- Secuenciamiento escogido. Puesto que la etapa de identificación automática de pixels
puros se realiza a partir de una imagen de pureza proporcionada en la etapa de
aplicación de operadores morfológicos extendidos, se ha optado por realizar esta fase
justo a continuación de la anteriormente mencionada.
3.- Alternativas de secuenciamiento. En este caso, no se contemplan posibles
alternativas al secuenciamiento originalmente establecido.
Una vez aplicado el método de umbralizado automático de Otsu sobre la imagen de pureza,
se obtiene una imagen binaria formada por dos clases:
Pixels puros. Esta clase está formada por aquellos pixels de la imagen original cuyo
índice de pureza asociado es mayor o igual que el valor umbral proporcionado por el
método de Otsu.
Pixels mezcla. Esta clase está formada por los pixels de la imagen original cuyo
índice de pureza asociado es inferior al valor umbral.
Dentro de las posibles líneas futuras de trabajo, consideramos interesante la realización de
un estudio comparativo de otras posibles técnicas para segmentar la imagen de pureza obtenida,
con vistas a calibrar el impacto de la fase de identificación de pixels puros en los resultados
proporcionados por el método propuesto.
3.2.2.3. Crecimiento de regiones adaptativo.
La tercera etapa del algoritmo consiste en aplicar un proceso opcional de crecimiento de
regiones, similar al presentado en el apartado 2.2.3 del capítulo de antecedentes. En nuestro
Capítulo 3. Métodos. - 147 -
caso, la medida de similaridad entre pixels vecinos, descrita en la expresión 2.2.22 del mismo
apartado, es la distancia SAM. Por lo demás, el proceso de crecimiento se realiza de forma
exacta a la descrita en dicho apartado, dando como resultado un conjunto de regiones coherentes
desde un punto de vista espacial y espectral, a partir de las cuales se obtiene una lista de
endmembers. Entendemos que una región es coherente en el dominio espacial y espectral si
cumple las siguientes propiedades:
Coherencia espacial. Cada región puede ser entendida como una componente conexa
formada por uno o más puntos.
Coherencia espectral. Los pixels englobados en una determinada región presentan
características espectrales similares.
La obtención de endmembers a partir de regiones que cumplen estas dos propiedades
permitirá obtener firmas espectrales puras capaces de representar de forma muy precisa a sus
vecinos espaciales. Entre las cuestiones de diseño que nos han llevado a incorporar esta etapa,
destacamos las siguientes:
1.- Elección del método. Como vimos en el apartado 2.2.3, las técnicas de crecimiento
de regiones constituyen una aproximación muy adecuada para refinar el resultado
proporcionado por un método de segmentación. En nuestro caso, hemos comprobado
experimentalmente que la utilización del método automático de Otsu puede dar lugar a
clasificación de pixels puros como pixels mezcla, por lo que el proceso de crecimiento
de regiones puede ayudar a completar la salida proporcionada por la etapa anterior.
Por otra parte, a pesar de que el proceso de crecimiento de regiones introduce un
degradado en los endmembers, los experimentos realizados que serán presentados en
el capítulo 4 demuestran que la incorporación de esta etapa hace que la selección final
de endmembers sea más robusta frente a la presencia de condiciones de ruido en la
imagen.
2.- Secuenciamiento escogido. La etapa de crecimiento se realiza justo a continuación de
la etapa de identificación de pixels puros, pues se ha comprobado experimentalmente
que en dicha etapa a veces se realiza una estimación a la baja sobre la pureza de los
pixels.
3.- Alternativas de secuenciamiento. En esta etapa, consideramos las siguientes
alternativas de secuenciamiento:
3.1. Una primera alternativa, que puede estudiarse en futuras implementaciones,
consistiría en incorporar el proceso de crecimiento de regiones durante la
búsqueda de endmembers, considerando información competitiva entre
- 148 - Capítulo 3. Métodos.
elementos estructurales cercanos. Esta decisión de diseño podría traer como
consecuencia la eliminación de la etapa de crecimiento de regiones.
3.2. Una segunda alternativa de secuenciamiento, como hemos comentado
anteriormente, es no realizar la etapa de crecimiento de regiones. La etapa de
crecimiento permite obtener un comportamiento más robusto en presencia de
ruido, a expensas de introducir un degradado en los endmembers seleccionados.
Como resultado de esta etapa, se obtiene una lista preliminar de endmembers. En función de
la inclusión o no de la etapa de crecimiento de regiones en el método, decimos que la lista de
endmembers anteriormente mencionada puede obtenerse de dos formas diferentes, que
catalogamos de la siguiente forma:
1.- Mecanismo de Extracción a partir de Pixels Puros de la imagen (MEPP). Consiste
en extraer el conjunto final de endmembers a partir de los pixels puros resultantes del
proceso de umbralizado automático (es decir, la etapa de crecimiento de regiones no
se utiliza en el proceso).
2.- Mecanismo de Extracción a partir de Crecimiento de Regiones (MECR). Se basa
en la realización de un método de crecimiento que refina la salida del proceso de
umbralizado. El resultado del crecimiento es un conjunto de regiones a partir de las
cuales se obtiene una lista final de endmembers mediante el cálculo del espectro
promedio en cada región resultante.
Como se apuntó en el apartado 2.2.3, la utilización de criterios de similaridad estrictos o
relajados a la hora de realizar el crecimiento puede traer como consecuencia la identificación de
endmembers falsos, obtenidos a partir de regiones con escasa coherencia espacial y/o espectral.
Por este motivo, proponemos como último paso del método la realización de un proceso de
eliminación de firmas redundantes.
3.2.2.4. Eliminación de endmembers redundantes.
El último paso del algoritmo propuesto tiene como objetivo la eliminación de posibles
instancias redundantes en la lista final de endmembers obtenida como resultado de la etapa de
crecimiento. A continuación, enumeramos las cuestiones de diseño que nos han llevado a
incorporar esta última etapa:
1.- Elección del método. Como se argumentó en apartados anteriores, parece necesaria la
incorporación de una aproximación que elimine endmembers inconsistentes, causados
Capítulo 3. Métodos. - 149 -
por un proceso de crecimiento de regiones con criterios de similaridad inadecuados o
por una estimación a la baja del índice de pureza de algunos pixels.
2.- Secuenciamiento escogido. En la implementación actual, esta etapa de eliminación de
firmas espectrales redundantes se realiza al final, una vez que se han completado las
etapas anteriores. En nuestro caso se trata, por tanto, de una técnica de post-procesado.
3.- Alternativas de secuenciamiento. En futuras modificaciones del método tenemos
previsto considerar la etapa de eliminación de endmembers redundantes en fases
previas. En concreto, esta etapa podría introducirse justo a continuación de la etapa de
identificación automática de regiones puras y de forma previa al crecimiento de
regiones. En este caso, es posible que los resultados proporcionados por las técnicas
de crecimiento de regiones fuesen más consistentes. Otra alternativa consistiría en
aplicar la etapa de eliminación de endmembers redundantes como pre-procesado, con
vistas a eliminar información redundante en el dominio espectral de forma previa al
procesado de la imagen. En esta línea, podría utilizarse un criterio en el que se
analizase la dependencia lineal del nuevo endmember con respecto a los ya escogidos,
para decidir así la inclusión o no del nuevo elemento en una lista de endmembers. La
incorporación de estas modificaciones podría dar como resultado una mejora de las
prestaciones del método propuesto, y evitar en parte los problemas de estimación a la
baja del índice de pureza de algunos pixels. Esta aproximación es similar a la técnica
de reducción ejemplar utilizada por el método ORASIS, descrito en el apartado
2.3.2.2.
A continuación, describimos el procedimiento utilizado para llevar a cabo la etapa de
eliminación de endmembers redundantes. Sea LC={ei: i=1,..,c} la lista que contiene los
endmembers asociados a cada una de las regiones obtenidas tras la etapa de crecimiento. El
enfoque propuesto consta de los siguientes pasos:
1.- En primer lugar, se establece un umbral de similaridad o tolerancia, T, introducido
como parámetro al algoritmo.
2.- A continuación, se selecciona el primer endmember almacenado en la lista, y se
almacena en una nueva lista de firmas ejemplares LE, inicialmente vacía, como se
muestra en la siguiente expresión:
1EEE eLL;L (3.2.20)
4. Seguidamente, se seleccionas un nuevo endmember de la lista LC, y se calcula su
similaridad con respecto al conjunto de firmas ejemplares. Sea ei el endmember
seleccionado. En este paso se realizan las siguientes consideraciones:
- 150 - Capítulo 3. Métodos.
4.1. Si el nuevo endmember eiLC es diferente de todos los elementos amacenados
en la lista de ejemplares, el elemento se introduce en la lista:
iEE2jiEj eLLT)e,Dist(e ,Le (3.2.21)
4.2. Por el contrario, si ei es similar a alguno de los elementos ejemplares, dicho
endmember se considera redundante y no es almacenado en LE.
5. El proceso realizado en el paso 3 se repite con todos los endmembers de LC, dando como
resultado un conjunto final de elementos ejemplares LE que serán las firmas espectrales de
referencia extraídas por el algoritmo.
En nuestro caso, la medida de similaridad utilizada se basa en la distancia SAM. Entre las
líneas futuras de trabajo, destacamos la realización de un estudio comparativo entre distintas
medidas de similaridad a la hora de realizar esta tarea, incluyendo distancias lineales y no
lineales, como las presentadas en el apartado 2.3.2.
3.2.2.5. Identificación de endmembers y estimación de abundancias.
Una vez extraído un conjunto final de endmembers no redundantes, utilizamos metodologías
tradicionales para identificar la ubicación de las firmas seleccionadas en la escena y para
cuantificar su abundancia a nivel de pixel.
La primera tarea puede llevarse a cabo mediante la aplicación de algoritmos de
clasificación de pixels, como el método SAM o el uso de filtros de similaridad (MF),
descritas en el apartado 2.3.2.1.
La estimación de abundancias puede realizarse utilizando el modelo lineal de mezcla
mediante la técnica de mínimos cuadrados con restricciones de no-negatividad y suma
unitaria (FCLSU). Este modelo fue presentado en el apartado 2.3.2.2. En futuros
desarrollos del método tenemos prevista la incorporación de modelos no lineales en el
cálculo de abundancias.
Para finalizar este capítulo, la figura 3.2.17 muestra un esquema detallado del método
propuesto, mostrando las diferentes etapas del mismo, los parámetros de entrada en cada una de
las etapas, y los resultados finales proporcionados (Plaza y col., 2001c). Este esquema viene a
completar el diagrama de bloques general mostrado en la figura 3.2.4.
Como puede apreciarse en la figura 3.2.17, a partir de una imagen hiperespectral de entrada,
el algoritmo proporciona un conjunto de firmas espectrales puras o endmembers, un mapa
temático en el que puede apreciarse la ubicación de dichos componentes puros en la imagen y
Capítulo 3. Métodos. - 151 -
un conjunto de mapas de abundancia que indican la proporción o abundancia a nivel de pixel de
cada uno de los componentes puros identificados. En este sentido, el método proporciona
resultados que pueden ser interpretados en el dominio espectral (endmembers) y en el dominio
espacial, en el que el resultado aparece expresado con precisión a nivel de pixel (mapa temático)
y también a nivel sub-pixel (mapas de abundancia).
ImagenOriginal
Aplicación de Operadores Morfológicos Extendidos
Identificación automática de regiones puras
Crecimiento de regiones adaptativo
Eliminación de endmembers redundantes
KMIN, KMAX
T
0
1000
2000
3000
4000
5000
6000
7000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Rad
ian
cia
(μW
/cm
2 /n
m/
sr)
Grass - trees
Grass - pasture
Corn - notill
Soybean - notill
Información espectral Información espacial
Endmembers
Mapa temático Mapas de abundancia
Imagen original
Figura 3.2.17. Esquema detallado del método propuesto.
Capítulo 4
Análisis y discusión de resultados
La propuesta de una nueva metodología en cualquier disciplina científica y, en particular, en
aplicaciones de análisis de imágenes multi-dimensionales obtenidas de forma remota, debe venir
acompañada de una etapa de prueba en la que dicha propuesta sea evaluada de forma intensiva y
comparada con otras aproximaciones existentes en la literatura, con vistas a calibrar su posible
utilización en aplicaciones reales. Después de haber contextualizado el problema y de haber
detallado una nueva metodología, en este capítulo mostramos los resultados obtenidos por la
misma, así como su posterior análisis y comparación con los proporcionados por otros métodos
existentes.
El capítulo está organizado de la siguiente forma:
1.- Inicialmente, exponemos a modo de sinopsis la metodología de análisis seguida a la
hora de mostrar y discutir los resultados. Este apartado ofrece una visión introductoria
sobre el diseño de los experimentos y las medidas de comparación utilizadas, el cual
será desarrollado en profundidad en apartados sucesivos.
2.- A continuación, describimos una batería de experimentos realizados con imágenes
sintéticas multi-dimensionales, caracterizadas por simular propiedades del mundo real
mediante representaciones simplificadas. El uso de datos sintéticos en aplicaciones de
teledetección en general (Tatem y col., 2002; Coops y Culvenor, 2000) y en análisis
- 154 - Capítulo 4. Análisis y Discusión de resultados.
hiperespectral en particular (Ifarraguerri y Chang, 2000) se justifica en base al gran
abanico de posibilidades que ofrece este tipo de datos a la hora de comprender el
funcionamiento de las técnicas de procesado y, por tanto, de lograr una mejora el
funcionamiento de las mismas. La principal característica de estos datos obtenidos de
forma sintética o artificial es la posibilidad de obtener información verdad terreno a
partir de ellos de forma muy sencilla. En particular, el uso de este tipo de datos
permite un control exhaustivo sobre aspectos clave en el proceso de generación de los
mismos como la distribución de patrones, condiciones de ruido y mezcla,
dimensiones, etc.
3.- Finalmente, se presenta un conjunto de experimentos realizados con datos reales.
Algunas técnicas de análisis que ofrecen buenos resultados al ser aplicadas a imágenes
sintéticas pueden fracasar al ser aplicadas a imágenes reales debido a la presencia de
circunstancias que no fueron tenidas en cuenta en el proceso teórico de simulación de
los datos. Es por tanto fundamental analizar el comportamiento del método propuesto
utilizando este tipo de datos.
4.1. Metodología de análisis y discusión de resultados
En este apartado se ofrece una visión general sobre el diseño y propósito de los
experimentos realizados con datos sintéticos y reales.
Las pruebas con imágenes sintéticas están orientadas a evaluar de forma preliminar el
funcionamiento de la metodología propuesta, estudiando el ajuste de parámetros y su
impacto en el resultado final obtenido.
Por otra parte, el uso de imágenes reales permite establecer un estudio comparativo
del algoritmo propuesto con respecto a otros ya existentes de amplia utilización por
parte de la comunidad científica dedicada al análisis de imágenes multi-
dimensionales.
En términos generales, la estrategia adoptada para evaluar los resultados obtenidos sobre
datos sintéticos y reales es la que se describe en la figura 4.1.1. El procedimiento de análisis
utilizado consta de una serie de etapas diferenciadas que se enumeran a continuación.
1.- Partimos de una imagen original con unas características determinadas en cuanto a
ruido y distribución de patrones espaciales y espectrales.
Capítulo 4. Análisis y Discusión de resultados. - 155 -
2.- Sobre esta imagen aplicamos un algoritmo, caracterizado por la utilización de una
serie de parámetros. De este modo obtenemos una salida o resultado que puede ser de
dos tipos:
a. Un conjunto de firmas espectrales puras o endmembers, obtenidos a partir de la
identificación de componentes puros en la imagen original.
b. Un conjunto de mapas de abundancia o imágenes en ND’s que contienen las
fracciones de abundancia de los componentes puros anteriormente mencionados
en cada uno de los pixels de la imagen original.
3.- Para comparar la bondad de los resultados proporcionados por el algoritmo, hacemos
uso de información de verdad terreno asociada a la imagen original. En el caso de
imágenes sintéticas, la verdad terreno es muy sencilla de obtener, y se obtiene
directamente a partir de los datos utilizados para generar la imagen. En el caso de
imágenes reales, la información de verdad terreno no siempre está disponible y, en
caso de estarlo, vendrá impuesta. Este tipo de verdad terreno no se obtiene a partir de
los propios datos, sino a partir de medidas sobre el terreno, por lo que tendremos muy
poco control sobre ella.
4.- En un último paso, se procede a la comparación entre los resultados obtenidos y la
verdad terreno. Para ello, se utilizan medidas específicas que deben tener en cuenta las
características de los resultados y la verdad terreno.
ImagenOriginal
InformaciónVerdad Terreno
Algoritmo Resultado
Medidas decomparación
Figura 4.1.1. Metodología general de análisis de resultados.
- 156 - Capítulo 4. Análisis y Discusión de resultados.
Este esquema general se mantiene en todas las situaciones analizadas en este capítulo,
incorporando ligeras variaciones que serán destacadas en cada momento. A continuación
describimos brevemente la forma en que se utilizan los datos sintéticos y reales en nuestro
estudio y la metodología de trabajo en cada caso.
4.1.1. Metodología de análisis de imágenes sintéticas
El procedimiento utilizado para analizar imágenes sintéticas aparece ilustrado mediante un
esquema en la figura 4.1.2.
ImagenSintética
Selección
Superposición
Degradación
Imagen purezaV.T.
Mapas abundancia
V.T.
Firmasespectrales
V.T.
Verdad Terreno
Algoritmo
Resultado
Firmasespectralesobtenidas
Imagen pureza
obtenida
Mapas abundancia obtenidos
c) b) a)
1
3
2
4
Figura 4.1.2. Metodología de análisis de imágenes sintéticas.
Como puede observarse, el proceso consta de una serie de etapas que se describen a
continuación:
1.- Generación de la imagen. Esta fase comprende todos los pasos necesarios para
obtener una imagen generada artificialmente (imagen sintética) sobre la que se realiza
un proceso de análisis. Mencionamos brevemente cada uno de dichos pasos:
a. Selección de firmas. La mayor parte de los estudios relacionados con imágenes
sintéticas en la bibliografía aconsejan su generación utilizando firmas
Capítulo 4. Análisis y Discusión de resultados. - 157 -
espectrales obtenidas a partir de datos proporcionados por sensores reales
(Guilfoyle y col., 2001). Siguiendo esta tendencia, generamos imágenes
sintéticas utilizando como base firmas reales correspondientes a diversas
cubiertas características (vegetación, suelo, minerales, zonas urbanas, etc.).
b. Superposición. En este paso se establece qué firmas espectrales se van a
mezclar en cada pixel y la proporción en la que cada firma contribuye a la
mezcla. Para llevar a cabo este propósito, utilizamos el modelo lineal de
mezcla, descrito en el apartado 2.3.2.2. Con objeto de comparar el efecto del
proceso de corrección atmosférica en el funcionamiento de los algoritmos
planteados, utilizaremos firmas espectrales en unidades de radiancia (sin
corrección atmosférica) y reflectancia (después de la correción atmosférica) en
la generación de las imágenes de forma que se pueda comprobar el efecto de
ambas opciones sobre el funcionamiento de los algoritmos diseñados.
c. Degradación. En los procesos de medición en situaciones reales aparece una
componente ruidosa provocada por las condiciones ambientales y por las
características instrumentales del aparato de medida, como se describió en el
apartado 2.3.1. Es por tanto necesario analizar el comportamiento de los
métodos ante este hecho. Para ello, seguimos un proceso de degradación o
simulación de ruido en las imágenes sintéticas generadas. En el caso de la
simulación de imágenes adquiridas de forma remota, las contribuciones
ruidosas provocadas por el entorno y por las características instrumentales del
sensor suelen ser modeladas mediante ruido blanco que se añade en una
determinada proporción a cada banda de la imagen (ver expresión 2.3.3).
2.- Obtención de verdad terreno. Como ya se ha mencionado, la principal característica
diferenciadora de las imágenes sintéticas con respecto a imágenes reales es la
posibilidad de obtener datos de verdad terreno de alta precisión a partir de las mismas.
Puesto que la abundancia de las firmas espectrales que se mezclan en cada pixel de
una imagen sintética es determinada en la fase de superposición, es sencillo obtener
información verdad terreno detallada de forma directa. Podemos dividir la
información de verdad terreno obtenida a partir de datos sintéticos en tres categorías
fundamentales (ver figura 4.1.2):
a. Firmas espectrales verdad terreno, es decir, las firmas originales utilizadas para
generar las imágenes (fase de selección), antes de las fases de superposición y
degradación. Estos espectros de referencia permiten analizar la calidad de los
- 158 - Capítulo 4. Análisis y Discusión de resultados.
endmembers extraídos mediante un proceso de comparación que gira en torno
la forma de los espectros.
b. Mapas de abundancia verdad terreno, asociados a cada una de las firmas
espectrales originales. Estos mapas contienen el coeficiente de abundancia de
las firmas originales en cada pixel de la escena, y se obtienen a partir de la fase
de superposición. Utilizando estos mapas, podemos evaluar la capacidad de los
algoritmos de análisis a la hora de estimar la abundancia de los componentes
fundamentales.
c. Imágenes de pureza, en las que los pixels formados a partir de mezclas
espectrales son marcados como "no puros" mientras que los pixels que
contienen un espectro puro sin mezcla son etiquetados como "puros". Estas
imágenes, obtenidas también a partir de la fase de superposición, permiten
evaluar la capacidad de los algoritmos de análisis para detectar los pixels
espectralmente más puros de la escena, a partir de los cuales se obtienen los
endmembers.
3.- Aplicación del algoritmo. A la hora de aplicar el algoritmo propuesto sobre los datos
sintéticos generados, tendremos en cuenta diferentes valores para los parámetros de
entrada con objeto de analizar el impacto de los mismos sobre el resultado final
obtenido. Para analizar el efecto de cada uno de ellos por separado, el procedimiento
utilizado consiste en variar el valor del parámetro estudiado manteniendo fijo el valor
de los restantes. En concreto, los parámetros sobre los que centramos nuestro estudio
son los siguientes:
a. Tamaño del elemento estructural empleado.
b. Relación señal-ruido considerada en la fase de generación de las imágenes.
c. Uso de datos de radiancia/reflectancia.
4.- Comparación. Las medidas de calidad consideradas dependen del tipo de verdad
terreno disponible. Este hecho aparece reflejado en el diagrama de la figura 4.1.2, en
el que las flechas discontinuas conectan los elementos que intervienen en el proceso
de comparación. Este proceso se lleva a cabo mediante cuatro experimentos
diferentes, cuyos objetivos se describen a continuación:
a. Primer experimento. Chequea la capacidad de los algoritmos para distinguir
entre pixels puros y pixels mezcla. Para ello, utilizamos curvas ROC, las cuales
describen el balance entre la sensibilidad y la especificidad del algoritmo en
diferentes puntos de compromiso. La sensibilidad viene dada por la fracción de
Capítulo 4. Análisis y Discusión de resultados. - 159 -
verdaderos positivos (pixels puros detectados como tales), mientras que la
especificidad se obtiene a partir del porcentaje de falsos positivos (pixels
mezcla detectados como puros). En nuestro caso, los puntos de compromiso se
refieren a los valores umbral aplicados para determinar qué pixels de una
imagen son clasificados como "puros" y cuáles son clasificados como "no
puros".
b. Segundo experimento. Analiza la bondad de los endmembers extraídos a partir
del proceso de identificación de pixels puros mencionado en el experimento
anterior. La estrategia seguida es comparar los endmembers finales con las
firmas originales sin ruido utilizadas para generar las imágenes sintéticas. La
comparativa se realiza en base a un criterio de similaridad basado en la forma
de los espectros, por lo que se utilizan medidas como el ángulo espectral (SAM)
y la divergencia espectral (SID), ambas caracterizadas por su robustez frente a
posibles cambios en la escala introducidos por el ruido.
c. Tercer experimento. Evalúa la precisión del método en el proceso de
determinación de abundancias de los endmembers seleccionados. Este proceso
se lleva a cabo comparando los mapas de abundancia correspondientes a los
endmembers extraídos y los mapas de abundancia verdad terreno obtenidos
directamente a partir de las imágenes sintéticas. Las medidas de similaridad
utilizadas en este experimento son diagramas de representación de abundancias
reales frente abundancias estimadas, a partir de los cuales se obtienen el error
cuadrático medio (RMSE), calculado pixel a pixel para toda la imagen, y el
coeficiente de correlación de Pearson.
d. Cuarto experimento. Analiza la precisión con la que el algoritmo es capaz de
reconocer objetos individuales o targets en terminología de análisis de
imágenes. Para ello, utilizamos los endmembers extraídos para construir filtros
de similaridad a partir de los cuales se puede recuperar la forma de los objetos a
detectar mediante métodos clásicos de segmentación de imágenes en niveles de
gris. A la hora de evaluar la precisión en el proceso de detección de los objetos,
se utilizan matrices de confusión y medidas propias de la teoría de la detección,
como la fracción de verdaderos positivos (porcentaje de pixels correctamente
clasificados) y falsos positivos (porcentaje pixels incorrectamente clasificados).
- 160 - Capítulo 4. Análisis y Discusión de resultados.
4.1.2. Metodología de análisis de imágenes reales
La metodología utilizada para validar el algoritmo propuesto con datos reales aparece
ilustrada mediante un diagrama en la figura 4.1.3.
Imagenreal
MapasAbundancia
V.T.
Firmasespectrales
V.T.
Información Verdad Terreno
Algoritmo
Resultado
Firmasespectralesextraídas
MapasAbundancia
extraídos
Imagengenerada
c) b) a)
Figura 4.1.3. Metodología de análisis de imágenes reales.
Como se observa en la figura, las variantes de este esquema vienen dadas por las
características de la verdad terreno. En este sentido, distinguimos una serie de posibilidades que
se detallan a continuación:
1.- Se dispone de información de verdad terreno en forma de firmas espectrales tomadas
sobre el terreno y que corresponden a materiales puros.
2.- Se dispone de verdad terreno que contiene información acerca de la abundancia de
materiales en cada pixel de la escena.
3.- No se dispone de ningún tipo de información de verdad terreno.
Cada una de las posibilidades antes mencionadas va a condicionar de forma clara el proceso
de comparación de resultados. En el diagrama mostrado en la figura 4.1.3, las flechas
discontinuas indican los elementos que intervienen en cada etapa de la comparación. A
continuación, detallamos la metodología a seguir en cada caso:
Capítulo 4. Análisis y Discusión de resultados. - 161 -
a. Comparación de firmas espectrales. Cuando la información de verdad terreno se
basa únicamente en firmas espectrales, necesitamos un algoritmo de emparejamiento
para realizar la comparación entre las firmas extraídas por el algoritmo y las firmas
espectrales de referencia. Por lo general, las firmas de referencia son obtenidas
mediante espectrómetros sobre el terreno, por lo que pueden existir variaciones en la
escala debidos a las diferentes condiciones de iluminación y posibles efectos
atmosféricos, presentes en la imagen pero no en los espectros tomados de forma
directa en el terreno. Por este motivo, el algoritmo de emparejamiento propuesto
utiliza un criterio de similaridad basado en la forma de los espectros. Ante la
necesidad de medir la similaridad de forma independiente de la magnitud de los
vectores, las medidas utilizadas para cumplir este objetivo son el ángulo espectral
(SAM) y la divergencia espectral (SID).
b. Comparación de imágenes de abundancia. Cuando la información de verdad
terreno viene expresada en forma de mapas de abundancia, utilizaremos las siguientes
medidas de similaridad para comparar los mapas de abundancia obtenidos por los
algoritmos con los mapas de abundancia verdad terreno. De nuevo, el uso de
diagramas de dispersión entre abundancias reales y abundancias estimadas resulta una
herramienta fundamental a partir de la que se derivan medidas cuantitativas como el
error cuadrático medio (RMSE) y el coeficiente de correlación de Pearson.
c. Comparación entre imagen reconstruida e imagen original. La metodología
propuesta para evaluar los métodos de clasificación cuando no hay información de
verdad terreno disponible se basa en el modelo lineal de mezcla, que permite expresar
una imagen multi-dimensional como un conjunto de firmas espectrales de referencia o
endmembers y un conjunto de mapas de abundancia, uno por endmember, en el que se
expresa la contribución individual del componente en cada pixel de la escena.
Utilizando este concepto, utilizamos un modelo de análisis en el que se genera una
versión reconstruida de la imagen multi-dimensional a partir de las firmas extraídas y
sus consiguientes abundancias. La imagen generada se compara con la imagen
original para evaluar el grado de precisión en la reconstrucción. Idealmente, cuanto
más apropiado sea el conjunto de firmas espectrales seleccionadas por el algoritmo,
mejor será la reconstrucción de la escena. Con objeto de comparar las imágenes
generada y original, utilizaremos el error RMSE entre ambas.
Una de las aplicaciones de las técnicas de extracción de endmembers discutidas en esta
memoria es la compresión de las imágenes en el sub-espacio generado por el conjunto de
vectores correspondientes a los endmembers de la imagen (ver apartado 2.3.2.2). Este esquema
permite que no sea necesario almacenar la imagen completa, sino un conjunto reducido de
- 162 - Capítulo 4. Análisis y Discusión de resultados.
firmas espectrales y sus correspondientes mapas de abundancia, siendo posible generar a partir
de esta información la imagen original. Proponemos por tanto incluir en la metodología de
análisis de imágenes reales un estudio detallado de los ratios de compresión obtenidos al realizar
la compresión de las imágenes y relacionar estos índices de compresión con los parámetros de
calidad antes mencionados. El objetivo fundamental de estos experimentos consiste en evaluar
la capacidad de los algoritmos propuestos para ser empleados como alternativa a los algoritmos
de compresión con pérdida de imágenes de alta dimensionalidad existentes en la literatura,
algunos de los cuales fueron mencionados en el apartado 2.3.2.2.
4.2. Análisis de imágenes sintéticas
En este apartado presentamos las pruebas realizadas con imágenes sintéticas, siguiendo la
estructura que se describe a continuación.
1.- Inicialmente, ilustramos mediante un ejemplo el procedimiento empleado para generar
imágenes sintéticas, analizando por separado aspectos clave como las características
de las firmas espectrales utilizadas en la simulación y su procedencia, la forma en que
se establece la abundancia de dichas firmas en cada pixel y los mecanismos empleados
para simular el ruido del sensor.
2.- A continuación presentamos las imágenes sintéticas utilizadas en el estudio,
describiendo sus características espaciales y espectrales, así como los factores que se
han tenido en cuenta a la hora de su diseño.
3.- El apartado termina realizando una exposición detallada de los experimentos
realizados con estas imágenes.
4.2.1. Proceso de generación de imágenes sintéticas
Describimos a continuación el proceso de generación de una imagen sintética mediante un
sencillo ejemplo, detallando el proceso de selección de firmas espectrales, la forma en que se
establece la asignación de abundancias y el esquema seguido para la generación de ruido.
Capítulo 4. Análisis y Discusión de resultados. - 163 -
4.2.1.1. Selección de firmas espectrales
Las imágenes sintéticas utilizadas en la literatura utilizan firmas espectrales obtenidas
directamente a partir de sensores reales. En el ejemplo que nos ocupa, las firmas empleadas
corresponden a una imagen obtenida por el sensor AVIRIS en 1997 sobre la región Jasper
Ridge en California. La disponibilidad pública de esta imagen en unidades de radiancia y
reflectancia (California Institute of Technology, 2002) resulta muy atractiva con objeto de
analizar el impacto de ambas opciones en el resultado de nuestros algoritmos. Los datos de
reflectancia fueron obtenidos tras la aplicación del método de corrección atmosférica ATREM
(Gao y col., 1993) combinado con un post-procesado mediante el método EFFORT (Boardman,
1998).
Se han seleccionado cuatro firmas espectrales correspondientes a pixels en la imagen
original asociados a vegetación, suelo, edificios y carreteras. La figura 4.2.1.a muestra la
ubicación de los pixels seleccionados sobre la imagen en unidades de reflectancia, mientras que
la figura 4.2.1.b muestra los pixels seleccionados en la imagen de radiancia.
0
1000
2000
3000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Ref
lect
anci
a (%
*100
)
0
1000
2000
3000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Ref
lect
anci
a (%
*100
)
0
1000
2000
3000
4000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Ref
lect
anci
a (%
*100
)
0
1000
2000
3000
4000
5000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Ref
lect
anci
a (%
*100
)Vegetación
Suelo
Edificio
Carretera
Reflectancia
Figura 4.2.1.a. Selección de firmas espectrales en unidades de reflectancia a partir de una imagen
AVIRIS sobre Jasper Ridge, California.
Los espectros seleccionados constan de un conjunto de 224 valores comprendidos en las
regiones visible e infrarrojo cercano del espectro, en concreto, en la zona entre 0.4 y 2.5 μm.
Como puede comprobarse, la ubicación de los pixels seleccionados es la misma en ambas
imágenes (radiancia y reflectancia) con objeto de utilizar firmas espectrales correspondientes al
mismo punto.
- 164 - Capítulo 4. Análisis y Discusión de resultados.
0
1000
2000
3000
4000
5000
6000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Rad
ian
cia
(μW
/cm
2 /n
m/
sr)
0
1000
2000
3000
4000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Rad
ian
cia
(μW
/cm
2 /n
m/
sr)
0
1000
2000
3000
4000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Rad
ian
cia
(μW
/cm
2 /n
m/
sr)
0
1000
2000
3000
4000
5000
6000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Rad
ian
cia
(μW
/cm
2 /n
m/
sr)
Radiancia
Vegetación
Suelo
Edificio
Carretera
Figura 4.2.1.b. Selección de firmas espectrales en unidades de radiancia a partir de una imagen
AVIRIS sobre Jasper Ridge, California.
4.2.1.2. Asignación de abundancias
El proceso seguido a la hora de realizar la asignación de abundancias en cada pixel de las
imágenes simuladas se basa en dos pasos:
1.- Inicialmente, se selecciona un conjunto base de firmas espectrales de referencia.
2.- A continuación, se establece la abundancia de cada una de las referencias elegidas en
cada pixel de la imagen, de forma que la contribución individual de cada firma se
expresa mediante un conjunto de coeficientes de abundancia que cumplen las
restricciones de no-negatividad y suma unitaria, propias del modelo lineal de mezcla
(ver apartado 2.3.2.2).
La figura 4.2.2.a muestra un ejemplo de creación de una imagen sintética sencilla a partir de
firmas espectrales en reflectancia, mientras que la figura 4.2.2.b muestra el proceso de creación
de la misma imagen a partir de datos de radiancia. La imagen generada tiene un tamaño de
60x60 pixels con 224 valores por pixel y consta de tres objetos concéntricos: R3, un cuadrado de
20x20 pixels de lado que está enmarcado por R2, un objeto de 40x40 pixels de lado, y R1, de
60x60 pixels de lado, que enmarca a los dos objetos anteriores.
La asignación de abundancias para estas regiones se ha escogido en este ejemplo de forma
que R1 y R3 estén compuestas por espectros puros (correspondientes a suelo y vegetación,
respectivamente) mientras que R2 está compuesta por mezclas equitativas entre vegetación y
suelo. Como puede apreciarse en la figura 4.2.2, los pixels que componen R1 están
caracterizados por un coeficiente de abundancia 1 para el espectro de suelo y 0 para el espectro
Capítulo 4. Análisis y Discusión de resultados. - 165 -
de vegetación; los pixels de R3 presentan un coeficiente de abundancia de vegetación igual a 1 y
coeficiente de abundancia de suelo igual a 0, mientras que los pixels de R2 se obtienen a partir
de una mezcla lineal equitativa de los dos espectros (coeficiente de abundancia 0.5 para
vegetación y 0.5 para suelo).
0
1000
2000
3000
4000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Ref
lect
anci
a (%
*100
)
0
1000
2000
3000
4000
5000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Ref
lect
anci
a (%
*100
)
0
1000
2000
3000
4000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Ref
lect
anci
a (%
*100
)
Suelo Vegetación0.5 Suelo + 0.5 Vegetación
60 x 60
40 x 4020 x 20
R1
R2
R3
Figura 4.2.2.a. Creación de una imagen sintética sencilla en unidades de reflectancia a partir de dos
espectros puros y un espectro obtenido como mezcla lineal entre ambos.
0
1000
2000
3000
4000
5000
6000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Rad
ian
cia
(μW
/cm
2 /n
m/
sr)
0
1000
2000
3000
4000
5000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Rad
ian
cia
(μW
/cm
2/n
m/
sr)
0
1000
2000
3000
4000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Rad
ian
cia
(μW
/cm
2/n
m/
sr)
Suelo Vegetación0.5 Suelo + 0.5 Vegetación
60 x 60
40 x 4020 x 20
R1
R2
R3
Figura 4.2.2.b. Creación de una imagen sintética sencilla en unidades de radiancia a partir de dos
espectros puros y un espectro obtenido como mezcla lineal entre ambos.
- 166 - Capítulo 4. Análisis y Discusión de resultados.
4.2.1.3. Simulación de ruido
Consideramos dos opciones diferentes en el proceso de simulación de ruido; a saber, ruido
blanco y ruido colorado. A continuación presentamos las dos opciones mencionadas.
Ruido blanco
Una primera opción a la hora de simular el ruido del sensor es utilizar ruido blanco,
característico de los componentes electrónicos (ver apartado 2.3.1). La principal propiedad de
este tipo de ruido es que aparece por igual en todas las frecuencias.
Nuestro proceso de simulación de ruido en imágenes sintéticas se ha llevado a cabo
utilizando un generador aleatorio de números entre 1 y –1. Estos valores siguen un modelo de
distribución de probabilidad normal, con lo que su valor medio es 0 y su desviación estándar es
1. El ruido se añade a cada pixel de la imagen en una determinada proporción que determina la
relación señal-ruido presente en la escena. De entre todas las definiciones existentes para dicha
relación, se ha escogido la denominada como SNR (ver apartado 2.3.1 y expresión 2.3.3), dada
su utilidad para imponer una relación señal-ruido predeterminada en cada una de las bandas de
una imagen simulada. En lo sucesivo, siempre que mencionamos la relación SNR nos
referimos a la definición SNR.
0
1000
2000
3000
4000
5000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Ref
lect
anci
a (%
*100
)
0
1000
2000
3000
4000
5000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Ref
lect
anci
a (%
*100
)
0
1000
2000
3000
4000
5000
6000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Ref
lect
anci
a (%
*100
)
0
1000
2000
3000
4000
5000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Ref
lect
anci
a (%
*100
)
Vegetación (reflectancia)
SNR = 10:1 SNR = 50:1 SNR = 90:1
Figura 4.2.3. Contaminación de una firma espectral en unidades de reflectancia mediante ruido
blanco, utilizando diferentes valores de SNR.
Capítulo 4. Análisis y Discusión de resultados. - 167 -
La figura 4.2.3. muestra un ejemplo en el que se ilustra el efecto de contaminar con ruido
blanco una firma espectral correspondiente a vegetación en unidades de reflectancia, utilizada
en la generación de la imagen sintética mostrada en la figura 4.2.2. Por otra parte, la figura 4.2.4
muestra el efecto de contaminar con ruido blanco la misma firma de vegetación pero en
unidades de radiancia. En ambos casos, la firma original se contamina con diferentes
proporciones de ruido hasta dar lugar a diferentes valores de SNR, en concreto 10:1, 50:1 y
90:1. Como puede apreciarse, cuanto menor es la relación SNR, mayor es el efecto de distorsión
introducido en la firma espectral, independientemente de si se utilizan datos de reflectancia o
radiancia. Este experimento pone de manifiesto el impacto de la relación SNR en la coherencia
espectral de las firmas utilizadas.
0
1000
2000
3000
4000
5000
6000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Rad
ian
cia
(μW
/cm
2/n
m/
sr)
Vegetación (radiancia)
0
2000
4000
6000
8000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Rad
ian
cia
(μW
/cm
2/n
m/
sr)
SNR = 10:1
0
2000
4000
6000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Rad
ian
cia
(μW
/cm
2/n
m/
sr)
SNR = 50:1
0
2000
4000
6000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Rad
ian
cia
(μW
/cm
2/n
m/
sr)
SNR = 90:1
Figura 4.2.4. Contaminación de una firma espectral en unidades de radiancia mediante ruido blanco,
utilizando diferentes valores de SNR.
Ruido coloreado
La segunda opción considerada en la simulación de ruido viene caracterizada por un estudio
detallado de las características del sensor utilizado. Por regla general, los sensores
hiperespectrales están formados por una variedad de sensores individuales, cada uno con unas
características concretas en cuanto a calidad y prestaciones (ver apartado 2.3.1).
Puesto que los espectros base utilizados para simular la imagen de ejemplo fueron
adquiridos por el sensor AVIRIS en 1997, en esta segunda opción utilizamos como referencia la
SNR característica en dicho año. La figura 2.3.5 muestra una descripción detallada de los
- 168 - Capítulo 4. Análisis y Discusión de resultados.
valores de SNR presentes en los diferentes canales del sensor AVIRIS en el citado año. Como
puede apreciarse, en casi todas las bandas el valor de la SNR de AVIRIS supera el ratio 100:1,
alcanzando ratios de más de 500:1 en algunas bandas.
La figura 4.2.5 muestra un ejemplo en el que se ilustra el efecto de contaminar con ruido
coloreado una firma espectral utilizadas en la generación de la imagen sintética mostrada en la
figura 4.2.2. En la simulación, se ha contaminado el espectro original de forma que la
proporción de ruido añadida en cada longitud de onda cumple la SNR definida para el sensor en
el año en que se tomaron los datos. Como puede apreciarse en la figura, las elevadas
prestaciones de AVIRIS hacen que la firma contaminada resulte muy similar, en términos
espectrales, a la firma original.
0
2000
4000
6000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Rad
ian
cia
(μW
/cm
2/n
m/
sr)
Vegetación (radiancia) Firma contaminada
SNR canal a canal de AVIRIS en 1997
0
1000
2000
3000
4000
5000
6000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Rad
ian
cia
(μW
/cm
2/n
m/
sr) Vegetación (radiancia)
Figura 4.2.5. Contaminación de una firma espectral en reflectancia mediante ruido coloreado,
utilizando diferentes valores de SNR.
Es importante destacar que la utilización de ruido coloreado solamente es aplicable en el
caso de los espectros en unidades de radiancia, los cuales son tomados directamente por el
sensor. Los espectros en reflectancia se obtienen después de un proceso de corrección
atmosférica que produce un espectro "limpio", sin efectos atmosféricos ni ruido. Por tanto, el
proceso de simulación de ruido en espectros de reflectancia debe seguir un esquema basado en
ruido blanco, tal y como se ha descrito con anterioridad en el apartado 2.3.1..
En lo sucesivo, utilizaremos únicamente ruido blanco en distintas proporciones a la hora de
generar imágenes sintéticas, con vistas a analizar la respuesta del algoritmo propuesto en
situaciones poco favorables.
4.2.2. Imágenes sintéticas utilizadas en el estudio.
Una vez descrito el proceso de generación de imágenes sintéticas, pasamos a describir las
imágenes concretas que vamos a emplear en nuestro estudio. Estas imágenes han sido
Capítulo 4. Análisis y Discusión de resultados. - 169 -
construidas utilizando una herramienta automática que se ha desarrollado específicamente para
este propósito (Plaza, 2002c). El proceso de generación de las imágenes que a continuación se
enumeran sigue el proceso descrito anteriormente mediante la utilización de datos de radiancia y
reflectancia y añadiendo un componente de ruido para simular las condiciones de adquisición
del sensor.
Imagen_simulada_1.
La primera imagen sintética aparece descrita en la figura 4.2.6. Como ya se ha comentado,
esta imagen consta de tres regiones: R1, cuyos pixels se caracterizan por tener un coeficiente de
abundancia 1 para suelo y 0 para vegetación; R2, cuyos pixels tienen coeficiente de abundancia
0.5 para suelo y 0.5 para vegetación; y R3, cuyos pixels tienen coeficiente de abundancia 1 para
vegetación y 0 para suelo.
R1
R2
R340
60
20
Asignación de abundancias
10R3
0.50.5R2
01R1
VegetaciónSueloRegión
Asignación de abundancias
10R3
0.50.5R2
01R1
VegetaciónSueloRegión
10
10
Figura 4.2.6. Regiones y tabla de asignación de abundancias para imagen_simulada_1.
La imagen_simulada_1 representa una situación de mezcla abrupta entre dos componentes,
tal y como puede apreciarse en la figura 4.2.6, en la que aparece una descripción gráfica de la
misma junto con su tabla de abundancias asociada. Esta situación de mezcla resulta adecuada
para realizar una evaluación preliminar del funcionamiento del algoritmo propuesto. Las
regiones que aparecen en la imagen son intencionadamente simples para que puedan así ser
modeladas utilizando elementos estructurales simples.
Imagen_simulada_2.
La segunda imagen simulada utilizada en el estudio, con dimensión de 60x60 pixels, se
caracteriza por representar una situación de mezcla progresiva entre los dos componentes puros
- 170 - Capítulo 4. Análisis y Discusión de resultados.
ya utilizados en la imagen anterior: suelo y vegetación. Esta imagen está formada por seis
regiones en forma de bandas verticales con anchura de 10 pixels. La región R1 (región vertical
situada más a la izquierda) está caracterizada por un coeficiente de abundancia 0 para
vegetación y 1 para suelo, mientras que R6 (región vertical situada más a la derecha) se
caracteriza por un coeficiente de abundancia 1 para vegetación y 0 para suelo. Las regiones
R2..R5 presentan coeficientes ajustados para simular una situación de mezcla progresiva, como
puede apreciarse en la figura 4.2.7.
60
60
Asignación de abundancias
10R6
0.80.2R5
0.40.6R4
0.60.4R3
0.80.2R2
01R1
VegetaciónSueloRegión
Asignación de abundancias
10R6
0.80.2R5
0.40.6R4
0.60.4R3
0.80.2R2
01R1
VegetaciónSueloRegión
R6R5R4R3R2R1 R6R5R4R3R2R1
10
Figura 4.2.7. Regiones y tabla de asignación de abundancias para imagen_simulada_2.
Imagen_simulada_3.
La imagen que describimos en el presente apartado simula objetos o "targets" homogéneos
en un fondo uniforme, y viene ilustrada en la figura 4.2.8. Los objetos simulados corresponden a
un edificio de 10x10 pixels (región R2) y una carretera de 10 pixels de ancho que cruza la
imagen de norte a sur (región R3). Para simular estos objetos se han utilizado firmas espectrales
reales en unidades de radiancia y reflectancia extraídas directamente de una imagen real (ver
figura 4.2.1). El fondo de la imagen (región R1) se ha generado utilizando la firma espectral de
suelo.
Como puede apreciarse en la tabla de asignación de abundancias mostrada en la figura 4.2.8,
esta imagen sintética está caracterizada por cambios muy abruptos en la abundancia de
materiales. Contrariamente a las imágenes sintéticas antes descritas, en la presente imagen no
hay ninguna mezcla lineal entre firmas espectrales. Así, cada pixel de la escena se caracteriza
por tener coeficiente de abundancia 1 para alguno de los materiales utilizados (suelo, edificio o
carretera) y 0 para el resto.
Capítulo 4. Análisis y Discusión de resultados. - 171 -
60
60
Asignación de abundancias
0
1
0
Edificio
10R3
00R2
01R1
CarreteraSueloRegión
Asignación de abundancias
0
1
0
Edificio
10R3
00R2
01R1
CarreteraSueloRegión
10
10
10
R1
R2
R3
Figura 4.2.8. Regiones y tabla de asignación de abundancias para imagen_simulada_3.
Imagen_simulada_4.
Esta imagen simulada tiene dimensiones 100x100 pixels, y viene caracterizada por una
situación de mezcla entre componentes progresiva, a intervalos de abundancia muy cortos. A
diferencia de las anteriores imágenes, los cambios en la abundancia en las regiones que
componen esta imagen son muy sutiles. En total, hay 100 regiones de 1 pixel de ancho y 100
pixels de alto. La abundancia del componente suelo decrece de forma lineal de izquierda a
derecha, mientras que la abundancia del componente vegetación crece de izquierda a derecha.
100
100
Asignación de abundancias
i / 1001 – (i / 100)Ri
VegetaciónSueloRegión
Asignación de abundancias
i / 1001 – (i / 100)Ri
VegetaciónSueloRegión
1 1
. . . . . . . . . . . . . . . . .
R1
R100
R2
R99
1 1
Figura 4.2.9. Regiones y tabla de asignación de abundancias para imagen_simulada_4.
La figura 4.2.9 ilustra el proceso de construcción de esta imagen sintética, que proporciona
un conjunto de datos muy apropiado para analizar el proceso de estimación de abundancias
realizado por el algoritmo. Este hecho se debe, fundamentalmente, a la complicada situación de
mezcla representada en la imagen.
- 172 - Capítulo 4. Análisis y Discusión de resultados.
4.2.3. Experimentos realizados con imágenes sintéticas
En este apartado describimos los resultados obtenidos en los experimentos realizados con
imágenes sintéticas. Los objetivos de los experimentos realizados son los que se describen a
continuación:
1.- Primer experimento. Evalúa la capacidad del algoritmo para discriminar entre pixels
puros y pixels mezcla. La realización de este experimento se justifica en base a que la
identificación de pixels puros es el primer paso realizado por el algoritmo; el proceso
de selección de endmembers y, por consiguiente, el de estimación de abundancias, va
a depender en gran medida de la precisión con la que se ejecuta este primer paso, que
vendrá condicionado por los parámetros de entrada del algoritmo.
2.- Segundo experimento. Analiza la calidad de los endmembers extraídos. El análisis de
la similitud espectral entre los endmembers seleccionados por el algoritmo y las firmas
originales utilizadas en la generación de las imágenes resulta crucial a la hora de
contrastar cómo afecta el proceso de simulación de ruido al proceso de selección de
endmembers, los cuales serán utilizados posteriormente para estimar abundancias.
3.- Tercer experimento. Determina el grado de exactitud del algoritmo a la hora de
estimar la abundancia de los endmembers seleccionados. Una de las técnicas más
ampliamente utilizadas en la literatura para evaluar la calidad de un conjunto de
endmembers consiste en comparar los coeficientes obtenidos al calcular la abundancia
de los mismos en la imagen original con los coeficientes abundancias reales
(Ifarraguerri y Chang, 2000). Este paso no siempre puede realizarse debido a que la
información de verdad terreno relacionada con la abundancia real de componentes
resulta muy difícil de obtener, a no ser que se trabaje con imágenes sintéticas. En
nuestro caso, la simplicidad a la hora de obtener mapas de abundancia verdad terreno
a partir de las imágenes simuladas anteriormente descritas posibilita la realización de
este experimento.
4.- Cuarto experimento. Evalúa las prestaciones de nuestro algoritmo en la tarea de
detección de objetos individuales o targets en imágenes sintéticas. Una de las
aplicaciones más interesantes de la identificación de endmembers consiste en utilizar
las firmas espectrales obtenidas para reconocer la posición de ciertos objetos
individuales en la escena (ver apartado 2.3.2.1). El proceso de detección de targets
puede plantearse como un caso particular de la identificación de endmembers, siendo
los targets los elementos espectralmente más puros.
Capítulo 4. Análisis y Discusión de resultados. - 173 -
4.2.3.1. Primer experimento: detección de pixels puros y pixels mezcla.
El objetivo general de este primer experimento es analizar la precisión del algoritmo a la
hora de identificar los pixels puros de la imagen. Los elementos estudiados son los siguientes:
Tamaño del elemento estructural utilizado (parámetro del algoritmo).
Relación SNR presente en los datos.
Complejidad computacional.
Tipo de mezcla lineal entre componentes (abrupta/progresiva).
Uso de datos de radiancia/reflectancia.
Para abordar la evaluación de estos parámetros se han realizado diferentes pruebas, que se
detallan a continuación.
Primera prueba
La primera prueba realizada tiene como objetivo analizar la influencia del tamaño del
elemento estructural utilizado en el proceso de detección de pixels puros (ver apartado 3.2.2.1).
Con objeto de evaluar este parámetro de entrada de forma independiente, aplicaremos el
algoritmo sobre la imagen_simulada_1 (mezcla abrupta) y la imagen_simulada_2 (mezcla
progresiva), utilizando elementos estructurales de diferente tamaño. De forma paralela a la
realización de esta prueba, realizaremos algunas consideraciones acerca de la complejidad
computacional de los algoritmos cuando se utilizan diferentes tamaños de ventana. En ambos
casos, se consideran las imágenes obtenidas a partir de datos de radiancia y reflectancia para
comprobar así el efecto de ambas opciones en el resultado proporcionado por el algoritmo.
Análisis de imagen_simulada_1 en unidades de radiancia y reflectancia.
Inicialmente, consideramos la imagen_simulada_1 en unidades de radiancia y reflectancia.
Sobre esta imagen aplicamos la fase de identificación de pixels puros, contenida en el algoritmo
propuesto, utilizando un kernel cuadrado cuyo tamaño varía entre 5x5 y 25x25 pixels. La
relación SNR se fija a un valor constante de 30:1. En cada caso, se obtiene una imagen en ND’s
que indica el índice de pureza de cada pixel.
En la parte superior de la figura 4.2.10 se muestran las imágenes de pureza obtenidas para la
imagen_simulada_1 en unidades de radiancia, mientras que la parte intermedia muestra las
imágenes de pureza para la imagen_simulada_1 en unidades de reflectancia. Para cada una de
- 174 - Capítulo 4. Análisis y Discusión de resultados.
las imágenes de pureza mencionadas, se ha construido una curva ROC utilizando un conjunto de
valores umbrales equidistantes entre el ND más bajo y el ND más alto, y se ha estimado el área
bajo la curva. La parte inferior de la figura 4.2.10 muestra el área total bajo las curvas ROC
antes mencionadas.
Los resultados obtenidos para la imagen de radiancia y reflectancia indican que el mejor
rendimiento del algoritmo se obtiene cuando se utiliza un elemento estructural cuyo tamaño
varía entre 11x11 pixels y 20x20 pixels, disminuyendo claramente el rendimiento cuando el
tamaño del elemento estructural se encuentra fuera de este rango.
Cuando se utilizan elementos estructurales de tamaño inferior a 11x11 pixels, el descenso en
el rendimiento se debe a situaciones en las que el kernel aparece totalmente incluido en una
región, caso en el que no se puede realizar una estimación correcta del grado de pureza de los
pixels al no disponer de suficientes muestras para realizar la comparación. Esta circunstancia
aparece ilustrada mediante un sencillo ejemplo en la figura 4.2.11, en la que se ilustran algunos
casos de estimación correcta y estimación errónea del grado de pureza de ciertos pixels de la
imagen. En el ejemplo, se han considerado dos tamaños de ventana: 9x9 y 11x11 pixels.
A partir de las circunstancias antes mencionadas, el tamaño de ventana óptimo para la
imagen_simulada_1 está comprendido entre 11x11 y 20x20 pixels. Para seleccionar el tamaño
más apropiado en este rango, procedemos a realizar un estudio detallado de la relación entre la
complejidad computacional del algoritmo y la precisión con que se calculan los resultados al
considerar los valores antes referidos.
Computacionalmente, podemos expresar el coste de aplicar el algoritmo con una ventana
cuadrada de dimensiones KxK como T(MxLxK2xN), donde M es el número de muestras de la
imagen, L es el número de líneas y N es el número de bandas. Dentro de cada vecindad de KxK
elementos, expresados como vectores formados por tantos valores como bandas, se realiza la
comparación de cada elemento con el centroide utilizando la distancia angular. Esta distancia
lleva implícito un producto entre dos vectores de N componentes. Hechas estas consideraciones,
la tabla 4.2.1 muestra el número de productos realizados al aplicar el proceso de identificación
de pixels puros considerando tamaños de ventana de 11x11 y 20x20 pixels.
Por otra parte, el uso de elementos estructurales de tamaño mayor que 20x20 pixels en la
figura 4.2.10 viene motivado por la situación descrita en la figura 4.2.12: al estimarse
únicamente el índice de pureza de un endmember en cada ventana, la existencia de dos
componentes puros en la ventana hace que uno de ellos se pierda, por lo que se produce un error
en la estimación del grado de pureza de uno de los componentes.
Capítulo 4. Análisis y Discusión de resultados. - 175 -
Rad. 19x19Rad. 11x11
Ref. 19x19Ref. 11x11
Rad. 21x21
Ref. 21x21
Rad. 5x5
Ref. 5x5
Rad. 25x25
Ref. 25x25
85
96 96
61 61
79
94 93
6057
50
60
70
80
90
100
5 7 9 11 13 15 17 19 21 23 25
Tamaño del kernel
Are
a ba
jo la
cur
va R
OC
(%
)
Radiancia
Reflectancia
Figura 4.2.10. Imágenes resultantes obtenidas al procesar, utilizando diferentes tamaños de ventana,
la imagen_simulada_1 en unidades de radiancia (parte superior) y reflectancia (parte intermedia).
Área bajo la curva ROC en cada caso (parte inferior).
40
60
20 40
60
20
Kernel9x9 pixels
ESTIMACIÓNINCORRECTA
ESTIMACIÓNCORRECTA
ESTIMACIÓN INCORRECTA
ESTIMACIÓNCORRECTA
Kernel11x11 pixels
R1
R2
R3
R1
R2
R3
10
10
10
10
Figura 4.2.11. Ejemplo ilustrativo de la influencia del tamaño y forma del elemento estructural
utilizado en el proceso de identificación de pixels puros.
- 176 - Capítulo 4. Análisis y Discusión de resultados.
40
60
20
ESTIMACIÓNINCORRECTA
ESTIMACIÓNCORRECTA
Kernel21x21 pixels
R1
R2
R3
10
Figura 4.2.12. Desventajas de utilizar un elemento estructural grande en el proceso de identificación
de pixels puros.
Podemos expresar la mejora en el rendimiento o speed-up como el ratio en el que el coste
computacional del algoritmo mejora al considerar una implementación optimizada del mismo
(Harvey y col., 2002). En nuestro caso, el ratio de mejora al considerar un tamaño de ventana de
11x11 pixels con respecto al caso en el que el tamaño de ventana es de 20x20 pixels es
aproximadamente de 3:1, según los datos relativos al número de operaciones que se muestran en
la tabla 4.2.1. Este hecho revela que la complejidad computacional del algoritmo crece a medida
que el tamaño de los elementos estructurales utilizados es mayor. Por tanto, en el ejemplo que
nos ocupa, el elemento estructural de 11x11 pixels resulta más apropiado que el de 20x20 pixels,
pues permite obtener un resultado de clasificación muy similar (ver figura 4.2.10) con una
complejidad de cálculo menor.
Tamaño ventana Complejidad (número de productos)
11x11 60x60x112x224 = 97.5 x 106
20x20 60x60x202x224 = 322.5 x 106
TABLA 4.2.1. NÚMERO DE PRODUCTOS REALIZADOS AL PROCESAR LA IMAGEN_SIMULADA_1 CON
DIFERENTES TAMAÑOS DE VENTANA.
Finalmente, conviene destacar que el uso de datos de radiancia/reflectancia no tiene un
impacto significativo sobre la salida del algoritmo. Esta afirmación se fundamenta en los
siguientes resultados: por un lado, las imágenes de pureza mostradas en la parte superior e
intermedia de la figura 4.2.10 son muy similares en el caso de considerar datos de radiancia y
reflectancia. Por otra parte, las curvas de precisión (área bajo la curva ROC), mostradas en la
parte inferior de dicha figura, presentan una tendencia muy similar en ambos casos.
Capítulo 4. Análisis y Discusión de resultados. - 177 -
Análisis de imagen_simulada_2 en unidades de radiancia y reflectancia.
En este apartado describimos un experimento similar al anteriormente descrito, utilizando
ahora la imagen_simulada_2. En el presente experimento, variamos el tamaño del elemento
estructural entre 11x11 y 51x51 pixels. De nuevo, la precisión del algoritmo en la identificación
de pixels puros se determina a partir de la construcción de curvas ROC para cada imagen de
pureza, seguida de una estimación del área bajo cada una de las curvas resultantes. La parte
superior de la figura 4.2.13 muestra las imágenes de pureza obtenidas para la
imagen_simulada_2 en unidades de radiancia; la parte intermedia muestra las imágenes de
pureza para la imagen_simulada_2 en unidades de reflectancia; la parte inferior muestra el área
estimada bajo la curva ROC asociada a las imágenes de pureza antes mencionadas.
Rad. 11x11 Rad. 21x21 Rad. 31x31 Rad. 41x41
Ref. 11x11 Ref. 21x21 Ref. 31x31 Ref. 41x41
Rad. 51x51
Ref. 51x51
9395
98 100
73
94 9496
100
71
50
60
70
80
90
100
11 21 31 41 51
Tamaño del kernel
Are
a ba
jo la
cur
va R
OC
(%
)
Radiancia Reflectancia
Figura 4.2.13. Imágenes resultantes obtenidas al procesar, utilizando diferentes tamaños de ventana,
la imagen_simulada_3 en unidades de radiancia (parte superior) y reflectancia (parte intermedia).
Área bajo la curva ROC en cada caso (parte inferior).
Los resultados obtenidos en este experimento reflejan una serie de circunstancias que
conviene resaltar:
- 178 - Capítulo 4. Análisis y Discusión de resultados.
Cuando se utilizan elementos estructurales de 11x11 pixels, a pesar de que las zonas
con espectros puros (regiones R1 y R6) presentan índice de pureza superior al resto de
regiones, las zonas con mezclas (regiones R2, R3, R4 y R5) presentan también índice de
pureza alto, como puede apreciarse en las imágenes de pureza resultantes. Esto se
debe a que el tamaño de kernel no es lo suficientemente grande para albergar muestras
de todas las posibles mezclas, con lo que el índice de pureza de ciertos pixels puede
ser sobreestimado.
El resultado obtenido al utilizar elementos estructurales de 41x41 pixels es óptimo,
tanto en datos de radiancia como en datos de reflectancia. No obstante, la curva de
precisión mostrada en la parte inferior de la figura 4.2.13 revela que los problemas de
sobreestimación del índice de pureza al utilizar kernels de 11x11 pixels no son
demasiado significativos en términos de rendimiento general.
Para corroborar las anteriores afirmaciones, la figura 4.2.14 muestra las curvas ROC
asociadas a las imágenes de pureza obtenidas utilizando elementos estructurales de 11x11 pixels
(parte izquierda) y de 41x41 pixels (parte derecha) para procesar la imagen_simulada_2 en
unidades de radiancia (el resultado obtenido para la imagen en unidades de reflectancia es
equivalente). En ambos casos, la curva ROC presenta un punto en el que el compromiso entre
verdaderos positivos y falsos positivos es apropiado. La imagen correspondiente a este punto
óptimo se ha resaltado en la figura, revelando gran similaridad con la verdad terreno (parte
inferior).
0
0,2
0,4
0,6
0,8
1
0 0,2 0,4 0,6 0,8 1
Verdaderos positivos (%)
Fal
sos
pos
itiv
os (
%)
Area bajo la curva ROC = 100%
0
0,2
0,4
0,6
0,8
1
0 0,2 0,4 0,6 0,8 1
Verdaderos positivos (%)
Fal
sos
pos
itiv
os (
%)
Area bajo la curva ROC = 93 %
Curva ROC (Rad. 11x11) Curva ROC (Rad. 41x41)
Verdad terreno
Figura 4.2.14. Curvas ROC asociadas a las imágenes de pureza obtenidas al procesar la
imagen_simulada_2 en unidades de radiancia, utilizando elementos estructurales de 11x11 pixels
(parte izquierda) y 41x41 pixels (parte derecha). Imagen de verdad terreno indicando en blanco los
pixels puros y en negro los pixels mezcla.
Capítulo 4. Análisis y Discusión de resultados. - 179 -
El uso de un tamaño de ventana superior o igual a 51x51 deriva en un claro descenso en la
precisión del algoritmo (ver figura 4.2.13). Este hecho se debe a que, en este caso, siempre
habrá dentro del elemento estructural dos materiales puros y el índice de pureza de uno de ellos
se desestima debido a que solamente se selecciona un endmember por elemento estructural.
A partir de las circunstancias antes mencionadas, podemos deducir que el tamaño de ventana
óptimo para esta imagen es de 41x41 pixels. No obstante, un estudio detallado de la relación
entre la complejidad computacional del algoritmo y la precisión con que se calculan los
resultados revela que el tamaño de 11x11 pixels es el más adecuado. La tabla 4.2.2 muestra el
coste computacional expresado en número de productos al considerar los dos tamaños de
ventana mencionados.
Tamaño de ventana Complejidad (número de productos)
11x11 602x112x224 = 97.5 x 106
41x41 602x412x224 = 1355.5 x 106
TABLA 4.2.2. NÚMERO DE PRODUCTOS REALIZADOS AL PROCESAR LA IMAGEN_SIMULADA_2 CON
DIFERENTES TAMAÑOS DE VENTANA.
El speed-up al utilizar un tamaño de ventana de 11x11 pixels es aproximadamente de 14:1,
según los datos mostrados en la tabla 4.2.2. El elemento estructural de 11x11 pixels resulta por
tanto más apropiado que el de 41x41 pixels, pues permite obtener resultados con precisión del
93% con una complejidad de cálculo 14 veces más reducida. De nuevo, el uso de datos de
radiancia o reflectancia no resulta un parámetro significativo para el procesamiento de la
imagen_simulada_2 mediante el algoritmo propuesto.
Segunda prueba
En la segunda prueba realizada dentro de este primer experimento pretendemos estudiar la
influencia de la relación SNR sobre el proceso de detección de pixels puros. Este parámetro se
analiza de forma independiente, manteniendo constante el tamaño del elemento estructural
utilizado y variando la relación SNR utilizada al generar las imágenes (ver expresión 2.3.3). De
nuevo, consideramos la imagen_simulada_1 y la imagen_simulada_2. En ambos casos,
consideramos las imágenes obtenidas a partir de datos de radiancia y reflectancia para
comprobar así el efecto de ambas opciones en el resultado proporcionado por el algoritmo.
- 180 - Capítulo 4. Análisis y Discusión de resultados.
Rad. SNR=10 Rad. SNR=30 Rad. SNR=50 Rad. SNR=70 Rad. SNR=90
Ref. SNR=10 Ref. SNR=30 Ref. SNR=50 Ref. SNR=70 Ref. SNR=90
62
96 96 96 97
60
93 94 9496
40
60
80
100
10 30 50 70 90
SNR
Are
a ba
jo la
cur
va R
OC
(%
)
Radiancia Reflectancia
Figura 4.2.15. Imágenes resultantes obtenidas al procesar, utilizando un tamaño de ventana de
11x11 pixels y diferentes valores de SNR, la imagen_simulada_1 en unidades de radiancia
(parte superior) y reflectancia (parte intermedia). Área bajo la curva ROC en cada caso (parte
inferior).
Análisis de imagen_simulada_1 en unidades de radiancia y reflectancia.
En primer lugar consideramos la imagen_simulada_1. La figura 4.2.15 muestra las imágenes
de pureza obtenidas al procesar dicha imagen en unidades de radiancia (parte superior) y en
unidades de reflectancia (parte intermedia), así como la variación en la precisión del algoritmo
cuando se consideran valores de la relación SNR entre 10:1 y 90:1 (parte inferior). En todos los
casos, se ha considerado un tamaño de kernel fijo de 11x11 pixels (tamaño que se reveló en la
prueba anterior como el más apropiado para esta imagen).
Los resultados mostrados en la figura 4.2.15 ponen de manifiesto que la estimación de la
pureza de los pixels desciende cuando la relación SNR es de 10:1. No obstante, a pesar de las
ínfimas condiciones de calidad de las imágenes simuladas en este caso, el algoritmo propuesto
alcanza porcentajes de precisión superiores al 60%. Por otra parte, cuando la relación SNR es de
30:1, la precisión asciende hasta niveles superiores al 90%, los que se mantienen para valores
superiores de la relación SNR.
Capítulo 4. Análisis y Discusión de resultados. - 181 -
Rad. SNR=10 Rad. SNR=30 Rad. SNR=50 Rad. SNR=70 Rad. SNR=90
Ref. SNR=10 Ref. SNR=30 Ref. SNR=50 Ref. SNR=70 Ref. SNR=90
76
9295
97 98
78
9094 95 96
40
60
80
100
10 30 50 70 90
SNR
Are
a ba
jo la
cur
va R
OC
(%
)
Radiancia Reflectancia
Figura 4.2.16. Imágenes resultantes obtenidas al procesar, utilizando un tamaño de ventana de
11x11 pixels y diferentes valores de SNR, la imagen_simulada_3 en unidades de radiancia (parte
superior) y reflectancia (parte intermedia). Área bajo la curva ROC en cada caso (parte inferior).
Análisis de imagen_simulada_2 en unidades de radiancia y reflectancia.
En segundo lugar, consideramos la imagen_simulada_2. La figura 4.2.16 muestra las
imágenes de pureza obtenidas al procesar dicha imagen en unidades de radiancia (parte
superior) y en unidades de reflectancia (parte intermedia), así como la variación en la precisión
del algoritmo cuando se consideran valores de la relación SNR entre 10:1 y 90:1 (parte inferior).
De nuevo, se ha considerado un tamaño de kernel fijo de 11x11 pixels, por tratarse del más
apropiado para la imagen a partir de los resultados de la prueba anterior.
Los resultados obtenidos para esta imagen revelan que, aún en presencia de condiciones de
ruido extremas (SNR de 10:1), el algoritmo alcanza niveles de precisión superiores al 75% tanto
en el caso de la imagen de radiancia como al utilizar datos de reflectancia. Los niveles de
precisión se sitúan, en ambos casos, por encima del 90% cuando la relación SNR se incrementa
hasta 30:1, y llegando hasta un 98% cuando la SNR es de 90:1.
- 182 - Capítulo 4. Análisis y Discusión de resultados.
A modo de resumen de este primer experimento realizado, enumeramos una serie de
valoraciones que serán tenidas en cuenta en pruebas posteriores:
Las características espaciales (forma y tamaño) del elemento estructural empleado
y la relación de las mismas con las características espaciales de los patrones en la
imagen son elementos clave en el proceso de identificación de pixels puros. Las
pruebas realizadas revelan que el tamaño de ventana óptimo para la
imagen_simulada_1 y la imagen_simulada_2 es de 11x11 pixels.
Aún en presencia de condiciones de ruido extremas, el algoritmo propuesto es
capaz de alcanzar niveles de precisión aceptables (entre el 60% y el 75%) a la hora
de estimar el índice de pureza de los pixels.
A medida que los valores de la relación SNR se incrementan, la precisión del
algoritmo aumenta de forma considerable. A partir de ratios de 30:1, considerados
muy bajos en la mayoría de las aplicaciones, la precisión del algoritmo se sitúa por
encima del 90%.
La complejidad computacional del método propuesto está en relación directa con
el tamaño de los elementos estructurales utilizados, siendo clave la necesidad de
encontrar un compromiso adecuado entre coste computacional y precisión
obtenida. Los elevados niveles de precisión alcanzados hacen viable la utilización
de elementos estructurales de tamaño reducido, favoreciendo un descenso
considerable en el coste computacional del método.
Los resultados proporcionados son igualmente satisfactorios al considerar mezclas
abruptas (imagen_simulada_1) y progresivas (imagen_simulada_2).
Por último, el uso de datos de radiancia/reflectancia no tiene un impacto
significativo en el rendimiento del algoritmo a la hora de estimar el índice de
pureza de los pixels de la imagen.
4.2.3.2. Segundo experimento: identificación de endmembers.
El objetivo general de este segundo experimento es analizar la precisión del algoritmo a la
hora de identificar los endmembers de la imagen. Los elementos estudiados son los siguientes:
Mecanismos de extracción de endmembers.
Relación SNR presente en los datos.
Tipo de mezcla lineal entre componentes (abrupta/progresiva).
Capítulo 4. Análisis y Discusión de resultados. - 183 -
Uso de datos de radiancia/reflectancia.
Las pruebas realizadas en este apartado tienen como objetivo determinar la similaridad entre
los endmembers finales identificados por el algoritmo (ver apartado 3.2.2.5) y las firmas
espectrales puras utilizadas para generar las imágenes. Para ello, utilizamos dos imágenes
caracterizadas por situaciones de mezcla diferentes, siendo imagen_simulada_1 un ejemplo de
mezcla abrupta e imagen_simulada_2 un ejemplo de mezcla progresiva.
El proceso de selección de endmembers comienza a partir de una imagen de pureza
proporcionada por el algoritmo (en el anterior experimento, evaluamos en detalle la capacidad
del algoritmo para estimar el grado de pureza de los pixels utilizando las mismas imágenes
sintéticas que serán empleadas en este experimento). Sobre la imagen de pureza, se aplica un
método de umbralizado automático que permite extraer un conjunto de pixels puros. Utilizando
estos pixels, el conjunto final de endmembers puede obtenerse mediante los mecanismos MEPP
y MECR (ver apartado 3.2.2.3).
Seguidamente, presentamos el conjunto de pruebas realizadas, que tienen como objetivo
fundamental evaluar los dos mecanismos de extracción de endmembers anteriormente
mencionados. De forma paralela a la realización de estas pruebas, analizamos la influencia del
ruido presente en la imagen original y del uso imágenes generadas a partir de datos de radiancia
o reflectancia. La pruebas se estructuran en dos grandes bloques, que se describen a
continuación.
Primera prueba
En esta primera prueba consideramos el mecanismo de extracción de endmembers
denominado como MEPP (ver apartado 3.2.2.3). Los experimentos realizados se detallan a
continuación.
Análisis de imagen_simulada_1 en unidades de radiancia.
Inicialmente, consideramos la imagen_simulada_1 generada a partir de datos de radiancia.
Esta escena se contamina con ruido en proporciones variables, dando lugar a diferentes valores
de la relación SNR, en concreto, 10:1, 30:1 y 50:1. A partir de cada una de las imágenes
resultantes, realizamos una estimación del índice de pureza de los pixels de la imagen utilizando
el tamaño de ventana óptimo (11x11 pixels, como quedó establecido en el experimento
anterior). Este tamaño será considerado en todas las pruebas realizadas con la
- 184 - Capítulo 4. Análisis y Discusión de resultados.
imagen_simulada_1 a partir de este momento. El conjunto final de endmembers se obtiene a
partir de la imagen de pureza mediante el mecanismo MEPP.
En la figura 4.2.17 se muestran los endmembers extraídos siguiendo el anterior
procedimiento junto con las firmas originales (vegetación y suelo) empleadas para generar la
imagen. En todos los casos, el algoritmo selecciona dos endmembers, que se etiquetan como
MEPP_1 y MEPP_2.
0
2000
4000
6000
8000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Rad
ian
cia
(μW
/cm
2 /n
m/
sr)
MEPP_1MEPP_2
0
3000
6000
9000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Rad
ian
cia
(μW
/cm
2 /n
m/
sr)
MEPP_1MEPP_2
0
2000
4000
6000
8000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Rad
ian
cia
(μW
/cm
2 /n
m/
sr)
MEPP_1MEPP_2
0
2000
4000
6000
8000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Rad
ian
cia
(μW
/cm
2 /n
m/
sr)
VegetaciónSuelo
Firmas espectrales originales
endmembers (SNR=10:1) endmembers (SNR=30:1) endmembers (SNR=50:1)
Figura 4.2.17. Firmas espectrales originales y endmembers extraídos según el mecanismo MEPP a
partir de imagen_simulada_1 en unidades de radiancia, generada utilizando diferentes valores de
SNR (parte inferior).
La figura 4.2.17 pone de manifiesto el gran impacto de la relación SNR en la forma espectral
de las firmas extraídas por el mecanismo MEPP. Los endmembers seleccionados para cada valor
de SNR pueden compararse visualmente con las firmas espectrales originales de vegetación y
suelo utilizadas para generar la imagen, dando así una idea de la gran distorsión que puede
introducir el componente ruidoso en los espectros de la imagen. Este hecho no debe
sorprendernos, puesto que el mecanismo MEPP de selección de endmembers se basa en la
búsqueda de los pixels más extremos de la nube de puntos. Este método es intrínsecamente
sensible al ruido, dado que hay una alta probabilidad de encontrar firmas ruidosas que sean más
extremas que los endmembers.
La tabla 4.2.3 muestra la matriz de correlación de ángulos espectrales (SAM) entre las
firmas extraídas (utilizando diferentes valores de SNR) y las firmas verdad terreno. En dicha
matriz, cuanto menor es el valor del ángulo espectral, mayor es la similaridad. A la hora de
analizar los resultados mostrados en la tabla 4.2.3, debemos tener en cuenta que en este
experimento estamos trabajando con datos simulados, en los cuales la simulación de
Capítulo 4. Análisis y Discusión de resultados. - 185 -
contribuciones ruidosas de la atmósfera sigue un modelo muy simple. A pesar de que la tabla
pone de manifiesto una cierta mejora cuando la relación SNR es de 30:1 o superior, los valores
de similaridad obtenidos por el mecanismo MEPP son bajos en términos generales.
SNR = 10:1 SNR = 30:1 SNR = 50:1
MEPP_1 MEPP_2 MEPP_1 MEPP_2 MEPP_1 MEPP_2
Vegetación 0.161 0.534 0.072 0.498 0.038 0.496
Suelo 0.547 0.169 0.497 0.059 0.493 0.036
TABLA 4.2.3. MATRIZ SAM ENTRE ENDMEMBERS EXTRAÍDOS SEGÚN EL MECANISMO MEPP A PARTIR
DE IMAGEN_SIMULADA_1 (UNIDADES DE RADIANCIA) Y FIRMAS ORIGINALES.
0
2000
4000
6000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Ref
lect
anci
a (%
*100
)
MEPP_1MEPP_2
0
2000
4000
6000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Ref
lect
anci
a (%
*100
)
MEPP_1MEPP_2
0
2000
4000
6000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Ref
lect
anci
a (%
*100
)
MEPP_1MEPP_2
0
2000
4000
6000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Ref
lect
anci
a (%
*100
)
VegetaciónSuelo
Firmas espectrales originales
endmembers (SNR=10:1) endmembers (SNR=30:1) endmembers (SNR=50:1)
Figura 4.2.18. Firmas espectrales originales y endmembers extraídos según el mecanismo MEPP a
partir de imagen_simulada_1 en unidades de reflectancia, generada utilizando diferentes valores de
SNR (parte inferior).
Análisis de imagen_simulada_1 en unidades de reflectancia.
Consideramos ahora la imagen_simulada_1 en unidades de reflectancia. La figura 4.2.18
muestra las firmas originales utilizadas en la generación de esta imagen y los endmembers
extraídos siguiendo el procedimiento MEPP para dicha imagen, considerando valores de la
relación SNR de 10:1, 30:1 y 50:1. La figura pone de manifiesto la influencia de la relación
SNR en la forma espectral de las firmas obtenidas según este mecanismo de selección de
endmembers.
- 186 - Capítulo 4. Análisis y Discusión de resultados.
La tabla 4.2.4 revela que, al igual que ocurría con los datos de radiancia, la similaridad
espectral entre los endmembers extraídos por el método MEPP y sus correspondientes firmas
originales es baja para valores de SNR inferiores a 30:1.
SNR = 10:1 SNR = 30:1 SNR = 50:1
MEPP_1 MEPP_2 MEPP_1 MEPP_2 MEPP_1 MEPP_2
Vegetación 0.177 0.713 0.062 0.712 0.039 0.712
Suelo 0.735 0.201 0.709 0.065 0.708 0.038
TABLA 4.2.4. MATRIZ SAM ENTRE ENDMEMBERS EXTRAÍDOS SEGÚN EL MECANISMO MEPP A PARTIR
DE IMAGEN_SIMULADA_1 (UNIDADES DE REFLECTANCIA) Y FIRMAS ORIGINALES.
Análisis de imagen_simulada_2 en unidades de radiancia.
Repetimos el experimento anterior para la imagen_simulada_2, generada a partir de datos de
radiancia y contaminada con ruido en diferentes proporciones hasta llegar a valores de SNR de
10:1, 30:1 y 50:1. A partir de cada una de las imágenes resultantes, realizamos una estimación
del índice de pureza de los pixels de la imagen utilizando el tamaño de ventana óptimo (11x11
pixels, en virtud del experimento anterior, tamaño que será considerado a partir de ahora en
todas las pruebas realizadas con la imagen_simulada_2). El conjunto final de endmembers se
obtiene a partir de la imagen de pureza mediante el método MEPP.
0
2000
4000
6000
8000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Rad
ian
cia
(μW
/cm
2 /n
m/
sr)
MEPP_1MEPP_2
0
3000
6000
9000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Rad
ian
cia
(μW
/cm
2 /n
m/
sr)
MEPP_1MEPP_2
0
2000
4000
6000
8000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Rad
ian
cia
(μW
/cm
2 /n
m/
sr)
MEPP_1MEPP_2
0
2000
4000
6000
8000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Rad
ian
cia
(μW
/cm
2 /n
m/
sr)
VegetaciónSuelo
Firmas espectrales originales
endmembers (SNR=10:1) endmembers (SNR=30:1) endmembers (SNR=50:1)
Figura 4.2.19. Firmas espectrales originales y endmembers extraídos según el mecanismo MEPP a
partir de imagen_simulada_2 en unidades de radiancia, generada utilizando diferentes valores de
SNR (parte inferior).
Capítulo 4. Análisis y Discusión de resultados. - 187 -
SNR = 10:1 SNR = 30:1 SNR = 50:1
MEPP_1 MEPP_2 MEPP_1 MEPP_2 MEPP_1 MEPP_2
Vegetación 0.169 0.514 0.079 0.423 0.044 0.416
Suelo 0.517 0.178 0.437 0.069 0.487 0.049
TABLA 4.2.5. MATRIZ SAM ENTRE ENDMEMBERS EXTRAÍDOS SEGÚN EL MECANISMO MEPP A PARTIR
DE IMAGEN_SIMULADA_2 (UNIDADES DE RADIANCIA) Y FIRMAS ORIGINALES.
La figura 4.2.19 muestra las firmas originales utilizadas en la generación de esta imagen y
los endmembers extraídos siguiendo el procedimiento MEPP para dicha imagen, considerando
valores de la relación SNR de 10:1, 30:1 y 50:1.
Por su parte, la tabla 4.2.5 revela que los valores de similaridad entre los endmembers
extraídos por el procedimiento MEPP y las firmas espectrales originales son reducidos para
valores de SNR por debajo de 30:1.
Análisis de imagen_simulada_2 en unidades de reflectancia.
Realizamos de nuevo el experimento, considerando ahora la imagen_simulada_2 en
unidades de reflectancia. En la figura 4.2.20 se muestran las firmas originales utilizadas en la
generación de esta imagen y los endmembers extraídos siguiendo el procedimiento MEPP,
considerando los valores habituales de SNR de 10:1, 30:1 y 50:1.
0
2000
4000
6000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Ref
lect
anci
a (%
*100
)
MEPP_1MEPP_2
0
2000
4000
6000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Ref
lect
anci
a (%
*100
)
MEPP_1MEPP_2
0
2000
4000
6000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Ref
lect
anci
a (%
*100
)
MEPP_1MEPP_2
0
2000
4000
6000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Ref
lect
anci
a (%
*100
)
VegetaciónSuelo
Firmas espectrales originales
endmembers (SNR=10:1) endmembers (SNR=30:1) endmembers (SNR=50:1)
Figura 4.2.20. Firmas espectrales originales y endmembers extraídos según el mecanismo MEPP a
partir de imagen_simulada_2 en unidades de reflectancia, generada utilizando diferentes valores de
SNR (parte inferior).
- 188 - Capítulo 4. Análisis y Discusión de resultados.
SNR = 10:1 SNR = 30:1 SNR = 50:1
MEPP_1 MEPP_2 MEPP_1 MEPP_2 MEPP_1 MEPP_2
Vegetación 0.193 0.631 0.051 0.745 0.047 0.721
Suelo 0.682 0.219 0.698 0.069 0.718 0.051
TABLA 4.2.6. MATRIZ SAM ENTRE ENDMEMBERS EXTRAÍDOS SEGÚN EL MECANISMO MEPP A PARTIR
DE IMAGEN_SIMULADA_2 (UNIDADES DE REFLECTANCIA) Y FIRMAS ORIGINALES.
La tabla 4.2.6 pone de manifiesto que los valores de similaridad entre los endmembers
extraídos por el procedimiento MEPP y las firmas espectrales originales son reducidos para
valores de SNR por debajo de 30:1. Además, no se aprecian diferencias notables al considerar
datos de radiancia y reflectancia.
Segunda prueba
En esta segunda prueba evaluamos el mecanismo de extracción de endmembers denominado
MECR (ver apartado 3.2.2.3). A continuación, detallamos los experimentos realizados.
Análisis de imagen_simulada_1 en unidades de radiancia.
Consideramos la imagen_simulada_1, generada a partir de datos de radiancia y contaminada
con ruido en diferentes proporciones hasta llegar a valores de SNR de 10:1, 30:1 y 50:1. A
continuación, se estima el índice de pureza de los pixels de la imagen y se aplica un proceso de
identificación de endmembers utilizando el mecanismo MECR, en el que el resultado obtenido
se refina mediante un proceso de crecimiento de regiones adaptativo.
La figura 4.2.21 muestra las regiones finales obtenidas tras aplicar el proceso de crecimiento
adaptativo MECR y los endmembers que se obtienen a partir del cálculo del espectro promedio
en dichas regiones. Como puede apreciarse en la figura, a medida que la SNR aumenta, el
proceso de crecimiento es mucho más preciso. En todos los casos, los endmembers finales
obtenidos son muy similares en términos espectrales a las firmas originales utilizadas para
construir la imagen, las cuales se muestran también en la figura 4.2.21 para facilitar una
comparación visual.
Capítulo 4. Análisis y Discusión de resultados. - 189 -
0
2000
4000
6000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Rad
ian
cia
(μW
/cm
2 /n
m/
sr)
MECR_1MECR_2
0
2000
4000
6000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Rad
ian
cia
(μW
/cm
2 /n
m/
sr)
MECR_1MECR_2
0
2000
4000
6000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Rad
ian
cia
(μW
/cm
2 /n
m/
sr)
MECR_1MECR_2
endmembers (SNR=10:1)
endmembers (SNR=30:1) endmembers (SNR=50:1)
0
2000
4000
6000
8000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Rad
ian
cia
(μW
/cm
2 /n
m/
sr)
VegetaciónSuelo
Firmas espectrales originales
Figura 4.2.21. Firmas espectrales originales y endmembers extraídos según procedimiento MECR a
partir de imagen_simulada_1 en unidades de radiancia, generada utilizando diferentes valores de
SNR.
SNR = 10:1 SNR = 30:1 SNR = 50:1
MECR_1 MECR_2 MECR_1 MECR_2 MECR_1 MECR_2
Vegetación 0.007 0.486 0.003 0.481 0.001 0.481
Suelo 0.483 0.006 0.479 0.002 0.478 0.001
TABLA 4.2.7. MATRIZ SAM ENTRE ENDMEMBERS EXTRAÍDOS A PARTIR DE IMAGEN_SIMULADA_1
(UNIDADES DE RADIANCIA) Y FIRMAS ORIGINALES.
La tabla 4.2.7 muestra la matriz de correlación espectral entre los endmembers extraídos por
el procedimiento MECR y las firmas originales utilizadas para generar la imagen_simulada_1
en unidades de radiancia. Los resultados mostrados en la tabla ponen de manifiesto que la
similaridad espectral de los endmembers con respecto a las firmas espectrales originales es muy
elevada. Es destacable que, incluso en el caso en el que la SNR es sólo de 10:1 (considerado
inaceptable en la mayor parte de aplicaciones prácticas), los endmembers finales presentan ya
una similaridad espectral muy elevada. Por otra parte, cuando la SNR es de 50:1 los
endmembers se recuperan de forma casi perfecta.
Análisis de imagen_simulada_1 en unidades de reflectancia.
Consideramos ahora la imagen_simulada_1 generada a partir de datos de reflectancia y los
valores de SNR habituales: 10:1, 30:1 y 50:1. La figura 4.2.22 muestra las regiones finales y los
- 190 - Capítulo 4. Análisis y Discusión de resultados.
endmembers obtenidos por el procedimiento MECR para esta imagen concreta, junto con las
firmas originales utilizadas en la creación de la imagen.
0
2000
4000
6000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Ref
lect
anci
a (%
*100
) MECR_1MECR_2
0
2000
4000
6000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Ref
lect
anci
a (%
*100
) MECR_1MECR_2
0
2000
4000
6000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Ref
lect
anci
a (%
*100
) MECR_1MECR_2
0
2000
4000
6000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Ref
lect
anci
a (%
*100
)
VegetaciónSuelo
endmembers (SNR=10:1)
endmembers (SNR=30:1) endmembers (SNR=50:1)
Firmas espectrales originales
Figura 4.2.22. Firmas espectrales originales y endmembers extraídos según procedimiento MECR a
partir de imagen_simulada_1 en unidades de reflectancia, generada utilizando diferentes valores de
SNR.
La elevada similaridad espectral de los endmembers obtenidos por el mecanismo MECR con
respecto a las firmas originales aparece ilustrada en la matriz de correlación espectral que se
muestra en la tabla 4.2.8. Al igual que ocurría con la imagen_simulada_1 en unidades de
radiancia, la similaridad espectral al utilizar datos de reflectancia es siempre muy elevada,
incluso en presencia de condiciones de ruido extremas.
SNR = 10:1 SNR = 30:1 SNR = 50:1
MECR_1 MECR_2 MECR_1 MECR_2 MECR_1 MECR_2
Vegetación 0.008 0.721 0.005 0.735 0.002 0.739
Suelo 0.743 0.007 0.729 0.004 0.733 0.001
TABLA 4.2.8. MATRIZ SAM ENTRE ENDMEMBERS EXTRAÍDOS A PARTIR DE IMAGEN_SIMULADA_1
(UNIDADES DE REFLECTANCIA) Y FIRMAS ORIGINALES.
Capítulo 4. Análisis y Discusión de resultados. - 191 -
Análisis de imagen_simulada_2 en unidades de radiancia.
Consideramos ahora la imagen_simulada_2 en unidades de radiancia y las proporciones de
ruido habituales hasta dar lugar a valores de SNR de 10:1, 30:1 y 50:1. Sobre cada imagen
resultante aplicamos el proceso de identificación de endmembers basado en el mecanismo
MECR, obteniendo las regiones finales y los endmembers que se muestran en la figura 4.2.23, la
cual muestra también las firmas originales utilizadas en la creación de la imagen.
En esta figura, llama particularmente la atención el irregular proceso de crecimiento de
regiones producido en el caso en el que la SNR es de 10:1. A pesar de esta circunstancia,
podemos advertir visualmente el gran parecido existente entre los endmembers extraídos en este
caso y las firmas originales.
0
2000
4000
6000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Rad
ian
cia
(μW
/cm
2 /n
m/
sr)
MECR_1MECR_2
0
2000
4000
6000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Rad
ian
cia
(μW
/cm
2 /n
m/
sr)
MECR_1MECR_2
0
2000
4000
6000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Rad
ian
cia
(μW
/cm
2 /n
m/
sr)
MECR_1MECR_2
endmembers (SNR=10:1)
endmembers (SNR=30:1) endmembers (SNR=50:1)
0
2000
4000
6000
8000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Rad
ian
cia
(μW
/cm
2 /n
m/
sr)
VegetaciónSuelo
Firmas espectrales originales
Figura 4.2.23. Firmas espectrales originales y endmembers extraídos según procedimiento MECR a
partir de imagen_simulada_2 en unidades de radiancia, generada utilizando diferentes valores de
SNR.
La alta similaridad espectral entre endmembers y firmas originales que se intuye en la figura
4.2.23 aparece reflejada cuantitativamente en la tabla 4.2.9. A partir de los resultados mostrados
en la tabla, podemos concluir que el procedimiento MECR es capaz de extraer endmembers de
forma muy precisa, incluso en condiciones de ruido muy elevadas. Por otra parte, la situación de
mezcla progresiva simulada en esta imagen no supone un obstáculo a la hora de realizar la
identificación de endmembers.
- 192 - Capítulo 4. Análisis y Discusión de resultados.
SNR = 10:1 SNR = 30:1 SNR = 50:1
MECR_1 MECR_2 MECR_1 MECR_2 MECR_1 MECR_2
Vegetación 0.008 0.421 0.003 0.439 0.001 0.433
Suelo 0.436 0.009 0.422 0.002 0.441 0.001
TABLA 4.2.9. MATRIZ SAM ENTRE ENDMEMBERS EXTRAÍDOS A PARTIR DE IMAGEN_SIMULADA_2
(UNIDADES DE RADIANCIA) Y FIRMAS ORIGINALES.
Análisis de imagen_simulada_2 en unidades de reflectancia.
Para terminar esta prueba, consideramos la imagen_simulada_2 en unidades de reflectancia
y los valores de SNR habituales. Las regiones finales y los endmembers extraídos tras aplicar el
proceso MECR se muestran en la figura 4.2.24, junto con las firmas originales para permitir una
comparación visual.
0
2000
4000
6000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Ref
lect
anci
a (%
*100
) MECR_1MECR_2
0
2000
4000
6000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Ref
lect
anci
a (%
*100
) MECR_1
MECR_2
0
2000
4000
6000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Ref
lect
anci
a (%
*100
) MECR_1MECR_2
0
2000
4000
6000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Ref
lect
anci
a (%
*100
)
VegetaciónSuelo
Firmas espectrales originales endmembers (SNR=10:1)
endmembers (SNR=30:1) endmembers (SNR=50:1)
Figura 4.2.24. Firmas espectrales originales y endmembers extraídos según procedimiento MECR a
partir de imagen_simulada_2 en unidades de reflectancia, generada utilizando diferentes valores de
SNR.
De nuevo, llama la atención el irregular proceso de crecimiento de regiones que tiene lugar
en el caso en el que la SNR es de 10:1. A pesar de ello, se aprecia un gran parecido los
endmembers resultantes y las firmas originales.
La tabla 4.2.10 muestra los valores de similaridad espectral entre los endmembers obtenidos
y las firmas originales. Esta tabla pone de manifiesto que el irregular proceso de crecimiento en
el caso en el que la SNR es de 10:1 no tiene una influencia decisiva en la calidad de los
Capítulo 4. Análisis y Discusión de resultados. - 193 -
endmembers extraídos, que sigue siendo elevada en virtud de su parecido con las firmas de
referencia. En general, las conclusiones que pueden extraerse a partir de los resultados
mostrados en la tabla son idénticas a las ya mencionadas a lo largo de esta batería de pruebas.
SNR = 10:1 SNR = 30:1 SNR = 50:1
MECR_1 MECR_2 MECR_1 MECR_2 MECR_1 MECR_2
Vegetación 0.008 0.710 0.005 0.719 0.003 0.721
Suelo 0.707 0.007 0.712 0.003 0.734 0.002
TABLA 4.2.10. MATRIZ SAM ENTRE ENDMEMBERS EXTRAÍDOS A PARTIR DE IMAGEN_SIMULADA_2
(UNIDADES DE REFLECTANCIA) Y FIRMAS ORIGINALES.
A modo de resumen de las pruebas realizadas a lo largo de este segundo
experimento, enumeramos una serie de valoraciones que serán tenidas en cuenta en
experimentos posteriores:
El mecanismo de selección de endmembers MEPP es sensible al ruido: las pruebas
realizadas revelan que la utilización de valores de SNR de 10:1 dan como
resultado endmembers ruidosos, poco similares espectralmente con las firmas
originales utilizadas en la generación de las imágenes.
El mecanismo de selección MECR permite obtener endmembers muy similares, en
términos espectrales, a las firmas originales, aún en presencia de condiciones de
ruido extremas. Este hecho se debe a la incorporación de información espacial en
el proceso de crecimiento de regiones, que permite dotar a los endmembers
extraídos de una coherencia espacial que no presentan las firmas que se
seleccionan utilizando el mecanismo MEPP.
En el caso de utilizar el mecanismo MECR, el método es capaz de extraer
correctamente los endmembers en los dos tipos de mezcla analizados: abrupta
(imagen_simulada_1) y progresiva (imagen_simulada_2).
El funcionamiento del mecanismo MECR parece independiente del valor de SNR
presente en la imagen. Por su parte, el funcionamiento del método MEPP mejora
de forma ostensible cuanto mayor sea el ratio SNR presente en la imagen.
El proceso de selección de endmembers no se ve afectado por el hecho de utilizar
datos de radiancia o reflectancia, particularmente cuando se aplica el mecanismo
MECR para realizar la selección final de firmas puras.
- 194 - Capítulo 4. Análisis y Discusión de resultados.
4.2.3.3. Tercer experimento: estimación de abundancias.
El objetivo general de este experimento es analizar la precisión del algoritmo a la hora de
estimar la abundancia de los endmembers extraídos. Los elementos estudiados en este
experimento son los siguientes:
Relación SNR presente en los datos.
Tipo de mezcla lineal entre componentes (abrupta/progresiva).
Uso de datos de radiancia/reflectancia.
Las pruebas realizadas en este experimento pretenden determinar la influencia de estos
elementos individuales en el proceso de estimación de abundancias. Las imágenes utilizadas en
dichas pruebas son las siguientes: imagen_simulada_1 (mezcla abrupta), imagen_simulada_2
(mezcla progresiva) e imagen_simulada_3 (mezcla progresiva con cambios muy pequeños en la
abundancia). A continuación, detallamos mediante una serie de pasos el procedimiento general a
la hora de realizar las pruebas.
1.- Inicialmente, partimos de los endmembers extraídos a partir de las imágenes
anteriormente mencionadas, contaminadas con ruido hasta dar lugar a diferentes
valores de SNR (10:1, 30:1 y 50:1). El mecanismo empleado para extraer los
endmembers es el MECR, el cual se reveló en el experimento anterior como el más
apropiado en condiciones de ruido adversas.
2.- Utilizando los endmembers extraídos, generamos mapas de abundancia mediante un
procedimiento de desmezclado espectral lineal restringido FCLSU (ver apartado
3.2.2.5).
3.- Seguidamente, comparamos los mapas de abundancia estimados con mapas de
abundancia verdad terreno obtenidos directamente a partir de la imagen sintética. La
comparación se realiza utilizando diagramas de dispersión, que ofrecen una indicación
visual acerca de la correlación entre los valores estimados y los valores reales. A partir
de dichos diagramas, se derivan medidas cuantitativas como el error RMSE, descrito
en el apartado 2.3.2. El procedimiento descrito se repite considerando las imágenes
generadas a partir de datos de radiancia y reflectancia.
Análisis de imagen_simulada_1 en unidades de radiancia.
La figura 4.2.25 muestra los mapas de abundancia, obtenidos mediante FCLSU, asociados a
los endmembers extraídos a partir de la imagen_simulada_1 en unidades de radiancia, con
Capítulo 4. Análisis y Discusión de resultados. - 195 -
diferentes proporciones de ruido. En la figura también se muestran los mapas de abundancia
verdad terreno asociados a dicha imagen.
AbundanciaVegetación
(verdad terreno)
Abundanciaendmember_1(SNR=10:1)
Abundanciaendmember_1(SNR=30:1)
Abundanciaendmember_1(SNR=50:1)
AbundanciaSuelo
(verdad terreno)
Abundanciaendmember_2(SNR=10:1)
Abundanciaendmember_2(SNR=30:1)
Abundanciaendmember_2(SNR=50:1)
Figura 4.2.25. Mapas de abundancia verdad terreno para imagen_simulada_1 en unidades de
radiancia (parte superior) y mapas de abundancia (FCLSU) para los endmembers extraídos a partir de
dicha imagen.
Como puede apreciarse en la figura, los mapas de abundancia obtenidos cuando la relación
SNR es baja presentan un ligero componente ruidoso. Este hecho no viene provocado por la
calidad de los endmembers extraídos, la cual es muy alta como se comprobó en el experimento
anterior, sino por la distorsión introducida en la imagen.
A medida que la relación SNR aumenta, las abundancias estimadas presentan mayor
similitud respecto a las abundancias reales. Con objeto de corroborar cuantitativamente la
anterior afirmación, comparamos los valores de abundancia estimados con los valores de
abundancia reales mediante diagramas de dispersión, mostrados en la figura 4.2.26.
La figura 4.2.26 muestra los resultados obtenidos para los dos endmembers seleccionados
utilizando diferentes relaciones SNR. En cada caso, se muestra el coeficiente de correlación de
Pearson de los datos representados, siendo la correlación muy cercana a 1 cuando la relación
SNR es igual a 50:1.
Por el contrario, cuando la relación SNR es igual a 10:1 (condiciones de ruido extremas),
existen algunas derivas en la estimación de abundancias, de forma que para un mismo valor de
abundancia real se obtienen múltiples valores de abundancia estimada. A pesar de esta
circunstancia, el coeficiente de correlación sigue presentando valores muy elevados, en torno a
0.98.
- 196 - Capítulo 4. Análisis y Discusión de resultados.
Figura 4.2.26. Diagramas de dispersión de abundancias reales frente a abundancias estimadas para
endmembers extraídos a partir de la imagen_simulada_1 en unidades de radiancia.
SNR 10:1 30:1 50:1
Endmember MECR_1 MECR_2 MECR_1 MECR_2 MECR_1 MECR_2
RMSE total 0.12 0.12 0.03 0.03 0.02 0.02
RMSE relativo
abundancia 0 0.03 0.04 0.01 0.00 0.00 0.00
abundancia 0.5 0.04 0.04 0.01 0.01 0.00 0.01
abundancia 1 0.04 0.04 0.01 0.01 0.01 0.01
TABLA 4.2.11. COMPARACIÓN ENTRE RMSE TOTAL Y RELATIVO COMETIDO EN ESTIMACIÓN DE
ABUNDANCIAS DE IMAGEN_SIMULADA_1 EN UNIDADES DE RADIANCIA.
Con objeto de obtener una descripción más detallada del anterior resultado, la tabla 4.2.11
muestra una comparativa entre el error RMSE (ver expresión 2.3.10) cometido en el proceso de
estimación de abundancias para la imagen_simulada_1 en unidades de radiancia. En el
experimento se considera tanto el RMSE total, cometido cuando se estima la abundancia en
todos los pixels de la imagen, como el RMSE relativo, que describe la contribución al error total
cuando se intenta estimar cada uno de los valores de abundancia reales.
Los resultados mostrados en la tabla revelan que, cuando el valor de la relación SNR es
10:1, el RMSE total es del 12% para cada uno de los endmembers considerados. Por otra parte,
cuando la SNR aumenta hasta 30:1, los valores estimados se sitúan en torno al 3% de error,
mientras que si el valor se incrementa hasta 50:1, la estimación no supera el 2% de error total.
Por otra parte, es importante destacar que la contribución de los errores relativos (cometidos
al estimar las diferentes abundancias reales) al error total es muy similar en todos los casos. Este
hecho pone de manifiesto que el proceso de estimación de la abundancia de los endmembers en
Capítulo 4. Análisis y Discusión de resultados. - 197 -
esta imagen es independiente del porcentaje de abundancia real que se desea estimar. En otras
palabras, el algoritmo propuesto estima con eficacia similar la proporción de endmembers muy
abundantes en la imagen y la proporción de endmembers poco abundantes.
Análisis de imagen_simulada_1 en unidades de reflectancia.
Una vez realizada la prueba con la imagen_simulada_1 en unidades de radiancia, repetimos
el procedimiento utilizando esta vez la imagen generada a partir de datos de reflectancia. La
figura 4.2.27 muestra los mapas de abundancia asociados a los endmembers finales extraídos a
partir de esta imagen, junto con los correspondientes mapas de abundancia verdad terreno.
AbundanciaVegetación
(verdad terreno)
Abundanciaendmember_1(SNR=10:1)
Abundanciaendmember_1(SNR=30:1)
Abundanciaendmember_1(SNR=50:1)
AbundanciaSuelo
(verdad terreno)
Abundanciaendmember_2(SNR=10:1)
Abundanciaendmember_2(SNR=30:1)
Abundanciaendmember_2(SNR=50:1)
Figura 4.2.27. Mapas de abundancia verdad terreno para imagen_simulada_1 en unidades de
reflectancia; mapas de abundancia (FCLSU) para los endmembers extraídos a partir de dicha imagen.
Una simple comparación visual con los mapas de abundancia obtenidos para la imagen de
radiancia (ver figura 4.2.25) revela que los mapas de abundancia obtenidos para datos de
reflectancia con SNR muy baja (10:1) son visualmente menos ruidosos que los obtenidos para
datos de radiancia con la misma SNR. Con objeto de comprobar de forma cuantitativa este
resultado, la figura 4.2.28 muestra diagramas de dispersión que relacionan abundancias
estimadas con abundancias reales, tal y como se describió en el experimento anterior.
La figura 4.2.28 revela que, al igual que ocurría al utilizar datos de radiancia, la correlación
obtenida en el mejor caso (relación SNR igual a 50:1) es muy elevada para los dos endmembers
seleccionados. Cuando la SNR es de 10:1, el coeficiente de correlación obtenido al utilizar la
imagen de reflectancia es ligeramente superior al obtenido con la imagen de radiancia (0.99
- 198 - Capítulo 4. Análisis y Discusión de resultados.
frente a 0.98). Este resultado pone de manifiesto que la utilización de datos de reflectancia al
simular la imagen puede producir resultados ligeramente superiores, aunque el impacto de
utilizar datos de radiancia o reflectancia no es significativo, especialmente si los valores de SNR
utilizados son moderados (a partir de 30:1).
Figura 4.2.28. Diagramas de dispersión de abundancias reales frente a abundancias estimadas para
endmembers extraídos a partir de la imagen_simulada_1 en unidades de reflectancia.
SNR 10:1 30:1 50:1
Endmember MECR_1 MECR_2 MECR_1 MECR_2 MECR_1 MECR_2
RMSE total 0.09 0.10 0.03 0.03 0.01 0.01
RMSE relativo
abundancia 0 0.02 0.01 0.01 0.00 0.00 0.00
abundancia 0.5 0.03 0.00 0.01 0.01 0.00 0.01
abundancia 1 0.0.4 0.01 0.01 0.00 0.01 0.01
TABLA 4.2.12. COMPARACIÓN ENTRE RMSE TOTAL Y RELATIVO COMETIDO EN ESTIMACIÓN DE
ABUNDANCIAS DE IMAGEN_SIMULADA_1 EN UNIDADES DE REFLECTANCIA.
La tabla 4.2.10 muestra los RMSE absolutos y relativos cometidos en el proceso de
estimación de abundancias para esta imagen. Los errores absolutos se encuentran en torno al
10% cuando la SNR es de 10:1 y se reducen hasta un 1% cuando la SNR es de 50:1. Los errores
relativos presentan contribuciones muy similares al error total, lo cual revela que el método se
comporta de forma muy similar independientemente de cuál sea el coeficiente de abundancia a
estimar.
Capítulo 4. Análisis y Discusión de resultados. - 199 -
Si comparamos los errores absolutos obtenidos para la imagen de reflectancia con los
obtenidos para la imagen de radiancia (ver tabla 4.2.11), podemos apreciar que la utilización de
datos de reflectancia cuando la relación SNR es muy pobre (10:1) puede producir una mejora en
el error total en torno al 2% para cada endmember. En el resto de valores de SNR considerados,
el impacto de utilizar datos de radiancia/reflectancia resulta prácticamente despreciable.
Análisis de imagen_simulada_2 en unidades de radiancia.
La figura 4.2.29 muestra los mapas de abundancia asociados a los endmembers
seleccionados por el algoritmo para la imagen_simulada_2 en unidades de radiancia, junto con
los mapas de abundancia verdad terreno para dicha imagen.
AbundanciaVegetación
(verdad terreno)
Abundanciaendmember_1(SNR=10:1)
Abundanciaendmember_1(SNR=30:1)
Abundanciaendmember_1(SNR=50:1)
AbundanciaSuelo
(verdad terreno)
Abundanciaendmember_2(SNR=10:1)
Abundanciaendmember_2(SNR=30:1)
Abundanciaendmember_2(SNR=50:1)
Figura 4.2.29. Mapas de abundancia verdad terreno para imagen_simulada_2 en unidades de
radiancia; mapas de abundancia (FCLSU) para los endmembers extraídos a partir de dicha imagen.
Visualmente, se observa gran similaridad entre los mapas obtenidos y la verdad terreno, si
bien es cierto que, cuando la SNR es de 10:1, los mapas asociados a los dos endmembers
extraídos presentan un apariencia ligeramente ruidosa. Esta circunstancia aparece reflejada en
los diagramas de dispersión mostrados en la figura 4.2.30, en los que se aprecia que los valores
de correlación obtenidos en este caso son inferiores a los obtenidos cuando la SNR es moderada
(30:1) y aceptable (50:1).
- 200 - Capítulo 4. Análisis y Discusión de resultados.
Figura 4.2.30. Diagramas de dispersión de abundancias reales frente a abundancias estimadas para
endmembers extraídos a partir de la imagen_simulada_2 en unidades de radiancia.
SNR 10:1 30:1 50:1
Endmember MECR_1 MECR_2 MECR_1 MECR_2 MECR_1 MECR_2
RMSE total 0.12 0.11 0.04 0.03 0.01 0.02
RMSE relativo
abundancia 0 0.02 0.02 0.00 0.01 0.00 0.00
abundancia 0.2 0.01 0.02 0.01 0.01 0.00 0.00
abundancia 0.4 0.02 0.02 0.00 0.00 0.00 0.00
abundancia 0.6 0.02 0.02 0.01 0.00 0.00 0.00
abundancia 0.8 0.02 0.01 0.01 0.00 0.00 0.00
abundancia 1 0.02 0.02 0.01 0.00 0.00 0.01
TABLA 4.2.13. COMPARACIÓN ENTRE RMSE TOTAL Y RELATIVO COMETIDO EN ESTIMACIÓN DE
ABUNDANCIAS DE IMAGEN_SIMULADA_2 EN UNIDADES DE RADIANCIA.
La tabla 4.2.13 muestra el error RMSE absoluto y relativo al estimar la abundancia de los
endmembers en la imagen analizada. Los resultados mostrados en la tabla revelan que el error
total cuando la SNR es de 10:1 supera el 10%, mientras que los errores totales cometidos
cuando la SNR es moderada son inferiores al 4%. Por otra parte, los errores relativos
contribuyen de forma proporcional al error total.
En términos generales, a pesar de que la situación de mezcla en la imagen_simulada_2 es
progresiva y, por tanto, más compleja que el caso de mezcla abrupta estudiado en la
imagen_simulada_1, los errores totales cometidos al considerar ambas imágenes en unidades de
radiancia son muy similares, como puede comprobarse al contrastar los resultados de la tabla
4.2.13 con los resultados mostrados en la tabla 4.2.11.
Capítulo 4. Análisis y Discusión de resultados. - 201 -
Análisis de imagen_simulada_2 en unidades de reflectancia.
La figura 4.2.31 muestra los mapas de abundancia asociados a los endmembers
seleccionados a partir de la imagen_simulada_2 en unidades de reflectancia, junto con los
correspondientes mapas verdad terreno.
AbundanciaVegetación
(verdad terreno)
Abundanciaendmember_1(SNR=10:1)
Abundanciaendmember_1(SNR=30:1)
Abundanciaendmember_1(SNR=50:1)
AbundanciaSuelo
(verdad terreno)
Abundanciaendmember_2(SNR=10:1)
Abundanciaendmember_2(SNR=30:1)
Abundanciaendmember_2(SNR=50:1)
Figura 4.2.31. Mapas de abundancia verdad terreno para imagen_simulada_2 en unidades de
reflectancia; mapas de abundancia (FCLSU) para los endmembers extraídos a partir de dicha imagen.
En términos generales, se observa gran similaridad entre los mapas obtenidos y la verdad
terreno. En particular, cuando la SNR es de 10:1, la similaridad entre mapas obtenidos y verdad
terreno parece ligeramente superior que la obtenida al utilizar datos de radiancia para esta
misma imagen. Esta primera impresión se corrobora de forma cuantitativa en los diagramas de
dispersión mostrados en la figura 4.2.32.
La tabla 4.2.14 muestra los valores de RMSE total y relativo cometidos en el proceso de
estimación de abundancias para esta imagen. Los resultados mostrados en esta tabla reflejan, de
forma cuantitativa, los comentarios anteriormente realizados. En particular, el error total al
utilizar la imagen_simulada_2 en unidades de reflectancia desciende en torno al 3% con
respecto al caso de utilizar la misma imagen en unidades de radiancia cuando la SNR es de 10:1.
Para valores mayores de SNR, el error total cometido en ambos casos es equiparable. Los
errores relativos al estimar las abundancias individuales presentan contribuciones
proporcionales al error global.
- 202 - Capítulo 4. Análisis y Discusión de resultados.
Figura 4.2.32. Diagramas de dispersión de abundancias reales frente a abundancias estimadas para
endmembers extraídos a partir de la imagen_simulada_2 en unidades de reflectancia.
SNR 10:1 30:1 50:1
Endmember MECR_1 MECR_2 MECR_1 MECR_2 MECR_1 MECR_2
RMSE total 0.09 0.08 0.03 0.03 0.01 0.01
RMSE relativo
abundancia 0 0.02 0.01 0.00 0.00 0.00 0.00
abundancia 0.2 0.01 0.01 0.00 0.01 0.00 0.00
abundancia 0.4 0.01 0.02 0.01 0.00 0.00 0.00
abundancia 0.6 0.02 0.02 0.01 0.00 0.00 0.00
abundancia 0.8 0.02 0.01 0.00 0.00 0.00 0.00
abundancia 1 0.01 0.01 0.01 0.00 0.00 0.00
TABLA 4.2.14. COMPARACIÓN ENTRE RMSE TOTAL Y RELATIVO COMETIDO EN ESTIMACIÓN DE
ABUNDANCIAS DE IMAGEN_SIMULADA_2 EN UNIDADES DE REFLECTANCIA.
Análisis de imagen_simulada_3 en unidades de radiancia.
La figura 4.2.33 muestra los mapas de abundancia asociados a los endmembers
seleccionados a partir de la imagen_simulada_3 en unidades de reflectancia, junto con los
correspondientes mapas verdad terreno. El efecto de degradado que se aprecia en los mapas
resultantes es un fiel reflejo de la situación de mezcla progresiva en proporciones muy pequeñas
que se da en la imagen original.
Capítulo 4. Análisis y Discusión de resultados. - 203 -
AbundanciaVegetación
(verdad terreno)
Abundanciaendmember_1(SNR=10:1)
Abundanciaendmember_1(SNR=30:1)
Abundanciaendmember_1(SNR=50:1)
AbundanciaSuelo
(verdad terreno)
Abundanciaendmember_2(SNR=10:1)
Abundanciaendmember_2(SNR=30:1)
Abundanciaendmember_2(SNR=50:1)
Figura 4.2.33. Mapas de abundancia verdad terreno para imagen_simulada_3 en unidades de
radiancia; mapas de abundancia (LSU) para los endmembers extraídos a partir de dicha imagen.
Visualmente, se observa que el efecto del ruido cuando la SNR de la imagen es de 10:1 trae
como consecuencia pequeños errores en la estimación de abundancias que pueden tener un
efecto nocivo en la correlación de los valores de abundancia estimados respecto a los reales.
Para analizar de forma cuantitativa esta situación, la figura 4.2.34 muestra una serie de
diagramas de dispersión de abundancias estimadas frente a abundancias reales para diferentes
valores de SNR.
Figura 4.2.34. Diagramas de dispersión de abundancias reales frente a abundancias estimadas para
endmembers extraídos a partir de la imagen_simulada_3 en unidades de radiancia.
- 204 - Capítulo 4. Análisis y Discusión de resultados.
Los diagramas de dispersión mostrados en la figura 4.2.32 revelan que la correlación
obtenida es aceptable en todas las situaciones, si bien es cierto que en condiciones de ruido
extremo (SNR de 10:1), la correlación obtenida es sensiblemente inferior. La tabla 4.2.15
muestra los errores totales y relativos cometidos en la estimación de abundancias en esta
imagen. Esta tabla muestra que los errores totales se mueven en unos porcentajes en torno al
13% en el peor caso, disminuyendo hasta el 2% cuando la SNR es aceptable (50:1). Con objeto
de analizar el RMSE relativo, hemos dividido las abundancias reales en diez grupos, donde el
primer grupo está constituido por los coeficientes entre 0 y 0.1; el segundo entre 0.1 y 0.2, y así
sucesivamente hasta el décimo grupo, que contiene los coeficientes entre 0.9 y 1. Los valores
obtenidos en cada grupo revelan que la contribución al error total de los errores relativos en
cada grupo es proporcional. Este hecho indica que, a pesar de la compleja situación de mezcla
que se modela en la imagen, el método muestra un comportamiento similar a la hora de
determinar la proporción de componentes abundantes y de componentes poco abundantes.
SNR 10:1 30:1 50:1
Endmember MECR_1 MECR_2 MECR_1 MECR_2 MECR_1 MECR_2
RMSE total 0.14 0.13 0.04 0.05 0.03 0.02
RMSE relativo
abundancia de 0 a 0.1 0.01 0.01 0.00 0.00 0.00 0.00
abundancia de 0.1 a 0.2 0.02 0.01 0.00 0.00 0.00 0.00
abundancia de 0.2 a 0.3 0.01 0.01 0.01 0.01 0.00 0.00
abundancia de 0.3 a 0.4 0.01 0.02 0.00 0.00 0.00 0.01
abundancia de 0.4 a 0.5 0.01 0.01 0.01 0.01 0.01 0.00
abundancia de 0.5 a 0.6 0.02 0.02 0.00 0.01 0.00 0.00
abundancia de 0.6 a 0.7 0.01 0.01 0.00 0.00 0.00 0.00
abundancia de 0.7 a 0.8 0.02 0.01 0.00 0.00 0.00 0.00
abundancia de 0.8 a 0.9 0.01 0.01 0.01 0.00 0.01 0.00
abundancia de 0.9 a 1 0.01 0.01 0.00 0.01 0.01 0.01
TABLA 4.2.15. COMPARACIÓN ENTRE RMSE TOTAL Y RELATIVO COMETIDO EN ESTIMACIÓN DE
ABUNDANCIAS DE IMAGEN_SIMULADA_3 EN UNIDADES DE RADIANCIA.
Análisis de imagen_simulada_3 en unidades de reflectancia.
Para concluir esta última prueba dentro del experimento que nos ocupa, la figura 4.2.35
muestra los mapas de abundancia asociados a los endmembers obtenidos a partir de la
imagen_simulada_3 en unidades de reflectancia, junto con los correspondientes mapas de
abundancias reales.
Capítulo 4. Análisis y Discusión de resultados. - 205 -
AbundanciaVegetación
(verdad terreno)
Abundanciaendmember_1(SNR=10:1)
Abundanciaendmember_1(SNR=30:1)
Abundanciaendmember_1(SNR=50:1)
AbundanciaSuelo
(verdad terreno)
Abundanciaendmember_2(SNR=10:1)
Abundanciaendmember_2(SNR=30:1)
Abundanciaendmember_2(SNR=50:1)
Figura 4.2.35. Mapas de abundancia verdad terreno para imagen_simulada_3 en unidades de
reflectancia; mapas de abundancia (FCLSU) para los endmembers extraídos a partir de dicha imagen.
Una simple comparación visual entre los mapas mostrados en la figura 4.2.35 revela que el
efecto nocivo del ruido en el proceso de estimación se hace más patente cuando la SNR de la
imagen es de 10:1. Por otra parte, una comparación visual entre los mapas obtenidos para esta
imagen en unidades de reflectancia con los correspondientes mapas obtenidos para la misma
imagen en unidades de radiancia (ver figura 4.2.33) muestra que los resultados obtenidos son
muy similares en ambos casos.
El anterior resultado se manifiesta de forma cuantitativa en los diagramas de dispersión
generados (en los que los coeficientes de correlación son prácticamente idénticos a los
obtenidos en el caso de trabajar con la imagen de radiancia) y en los valores de RMSE total y
relativo. Ante la gran similaridad cuantitativa con los resultados mostrados en la figura 4.2.34 y
en la tabla 4.2.15, optamos por no mostrar estos resultados en la presente memoria.
La interpretación de este resultado, que contrasta con los obtenidos al trabajar con la
imagen_simulada_1 (mezcla abrupta) y con la imagen_simulada_2 (mezcla progresiva), en las
que la utilización de datos de reflectancia daba como consecuencia resultados ligeramente
superiores. Este hecho puede deberse a que la mezcla en la imagen_simulada_3 se produce de
forma que la abundancia de los componentes cambia en proporciones muy pequeñas, con lo que
los cambios en la forma espectral de pixels vecinos son mínimos. De este modo, la forma
original de los espectros utilizados para generar las mezclas carece totalmente de importancia,
siendo equivalente la utilización de datos de radiancia y reflectancia.
- 206 - Capítulo 4. Análisis y Discusión de resultados.
A modo de resumen general de los resultados obtenidos en este tercer experimento,
destacamos las siguientes valoraciones, que serán tenidas en cuenta en experimentos
sucesivos:
Las abundancias estimadas a partir de los endmembers obtenidos por el método
propuesto presentan valores de correlación elevados con respecto a la verdad
terreno, incluso en presencia de condiciones de ruido extremas. A pesar de que las
correlaciones obtenidas son inferiores cuando la SNR es de 10:1 o inferior, el
proceso de estimación no se ve seriamente perjudicado.
El comportamiento del método propuesto es similar en los tres modelos de mezcla
lineal analizados: mezcla abrupta, mezcla progresiva y mezcla progresiva a
intervalos de abundancia muy pequeños.
La utilización de datos de reflectancia mejora ligeramente los resultados obtenidos
respecto a la utilización de datos de radiancia en el caso de trabajar con mezclas
abruptas y mezclas progresivas. No obstante, la mejora obtenida no resulta
demasiado significativa a la hora de evaluar los resultados desde un punto de vista
global.
En el caso de trabajar con mezclas progresivas a intervalos de abundancia muy
pequeños, resulta indiferente trabajar con datos de radiancia o reflectancia. Este
hecho puede deberse al procedimiento empleado a la hora de generar las mezclas
entre los espectros originales.
4.2.3.4. Cuarto experimento: detección de objetos.
El objetivo general de este experimento es evaluar la capacidad del algoritmo propuesto para
detectar objetos individuales en la imagen. Los elementos que serán evaluados a lo largo del
presente experimento son:
Relación SNR presente en los datos.
Uso de datos de radiancia/reflectancia.
La justificación de utilizar el algoritmo propuesto de identificación de endmembers para
identificar objetos se fundamenta en el hecho de que el proceso de detección de objetos o
targets puede plantearse como un caso particular de la identificación de endmembers, siendo los
targets los elementos espectralmente más puros. Con objeto de evaluar la precisión del
algoritmo en esta tarea, proponemos un conjunto de pruebas basadas en los siguientes pasos:
Capítulo 4. Análisis y Discusión de resultados. - 207 -
1.- Inicialmente, se extraen los endmembers de la escena.
2.- A continuación, se construyen filtros de similaridad (ver apartado 2.3.2.1) para separar
cada uno de los objetos individuales del resto de objetos de la imagen. Los filtros de
similaridad proporcionan como resultado imágenes en ND’s que indican la
probabilidad de que un cierto pixel pertenezca o no a un objeto concreto. En este
sentido, las imágenes de probabilidad son binarias en el sentido de que contienen
información acerca de dos elementos: el objeto que estamos tratando de identificar y
el fondo. Todos aquellos pixels que no forman parte del objeto buscado serán
etiquetados como fondo.
3.- Con motivo de obtener una medida cualitativa acerca de la facilidad para separar los
objetos del fondo, se descompone la imagen original en su componentes principales
(autovectores) mediante la transformación PCA (ver apartado 2.3.2.2). Como
resultado, se obtiene un conjunto de imágenes en ND’s, ordenadas de mayor a menor
varianza, y mutuamente ortogonales. A partir de la representación de estas imágenes
una frente a otra puede realizarse una inspección visual de la distribución de los datos
en el espacio N-dimensional.
4.- Seguidamente, se aplican algoritmos de umbralización automática (ver apartados 2.2.2
y 3.2.2.2) sobre las imágenes proporcionadas por los filtros de similaridad para
separar objeto y fondo.
5.- A partir de los resultados obtenidos, se utilizan medidas propias de la teoría de la
detección (apartado 2.3.2.1), como la fracción de verdaderos positivos (ver expresión
2.3.15) y la fracción de falsos positivos (expresión 2.3.16), para obtener una medida
cuantitativa de la precisión obtenida a la hora de reconocer el objeto.
Los experimentos presentados en este apartado han sido realizados con la
imagen_simulada_4, especialmente diseñada para este experimento. Esta imagen se caracteriza
por simular dos "objetos" individuales (en concreto, un edificio y una carretera) sobre un fondo
homogéneo (suelo).
Análisis de imagen_simulada_4 en unidades de radiancia.
La figura 4.2.36 (parte superior) muestra los endmembers obtenidos al aplicar el algoritmo
propuesto, utilizando el mecanismo MECR, sobre la imagen_simulada_4 en unidades de
radiancia. A la hora de generar la imagen, se han considerado dos valores diferentes de la
relación SNR: un valor inaceptable (10:1) y un valor reducido (30:1). En la parte intermedia de
la figura se muestran las imágenes resultantes proporcionadas por los filtros de similaridad
- 208 - Capítulo 4. Análisis y Discusión de resultados.
construidos para los objetos edificio y carretera. Finalmente, en la parte inferior de la figura se
muestra el resultado de aplicar el método de umbralizado automático de Otsu sobre las
imágenes anteriormente comentadas.
0
1000
2000
3000
4000
5000
6000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Rad
ian
cia
(μW
/cm
2 /nm
/sr
)
Edific ioCarrete raSue lo
Edificio Carretera
Edificio Carretera
Radiancia (SNR=10:1)
Filtros deSimilaridad
Umbralizadoautomático
0
1000
2000
3000
4000
5000
6000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Rad
ianc
ia (μW
/cm
2 /nm
/sr)
EdificioCarreteraSuelo
Radiancia (SNR=30:1)
Edificio Carretera
Edificio Carretera
Figura 4.2.36. Endmembers extraídos a partir de imagen_simulada_4 en unidades de radiancia
considerando diferentes valores de SNR (parte superior); filtros de similaridad asociados a los
endmembers extraídos (parte intermedia); imágenes resultantes tras aplicar el método de umbralizado
automático de Otsu sobre filtros de similaridad (parte inferior).
Los resultados mostrados por la figura 4.2.36 muestran que, en condiciones de ruido
extremo (SNR de 10:1), resulta difícil, en términos generales, separar visualmente objetos de
fondo. A pesar de que la forma del objeto edificio puede recuperarse de forma más o menos
satisfactoria, la detección del objeto carretera resulta más complicada.
No obstante, cuando la SNR es 30:1 (valor considerado como muy pobre en la práctica
totalidad de aplicaciones existentes), las imágenes de probabilidad proporcionadas por los filtros
de similaridad son mucho más indicativas acerca de la ubicación de los objetos individuales,
que aparecen claramente contrastados con respecto al fondo. La aplicación del algoritmo de
umbralizado automático de Otsu sobre estas imágenes permite recuperar la forma de los objetos
de forma muy adecuada.
Capítulo 4. Análisis y Discusión de resultados. - 209 -
La tabla 4.2.16 muestra un análisis cuantitativo de los resultados mostrados en la figura
4.2.36. Cuando la SNR es de 10:1, la fracción de verdaderos positivos detectados en el objeto
edificio es del 85%, pero la tasa de falsos positivos se sitúa en un 33%, dando como resultado
un rendimiento global moderado a la hora de detectar este objeto. En el caso del objeto edificio,
los pixels correctamente clasificados apenas superan el 30%, manteniéndose la proporción de
falsos positivos. Por el contrario, cuando la SNR es de 30:1, el algoritmo ofrece resultados muy
satisfactorios, dando lugar a tasas óptimas en cuanto a la proporción de verdaderos positivos y
falsos positivos en la detección de ambos objetos.
SNR 10:1 30:1
Endmember Edificio Carretera Edificio Carretera
Fracción verdaderos positivos 0.85 0.33 1.00 1.00
Fracción falsos positivos 0.27 0.25 0.01 0.01
TABLA 4.2.16. FRACCIÓN DE VERDADEROS POSITIVOS Y FALSOS POSITIVOS EN LA DETECCIÓN DE
OBJETOS INDIVIDUALES EN IMAGEN_SIMULADA_4 EN UNIDADES DE RADIANCIA.
La figura 4.2.37 muestra los diagramas de dispersión obtenidos a partir de las dos primeras
componentes principales de la imagen, considerando las dos relaciones SNR utilizadas hasta el
momento.
En el primer caso (SNR igual a 10:1), el diagrama de dispersión de los dos primeros
autovectores revela una dispersión amplia de los datos que hace difícil, en ciertas situaciones,
separar unas agrupaciones de puntos con respecto a otras.
-10000
-7000
-4000
-1000
2000
5000
-2000 0 2000 4000
Banda PCA 1
Ban
da
PC
A 2
Edificio
Carretera
Suelo
-10000
-7000
-4000
-1000
2000
5000
-2000 0 2000 4000
Banda PCA 1
Ban
da
PC
A 2
Edificio
Carretera
Suelo
Dispersión Radiancia (SNR=10:1) Dispersión Radiancia (SNR=50:1)
Figura 4.2.37. Diagramas de dispersión de componentes principales para imagen_simulada_4 en
unidades de radiancia.
Cuando el valor de la SNR es 30:1, las agrupaciones de puntos son mucho más claras (en
concreto, se aprecian tres agrupaciones de puntos o clusters correspondientes a los puntos de
suelo, edificio y carretera). Por razones ilustrativas, resaltamos la ubicación de los endmembers
- 210 - Capítulo 4. Análisis y Discusión de resultados.
en la representación, dando una idea acerca de la extremidad de los puntos. Los tres
endmembers identificados definen un objeto tridimensional que se proyecta sobre un espacio de
dos dimensiones dado por los dos primeros autovectores de la descomposición PCA. Dos
componentes aparecen como extremos de la nube de puntos (edificio y suelo), mientras que el
tercer componente (carretera) aparece englobado en una agrupación de puntos alejada de los
componentes anteriores. A pesar de que el endmember carretera no aparece como extremo en
esta proyección, sin duda aparecerá como extremo al seleccionar otros autovectores por su
condición de elemento espectralmente puro.
Análisis de imagen_simulada_4 en unidades de reflectancia.
La figura 4.2.38 (parte superior) muestra los endmembers obtenidos al aplicar el algoritmo
propuesto, utilizando el mecanismo MECR, sobre la imagen_simulada_4 en unidades de
reflectancia, generada considerando valores de SNR de 10:1 y 30:1. En la parte intermedia de la
figura se muestran las imágenes resultantes proporcionadas por los filtros de similaridad
construidos para los objetos edificio y carretera, y en la parte inferior se muestra el resultado de
aplicar el método de umbralizado automático de Otsu sobre las imágenes anteriormente
mencionadas.
Los resultados mostrados en la figura 4.2.38 son muy similares a los ya mencionados para la
misma imagen en unidades de radiancia. En presencia de condiciones de ruido extremas (SNR
de 10:1), la forma del objeto edificio se recupera con dificultades, mientras que la forma del
objeto carretera no puede extraerse. Cuando la SNR es reducida (30:1), la forma de ambos
objetos se recupera de forma muy precisa.
SNR 10:1 30:1
Endmember Edificio Carretera Edificio Carretera
Fracción verdaderos positivos 0.85 0.33 1.00 1.00
Fracción falsos positivos 0.27 0.25 0.01 0.01
TABLA 4.2.17. FRACCIÓN DE VERDADEROS POSITIVOS Y FALSOS POSITIVOS EN LA DETECCIÓN DE
OBJETOS INDIVIDUALES EN IMAGEN_SIMULADA_5 EN UNIDADES DE REFLECTANCIA.
La tabla 4.2.17 cuantifica los resultados anteriormente comentados en términos de
verdaderos y falsos positivos. Cuando la SNR es de 10:1, la fracción de verdaderos positivos
detectados en el objeto edificio es del 72%, siendo la tasa de falsos positivos del 19%. En el
objeto carretera, la tasa de verdaderos y falsos positivos es casi equiparable (36% frente a 24%).
Cuando la SNR es de 30:1, los resultados de detección para ambos objetos se aproximan al caso
Capítulo 4. Análisis y Discusión de resultados. - 211 -
óptimo, es decir, fracción de verdaderos positivos cercana al 100% con porcentaje de falsos
positivos cercano al 0%.
0
1000
2000
3000
4000
30060090012001500180021002400
Longitud de onda (nm)
Reflectancia (%*100)Edificio
CarreteraSuelo
Reflectancia(SNR=30:1)
EdificioCarretera
EdificioCarretera
Filtros desimilaridad
Umbralizadoautomático
0
1000
2000
3000
4000
5000
30060090012001500180021002400
Longitud de onda (nm)
Reflectance (%*100)Edificio
CarreteraSuelo
EdificioCarretera
EdificioCarretera
Reflectancia(SNR=10:1)
Figura 4.2.38. Endmembers extraídos a partir de imagen_simulada_3 en unidades de reflectancia
considerando diferentes valores de SNR (parte superior); filtros de similaridad asociados a los
endmembers extraídos (parte intermedia); imágenes resultantes tras aplicar el método de umbralizado
automático de Otsu sobre filtros de similaridad (parte inferior).
A modo de resumen de los resultados obtenidos en este experimento, podemos destacar
las siguientes valoraciones:
En condiciones extremas de ruido (SNR de 10:1), se produce una tendencia de
unificación de los datos en el espacio N-dimensional. Este hecho dificulta el proceso
de identificación de objetos individuales en la imagen.
En condiciones de ruido muy elevadas (SNR de 30:1), el algoritmo propuesto es
capaz de identificar, de forma muy precisa, la forma exacta de los objetos presentes
en la imagen.
El uso combinado de filtros de similaridad y técnicas automáticas de umbralizado
resulta apropiado para recuperar el contorno de los objetos presentes en la imagen.
Esta tarea puede verse complementada con la utilización de diagramas de dispersión
- 212 - Capítulo 4. Análisis y Discusión de resultados.
de componentes principales, que ofrecen una medida cualitativa acerca de la
dificultad de realizar la separación entre objetos de interés y fondo.
Las altas prestaciones obtenidas por el algoritmo propuesto en la tarea de
identificación de objetos pueden deberse a la incorporación de información espacial
en el proceso de identificación de endmembers.
El uso de datos de radiancia/reflectancia no tiene una influencia significativa en el
proceso, siendo prácticamente equivalentes los resultados obtenidos en la imagen
considerada en el experimento.
4.3. Análisis de imágenes reales
En este apartado presentamos las pruebas realizadas con imágenes reales, siguiendo la
estructura que se describe a continuación.
1.- Inicialmente, destacamos las características fundamentales de las imágenes reales
utilizadas en el estudio, describiendo las condiciones en que se realizó la toma de
datos, relación SNR, materiales presentes en la escena captada, disponibilidad o no de
información verdad terreno y principales características de dicha información en caso
de estar presente.
2.- A continuación, exponemos de forma detallada los experimentos realizados con estas
imágenes. A partir de la experimentación realizada, se derivan una serie de
conclusiones acerca del funcionamiento del método.
4.3.1. Imágenes utilizadas y características.
A la hora de seleccionar un conjunto de imágenes reales para realizar la experimentación,
hemos optado por escoger imágenes que han sido utilizadas en un amplio abanico de
aplicaciones.
Por otra parte, las imágenes utilizadas han sido adquiridas por sensores muy diversos en
diferentes fechas, con lo que la calidad de las mismas es variable. Los materiales que pueden
encontrarse en las mismas son muy variados, incluyendo minerales, vegetación, suelos,
estructuras urbanas, cultivos, etc. La tabla 4.3.1 muestra un resumen de la base de datos de
imágenes reales empleadas en este estudio, que está compuesta por un total de 20 imágenes. En
cada caso, se destacan las características fundamentales de la imagen y su campo de aplicación
fundamental.
Capítulo 4. Análisis y Discusión de resultados - 213 -
Nuestra principal motivación a la hora de testear el algoritmo con un conjunto tan
heterogéneo de datos como el mostrado en la tabla 4.3.1 es comprobar su funcionamiento en
diferentes aplicaciones y en condiciones muy diversas. A continuación, procedemos a describir
de forma más detallada las imágenes utilizadas en el estudio.
Descriptor Sensor Zona cubierta Año Bandas Rango espectral Unidades Aplicación
AVCUP95 AVIRIS Cuprite, NV, USA 1995 50 2 – 2.5 µm Reflectancia Geología
AVIP92 AVIRIS Indian Pines, IN, USA 1992 220 0.4 – 2.5 µm Radiancia Agricultura
CASI01_01 ...
CASI01_12
CASI
Simulación en laboratorio: árboles
sobre fondo
2001
72
0.4 – 0.94 µm
Reflectancia
Silvicultura
AVJRAD97 AVIRIS Jasper Ridge, CA, USA
1997 224 0.4 – 2.5 µm Radiancia Ecología
AVJREF97 AVIRIS Jasper Ridge, CA, USA
1997 224 0.4 – 2.5 µm Reflectancia Ecología
DSCA01L, DSCA01H
DAIS Cáceres, España 2001 79 0.5 – 12.5 µm Reflectancia Agricultura
RSCA01L, RSCA01H
ROSIS Cáceres, España 2001 115 0.4 – 0.9 µm Reflectancia Agricultura
TABLA 4.3.1. BASE DE DATOS DE IMÁGENES REALES UTILIZADAS EN EL ESTUDIO.
4.3.1.1. AVCUP95.
Esta imagen fue adquirida en 1995 por el sensor AVIRIS, descrito en el apartado 2.3.1,
sobre la región minera denominada Cuprite, en el estado de Nevada, Estados Unidos. La figura
4.3.1 muestra la ubicación de la imagen sobre una fotografía aérea de la zona. Visualmente,
puede apreciarse la existencia de zonas compuestas por minerales, así como abundantes suelos
desnudos y una carretera interestatal que cruza la zona en dirección norte-sur.
La imagen AVCUP95 consta de 400x350 pixels, cada uno de los cuales contiene 50 valores
de reflectancia en el rango espectral 2 a 2.5 µm. Este rango, situado en la región SWIR-II del
espectro, se caracteriza por que en él se manifiestan singularidades que permiten discriminar
entre una amplia gama de minerales de tipo calizo (Clark, 1999a).
Cada valor espectral en el rango anteriormente mencionado equivale a 10 veces el tanto por
ciento de la reflectancia en una determinada longitud de onda. Estos valores han sido obtenidos
como resultado de la aplicación del método de corrección atmosférica ATREM, seguido de un
post-procesado mediante el método EFFORT sobre la imagen en unidades de radiancia,
originalmente capturada por el sensor.
- 214 - Capítulo 4. Análisis y Discusión de resultados.
AVCUP95
Figura 4.3.1. Ubicación de la imagen AVCUP95 sobre una fotografía aérea de la región minera
Cuprite, Nevada, Estados Unidos.
La información de verdad terreno para la imagen AVCUP95 ha sido hecha pública por el
Instituto Norteamericano de Estudios Geológicos o U.S. Geological Survey (USGS en lo
sucesivo). La disponibilidad de esta información de verdad terreno variada y de gran calidad ha
propiciado que AVCUP95 sea una imagen utilizada como referencia a la hora de testear el
funcionamiento de nuevos algoritmos. Esta información viene expresada de la siguiente forma:
1.- Firmas espectrales de referencia, obtenidas a partir de estudios de campo realizados
por expertos del USGS sobre la región Cuprite, utilizando un espectro-radiómetro
Beckman con resolución radiométrica de 0.5 nm en el infrarrojo cercano y 0.2 nm en
el visible (Clark y Swayze, 1996). La elevada resolución radiométrica de este
instrumento ha motivado la creación de una librería espectral de firmas
convolucionadas con las longitudes de onda de AVIRIS, de forma que se pueda
establecer una comparación entre los datos adquiridos por ambos instrumentos de
medida en longitudes de onda comunes. La librería espectral convolucionada se
denomina AVIRIS-Convolved Digital Spectral Library, y se encuentra disponible de
forma pública a través de USGS (Clark y col, 1993). La figura 4.3.2 muestra cuatro
firmas espectrales correspondientes a los minerales más abundantes en la zona de
estudio: alunite, buddingtonite, calcite y kaolinite. En la figura, estas firmas
espectrales aparecen etiquetadas respetando sus identificadores asociados en la librería
USGS.
Capítulo 4. Análisis y Discusión de resultados - 215 -
0,0
0,2
0,4
0,6
0,8
1,0
2000 2100 2200 2300 2400
Longitud de onda (nm)
Ref
lect
anci
aAlunite SUSTDA
0
0,2
0,4
0,6
0,8
1
2000 2100 2200 2300 2400
Longitud de onda (nm)
Ref
lect
anci
a
Buddingtonite NHB2301
0
0,2
0,4
0,6
0,8
1
2000 2100 2200 2300 2400
Longitud de onda (nm)
Ref
lect
anci
a
Buddingtonite NHB2301
0,0
0,2
0,4
0,6
0,8
1,0
2000 2100 2200 2300 2400
Longitud de onda (nm)
Ref
lect
anci
a
Calcite WS272
0,0
0,2
0,4
0,6
0,8
1,0
2000 2100 2200 2300 2400
Longitud de onda (nm)
Ref
lect
anci
a
Calcite WS272
0,0
0,2
0,4
0,6
0,8
1,0
2000 2100 2200 2300 2400
Longitud de onda (nm)
Ref
lect
anci
a
Kaolinite CM9
AVCUP95
Figura 4.3.2. Verdad terreno para la imagen CUP95AV, expresada como un conjunto de firmas
espectrales de referencia para los minerales más abundantes en la zona.
Alunite SUSTDA Buddingtonite NHB2301
Calcite WS272 Kaolinite CM9
0.0
0.9
0.3
0.6
0.0
0.9
0.3
0.6
0.0
0.9
0.3
0.6
0.0
1.0
0.6
0.4
0.2
0.8
0.0
1.0
0.6
0.4
0.2
0.8
0.0
0.9
0.3
0.6
0.0
0.9
0.3
0.6
0.0
0.9
0.3
0.6
0.0
0.9
0.3
0.6
0.0
0.9
0.3
0.6
0.0
0.9
0.3
0.6
Figura 4.3.3. Verdad terreno para la imagen CUP95AV, expresada como un conjunto de mapas de
abundancia de los minerales característicos de la zona.
2.- Mapas de abundancia de los minerales más característicos que pueden encontrarse
en la zona. Estos mapas, proporcionados por USGS (Swayze, 1997), contienen la
abundancia individual de cada componente en cada pixel de la imagen, por lo que
- 216 - Capítulo 4. Análisis y Discusión de resultados.
presentan una gran riqueza en cuanto a la cantidad de información que contienen.
Conviene destacar que estos mapas han sido obtenidos mediante la aplicación del
algoritmo Tetracorder (Clark y col., 1999), utilizando las firmas espectrales
contenidas en la librería USGS, y no mediante estudios de campo en el terreno. La
figura 4.3.3 muestra dichos mapas de abundancia.
Para facilitar la visualización de los ND’s de los mapas de abundancia de la figura 4.3.3, se
ha optado por utilizar una representación en colores en lugar de la tradicional representación en
niveles de grises. Esta forma de representación será utilizada en lo sucesivo a lo largo del
capítulo.
4.3.1.2. AVIP92.
Esta imagen fue obtenida por el sensor AVIRIS sobre la región Indian Pines, Indiana, en el
año 1992. La imagen consta de 68x86 pixels de 17 metros, cada uno de los cuales contiene 220
valores de radiancia en el rango 0.4 a 2.5 µm, expresados en µW/cm2/nm/sr (no disponemos de
datos de reflectancia para la misma).
Los valores de la relación SNR en los diferentes canales del sensor AVIRIS en el año en que
se tomó la imagen han sido mostrados con anterioridad en la figura 2.3.5. Como puede
apreciarse en dicha figura, esta imagen representa un caso de estudio en que el la relación SNR
resulta desfavorable.
La figura 4.3.4 muestra una composición en color de la imagen AVIP92 junto con sus clases
de verdad terreno asociadas. La composición está formada a partir de las bandas espectrales 50
(827 nm), 30 (655 nm) y 20 (557 nm), y sobre ella se han resaltado los bordes de las clases
verdad terreno. Esta información ha sido hecha pública a la comunidad científica (Landgrebe,
1998), y cubre aproximadamente el 80% de la escena. La figura muestra 4 clases verdad terreno,
en las cuales el número de pixels varía entre 1885 para la clase más abundante y 702 para la
menos abundante.
Como puede apreciarse en la figura, la mayor parte de la escena está constituida por cultivos
agrícolas (soja y maíz), bosques y otros tipos de vegetación. La imagen que nos ocupa fue
tomada en el mes de junio, por lo que los cultivos presentes en la misma se encuentran en una
etapa temprana de crecimiento, con un porcentaje de cobertura del suelo inferior al 5%.
Finalmente, mencionamos que, de forma previa al procesado de esta imagen, se eliminaron
algunas bandas espectrales (104-108, 150-163, 220), correspondientes a las zonas de absorción
de agua, en las que la SNR del sensor es reducida. Como resultado, se obtuvo una imagen con
200 bandas espectrales en el rango 0.4 a 2.5 µm.
Capítulo 4. Análisis y Discusión de resultados - 217 -
Soybean – notill
Grass – trees
Corn – notill
Grass – pasture
4.3.4. Composición en color de la imagen AVIP92 y clases verdad terreno asociadas a la misma.
4.3.1.3. CASI01.
El juego de imágenes denominado CASI01 está compuesto por 12 imágenes etiquetadas
como CASI01_01 a CASI01_12. Estas imágenes constituyen una simulación, realizada en
laboratorio, de un paisaje real formado por árboles dispersos sobre un fondo de características
espectrales variables (Hu y col., 2002). A diferencia de las imágenes simuladas descritas con
anterioridad en esta memoria, este conjunto de datos fue obtenido mediante el procedimiento
que se describe a continuación, el cual fue supervisado por el Dr. John R. Miller en el
CRESTech (Center for Research in Earth and Space Technology), en Toronto, Canadá:
1.- Inicialmente, se montaron objetos esféricos de dos tipos (opacos y translúcidos) sobre
una serie de soportes o estacas, simulando así un conjunto de árboles.
2.- Estos árboles simulados se colocaron, siguiendo una distribución aleatoria, sobre un
área de 40 cm por 40 cm delimitada en una maqueta cubierta con un fondo. Las
tonalidades empleadas para los distintos fondos utilizados fueron verde, oscuro y
claro.
3.- La maqueta resultante fue iluminada mediante una lámpara artificial de 1000 W,
utilizando un ángulo de incidencia de 40º.
4.- Finalmente, se adquirieron imágenes hiperespectrales de las maquetas simuladas
mediante el sensor CASI, descrito en el apartado 2.3.1. El proceso de adquisición se
realizó desplazando cada maqueta con velocidad constante de forma perpendicular al
IFOV del sensor. Para la calibración de estas imágenes, se utilizó como referencia un
panel Spectralon, cuyas unidades de radiancia fueron utilizadas como referencia a la
hora de calcular los valores de reflectancia de las escenas.
- 218 - Capítulo 4. Análisis y Discusión de resultados.
Como resultado del proceso anterior, se obtuvo un conjunto de 12 imágenes con 72 valores
de reflectancia en el rango 0.4 – 0.9 nm. Las tablas 4.3.2 y 4.3.3 muestran, respectivamente, las
dimensiones en centímetros de los árboles simulados y las características generales de las
imágenes.
Tipo de objeto
Opaco Translúcido
Altura del árbol 7.4 7.4
Altura de la estaca 4.8 4.0
Radio vertical 1.3 1.7
Radio horizontal 1.3 1.7
TABLA 4.3.2. DIMENSIONES EN CENTÍMETROS Y NATURALEZA DE LOS ÁRBOLES UTILIZADOS EN EL
JUEGO DE IMÁGENES CASI01.
Imagen Pixels Fondo Número de árboles Tipo de árboles
CASI01_01 148x216 Verde 40 Opacos
CASI01_02 148x185 Verde 40 Translúcidos
CASI01_03 148x192 Verde 100 Opacos
CASI01_04 148x203 Verde 100 Translúcidos
CASI01_05 148x204 Claro 40 Opacos
CASI01_06 148x184 Claro 40 Translúcidos
CASI01_07 149x186 Claro 100 Opacos
CASI01_08 148x207 Claro 100 Translúcidos
CASI01_09 148x200 Oscuro 40 Opacos
CASI01_10 148x178 Oscuro 40 Translúcidos
CASI01_11 148x200 Oscuro 100 Opacos
CASI01_12 148x213 Oscuro 100 Translúcidos
TABLA 4.3.3. CARACTERÍSTICAS DE LAS IMÁGENES QUE COMPONEN EL CONJUNTO CASI01.
Como puede apreciarse en la tabla 4.3.3, las imágenes simuladas se diferencian en el tipo de
fondo utilizado, en la naturaleza opaca o transparente de los árboles y en la concentración de los
mismos en la zona de 40 cm por 40 cm, que puede ser dispersa (40 árboles en dicha zona) o
densa (100 árboles en dicha zona).
Por razones ilustrativas, la figura 4.3.5 muestra una composición en color de las diferentes
imágenes obtenidas. Las bandas espectrales utilizadas en la composición son la 50 (770 nm), 30
(618 nm) y 20 (543 nm). Estas mismas bandas serán utilizadas en lo sucesivo a la hora de
realizar representaciones de estas imágenes.
Capítulo 4. Análisis y Discusión de resultados - 219 -
CASI01_01 CASI01_02 CASI01_03 CASI01_04
CASI01_05 CASI01_06 CASI01_07 CASI01_08
CASI01_09 CASI01_10 CASI01_11 CASI01_12
Figura 4.3.5. Composición en color de las imágenes CASI utilizadas en el estudio.
El gran control mantenido sobre las condiciones de generación de las imágenes
anteriormente descritas ha propiciado la obtención de información de verdad terreno a partir de
las mismas. En concreto, esta información contiene la proporción o abundancia global de cada
uno de los tres componentes fundamentales (árbol, fondo y sombra) en las imágenes.
A diferencia de la verdad terreno en el caso de la imagen AVCUP95, constituida por un
conjunto de mapas de abundancia que contienen los coeficientes de abundancia de cada
endmember en cada pixel de la imagen, en este caso únicamente se dispone de los valores de
abundancia globales. Estos valores fueron obtenidos en el CRESTech mediante el modelo
SPRINT (Goel y Thompson, 2000), que utiliza el concepto de ray-tracing, ampliamente
utilizado para modelar los efectos no lineales de dispersión múltiple, característicos de las
cubiertas vegetales. Esta información puede considerarse una verdad terreno, y resulta muy útil
para comparar los errores introducidos por el modelo lineal utilizado por nuestro método en un
escenario altamente no lineal.
- 220 - Capítulo 4. Análisis y Discusión de resultados.
La tabla 4.3.4 muestra los valores de abundancia verdad terreno, obtenidos mediante
SPRINT, para los componentes presentes en las imágenes descritas en la tabla 4.3.3.
Abundancia global
Imagen árbol Fondo Sombra
CASI02_01, CASI02_05, CASI02_09 (Árboles opacos, población dispersa)
0.1094 0.7231 0.1675
CASI02_02, CASI02_06, CASI02_10 (Árboles translúcidos, población dispersa)
0.1041 0.7016 0.1944
CASI02_03, CASI02_07, CASI02_11 (Árboles opacos, población densa)
0.2947 0.3837 0.3180
CASI02_04, CASI02_08, CASI02_12 (Árboles translúcidos, población densa)
0.2794 0.3578 0.3628
TABLA 4.3.4. VALORES DE ABUNDANCIA VERDAD TERRENO PARA LOS COMPONENTES PRESENTES
EN LAS IMÁGENES CASI01.
Por último, destacamos que, de forma previa al procesado de estas imágenes, fue necesario
eliminar algunas bandas con SNR baja, producidas por ruido en los dispositivos electrónicos del
sensor. Se han eliminado las bandas espectrales comprendidas entre 0.4 y 0.5 nm (13 bandas) y
las comprendidas entre 0.9 y 0.94 nm (6 bandas). Las imágenes resultantes presentan por tanto
un total de 53 bandas espectrales en la región 0.5 nm a 0.9 nm.
4.3.1.4. AVJR97.
Esta imagen fue tomada por el sensor AVIRIS sobre la región Jasper Ridge, California, en el
mes de abril de 1997, y consta de 300x250 pixels de 20 metros, cada uno de los cuales contiene
224 valores. La principal característica de esta imagen es que se encuentra disponible de forma
pública en unidades de radiancia y reflectancia (California Insitute of Technology, 2002):
En el caso de la imagen de radiancia (AVJRAD97), los valores se encuentran
expresados en µW/cm2/nm/sr.
En el caso de la imagen de reflectancia (AVJREF97), cada valor equivale a 100 veces
el tanto por ciento de la reflectancia en una determinada longitud de onda. Estos
valores fueron obtenidos como resultado de la aplicación del método de corrección
atmosférica ATREM, seguido de un post-procesado con la técnica EFFORT.
La escena cubierta por estas imágenes está fundamentalmente constituida por vegetación,
suelos desnudos y zonas urbanas, incluyendo edificaciones y carreteras. Esta variabilidad de
componentes hace que la imagen constituya un conjunto de datos muy apropiado para testear la
Capítulo 4. Análisis y Discusión de resultados - 221 -
precisión de algoritmos de análisis de carácter general, capaces de funcionar de forma
satisfactoria en múltiples aplicaciones.
No existe información de verdad terreno publicada en la literatura en referencia a esta
imagen. En las figuras 4.2.1.a y 4.2.1.b se mostró una composición en color verdadero de la
misma.
Por último, destacar que en las pruebas realizadas con esta imagen se utilizaron 191 bandas
espectrales. Las bandas de absorción de agua (situadas en las regiones 0.40-1.34 µm, 1.43-1.80
µm y 1.95-2.47 µm) fueron eliminadas, tanto en la imagen AVJRAD97 como en AVJREF97.
4.3.1.5. DSCA01.
Esta imagen fue obtenida por el sensor DAIS 7915, descrito en el apartado 2.3.1, sobre la
finca “El Cuartillo”, situada en las afueras de la ciudad de Cáceres, en julio de 2001. Este vuelo
fue financiado por la Comisión Europea, dentro de la iniciativa HySens, coordinada por la
Agencia Espacial Alemana, DLR.
La toma de datos sobre la finca mencionada se realizó a dos alturas diferentes (1.940 m y
890 m sobre la superficie). Como resultado, se obtuvieron dos imágenes a las que nos referimos
en lo sucesivo como DSCA01H (mayor altura) y DSCA01L (menor altura). A continuación,
describimos las características concretas de estas dos imágenes.
DSCA01H
Esta imagen consta de 94x77 pixels de 5 metros, cada uno de los cuales contiene 79 valores
de reflectancia en el rango 0.5 a 12.5 µm. Cada valor equivale a 10 veces el tanto por ciento de
la reflectancia en una determinada longitud de onda. Estos valores fueron obtenidos como
resultado de la aplicación del método de corrección atmosférica ATCOR (Richter, 2000).
La figura 4.3.6 muestra la ubicación de la imagen DSCA01H sobre la línea de vuelo de
mayor altura realizada por el sensor DAIS 7915, junto con una composición en color de dicha
imagen. Las bandas espectrales utilizadas en la composición son la 12 (695 nm), 7 (607 nm) y 2
(517 nm).
Como puede apreciarse en la figura, la imagen DSCA01H ha sido ubicada en la zona central
de la línea de vuelo, en un área adehesada. La Dehesa es un agro-ecosistema típico del suroeste
de la Península Ibérica, caracterizado por vegetación semi-árida compuesta en su mayoría por
- 222 - Capítulo 4. Análisis y Discusión de resultados.
pastos y encinas (Quercus ilex), distribuidas de forma dispersa sobre el pasto (Pulido y col.,
2001).
4.3.6. Ubicación de la imagen DSCA01H sobre la línea de vuelo de mayor altura del sensor DAIS
7915 sobre la finca “El Cuartillo”, en las afueras de Cáceres y composición en color de dicha
imagen.
Al oeste de la zona de Dehesa seleccionada pueden apreciarse las instalaciones del Campus
de la Universidad de Extremadura. Al este se encuentra el embalse del río Guadiloba, que da
servicio a la ciudad de Cáceres. Por último, en la parte más septentrional de la línea de vuelo
puede apreciarse la existencia de una amplia zona compuesta por vegetación árida,
fundamentalmente pasto seco, sin presencia de encinas.
Capítulo 4. Análisis y Discusión de resultados - 223 -
DSCA01L
Esta imagen consta de 155x126 pixels de 3 metros, cada uno de los cuales consta de 79
valores de reflectancia en el rango 0.5 a 12.5 µm. Cada valor equivale a 10 veces el tanto por
ciento de la reflectancia en una determinada longitud de onda. Al igual que en la imagen
DSCA01L, los valores de reflectancia fueron obtenidos mediante la aplicación del método de
corrección atmosférica ATCOR sobre los datos obtenidos por el sensor.
La figura 4.3.7 muestra una composición en color de la imagen DSCA01L, utilizando las
bandas 12 (695 nm), 7 (607 nm) y 2 (517 nm). Como puede apreciarse, la zona abarcada por
esta imagen es exactamente la misma que la definida para la imagen DSCA01H. Este hecho
permite comprobar el funcionamiento del algoritmo propuesto sobre una misma zona capturada
a diferentes alturas, comprobando así el impacto de la resolución espacial en el mismo.
4.3.7. Composición en color de la imagen DSCA01L.
Por último, destacamos que, tanto en el caso de la imagen DSCA01L como en DSCA01H,
las siguientes bandas espectrales fueron eliminadas debido a problemas de ruido en el sensor:
41-53 (región 1.948-2.137 µm), 66-72 (2.317 – 2.395 µm). Como resultado, se obtienen
imágenes con un total de 59 bandas espectrales.
4.3.1.6. RSCA01.
Esta imagen fue obtenida por el sensor ROSIS (ver apartado 2.3.1), sobre la finca “El
Cuartillo”, en las afueras de la ciudad de Cáceres, en julio de 2001. El vuelo fue coordinado por
el DLR y financiado por la Comisión Europea dentro de la iniciativa HySens.
Al igual que en el caso de la imagen DSCA01, la toma de datos se realizó a dos alturas
diferentes (1.940 metros y 890 metros sobre la superficie). Como resultado, se obtuvieron dos
- 224 - Capítulo 4. Análisis y Discusión de resultados.
imágenes a las que nos referimos en lo sucesivo como RSCA01H (mayor altura) y RSCA01L
(menor altura). A continuación, describimos las características concretas de estas dos imágenes.
RSCA01H
Esta imagen consta de 196x155 pixels de 2.4 metros, cada uno de los cuales contiene 115
valores de reflectancia en el rango 0.43 a 0.86 µm. Cada valor equivale a 100 veces el tanto por
ciento de la reflectancia en una determinada longitud de onda. Estos valores fueron obtenidos
mediante el método de corrección atmosférica ATCOR.
4.3.8. Composición en color de la imagen RSCA01H.
La figura 4.3.8 muestra una composición en color de la imagen RSCA01H, utilizando las
bandas 72 (696 nm), 50 (608 nm) y 27 (516 nm). Como puede apreciarse, la zona abarcada por
esta imagen es exactamente la misma que la definida para las imágenes DSCA01L y DSCA01L.
RSCA01L
Por último, la imagen RSCA01L imagen consta de 387x307 pixels de 1.2 metros, cada uno
de los cuales contiene 115 valores de reflectancia en el rango 0.43 a 0.86 µm. Al igual que en la
imagen RSCA01H, cada valor equivale a 100 veces el tanto por ciento de la reflectancia en una
determinada longitud de onda. Estos valores fueron obtenidos mediante el método de corrección
atmosférica ATCOR.
La figura 4.3.9 muestra una composición en color de la imagen RSCA01L, utilizando las
bandas 72 (696 nm), 50 (608 nm) y 27 (516 nm). De nuevo, la zona abarcada por la imagen es
la misma que la definida para las anteriores imágenes con los sensores DAIS 7915 y ROSIS.
Capítulo 4. Análisis y Discusión de resultados - 225 -
Este hecho permite comprobar el funcionamiento del algoritmo propuesto sobre una misma
escena, adquirida por diferentes sensores y a diferentes alturas.
4.3.9. Composición en color de la imagen RSCA01L.
Finalmente, destacamos que algunas bandas espectrales (en concreto, las bandas 1-23)
fueron eliminadas en las imágenes RSCA01L y RSCA01H debido a la baja SNR del sensor para
longitudes de onda inferiores a 0.5 µm. La eliminación de estas bandas fue recomendada por los
desarrolladores de ROSIS como paso previo al procesamiento de los datos. Como resultado, se
obtienen imágenes con un total de 92 bandas espectrales.
4.3.2. Experimentos realizados con imágenes reales.
En este apartado describimos los experimentos realizados con las imágenes reales
anteriormente descritas. El procedimiento seguido en cada experimento viene condicionado por
la disponibilidad y características de la información de verdad terreno.
En las pruebas realizadas, el algoritmo propuesto se compara con otras aproximaciones
existentes en la literatura, en concreto, los métodos PPI y N-FINDR, que han sido descritos con
anterioridad en el apartado 2.3.2.2.
A continuación se describen brevemente los experimentos realizados, los cuales permiten
obtener una serie de conclusiones sobre la aplicación del método propuesto en problemas reales.
1.- Primer experimento. Presupone que la información de verdad terreno consiste en un
conjunto de firmas espectrales puras características de los materiales presentes en la
escena. En este caso, el mecanismo de comparación utilizado consiste en un algoritmo
de emparejamiento de firmas espectrales que nos permitirá separar entre los
endmembers asociados a materiales presentes en la imagen, y endmembers
- 226 - Capítulo 4. Análisis y Discusión de resultados.
adicionales, producidos por ruido y otras circunstancias ya apuntadas en el capítulo de
antecedentes, entre las que destacamos las siguientes (ver figura 2.1.4).
a. Extracción de más de una firma espectral asociada a un material concreto.
b. Efectos de ruido producidos por valores de SNR bajos en determinados canales
espectrales del sensor.
c. Existencia de sombras y condiciones de escasa iluminación en determinadas
zonas de la escena considerada.
d. Alteración espectral de ciertos pixels provocada por efectos atmosféricos.
e. Mezclas entre materiales.
2.- Segundo experimento. Considera que la información de verdad terreno viene
expresada en la forma de un mapa temático de clasificación (ver apartado 2.3.2.1). En
este tipo de mapas, los pixels aparecen etiquetados como pertenecientes a una única
clase, normalmente asociada a un material concreto. Las características de la verdad
terreno en este caso hace que la comparación vaya precedida de un paso previo en el
que los pixels mezcla de la imagen se etiquetan como pertenecientes a una clase
concreta. Este paso equivale a convertir pixels mezcla en pixels puros.
3.- Tercer experimento. Parte del supuesto de que la información de verdad terreno está
expresada en forma de un conjunto de mapas de abundancia (ver apartado 2.3.2.2),
uno por componente, que describen la abundancia real de cada material en todos los
pixels de la escena. En esta situación, debemos obtener las abundancias de los
endmembers extraídos por nuestro algoritmo en cada pixel, con objeto de poder
compararlos con las abundancias reales antes mencionadas.
4.- Cuarto experimento. Se trata de una variante del anterior. En este caso, se parte del
supuesto de que se dispone de información verdad terreno relativa a la abundancia
global de cada material en la imagen. En estas circunstancias, es necesario calcular la
abundancia global de cada uno de los endmembers obtenidos por el método propuesto.
Como proponen algunos autores (Hu y col., 2002), esta tarea puede realizarse
sumando las fracciones de abundancia obtenidas para el endmember en todos los
pixels de la imagen y dividiendo el valor obtenido por el número total de pixels,
procedimiento que únicamente es válido si los valores de abundancia han sido
obtenidos utilizando un procedimiento FCLSU.
5.- Quinto experimento. Presupone que no existe información verdad terreno asociada a
la imagen analizada. En este caso, la evaluación de la calidad del algoritmo de
extracción de endmembers se basa en un proceso en el que se obtiene una versión
Capítulo 4. Análisis y Discusión de resultados - 227 -
reconstruida de la imagen original a partir del juego de endmembers extraídos y sus
correspondientes abundancias (ver apartado 2.3.2.2). La información utilizada como
verdad terreno en este caso es la propia imagen original, con la cual se compara la
imagen reconstruida para establecer una evaluación cualitativa del algoritmo. De
forma paralela a la anterior experiencia, en este experimento también se evalúa la
posibilidad de comprimir la imagen original almacenando únicamente los mapas de
abundancia asociados a los endmembers de la imagen.
6.- Sexto experimento. Parte del supuesto de que la imagen original no tiene ningún tipo
de información verdad terreno asociada, pero sí se dispone de varias versiones de la
misma con diferentes resoluciones espaciales, motivadas por la realización de vuelos a
diferente altura sobre la zona abarcada por la imagen. En este caso, se utiliza la
imagen de mayor resolución espacial (menor altura) para validar las imágenes de baja
resolución (mayor altura). Así, la imagen de mayor resolución actúa como verdad
terreno para las de menor resolución.
4.3.2.1. Primer experimento. Firmas espectrales verdad terreno.
Las pruebas realizadas en este apartado tienen como objetivo analizar la calidad de los
endmembers extraídos por nuestro algoritmo cuando la verdad terreno viene expresada en forma
de un conjunto de firmas espectrales de referencia. El objetivo general antes planteado se
desglosa en los siguientes objetivos específicos:
Evaluar la calidad de los endmembers extraídos por el algoritmo en términos de su
similaridad espectral respecto a las firmas verdad terreno disponibles.
Comparar el método propuesto con otros existentes.
El proceso comparativo realizado en este experimento se lleva a cabo mediante una serie de
pasos que se describen a continuación.
1.- Se extraen los endmembers de la imagen utilizando un algoritmo de identificación.
2.- Se calculan matrices de correlación entre el juego de endmembers extraído y las
firmas espectrales verdad terreno, utilizando como medidas el ángulo espectral (SAM)
y la divergencia espectral (SID). Ambas medidas fueron introducidas en el apartado
2.3.2.
3.- A partir de dichas matrices, se establecen emparejamientos entre endmembers y firmas
verdad terreno. El proceso de emparejamiento consiste en identificar el endmember
más similar, según las anteriores medidas, para cada firma verdad terreno. Como
- 228 - Capítulo 4. Análisis y Discusión de resultados.
resultado de este proceso, los endmembers extraídos se etiquetan como emparejados o
adicionales dependiendo de si fueron o no asociados con alguna firma verdad terreno.
4.- Los endmembers reales se comparan de forma global con los extraídos a partir de la
imagen, analizando las principales coincidencias.
Las pruebas desarrolladas en este experimento han sido realizadas con la imagen AVCUP95,
descrita en el apartado 4.3.1.1. El esquema comparativo adoptado se repite para cada uno de los
métodos de extracción de endmembers considerados (PPI, N-FINDR y AMEE) y, en última
instancia, se comparan los resultados obtenidos por los tres métodos. A continuación
describimos las pruebas realizadas dentro de este experimento.
Primera prueba: análisis de AVCUP95 con algoritmo PPI
Los endmembers extraídos por el método PPI a partir de la imagen AVCUP95 han sido
extraídos por los autores del método. Recordamos que PPI es un método supervisado que se
caracteriza por su gran interactividad, de modo que es recomendable la intervención de un
analista con conocimiento previo sobre los datos. En este sentido, los desarrolladores de PPI
poseen una amplia experiencia en la aplicación de su método sobre la zona de Cuprite, Nevada,
por lo que hemos dejado a su criterio la selección de los parámetros óptimos para el
funcionamiento adecuado del método. A continuación, enumeramos los pasos seguidos por los
autores del método en el proceso de análisis de la imagen AVCUP95:
1.- Se aplicó una transformación MNF (ver apartado 2.3.2.2) para reducir la
dimensionalidad de la imagen original, obteniendo una imagen reducida a subconjunto
de 25 bandas.
2.- Se aplicó el método PPI sobre la imagen de dimensionalidad reducida obtenida en el
paso anterior. El número de iteraciones realizadas fue 10,000. Como refutado de este
paso, se obtuvo una imagen en ND’s donde el ND en cada pixel corresponde al
número de veces que el pixel fue seleccionado como extremo.
3.- A partir de la anterior imagen, se identificaron los pixels seleccionados como
extremos 1,000 veces o más y se cargaron en una herramienta de visualización N-
dimensional (Boardman, 1993).
4.- Después de un proceso interactivo consistente en representar unas bandas MNF frente
a otras y anotar los puntos extremos en cada representación, se identificaron 11 firmas
espectrales o endmembers.
Capítulo 4. Análisis y Discusión de resultados - 229 -
La tabla 4.3.5 muestra una matriz de correlación espectral entre las firmas extraídas por el
algoritmo PPI y las firmas espectrales de referencia pertenecientes a la librería USGS. Los
valores representados en la matriz corresponden a la distancia angular (SAM). Los endmembers
extraídos por el método PPI han sido etiquetados en la tabla como P1..P10, mientras que las
firmas de referencia se han etiquetado con su nombre original en la librería USGS.
Endmembers extraídos por el método PPI
Firmas USGS P1 P2 P3 P4 P5 P6 P7 P8 P9 P10 P11
Alunite SUSTDA 0.084 0.091 0.159 0.141 0.228 0.169 0.172 0.143 0.161 0.170 0.173
Buddingt.NHB2301 0.242 0.221 0.181 0.142 0.272 0.163 0.290 0.306 0.182 0.251 0.244
Calcite WS272 0.194 0.150 0.104 0.135 0.080 0.104 0.149 0.187 0.100 0.124 0.137
Kaolinite CM9 0.172 0.179 0.223 0.241 0.212 0.242 0.120 0.067 0.217 0.181 0.228
TABLA 4.3.5. MATRIZ DE DISTANCIAS ANGULARES ENTRE LOS ENDMEMBERS SELECCIONADOS POR
EL MÉTODO PPI Y LOS ESPECTROS DE REFERENCIA DE LA LIBRERÍA USGS.
En la tabla 4.3.5, aparecen resaltados en negrita los emparejamientos realizados. Como
puede apreciarse, los endmembers emparejados son P1 (alunite), P4 (buddingtonite), P5
(calcite) y P8 (kaolinite).
Por su parte, la tabla 4.3.6 muestra una variante de la matriz de correlación anterior, en la
que los valores representados en la matriz corresponden a la divergencia espectral (SID). De
nuevo, se resaltan en negrita los emparejamientos realizados, que son idénticos a los obtenidos
en el caso de la matriz SAM.
Endmembers extraídos por el método PPI
Firmas USGS P1 P2 P3 P4 P5 P6 P7 P8 P9 P10 P11
Alunite SUSTDA 0.003 0.008 0.026 0.021 0.056 0.030 0.030 0.021 0.027 0.029 0.031
Buddingt.NHB2301 0.066 0.055 0.035 0.022 0.081 0.028 0.089 0.102 0.035 0.070 0.067
Calcite WS272 0.042 0.026 0.012 0.019 0.008 0.012 0.025 0.039 0.011 0.019 0.023
Kaolinite CM9 0.030 0.031 0.048 0.057 0.046 0.057 0.014 0.005 0.046 0.032 0.050
TABLA 4.3.6. MATRIZ SID ENTRE LOS ENDMEMBERS SELECCIONADOS POR EL MÉTODO PPI Y LOS
ESPECTROS DE REFERENCIA DE LA LIBRERÍA USGS.
A partir de los resultados mostrados en las tablas 4.3.5 y 4.3.6, los endmembers emparejados
al considerar las distancias SAM y SID son P1 (alunite), P4 (buddingtonite), P5 (calcite) y P8
(kaolinite).
- 230 - Capítulo 4. Análisis y Discusión de resultados.
0
100
200
300
400
2000 2100 2200 2300 2400 2500
Longitud de onda (nm)
Ref
lect
anci
a (%
*10)
P1 P4 P5 P8
Endmembers emparejados (PPI)
0
100
200
300
400
500
600
2000 2100 2200 2300 2400 2500
Longitud de onda (nm)
Ref
lect
anci
a (%
*10) P9
P3
P1
P11 P10
P7
P6
Endmembers adicionales (PPI)
Figura 4.3.10. Endmembers emparejados (parte izquierda) y adicionales (parte derecha) extraídos por
el algoritmo PPI .
La figura 4.3.10 (parte izquierda) muestra las firmas espectrales de los endmembers
emparejados. Las unidades en que vienen expresadas estas firmas son las mismas que las de la
imagen original (10 veces la reflectancia expresada en tanto por ciento). La parte derecha de la
figura muestra los endmembers adicionales. Como puede apreciarse en la figura, PPI detecta un
total de 7 endmembers adicionales, entre los que se encuentran P6, probablemente debido a
efectos de sombra; P3 y P9, que pueden deberse a efectos de iluminación excesiva; P2, que
parece una variante de alunite, al igual que P10, P7, probablemente asociados a calcite y
kaolinite, respectivamente. Es probable que el resto de endmembers adicionales se deba a
mezclas íntimas entre minerales.
Segunda prueba: análisis de AVCUP95 con algoritmo N-FINDR
El método N-FINDR ha sido aplicado sobre la imagen AVCUP95 por el autor del algoritmo,
que ha seleccionado los parámetros óptimos en base a su experiencia y nos ha proporcionado el
conjunto final de endmembers extraídos. El método fue aplicado de forma directa sobre la
imagen original, sin ningún tipo de reducción dimensional previa. Los parámetros empleados en
el proceso de análisis fueron los siguientes:
Número máximo de endmembers a identificar: 15.
Sensibilidad: 0.005.
Las tablas 4.3.7 y 4.3.8 muestran, respectivamente, la matriz de distancias angulares y la
matriz SID entre las firmas extraídas por el algoritmo N-FINDR y las firmas espectrales de
referencia pertenecientes a la librería USGS. Los endmembers extraídos por N-FINDR se
Capítulo 4. Análisis y Discusión de resultados - 231 -
etiquetan como N1..N9, respetando el nombre asignado a las firmas de referencia en dicha
librería. De nuevo, los emparejamientos aparecen destacados en negrita en cada tabla.
Endmembers extraídos por el método N-FINDR
Firmas USGS N1 N2 N3 N4 N5 N6 N7 N8 N9 N10
Alunite SUSTDA 0.174 0.163 0.053 0.203 0.152 0.177 0.147 0.161 0.130 0.172
Buddingt.NHB2301 0.147 0.286 0.238 0.237 0.137 0.257 0.140 0.228 0.267 0.157
Calcite WS272 0.105 0.152 0.191 0.064 0.152 0.148 0.142 0.113 0.150 0.107
Kaolinite CM9 0.248 0.118 0.173 0.214 0.259 0.227 0.250 0.188 0.103 0.238
TABLA 4.3.7. MATRIZ DE DISTANCIAS ANGULARES ENTRE LOS ENDMEMBERS SELECCIONADOS POR
EL MÉTODO N-FINDR Y LOS ESPECTROS DE REFERENCIA DE LA LIBRERÍA USGS.
En vista de los resultados mostrados en las tablas 4.3.7 y 4.3.8, los endmembers emparejados
son N3 (alunite), N4 (calcite), N5 (buddingtonite) y N9 (kaolinite). La figura 4.3.11 muestra los
endmembers emparejados (parte izquierda) y adicionales (parte derecha). Como puede
apreciarse, N-FINDR detecta un total de 6 endmembers adicionales: N1, que puede deberse a
efectos de sombra; N8 y N10; probablemente producidos por condiciones de iluminación
excesivas; y finalmente N2, N6 y N7, que parecen, respectivamente, variantes de kaolinite,
calcite y buddingtonite.
Endmembers extraídos por el método N-FINDR
USGS spectra N1 N2 N3 N4 N5 N6 N7 N8 N9 N10
Alunite SUSTDA 0.032 0.027 0.003 0.044 0.024 0.032 0.023 0.026 0.017 0.055
Buddingt.NHB2301 0.022 0.087 0.063 0.061 0.021 0.076 0.026 0.056 0.076 0.044
Calcite WS272 0.012 0.026 0.041 0.005 0.025 0.027 0.021 0.015 0.025 0.026
Kaolinite CM9 0.060 0.013 0.030 0.045 0.066 0.050 0.061 0.034 0.010 0.074
TABLA 4.3.8. MATRIZ DE DISTANCIAS ANGULARES ENTRE LOS ENDMEMBERS SELECCIONADOS POR
EL MÉTODO N-FINDR Y LOS ESPECTROS DE REFERENCIA DE LA LIBRERÍA USGS.
0
100
200
300
400
500
2000 2100 2200 2300 2400 2500
Longitud de onda (nm)
Ref
lect
anci
a (%
*10)
N3 N4 N5 N9
0
100
200
300
400
500
600
700
2000 2100 2200 2300 2400 2500
Longitud de onda (nm)
Ref
lect
anci
a (%
*10)
N10
N8
N6
N2N7
N1
Endmembers emparejados (N-FINDR) Endmembers adicionales (N-FINDR)
Figura 4.3.11. Endmembers emparejados (parte izquierda) y adicionales (parte derecha) extraídos por
el algoritmo N-FINDR.
- 232 - Capítulo 4. Análisis y Discusión de resultados.
Tercera prueba: análisis de AVCUP95 con algoritmo AMEE
La imagen AVCUP95, sin ningún tipo de pre-procesado o reducción dimensional previa, ha
sido procesada mediante el método AMEE en nuestro laboratorio, utilizando el procedimiento
que se describe a continuación.
1.- Se estableció como parámetro un elemento estructural de 15x15 pixels. Las
dimensiones de este elemento fueron determinadas de forma empírica a partir de los
mapas de abundancia verdad terreno disponibles para la imagen (ver apartado 4.3.1.1).
2.- Utilizando el elemento estructural antes mencionado, se aplicó el método morfológico
propuesto, obteniendo una imagen en ND’s donde cada valor puede interpretarse
como una estimación del índice de pureza de cada pixel.
3.- La imagen de pureza fue umbralizada mediante el método automático de Otsu,
descrito en el apartado 2.3.2.2, obteniendo un conjunto de regiones puras.
4.- Finalmente, se aplicó un proceso de crecimiento MECR (descrito en 3.2.2.3) sobre
dichas regiones. A partir de las regiones resultantes de la etapa de crecimiento, se
obtuvo un conjunto final de endmembers mediante el cálculo del espectro promedio en
cada región.
Endmembers extraídos por el método AMEE
Firmas USGS A1 A2 A3 A4 A5 A6 A7 A8 A9
Alunite SUSTDA 0.052 0.162 0.149 0.206 0.202 0.111 0.188 0.162 0.154
Buddingt.NHB2301 0.242 0.179 0.136 0.243 0.259 0.267 0.362 0.262 0.171
Calcite WS272 0.194 0.099 0.146 0.070 0.164 0.159 0.235 0.132 0.084
Kaolinite CM9 0.172 0.220 0.254 0.215 0.268 0.139 0.061 0.178 0.185
TABLA 4.3.9. MATRIZ DE DISTANCIAS ANGULARES ENTRE LOS ENDMEMBERS SELECCIONADOS POR
EL MÉTODO AMEE Y LOS ESPECTROS DE REFERENCIA PRESENTES EN LA LIBRERÍA USGS.
Endmembers extraídos por el método AMEE
Espectros USGS A1 A2 A3 A4 A5 A6 A7 A8 A9
Alunite SUSTDA 0.003 0.027 0.023 0.045 0.042 0.014 0.037 0.028 0.026
Buddingt.NHB2301 0.066 0.034 0.020 0.065 0.078 0.082 0.144 0.078 0.030
Calcite WS272 0.042 0.011 0.022 0.006 0.033 0.031 0.062 0.023 0.007
Kaolinite CM9 0.030 0.047 0.063 0.046 0.071 0.020 0.006 0.031 0.035
TABLA 4.3.10. MATRIZ SID ENTRE LOS ENDMEMBERS SELECCIONADOS POR EL MÉTODO AMEE Y
LOS ESPECTROS DE REFERENCIA PRESENTES EN LA LIBRERÍA USGS.
Las tablas 4.3.9 y 4.3.10 muestran, respectivamente, la matriz SAM y la matriz SID entre las
firmas extraídas por el algoritmo AMEE y las firmas espectrales de referencia en la librería
Capítulo 4. Análisis y Discusión de resultados - 233 -
USGS. Los endmembers extraídos por AMEE se etiquetan como A1..A9, mientras que las
firmas de referencia se etiquetan con su nombre en la librería.
El proceso de emparejamiento da como resultado las asociaciones que aparecen destacadas
en negrita en las tablas: A1 (alunite), A3 (budingtonite), A4 (calcite) y A7 (kaolinite). La figura
4.3.12 muestra las firmas espectrales de los endmembers emparejados (parte izquierda) y
adicionales (parte derecha) para el método AMEE. Como puede apreciarse, nuestro método
detecta 5 endmembers adicionales: A5, que puede estar producido por condiciones de escasa
iluminación o sombra y A2, probablemente debido a condiciones de iluminación excesivas. El
resto de endmembers adicionales puede estar asociado a variantes de alguno de los minerales
detectados. Así, A6 parece una variante de alunite y A9 puede interpretarse como un espectro
de calcite. La detección de varios endmembers asociados a un mismo mineral demuestra que
nuestro método es capaz de modelar pequeñas variaciones en las características espectrales de
los minerales, producidas por condiciones variables de distribución en la escena.
0
100
200
300
400
2000 2100 2200 2300 2400 2500
Longitud de onda (nm)
Ref
lect
anci
a (%
*10)
A1 A3 A4 A7
0
100
200
300
400
500
2000 2100 2200 2300 2400 2500
Longitud de onda (nm)
Ref
lect
anci
a (%
*10)
A2
A9
A8
A6
A5
Endmembers emparejados (AMEE) Endmembers adicionales (AMEE)
Figura 4.3.12. Endmembers emparejados (parte izquierda) y adicionales (parte derecha) extraídos por
el algoritmo AMEE.
La realización de un estudio comparativo de los resultados proporcionados por los
algoritmos PPI, N-FINDR y AMEE debe centrarse en un análisis pormenorizado de los
endmembers emparejados. Este hecho se debe a que no todos los endmembers adicionales
pueden ser evaluados al no existir información de verdad terreno asociada a muchos de ellos en
la librería de referencia (por ejemplo, no existe ningún endmember de sombra en dicha librería).
La figura 4.3.13 muestra un estudio comparativo entre los endmembers extraídos por los
métodos antes mencionados para los minerales: alunite, buddingtonite, calcite y kaolinite. Con
motivo de poder establecer una comparación visual con las firmas verdad terreno de la librería
espectral USGS, representamos en las gráficas la firma USGS de referencia asociada a cada
mineral junto con las firmas extraídas por los diferentes métodos de extracción de endmembers
- 234 - Capítulo 4. Análisis y Discusión de resultados.
para dicho mineral. Para facilitar la comparación, se han expresado todas las firmas en las
unidades de la imagen original (10 veces el tanto por ciento de reflectancia). Para cada uno de
los endmembers representados en la figura se muestran, entre paréntesis, los valores de la
distancia SAM entre el endmember y su firma USGS correspondiente.
Los resultados mostrados en la figura 4.3.13 revelan que, a pesar de las diferencias
existentes en cuanto a unidades y escalas, los tres métodos extraen endmembers que presentan
una forma espectral muy similar entre sí.
100
200
300
400
500
600
2000 2100 2200 2300 2400 2500
Longitud de onda (nm)
Ref
lect
anci
a (%
*10)
USGSA7 (0.061)N9 (0.103)P8 (0.067)
100
200
300
400
2000 2100 2200 2300 2400 2500
Longitud de onda (nm)
Ref
lect
anci
a (%
*10)
USGSA1 (0.052)N3 (0.053)P1 (0.084)
100
200
300
400
2000 2100 2200 2300 2400 2500
Longitud de onda (nm)
Ref
lect
anci
a (%
*100
)USGSA3 (0.136)N5 (0.137)P4 (0.142)
100
200
300
400
500
2000 2100 2200 2300 2400 2500
Longitud de onda (nm)
Ref
lect
anci
a (%
*10)
USGS
A4 (0.070)
N4 (0.064)
P5 (0.080)
Alunite Buddingtonite
Calcite Kaolinite
Figura 4.3.13. Endmembers emparejados obtenidos por los diferentes algoritmos y firmas USGS de
referencia para los minerales considerados, junto con los valores de la distancia angular.
A modo de resumen de las pruebas realizadas a lo largo del primer experimento,
destacamos las siguientes consideraciones:
Los tres métodos comparados (PPI, N-FINDR y AMEE) proporcionan resultados
comparables en cuanto a la identificación de endmembers en la imagen
AVCUP95. Esta circunstancia resulta destacable, puesto que dichos métodos se
basan en fundamentos diferentes.
La utilización de firmas de referencia basadas en medidas sobre el terreno pone de
manifiesto algunos problemas posiblemente introducidos por el proceso de
corrección atmosférica de la imagen. En la imagen analizada, los endmembers
Capítulo 4. Análisis y Discusión de resultados - 235 -
extraídos por los tres métodos en el caso del mineral buddingtonite presentan
valores de similaridad reducidos con respecto a la firma USGS verdad terreno,
particularmente en longitudes de onda entre 2.400 y 2500 nm. Este hecho puede
deberse a la existencia de efectos de transmisión atmosférica que no han sido
modelados de forma adecuada por el algoritmo de corrección ATREM en dicho
intervalo de longitudes de onda.
Los endmembers extraídos por el método AMEE presentan los mejores valores de
similaridad (según las medidas SAM y SID) con respecto a las firmas verdad
terreno para los minerales alunite, buddingtonite y kaolinite. Por su parte, el
método N-FINDR es el más apropiado para identificar el mineral calcite. El
método PPI, en general, ofrece los resultados de similaridad más bajos en todos
los casos.
El uso combinado de información espacial y espectral puede ser la principal causa
de los alentadores resultados obtenidos por el algoritmo AMEE en el análisis de
esta imagen.
4.3.2.2. Segundo experimento. Mapas temáticos verdad terreno.
Las pruebas realizadas en este apartado tienen como objetivo analizar la calidad de los
endmembers extraídos por nuestro algoritmo en el caso en que la información de verdad terreno
viene expresada en forma de un mapa temático de clasificación. Este objetivo general se
desglosa en los siguientes objetivos específicos:
Analizar la calidad de los endmembers extraídos utilizando la información de verdad
terreno disponible.
Comparar el método propuesto con respecto a otros métodos existentes.
El procedimiento de comparación en este experimento se basa en la realización de los
siguientes pasos.
1.- Se extraen los endmembers de la imagen utilizando un determinado algoritmo.
2.- A continuación, se utiliza un mecanismo para asignar cada pixel de la imagen a una
única clase. Este mecanismo se denomina winner-take-all (WTA), y ha sido
frecuentemente utilizado en aplicaciones de redes neuronales (Simon, 1999). El
proceso WTA para asignar un determinado pixel (ya sea puro o mezcla) a una clase
concreta se realiza mediante los siguientes pasos:
- 236 - Capítulo 4. Análisis y Discusión de resultados.
a. Se establecen las clases presentes en la imagen. Estas clases vienen definidas
por los endmembers extraídos.
b. Se calculan los coeficientes de abundancia de los endmembers presentes en el
pixel utilizando un procedimiento FCLSU (ver apartado 2.3.2.2).
c. Utilizando las fracciones de abundancia obtenidas, se determina cuál es el
endmember más abundante en el pixel.
d. El pixel se etiqueta como perteneciente a la clase definida por el endmember
más abundante.
3.- Una vez realizada la clasificación, se compara, pixel a pixel, el resultado de
clasificación temático obtenido con la información del mapa temático verdad terreno.
Para ello, calculamos la fracción de verdaderos y falsos positivos en cada clase.
Las pruebas descritas en este apartado se han realizado utilizando la imagen AVIP92, en la
que la verdad terreno viene expresada como mapa temático (ver descripción de la imagen en
4.3.1.2). Esta imagen se caracteriza por representar un problema de clasificación complejo,
debido a la elevada similaridad espectral entre las cubiertas presentes en la escena. Con objeto
de ilustrar esta circunstancia, la figura 4.3.14 muestra un espectro característico de cada una de
las clases verdad terreno presentes en la imagen (ver figura 4.3.4). Estas firmas espectrales se
han obtenido mediante el cálculo del espectro promedio de los pixels que componen cada una de
dichas regiones.
0
1000
2000
3000
4000
5000
6000
7000
300 600 900 1200 1500 1800 2100 2400
Longitud de onda (nm)
Rad
ian
cia
(μW
/cm
2 /n
m/
sr)
Grass - trees
Grass - pasture
Corn - notill
Soybean - notill
Espectros promedio
4.3.14. Espectros característicos de las regiones verdad terreno en la imagen AVIP92.
La gran similitud entre las firmas espectrales promedio nos da una idea de la alta dificultad a
la hora de distinguir entre las clases de la escena. En un problema de clasificación complejo
Capítulo 4. Análisis y Discusión de resultados - 237 -
como el que nos ocupa, el uso de información espacial debe jugar un papel importante en la
mejora de los resultados finales, como se apuntó en el apartado 2.4.
Para evaluar la precisión a la hora de clasificar la imagen, se utilizó el procedimiento WTA a
partir de los endmembers proporcionados los métodos PPI, N-FINDR y AMEE. Estos métodos
fueron aplicados sobre la imagen AVIP92 en nuestro laboratorio, gracias a la disponibilidad de
ambos métodos, facilitados por sus autores. Los parámetros utilizados son los que aparecen
descritos en la tabla 4.3.11, los cuales coinciden con los empleados al analizar la imagen
AVCUP95. En todos los casos, los métodos dieron como resultado 4 endmembers, que fueron
asociados con las clases verdad terreno tras un simple proceso de observación de sus
correspondientes mapas de abundancia.
PPI N-FINDR AMEE
Parámetro
Número iteraciones
Umbral selección pixels puros
Nº máximo de endmembers
Sensibilidad
Tamaño Ventana
Valor 10.000 100 15 0.005 15x15
TABLA 4.3.11. PARÁMETROS UTILIZADOS AL APLICAR LOS MÉTODOS PPI, N-FINDR Y AMEE SOBRE
LA IMAGEN AVIP92.
La figura 4.3.15 muestra los mapas temáticos de clasificación obtenidos a partir de los
endmembers seleccionados por los métodos PPI, N-FINDR y AMEE. Para una mejor
interpretación visual de los resultados obtenidos, los colores empleados en los mapas temáticos
obtenidos son los mismos que los del mapa temático verdad terreno, que también se muestra en
la figura para facilitar la comparación.
Con objeto de cuantificar los resultados de clasificación obtenidos, la tabla 4.3.12 muestra
un estudio comparativo del porcentaje de acierto y fallo obtenido por cada uno de los métodos.
En concreto, la tabla muestra la fracción de verdaderos positivos y la fracción de falsos
positivos para cada una de las clases verdad terreno. La fracción de verdaderos positivos en una
clase cuantifica el porcentaje de pixels que han sido correctamente etiquetados como
pertenecientes a la clase. Por su parte, la fracción de falsos positivos en una clase ofrece una
medida acerca del porcentaje de pixels que han sido etiquetados erróneamente como
pertenecientes a dicha clase. A título comparativo, la tabla también muestra los valores
promedio obtenidos para todas las clases y el número de pixels de cada una de ellas.
Como puede apreciarse en la tabla 4.3.12, los tres métodos presentan porcentajes globales de
fallo similares y relativamente bajos, siendo las diferencias entre los métodos más notorias
cuando se evalúa el porcentaje de acierto. En concreto, el método AMEE presenta los mejores
- 238 - Capítulo 4. Análisis y Discusión de resultados.
resultados globales en cuanto a acierto, manteniendo un porcentaje global del 82% (nueve
puntos por encima de N-FINDR y a gran distancia de PPI).
Soybean – notill
Grass – trees
Corn – notill
Grass – pasture
Verdad-terreno AMEE
N-FINDR PPI
4.3.15. Mapa temático verdad terreno para la imagen AVIP92 y mapas temáticos, obtenidos
mediante el procedimiento WTA, para los métodos PPI, N-FINDR y AMEE.
AMEE N-FINDR PPI
Clase Nº de pixels VP FP VP FP VP FP
soybean – notill 1885 0.86 0.04 0.82 0.06 0.45 0.07
grass – trees 733 0.85 0.09 0.89 0.01 0.89 0.01
corn – notill 702 0.82 0.03 0.63 0.08 0.79 0.25
grass – pasture 955 0.76 0.09 0.54 0.11 0.34 0.04
Promedios globales 0.82 0.05 0.73 0.06 0.55 0.08
Tabla 4.3.12. Fracción de verdaderos positivos y falsos positivos generados por cada uno de los
métodos empleados en el proceso de clasificación de la imagen AVIP92.
Un análisis individual de los resultados mostrados en la tabla 4.3.8 para cada clase revela
que el método AMEE presenta porcentajes de acierto superiores al 75% en todas las clases,
siendo los porcentajes de fallo siempre inferiores al 10%. En particular, el mayor porcentaje de
acierto (86%) se logra en la clase con mayor número de pixels (soybean – notill).
Los resultados obtenidos por N-FINDR son, en general, ligeramente inferiores a los
obtenidos por AMEE, siendo destacable el pobre comportamiento del algoritmo en la clase
Capítulo 4. Análisis y Discusión de resultados - 239 -
grass – pasture (la segunda clase con mayor número de pixels), en la que el porcentaje de
acierto apenas supera el 50%.
Por su parte, el método PPI presenta un porcentaje de acierto cercano al 90% para la clase
grass – trees, pero el rendimiento en otras clases es mucho más bajo. En concreto, este método
presenta un porcentaje de acierto del 45% para la clase con mayor número de puntos (soybean –
notill), y un 34% para la clase grass – pasture. Además, la elevada fracción de falsos positivos
en la clase corn – notill contrasta con la alta tasa de acierto para la clase (79%). Esto hace que,
en términos globales, el método PPI sea el que presenta los resultados menos precisos en esta
imagen.
A modo de resumen de las pruebas realizadas a lo largo del segundo experimento,
destacamos las siguientes consideraciones:
La utilización del procedimiento WTA para convertir pixels mezcla en pixels
puros permite analizar la calidad de los endmembers extraídos por los métodos
PPI, N-FINDR y AMEE cuando la información de verdad terreno viene expresada
en forma de un mapa de clasificación temático.
Los resultados proporcionados por el método AMEE en un problema de
clasificación complejo como es el análisis de la imagen AVIP92 pueden resumirse
en una tasa aceptable de verdaderos positivos y una fracción muy reducida de
falsos positivos.
En el resto de los métodos comparados (PPI y N-FINDR), la tasa de falsos
positivos se mantiene en valores muy bajos en la mayor parte de los casos, pero el
porcentaje de acierto disminuye con respecto a los valores alcanzados por AMEE.
Este hecho podría venir causado por la incorporación de información espacial en
el proceso de identificación de endmembers.
Por otra parte, el comportamiento del método AMEE es similar en cada una de las
clases verdad terreno. Al contrario, los métodos PPI y N-FINDR vienen
caracterizados por tasas de acierto variables en las diferentes clases.
La mejora en los resultados proporcionados por el método AMEE puede venir
propiciada por la incorporación de información espacial en el proceso de selección
de endmembers.
- 240 - Capítulo 4. Análisis y Discusión de resultados.
4.3.2.3. Tercer experimento. Mapas de abundancia verdad terreno.
Las pruebas realizadas en este apartado tienen como objetivo analizar la calidad de los
endmembers extraídos por nuestro algoritmo en el caso en que la información de verdad terreno
viene expresada en forma de un conjunto de valores de abundancia. En este experimento, al
contrario que en el anterior, los pixels de la imagen se consideran como una mezcla de
componentes, y no como pixels puros. El objetivo general antes mencionado se desglosa en los
siguientes objetivos específicos:
Evaluar la calidad de los endmembers extraídos por el algoritmo en términos de
utilización para estimar la abundancia de los componentes presentes en la escena.
Comparar el método propuesto con respecto a otros métodos existentes.
En este experimento, la metodología de comparación se basa en la realización de los
siguientes pasos.
1.- Se extraen los endmembers de la imagen utilizando un determinado algoritmo.
2.- A continuación, se estima la abundancia de cada uno de los endmembers en la imagen,
utilizando el procedimiento FCLSU. Como resultado, se obtiene un mapa de
abundancia por cada firma espectral identificada.
3.- Se comparan pixel a pixel los valores de abundancia obtenidos con las abundancias
reales, utilizando para ello diagramas de dispersión de abundancias reales frente a
abundancias estimadas y medidas estadísticas como el coeficiente de correlación y el
error RMSE (ver apartado 2.3.2).
Las pruebas descritas en este apartado se han realizado utilizando la imagen AVCUP95,
caracterizada por disponer de información de verdad terreno en forma de mapas que contienen
la abundancia de cada mineral en cada pixel de la imagen. A la hora de analizar esta imagen, al
igual que en el primer experimento realizado, centramos nuestro estudio en los minerales más
característicos de la región, es decir, alunite, buddingtonite, calcite y kaolinite.
La figura 4.3.16 muestra los mapas de abundancia verdad terreno (USGS) asociados al
mineral alunite, junto con los mapas obtenidos mediante FCLSU para los endmembers extraídos
en el primer experimento, es decir, P1 (método PPI), N3 (método N-FINDR) y A1 (método
AMEE).
Como puede apreciarse de forma visual, los resultados en cuanto a la estimación de
abundancias en el mineral alunite son muy precisos en los tres métodos probados. Los
resultados obtenidos en el primer experimento revelaron que el endmember extraído por el
método PPI para el mineral alunite presentaba menor similaridad espectral con respecto a la
Capítulo 4. Análisis y Discusión de resultados - 241 -
verdad terreno que los extraídos por N-FINDR y AMEE. Sin embargo, este hecho no parece
afectar de manera significativa al proceso de estimación de abundancias.
USGS PPI
N-FINDR AMEE
0.0
1.0
0.6
0.4
0.2
0.8
0.0
1.0
0.6
0.4
0.2
0.8
0.0
1.0
0.6
0.4
0.2
0.8
0.0
1.0
0.6
0.4
0.2
0.8
0.0
0.9
0.3
0.6
0.0
0.9
0.3
0.6
0.0
0.9
0.3
0.6
0.0
0.9
0.3
0.6
0.0
0.9
0.3
0.6
0.0
0.9
0.3
0.6
Figura 4.3.16. Mapas de abundancia verdad terreno para el mineral alunite (USGS) y mapas de
abundancia para los endmembers asociados a este mineral según los métodos PPI, N-FINDR y
AMEE.
La figura 4.3.17 muestra los mapas verdad terreno asociados al mineral buddingtonite, junto
con los mapas obtenidos para los endmembers asociados a este mineral: P4 (método PPI), N5
(método N-FINDR) y A3 (método AMEE).
En el caso del mineral buddingtonite, se aprecian visualmente pequeñas diferencias entre los
mapas de abundancia obtenidos por los tres métodos y el mapa verdad terreno. Este resultado es
coherente con los resultados obtenidos en el primer experimento, en el que se comprobó que la
identificación del endmember asociado a este mineral resultaba problemática en longitudes de
onda superiores a 2400 nm. Puede apreciarse como las zonas en las que el mineral es muy
abundante (marcadas en tonos rojizos en el mapa de abundancia verdad terreno) tienden a ser
estimadas a la baja por los métodos PPI y N-FINDR, situación que no tiene lugar cuando se
utiliza el método AMEE.
Por su parte, la figura 4.3.18 muestra los mapas verdad terreno asociados al mineral calcite,
junto con los mapas obtenidos para los endmembers asociados a este mineral, es decir, P5
(método PPI), N4 (método N-FINDR) y A4 (método AMEE).
- 242 - Capítulo 4. Análisis y Discusión de resultados.
USGS PPI
N-FINDR AMEE
0.0
1.0
0.6
0.4
0.2
0.8
0.0
1.0
0.6
0.4
0.2
0.8
0.0
1.0
0.6
0.4
0.2
0.8
0.0
1.0
0.6
0.4
0.2
0.8
0.0
1.0
0.6
0.4
0.2
0.8
0.0
1.0
0.6
0.4
0.2
0.8
0.0
0.9
0.3
0.6
0.0
0.9
0.3
0.6
0.0
0.9
0.3
0.6
Figura 4.3.17. Mapas de abundancia verdad terreno para el mineral buddingtonite (USGS) y mapas de
abundancia para los endmembers asociados a este mineral según los métodos PPI, N-FINDR y
AMEE.
USGS PPI
N-FINDR AMEE
0.0
1.0
0.6
0.4
0.2
0.8
0.0
1.0
0.6
0.4
0.2
0.8
0.0
1.0
0.6
0.4
0.2
0.8
0.0
1.0
0.6
0.4
0.2
0.8
0.0
0.9
0.3
0.6
0.0
0.9
0.3
0.6
0.0
0.9
0.3
0.6
0.0
0.9
0.3
0.6
0.0
0.9
0.3
0.6
0.0
0.9
0.3
0.6
Figura 4.3.18. Mapas de abundancia verdad terreno para el mineral calcite (USGS) y mapas de
abundancia para los endmembers asociados a este mineral según los métodos PPI, N-FINDR y
AMEE.
Capítulo 4. Análisis y Discusión de resultados - 243 -
La figura 4.3.18 pone de manifiesto que los resultados en cuanto a la estimación de
abundancias en el mineral calcite son precisos en los tres métodos probados, aunque puede
apreciarse visualmente que las zonas en las que el mineral es muy abundante (marcadas en rojo
en el mapa de abundancia verdad terreno) tienden a ser sobre-estimadas por el método PPI, algo
que no ocurre cuando se utilizan los otros dos métodos.
Por último, la figura 4.3.19 muestra los mapas verdad terreno asociados al mineral kaolinite,
junto con los mapas obtenidos para los endmembers asociados a este mineral, es decir, P8
(método PPI), N9 (método N-FINDR) y A7 (método AMEE).
De nuevo, la figura 4.3.19 revela gran similaridad con respecto a la verdad terreno en los
tres algoritmos evaluados. En este caso, las zonas en las que el mineral es muy abundante
(marcadas en rojo en el mapa de abundancia verdad terreno) parecen ser estimadas a la baja por
el método N-FINDR, mientras que las zonas en las que el mineral es poco abundante (marcadas
en negro en el mapa verdad terreno) tienden a ser sobre-estimadas por el método AMEE.
USGS PPI
N-FINDR AMEE
0.0
1.0
0.6
0.4
0.2
0.8
0.0
1.0
0.6
0.4
0.2
0.8
0.0
1.0
0.6
0.4
0.2
0.8
0.0
1.0
0.6
0.4
0.2
0.8
0.0
1.0
0.6
0.4
0.2
0.8
0.0
1.0
0.6
0.4
0.2
0.8
0.0
1.0
0.6
0.4
0.2
0.8
0.0
1.0
0.6
0.4
0.2
0.8
Figura 4.3.19. Mapas de abundancia verdad terreno para el mineral kaolinite (USGS) y mapas de
abundancia para los endmembers asociados a este mineral según los métodos PPI, N-FINDR y
AMEE.
Con objeto de establecer una valoración cuantitativa de los resultados cualitativos
anteriormente comentados, la tabla 4.3.13 muestra los errores RMSE totales obtenidos al
comparar cada uno de los mapas de abundancia estimados con su correspondiente mapa verdad
terreno.
- 244 - Capítulo 4. Análisis y Discusión de resultados.
Los resultados de la tabla 4.3.13 revelan un comportamiento muy similar de los tres
métodos, en términos globales, para el mineral alunite, siendo el error cometido del 5% en todos
los casos. Este resultado es consistente con la primera impresión visual obtenida en la figura
4.3.16.
Mineral AMEE N-FINDR PPI
Alunite 0.05 0.05 0.05
Buddingtonite 0.12 0.13 0.15
Calcite 0.07 0.08 0.09
Kaolinite 0.05 0.06 0.04
TABLA 4.3.13. RMSE GLOBAL ENTRE LAS ABUNDANCIAS ESTIMADAS Y LAS REALES PARA CADA
MINERAL.
En el caso del mineral buddingtonite, el error cometido aumenta en los tres casos, siendo
siempre superior al 10%. Este resultado viene a confirmar los ya obtenidos en el primer
experimento, en el que se demostró que hay ciertos errores en la determinación de la forma
espectral del endmember, probablemente debido a efectos atmosféricos (ver figura 4.3.13).
Por último, la estimación de la abundancia en el caso de los minerales calcite y kaolinite es
bastante precisa en todos los casos, siendo el algoritmo PPI el que ofrece los resultados más
bajos para el mineral calcite, con un error global del 9%, y N-FINDR el que ofrece los
resultados más bajos para el mineral kaolinite, con un error global del 6%.
El estudio comparativo mostrado en la tabla 4.3.13 resulta útil para obtener una visión
global acerca de la precisión de los métodos considerados a la hora de estimar las abundancias.
No obstante, este estudio no refleja los cambios en el error cometido a medida que la
abundancia del componente varía. Una cuestión de gran interés para profundizar en la
evaluación de los métodos presentados es analizar la magnitud del error cometido cuando la
abundancia del material es pequeña y cuando la abundancia es grande. Para estudiar de forma
detallada esta circunstancia, utilizamos diagramas de dispersión de abundancias reales frente a
abundancias estimadas, al igual que en los experimentos realizados con imágenes sintéticas.
La figura 4.3.20 muestra los diagramas de dispersión de abundancias reales frente a
abundancias estimadas para los tres métodos comparados en el caso del mineral alunite. Esta
figura muestra que la correlación entre las abundancias estimadas y las abundancias reales para
el mineral alunite es muy elevada en todos los casos (en torno a 0.99), si bien los valores más
elevados son obtenidos por los métodos PPI y AMEE. Este resultado viene a confirmar los
anteriormente obtenidos, que ya apuntaban la precisión de los tres métodos a la hora de
identificar este mineral concreto.
Capítulo 4. Análisis y Discusión de resultados - 245 -
Por otra parte, la figura 4.3.21 muestra los diagramas de dispersión de abundancias reales
frente a abundancias estimadas en el caso del mineral buddingtonite.
4.3.20. Diagramas de dispersión de abundancias reales frente a abundancias estimadas en el mineral
alunite.
4.3.21. Diagramas de dispersión de abundancias reales frente a abundancias estimadas en el mineral
buddingtonite.
- 246 - Capítulo 4. Análisis y Discusión de resultados.
En el caso del mineral buddingtonite, se observa en los tres métodos un “brazo” o
desviación en los diagramas de dispersión obtenidos en el caso de los tres métodos, que se
traduce en correlaciones bajas en los casos en los que la abundancia del mineral es reducida.
Este hecho revela que existe una mayor dificultad para identificar este mineral en
concentraciones pequeñas. Teniendo en cuenta los resultados mostrados en el primer
experimento, en el que quedó patente la dificultad de recuperar correctamente el endmember de
buddingtonite debido a efectos atmosféricos, es probable que la sub-estimación de la presencia
del mineral cuando participa ligeramente en una mezcla se deba a este tipo de efectos.
La figura 4.3.22 muestra los diagramas de dispersión de abundancias reales frente a
abundancias estimadas en el caso del mineral calcite.
4.3.22. Diagramas de dispersión de abundancias reales frente a abundancias estimadas en el mineral
calcite.
Los resultados de la figura 4.3.22 revelan un comportamiento similar por parte de los tres
métodos evaluados en la estimación de la abundancia del mineral calcite. En los tres casos, la
estimación es más precisa cuando el mineral se encuentra en proporciones pequeñas o muy
altas. Para abundancias intermedias, se produce un ensanchamiento del diagrama de dispersión
y algunos efectos de desviación, que podrían venir de nuevo motivados por efectos
atmosféricos. Por último, la figura 4.3.23 muestra los diagramas de dispersión en el caso del
mineral kaolinite. La correlación obtenida por los tres métodos en el proceso de estimación de la
abundancia de este mineral es muy elevada, si bien es cierto que los métodos PPI y N-FINDR
vienen caracterizados por una tendencia general a estimar a la baja los valores de abundancia
reales.
Capítulo 4. Análisis y Discusión de resultados. - 247 -
4.3.23. Diagramas de dispersión de abundancias reales frente a abundancias estimadas en el mineral
kaolinite.
A modo de resumen de las pruebas realizadas a lo largo del presente experimento,
destacamos las siguientes consideraciones:
Las elevadas correlaciones obtenidas al comparar las abundancias de los
endmembers extraídos por los diferentes métodos (PPI, N-FINDR y AMEE) con
respecto a los mapas de abundancia verdad terreno parecen indicar que los tres
métodos proporcionan resultados satisfactorios y bastante similares entre sí, siendo
las correlaciones obtenidas por el método AMEE ligeramente superiores a las
obtenidas por el resto de métodos en todos los minerales estudiados.
Un estudio detallado de los errores cometidos en las estimaciones revela que, en
los tres métodos comparados se producen algunos efectos de sub-estimación y
sobre-estimación de la abundancia de algunos minerales (especialmente para los
minerales buddingtonite y calcite). Este hecho puede deberse a errores
sistemáticos en la evaluación de las firmas espectrales de los endmembers y a
efectos atmosféricos que no han sido modelados de forma satisfactoria por el
algoritmo de corrección atmosférica.
Otra posible fuente de error pueden ser efectos no lineales entre materiales de la
escena. En cualquier caso, los errores introducidos por estas circunstancias no
parecen demasiado significativos.
- 248 - Capítulo 4. Análisis y Discusión de resultados.
4.3.2.4. Cuarto experimento. Valores de abundancia verdad terreno.
Las pruebas realizadas en este apartado tienen como objetivo analizar la calidad de los
endmembers extraídos por nuestro algoritmo en el caso en que la información de verdad terreno
viene expresada en forma de un conjunto de valores globales de abundancia. En este
experimento, al contrario que en el anterior, no puede realizarse una comparación de los valores
de abundancia pixel a pixel, siendo necesario estimar la abundancia global de los endmembers
en la escena.
Los objetivos específicos del presente experimento son los que se mencionan a
continuación:
Evaluar la calidad de los endmembers extraídos por el algoritmo en términos de su
abundancia global en la escena.
Evaluar el procedimiento lineal utilizado en el proceso de estimación de abundancias
(FCLSU) con una metodología de carácter no lineal, en el marco de una aplicación
orientada a cuantificar la abundancia de cubiertas vegetales.
Las imágenes utilizadas en este experimento son las denominadas CASI01 (12 imágenes en
total). Estas imágenes, etiquetadas como CASI01_01 a CASI01_12 se caracterizan por estar
compuestas únicamente por dos componentes fundamentales (árboles y fondo), y un tercer
componente añadido (sombra), causado por la iluminación artificial realizada sobre la escena. A
pesar de su aparente sencillez, la principal dificultad a la hora de analizar estas imágenes radica
en cuantificar los efectos de dispersión múltiple provocados por las cubiertas vegetales
simuladas (ver apartado 2.3.2.2). De forma previa a la presentación de los resultados obtenidos
con estas imágenes, realizamos una serie de consideraciones.
El juego de imágenes CASI01 simula diferentes combinaciones en cuanto a las
propiedades reflectivas no lineales de los objetos presentes en la imagen. Así, se han
utilizado árboles opacos y transparentes y distintos tipos de fondo, a saber, verde,
blanco y oscuro. Por otra parte, la población de árboles en la imagen puede ser
dispersa (40 árboles) o densa (100 árboles). Obviamente, los efectos de dispersión
múltiple no son iguales en todas las situaciones, siendo más acusados en el caso de
árboles transparentes, fondos blancos y población densa (Hu y col., 2002). Por otra
parte, la sombra también presenta características variables dependiendo del número de
árboles presentes en la escena y de la transparencia de los mismos.
Todas las variantes anteriormente descritas, unidas a la disponibilidad de información
verdad terreno (obtenida mediante un modelo de simulación de la reflectancia no
lineal de las cubiertas), hace que este conjunto de imágenes permita una comparación
Capítulo 4. Análisis y Discusión de resultados. - 249 -
entre el método FCLSU, utilizado para calcular de forma lineal las abundancias de los
endmembers, y un método que permite obtener abundancias teniendo en cuenta
efectos no lineales (SPRINT).
Dado que uno de los objetivos fundamentales de la presente prueba es comparar
FCLSU/SPRINT y, en vista de la previsible facilidad a la hora de extraer endmembers
debido a la simplicidad de las imágenes utilizadas, hemos considerado únicamente
nuestro método AMEE en las pruebas realizadas con las imágenes CASI01.
Finalmente, destacamos que la estimación de la abundancia global de cada
endmember en la imagen se realiza, siguiendo la propuesta de algunos autores (Hu y
col., 2002), sumando los valores de abundancia, obtenidos mediante FCLSU, del
endmember en todos los pixels de la imagen y dividiendo el valor acumulado por el
número total de pixels.
Procedemos a detallar los resultados obtenidos para estas imágenes, diferenciando entre
cuatro pruebas con los distintos tipos de imágenes disponibles.
Primera prueba: imágenes con árboles opacos y población dispersa
La tabla 4.3.14 muestra los resultados obtenidos por el método FCLSU en el proceso de
estimación de la abundancia de los endmembers proporcionados por el métodos AMEE en el
caso de utilizar las imágenes con árboles opacos y población dispersa (CASI01_01, CASI01_05
y CASI01_09). En esta prueba, al igual que en las siguientes, el tamaño del elemento estructural
utilizado en la aplicación de AMEE fue de 15x15 pixels, tamaño que se ha ajustado en función
de las dimensiones en pixels de los árboles simulados.
Árbol
Fondo
Sombra
RMSE Árbol
RMSE Fondo
RMSE Sombra
RMSE global
CASI01_01 (fondo verde) 0,1136 0.7401 0.1463 +0.0042 +0.0170 -0.0212 0.0424
CASI01_05 (fondo blanco) 0.0921 0.7889 0.1185 -0.0173 +0.0558 -0.0490 0.1221
CASI01_09 (fondo oscuro) 0.1160 0.6988 0.1991 +0.0066 +0.0257 +0.0316 0.0539
SPRINT 0.1094 0.7231 0.1675
TABLA 4.3.14. COMPARACIÓN ENTRE ABUNDANCIAS REALES (SPRINT) Y ABUNDANCIAS ESTIMADAS
EN EL CASO DE IMÁGENES CON ÁRBOLES OPACOS Y POBLACIÓN DISPERSA.
En la tabla 4.3.14 también se muestran los valores de abundancia reales y el error RMSE
global y relativo cometido en las estimaciones. Los errores relativos se calculan como la
diferencia entre la fracción obtenida para cada uno de los endmembers utilizando FCLSU y la
fracción obtenida por el modelo SPRINT. El signo utilizado en los errores relativos indica si el
- 250 - Capítulo 4. Análisis y Discusión de resultados.
error en la estimación es por exceso (sobre-estimación) o por defecto (sub-estimación). El error
global se obtiene sumando los valores absolutos de los errores relativos.
La tabla 4.3.14 revela que, para el caso de imágenes con árboles opacos y población
dispersa, el error global en el proceso de estimación de abundancias se encuentra por debajo del
10% en todos los casos. El error global más alto se obtiene para la imagen con fondo blanco, en
la que el error asciende hasta un 12.2%, frente al 4.2% en la imagen con fondo verde y el 5.3%
en la imagen con fondo oscuro. A continuación realizamos una breve descripción de los errores
relativos cometidos para cada endmember.
En el caso de la imagen con fondo verde (CASI01_01), se produce una ligera sobre-
estimación de la abundancia de los endmembers árbol y fondo, mientras que la abundancia del
endmember sombra ligeramente sub-estimada. Este hecho puede apreciarse de forma visual en
la figura 4.3.24, en la que se muestran los endmembers obtenidos para la imagen, junto con sus
correspondientes mapas de abundancia FCLSU. Los resultados mostrados en la figura permiten
obtener una estimación visual sobre la distribución global de abundancias en la imagen.
0
0,2
0,4
0,6
0,8
1
500 600 700 800
Longitud de onda (nm)
Ref
lect
anci
a
Árbol Fondo Sombra
0.0
1.0
0.6
0.4
0.2
0.8
0.0
1.0
0.6
0.4
0.2
0.8
0.0
1.0
0.6
0.4
0.2
0.8
0.0
1.0
0.6
0.4
0.2
0.8
Árbol Fondo Sombra
CASI01_01endmembers
0.0
1.0
0.6
0.4
0.2
0.8
0.0
1.0
0.6
0.4
0.2
0.8
Figura 4.3.24. Conjunto de endmembers obtenidos a partir de la imagen CASI01_01 (parte superior) y
mapas de abundancia asociados a dichos endmembers (parte inferior).
Para la imagen con fondo blanco (CASI01_05), la tabla 4.3.14 muestra que la abundancia
global del endmember árbol es ligeramente sub-estimada (1.7%), mientras que la abundancia de
árbol y sombra es sobre-estimada en torno a un 5% en cada caso, dando como resultado un error
global elevado. Este resultado, que aparece reflejado de forma cualitativa en la figura 4.3.25,
Capítulo 4. Análisis y Discusión de resultados. - 251 -
puede deberse a los mayores efectos de dispersión múltiple que se producen cuando el fondo es
blanco.
0
0,2
0,4
0,6
0,8
1
500 600 700 800
Longitud de onda (nm)
Ref
lect
anci
a
Árbol Suelo Sombra
0.0
1.0
0.6
0.4
0.2
0.8
0.0
1.0
0.6
0.4
0.2
0.8
0.0
1.0
0.6
0.4
0.2
0.8
0.0
1.0
0.6
0.4
0.2
0.8
0.0
1.0
0.6
0.4
0.2
0.8
0.0
1.0
0.6
0.4
0.2
0.8
Árbol Fondo Sombra
CASI01_05endmembers
Figura 4.3.25. Conjunto de endmembers obtenidos a partir de la imagen CASI01_05 (parte superior) y
mapas de abundancia asociados a dichos endmembers (parte inferior).
0
0,2
0,4
0,6
0,8
1
500 600 700 800
Longitud de onda (nm)
Ref
lect
anci
a
Árbol Fondo Sombra
0.0
1.0
0.6
0.4
0.2
0.8
0.0
1.0
0.6
0.4
0.2
0.8
0.0
1.0
0.6
0.4
0.2
0.8
0.0
1.0
0.6
0.4
0.2
0.8
Árbol Fondo Sombra
CASI01_09endmembers
0.0
1.0
0.6
0.4
0.2
0.8
0.0
1.0
0.6
0.4
0.2
0.8
Figura 4.3.26. Conjunto de endmembers obtenidos a partir de la imagen CASI01_09 (parte superior) y
mapas de abundancia asociados a dichos endmembers (parte inferior).
- 252 - Capítulo 4. Análisis y Discusión de resultados.
Finalmente, los resultados de la tabla 4.3.14 muestran que, en el caso de la imagen con
fondo oscuro (CASI01_09), se produce una ligera sobre-estimación de la abundancia de los tres
endmembers extraídos, que resulta más acusada en el caso de fondo y sombra. La abundancia
del endmember árbol es estimada de forma muy precisa, como puede apreciarse
cualitativamente en la figura 4.3.26.
Segunda prueba: imágenes con árboles translúcidos y población dispersa
La tabla 4.3.15 muestra los resultados obtenidos por el método FCLSU en el proceso de
estimación de la abundancia de los endmembers proporcionados por el método AMEE en el
caso de utilizar las imágenes con árboles translúcidos y población dispersa (CASI01_02,
CASI01_06 y CASI01_10). En la tabla también se muestran los valores de abundancia reales y
el error RMSE global y relativo cometido en las estimaciones.
Árbol
Fondo
Sombra
RMSE Árbol
RMSE Fondo
RMSE Sombra
RMSE global
CASI01_02 (fondo verde) 0.1123 0.7345 0.1531 -0.0118 +0.0330 +0.0413 0.0861
CASI01_06 (fondo blanco) 0.1250 0.6345 0.2505 +0.0109 -0.0671 +0.0561 0.1341
CASI01_10 (fondo oscuro) 0.1222 0.6543 0.2321 +0.0181 -0.0473 +0.0377 0.1031
SPRINT 0.1041 0.7016 0.1944
TABLA 4.3.15. COMPARACIÓN ENTRE ABUNDANCIAS REALES (SPRINT) Y ABUNDANCIAS ESTIMADAS
EN EL CASO DE IMÁGENES CON ÁRBOLES TRANSLÚCIDOS Y POBLACIÓN DISPERSA.
La tabla 4.3.15 revela que los errores cometidos al estimar las abundancias de los
endmembers en las imágenes con árboles translúcidos y población dispersa son superiores a los
obtenidos al utilizar árboles opacos y la misma población (ver tabla 4.3.14).
En particular, el error más elevado es cometido al utilizar la imagen con fondo blanco
(CASI01_06), para la que el error global se sitúa en un 13.4%. El error cometido en las
imágenes con fondo verde y fondo oscuro se sitúa en un 8.6% y en un 10.3%, respectivamente.
Estos resultados parecen indicar que los efectos de dispersión múltiple son más acusados
cuando se utilizan árboles translúcidos y fondo blanco.
Por otra parte, resulta destacable que las mayores contribuciones al error global en el caso de
la imagen con fondo blanco vienen producidas por la sub-estimación de la abundancia del fondo
(en un 6.7%) y la sobre-estimación de la abundancia de la sombra (en un 5.6%). El error
cometido al estimar la abundancia de los árboles es muy reducido (inferior al 2%). Estos
Capítulo 4. Análisis y Discusión de resultados. - 253 -
errores, ilustrados de forma cualitativa en la figura 4.3.27, parecen deberse a los efectos de
dispersión múltiple provocados por la naturaleza transparente de los árboles y el fondo blanco.
0
0,2
0,4
0,6
0,8
1
500 600 700 800
Longitud de onda (nm)
Ref
lect
anci
a
Árbol Fondo Sombra
CASI01_06
0.0
1.0
0.6
0.4
0.2
0.8
0.0
1.0
0.6
0.4
0.2
0.8
0.0
1.0
0.6
0.4
0.2
0.8
0.0
1.0
0.6
0.4
0.2
0.8
Árbol Fondo Sombra
0.0
1.0
0.6
0.4
0.2
0.8
0.0
1.0
0.6
0.4
0.2
0.8
endmembers
Figura 4.3.27. Conjunto de endmembers obtenidos a partir de la imagen CASI01_06 (parte superior) y
mapas de abundancia asociados a dichos endmembers (parte inferior).
La figura 4.3.27 pone de manifiesto que la firma espectral del endmember asociado a árboles
translúcidos es diferente, en términos espectrales, a la obtenida en el caso de árboles opacos (ver
figuras 4.3.24, 4.3.25 y 4.3.26). Esta naturaleza puede hacer pensar que el endmember obtenido
es, de hecho, una mezcla entre árbol y fondo. El aumento en el error global cometido puede
venir motivado, en parte, por esta circunstancia.
A pesar del error global del 13.4% con respecto al modelo SPRINT, los mapas de
abundancia obtenidos mediante FCLSU presentan una apariencia adecuada, permitiendo
identificar la ubicación exacta de árboles, sombra y fondo. Este resultado parece indicar que el
método lineal puede resultar adecuado, aún en presencia de árboles translúcidos y efectos de
dispersión múltiple.
Al igual que en la imagen con fondo blanco, en el caso de las imágenes con fondo verde
(CASI01_02) y fondo oscuro (CASI01_10), los mayores errores cometidos vienen en la
estimación de la abundancia de fondo y sombra (ver tablas 4.3.14 y 4.3.15). Este resultado
indica que la naturaleza transparente de los árboles trae como consecuencia errores más
elevados en la estimación de la abundancia de dichos endmembers, independientemente del
fondo utilizado. En ambos casos, la estimación de la abundancia del endmember árbol resulta
- 254 - Capítulo 4. Análisis y Discusión de resultados.
muy precisa, con errores relativos del 1.1% en la imagen CASI01_02 y del 1% en la imagen
CASI01_10.
Tercera prueba: imágenes con árboles opacos y población densa
La tabla 4.3.16 muestra los resultados obtenidos por el método FCLSU en el proceso de
estimación de la abundancia de los endmembers proporcionados por el métodos AMEE en el
caso de utilizar las imágenes con árboles opacos y población densa (CASI01_03, CASI01_07 y
CASI01_11). Al igual que en las pruebas anteriores, en la tabla también se muestran los valores
de abundancia reales y el error RMSE global y relativo cometido en las estimaciones.
Árbol
Fondo
Sombra
RMSE Árbol
RMSE Fondo
RMSE Sombra
RMSE global
CASI01_03 (fondo verde) 0.2356 0.4021 0.3543 -0.0591 +0.0184 +0.0363 0.1138
CASI01_07 (fondo blanco) 0.2412 0.4023 0.3695 -0.0535 +0.0186 +0.0515 0.1436
CASI01_11 (fondo oscuro) 0.2791 0.3529 0.3663 -0.0156 -0.0308 +0.0483 0.0947
SPRINT 0.2947 0.3837 0.3180
TABLA 4.3.16. COMPARACIÓN ENTRE ABUNDANCIAS REALES (SPRINT) Y ABUNDANCIAS ESTIMADAS
EN EL CASO DE IMÁGENES CON ÁRBOLES OPACOS Y POBLACIÓN DENSA.
La tabla 4.3.16 muestra que, en general, los errores cometidos al estimar las abundancias de
los endmembers en las imágenes con árboles opacos y población dispersa son superiores a los
obtenidos al utilizar árboles opacos y población densa (ver tabla 4.3.10). Este resultado revela
que, a pesar de que los efectos de dispersión múltiple entre árboles y fondo son reducidos al
tratarse de árboles opacos, la mayor población de árboles existente en estas imágenes da como
resultado errores más elevados en la estimación de la abundancia de los endmembers.
El error más elevado, es de nuevo, cometido al utilizar la imagen con fondo blanco
(CASI01_07), para la que el error global se sitúa en un 14.3%. Por el contrario, las imágenes
con fondo verde y fondo oscuro presentan un error global del 11.3% y 9.4%, respectivamente.
Este resultado parece indicar que el incremento en el error que se produce en estas imágenes con
respecto al caso en el que la población de los árboles era menor (ver tabla 4.3.10 en el primer
experimento) se debe, fundamentalmente, al aumento del número de árboles, y no a la presencia
de efectos de dispersión múltiple, que únicamente son notorios en el caso de la imagen con
fondo blanco. Con motivo de evaluar cualitativamente la precisión global del algoritmo al
analizar esta imagen, mostramos en la figura 4.3.28 los endmembers extraídos para la misma
junto con sus correspondientes mapas de abundancia.
Capítulo 4. Análisis y Discusión de resultados. - 255 -
La descripción cualitativa de la estimación de abundancias ilustrada en la figura 4.3.28 pone
de manifiesto que, a pesar del error global cometido en la imagen CASI01_07 se sitúa en un
14.3%, los mapas de abundancia resultantes permiten obtener una descripción adecuada de la
escena, siendo posible la diferenciación de los distintos materiales que la componen.
0
0,2
0,4
0,6
0,8
1
500 600 700 800
Longitud de onda (nm)
Ref
lect
anci
a
Árbol Fondo Sombra
CASI01_07
0.0
1.0
0.6
0.4
0.2
0.8
0.0
1.0
0.6
0.4
0.2
0.8
0.0
1.0
0.6
0.4
0.2
0.8
0.0
1.0
0.6
0.4
0.2
0.8
Árbol Fondo Sombra
0.0
1.0
0.6
0.4
0.2
0.8
0.0
1.0
0.6
0.4
0.2
0.8
endmembers
Figura 4.3.28. Conjunto de endmembers obtenidos a partir de la imagen CASI01_07 (parte superior) y
mapas de abundancia asociados a dichos endmembers (parte inferior).
Cuarta prueba: imágenes con árboles translúcidos y población densa
La tabla 4.3.17 muestra los resultados obtenidos por el método FCLSU en el proceso de
estimación de la abundancia de los endmembers proporcionados por el método AMEE en el
caso de utilizar las imágenes con árboles translúcidos y población densa (CASI01_04,
CASI01_08 y CASI01_12). Al igual que en las pruebas anteriores, en la tabla también se
muestran los valores de abundancia reales y el error RMSE global y relativo cometido en las
estimaciones.
La tabla 4.3.17 revela que los errores cometidos al estimar las abundancias de los
endmembers en las imágenes con árboles translúcidos y población densa son superiores a los
obtenidos al utilizar árboles opacos y la misma población (ver tabla 4.3.16).
El error más elevado, como viene siendo habitual en los experimentos realizados, es
cometido al utilizar la imagen con fondo blanco (CASI01_08), para la que el error global
asciende hasta un 17.4%. El error cometido en las imágenes con fondo verde y fondo oscuro se
- 256 - Capítulo 4. Análisis y Discusión de resultados.
sitúa por debajo de este valor, concretamente en un 15% y en un 13.7%, respectivamente. En
todos los casos, los errores aumentan de forma sustancial con respecto al caso de utilizar árboles
opacos debido a los efectos de dispersión que se introducen como consecuencia de la naturaleza
transparente de los árboles.
Árbol
Fondo
Sombra
RMSE Árbol
RMSE Fondo
RMSE Sombra
RMSE global
CASI01_04 (fondo verde) 0.3250 0.3875 0.2875 +0.0456 +0.0297 -0.0753 0.1506
CASI01_08 (fondo blanco) 0.3415 0.3803 0.2735 +0.0621 +0.0225 -0.0893 0.1739
CASI01_11 (fondo oscuro) 0.3121 0.3938 0.2941 +0.0327 0.0360 -0.0685 0.1374
SPRINT 0.2794 0.3578 0.3628
TABLA 4.3.17. COMPARACIÓN ENTRE ABUNDANCIAS REALES (SPRINT) Y ABUNDANCIAS ESTIMADAS
EN EL CASO DE IMÁGENES CON ÁRBOLES TRANSLÚCIDOS Y POBLACIÓN DENSA.
Puesto que el error cometido en el caso de la imagen CASI01_08 parece relevante,
procedemos a analizar la situación que tiene lugar en esta imagen concreta. En primer lugar, la
tabla 4.3.17 muestra que las mayores contribuciones al error global vienen en el proceso de
estimación de los endmembers árbol y sombra. Este hecho puede apreciarse de forma cualitativa
en los mapas de abundancia mostrados en la figura 4.3.29.
0
0,2
0,4
0,6
0,8
1
500 600 700 800
Longitud de onda (nm)
Ref
lect
anci
a
Árbol Fondo Sombra
CASI01_08
Árbol Fondo Sombra
0.0
1.0
0.6
0.4
0.2
0.8
0.0
1.0
0.6
0.4
0.2
0.8
0.0
1.0
0.6
0.4
0.2
0.8
0.0
1.0
0.6
0.4
0.2
0.8
0.0
1.0
0.6
0.4
0.2
0.8
0.0
1.0
0.6
0.4
0.2
0.8
endmembers
Figura 4.3.29. Conjunto de endmembers obtenidos a partir de la imagen CASI01_08 (parte superior) y
mapas de abundancia asociados a dichos endmembers (parte inferior).
Capítulo 4. Análisis y Discusión de resultados. - 257 -
El principal motivo del descenso en el rendimiento del método en la estimación de la
abundancia de los endmembers árbol y sombra puede venir propiciado por el aumento
considerable en los efectos de dispersión múltiple, provocados por la naturaleza transparente de
los árboles, por la gran población de árboles en la escena y por el fondo blanco de las mismas.
Todas estas circunstancias plantean una serie de limitaciones en el modelo lineal de estimación
de abundancias que dan como resultado algunos errores en el proceso de estimación de
abundancias. A pesar de estas circunstancias adversas, el rendimiento global del método se sitúa
en torno al 82%, y los mapas de abundancia mostrados en la figura 4.3.29 permiten discernir
claramente entre los componentes presentes en la escena. En el caso de utilizar imágenes con
fondo verde u oscuro, el rendimiento del método aumenta en un 2% y un 4%, respectivamente.
Quinta prueba: comparación de todos los casos analizados
En esta última prueba, procedemos a analizar de forma global la precisión del método en
todos los casos presentados en las anteriores pruebas. A título comparativo, la figura 4.3.30
muestra los valores de precisión global alcanzada por el método en todos los casos analizados.
El color de cada barra se corresponde con el color del fondo de la imagen que describe.
0,9576
0,8779
0,94610,9139
0,86590,8969 0,8862
0,8564
0,9053
0,84940,8261
0,8626
0,5
0,6
0,7
0,8
0,9
1
CASI01
_01
CASI01
_05
CASI01
_09
CASI01
_02
CASI01
_06
CASI01
_10
CASI01
_03
CASI01
_07
CASI01
_11
CASI01
_04
CASI01
_08
CASI01
_11
Pre
cisi
ón
Árboles opacos Población dispersa
Árboles translúcidos Población dispersa
Árboles opacos Población densa
Árboles translúcidos Población densa
Figura 4.3.30. Precisión en la estimación de los valores de abundancia globales en las diferentes
imágenes utilizadas.
- 258 - Capítulo 4. Análisis y Discusión de resultados.
La figura 4.3.30 muestra que, a pesar de las diferentes condiciones de dificultad de las
imágenes utilizadas, el rendimiento del método propuesto se sitúa siempre entre un 95%
(obtenido para la imagen con árboles opacos, población dispersa y fondo verde) y un 82%
(imagen con árboles translúcidos, población densa y fondo blanco). Este último resultado podría
parecer bajo ante la aparente simplicidad de los componentes de la imagen, pero se justifica en
base a la abundante presencia de efectos de dispersión múltiple.
A modo de resumen de las pruebas realizadas a lo largo del presente experimento,
destacamos las siguientes valoraciones:
Los resultados obtenidos para las imágenes con árboles opacos y población
dispersa indican que el método propuesto permite obtener una estimación muy
precisa de las abundancias en las imágenes con fondo verde y fondo oscuro. En el
caso de la imagen con fondo blanco, el proceso de estimación de abundancias se
ve afectado por algunos errores, introducidos porque el modelo lineal no consigue
modelar la totalidad de efectos de dispersión múltiple que tienen lugar en la
imagen. No obstante, el error global cometido al aplicar el modelo lineal no resulta
demasiado significativo, siendo posible obtener una descripción bastante precisa
de la imagen.
En el caso de imágenes con árboles transparentes y población dispersa, el método
propuesto permite obtener una estimación bastante precisa de la abundancia del
componente árbol en todos los casos. Por otra parte, el proceso lineal de
estimación de abundancias de sombra y fondo se ve afectado por algunos errores
introducidos por la naturaleza transparente de los árboles. En particular, estos
efectos son más acusados cuando el fondo de las imágenes es blanco, caso en el
que los efectos de dispersión múltiple son mayores.
Para las imágenes con árboles opacos y distribución densa, el aumento del número
de árboles en las escenas trae como consecuencia un ligero aumento en el error
cometido al estimar la abundancia de árboles, fondo y sombra. El incremento en el
error únicamente es relevante en el caso de la imagen con fondo blanco, debido a
los efectos de dispersión múltiple introducidos. En este caso, la precisión del
método desciende hasta un 85%, valor que parece aceptable en función de la
apariencia visual de los mapas de abundancia obtenidos.
La cota inferior de rendimiento del método propuesto se sitúa en torno a un 82%
cuando las circunstancias son muy adversas, es decir, una población muy alta de
Capítulo 4. Análisis y Discusión de resultados. - 259 -
árboles transparentes sobre un fondo blanco, lo cual trae como resultado
numerosos efectos de dispersión múltiple. Bajo estas circunstancias, el
rendimiento del método resulta aceptable, aunque puede ser mejorado
incorporando un modelo no lineal a la hora de realizar el proceso de estimación de
abundancias. En cualquier caso, los efectos mencionados no introducen un
descenso significativo en el rendimiento del método.
Finalmente, destacamos que las limitaciones del método de estimación de
abundancias FCLSU son la principal causa de los errores cometidos en el proceso
de estimación de abundancias, en particular en los casos en los que los efectos no
lineales son más acusados.
4.3.2.5. Quinto experimento. Verdad terreno no disponible.
El objetivo fundamental de las pruebas realizadas dentro de este experimento es analizar la
calidad de los endmembers extraídos por nuestro algoritmo cuando no hay ningún tipo de
información verdad terreno disponible. La importancia de este experimento radica en que, en la
mayor parte de los casos, las imágenes disponibles no tienen verdad terreno asociada.
En nuestro caso, dado el carácter genérico del método propuesto y su pretendida utilización
en diversas aplicaciones, hemos optado por desarrollar un esquema de comparación más
genérico, basado en la utilización de los endmembers extraídos y sus correspondientes
abundancias para reconstruir la imagen original. En este sentido, consideramos que la similitud
de la imagen reconstruida con respecto a la original es indicativa de la calidad de los
endmembers utilizados en el proceso.
Por otra parte, la posibilidad de reconstruir una imagen hiperespectral utilizando los
endmembers de la imagen y sus correspondientes abundancias ofrece un mecanismo simple y
eficiente para lograr la compresión con pérdida de la imagen original. Si la imagen puede ser
regenerada de forma precisa a partir de los endmembers y sus correspondientes mapas de
abundancia, bastará con almacenar dicha información para obtener de forma sencilla la imagen.
Los ratios de compresión alcanzados por este mecanismo pueden ser elevados, puesto que el
número de endmembers en una imagen hiperespectral suele ser mucho menor que el número de
bandas espectrales de la imagen. No obstante, este planteamiento debe ser cuantificado
mediante un estudio comparativo que relacione los ratios de compresión alcanzados y el error
cometido en el proceso de reconstrucción.
Una vez realizadas estas consideraciones previas, enumeramos los objetivos específicos de
las pruebas realizadas dentro del presente experimento.
- 260 - Capítulo 4. Análisis y Discusión de resultados.
Evaluar la calidad de los endmembers extraídos por el algoritmo propuesto en
términos de su capacidad para reconstruir/comprimir la imagen original.
Comparar los resultados obtenidos por el método propuesto en dichas tareas con los
resultados proporcionados por otros métodos de extracción de endmembers.
Analizar la influencia del uso de datos de radiancia/reflectancia en el proceso.
Estudiar los ratios de compresión obtenidos en el proceso de reconstrucción de la
imagen, y relacionarlos con el tanto por ciento de información perdida en el proceso.
En las diferentes pruebas realizadas dentro de este experimento se han utilizado las
imágenes denominadas AVJRAD97 y AVJREF97. Las razones principales que han motivado la
selección de estas imágenes son las siguientes.
En primer lugar, la zona que cubren es heterogénea, y viene caracterizada por la
presencia de muy diversos componentes: vegetación, suelo, estructuras urbanas, etc.
Dado el carácter genérico del algoritmo propuesto, consideramos que esta imagen
resulta muy apropiada para su evaluación sin información a priori.
Por otra parte, la imagen se encuentra disponible en unidades de radiancia y
reflectancia, lo cual permite analizar el impacto de ambas opciones en el proceso.
A continuación, describimos las pruebas realizadas en este experimento.
Primera prueba
En esta prueba evaluamos la calidad de la reconstrucción de la imagen original obtenida a
partir de los métodos de extracción de endmembers PPI, N-FINDR y AMEE, analizando el
impacto de la utilización de datos de radiancia o reflectancia en el proceso de reconstrucción. En
la realización de esta prueba se han seguido los pasos que se describen a continuación:
1.- Se extraen los endmembers de la imagen utilizando un determinado algoritmo.
2.- Para cada endmember identificado, se calcula su correspondiente mapa de abundancia
mediante un procedimiento FCLSU.
3.- Se reconstruye la imagen original utilizando los endmembers extraídos y los mapas de
abundancia asociados. Este proceso se realiza utilizando el modelo lineal de mezcla,
de forma que cada pixel de la imagen original se obtiene como una combinación lineal
de los endmembers presentes en el pixel y sus correspondientes abundancias,
estimadas en el paso anterior.
Capítulo 4. Análisis y Discusión de resultados. - 261 -
4.- Por último, se calcula el error RMSE entre la imagen original y la imagen reconstruida
para obtener una medida de la calidad de la reconstrucción.
El método PPI fue aplicado sobre las imágenes AVJRAD97 y AVJREF97 por los autores
del algoritmo. Los métodos N-FINDR y AMEE fueron aplicados sobre dichas imágenes en
nuestro laboratorio. Los parámetros utilizados en los tres casos fueron los que se muestran en la
tabla 4.3.18. La principal diferencia con respecto a los parámetros utilizados en experimentos
previos es el parámetro número máximo de endmembers del método N-FINDR, que se ha fijado
a un valor muy alto (50) debido a la posible presencia de muchos endmembers al tratarse de una
imagen muy heterogénea (ver descripción de la imagen en apartado 4.3.1.4).
PPI N-FINDR AMEE
Parámetro
Número iteraciones
Umbral selección pixels puros
Nº máximo de endmembers
Sensibilidad
Tamaño Ventana
Valor 10.000 100 50 0.005 15x15
TABLA 4.3.18. PARÁMETROS UTILIZADOS AL APLICAR LOS MÉTODOS PPI, N-FINDR Y AMEE SOBRE
LAS IMÁGENES AVJRAD97 Y AVJREF97.
La tabla 4.3.19 muestra los errores RMSE globales cometidos al realizar la reconstrucción
de las imágenes AVJRAD97 y AVJREF97 utilizando el procedimiento anteriormente descrito
con los endmembers extraídos por los métodos PPI, N-FINDR y AMEE. Esta tabla también
muestra el número total de endmembers extraído en cada caso. Resulta destacable que el
número de endmembers identificado por PPI es mucho mayor que en el caso de N-FINDR y
AMEE.
AVJRAD97 AVJREF97
AMEE N-FINDR PPI AMEE N-FINDR PPI
Número de endmembers 13 12 28 12 15 28
RMSE 0.014 0.012 0.008 0.013 0.015 0.009
TABLA 4.3.19. ERRORES RMSE GLOBALES COMETIDOS EN RECONSTRUCCIÓN DE LAS IMÁGENES
AVJRAD97 Y AVJREF97 Y NÚMERO TOTAL DE ENDMEMBERS EXTRAÍDOS POR CADA MÉTODO.
Los resultados mostrados en la tabla 4.3.19 parecen indicar que, en términos globales, el uso
de un número elevado de endmembers no garantiza una mejora sustancial de la calidad de la
reconstrucción. Mientras que el método PPI comete un error inferior a un 1% utilizando 28
endmembers, el error promedio cometido por PPI y AMEE utilizando aproximadamente la
mitad de endmembers nunca supera el 2%. Por otra parte, los errores globales cometidos por los
- 262 - Capítulo 4. Análisis y Discusión de resultados.
diferentes métodos son muy similares en el caso de utilizar datos de radiancia y datos de
reflectancia.
Las conclusiones que podemos obtener a partir de un análisis de los valores de error globales
mostrados en la tabla 4.3.19 son reveladoras, pero demasiado generales. Sería deseable realizar
un análisis más detallado sobre la distribución del error a lo largo de la imagen. Esta evaluación
de la distribución del error en la imagen permitiría calibrar la aportación en el error final de
ciertos endmembers, determinando así la importancia de detectar y utilizar dichos endmembers
en el proceso de reconstrucción.
Idealmente, si se utilizasen todos los puntos de la imagen como endmembers, el RMSE
cometido en cada pixel sería 0, pues siempre sería posible formar una combinación lineal que
diese como resultado el pixel original. Los coeficientes de dicha combinación serían 1 para el
espectro del pixel y 0 para los espectros del resto de pixels de la imagen. A medida que se va
reduciendo el número de endmembers, las combinaciones lineales formadas serán menos
precisas, y el error en aquellas zonas de la imagen que no dispongan de un representante en la
combinación lineal será más elevado. Estos errores pueden representarse en forma de imagen de
error en ND’s, donde el ND indica el error cometido en la reconstrucción de cada punto.
La figura 4.3.31 muestra las imágenes de error obtenidas al reconstruir la imagen
AVJRAD97 utilizando los endmembers proporcionados por PPI, N-FINDR y AMEE.
0.00
0.20
0.10
0.05
0.15
0.00
0.20
0.10
0.05
0.15
0.00
0.20
0.10
0.05
0.15
0.00
0.20
0.10
0.05
0.15
0.00
0.20
0.10
0.05
0.15
0.00
0.20
0.10
0.05
0.15
PPI N-FINDR
AMEE
Figura 4.3.31. Imágenes de error en proceso de reconstrucción de la imagen AVJRAD97.
Capítulo 4. Análisis y Discusión de resultados. - 263 -
Los resultados mostrados en la figura 4.3.31 revelan que el error cometido en el proceso de
reconstrucción de la imagen AVJRAD97 cuando se utiliza el método AMEE presenta una
distribución muy regular a lo largo de los puntos de la escena. Resulta difícil destacar
visualmente zonas espaciales homogéneas en las que el error sea marcadamente distinto al de
otras zonas. Este hecho puede justificarse en base a la inclusión de información espacial en el
proceso de selección de los endmembers.
Sin embargo, en el caso de los métodos PPI y N-FINDR, es posible identificar visualmente
algunas zonas en las que el error es más acusado. Por ejemplo, en el caso de N-FINDR, la
imagen de error obtenida parece indicar que los endmembers asociados a la carretera que cruza
la imagen en dirección norte-sur y los asociados a las construcciones urbanas al este de la
carretera no han sido detectados de forma correcta, lo cual deriva en un mayor error en dichas
zonas. Esto puede deberse a la menor frecuencia con que aparecen estos puntos en la imagen.
Por su parte, la figura 4.3.32 muestra las imágenes de error obtenidas al reconstruir la
imagen AVJREF97 utilizando los endmembers proporcionados por PPI, N-FINDR y AMEE.
0.00
0.20
0.10
0.05
0.15
0.00
0.20
0.10
0.05
0.15
PPI N-FINDR
AMEE
0.00
0.20
0.10
0.05
0.15
0.00
0.20
0.10
0.05
0.15
0.00
0.20
0.10
0.05
0.15
0.00
0.20
0.10
0.05
0.15
0.00
0.20
0.10
0.05
0.15
0.00
0.20
0.10
0.05
0.15
PPI N-FINDR
AMEE
Figura 4.3.32. Imágenes de error en proceso de reconstrucción de la imagen AVJREF97.
De nuevo, los resultados de la figura 4.3.32 muestran que la distribución del error al utilizar
el método AMEE es más regular que en el caso de los otros métodos. Llama la atención la
diferente distribución del error en el método N-FINDR cuando se consideran datos de radiancia
o reflectancia. Así, una simple comparación visual de la imagen de error para este método en la
figura 4.3.32 con la imagen de error mostrada en la figura 4.3.31 revela que las zonas con valor
de error elevado en la imagen de radiancia (carretera y construcciones urbanas) pasan a tener
- 264 - Capítulo 4. Análisis y Discusión de resultados.
valor muy bajo en la imagen de reflectancia, en la que aparecen otras zonas de error diferentes,
en su mayoría asociadas a suelos desnudos. Este hecho parece indicar que el método N-FINDR
puede ser sensible a la utilización de datos de radiancia o reflectancia.
Para resumir los resultados presentados en esta primera prueba, destacamos una serie de
valoraciones generales:
A pesar de que los errores totales cometidos en la reconstrucción son similares en
los tres métodos comparados (PPI, N-FINDR y AMEE), la distribución del error
en los pixels de la imagen es mucho más homogénea cuando se utiliza el método
AMEE. Este hecho puede deberse a la incorporación de información espacial en el
proceso de selección de endmembers.
Por otra parte, el número de endmembers seleccionado por PPI es mucho mayor
que al utilizar N-FINDR o AMEE. Sin embargo, esto no se traduce en una mejora
demasiado significativa en el proceso de reconstrucción.
Finalmente, el impacto de utilizar datos de radiancia o reflectancia en esta prueba
no parece muy significativo para los métodos PPI y AMEE, mientras que, en el
método N-FINDR, este factor podría condicionar la precisión final de los
resultados obtenidos.
Segunda prueba
A lo largo de la prueba anterior se apuntó la importancia que tiene la abundancia de los
endmembers en el proceso de reconstrucción. De manera intuitiva, podemos suponer que si un
determinado método es capaz de detectar los endmembers más abundantes de la imagen, el error
en la reconstrucción será bajo. No obstante, puede ocurrir que necesitemos detectar también
endmembers poco abundantes (por ejemplo, en aplicaciones de detección de targets es
importante no perder la información relativa a objetos pequeños). Este razonamiento nos lleva a
plantear una nueva prueba cuyo objetivo es analizar en qué proporción disminuye el error
cometido en la reconstrucción cuando se utilizan endmembers muy abundantes y endmembers
poco abundantes.
Para realizar esta prueba, se ha seguido el procedimiento que se describe a continuación:
1.- Se ordenan los endmembers extraídos por un determinado método según su
abundancia en la imagen, de mayor a menor abundancia. La estimación de las
abundancias se realiza mediante FCLSU.
Capítulo 4. Análisis y Discusión de resultados. - 265 -
2.- A continuación, se reconstruye la imagen utilizando solamente los tres endmembers
más abundantes, y se calcula el RMSE cometido en la reconstrucción, utilizando la
expresión 2.3.10.
3.- Una vez calculado el error en la reconstrucción al utilizar los tres endmembers más
abundantes, se incorpora el siguiente endmember más abundante y se reconstruye la
imagen, calculando de nuevo el error cometido.
4.- El proceso se repite hasta que se utilizan todos los endmembers extraídos por el
método en la reconstrucción.
La figura 4.3.33 muestra dos gráficas comparativas que indican cómo disminuye el error
cometido en la reconstrucción de las imágenes AVJRAD97 y AVJREF97 a medida que vamos
utilizando un mayor número de endmembers para realizar dicha reconstrucción. Como se ha
mencionado, los endmembers seleccionados por cada método están ordenados de mayor a
menor abundancia en la imagen.
0
10
20
30
40
50
3 6 9 12 15 18 21 24 27 30
Número endmembers (abundancia decreciente)
Err
or e
n la
rec
onst
rucc
ión
(%
) AMEE
N-FINDR
PPI
1.2
1.45 0.8
0
10
20
30
40
50
3 6 9 12 15 18 21 24 27 30
Número endmembers (abundancia decreciente)
Err
or
en l
a re
cons
tru
cció
n (%
) AMEE
N-FINDR
PPI
1.81.3
0.8
AVJRAD97 AVJREF97
Figura 4.3.33. Disminución del error en la reconstrucción de AVJRAD97 y AVJREF97 a medida
que se consideran endmembers menos abundantes.
Los resultados mostrados en la figura revelan que los endmembers más abundantes son los
más determinantes a la hora de reducir el error en la reconstrucción. En todos los casos, las
curvas descienden rápidamente al principio, indicando que el error disminuye de forma
pronunciada a medida que se van incorporando los endmembers más abundantes. Para los
menos abundantes las curvas se estabilizan, lo cual parece indicar que estos endmembers no
contribuyen demasiado a reducir el error global cometido en la reconstrucción.
A título comparativo, en el caso de la imagen AVJRAD97, los métodos N-FINDR y AMEE
únicamente necesitan 9 endmembers para reconstruir la imagen original con error inferior al 5%.
Por el contrario, el algoritmo PPI necesita como mínimo 20 endmembers para lograr un
- 266 - Capítulo 4. Análisis y Discusión de resultados.
resultado similar. Este hecho parece indicar que, a pesar de que el error final en la
reconstrucción utilizando PPI es inferior al obtenido usando N-FINDR o AMEE, la calidad de
los endmembers extraídos por estos dos últimos métodos podría ser mayor. El término "calidad"
en este punto debe ser entendido desde la perspectiva de la utilidad de dichos endmembers para
reconstruir la imagen original.
En el caso de la imagen AVJREF97, el método PPI necesita al menos 21 endmembers para
producir un error inferior al 5%, mientras que AMEE y N-FINDR sólo necesitan 8 y 9,
respectivamente. Como puede apreciarse, los resultados al utilizar la imagen de reflectancia son
similares a los obtenidos en el caso de utilizar la imagen en unidades de radiancia.
A modo de resumen de los resultados presentados en esta prueba, destacamos las
siguientes valoraciones:
En los tres métodos comparados (PPI, N-FINDR y AMEE), el error cometido en
la reconstrucción desciende de forma considerable cuando se utilizan los
endmembers más abundantes, mientras que el error se estabiliza al utilizar los
menos abundantes.
El método PPI necesita utilizar un elevado número de endmembers para obtener
un error bajo en la reconstrucción de la imagen. Este resultado contrasta con el
obtenido para los métodos AMEE y N-FINDR, que consiguen alcanzar las cotas
de error tan reducidas como las de PPI con menos de la mitad de endmembers.
Este hecho parece indicar que la precisión de AMEE y N-FINDR a la hora de
identificar los endmembers más relevantes, en términos del error global, es
superior a la de PPI.
Tercera prueba
La posibilidad de utilizar un número reducido de endmembers para reconstruir la imagen
resulta beneficiosa desde el punto de vista de la posibilidad de alcanzar mayores ratios de
compresión. Intuitivamente, cuanto más reducido sea el número de endmembers a partir del cual
se puede reconstruir la imagen con un grado de fiabilidad aceptable, mayor será el ratio de
compresión obtenido. Con objeto de profundizar en este punto, el cual fue introducido en la
prueba anterior, se ha realizado una tercera prueba en la que se analizan en detalle los índices de
compresión que pueden llegar a obtenerse y su relación con la calidad de la reconstrucción.
Capítulo 4. Análisis y Discusión de resultados. - 267 -
El procedimiento seguido en la realización de esta prueba es el que se describe a
continuación:
1.- Se ordenan los endmembers obtenidos por los diferentes métodos a comparar de
mayor a menor abundancia. La estimación de las abundancias se realiza mediante
FCLSU (ver apartado 2.3.2.2).
2.- A continuación, se comprime la imagen utilizando únicamente los tres endmembers
más abundantes. Se calcula el ratio de compresión obtenido y el error cometido en la
reconstrucción, utilizando el error RMSE (ver apartado 2.3.2).
3.- Seguidamente, se incorpora el cuarto endmember más abundante y se reconstruye la
imagen original, obteniendo un nuevo compromiso entre ratio de compresión y error
en la reconstrucción.
4.- El proceso se repite hasta que se utilizan todos los endmembers extraídos para
reconstruir la imagen.
En nuestro caso, calculamos el ratio de compresión de la siguiente forma. Las imágenes
utilizadas (AVJRAD97 y AVJREF97) se componen de 300 pixels de ancho por 250 pixels de
largo, cada uno de los cuales contiene 224 valores (radiancia y reflectancia) que se almacenan
utilizando 2 bytes. El tamaño de ambas imágenes será, por tanto, de 300x250x224x2 bytes, es
decir, aproximadamente 32 Mbytes.
Si reconstruimos estas imágenes utilizando los tres endmembers más abundantes, será
necesario almacenar los mapas de abundancia asociados a dichos endmembers y las
correspondientes firmas espectrales. Como los mapas de abundancia son generados utilizando
FCLSU, los valores de abundancia son números reales en el rango [0,1]. Con objeto de reducir
el número de bytes necesarios para almacenar cada valor de abundancia, una técnica
habitualmente empleada consiste en convertir los valores reales a valores enteros.
En nuestro caso, para almacenar los mapas de abundancia asociados a los tres endmembers
más abundantes son necesarios 300x250x3x2 bytes. Como también es necesario almacenar los
tres endmembers, a esta cantidad hay que sumar 3x224x2 bytes, con lo que, en total, se
necesitan unos 400 Kbytes de espacio para almacenar la imagen comprimida. El ratio de
compresión en este caso es aproximadamente 74:1. Este ratio viene dado por la relación entre el
tamaño de la imagen original (32 Mbytes) y el de la imagen comprimida (400 Kbytes).
Cuando se utilizan los cuatro endmembers más abundantes para reconstruir la imagen, el
ratio de compresión desciendo hasta un 55:1. A medida que el número de endmembers utilizado
es mayor, el ratio de compresión va descendiendo.
- 268 - Capítulo 4. Análisis y Discusión de resultados.
Intuitivamente, el objetivo es utilizar un número de endmembers lo más reducido posible
para comprimir al máximo la imagen. Como contrapunto, el uso de un número muy pequeño de
firmas aumenta considerablemente el error en la reconstrucción y, por tanto, la pérdida de
información.
La figura 4.3.34 muestra dos gráficas comparativas que indican, respectivamente, cómo
aumenta el error cometido en la reconstrucción de las imágenes AVJRAD97 y AVJREF97 a
medida que el ratio de compresión de las mismas es mayor. A la hora de discutir los resultados
mostrados en la figura 4.3.34, se ha considerado como zona de mayor interés la situada en la
parte inferior izquierda de las curvas representadas y, es decir, aquellos ratios de compresión
que permiten obtener errores en la reconstrucción inferiores al 10%. Esta zona ha sido resaltada
en sendas gráficas.
En el caso de la imagen AVJRAD97, el método que proporciona resultados más reducidos
es PPI, puesto que, para cualquier ratio de compresión, la pérdida de información es superior a
la del resto de los métodos. El funcionamiento de AMEE y N-FINDR es similar en esta zona de
interés. Fuera de esta zona, el funcionamiento de los tres métodos se equipara, siendo
prácticamente idéntico para ratios de compresión superiores a 60:1 (a partir de este ratio, el error
cometido en la reconstrucción es superior al 40%).
0
10
20
30
40
50
20 30 40 50 60 70 80
Ratio de compresión
Err
or e
n la
rec
onst
rucc
ión
(%)
AMEE
N-FINDR
PPI
0
10
20
30
40
50
20 30 40 50 60 70 80
Ratio de compresión
Err
or e
n la
rec
onst
rucc
ión
(%)
AMEE
N-FINDR
PPI
AVJRAD97 AVJREF97
Zona de interés Zona de interés
Figura 4.3.34. Aumento del error en la reconstrucción de AVJRAD97 y AVJREF97 a medida que el
ratio de compresión de las mismas es mayor.4
En el caso de la imagen AVJREF97, el método AMEE es el que ofrece los mejores
resultados en la zona de interés. A pesar de que el rendimiento de PPI es inferior al de N-
FINDR para ratios de compresión inferiores a 10:1, a partir de este valor el rendimiento de N-
FINDR es superior al de PPI.
Capítulo 4. Análisis y Discusión de resultados. - 269 -
Para ratios de compresión de 40:1 o superiores, el rendimiento del método N-FINDR supera
al de AMEE, pero a expensas de cometer un error muy elevado en la reconstrucción de la
imagen, en torno a un 20% para el ratio de 40:1 y cercano al 50% para un ratio de 70:1.
A partir de los resultados mostrados en esta prueba, podemos destacar las siguientes
valoraciones generales:
El método AMEE es el que proporciona un mejor compromiso entre ratio de
compresión alcanzado y calidad de la reconstrucción, en particular cuando la
reconstrucción de la imagen es de alta calidad (90% o superior).
El uso de datos de radiancia/reflectancia no tiene un impacto significativo en los
resultados obtenidos para estos elevados requerimientos de calidad en la
reconstrucción.
Cuando los requerimientos en cuanto a calidad de la reconstrucción no son tan
elevados, el rendimiento de los métodos comparados se equipara, y el uso de datos
de radiancia o reflectancia puede tener un impacto menor en los resultados
obtenidos. Estos casos han sido analizados en detalle debido al escaso interés de
obtener versiones reconstruidas de baja calidad.
4.3.2.6. Sexto experimento. Disponibilidad de vuelos a diferentes alturas.
Las pruebas realizadas en este apartado tienen como objetivo fundamental analizar la calidad
de los endmembers extraídos por nuestro algoritmo en una situación en la que no hay
información verdad terreno para la imagen original, pero se dispone de varias versiones de dicha
imagen obtenidas mediante vuelos a diferentes alturas.
En este supuesto, las imágenes disponibles vendrán caracterizadas por mantener constante la
resolución espectral (en el caso de haber sido adquiridas por un mismo sensor), mientras que la
resolución espacial varía con la altura (suponiendo que la zona estudiada es la misma en todos
los casos). Si suponemos que se cumplen las anteriores propiedades, podemos hablar de
imágenes de alta o baja resolución refiriéndonos únicamente a la resolución espacial, asumiendo
que la resolución espectral permanece constante. El análisis del impacto de la resolución
espacial en la tarea de identificar endmembers ha sido identificado en la literatura como un
objetivo de gran interés (Goetz y Kindel, 1999).
Para conseguir el objetivo antes mencionado, nos basamos en la consecución de los
siguientes objetivos específicos:
- 270 - Capítulo 4. Análisis y Discusión de resultados.
Validar los endmembers extraídos por el método propuesto utilizando imágenes con
distintas resoluciones.
Analizar el efecto de la resolución espacial en el proceso de selección de endmembers.
El procedimiento de comparación utilizado en el presente experimento se basa en los pasos
que a continuación se enumeran:
1.- Se extraen los endmembers a partir de la imagen de resolución más alta, utilizando
nuestro algoritmo de extracción de endmembers.
2.- Para cada endmember, se calculan sus correspondientes coeficientes de abundancia
mediante un procedimiento FCLSU (ver apartado 2.3.2.2).
3.- A continuación, se aplica el algoritmo de extracción de endmembers a la imagen de
resolución baja, utilizando los mismos parámetros que fueron empleados para
procesar la imagen de mayor resolución.
4.- De nuevo, se calculan los coeficientes de abundancia de los endmembers extraídos
mediante un procedimiento FCLSU.
5.- Se calcula la abundancia global de cada endmember, sumando las fracciones de
abundancia de dicho endmember en todos los pixels de la imagen y dividiendo el valor
obtenido por el número total de pixels (Hu y col., 2002).
6.- Las abundancias globales de los endmembers obtenidos a partir de la imagen de
mayor resolución se utilizan como verdad terreno para las abundancias de los
endmembers obtenidos a partir de la imagen de menor resolución. A partir de estos
valores, se calcula el error RMSE para un determinado componente como la diferencia
entre la abundancia global del mismo en la imagen de mayor resolución y en la
imagen de menor resolución.
Las pruebas descritas en este apartado se han realizado utilizando las imágenes DSCA01 y
DSRS01. En ambos casos, se dispone de una imagen de mayor resolución (menor altura) y una
imagen de menor resolución (mayor altura). El estudio realizado se centra en la identificación
de los tres endmembers más representativos de la escena: encina (Quercus ilex), pasto y suelo.
A continuación, se describen las pruebas realizadas.
Primera prueba: análisis de DSCA01
En esta prueba comparamos la calidad de los endmembers obtenidos por el método de
extracción de endmembers AMEE a partir de la imagen DSCA01H (menor resolución, pixels de
Capítulo 4. Análisis y Discusión de resultados. - 271 -
5 metros), utilizando como referencia los endmembers extraídos a partir de la imagen DSCA01L
(mayor resolución, pixels de 3 metros).
Con objeto de seleccionar los endmembers de encina, pasto y suelo, el método AMEE fue
aplicado sobre las imágenes DSCA01H y DSCA01L en nuestro laboratorio. La figura 4.3.35
muestra los endmembers finales seleccionados a partir de ambas imágenes. En cada caso, se
muestra el ángulo espectral (SAM) entre las firmas seleccionadas.
Como puede apreciarse en la figura 4.3.35, existe una gran similaridad, en términos
generales, entre los endmembers seleccionados por AMEE a partir de las imágenes de menor y
mayor resolución, siendo el valor de similaridad más reducido el que se obtiene para el caso de
las encinas, que son los objetos de tamaño más reducido en la imagen.
0
100
200
300
400
500 1000 1500 2000 2500
Longitud de onda (nm)
Ref
lect
anci
a (%
*10)
DSCA01H
DSCA01L
0
100
200
300
400
500 1000 1500 2000 2500
Longitud de onda (nm)
Ref
lect
anci
a (%
*10)
DSCA01H
DSCA01L0
100
200
300
400
500 1000 1500 2000 2500
Longitud de onda (nm)
Ref
lect
anci
a (%
*10)
DSCA01H
DSCA01L
Quercus Pasto
Suelo
SAM = 0.081 SAM = 0.059
SAM = 0.051
DS_Quercus_L
DS_Quercus_H
DS_Pasto_L
DS_Pasto_H
DS_Suelo_L
DS_Suelo_H
Figura 4.3.35. Endmembers extraídos para las imágenes DSCA01H y DSCA01L.
Para comprobar de forma cualitativa el efecto de la resolución espacial en la identificación
de las encinas, la figura 4.3.36 muestra los mapas de abundancia obtenidos para los endmembers
etiquetados como DS_Quercus_L y DS_Quercus_H. En ambos casos, se ha identificado una
zona de interés caracterizada por una gran abundancia de los endmembers mencionados. Esta
zona se ha magnificado con objeto de obtener una comparativa visual acerca del proceso de
- 272 - Capítulo 4. Análisis y Discusión de resultados.
estimación de abundancias en ambas imágenes. La figura 4.3.36 revela que existe una gran
similaridad entre los mapas de abundancia de los endmembers DS_Quercus_L y
DS_Quercus_H. No obstante, en la zona magnificada se aprecia una ligera variabilidad en los
valores de abundancia. Esta variabilidad se repite a lo largo de toda la imagen, lo cual es
coherente con los experimentos realizados con imágenes simuladas CASI (ver apartado 4.3.3.4),
y puede ser achacable a efectos de dispersión múltiple.
0.0
1.0
0.6
0.4
0.2
0.8
DS_Quercus_L
0.0
1.0
0.6
0.4
0.2
0.8
0.0
1.0
0.6
0.4
0.2
0.8
DS_Quercus_H
0.0
1.0
0.5
0.0
1.0
0.5
0.0
1.0
0.5
0.0
1.0
0.5
Figura 4.3.36. Mapas de abundancia de los endmembers DS_Quercus_L y DS_Quercus_H y detalle
de zona en la imagen con gran abundancia de dichos endmembers.
Por su parte, la figura 4.3.37 muestra los mapas de abundancia asociados a los endmembers
DS_Pasto_L, DS_Pasto_H, DS_Suelo_L y DS_Suelo_H. Visualmente, los mapas de
abundancia correspondientes a los endmembers DS_Pasto_L y DS_Pasto_H son muy similares.
Igualmente, los mapas asociados a DS_Suelo_L y DS_Suelo_H presentan una apariencia visual
global muy parecida.
Quercus Pasto Suelo
Abundancia DS_Quercus_L
Abundancia DS_Quercus_H
RMSE Global
Abundancia DS_Pasto_L
Abundancia DS_Pasto_H
RMSEGlobal
Abundancia DS_Suelo_H
Abundancia DS_Suelo_L
RMSEGlobal
0.12 0.20 0.08 0.49 0.47 0.02 0.39 0.33 0.06
TABLA 4.3.20. ABUNDANCIA GLOBAL DE LOS ENDMEMBERS EXTRAÍDOS PARA LAS IMÁGENES
DSCA01L, DSCA01H Y ERROR RMSE GLOBAL PARA CADA ENDMEMBER.
Capítulo 4. Análisis y Discusión de resultados. - 273 -
Para corroborar esta impresión cualitativa, la tabla 4.3.20 muestra una análisis cuantitativo
del error RMSE global cometido en el proceso de estimación de abundancias en todos los
endmembers identificados.
0.0
1.0
0.6
0.4
0.2
0.8
0.0
1.0
0.6
0.4
0.2
0.8
0.0
1.0
0.6
0.4
0.2
0.8
0.0
1.0
0.6
0.4
0.2
0.8
DS_Suelo_L DS_Suelo_H
0.0
0.9
0.6
0.4
0.2
0.8
0.0
0.9
0.6
0.4
0.2
0.8
0.0
0.9
0.6
0.4
0.2
0.8
0.0
0.9
0.6
0.4
0.2
0.8
DS_Pasto_L DS_Pasto_H
Figura 4.3.37. Mapas de abundancia de los endmembers DS_Pasto_L, DS_Pasto_H, DS_Suelo_L y
DS_Suelo_H.
Como puede apreciarse en la tabla 4.3.20, el error global cometido para las encinas es del
8%, mientras que el cometido para pasto y suelo es inferior (2% y 6%, respectivamente). El
mayor error cometido en las zonas de encina puede deberse a la resolución espacial del sensor
en la imagen de menor resolución (pixels de 5 metros), que podría ser insuficiente para
distinguir encinas individuales en el caso de agrupaciones o clusters con escasa separación,
como se aprecia en la zona ampliada de la figura 4.3.36.
Segunda prueba: análisis de RSCA01
En esta segunda prueba comparamos la calidad de los endmembers obtenidos por el método
de extracción de endmembers AMEE a partir de la imagen RSCA01H (menor resolución, pixels
de 2.4 metros), utilizando como referencia los endmembers extraídos a partir de la imagen
DSCA01L (mayor resolución, pixels de 1.2 metros).
- 274 - Capítulo 4. Análisis y Discusión de resultados.
La figura 4.3.38 muestra los endmembers finales seleccionados por AMEE a partir de ambas
imágenes. En cada caso, se muestra el ángulo espectral (SAM) entre las firmas seleccionadas.
Como puede apreciarse en la figura, la similaridad entre las firmas espectrales obtenidas es
muy elevada, siendo los endmembers de pasto y suelo prácticamente idénticos en las dos
resoluciones, mientras que los endmembers asociados a las encinas presentan un valor de
similaridad más reducido.
Al igual que en la prueba anterior, evaluamos de forma cualitativa el efecto de la resolución
espacial en la identificación de las encinas mediante los mapas de abundancia obtenidos para los
endmembers etiquetados como RS_Quercus_L y RS_Quercus_H. En ambos casos, se ha
identificado una zona de interés correspondiente a un cluster de encinas que coincide con la
zona también estudiada en la prueba anterior.
0
1000
2000
3000
4000
500 600 700 800 900
Longitud de onda (nm)
Ref
lect
anci
a (%
*100
) RSCA01H
RSCA01L
0
1000
2000
3000
4000
500 600 700 800 900
Longitud de onda (nm)
Ref
lect
anci
a (%
*100
) RSCA01H
RSCA01L
0
1000
2000
3000
4000
500 600 700 800 900
Longitud de onda
Ref
lect
anci
a (%
*100
) RSCA01H
RSCA01L
Quercus Pasto
Suelo
SAM = 0.034 SAM = 0.009
SAM = 0.012
RS_Quercus_L
RS_Quercus_H
RS_Pasto_L
RS_Pasto_H
RS_Suelo_L
RS_Suelo_H
Figura 4.3.38. Endmembers extraídos para las imágenes RSCA01H y RSCA01L.
La figura 4.3.39 muestra un alto parecido global entre los mapas de abundancia de los dos
endmembers, aunque en la zona magnificada se aprecian pequeños errores en la estimación de
las encinas debidos a la diferente resolución espacial de las imágenes y a efectos de dispersión
múltiple. En concreto, en la zona correspondiente al mapa de RS_Quercus_L, es posible
Capítulo 4. Análisis y Discusión de resultados. - 275 -
diferenciar entre las encinas individuales del cluster, mientras que en el mapa de RS_Quercus_H
la abundancia de las encinas es ligeramente sobreestimada debido a que la resolución espacial
no es suficientemente alta para poder separar las encinas.
0.0
1.0
0.6
0.4
0.2
0.8
0.0
1.0
0.6
0.4
0.2
0.8
RS_Quercus_L
0.0
1.0
0.6
0.4
0.2
0.8
0.0
1.0
0.6
0.4
0.2
0.8
RS_Quercus_H
0.0
1.0
0.5
0.0
1.0
0.5
0.0
1.0
0.5
0.0
1.0
0.5
Figura 4.3.39. Mapas de abundancia de los endmembers RS_Quercus_L y RS_Quercus_H y detalle de
zona en la imagen con gran abundancia de dichos endmembers.
RS_Pasto_L
0.0
1.0
0.6
0.4
0.2
0.8
0.0
1.0
0.6
0.4
0.2
0.8
RS_Pasto_H
0.0
1.0
0.6
0.4
0.2
0.8
0.0
1.0
0.6
0.4
0.2
0.8
RS_Suelo_L
0.0
1.0
0.6
0.4
0.2
0.8
0.0
1.0
0.6
0.4
0.2
0.8
RS_Suelo_H
0.0
1.0
0.6
0.4
0.2
0.8
0.0
1.0
0.6
0.4
0.2
0.8
Figura 4.3.40. Mapas de abundancia de los endmembers RS_Pasto_L, RS_Pasto_H, RS_Suelo_L y
RS_Suelo_H.
- 276 - Capítulo 4. Análisis y Discusión de resultados.
La figura 4.3.40 muestra los mapas de abundancia asociados a los endmembers RS_Pasto_L,
RS_Pasto_H, RS_Suelo_L y RS_Suelo_H.
De nuevo, la apariencia visual de los mapas es similar, pero es posible que se produzcan
problemas similares a los obtenidos en el caso de la encina, debido a las diferentes resoluciones
utilizadas. Para cuantificar esta posibilidad, la tabla 4.3.21 muestra los errores RMSE globales
cometidos en el proceso de estimación de abundancias de los endmembers anteriormente
mencionados.
La tabla 4.3.21 muestra un error global del 4% para las encinas, del 7% para el pasto y del
2% para el suelo. En ninguno de los casos mencionados el error resulta demasiado significativo,
como ya se comprobó de forma cualitativa mediante los mapas de abundancia de los
componentes mencionados.
Quercus Pasto Suelo
Abundancia DS_Quercus_L
Abundancia DS_Quercus_H
RMSE Global
Abundancia DS_Pasto_L
Abundancia DS_Pasto_H
RMSEGlobal
Abundancia DS_Suelo_H
Abundancia DS_Suelo_L
RMSEGlobal
0.15 0.19 0.04 0.45 0.43 0.02 0.40 0.47 0.07
TABLA 4.3.21. ABUNDANCIA GLOBAL DE LOS ENDMEMBERS EXTRAÍDOS PARA LAS IMÁGENES
RSCA01L, RSCA01H Y ERROR RMSE GLOBAL PARA CADA ENDMEMBER.
Una comparación de los resultados de la tabla 4.3.21 con los resultados obtenidos en la
primera prueba (tabla 4.3.20) revela que el error cometido en el caso de las encinas es más
reducido al utilizar el sensor ROSIS (4%) que al utilizar el sensor DAIS 7915 (8%). Por otra
parte, los errores globales cometidos en las zonas de pasto y suelo son similares cuando se
utilizan los dos sensores. Estas circunstancias pueden venir motivadas por la mayor resolución
espacial de los datos obtenidos mediante ROSIS, lo cual permite una descripción mucho más
precisa de los objetos pequeños de la escena. Es conveniente recordar que la resolución espacial
de los datos ROSIS es, en el peor caso, de 2.4 metros por pixel, mientras que para los datos
DAIS 7915, la resolución espacial en el mejor caso es de 3 metros por pixel. Esta diferencia de
resolución parece significativa a la hora de identificar y cuantificar la abundancia de las encinas.
Para el resto de componentes (pasto y suelo), la resolución espacial del sensor no parece tan
importante, debido a que la presencia de estos componentes en la imagen es mucho mayor. Esto
hace que las pequeñas imprecisiones cometidas en la delimitación de las zonas exactas cubiertas
por pasto y/o suelo en la imagen de menor resolución no tengan una influencia significativa en
el error global.
Capítulo 4. Análisis y Discusión de resultados. - 277 -
A modo de resumen de las pruebas realizadas a lo largo del presente experimento,
destacamos las siguientes valoraciones de carácter general:
En el caso de las imágenes correspondientes al sensor DAIS 7915, el error
cometido al estimar la abundancia del endmember encina es mayor que el obtenido
al estimar la abundancia del endmember pasto y el endmember suelo. Este hecho
parece deberse a que la resolución disponible en el peor caso (pixels de 5 metros)
no resulta suficiente para diferenciar entre encinas individuales, produciéndose
agrupaciones y mezclas que dan como consecuencia una sobre-estimación de las
abundancias obtenidas con la mejor resolución (pixels de 3 metros).
En el caso de las imágenes del sensor ROSIS, la abundancia del endmember
encina es muy similar en las dos resoluciones analizadas. Este hecho parece
indicar que las dos resoluciones disponibles (pixels de 1.2 y 2.4 metros) son
adecuadas para diferenciar entre encinas individuales.
Finalmente, los valores de abundancia obtenidos para los endmembers pasto y
suelo son muy similares en las cuatro resoluciones utilizadas, lo cual indica que
todas las resoluciones resultan apropiadas para cuantificar estos componentes que
son, por otra parte, los más abundantes en la escena. En el caso de las encinas, los
errores cometidos al utilizar las imágenes de menor resolución son superiores,
aunque no demasiado significativos en términos generales.
Capítulo 5
Propuesta de Arquitecturas
Para finalizar con la presentación de los trabajos desarrollados en esta memoria, dedicamos este
capítulo a la descripción de una posible implementación hardware del método propuesto. La
elección de una arquitectura adecuada para un sistema electrónico está estrechamente relacionada
con la tecnología de implementación. Las estructuras paralelas debidamente diseñadas que
necesiten comunicar sólo con sus vecinos próximos conseguirán las máximas ventajas de la muy
alta escala de integración (VLSI); es por ello que para acelerar los procesos de cálculo proponemos
una estructura de computación paralela basada en arrays de sistólicos.
La estructura del capítulo consta de cuatro apartados. En el primero de ellos se describe la
metodología de diseño utilizada, a partir de la cual se desarrollan las dos aproximaciones
propuestas, estando los dos apartados siguientes a la descripción de las mismas. En el último
apartado se presenta una comparativa entre las dos arquitecturas paralelas presentadas y la
arquitectura serie correspondiente.
- 280 - Capítulo 5. Propuesta de arquitecturas.
5.1. Metodología de diseño
La mayoría de los algoritmos de análisis hiperespectral planteados en la presente memoria
conllevan primordialmente operaciones que son repetitivas y regulares (ver apartado 3.2). Por tanto,
pueden ser mapeados de forma eficiente a arquitecturas paralelas (Aguilar y col., 2002).
En la literatura, existen algunos antecedentes en cuanto a la implementación hardware de
algoritmos de análisis hiperespectral, como el método PPI, utilizando FPGA's (Lavernier y col.,
2000a) y arrays de sistólicos (Lavernier y col., 2000b). Para esta clase de algoritmos, una elección
arquitectónica atractiva es un array de procesadores sistólicos. Esta aproximación consigue de
forma idónea el principio de diseño de un sistema VLSI que explota las arquitecturas paralelas,
segmentadas y modulares, y que, además, reduce el hardware de comunicación a interconexiones
locales. Esto prepara el terreno para el procesamiento masivamente paralelo, lo que representa una
futura solución viable para el procesamiento de la información hiperespectral en tiempo real.
De entre las diferentes metodologías de diseño de arrays de sistólicos, optamos por utilizar la
basada en grafos de dependencias, en la que se diseñan algoritmos sistólicos a partir de
especificaciones de alto nivel como programas secuenciales o ecuaciones matemáticas (Martínez y
col., 2002; Pérez y col., 2002a). Por tanto en el proceso de diseño vamos a distinguir dos fases:
1.- Del algoritmo secuencial al grafo de dependencias. El punto de partida en esta fase es
la especificación de los cálculos a realizar para resolver el problema, mediante un
algoritmo secuencial. Debido a la necesidad de regularidad y localidad en las
comunicaciones, nos restringimos a algoritmos basados en bucles anidados, con no mas
de tres anidaciones, y con dependencias de datos constantes. A partir del algoritmo
secuencial obtendremos un grafo regular y con dependencias locales que pone de
manifiesto el máximo paralelismo inherente a los cálculos que se deben realizar.
Dedicamos un sub-apartado a la exposición de esta fase.
2.- Del grafo de dependencias al algoritmo sistólico. Para definir el algoritmo sistólico
(paralelo) a partir del grafo de dependencias habrá que establecer las asignaciones que
asocian a cada nodo del grafo un ciclo (asignación temporal) y una celda de ejecución
(asignación espacial). Normalmente, para un grafo dado son posibles varias asociaciones
correctas distintas, dando lugar a varios algoritmos sistólicos que resuelven un mismo
problema. En los apartados 5.2 y 5.3 de este capítulo presentaremos dos de los posibles
sistólicos que pueden ser utilizados en la implementación del método propuesto en el
apartado 3.2.1.
Capítulo 5. Propuesta de arquitecturas. - 281 -
5.1.1. Del algoritmo secuencial al grafo de dependencias.
De forma previa al desarrollo de esta fase, describimos la notación que será utilizada a lo largo
de este capítulo, así como algunas consideraciones previas.
P es el número total de pixels en la imagen hiperespectral.
K es un elemento estructural, compuesto por M elementos en total.
M21 ..., ,, xxx son los pixels de la imagen hiperespectral englobados por el elemento
estructural K.
N es el número de bandas de cada píxel.
)K,(DD ii x denota la distancia acumulada del píxel ix de K con respecto al resto de
elementos de dicho elemento estructural.
A partir de las definiciones anteriormente introducidas, definimos una matriz X que contiene
los M pixels del elemento estructural K:
MN
M2
M1
2N
22
21
1N
12
11
...
............
...
...
...M
2
1
xxx
xxx
xxx
x
x
x
X (5.1.1)
Como consideración previa, destacamos que, a pesar de que en el apartado 3.2.1 se plantea la
posibilidad de considerar diferentes distancias en la implementación del método propuesto, la
distancia utilizada en el presente desarrollo es la SAM (ver apartado 2.3.1).
El Algoritmo 1, mostrado a continuación, se utiliza para calcular la distancia acumulada iD
entre cada pixel ix del kernel y sus vecinos. En dicho algoritmo, aux denota un vector auxiliar de
N dimensiones; dist representa un vector de las mismas características que se utiliza para almacenar
las distancias acumuladas obtenidas; finalmente, prod y norm_x denotan vectores N-dimensionales
que almacenan, respectivamente, el producto vectorial y la norma de un vector, tal y como se
muestra a continuación:
- 282 - Capítulo 5. Propuesta de arquitecturas.
MM1M
M212
M111
,...,
.........
,...,
,...,
xxxx
xxxx
xxxx
prod (5.1.2)
M21M21 ,..., ,,..., , xxxnorm_x norm_xnorm_xnorm_x (5.1.3)
For i = 1 to M For j = 1 to M 0ji, prod For k = 1 to N
X[i,k] = ikx
X[j,k] = jkx
prod [i,j] = prod [i,j] + X[i,k] * X[j,k]
norm_x [i] = norm_x [i] + X[i,k] * X[i,k] Endfor Endfor Endfor dist = 0 For i = 1 to M For j = 1 to M aux[j] = cos-1 ( prod [i,j] / ( norm_x [i] * norm_x [j])) dist[i] = dist[i] + aux[j] Endfor Endfor
ALGORITMO 1. CÁLCULO DE LA DISTANCIA ACUMULADA.
El diseño del sistólico requiere que el algoritmo utilizado sea regular y que las dependencias en
el mismo sean locales (Kung, 1993), por lo que procedemos a reescribir los tres primeros bucles del
algoritmo 1, tal y como se muestra a continuación:
Capítulo 5. Propuesta de arquitecturas. - 283 -
For i = 1 to M For j = 1 to M
iX [i,0,k] = X[i,k]
jX [0,j,k] = X[j,k] For k = 1 to N
ijprod [i,j,0] = 0
inorm_x [i,j,0] = norm_x [i]
jnorm_x [i,j,0] = norm_x [j]
iX [i,j,k] = iX [i,j-1,k]
jX [i,j,k] = jX [i-1,j,k]
ijprod [i,j,k] = ijprod [i,j,k-1] + iX [i,j,k] * jX [i,j,k]
inorm_x [i,j,k] = inorm_x [i,j,k-1] + iX [i,j,k] * iX [i,j,k]
jnorm_x [i,j,k] = jnorm_x [i,j,k-1] + jX [i,j,k] * jX [i,j,k] Endfor Endfor Endfor
ALGORITMO 2. PRIMEROS TRES BUCLES DE ALGORITMO 1 (REGULAR, DEPENDENCIAS LOCALES).
En el algoritmo 2, cada elemento se reescribe utilizando tres índices para asegurar dependencias
locales. De esta forma, ijprod [i,j] puede ser segmentado en la dirección k; mientras que los valores
iX [i,k] y jX [j,k] pueden ser segmentados en las direcciones j e i, respectivamente. La figura
5.1.1 muestra el grafo de dependencias correspondiente a este algoritmo.
A partir del grafo de dependencias, pueden obtenerse de forma intuitiva los vectores de
dependencias de datos, igualando índices de posibles pares de variables utilizadas y generadas,
como se muestra en las siguientes expresiones:
0,0,1k,j,1ik,j,iT1 d para X[j,k] (5.1.4)
0,1,0k,1j,ik,j,iT2 d para X[i,k] (5.1.5)
1,0,01k,j,ik,j,iT3 d para iprod , inorm_x y jnorm_x (5.1.6)
- 284 - Capítulo 5. Propuesta de arquitecturas.
11x
12x
1Nx
*
21x
22x
2Nx
**
31x
32x
3Nx
**
M1x
M2x
MNx
*
11x1
2x1Nx ...
...
...
...
...
*21x2
2x...2Nx
**31x3
2x...3Nx
***M1xM
2x...MNx
i
jk
N
N
11x
12x
1Nx
*
21x
22x
2Nx
**
31x
32x
3Nx
**
M1x
M2x
MNx
*
11x1
2x1Nx ...
...
...
...
...
*21x2
2x...2Nx
**31x3
2x...3Nx
***M1xM
2x...MNx
i
jk
N
N
Figura 5.1.1. Grafo de dependencias correspondiente al algoritmo 2.
Una vez que las distancias acumuladas han sido obtenidas, las operaciones de dilatación y
erosión morfológicas se basan en el cálculo de los pixels cuya distancia acumulada con respecto al
resto de pixels en el kernel es máximo y mínimo, respectivamente (ver expresiones 3.2.4 y 3.2.5).
Utilizando la notación que hemos venido manejando hasta el momento, la tarea de calcular los
pixels máximo y mínimo puede realizarse mediante el siguiente algoritmo sencillo:
Capítulo 5. Propuesta de arquitecturas. - 285 -
minimo = ∞ máximo = 0 For i = 1 to M If dist_ac[i] < minimo then minimo = dist_ac[i] Endif Endfor For i = 1 to M If dist_ac[i] > máximo then máximo = dist_ac[i] Endif Endfor
ALGORITMO 3. CÁLCULO DE LOS PIXELS MÁXIMO Y MÍNIMO.
Tras describir los algoritmos que efectúan las tareas realizadas por nuestro método, se pueden a
efectuar diferentes proyecciones del grafo de dependencias que darán lugar a diferentes
arquitecturas sistólicas.
5.1.2. Del grafo de dependencias al algoritmo sistólico.
Con objeto de mapear los algoritmos anteriormente descritos en arquitecturas sistólicas,
utilizamos las aproximaciones clásicas de Kung, 1983 y Moldovan, 1983. Así, el conjunto de
índices de los bucles de los algoritmos vistos en el apartado anterior son transformados en un nuevo
conjunto de índices mediante el uso de una función monótona T, que posibilita el paralelismo y la
segmentación, preservando al mismo tiempo los vectores de dependencias mostrados en las
expresiones (5.1.4), (5.1.5) y (5.1.6). La función T se define de la siguiente forma:
333231
232221
131211
ttt
ttt
ttt
ST (5.1.6)
131211 ttt y
333231
232221
ttt
tttS (5.1.7)
La elección de nos proporciona la asignación temporal, y por tanto define:
- 286 - Capítulo 5. Propuesta de arquitecturas.
La sincronización de los flujos de datos fijando el número de retardos asociados a los
enlaces entre celdas y a los internos de cada celda.
La ordenación temporal de los datos de entrada /salida.
El tiempo de ejecución del algoritmo.
La elección de S nos proporciona la asignación espacial, que juega un papel primordial en la
complejidad hardware del algoritmo resultante, y que define:
El número de celdas del algoritmo sistólico.
El tipo de operación que realiza cada celda.
La topología de interconexión entre celdas (los arcos del grafo se transforman en enlaces
entre celdas).
Las estructuras de datos que entran y salen de cada celda (filas, columnas, diagonales,...)
En los siguientes apartados, detallamos las dos alternativas de implementación que se han
considerado en este trabajo.
5.2. Primera arquitectura (A1)
En esta primera propuesta (Pérez y col., 2002b), la selección de las funciones y S se realiza
de la siguiente forma:
Para lograr un orden de ejecución válido, lo cual se consigue cuando se cumple
3,..,1i,0i d , y, al mismo tiempo, reducir al máximo el tiempo de ejecución,
seleccionamos 111 .
Por otra parte, escogemos
100
010S . Esta selección presenta la ventaja de que
permite una proyección sobre el índice j, con lo que todas las operaciones realizadas para
el índice j serán tratadas por la misma unidad o elemento de proceso (EP) del sistólico.
El movimiento de datos entre EPs viene definido por la siguiente expresión:
3,..,1i,m
nS i
d , (5.2.1)
Capítulo 5. Propuesta de arquitecturas. - 287 -
donde n y m se refieren, respectivamente, al movimiento de datos en las direcciones vertical y
horizontal. Estos valores se calculan mediante las siguientes expresiones:
0
0
0
0
1
100
010S 1d (5.2.2)
0
1
0
1
0
100
010S 2d (5.2.3)
1
0
1
0
0
100
010S 3d (5.2.4)
Si denotamos mediante I el conjunto original de índices, las funciones I y IS
(transformaciones del conjunto original de índices mediante la función T) proporcionan,
respectivamente, el número de ciclos y el número de EPs para llevar a cabo los cálculos indexados
por I. Si consideramos los valores máximos para los índices de I, Imax, podemos obtener el número
total de EPs y el número total de ciclos necesarios. Estas operaciones son realizadas de la siguiente
forma:
N
M
N
M
M
100
010
N
M
M
SIS max (5.2.5)
M2N
N
M
M
111
N
M
M
Imax
(5.2.6)
Por tanto, deducimos que es necesario un array rectangular formado por MxN EPs, y que el
número de ciclos requeridos para realizar el cálculo de la distancia acumulada es N+2M. Si
denotamos mediante j,iEP el elemento de proceso situado en la posición j,i del array
rectangular, podemos destacar las siguientes consideraciones:
- 288 - Capítulo 5. Propuesta de arquitecturas.
Después de N ciclos de cómputo, N,1EP calcula el producto de 1x consigo mismo,
además de 1x .
Un ciclo después, N,2EP realiza las mismas operaciones para 1x y 2x , y así
sucesivamente.
En el ciclo de cómputo N+M+1, se ha calculado el producto entre 1x y los M pixels del
kernel, es decir, 1D .
Después de N+2M+1 ciclos, el último elemento de proceso, N,MEP , termina de
realizar sus cálculos.
EP(1,1)
EP(1,2)
EP(1,3)
EP(1,N)
EP(2,1)
EP(2,2)
EP(2,3)
EP(2,N)
EP(M,1)
EP(M,2)
EP(M,3)
EP(M,N)....
....
....
....
....
....
....
....
....
....
....
....
....
....
....
....
....
....
............ ............
EAD(1)
EAD(2)
EAD(M)
S1 S2
0 * * ... * *
0 * * ... * *
0 * * ... * *
M+2
0 * * *
0 * * *
0 * * *
0 * *
0 * *
0 * *
0 * * ... * *
0 * * ... * *
0 * * ... * *
M+2
0 * * *
0 * * *
0 * * *
0 * *
0 * *
0 * *
N+2
****
****
...**
**
*...
...
...
...
N+2
****
****
...**
**
*...
...
...
...
M1x
12x11x
M2x
22x12x
M3x
23x13x
MNx
2Nx1Nx 0 ∞
*
*
...
*
*
*
*
...
*
*
*
*
...
*
*
*
*
...
*
*
N+2+1
a
b
......
Figura 5.2.1. Arquitectura sistólica (A1) que soporta el algoritmo AMEE. a) Cálculo de la distancia
SAM. b) Cálculo de la distancia acumulada.
Capítulo 5. Propuesta de arquitecturas. - 289 -
La figura 5.2.1.a muestra el diseño del array sistólico que realiza los cálculos anteriormente
descritos. En la figura, se aprecian las tres líneas de interconexión entre EPs necesarias para
transmitir los operandos requeridos para calcular la distancia SAM, es decir, iprod , inorm_x y
jnorm_x . Como se aprecia en la figura 5.2.1.a, la arquitectura propuesta presenta un diseño
rectangular: los pixels hiperespectrales del kernel son introducidos de arriba abajo, y los resultados
intermedios se van transmitiendo de izquierda a derecha entre EPs vecinos.
Los requerimientos de cómputo de los EPs mostrados en la figura 5.2.1.a deben incluir las
operaciones de multiplicación y suma. Además, cada EP debe contener un registro acumulador, con
objeto de ir almacenando el valor de cada pixel en una determinada banda espectral. La figura 5.2.2
muestra un diagrama de bloques en el que aparecen reflejados los requerimientos computacionales
de los EPs anteriormente mencionados. En dicha figura, las salidas 1E , 2E y 3E proporcionan,
respectivamente, los operandos iprod , inorm_x y jnorm_x .
ACO1
O2
O3
E1
E2
E3
N
S
Figura 5.2.2. Requerimientos computacionales de los EPs mostrados en la figura 5.2.1.a.
Por razones ilustrativas, la tabla 5.2.1 muestra un resumen de las operaciones de los EPs en los
primeros N+2M+1 ciclos computacionales. Como se deduce de la tabla 5.2.1, en el ciclo de
cómputo N+J+1, el N,JEP proporciona, a través de sus salidas 1E , 2E y 3E , los operandos
necesarios para realizar el cálculo de la distancia SAM entre 1x y Jx .
- 290 - Capítulo 5. Propuesta de arquitecturas.
Ciclo de cómputo
Módulo N N+1 … N+M+1 N+M+2 … N+2M+1
N,1EP 1E 1norm_x 2norm_x
Mnorm_x
2E 1norm_x 1norm_x 1norm_x
3E 11prod 12prod 1Mprod
N,2EP 1E 1norm_x
Mnorm_x
2E 2norm_x 2norm_x
3E 21prod 2Mprod
… … … … … … … … …
N,MEP
1E 1norm_x 2norm_x Mnorm_x
2E Mnorm_x Mnorm_x Mnorm_x
3E 1Mprod 2Mprod MMprod
TABLA 5.2.1. RESUMEN DE OPERACIONES REALIZADAS POR LOS ELEMENTOS DE PROCESO DEL ARRAY
RECTANGULAR DE LA ARQUITECTURA A1 EN LOS PRIMEROS N+2M+1 CICLOS.
En la figura 5.2.1.b se muestra un array vertical formado por una serie de elementos para el
almacenamiento de distancias (EADs). La disposición de estos elementos es tal que el elemento
kEAD se conecta al último EP en la fila k del array rectangular mostrado en la figura 5.2.1.a. El
elemento kEAD recibe de dicho array los operandos necesarios para calcular la distancia SAM
entre kx y el resto de pixels.
En cada elemento EAD se incorpora un circuito combinacional, CC_EAD, cuyo objetivo es el
cálculo de la distancia SAM. Además, estos circuitos disponen de un registro acumulador cuyo
objetivo es ir almacenando los valores SAM que se van obteniendo, para poder sumarlos y calcular
así la distancia acumulada. Recordamos que la obtención de la distancia acumulada entre cada pixel
del kernel y el resto es uno de los pasos fundamentales de nuestro algoritmo. La figura 5.2.3
muestra un diagrama ilustrativo acerca de los requisitos computacionales de los módulos CC_EAD
anteriormente descritos, en la que se aprecian requerimientos de cómputo adicionales para soportar
las operaciones de multiplicación, división y suma.
Capítulo 5. Propuesta de arquitecturas. - 291 -
O1
O2
O3
AC
Div
Figura 5.2.3. Requerimientos computacionales de los elementos CC_EAD.
A través de su circuito CC_EAD asociado, cada JEAD almacena por tanto la distancia
acumulada entre Jx y sus vecinos en el kernel después de N+M+J+1 ciclos. Para obtener las
distancias acumuladas asociadas a todos los pixels del kernel, es necesario añadir M ciclos de
cómputo a los N+M+1 ciclos necesarios para completar las operaciones en el array rectangular.
Para obtener los valores máximo y mínimo de las distancias acumuladas, es necesario comparar
todos los CC_EADs asociados a los elementos de proceso del array vertical mostrado en la figura
5.2.1.b. Con objeto de poder realizar estas operaciones en paralelo, se utiliza un modelo de
interconexión entre los EADs de forma que cada módulo se conecta con sus dos EADs más
cercanos, utilizando para ello dos líneas de transmisión a través de las cuales se envían los valores
máximo y mínimo entre los EAD vecinos.
Después de M+1 ciclos de cómputo, el elemento MEAD proporciona el valor máximo ( 1S ) y
el valor mínimo ( 2S ) de las distancias acumuladas. Para ello, las entradas al elemento 1EAD
deben ser los valores 0 e ∞, como puede apreciarse en el algoritmo 3. La figura 5.2.4 muestra los
requerimientos computacionales de los elementos EAD mostrados en la figura 5.2.1.b.
En la figura 5.2.4 puede apreciarse que cada EAD consta de un circuito combinacional
CC_EAD, dos comparadores y dos multiplexores controlados por una entrada de inhibición (Ib).
Esta entrada se utiliza para asegurar que la comunicación entre CC_EADs solamente tiene lugar
después de los N+M+1 ciclos adicionales necesarios para el cálculo de la primera distancia
acumulada. Por motivos ilustrativos, la tabla 5.2.2 muestra un resumen de las operaciones
realizadas por los módulos EAD en los primeros N+2M+1 ciclos de cómputo.
- 292 - Capítulo 5. Propuesta de arquitecturas.
O1
O2
O3
CC_EAD
AC
N1 N2
S1 S2
Comp
Mux Mux
Comp
Ib
Figura 5.2.4. Requerimientos computacionales de los EADs mostrados en la figura 5.2.1.b.
Ciclo de cómputo
Módulo N N+1 … N+M+1 N+M+2 … N+2M+1
1EAD
AC
11 x,xSAM
11 x,xSAM +
21 x,xSAM
1D
1S 1D
2S 1D
2EAD
AC
12 x,xSAM
12 x,xSAM +
22 x,xSAM +...+
1M2 x,xSAM
2D
1S 21 D,DMin
2S 21 D,DMax
… … … … … … … … …
MEAD
M1 x,xSAM M2 x,xSAM MD
M1iiiMinarg_ D
M1iiiMaxarg_ D
TABLA 5.2.2. RESUMEN DE OPERACIONES REALIZADAS POR LOS ELEMENTOS DE PROCESO DEL ARRAY
VERTICAL DE LA ARQUITECTURA A1 EN LOS PRIMEROS N+2M+1 CICLOS.
Capítulo 5. Propuesta de arquitecturas. - 293 -
Finalmente, destacamos que el cálculo de los pixels máximo y mínimo puede realizarse de
forma sencilla mediante una realimentación de las salidas del array vertical, de forma que puedan
compararse los valores realimentados con los que se encuentran previamente almacenados en los
EADs. Los EPs de las filas del array rectangular que están conectados con el EAD que produce un
resultado cierto en la comparación almacenan los pixels buscados.
La arquitectura A1 presenta el inconveniente de que, al trabajar con imágenes hiperespectrales,
el valor de N suele ser muy elevado. Como consecuencia, el array rectangular para el cálculo de la
distancia acumulada puede tener demasiados EPs. Una posible solución a este problema consiste en
optar por un diseño con menor grado de paralelismo. En este sentido, se han evaluado dos posibles
alternativas:
Particionar el problema de forma que puedan realizarse los cálculos utilizando un número
menor de EPs. Este esquema particionado puede traer como consecuencia la necesidad de
utilizar espacio de memoria extra para almacenar resultados intermedios.
Utilizar una arquitectura alternativa que permita reducir el número de EPs necesario para
llevar a cabo la computación requerida.
5.3. Segunda arquitectura (A2)
La propuesta de esta segunda alternativa (Aguilar y col., 2002; Pérez y col., 2002c) tiene como
objetivo reducir el número de EPs necesario para realizar el proceso de cálculo del pixel máximo y
mínimo. En esta segunda propuesta de arquitectura, denominada A2, la selección de las funciones
y S se realiza de la siguiente forma:
Para lograr un orden de ejecución válido y reducir al máximo el tiempo de ejecución,
seleccionamos 111 , al igual que en la arquitectura A1.
En este caso, escogemos
001
010S . Esta selección presenta la ventaja de que permite
una proyección sobre el índice k, con lo que todas las operaciones alineadas en la
dirección k serán procesadas por el mismo EP.
El movimiento de datos entre EPs viene definido por las siguientes expresiones:
- 294 - Capítulo 5. Propuesta de arquitecturas.
1
0
0
0
1
001
010S 1d (5.3.1)
0
1
0
1
0
001
010S 2d (5.3.2)
1
0
1
0
0
001
010S 3d (5.3.3)
El número total de EPs y el número total de ciclos necesarios se calculan mediante las siguientes
expresiones:
M
M
N
M
M
001
010
N
M
M
SIS max (5.3.4)
M2N
N
M
M
111
N
M
M
Imax
(5.3.5)
Por tanto, deducimos que es necesario un array rectangular formado por MxM EPs, y que el
número de ciclos de cómputo requeridos para realizar el cálculo de la distancia acumulada es
N+2M. Teniendo en cuenta estas circunstancias, podemos destacar las siguientes consideraciones:
Después de N ciclos de cómputo, 1,1EP calcula el producto de 1x consigo mismo,
además de 1x .
Un ciclo después, 2,1EP y 1,2EP realizan las mismas operaciones para 1x y 2x , y así
sucesivamente.
En el ciclo de cómputo N+M+1, se completa el cálculo de la distancia SAM entre 1x y
los M pixels del kernel. De este modo, en N+M+2 se obtiene 1D .
Capítulo 5. Propuesta de arquitecturas. - 295 -
Después de N+2M+2 ciclos, el último elemento de proceso, M,MEP , termina de
realizar sus cálculos.
Por razones ilustrativas, la tabla 5.3.1 muestra un resumen de las operaciones realizadas por los
EPs en los primeros N+2M+2 ciclos computacionales.
Ciclo de cómputo
Módulo N+1 N+2 N+3 ... N+M+1 N+M+2 ... N+2M+1 N+2M+2
1,1EP
AC1 11 xx 11,SAM xx
S 11-Nx 1
Nx 11,SAM xx
E 11-Nx 1
Nx 11,SAM xx
2,1EP
y 1,2EP
AC1
2N
1i
2i
1i xx 21 xx
S
12-Nx 1
1-Nx 11,SAM xx +
21,SAM xx
E 22-Nx 2
1-Nx 11,SAM xx +
21,SAM xx
… … … … ... … … … … … …
M,1EP
y
1,MEP
AC1
1MN
1i
Mi
1i xx M1,SAM xx
S 1M-Nx
1M
1k
k1,SAM xx
1D
E MM-Nx
1M
1k
1K ,SAM xx
1D
… … … … … … ... … … … …
M,MEP AC1
1M2N
1i
Mi
Mi xx
2M2N
1i
Mi
Mi xx
2MN
1i
Mi
Mi xx
3MN
1i
Mi
Mi xx
M1,SAM xx
MD
TABLA 5.3.1. RESUMEN DE OPERACIONES REALIZADAS POR LOS EPS DE LA ARQUITECTURA A2 EN LOS
PRIMEROS N+2M+2 CICLOS.
La figura 5.3.1 muestra el diseño del array sistólico que realiza los cálculos descritos (Aguilar y
col., 2002). A diferencia que en la arquitectura A1, solamente es necesaria una línea de
interconexión entre EPs. Esta estructura viene caracterizada por un diseño regular compuesto por un
array rectangular de EPs simples. El array recibe los datos a procesar de forma segmentada, desde
arriba y desde la izquierda, siendo encauzados hacia abajo y hacia la derecha, respectivamente. De
- 296 - Capítulo 5. Propuesta de arquitecturas.
esta forma, todos los elementos del array procesarán los pixels de la imagen. Los módulos
denotados como MAX(i) se utilizan para calcular el valor máximo de las distancias acumuladas que
van siendo obtenidas en cada columna del array, mientras que los módulos MIN(i) calculan el valor
mínimo de las distancias acumuladas que van siendo producidas en cada fila.
EP(1,1)
EP(1,2)
EP(1,3)
EP(1,M)
EP(2,1)
EP(2,2)
EP(2,3)
EP(2,M)
EP(M,1)
EP(M,2)
EP(M,3)
EP(M,M)
....
....
....
....
....
....
............ ............
MIN(1)
MIN(2)
MIN(M)
Mínimo
***
...*
*...
...
...
...
1Nx
12x11x
2Nx
22x21x
3Nx
32x31x
MNx
M2xM1x
......
11x1
2x...1Nx
*21x2
2x...2Nx
** ...M1xM
2x...MNx
MAX(1)
MAX(2)
MAX(3)
MAX(M)
.... Máximo
1D *2D
**
3D**MD
*
1D
*2D
***MD
∞
*
*
...
*
*
M
**...**0
M
Figura 5.3.1. Arquitectura sistólica (A2) que soporta el algoritmo AMEE.
Los requerimientos de proceso necesarios para cada una de los EPs mostrados en la figura 5.3.1
deben incluir las operaciones de multiplicación y acumulación (Pérez y col., 2002c). La figura 5.3.2
muestra una descripción funcional de los EPs descritos.
Capítulo 5. Propuesta de arquitecturas. - 297 -
ALU
MUX MUX
AC1
AC2
AC3
Control Control
N
S
O E
MUX
ControlMUXMUX
Control
Operación ALU 1 AC1=AC1+N*O Operación ALU 2 AC2=AC2+N*N Operación ALU 3 AC3=AC3+O*O
Figura 5.3.2. Requerimientos computacionales y operaciones realizadas por los EPs mostrados en 5.3.1.
De acuerdo con el algoritmo 3, descrito en la sección 5.1.1, una vez obtenidas las distancias
acumuladas hemos de determinar el mínimo y máximo de las mismas. Para realizar estas
operaciones se añaden dos arrays lineales al sistólico, de forma que uno calcule el valor máximo y
otro el valor mínimo (ver figura 5.3.1). Cada uno de estos arrays tendrá M elementos de proceso
distribuidos de forma horizontal y vertical, e inicializados a las distancias acumuladas obtenidas
mediante el array rectangular. El valor inicial para el máximo (o mínimo) se introduce por la parte
izquierda (o superior) del array, y se transmite a elementos de proceso vecinos. La operación
realizada por cada elemento de los arrays es una comparación, siendo el resultado de la misma
transmitido a su vecino derecho (o inferior). Después de los M ciclos correspondientes, el último
elemento de cada array proporcionará el máximo (o mínimo) de las distancias acumuladas.
La figura 5.3.3 muestra los requerimientos computacionales de los módulos del array vertical y
del array vertical, denominados respectivamente MIN y MAX. Como puede apreciarse en la figura,
cada módulo consta de un multiplexor, un comparador y un registro de almacenamiento.
- 298 - Capítulo 5. Propuesta de arquitecturas.
MUX
Comparador
S{MIN(i-1)}
S
Di
MUX
Comparador
Dj
E
MIN MAXRDMAXRDMAX
RDMINRDMIN
E{MAX(j-1)}
Figura 5.3.3. Requerimientos computacionales de los módulos MIN y MAX mostrados en 5.3.1.
Por motivos ilustrativos, la tabla 5.3.2 muestra un resumen de las operaciones realizadas por los
módulos MAX y MIN en los primeros N+2M+3 ciclos de cómputo.
Ciclo de cómputo
Módulo N+M+3 N+M+4 ... N+2M+3
S 1MIN 1D
E 1MAX 1D
RD 1D
S 2MIN 21 D,DMin
E 2MAX 21 D,DMax
RD 2D
... ... ... ... ...
S MMIN M1iiDMinarg_
E MMAX M1iiDMaxarg_
RD MD
TABLA 5.3.2. RESUMEN DE OPERACIONES REALIZADAS POR LOS MÓDULOS MAX Y MIN DE LA
ARQUITECTURA A2 EN LOS PRIMEROS N+2M+3 CICLOS.
Finalmente, destacamos que, para poder identificar el pixel correspondiente a los valores
extremos de la distancia, proponemos realimentar las salidas de los arrays lineales y establecer así
una comparación con las distancias correspondientes a cada píxel, que se encuentran almacenadas
Capítulo 5. Propuesta de arquitecturas. - 299 -
en los registros denotados como REGDMIN y REGDMAX en los módulos descritos en la figura
5.3.3. Los elementos EP que detecten la igualdad, determinarán los extremos buscados.
5.4. Estudio comparativo
En este apartado se efectúa un análisis comparativo del coste computacional empleado para
procesar una imagen hiperespectral de ejemplo, utilizando las arquitecturas sistólicas anteriormente
descritas, con respecto a la implementación serie que se describió en el apartado 3.2.2.
La tabla 5.4.1 muestra un resumen del número de ciclos de computación necesarios para llevar a
cabo el procesamiento en serie y en paralelo de una imagen hiperespectral, utilizando el método
propuesto con un elemento estructural de M pixels, cada uno de los cuales viene dado por N bandas
espectrales (ver algoritmos 1, 2 y 3 en apartado 5.1.1).
SAM Distancia acumulada Máximo y mínimo Total
Serie 2MN6 2M3 M2 M2M3NM6 22
Paralelo M3N3 M M2 M6N3
TABLA 5.4.1. NÚMERO DE CICLOS DE CÓMPUTO NECESARIOS PARA LLEVAR A CABO EL
PROCESAMIENTO EN SERIE Y PARALELO DE UNA IMAGEN HIPERESPECTRAL, UTILIZANDO UN
ELEMENTO ESTRUCTURAL DE M PIXELS.
Con motivo de ilustrar los cálculos mostrados en la tabla 5.4.1 mediante un ejemplo, utilizamos
una imagen hiperespectral real. La imagen seleccionada es la denominada RSCA01H, descrita en
detalle en el apartado 4.3.1.6. Esta imagen consta de 196x155 pixels, cada uno de los cuales está
compuesto por un total de 115 valores espectrales codificados mediante 14 bits, de forma que el
tamaño total de la misma es de, aproximadamente, 50 Mbytes.
La parte izquierda de la figura 5.4.1 muestra un estudio comparativo del número de ciclos de
cómputo necesarios para procesar la imagen RSCA01H utilizando diferentes tamaños de elementos
estructurales, comprendidos entre 3x3 pixels y 25x25 pixels. Para mayor claridad en la
interpretación de los resultados, el número de ciclos de cómputo se ha representado en forma
logarítmica.
- 300 - Capítulo 5. Propuesta de arquitecturas.
El speed-up ha calculado como el cociente entre el número de ciclos necesarios en la
implementación serie y el número de ciclos en la implementación paralela. Este valor se muestra
para algunos puntos en la gráfica. Conviene destacar que el número de ciclos de cómputo es el
mismo para las dos arquitecturas paralelas presentadas (A1 y A2), como ya quedó patente en la
tabla 5.4.1.
Por otro lado, la parte derecha de la figura 5.4.1 muestra una comparativa entre el factor de
utilización de A1 y A2, considerando diferentes tamaños de kernel. El factor de utilización se ha
calculado como el speed-up dividido por el número de elementos de proceso (Kung, 1993).
1
10000
1E+08
1E+12
3 5 7 9 11 13 15 17 19 21 23 25
Tamaño del kernel
Nú
mer
o d
e ci
clos
de
cóm
pu
to
Implementación serie
Implementación paralela
140
547120698
55109
0
0,2
0,4
0,6
0,8
1
1,2
1,4
1,6
1,8
2
3 5 7 9 11 13 15 17 19 21 23 25
Tamaño del kernel
Fac
tor
de
uti
liza
ción
Arquitectura A1
Arquitectura A2
Figura 5.4.1. Número de ciclos empleados en implementaciones serie y paralela al utilizar diferentes
tamaños de kernel (parte izquierda). Factor de utilización obtenido por las arquitecturas A1 y A2 al
utilizar diferentes tamaños de kernel (parte derecha).
A partir de los resultados mostrados en la parte izquierda de la figura 5.4.1, se aprecia que la
implementación paralela reduce considerablemente el coste computacional asociado con respecto a
la implementación serie. La fracción de mejora (speed-up) es tanto más significativa cuanto mayor
es el tamaño de kernel utilizado.
La parte derecha de la figura 5.4.2 revela que, en el caso de la arquitectura A1, el factor de
utilización aumenta a medida que el tamaño de kernel empleado es mayor. Por el contrario, el factor
de utilización de la arquitectura A2 decrece a medida que aumenta el tamaño de kernel, siendo el
factor de utilización de A2 superior al de A1 para tamaños de kernel inferiores a 11x11 pixels. Para
tamaños de kernel superiores a 11x11, el factor de utilización de A1 es superior al de A2.
Según algunos autores (Kung, 1993), el factor de utilización resulta aceptable a partir de valores
superiores a 0.5. Siguiendo este razonamiento, la arquitectura A1 presenta un factor de utilización
Capítulo 5. Propuesta de arquitecturas. - 301 -
adecuado para tamaños de kernel de 7x7 pixels o superiores, mientras que la arquitectura A2
presenta factores de utilización aceptables para tamaños de kernel hasta 15x15 pixels. Estas
circunstancias deberán ser tenidas en cuenta a la hora de adoptar una u otra aproximación,
dependiendo de las características de la aplicación considerada. En las pruebas realizadas en el
capítulo 4, se demostró que un tamaño de kernel máximo de 15x15 pixels resulta apropiado para el
análisis de la mayor parte de las imágenes consideradas en el presente estudio, por lo que ambas
arquitecturas resultan viables a la hora de implementar el algoritmo propuesto.
Capítulo 6
Principales aportaciones y conclusiones
En la presente memoria se ha descrito una metodología robusta y computacionalmente
eficiente que permite analizar imágenes hiperespectrales de forma no supervisada utilizando la
información espacial y espectral presente en la imagen.
La principal aportación del algoritmo propuesto es la incorporación de la información
espacial en el proceso de análisis, el cual se ha realizado tradicionalmente atendiendo a
propiedades espectrales de la imagen.
El exhaustivo análisis de resultados del modelo propuesto en esta memoria ha permitido la
realización de un esfuerzo cuantitativo y comparativo que hasta ahora no había sido abordado en
aplicaciones de análisis hiperespectral. En este sentido, el planteamiento de un modelo de
validación y comparación de metodologías para la identificación de firmas espectrales puras
supone otra de las principales aportaciones del presente trabajo. A partir del análisis de
resultados realizado, podemos derivar las siguientes conclusiones:
El comportamiento del algoritmo es independiente de la utilización de datos de
reflectancia (corregidos atmosféricamente) y radiancia (no corregidos
atmosféricamente).
- 304 - Capítulo 6. Principales aportaciones y conclusiones.
El método presenta gran robustez frente a las condiciones de ruido presentes en la
imagen a analizar. Aún en presencia de relaciones señal-ruido muy desfavorables, el
método proporciona resultados satisfactorios.
Un factor decisivo para obtener un buen comportamiento del método propuesto es la
selección del elemento estructural utilizado en las operaciones morfológicas. Este
hecho permite ajustar el algoritmo a diversas situaciones, así como incorporar
información a priori acerca de la imagen que se desea analizar.
La complejidad computacional del método propuesto está en relación directa con el
tamaño de los elementos estructurales utilizados. En este sentido, el desarrollo de
implementaciones paralelas del mismo es intuitiva, y puede dar lugar a módulos
funcionales capaces de ofrecer una respuesta en tiempo real.
El algoritmo utilizado permite cuantificar, con precisión sub-pixel, la abundancia de
los diferentes materiales que residen en cada pixel de la imagen hiperespectral.
El algoritmo presenta elevadas prestaciones en cuanto a la clasificación no
supervisada de imágenes hiperespectrales y en la identificación de objetos o targets en
las mismas.
El comportamiento del método es robusto frente a efectos de mezcla en la imagen
hiperespectral. En concreto, los resultados proporcionados por el mismo en los tres
modelos de mezcla lineal analizados: mezcla abrupta, mezcla progresiva y mezcla
progresiva a intervalos de abundancia muy pequeños, presentan correlaciones muy
elevadas.
A pesar de estar basado en un modelo lineal, el método es robusto frente a situaciones
de mezcla no lineal y efectos de dispersión múltiple de la luz.
Una comparativa del método propuesto con otros métodos basados únicamente en
aproximaciones espectrales revela que el uso combinado de información espacial y
espectral se traduce en una mejora de los resultados obtenidos, tanto en las tareas de
estimación de abundancias como en las de clasificación e identificación de objetos.
La distribución del error cometido al expresar cada pixel de la imagen como
combinación lineal de elementos espectralmente puros obtenidos mediante el método
propuesto es mucho más homogénea que la obtenida al utilizar otros métodos basados
solamente en la información espectral.
El algoritmo planteado proporciona un mecanismo fiable de compresión con pérdida
de imágenes hiperespectrales, basado en el almacenamiento de firmas espectrales
Capítulo 6. Principales aportaciones y conclusiones. - 305 -
representativas de los objetos presentes en la imagen y sus correspondientes
abundancias.
El compromiso entre el ratio de compresión alcanzado y la calidad de la imagen
reconstruida es superior cuando se utiliza el algoritmo propuesto, en comparación con
otras técnicas basadas en propiedades espectrales.
Finalmente, el método propuesto es robusto frente a la resolución espacial de las
imágenes, aprovechando la elevada resolución espectral de la imagen en el caso en el
que la resolución espacial sea reducida.
Capítulo 7
Líneas futuras
A partir de las discusiones y resultados obtenidos a lo largo de la presente memoria, se ha
identificado la posibilidad de mejorar y ampliar algunos de los algoritmos de análisis
hiperespectral propuestos. A continuación, planteamos algunas sugerencias en cuanto a posibles
mejoras que pueden ser contempladas en el futuro, particularizando los comentarios realizados
para cada uno de los métodos presentados en este trabajo.
Identificación de direcciones privilegiadas.
Este método fue descrito en el apartado 3.1.1. A continuación, planteamos algunas
posibilidades de mejora que pueden considerarse en el futuro:
Estudiar metodologías que permitan establecer de forma automática el radio del
cilindro de barrido utilizado en función de la variabilidad espectral presente en la
imagen.
Utilizar aproximaciones que aseguren un recorrido eficiente de direcciones en la nube
de puntos. En este sentido, puede resultar interesante la utilización de conceptos de
ortogonalidad e identificación de componentes principales para asegurar que las
- 308 - Capítulo 7. Líneas futuras.
direcciones exploradas no sean redundantes, evitando así problemas de identificación
de endmembers adicionales.
Contrastar la posibilidad de utilizar cilindros de exploración de diferente radio que
permitan la adaptabilidad del método a diferentes agrupaciones y distribuciones de
puntos en el espacio N-dimensional.
Finalmente, es preciso realizar una evaluación más detallada del método, utilizando
para ello imágenes sintéticas y reales. Las pruebas realizadas hasta el momento han
sido de tipo preliminar, por lo que es previsible que la realización de experimentos
adicionales traiga como consecuencia alguna modificación en el diseño del algoritmo.
Identificación de endmembers utilizando el centroide de la imagen.
El funcionamiento de este método fue presentado en el apartado 3.1.1. A continuación,
enumeramos algunas propuestas de mejora para el mismo:
Utilizar centroides locales, en lugar del centroide global, a la hora de estimar la pureza
de cada pixel de la imagen. Este modo de actuación puede contrarrestar la influencia
de la estadística (distribución de puntos) de la imagen, que se traduce en imprecisiones
a la hora de realizar la estimación anteriormente mencionada.
Utilizar un método automático para seleccionar el valor umbral a partir del cual se
seleccionan los pixels más puros de la imagen. En este sentido, una opción
recomendable puede ser el método automático de Otsu, descrito en el apartado 2.2.2.3,
que ha demostrado su eficacia en muy diversas aplicaciones.
Detectores en el dominio espacial y espectral.
Este método fue descrito en el apartado 3.1.2. Las propuestas de mejora para el mismo se
resumen en los siguientes puntos:
Utilizar detectores cuyas propiedades espaciales no sean regulares. De este modo,
además de utilizar detectores de forma cuadrada, pueden probarse otras formas
espaciales (rectangulares, ovaladas, esféricas, etc.). Estas características pueden
establecerse de antemano en función de un cierto conocimiento previo sobre la
imagen.
Realizar un estudio comparativo de la precisión obtenida al utilizar estos detectores en
aplicaciones reales de detección de targets. La utilización de detectores que utilizan
Capítulo 7. Líneas futuras. - 309 -
información espacial y espectral de forma combinada puede dar lugar a resultados
satisfactorios en este tipo de aplicaciones.
Automated Morphological Endmember Extraction (AMEE).
El algoritmo AMEE es el principal método que aporta el presente trabajo y, por tanto, el que
ha sido evaluado de forma más extensa. En el apartado 3.2.2 de la presente memoria se
presentaron en detalle los fundamentos del algoritmo, y se realizó una evaluación preliminar.
Además, en el capítulo 4 se abordó la validación teórica y práctica del método (utilizando para
ello imágenes sintéticas y reales) así como su comparación con otros métodos ampliamente
utilizados en la actualidad.
El extenso proceso de análisis efectuado sobre AMEE ha permitido identificar numerosas
líneas futuras de trabajo orientadas a refinar, completar y extender los principios de
funcionamiento del algoritmo. A continuación, enumeramos algunas de las posibilidades que
pueden ser consideradas en el futuro, distinguiendo entre una serie de campos de actuación.
Pre-procesado sobre las imágenes utilizadas.
Normalizar la imagen considerada, de forma previa a su procesamiento, restando a
todos los puntos de la imagen el centroide de la nube de puntos. De este modo, el
origen de coordenadas de todos los puntos de la imagen, entendidos como vectores N-
dimensionales, pasa a ser el centroide.
Aplicar el algoritmo sobre imágenes reducidas dimensionalmente mediante una
transformada PCA o MNF. En el caso de utilizar MNF, los datos reducidos se tienen
como origen de coordenadas el centroide, por lo que no sería necesaria la etapa de
normalización apuntada anteriormente.
Realizar un estudio comparativo del rendimiento del método propuesto utilizando
diferentes algoritmos de corrección atmosférica/geométrica, y analizar el impacto del
algoritmo considerado en los resultados proporcionados por AMEE.
Aplicación de operadores morfológicos extendidos.
Implementar operadores morfológicos hiperespectrales utilizando elementos
estructurales que no sean planos. Esta aproximación puede permitir una mejor
- 310 - Capítulo 7. Líneas futuras.
caracterización de los objetos en el dominio espectral, al utilizarse elementos
estructurales tridimensionales o, incluso, N-dimensionales.
Utilizar elementos estructurales cuyas propiedades espaciales no sean regulares (en
lugar de los cuadrados habituales, pueden probarse formas rectangulares, ovaladas,
esféricas, etc., en función de un conocimiento previo sobre los patrones presentes en la
imagen).
Desarrollar mecanismos para establecer, de forma automática, las propiedades
espaciales de los elementos estructurales en función de los patrones espaciales y
espectrales de la escena.
Considerar elementos estructurales direccionales u orientados, en los cuales se
favorece la detección de rasgos que ocurren en una determinada dirección en el
espacio. Este tipo de operadores puede resultar apropiado para reconocer objetos cuya
distribución espacial es conocida de antemano.
Estudiar la viabilidad de llevar a cabo la extensión de las operaciones morfológicas
clásicas utilizando una relación de orden total que evite empates a la hora de realizar
la selección de endmembers.
En el caso de utilizar una relación de orden parcial, incorporar mecanismos de control
en los operadores morfológicos de forma que evite la selección de un mismo
endmember de forma repetitiva en caso de empate, circunstancia que puede perjudicar
la selección de otros endmembers igualmente puros.
Utilizar distancias no lineales como la divergencia espectral (SID), así como
distancias de segundo orden, a la hora de realizar el proceso de extensión de
operaciones morfológicas básicas al caso de imágenes hiperespectrales.
Desarrollar y evaluar aproximaciones alternativas a la definición del índice MEI, de
forma que todos los pixels de la imagen sean evaluados. Con estas aproximaciones, se
pretende paliar el problema que plantea la no evaluación de algunos pixels en
beneficio de otros, que pueden resultar favorecidos a lo largo del proceso.
Desarrollar y evaluar una implementación alternativa del índice MEI basada en el
cálculo de la distancia entre cada píxel de la imagen y el mínimo global de la misma.
Esta nueva implementación puede reducir la dependencia del índice MEI con respecto
a las propiedades espaciales del elemento estructural utilizado en las operaciones
morfológicas.
Introducir conceptos de lógica borrosa en el de cálculo del índice MEI, de forma que
no se evalúe un único elemento sino varios. Así, los operadores morfológicos pueden
Capítulo 7. Líneas futuras. - 311 -
utilizarse para evaluar y ponderar un conjunto de elementos en función de su
excentricidad en la nube de puntos.
Incorporar información sobre los endmembers que han sido previamente
seleccionados en el proceso de aplicación de operadores morfológicos extendidos. De
este modo, puede conseguirse que los endmembers seleccionados no puedan obtenerse
como combinación lineal de otros previamente almacenados, asegurando así un
proceso de selección más robusto.
Introducir un mecanismo selectivo a la hora de ir identificando los endmembers de la
imagen. En concreto, una de las aproximaciones que se han identificado como posible
futura implementación del método se basa en la utilización de una lista de
endmembers, cuyo número se introduce como parámetro. A continuación, puede
aplicarse el método morfológico a cada punto de la imagen, introduciendo en la lista,
uno a uno, aquellos endmembers de mayor MEI (excentricidad) que cumplan unos
requisitos como los planteados en 3.2.2.4. En recorridos sucesivos, la lista puede
quedar modificada en función de características observadas, como la independencia de
nuevos endmembers con respecto a los ya almacenados.
Incorporar parámetros físicos acerca de los materiales observados en el proceso de
identificación de firmas espectrales puras. Esta actividad podría verse complementada
con la utilización de bases de datos de características acerca de materiales
frecuentemente analizados por el algoritmo, librerías espectrales de apoyo, etc.
Identificación automática de regiones puras.
Realizar un estudio comparativo de los resultados obtenidos por diferentes técnicas de
segmentación en la tarea de identificación automática de regiones puras. Entre las
técnicas que pueden ser consideradas en el futuro, destacan otros algoritmos
automáticos de umbralizado, así como técnicas de filtrado espacial y técnicas
morfológicas.
Crecimiento de regiones adaptativo.
Realizar un estudio comparativo de los resultados obtenidos por diferentes técnicas de
segmentación en la tarea de identificación automática de regiones puras. Entre las
técnicas que pueden ser consideradas en el futuro, destacan otros algoritmos
- 312 - Capítulo 7. Líneas futuras.
automáticos de umbralizado, así como técnicas de filtrado espacial y técnicas
morfológicas.
Eliminación de endmembers redundantes.
Aplicar la etapa de eliminación de endmembers redundantes en primer lugar, a modo
de pre-procesado, para eliminar así información repetitiva en el dominio espectral. A
la hora de realizar esta opción, debe evitarse la reducción de información relevante,
pues dicha información no podrá ser recuperada en etapas posteriores del
procesamiento.
Aplicar esta etapa a continuación de la fase de identificación automática de pixels
puros, y justo antes de la etapa de crecimiento de regiones adaptativo. Este nuevo
secuenciamiento podría dar como resultado mejores resultados en la etapa de
crecimiento.
Identificación de endmembers en la escena y estimación de abundancias.
Considerar funciones no lineales a la hora de realizar el proceso de estimación de
abundancias. Una línea inmediata es la aplicación de métodos basados en redes
neuronales de tipo Back-Propagation para efectuar este paso. Una de las principales
aportaciones que pueden realizar estas redes en el proceso de estimación de
abundancias es la incorporación de funciones de vecindad no lineal.
Realizar un estudio detallado acerca del impacto de utilizar las técnicas FCLSU
(desmezclado lineal con restricciones de no linealidad y suma unitaria) y LSU
(desmezclado lineal no restringido) utilizando los endmembers proporcionados por el
método propuesto.
Estudiar la viabilidad de utilizar múltiples endmembers seleccionados por el método
propuesto en el proceso de desmezclado, siguiendo la línea de aproximaciones como
MESMA, descrita al final del apartado 2.3.2.2.
Implementaciones algorítmicas.
Evaluar de forma cuantitativa las implementaciones basadas en operaciones
morfológicas en cascada y en pirámide, las cuales resultan atractivas debido a su
Capítulo 7. Líneas futuras. - 313 -
menor complejidad computacional, pero pueden presentar un rendimiento más
reducido debido a la información que descartan a lo largo del proceso.
Establecer medidas de calidad que permitan obtener un compromiso adecuado entre la
cantidad de información descartada por dichas aproximaciones y la precisión de los
resultados obtenidos.
Implementaciones hardware.
Implementar mediante arquitecturas reconfigurables como FPGAs o DSPs las
arquitecturas sistólicas propuestas para soportar el método AMEE. Estas arquitecturas
fueron descritas en los apartados 5.2 y 5.3.
Estudiar métodos de particionamiento eficientes que permitan la obtención de un
módulo hardware capaz de procesar y comprimir datos hiperespectrales a bordo del
sensor y en tiempo real.
Referencias bibliográficas. - 315 -
Referencias bibliográficas
Adams, R, Bischof, L., “Seeded region growing”, IEEE Transactions on Pattern Analysis and
Machine Intelligence, vol. 16, No. 6. 1994.
Aguilar, P.L., Cuantificación de firmas hiperespectrales utilizando mapas autoorganizativos.
Tesis Doctoral, Universidad de Extremadura, 2000.
Aguilar, P.L., Plaza, A., Pérez, R.M., Martínez, P., “Morphological endmember identification
and its systolic array design,” Capítulo 3 en Neural Networks and Systolic Array Design.
Editores: D. Zhang & S.K. Pal, World Scientific, 2002.
Aiazzi, B., Alparone, L., Barducci, A., Baronti, S., Pippi, I., “Information-theoretic assessment
of sampled hyperspectral imagers”, IEEE Transactions on Geoscience and Remote Sensing,
vol. 39, pp. 1447-1458, 2001.
Alsing, S.G., Bauer, K.W., Miller, J.O., “A multinomial selection procedure for evaluating
pattern recognition algorithms”. Pattern Recognition, vol. 35, pp. 2397-2412, Nov. 2002.
Asner, G.P., Lobell, D.B., “A biogeophysical approach for automated SWIR unmixing of soils
and vegetation”. Remote Sensing of Environment, vol. 74, pp. 99-112, 2000.
Asner, G.P., Wessman, C.A., Schimel, D.S., Archer, S., “Variability in leaf and litter optical
properties: implications for canopy BRDF model inversions using AVHRR, MODIS, and
MISR”. Remote Sensing of Environment, vol. 63, pp. 200-215, 1998.
Aspinall, R., Marcus, W.A., Boardman, J.W., “Considerations in collecting, processing, and
analysing high spatial resolution hyperspectral data for environmental investigations”,
Journal of Geographical Systems, vol. 4, pp. 15-29, 2002.
Bagheri, S., Rijkeboer, M., Pasterkamp, R., Dekker, A., “Comparison of field
spectroradiometers in preparation for bio-optical modelling”, en: Proc. XI NASA/JPL
Airborne Earth Science Workshop, Pasadena, CA, 2001.
Bateson, A., Curtiss, B., “A method for manual endmember selection and spectral unmixing”,
Remote Sensing of Environment, vol. 55, pp. 229-243, 1996.
- 316 - Referencias bibliográficas.
Bateson, C.A., Asner, G.P., Wessman, C.A., “Endmember bundles: a new approach to
incorporating endmember variability into spectral mixture analysis”, IEEE Transactions on
Geoscience and Remote Sensing, vol. 38, pp. 1083–1094, 2000.
Baxes, G.A., Digital image processing. Principles and Applications. John Wiley & Sons. 1994.
Bell, J.F., Farrand, W.H., Johnson, J.R., Morris, R.V., “Low abundance materials at the Mars
Pathfinder landing site: an investigation using spectral mixture analysis and related
techniques”. Icarus, vol. 158, pp. 56-71, 2002.
Berger, M., Moreno, J., Mueller, A., Beisl, U., Richter, R., Schaepman, M., Strub, G., Stoll,
M.P., Nerry, F., Leroy, M., Rast, M., Wursteisen, P., Attema, E., "The DAISEX campaigns
in support of a future land surface processes mission". ESA Bulletin, February 2001.
Berger, M., Moreno, J., Mueller, A., Schaepman, M., Wursteisen, P., Rast, M., Attema, E., “The
Digital Airborne Imaging Spectrometer Experiment - DAISEX'99". Proc. IGARSS-2000,
pp. 3039-3041, 2000.
Berk, A. y col., “1998: MODTRAN cloud and multiple scattering upgrades with application to
AVIRIS”. Remote Sensing of Environment, vol. 65, pp. 367-375, 1998.
Bianchi, R., Cavalli, R. M., Fiumi, L., Marino, C.M. and Pignatti, S., “CNR LARA Project,
Italy: airborne laboratory for environmental research”, Summaries of the X JPL Airborne
Earth Science Workshop, 2001.
Bielski, C., Dubé, P., Cavayas, F., Marceau, “Spectral Space: A new approach for analysing
imaging spectrometer data”, International Journal Remote Sensing, en prensa, 2002.
Bister, M., Cornelis, J., Rosenfeld, A., “A critical view of pyramid segmentation algorithms”.
Pattern Recognition Letters, vol.11, pp. 605–617, 1990.
Boardman, J., “Post-ATREM polishing of AVIRIS apparent reflectance data using EFFORT: a
lesson in accuracy versus precision”, en Proc. VII NASA/JPL Airborne Earth Science
Workshop, 1998.
Boardman, J.W., “Automating spectral unmixing of AVIRIS data using convex geometry
concepts”, en: Proc. II NASA/JPL Airborne Earth Science Workshop, Pasadena, CA, 1993.
Boardman, J.W., Kruse, F.A., Green, R.O., “Mapping target signatures via partial unmixing of
AVIRIS data”, Summaries of the VI JPL Airborne Earth Science Workshop, 1995.
Borel, C.C., Gerstl, S.A.W., “Nonlinear spectral mixing models for vegetative and soil
surfaces”, Remote Sensing of Environment, vol. 47, pp. 403-416, 1994.
Referencias bibliográficas. - 317 -
Bowles, J., Palmadesso, P.J, Antoniades, J.A, Baumback, M.M, Rickard, L.J., “Use of filter
vectors in hyperspectral data analysis”, en Proc. SPIE Infrared Spaceborne Remote Sensing
III, vol. 2553, pp. 148-157, 1995.
Bruce, L.M., Morgan, C., Larsen, S., “Automated detection of subpixel targets with continuous
and discrete wavelet transforms”. IEEE Transactions on Geoscience and Remote Sensing,
vol. 39, pp. 2217-2226, 2001.
Burt, P.J., Adelson, A.E., “The Laplacian pyramid as a compact image code”. IEEE
Transactions on Communications, vol., 31, pp. 532 –540, 1983.
California Institute of Technology. Datos AVIRIS libres. Disponibles en
http://aviris.jpl.nasa.gov, 2002.
Chabrillat, S., Goetz, A.F.H., Olsen, H.W., Krosley, L., Noe, D.C., “The search for swelling
clays along the Colorado Front Range: results from field spectrometry and hyperspectral
imagery”, en: Proc. XI NASA/JPL Airborne Earth Science Workshop, Pasadena, CA, 2001.
Chang, C.-I, “An information theoretic-based approach to spectral variability, similarity and
discriminability for hyperspectral image analysis”, IEEE Transactions on Information
Theory, vol. 46, 2000.
Chang, C.-I, Brumley, C.M., “A Kalman Filtering approach to multispectral image classification
and detection of changes in signature abundance”. IEEE Transactions on Geoscience and
Remote Sensing, vol. 37, pp. 257 –268, 1999a.
Chang, C.-I, Du, Q., Sun, T., Althouse, L.G., “A Joint Band Prioritization and Band-
Decorrelation Approach to Band Selection for Hyperspectral Image Classification”, IEEE
Transactions on Geoscience Remote Sensing, vol. 37, no.6, pp.2631-2641, 1999b.
Chang, C.-I, Ren, H., “An Experiment-Based Quantitative and Comparative Analysis of Target
Detection and Image Classification Algorithms for Hyperspectral Imagery”. IEEE
Transactions on Geoscience and Remote Sensing, vol. 38, no. 2, pp. 1044- 1063, 2000.
Chang, S., Westfield, M.J., Lehmann, F., Oertel, D., Richter, R., “A 79 - Channel Airborne
Imaging Spectrometer”, en Proc. SPIE, vol. 1937, pp. 164 - 172, 1993.
Chen, J.M., “Spatial Scaling of a Remotely Sensed Surface Parameter by Contexture”. Remote
Sensing of Environment, vol. 69, pp. 30-42, 1999.
Chen, T., Wu, Q.H., Rahmani-Torkaman, R., Hughes, H., “A pseudo top-hat mathematical
morphological approach to edge detection in dark regions”. Pattern Recognition, vol. 35,
pp. 199-210, 2002.
- 318 - Referencias bibliográficas.
Chiang, S.-S., Chang, C.-I., Ginsberg, I.W., “Unsupervised target detection in hyperspectral
images using projection pursuit”. IEEE Transactions on Geoscience and Remote Sensing,
vol. 39, pp. 1380-1391, 2001.
Chuvieco, E., Fundamentos de Teledetección Espacial. Ediciones Rialp, 1999.
Clark, R.N. “Spectroscopy of Rocks and Minerals, and Principles of Spectroscopy”. Capítulo 1
en Manual of Remote Sensing, John Wiley and Sons, New York, 1999a.
Clark, R.N., Swayze, G., King, T.V.V., Livo, E., Dalton, J.B., Kokaly, R.F., “Tetracorder and
Expert System Feature Identification Rules for Reflectance (and Emittance) Spectroscopy
Analysis 1: Visible to Near-Infrared Detection of Minerals, Organics, Vegetation, Water,
Amorphous and Other Materials”, en: Proc. NASA/JPL Airborne Earth Science Workshop,
Pasadena, CA, 1999.
Clark, R.N., Swayze, G.A., Gallagher, A.J., King, T.V.V., Calvin, W.M., “The U. S.
Geological Survey, Digital Spectral Library: Version 1: 0.2 to 3.0 microns”, USGS Open
File Report 93-592, 1993. Disponible en http://speclab.cr.usgs.gov/spectral-lib.html.
Clark, R.N., Swayze, G.A., “Evolution in Imaging Spectroscopy Analysis and Sensor Signal-to-
Noise: An Examination of How Far We Have Come”, en: Proc. XI NASA/JPL Airborne
Earth Science Workshop, Pasadena, CA, 1996.
Cocks, T., Jenssen, R., Stewart, A., Wilson, I., Shields, T., “The HYMAP Airborne
Hyperspectral Sensor: The System, Calibration and Performance”, First EARSEL
Workshop on Imaging Spectroscopy, Zürich, 1998.
Collins, E.F., Roberts, D.A., Borel, C.C., “Spectral Mixture Analysis of Simulated Thermal
Infrared Spectrometry Data: An Initial Temperature Estimate Bounded TESSMA Search
Approach” . IEEE Transactions on Geoscience and Remote Sensing, vol. 39, no. 7, pp.
1435- 1446, 2001.
Congalton, R.G., “Considerations and Techniques for Assessing the Accuracy of Remotely
Sensed Data”, en: Proc. International Geoscience and Remote Sensing Symposium IGARSS,
vol. 3, pp. 1847-1850, 1989.
Coops, N., Culvenor, D., “Utilizing Local Variance of Simulated High Spatial Resolution
Imagery To Predict Spatial Pattern of Forest Stands”. Remote Sensing of Environment, vol.
71, pp. 248-260, 2000.
Curran, P.J. Dungan, J.L., “Estimation of Signal-to-Noise: A New Procedure Applied to
AVIRIS Data”, IEEE Transactions on Geoscience and Remote Sensing, vol. 27, pp. 620-
628, 1989.
Referencias bibliográficas. - 319 -
Dabney, P.W., The Design of a Theoretically Limited Signal-to-Noise CCD Based Imaging
Spectroradiometer. Tesis Doctoral, Universidad de Maryland, College Park, 1995.
Dalton, J.B., Bove, D., Mladinich, C., Clark, R.N., Rockwell, B., Swayze, G., King, T., Church,
S., “Spectral Classification of Similar Materials Using the Tetracorder Algorithm: the
Calcite-Epidote-Chorite Problem”, en Proc. XI NASA/JPL Airborne Earth Science
Workshop, 2001.
Dennison, P.E., Gardner, M.E., Roberts, D.A., Green. R.O., “Calibration and Vegetation Field
Spectra Collection for the 2000 AVIRIS Hawaii Deployment”, en: Proc. XI NASA/JPL
Airborne Earth Science Workshop, Pasadena, CA, 2001.
Díaz, J.C., Aguayo, P., Gómez, P., Rodellar, V., Olmos, P., “An Associative Memory to Solve
the Mixture Problem in Composite Spectra”, 35 Midwest Symposium on Circuits and
Systems, Washington D.C., pp. 891-894, 1992.
Díaz, J.C., Aportación al Análisis de Espectros de Radiación: Estructuras y Algoritmos. Tesis
Doctoral, Facultad de Informática, Universidad Politécnica de Madrid, 1994.
Dulyakarn, P., Rangsanseri, Y., Thitimajshima, P., “Segmentation of multispectral images based
on multithresholding”, en: 2nd International Symposium on Operationalization of Remote
Sensing, The Netherlands, 1999.
Eastman, J.R., Fulk, M., "Long Sequence Time Series Evaluation using Standardized Principal
Components", Photogrammetric Engineering and Remote Sensing, vol. 59, pp. 1307-1312,
1993.
ESA, “SPECTRA-Surface Processes and Ecosystem Changes Through Response Analysis”,
Reports for Assessment: The five Earth Explorer Core Missions, ESA SP-1257(5), 2001.
Faraklioti, M., Petrou, M., “Illumination invariant unmixing of sets of mixed pixels”. IEEE
Transactions on Geoscience and Remote Sensing, vol. 39, pp. 2227-2234, 2001.
Faraklioti, M., Petrou, M., “Recovering more classes than available bands for sets of mixed
pixels in satellite images”. Image and Vision Computing, vol. 18, pp. 705-713, 2000.
Funk, C.C., Theiler, J., Roberts, D.A., Borel, C.C., “Clustering to improve matched filter
detection of weak gas plumes in hyperspectral thermal imagery”. IEEE Transactions on
Geoscience and Remote Sensing, vol. 39, pp. 1410-1420, 2001.
Gao, B.-C., Heidebrecht, K.B., Goetz, A.F.H., “Derivation of Scaled Surface Reflectances from
AVIRIS Data”. Remote Sensing of Environment, vol. 44, pp. 145-163, 1993.
- 320 - Referencias bibliográficas.
Gao, F., Schaaf, C.B., Strahler, A.H., Lucht, W., “Using a multikernel least-variance approach
to retrieve and evaluate albedo from limited bidirectional measurements”. Remote Sensing
of Environment, vol. 76, pp. 57-66, 2002.
García, M., Ustin, S.L., “Detection of interannual vegetation responses to climatic variability
using AVIRIS data in a coastal savanna in California”. IEEE Transactions on Geoscience
and Remote Sensing, vol. 39, pp. 1480-1490, 2001.
García-Haro, F.J., Sommer, S., “A fast canopy reflectance model to simulate realistic remote
sensing scenarios”. Remote Sensing of Environment, vol. 81, pp. 205-227, 2002.
Gardner, M.E., Roberts, D.A., Funk, C., Noronha, V., “Road Extraction from AVIRIS Using
Spectral Mixture and Q-Tree Filter Techniques”, Summaries of the XI JPL Airborne Earth
Science Workshop, 2001.
Gauch, J.M., Pizer, S.M., “Multiresolution analysis of ridges and valleys in grey-scale images”.
IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 15, pp. 635–646,
1993.
Gege, P., D. Beran, W. Mooshuber, J. Schulz and H. van der Piepen. “System Analysis and
Performance of the New Version of the Imaging Spectrometer ROSIS”. En: Proc. First
EARSeL Workshop on Imaging Spectroscopy, University of Zurich, 1998.
Gege, P., D. Kuebler, W. Mooshuber, R. Mueller, P. Reinartz, M. Schroeder, J. Schulz, H. van
der Piepen, C. Brockmann, W. Cordes, R. Doerffer, “Analysis of data from the imaging
spectrometer ROSIS”, en Proc. First International Airborne Remote Sensing Conference
and Exhibition, Strasbourg, 1994.
Goel, N., Thompson, R.L., “A Snapshot of Canopy Reflectance Models and a Universal Model
for the Radiation Regime”. Remote Sensing Reviews, vol. 19, pp. 197-225, 2000.
Goetz, A.F.H., Kindel, B., “Comparison of Unmixing Results Derived from AVIRIS, High and
Low Resolution, and HYDICE Images at Cuprite, NV”. En: Proc. IX NASA/JPL Airborne
Earth Science Workshop, Pasadena, CA, 1999.
González, R.C., Woods, R.E., Digital Image Processing, Second Edition, Addison-Wesley,
2002.
Gordon, C., “A Generalization of the Maximum Noise Fraction Transform”. IEEE Transactions
on Geoscience and Remote Sensing, vol. 38, pp. 612–615, 2000.
Green, A.A., Berman, M., Switzer, P., Craig, M.D., “A transformation for ordering
multispectral data in terms of image quality with implications for noise removal”. IEEE
Transactions on Geoscience and Remote Sensing, vol. 26, pp. 65-74, 1988.
Referencias bibliográficas. - 321 -
Green, R.O. y Boardman, J., “Exploration of the Relationship Between Information Content and
Signal-to-Noise Ratio and Spatial Resolution in AVIRIS Spectral Data”, en Proc. IX
NASA/JPL Airborne Earth Science Workshop, Pasadena, CA, 2000.
Green, R.O. y col., “Imaging Spectroscopy and the Airborne Visible/Infrared Imaging
Spectrometer (AVIRIS)”, Remote Sensing of Environment, vol. 65, pp. 227-248, 1998.
Green, R.O. y Pavri, B., “AVIRIS In-Flight Calibration Experiment, Sensitivity Analysis, and
Intraflight Stability”, en Proc. IX NASA/JPL Airborne Earth Science Workshop, Pasadena,
CA, 2000.
Green, R.O., Gao, B.C., “Proposed Update to the Solar Irradiance Specrum Used in
LOWTRAN and MODTRAN” , en Proc. IX NASA/JPL Airborne Earth Science Workshop,
Pasadena, CA, 1993.
Guilfoyle, K.J., Althouse, M.L., Chang, C.-I, “A Quantitative and Comparative Analysis of Linear
and Nonlinear Spectral Mixture Models Using Radial Basis Function Neural Networks”. IEEE
Transactions on Geoscience and Remote Sensing, vol. 39, no. 8, pp. 2314- 2318, 2001.
Haralick, R.M., Shapiro, L.G, “Survey: Image segmentation techniques”, Computer Vision
Graphics Image Processing, vol. 29, pp. 100-132, 1985.
Haralick, R.M., Shapiro, L.G., Computer and Robot Vision, Volume I. Addison-Wesley, 1992.
Harvey, N.R. y col., “Comparison of GENIE and conventional supervised classifiers for
multispectral image feature extraction”. IEEE Transactions on Geoscience and Remote
Sensing, vol. 40, pp. 393-404, 2002.
Heinz, D. Constrained Least Squares Linear Mixture Analysis for Detection, Classification and
Quantification, Tesis Doctoral. University of Maryland, Baltimore Country, 2001.
Heinz, D., Chang, C.-I, "Fully constrained least squares linear mixture analysis for material
quantification in hyperspectral imagery," IEEE Transactions on Geoscience and Remote
Sensing, vol. 39, pp. 529-545, 2000.
Hsieh, P.-F., Landgrebe, D., Classification of High Dimensional Data. Tesis Doctoral, School
of Electrical and Computer Engineering, Purdue University, 1998.
Hsieh, P.-F., Lee, L.C., Chen, N.-Y., “Effect of spatial resolution on classification errors of pure
and mixed pixels in remote sensing”. IEEE Transactions on Geoscience and Remote
Sensing, vol. 39, pp. 2657-2663, 2001.
Hu, B., K. Innanen, and J. R. Miller. “Retrieval of leaf area index and canopy closure from
CASI data over the BOREAS flux tower sites”. Remote Sensing of Environment, vol. 74,
pp. 255-274, 2000.
- 322 - Referencias bibliográficas.
Hu, B., Wang, J., Miller, J.R., Goel, N.S., “On Application of Spectral Mixture Analysis in
Forestry: I. Study of non-linear mixture effects using Image Data Analysis and SPRINT
Scene Modeling on Laboratory Simulated-Forest scenes”, enviado a Remote Sensing of
Environment, 2002.
Hu, Y.H., Lee, H.B., Scarpace, F.L., “Optimal Linear Spectral Unmixing”, IEEE Transactions
on Geoscience and Remote Sensing, vol. 37, pp. 639–644, 1999.
Hudgins, L., Hines, C., “Spatial-Spectral Morphological Operators for Hyperspectral Region-
Growing”, International Symposium on Spectral Sensing Research (ISSSR), Quebec City,
Canada, 2001.
Ifarraguerri, A., Chang, C.-I, "Multispectral and hyperspectral image analysis with projection
pursuit," IEEE Transactions on Geoscience and Remote Sensing, vol. 38, pp. 2529-2538,
2000.
Jackson, Q.Z., Landgrebe, D., Design of an Adaptative Classification Procedure for the
Analysis of High-Dimensional Data with Limited Training Samples. Tesis Doctoral, School
of Electrical and Computer Engineering, Purdue University, 2001.
Jackway, P.T., Deriche, M., “Scale-Space Properties of the Multiscale Morphological Dilation-
Erosion”, IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 18, pp. 38-
51, 1996.
Jäger, G., Benz, U., “Measures of classification accuracy based on fuzzy similarity”. IEEE
Transactions on Geoscience and Remote Sensing, vol. 38, no. 2, pp. 1462-1467, 2000.
Jiménez, L.O., Vélez-Reyez, M., Chaar, Y., Fontan, F., Santiago, C., “Partially Supervised
Detection Using Band Subset Selection in Hyperspectral Data”, en Proc. SPIE Conference,
2000.
Jiménez, L.O., Rivera-Medina, J., “On the Integration of Spatial and Spectral Information in
Unsupervised Classification for Multispectral and Hyperspectral Data”, en Proc. SPIE
Conference, 1999.
Jiménez, L.O., Landgrebe, D., High Dimensional Feature Reduction Via Projection Pursuit,
Tesis Doctoral, School of Electrical and Computer Engineering, Purdue University, 1996.
Johnson, P.E., Smith, M.O., Taylor-George, S., Adams, J.B., “A Semi-Empirical Method for
Analysis of the Reflectance Spectra of Binary Mineral Mixtures”. Journal of Geophysical
Research, vol. 99, pp. 3557-3561, 1983.
Referencias bibliográficas. - 323 -
Johnson, P.E., Smith, M.O., Taylor-George, S., Adams, J.B., “A Semi-Empirical Method for
Analysis of the Reflectance Spectra of Binary Mineral Mixtures”. Journal of Geophysical
Research, vol. 99, pp. 3557-3561, 1983.
Kaarna, A., Zemcik, P., Kalviainen, H., Parkkinen, J., “Compression of multispectral remote
sensing images using clustering and spectral reduction”, IEEE Transactions on Geoscience
and Remote Sensing, vol. 38, pp. 1073-1082, 2000.
Kalman, L.S., Pelzer, G.R., “Simulation of Landsat Thematic Mapper Imagery Using AVIRIS
Hyperspectral Imagery”, en Proc. NASA/JPL Airborne Earth Science Workshop, Pasadena,
CA, 1993.
Katkovnik, V., Shmulevich, I., “Kernel density estimation with adaptive varying window size”.
Pattern Recognition Letters, vol. 23, pp. 1641 –1648, 2002.
Kay, S.M., Fundamentals of Statistical Signal Processing: Estimation Theory. Englewood
Cliffs, NJ: Prentice Hall, 1993.
Keller, I. and Fischer, J., “Details and Improvements of the Calibration of the Compact
Airborne Spectrographic Imager (CASI)”. First EARSEL Workshop on Imaging
Spectroscopy, Zürich, EARSEL, Paris, 81-88, 1998.
Kerekes, J.P., Landgrebe, D.A., "Simulation of Optical Remote Sensing Systems". IEEE
Transactions on Geoscience and Remote Sensing, vol. 27, pp. 762-771, 1989a.
Kerekes, J.P., Landgrebe, D.A., Modeling, Simulation and Analysis of Optical Remote Sensing
Systems. Tesis Doctoral, School of Electrical and Computer Engineering, Purdue
University, 1989b.
Keshava, N., Mustard, J.F., “Spectral unmixing”. IEEE Signal Processing Magazine, vol. 19,
pp. 44-57, 2002.
Key, T., Warner, T.A., McGraw, J.B., Fajvan, M.A., “A Comparison of Multispectral and
Multitemporal Information in High Spatial Resolution Imagery for Classification of
Individual Tree Species in a Temperate Hardwood Forest”, Remote Sensing of Environment,
vol. 75, pp. 100-112, 2001.
Kimes, D., Gastellu-Etchegorry, J., Estève, P., “Recovery of forest canopy characteristics
through inversion of a complex 3D model”. Remote Sensing of Environment, vol. 79, pp.
320-328, 2002.
Kohonen, T., “The Self-Organizing Map,” Neurocomputing, vol. 21, pp. 1-6, 1998.
- 324 - Referencias bibliográficas.
Kruse, F., “The Effects of Spatial Resolution, Spectral Resolution, and Signal-to-Noise Ratio on
Geologic Mapping Using Hyperspectral Data, Northern Grapevine Mountains, Nevada”, en
Proc. IX NASA/JPL Airborne Earth Science Workshop, Pasadena, CA, 2000.
Kruse, F.A., “Spectral Identification of Image Endmembers Determined from AVIRIS Data”, en
Proc. VII NASA/JPL Airborne Earth Science Workshop, 1998.
Kruse, F.A., Boardman, J.W. and Huntington, J.F., “Progress Report: Geologic Validation of
E0-1 Hyperion Using AVIRIS”. Summaries of the XI JPL Airborne Earth Science
Workshop, 2001.
Kruse, F.A., Huntington, J.F., “The 1995 AVIRIS Geology Group Shoot”, en Proc. VII
NASA/JPL Airborne Earth Science Workshop, 1996.
Kung, H.T., “Why Systolic Architectures?,” IEEE Computer Magazine, vol. 1, no. 15, pp. 37-
46, 1983.
Kung, S.I., Digital Neural Networks. Prentice-Hall, 1993.
Kuo, B.-C, Landgrebe, D., Improved Statistics Estimation and Feature Extraction for
Hyperspectral Data Classification. Tesis Doctoral, School of Electrical and Computer
Engineering, Purdue University, 2001.
Kustas, W.P., Norman, J.M., “Evaluating the Effects of Subpixel Heterogeneity on Pixel
Average Fluxes”. Remote Sensing of Environment, vol. 74, pp. 327-342, 2002.
Lambert, P., Chanussot, J., “Extending Mathematical Morphology to Color Image Processing”,
Proc. CGIP’2000, Saint-Etienne, France, 2000.
Landgrebe, D., “Hyperspectral Image Data Analysis”, IEEE Signal Processing Magazine, vol.
19, no. 1, pp. 17-28, 2002.
Landgrebe, D., “Multispectral Data Analysis, A Signal Theory Perspective”. Informe técnico
disponible en http://dynamo.ecn.purdue.edu/~biehl/MultiSpec/documentation.html, 1998.
Launeau, P., Despan, D., “Petrological Study of the Ronda Peridotite Using AVIRIS Images
and Field Measurements: Calibration and Relief Corrections”, en: Proc. XI NASA/JPL
Airborne Earth Science Workshop, Pasadena, CA, 2001.
Lavernier, D. y col., “FPGA-Based Implementation of the Pixel Purity Index (PPI) Algorithm”,
en: Proc. SPIE, vol. 4212, 2000a.
Lavernier, D., Fabiani, E., Derrien, S., Wagner, C., “Systolic Array for Computing the Pixel
Purity Index (PPI) Algorithm on Hyperspectral Images”, en: Proc. SPIE, vol. 4212, 2000b.
Referencias bibliográficas. - 325 -
Lawson, C.L., Hanson, R.J., Solving Least Squares Problems. Englewood Cliffs, NJ: Prentice-
Hall, 1974.
Lee, J., Woodyatt, A., Bergman, M., “Enhancement of high spectral resolution remote sensing
data by noise adjusted principal components transform”. IEEE Transactions on Geoscience
and Remote Sensing, vol. 28, pp. 295–304, 1990.
Lee, S.U., Chung, S.Y., “A comparative performance study of several global thresholding
techniques for segmentation”, Computer Vision Graphics Image Processing, vol. 52, pp.
171 –190, 1990.
Legleiter, C.J., Marcus, W.A., Lawrence, R.L., “Effects of Sensor Resolution on Mapping In-
Stream Habitats”, Photogrammetric Engineering and Remote Sensing, vol. 68, no. 8, 2002.
Madhok, V., Landgrebe, D., Spectral-Spatial Analysis of Remote Sensing Data: An Image
Model and A Procedural Design. Tesis Doctoral, School of Electrical Engineering and
Computer Science, Purdue University, 1998.
Manolakis, D., Shaw, G., “Detection algorithms for hyperspectral imaging applications”. IEEE
Signal Processing Magazine, vol. 19, pp. 29-43, 2002.
Manolakis, D., Siracusa, C., Shaw, G., “Hyperspectral subpixel target detection using the linear
mixing model”. IEEE Transactions on Geoscience and Remote Sensing, vol. 39, pp. 1392-
1409, 2001.
Mao, C., Seal, M. and Heitschmidt, G., “Airborne Hyperspectral Image Aquisition with Digital
CCD Video Camera”, 16th Biennial Workshop on Videography and Color Photography in
Resource Assessment, pp. 129-140, Weslaco, TX, 1997.
Martínez, P., Aguilar, P.L., Pérez, R.M., Plaza, A., “Systolic SOM Neural Network for
Hyperspectral Image Classification,” Capítulo 8 en Neural Networks and Systolic Array
Design. Editores: D. Zhang & S.K. Pal, World Scientific, 2002.
Martínez, P., Gualtieri, J.A., Aguilar, P.L., Pérez, R.M., Linaje, M., Preciado, J.C., Plaza, A.,
“Hyperspectral Image Classification Using a Self-Organizing Map”, Summaries of the XI
JPL Airborne Earth Science Workshop, 2001.
Martínez, P., Plaza, A., Atkinson, A., “Generation of a Test Image to Validate the Performance
of Endmember Extraction and Hyperspectral Unmixing Algorithms”. Third DLR/HySENS
Workshop, Oberpfaffenhofen, Germany, 2002.
McMillan, N.A., Creelman, C.D., Detection Theory: A User's Guide. Cambridge University
Press, 1991.
- 326 - Referencias bibliográficas.
Moldovan D.I., “On the Design of Algorithms for VLSI Systolic Array,” Proceedings of the
IEEE, vol. 71, pp. 113-120, 1983.
Müller, A., Hausold, A., Strobl, P., "HySens – DAIS / ROSIS Imaging Spectrometers at DLR",
En: Proc. SPIE Image and Signal Processing for Remote Sensing VII, Toulouse, France,
2001.
Naesset, E., “Predicting forest stand characteristics with airborne scanning laser using a
practical two-stage procedure and field data”. Remote Sensing of Environment, vol. 80, pp.
88-99, 2002.
Nalwa, V.S., Binford, T.O., “On Detecting Edges”. IEEE Transactions on Pattern Analysis and
Machine Intelligence, vol. PAMI-8, No. 6, 1986.
Nishii, R., Tanaka, R., “Accuracy and Inaccuracy Assessments in Land-Cover Classification”.
IEEE Transactions on Geoscience and Remote Sensing, vol. 37, no. 1, pp. 491-498, 1999.
Ortiz, F., “Morphological Processing of Color Images Using Hue/Saturation/Intensity Color
Spaces”, Proc. CGIP’2000, Saint-Etienne, France, 2000.
Otsu, N., “A Threshold Selection Method from Gray-Level Histograms”, IEEE Transactions on
Systems, Man, and Cybernetics, Vol.SMC-9 No. 1, 1979.
Peppin, B., Hauff, P.L., Peters, D.C., Prosh, E.C. and Borstad, G. “Different Correction-to-
Reflectance Methods and their Impacts on Mineral Classification Using SFSI and Low- and
High-Altitude AVIRIS”, Summaries of the XI JPL Airborne Earth Science Workshop,
2001.
Pérez, R.M., Aguilar, P.L., Martínez, P., Plaza, A. “A Self-Organizing Neural Network for
Hyperspectral Unmixing”, Revista Internacional Información Tecnológica, vol. 12, no. 6,
Dec. 2001.
Pérez, R.M., Algoritmo y Arquitectura de Red Neuronal para el Procesamiento de Señal
Aplicado a la Determinación y Cuantificación de Elementos Presentes en Composiciones
Espectrales. Tesis Doctoral, Facultad de Informática, Universidad Politécnica de Madrid,
1995.
Pérez, R.M., Martínez, P., Plaza, A., Aguilar, P.L., “Systolic Array Methodology for a Neural
Model to Solve the Mixture Problem,” Capítulo 2 en Neural Networks and Systolic Array
Design. Editores: D. Zhang & S.K. Pal, World Scientific, 2002a.
Pérez, R.M., Plaza, A., Martínez, P., Aguilar, P.L., Plaza, J., “Systolic Array VLSI
Implementation of a Self-Organizing Map for the Classification of Hyperspectral Imagery,”
Referencias bibliográficas. - 327 -
enviado a IEEE Transactions on Neural Networks, Special Issue on Hardware
Implementation, 2002b.
Pérez, R.M., Plaza, A., Martínez, P., Aguilar, P.L., Plaza, J., “Arrays de Sistólicos como
Soporte al Análisis de Imágenes Hiperespectrales en Tiempo Real,” en XIII Jornadas de
Paralelismo, Lleida, 2002c.
Petrou, M., Foschi, P.G., “Confidence in linear spectral unmixing of single pixels”, IEEE
Transactions on Geoscience and Remote Sensing, vol. 37, pp. 624 –626, Jan. 1999.
Pina, P., Barata, T., “Classification of forest cover types in ortho and satellite image using a
methodology based on mathematical morphology”, Proceedings of RecPad’2000 - 11th
Portuguese Conference on Pattern Recognition, pp. 337-344, Oporto, Portugal, 2000.
Pinzón, J., Ustin, S., Pierce, J.F., “Robust Feature Extraction for Hyperspectral Imagery Using
Both Spatial and Spectral Redundancies”, Summaries of the VII JPL Airborne Earth
Science Workshop, 1998.
Plaza, A., Martínez, P., Pérez, R.M., Plaza, J. “Spatial/spectral Endmember Extraction by
Multidimensional Morphological Operations”, IEEE Transactions on Geoscience and
Remote Sensing, vol. 40, no. 9, Sept. 2002a.
Plaza, A., Martínez, P., Pérez, R.M., Plaza, J. “A Comparative Analysis of Endmember
Extraction Algorithms Using AVIRIS Hyperspectral Data”. Summaries of the XI JPL
Airborne Earth Science Workshop, Pasadena, CA, USA, 2002b.
Plaza, A., Martínez, P., Gualtieri, J.A., Pérez, R.M., “Spatial/Spectral Identification of
Endmembers from AVIRIS Data Using Mathematical Morphology. Summaries of the X
JPL Airborne Earth Science Workshop, Pasadena, CA, USA, 2001a.
Plaza, A., Martínez, P., Gualtieri, J.A., Pérez, R.M., “Automated Identification of Endmembers
from Hyperspectral Images Using Mathematical Morphology”. SPIE International
Conference on Remote Sensing: Image and Signal Processing for Remote Sensing VII.
Toulouse, France, 2001b.
Plaza, A., Martínez, P., Aguilar, P.L., Pérez, R.M., “Algorithm Development: Endmember
Extraction and Hyperspectral Unmixing Algorithms”. SPECTRA Workshop, ESA/ESTEC,
Noordwijk, The Netherlands, 2001c.
Plaza, J., Desarrollo de una aplicación en internet para la comparación de algoritmos de
clasificación de imágenes de la superficie terrestre. Proyecto fin de carrera, Departamento
de Informática, Universidad de Extremadura, 2002.
Pratt, WK, Digital Image Processing, Second edition. New York: Wiley, 1991.
- 328 - Referencias bibliográficas.
Pulido, F.J., Díaz, M., Hidalgo, S.J., “Size Structure and Regeneration of Spanish Holm Oak
Quercus Ilex Forests and Dehesas: Effects of Agroforestry Use on their Long-term
Sustainability”, Forest Ecology and Management, vol. 146, pp. 1-13, 2001.
Qian, S.-E y col., “Vector quantization using spectral index-based multiple subcodebooks for
hyperspectral data compression”. IEEE Transactions on Geoscience and Remote Sensing,
vol. 38, pp. 1183 –1190, 2000.
Ramponi, G., “Contrast enhancement in images via the product of linear filters”, Signal
Processing, vol. 77, pp. 349-353, 1999.
Rand, R.S., Keenan, D.M., “A spectral mixture process conditioned by Gibbs-based
partitioning”. IEEE Transactions on Geoscience and Remote Sensing, vol. 39, pp. 1421-
1434, 2001.
Rellier, G., Descombes, X., Zerubia, J., “Local registration and deformation of a road
cartographic database on a SPOT satellite image”. Pattern Recognition, vol. 35, pp. 2213-
2221, 2002.
Richards, J. A., Remote Sensing Digital Image Analysis: An Introduction. Springer-Verlag,
Berlin, 1993.
Richter, R., "Bandpass resampling effects on the retrieval of radiance and surface reflectance".
Applied Optics, vol. 39, pp. 5001-5005, 2000.
Roberts, D.A., Gardner, R., Church, R., Ustin, S., Scheer, G., Green, R.O., “Mapping Chaparral
in the Santa Monica Mountains Using Multiple Endmember Spectral Mixture Models”.
Remote Sensing of Environment, vol. 65, pp. 267-279, 1998.
Roberts, E. y col., “The Australian Resource Information and Environment Satellite (ARIES),
Phase A study”, AIAA/USU, SSC97-III-2, 1997.
Sahoo, P.K., Soltani, S., Wong, K.C., “A Survey of Thresholding Techniques”. Computer
Vision, Graphics and Image Processing, No. 41, pp. 233-260, 1988.
Saryazdi, S., Haese-Coat, V., Ronsin, J., “Image representation by a new optimal non-uniform
morphological sampling”, Pattern Recognition, vol. 33, pp. 961-977, 2000.
Schavemaker, J.G.M., Reinders, M.J.T., Gerbrands, J.J., Backer, E., “Image sharpening by
morphological filtering”, Pattern Recognition, vol. 33, pp. 997-1012, 2000.
Schläpfer D., Schaepman M.E., Itten K.I., “PARGE: Parametric Geocoding Based on GCP-
Calibrated Auxiliary Data”. En: SPIE Int. Symp. on Opt. Sc, Eng. and Instr., San Diego, pp
334-344, 1998.
Referencias bibliográficas. - 329 -
Schott, J.R., Barsi, J.A., Nordgren, B.L., Raqueño, N.G., de Alwis, D., “Calibration of Landsat
thermal data and application to water resource studies”. Remote Sensing of Environment,
vol. 78, pp. 108-117, 2001.
Schweizer, A.M., Moura, J.M.F., “Efficient Detection in Hyperspectral Imagery”. IEEE
Transactions on Imagen Processing vol. 10, pp. 584-587, 2001.
Serra, J., Image Analysis and Mathematical Morphology, Volume 1. Academic Press, London,
1993.
Serra, J., Image Analysis and Mathematical Morphology. Academic Press Limited. 1982.
Settle, J.J. “On the Relationship between Spectral Unmixing and Subspace Projection”, IEEE
Transactions on Geoscience and Remote Sensing, vol. 34, pp. 1045–1046, 1996.
Shaw, G., Manolakis, D. “Signal processing for hyperspectral image exploitation”. IEEE Signal
Processing Magazine, vol. 19, pp. 12-16, 2002.
Shen, J., “On Multi-Edge Detection”. Graphical Models and Image Processing, vol. 58, no. 2,
pp. 101-114, 1996.
Short, N.M. y col., The Remote Sensing Tutorial at NASA/Goddard Space Flight Center.
Disponible en: http://rst.gsfc.nasa.gov, 2002.
Simon, A.J., “A model for biological winner-take-all neural competition employing inhibitory
modulation of NMDA-mediated excitatory gain”, Neurocomputing, vol. 26, pp. 587-592,
1999.
Small, C., “Multitemporal analysis of urban reflectance”, Remote Sensing of Environment, vol.
81, pp. 427-442, 2002.
Soille, P., “Morphological image analysis applied to crop field mapping”, Image and Vision
Computing, vol. 18, pp. 1025–1032, 2000.
Sreeka, T.R., Buehler, T., Emde, C., “A simple new radiative transfer model for simulating the
effect of cirrus clouds in the microwave spectral region”. Journal of Quantitative
Spectroscopy and Radiative Transfer, vol. 75, pp. 611-624, 2002.
Staenz, K., Szeredi, T., and Schwarz, J., “ISDAS - A System for Processing/Analyzing
Hyperspectral Data”. Canadian Journal of Remote Sensing, vol. 24, pp. 99-113, 1998.
Steele, B.M., Winne, J.C., Redmond, R.L., “Estimation and Mapping of Misclassification
Probabilities for Thematic Land Cover Maps”,Remote Sensing of Environment, vol. 66, pp.
192-202, 1998.
- 330 - Referencias bibliográficas.
Stehman, S.V., “Practical Implications of Design-Based Sampling Inference for Thematic Map
Accuracy Assessment”. Remote Sensing of Environment, vol. 72, pp. 35-45, 2000.
Stehman, S.V., “Selecting and Interpreting Measures of Thematic Classification Accuracy”.
Remote Sensing of Environment, vol. 62, pp. 77-89, 1997.
Stein, D.W., Beaven, S.G., Hoff, L.E., Winter, E.M., Schaum, A.P., Stocker, A.D., “Anomaly
Detection from Hyperspectral Imagery”. IEEE Signal Processing Magazine, vol. 19, pp. 58-
69, 2002.
Sternberg, S.R., “Greyscale Morphology”, Computer Vision Graphics and Image Processing,
vol. pp.283-305, 1986.
Strickland, R., Hahn, H.I., “Wavelet transform methods for object detection and recovery”.
IEEE Transactions on Image Processing, vol. 6, 1996.
Strobl, P., Müller, A., Fries, J., Böhl, R., Schaepman, M., Zock, A., "Calibration monitoring
using laboratory and vicarious approaches on the DAIS 7915", en: Proc. 1st EARSeL
Workshop on Imaging Spectroscopy, pp. 119-127, 1998.
Strobl, P., Müller, A., Schläpfer, D., Schaepman, M., "Laboratory Calibration and Inflight
Validation of the Digital Airborne Imaging Spectrometer DAIS 7915 for the 1996 Flight
Season", en: Proc. SPIE Algorithms for Multispectral and Hyperspectral Imagery III, vol.
3071, pp. 225-235, 1997.
Strub, G., Beisl, U., Schaepman, M., Schläpfer, D., Dickerhof, C., Itten, K.I., "Evaluation of
Diurnal Hyperspectral BRF Data Acquired with the RSL Field Goniometer During the
DAISEX'99 Campaign”, en: Proc. 2nd Intl. EARSeL Workshop on Imaging Spectroscopy,
Enschede, 2000.
Subramanian, S., Gat, N., Ratcliff, A., Eismann, M., “Hyperspectral Data Reduction Using
Principal Components Transformation”, en Proc. X NASA/JPL Airborne Earth Science
Workshop, 2000.
Swayze, G., Clark, R.N., Goetz, A.F.H., Livo, K.E., Bisdorf, R.J., Sutley, S.J., “Using Imaging
Spectroscopy to Better Understand the Hydrothermal and Tectonic History of the Cuprite
Mining District, Nevada”, en: Proc. NASA/JPL Airborne Earth Science Workshop,
Pasadena, CA, 1998.
Swayze, G., Clark, R.N., Kruse, F., Sutley, S., Gallagher, A., “Ground-Truthing AVIRIS
Mineral Maping at Cuprite, Nevada”, en: Proc. XI NASA/JPL Airborne Earth Science
Workshop, Pasadena, CA, 1992.
Referencias bibliográficas. - 331 -
Swayze,G.A., The Hydrothermal and Structural History of the Cuprite Mining District,
Southwestern Nevada: An Integrated Geological and Geophysical Approach, Tesis
Doctoral, University of Colorado, Boulder, 1997.
Sweet, J., Granaham, J., Sharp, M., “An Objective Standard for Hyperspectral Image Quality”,
en: Proc. IX NASA/JPL Airborne Earth Science Workshop, Pasadena, CA, 2000.
Tadjudin, S., Landgrebe, D., Classification of High Dimensional Data with Limited Training
Samples. Tesis Doctoral, School of Electrical Engineering and Computer Science, Purdue
University, 1998.
Tatem, A.J., Lewis, H.G., Atkinson, P.M., Nixon, M.S., “Super-resolution land cover pattern
prediction using a Hopfield neural network”. Remote Sensing of Environment, vol. 79, pp.
1-14, 2002.
Theiler, J., Gisler, G., “A contiguity-enhanced k-means clustering algorithm for unsupervised
multispectral image segmentation”, en: Proc. SPIE, vol. 3159, pp. 108-118, 1997.
Theiler, J., Lavenier, D.D., Harvey, N.R., Perkins, S.J., Szymanski, J.J., “Using blocks of
skewers for faster computation of Pixel Purity Index”, en: Proc. SPIE, vol. 4132, pp. 61-71,
2000.
Tompkins, S., Mustard, J.F., Pieters, C.M., Forsyth, D.W., “Optimization of endmembers for
Spectral Mixture Analysis”, Remote Sensing of Environment, vol. 59, pp. 472-489, 1997.
Tu, T.M., Shyu, H.C., Lee, C.H., Chang, C.-I, “An oblique subspace projection approach for
mixed pixel classification in hyperspectral images”, Pattern Recognition, vol. 32, pp. 1399-
1408, 1999.
Van Horebeek, J., Tapia-Rodriguez, E., “The approximation of a morphological opening and
closing in the presence of noise”, Signal Processing, vol. 81, pp. 1991-1995, 2001.
Vaughan, R.G., Calvin, W.M., Taranik, J., “Analysis of Sub-Pixel Mixing in High_Altitude
AVIRIS Data Over Virginia City, Nevada, Using Systematic Field-Based Observations”,
en: Proc. XI NASA/JPL Airborne Earth Science Workshop, Pasadena, CA, 2001.
Verhoeye, J., De Wulf, R., “Land cover mapping at sub-pixel scales using linear optimization
techniques”, Remote Sensing of Environment, vol. 79, pp. 96-104, 2002.
Vincent, L., “Morphological Grayscale Reconstruction in Image Analysis: Applications and
Efficient Algorithms”. IEEE Transactions on Image Processing, vol. 2, no. 2, 1993.
Wang, D., Haese-Coat, V., Ronsin, J., “Shape decomposition and representation using a
recursive morphological operation”, Pattern Recognition, vol. 28, pp. 1783-1792, 1995.
- 332 - Referencias bibliográficas.
Warner, A., Blonski, S., Davis, B., Gasser, G., Ryan, R., Zanoni, V., “An Approach to
Application Validation of Multispectral Sensors Using AVIRIS”, en Proc. X NASA/JPL
Airborne Earth Science Workshop, Pasadena, CA, 2001.
White, H. P., J. R. Miller, J. M. Chen. “Four-scale linear model for anisotropic reflectance
(FLAIR) for plant canopies. Part I: Model description and partial validation”. IEEE
Transactions on Geoscience and Remote Sensing, vol. 39, pp. 1072-1083, 2001.
Winter, M.E., “N-FINDR: an algorithm for fast autonomous spectral end-member determination
in hyperspectral data”, Proc. SPIE Imaging Spectrometry V, vol. 3753, pp. 266-275, 1999.
Zarco-Tejada, P. J., J. R. Miller, T. L. Noland, G. H. Mohammed, P. H. Sampson. “Scaling-up
and Model Inversion Methods with Narrow-band Optical Indices for Chlorophyll Content
Estimation in Closed Forest Canopies with Hyperspectral Data”. IEEE Transactions on
Geoscience and Remote Sensing, vol. 39, pp. 1491-1507, 2001.