tema 3. interpretación de imágenes · 2014-12-09 · universidad nacional de entre rÍos facultad...

24
UNIVERSIDAD NACIONAL DE ENTRE RÍOS FACULTAD DE CIENCIAS AGROPECUARIAS CÁTEDRA DE SISTEMAS DE INFORMACIÓN GEOGRÁFICA 1 / 114 Tema 3. Interpretación de imágenes Es prudente considerar previamente, una serie de cuestiones referidas al tipo de sensor o los tratamientos más convenientes para la aplicación que se persigue. Éstos orientan sobre el tipo de información necesaria, precisión, escala, nivel de desagregación y los medios disponibles que imponen un equilibrio entre lo deseable y lo posible. Tipos de interpretación Se debe tener en cuenta que la técnica posee limitaciones y sirve para resolver cierto tipo de problemás. Falsas expectativas pueden conducir a falsas conclusiones. Cualquier proyecto de aplicación debe comenzar cuestionándose si esta técnica puede solventar el objetivo marcado y si la información que ofrece no se obtiene por medios más rápidos y económicos. Un trabajo de aplicación debe basarse en un trabajo de investigación previo que valide cierta metodología. Algunos estudios como la cartografía de suelo, estadística agraria, explotación minera, temperatura y componentes del agua, recursos pesqueros, evaluación de impactos ambientales y predicción meteorológica reconocen a la teledetección como fuente primaria de información,. Los tipos de interpretación hacen referencia a las posibles formas de abordar un análisis de imágenes. Se pueden generar cuatro tipos de análisis: Cartografía temática: mediante clasificación visual o digital de las imágenes de una serie de categorías homogéneas, pretendiendo discriminar cubiertas y etiquetar cada píxel en la clase temática más apropiada. Es la aplicación más común, pretendiendo obtener un inventario y cartografía de un determinado fenómeno. Presupone que cada píxel es homogéneo y por lo tanto existen transiciones bruscas en el espacio. Aunque hay métodos que permiten asignaciones múltiples, cualquier agrupación implica una partición brusca. Matriz de medidas sobre el terreno: la explotación de equipos sensores se concibe como un procedimiento para muestrear, a intervalos regulares una determinada variable ambiental. Puede obtenerse una discriminación muy detallada de la distribución espacial de esa variable. Como ejemplo se puede mencionar la medición de la temperatura marina. Bajo este enfoque de interpretación la teledetección se orienta a generar variables biofísicas mediante algún modelos que relacione medidas del sensor con dichas variables. Determinación de cambios: una de las ventaja es la capacidad para seguir fenómenos dinámicos, gracias a la cobertura cíclica que proporciona. Resulta de interés para inventariar desecación de humedales, efecto de incendios y plagas, etc. El fin es señalar aquellas zonas que han modificado sus rangos espectrales entre fechas. Esto puede hacerse sobre imágenes ya clasificadas o sobre transformaciones de las bandas ya clasificadas, donde el cambio puede medirse en una escala continuada. Mosaico: mide las relaciones espaciales entre objetos. Se pretende generar información sobre la estructura espacial de la información detectada.

Upload: others

Post on 28-Jan-2020

1 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Tema 3. Interpretación de imágenes · 2014-12-09 · UNIVERSIDAD NACIONAL DE ENTRE RÍOS FACULTAD DE CIENCIAS AGROPECUARIAS CÁTEDRA DE SISTEMAS DE INFORMACIÓN GEOGRÁFICA 1

UNIVERSIDAD NACIONAL DE ENTRE RÍOS FACULTAD DE CIENCIAS AGROPECUARIAS

CÁTEDRA DE

SISTEMAS DE INFORMACIÓN GEOGRÁFICA

1 / 114

Tema 3. Interpretación de imágenes

Es prudente considerar previamente, una serie de cuestiones referidas al tipo de sensor o los tratamientos más convenientes para la aplicación que se persigue. Éstos orientan sobre el tipo de información necesaria, precisión, escala, nivel de desagregación y los medios disponibles que imponen un equilibrio entre lo deseable y lo posible.

Tipos de interpretación Se debe tener en cuenta que la técnica posee limitaciones y sirve para resolver cierto tipo de problemás. Falsas expectativas pueden conducir a falsas conclusiones. Cualquier proyecto de aplicación debe comenzar cuestionándose si esta técnica puede solventar el objetivo marcado y si la información que ofrece no se obtiene por medios más rápidos y económicos.

Un trabajo de aplicación debe basarse en un trabajo de investigación previo que valide cierta metodología. Algunos estudios como la cartografía de suelo, estadística agraria, explotación minera, temperatura y componentes del agua, recursos pesqueros, evaluación de impactos ambientales y predicción meteorológica reconocen a la teledetección como fuente primaria de información,.

Los tipos de interpretación hacen referencia a las posibles formas de abordar un análisis de imágenes. Se pueden generar cuatro tipos de análisis:

� Cartografía temática: mediante clasificación visual o digital de las imágenes de

una serie de categorías homogéneas, pretendiendo discriminar cubiertas y etiquetar cada píxel en la clase temática más apropiada. Es la aplicación más común, pretendiendo obtener un inventario y cartografía de un determinado fenómeno. Presupone que cada píxel es homogéneo y por lo tanto existen transiciones bruscas en el espacio. Aunque hay métodos que permiten asignaciones múltiples, cualquier agrupación implica una partición brusca.

� Matriz de medidas sobre el terreno: la explotación de equipos sensores se concibe como un procedimiento para muestrear, a intervalos regulares una determinada variable ambiental. Puede obtenerse una discriminación muy detallada de la distribución espacial de esa variable. Como ejemplo se puede mencionar la medición de la temperatura marina. Bajo este enfoque de interpretación la teledetección se orienta a generar variables biofísicas mediante algún modelos que relacione medidas del sensor con dichas variables.

� Determinación de cambios: una de las ventaja es la capacidad para seguir fenómenos dinámicos, gracias a la cobertura cíclica que proporciona. Resulta de interés para inventariar desecación de humedales, efecto de incendios y plagas, etc. El fin es señalar aquellas zonas que han modificado sus rangos espectrales entre fechas. Esto puede hacerse sobre imágenes ya clasificadas o sobre transformaciones de las bandas ya clasificadas, donde el cambio puede medirse en una escala continuada.

� Mosaico: mide las relaciones espaciales entre objetos. Se pretende generar información sobre la estructura espacial de la información detectada.

Page 2: Tema 3. Interpretación de imágenes · 2014-12-09 · UNIVERSIDAD NACIONAL DE ENTRE RÍOS FACULTAD DE CIENCIAS AGROPECUARIAS CÁTEDRA DE SISTEMAS DE INFORMACIÓN GEOGRÁFICA 1

UNIVERSIDAD NACIONAL DE ENTRE RÍOS FACULTAD DE CIENCIAS AGROPECUARIAS

CÁTEDRA DE

SISTEMAS DE INFORMACIÓN GEOGRÁFICA

2 / 24

Fases de la interpretación Definición de la escala: La escala del trabajo condiciona la unidad más pequeña de información que se debe incluir en el mapa (mínima unidad cartografiable MUC). Se recomienda que no sea inferior a 4 mm2 en la escala del mapa. Está directamente relacionada con el tipo de sensor más idóneo para el trabajo a realizar. También condiciona el número y desagregación de las categorías a discriminar.

Límites más idóneos para distintos sensores:

NOAA-AVHRR 1:2.000.000 Landsat-MSS 1: 200.000 Landsat TM 1:100.000 Spot-HRV (pan) 1:50.000

La leyenda no solo está en función de la escala sino también de la complejidad del territorio. Es práctica común usar una leyenda para cada zona en estudio. La falta de criterios comunes dificulta la generalización de resultados a otros espacios e invalida la cartografía sistemática del territorio. Para solucionar este problema el US. Geological Survey diseño esquemás de clasificación para la cartografía ocupación / uso del suelo. Un esquema se desarrolló para el empleo de sensores remotos. Se trata de una leyenda de uso y ocupación del suelo organizada en cuatro niveles jerárquicos, cada uno de los cuales se pretende obtener a partir de diferentes medios de teledetección: imágenes satelitales para un nivel más general y fotografía aérea con trabajo de campo para las clases más detalladas. La inclusión de clases de usos y ocupación en un mismo esquema de clasificación tiene el problema teledetección, de que solo es posible discernir la ocupación del suelo y no necesariamente el uso al que se destinan. Esto puede ser deducido por el interprete en algunos casos pero en otros no. La leyenda de trabajo condiciona el tipo de tratamiento o número y fecha de la imágenes a tratar. El nivel de detalle que proporciona la leyenda se relaciona con el riesgo de error.

Selección del método de análisis Las imágenes son adquiridas por el satélite en formato numérico, gracias a una conversión analógico digital realizada a bordo del satélite. Por esto el tratamiento digital resulta la opción de análisis más inmediata. Estos valores digitales también pueden convertirse a intensidades de luz (tonos), con lo que pueden generarse productos cuasi fotográficos, interpretables visualmente. Antes de tomar la decisión del tipo de análisis a realizar, conviene tener en cuenta:

• Medios económicos o humanos disponibles: se considera que un trabajo de teledetección espacial requiere una gran inversión inicial, pero se está obviando una técnica de moderados presupuesto. El análisis visual no requiere inversiones económicas importantes y garantiza un nivel de precisión suficiente para algunas aplicaciones. El costo por unidad de superficie de una imagen falso color es inferir al de la fotografía aérea y presenta un detalle adecuado. Cuando el presupuesto es holgado puede hacerse un tratamiento digital más rápido, económico y certero, pero con una mayor inversión inicial. Se suma la

Page 3: Tema 3. Interpretación de imágenes · 2014-12-09 · UNIVERSIDAD NACIONAL DE ENTRE RÍOS FACULTAD DE CIENCIAS AGROPECUARIAS CÁTEDRA DE SISTEMAS DE INFORMACIÓN GEOGRÁFICA 1

UNIVERSIDAD NACIONAL DE ENTRE RÍOS FACULTAD DE CIENCIAS AGROPECUARIAS

CÁTEDRA DE

SISTEMAS DE INFORMACIÓN GEOGRÁFICA

3 / 24

formación del personal que requiere base estadística y manejo de programas informáticos.

• Rapidez y precisión exigida: Aquí también el método digital es superior al visual, excepto en zonas de mucha heterogeneidad espacial donde es más exacto el visual. El ojo humano no puede detectar variaciones tonales que si son posibles mediante diferencias numéricas en sistemas digitales.

• Tipo y continuidad de las tareas: Si solo se precisa un croquis de interpretación y no una representación cartográfica, la interpretación visual no presenta inconvenientes. Pero si se requiere un mapa con todas las cubiertas de la cartografía bases definidas, el tratamiento digital permite realizar este proceso con rapidez y precisión. Permite además, inventariar resultados e integrarlos con variables cartográficas ya que basta realizar un cálculo de frecuencias (píxeles en cada clase) para conocer la superficie ocupada por cada una de ellas. Esto resulta sencillo en el marco de los SIG.

La inversión en equipos de informática se justifica cuando el objeto o escala no es abordable por análisis visual. También cuando se pretende obtener modelos biofísicos, detección de cambios, medición numérica de la estructura del territorio e introducir los resultados aun SIG.

Verificación a campo: Los trabajos a campo en primera instancia permiten realizar un acopio de información auxiliar. Permiten familiarizarse con la zona en estudio, estudiar sus rasgos medio ambientales y humanos. Si se trabaja con una cubierta vegetal se puede realizar un calendario fenológico con el fin de adquirir la imagen de la fecha más conveniente. Se pueden hacer trabajos con radiómetros de campo que permitan seleccionar el sensor y las bandas más apropiadas, así como el material auxiliar para la interpretación de la imagen.

Una vez seleccionada las bandas, el sensor y las leyenda de trabajo se realiza otro trabajo a campo para caracterizar sobre la imagen las variaciones de las distintas clases señaladas con anterioridad. Estas experiencia se debe extender al resto de la imagen en la interpretación de la cubierta.

Se vuelve al campo para hacer una verificación de los resultados, de acuerdo al porcentaje de fiabilidad requerido y la tasa de error tolerable en el muestreo. Este paso puede ser abordado en la visita la campo anterior, siempre que no se usen las misma áreas para clasificar y para verificar la imagen.

Tratamiento digital de imágenes

La matriz de datos:

El aspecto más importante de la teledetección es el aprovechamiento temático de las imágenes. En los equipos ópticos electrónicos el sensor explora la superficie terrestre adquiriendo la radiación proveniente de la superficie y de los objetos. La radiancia recibida estará en función de las características el terreno y el tamaño será función de la resolución espacial del sensor. Cada una de las parcelas que constituyen la unidad mínima de información en la imagen se llama píxel. El color de cada píxel se define por un valor numérico

Page 4: Tema 3. Interpretación de imágenes · 2014-12-09 · UNIVERSIDAD NACIONAL DE ENTRE RÍOS FACULTAD DE CIENCIAS AGROPECUARIAS CÁTEDRA DE SISTEMAS DE INFORMACIÓN GEOGRÁFICA 1

UNIVERSIDAD NACIONAL DE ENTRE RÍOS FACULTAD DE CIENCIAS AGROPECUARIAS

CÁTEDRA DE

SISTEMAS DE INFORMACIÓN GEOGRÁFICA

4 / 24

que codifica digitalmente la radiancia detectada por el sensor, para esa parcela y esa banda espectral. Este valor numérico se denomina Nivel Digital (ND). Puede traducirse a una intensidad visual o un nivel de gris por un convertidor digital analógico.

Figura 3. Organización de datos en una imagen satelital.

La intensidad de color que aparece en el monitor está relacionada con su ND en el

disco, pero no siempre tiene que ser igual. Conviene distinguir el ND de cada píxel y el nivel visual (NV) que corresponde a la intensidad de color con la que se visualiza. Los NV son efímeros ya que solo se utilizan para operaciones de realce e interpretación visual, mientras que los ND son la base para la interpretación digital, sobre todo cuando se los quiere relacionar con algún parámetro físico.

Teniendo en cuenta esto, la organización de los datos en una imagen digital se trata de una matriz numérica de tres dimensiones, que hace fácilmente comprensible las transformaciones que se hacen sobre ella. Las dos primeras corresponden a las coordenadas geográficas de la imagen y la tercera indica su dimensión espectral. La posición norte-sur está indicadas por las filas, mientras que la oeste-este por las columnas. El origen de las coordenadas es en la esquina superior izquierda debido a la secuencia de adquisición norte-sur por la traza del satélite. En la tercera dimensión hay tantos planos de la imagen como bandas originalmente detectadas.

Sobre la imagen se hacen muchas operaciones estadísticas comunes a las matrices numéricas. Se les puede calcular las medidas de tendencia central y dispersión, cambiar la ordenación geométrica, realizar combinaciones aritméticas entre banda, sintetizar bandas

Page 5: Tema 3. Interpretación de imágenes · 2014-12-09 · UNIVERSIDAD NACIONAL DE ENTRE RÍOS FACULTAD DE CIENCIAS AGROPECUARIAS CÁTEDRA DE SISTEMAS DE INFORMACIÓN GEOGRÁFICA 1

UNIVERSIDAD NACIONAL DE ENTRE RÍOS FACULTAD DE CIENCIAS AGROPECUARIAS

CÁTEDRA DE

SISTEMAS DE INFORMACIÓN GEOGRÁFICA

5 / 24

reduciendo la información redundante o discriminar grupos de ND homogéneos dentro de la matriz. El tratamiento se apoya en equipos informáticos adaptados, dependiendo de los soportes y formatos en que se ofrecen los ND que definen los píxeles. Es necesario conocer los formatos de grabación que permiten conocer la organización de los ND originalmente adquiridos. Conviene considerar la codificación aplicada y la organización lógica de los datos. En lo que respecta a codificación aplicada los ND son grabados en códigos binarios. La mayor parte de los sensores emplea grupos de 8 bits para el ND de cada píxel. Por esto cada píxel se define como byte, lo que equivale a un rango de 256 niveles (28). Los modelo digitales de terreno se codifican en un rango de 16 bits, lo que permite almacenar hasta 65.536 altitudes diferentes.

Las imágenes se organizan en una serie de archivos que se descomponen en registros. Cada imagen pose un archivo de cabecera donde se almacena el formato con que están grabados los ND, sus condiciones de adquisición como tipo de sensor, localización de la escena, día, elevación y acimut solar, etc. La distribución de los archivos está en relación con el formato de los ND. Los tres más habituales son:

• Bandas secuenciales (BSQ): Los ND de cada banda se colocan uno a continuación del

otro hasta completar todos los píxeles que la forman. Tras ello se sitúan los ND de las bandas siguientes y así hasta completar todas las bandas de la imagen. Entre banda y banda se inserta un archivo de cola y de cabecera para identificar la sección del espectro sobre la que se está recogiendo información. Permite una organización estructurada de los datos. Es común en imágenes Landsat.

• Bandas intercaladas por líneas (BIL): Los ND se organizan por líneas en lugar de por bandas, disponiéndose consecutivamente los correspondientes a toda las bandas para cada línea, antes de comenzar la línea siguiente. Tras la primer línea de la última banda se sitúa la segunda línea de la primer banda. Agiliza la lectura de las sub-zonas de las imágenes. Es común en SPOT-HVR y Landsat-TM.

• Bandas intercaladas por píxel (BIP): Se alternan los ND en cada píxel en vez de hacerlos en cada línea. Tras el ND de la línea 1, columna 1, banda 1 aparece el ND de la línea 1, columna 1, banda 2. Es poco utilizado ya que fue ideado para agilizar la clasificación de sub imágenes cuando se emplean equipos de escasa memoria. Se aplicó en la distribución de imágenes en los disquetes de 8 pulgadas.

Equipos de tratamiento de imágenes digitales Se deben considerar los componentes físicos (hardware) como los programas de aplicación (software).

Figura 4: Componentes necesarios para el tratamiento de imágenes

Page 6: Tema 3. Interpretación de imágenes · 2014-12-09 · UNIVERSIDAD NACIONAL DE ENTRE RÍOS FACULTAD DE CIENCIAS AGROPECUARIAS CÁTEDRA DE SISTEMAS DE INFORMACIÓN GEOGRÁFICA 1

UNIVERSIDAD NACIONAL DE ENTRE RÍOS FACULTAD DE CIENCIAS AGROPECUARIAS

CÁTEDRA DE

SISTEMAS DE INFORMACIÓN GEOGRÁFICA

6 / 24

Componentes físicos:

Estos cumplen tres operaciones básicas en cualquier sistema informático, como son la entrada de datos, procesamiento-almacenamiento y salida de los resultados. Las unidades de entrada de información se encargan de la adquisición de los datos como de las instrucciones precisas para el control del proceso. Estas pueden el teclado o cámaras de video, rastreadores electrónicos, digitalizadores o ratones electrónicos.

El centro neurálgico del ordenador es la unidad central del proceso (CPU) base del funcionamiento de la máquina. Esta recibe los datos de las unidades de entrada, los almacena provisoriamente en la memoria central, los procesa de acuerdo a las instrucciones del usuario y envía los resultados a una unidad externa.

Programas de aplicación: Conjugan los componentes físicos y controlan su funcionamiento hacia un determinado

objetivo. Se distinguen dos categorías básicas: el sistema operativo y los programas de aplicación. El primero es un conjunto de programas y comandos que organizan el flujo de información y el control de los periféricos. Garantiza un funcionamiento armónico. Los programas utilizan los recursos del sistema operativo para comunicarse con el ordenador. Los compiladores convierten las instrucciones del usuario al lenguaje de la máquina. Una vez compilados deben ser ejecutados con los programas de aplicación que abarcan las operaciones más destacadas en el procesamiento de las imágenes. Estos suelen poseer un lenguaje propio para desarrollar las aplicaciones específicas.

Los equipos de tratamientos de imágenes integran hardware y software en una serie de componentes estructurados para la resolución de una serie de aplicaciones. Los equipos en el mercado se pueden clasificar como básicos, sobre un ordenador personal y avanzados soportados por un ordenador medio o grande. La elección se basa en la necesidad y el presupuesto disponible. Para evaluar un equipo es necesario pensar en la aplicación que tendrá.

Utilidades para la visualización y cálculos estadísticos: Es una de las principales características de un equipo de tratamiento digital y depende

del hardware disponible. Las utilidades más habituales son:

• Conversiones digital analógica de los ND almacenados en la imagen y que permiten su representación en el monitor. Con el objeto de que la imagen se mantenga, existe una memoria gráfica de refresco que almacena temporalmente los ND visualizados hasta que se envía una nueva imagen. • Obtención de coordenadas de puntos de interés, con la ayuda del ratón o digitalizador electrónico para la corrección geométrica de la imagen o la característica espectral de distintas cubiertas. • Digitalización de áreas sobre la imagen, realizada con un cursor móvil. • Cambios de escala para ampliar o reducir a imagen visualizada. Se realiza en la memoria de refresco por lo que se obtiene instantáneamente. Se crea una matriz nueva de tamaño equivalente al nivel de magnificación. • Creación de archivos de visualización, que son copias de la información almacenada en el monitor, salvando la memoria de refresco, generando una nueva imagen que puede ser visualizada posteriormente sin repetir los procesos necesarios para su generación.

Page 7: Tema 3. Interpretación de imágenes · 2014-12-09 · UNIVERSIDAD NACIONAL DE ENTRE RÍOS FACULTAD DE CIENCIAS AGROPECUARIAS CÁTEDRA DE SISTEMAS DE INFORMACIÓN GEOGRÁFICA 1

UNIVERSIDAD NACIONAL DE ENTRE RÍOS FACULTAD DE CIENCIAS AGROPECUARIAS

CÁTEDRA DE

SISTEMAS DE INFORMACIÓN GEOGRÁFICA

7 / 24

Considerando los cálculos estadísticos que se pueden realizar a una imagen, lo más común es describir su tendencia central de radiancia en cada banda y su dispersión, es decir la homogeneidad entre los píxeles que la componen. Estos valores se relacionan con los parámetros de calibración del sensor.

Es interesante contar con el histograma de frecuencias relativas de cada banda que informa como se distribuyen los ND en una determinada imagen. La frecuencia relativa de un ND se calcula como el total de píxeles que presentan ese valor y el total de píxeles de la imagen. Es importante para realizar una primera valoración de la imagen y deducir la tonalidad dominante en cada banda por su localización, su anchura que está relacionada con el contraste, mientras que los picos pueden significar una clase de cobertura. Ajustando la variación inicial a la máxima permitida supone una mejora del contraste.

El análisis de las bandas por separado es de interés para hacer relaciones entre bandas para analizar el grado de información original que aporta cada una. Puede realizarse gráficamente mediante un dispersograma, que presentan la localización de los píxeles de la imagen a partir de sus ND en dos bandas. Cuando la nube de puntos tiende a formar de línea las dos bandas tenderán a estar muy relacionadas y es posible trabajar con solo una de ellas para retener la mayor parte de la información. Ocurre con las badas del visible y del infrarrojo. Por el contrario una alta dispersión en la nube de puntos indica que ambas bandas ofrecen información contrastada y ambas serán útiles en el análisis. El análisis se competa con el coeficiente de relación lineal de Pearson que se define como el cociente entre la covariancia de las dos bandas y el producto de sus desviaciones típicas. Cuando se evalúan banda del visible e infrarrojo , el coeficiente entre ellas es bajo debido a las diferencias en el contraste que estas bandas generan en la cubierta.

Correcciones de la imagen: Tienden a eliminar cualquier anomalía en la imagen, ya sea en su localización como en

los ND de los píxeles. Algunas técnicas son incorporadas de modo rutinario por las estaciones receptoras de las imágenes. En otros casos se precisan correcciones más detalladas como en los estudios multi-temporales o en la entrada de información auxiliar.

Una imagen adquirida por un sensor remoto presenta alteraciones radiométricas y geométricas haciendo que no coincida con el tono, posición y tamaño de los objetos. En las imágenes espaciales las deformaciones más frecuentes son cuatro: • Distorsiones generadas por la plataforma (pese a la gran estabilidad) en la altitud de su órbita (cambio de escala), en la velocidad o en la orientación de cualquiera de sus tres ejes (distorsión geométrica). Son errores no sistemáticos y por ello difíciles de modelar. • Distorsiones por la rotación terrestre, debido a la altitud orbital y el área abarcada por el sensor. Es debido a que en el tiempo de adquisición de las imágenes la tierra se desplaza sensiblemente y junto a la propia inclinación de la órbita causa una orientación equivocada. • Distorsiones por anomalías en el sensor provocando un efecto de barrido no lineal o cambios en el intervalo de recolección de información, lo que transforma la resolución efectiva de la imagen y el tamaño. Otro problema es la falta de calibración entre los detectores, codificando la misma radiancia con ND distintos. • Distorsiones provocadas por la atmósfera, causando una modificación de la radiación original proveniente de la superficie terrestre. Esto implica un aumento de la señal recibida por el sensor, más sensible en onda corta.

Page 8: Tema 3. Interpretación de imágenes · 2014-12-09 · UNIVERSIDAD NACIONAL DE ENTRE RÍOS FACULTAD DE CIENCIAS AGROPECUARIAS CÁTEDRA DE SISTEMAS DE INFORMACIÓN GEOGRÁFICA 1

UNIVERSIDAD NACIONAL DE ENTRE RÍOS FACULTAD DE CIENCIAS AGROPECUARIAS

CÁTEDRA DE

SISTEMAS DE INFORMACIÓN GEOGRÁFICA

8 / 24

Las correcciones radiométricas son vitales para modelar parámetros físicos o abordar estudios multitemporales. También son necesarias la correcciones geométricas en casos que se quiera relacionar la imagen con información auxiliar.

Correcciones radiométricas: Son técnicas que modifican los ND originales para acercarlos a los que habría

presentes en la imagen con recepción ideal. Engloban los problemas de mal funcionamiento del sensor.

Restauración de las líneas y píxeles perdidos: Puede presentarse líneas anómalas o incluso píxeles aislados de aspecto contrastante con los vecinos. Esta información es irreparablemente perdida, ya que nunca se obtuvo. Por lo que los procesos se dirigen a mejorar el aspecto visual de la imagen.

La forma más lógica de reparación se basa en los píxeles vecinos, de acuerdo a la auto correlación espacial debido a que mucha variables geográficas tienden a presentar una fuerte asociación en el espacio. Por esto se estiman los ND de las líneas perdidas a partir de los ND inmediatos. Puede tener distintas formas de sustitución: • Por su precedente en la línea y también podría sustituirse la línea defectuosa por las

posteriores.

• Por promedio de los valores de las líneas anterior y posterior a las defectuosas, convirtiendo el resultado decimal al número entero más cercano.

• Por una banda auxiliar altamente correlacionada con la que presenta problemas, mediante

una estimación de los píxeles defectuosos. También se convierten a los enteos más cercanos.

Se parte de la idea que las líneas defectuosas ya han sido encontradas. De no ser así

hay un método de búsqueda automática de líneas erróneos, que poseen un ND más alto o más bajo que el promedio de sus vecinos. Al detectar un posible error se aplica un algoritmo de corrección. Para los píxeles el método es similar , tomando un promedio de tres por tres píxeles vecinos. En caso de que exceda un umbral, se reemplaza por el promedio.

Corrección de bandeo: Se observa en equipos de barrido secuencial que exploran varias líneas

simultáneamente. Se aprecia en especialmente en zonas de baja radiancia. Se debe a un mal calibrado de los sensores de modo que alguno codifica la radiancia en ND superiores o inferiores al resto. Aparecen líneas más oscuras o claras que en el resto y el efecto es periódico.

Para corregir la señal se asume que todos tendrían que tener similares histogramas, por lo que basta con reconstruir el histograma de cada detector, calculando la frecuencia de los grupos de líneas. Se intentan ajustar los histogramas a otros que se elijan como referencia, es habitual que este sea el del conjunto de la imagen. Se aplican coeficientes lineales a los histogramas de cada detector para igualar sus medias y desviaciones típicas con las del histograma de referencia.

Correcciones geométricas: Incluyen cambios en la posición que ocupan los píxeles. Pueden basarse en funciones

numéricas que permitan modificar la geometría de la imagen. Puede usarse para corregir

Page 9: Tema 3. Interpretación de imágenes · 2014-12-09 · UNIVERSIDAD NACIONAL DE ENTRE RÍOS FACULTAD DE CIENCIAS AGROPECUARIAS CÁTEDRA DE SISTEMAS DE INFORMACIÓN GEOGRÁFICA 1

UNIVERSIDAD NACIONAL DE ENTRE RÍOS FACULTAD DE CIENCIAS AGROPECUARIAS

CÁTEDRA DE

SISTEMAS DE INFORMACIÓN GEOGRÁFICA

9 / 24

cartográficamente una imagen y transferir los ND a su posición cartográfica, en la proyección requerida, para combinarse con información auxiliar, incorporarse a un SIG o para superponer dos o más imágenes para estudios multitemporales.

Hay dos tipos de procedimientos. El primero se denomina corrección orbital y pretende modelar fuentes de error conocidas aplicando transformaciones inversas a las realizadas por el sensor en el momento de la adquisición. Se debe disponer de las características orbitales de la plataforma y las especificaciones del sensor. Se pueden corregir errores sistémicos debido a rotación o curvatura terrestre y de la inclinación de la órbita. Este método es más automático. Resulta muy útil cuando el sensor no proporciona información fiable para localizar los puntos de control (ej: imágenes marinas). Es habitual en imágenes de baja resolución.

El otro enfoque es más empírico ya que modela el error a partir de una serie de puntos con coordenadas conocidas (puntos de control). El error se modela inductivamente ya que en las funciones de transformación se incluyen todas las fuentes de error asumiendo que esos puntos son representativos de la deformación geométrica de la imagen. Eleva la precisión, pero resulta bastante tedioso en la localización de los puntos de control. Posee tres fases:

i.Localización de los puntos comunes a la imagen y el mapa u otra imagen de referencia.

ii.Cálculo de las funciones de transformación entre las coordenadas de la imagen y las del

mapa.

iii.Transferencia de los ND originales a la nueva posición definida por la transformación previa.

La cantidad de puntos necesarios para la corrección varía según el grado de la

ecuación de ajuste. Para una imagen pequeña 10 o 12 puntos y una ecuación lineal es suficiente. El National Remote Sensing Center utiliza 100 a 120 puntos con una imagen TM. En casos de que los contrastes topográficos sean importantes conviene seleccionar más puntos y acudir a polinomios de transformación más complejos. Es recomendable que los puntos elegidos sean fijos y fácilmente identificables. La distribución debe ser uniforme evitando ponderaciones excesivas de algún sector. Las funciones utilizadas para la corrección generan una nueva matriz correctamente posicionada pero vacía. Para llenarla se transfieren los ND originales a la posición corregida. Pero es común que un ND de la nueva imagen se sitúe entre varios de la original, pudiendo también variar el tamaño del píxel en la imagen corregida. Debido a esto puede pasarse los ND por tres métodos: Vecino más próximo, interpolación bilineal (promedia los cuatro píxeles más cercanos) y convolución cúbica (considera los píxeles más cercanos). Si pretende corregirse una imagen clasificada el método del vecino más próximo es la única opción ya que preserva los valores originales.

Para realizar correcciones geométrica del efecto topográfico es preciso contar con modelos de elevación digital (DEM). Estos son explicados más adelante.

Las correcciones de las imágenes tradicionalmente se hacían antes de cualquier análisis, pero actualmente se aconseja realizarlas al terminar los trabajos de interpretación. Se reduce el tiempo de tratamientos pues basta con corregir la imagen resultado y además se abordan las clasificaciones con los valores originales evitando efecto de promedio, aunque no representan grandes pérdidas de exactitud. Si pretenden introducirse variables como imágenes auxiliares a la clasificación es evidente que el registro geométrico es necesario previo a otros tratamientos.

Page 10: Tema 3. Interpretación de imágenes · 2014-12-09 · UNIVERSIDAD NACIONAL DE ENTRE RÍOS FACULTAD DE CIENCIAS AGROPECUARIAS CÁTEDRA DE SISTEMAS DE INFORMACIÓN GEOGRÁFICA 1

UNIVERSIDAD NACIONAL DE ENTRE RÍOS FACULTAD DE CIENCIAS AGROPECUARIAS

CÁTEDRA DE

SISTEMAS DE INFORMACIÓN GEOGRÁFICA

10 / 24

Realces y mejoras de las imágenes: Las técnicas para la mejora de la calidad de la imagen, tratan de disponer los datos

para la mejor calidad visual, de modo que sean más evidentes los rasgos de interés. Ajuste del contraste: Adaptan la resolución radiométrica de la imagen a la capacidad del monitor. Es

necesario un ajuste del rango digital del ND al nivel de visualización NV . Pueden darse dos situaciones, una que el ND sea menor que el NV facilitado por el monitor, donde se deberá hacer una expansión del contraste original; o que la imagen presente un mayor ND que los posibles NV del monitor y se deberá reducir el contraste.

Podemos definir el contraste por la relación entre los píxel máximo y mínimo de una

imagen. Puede apoyarse en las medidas de dispersión estadística. Pueden ser cualquiera de estas definiciones de contraste: cociente entre valor máximo y mínimo, el rango y la desviación típica de los ND.

La expansión de los ND es una herramienta rutinaria en la mayoría de las aplicaciones. La reducción resulta de interés para reducir el volumen de almacenamiento de las imágenes.

Tablas de referencia del color (CLUT): Es una matriz numérica que indica el nivel visual con el que se representa en pantalla

cada uno de los ND de la imagen. Posee 3 columnas por 256 filas. El orden de las fila indica el ND de entrada, mientras el almacenado en la tabla expresa el nivel visual con que ese ND será representado en la pantalla. Las tres columna corresponden a los tres colores elementales: rojo, verde y azul.

La CLUT se inserta entre la memoria de refresco y el tubo de imagen del monitor permitiendo modificar le relación entre el ND almacenado en el disco y la intensidad de brillo con que se visualiza (NV), por lo que no debe haber equivalencia plena entre el NV y el ND.

Los equipos de tratamiento digitales de imágenes utilizan el proceso aditivo de formación del color. Cuanto mayor sean los valores de NV en cada columna, mayores será el componente de rojo, azul y verde. Si se manipula una sola banda lo normal es que la imagen aparezca en la pantalla en un tono de gris. Un NV de 0,0,0 indica que el ND al que se aplique se visualiza como negro, mientras que 127,127,127 como gris medio y 225,225,225 será blanco. Cuando algunos de los valores sean distintos se estará representando una imagen en color.

La CLUT puede representarse en un diagrama binario donde el eje X indica el ND y el eje Y el NV. La imagen original tendrá una gráfica de línea recta que pasa por el origen 0,0 y por el máximo 255,255. Esto supone un ND igual al NV. Con los procesos de comprensión o expansión de la imagen se modifica esa relación.

Compresión del contraste: En caso de que el rango del sensor supere al número de niveles de gris que pueden

visualizar en pantalla, es preciso comprimir los ND ajustando el rango de la imagen al permitido por el terminal gráfico. Son necesarios cuando se cuenta con un sistema gráfico de reducida potencia o cuando se trabaja con un sensor de alta sensibilidad radiométrica. La compresión es precisa cuando se trabaja con imágenes AVHRR, codificada en 10 bits, o un MDE (16 bits), sobre un monitor gráfico que admite 8 bits.

Es habitual reducir el rango original de ND, en función de las características de su distribución, a un número conveniente de intervalos, de forma que se asemeje al color real. Los intervalos pueden definirse de igual anchura o de márgenes definidos por el intérprete,

Page 11: Tema 3. Interpretación de imágenes · 2014-12-09 · UNIVERSIDAD NACIONAL DE ENTRE RÍOS FACULTAD DE CIENCIAS AGROPECUARIAS CÁTEDRA DE SISTEMAS DE INFORMACIÓN GEOGRÁFICA 1

UNIVERSIDAD NACIONAL DE ENTRE RÍOS FACULTAD DE CIENCIAS AGROPECUARIAS

CÁTEDRA DE

SISTEMAS DE INFORMACIÓN GEOGRÁFICA

11 / 24

donde en ambos casos se asigna un solo NV, eliminando su variación interna. Al reducirse el contraste la imagen aparece reduciendo su calidad, que se puede mejorar eligiendo correctamente los colores.

Para las tres bandas es habitual asignar 6 niveles a cada cañón de color quedando una composición de 216 tonalidades en pantalla. En función de la anchura del histograma de cada banda se asignan más o menos particiones por color. Para asignar un intervalo de ND a cada una de esas particiones, se establece el rango de partición en cada una de las bandas que forman una composición en color. Se clasifican los ND de la imagen en la partición más cercana en ese espacio, siendo el resultado un imagen mono-banda que se asocia a una CLUT para representar, con la mayor semejanza posible, la variación cromática de la composición multi-banda, aunque solo precisa la tercera parte de su almacenamiento.

Expansión del contraste: Son técnicas más habituales que las de compresión, ya que las imágenes ofrecen

rangos de ND inferiores a las resoluciones de los monitores. Ocurre que el rango de ND ocupados con un paisaje en una imagen no coincide con el

número de ND disponibles. Esto significa que la imagen aparezca algo desvaída por que buena parte de los 256 niveles de gris disponibles quedan inactivos. Es posible realzar ese contraste diseñando una CLUT que haga corresponder el rango de ND presente en la imagen con el total de los NV posibles. Se puede lograr distribuyendo los NV linealmente entre el máximo y el mínimo ND; distribuir los NV a partir del histograma de los ND originales y distribuir los NV en un determinado rango de interés.

Expansión lineal: Es la forma más elemental. Se diseña una CLUT en que el ND máximo tenga asociado un NV de 250 y el ND mínimo un NV de 0. La imagen aparece más nítida, mejor contrastada. Su histograma ofrece una distribución más equilibrada, las clases se han fijado a los extremos del rango y los valores intermedios están mejor repartidos en la escala.

Para esta transformación se precisa una función lineal que ajuste la relación ND-NV y permita construir una CLUT apropiada en que los NV ocupen el rango completo de visualización. Cada NV es función de los ND originales tras aplicarles dos constante: sesgo (bias) y ganancia (gain).

Ecualización del histograma: La ecuación lineal solo tiene en cuenta los extremos del histograma. Puede considerarse la forma de la distribución de frecuencias en los ND originales, para generar una CLUT en que cada NV tenga el mismo número de ND de la imagen. El NV asignado a cada ND esta en función de su valor y su frecuencia. Los ND con mayor número de píxeles serán los que ocupen mayor rango de visualización en el monitor. Ofrece mejores resultados, especialmente cuando la imagen presenta distribución gausiana.

Se genera un realce más equilibrado, mostrando menos contraste entre las zonas de

baja y alta reflectividad. El perfil gráfico de la CLUT es ahora curvilíneo y no lineal. La lógica de cálculo sería igualar el histograma de los ND con los NV. Para construir la CLUT se realiza el cálculo de la frecuencia absoluta y acumulada de los ND originales, se compara con una frecuencia objeto (si todos los NV tuvieran la misma frecuencia) y de esa comparación se selecciona para cada ND el NV que presente el valor más próximo en la frecuencia objeto acumulada.

Expansión espacial del contraste: Restringe el contraste a un rango específico de ND en donde se manifieste con mayor claridad una cubierta de interés. Puede realizarse señalando un umbral máximo y mínimo, acorde al rango de la cubierta en estudio (método

Page 12: Tema 3. Interpretación de imágenes · 2014-12-09 · UNIVERSIDAD NACIONAL DE ENTRE RÍOS FACULTAD DE CIENCIAS AGROPECUARIAS CÁTEDRA DE SISTEMAS DE INFORMACIÓN GEOGRÁFICA 1

UNIVERSIDAD NACIONAL DE ENTRE RÍOS FACULTAD DE CIENCIAS AGROPECUARIAS

CÁTEDRA DE

SISTEMAS DE INFORMACIÓN GEOGRÁFICA

12 / 24

lineal), o limitando el histograma objeto a una ventana de la imagen donde este presente dicha cubierta. Se afina la representación en el área especificada pero se pierde en la otra.

Un caso especial es la binarización de la imagen reduciendo sus tonos a blanco y negro. El CLUT aparece con un perfil típico de escalón que en el primer peldaño sitúa todos los rangos que ocuparán un tono negro y en el segundo los que presentarán un tono blanco. Se utiliza para aislar un sector de ND de interés.

Empleo del seudo-color: El ojo humano es más capaz de distinguir tonos de color que intensidades de brillo, por

lo que el empleo de color facilita el análisis visual. El seudo-color indica los tratamientos en que se diseña una tabla de color artificial. La CLUT requiere tres columnas que presenten distintos valores y que representen cada uno de los colores rojo, verde y azul. Una imagen en blanco y negro presenta las tres columnas el mismo valor, puesto que cada tono de gris supone una mezcla de partes iguales de los tres colores primarios.

Se puede representar una banda en distintos tonos de color diseñando una CLUT en la que las tres columnas presenten distintos valores y que asocie el ND de una sola banda a distintos componentes del rojo, verde y azul. Tiene validez cuando se quiere obtener una clave de color en una imagen clasificada y cuando se intente realzar el análisis de una imagen sustituyendo los niveles de gris por tonos de color.

Cuando se visualiza una imagen monocromática en distintas tonalidades se emplea el término seudo color. El sentido es realzar el análisis de cada banda para facilitar la discriminación del fenómeno estudiado. Es frecuente aplicar una CLUT que tiene una dirección determinada de progresión (ej: desde el azul para los ND bajos hasta los rojos para los altos). No se tienen muchas referencias sobre su aplicación práctica.

Tiene más sentido aplicar un color a un determinado rango de ND para que se simplifique el contraste inicial en un número menor de intervalos; y que se aplique un color más fácil de discriminar que los tonos de gris, estableciendo un intervalo de densidad en cada banda. Esto indica que cada uno de esos grupos corresponde a valores de radiancia relativa similares. (ej: imágenes de temperatura). Los valores de cada intervalo se pueden establecer mediante arbitrariamente o con algún criterio estadístico, aunque en cualquier caso pueden modificarse interactivamente, pudiendo detectarse en cada banda el rango de ND que comprende el fenómeno de interés y facilita un primer balance de los solapes con otras categorías para su clasificación digital.

Composición color: A partir de la formación multiespectral pueden obtenerse composiciones en color con la

aplicación de cada uno de los colores primarios (rojo, verde y azul) a una banda distinta, seleccionada con orden y criterio oportuno. Eso permite visualizar simultáneamente distintas regiones del espectro, facilitando la delimitación visual de algunas cubiertas. La CLUT presenta tres columnas con distintos valores.

La elección de las bandas depende del sensor y del objetivo perseguido. La composición más usada es el falso color, que corresponde a la aplicación de los colores rojo, verde y azul a las bandas correspondiente al infrarrojo cercano, rojo y verde respectivamente. Esta facilita la cartografía de las másas vegetales, láminas de agua, ciudades, entre otros.

El sensor TM ofrece 7 bandas con la posibilidad de realizar numerosas composiciones. Se han desarrollado métodos para seleccionar el mayor contenido informativo identificando la composición multi-banda que recoja mejor la estructura del conjunto de la imagen. Esta selección parte de tener las tres bandas con mayor variancia original y relacionarlas con el coeficiente de correlación, definiendo así el “Índice óptimo” (OIF).

Page 13: Tema 3. Interpretación de imágenes · 2014-12-09 · UNIVERSIDAD NACIONAL DE ENTRE RÍOS FACULTAD DE CIENCIAS AGROPECUARIAS CÁTEDRA DE SISTEMAS DE INFORMACIÓN GEOGRÁFICA 1

UNIVERSIDAD NACIONAL DE ENTRE RÍOS FACULTAD DE CIENCIAS AGROPECUARIAS

CÁTEDRA DE

SISTEMAS DE INFORMACIÓN GEOGRÁFICA

13 / 24

Métodos más modernos para la selección de la composición color, más idónea, toman

la elipsoide de mayor variabilidad. En la mayoría de los casos incluye una banda del visible, infrarrojo cercano y otra en el medio.

Transformaciones HSI: Una alternativa de representar el color atiende a sus propiedades, mediante la

transformación de Tono (Hue), Saturación (Saturation) e Intensidad (Intensity). Es de reciente empleo en teledetección para combinar imágenes de distintos sensores y usos geológicos.

El tono procede de la longitud de onda en donde se produce la máxima reflectividad del objeto y es equivalente al color que vemos. La saturación refleja la pureza del color es decir el grado de mezcla con los otros colores y la intensidad puede definirse como brillo, función del porcentaje de reflectividad recibido.

Es posible transformar las coordenadas de la imagen de los colores primarios (RGB) a las propiedades del color (HSI) mediante distintos algoritmos de conversión. Se parte de una combinación de bandas determinadas que se convertirán a las coordenadas HSI.

Esta técnica ha tenido mayor desarrollo en la fusión de imágenes entre sensores de distinta resolución espacial, complementando la información de un sensor como el Landsat con el canal pancromático del SPOT de forma que mejore el detalle espacial de la imagen.

En los últimos años se ha cuestionado la utilización de esta técnica, proponiendo otras que no violentan tanto las características espectrales originales.

Filtros digitales:

Introducción:

Se denomina “filtrado de una imagen” al procedimiento realizado por un algoritmo computacional que permite destacar o minimizar los contrastes en las tonalidades presentes en una imagen. Los filtros espaciales también denominados de “convolución” incorporan a cada pixel de la nueva imagen filtrada el valor de los números digitales correspondientes a los pixeles vecinos. Este procedimiento se denomina comúnmente “operación local” para diferenciarlo de la “operación global” donde el número digital del pixel es calculado independientemente.

El filtro se aplica para aislar componentes de interés, suavizando o reforzando los contrastes aplicados, de forma que los ND se asemejan o diferencien más a los que lo rodean. Esto significa retener las bajas frecuencias o los picos que resultan en un perfil radiométrico. Se denominan filtros de paso bajo y paso alto respectivamente.

Hay dos procedimientos: aplicar a todos los píxeles de la imagen una operación

aritmética que tenga en cuenta el valor de los inmediatos (filtros en el dominio espacial), o retener ciertos componentes de la frecuencia de la imagen (filtros en el dominio de las frecuencias. La primera es sencilla mientras la segunda presenta una complejidad superior.

Se basan en una técnica conocida como transformadas de Fourier, que convierte una

imagen en una función bidimensional con dos componentes de frecuencia (horizontal y vertical), asumiendo que la variación de los ND en la imagen puede aproximarse a una variación continua compleja. Aplicada la transformación se obtiene los espectros que representan los componentes de fase y amplitud que definen una determinada imagen. Sobre este pueden aplicarse ciertos filtros y correcciones, valiosas cuando se trata de ruidos

Page 14: Tema 3. Interpretación de imágenes · 2014-12-09 · UNIVERSIDAD NACIONAL DE ENTRE RÍOS FACULTAD DE CIENCIAS AGROPECUARIAS CÁTEDRA DE SISTEMAS DE INFORMACIÓN GEOGRÁFICA 1

UNIVERSIDAD NACIONAL DE ENTRE RÍOS FACULTAD DE CIENCIAS AGROPECUARIAS

CÁTEDRA DE

SISTEMAS DE INFORMACIÓN GEOGRÁFICA

14 / 24

sistemáticos (ej: bandeo). Una vez realizada la modificación puede retornarse al dominio de la imagen aplicando una transformación inversa.

A diferencias de otras operaciones, el filtraje implica modificar los ND y no sólo en la

forma en que se representan visualmente (los NV de la CLUT) sino también los mismos ND de la imagen. Por este motivo, las imágenes filtradas no resultan propicias para una clasificación digital, aunque refuercen rasgos de interés en la imagen original.

Los filtros paso bajo tienden a destacar el componente de homogeneidad en la

imagen, subrayando aquellas áreas donde las frecuencia de cambio es baja. Los filtros de paso alto son dirigidos a componentes de alta frecuencia, es decir a áreas de alta variabilidad donde el contraste especial es intenso. Ambos se pueden hacer con el mismo, ya que el objetivo es relacionar los píxeles con los vecinos y basta con operaciones aritméticas entre cada uno de ellos y sus inmediatos.

Se aplica sobre los ND originales la matriz móvil de coeficientes de filtraje (CF), que

puede tener un tamaño variable, en función del número de píxeles que queramos implicar en el proceso. El tamaño habitual es de 3 por 3, que se aplica en forma sucesiva a todos los píxeles de la imagen. También pueden ser mayores, como 5 por 5 o 7 por 7. Cuanto mayor sea más intenso será el efecto buscado. La matriz se desplaza hacia la derecha luego de haber calculado el nuevo valor del píxel central, que es único que se modifica en cada desplazamiento. Los cálculos siguientes se obtiene de los ND originales y no de los ya filtrados. Los píxeles de borde no se afectan por el proceso ya que no tienen el número de píxeles vecinos para realizar el cálculo. Esto no supone un grave inconveniente. La operación de filtrado en una imagen:

Para realizar esta operación, se aplica una matriz de dimensión fija, a elección del usuario, cuyos coeficientes son utilizados para realizar alguna operación matemática con los números digitales de los pixeles de la imagen. El resultado de esta operación se aplicará al pixel cuya ubicación coincida con el centro de la matriz. La dimensión de la misma (cantidad de filas y columnas) se escogerá en función del grado de influencia espacial que se pretenda tengan los pixeles vecinos. Una matriz de 3x3 (3 filas y 3 columnas) implicará la participación de los ocho pixeles adyacentes al pixel central. Una matriz de 5x5 permite que el nuevo número digital del pixel central esté influenciado por los valores de los pixeles adyacentes en un radio de 2 pixeles. La forma de aplicar el filtro consiste en ubicar la matriz en la esquina superior izquierda de la imagen y realizar el cálculo utilizando los números digitales de los pixeles bajo su dominio y los coeficientes que imponen el peso relativo en el resultado del nuevo número digital del pixel ubicado en el centro. Posteriormente se mueve la matriz un pixel según la dirección de la fila y se procede nuevamente al cálculo del valor correspondiente al nuevo pixel central. Se realiza este procedimiento en forma sucesiva hasta recorrer toda la imagen (Figura 1).

Page 15: Tema 3. Interpretación de imágenes · 2014-12-09 · UNIVERSIDAD NACIONAL DE ENTRE RÍOS FACULTAD DE CIENCIAS AGROPECUARIAS CÁTEDRA DE SISTEMAS DE INFORMACIÓN GEOGRÁFICA 1

UNIVERSIDAD NACIONAL DE ENTRE RÍOS FACULTAD DE CIENCIAS AGROPECUARIAS

CÁTEDRA DE

SISTEMAS DE INFORMACIÓN GEOGRÁFICA

15 / 24

Figura 1. Secuencia de filtrado digital

Por lo tanto, para realizar un proceso de filtrado digital se deben definir tres parámetros: • El tamaño y forma de la matriz • Sus coeficientes • La operación matemática que debe realizar Estos parámetros deben definirse en función del efecto que se desea lograr. A continuación se muestran algunos ejemplos: Filtros pasa bajo:

Si se cuenta con una imagen digital de la zona y se desea distinguir el límite geográfico de la influencia urbana en la zona rural pueden usarse las bandas 1 (azul), 2 (verde) y 3 (rojo) de la imagen LANDSAT TM para aplicar un filtro pasa bajo. Este tipo de filtro permitirá suavizar los cambios bruscos de la tonalidad (altas frecuencias espaciales) permitiendo resaltar las variaciones espaciales graduales de brillo. En la Figura 2 se muestra una subimagen LANDSAT TM en el espectro visible (azul, verde y rojo) de la zona de Viale. En la Figura 3 la misma imagen filtrada utilizando un filtro pasa bajo de 7x7 y la matriz de coeficientes correspondiente. Puede observarse que en un filtro pasa bajo todos los números digitales de la imagen tienen el mismo peso ya que la totalidad de los coeficientes de la matriz son de valor uno. Esto provoca que el valor del pixel central de la nueva imagen resulte un promedio aritmético de los números digitales de los pixeles adyacentes. i=7 j=7

NDpc = 1/49 . ( Σ Σ NDij . Cij ) i=1 j=1

Page 16: Tema 3. Interpretación de imágenes · 2014-12-09 · UNIVERSIDAD NACIONAL DE ENTRE RÍOS FACULTAD DE CIENCIAS AGROPECUARIAS CÁTEDRA DE SISTEMAS DE INFORMACIÓN GEOGRÁFICA 1

UNIVERSIDAD NACIONAL DE ENTRE RÍOS FACULTAD DE CIENCIAS AGROPECUARIAS

CÁTEDRA DE

SISTEMAS DE INFORMACIÓN GEOGRÁFICA

16 / 24

donde: NDpc = Número digital del pixel que corresponde a la posición central de la matriz en la imagen filtrada. NDij = Número digital del pixel de la imagen de entrada en la posición fila i, columna j de la matriz. Cij = Coeficiente en la posición fila i, columna j de la matriz. Para el caso de una matriz de n filas y m columnas se tiene:

i=n j=m

NDpc = 1 . ( Σ Σ NDij . Cij )

n.m i=1 j=1

Figura 2. Subimagen LANDSAT TM de la zona de Viale (bandas 1, 2 y 3)

Page 17: Tema 3. Interpretación de imágenes · 2014-12-09 · UNIVERSIDAD NACIONAL DE ENTRE RÍOS FACULTAD DE CIENCIAS AGROPECUARIAS CÁTEDRA DE SISTEMAS DE INFORMACIÓN GEOGRÁFICA 1

UNIVERSIDAD NACIONAL DE ENTRE RÍOS FACULTAD DE CIENCIAS AGROPECUARIAS

CÁTEDRA DE

SISTEMAS DE INFORMACIÓN GEOGRÁFICA

17 / 24

Figura 3. Subimagen filtrada (filtro pasa bajo 7x7) de la zona de Viale.

Filtros pasa alto:

En este caso, los coeficientes permiten resaltar los contrastes bruscos de tonalidad, es decir, grandes variaciones de los números digitales en cortos recorridos espaciales. Una matriz típica de 3x3 usada como filtro pasa alto se muestra en la Figura 4. -1 -1 -1 -1 9 -1 -1 -1 -1 Figura 4. Matriz 3x3 usada como filtro pasa alto.

Si se aplica esta matriz a una zona homogénea de una imagen, (todos los números

digitales de los pixeles del área de influencia de la matriz poseen mismo valor) el pixel central de al matriz en la imagen filtrada no modificará su valor.

Page 18: Tema 3. Interpretación de imágenes · 2014-12-09 · UNIVERSIDAD NACIONAL DE ENTRE RÍOS FACULTAD DE CIENCIAS AGROPECUARIAS CÁTEDRA DE SISTEMAS DE INFORMACIÓN GEOGRÁFICA 1

UNIVERSIDAD NACIONAL DE ENTRE RÍOS FACULTAD DE CIENCIAS AGROPECUARIAS

CÁTEDRA DE

SISTEMAS DE INFORMACIÓN GEOGRÁFICA

18 / 24

10 10 10 10 10 10 10 10 10 10 -1 -1 -1 10 10 10 10 10 10 10 10 . -1 9 -1 = 10 10 10 10 10 10 10 10 -1 -1 -1 10 10 10 10 10 10 10 10

Figura 5. Filtro pasa alto aplicado a una zona homogénea de la imagen. Si en cambio se presenta una zona heterogénea, el filtro magnificará su contraste.

1 1 10 1 1 1 1 10 1 1 -1 -1 -1 -26 64 -26 1 1 10 1 1 . -1 9 -1 = -26 64 -26 1 1 10 1 1 -1 -1 -1 -26 64 -26 1 1 10 1 1

Figura 6. Filtro pasa alto aplicado a una zona heterogénea de la imagen. Se hace notar que la imagen de entrada poseía un contraste de valor 10 y la de salida pasa a tener un contraste de valor 90.

Otro filtro muy usado es el “detector de bordes”, también llamado filtro “Laplaceano” o de “suma cero” cuya matriz se muestra en la figura 7. Este filtro aplicado a una imagen homogénea reemplaza los números digitales por cero.

-1 -1 -1 -1 8 -1 -1 -1 -1 Figura 7. Matriz 3x3 de filtro detector de bordes.

Page 19: Tema 3. Interpretación de imágenes · 2014-12-09 · UNIVERSIDAD NACIONAL DE ENTRE RÍOS FACULTAD DE CIENCIAS AGROPECUARIAS CÁTEDRA DE SISTEMAS DE INFORMACIÓN GEOGRÁFICA 1

UNIVERSIDAD NACIONAL DE ENTRE RÍOS FACULTAD DE CIENCIAS AGROPECUARIAS

CÁTEDRA DE

SISTEMAS DE INFORMACIÓN GEOGRÁFICA

19 / 24

10 10 10 10 10 10 10 10 10 10 -1 -1 -1 0 0 0 10 10 10 10 10 . -1 8 -1 = 0 0 0 10 10 10 10 10 -1 -1 -1 0 0 0 10 10 10 10 10

Figura 8. Filtro detector de bordes aplicado a una zona homogénea de la imagen.

En una zona heterogénea magnifica el contraste desde un valor 10 a un valor 121 para este ejemplo:

Figura 9. Filtro detector de bordes aplicado a una zona heterogénea de la imagen.

Si se traza un perfil en dirección perpendicular a la discontinuidad, se podría observar el efecto que produce este tipo de filtro:

Page 20: Tema 3. Interpretación de imágenes · 2014-12-09 · UNIVERSIDAD NACIONAL DE ENTRE RÍOS FACULTAD DE CIENCIAS AGROPECUARIAS CÁTEDRA DE SISTEMAS DE INFORMACIÓN GEOGRÁFICA 1

UNIVERSIDAD NACIONAL DE ENTRE RÍOS FACULTAD DE CIENCIAS AGROPECUARIAS

CÁTEDRA DE

SISTEMAS DE INFORMACIÓN GEOGRÁFICA

20 / 24

Figura 10. Perfil de una imagen antes y después de un filtrado de suma cero.

Para solucionar el inconveniente que se presenta en los bordes de la discontinuidad, donde los números digitales de la nueva imagen poseen valores negativos, se podría utilizar una reclasificación manual llevando todos los valores negativos a cero. Filtro de realce de bordes:

Este filtro es similar a los anteriores excepto por el coeficiente central de la matriz que es aún mayor. Esto magnifica las altas frecuencias espaciales respecto de los filtros de pasa alto y de suma cero. Un filtro de realce de bordes 3x3 que presenta ERDAS es el siguiente: -1 -1 -1 -1 17 -1 -1 -1 -1 Figura 11. Matriz 3x3 para filtro de realce de bordes.

Page 21: Tema 3. Interpretación de imágenes · 2014-12-09 · UNIVERSIDAD NACIONAL DE ENTRE RÍOS FACULTAD DE CIENCIAS AGROPECUARIAS CÁTEDRA DE SISTEMAS DE INFORMACIÓN GEOGRÁFICA 1

UNIVERSIDAD NACIONAL DE ENTRE RÍOS FACULTAD DE CIENCIAS AGROPECUARIAS

CÁTEDRA DE

SISTEMAS DE INFORMACIÓN GEOGRÁFICA

21 / 24

Asignación del número digital en los bordes de la imagen:

Un inconveniente que se presenta en la utilización de estos filtros es la asignación del número digital de los pixeles del borde de la imagen. En todos los ejemplos anteriores los pixeles del borde no poseen número digital. Para solucionar este inconveniente pueden adoptarse dos criterios:

• Reflexión: Los números digitales de los bordes de la imagen adoptan el valor de los pixeles diametralmente opuestos de la matriz. Esta alternativa es adecuada cuando se ha realizado una operación con un filtro pasa bajo o pasa alto.

• Relleno cero: Se asume que los números digitales de los pixeles del borde de la imagen poseen valor cero. Esta opción es conveniente cuando se ha utilizado un filtro Laplaceano o de suma cero.

Filtros direccionales:

Puede presentarse el caso de tener que magnificar discontinuidades que posean una dirección determinada. Un filtro de tipo vertical de 5x5 se muestra a continuación: -1 -2 6 -2 -1 -1 -2 6 -2 -1 -1 -2 6 -2 -1 -1 -2 6 -2 -1 -1 -2 6 -2 -1 Figura 12. Filtro 5x5 de tipo vertical. Este filtro atenúa las zonas homogéneas y las que posean discontinuidades en todas direcciones menos en sentido vertical.

Existen filtros horizontales y direccionales en direcciones oblicuas. Algunos ejemplos se muestran a continuación: -1 -1 -1 -1 1 0 1 0 0 1 1 1 -1 1 0 -1 1 0 0 0 0 -1 1 0 -1 -1 1 Filtro horizontal Filtro vertical Filtro Noreste/Suroeste

Figura 13. Distintos tipos de filtros direccionales de 3x3.

Page 22: Tema 3. Interpretación de imágenes · 2014-12-09 · UNIVERSIDAD NACIONAL DE ENTRE RÍOS FACULTAD DE CIENCIAS AGROPECUARIAS CÁTEDRA DE SISTEMAS DE INFORMACIÓN GEOGRÁFICA 1

UNIVERSIDAD NACIONAL DE ENTRE RÍOS FACULTAD DE CIENCIAS AGROPECUARIAS

CÁTEDRA DE

SISTEMAS DE INFORMACIÓN GEOGRÁFICA

22 / 24

Algoritmos de filtrado:

Todos los filtros vistos anteriormente responden al algoritmo de promedio móvil, es decir la operación matemática realizada entre los números digitales de los pixeles y los coeficientes de la matriz es una media aritmética ponderada. Existen otras operaciones que pueden realizarse entre estos números. En los programas de procesamiento de imágenes pueden encontrarse las siguientes: • Suma: El valor de pixel que corresponde a la posición central de la matriz es reemplazado

por la suma de los números digitales de los pixeles que abarcan dicha matriz. i=n j=m

NDpc = ( Σ Σ NDij) i=1 j=1

Ejemplo: 10 8 9

7 10 7 ⇒⇒⇒⇒ 75 8 8 8 • Diversidad: El valor de pixel que corresponde a la posición central de la matriz es

reemplazado por un número que expresa la diversidad de valores presentes en los pixeles de la ventana.

Ejemplo: 10 8 9

7 10 7 ⇒⇒⇒⇒ 4 8 8 8

Page 23: Tema 3. Interpretación de imágenes · 2014-12-09 · UNIVERSIDAD NACIONAL DE ENTRE RÍOS FACULTAD DE CIENCIAS AGROPECUARIAS CÁTEDRA DE SISTEMAS DE INFORMACIÓN GEOGRÁFICA 1

UNIVERSIDAD NACIONAL DE ENTRE RÍOS FACULTAD DE CIENCIAS AGROPECUARIAS

CÁTEDRA DE

SISTEMAS DE INFORMACIÓN GEOGRÁFICA

23 / 24

• Densidad: El valor del pixel que corresponde a la posición central de la matriz es reemplazado por el número de pixeles que posean el mismo número digital que el pixel central.

Ejemplo: 1 8 7

4 1 1 ⇒⇒⇒⇒ 4 1 3 2

• Moda: El valor del pixel que corresponde a la posición central de la matriz es reemplazado por el modo (valor más frecuente) de los pixeles de la ventana.

Ejemplo: 4 1 4

3 2 4 ⇒⇒⇒⇒ 4 4 4 4 • Minoridad: El valor del pixel que corresponde a la posición central de la matriz es

reemplazado por el valor menos frecuente de los pixeles de la ventana. Ejemplo: 4 1 4

3 2 4 ⇒⇒⇒⇒ 2 4 4 4 • Máximo: El valor del pixel que corresponde a la posición central de la matriz es

reemplazado por el máximo valor presente en los pixeles de la matriz. Ejemplo: 4 1 4

3 2 7 ⇒⇒⇒⇒ 10 7 10 4

Page 24: Tema 3. Interpretación de imágenes · 2014-12-09 · UNIVERSIDAD NACIONAL DE ENTRE RÍOS FACULTAD DE CIENCIAS AGROPECUARIAS CÁTEDRA DE SISTEMAS DE INFORMACIÓN GEOGRÁFICA 1

UNIVERSIDAD NACIONAL DE ENTRE RÍOS FACULTAD DE CIENCIAS AGROPECUARIAS

CÁTEDRA DE

SISTEMAS DE INFORMACIÓN GEOGRÁFICA

24 / 24

• Mínimo: El valor del pixel que corresponde a la posición central de la matriz es reemplazado por el mínimo valor presente en los pixeles de la matriz.

Ejemplo: 4 1 4

3 2 7 ⇒⇒⇒⇒ 1 7 10 4 • Rango: El valor del pixel que corresponde a la posición central de la matriz es

reemplazado por el rango (diferencia) mayor entre el valor del pixel central y los demás valores de los pixeles de la ventana.

Ejemplo: 4 1 4

3 2 7 ⇒⇒⇒⇒ - 8 7 10 4