7 conceptos fotogrametricos

46
257 Field Guide Capítulo 7 Conceptos Fotogramétricos Introducción ¿Qué es Fotogrametría? Fotogrametría es el "arte, ciencia y tecnología de obtención de información confiable sobre los objetos físicos y el medio ambiente a través del proceso de registro, medición e interpretación de imágenes fotográficas, patrones de imágenes de radiancia electromagnética y otros fenómenos" (ASP 1980). La fotogrametría fue inventada en 1851 por Laussedat y ha continuado su desarrollo en los últimos 150 años. Con el transcurso del tiempo, el desarrollo de la fotogrametría ha pasado a través de las fases de fotogrametría de plancheta, fotogrametría análoga, fotogrametría analítica y recientemente ha entrado en la fase de fotogrametría digital (Konecny 1994). La aplicación tradicional, y la más grande, es la extracción de información topográfica (es decir, mapas topográficos) de imágenes aéreas. Sin embargo, las técnicas fotogramétricas también han sido aplicadas a procesar imágenes de satélite e imágenes de rango cercano, con el objeto de adquirir información topográfica y no topográfica de los objetos fotografiados. Antes de la invención del aeroplano, las fotografías tomadas en el terreno se utilizaron para extraer las relaciones entre los objetos usando principios geométricos. Esto ocurrió durante la fase de la fotogrametría de plancheta. En la fotogrametría análoga, empezando con la medición estereoscópica en 1901, los instrumentos ópticos o mecánicos se utilizaron para reconstruir la geometría tridimensional de dos fotografías traslapadas. El principal producto de esta fase fueron los mapas topográficos. En la fotogrametría analítica, el computador reemplazó algunos componentes ópticos y mecánicos muy costosos. Los instrumentos resultantes fueron híbridos análogos/digitales. La aerotriangulación analítica, los restituídores analíticos y los proyectores de ortofotos fueron los principales desarrollos durante esta fase. Los productos de la fotogrametría analítica pueden ser mapas topográficos pero también pueden ser productos digitales como mapas digitales y DEMs. La fotogrametría digital es aplicada a imágenes digitales que son almacenadas y procesadas en un computador. Las imágenes digitales pueden ser escaneadas de fotografías convencionales o ser capturadas directamente mediante cámaras digitales. Muchas tareas fotogramétricas pueden ser automatizadas en la fotogrametría digital (por ejemplo, extracción de DEM y generación de ortofotos digitales). La fotogrametría digital es a veces llamada fotogrametría de copia blanda. Los productos obtenidos están en formato digital, tales como mapas digitales, DEMs y ortofotos digitales que están grabados en medios magnéticos. De esta manera, ellos pueden ser fácilmente almacenados, administrados y aplicados por los usuarios. Con el desarrollo de fotogrametría digital, las técnicas fotogramétricas se pueden integrar más fácilmente con la teledetección y los SIG. CAPÍTULO 7 Conceptos Fotogramétricos

Upload: carlos-lubo

Post on 13-Jul-2015

1.320 views

Category:

Documents


1 download

TRANSCRIPT

Page 1: 7 conceptos fotogrametricos

Capítulo 7 Conceptos Fotogramétricos

Introducción

¿Qué es Fotogrametría?

Fotogrametría es el "arte, ciencia y tecnología de obtención de información confiable sobre los objetos físicos y el medio ambiente a través del proceso de registro, medición e interpretación de imágenes fotográficas, patrones de imágenes de radiancia electromagnética y otros fenómenos" (ASP 1980).

La fotogrametría fue inventada en 1851 por Laussedat y ha continuado su desarrollo en los últimos 150 años. Con el transcurso del tiempo, el desarrollo de la fotogrametría ha pasado a través de las fases de fotogrametría de plancheta, fotogrametría análoga, fotogrametría analítica y recientemente ha entrado en la fase de fotogrametría digital (Konecny 1994).

La aplicación tradicional, y la más grande, es la extracción de información topográfica (es decir, mapas topográficos) de imágenes aéreas. Sin embargo, las técnicas fotogramétricas también han sido aplicadas a procesar imágenes de satélite e imágenes de rango cercano, con el objeto de adquirir información topográfica y no topográfica de los objetos fotografiados.

Antes de la invención del aeroplano, las fotografías tomadas en el terreno se utilizaron para extraer las relaciones entre los objetos usando principios geométricos. Esto ocurrió durante la fase de la fotogrametría de plancheta.

En la fotogrametría análoga, empezando con la medición estereoscópica en 1901, los instrumentos ópticos o mecánicos se utilizaron para reconstruir la geometría tridimensional de dos fotografías traslapadas. El principal producto de esta fase fueron los mapas topográficos.

En la fotogrametría analítica, el computador reemplazó algunos componentes ópticos y mecánicos muy costosos. Los instrumentos resultantes fueron híbridos análogos/digitales. La aerotriangulación analítica, los restituídores analíticos y los proyectores de ortofotos fueron los principales desarrollos durante esta fase. Los productos de la fotogrametría analítica pueden ser mapas topográficos pero también pueden ser productos digitales como mapas digitales y DEMs.

La fotogrametría digital es aplicada a imágenes digitales que son almacenadas y procesadas en un computador. Las imágenes digitales pueden ser escaneadas de fotografías convencionales o ser capturadas directamente mediante cámaras digitales. Muchas tareas fotogramétricas pueden ser automatizadas en la fotogrametría digital (por ejemplo, extracción de DEM y generación de ortofotos digitales). La fotogrametría digital es a veces llamada fotogrametría de copia blanda. Los productos obtenidos están en formato digital, tales como mapas digitales, DEMs y ortofotos digitales que están grabados en medios magnéticos. De esta manera, ellos pueden ser fácilmente almacenados, administrados y aplicados por los usuarios. Con el desarrollo de fotogrametría digital, las técnicas fotogramétricas se pueden integrar más fácilmente con la teledetección y los SIG.

C A P Í T U L O 7

Conceptos Fotogramétricos

257Field Guide

Page 2: 7 conceptos fotogrametricos

Conceptos Fotogramétricos

Los sistemas de fotogrametría digital emplean software sofisticado para automatizar las tareas asociadas con la fotogrametría convencional y, de esta manera, minimizan la interacción

manual requerida para realizar operaciones fotogramétricas. IMAGINE OrthoBASE® es uno de dichos sistemas fotogramétricos.

La fotogrametría puede ser utilizada para medir e interpretar información de fotografías e imágenes. Algunas veces el proceso de medir información en fotografías e imágenes se considera fotogrametría métrica, tal como crear DEMs. La interpretación de información de fotografías o imágenes se considera fotografía interpretativa, tal como identificar y diferenciar especies de árboles que están en una fotografía o imagen (Wolf 1983).

Tipos de Fotografías e Imágenes

Los tipos de fotografías e imágenes que pueden ser procesadas en IMAGINE OrthoBASE incluyen aéreas, terrestres, de rango cercano y oblicuas. Las fotografías e imágenes verticales (o casi verticales) se toman desde un punto de vista alto sobre la superficie terrestre. El eje de la cámara de fotografías aéreas verticales es usualmente dirigido verticalmente hacia abajo. Las fotografías áreas y las imágenes son usualmente obtenidas desde un avión o un satélite.

Las imágenes y fotografías terrestres o basadas en el terreno son tomadas con una cámara ubicada sobre o cerca de la superficie terrestre. Las fotografías e imágenes terrestres o de rango cercano son utilizadas usualmente en aplicaciones de arqueología, geomorfología, ingeniería civil, arquitectura, industria, etc.

Las fotografías e imágenes oblicuas son similares las fotografías aéreas verticales excepto que el eje de la cámara está inclinado respecto a la vertical de una manera intencional. Las imágenes y fotografías oblicuas son utilizadas usualmente para reconocimientos y aplicaciones de cartografía de corredores.

Los sistemas de fotogrametría digital usan fotografías digitalizadas o imágenes digitales como la fuente primaria de entrada de datos. Las imágenes digitales pueden ser obtenidas de diversas fuentes. Ellas incluyen:

• digitalización de fotografías análogas existentes

• uso de cámaras digitales para registrar imágenes

• uso de sensores a bordo de satélites como Landsat y SPOT para registrar imágenes

NOTA: Este documento usa el término imagen en referencia a las fotografías e imágenes obtenidas de varias fuentes. Esto incluye fotografías aéreas y terrestres, imágenes de cámaras digitales y de video, fotografía de 35 mm, fotografía de formato medio a grande, fotografías escaneadas e imágenes de satélite.

¿Por qué Usar Fotogrametría?

Como se indicó en la sección previa, las fotografías aéreas y las imágenes de satélite crudas tienen una distorsión geométricas grande que es causada por varios factores sistemáticos y no sistemáticos. El modelamiento fotogramétrico basado en ecuaciones de colineariedad elimina estos errores de una manera eficiente y crea las ortoimágenes más confiables a partir de imágenes crudas. Ella es única en términos de considerar la geometría de formación de la imagen, utilizando la información entre las imágenes traslapadas y explícitamente considerando la tercera dimensión: elevación.

258 ERDAS

Page 3: 7 conceptos fotogrametricos

Introducción

Adicionalmente a las ortoimágenes, la fotogrametría también puede proporcionar otra información geográfica como DEMs, objetos topográficos y mapas de líneas, de una manera confiable y eficiente. En esencia, la fotogrametría produce información exacta y precisa a partir de un rango amplio de fotografías e imágenes. Cualquier medición tomada en una fotografía o imagen procesada fotogramétricamente refleja una medición tomada sobre el terreno. En lugar de ir constantemente al campo para medir distancias, áreas, ángulos y posiciones de puntos sobre la superficie terrestre, las herramientas fotogramétricas la adquisición exacta de información a partir de imágenes. Las opciones fotogramétricas para adquirir información geográfica ahorran tiempo y dinero y mantienen las exactitudes mayores.

Fotogrametría vs Correciones Geométricas Convencionales

Las técnicas convencionales de corrección geométrica tales como la transformación polinómica están basadas en funciones generales que no están relacionadas directamente con las fuentes de error o distorsión específicas. Ellas han sido exitosas en el campo de las aplicaciones de teledetección y SIG, especialmente en el procesamiento de imágenes de baja resolución espacial y de limitado campo de visión tales como los datos de Landsat y de SPOT (Yang 1997). Las funciones generales tienen la ventaja de su simplicidad. Ellas pueden proporcionar un modelamiento geométrico razonable alternativo cuando se conoce poco sobre la naturaleza geométrica de los datos de las imágenes.

Sin embargo, las técnicas convencionales generalmente procesan una imagen cada vez. Ellas no pueden proporcionar una solución integrada para múltiples imágenes o fotografías de una manera simultánea y eficiente. Es muy difícil, por no decir imposible, que las técnicas convencionales puedan alcanzar una exactitud razonable sin un número grande de GCPs cuando se procesan imágenes de escala grande, imágenes que tienen errores sistemáticos y/o no sistemáticos e imágenes que cubren terreno quebrado. Una alineación incorrecta puede ocurrir con mayor probabilidad cuando se hacen mosaicos con imágenes que se han rectificado de manera separada. Esta alineación incorrecta podría conducir a una adquisición inexacta de información geográfica a partir de las imágenes rectificadas. Adicionalmente, es imposible, mediante una técnica convencional crear un modelo estereoscópico tridimensional o extraer información de elevación de dos imágenes traslapadas. No hay manera que las técnicas convencionales permitan derivar información geométrica sobre el sensor que capturó las imágenes.

Las técnicas fotogramétricas superan todos los problemas mencionados anteriormente usando ajuste de bloques por mínimos cuadrados. Esta solución es íntegra y exacta.

IMAGINE OrthoBASE puede procesar cientos de imágenes o fotografías con muy pocos GCPs, al mismo tiempo que elimina el problema de mala alineación asociado a la creación de mosaicos de imágenes. De manera breve, menos tiempo, menos dinero y menos esfuerzo manual pero mayor fidelidad geográfica puede ser obtenida usando la solución fotogramétrica.

Ortorectificación de una Sola Imagen vs. Triangulación en Bloque

Las técnicas de rectificación de una sola imagen usan un método conocido como resección espacial. En este aspecto, se requiere un mínimo de tres GCPs por cada imagen. Por ejemplo, si se requiere ortorectificar 50 fotografías aéreas se necesita un mínimo de 150 GCPs. Esto incluye la identificación y medición manual de cada GCP para cada imagen de una manera individual. Luego que los GCPs son medidos, las técnicas de resección espacial calculan la posición de la (el) cámara/sensor y su orientación tal como existía en el momento de adquisición de los datos. Esta información, junto con un DEM, es utilizada para tener en cuenta los impactos negativos asociados con los errores geométricos. Las variables adicionales asociadas con los errores sistemáticos no son consideradas.

259Field Guide

Page 4: 7 conceptos fotogrametricos

Conceptos Fotogramétricos

Las técnicas de ortorectificación de una sola imagen no utilizan la relación interna entre las imágenes adyacentes de un bloque para minimizar y distribuir los errores comunmente asociados con GCPs, mediciones sobre imágenes, DEMs e información sobre cámara/sensor. Por consiguiente, durante el procedimiento de obtención de un mosaico, la alineación incorrecta entre imágenes adyacentes es algo muy común, ya que los errores no han sido minimizados ni distribuidos en todo el bloque. La triangulación aérea o en bloque es el proceso de establecer una relación matemática entre las imágenes contenidas en un proyecto, el modelo de la cámara o sensor y el terreno. La información resultante de la triangulación aérea se requiere como insumo para los procesos de ortorectificación, DEM y creación de pares estereoscópicos. El término triangulación aérea es utilizado comunmente cuando se procesan fotografías aéreas e imágenes. El término triangulación en bloque, o simplemente triangulación, es utilizado cuando se procesan imágenes de satélite. Las dos técnicas difiere ligeramente en función del tipo de imágenes que se están procesando.

La triangulación aérea clásica que usa instrumentos de restitución analíticos y análogos se usa principalmente para la adquisición de GCPs usando una técnica conocida como extensión de puntos de control. Debido al alto costo de adquisición de GCPs, las técnicas fotogramétricas son aceptadas como la aproximación ideal para adquirir GCPs en áreas extensas usando fotografías en lugar de técnicas de control de campo convencionales. La extensión de puntos de control involucra la medición manual de puntos de control que aparecen en las imágenes traslapadas. Estos puntos de control son usualmente conocidos como puntos de amarre.

Luego que los puntos son medidos, las coordenadas de terreno asociadas con los puntos de amarre pueden determinarse usando técnicas fotogramétricas empleadas por instrumentos de restitución análoga o analítica. Estos puntos son posteriormente referenciados como puntos de control terrestre (GCPs).

Con la aparición de la fotogrametría digital, la triangulación aérea clásica ha sido extendida con el objeto de proporcionar una mayor funcionalidad. IMAGINE OrthoBASE usa una técnica matemática conocida como ajuste bundle de bloques para triangulación aérea. Este ajuste de bloques proporciona tres funciones básicas:

• Determinar la posición y orientación de cada imagen en un proyecto tal como existía en el momento de la exposición de la fotografía o imagen. Los parámetros resultantes son conocidos como parámetros de orientación exterior. Con el objeto de estimar los parámetros de orientación exterior, se requiere un mínimo de tres GCPs para el bloque completo, independientemente de cuántas imágenes están dentro del proyecto.

• Determinar las coordenadas de terreno de todos los puntos de amarre medidos automática o manualmente en las áreas de traslapo de múltiples imágenes. La alta precisión de la determinación de la posición de terreno de los puntos de control es útil para la generación de puntos de control de imágenes en lugar de las técnicas de control terrestre. Adicionalmente, si un número grande de puntos de control es generado, entonces se puede interpolar un DEM usando la herramienta Create Surface de ERDAS IMAGINE.

• Minimizar y distribir los errores asociados con las imágenes, las mediciones sobre las imágenes, GCPs, entre otros. El ajuste en bloque bundle procesa información de un bloque completo de imágenes en una solución simultánea (es decir, un bundle) usando técnicas estadísticas (es decir, componentes de ajuste) para identificar, distribuir y remover los errores.

Como las imágenes son procesadas en una sola fase, se soluciona la alineación incorrecta asociada con la creación de mosaicos.

260 ERDAS

Page 5: 7 conceptos fotogrametricos

Adquisición de Datos e Imágenes

Adquisición de Datos e Imágenes

Durante la adquisición de imágenes o fotografías, las imágenes traslapadas son expuestas a lo largo de la dirección de vuelo. La mayoría de las aplicaciones fotogramétricas incluyen el uso de imágenes traslapadas. Cuando se usa más de una imagen, la geometría asociada con la (el) cámara/sensor, la imagen y el terreno pueden definirse con mayor exactitud y precisión. Durante la adquisición de las imágenes, cada punto en la línea de vuelo en el cual la cámara expone la película, o en el cual el sensor captura la imagen, se conoce como estación de exposición.

Figura 7-1: Exposure Stations Along a Flight Path

Cada fotografía o imagen que es expuesta tiene una escala de imagen correspondiente asociada con ella. La escala de imagen expresa la relación promedio entre una distancia en la imagen y la misma distancia en el terreno. Ella se calcula dividiendo la distancia focal entre la altura de vuelo respecto a la elevación promedio del terreno. Por ejemplo, con una altura de vuelo de 1,000 m y una distancia focal de 15 cm, la escala de la imagen [SI] sería 1:6667.

NOTA: Se debe usar la altura de vuelo sobre el terreno, en lugar de la altitud sobre el nivel del mar.

Una faja de fotografías consiste de una serie de imágenes capturadas a lo largo de una línea de vuelo, normalmente con un traslapo o recubrimiento del 60%. Se asume que todas las fotos de una faja han sido tomadas a la misma altura de vuelo aproximada y con una distancia constante entre las estaciones de exposición. La inclinación de la cámara respecto a la vertical se asume que es mínima.

Las fotografías de varias líneas de vuelo pueden combinarse para formar un bloque de fotografías. Un bloque de fotografías consiste de un número de fajas paralelas, normalmente con un traslapo o recubrimiento lateral de 20-30%. Las técnicas de triangulación en bloque se usan para transformar todas las imágenes del bloque y los puntos de terreno a un sistema de coordenadas homólogo. Un bloque regular de fotos es un bloque rectangular en el cual el número de fotos en cada faja es el mismo. La Figura 7-2 en la página 262 muestra un bloque de 5 × 2 fotografías.

Flight pathof airplane

Exposure station

Flight Line 1

Flight Line 2

Flight Line 3

261Field Guide

Page 6: 7 conceptos fotogrametricos

Conceptos Fotogramétricos

Figura 7-2: A Regular Rectangular Block of Aerial Photos

Escáneres Fotogramétricos

Los escáneres fotogramétricos son dispositivos especiales con capacidad de almacenar imágenes de gran calidad y excelente exactitud de posición. El uso de este tipo de escáneres conduce a exactitudes geométricas similares a las de los instrumentos tradicionales de fotogrametría análoga y analítica. Estos escáneres son necesarios en aplicaciones fotogramétricas digitales que tengan requerimientos de alta exactitud.

Estas unidades usualmente graban únicamente a partir de película, en razón de que la película es superior al papel tanto en término de detalles en la imagen como de geometría de la imagen. Estas unidades usualmente tienen como exactitud posicional un error medio cuadrático (RMSE) de 4 micrones o menos y son capaces de escanear con una resolución máxima entre 5 y 10 micrones (5 micrones es equivalente aproximadamente a 5,000 pixeles por pulgada).

La resolución de píxel requerida varía depende de cada aplicación. Las aplicaciones de triangulación aérea y de extracción de objetos requieren a menudo escanear en un rango entre 10 y 15 micrones. Las aplicaciones de ortofotos utilizan a menudo pixeles entre 15 y 30 micrones. La película de color es menos nítida que la pancromática, por eso las aplicaciones de ortofotos a color usan frecuentemente pixeles entre 20 y 40 micrones.

Escáneres de Escritorio

Los escáneres de escritorio son instrumentos de propósito general. Ellos no proporcionan imágenes con tanto detalle y exactitud geométrica como los escáneres de calidad fotogramétrica, pero son mucho menos costosos. Cuando se usa un escáner de escritorio, hay que estar seguros de que el área efectiva es de por lo menos 9 × 9 pulgadas (es decir un escáner tipo A3) para poder capturar el área completa de una foto.

Flying direction

Strip 2

Strip 1

60% overlap

20-30% sidelap

262 ERDAS

Page 7: 7 conceptos fotogrametricos

Adquisición de Datos e Imágenes

Los escáneres de escritorio son apropiados para usos poco rigurosos tales como fotogrametría digital que apoya aplicaciones de sistemas de información geográfica (SIG) o de teledetección. La calibración de estas unidades mejora la exactitud geométrica, pero aun así los resultados son inferiores a los de las unidades fotogramétricas. Las técnicas de correlación de imágenes que se usan para automatizar la adquisición de puntos de amarre y la extracción de elevaciones son muy sensibles a la calidad del escaneo. Existen muchos errores introducidos en una solución fotogramétrica que se atribuyen a errores de escaneo. Por eso, IMAGINE OrthoBASE toma en cuenta los errores sistemáticos debido a errores en el escaneo.

Resoluciones de Escaneo

Uno de los factores principales que contribuye a la exactitud general de la triangulación y de la ortorectificación es la resolución de las imágenes que se están usando. La resolución de las imágenes es comúnmente determinada por la resolución de escaneo (cuando se están usando fotografías en película) o por la resolución del píxel del sensor. Con el objeto de optimizar la exactitud final de una solución hay que considerar la resolución de escaneo. La resolución apropiada de escaneo está determinada comparando los requerimientos de exactitud y el tamaño del proyecto de cartografía lo mismo que el tiempo requerido para procesar el proyecto. La Tabla 7-1 en la página 264 de resoluciones de escaneo (Scanning Resolutions), de la página 268, contiene una lista de las resoluciones de escaneo asociadas con varias escalas de fotografía y con el tamaño de la imagen.

263Field Guide

Page 8: 7 conceptos fotogrametricos

Conceptos Fotogramétricos

La columna de cubrimiento en el terreno (ground coverage) se refiere al área que cubre un pixel en el terreno. Una fotografía a escala 1:40,000 escaneada a 25 micrones [1,016 puntos por pulgada (dpi)] tiene un cubrimiento en el terreno por píxel de 1 metro × 1 metro. El tamaño del archivo resultante es de aproximadamente de 85 megabytes, si se asume que la fotografía tiene un formato de 9 × 9 pulgadas.

Tabla 7-1: Scanning Resolutions

12 microns (2117 dpi1)

16 microns (1588 dpi)

25 microns (1016 dpi)

50 microns (508 dpi)

85 microns (300 dpi)

Photo Scale1 to

Ground Coverage (meters)

Ground Coverage(meters)

Ground Coverage(meters)

Ground Coverage(meters)

Ground Coverage(meters)

1800 0.0216 0.0288 0.045 0.09 0.153

2400 0.0288 0.0384 0.06 0.12 0.204

3000 0.036 0.048 0.075 0.15 0.255

3600 0.0432 0.0576 0.09 0.18 0.306

4200 0.0504 0.0672 0.105 0.21 0.357

4800 0.0576 0.0768 0.12 0.24 0.408

5400 0.0648 0.0864 0.135 0.27 0.459

6000 0.072 0.096 0.15 0.3 0.51

6600 0.0792 0.1056 0.165 0.33 0.561

7200 0.0864 0.1152 0.18 0.36 0.612

7800 0.0936 0.1248 0.195 0.39 0.663

8400 0.1008 0.1344 0.21 0.42 0.714

9000 0.108 0.144 0.225 0.45 0.765

9600 0.1152 0.1536 0.24 0.48 0.816

10800 0.1296 0.1728 0.27 0.54 0.918

12000 0.144 0.192 0.3 0.6 1.02

15000 0.18 0.24 0.375 0.75 1.275

18000 0.216 0.288 0.45 0.9 1.53

24000 0.288 0.384 0.6 1.2 2.04

30000 0.36 0.48 0.75 1.5 2.55

40000 0.48 0.64 1 2 3.4

50000 0.6 0.8 1.25 2.5 4.25

60000 0.72 0.96 1.5 3 5.1

B/W File Size (MB) 363 204 84 21 7

Color File Size (MB) 1089 612 252 63 21

264 ERDAS

Page 9: 7 conceptos fotogrametricos

Adquisición de Datos e Imágenes

Sistema de Coordenadas

Conceptualmente, la fotogrametría involucra el establecimiento de relaciones entre la cámara o sensor utilizados para capturar las imágenes, las imágenes en sí mismas y el terreno. Con el objeto de entender y definir estas relaciones, cada una de las tres variables asociadas con la relación debe ser definida con respecto a un espacio de coordenadas y un sistema de coordenadas.

Sistema de coordenadas de pixel

Las coordenadas de archivo de una imagen digital son definidas en un sistema de coordenadas de pixel, el cual, por lo general, es un sistema de coordenadas cuyo origen está en la esquina superior izquierda de la imagen, el eje x apunta hacia la derecha, el eje y apunta hacia abajo y sus unidades están en pixeles, tal como se muestra por medio de los ejes c y r en la Figura 7-3 en la página 265. Estas coordenadas de archivo (c, r) pueden también entenderse como el número de fila y de columna de cada píxel. Este sistema de coordenadas está referido en este capítulo como coordenadas de píxel (c, r).

Figura 7-3: Pixel Coordinates and Image Coordinates

Sistema de Coordenadas de Imagen

Un sistema de coordenadas de imagen o un sistema de coordenadas planas de imagen se define usualmente como un sistema de coordenadas de dos dimensiones que ocurre en el plano de la imagen con su origen en el centro de la imagen, que es normalmente el punto principal o la intersección de las marcas fiduciales, tal como se muestra por los ejes x y y en la Figura 7-3 en la página 265. Las coordenadas de imagen son utilizadas para describir posiciones en el plano de la película. Las unidades de las coordenadas de la imagen son usualmente milímetros o micrones. Este sistema de coordenadas está referido en este capítulo como coordenadas de imagen (x, y).

y

x

c

r

265Field Guide

Page 10: 7 conceptos fotogrametricos

Conceptos Fotogramétricos

Sistema de Coordenadas Espaciales de la Imagen

Un sistema de coordenadas espaciales de imagen (Figura 7-4 en la página 266) es idéntico a un sistema de coordenadas de imagen, excepto que se añade un tercer eje (z). El origen del sistema de coordenadas espaciales de la imagen está definido en el centro de proyección S tal como se muestra en la Figura 7-4 en la página 266. Sus ejes x y y son paralelos a los ejes x y y del sistema de coordenadas planas de la imagen. El eje z es el eje óptico, de manera que el valor z de un punto de la imagen en el sistema de coordenadas espaciales de la imagen es usualmente igual a f (distancia focal). Las coordenadas espaciales de la imagen son utilizadas para describir las posiciones dentro de la cámara y usualmente usan unidades en milímetros o micrones. Este sistema de coordenadas está referido en este capítulo como coordenadas espaciales de la imagen (x, y, z).

Figura 7-4: Image Space Cordinate System

Sistema de Coordenadas del Terreno

Un sistema de coordenadas del terreno se define usualmente como un sistema de coordenadas en tres dimensiones que utiliza una proyección cartográfica conocida. Las coordenadas del terreno (X, Y, Z) son usualmente expresadas en pies o metros. El valor Z es la elevación sobre el nivel del mar promedio respecto a un datum vertical dado. Este sistema de coordenadas es referido en este capítulo como coordenadas del terreno (X, Y, Z).

Sistema de Coordenadas Geocéntricas y Topocéntricas

La mayoría de las aplicaciones fotogramétricas tienen en cuenta la curvatura de la tierra en sus cálculos. Esto es considerado añadiendo un valor de corrección o calculando la geometría en un sistema de coordenadas que incluye la curvatura. Algunos de esos sistemas usan coordenadas geocéntricas o topocéntricas.

Z(H)

Y

X

A

ao

p

x

yz

S

f

266 ERDAS

Page 11: 7 conceptos fotogrametricos

Adquisición de Datos e Imágenes

Un sistema de coordenadas geocéntricas tiene su origen en el centro del elipsoide terrestre. El eje Z es igual al eje rotacional de la tierra y el eje X pasa a través del meridiano de Greenwich. El eje Y es perpendicular tanto el eje Z como al eje X y define un sistema de coordenadas tridimensional que cumple la regla de la mano derecha.

Un sistema de coordenadas topocéntricas tiene su origen en el centro de la imagen proyectado sobre el elipsoide terrestre. Los ejes de coordenadas perpendiculares están definidos en un plano tangencial en este punto central. El plano es llamado plano de referencia o datum local. El eje x está orientado hacia el este, el eje y está orientado hacia el norte y el eje z es vertical al plano de referencia (hacia arriba).

Por simplicidad de presentación, el resto de este capítulo no hace referencia explícita a coordenadas topocéntricas o geocéntricas. Los principios fotogramétricos básicos pueden ser presentados sin agregar este nivel adicional de complejidad.

Fotogrametría terrestre

Las aplicaciones de fotogrametría asociadas con imágenes tomadas sobre el terreno o imágenes terrestres utilizan sistemas de coordenadas, de imágenes y de terreno, que son ligeramente diferentes a los descritos anteriormente. La Figura 7-5 en la página 267 muestra los dos sistemas de coordenadas asociados con el espacio de la imagen y con espacio del terreno.

Figura 7-5: Fotogrametría Terrestre

Los sistemas de coordenadas de imagen y de coordenadas de terreno son sistemas que siguen la regla de la mano derecha. La mayoría de las aplicaciones terrestres usan un sistema de coordenadas espaciales de terreno que se define utilizando un sistema local de coordenadas cartesianas.

YG

XG

ZG

XA

ZAYA

Ground Point A

Ground space

y

x

a’ya’

xa’

zZ

Y

XXL YL

Image space

Perspective CenterZL

ω

ω’

ϕ

κ

ϕ’

κ’

267Field Guide

Page 12: 7 conceptos fotogrametricos

Conceptos Fotogramétricos

El sistema de coordenadas espaciales de imagen dirige el eje z hacia el objeto capturado y el eje y se dirige hacia el norte hacia arriba. El eje x es similar al utilizado en las aplicaciones aéreas. Las coordenadas XL, YL, y ZL definen la posición del centro de proyección tal como existía en el momento de la captura de la imagen. Las coordenadas de terreno del punto A (XA, YA, y ZA ) están definidas dentro del sistema de coordenadas espaciales del terreno (XG, YG, y ZG ). Con

esta definición, los ángulos de rotación ω, ϕ y κ son definidos de acuerdo a las mismas convenciones de las fotografías aéreas. En IMAGINE OrthoBASE el usuario también puede usar el sistema de coordenadas de terreno (X, Y, Z) para definir directamente puntos de control terrestre (GCPs). De esta manera, los puntos GCPs no necesitan ser transformados. Desde luego, la definición de los ángulos de rotación ω', ϕ ' y κ ' es diferente como se muestra en la Figura 7-5 en la página 267.

Orientación Interna

La orientación interna define la geometría interna de una cámara o sensor tal como existía en el momento de la captura de los datos. Las variables asociadas con el espacio de la imagen son definidas durante el proceso de orientación interna. La orientación interna se usa principalmente para transformar el sistema de coordenadas de píxel de la imagen u otro sistema de medición de coordenadas de la imagen en el sistema de coordenadas espaciales de la imagen.

La Figura 7-6 en la página 268 muestra las variables asociadas con la geometría interna de una imagen capturada desde una cámara aérea, donde o representa el punto principal y a representa un punto sobre la imagen.

Figura 7-6: Geometría Interna

La geometría interna de una cámara está definida especificando las siguientes variables:

• punto principal

• distancia focal

• marcas fiduciales

• distorsión del lente

Image plane

Perspective Center

Fiducial Marks

Focal Length

oxo

yo ya’

xa’ a

268 ERDAS

Page 13: 7 conceptos fotogrametricos

Orientación Interna

Punto Principal y Distancia Focal

El punto principal está definido matemáticamente como la intersección de la línea perpendicular dirigida desde el centro de proyección hasta el plano de la imagen. La longitud desde el punto principal hasta el centro de proyección se conoce como distancia focal (Wang 1990).

El plano de la imagen es comúnmente referido como el plano focal. Para cámaras aéreas gran-angulares, la distancia focal es aproximadamente de 152 milímetros (6 pulgadas). Para algunas cámaras digitales, la distancia focal es de 28 milímetros. Antes de realizar un proyecto fotogramétrico, la distancia focal de una cámara métrica es determinada con exactitud en un proceso de calibración que se realiza en un laboratorio.

Esta definición matemática es la base de la triangulación, pero es difícil de determinar ópticamente. La definición óptica del punto principal es: la posición de la imagen donde el eje óptico intersecta el plano de la imagen. En el laboratorio esto es calibrado de dos maneras: el punto principal de autocolimación y el punto principal de simetría, que pueden ser tomados del reporte de calibración de la cámara. La mayoría de las aplicaciones prefieren usar el punto principal de simetría debido a que puede compensar de mejor manera la distorsión de la lente.

Marcas Fiduciales Como se indicó previamente, uno de los pasos asociados con la orientación interna involucra la determinación de las coordenadas de imagen del punto principal de cada imagen incluida en el proyecto. Por consiguiente, las posiciones de imagen de las marcas fiduciales deben ser medidas en cada imagen, y posteriormente comparadas con las coordenadas calibradas de cada marca fiducial.

Debido a que el sistema de coordenadas espaciales de la imagen no ha sido definido para cada imagen, las coordenadas de las marcas fiduciales medidas en la imagen son referenciadas a un sistema de coordenadas de píxel o de archivo. El sistema de coordenadas de píxel tiene una coordenada x (columna) y una coordenada y (fila). El origen del sistema de coordenadas del píxel es la esquina superior izquierda de la imagen que tiene un valor de columna y de fila de 0 y 0, respectivamente. La Figura 7-7 en la página 269 ilustra la diferencia entre el sistema de coordenadas de píxel y el sistema de coordenadas espaciales de la imagen.

Figura 7-7: Pixel Coordinate System vs. Image Space Coordinate System

a

Y a-file

X a-file

X o-file

Y o-file

xa

ya

Θ

269Field Guide

Page 14: 7 conceptos fotogrametricos

Conceptos Fotogramétricos

Mediante el uso de una trasformación bidimensional afín, se puede definir la relación entre el sistema de coordenadas del píxel y el sistema de coordenadas espaciales de la imagen. Las siguientes ecuaciones pueden ser utilizadas para determinar los coeficientes requeridos para transformar las mediciones de coordenadas de píxel en coordenadas de la imagen:

Las coordenadas de imagen x y y asociadas con las marcas fiduciales calibradas y las coordenadas de píxel X y Y de las marcas fiduciales medidas, son utilizadas para determinar los seis coeficientes de la transformación afín. Los seis coeficientes resultantes pueden ser utilizados para transformar cada conjunto de coordenadas de píxel de columna (x) y fila (y) en coordenadas de la imagen.

La calidad de la transformación bidimensional afín se indica mediante el índice estadístico, error medio cuadrático (RMS). El error RMS representa el grado de correspondencia entre las coordenadas de las marcas fiduciales calibradas y sus respectivos valores de imágenes medidos. Unos errores RMS grandes indican una correspondencia muy pobre que puede atribuirse a distorsión de la película, un escaneo de calidad baja, una información de calibración desactualizada o una medición incorrecta de la imagen.

La transformación afín también define la traslación entre el origen del sistema de coordenadas del píxel y el origen del sistema de coordenadas de la imagen (xo-file y yo-file). Adicionalmente, la transformación afín toma en cuenta la rotación del sistema de coordenadas de la imagen considerando el ángulo θ (vea Figura 7-7 en la página 269). Una imagen escaneada de una fotografía aérea es rotada normalmente debido al procedimiento de escaneo.

El grado de variación entre los ejes x y y es referido como no ortogonalidad. La transformación bidimensional afín también considera esta no ortogonalidad. La diferencia de escala entre el eje x y el eje y también es tenida en cuenta usando la transformación afín.

Distorsión del Lente La distorsión del lente deteriora la exactitud posicional de los puntos de la imagen localizados en el plano de la imagen. Existen dos tipos de distorsión radial del lente: distorsión radial y distorsión tangencial. La distorsión del lente ocurre cuando los rayos de luz que pasan a través del lente son desviados, cambiando las direcciones e interceptando el plano de la imagen en posiciones alejadas de la normal. La Figura 7-8 en la página 271 ilustra la diferencia entre distorsión radial y distorsión tangencial del lente.

x a1 a2X a3Y+ +=

y b1 b2X b3Y+ +=

270 ERDAS

Page 15: 7 conceptos fotogrametricos

Orientación Interna

Figura 7-8: Radial vs. Tangential Lens Distortion

La distorsión radial del lente causa que los puntos de la imagen se distorsionen a lo largo de líneas radiales a partir del punto principal. El efecto de la distorsión radial del lente es representado como ∆r. La distorsión radial del lente es comúnmente referida como distorsión simétrica del lente. La distorsión tangencial del lente ocurre en ángulos rectos a las líneas radiales a partir del punto principal. El efecto de la distorsión tangencial del lente es representado como ∆t. En razón de que la distorsión tangencial del lente es mucho más pequeña en magnitud que la distorsión radial del lente, se considera despreciable.

Los efectos de la distorsión del lente son usualmente determinados en un laboratorio en el momento de realizar el procedimiento de calibración de la cámara.

Los efectos de la distorsión radial del lente en una imagen pueden ser estimados usando un polinomio. El siguiente polinomio es utilizado para determinar los coeficientes asociados con la distorsión radial del lente:

∆r representa la distorsión radial a lo largo de una distancia radial r a partir del punto principal (Wolf 1983). En la mayoría de los reportes de calibración de las cámaras, el valor de distorsión del lente es proporcionado como una función de la distancia radial desde el punto principal o del ángulo de campo. IMAGINE OrthoBASE proporciona parámetros de distorsión de lente radial en los dos escenarios.

Los tres coeficientes (k0, k1, y k2) son calculados mediante técnicas estadísticas. Luego que se calculan los coeficientes, se corrige cada medición tomada de la imagen por distorsión radial del lente.

o

y

x

∆r ∆t

∆r k0r k1r3 k2r5+ +=

271Field Guide

Page 16: 7 conceptos fotogrametricos

Conceptos Fotogramétricos

Orientación Exterior

La orientación exterior define la posición y la orientación angular asociada con una imagen. Las variables que definen la posición y orientación de una imagen son referidas como los elementos de la orientación exterior. Los elementos de la orientación exterior definen las características asociadas con una imagen en el momento de exposición o captura. Los elementos posicionales de la orientación exterior incluyen XO, YO, y ZO. Ellos definen el centro de perspectiva (O) con respecto al sistema de coordenadas espaciales del terreno (X, Y, Z). ZO es usualmente referido como la altura de la cámara sobre el nivel del mar, la cual está definida usualmente con respecto a un datum.

Los elementos angulares o rotacionales de la orientación exterior describen la relación entre el sistema de coordenadas espaciales del terreno (X, Y y Z) y el sistema de coordenadas de la imagen (x, y, y z). Usualmente se definen 3 ángulos de rotación para definir la orientación angular. Ellos son omega (ω), phi (ϕ) y kappa (κ). La Figura 7-9 en la página 272 ilustra los elementos de orientación exterior.

Figura 7-9: Elements of Exterior Orientation

X

Y

Z

Xp

Yp

Zp

Xo

Zo

Yo

O

o p

Ground Point P

ωκϕ

x

yz

yp

xp

f

272 ERDAS

Page 17: 7 conceptos fotogrametricos

Orientación Exterior

Omega es la rotación alrededor del eje fotográfico x, phi es la rotación alrededor del eje fotográfico y, y kappa es la rotación alrededor del eje fotográfico z, las cuales son definidas como positivas si ellas tienen una dirección contraria a las manecillas del reloj cuando se observan desde el extremo positivo de sus respectivos ejes. Se utilizan diferentes convenciones para definir el orden y la dirección de los tres ángulos de rotación (Wang 1990). ISPRS recomienda el uso de la convención ω, ϕ y κ. El eje fotográfico z es equivalente al eje óptico

(distancia focal). Las coordenadas ω', ϕ ' y κ ' son paralelas al sistema de coordenadas espaciales del terreno.

Usando los tres ángulos de rotación, se puede determinar la relación entre el sistema de coordenadas espaciales de la imagen (x, y, y z) y el sistema de coordenadas espaciales del terreno (X, Y y Z o x', y' y z'). Se utiliza una matriz de 3 x 3 que define la relación entre los dos sistemas. Ella es referida como la matriz de orientación o rotación, M. La matriz de rotación puede ser definida como sigue:

La matriz de rotación se deriva realizando la rotación secuencial de omega alrededor del eje x, phi alrededor del eje y y kappa alrededor del eje z.

La Ecuación de Colinearidad

La siguiente sección define la relación entre la cámara o sensor, la imagen y el terreno. La mayoría de las herramientas fotogramétricas utiliza la siguiente formulación de una manera u otra.

Con referencia a la Figura 7-9 en la página 272, un vector de imagen a puede ser definido como un vector desde la estación de exposición O hasta el punto de la imagen p. Un vector A en el espacio del objeto o en el espacio del terreno puede ser definido como el vector desde la estación de exposición O hasta el punto del terreno P. El vector de la imagen y el vector del terreno son colineales, infiriendo que una línea que se extienda desde la estación de exposición hasta el punto de la imagen y al terreno es una línea recta.

El vector de la imagen y el vector del terreno son únicamente colineales, si uno es un escalar múltiplo del otro. De esta manera se puede establecer la siguiente igualdad:

Donde k es un escalar múltiple. Los vectores de imagen y de terreno pueden estar dentro del mismo sistema de coordenadas. De esta manera, el vector imagen está compuesto de los siguientes componentes.

Mm11 m12 m13

m21 m22 m23

m31 m32 m33

=

a kA=

273Field Guide

Page 18: 7 conceptos fotogrametricos

Conceptos Fotogramétricos

Donde xo y yo representan las coordenadas de imagen del punto principal.

De manera similar, el vector puede ser formulado como sigue:

Para que los vectores de la imagen y del terreno estén dentro del mismo sistema de coordenadas, el vector de terreno debe ser multiplicado por la matriz de rotación M. La siguiente ecuación puede ser formulada:

Donde:

Las ecuaciones de arriba definen la relación entre el centro de proyección de la estación de exposición de la cámara o sensor y el punto de terreno P que aparece en la imagen con una posición de imagen p. Esta ecuación forma la base de la condición de colinearidad que es utilizada en la mayoría de las operaciones fotogramétricas. La condición de colinearidad especifica que la estación de exposición, el punto del terreno y la posición del punto de imagen correspondiente debe entonces estar entre lo largo de la misma línea recta, o sea cumpliendo la colinearidad. La ecuación de colinearidad comprende dos ecuaciones:

axp xo–

yp yo–

f–

=

AXp Xo–

Yp Yo–

Zp Zo–

=

a kMA=

xp xo–

yp yo–

f–

kMXp Xo–

Yp Yo–

Zp Zo–

=

xp xo– f–m11 Xp Xo1

)– m12 Yp Yo1)– m13 Zp Zo1

)–(+(+(m31 Xp Xo1

–( ) m32 Yp Yo1–( ) m33 Zp Zo1

–( )+ +-------------------------------------------------------------------------------------------------------------------------=

274 ERDAS

Page 19: 7 conceptos fotogrametricos

Soluciones Fotogramétricas

Se puede formular un conjunto de ecuaciones para cada punto del terreno que aparezca en una imagen. La condición de colinearidad se utiliza frecuentemente para definir la relación entre el sensor o cámara, la imagen y el terreno.

Soluciones Fotogramétricas

Como se indicó anteriormente la fotogrametría digital es utilizada por muchas aplicaciones, como la ortorectificación, la extracción automatizada de elevaciones, la creación de pares estereoscópicos, la captura de objetos, la determinación de la posición de puntos con gran exactitud y la extensión de puntos de control.

Para cualquiera de las tareas anteriores que deban ser desarrolladas, se debe definir una relación entre la cámara o sensor, la imagen en un proyecto y el terreno. Las siguientes variables son utilizadas para definir la relación:

• los parámetros de orientación exterior para cada imagen

• los parámetros de orientación interna para cada imagen

• la representación exacta del terreno

Los problemas más comunes en fotogrametría incluyen la definición de los parámetros de orientación interna y externa para cada imagen en un proyecto, utilizando el menor número de puntos de control GCPs. Debido a los costos y tiempos asociados con los procedimientos de control terrestre, la mayoría de las aplicaciones fotogramétricas no utilizan un gran número de puntos de control GCPs. Adicionalmente, usualmente no se conocen los parámetros de orientación asociados con la imagen.

Dependiendo de los datos de entrada suministrados, las técnicas fotogramétricas, tales como resección espacial, intersección espacial sucesiva y ajuste de haces en bloque se utilizan para definir las variables requeridas para realizar la ortorectificación, la extracción automatizada de DEM, la creación de pares estereoscópicos, la determinación de puntos con gran exactitud y la extensión de puntos de control.

Resección Espacial La resección espacial es una técnica que es utilizada comunmente para determinar los parámetros de orientación externa asociados con una imagen o muchas imágenes basados en GCPs conocidos. La resección espacial está basada en la condición de colinearidad. La resección espacial que usa la condición de colinearidad especifica que, para cualquier imagen, la estación de exposición, el punto del terreno y su correspondiente punto de la imagen deben caer a lo largo de una línea recta.

Si se conoce un número mínimo de tres GCPs en la dirección de X, Y y Z, las técnicas de resección espacial se pueden utilizar para determinar los seis parámetros de orientación externa asociados con la imagen. La resección espacial asume que se dispone de la información de la cámara.

yp yo– f–m21 Xp Xo1

)– m22 Yp Yo1)– m23 Zp Zo1

)–(+(+(m31 Xp Xo1

–( ) m32 Yp Yo1–( ) m33 Zp Zo1

–( )+ +-------------------------------------------------------------------------------------------------------------------------=

275Field Guide

Page 20: 7 conceptos fotogrametricos

Conceptos Fotogramétricos

La resección espacial es comunmente utilizada para realizar ortorectificación de imágenes aisladas en la cual una imagen se procesa cada vez. Si se están utilizando múltiples imágenes, las técnicas de resección espacial requieren que un mínimo de tres puntos de control estén localizados en cada imagen antes de ser procesadas.

Usando la condición de colinearidad, se pueden calcular las posiciones de los parámetros de orientación exterior. Los rayos de luz que se originan en por lo menos 3 GCPs interceptan el plano de la imagen en las posiciones de imagen de los GCPs y resectan en el centro de proyección de la cámara o sensor. Usando técnicas de ajuste de mínimos cuadrados, las posiciones más probables de la exposición exterior se pueden calcular. Las técnicas de resección espacial pueden ser aplicadas a una imagen o a muchas imágenes.

Intersección Espacial Sucesiva

La resección espacial progresiva es una técnica que es usada comúnmente para determinar las coordenadas de terreno X, Y y Z que aparecen en las áreas de traslapo de dos o más imágenes, basada en los parámetros de orientación interna y externa conocidos. La condición de colinearidad se refuerza al establecer que los rayos de luz provenientes de dos estaciones de exposición pasan a través de los correspondientes puntos de imagen en las dos imágenes e intersectan en el mismo punto del terreno. La Figura 7-10 en la página 276 muestra el concepto asociado con la intersección espacial sucesiva.

Figura 7-10: Intersección Espacial Sucesiva

X

Y

Z

Xp

Yp

Zp

Xo1 Yo2

Zo1

Xo2

Yo1

Zo2

O1

o1

O2

o2p1p2

Ground Point P

276 ERDAS

Page 21: 7 conceptos fotogrametricos

Soluciones Fotogramétricas

Las técnicas de intersección espacial sucesiva asumen que los parámetros de orientación exterior asociados con la imagen se conocen. Usando las ecuaciones de colinearidad, los parámetros de orientación exterior junto con las mediciones de las coordenadas de la imagen el punto p en la imagen 1 y en la imagen 2 son la base para calcular las coordenadas Xp, Yp, y Zp del punto del terreno p.

Las técnicas de intersección espacial sucesiva pueden ser usadas en aplicaciones asociadas con la adquisición de GCPs, la cartografía catastral usando técnicas de medición aerotransportada y la determinación de puntos de alta exactitud.

Ajuste de Haces en Bloque

Para proyectos de cartografía que tienen más de dos imágenes, el uso de las técnicas de intersección espacial y de resección espacial es limitado. Esto puede atribuirse a la falta de la información requerida para realizar dichas tareas. Por ejemplo, no es inusual que los parámetros de orientación exterior tengan que ser bastante exactos para cada fotografía o imagen en un proyecto, debido a que estos valores son generados fotogramétricamente. Las técnicas de GPS y de INS aerotransportados normalmente proporcionan aproximaciones iniciales de la orientación exterior, pero los valores finales de estos parámetros deben ser ajustados para poder obtener exactitudes más altas.

De manera similar, es bastante raro que existan suficientes GCPs de buena exactitud para un proyecto de treinta o más imágenes con el objeto de realizar la resección espacial (en este caso se requiere un mínimo de noventa puntos). En el caso que existieran suficientes GCPs, el tiempo requerido para identificar y medir todos los puntos sería bastante costoso.

Los costos asociados con la triangulación en bloque y las ortorectificación dependen en buena medida del número de GCPs utilizado. Para disminuir los costos de un proyecto de cartografía, se deben ocupar y usar pocos GCPs. Para asegurar que se obtengan altas exactitudes, se puede usar una aproximación conocida como ajuste de haces en bloque.

El ajuste de haces en bloque se puede definir mejor si se examinan sus términos individuales. Una solución integral se calcula incluyendo los parámetros de orientación exterior de cada imagen en un bloque y las coordenadas X, Y y Z de los puntos de amarre y de los GCPs ajustados. Un bloque de las imágenes contenidas en un proyecto se procesa simultáneamente en una solución. Una técnica estadística conocida como ajuste de mínimos cuadrados se utiliza para estimar la solución integral del bloque entero al mismo tiempo que se reducen y distribuyen los errores.

La triangulación en bloque es el proceso de definir una relación matemática entre las imágenes contenidas dentro de un bloque, el modelo de la cámara o del sensor, y el terreno. Una vez que esta relación ha sido definida se puede extraer información exacta de las imágenes de la superficie terrestre.

Cuando se procesan datos de sensores como cámaras de formato, cámaras digitales, videografía e imágenes de cámaras no métricas, la triangulación en bloque es comúnmente conocida como triangulación aérea (AT). Cuando se procesan imágenes adquiridas con un barredor de empuje, la triangulación en bloque es conocida simplemente como triangulación.

277Field Guide

Page 22: 7 conceptos fotogrametricos

Conceptos Fotogramétricos

Existen varios modelos para triangulación en bloque. Los modelos comunes utilizados en fotogrametría son la triangulación en bloque con el método de fajas, el método de modelos independientes y el método de haces. Entre ellos, el ajuste de haces en bloque es el más riguroso de los métodos mencionados, debido a que disminuye y distribuye los errores. El ajuste de haces en bloque usa la condición de colinearidad como base para formular la relación entre el espacio de la imagen y el espacio del terreno. IMAGINE OrthoBASE usa técnicas de ajuste de haces en bloque.

Con el objeto de entender los conceptos asociados con el ajuste de haces en bloque se utilizará un ejemplo que comprende dos imágenes con tres GCPs con coordenadas X, Y y Z conocidas. Adicionalmente se dispone de seis puntos de amarre. La Figura 7-11 en la página 278 ilustra la configuración fotogramétrica.

Figura 7-11: Configuración Fotogramétrica

Obtención de las Ecuaciones de Colinearidad

Por cada GCP ocupado existen dos coordenadas de imagen correspondientes (x y y). De esta manera se pueden formular dos ecuaciones de colinearidad para representar la relación entre el punto en el terreno y la posición correspondiente en la imagen. En el contexto de ajuste de haces en bloque estas ecuaciones se conocen como ecuaciones de observación.

Si se ha ocupado un GCP A en el área de traslapo de dos imágenes, se pueden obtener cuatro ecuaciones: dos para las mediciones del punto en la imagen izquierda y dos para las mediciones en la imagen derecha. De esta manera, un GCP medido en el áreas de recubrimiento de las imágenes izquierda y derecha tiene cuatro fórmulas de colinearidad:

Tie point

GCP

xa1xo– f–

m11 XA Xo1)– m12 YA Yo1

)– m13 ZA Zo1)–(+(+(

m31 XA Xo1–( ) m32 YA Yo1

–( ) m33 ZA Zo1–( )+ +

----------------------------------------------------------------------------------------------------------------------------=

278 ERDAS

Page 23: 7 conceptos fotogrametricos

Soluciones Fotogramétricas

Una medición del punto GCP A en la imagen 1:

Una medición del punto GCP A en la imagen 2:

Elementos de posición de la orientación exterior en la imagen 1:

Elementos de posición de la orientación exterior en la imagen 2:

ya1yo– f–

m21 XA Xo1)– m22 YA Yo1

)– m23 ZA Zo1)–(+(+(

m31 XA Xo1–( ) m32 YA Yo1

–( ) m33 ZA Zo1–( )+ +

----------------------------------------------------------------------------------------------------------------------------=

xa2xo– f–

m ′11 XA Xo2)– m ′12 YA Yo2

)– m ′13 ZA Zo2)–(+(+(

m ′31 XA Xo2–( ) m ′32 YA Yo2

–( ) m ′33 ZA Zo2–( )+ +

----------------------------------------------------------------------------------------------------------------------------------=

ya2yo– f–

m ′21 XA Xo2)– m ′22 YA Yo2

)– m ′23 ZA Zo2)–(+(+(

m ′31 XA Xo2–( ) m ′32 YA Yo2

–( ) m ′33 ZA Zo2–( )+ +

----------------------------------------------------------------------------------------------------------------------------------=

xa1ya1

,

xa2ya2

,

Xo1Yo1

Z, o1,

Xo2Yo2

Z, o2,

279Field Guide

Page 24: 7 conceptos fotogrametricos

Conceptos Fotogramétricos

Si se han medido tres GCPs en el área de traslapo de dos imágenes, se pueden formular doce ecuaciones, que incluyen cuatro ecuaciones por cada GCP (refiérase a la Figura 7-11 en la página 278).

Adicionalmente, si se han medido seis puntos de amarre en el área de traslapo de las dos imágenes, se pueden formular veinticuatro ecuaciones, incluyendo cuatro por cada punto de amarre. Esto da un total de treinta y seis ecuaciones de observación (refiérase a la Figura 7-11 en la página 278).

El ejemplo previo tiene las siguientes incógnitas:

• seis parámetros de orientación exterior para la imagen izquierda (es decir, X, Y, Z, omega, phi, kappa),

• seis parámetros de orientación exterior para la imagen derecha (es decir, X, Y, Z, omega, phi, kappa), y

• coordenadas X, Y, Z de los puntos de amarre. De esta manera, para los seis puntos de amarre existen dieciocho incógnitas (seis multiplicado por tres coordenadas X, Y, Z de cada punto de amarre).

El número total de incógnitas es treinta. La calidad total del ajuste de haces en bloque es principalmente una función de la calidad y de la redundancia de los datos de entrada. En este escenario, la redundancia del proyecto se puede calcular sustrayendo el número de incógnitas, treinta, del número de variables conocidas, treinta y seis. La redundancia resultante es seis. Este término es comúnmente conocido como el grado de libertad de una solución.

Luego de formular cada ecuación de observación, la condición de colinearidad se puede resolver usando una técnica conocida como ajuste por mínimos cuadrados.

Ajuste de Mínimos Cuadrados

El ajuste de mínimos cuadrados es una técnica estadística que se utiliza para calcular los parámetros desconocidos asociados con una solución al mismo tiempo que se reduce el error dentro de la solución. Con respecto a la triangulación en bloque, las técnicas de ajuste de mínimos cuadrados se utilizan para:

• estimar o ajustar los valores asociados con la orientación exterior

• estimar las coordenadas X, Y y Z asociadas con los puntos de amarre

• estimar o ajustar los valores asociados con la orientación interior

• reducir y distribuir el error de los datos en toda la red de observaciones

El error de los datos es debido a la inexactitud asociada con la entrada de las coordenadas de los GCP, con la medición de las posiciones de los puntos de amarre y de los GCP en la imagen, con la información de la cámara y también con errores sistemáticos.

La aproximación de mínimos cuadrados requiere un procesamiento iterativo hasta que se obtenga una solución. Una solución se obtiene cuando los residuales asociados con los datos de entrada son bastante pequeños.

280 ERDAS

Page 25: 7 conceptos fotogrametricos

Soluciones Fotogramétricas

La aproximación de mínimos cuadrados involucra la determinación de las correcciones a los parámetros desconocidos basados en el criterio de disminuir los residuales de las mediciones de entrada. Los residuales se obtienen calculando la diferencia entre el valor medido (es decir entrado por el usuario) y el valor calculado para una medición particular en un proyecto. En el proceso de triangulación en bloque, se puede crear un modelo funcional basado en las ecuaciones de colinearidad.

El modelo funcional se refiere a la especificación de una ecuación que puede ser utilizada para relacionar las mediciones y los parámetros. En el contexto de la fotogrametría, las mediciones incluyen las posiciones en la imagen de los GCPs y las coordenadas de los GCPs, mientras que las orientaciones exteriores de las imágenes son parámetros importantes que se obtienen mediante el proceso de triangulación en bloque.

Los residuales, que se han disminuido, incluyen las coordenadas de imagen de los GCPs y de los puntos de amarre junto con las coordenadas de terreno de los GCPs. Una versión simplificada de la condición de mínimos cuadrados puede ser obtenida en la fórmula siguiente:

Donde:

V = la matriz que contiene los residuales de las coordenadas de imagenA = la matriz que contiene los derivadas parciales con respecto a los

parámetros desconocidos, incluyendo la orientación exterior, la orientación interior, los puntos de amarre X Y Z, y las coordenadas GCP

X = la matriz que contiene las correcciones de los parámetros desconocidos

L = la matriz que contiene las observaciones de entrada (es decir, las coordenadas de imagen y las coordenadas GCP

Los componentes de la condición de mínimos cuadrados están relacionados directamente con el modelo funcional basado en las ecuaciones de colinearidad. La matriz A se obtiene derivando el modelo funcional—basado en las ecuaciones de colinearidad—con respecto a los parámetros desconocidos tales como orientación exterior, etc. La matriz L se obtiene restando los resultados iniciales obtenidos del modelo funcional con los nuevos resultados obtenidos en una nueva iteración durante el procesamiento. La matriz X contiene las correcciones de los parámetros de orientación exterior desconocidos. La matriz X se calcula de la siguiente manera:

V AX L–= , including a weight matrix P

X AtPA )(1–AtPL=

281Field Guide

Page 26: 7 conceptos fotogrametricos

Conceptos Fotogramétricos

Donde:

X = la matriz que contiene las correcciones a los parámetros desconocidos t

A = la matriz que contiene las derivadas parciales con respecto a los parámetros desconocidos

t = la matriz transpuestaP = la matriz que contiene los pesos de las observacionesL = la matriz que contiene las observaciones

Luego que se ha terminado el procesamiento de iteración de mínimos cuadrados, las correcciones de los parámetros desconocidos se suman a los estimativos iniciales. Por ejemplo, si las aproximaciones iniciales a la orientación exterior son obtenidas a partir de información de GPS y de INS aerotransportados, las correcciones calculadas mediante el ajuste de mínimos cuadrados son sumadas al valor inicial para calcular los valores actualizados de orientación exterior. Este proceso iterativo de ajuste de mínimos cuadrados continúa hasta que las correcciones de los parámetros desconocidos son menores que el umbral definido por el usuario (comúnmente conocido como el valor de convergencia).

La matriz residual V se calcula al final de cada iteración del proceso. Luego que se ha completado una iteración, los nuevos valores estimados de los parámetros desconocidos se utilizan para recalcular las observaciones de entrada tales como los valores de coordenadas de imagen. La diferencia entre las mediciones iniciales y los nuevos valores permite obtener los residuales. Los residuales proporcionan una indicación preliminar de la exactitud de una solución. Los valores residuales indican el grado en el cual una observación particular (entrada) coincide con el modelo funcional. Por ejemplo, los residuales de la imagen tienen la capacidad de reflejar la adquisición de GCP en el campo. Después de cada iteración sucesiva en el proceso, los residuales son cada vez menores hasta que ellos se reducen de una manera satisfactoria.

Luego que se completa el ajuste de mínimos cuadrados, los resultados de la triangulación en bloque incluyen:

• los parámetros finales de orientación exterior de cada imagen en un bloque y su exactitud

• los parámetros finales de orientación interior de cada imagen en un bloque y su exactitud

• las coordenadas X, Y y Z, de los puntos de amarre y su exactitud

• las coordenadas ajustadas de GCP y sus residuales

• los residuales de las coordenadas de imagen

Los resultados de la triangulación en bloque se utilizan como entrada primaria para las siguientes tareas:

• creación de pares estereoscópicos

• adquisición de objetos

• determinación de puntos de gran exactitud

• extracción de DEM

• ortorectificación

282 ERDAS

Page 27: 7 conceptos fotogrametricos

Soluciones Fotogramétricas

Ajuste de Haces Autocalibrado

Normalmente, existen algunos errores sistemáticos relacionados con la adquisición de las imágenes y con el sistema de procesamiento, tales como la distorsión de la lente, la distorsión de la película, la refracción atmosférica, los errores de escaneo, entre otros. Estos errores reducen la exactitud de los resultados de la triangulación, especialmente cuando se está trabajando con imágenes de gran escala y con triangulación de alta exactitud. Existen varias maneras de reducir la influencia de los errores sistemáticos, como por ejemplo, compensación a posteriori, calibración mediante pruebas de campo, y la técnica más común. autocalibración (Konecny y Lehmann 1984; Wang 1990).

Los métodos de autocalibración usan parámetros adicionales en el proceso de triangulación para eliminar los errores sistemáticos. Qué tan bien trabajan esos métodos, depende de muchos factores tales como la resistencia del bloque (cantidad de traslapo, líneas de vuelo cruzadas), la cantidad y la distribución de los GCP y de los puntos de amarre, el tamaño de los errores sistemáticos comparado con el de los errores aleatorios, la importancia de los parámetros adicionales, la correlación entre los parámetros adicionales y otros elementos desconocidos.

En los años 70 y en los 80 se realizaron muchas investigaciones y se desarrollaron modelos de parámetros adicionales en fotografía, y se dispone de un buen número de resultados de investigación (Bauer 1972; Brown 1975; Ebner 1976; Grün 1978; Jacobsen 1980 y 1982; Li 1985; Wang 1988; Stojic et al 1998). Basados en estos reportes científicos, IMAGINE OrthoBASE proporciona cuatro grupos de parámetros adicionales para que el usuario los seleccione en diferentes circunstancias de triangulación. Adicionalmente, IMAGINE OrthoBASE permite que los parámetros de orientación interior sean calibrados analíticamente en su opción de ajuste de haces en bloque de autocalibración.

Detección Automática de Errores Gruesos

Los errores aleatorios normales están sujetos a la distribución estadística normal. En contraste, los errores gruesos se refieren a errores grandes que no están sujetos a distribución normal. Los errores gruesos en los datos de entrada para la triangulación pueden conducir a resultados poco confiables. La investigación desarrollada en los años 80 en la comunidad fotogramétrica obtuvo logros significativos en la detección automática de errores gruesos en el proceso de triangulación (Kubik 1982; Li 1983 y 1985; Jacobsen 1984; El-Hakim 1984; Wang 1988).

Los métodos para detección de errores gruesos empezaron con el chequeo de errores residuales usando fisgoneo de datos y posteriormente fueron extendidos mediante estimación robusta (Wang 1990). El método de estimación robusta más común es la iteración con funciones de ponderación selectivas. Basado en los resultados de la comunidad científica, IMAGINE OrthoBASE ofrece dos métodos de detección robusta de errores dentro del proceso de triangulación.

Vale la pena mencionar que el efecto de la detección automática de errores depende no solamente del modelo matemático, sino también de la redundancia que exista en el bloque. Así que, entre mayor número de puntos de control existan en las áreas de traslapo es mejor la detección de los errores gruesos. Adicionalmente, los GCPs poco exactos distribuyen sus errores para corregir los puntos de amarre, así que las coordenadas de terreno y de imagen de los GCP deberían tener mejor exactitud que la de los puntos de amarre, cuando ellos se comparan dentro de la misma escala espacial.

283Field Guide

Page 28: 7 conceptos fotogrametricos

Conceptos Fotogramétricos

GCPs El componente instrumental para el establecimiento de una relación exacta entre las imágenes en un proyecto, el sensor o la cámara, y el terreno, son los GCPs. Los GCPs son objetos identificables de la superficie terrestre que tienen coordenadas de terreno conocidas X, Y y Z. Un GCP completo tiene coordenadas X, Y, y Z (elevación del punto) asociadas con él. El control horizontal únicamente especifica X y Y, mientras que el control vertical hace referencia sólo a la Z.

Los siguientes objetos de la superficie terrestre se utilizan como GCPs:

• intersección de vías

• infraestructura de servicios públicos (p.e., hidrantes y tapas de pozos de inspección)

• intersección de lotes de cultivos agrícolas

• mojones de levantamientos

Dependiendo del tipo de proyecto de cartografía, los GCPs puede ser ocupados de las siguientes fuentes:

• levantamientos con teodolitos (de exactitud milimétrica o centimétrica)

• levantamientos con estaciones totales (de exactitud milimétrica o centimétrica)

• GPS terrestre (exactitud centimétrica a métrica)

• mapas topográficos y planimétricos (la exactitud varía en función de la escala del mapa, la exactitud aproximada puede variar entre unos pocos metros hasta cuarenta o más metros)

• imágenes ortorectificadas digitales (las coordenadas X y Y pueden ser obtenidas con una exactitud que depende de la resolución de la imagen ortorectificada)

• DEMs (para la colección de GCPs verticales que tienen coordenadas Z asociadas con ellos, su exactitud depende de la resolución del DEM y de la exactitud del DEM de entrada)

Luego que una imagen o fotografía es expuesta, se obtienen los GCPs y posteriormente se despliegan sobre la fotografía o la imagen. Durante la medición de los GCP en IMAGINE OrthoBASE, se adquieren las coordenadas de imagen de los GCPs que aparezcan en la imagen o en las áreas de recubrimiento de las imágenes.

Es bastante recomendable contar con un número de GCPs superior a los que realmente se van a usar en la triangulación en bloque. Los puntos GCPs adicionales pueden usarse como puntos de chequeo para verificar de manera independiente la calidad y la exactitud total de la solución de la triangulación en bloque. Un análisis de puntos de chequeo compara las coordenadas calculadas fotogramétricamente en los puntos de chequeo y sus valores originales. El resultado del análisis es un valor RMSE que indica el grado de correspondencia entre los valores calculados y los valores originales. A menores valores RMSE, mejores son los resultados.

Requerimientos de GCP

Los requerimientos mínimos de GCP para un proyecto de cartografía de exactitud varían con respecto al tamaño del proyecto. En relación con el establecimiento de una relación entre el espacio de la imagen y el espacio del terreno, el número teórico mínimo de GCPs son dos GCPs teniendo coordenadas X, Y y Z y un GCP teniendo una coordenada Z asociada con él. Esto da para un total de siete observaciones.

284 ERDAS

Page 29: 7 conceptos fotogrametricos

GCPs

Al establecer la relación matemática entre el espacio de la imagen y el espacio del objeto, se deben determinar los siete parámetros que definen la relación. Los siete parámetros incluyen un factor de escala (que describe la diferencia de escala entre el espacio de la imagen y el espacio del terreno); X, Y, Z (que definen las diferencias de posición entre el espacio de la imagen y el espacio del objeto); y tres ángulos de rotación (omega, phi y kappa) que definen la rotación entre el espacio de la imagen y el espacio del terreno.

Con el objeto de calcular una solución única, por lo menos siete parámetros conocidos deben estar disponibles. Al usar los dos GCP que tienen X, Y, Z y el GCP vertical (Z) la relación se puede definir. Sin embargo, para aumentar la exactitud del proyecto cartográfico, se recomienda usar más GCPs.

Las siguientes descripciones son proporcionadas para diferentes proyectos.

Procesamiento de una Imagen

Si se va a procesar una imagen con el propósito de ortorectificarla (es decir, una ortorectificación de una sola toma), el número mínimo de GCPs requeridos es tres. Cada GCP debe tener una coordenada X, Y, Z asociada con él. Los GCPs deberían ser distribuidos al azar para asegurar que el sensor/cámara está modelado de manera exacta.

Procesamiento de una Faja de Imágenes

Si se está procesando una faja de imágenes adyacentes, se recomienda que existan dos puntos de control (GCPs) por cada tres imágenes. Para incrementar la calidad de la ortorectificación, la medición de tres GCPs en las esquinas de una faja es bastante ventajoso. Así que, durante la triangulación en bloque, la geometría se puede ser reforzar en las áreas donde existe menos redundancia tales como en las esquinas de una faja o de un bloque.

La Figura 7-12 en la página 285 ilustra la configuración de GCP para una faja de imágenes que tiene traslapo longitudinal del 60%. Los triángulos representan los GCPs. De esta manera, las posiciones de imágenes de los GCPs se miden en las áreas de traslapo de las imágenes.

Figura 7-12: Configuración de GCP

Procesamiento de Fajas Múltiples de Imágenes

La Figura 7-13 en la página 286 muestra la configuración estándar de GCP para un bloque de imágenes, que comprende cuatro fajas de imágenes, cada una de ocho imágenes que se traslapan.

285Field Guide

Page 30: 7 conceptos fotogrametricos

Conceptos Fotogramétricos

Figura 7-13: GCPs en un Bloque de Imágenes

En este caso, los GCPs forman una red geométrica fuerte de observaciones. Como una regla general es conveniente tener por lo menos un GCP en cada tercera imagen del bloque. Adicionalmente, siempre que sea posible, se deben localizar GCPs que estén en muchas imágenes, alrededor de los bordes exteriores del bloques y a determinadas distancias unos de otros dentro del bloque.

Puntos de Amarre

Un punto de amarre es un punto cuyas coordenadas de terreno no son conocidas, pero que es reconocible visualmente en el área de traslapo entre dos o más imágenes. Las posiciones de imagen correspondientes a los puntos de amarre que aparecen en las áreas de traslapo se deben identificar y medir. Las coordenadas de terreno de los puntos de amarre se calculan durante la triangulación de un bloque. Los puntos de amarre pueden medirse manual o automáticamente.

Los puntos de amarre deben estar muy bien definidos visualmente en todas las imágenes. Idealmente ellos deberían tener un buen contraste en las dos direcciones, como ocurre con la esquina de un edificio o la intersección de dos vías. Los puntos de amarre deben estar muy bien distribuidos sobre toda el área del bloque. Es usual que se definan nueve puntos de amarre en cada imagen para obtener una adecuada triangulación del bloque. La Figura 7-14 en la página 287 muestra la localización de los puntos de amarre.

•••

••

••

286 ERDAS

Page 31: 7 conceptos fotogrametricos

Puntos de Amarre

Figura 7-14: Point Distribution for Triangulation

En un bloque de imágenes con recubrimiento longitudinal del 60% y recubrimiento lateral entre 25 y 30%, nueve puntos son suficientes para amarrar tanto el bloque como las fajas individuales (vea la Figura 7-15 en la página 287).

Figura 7-15: Tie Points in a Block

Colección Automática de Puntos de Amarre

La selección y la medición de los puntos de amarre es un proceso que consume tiempo y dinero. Así que, en los años recientes uno de los principales temas de investigación y de desarrollo en fotogrametría es la triangulación automatizada en la que la adquisición automática de puntos de amarre es el foco de atención.

De otra parte la triangulación automatizada es la identificación de puntos de control automáticamente, lo cual todavía es un tema sin resolver debido a la complicación de ese escenario. Existen resultados valiosos de la investigación realizada en el tema de la triangulación automatizada (Agouris y Schenk 1996; Heipke 1996; Krzystek 1998; Mayr 1995; Schenk 1997; Tang 1997; Tsingas 1995; Wang 1998).

y

x

Tie points in a single image

Nine tie points in each image tie the block together

Tie points

287Field Guide

Page 32: 7 conceptos fotogrametricos

Conceptos Fotogramétricos

Después de investigar las ventajas y las debilidades de los métodos existentes, IMAGINE OrthoBASE se diseñó para incorporar un método avanzado para la adquisición automática de puntos de amarre. El método está diseñado para trabajar con una variedad de imágenes digitales tales como imágenes aéreas, imágenes de satélite, imágenes de cámaras digitales e imágenes de rango cercano. También apoya el procesamiento de fajas múltiples incluyendo fajas adyacentes, fajas diagonales y fajas cruzadas.

La adquisición automática de puntos de amarre dentro de IMAGINE OrthoBASE desarrolla de manera exitosa las siguientes tareas:

• Configuración automática del bloque. Basado en los requerimientos iniciales de entrada, IMAGINE OrthoBASE detecta automáticamente la relación entre las imágenes adyacentes.

• Estación automática de los puntos de amarre. Los algoritmos de extracción de objetos puntuales se usan para extraer los candidatos a ser puntos de amarre.

• Transferencia de puntos. Los puntos que aparecen en múltiples imágenes son automáticamente ajustados e identificados.

• Detección gruesa de errores. Los puntos erróneos son identificados y removidos de la solución de manera automática.

• Selección de puntos de amarre. El número previsto de puntos de amarre definido por el usuario se selecciona automáticamente como el número final de puntos de amarre.

Las estrategias de correlación de imágenes incorporadas en IMAGINE OrthoBASE para la adquisición automática de puntos de amarre incluyen la correlación gruesa-a-fina, la correlación basada en objetos con restricciones topológicas y geométricas, la cual es una simplificación del algoritmo de correlación estructural (Wang 1998); y la correlación de mínimos cuadrados para obtener puntos de amarre de alta exactitud.

Técnicas de Correlación de Imágenes

La correlación de imágenes se refiere a la identificación y medición automática de los puntos correspondientes de la imagen que están localizados en el área de traslapo de las imágenes. Los diversos métodos de correlación de imágenes pueden dividirse dentro de tres grandes categorías:

• correlación basada en área

• correlación basada en objetos

• correlación basada en relaciones

Correlación Basada en Areas

La correlación basada en áreas también se conoce como correlación basada en señales. Este método determina la correspondencia entre dos áreas de imágenes de acuerdo a la similaridad de sus niveles de gris. La correlación cruzada y la correlación de mínimos cuadrados son técnicas bien conocidas de la correlación basada en áreas.

Ventanas de Correlación

La correlación basada en áreas usa ventanas de correlación. Estas ventanas consisten de un vecindario local de pixeles. Un ejemplo de ventanas de correlación son las ventanas cuadradas (3 × 3, 5 × 5, 7 × 7 pixeles). En la práctica, las ventanas varían en forma y dimensión de acuerdo con la técnica de correlación. La correlación de áreas usa las características de estas ventanas para ajustar las posiciones de los objetos del terreno en una imagen con las posiciones de los objetos del terreno en la otra imagen.

288 ERDAS

Page 33: 7 conceptos fotogrametricos

Técnicas de Correlación de Imágenes

Una ventana de referencia es la ventana fuente en la primera imagen, la cual permanece en una posición constante. Sus dimensiones son usualmente de tamaño cuadrado (p.e., 3 × 3, 5 × 5, etc.). Las ventanas de búsqueda son ventanas candidatas en la segunda imagen, las cuales son evaluadas con relación a la ventana en referencia. Durante la correlación, se examinan muchas ventanas de búsqueda hasta que se encuentra la posición que mejor coincide con la ventana de referencia.

Cálculos de Correlación

Enseguida se describen dos cálculos de correlación: la correlación cruzada y la correlación de mínimos cuadrados. La mayoría de los cálculos de correlación basada en áreas—incluyendo estos métodos—normalizan las ventanas de correlación. Así que no es necesario ajustar el contraste o el brillo antes de correr la correlación. La correlación cruzada es más robusta en la medida en que ella requiere una posición a priori menos exacta que la correlación de mínimos cuadrados. Sin embargo, su precisión máxima es de un píxel. La correlación de mínimos cuadrados puede alcanzar niveles de un décimo de píxel pero requiere una posición a priori bastante exacta, por lo menos igual a dos pixeles. En la práctica, la correlación cruzada es a menudo seguida por una correlación de mínimos cuadrados para obtener una alta exactitud.

Correlación cruzada

La correlación cruzada calcula el coeficiente de correlación de los niveles de grises entre la ventana que actúa como plantilla y la ventana de búsqueda de acuerdo a la siguiente ecuación:

Donde:

ρ = el coeficiente de correlacióng (c, r) = el nivel de gris del píxel (c,r)c1, r1 = las coordenadas de píxel en la imagen izquierdac2, r2 = las coordenadas de píxel en la imagen derechan = el número total de los pixeles en la ventanai, j = el índice del píxel en la ventana de correlación

Cuando se usa la correlación cruzada basada en áreas, es necesario tener una posición inicial buena para las dos ventanas de correlación. Si los parámetros de orientación exterior de las imágenes que se están correlacionando son conocidos, se puede determinar una posición inicial buena. También, si el contraste en las ventanas es muy pobre la correlación puede fallar.

ρ

g1 c1 r1,( ) g1–[ ] g2 c2 r2,( ) g2–[ ]i j,∑

g1 c1 r1,( ) g1–[ ] 2 g2 c2 r2,( ) g2–[ ]i j,∑

2

i j,∑

------------------------------------------------------------------------------------------------------=

with

g11n--- g1 c1 r1,( )

i j,∑= g2

1n--- g2 c2 r2,( )

i j,∑=

289Field Guide

Page 34: 7 conceptos fotogrametricos

Conceptos Fotogramétricos

Correlación de Mínimos Cuadrados

Esta correlación usa la estimación de mínimos cuadrados para derivar los parámetros que mejor ajustan una ventana de búsqueda a una ventana de referencia. Esta técnica ha sido investigada exhausivamente en fotogrametría (Ackermann 1983; Grün and Baltsavias 1988; Helava 1988). Esta técnica tiene en cuenta tanto las diferencias en escala de grises como las diferencias geométricas, lo cual la hace muy útil cuando los objetos en el terreno en una imagen lucen diferentes de la otra imagen (las diferencias que ocurren cuando la superficie del terreno es bastante empinada o cuando los ángulos de visión son diferentes).

La correlación de mínimos cuadrados es iterativa. Los parámetros calculados durante el paso inicial son utilizados en el cálculo del segundo paso y así sucesivamente, hasta que se obtiene una solución óptima. El ajuste de mínimos cuadrados permite obtener una exactitud de posición alta (del orden de 0.1 pixeles). Sin embargo, es muy sensitiva a las aproximaciones iniciales. Las coordenadas iniciales para la ventana de búsqueda antes de la correlación deben ser tener una exactitud por lo menos de dos pixeles.

Luego que la correlación de mínimos cuadrados ajusta la ventana de búsqueda a la ventana de referencia, se calculan tanto las transformaciones radiométricas (valores de niveles de píxel) como las transformaciones geométricas (posición, tamaño y forma de la ventana de búsqueda).

Por ejemplo, suponga que el cambio en los niveles de gris entre dos ventanas de correlación está representado por una relación lineal. También asuma que el cambio en la geometría de la ventana está representado por una transformación afín.

Donde:

c1,r1 = coordenadas del pixel en la ventana de referenciac2,r2 = coordenadas del pixel en la ventana de búsquedag1(c1, r1) = el valor de gris del píxel (c1, r1)

g2(c2, r2) = el valor de gris del pixel (c2, r2)

h0, h1 = parámetros de transformación lineal del nivel de gris a0, a1, a2 = parámetros de transformación geométrica afínb0, b1, b2 = parámetros de transformación geométrica afín

Basado en esta suposición, se puede obtener la ecuación del error para cada pixel, como se muestra enseguida:

Donde:

gc y gr = los gradientes de g2 (c2, r2)

g2 c2 r2,( ) h0 h1g1 c1 r1,( )+=

c2 a0 a1c1 a2r1+ +=

r2 b0 b1c1 b2r1+ +=

v a1 a2c1 a3r1+ +( )gc b1 b2c1 b3r1+ +( )gr h1– h2g1 c1 r1,( )– ∆g+ +=

with ∆g g2 c2 r2,( ) g1 c1 r1,( )–=

290 ERDAS

Page 35: 7 conceptos fotogrametricos

Técnicas de Correlación de Imágenes

Correlación Basada en Objetos

La correlación basada en objetos determina la correspondencia entre dos objetos. La mayoría de las técnicas basadas en objetos extraen objetos puntuales (esto se conoce como correlación de objetos puntuales), por su oposición a otros objetos, tales como líneas y u objetos complejos. Los objetos puntuales son comúnmente mencionados como puntos de interés. Las áreas de pobre contraste deben ser evitadas cuando se hace correlación basada en objetos.

Con el objeto de implementar la correlación basada en objetos, los objetos de la imagen deben ser extraídos inicialmente. Existen unos operadores muy conocidos para la extracción de objetos puntuales. Los ejemplos incluyen el operador Moravec, el operador Dreschler y el operador Förstner (Förstner y Gülch 1987, Lü 1988).

Después de que los objetos son extraídos, se comparan los atributos de los objetos entre dos imágenes. El par de objetos que tienen los atributos con el mejor ajuste se reconoce como una correlación. IMAGINE OrhoBASE utiliza el operador de interés Förstner para extraer objetos puntuales.

Correlación Basada en Relaciones

La correlación basada en relaciones también se conoce como correlación estructural (Vosselman y Haala 1992; Wang 1994 y 1995). Esta clase de técnica de correlación usa los objetos de la imagen y la relación entre los objetos. Con la correlación basada en relaciones las estructuras de imágenes correspondientes pueden ser reconocidas automáticamente, sin ninguna información a priori. Sin embargo, el proceso es bastante lento debido a que se está trabajando con tipos diferentes de información. La correlación basada en relaciones también puede ser aplicada para el reconocimiento automático de puntos de control.

Pirámide de Imágenes

Debido a la gran cantidad de datos de imágenes, la pirámide de imágenes es usualmente adoptada durante las técnicas de correlación de imágenes para reducir el tiempo de procesamiento y para incrementar la confiabilidad de la correlación. La pirámide es una estructura de datos que consiste de la misma imagen representada varias veces, a una resolución espacial menor cada vez. Cada nivel de la pirámide contiene la imagen en una resolución espacial particular.

El proceso de correlación es realizado en cada nivel de resolución. La búsqueda se realiza primero en cada nivel de resolución inferior y subsiguientemente en el nivel mas alto que le sigue en resolución. La Figura 7-16 en la página 292 muestra una pirámide de imágenes de cuatro niveles.

291Field Guide

Page 36: 7 conceptos fotogrametricos

Conceptos Fotogramétricos

Figura 7-16: Image Pyramid for Matching at Coarse to Full Resolution

Existen diferentes métodos de remuestreo disponibles para generar una pirámide de imágenes. Las investigaciones teóricas y prácticas muestran que los métodos de remuestreo basados en el filtro Gaussiano, que son aproximados por un filtro binomial, tienen propiedades superiores relativas a la preservación del contenido de la imagen y a la reducción del tiempo de cómputo (Wang 1994). De manera que, IMAGINE OrthoBASE usa este tipo de pirámide en lugar de aquellas que están disponibles actualmente en ERDAS IMAGINE, las cuales son sobreescritas automáticamente por IMAGINE OrthoBASE.

Fotogrametría Satelital

La fotogrametría satelital tiene algunas variaciones en comparación con las aplicaciones fotogramétricas asociadas con las cámaras de marco aéreas. Este documento hace referencia a los satélites SPOT y IRS-1C. El satélite SPOT proporciona imágenes pancromáticas de 10 metros e imágenes multiespectrales de 20 metros (cuatro bandas multiespectrales de información).

El satélite SPOT transporta dos sensores ópticos de alta resolución (HRV), cada uno de los cuales es un barredor de empuje que toma una secuencia de líneas de imágenes a medida que el satélite realiza su órbita alrededor de la Tierra. La longitud focal de la cámara óptica es 1,084 mm, la cual es muy grande comparada con la longitud de la cámara (78 mm). El campo de vista es 4.1 grados. La órbita del satélite es circular, norte-sur y sur-norte, aproximadamente a 830 km sobre la superficie terrestre. La órbita es helio-sincrónica y en ella la rotación orbital tiene la misma velocidad que la rotación de la tierra.

Level 2

Full resolution (1:1)

256 x 256 pixels

Level 1

512 x 512 pixels

Level 3128 x 128 pixels

Level 464 x 64 pixels

Matching begins on level 4

and

Matching finishes on level 1

Resolution of 1:8

Resolution of 1:4

Resolution of 1:2

292 ERDAS

Page 37: 7 conceptos fotogrametricos

Fotogrametría Satelital

El satélite de teledetección de India (IRS-1C) utiliza un sensor de empuje que consiste de tres CCDs individuales. La resolución de terreno de la imagen varía entre 5 y 6 metros. La longitud focal del dispositivo óptico es de aproximadamente 982 mm. El tamaño del píxel del CCD es 7 micrones. Las imágenes capturadas por los tres CCDs son procesadas independientemente o fusionadas en una imagen y corregidas para eliminar el error sistemático asociado con el sensor.

Los dos satélites SPOT y IRS-1C capturan imágenes mediante el barrido de una línea. Esta línea se conoce como línea de barrido. Por cada línea barrida por los sensores SPOT y IRS-1C, existe un centro de proyección único y un conjunto único de ángulo de rotación. La posición del centro de proyección respecto a la línea de barrido es constante para cada línea (orientación interior y longitud focal). Debido a que el movimiento del satélite es suave y prácticamente lineal a lo largo de la longitud de una escena, se asume que los centros de proyección de todas las líneas de barrido de una escena caen a lo largo de una línea recta. La Figura 7-17 en la página 293 ilustra la técnica de barrido.

Figura 7-17: Perspective Centers of SPOT Scan Lines

La estación de exposición del satélite se define como el centro de proyección en coordenadas de terreno para la línea de barrido central. La imagen capturada por el satélite se conoce como una escena. Por ejemplo, una escena SPOT Pan 1A está compuesta de 6,000 líneas. Para imágenes SPOT Pan 1A cada una de estas líneas consiste de 6,000 pixeles. Cada línea es expuesta por 1.5 milisegundos, así que toma nueve segundos barrer la escena completa. (Una escena de SPOT XS 1A está compuesta únicamente de 3,000 líneas y 3,000 columnas y tiene pixeles de 20 metros, mientras que SPOT Pan tiene pixeles de 10 metros.)

NOTA: La siguiente sección considera únicamente el escenario SPOT Pan 10 metros.

motion of satelliteperspective centers of

scan lines

scan lines on image

ground

293Field Guide

Page 38: 7 conceptos fotogrametricos

Conceptos Fotogramétricos

Un píxel en la imagen SPOT registra la luz detectada por uno de los 6,000 elementos sensitivos a la luz (detectores) de la cámara. Cada píxel está definido por coordenadas de archivo (números de columnas y filas). La dimensión física de cada uno de los elementos sensitivos a la luz es de 13 × 13 micrones. Este es el tamaño del píxel en coordenadas de imagen. El centro de la escena es el píxel central de la línea de barrido central y es el origen del sistema de coordenadas de la imagen. La Figura 7-18 en la página 294 muestra las coordenadas de imagen en una escena satelital:

Figura 7-18: Image Coordinates in a Satellite Scene

Donde:

A = origen de coordenadas de archivoA-XF, A-YF = los ejes de coordenadas de archivoC = el origen de coordenadas de imagen (centro de la escena)C-x, C-y = los ejes de coordenadas de imagen

Orientación Interior de SPOT

La Figura 7-19 en la página 295 muestra la orientación interior de una escena de satélite SPOT. La transformación entre las coordenadas de archivo y las coordenadas de la imagen es constante.

y

x

A XF

YF

C6000 lines (rows)

6000 pixels (columns)

294 ERDAS

Page 39: 7 conceptos fotogrametricos

Fotogrametría Satelital

Figura 7-19: Interior Orientation of a SPOT Scene

Para cada línea de barrida, se define un conjunto de haces de luz separado, donde:

Pk = punto de imagenxk = valor x de coordenadas de la imagen para la línea de barrido kf = longitud focal de la cámaraOk = centro de proyección para la línea de escaneo k, alineada a lo largo

de la órbitaPPk = punto principal para la línea de barrido klk = rayos de luz para la línea de barrido, unidos en el centro de

perspectiva Ok

P1

xk

O1

Ok

On

PPn

PP1

Pk

Pn xn

x1

f

f

f

l1

lk

lnP1

PPk

(N —> S)

orbiting direction

scan lines(image plane)

295Field Guide

Page 40: 7 conceptos fotogrametricos

Conceptos Fotogramétricos

Orientación Exterior de SPOT

La geometría del satélite SPOT es estable y los parámetros del sensor, tales como la distancia focal, son bien conocidos. Sin embargo la triangulación de las escenas de SPOT es algo inestable debido a que los haces de los rayos de luz son paralelos y muy estrechos.

Los datos de efemérides para la órbita se pueden leer en el archivo de encabezado de las escenas de SPOT. Ellos dan la posición del satélite, en tres dimensiones, en coordenadas geocéntricas, en incrementos de 60 segundos. El vector de velocidad y las velocidades rotacionales relacionadas con la posición de la cámara son proporcionadas, así como también el tiempo exacto de la línea de barrido central de la escena. El encabezado del archivo de datos de una escena SPOT contiene datos de efemérides, los cuales proporcionan información sobre el registro de los datos y sobre la órbita del satélite.

Los datos de efemérides que pueden ser utilizados en triangulación satelital incluyen:

• la posición del satélite en coordenadas geoocéntricas (con el origen en el centro de la tierra) al segundo más cercano

• el vector de velocidad, el cual es la dirección del viaje del satélite

• los cambios en la posición de la cámara

• el tiempo de exposición (exacto) de la línea de barrido central de la escena

Las coordenadas geocéntricas incluidas con los datos efemérides son convertidos a un sistema local de coordenadas de terreno para usarlos en la triangulación. El centro de la escena satelital es interpolado de los datos del encabezado.

Los rayos de luz en un haz definido por el sensor SPOT son casi paralelos, lo cual disminuye la importancia de la posición del satélite. Sin embargo, los datos críticos son los ángulos de inclinación (ángulos de incidencia) de las cámaras a bordo del satélite.

El escáner produce una vista nadir. El nadir es el punto directamente debajo de la cámara. SPOT tiene capacidades de visión fuera del nadir, o sea que puede tomar puntos que no estén directamente bajo el satélite, sino que están inclinado un determinado ángulo (por ejemplo, al este o al oeste del nadir).

Una escena estereoscópica se obtiene cuando dos imágenes de la misma área se adquieren en diferentes días desde órbitas diferentes, una tomada al este de la otra. Para que esto ocurra debe haber diferencias significativas en los ángulos de inclinación.

La inclinación es un ángulo entre la vertical sobre el terreno en el centro de la escena y el rayo de luz desde la estación de exposición. Este ángulo define el grado de visión fuera del nadir cuando se grabó la escena. Las cámaras pueden inclinarse en incrementos de un mínimo de 0.6 a un máximo de 27 grados hacia el este (inclinación negativa) o hacia el oeste (inclinación positiva). La Figura 7-20 en la página 297 ilustra esta inclinación:

296 ERDAS

Page 41: 7 conceptos fotogrametricos

Fotogrametría Satelital

Figura 7-20: Inclination of a Satellite Stereo-Scene (View from North to South)

Donde:

C = centro de la escenaI- = inclinación hacia el esteI+ = inclinación hacia el oesteO1, O2 = estaciones de exposición (centros de proyección de la imagen)

El ángulo de orientación de una escena de satélite es el ángulo entre la perpendicular de la línea de barrido central y la dirección norte. El movimiento espacial del satélite es descrito por el vector de velocidad. El movimiento real del satélite sobre el terreno es adicionalmente distorsionado por la rotación terrestre.

El vector velocidad de un satélite es la velocidad del satélite medida como un vector a través de un punto en el esferoide. Este vector proporciona una técnica para representar la velocidad del satélite asumiendo que el área que se capturó en la imagen es plana en lugar de ser una superficie curva (ver Figura 7-21 en la página 298).

CEarth’s surface (ellipsoid)

orbit 2orbit 1

I -

I +

EAST WEST

sensors

O1 O2

scene coverage

vertical

297Field Guide

Page 42: 7 conceptos fotogrametricos

Conceptos Fotogramétricos

Figura 7-21: Velocity Vector and Orientation Angle of a Single Scene

Donde:

O = ángulo de orientaciónC = centro de la escenaV = vector de velocidad

La triangulación en bloque del satélite proporciona un modelo para calcular la relación espacial entre el sensor satelital y el sistema de coordenadas del terreno para cada línea de datos. Esta relación es expresada como la orientación exterior, que consiste de:

• el centro de perspectiva de la línea de barrido central (es decir, X, Y y Z),

• el cambio de los centros de proyección a lo largo de la órbita,

• las tres rotaciones de la línea de barrido central (es decir, omega, phi, y kappa), y

• los cambios en los ángulos a lo largo de la órbita.

Adicionalmente, al ajuste del haz de rayos de luz hacia puntos conocidos, la triangulación de bloque satelital también tiene en cuenta el movimiento del satélite mediante la determinación de las relaciones de los centros de proyección y de los ángulos de rotación de las líneas de barrido. Se asume que el satélite viaja de acuerdo a un movimiento suave en una escena a medida que ella es barrida. Así que, luego que la orientación exterior de la línea de barrido central es determinada, la orientación exterior de cualquier otra línea es calculada basada en la distancia de dicha línea hasta la línea central y en los cambios en la posición del centro de perspectiva y de los ángulos de rotación.

El ajuste en haces para triangular una escena satelital es similar al ajuste en haces usado para imágenes aéreas. Un ajuste de mínimos cuadrados se usa para derivar unos parámetros que permite obtener el ajuste más cercano de los puntos de control a sus coordenadas de terreno conocidas y a los puntos de amarre que se intersectan.

center scan line

orbital path V

C

O

North

298 ERDAS

Page 43: 7 conceptos fotogrametricos

Fotogrametría Satelital

Los parámetros resultantes del ajuste de haces de satélite son:

• las coordenadas de terreno para el centro de proyección de la línea de barrido central

• los ángulos de rotación para la línea de barrido central

• los coeficientes, para el cálculo de centro de proyección y los ángulos de rotación de todas las otras líneas de barrido

• las coordenadas de terreno de todos los puntos de amarre

Ecuaciones de Colinearidad y Triangulación en Bloque Satelital

Para calcular los parámetros de orientación exterior asociados con las respectivas líneas de barrido en las escenas del satélite se usan ecuaciones de colinearidad modificadas. Cada línea de barrido tiene un centro de proyección único y ángulos de rotación individuales. Cuando el satélite se mueve de una línea de barrido a la siguiente estos parámetros cambian. Debido al movimiento suave del satélite en la órbita los cambios son pequeños y pueden ser modelados por funciones polinomiales de bajo orden.

Control para Triangulación en Bloque Satelital

Los puntos de amarre y los GCPs pueden utilizarse para triangulación en bloque satelital para una escena estereoscópica. Para la triangulación de una escena única se usan solamente GCPs. En este caso, se usan las técnicas de resección espacial para calcular los parámetros de orientación exterior asociados con el satélite tal como existían en el momento de captura de la imagen. Se necesita un mínimo de seis GCPs. Se recomiendan diez o más GCPs para obtener un buen resultado de triangulación.

Las mejores ubicaciones de los GCPs en la escena se muestran abajo en la Figura 7-22 en la página 299.

Figura 7-22: Ideal Point Distribution Over a Satellite Scene for Triangulation

y

xhorizontalscan lines

GCP

299Field Guide

Page 44: 7 conceptos fotogrametricos

Conceptos Fotogramétricos

Ortorectificación Como se indicó previamente, la ortorectificación es el proceso de remover los errores geométricos inherentes dentro de las fotografías y de las imágenes. Las variables que contribuyen a los errores geométricos son, entre otras, las siguientes:

• orientación de la cámara y el sensor

• errores sistemáticos asociados con la cámara y el sensor

• desplazamiento debido al relieve

• curvatura de la tierra

Mediante las técnicas de triangulación en bloque o de resección de una imagen de marco única, se definen los parámetros asociados con la cámara y el sensor. Utilizando técnicas de ajuste de mínimos cuadrados durante la triangulación en bloque se reducen los errores asociados con la inestabilidad de la cámara o sensor. Adicionalmente, el uso de técnicas de ajuste de haces autocalibrantes (SCBA) junto con la modelación de parámetros adicionales (AP) se tienen en cuenta los errores sistemáticos asociados con la geometría interior de la cámara. Los efectos de la curvatura terrestre son significativos si existe un gran bloque de fotografías o las imágenes de satélite cubren áreas extensas. Esos efectos son tenidos en cuenta durante el procedimiento de triangulación en bloque mediante la definición de la opción relevante. Los efectos del desplazamiento debido al relieve son tomados en cuenta utilizando un DEM durante el procedimiento de ortorectificación.

El proceso de ortorectificación toma las imágenes digitales crudas y aplica un DEM y los resultados de la triangulación para crear una imagen ortorectificada. Luego que una imagen ortorectificada es creada, cada píxel dentro de la imagen adquiere fidelidad geométrica. Así que las mediciones que se hacen sobre una imagen ortorectificada representan las posiciones de los objetos como si ellas fueran hechasdirectamente sobre la superficie terrestre (ver Figura 7-23 en la página 300).

Figura 7-23: Orthorectificación

DEM

Orthorectified image

300 ERDAS

Page 45: 7 conceptos fotogrametricos

Ortorectificación

Una imagen o una fotografía con una proyección ortográfica es aquella en la cual cada punto luce como si un observador estuviera mirando directamente en línea recta a través de ella, a lo largo de una línea de vista que es ortogonal (perpendicular) a la Tierra. La imagen ortorectificada resultante es conocida como ortoimagen digital (ver Figura 7-24 en la página 301).

El desplazamiento debido al relieve es corregido tomando cada píxel de un DEM y encontrando la posición equivalente en la imagen aérea o en la imagen satelital. Un valor de brillo es determinado para esta posición, basado en el remuestreo de los pixeles circundantes. El valor de brillo, la elevación, y la información de orientación exterior son usadas para calcular la posición equivalente en el archivo de la ortoimagen.

Figura 7-24: Digital Orthophoto—Finding Gray Values

Donde:

P = punto en el terrenoP1 = punto en la imagenO = centro de proyección (origen)X, Z = coordenadas del terreno (en el archivo DTM)f = distancia focal

DTM

orthoimage gray values

Z

X

Pl f

P

O

301Field Guide

Page 46: 7 conceptos fotogrametricos

Conceptos Fotogramétricos

En contraste con las técnicas de rectificación convencional la ortorectificación se basa en los datos de elevación digital, a menos que el terreno sea plano. Existen varias fuentes de datos de elevación tales como los DEM del USGS y los DEM que se crean automáticamente a partir de pares de imágenes estereoscópicas. Ellos están sujetos a la incertidumbre los datos, debido en parte a la generalización o a las imperfecciones en el proceso de creación. La calidad en la ortoimagen digital está significativamente afectada por esta incertidumbre. Para datos de imágenes diferentes, se requieren diferentes niveles de exactitud de DEMs para mantener los errores relacionados con la incertidumbre dentro de un límite controlado. Mientras que una escena de SPOT casi vertical puede usar DEMs de resolución muy gruesa, las imágenes con ángulos de incidencia muy grande necesitan mejores datos de elevación tales como los DEMs nivel 1 de USGS. Para las fotografías aéreas con una escala mayor de 1:60,000, se requieren datos de elevación con una exactitud cercana a un metro. La exactitud de un metro refleja la exactitud de las coordenadas Z en el DEMs, no la resolución de la grilla del DEM.

Una discusión detallada de los requerimientos DEM para ortorectificación se encuentra en Yang and Williams (1997). Ver apéndice Apéndice D "Bibliografia".

Los métodos de remuestreo usados son los de vecino más cercano, interpolación bilineal y convolución cúbica. Generalmente cuando los tamaños de celda de los pixeles de la ortoimagen son seleccionados ellos deben ser similares o mayores que los tamaños de celda de la imagen original. Por ejemplo si la imagen fue escaneada a 25 micrones (1,016 dpi) produciendo una imagen de 9K × 9K pixeles, un píxel debería representar 0.025 mm en la imagen. Asumiendo que la escala de imagen de esta foto es 1:40,000, entonces el tamaño de la celda en el terreno es cerca de 1 metro. Para la ortoimagen es apropiado escoger un tamaño de píxel de 1 metro o un poco más grande. Si se escoge un tamaño de pixel más pequeño se hace un sobre-muestreo de la imagen original.

Para más información, vea la Tabla 7-1 en la página 264.

Para imágenes SPOT Pan, se considera apropiado un tamaño de la celda de 10 metros. Cualquier ampliación posterior de la escena original de la ortofoto no mejora el detalle de la imagen. Para imágenes IRC-1C, se considera apropiado un tamaño de celda de 6 metros.

302 ERDAS