universidad distrital francisco josÉ de caldas facultad de...

112
UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE INGENIERÍA INGENIERÍA CATASTRAL Y GEODESIA EVALUACIÓN DE DESEMPEÑO DE DISTINTOS SOFTWARE PARA LA GENERACIÓN DE ORTOFOTOMOSAICOS A PARTIR DE IMÁGENES MULTIESPECTRALES TOMADAS CON UN VEHÍCULO AÉREO NO TRIPULADO KAREN TATIANA DUARTE JIMÉNEZ BOGOTÁ FEBRERO DE 2018

Upload: others

Post on 06-Apr-2020

4 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

FACULTAD DE INGENIERÍA

INGENIERÍA CATASTRAL Y GEODESIA

EVALUACIÓN DE DESEMPEÑO DE DISTINTOS SOFTWARE PARA LA

GENERACIÓN DE ORTOFOTOMOSAICOS A PARTIR DE IMÁGENES

MULTIESPECTRALES TOMADAS CON UN VEHÍCULO AÉREO NO TRIPULADO

KAREN TATIANA DUARTE JIMÉNEZ

BOGOTÁ

FEBRERO DE 2018

Page 2: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

2

UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

FACULTAD DE INGENIERÍA

INGENIERÍA CATASTRAL Y GEODESIA

EVALUACIÓN DE DESEMPEÑO DE DISTINTOS SOFTWARE PARA LA

GENERACIÓN DE ORTOFOTOMOSAICOS A PARTIR DE IMÁGENES

MULTIESPECTRALES TOMADAS CON UN VEHÍCULO AÉREO NO TRIPULADO

KAREN TATIANA DUARTE JIMÉNEZ

PROYECTO DE GRADO COMO REQUISITO PARCIAL PARA OPTAR AL

TÍTULO DE INGENIERO CATASTRAL Y GEODESTA

DIRECTOR

Ph. D. ERIKA SOFÍA UPEGUI CARDONA

BOGOTÁ, COLOMBIA

FEBRERO DE 2018

Page 3: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

3

NOTA DE ACEPTACIÓN

_______________________

_______________________

_______________________

_______________________

__________________________________

FIRMA DEL DIRECTOR

ERIKA SOFÍA UPEGUI CARDONA

__________________________________

FIRMA DEL JURADO

__________________________________

FIRMA DEL JURADO

BOGOTÁ D.C. FEBRERO DE 2018

Page 4: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

4

Tabla De Contenido

1. Introducción ..................................................................................................................... 8

2. Definición Del Problema .................................................................................................. 9 3. Justificación .................................................................................................................... 11 4. Objetivos ........................................................................................................................ 13

4.1. Objetivo General ........................................................................................................... 13

4.2. Objetivos Específicos .................................................................................................... 13

5. Marco Referencial .......................................................................................................... 13 5.1. Marco Teórico ............................................................................................................ 13

5.1.1. Plataformas UAV ................................................................................................ 13

5.1.2. Proceso fotogramétrico ....................................................................................... 16

5.1.3. Imágenes multiespectrales................................................................................... 26

5.1.4. Modelos Digitales De Elevación ......................................................................... 28

5.1.5. Ortofotomosaicos ................................................................................................ 28

5.2. Estado Del Arte .......................................................................................................... 29

5.3. Marco geográfico ........................................................................................................ 35

6. Materiales ....................................................................................................................... 38

6.1. Vehículo Aéreo No Tripulado .................................................................................... 38

6.2. Sensores ...................................................................................................................... 39

6.3. Antena De Recepción Topcon GR-5 .......................................................................... 40

6.4. Controlador Topcon FC 2600 ..................................................................................... 42

6.5. Navegador Garmin GPSMAP 64s .............................................................................. 42

6.6. Software De Procesamiento........................................................................................ 43

6.6.1. Mission Planner ................................................................................................... 43

6.6.2. Inpho.................................................................................................................... 44

6.6.3. Imagine Photogrammetry (LPS) ......................................................................... 45

6.6.4. Agisoft PhotoScan ............................................................................................... 46

6.6.5. Pix4D Mapper ..................................................................................................... 49

6.6.6. Drone2Map.......................................................................................................... 50

7. Metodología ................................................................................................................... 51 7.1. Fase 1: Documentación e Investigación ..................................................................... 53

7.2. Fase 2: Operativa ........................................................................................................ 54

7.3. Fase 3: Análisis ........................................................................................................... 54

8. Resultados ...................................................................................................................... 55 8.1. Proceso Fotogramétrico: Primera Etapa ..................................................................... 55

Page 5: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

5

8.2. Selección de Softwares y Trámite de Licencias ......................................................... 59

8.3. Proceso Fotogramétrico: Segunda Etapa .................................................................... 60

8.3.1. Procesado de datos con softwares convencionales ............................................. 61

8.3.2. Segundo control terrestre .................................................................................... 71

8.3.3. Procesado de datos con softwares orientados a los UAV’s ................................ 73

9. Análisis de Resultados ................................................................................................... 87

9.1. Precisión Geométrica .................................................................................................. 88

9.2. Calidad Visual ............................................................................................................ 89

9.3. Tiempo De Procesamiento .......................................................................................... 99

9.4. Facilidad De Uso ...................................................................................................... 100

9.5. Costo ......................................................................................................................... 100

10. Conclusiones ................................................................................................................ 101 11. Bibliografía................................................................................................................... 103

Índice De Figuras

Figura 1. Modelo de vuelo fotogramétrico .............................................................................. 19 Figura 2. Segmentos GNSS ...................................................................................................... 22

Figura 3. Calibración del UAV en posición horizontal y vertical ............................................ 24 Figura 4. Principio de ajuste mediante los haces de rayos producidos por los fotogramas

individuales ................................................................................................................................... 25

Figura 5. Espectro electromagnético ........................................................................................ 27

Figura 6. Proyección perspectiva de fotografía aérea cruda (izquierda), Proyección ortogonal

de una ortofoto (derecha) .............................................................................................................. 29

Figura 7. Mapa de la zona de estudio ....................................................................................... 37 Figura 8. UAV TAROT 680 PRO ............................................................................................ 38 Figura 9. Cámaras Canon PowerShot A2300 .......................................................................... 40

Figura 10. Energía electromagnética percibida por el sensor .................................................. 40 Figura 11. Receptor Topcon GR-5 ........................................................................................... 41 Figura 12. Controlador Topcon FC 2600 ................................................................................. 42 Figura 13. Navegador Garmin GPSMAP 64s .......................................................................... 43

Figura 14. Flujo metodológico ................................................................................................. 52 Figura 15. Plan de vuelo ........................................................................................................... 56

Figura 16. Control terrestre ...................................................................................................... 57 Figura 17. Toma de GCP (marcas físicas artificiales) en campo ............................................. 57 Figura 18. Fotografías aéreas en condiciones de neblina ......................................................... 58 Figura 19. UAV en ejecución del vuelo y en aterrizaje ........................................................... 58 Figura 20. Datos GPS/IMU registrados en un vuelo ................................................................ 59

Figura 21. Distribución de GCP ............................................................................................... 60 Figura 22. Definición de parámetros de la cámara en Inpho ................................................... 62 Figura 23. Importación de datos GPS/IMU y asignación de desviaciones en Inpho ............... 63

Figura 24. Importación de coordenadas de GCP y asignación de desviaciones en Inpho ....... 63

Page 6: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

6

Figura 25. Asignación de fotografías correspondientes por línea de vuelo en Inpho .............. 64 Figura 26. Visualización de líneas de vuelo, fotografías y GCP en Inpho .............................. 64 Figura 27. Localización de los GCP en Inpho ......................................................................... 65 Figura 28. Inicialización de la orientación externa en Inpho ................................................... 66

Figura 29. Error en ajuste fotogramétrico en Inpho ................................................................. 66 Figura 30. Alteración en la visualización de líneas de vuelo, fotografías y GCP en Inpho ..... 67 Figura 31. Definición de parámetros de la cámara en LPS ...................................................... 68 Figura 32. Carga de datos GPS/IMU por fotografía en LPS .................................................... 68 Figura 33. Localización de los GCP en LPS ............................................................................ 69

Figura 34. Visualización de GCP y fotografías en LPS ........................................................... 69 Figura 35. Error en la generación automática de puntos tie en LPS ........................................ 70 Figura 36. Error en triangulación en LPS ................................................................................ 70 Figura 37. Toma de GCP (marcas físicas naturales) en campo ............................................... 72

Figura 38. Carga de datos GPS/IMU por fotografía en Agisoft PhotoScan ............................ 74 Figura 39. Parámetros de la cámara detectados por Agisoft PhotoScan .................................. 75

Figura 40. Proceso en Agisoft PhotoScan para el Vuelo 2 RGB con GCP preseñalizados ..... 77 Figura 41. Proceso en Agisoft PhotoScan para el Vuelo 2 RGB con GCP preseñalizados y

fotoidentificados ........................................................................................................................... 78

Figura 42. Proceso en Agisoft PhotoScan para el Vuelo 2 NIR G B con GCP preseñalizados 78 Figura 43. Carga de datos GPS/IMU por fotografía en Pix4D Mapper ................................... 79

Figura 44. Definición de parámetros de la cámara en Pix4D Mapper ..................................... 80 Figura 45. Proceso en Pix4D Mapper para el Vuelo 2 RGB con GCP preseñalizados ........... 82 Figura 46. Proceso en Pix4D Mapper para el Vuelo 2 RGB con GCP preseñalizados y

fotoidentificados ........................................................................................................................... 82 Figura 47. Proceso en Pix4D Mapper para el Vuelo 2 NIR G B con GCP preseñalizados ..... 83

Figura 48. Carga de datos GPS por fotografía en Drone2Map ................................................ 84 Figura 49. Proceso en Drone2Map para el Vuelo 2 RGB con GCP preseñalizados ................ 86

Figura 50. Proceso en Drone2Map para el Vuelo 2 RGB con GCP preseñalizados y

fotoidentificados ........................................................................................................................... 86

Figura 51. Proceso en Drone2Map para el Vuelo 2 NIR G B con GCP preseñalizados ......... 87 Figura 52. Comparación de ortofotomosaicos obtenidos del Vuelo 2 RGB con GCP

preseñalizados ............................................................................................................................... 90 Figura 53. Comparación de ortofotomosaicos obtenidos del Vuelo 2 RGB con GCP

preseñalizados y fotoidentificados ................................................................................................ 91 Figura 54. Comparación de ortofotomosaicos obtenidos del Vuelo 2 NIR G B con GCP

preseñalizados ............................................................................................................................... 92

Índice De Tablas

Tabla 1. Características de UAV TAROT 680 PRO ............................................................... 38 Tabla 2. Especificaciones de la cámara Canon PowerShot A2300 ......................................... 39 Tabla 3. Especificaciones generales del receptor Topcon GR-5 ............................................. 41 Tabla 4. Especificaciones físicas y de rendimiento del navegador Garmin GPSMAP 64s .... 43 Tabla 5. Funcionalidades por módulo en Inpho ...................................................................... 45 Tabla 6. Funcionalidades de Agisoft PhotoScan en Versión Estándar y Versión Profesional 48

Page 7: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

7

Tabla 7. Requisitos mínimos y recomendados del sistema para el uso de Drone2Map ......... 50 Tabla 8. Parámetros para la planeación del vuelo ................................................................... 55 Tabla 9. Coordenadas de los GCP preseñalizados .................................................................. 60 Tabla 10. Características de los equipos usados en la ejecución de los paquetes

fotogramétricos ............................................................................................................................. 61 Tabla 11. Número de fotografías identificadas para cada GCP .............................................. 71 Tabla 12. Características y coordenadas de los GCP fotoidentificados .................................. 72 Tabla 13. Parámetros usados en el procesamiento de Agisoft PhotoScan .............................. 78 Tabla 14. Parámetros usados en el procesamiento de Pix4D Mapper ..................................... 83

Tabla 15. Parámetros usados en el procesamiento de Drone2Map ......................................... 87 Tabla 16. RMSE de GCP y reproyección de acuerdo al software y proceso .......................... 89 Tabla 17. Comparación de errores visuales para los ortofotomosaicos en RGB .................... 93 Tabla 18. Comparación de errores visuales para los ortofotomosaicos en NIR G B .............. 94

Tabla 19. Información de los subprocesos y producto final ................................................... 96 Tabla 20. Imágenes calibradas por procesamiento.................................................................. 97

Tabla 21. Visualización de calibración de imágenes en los modelos de Pix4D Mapper y

Drone2Map ................................................................................................................................... 98 Tabla 22. Tiempos de procesamiento ...................................................................................... 99

Page 8: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

8

1. Introducción

El creciente y constante avance tecnológico ha incursionado en las últimas décadas en la

creación de nuevas técnicas fotogramétricas mediante el desarrollo de Vehículos Aéreos No

Tripulados; sistemas con ventajas y resultados excepcionales en contraste con las técnicas

tradicionales que parten del uso de plataformas aéreas tripuladas, tales como datos espaciales

precisos, generación de datos de forma periódica, bajo costo, aplicaciones en inspección,

reconocimiento y cartografía con alta resolución espacial y temporal (Uysal, Toprak, & Polat,

2015), captura de imágenes aéreas en zonas de difícil acceso o inaccesibles (Peternel, Kumelj,

Oštir, & Komac, 2017), facilidad de despliegue en campo de los puntos de control terrestres y

medición de los mismos al usarse típicamente esta clase de vehículos para escalas espaciales más

pequeñas que en los levantamientos aéreos convencionales (James, Robson, d’Oleire-Oltmanns,

& Niethammer, 2017), y finalmente su significancia como medio complementario entre las

adquisiciones terrestres y aéreas clásicas (Popescu, Iordan, & Păunescu, 2016), entre otros.

En conjunto y paralelo al desarrollo de tecnologías para la captura de fotografías aéreas, surge

el progreso de paquetes de software fotogramétricos con compilación de los principios de la

fotogrametría digital tradicional y un énfasis hacia el procesamiento de datos capturados con

Vehículos Aéreos No Tripulados (Gonçalves & Henriques, 2015), fundamentados mediante un

algoritmo conocido como “estructura del movimiento” para la identificación de patrones en las

imágenes e impulsado por una lógica de producción automatizada (Turner, Harley, & Drummond,

2016), que permite una reducción de tiempo de hasta un 80% en comparación con métodos

tradicionales (P. Zarco, Diaz, Angileri, & Loudjani, 2014).

Page 9: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

9

En este trabajo de grado se aplicaron procesos fotogramétricos desde trabajos de campo en el

Parque Nacional Natural Chingaza con la toma de fotografías aéreas multiespectrales capturadas

por un Vehículo Aéreo No Tripulado TAROT 680 PRO equipado con cámaras digitales Canon

PowerShot A2300 y la toma de datos de puntos de control terrestres, hasta trabajos de oficina con

el procesamiento de imágenes para la reconstrucción de geometría tridimensional de la escena,

georreferenciación, generación de Modelos Digitales de Superficie y finalmente ortofotomosaicos;

esto mediante el uso de diferentes softwares tanto convencionales como orientados a Vehículos

Aéreos No Tripulados a modo de comparación en resultados como la precisión geométrica y

calidad visual, y factores intrínsecos de los mismos como el costo, la facilidad de uso y el tiempo

de procesamiento.

2. Definición Del Problema

“Actualmente, los sensores remotos aéreos y satelitales son formas comunes para adquirir datos

de monitoreo de recursos naturales en la mayoría de países, pero ellos no son lo suficientemente

efectivos, rápidos y exactos” (Xing, Wang, & Xu, 2010),esto debido a que el procesamiento de los

datos no se da en tiempo real, esto es, las imágenes generalmente se procesan fuera de línea en su

llegada a la estación terrestre (en el caso de los satélites) o después del aterrizaje (Wischounig &

Rinner, 2015), sumado al hecho de que cada vez se requieren datos con mayor resolución espacial

para múltiples aplicaciones. Adicional a ello, “la adquisición de imágenes por parte de satélites y

vehículos aéreos tripulados muestra algunas limitaciones, como los altos costos de

lanzamiento/vuelo, adquisición de datos lenta y dependiente del clima, maniobrabilidad restringida

y disponibilidad limitada”(Cesetti et al., 2011).

Page 10: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

10

Tal y como lo expresan Hunt et al., 2010 el costo elevado en la adquisición de imágenes por

medio de vehículos aéreos tripulados se debe principalmente al uso de cámaras de formato amplio,

que evidentemente poseen un costo mayor que las cámaras convencionales debido a su propósito.

Además de “la dificultad técnica implicada en la captura de imágenes frecuentes de un área

geográfica determinada”(Zarco et al., 2008). Es así, que para solventar los inconvenientes que

poseen las técnicas de adquisición de imágenes tradicionales (costo, tiempo, detalle), este proyecto

de grado pretende hacer uso de un Vehículo Aéreo No Tripulado (cuyas siglas en inglés son UAV)

para llevar a cabo un levantamiento fotogramétrico.

En general, y teniendo en cuenta las principales desventajas de la adquisición de imágenes por

plataformas aéreas y satelitales, se optará por realizar este levantamiento en una zona cuyas

condiciones medioambientales hacen difícil la obtención de imágenes por métodos

convencionales, para así demostrar si los UAV son una alternativa para la toma de datos en esta

clase de condiciones, tal y como lo describen distintos trabajos (Xing et al., 2010).

De tal forma, y con base en la afirmación de Hunt et al., 2010 se usará una cámara convencional

a bordo de un UAV para la captura de imágenes multiespectrales en el páramo de Chingaza, más

específicamente con centro en las coordenadas 4º44’52.23’’ N, 73º51’19.38 W con un área de

estudio aproximada de una hectárea. Se escoge esta zona, principalmente por las condiciones

climáticas que impiden realizar un monitoreo constante de una zona endémica y de vital

importancia para la preservación del recurso hídrico, sumado al hecho que se trata de una extensión

con cobertura vegetal significativa y que acorde a la revisión bibliográfica, tal condición limita la

obtención de productos cartográficos libres de error, dada la complejidad de llevar a cabo la

correspondencia de imágenes en la cual se basa la actual fotogrametría digital, de esta manera se

Page 11: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

11

espera evaluar la posibilidad de lograr productos con buena precisión a partir de imágenes tomadas

con UAV en una zona que trae complicaciones como esta.

Como resultado se busca obtener un mosaico de ortofotos generadas con las imágenes

capturadas de este levantamiento, esto gracias al procesamiento en cinco softwares

fotogramétricos con el fin de demostrar que este método de adquisición de imágenes permite

generar diferentes productos cartográficos. Finalmente, y con el fin de realizar una aproximación

a un usuario interesado por cualquier ortomosaico generado con imágenes tomadas por un UAV,

se realizará una comparación en cuanto a las características obtenidas de cada producto en los

softwares usados, a fin de establecer acorde a las necesidades y características particulares del

usuario, cuál sería el software más adecuado para tal obtención.

3. Justificación

Los UAV’s son vehículos motorizados de control remoto que pueden ser manejados de forma

autónoma o semi-autónoma, por lo que la principal diferencia respecto a otros vehículos es la

ausencia de un piloto dentro del vehículo, sin embargo se requiere de una tripulación responsable

de este. Por ende, la fotogrametría de UAV puede ser entendida como una nueva herramienta de

medición fotogramétrica que hace uso de una plataforma controlada de forma remota, bien sea de

una forma automática o semi-automática (Eisenbeiß, 2009), o también, vista como un

complemento a la fotogrametría de aviones tripulados con la capacidad de disponer de soluciones

rápidas sin mayor infraestructura alguna (Gomez & Purdie, 2016). No obstante, Uysal et al., 2015

afirman que el uso de los UAV’s se establece como una alternativa a la captura tradicional de datos

dirigida a aplicaciones cartográficas con alta resolución espacial y temporal, además de representar

bajos costos con respecto a la fotogrametría clásica. En este sentido, ante a la creciente demanda

Page 12: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

12

de adquisición de imágenes aéreas con alta resolución, y la dificultad de uso y consumo de tiempo

explicados por la carencia de información auxiliar suficientemente precisa (Gross & Heumann,

2016), se ha revolucionado actualmente el sector aeroespacial con la aplicación de los UAV’s

como solución a las falencias mencionadas en términos de adquisición y procesamiento de datos

espaciales (Fernández & Gutiérrez, 2016), esto en conjunto con las demás ventajas características

de tales vehículos como lo son: el acceso a entornos peligrosos para la vida humana, la inexistencia

de permisos de control aéreos para vuelos de baja altitud en gran parte de los países, la obtención

de productos y datos de posicionamiento con alta calidad y precisión (Xing et al., 2010), la

habilidad para adquirir económica y sistemáticamente conjuntos de fotografías aéreas en altitudes

entre los 10 y los 100 metros (Vollgger & Cruden, 2016), la minimización de los errores humanos

reduciendo de esa manera posibles accidentes, la maniobrabilidad de alto rendimiento, amplio

rango de uso (Vogeltanz, 2016) en inspección, vigilancia, reconocimiento y cartografía en tiempo

real; hace que la fotogrametría con UAV sea no sólo importante en la geomática sino también en

otras disciplinas (Uysal et al., 2015), ejemplo de ello es su aplicación en los ámbitos forestales,

agrícolas, medioambientales, arqueológicos y arquitectónicos, en gestión de emergencias y

vigilancia del tráfico (Nex & Remondino, 2014).

Dada la amplia utilización de las imágenes adquiridas con UAV’s, y los diferentes softwares

propuestos en el mercado, este trabajo de grado busca evaluar el rendimiento y desempeño para la

generación de productos cartográficos en cinco softwares fotogramétricos, a saber, Inpho, Imagine

Photogrammetry (LPS), Agisoft PhotoScan, Pix4D Mapper y Drone2Map, a través de la

evaluación de los ortofotomosaicos producidos, esto basado en el avance computacional de los

últimos años que ha permitido la incursión de la fotogrametría con UAV (James et al., 2017).

Page 13: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

13

4. Objetivos

4.1. Objetivo General

Evaluar el desempeño de distintos softwares para la generación de ortofotomosaicos a partir

de imágenes multiespectrales tomadas con un vehículo aéreo no tripulado.

4.2. Objetivos Específicos

1. Realizar las actividades relativas a la señalización y materialización de los puntos de control

terrestres, que permitirán realizar posteriormente el ajuste de las imágenes capturadas de la

zona de estudio.

2. Obtener un ortomosaico desarrollado en cinco softwares fotogramétricos (a saber Inpho,

Imagine Photogrammetry (LPS), Agisoft PhotoScan, Pix4D Mapper y Drone2Map) a partir

del levantamiento realizado en la zona de estudio.

3. Realizar una comparación cuantitativa y cualitativa entre los productos cartográficos

obtenidos por cada software acorde a las características propias de éstos con fines de la

elección del usuario a adquirir los productos cartográficos obtenidos por este medio.

5. Marco Referencial

5.1. Marco Teórico

5.1.1. Plataformas UAV

Las plataformas UAV en su habilidad para la adquisición de fotografías aéreas a resoluciones

que no pueden lograrse por medio de las técnicas tradicionales (Vollgger & Cruden, 2016); dados

los vuelos a altitudes significativamente más bajas en un orden de menos de 100 metros sobre el

Page 14: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

14

nivel del suelo para unas resoluciones espaciales finas de hasta 1 centímetro (Gross & Heumann,

2016), hacen que su uso se haya intensificado específicamente en las geociencias (Vollgger &

Cruden, 2016). Sumado al hecho de que los UAV son una alternativa efectiva en términos de

costos para el proceso de adquisición de imágenes (Gross & Heumann, 2016); siendo menos

costosas las plataformas y los costos operativos que los aviones tripulados por lo general

(Eisenbeiß, 2009), que pueden acceder a zonas peligrosas o de difícil acceso para las aeronaves

tripuladas (Gross & Heumann, 2016), que aún en condiciones de tiempo nublado es posible la

adquisición de datos en caso que la distancia al objeto permita volar por debajo de las nubes;

situación que bajo las mismas condiciones climáticas y el uso de aviones tripulados no permitiría

la captura de datos al requerirse una mayor altura de vuelo sobre el suelo (Eisenbeiß, 2009).

Adicionalmente, la facilidad para la medición en campo y despliegue de los puntos de control

terrestres al usarse en áreas significativamente menores que en el caso de los levantamientos

convencionales (James et al., 2017), y finalmente su capacidad para la consecución rápida de datos

y en tiempo real a la estación de control terrestre (Eisenbeiß, 2009), hacen que los UAV sean

ampliamente utilizados actualmente.

En este sentido, “los UAV’s se presentan como tecnologías muy prometedoras que seguirán

influyendo en el desarrollo de la geomática en los próximos años, cerrando la brecha entre

adquisiciones terrestres y aéreas clásicas” (Popescu et al., 2016). De esta manera la combinación

de métodos fotogramétricos con los UAV’s proporcionan los datos necesarios para la creación de

productos cartográficos como Modelos Digitales de Superficie (DSM), Modelos Digitales de

Elevación (DEM) (Gomez & Purdie, 2016), nubes de puntos en 3D (Yucel & Turan, 2016), mapas

topográficos con alta precisión usados para levantamientos catastrales (Lee & Sung, 2016), así

como para la rectificación de imágenes y sus derivados que bien pueden ser mosaicos de imágenes

Page 15: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

15

o mapas utilizados en la interpretación de imágenes (Eisenbeiß, 2009). De acuerdo a

Nikolakopoulos, Soura, Koukouvelas, & Argyropoulos, s. f. los estudios demuestran que los

productos en mención pueden lograr una gran exactitud y ser usados para realizar mediciones

precisas pese a las fuentes de error que pueden incluir los trabajos basados en UAV’s; y es así que

en esencia, para la adquisición de datos espaciales de forma productiva y segura se debe hacer

desde el diseño planificado y de la inclusión de capacidad flexible de gestión de misión en tiempo

real, los instrumentos a emplear para su consecución (Colomina & Molina, 2014), Dichos

elementos, representan un papel trascendental en la automatización del procesamiento de datos,

que permiten la reducción de esfuerzo y tiempos invertidos en los procesos (Popescu et al., 2016).

Por otro lado y acorde a las aplicaciones geomáticas, los UAV’s pueden clasificarse en

consonancia a su motor o sistema de propulsión en plataformas sin potencia y plataformas

accionadas, y alternativamente según sus características aerodinámicas y físicas en plataformas

más ligeras que el aire, de ala rotativa (Nex & Remondino, 2014); vehículos de despegue y

aterrizaje verticales (Gabrlik, 2015), y de ala fija (Nex & Remondino, 2014); siendo estos dos

últimos tipos de plataformas distinguidos por sus capacidades de alcance, donde los UAV’s de ala

rotativa poseen un corto alcance (hasta de 2 Km) y son utilizados para misiones de escala local, en

contraste a los UAV’s de ala fija que son caracterizados por una precisión de largo alcance (Gomez

& Purdie, 2016) con un rango de hasta decenas de kilómetros (Gabrlik, 2015); por lo que en una

escala regional su uso es más apropiado al permitir la cobertura de grandes áreas en un corto

periodo de tiempo (Gomez & Purdie, 2016). Cabe adicionar que autores como Bemis et al., 2014

afirman que “para estudios que requieren una alta resolución, los UAV’s de ala rotativa tienen

ventajas significativas respecto a los UAV’s de ala fija, porque estos pueden volar a alturas

excepcionalmente bajas con cámaras que son generalmente de mayor calidad (respecto al tamaño

Page 16: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

16

del vehículo) montadas en una plataforma estable”. Sin embargo, se destaca de los UAV’s de ala

fija su estabilidad inherente y su fácil maniobrabilidad; siendo controlados remotamente sin

ninguna estabilización, esto en comparación con los de ala rotativa cuyas turbinas no son estables

y hacen necesario el uso de algún tipo de sistema de estabilización ya sea mecánico o electrónico

(Gabrlik, 2015).

Adicional a lo anterior, los UAV se pueden clasificar de acuerdo al tamaño o peso, altura

máxima de vuelo, duración del mismo y resistencia; donde el último aspecto se encuentra

influenciado por la autonomía del vuelo, la disponibilidad del enlace del radio para controlar el

avión y el enlace de telemetría; en clases de micro, mini, clases de corto, medio y largo alcance,

así como de baja, media y alta altitud (Eisenbeiß, 2009).

Teniendo en cuenta las características previas en mención no se puede obviar el hecho que el

uso de los UAV’s como herramienta para la captura de imágenes se encuentra aún limitada, ya

sea por la propias limitaciones técnicas de los mismos como es el caso del rango o capacidades de

vuelo, por la necesidad de contar aún con puntos de control terrestres para la obtención de una alta

precisión, por las más recientes leyes de aviación debido al auge de los vehículos aéreos citados,

o por las condiciones de luz y climáticas (Gomez & Purdie, 2016); o en general influencias

ambientales que inciden en la alteración de los ángulos de posición que ocasionan vistas en

perspectivas arbitrarias (Wischounig & Rinner, 2015).

5.1.2. Proceso fotogramétrico

La fotogrametría siendo por lo general, una rama de la ciencia orientada al procesamiento de

información a partir de fotografías, se ocupa de la reconstrucción de formas, medición del tamaño

y posición de los objetos visibles en las mismas. De ésta se desencadena no solamente la

Page 17: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

17

fotogrametría aérea en sus clases sino que también se encuentra la fotogrametría que utiliza datos

terrestres o fotográficos espaciales, haciendo así uso de diversas tecnologías y métodos de

procesamiento que han marcado una progresión histórica partiendo desde técnicas analógicas y

analíticas hasta técnicas digitales y automáticas (Gabrlik, 2015).

En lo concerniente a la teledetección; definida como aquella técnica que “supone la observación

exterior de la superficie terrestre” (Chuvieco, 1995) a distancia y posible gracias a algún tipo de

interacción existente entre los objetos y el sensor a través de un flujo energético que constituye

una forma de radiación electromagnética. En sus orígenes espaciales se tenían factores

diferenciales frente a la fotogrametría aérea, siendo el caso que en teledetección los sensores CCD

(Dispositivos de Acoplamientos de Cargas) permitían el trabajo en una amplia gama de radiaciones

en el espectro electromagnético, mientras que en fotogrametría las cámaras analógicas usadas para

entonces se limitaban al espectro visible únicamente. En cuanto a la resolución espacial para la

fotogrametría la altura de vuelo y calidad fotográfica hacía que ésta alcanzara un valor inferior a

0,10 m; muy por debajo de la teledetección que contaba con valores superiores a 10 m por su

dependencia del tipo de sensor y los parámetros orbitales de los satélites. Hoy en día la concepción

entre estos términos es otra, pues se reconoce que la fotogrametría hace parte de la teledetección

y la evolución sobre estos ha hecho que los factores diferenciales en mención desaparezcan, esto

a causa de que la fotogrametría ha incorporado sensores CCD y que la teledetección ha alcanzado

resoluciones espaciales inferiores al metro (Hernández, 2006).

Haciendo énfasis en la fotogrametría aérea, Gabrlik, 2015 sostiene que hablar de su desarrollo

requiere remontarse a más de cien años atrás con la toma de las primeras fotografías en globos de

aire caliente y aviones tripulados que permitieron el progreso técnico constante, a tal punto que,

en la actualidad difícilmente se encuentra un lugar en la Tierra que no haya sido mapeado, lo

Page 18: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

18

anterior gracias a la implementación de satélites, aviones tripulados diseñados con fines

cartográficos y más recientemente de manera innovadora el uso de los UAV’s como una alternativa

para mapear rápidamente un área local con bajos costos (Gabrlik, 2015), sin embargo su desarrollo

inicial estaba dirigido a aplicaciones militares con el objeto de realizar inspecciones no tripuladas,

vigilancia y reconocimiento de la cartografía en áreas enemigas, y sólo hace tres décadas se

realizaron las primeras aplicaciones civiles y geomáticas que impulsaron en gran medida la mejora

de las plataformas, tecnologías de comunicación y software, la posibilidad de sus aplicaciones y

la implementación de estas plataformas como un elemento común para la adquisición de datos

(Nex & Remondino, 2014); adicional a ello “la evolución de los UAV’s a lo largo del siglo XX y

principios del siglo XXI no ha sido el concepto de vehículos aéreos sin pilotos, sino la posibilidad

de controlarlos con mayor precisión y tenerlos más autónomos” (Gomez & Purdie, 2016).

Acorde al procedimiento general para la toma y procesamiento de imágenes aéreas Cepero,

2015 sostiene que el flujo de trabajo se basa en cuatro puntos fundamentales como sigue:

1. Plan de vuelo: Con el fin de garantizar una operación exitosa es indispensable la

planificación del vuelo fotogramétrico que depende del tipo de aplicación, de los detalles

a capturar en la zona de vuelo (Eisenbeiß, 2009) y con ello la resolución espacial o escala

que se pretenda obtener dados por la altura de vuelo, la definición de la ruta, velocidad de

ascenso o desplazamiento, inclinación de la cámara, punto de captura de la fotografía

(Cepero, 2015), líneas de vuelo y su longitud media (Claros, Guevara, & Pacas, 2016), así

como la definición de superposición o traslape de imágenes; siendo común en los planes

de misión para la fotogrametría con UAV’s una superposición grande con un 80% para la

longitudinal o frontal y en un rango de 60-80% para la transversal o lateral (Figura 1), esto

como compensación a la inestabilidad de la aeronave (Colomina & Molina, 2014) y

Page 19: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

19

garantía de una fácil detección de los puntos de unión a utilizar en la orientación de

imágenes (Saleri et al., 2013). Además de ajustar el plan de vuelo a las condiciones de

viento de la zona en el momento de llevarlo a cabo, pues su gestión en tiempo real cumple

un papel clave en este primer proceso (Colomina & Molina, 2014).

Figura 1. Modelo de vuelo fotogramétrico

Fuente: (Claros et al., 2016)

2. Apoyo Topográfico: Se hace necesaria la obtención de posiciones precisas sobre el terreno

para lograr una georreferenciación acertada del producto a obtener, principal fundamento

para usar puntos sobre el terreno que puedan identificarse fácilmente en las fotografías

aéreas asegurando una correcta correlación y una minimización de errores (Cepero, 2015)

debido a la imprecisión del Sistema de Posicionamiento Global (GPS) de metros a

centímetros (Claros et al., 2016). Las anteriores posiciones son conocidas como puntos de

control terrestre (GCP, por sus siglas en inglés) que hacen referencia a marcas físicas ya

sean naturales o artificiales establecidas de forma uniforme en el área de estudio y sobre

las cuales se realiza la toma de datos de su posición (Gabrlik, 2015) planimétrica y

altimétrica. Estas posiciones permiten obtener las coordenadas a utilizar como

Page 20: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

20

comprobación de la precisión y cubrimiento a los fallos en la técnica fotogramétrica (Claros

et al., 2016).

Sobre el número de los GCP Claros et al., 2016 afirman que la cantidad depende o se

encuentra en función de la precisión relativa de las coordenadas de las fotografías, sin

embargo sostienen que en términos generales para realizar el ajuste se necesitan como

mínimo tres GCP y en caso de tratarse de proyectos grandes se hace la recomendación del

uso de 5 a 10; aclarándose que el hecho de hacer uso de más puntos no implica una mejora

representativa en los resultados a obtener así como tampoco los afecta de forma negativa

(Claros et al., 2016). En este orden de ideas, lo que se busca además de georreferenciar las

imágenes es contar con un número suficiente de GCP; dados también por la complejidad

del área de estudio, que permitan derivar nubes de puntos de alta calidad útiles para la

adquisición de características y análisis que tengan cabida en el proyecto desarrollado (Nex

& Remondino, 2014).

Haciendo alusión a la toma de datos, pero no sin antes enfatizar en las dos clases de

georreferenciación aplicadas a la técnica fotogramétrica y denominadas como directa e

indirecta, se acentúa entre ellas la distinción de la interacción con el área medida. La

georreferenciación directa es una medición sin contacto con el área de estudio; útil en zonas

inaccesibles o peligrosas, y posible gracias a los sensores a bordo que permiten la obtención

de la orientación exterior, la precisión alcanzada para las coordenadas obedece a la

precisión con la que cuentan los sensores a bordo. Generalmente los sensores en mención

con los que cuentan los UAV’s son receptores de Sistema Global de Navegación Satelital

por Cinemática en Tiempo Real (RTK GNSS) que permiten una precisión al orden del

centímetro (Popescu et al., 2016); así como también se presentan para el caso de los micro

Page 21: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

21

UAV’s receptores GNSS de bajo costo o comúnmente GPS con precisión en su posición

en unidades de metros, sumado a una Unidad de Medición Inercial (IMU) (Gabrlik, 2015)

equipada con acelerómetros y giroscopios para llegar a una precisión de orientación al

orden de hasta pocas décimas de grado (Popescu et al., 2016). Por su parte la

georreferenciación indirecta necesita de los GCP, del conocimiento de sus posiciones para

determinar la orientación y por ende del contacto o interacción con el área (Gabrlik, 2015);

datos que pueden ser adquiridos también mediante equipos de GNSS.

Explícitamente y sobre el término GNSS, se trata de una serie de sistemas de

posicionamiento por satélite que consta de tres componentes fundamentales (Figura 2): el

segmento espacial, el segmento de control y el segmento de usuario. El primero consiste

en satélites GNSS en órbita alrededor 20.000 kilómetros sobre la tierra y acondicionados

para proporcionar una adecuada cobertura, emitiendo una señal que los identifica y

brindando sus datos con respecto al tiempo, órbita y estado. El segmento de control

comprende una red terrestre de estaciones maestras de control, estaciones de carga de datos

y estaciones de monitoreo donde el flujo de trabajo entre ellas consiste en captar las señales

y estado de los satélites; esto por parte de las estaciones de monitoreo, y transmitir la

información a las estaciones maestras de control donde se realiza el ajuste y corrección de

los parámetros de la órbita de los satélites y relojes de alta precisión a bordo para que en

últimas sean enviados a los satélites por medio de las estaciones de carga de datos. Para

terminar, el segmento de usuario se refiere a los equipos procesadores de las señales

recibidas de los satélites GNSS para llegar a la información de ubicación o posición

(NovAtel, s. f.).

Page 22: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

22

Figura 2. Segmentos GNSS

Fuente: (NovAtel, s. f.)

En relación al método de posicionamiento RTK, éste consiste en un sistema de

referencia relativo o diferencial donde al menos es necesario contar simultáneamente con

dos equipos para llevar a cabo las mediciones y a partir de ellos se determina la distancia

o diferencia posicional, generalmente se aplica este método en posicionamientos

cinemáticos en el cual se da lugar a la determinación de las coordenadas en tiempo real

acorde a la situación de uno de los equipos o antenas que estará en movimientos superiores

a la precisión del sistema (1 o 2 cm + 1 ppm); el anterior es conocido como receptor móvil

o también rover a diferencia de la otra antena que actúa como receptor fijo en modo estático

sobre un punto con coordenadas conocidas (Farjas, s. f.). La técnica consiste en primer

lugar de cerciorarse de la recepción de señal de como mínimo cuatro satélites, a mayor

disponibilidad de satélites mejores resultados posicionales, sin embargo se trata de una

condición limitada por cada receptor de acuerdo a sus capacidades de potencia

computacional para utilizar satélites adicionales (NovAtel, s. f.), consecuentemente se

ubica el receptor fijo cuyo radio módem cumple la funcionalidad de transmitir los datos de

Page 23: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

23

observación por ondas de radio al receptor móvil y que guardará en su unidad de control

registrando cada uno de los puntos tomados donde se ha posicionado el rover (Cardozo &

Arenas, 2016).

3. Toma fotográfica: El paso a seguir es la implementación del plan de vuelo siguiendo la

ruta creada para la captura de las imágenes (Cepero, 2015), para ello se debe realizar la

preparación del equipo, despegue y aterrizaje. Hace parte de la preparación del equipo la

revisión de la correcta instalación de sus componentes, revisión del estado de batería del

control y del dispositivo móvil, ubicación de la hélices del UAV, configuración de la

cámara, instalación de la tarjeta de memoria para el almacenamiento de las fotografías,

disposición de control, conexión del software para la operación del vehículo y calibración

del mismo mediante el giro de 360º de modo horizontal y vertical (Figura 3) con fines de

un eficaz desempeño durante el vuelo, ante la observación de una deriva considerable

durante el vuelo y la carencia de una trayectoria del UAV en línea recta se debe realizar

una recalibración. Sumado a lo anterior y previo al despegue también se requiere corroborar

la correcta disposición de señal del GPS del UAV, ya que si hay una lectura errónea de las

coordenadas el vehículo podría volar en dirección aleatoria; condición dada en entornos

con interferencia por su cercanía a estructuras metálicas o grandes construcciones, por lo

que es recomendable realizar los vuelos en espacios abiertos así como el proceso de

calibración mencionado anteriormente. Por último y estando en condiciones aptas para el

vuelo la aplicación o software a usar hace envío de la misión de vuelo al UAV manteniendo

la conexión entre sí para poder activar la cámara consecutivamente, se ha de realizar el

despegue, elevación y aterrizaje en una zona libre de obstáculos, la aplicación sigue la

misión realizando un vuelo automatizado (Claros et al., 2016) y siendo posible visualizar

Page 24: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

24

de forma simultánea y en tiempo real la información transmitida a la computadora, que

bien puede ser sobre mediciones, el estado del vehículo y su respectiva posición, para

terminar se realiza la toma fotográfica y aterrizaje (Cepero, 2015).

Figura 3. Calibración del UAV en posición horizontal y vertical

Fuente: (Claros et al., 2016)

4. Procesado y cálculo: Contando ya con las fotografías aéreas, sus parámetros

asociados y con las coordenadas correspondientes a los GCP, se lleva a cabo el

proceso de aerotriangulación para el cálculo de los parámetros de orientación

externa de las fotografías; se trata de un modelo matemático con ecuaciones de

colinealidad y la inclusión de un número significativo de redundancias que permitan

dar validez y fiabilidad tanto al sistema como a los resultados del mismo (Cepero,

2015), su principal objetivo consiste en la obtención de los parámetros para

posicionar de manera correcta el haz de los rayos de la imagen con respecto a un

sistema de referencia vinculado al terreno (Hernández, 2006); o en otras palabras la

consecución de coordenadas de numerosos puntos sobre los fotogramas con base a

los GCP cuya posición ya es conocida en el terreno, lo cual supone una reducción

en los trabajos de campo (J. Pérez, 2001). En la Figura 4 se observa el principio

descrito de la orientación externa donde “las coordenadas imagen y el centro de

Page 25: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

25

proyección asociado de una fotografía definen un haz espacial de rayos” (J. Pérez,

2001).

Figura 4. Principio de ajuste mediante los haces de rayos producidos por los fotogramas individuales

Fuente:(J. Pérez, 2001)

Sobre el modelo matemático para la realización del ajuste se presentan a

continuación las ecuaciones de la colinealidad:

𝑥′ = −𝑓𝑎11(𝑥𝑖 − 𝑥0) + 𝑎12(𝑦𝑖 − 𝑦0) + 𝑎13(𝑧𝑖 − 𝑧0)

𝑎31(𝑥𝑖 − 𝑥0) + 𝑎32(𝑦𝑖 − 𝑦0) + 𝑎33(𝑧𝑖 − 𝑧0)

𝑦′ = −𝑓𝑎21(𝑥𝑖 − 𝑥0) + 𝑎22(𝑦𝑖 − 𝑦0) + 𝑎23(𝑧𝑖 − 𝑧0)

𝑎31(𝑥𝑖 − 𝑥0) + 𝑎32(𝑦𝑖 − 𝑦0) + 𝑎33(𝑧𝑖 − 𝑧0)

Ecuación 1. Ecuaciones de colinealidad en el proceso de orientación externa

Fuente: (J. Pérez, 2001)

Donde (x’, y’, -f) son las coordenadas de un punto en la fotografía, (x0, y0, z0) las

coordenadas del centro de proyección, (xi, yi, zi) las coordenadas de un punto sobre

el terreno, (a11, aij,…, anm) los elementos de una matriz A en función de un sistema

de referencia tridimensional con rotaciones angulares ω, ϕ, k sobre los ejes x, y, z

respectivamente y dados por los giros de la cámara. Presentado el caso las

incógnitas a resolver son: x0, y0, z0, ω, ϕ, k; y para ello resulta indispensable realizar

Page 26: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

26

en primer lugar la orientación interna en la determinación de parámetros internos y

reconstrucción del haz perspectivo de rayos dados por los puntos imagen y el centro

de proyección, de este modo se parte de los datos de calibración de la cámara como

lo son distancia focal, marcas fiduciales y distorsión (J. Pérez, 2001), por otro lado

y con una mínima variación al proceso para el caso de las imágenes digitales se

determina el centro de proyección o posición del punto principal de acuerdo al

centro de la imagen digital (fila, columna) puesto que tales imágenes carecen de

marcas fiduciales, además al tratarse de un proceso automático son suficientes

únicamente los parámetros de calibración (A. Gómez & Sandoval, 2016).

5.1.3. Imágenes multiespectrales

Partiendo del concepto de radiación electromagnética que como se había citado previamente

corresponde al flujo energético constituido entre la cubierta terrestre y un sensor (Chuvieco, 1995),

se tiene una colección sobre la escena medida del concepto en mención para cada intervalo de

energía empleado y que forman para cada uno, una imagen digital conocida como banda, cuya

representación es la distribución espacial de valores de radiación provenientes de la escena de la

cubierta terrestre y donde el conjunto de bandas compone una imagen multiespectral. Cabe anotar

que la imagen multiespectral no sólo representa la distribución espacial de las propiedades físicas

observadas en la escena, sino también la respuesta del sensor y los mecanismos de interferencia

presentes en la toma de la escena que pueden resultar como limitantes y degradantes de la

información (Lira, 2010).

Específicamente y sobre las bandas espectrales, éstas constituyen el espectro electromagnético

en función de las longitudes de onda o frecuencia (Figura 5); comprendiendo desde las longitudes

Page 27: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

27

de onda más cortas como los rayos gamma y los rayos x, hasta las kilométricas correspondientes

a las de tele-comunicación (Chuvieco, 1995). Por otro lado, teniendo en cuenta el concepto de

fotografía multiespectral dado por Claros et al., 2016 referido como una “fotografía tomada con

cámara multiespectral o con un ensamblaje de varias cámaras con distintos filtros para cubrir

distintas porciones del espectro visible y de la región infrarroja cercana” conviene hacer la

descripción para estas bandas espectrales:

Espectro visible: Se trata de la única radiación electromagnética que se percibe a la vista,

esta región está comprendida entre las longitudes de onda de 0,4 a 0,7 μm y sobre la

cual se distinguen tres bandas elementales en función a los colores primarios que los

ojos perciben a dichas longitudes de onda; estos son el azul (0,4 - 0,5 μm), el verde (0,5

- 0,6 μm), y el rojo (0,6 – 0,7 μm) (Chuvieco, 1995).

Infrarrojo cercano: Está comprendido entre las longitudes de onda de 0,7 a 1,3 μm

(Chuvieco, 1995), sus aplicaciones se encuentran en la composición de química

superficial, vegetación y propiedades bilógicas (Lira, 2010); trascendiendo

notablemente por su capacidad de discriminación de masas vegetales y concentración

de humedad (Chuvieco, 1995).

Figura 5. Espectro electromagnético

Page 28: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

28

Fuente: (Chuvieco, 1995)

5.1.4. Modelos Digitales De Elevación

Los Modelos Digitales de Elevación se definen como una estructura numérica de datos que

representan la distribución espacial con respecto a la altitud en la superficie terrestre. Se trata de

una serie de puntos con coordenadas bidimensionales conocidas y a las cuales se les asocia un

valor de elevación (INEGI, 1999), de modo que haciendo el uso de tales modelos se pueden

cuantificar las características de la superficie del modelo y obtener productos como mapas de

pendientes, curvas de nivel y ortofotomosaicos, entre otros (Pucha et al., 2017).

Adicionalmente, se distinguen diferentes designaciones de los modelos, estos pueden ser

Modelos Digitales de Superficie o Modelos Digitales de Terreno; ambos en la habilidad de

representar la superficie del terreno pero con la distinción de que el primero incluye todos los

objetos sobre la misma mientras que el otro no los toma en cuenta, este es el caso de plantaciones

o edificaciones (S. Pérez, Pérez, & Reyes, 2017).

5.1.5. Ortofotomosaicos

Los ortofotomosaicos resultan de la integración de imágenes georreferenciadas y corregidas de

deformaciones por lo cual es posible realizar mediciones exactas en estas. Las anteriores son

provenientes de las fotografías aéreas y son conocidas como ortoimágenes u ortofotos (Claros

et al., 2016); su proceso de corrección llamado ortorrectificación consiste en lograr representar una

proyección ortogonal sin efectos de perspectiva de la cámara (Figura 6) que se traduce en

deformaciones en conjunto con otros factores como altura de toma, velocidad del movimiento de

la cámara (Cepero, 2015), distorsiones propias de la lente además de distorsiones de los objetos

causados por desplazamientos debidos al relieve, entre otros que son los que presentan las

Page 29: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

29

fotografías aéreas crudas (Quiñones & Segura, 2012), es así que una ortofoto combina la

propiedades de detalles de las fotografías aéreas con las propiedades geométricas de un plano

(Cepero, 2015).

Figura 6. Proyección perspectiva de fotografía aérea cruda (izquierda), Proyección ortogonal de una

ortofoto (derecha)

Fuente: (Quiñones & Segura, 2012)

5.2.Estado Del Arte

Dentro de las explicaciones que permiten entender la razón acerca del aumento sustancial del

uso de UAV’s para aplicaciones diversas (principalmente en la geomática y los productos

cartográficos que se derivan de su uso), de las más aceptadas ha sido el avance exponencial en el

área computacional, tal y como lo afirman Sona, Pinto, Pagliari, Passoni, & Gini, 2014, este

aumento se debe al hecho del “desarrollo de nuevas plataformas equipadas con sistemas

automáticos para la planeación y control de los vuelos, junto con la mejora de los sensores y

dispositivos de adquisición de datos”, así como también a la difusión de softwares que hacen uso

del sistemas de visión por computadora llevando en últimas, nuevos motivos para el uso de los

UAV’s como una herramienta para la gestión de la tierra. Adicional a ello, Vollgger & Cruden,

2016 hacen hincapié en que los progresos en el área computacional han permitido generar “nubes

tridimensionales densas de puntos georreferenciados a partir de una secuencia de imágenes

Page 30: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

30

bidimensionales superpuestas”, que en últimas son el principal insumo para la generación de

productos cartográficos como los DEM o las ortofotos, por lo que la obtención de estos productos

con UAV también ha aumentado de manera considerable, mientras que James et al., 2017 muestran

que estos avances en el hardware “han mejorado rápidamente las capacidades de recopilación de

imágenes gracias a la mejora de la estabilidad y el tiempo de vuelo de las plataformas”, desarrollos

que han llevado a su aplicación dentro de los levantamientos fotogramétricos gracias a la captura

de imágenes óptimas. Por último, autores como Stöcker, Eltner, & Karrasch, 2015 mencionan que

estos avances han llevado a la generación de estos productos cartográficos de forma sencilla y con

gran exactitud, por lo que los UAV pueden verse como un método efectivo para llevar a cabo

levantamientos fotogramétricos.

Haciendo mención nuevamente de las limitaciones implicadas en el uso de los UAV’s, pero

más específicamente en relación a los sistemas de bajo costo y de carga reducida en los que se

emplean cámaras de formato pequeño o medio que hacen de la adquisición de datos un proceso

más extenso; esto en el sentido de que han de necesitarse un mayor número de imágenes para

conseguir la misma cobertura de imagen a una resolución comparable; razón por la cual y a modo

de solución es indispensable contar con un software automatizado de orientación que permita la

reducción del tiempo de procesamiento en sectores de código abierto y de bajo costo (Nex &

Remondino, 2014). Pese a que Eisenbeiß, 2009 indique que para entonces los paquetes de software

comerciales existentes y con aplicación de datos fotogramétricos rara vez soportaban imágenes de

UAV por la carencia de implementación de flujos de trabajo estandarizados y de modelos de

sensores, el actual crecimiento de los UAV’s en el mercado ha conllevado a los constantes

adelantos del hardware y el software usados para el procesamiento de los datos provenientes de

esta clase de captura (Lindner, Schraml, Mansberger, & Hübl, 2016), que vistos en conjunto

Page 31: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

31

pueden ser entendidos también como estaciones de control terrestre (GCS’s) explicadas como

dispositivos estacionarios o transportables en la capacidad de supervisar y ordenar las aeronaves

no tripuladas en la ejecución de la misión, destacando de éstas, la interfaz que permiten crear con

la inteligencia humana para su control y observación ante cualquier cambio de ruta, errores en la

plataforma y resultados (Colomina & Molina, 2014).

Particularmente, cabe resaltar que algunos paquetes de software fotogramétricos

convencionales cuentan con la capacidad de procesar imágenes tomadas con los UAV’s, sin

embargo se tiene el desarrollo de paquetes que además de compilar los fundamentos de la

fotogrametría tradicional se encuentran orientados y especializados en el procesamiento de datos

de imágenes a partir de UAV’s y cuyo enfoque es habitualmente conocido como estructura del

movimiento (SfM) (Gonçalves & Henriques, 2015); se trata de un algoritmo basado en la

identificación de patrones y características comunes visualizadas en varias imágenes donde el

número de puntos identificados está dado acorde a la textura y resolución de la imagen (Fernández

& Gutiérrez, 2016), el anterior es un proceso automatizado de coincidencia de características, su

implementación en UAV’s consiste en poder derivar reconstrucciones tridimensionales a partir de

una serie de fotografías superpuestas, donde resulta adecuado un alto grado de superposición de la

región capturada en diferentes posiciones y orientaciones y sobre las cuales la plataforma móvil se

relaciona con el objetivo o escena estática (Turner et al., 2016), además éste método se usa

generalmente al realizar procesos fotogramétricos con cámaras no métricas; obteniendo resultados

comparables con los métodos tradicionales, incluso con una reducción de tiempo en un 80% sobre

la recopilación de los datos en la reconstrucción 3D de superficies y topografía (P. Zarco et al.,

2014).

Page 32: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

32

Dentro de los factores que afectan la toma de imágenes por medio de UAV, así como la

obtención de los diferentes productos cartográficos que pueden derivarse a partir de ellos, se

encuentra que dado que estos requieren el uso de cámaras convencionales, es decir sensores ópticos

pasivos, se encuentran limitados para la toma de imágenes en sitios con demasiada vegetación, en

general Peternel et al., 2017 afirman que dentro de los principales inconvenientes para llevar a

cabo levantamientos fotogramétricos, es la presencia de vegetación densa, pues dificulta la

reconstrucción métrica, elemento esencial para la generación de las redes de puntos

tridimensionales a partir de imágenes bidimensionales, y que en últimas se traducen en más errores

para la obtención de productos como lo son los modelos digitales de superficie, y por tanto las

ortofotos también. Así mismo, al hacerse uso de cámaras convencionales, que poseen una mayor

distorsión de la lente, darán lugar a mayores errores sistemáticos que de hacerse con las cámaras

tradicionales para esta clase de trabajos (James et al., 2017), adicionalmente debido a la carencia

de receptores GNSS de suficiente calidad a bordo (debido a la carga útil que pueden llevar

consigo), hace que sea complicado hacer uso de las posiciones de las cámaras como una medida

de control adicional para llevar a cabo los levantamientos (James et al., 2017).

Sumado a lo anterior, la altura de vuelo que es un elemento esencial, ya que en primera medida

puede causar cambios abruptos en la resolución espacial de las imágenes, dada la relación del GSD

(Ground Sample Distance) definida por la altura del sensor respecto al suelo, además de añadir

complejidad en la generación de las ortomosaicos si se hace uso de una altura muy pequeña para

la captura de los datos (D. Gómez, De Castro, & López, 2014), junto a ello puede hacer que se

aumenten los tiempos de procesamiento, ya que a una altura menor se requerirán más fotos para

hacer el levantamiento de la misma área que a una mayor altura. Es por ello que autores como

Gómez et al., 2014 mencionan que el rango de altura de vuelo óptimo para obtener buenos

Page 33: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

33

resultados en la generación de ortofotos con imágenes tomadas con UAV oscila entre los 30 y 100

metros, cabe aclarar que como afirman los mismos autores si se desea “armonizar la resolución

espacial altísima y minimizar el tiempo de operación y el número de imágenes tomadas”, la altura

de vuelo debe ser lo más alta posible, claro está, sin que esto influya en la perdida de la resolución

espacial necesaria para llevar a cabo el estudio planteado.

Dadas estas variables, es importante añadir que para solventar todos estos inconvenientes basta

con añadir más puntos de control terrestres que en un levantamiento convencional, es decir un

mayor control de entrada (James et al., 2017). Autores como Yucel & Turan, 2016 adicionan que

“la escala, resolución, y precisión de los puntos de control terrestres son el factor que más afecta

la calidad de las imágenes de UAV”, es por ello que poseen un papel primordial en los

levantamientos fotogramétricos de este tipo. En el caso de la generación de ortomosaicos, debido

a la complejidad de la correspondencia de imágenes expuesta anteriormente es necesario adquirir

de forma precisa estos puntos, puesto que de ello depende la exactitud en el proceso de unión de

las ortofotos para dar lugar a los mosaicos de imágenes (D. Gómez et al., 2014), por tanto estos

puntos generalmente se señalizan con marcadores pintados en el área, y son levantados bien sea

con GPS diferenciales de doble frecuencia o con estaciones totales (Bemis et al., 2014). Es de esa

manera, que en últimas haciendo uso del método de georreferenciación directa, la exactitud de las

imágenes ortorrectificadas (y por tanto de los mosaicos generados con estas) son dependientes de

los errores de navegación de los GPS, así como “la estimación de la longitud focal de la cámara y

los parámetros de orientación interior/exterior, y la sincronización imprecisa entre el receptor GPS

y la cámara” (Bemis et al., 2014).

Sobre los principales factores que contribuyen a los errores de precisión de posición de las

ortofotografías obtenidas con UAV’s, Popescu et al., 2016 hacen uso del estándar de la Sociedad

Page 34: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

34

Americana de Fotogrametría y Teledetección (ASPRS) conocido como “Precisión de Datos

Geoespaciales y el Nuevo Estándar de Precisión Cartográfica”, y asocian la exactitud cartográfica

no solamente a la geometría de la cámara y a la altura de vuelo sino también a la calidad de los

parámetros de calibración de la cámara, calidad y tamaño del CCD usado en las cámaras digitales,

cantidad de imágenes superpuestas, calidad de la determinación de la paralaje, de la señal GNSS

y de los controles en tierra, número y distribución espacial de los puntos de verificación de acuerdo

al área del proyecto, capacidad del software de procesamiento, el modelo digital de elevación

empleado para la generación de las ortofotos, la precisión de la triangulación aérea, y estabilidad

del vuelo. Se ha de tener en cuenta que estos factores son susceptibles al cambio de un proyecto a

otro acorde al sensor y metodología utilizada, donde la suma de todos los factores determina la

exactitud posicional del producto final (Popescu et al., 2016).

Cabe adicionar que la evaluación de exactitud de los ortomosaicos con UAV se hace en

términos del error medio cuadrático (RMSE); medida que “se expresa generalmente en unidades

de tamaño pixeles”, siendo este un indicador basado en los residuos de las coordenadas de la

imagen y las coordenadas terrestres (D. Gómez et al., 2014). Por su parte, Popescu et al., 2016

sostiene que aún si se asumieran prácticas en condiciones ideales como el uso de cámaras métricas,

control terrestre de alta calidad y procedimientos consistentes, la mejor precisión posible en las

ortofotografías equivale a un RMSE de 1 a 1,5 pixeles. Respecto a los residuales en las

coordenadas de las imágenes, James et al., 2017 afirman que estos son dependientes de una

variedad de factores, que incluyen: “la textura de la imagen, la estabilidad de la geometría de la

cámara, y la exactitud del algoritmo de localización de características usado en la correspondencia

de las imágenes”. En general, experiencias como las descritas por James et al., 2017 muestran que

para tratar de obtener el mínimo RMSE (que indicaría la obtención de un producto con una alta

Page 35: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

35

calidad posicional), una buena estrategia dentro del procesamiento es la elección de modelo de

cámara adecuado, además de los parámetros pertenecientes a este, que pueden ser determinados

mediante un ajuste final usando todos los puntos de control terrestre como puntos de verificación.

En síntesis, autores como Uysal et al., 2015 muestran que se pueden obtener productos derivados

de fotogrametría con UAV (sean ortomosaicos o DEM) con una exactitud similar a los datos

obtenidos en GPS, haciendo que sea “posible usar los datos de fotogrametría con UAV para la

producción de mapas, levantamientos y algunas otras aplicaciones ingenieriles con las ventajas de

bajo costo, conservación de tiempo, y trabajo de campo mínimo” (Uysal et al., 2015).

5.3.Marco geográfico

El Parque Nacional Natural Chingaza ubicado en la cordillera oriental de los Andes se encuentra

bajo la jurisdicción de los departamentos de Cundinamarca y Meta, abarcando sectores de once

municipios y estando comprendido el 99% del área del parque en la cuenca del Río Orinoco, en

las cuencas altas de los ríos Blanco y Negro Guatiquía, Guacavía, Gazaunta, Gazamumo, Humea

y Guavio, y el 1% en la cuenca del Río Magdalena representado por la cabecera de la quebrada

San Lorenzo, el afluente del Río Teusacá y cabeceras del Río Siecha. Su extensión total es de

76.600 hectáreas, su temperatura se encuentra entre 4 y 21.5°C, con unas variaciones de altura

que van desde 800 a 4020 msnm y presentando ecosistemas predominantes de bosques alto

andinos, subandinos y páramos (Parques Nacionales Naturales de Colombia, s. f.-b).

Se sabe que para el uso de metodologías con UAV´s es necesario que las áreas no sean tan

extensas, en este caso es aún más pertinente, puesto que el UAV usado en el proyecto es de tipo

multirotor (lo que hace que tenga menos alcance, respecto a uno de ala fija) y dado que el Parque

Natural Chingaza tiene una vasta extensión se decidió sobrevolar aproximadamente una hectárea;

Page 36: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

36

tomando como centro de la zona de estudio las coordenadas 4º44’52.23’’ N, 73º51’19.38 W

(Figura 7).

Page 37: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

Figura 7. Mapa de la zona de estudio

Fuente: Autor, elaborado con datos de (Parques Nacionales Naturales de Colombia, s. f.-a) y (Servicio Geológico Colombiano, 2015)

Page 38: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

38

6. Materiales

6.1. Vehículo Aéreo No Tripulado

El UAV utilizado para el desarrollo del proyecto fue el TAROT 680 PRO (Figura 8) de tipo

multirotor compuesto por 6 rotores, el cual puede sobrevolar y cubrir un área de hasta 70.000 m2

(Sastoque & Gutiérrez, 2016) y cuyas características se presentan en la Tabla 1.

Figura 8. UAV TAROT 680 PRO

Fuente: Autor

Tabla 1.

Características de UAV TAROT 680 PRO

TAROT 680 PRO

Tipo Hexacoptero

Dimensiones Diámetro: 680 mm, Altura: 30 cm

Peso 3.5 Kg con baterías, máximo peso de despegue 8 Kg

Motor 6 motores brushless (sin escobillas)

Material Fibra de carbono y plástico

Capacidad carga útil 3 Kg

Modo de vuelo Automático con waypoints o manual con radiocontrol

Tiempo de vuelo 20 minutos flotando en un punto, 12 minutos recorriendo ruta

Estación de control en tierra Radiocontrol 14 canales, telemetría para control de misión en

tiempo real

Posibles sensores Cámara fotográfica, cámara de video, cámara termal, cámara

multiespectral

Proveedor Grupo de investigación UAV-MARIA

Fuente: (Sastoque & Gutiérrez, 2016)

Page 39: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

39

6.2. Sensores

Las dos cámaras utilizadas son de referencia Canon PowerShot A2300 (Tabla 2), una de las

cámaras cuenta con información de las bandas del espectro visible; rojo, verde y azul o en inglés

por sus siglas RGB (Figura 9.a), y la otra con la combinación de bandas de infrarrojo cercano,

verde y azul o en inglés NIR G B (Figura 9.b), de tal manera que para el uso de ambas cámaras se

dispuso de la realización de un montaje y ensamblaje en el UAV que permitiera la ejecución del

vuelo con las dos cámaras a bordo (Sastoque & Gutiérrez, 2016).

Tabla 2.

Especificaciones de la cámara Canon PowerShot A2300

Canon PowerShot A2300

Resolución 16 Megapixeles

Máxima resolución de imagen 4608 X 3456 pixeles

Formato de imagen JPEG

Sensibilidad ISO o a la luz ISO 100, ISO 1600, ISO 200, ISO 400, ISO

800, ISO auto

Velocidad máxima de obturación o disparo 1/2000 segundos

Velocidad mínima de obturación o disparo 15 segundos

Longitud focal mínima 5 mm

Longitud focal máxima 25 mm

Tipo de sensor CCD

Tamaño de sensor 1/2.3” ( ̴ 6.16 X 4.62 mm)

Resolución del sensor 4612 X 3468 pixeles

Tamaño de pixel calculado 0,0013356 mm

Pantalla LCD 6,8 cm (2,72”)

Fuente: Elaborada con datos de (CNET, s. f.) y (Digital Camera Database, s. f.)

(a) Cámara con bandas RGB (b) Cámara con bandas NIR G B

Page 40: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

40

Figura 9. Cámaras Canon PowerShot A2300

Fuente: (Sastoque & Gutiérrez, 2016)

Más específicamente, y sobre la preparación de los sensores en cuanto a sus respectiva

información de las bandas espectrales Rodriguez, 2015 afirma que este tipo de cámaras digitales

que no se han diseñado con fines de uso en la percepción remota constan de un filtro ubicado frente

al sensor que restringe la energía electromagnética que éste percibe y se limita a las ondas del

espectro visible (Figura 10.a), razón por la cual fue necesario modificar una de las cámaras

removiendo el filtro RGB para permitir el ingreso de información en el rango infrarrojo (Figura

10.b).

(a) Energía electromagnética con filtro RGB (b) Energía electromagnética sin filtro RGB

Figura 10. Energía electromagnética percibida por el sensor

Fuente: (Rodriguez, 2015)

6.3. Antena De Recepción Topcon GR-5

El receptor de GNSS GR-5 (Figura 11) fabricado por Topcon es un equipo ideal para el

geoposicionamiento, levantamiento del terreno, topografía, diseño e ingeniería civil,

levantamientos de construcción y gestión de nivelación. Se caracteriza por su alta fiabilidad en

precisión, pues cuenta con un posicionamiento de la mayor precisión para tiempo real cinemático

Page 41: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

41

(RTK), redes y demás y actualizaciones de posición de hasta 100 Hz, realiza el seguimiento de

cada constelación (Topcon, 2015) teniendo en cuenta que se trata de la combinación de tres de

estas o también conocidas como sistemas de posicionamiento originales que son GPS, GLONASS

y GALILEO, su diseño es robusto y se integra con hasta 216 canales de seguimiento universales

(Topcon, s. f.-a). Algunas especificaciones adicionales se presentan en la Tabla 3.

Figura 11. Receptor Topcon GR-5

Fuente: (Topcon, 2015)

Tabla 3.

Especificaciones generales del receptor Topcon GR-5

Especificaciones generales

Señales de seguimiento GPS, GLONASS, Galileo, BeiDou, SBAS, y QZSS

Precisión

Estático rápido H: 3.0 mm + 0.4 ppm

V: 5.0 mm + 0.5 ppm

Estático H: 3.0 mm + 0.1 ppm

V: 3.5 mm + 0.4 ppm

RTK (L1+L2) H: 5 mm + 0.5 ppm

V: 10 mm + 0.8 ppm

Memoria Tarjeta de memoria SD/SDHC extraíble

Temperatura de funcionamiento De -40ºC a 70ºC

Proveedor Universidad Distrital F.J.C.

Fuente: Elaborada con datos de (Topcon, 2015)

Page 42: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

42

6.4. Controlador Topcon FC 2600

El controlador o colector de datos Topcon FC 2600 (Figura 12); suministrado por la

Universidad Distrital F.J.C. para el desarrollo del proyecto, ha sido diseñado para ser robusto,

confiable y soportar el software de campo Magnet Field, ejecuta el sistema operativo Windows

CE6 que permite un rápido funcionamiento (Topcon, s. f.-b). Algunas de sus características a

destacar son:

Conectividad inalámbrica Bluetooth y WiFi incorporadas.

Cámara digital de 5.17 megapíxeles.

Baterías accesibles y recargables, así como una larga duración de las mismas.

Teclado alfanumérico de 55 teclas.

256MB SDRAM (Topcon, s. f.-b).

Figura 12. Controlador Topcon FC 2600

Fuente: (Topcon, s. f.-b)

6.5. Navegador Garmin GPSMAP 64s

Receptor GPS y GLONASS (Figura 13) con una alta capacidad de recepción que localiza de

forma rápida y precisa las posiciones, cuenta con una amplia selección de mapas topográficos,

Page 43: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

43

náuticos y de carreteras que hacen sencilla la incorporación de más mapas, además de funciones

robustas de navegación (Garmin & subsidiaries, s. f.).

Figura 13. Navegador Garmin GPSMAP 64s

Fuente: (Garmin & subsidiaries, s. f.)

La siguiente tabla enseña las características propias del navegador Garmin GPSMAP 64s:

Tabla 4.

Especificaciones físicas y de rendimiento del navegador Garmin GPSMAP 64s

Especificaciones físicas y de rendimiento

Dimensiones (Ancho/Alto/Profundidad) 6,1 x 16,0 x 3,6 cm

Batería 2 pilas AA (no incluidas)

Autonomía de la batería 16 horas

Memoria 4 GB

Señales de seguimiento GPS y GLONASS

Altímetro barométrico Sí

Brújula Sí (tres ejes con inclinación compensada)

Proveedor Universidad Distrital F.J.C.

Fuente: Elaborada con datos de (Garmin & subsidiaries, s. f.)

6.6. Software De Procesamiento

6.6.1. Mission Planner

Mission Planner es un software utilizado como estación de control terrestre en la preparación

inicial, configuración, ejecución de la misión y análisis posterior a esta. Sus principales

características son (Cepero, 2015):

Page 44: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

44

Configuración en piloto automático para control del UAV.

Calibración del UAV para un rendimiento óptimo.

Planificación, guardado y carga de misiones autónomas.

Descarga y análisis de registros de misión generados por el piloto automático.

Supervisión del estado del UAV durante su operación y registros de telemetría récord

con mayor información a la de los registros del piloto automático, éstos en casos de

usar hardware de telemetría apropiados.

Observación, registros de imágenes y análisis.

Operación del UAV en FPV (vista en primera persona).

6.6.2. Inpho

Software diseñado para la transformación de imágenes aéreas en nubes de puntos, modelos de

superficie y mosaicos de ortofotos preservando en cada uno de los anteriores consistencia y

precisión mediante técnicas avanzadas de fotogrametría y percepción remota. Cuenta con una

estructuración de módulos que pueden usarse ya sea como un sistema en conjunto o como

componentes individuales de fácil integración en el proceso fotogramétrico (Trimble, s. f.-a). Los

componentes de los módulos son asistidos con ApplicationsMaster que actúa como centro de

control proporcionando herramientas básicas en la definición de proyectos y sensores,

importación, exportación, conversión y transformación de datos, procesamiento y orientación de

imágenes, y manipulación de DTM (Ecogis, s. f.).

Los módulos ofrecidos por Inpho son MATCH-AT, MATCH-T DSM, Summit Evolution.

DTMaster, SCOP++, OrthoMaster, OrthoVista, UASMaster y LPMaster, cuyas funcionalidades

se observan en la Tabla 5.

Page 45: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

45

Tabla 5.

Funcionalidades por módulo en Inpho

Fuente: (Trimble, s. f.-b)

Con respecto a los requerimientos de hardware para su uso el sistema operativo debe ser

Windows 7 o Vista, contar con una CPU QuadCore como mínimo y de preferencia 8 core o más,

memoria RAM mínima de 4 GB o preferiblemente de 16 GB, y tarjeta gráfica nVidia Quadro.

6.6.3. Imagine Photogrammetry (LPS)

Imagine Photogrammetry o anteriormente conocido como LPS es un paquete de fotogrametría

de fácil entorno para usuarios principiantes o avanzados y que ofrece funcionalidades de alta

precisión como triangulación, generación de DEM, ortofotos, mosaicos y extracción de

características 3D. Su integración con el software Erdas Imagine hace a este paquete

fotogramétrico ideal para proyectos de diferentes tipos de datos y con ello el procesamiento y

análisis de imágenes aéreas o satelitales; de modo que incluye numerosos flujos de trabajo

aceptando desde fotografías análogas hasta productos de cualquier sensor satelital y en los cuales

Funcionalidades MATCH-

AT

MATCH-

T DSM

Summit

Evolution DTMaster SCOP++

Ortho

Master

Ortho

Vista

UAS

Master

LP

Master

Fotogrametría

digital X X X X X X X X

Soporte de

imágenes

análogas

escaneadas

X X X X X X

Datos de satélite X X X X X X

Datos de laser X X X X X

Aerotriangulación X X

Calibración de

cámara X X

Extracción de

superficie/terreno X X X

Procesamiento y

generación de

DTM

X X X

Page 46: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

46

se realizan procesamientos de forma automática como orientación interior, medición de puntos de

unión, y extracción de puntos del terreno (Hexagon Geospatial, 2017).

Algunas otras características que se evidencian en la integración de Imagine Photogrammetry

en Erdas Imagine de acuerdo a las capacidades propias de este último son mapeo de acuerdo a la

cobertura terrestre y su respectiva clasificación, composición de mapas y generación de informes,

conversión de datos, procesamiento de imágenes y clasificación no supervisada, modelado

espacial, procesamiento hiperespectral, clasificación supervisada, y procesamiento de radar, entre

otras (Hexagon Geospatial, 2017).

De acuerdo a Hexagon Geospatial, 2016 los requerimientos principales del sistema para el uso

de Erdas Imagine con la integración de Imagine Photogrammetry son:

Procesador de 64 bit: Intel 64 (EM64T), AMD 64, o sus equivalentes, y su

recomendado es un procesador Multi-core.

RAM mínima de 8 GB.

Sistemas operativos Windows 7, Windows 8, Windows 8.1, Windows 10 Pro,

Windows Server 2008 R2 SP1, o Windows Server 2012 R2.

Tarjetas gráficas NVIDIA Quadro K5200, K4200, K2200, K420, K5000, K4000, K600

(Hexagon Geospatial, 2016).

6.6.4. Agisoft PhotoScan

Agisoft PhotoScan es un software fotogramétrico profesional desarrollado por la compañía rusa

Agisoft LLC (Núñez, 2016) en el año 2010 (Gross & Heumann, 2016) para el procesamiento de

imágenes digitales y generación de información 3D con múltiples aplicaciones en Sistemas de

Page 47: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

47

Información Geográfica (SIG) (Núñez, 2016). Se basa en la última tecnología de reconstrucción

en 3D desde múltiples vistas (Li, Chen, Zhang, & Jia, 2016) y en la tecnología SfM conocida como

SIFT (Scale-invariant feature transform) o algoritmo SIFT para la búsqueda y extracción de puntos

homólogos, para el cálculo automático y preciso de parámetros de la cámara; internos y externos,

que anteriormente debían conocerse y ser ingresados manualmente, y para el emparejamiento de

imágenes a nivel de subpixel (Gross & Heumann, 2016). Adicionalmente, Agisoft PhotoScan está

en la capacidad de procesar imágenes capturadas por un rango de datos no métricos y de pequeño

tamaño hasta datos masivos capturados por un UAV, tal reconstrucción de modelos 3D se realiza

de forma automática sin necesidad de definir valores iniciales ni GCP, además de resultar idónea

la inexistencia de limitaciones en posición y ángulo de captura de las fotografías con el único

requisito de la presencia de puntos homólogos o correspondientes entre las imágenes adyacentes

(Li et al., 2016).

Otras características anexas al sistema son la generación automática de nubes de puntos, nubes

densas, clasificación de las anteriores, texturas 3D con alto grado de precisión, robustez para

manejar una gran cantidad de imágenes (Santoso, Garratt, Pickering, & Asikuzzaman, 2016),

creación de ortomosaicos georreferenciados y DEM, precisiones de 1 mm en fotografías de corto

alcance (Chaparro & Moreno, 2016), simplificación del levantamiento topográfico y con ello una

rápida medición en entornos complejos cuando se dispone de buenos insumos (Cepero, 2015), e

inclusión de GCP para aumento en la precisión geométrica (Gross & Heumann, 2016), entre otras.

El software ofrece dos versiones diferentes; la versión estándar está dirigida a los usuarios

ocasionales que buscan generar nubes de puntos a partir de múltiples imágenes, y la versión

profesional que cuenta con un mayor número de funcionalidades en el procesamiento y permite la

Page 48: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

48

producción de datos geomáticos (Rea & Krenn, 2016), más específicamente se hace la distinción

de las funcionalidades para cada versión en la Tabla 6.

Tabla 6.

Funcionalidades de Agisoft PhotoScan en Versión Estándar y Versión Profesional

Funcionalidades en Agisoft PhotoScan Versión

Estándar

Versión

Profesional

Calibración automática de la cámara X X

Búsqueda automática de puntos de apoyo X X

Triangulación X X

Construcción del modelo 3D y exportación en formato TIN X X

Georreferenciación X

Exportación del DEM en formato TIFF, Arc/Inpho ASCII grid, Band

interleaved y XYZ X

Generación de la ortofoto X

Medidas de área y volumen X

Python scripting X

Fuente: Elaborada con datos de (Núñez, 2016)

El tiempo de procesamiento computacional es generalmente muy alto (Sona et al., 2014) por lo

que se requiere de una computadora de alto rendimiento con capacidad de procesar gráficos, ya

que así como la velocidad en la construcción del modelo 3D se encuentra en función de la cantidad

de fotografías también lo está de acuerdo a las características intrínsecas del computador como la

RAM (Li et al., 2016), es así que los requerimientos del hardware para el uso de Agisoft PhotoScan

son de una RAM de 16, 32 o 64 GB en total, una CPU Quad-core Intel Core i7, Socket LGA 1155,

Six-core Intel Core i7, Socket LGA 2011, o dual socket Intel Xeon Workstation; ésta última en

casos de realizar procesamiento de una gran cantidad de imágenes, y por último un sistema

operativo de Microsoft Windows, MacOS, o Linux; sistemas a los cuales el software ofrece

versiones por lo que se le conoce como un software multiplataforma (Cepero, 2015).

Page 49: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

49

6.6.5. Pix4D Mapper

Software desarrollado por la compañía suiza Pix4D en el año 2011 (Núñez, 2016) para la

restitución fotogramétrica y el procesamiento de imágenes; estando en la habilidad de convertir

hasta 10.000 imágenes aéreas y oblicuas tomadas por UAV’s o aviones, en ortomosaicos 2D

georreferenciados, modelos 3D y nubes de puntos, además de procesarlas independientemente de

las características espectrales de las cámaras que bien pueden ser cámaras RGB, cámaras NIR, o

cámaras térmicas, entre otras (Claros et al., 2016). Los resultados obtenidos por el software son

altamente precisos y oportunos para diversas aplicaciones en SIG y en Diseño Asistido por

Computadoras (CAD) (Coral, s. f.), llegando a precisiones 3D centimétricas (Claros et al., 2016)

dada la inclusión del concepto o herramienta rayCloud que permite la ampliación de la precisión

de los resultados del modelado 3D (Ruzgienė, Berteška, Gečyte, Jakubauskienė, & Aksamitauskas,

2015), sumado al hecho de posibilitar la combinación de nube de puntos 3D con las imágenes

originales bajo el objeto de edición y corrección de los proyectos (Claros et al., 2016).

Por otro lado, el flujo de trabajo que ofrece Pix4D Mapper es completamente automático

(Claros et al., 2016) resolviendo la restitución fotogramétrica en base a un algoritmo de

superposición de fotografías que identifica correspondencia a través de puntos de unión de una

imagen a otra y lleva a cabo la correlación de pixeles (Fernández & Gutiérrez, 2016); este proceso

conforma la etapa inicial para consecuentemente realizar la densificación de la nube de puntos

creada y con esta una malla 3D texturizada que conlleva a la generación del ortomosaico. Cabe

aclarar que los productos obtenidos están sujetos a la configuración preliminar de plantillas para

el tratamiento de imágenes en casos específicos en la creación de modelos 3D de objetos, mapas

de reflectancia para agricultura de precisión, mapas 3D de superficie, y la personalización de

plantillas que se adapten mejor al proyecto, entre otros (Claros et al., 2016).

Page 50: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

50

En cuanto a las versiones Pix4D Mapper ofrece dos: Pix4D Mapper Discovery y Pix4D Mapper

Pro. La primera versión es gratuita y permite realizar sólo las dos primeras etapas del

procesamiento con ciertas restricciones en la clasificación de la nube de puntos. La versión Pro

ofrece todas las opciones de procesamiento pero debe adquirirse mediante pagos o mediante la

activación para usuarios Pix4D Mapper Discovery por un corto periodo de prueba. Los

requerimientos mínimos del software son Windows 7, 8 o 10 de 64 bits, procesador de dos núcleos,

RAM de 4 GB, tarjeta gráfica Nvidia o AMD no inferior a 2008 y modelos Intel de 2012, y las

recomendadas del equipo son procesador de seis núcleos i7 o Xeon y una RAM de 16 GB o más

de acuerdo a la cantidad de datos a procesar (Claros et al., 2016).

6.6.6. Drone2Map

Drone2Map para ArcGIS es una aplicación de escritorio para la creación, visualización y

análisis de productos de imágenes capturadas por un UAV, el procesamiento de imágenes se

realiza de forma automatizada; incluyendo inicialmente la detección de parámetros de la cámara y

sensor aplicando los valores predeterminados correctamente, para la elaboración de productos de

imágenes 2D o 3D como ortomosaicos, modelos topográficos con DSM de alto detalle, modelado

de paisajes con DEM y contornos, mallas texturizadas 3D, nubes de puntos 3D y con estas su

respectivo análisis de atributos, mediciones volumétricas y detección de cambios (Aeroterra S.A.,

s. f.). En lo que respecta a las especificaciones de hardware para el uso de Drone2Map se presentan

las principales a tener en cuenta en la Tabla 7.

Tabla 7.

Requisitos mínimos y recomendados del sistema para el uso de Drone2Map

Estándares de hardware Especificaciones

mínimas de hardware

Especificaciones

recomendadas de hardware

Page 51: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

51

Sistema operativo Windows 7, 8 o 10 de

64 bit Windows 7, 8 o 10 de 64 bit

CPU Cualquiera Núcleo cuádruple o hexa

núcleo Intel i7 / Xeon

GPU Cualquiera compatible

con OpenGL 3.2

GeForce GPU compatible con

OpenGL 3.2 y 2 GB de RAM

Proyectos pequeños

(menos de 100

imágenes a 14 MP)

RAM 4 GB 8 GB

Espacio libre

en disco duro 10 GB 15 GB

Proyectos medianos

(de 100 a 500

imágenes a 14 MP)

RAM 8 GB 16 GB

Espacio libre

en disco duro 20 GB 30 GB

Proyectos grandes (de

500 a 2000 imágenes

a 14 MP)

RAM 16 GB 32 GB

Espacio libre

en disco duro 40 GB 60 GB

Proyectos muy

grandes (más de 2000

imágenes a 14 MP)

RAM 16 GB 32 GB

Espacio libre

en disco duro 80 GB 120 GB

Fuente: Elaborada con datos de (ArcGIS, s. f.)

7. Metodología

Para lograr los objetivos propuestos se diseña e implementa una metodología que parta desde

el trabajo en campo, seguido por el procesamiento digital de las imágenes obtenidas, y por último

la comparación de los productos obtenidos acorde a una serie de parámetros definidos

específicamente. El flujo de trabajo a desarrollar se ilustra en la Figura 14, y se resume en tres

fases principales como sigue.

Page 52: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

52

Figura 14. Flujo metodológico

Fuente: Autor

Page 53: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

53

7.1. Fase 1: Documentación e Investigación

Se incluye en esta fase del proceso la documentación, investigación de información, solicitud

de permisos para la toma de datos y la adquisición de materiales para el desarrollo del proyecto,

además se establece la problemática a tratar acorde con la revisión bibliográfica realizada, y

adicionalmente la delimitación de la zona de estudio sobre el Parque Nacional Natural Chingaza

antes de efectuar el levantamiento; para lo cual se decidió con base a visitas preliminares a campo

tomar algunos criterios que permitieron la definición del área de estudio. Entre ellos están la

selección de una zona cerca a la vía principal, de fácil acceso puesto que en el parque no es posible

abrir caminos o cortar vegetación para acceder con equipos, un área cuya cobertura sea

predominantemente vegetal en aras de mostrar el alcance de los productos cartográficos que

pueden ser obtenidos con UAV, y de igual forma si existe alguna dificultad con este tipo de

coberturas tal y como lo asegura la revisión bibliográfica realizada, y finalmente un lugar que

permita la localización de las señales que servirán de puntos de control, por lo que no puede tratarse

de zonas escarpadas o con rastrojos altos, sumado al hecho que dado que se requiere que los puntos

materializados sean movibles y de gran tamaño, debe ser posible el acceso y movilidad a cada uno

de los espacios donde se localicen éstos.

Finalmente se realiza el trámite permitente para el préstamo y adquisición de los equipos de la

Universidad contando ya con el soporte de aprobación para el ingreso y toma de datos en el Parque

Nacional Natural Chingaza por parte de Parques Nacionales Naturales de Colombia, y a partir de

ello se preparan los sensores e instrumentos que ya se han seleccionado para proceder a la fase

operativa.

Page 54: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

54

7.2.Fase 2: Operativa

Esta fase corresponde al desarrollo del proceso fotogramétrico del proyecto y el procesamiento

de la información, es decir, la señalización y localización de los puntos de control terrestres, junto

con el desarrollo del trabajo en campo con los instrumentos y sensores, tanto en la captura de las

imágenes multiespectrales haciendo uso del UAV, como en el control terrestre mediante la

adquisición y procesamiento de los datos GPS tomados en los puntos de control definidos. Además

de ello, el manejo, la preparación y el procesado de las imágenes tomadas, partiendo de la elección

de los softwares participes en el estudio, esto teniendo en cuenta factores como lo son: la necesidad

de una licencia, el tiempo de adquisición de esta, la posibilidad de adquirir versiones gratuitas, etc,

hasta llegar a la obtención de los productos cartográficos. En este caso, para poder llegar a la

obtención adecuada del ortomosaico, se aplicarán metodologías que dependerán en gran medida

de la elección de los softwares; que van desde la elección de las imágenes más adecuadas para

desarrollar el producto final hasta su obtención, así como también los manuales de los softwares

usados en caso de ser necesario.

7.3. Fase 3: Análisis

En esta fase se hace la evaluación de los resultados obtenidos de la fase anterior en cada

software, y posteriormente se lleva a cabo la comparación con el fin de aportarle elementos de

juicio a un usuario cualquiera al momento de hacer la elección de ortomosaicos desarrollados con

UAV, esto teniendo en cuenta factores como la precisión geométrica, la calidad visual, el costo y

la facilidad de uso para establecer el software más adecuado para este fin. Igualmente se añade

también el tiempo de procesamiento al ser un factor pertinente en el contexto actual, dadas las

Page 55: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

55

capacidades de recurso máquina, además de tratarse de un tiempo considerable en el desarrollo del

proyecto.

8. Resultados

8.1. Proceso Fotogramétrico: Primera Etapa

La planeación del vuelo se realizó en el software Mission Planner definiendo algunos

parámetros (Tabla 8) para el cálculo de la altura de vuelo y de los centros de proyección de la

cámara (“waypoints); estos parámetros se encuentran en función del objetivo del vuelo, que como

se sabe se pretende la generación detallada de productos cartográficos por lo que generalmente se

requieren vuelos de baja altitud para conseguir pequeños GSDs (Nex & Remondino, 2014).

Tabla 8.

Parámetros para la planeación del vuelo

Parámetros Valor

Longitud focal de la cámara 5,049 mm

Líneas de vuelo 4

Altura de vuelo 40 metros

GSD 1,412 cm/pix

Escala 1:7922

Fuente: Autor

Se planearon dos vuelos con una altura de 40 metros cuya definición de las rutas se enseñan en

la Figura 15.

Page 56: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

56

(a) Vuelo 1 (b) Vuelo 2

Figura 15. Plan de vuelo

Fuente: Autor

Para el control terrestre se distribuyeron 5 GCP aproximadamente de forma equidistante entre

sí en la zona de estudio que corresponden a marcas físicas artificiales en triplex, con forma de L

(ele) de 100cmX100cm y con un recorte interno de 20cm (Figura 16.a). Sobre estos se realizó la

toma de datos de su posición geográfica planimétrica y altimétrica haciendo uso de dos antenas

receptoras GNSS GR-5 (Figura 17); equipos y procedimiento trascendental en la obtención de

productos fotogramétricos, y sobre los cuales es indispensable asegurar su correcto levantamiento

debido a que la mayoría de los errores presentados en estos productos provienen de la

exactitud de los equipos (Yucel & Turan, 2016), y que en últimas serán reflejados en la

evaluación de los productos por medio del RMSE.

Como complemento en la gestión del control terrestre se usó la GCS ilustrada en la Figura 16.b

para la correcta calibración del UAV y la consecuente ejecución de la misión, control y

observación de la misma mediante el empleo del software Mission Planner.

Page 57: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

57

(a) GCP (b) GCS

Figura 16. Control terrestre

Fuente: Autor

Figura 17. Toma de GCP (marcas físicas artificiales) en campo

Fuente: Autor

Contando ya con las rutas creadas, preparación y disposición de los equipos se efectuó el vuelo

y toma fotográfica el día 13 de agosto del 2016; sin embargo al realizar la comprobación de calidad

de datos en tiempo real y bajo las condiciones climáticas propias de la zona que se traducen en

dificultades para la captura y visualización de las imágenes (Figura 18) se tuvo que efectuar

nuevamente el plan de vuelo el día 14 de agosto del mismo año. El primer vuelo ejecutado a las

7:40 am tuvo una duración de 8 minutos y 43 segundos y el segundo a las 9:45 am con una duración

de 7 minutos y 25 segundos. En la Figura 19 se ilustra el UAV durante el vuelo y finalizada la

misión en aterrizaje.

Page 58: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

58

Figura 18. Fotografías aéreas en condiciones de neblina

Fuente: Autor

Figura 19. UAV en ejecución del vuelo y en aterrizaje

Fuente: Autor

Además de las fotografías se obtuvo información durante el vuelo sobre cada una de estas como

lo son las coordenadas de los centros y la orientación del sensor al momento de la toma; registrando

latitud, longitud, altura, yaw, pitch y roll exportado a un archivo .txt o .csv (Figura 20).

Page 59: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

59

Figura 20. Datos GPS/IMU registrados en un vuelo

Fuente: Autor

8.2. Selección de Softwares y Trámite de Licencias

Para el procesamiento de las imágenes se dispuso de cinco paquetes de softwares

fotogramétricos; dos de ellos convencionales y los tres restantes orientados al procesamiento

específico de imágenes capturadas con UAV.

Los softwares fotogramétricos convencionales seleccionados fueron Inpho e Imagine

Photogrammetry (LPS), pese a que Inpho ofrece un módulo para los UAV’s (UAS Master) no se

contaba con su disponibilidad inmediata. Estos paquetes fotogramétricos fueron usados

directamente en la Universidad en el Laboratorio de Fotogrametría Digital por lo que se obvió el

trámite de licencias con las que ya se contaban.

En cuanto a los softwares orientados a los UAV’s se emplearon Agisoft Photoscan, Pix4D

Mapper y Drone2Map. La gestión de licencias fue un proceso diligente para los tres softwares, en

el caso de Agisoft PhotoScan se adquirió la versión profesional de prueba con un tiempo limitado

Page 60: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

60

de uso de 30 días, Pix4D Mapper por su parte se obtuvo mediante la versión de prueba para un uso

de 15 días, y finalmente Drone2Map mediante una licencia tramitada con Esri por dos meses.

8.3. Proceso Fotogramétrico: Segunda Etapa

Dando inicio a la fase de trabajo en oficina se procesaron los datos crudos registrados por las

antenas receptoras GNSS GR-5 en el software Leica, obteniendo como resultados la visualización

en pantalla sobre la distribución de los GCP (Figura 21) y sus respectivas coordenadas geográficas

(Tabla 9).

Figura 21. Distribución de GCP

Fuente: Elaborado con software Leica

Tabla 9.

Coordenadas de los GCP preseñalizados

Punto Latitud (N) Longitud (W) Altura (m)

Base 001 4º44’49.90636’’ 73º51’19.26682’’ 3527.6787

1 (R1) 4º44’50.01075’’ 73º51’19.31667’’ 3527.9276

2 (R2) 4º44’50.94503’’ 73º51’21.40263’’ 3550.9254

3 (R3) 4º44’53.04643’’ 73º51’17.62357’’ 3533.2642

4 (R4) 4º44’54.80761’’ 73º51’19.80932’’ 3557.8617

5 (R5) 4º44’52.22888’’ 73º51’19.38293’’ 3541.2547

Fuente: Autor

Page 61: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

61

Sobre la ejecución de los paquetes fotogramétricos es importante destacar que se van a

evidenciar disparidades entre los hardware usados para los procesamientos y con ello diferencias

de tiempo en los mismos. Para Inpho e Imagine Photogrammetry (LPS) se usó el equipo

“Dell_04”, en el caso de Agisoft Photoscan y Drone2Map se utilizó el hardware “project-evaluac”

del Centro para Computación de Alto Desempeño (CECAD) de la Universidad Distrital a través

de la aplicación de “Conexión a Escritorio remoto”, mientras que Pix4D Mapper no permitió

ejecutarse por medio de la conexión a ordenadores remotos implicando el empleo de un hardware

adicional (“Karen”). Las características de cada uno de los equipos se localizan en la Tabla 10.

Tabla 10.

Características de los equipos usados en la ejecución de los paquetes fotogramétricos

Información del

sistema

Hardware usado para

Inpho y LPS

Hardware usado para

Agisoft PhotoScan y

Drone2Map

Hardware usado para

Pix4D Mapper

Nombre del equipo Dell_04 project-evaluac Karen

Sistema operativo Windows 7 Windows 7 Windows 10

Procesador Intel Core i7 Intel Core i7 Intel Core i5

Memoria RAM 16 GB 14,5 GB 8 GB

Tipo de sistema Sistema operativo de

64 bits

Sistema operativo de

64 bits

Sistema operativo de

64 bits

Fuente: Autor

8.3.1. Procesado de datos con softwares convencionales

Se inició el procesamiento de las fotografías aéreas con Inpho y LPS utilizando sobre estos

como primera medida los datos del Vuelo 2 capturados en RGB siguiendo los métodos que se

presentan a continuación:

1. Inpho: En primer lugar se definió el proyecto y con este el sistema de referencia que para

el caso fue local, paso seguido se realizó la identificación de la cámara usada en el vuelo,

longitud focal y dimensiones (Figura 22); parámetros editados manualmente al tratarse de

Page 62: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

62

una cámara digital y no estar almacenada por defecto en la memoria de cámaras de Inpho.

Un espacio adicional y opcional para diligenciar en la edición de cámara fue el de

coeficientes de distorsion que tienen que ver con parámetros para la calibración de la

cámara; estos son coeficientes de distorsión radial (K1, K2, K3, K4) y distorsión tangencial

de los lentes (P1, P2), sin embargo se decide realizar el procesamiento sin la inclusión de

dichos parámetros.

Las fotografías aéreas fueron importadas y se relacionó la altura promedio del terreno que

corresponde a 3500 m, también se importó el archivo GPS/IMU como datos iniciales de

orientación externa con la inclusión de las coordenadas X, Y Z y las rotaciones angulares

ω, ϕ y k para cada una de las fotografías así como la asignación y asociación de desviaciones

por defecto de las posiciones y rotaciones (Figura 23).

Figura 22. Definición de parámetros de la cámara en Inpho

Fuente: Elaboración propia en software Inpho

Page 63: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

63

Figura 23. Importación de datos GPS/IMU y asignación de desviaciones en Inpho

Fuente: Elaboración propia en software Inpho

Paso seguido se importaron las coordenadas correspondientes a los GCP e igual que en el

paso anterior se asociaron estos de forma automática a desviaciones estándar (Figura 24).

Figura 24. Importación de coordenadas de GCP y asignación de desviaciones en Inpho

Fuente: Elaboración propia en software Inpho

Fueron asignadas para cada una de las 4 líneas de vuelo las fotografías que pertenecen a las

mismas (Figura 25) y finalizado este proceso en conjunto con los anteriores de suministro

de datos iniciales se enseña en pantalla el trazado de las líneas de vuelo, la distribución de

las fotografías aéreas y de los 5 GCP usados (Figura 26).

Page 64: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

64

Figura 25. Asignación de fotografías correspondientes por línea de vuelo en Inpho

Fuente: Elaboración propia en software Inpho

Figura 26. Visualización de líneas de vuelo, fotografías y GCP en Inpho

Fuente: Elaboración propia en software Inpho

Page 65: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

65

En aras de completar el procesamiento se dio uso a partir de este punto del módulo MATCH-

AT de Inpho para la localización de los GCP en las imágenes; tarea simplificada por el

software ya que al contar con los previos datos de orientación externa y coordenadas de los

GCP el propio software ha de identificar la zona aproximada en la que deberían aparecer,

quedando en manos del usuario el ajuste de posición de acuerdo a las imágenes visualizadas.

En la Figura 27 se ilustran los GCP en las imágenes, el listado de los mismos, el tipo de

punto que para el caso son puntos de control horizontal y vertical (HV) y sus

correspondientes predicciones, es decir el número de fotografías en las que se identifica

cada GCP. Los GCP 2 y 4 no fueron identificados por el software en ninguna fotografía, el

GCP 1 en 5 fotografías, el 3 en 2 fotografías y el 5 en 4 fotografías, partiendo de los tres

puntos con predicciones solamente pudieron ser medidos los puntos 1 y 3 ya que las

fotografías relacionadas al GCP 5 no correspondían ciertamente a este.

Figura 27. Localización de los GCP en Inpho

Fuente: Elaboración propia en software Inpho

Page 66: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

66

Acto seguido se inició el proceso de orientación externa a partir de los datos GPS/IMU

importados anteriormente (Figura 28) y la extracción automática de puntos de enlace o tie

con ajuste de bloques. Una vez se corrieron los procesos el software arrojó un error sobre

el ajuste fotogramétrico y dio por terminado el procesamiento (Figura 29), sumado a una

notoria alteración en lo que había sido la visualización inicial del trazado de las líneas de

vuelo, distribución fotografías y de los GCP (Figura 30).

Figura 28. Inicialización de la orientación externa en Inpho

Fuente: Elaboración propia en software Inpho

Figura 29. Error en ajuste fotogramétrico en Inpho

Page 67: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

67

Fuente: Elaboración propia en software Inpho

Figura 30. Alteración en la visualización de líneas de vuelo, fotografías y GCP en Inpho

Fuente: Elaboración propia en software Inpho

2. Imagine Photogrammetry (LPS): Mediante la creación de un nuevo proyecto en LPS se

ingresó el sistema de referencia, la carga de fotografías y el ingreso de datos de la cámara

que hacen parte de los parámetros para la orientación interna (Figura 31); definiendo que se

trata de una cámara digital y asignando los respectivos valores de longitud focal, punto

principal x0, y0 en mm que para el ejercicio se trabajó en ceros, tamaño de pixel y altura de

vuelo.

Hecha la orientación interna se editaron los parámetros para la realización de la orientación

externa agregando los datos GPS/IMU (Figura 32) y obteniéndose una visualización en

pantalla de la localización para cada fotografía.

Page 68: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

68

Figura 31. Definición de parámetros de la cámara en LPS

Fuente: Elaboración propia en software LPS

Figura 32. Carga de datos GPS/IMU por fotografía en LPS

Fuente: Elaboración propia en software LPS

El paso a seguir consistió en la creación de los GCP e inserción de sus respectivas

coordenadas (X, Y, Z) para iniciar con un proceso de identificación de los puntos de forma

manual en las fotografías en las que se encontraban. Localizados los GCP se enseña una

correspondencia entre las coordenadas terreno y las coordenadas imagen que se ilustra en

las tablas de la Figura 34, y en la Figura 35 la ubicación de estos sobre la distribución de las

fotografías.

Page 69: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

69

Figura 33. Localización de los GCP en LPS

Fuente: Elaboración propia en software LPS

Figura 34. Visualización de GCP y fotografías en LPS

Fuente: Elaboración propia en software LPS

Page 70: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

70

Se procedió a realizar la generación de puntos tie de forma automática a través de la

correlación de pixeles para consecutivamente triangularlos a partir de los GCP levantados

en campo y hallar sus coordenadas reales. Sin embargo en la generación de puntos tie el

software falla (Figura 35) y de igual forma lo hace en el intento de ejecutar la triangulación,

presentando un error dada la inexistencia de puntos tie y la cantidad insuficiente de GCP

que como mínimo deben presentarse para cada imagen en una cantidad de 6 o 3

respectivamente (Figura 36).

Figura 35. Error en la generación automática de puntos tie en LPS

Fuente: Elaboración propia en software LPS

Figura 36. Error en triangulación en LPS

Fuente: Elaboración propia en software LPS

Page 71: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

71

Teniendo en cuenta lo anterior se ha de destacar que en las imágenes capturadas no se

encuentran para todas la localización de GCP, y en las que se encuentran se tiene como

máximo por imagen un GCP. En el proceso de LPS de identificación manual de los GCP

correspondientes por fotografías se hallaron irregularidades en los datos generados en el

vuelo que tienen que ver con la captura fotográfica de los puntos preseñalizados, pues

además de enseñarse en la Tabla 11 que de las 167 fotografías tomadas en el Vuelo 2 en

RGB, 45 son las que cuentan con un GCP, se tiene que son tres los GCP con los que

realmente se cuenta. Se realizó la verificación también en las demás capturas y en la misma

tabla se enseña que efectivamente en ningún vuelo se capturaron en su totalidad los 5 GCP.

Tabla 11.

Número de fotografías identificadas para cada GCP

Número de fotografías en las que se identifican GCP

GCP

Vuelo 2 Vuelo 1

RGB NIR G B RGB NIR G B

1 32 30 4 9

2 1 1 0 0

3 5 5 7 3

4 0 0 0 0

5 7 7 4 5 Fuente: Autor

8.3.2. Segundo control terrestre

Partiendo del hecho anterior y en referencia al marco teórico sobre la existencia de mínimo tres

GCP como requisito en la realización del ajuste fotogramétrico, cabe adicionar que el contar con

una mayor cantidad de puntos con control terrestre permite la determinación del error en el que se

incurre en la generación de los productos cartográficos; razón por la que se consideró viable ir

nuevamente a la zona de estudio y tomar datos sobre tres marcas físicas naturales seleccionadas

Page 72: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

72

(rocas y frailejones muertos) tras realizar una fotoidentificación y estimación de las coordenadas

de estas en el terreno a través del uso de Pix4D Mapper.

Este segundo control terrestre se realizó el 10 de septiembre del 2017 (Figura 37) ubicando las

coordenadas estimadas con ayuda del navegador Garmin GPSMAP 64s y haciendo uso

nuevamente de las antenas receptoras GR-5 y un controlador Topcon FC 2600 con conexión a

estas a fin de verificar y tener certeza del registro de datos.

Figura 37. Toma de GCP (marcas físicas naturales) en campo

Fuente: Autor

Procesados los datos de campo se obtuvieron las coordenadas para los GCP fotoidentificados

como sigue:

Tabla 12.

Características y coordenadas de los GCP fotoidentificados

Punto

fotoidentificado

Tipo de

punto Imagen

Coordenadas

Latitud (N) Longitud (W) Altura (m)

Page 73: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

73

C1 Roca

4º44’53,16398’’ 73º51’19,21386’’ 3542,241

C4 Frailejón

muerto

4º44’50,88192’’ 73º51’19,38172’’ 3532.495

C5 Roca

4º44’50,27059’’ 73º51’19,64323’’ 3533,463

Fuente: Autor

8.3.3. Procesado de datos con softwares orientados a los UAV’s

En términos generales los tres softwares orientados a los UAV’s que se utilizaron siguen los

mismos flujos de trabajo de procesamiento que consisten en la selección de imágenes a utilizar,

asignación del modelo y parámetros de la cámara, búsqueda automática de puntos tie entre

imágenes haciendo uso de algoritmos de SfM, asignación de los 6 parámetros de orientación

externa y únicos para cada imagen, georreferenciación de imágenes con la identificación de GCP,

triangulación, reconstrucción de imágenes a través de la densificación de puntos, generación de

DEM y ortofotomosaico.

Dada la existencia de una mayor cantidad de fotografías identificadas con GCP en el Vuelo 2,

se decidió realizar los procesamientos sobre estos datos. Fueron tres procesamientos por software,

Page 74: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

74

RGB con GCP preseñalizados, RGB con GCP preseñalizados y fotoidentificados, y NIR G B con

puntos preseñalizados. Es importante destacar que el procesamiento para la combinación de bandas

NIR G B con GCP preseñalizados y fotoidentificados no se llevó en efecto a razón de los resultados

en los demás procesamientos.

1. Agisoft PhotoScan: Comenzando con la carga de las imágenes, datos GPS/IMU (Figura

38) y definición de sistema de coordenadas (WGS84) el software permitió visualizar un

modelo inicial en base a las coordenadas geográficas asignadas (Figura 40 a) y paso seguido

se realizó la verificación de los parámetros que son detectados por el software

automáticamente al reconocer el modelo de la cámara (Figura 39); estos son tipo de cámara,

tamaño de pixel y longitud focal.

Figura 38. Carga de datos GPS/IMU por fotografía en Agisoft PhotoScan

Fuente: Elaboración propia en software Agisoft PhotoScan

Page 75: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

75

Figura 39. Parámetros de la cámara detectados por Agisoft PhotoScan

Fuente: Elaboración propia en software Agisoft PhotoScan

A partir de estos datos se realizó la orientación de fotografías mediante la identificación de

las posiciones de la cámara que son representadas por rectángulos azules en la Figura 40.b,

para continuar con la búsqueda automática de puntos correspondientes entre pares de

fotografías mediante una nube de puntos dispersa; la cual se utilizó como insumo en la

construcción de una malla de superficie triangular o red triangular irregular (TIN) con el

objeto de cambiar la densidad de los puntos de muestreo y posición de acuerdo al relieve y

reducir redundancia de datos (Figura 40.c). Después de esto se realizó el ingreso de

coordenadas de GCP y su posicionamiento en las imágenes (Figura 40.d) con ayuda de la

detección y estimación automática hecha por el software sobre la ubicación aproximada de

los puntos.

Por otro lado, fue necesario optimizar la orientación de la cámara en aras de lograr una alta

precisión en el cálculo de parámetros internos y externos, además de corregir posibles

errores de distorsión. Sucesivamente se creó una nube densa de puntos (Figuras 40.e, 41.c

Page 76: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

76

y 42.b) y contando a este punto con la construcción de geometría fue ahora en base a esta

nube que se realizó la reconstrucción de la malla TIN (Figuras 40.f, 41.d y 42.c). Finalmente

se creó una textura para la visualización de superficie que en últimas permitió la

construcción y obtención del DEM (Figuras 40.g, 41.e y 42.d), y a partir de este el

ortomosaico (Figuras 40.h, 41.f y 42.e).

Las Figuras 40, 41 y 42 ilustran los tres procesamientos realizados y para los cuales se

usaron los mismos parámetros (Tabla 13).

Vuelo 2 en RGB con GCP preseñalizados

(a) Modelo inicial (b) Orientación de fotos (c) Malla y GCP

y nube dispersa preseñalizados

(d) Medición GCP (e) Nube densa (f) Reconstucción de malla

Page 77: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

77

(g) DEM (h) Ortofotomosaico

Figura 40. Proceso en Agisoft PhotoScan para el Vuelo 2 RGB con GCP preseñalizados

Fuente: Elaboración propia en software Agisoft PhotoScan

Vuelo 2 en RGB con GCP preseñalizados y fotoidentificados

(a) Orientación de

fotos y nube dispersa (b) GCP preseñalizados (rojos)

y fotoidentificados (amarillos) (c) Nube densa

(d) Reconstrucción de

malla (e) DEM (f) Ortofotomosaico

Page 78: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

78

Figura 41. Proceso en Agisoft PhotoScan para el Vuelo 2 RGB con GCP preseñalizados y fotoidentificados

Fuente: Elaboración propia en software Agisoft PhotoScan

Vuelo 2 en NIR G B con GCP preseñalizados

Figura 42. Proceso en Agisoft PhotoScan para el Vuelo 2 NIR G B con GCP preseñalizados

Fuente: Elaboración propia en software Agisoft PhotoScan

Tabla 13.

Parámetros usados en el procesamiento de Agisoft PhotoScan

Paso Parámetro Selección

Orientación de fotos

Precisión Alta

Par de preselección Referencia (Posiciones de la cámara

conocidas)

Límite de puntos 40000 (Puntos característicos por imagen)

Calidad Media

(a) Orientación de

fotos y nube dispersa (b) Nube densa (c) Reconstrucción de

malla

(d) DEM (e) Ortofotomosaico

Page 79: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

79

Construcción de nube

densa de puntos

Filtrado de profundidad Moderado (En escenas de reconstrucción

complejas)

Datos fuente Nube densa de puntos

Nivel de caras del modelo Medio

Interpolación Habilitada

Construcción de

textura

Modo de trazado Ortofoto

Modo de fusión Mosaico

Fuente: Autor

2. Pix4D Mapper: Se dispuso a la creación del proyecto, carga de imágenes y registro de

geolocalización de las anteriores (Figura 43). Pix4D Mapper identifica el sistema de

coordenadas en el que se registró la localización de fotografías (WGS84/ UTM Zona 18N

(egm96)) y el modelo de la cámara, con los parámetros de dimensiones de la imagen,

longitud focal en pixeles y milímetros, punto principal x e y en pixeles y en milímetros,

tamaño del sensor y tamaño del pixel, además de las características espectrales de la cámara

siendo posible realizar un ajuste en las bandas (Figura 44); herramienta útil para el

procesado de imágenes en NIR G B.

Figura 43. Carga de datos GPS/IMU por fotografía en Pix4D Mapper

Fuente: Elaboración propia en software Pix4D Mapper

Page 80: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

80

Figura 44. Definición de parámetros de la cámara en Pix4D Mapper

Fuente: Elaboración propia en software Pix4D Mapper

Para todos los procesamientos se seleccionó la plantilla “Mapas 3D” al estar dirigida a

imágenes adquiridas mediante un plan de vuelo y permitir generar ortomosaicos con

consistencia y alta calidad. Ya a este punto, con la carga de insumos y especificaciones

definidas, se mostró en pantalla el modelo inicial (Figura 45.a) y se dio partida a la etapa de

“Procesamiento inicial” en la que se calibra la cámara, se orientan las imágenes buscando

coincidencias entre estas a través de la creación puntos de paso (Figuras 45.b, 46.a y 47.a).

Page 81: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

81

Acto seguido se ingresaron las coordenadas de los GCP cuya posición se visualiza sobre el

modelo en las Figuras 45.c y 46.b, y la medición sobre las imágenes (Figura 45.d);

marcación rápida y precisa al partir del procesamiento inicial.

Previo al desarrollo de la segunda etapa (“Nube de puntos y malla”) se reoptimizó el

procesamiento inicial para dar lugar al proceso de triangulación. La segunda etapa consistió

en la densificación de la nube de puntos, un proceso de filtrado y suavizado para la

corrección de puntos erróneos o ruidosos, y la creación de una malla 3D texturizada con el

fin de triangular los puntos densificados de la nube (Figuras 45.e, 46.c y 47.b).

Finalmente, la tercera etapa “DSM y ortomosaico”, permitió generar una superficie (Figuras

45.f, 46.d y 47.c) a la que también se le aplicó el suavizado ante posibles áreas con errores,

y sobre esta el ortofotomosaico (Figuras 45.g, 46.e y 47d).

Las Figuras 45, 46 y 47 ilustran los tres procesamientos realizados y para los cuales se

usaron los mismos parámetros (Tabla 14).

Vuelo 2 en RGB con GCP preseñalizados

(a) Modelo inicial

(c) GCP

preseñalizados

(b) Orientación de

fotos y nube dispersa (d) Medición GCP

Page 82: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

82

Figura 45. Proceso en Pix4D Mapper para el Vuelo 2 RGB con GCP preseñalizados

Fuente: Elaboración propia en software Pix4D Mapper

Vuelo 2 en RGB con GCP preseñalizados y fotoidentificados

Figura 46. Proceso en Pix4D Mapper para el Vuelo 2 RGB con GCP preseñalizados y fotoidentificados

(e) Nube densa y malla

(b) GCP preseñalizados y

fotoidentificados

(c) Nube densa y

malla

(d) DSM (e) Ortofotomosaico

(a) Orientación de

fotos y nube dispersa

(f) DSM (g) Ortofotomosaico

Page 83: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

83

Fuente: Elaboración propia en software Pix4D Mapper

Vuelo 2 en NIR G B con GCP preseñalizados

Figura 47. Proceso en Pix4D Mapper para el Vuelo 2 NIR G B con GCP preseñalizados

Fuente: Elaboración propia en software Pix4D Mapper

Tabla 14.

Parámetros usados en el procesamiento de Pix4D Mapper

Paso Parámetro Selección

Procesamiento inicial Número de puntos Automático

Nube de puntos

Escala de imagen 1/2 (Mitad del tamaño de la

imagen)

Densidad de puntos Óptima

Número mínimo de emparejamientos 3

Generación de malla 3D con textura Sí – Resolución: Media

(b) Nube densa y malla

(c) DSM (d) Ortofotomosaico

(a) Orientación de

fotos y nube dispersa

Page 84: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

84

DSM/Ortomosaico Filtro de ruido Sí

Suavizado de superficie Sí

Fuente: Autor

3. Drone2Map: Los pasos adoptados para el procesado de datos en Drone2Map consistieron

en la elección inicial de la plantilla “2D Mapping”, ideal para la creación de ortomosaicos

y modelos de elevación de alta resolución. Se dio paso a la creación de un nuevo proyecto,

selección de sistema de coordenadas y carga de imágenes con su respectivo archivo para la

geolocalización; donde se identificó que Drone2Map solamente permite la entrada de los

datos GPS de las imágenes, más no de los datos IMU (Figura 48). Sobre las propiedades de

la cámara, el software identifica modelo, longitud focal y tamaño del pixel, sin embargo no

permite la modificación o entrada de parámetros adicionales.

Figura 48. Carga de datos GPS por fotografía en Drone2Map

Fuente: Elaboración propia en software Drone2Map

Page 85: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

85

La Figura 49.a presenta el modelo inicial visualizado en pantalla sobre un mapa base de la

zona de estudio. En este momento se inició un proceso similar al de Pix4D Mapper y con

una interfaz para el procesamiento, basada también en las mismas tres etapas. Ciertas

distinciones se presentan, dado que Drone2Map después de realizar el procesamiento inicial

permite localizar sobre el modelo (Figuras 49.b y 50.a), estimar la ubicación y medir los

GCP (Figura 49.c), no hay una opción de reoptimización de la etapa. Sobre la segunda etapa

se lleva a cabo la densificación de puntos pero dadas las opciones de la plantilla no se realiza

la creación de la malla 3D texturizada que genera el software en comparación. En su última

etapa, Drone2Map, permite generar DSM con filtrado y suavizado (Figuras 49.d, 50.b y

51.a) y ortomosaicos (Figuras 49.e, 50.c y 51.b).

Las Figuras 49, 50 y 51 ilustran los tres procesamientos realizados y para los cuales se

usaron los mismos parámetros (Tabla 15).

Vuelo 2 en RGB con GCP preseñalizados

(a) Modelo inicial

(b) GCP

preseñalizados (c) Medición GCP

Page 86: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

86

Figura 49. Proceso en Drone2Map para el Vuelo 2 RGB con GCP preseñalizados

Fuente: Elaboración propia en software Drone2Map

Vuelo 2 en RGB con GCP preseñalizados y fotoidentificados

Figura 50. Proceso en Drone2Map para el Vuelo 2 RGB con GCP preseñalizados y fotoidentificados

Fuente: Elaboración propia en software Drone2Map

Vuelo 2 en NIR G B con GCP preseñalizados

(d) DSM (e) Ortofotomosaico

(a) GCP preseñalizados

y fotoidentificados (b) DSM (c) Ortofotomosaico

Page 87: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

87

Figura 51. Proceso en Drone2Map para el Vuelo 2 NIR G B con GCP preseñalizados

Fuente: Elaboración propia en software Drone2Map

Tabla 15.

Parámetros usados en el procesamiento de Drone2Map

Paso Parámetro Selección

Procesamiento inicial Número de puntos Automático

Nube de puntos

Escala de imagen 1/2 (Mitad del tamaño de la

imagen)

Densidad de puntos Óptima

Número mínimo de emparejamientos 3

Generación de malla 3D con textura No

DSM/Ortomosaico Filtro de ruido Sí

Suavizado de superficie Sí

Fuente: Autor

9. Análisis de Resultados

Partiendo del hecho que no se lograron obtener productos a partir del uso de softwares

convencionales, se evalúan únicamente los softwares fotogramétricos orientados a los UAV’s

mediante los análisis de resultados y bajo los siguientes criterios:

(a) DSM (b) Ortofotomosaico

Page 88: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

88

9.1. Precisión Geométrica

En los tres procesos realizados, cada uno en los tres softwares orientados a los UAV’s, se

obtuvieron errores residuales de los puntos de control en el ajuste de bloques (Tabla 16). De forma

atípica se presentó para el caso de Drone2Map la inexistencia de tales valores en los procesos en

RGB con GCP preseñalizados y fotoidentificados y en NIR G B con GCP preseñalizados. Este

comportamiento es explicado comúnmente por errores detectados ya sea en coordenadas o

marcación sobre las imágenes, que hacen que el GCP sea descartado por el software, sin embargo

esta explicación no se adapta al caso de NIR G B pues los GCP medidos al ser preseñalizados no

tienen la tendencia a este tipo de errores. No obstante, una característica detectada en el

procesamiento con las bandas NIR G B; a excepción de Agisoft PhotoScan, fue la dificultad por

el software para estimar la posición de los GCP de forma automática sobre las imágenes.

En términos generales, se observa una tendencia de aumento de error al incluir en los procesos

GCP fotoidentificados. En Agisoft PhotoScan el error total de ajuste de los GCP preseñalizados y

fotoidentificados es más de 396 veces mayor que el obtenido al usar únicamente los GCP

preseñalizados en RGB. En Pix4D Mapper se presenta igualmente el aumento de error pero en

proporciones mínimas, siendo en promedio 0,47 veces mayor el error, pese a ello, es necesario

resaltar que aunque la diferencia de residuales en este caso es insignificante se tiene un alto

contraste de los valores con respecto a Agisoft PhotoScan, pues en Pix4D Mapper los errores

presentados son métricos en un rango de 4,263 a 27,236 metros.

Sobre los procesos realizados con bandas RGB y GCP preseñalizados se destaca el resultado

de Drone2Map, pues evidentemente es el que presenta menores errores, con un promedio de 0,12

mm.

Page 89: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

89

Con respecto al procesado de datos con bandas NIR G B los errores aumentan en relación a la

banda RGB con el uso de GCP preseñalizados, 38 veces en total en Agisoft PhotoScan y 17 veces

en promedio en Pix4D Mapper.

Finalmente, y sobre la reproyección de posición de los puntos tie, la Tabla 16 también enseña

los errores que se presentan en el proceso. Agisoft PhotoScan en todos sus procesamientos es el

que presenta los mayores errores, y en el caso de los otros dos softwares el error no supera la

unidad de pixel.

Tabla 16.

RMSE de GCP y reproyección de acuerdo al software y proceso

Bandas

de las

imágenes

Proceso Software

RMSE en GCP RMSE

reproyección

(pixel) X

(mm)

Y

(mm)

Z

(mm)

Total

(mm)

RGB Con GCP

preseñalizados

Agisoft

PhotoScan 1,158 0,830 0,455 1,496 2,349

Pix4D

Mapper 20.283 4.718 13.776 - 0,183

Drone2Map 0,046 0,061 0,254 - 0,170

RGB

Con GCP

preseñalizados y

fotoidentificados

Agisoft

PhotoScan 475,691 295,798 194,317 592,906 38,959

Pix4D

Mapper 27.236 4.263 16.284 - 0,461

Drone2Map - - - - 0,186

NIR G B Con GCP

preseñalizados

Agisoft

PhotoScan 23,536 14,517 50,091 57,217 6,983

Pix4D

Mapper 14.277 10.091 698.536 - 0,151

Drone2Map - - - - 0,152

Fuente: Autor

9.2. Calidad Visual

Los ortofotomosaicos obtenidos en los tres procesamientos para cada software se ilustran en la

Figuras 52, 53 y 54 con fines de facilitar la comparación en términos de calidad visual.

Page 90: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

90

Figura 52. Comparación de ortofotomosaicos obtenidos del Vuelo 2 RGB con GCP preseñalizados

Fuente: Elaboración propia en softwares Agisoft PhotoScan, Pix4D Mapper y Drone2Map

(a) Agisoft PhotoScan (b) Pix4D Mapper (c) Drone2Map

Page 91: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

91

Figura 53. Comparación de ortofotomosaicos obtenidos del Vuelo 2 RGB con GCP preseñalizados y fotoidentificados

Fuente: Elaboración propia en softwares Agisoft PhotoScan, Pix4D Mapper y Drone2Map

(a) Agisoft PhotoScan (b) Pix4D Mapper (c) Drone2Map

Page 92: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

92

Figura 54. Comparación de ortofotomosaicos obtenidos del Vuelo 2 NIR G B con GCP preseñalizados

Fuente: Elaboración propia en softwares Agisoft PhotoScan, Pix4D Mapper y Drone2Map

(a) Agisoft PhotoScan (b) Pix4D Mapper (c) Drone2Map

Page 93: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

93

La calidad visual en los ortofotomosaicos se encuentra en función de los errores evaluados en

la precisión geométrica que implican dificultades en la reconstrucción del terreno. Sin excepción

alguna, en los 9 ortofotomosaicos generados, se obtuvieron zonas sin reconstruir o sin información,

y con mayor presencia en los procesos con GCP preseñalizados y fotoidentificados en RGB y con

GCP preseñalizados en NIR G B.

Además de las zonas sin información, se suman a los errores visuales duplicidad de elementos,

zonas sin información, deformación de elementos y corrimiento de la imagen, los anteriores

visualizados a detalle en la Tabla 17 para los procesos con RGB y en la Tabla 18 para los procesos

con NIR G B. Los errores que se presentan de forma significativa son los de duplicidad de

elementos sobre productos de las Figuras 53.c, 54.b y 54.c, pues gran parte de la reconstrucción

del terreno para estos productos se encuentra duplicada.

Tabla 17.

Comparación de errores visuales para los ortofotomosaicos en RGB

Error Proceso Software

Agisoft PhotoScan Pix4D Mapper Drone2Map

Du

pli

cid

ad d

e el

emen

tos

Co

n G

CP

pre

señ

aliz

ado

s

No aplica

Co

n G

CP

pre

señ

aliz

ado

s y

foto

iden

tifi

cado

s

No aplica

Page 94: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

94

Fuente: Autor

Tabla 18.

Comparación de errores visuales para los ortofotomosaicos en NIR G B

Error Software

Agisoft PhotoScan Pix4D Mapper Drone2Map

Zo

nas

sin

in

form

ació

n

Co

n G

CP

pre

señ

aliz

ado

s

Co

n G

CP

pre

señ

aliz

ado

s

y f

oto

iden

tifi

cad

os

Def

orm

ació

n d

e el

emen

tos

Co

n G

CP

pre

señ

aliz

ado

s

No aplica

Co

n G

CP

pre

señ

aliz

ado

s y

foto

iden

tifi

cado

s

No se identifica zona

en el ortofotomosaico No aplica

Co

rrim

ien

to d

e la

im

agen

Co

n G

CP

pre

señ

aliz

ado

s

Co

n G

CP

pre

señ

aliz

ado

s y

foto

iden

tifi

cado

s

Page 95: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

95

Du

pli

cid

ad d

e

elem

ento

s

No aplica

Zo

nas

sin

in

form

ació

n

Co

rrim

ien

to d

e la

im

agen

Fuente: Autor

En la Tabla 19 se muestran datos de algunos subprocesos que pueden representar un factor

adicional en la calidad visual del producto final. Los puntos tie generados de forma automática se

presentan en una mayor cantidad con Drone2Map para los tres procesos, siendo 603.864 el mayor

valor obtenido en el proceso de datos RGB con GCP preseñalizados, caso contrario a Agisoft

PhotoScan que en dos de sus procesamientos; RGB con GCP preseñalizados y NIR G B con GCP

preseñalizados, presenta los valores más bajos (138.981 y 199.589).

Contradictoriamente a la cantidad de puntos tie generados por Agisoft PhotoScan, en el

subproceso de densificación de nube de puntos, es el software que mayor cantidad de puntos

obtiene en los tres procesos, siendo 18.548.403 el valor máximo dado por el proceso en RGB con

GCP preseñalizados que en últimas, da respuesta al mayor número de hectáreas cubiertas (1,21

Page 96: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

96

Ha). Es así, que de los nueve productos generados, los tres resultantes de Agisoft PhotoScan son

los que poseen una mayor cobertura de área.

Pix4D Mapper por su parte, fue el software que respondió a las menores coberturas de área en

sus tres ortofotomosaicos, dada la cantidad de número de puntos densificados. El mínimo valor de

área cubierta equivale a 0,17 Ha del proceso en RGB con GCP fotoidentificados y preseñalizados;

área disminuida en un 36% con respecto al uso únicamente de GCP preseñalizados. Así también,

en todos los softwares se presenta la reducción de área cubierta para los datos RGB al incluir los

puntos fotoidentificados.

Tabla 19.

Información de los subprocesos y producto final

Bandas de

las

imágenes

Proceso Software Puntos Tie

generados

Número de

puntos de la

nube densa

Área cubierta

(Ha)

RGB Con GCP

preseñalizados

Agisoft

PhotoScan 199.589 18.548.403 1,21

Pix4D

Mapper 417.804 8.099.904 0,47

Drone2Map 603.864 12.515.805 0,95

RGB

Con GCP

preseñalizados y

fotoidentificados

Agisoft

PhotoScan 200.134 14.114.637 1,08

Pix4D

Mapper 175.385 3.250.927 0,17

Drone2Map 540.967 10.393.873 0,78

NIR G B Con GCP

preseñalizados

Agisoft

PhotoScan 138.981 10.452.494 0,92

Pix4D

Mapper 290.752 8.378.861 0,65

Drone2Map 300.093 8.001.408 0,68

Fuente: Autor

Por último, se observa en los productos una dificultad de reconstrucción del terreno

principalmente a los costados oriental, occidental y en algunos en la zona central. Prueba de ello,

Page 97: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

97

es la ausencia del GCP preseñalizado que se localiza en la parte nororiental, pues pese a ser medido

en las fotografías únicamente logra ser reconstruido en el ortomosaico resultante de Agisoft

PhotoScan para los datos en NIR G B con GCP preseñalizados (Figura 54.a).

La Tabla 20, referida a las imágenes calibradas en el procesamiento, enseña que es nuevamente

Agisoft PhotoScan el que presenta mejores resultados con un mayor porcentaje de calibración de

las imágenes en todos los procesos. La Tabla 21, permite visualizar el comportamiento de la

calibración de imágenes en los modelos de Pix4D Mapper y Agisoft PhotoScan por proceso, donde

los puntos azules y verdes se refieren al ajuste entre la posición inicial y la procesada, y los puntos

rojos indican las imágenes que no han sido calibradas. Las imágenes que no se calibran no son

usadas en el procesamiento y dan explicación de las zonas y costados sin reconstrucción; condición

que se presenta por la complejidad visual o repetitiva de los datos especialmente en ambientes de

densa vegetación.

Tabla 20.

Imágenes calibradas por procesamiento

Bandas de las

imágenes Proceso Software

Número de

imágenes calibradas

con respecto al total

Porcentaje de imágenes

calibradas

RGB Con GCP

preseñalizados

Agisoft

PhotoScan 145/167 86,8%

Pix4D

Mapper 88/167 52,7%

Drone2Map 120/167 71,9%

RGB

Con GCP

preseñalizados y

fotoidentificados

Agisoft

PhotoScan 146/167 87,4%

Pix4D

Mapper 83/167 49,7%

Drone2Map 108/167 64,7%

NIR G B Con GCP

preseñalizados

Agisoft

PhotoScan 89/146 61%

Pix4D

Mapper 92/146 63%

Drone2Map 92/146 63%

Page 98: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

98

Fuente: Autor

Tabla 21.

Visualización de calibración de imágenes en los modelos de Pix4D Mapper y Drone2Map

Bandas de las imágenes Proceso Software

RGB Con GCP

preseñalizados

Pix4D Mapper Drone2Map

RGB

Con GCP

preseñalizados y

fotoidentificados

NIR G B Con GCP

preseñalizados

Fuente: Autor

Page 99: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

99

9.3. Tiempo De Procesamiento

Acorde a la cantidad de datos, complejidad de la escena y parámetros asignados en busca de

productos de buena calidad, se dispuso de tiempos prolongados para los procesamientos como se

observa en la Tabla 22, sin embargo resulta difícil la evaluación del factor de tiempo cuando los

procesamientos no se lograron llevar a cabo en los mismos ordenadores o hardware.

Tabla 22.

Tiempos de procesamiento

Proceso Agisoft PhotoScan Pix4D Mapper Drone2Map

Paso Tiempo Paso Tiempo Paso Tiempo

RG

B C

on

GC

P

pre

señal

izad

os

Orientación

fotografías 1h 55m 40s

Procesamiento

inicial 2h 18m 38s

Procesamiento

inicial 58m 46s

Optimización de

parámetros 1m 32s

Nube de puntos

densa 6h 38m 51s

Nube de puntos

densa 39m 27s

Nube de puntos

densa 16m 50s Reconstrucción

de malla 7m 18s Malla 3D

texturizada 21m 34s

Textura 13m 33s

DSM 1m 14s DSM 37m DSM 20m 23s

Ortomosaico 23m 11s Ortomosaico 55m 26s Ortomosaico 43m 34s

RG

B C

on G

CP

pre

señal

izad

os

y

foto

iden

tifi

cados

Orientación

fotografías 2h 43s

Procesamiento

inicial 2h 30s

Procesamiento

inicial 3h 4m 44s

Optimización de

parámetros 1m 41s

Nube de puntos

densa 24h 23m

Nube de puntos

densa 30m 26s

Nube de puntos

densa

55m 35s

Reconstrucción

de malla 7m 25s Malla 3D

texturizada 15m 31s

Textura 21m 46s

DSM 1m 38s DSM 25m 5s DSM 42m 4s

Ortomosaico 31m 4s Ortomosaico 37m 41s Ortomosaico 31m 28s

NIR

G B

Con

GC

P

pre

señal

izad

os Orientación

fotografías 1h 26m

Procesamiento

inicial 2h 10m 48s

Procesamiento

inicial 1h 5m 11s

Optimización de

parámetros 42s

Nube de puntos

densa 1h 35m

Nube de puntos

densa 43m 24s

Nube de puntos

densa 53m 38s

Page 100: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

100

Reconstrucción

de malla 3m Malla 3D

texturizada 22m 43s

Textura 1m 52s

DSM 1m 13s DSM 32m 32s DSM 35m 4s

Ortomosaico 11m 52s Ortomosaico 1h 2m 57s Ortomosaico 25m 22s

Fuente: Autor

9.4. Facilidad De Uso

De acuerdo a la configuración, practicidad en procesamientos y uso intuitivo de la interfaz se

evalúan los tres software en términos generales.

Agisoft PhotoScan realiza procesos independientes, es decir que la configuración de parámetros

debe hacerse por pasos separados en la medida que se van llevando a cabo los subprocesos. En

este sentido, las configuraciones previas a cada proceso demandan un tiempo adicional y hacen

del uso de la interfaz una tarea más compleja.

Pix4D Mapper y Drone2Map presentan una interfaz similar en la que los procesos son

configurados inicialmente a través de un solo menú. Se sabe que en ambas interfaces son tres

procesamientos los que son efectuados, que a elección de los usuarios pueden ser ejecutados

individualmente o a la vez, haciendo de su uso una cuestión intuitiva, pero no sin obviar el uso de

los manuales para las configuraciones iniciales que en gran medida aportan a la calidad y buenos

resultados de los productos.

9.5. Costo

La facilidad de adquisición de los softwares orientados a los UAV’s usados es alta, tratándose

de versiones de prueba de forma gratuita, pese a ello, como se había hecho mención, son de uso

Page 101: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

101

para un corto periodo de tiempo, razón por la que es importante evaluar los costos y tiempos de

uso por licencia.

Agisoft PhotoScan ofrece una licencia de tiempo ilimitado por un valor de $3.499 USD

incluyendo un soporte técnico durante 12 meses. Para el caso de Pix4D Mapper, es posible obtener

diferentes licencias, ya sea ilimitada con un costo de $8.700 USD, anual a $3.500 USD, o mensual

a $350 USD. Por último, Drone2Map proporciona una licencia de $1.500 USD para su uso durante

año.

En contraste se tiene que el valor de Pix4D Mapper es muy elevado con respecto a Agisoft

PhotoScan, pues el costo del primero para una licencia anual es el equivalente del segundo para

una de uso ilimitado. De igual forma, Drone2Map en comparación con Pix4D Mapper para una

licencia de un año, ofrece un costo menor en proporción a más de la mitad del valor de Pix4D

Mapper, además de ser el que resulta con mayor facilidad de adquisición en términos económicos.

10. Conclusiones

1. Pese a realizarse la señalización de cinco puntos de control terrestre y materialización

previos al vuelo, las falencias presentadas por el mismo no permitieron la inclusión de dos

de los puntos en las fotografías. Razón por la que se efectuó una segunda toma de puntos

de control en campo a partir de los fotoidentificados, sin embargo de acuerdo a las

dificultades de acceso a la zona se logró tomar datos solamente para tres puntos con cierto

grado de incertidumbre al usarse marcas físicas naturales que implicaron imprecisión en su

posterior marcación sobre las fotografías.

2. Inpho e Imagine Photogrammetry (LPS), como los softwares fotogramétricos

convencionales que son, no se encontraron en la capacidad de procesar datos capturados

Page 102: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

102

con UAV’s, generando fallas en el intento de iniciar la triangulación y por ende

imposibilitando la generación de los ortomosaicos.

3. Agisoft PhotoScan, Pix4D Mapper y Drone2Map, siendo softwares fotogramétricos

orientados a los UAV’s permitieron la obtención de nueve ortofotomosaicos; tres por cada

software de acuerdo a diferentes procesos. Los resultados evidencian para los tres softwares

la existencia de errores de precisión geométrica que afectan significativamente la calidad

visual; pues en todos se identifican zonas sin información y corrimiento de la imagen,

sumado a dificultades en la orientación de fotografías que impiden la reconstrucción total

del terreno y problemas de procesamiento por los softwares dada la cobertura significativa

de vegetación densa. Pero es en mayor proporción la tendencia de errores sobre el producto

al incluir puntos de control fotoidentificados; que no aportan un mejor ajuste

fotogramétrico, y también al usar datos con combinación de bandas NIR G B. Visualmente

estos dos procesos incorporan errores de duplicidad y deformación de elementos,

representando geométricamente un aumento significativo en errores de precisión. Es el caso

de Agisoft PhotoScan en el que se pasa a errores submétricos, cuando se tenían errores

milimétricos al trabajar únicamente con GCP preseñalizados. En Pix4D Mapper también

hubo un aumento de error en precisión geométrica aunque en una mínima proporción; mas

sin embargo no se trata de un mejor resultado cuando en los procesos de GCP preseñalizados

y en el de inclusión de los fotoidentificados se tratan errores métricos. Por otro lado

Drone2Map, no obtuvo los errores de precisión en el proceso de uso de GCP

fotoidentificados y en el uso de datos con bandas NIR G B por posibles problemas de

posicionamiento de los puntos fotoidentificados y dificultades de identificación y

discriminación de superficies para el caso de la banda del infrarrojo cercano, no obstante

Page 103: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

103

fue el que mejores resultados obtuvo en el uso únicamente de GCP preseñalizados con

errores de precisión en promedio menores de la unidad milimétrica.

4. Los costos de los softwares orientados a los UAV’s se encuentran directamente relacionados

a su facilidad de uso y disponibilidad de herramientas de procesamiento, pero su mayor

costo no implica siempre mejores resultados.

5. El uso de un UAV y dispositivos de bajo costo dan cuenta de las dificultades obtenidas en

el proceso fotogramétrico, pues si bien es cierto que estas plataformas han incrementado las

posibilidad de aplicaciones no deben obviarse las limitaciones a las están expuestas.

11. Bibliografía

Aeroterra S.A. (s. f.). Drone2Map de ArcGIS. Recuperado a partir de

http://www.aeroterra.com/products/Esri/Drone2Map/

ArcGIS. (s. f.). System requirements: Drone2Map for ArcGIS Help. Recuperado a partir de

https://doc.arcgis.com/en/drone2map/get-started/system-requirements.htm

Bemis, S. P., Micklethwaite, S., Turner, D., James, M. R., Akciz, S., Thiele, S. T., & Bangash, H.

A. (2014). Ground-based and UAV-Based photogrammetry: A multi-scale, high-resolution

mapping tool for structural geology and paleoseismology. Journal of Structural Geology,

69, Part A, 163-178. https://doi.org/10.1016/j.jsg.2014.10.007

Cardozo, J., & Arenas, J. (2016). Metodología para levantamientos topográficos planimétricos de

predios rurales. Universidad Distrital Francisco José de Caldas, Bogotá D.C. Recuperado

a partir de

http://repository.udistrital.edu.co/bitstream/11349/3248/1/ArenasAcostaJenifferAlexandr

aCardozoRojasJuanSebastian2016.pdf

Page 104: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

104

Cepero, R. (2015, junio 21). Sistema de bajo costo para la toma y el procesamiento de imágenes

aéreas (Thesis). Universidad Central «Marta Abreu» de Las Villas. Recuperado a partir de

http://dspace.uclv.edu.cu:8089/xmlui/handle/123456789/4482

Cesetti, A., Frontoni, E., Mancini, A., Ascani, A., Zingaretti, P., & Longhi, S. (2011). A Visual

Global Positioning System for Unmanned Aerial Vehicles Used in Photogrammetric

Applications. Journal of Intelligent & Robotic Systems, 61(1-4), 157-168.

https://doi.org/10.1007/s10846-010-9489-5

Chaparro, A., & Moreno, E. (2016). Aplicación de realidad aumentada para la interpretación y

visualización de modelos tridimensionales generados a partir de un levantamiento con el

equipo Trimble V10 Imaging Rover, caso de estudio del Monumento Gonzálo Jiménez de

Quesada. Universidad Distrital Francisco José de Caldas, Bogotá D.C. Recuperado a partir

de

http://repository.udistrital.edu.co/bitstream/11349/3257/1/MorenoToroErikaLorena2016.

pdf.

Chuvieco, E. (1995). Fundamentos de teledetección espacial (2.a ed.). Madrid: Ediciones RIALP,

S.A. Recuperado a partir de http://files.especializacion-tig.webnode.com/200001110-

8750e88486/FUNDAMENTOS-DE-TELEDETECCION-EMILIO-CHUVIECO.pdf

Claros, R., Guevara, A., & Pacas, N. (2016). Aplicación de Fotogrametría Aérea en

Levantamientos Topográficos mediante el uso de Vehículos Aéreos no Tripulados.

Universidad de El Salvador, El Salvador. Recuperado a partir de

http://ri.ues.edu.sv/14218/1/50108282.pdf

CNET. (s. f.). Canon PowerShot A2300 Specs. Recuperado a partir de

https://www.cnet.com/products/canon-powershot-a2300/specs/

Page 105: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

105

Colomina, I., & Molina, P. (2014). Unmanned aerial systems for photogrammetry and remote

sensing: A review. ISPRS Journal of Photogrammetry and Remote Sensing, 92, 79-97.

https://doi.org/10.1016/j.isprsjprs.2014.02.013

Coral, E. (s. f.). Generación de Modelos de Elevación Digital a Partir de Imágenes Obtenidas

Desde Vehículos Aéreos no Tripulados (UAVs). Pontificia Universidad Javeriana, Grupo

de Investigación ISTAR. Recuperado a partir de

http://pegasus.javeriana.edu.co/~CIS1510AP03/Entregables/Art%C3%ADculo_TG_Eric

kCoral.pdf

Digital Camera Database. (s. f.). Canon PowerShot A2500 vs. Canon PowerShot A2300 - Sensor

Comparison. Recuperado a partir de

https://www.digicamdb.com/compare/canon_powershot-a2500-vs-canon_powershot-

a2300/

Ecogis. (s. f.). Inpho. Recuperado a partir de http://ecogis.pl/PDF/INPHO_Brochure.pdf

Eisenbeiß, H. (2009). UAV Photogrammetry. Zurich.

Farjas, M. (s. f.). Aplicaciones Topográficas del G.P.S. Recuperado a partir de

http://ocw.upm.es/ingenieria-cartografica-geodesica-y-fotogrametria/topografia-

ii/Teoria_GPS_Tema_12.pdf

Fernández, J., & Gutiérrez, G. (2016). Improving archaeological prospection using localized

UAVs assisted photogrammetry: An example from the Roman Gold District of the Eria

River Valley (NW Spain). Journal of Archaeological Science: Reports, 5, 509-520.

https://doi.org/10.1016/j.jasrep.2016.01.007

Gabrlik, P. (2015). The Use of Direct Georeferencing in Aerial Photogrammetry with Micro UAV.

IFAC-PapersOnLine, 48(4), 380-385. https://doi.org/10.1016/j.ifacol.2015.07.064

Page 106: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

106

Garmin, & subsidiaries, G. L. or its. (s. f.). GPSMAP 64s. Recuperado a partir de

https://buy.garmin.com/es-ES/ES/p/140022

Gómez, A., & Sandoval, A. (2016). Aerotriangulación de los modelos estereoscópicos, generación

del modelo digital de terreno, elaboración de la restitución digital a escala 1:5000,

ejecución de la edición y estructuración y generación de las ortofotos a escala 1:5000 que

servirá como insumo para la ratificación del estudio de impacto ambiental que tiene por

objeto el desarrollo del proyecto de parques eólicos en La Guajira. Universidad Distrital

Francisco José de Caldas, Bogotá D.C. Recuperado a partir de

http://repository.udistrital.edu.co/bitstream/11349/4523/1/SandovalRojasAstridCarolina2

016.pdf

Gomez, C., & Purdie, H. (2016). UAV- based Photogrammetry and Geocomputing for Hazards

and Disaster Risk Monitoring – A Review. Geoenvironmental Disasters, 3(1), 23.

https://doi.org/10.1186/s40677-016-0060-y

Gómez, D., De Castro, A., & López, F. (2014). Assessing the accuracy of mosaics from unmanned

aerial vehicle (UAV) imagery for precision agriculture purposes in wheat. Precision

Agriculture, 15(1), 44-56. https://doi.org/10.1007/s11119-013-9335-4

Gonçalves, J. A., & Henriques, R. (2015). UAV photogrammetry for topographic monitoring of

coastal areas. ISPRS Journal of Photogrammetry and Remote Sensing, 104, 101-111.

https://doi.org/10.1016/j.isprsjprs.2015.02.009

Gross, J. W., & Heumann, B. W. (2016). A Statistical Examination of Image Stitching Software

Packages For Use With Unmanned Aerial Systems. Photogrammetric Engineering &

Remote Sensing, 82(6), 419-425. https://doi.org/10.14358/PERS.82.6.419

Page 107: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

107

Hernández, D. (2006). Introduccion a la Fotogrametría Digital. E.T.S.I Agrónomos. Universidad

de Castilla La Mancha.

Hexagon Geospatial. (2016). Release Guide Erdas Imagine. Recuperado a partir de

https://www.geosystems.de/fileadmin/redaktion/Downloads/News/Release_Guide_ERD

AS_IMAGINE_2016_v16_1.pdf

Hexagon Geospatial. (2017). IMAGINE Photogrammetry Brochure. Recuperado a partir de

https://www.hexagongeospatial.com/brochure-pages/imagine-photogrammetry-brochure

Hunt, E. R., Hively, W. D., Fujikawa, S. J., Linden, D. S., Daughtry, C. S. T., & McCarty, G. W.

(2010). Acquisition of NIR-Green-Blue Digital Photographs from Unmanned Aircraft for

Crop Monitoring. Remote Sensing, 2(1), 290-305. https://doi.org/10.3390/rs2010290

INEGI. (1999). Modelos digitales de elevación. Generalidades y especificaciones. Escala 1: 50

000. Sistema Nacional de Información Geográfica. INEGI.

James, M. R., Robson, S., d’Oleire-Oltmanns, S., & Niethammer, U. (2017). Optimising UAV

topographic surveys processed with structure-from-motion: Ground control quality,

quantity and bundle adjustment. Geomorphology, 280, 51-66.

https://doi.org/10.1016/j.geomorph.2016.11.021

Lee, J., & Sung, S. (2016). Evaluating spatial resolution for quality assurance of UAV images.

Spatial Information Research, 24(2), 141-154. https://doi.org/10.1007/s41324-016-0015-0

Li, X. quan, Chen, Z. an, Zhang, L. ting, & Jia, D. (2016). Construction and Accuracy Test of a

3D Model of Non-Metric Camera Images Using Agisoft PhotoScan. Procedia

Environmental Sciences, 36, 184-190. https://doi.org/10.1016/j.proenv.2016.09.031

Page 108: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

108

Lindner, G., Schraml, K., Mansberger, R., & Hübl, J. (2016). UAV monitoring and documentation

of a large landslide. Applied Geomatics, 8(1), 1-11. https://doi.org/10.1007/s12518-015-

0165-0

Lira, J. (2010). Tratamiento Digital de Imágenes Multiespectrales (Segunda). México, D.F.:

Istituto de Geofisica, UNAM. Recuperado a partir de

https://books.google.com.co/books?id=LTKMAwAAQBAJ&pg=PA9&lpg=PA9&dq=im

agen+multiespectral+definicion&source=bl&ots=6SQR7RQkLY&sig=kIlT8wogQ-

ngRxvyej6yMoG90TI&hl=es&sa=X&ved=0ahUKEwiturXrj6vXAhVCYiYKHRoaDRw

4ChDoAQhhMAk#v=onepage&q=imagen%20multiespectral&f=false

Nex, F., & Remondino, F. (2014). UAV for 3D mapping applications: a review. Applied

Geomatics, 6(1), 1-15. https://doi.org/10.1007/s12518-013-0120-x

Nikolakopoulos, K. G., Soura, K., Koukouvelas, I. K., & Argyropoulos, N. G. (s. f.). UAV vs

classical aerial photogrammetry for archaeological studies. Journal of Archaeological

Science: Reports. https://doi.org/10.1016/j.jasrep.2016.09.004

NovAtel. (s. f.). An Introduction to GNSS. Recuperado a partir de https://www.novatel.com/an-

introduction-to-gnss

Núñez, P. (2016). Comparativa de software para la realización de ortofotos a partir de imágenes

obtenidas por drones. Mieres. Recuperado a partir de http://hdl.handle.net/10651/37635

Parques Nacionales Naturales de Colombia. (s. f.-a). Datos abiertos. Informacion cartografica

(Shape) Limites de otras categorias reconocidas por el SINAP. Recuperado a partir de

http://www.parquesnacionales.gov.co/portal/es/servicio-al-ciudadano/datos-abiertos/

Page 109: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

109

Parques Nacionales Naturales de Colombia. (s. f.-b). Parque Nacional Natural Chingaza.

Recuperado a partir de http://www.parquesnacionales.gov.co/portal/es/ecoturismo/region-

amazonia-y-orinoquia/parque-nacional-natural-chingaza/

Pérez, J. (2001). Apuntes de Fotogrametría III. Universidad de Extremadura. Recuperado a partir

de

http://redgeomatica.rediris.es/cartoprofesores/Fotogrametria/ApuntesFotogrametria3.pdf

Pérez, S., Pérez, J., & Reyes, E. (2017, enero 10). Evaluación de la Calidad de los Levantamientos

Realizados con la Tecnología VANT, Estudio De Caso: Modelo DSM Falcultad

Tecnológica de la Universidad Distrital Francisco José De Caldas. Recuperado a partir de

http://repository.udistrital.edu.co/handle/11349/4908

Peternel, T., Kumelj, Š., Oštir, K., & Komac, M. (2017). Monitoring the Potoška planina landslide

(NW Slovenia) using UAV photogrammetry and tachymetric measurements. Landslides,

14(1), 395-406. https://doi.org/10.1007/s10346-016-0759-6

Popescu, G., Iordan, D., & Păunescu, V. (2016). The Resultant Positional Accuracy for the

Orthophotos Obtained with Unmanned Aerial Vehicles (UAVs). Agriculture and

Agricultural Science Procedia, 10, 458-464. https://doi.org/10.1016/j.aaspro.2016.09.016

Pucha, F., Fries, A., Cánovas, F., Oñate, F., González, V., & Pucha, D. (2017). Fundamentos de

SIG: Aplicaciones con ArcGIS. Franz Pucha Cofrep.

Quiñones, C., & Segura, L. (2012). Elaboración del ortofotomapa actualizado de los predios de

la Sede de La Macarena de la Universidad Distrital Francisco José de Caldas.

Universidad Distrital Francisco José de Caldas, Bogotá D.C. Recuperado a partir de

http://hdl.handle.net/11349/1505

Page 110: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

110

Rea, G., & Krenn, P. (2016). Análisis de discrepancias entre levantamientos de captura masiva

de datos. Universitat Politècnica De Catalunya.

Rodriguez, J. (2015, noviembre 26). Georreferenciación y Caracterización Multiespectral de

Especies de Vegetación Usando un Sistema Aéreo de Percepción Remota no Tripulado

Caso de Estudio: Jardín Botánico de Bogotá. Universidad Distrital Francisco José de

Caldas. Recuperado a partir de http://hdl.handle.net/11349/2554

Ruzgienė, B., Berteška, T., Gečyte, S., Jakubauskienė, E., & Aksamitauskas, V. Č. (2015). The

surface modelling based on UAV Photogrammetry and qualitative estimation.

Measurement, 73(Supplement C), 619-627.

https://doi.org/10.1016/j.measurement.2015.04.018

Saleri, R., Cappellini, V., Nony, N., Luca, L. D., Pierrot-Deseilligny, M., Bardiere, E., & Campi,

M. (2013). UAV photogrammetry for archaeological survey: The Theaters area of Pompeii.

En 2013 Digital Heritage International Congress (DigitalHeritage) (Vol. 2, pp. 497-502).

https://doi.org/10.1109/DigitalHeritage.2013.6744818

Santoso, F., Garratt, M. A., Pickering, M. R., & Asikuzzaman, M. (2016). 3D Mapping for

Visualization of Rigid Structures: A Review and Comparative Study. IEEE Sensors

Journal, 16(6), 1484-1507. https://doi.org/10.1109/JSEN.2015.2498940

Sastoque, L., & Gutiérrez, E. (2016, diciembre 12). Espacialización del Estrés Biótico en los

Frailejones Debido al Cambio Climático en el Parque Natural Chingaza Mediante UAV´s.

Universidad Distrital Francisco José de Caldas. Recuperado a partir de

http://hdl.handle.net/11349/4553

Servicio Geológico Colombiano. (2015). Mapa Geológico de Colombia 2015.

Page 111: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

111

Sona, G., Pinto, L., Pagliari, D., Passoni, D., & Gini, R. (2014). Experimental analysis of different

software packages for orientation and digital surface modelling from UAV images. Earth

Science Informatics, 7(2), 97-107. https://doi.org/10.1007/s12145-013-0142-2

Stöcker, C., Eltner, A., & Karrasch, P. (2015). Measuring gullies by synergetic application of UAV

and close range photogrammetry — A case study from Andalusia, Spain. CATENA, 132,

1-11. https://doi.org/10.1016/j.catena.2015.04.004

Topcon. (2015, octubre 3). GR-5. Recuperado a partir de

https://www.topconpositioning.com/es/gnss-and-network-solutions/integrated-gnss-

receivers/gr-5

Topcon. (s. f.-a). GR5. Recuperado a partir de https://topconpositioning.es/productos/topografia-

geomatics/gps/gr5-2/

Topcon. (s. f.-b). Topcon TotalCare :: FC-2600. Recuperado a partir de

http://www.topconcare.com/en/hardware/field_controllers/topcon-fc-2600/

Trimble. (s. f.-a). Inpho. Recuperado a partir de https://geospatial.trimble.com/products-and-

solutions/inpho

Trimble. (s. f.-b). Trimble Inpho Software. Recuperado a partir de

http://trl.trimble.com/docushare/dsweb/Get/Document-611165/022515-

139C_Inpho_BRO_US_0815_LR.pdf

Turner, I. L., Harley, M. D., & Drummond, C. D. (2016). UAVs for coastal surveying. Coastal

Engineering, 114, 19-24. https://doi.org/10.1016/j.coastaleng.2016.03.011

Uysal, M., Toprak, A. S., & Polat, N. (2015). DEM generation with UAV Photogrammetry and

accuracy analysis in Sahitler hill. Measurement, 73, 539-543.

https://doi.org/10.1016/j.measurement.2015.06.010

Page 112: UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE ...repository.udistrital.edu.co/bitstream/11349/7895/1... · de monitoreo de recursos naturales en la mayoría de países,

112

Vogeltanz, T. (2016). A Survey of Free Software for the Design, Analysis, Modelling, and

Simulation of an Unmanned Aerial Vehicle. Archives of Computational Methods in

Engineering, 23(3), 449-514. https://doi.org/10.1007/s11831-015-9147-y

Vollgger, S. A., & Cruden, A. R. (2016). Mapping folds and fractures in basement and cover rocks

using UAV photogrammetry, Cape Liptrap and Cape Paterson, Victoria, Australia. Journal

of Structural Geology, 85, 168-187. https://doi.org/10.1016/j.jsg.2016.02.012

Wischounig, D., & Rinner, B. (2015). Resource aware and incremental mosaics of wide areas from

small-scale UAVs. Machine Vision and Applications, 26(7-8), 885-904.

https://doi.org/10.1007/s00138-015-0699-5

Xing, C., Wang, J., & Xu, Y. (2010). A Robust Method for Mosaicking Sequence Images Obtained

from UAV. En 2010 2nd International Conference on Information Engineering and

Computer Science (pp. 1-4). https://doi.org/10.1109/ICIECS.2010.5678358

Yucel, M. A., & Turan, R. Y. (2016). Areal Change Detection and 3D Modeling of Mine Lakes

Using High-Resolution Unmanned Aerial Vehicle Images. Arabian Journal for Science

and Engineering, 41(12), 4867-4878. https://doi.org/10.1007/s13369-016-2182-7

Zarco, P., Diaz, R., Angileri, V., & Loudjani, P. (2014). Tree height quantification using very high

resolution imagery acquired from an unmanned aerial vehicle (UAV) and automatic 3D

photo-reconstruction methods. European Journal of Agronomy, 55, 89-99.

https://doi.org/10.1016/j.eja.2014.01.004

Zarco, Pablo, Berni, J., Suárez, L., & Fereres, E. (2008, diciembre 17). A new era in remote sensing

of crops with unmanned robots. Recuperado a partir de

http://www.spie.org/newsroom/1438-a-new-era-in-remote-sensing-of-crops-with-

unmanned-robots