anexo. reporte final. proyecto sip 20080639 procesamiento...
TRANSCRIPT
Anexo. Reporte Final.
Proyecto SIP 20080639 PROCESAMIENTO Y SUPERRESOLUCIÓN DE IMÁGENES Y OBJETOS DE 3D CON APLICACIONES EN
PERCEPCIÓN REMOTA, MEDICINA Y VIDEO ESTE PROYECTO ES LA PARTE DEL PROGRAMA BIANUAL 2007-2008, No 613 "Procesamiento de Audio, Imágenes y Video para Aplicaciones de Detección, Reconocimiento y Protección de Información". COORDINADOR DEL PROGRAMA – DR. HECTOR PEREZ MEANA. PROBLEMATICA que se pretende resolver DURANTE DE DOS AÑOS DE DURACIÓN DEL PROYECTO (2007-2008): 1. Proponer y justificar los algoritmos del procesamiento y super-resolución de imágenes ó objetos de interés en 2D, 3D con características superiores en comparación con algoritmos existentes. 2. Diseñar software específico para realización de procesamiento ó super-resolución de imágenes y objetos de interés en 2D y 3D con objetivo de mejorar la resolución de objetos. 3. Desarrollar, investigar los algoritmos vectoriales de procesamiento de video a color usando correlación de pixeles en tramas e información tridimensional que realizan mejor comportamiento que algoritmos existentes. 4. Realizar la implementación en un hardware especializado (DSP y/ó FPGA) los algoritmos vectoriales de procesamiento tridimensional de video a color. 5. Diseñar e investigar unas redes neuronales para diagnóstico de enfermedades. Verificación de algoritmos propuestos usando las bases médicas de mamografía y ultrasonido. 8. Investigar los algoritmos de compresión aplicando diferentes funciones de Wavelets. 9. Realizar el análisis objetivo con base en criterios cuantitativos de procesamiento y super-resolución de imágenes por algoritmos propuestos en comparación con los algoritmos existentes. 10. Publicar los resultados obtenidos en revistas de nivel internacional y nacional. 11. Realizar la conclusión al menos 3-4 tesis de maestría y dos tesis del doctorado a lo largo de 2-3 años. ESPERAMOS los siguientes resultados (DURANTE DE DOS AÑOS): - Novedosos algoritmos del procesamiento y super-resolución de imágenes y objetos de interés en 2D y 3D con características superiores en comparación con algoritmos existentes en diferentes áreas. - Software especializado que permite realizar el procesamiento y super-resolución de imágenes y objetos de interés en 2D y 3D. - Realización de algoritmos propuestos de procesamiento y super-resolución de imágenes y objetos de interés en 2D y 3D en hardware (DSP y/ó FPGA) con objetivo trabajar en tiempo real en aplicaciones: transmisión de video, percepción remota, etc. - Desarrollo de redes neuronales para diagnosticar las enfermedades usando imágenes de mamografía y ultrasonido. - Recursos humanos preparados en siguientes líneas de investigación: procesamiento y super-resolución de imágenes y objetos en 2D y 3D, de preferencia en tiempo real,
percepción remota con super-resolución de objetos, aplicaciones médicas de diagnóstico de enfermedades. - Formación de 2 doctores en ciencias y 3-4 maestros en ciencias a lo largo de 2-3 años. - Publicación de resultados obtenidos en revistas internacionales reconocidas (3-4) y en memorias de congresos internacionales y nacionales de nivel (12). Acuerdo con calendario de actividades del proyecto en este año se planteó las siguientes metas del proyecto presentados para dos años 2005-2007. Descripción de Actividades Realizadas en Año 2008 Meta 1 Diseño de software específico que realiza super-resolución de imágenes y objetos basándose en diferentes métodos. Meta 2 Desarrollar e investigar los algoritmos basados en técnica vectorial para procesar video a color que realizan mejor comportamiento que algoritmos existentes. Meta3. Implementación en un hardware especializado (DSP ó FPGA) los algoritmos de procesamiento de video a color. Meta 4 Verificación de algoritmos propuestos basados en redes neuronales para diagnóstico de enfermedades usando bases médicas de mamografía. Meta 5 Selección de unas familias de funciones Wavelets que presentan el mejor comportamiento en compresión de imágenes médicas. Meta 6. Realizar el análisis objetivo con base en criterios cuantitativos de procesamiento y super-resolución de imágenes por algoritmos propuestos en comparación con los algoritmos existentes. Meta 7. Preparación de los cuadros científicos: maestros en ciencias y doctores en ciencias. Actividad en 2008: Formado 3 M en Ciencias y 3 Doctores en Ciencias. Meta 8. Publicación de artículos en revistas nacionales e internacionales. Publicado en 2008 3 artículos en Revistas internacionales indizadas en ISI, 9 artículos en revistas Internacionales indizadas (SCOPUS), Además, 12 artículos en extenso en Congresos Internacionales de nivel, y 5 en Congresos Nacionales de nivel.
A continuación se presenta el reporte de actividades de este año del proyecto. Meta 1 Diseño de software específico que realiza super-resolución de imágenes y objetos basándose en diferentes métodos. I. Super-resolución de imágenes y objetos Introducción Existen diferentes problemas reales donde la super-resolución espacial es necesaria, el límite de la resolución usualmente depende de la naturaleza física del sensor que captura la información. Algunas técnicas deben de ser aplicadas para reconstruir las imágenes con mejor resolución y permitir realizar mejores reconocimiento en el proceso siguiente. El procedimiento es simple; lo que hay que hacer es obtener una estimación de los valores perdidos a partir de los valores conocidos en la imagen de baja resolución, y esta estimación proyectarla en una cuadricula uniforme de alta resolución. La cámara fotográfica, que proporciona las imágenes video, tiene una resolución limitada. Sin embargo, existe información sobre la cámara fotográfica, que se puede utilizar para aumentar la resolución del cuadro más allá de las limitaciones de la cámara fotográfica El proceso de determinar la posición de un cuadro concerniente al otro se llama registro de la imagen. Usando el registro de la imagen, el algoritmo de súper-resolución desarrollado colocando dos imágenes adyacentes juntas en una rejilla de alta resolución.
Un video en movimiento se tiene un largo número de imágenes y la super-resolución puede ser usada para extraer acciones del video, las cuales de otra forma son muy difíciles de capturar con una cámara estática o fija.
Las aplicaciones científicas de super-resolución incluyen la percepción remota, video en tiempo real, televisión por Internet, astronomía, imágenes satelitales etc.
El poder contar con técnicas efectivas y robustas de super-resolución tiene muchas aplicaciones, una de ellas es que se pueden enviar y recibir imágenes de baja resolución a una mayor velocidad utilizando; menores recursos desde la adquisición, transmisión y reproducción, etc.
Otras interesantes aplicaciones pueden ser producir un video de alta resolución a partir uno de baja resolución. Si esto puede hacer eficientemente, en realidad lo que se estaría obteniendo es un eficaz compresor. Y al hacer esto se transmitiría el video de baja resolución, y mostrar o reproducir video de alta resolución en el receptor.
MÉTODOS Y MATERIALES. Resultados. Simulación y experimentos (detalles adicionales ver en publicaciones del tema mencionados en el reporte final)
Para realizar comparación dos imágenes: de reconstruida de alta resolución y de referencia utilizamos criterio PSNR (Relación Señal a Ruido Pico) y el MAE (Error Medio Absoluto).
( )⎟⎟⎠
⎞⎜⎜⎝
⎛=
MSEPSNR
2
10255log10
dB, (1.1)
donde MSE es el error cuadrático medio para dos imágenes mencionadas.
( )[ ]∑∑−
=
−
=
−=1
0
1
0),(,ˆ1 M
X
N
Yyxfyxf
MXNMAE
(1.2)
Resultados Experimentales La alineación de imágenes es alcanzada por el de registro de imagen. Varios algoritmos
de registro usan Wavelets. El algoritmo desarrollo de super-resolución utiliza Wavelets. Alcanzando el registro y la súper-resolución usando Wavelets puede ser desarrollado el alcance en una secuencia video, en donde una cámara fotográfica se está moviendo, cada marco tiene una posición sobre un área concerniente a los cuadros adyacente a él. Usando el registro de la imagen, el algoritmo de súper-resolución coloca dos imágenes adyacentes juntas en una rejilla de alta resolución. El algoritmo asume que las imágenes están en las posiciones específicas concernientes una a otras. Una vez que los cuadros se pongan en la rejilla de alta resolución, el uso del algoritmo de la DWT redundante es usado para interpolar los valores restantes en la rejilla. Diversas transformadas Wavelets fueron usadas para determinar cuales son las mejores en la interpolación. La técnica de la interpolación con Wavelets entonces se compara a las técnicas tradicionales de la interpolación.
La técnica propuesta usando “La transformada Wavelet” puede ser utilizada para estimar los valores de baja resolución a alta resolución. Nosotros utilizamos las siguientes familias de Wavelets: Daubechies, Coiflets, Biortogonal, y Symlets, y además aprobamos unas nuevas Wavelet basadas en funciones atómicas. Diagrama del método se presenta en la siguiente figura
“
Figura. 1.1. Diagrama a bloques del método utilizando transformada Wavelet.
El proceso empieza suponiendo que la imagen de baja resolución es una imagen comprimida previamente por una Wavelet. La cual debe de ser descomprimida. Para hacer esto utilizamos la transformada inversa Wavelet aplicando filtrado FIR acuerdo con función Wavelet usada.
En el caso de una secuencia de imágenes una vez que ya se han calculado por separado los valores de los píxeles perdidos es necesario integrar estos valores obtenidos de alta resolución de cada cuadro, a una rejilla de alta resolución conjunta que aproveche los valores no redundantes que existen entre los diferentes cuadros de alta resolución, es decir tenemos tres valores píxeles posibles, y de ellos se debe calcular el valor que falta del
Trasformada Wavelet
Imagen de entrada de Baja resolución
Obtención de Coeficientes
Trasformada Inversa Wavelet
Calculo y Aplicación de Normalización
Imagen de salida de alta resolución
píxel usando los coeficientes más cercanos a la localización faltante del píxel:
3321 hrhrhr
HRPPPp ++
=.
Figura. 1.2. Diagrama a bloques de la estimación de movimiento.
Abajo presentamos los resultados visuales (subjetivos) para cada imagen procesada, y enseguida los resultados para la secuencias de video. Además, se presentan los valores de criterios objetivos PSNR y MAE.
Para la imagen de Lena realizamos un zoom en la región de la cara y ojos para observar más claro las imágenes de error SR.
Imagen de Baja resolución 1 Método de alta
resolución Imagen de Baja resolución 2 Método de alta
resolución
Imagen de Baja resolución 3 Método de alta
resolución
Ordenamiento en la retícula de alta resolución
Pixel 1
Pixel 2
Pixel 3
Pixel original
Imagen de Alta Resolución
Estimación de
movimiento
Estimación de
movimiento
Eup3 DCT
Figura 1.3. Resultados de super-resolución para imagen Lena (imágenes de error) para dos mejores métodos.
La segunda imagen demostrada aquí es la de Celula donde enfocamos en presentación de imágenes de errores en super-resolución
Eup3 DCT
Figura 1.4. Resultados de super-resolución para imagen Celula (imágenes de error) para dos mejores métodos.
Abajo presentamos resultados de super-resolución usando la secuencia de Planta utilizando los cuadros vecinos con la estimación de movimiento acuerdo con diagrama de bloques.
En la tabla siguiente tenemos los resultados objetivos de las imágenes presentadas con antelación, en el caso de la imagen Villa el podemos observar en general para todas las imágenes los algoritmos que tienen la mejores respuestas son los de Coiflets y DCT.
Tabla 1.1. Resultados experimentales para criterios objetivos PSNR y MAE en super-resolución.
Presentamos las imágenes de error del cuadro 10 de secuencia de video Planta para dos mejores métodos.
Imagen Método MAE PSNR Imagen Método MAE PSNR
Villa Bicubica 36 25.188 CELLS Bicubica 13 42.104
Vecino 36 25.073 Vecino 16 39.120
Warp 36 25.204 Warp 15 40.37
Biortogonal 27 28.281 Biortogonal 11 43.628
Daubechies 2
40 24.380 Daubechies 2
17 38.715
Symlets 40 24.284 Symlets 17 37.684
Coiflets 18 32.737 Coiflets 6 51.248
Warp/vecino 50
36 25.206 Warp/vecino 50
15 40.412
DCT 13 35.129 DCT 15 40.368
FFT 70 18.185 FFT 24 33.040
fuzz 38 24.663 fuzz 14 40.696
Sinc 37 24.874 sinc 14 40.725
Fuzzy-ELA 35 25.319 Fuzzy-ELA 14 40.528
Logica recursiva
35 25.173 Logica recursiva
13 41.195
Eup3 13 34.700 Eup3 4 53.441
Fup4 14 34.414 Fup4 4 53.283
Fup5 14 34.414 Fup5 4 53.283
Up4 19 32.628 Up4 11 47.248
Eup3 Bilineal
Figura 1.5. Resultados de super-resolución para cuadro 10 de secuencia Planta (imágenes de error).
Tabla 1.2. Resultados experimentales para criterios objetivos PSNR y MAE en super-resolución.
Imagen Método MAE PSNR Imagen Método MAE PSNR
Ba.boon Bicubica 67 16.84 LENA Bicubica 44 21.32
Vecino 66 17.05 Vecino 30 25.64
Warp 66 17.10 Warp 30 25.80
Biortog 58 43.63 Biortog 25 27.90
Daubechies 2
72 16.44 Daubechies 2
45 22.178
Symlets 72 16.45 Symlets 45 22.12
Coiflets 42 21.95 Coiflets 20 30.39
Warp/vecino 50
66 17.12 Warp/vecino 50
38 23.30
DCT 35 23.14 DCT 13 33.31
FFT 100 13.89 FFT 93 14.65
sinc 66 16.96 sinc 37 23.60
Fuzzy-ELA
66 17.11 Fuzzy-ELA
29 26.00
Logica recursiva
65 17.08 Logica recursiva
34 24.21
Eup3 37 22.69 Eup3 8 38.54
Fup4 37 22.75 Fup4 10 35.61
Fup5 37 22.75 Fup5 10 35.61
Up4 68 16.39 Up4 34 24.04
Resultados experimentales de criterios objetivos de 10 cuadros de la secuencias de video procesados como imágenes independientes.
Tabla 1.3. Resultados experimentales para criterios objetivos PSNR y MAE en super-resolución de video Planta.
Numero de cuadro
MAE PSNR Numero cuadro
AMAE PSNR
Warping 8 62.79 28.05 Bicubica
8 48.94 28.54
9 58.53 28.25 t 9 47.42 28.61
10 67.00 27.88 10 54.14 28.26
Biorthog 8 70.74 27.79 Coiflets 8 62.34 28.14
9 57.24 28.22 9 51.94 28.50
10 34.07 24.91 10 59.97 28.18
Daub 8 64.21 28.01 Symlets 8 64.21 28.01
9 47.91 28.61 9 47.91 28.61
10 44.07 28.79 10 44.07 28.79
Numero de cuadro
MAE PSNR Numero de cuadro
MAE PSNR
Bilineal 8 31.58 29.51 DCT 8 69.13 27.82
9 29.69 29.68 9 53.92 28.35
10 32.31 29.46 10 29.53 16.28
Fup1 8 28.78 29.62 Eup3 8 30.40 29.59
9 25.62 29.97 9 29.18 29.77
10 31.65 29.37 10 29.65 29.66
Aquí debajo de forma similar a los resultados anteriores, tenemos la secuencia Planta y analizamos tres cuadros cada uno de los de manera independiente para después poder
hacer la comparación de ellos utilizando los vecinos y la estimación de movimiento, cabe destacar que estas imágenes se obtienen de un tamaño de 128x128 píxeles de baja resolución. Y para el caso de la secuencia Walter el algoritmo que mejor resultado obtuvo fue el de bilineal, mientras que para la secuencia planta fue el método de Vecino.
Conclusiones
De los resultados obtenidos aprobando diferentes métodos y método basado en DWT, podemos observar que el uso de las Wavelets con base en las Funciones Atómicas para la reconstrucción de imágenes de baja resolución a una imagen de alta resolución, se han demostrado tener mayor robustez y mejor desempeño en imágenes de diferente naturaleza. En general, podemos decir que el mejor resultado se obtuvo cuando se utiliza la función Eup3, seguida de Fup4 y Fup5. Por la que las imágenes contienen elementos de naturaleza y texturas diferentes, como bordes y detalles finos etc. podemos concluir la robustez de la propuesta desarrollada. El resultado presentado en el caso de secuencia de video cual contiene muchos bordes y detalles finos los cuales son preservados mejor que cualquier otro método, reduciendo considerablemente el aliasing indeseable en los bordes o líneas diagonales, las formas características de “escaleras” en líneas o bordes, y minimizando el suavizado en detalles. Además debido a su implementación sencilla es factible su posible realización en tiempo real en un DSP. Meta 2 Desarrollar e investigar los algoritmos basados en técnica vectorial para procesar video a color que realizan mejor comportamiento que algoritmos existentes. Meta3. Implementación en un hardware especializado (DSP ó FPGA) los algoritmos de procesamiento de video a color. II. Procesamiento de video a color usando técnica vectorial y hardware especializado DSP y/ó FPGA. a Introducción
Imágenes a color y/o multiespectrales caracterizan los datos usados en diferentes aplicaciones donde el pixel de imagen es el vector que representa por canales múltiples donde el cada uno de ellos lleva la información sobre el contenido espectral. Imágenes multiespectrales pueden ser las imágenes estándares de tres canales a color hasta imágenes hyperespectrales con cientos de bandas/canales. El ruido aparezca en cualquier dispositivo de captura de cada banda espectral y demanda la necesidad de aplicación de unos métodos de supresión de cualquier sistema de procesamiento de imágenes.
El esquema de procesamiento propuesto nombrado como Fuzzy Two Step Color Filter (FTSCF) ha presentado el mejor comportamiento en comparación con otros filtros existentes. Median Filter (MF), Vector Median Filter (VMF), Adaptive Vector Median Filter (AVMF), Fast Adaptive Similarity Based Impulsive Noise Reduction Filter (VMF_SAR), Adaptive Multichannel Non Parametric Filter (AMNF3), Centered Selection Weighted Vector Directional Filters (CSWVDF), Filtro basado en estimadores RM- (ABST_SA). Filtro propuesto es basado en la teoría de lógica difusa y técnica direccional que permite suprimir ruido y preservar contornos y propiedades de color
Además nosotros presentamos las aplicaciones del algoritmo en la percepción remota usando las imágenes multiespectrales del satélite Landsat para diferentes bandas formando
imágenes a color falso y verdadero y caracterizando la calidad por criterios subjetivos y objetivos.
La Figura 2.1 presenta el diagrama a bloques de esquema del filtrado propuesto para imágenes multicanales en el espacio RGB. Simulaciones demuestran que el filtro propuesto presenta el mejor comportamiento en comparación con existentes para imágenes con diferente naturaleza y textura. Nosotros aprobamos las imágenes de referencia: “Lena”, “Peppers”, “Baboon”, etc. corrompidas por ruido impulsivo. Todas las imágenes son tamaño t320X320 pixeles en el espacio RGB, en el formato de color verdadero (24 bits).
Figura 2.1. Diagrama a bloques de procesamiento en el algoritmo diseñado.
MÉTODOS Y MATERIALES. Implementación en hardware especializado (DSP) El corazón de EVM DM642 es Procesado de Medios Digitales, el cuál está basado en la línea de C64xx Digital Signal Processors (DSPs) Texas Instruments (TI). El DM642 se caracteriza por tener un conjunto grande de periféricos integrados en el chip, el cuál incluye tres video puertos de interface de video, una I2C controlador bus, un puerto de audio serial multicanal, un EMIF de 64-bit, un controlador 10/100 Ethernet Controlador MAC, y una interface PCI. EVM DM642 añade todos los componentes externos necesarios para convertir al DM642 en un sistema de trabajo. Alunas características de la tarjeta incluyen: Un DSP TMS320DM642 que trabaja a 720 MHz, 32 Mb de SDRAM, 4 Mb de memoria Flash Lineal Flash, 2 decodificadores de video 1 codificador de video, Implementación de FPGA para despliegue en pantalla, UART doble con RS-232 drivers, Un códec estéreo, Tarjeta Ethernet, 32 Kb EEPROM I2C, 8 LEDs programable, varios formatos de entradas y salidas de video, etc.
EVM sirve como una referencia en el diseño de hardware para DSP TMS320DM642 La interface de DSP en el EVM DM642 para los periféricos es a través de un bus EMIF de 64 bits o por uno de los tres puertos de video. La interface de los codificadores y
Color noisy image(image corrupted usingimpulsive random noiseapplied in independentway for each channel)
Process each noisy channelusing fuzzy and directionaltechniques in independent wayto estimate parameters
Estimate a noisy factor ( ) foreach channel to be used as a threshold in a subsequentalgorithm
Apply denoisingalgorithm using thenoisy factor to decide ifpixel is corrupted or not
Color denoisedimage
βr
If
3.0≥βr
Apply fuzzy-directionaldenoising algorithmusing estimated fuzzy-directional parametersto decide which pixel isthe output’s pixel
Pixel is free-noise andis the output’s pixel
Color noisy image(image corrupted usingimpulsive random noiseapplied in independentway for each channel)
Process each noisy channelusing fuzzy and directionaltechniques in independent wayto estimate parameters
Estimate a noisy factor ( ) foreach channel to be used as a threshold in a subsequentalgorithm
Apply denoisingalgorithm using thenoisy factor to decide ifpixel is corrupted or not
Color denoisedimage
βr
If
3.0≥βr
Apply fuzzy-directionaldenoising algorithmusing estimated fuzzy-directional parametersto decide which pixel isthe output’s pixel
Pixel is free-noise andis the output’s pixel
decodificadores de video están conectados con los puertos de video y los conectadores de expansión.
El códec en la tarjeta AIC23B permite al DSP transmitir y recibir señales de audio analógico. La Fig. 2.2 muestra un diagrama a bloques de la arquitectura del EVM DM642 block donde se muestran los buses y componentes incluidos en el sistema de desarrollo.
Fig.2.2. Diagrama a bloques del DSP EVM DM642.
Entre las estructuras de referencia de Texas Instruments para dispositivos DSPs para implementar entiempo real nosotros seleccionamos RF5 Reference Framework para el uso en procesamiento a color y imágenes multicanales. Este permite construir los algoritmos múltiples con hasta 100 canales, análisis en tiempo real, etc.
El hardware especializado nos permite: cambio para otros algoritmos y cambio de cantidad de canales, modificación de aplicaciones, cambio de drivers que corren en hardware.
Finalmente, RF5 proporciona un camino rápido en desarrollo en un DSP usando DSP/BIOS y eXpressDSP Standard Algorithm (XDAIS). Detección de movimiento se realiza vía comparación de cuadro de video actual con cuadro de referencia.
Resultados experimentales. Simulación (detalles adicionales ver en publicaciones del tema mencionados en el reporte final)
Comportamiento de cada filtro fue justificado usando los criterios peak signal noise ratio (PSNR), mean absolute error (MAE), y normalized chromaticity difference (NCD):
( ) ( ) ( )
( ) ( ) ( )
2 2 2
, , , , , ,1 1
2 2 2
, , ,1 1
1
1
M No x o x o xi j i j i j i j i j i j
i jM N
o o oi j i j i j
i j
L L u u v vMN
NCDL u v
MN
= =
= =
− + − + −=
+ +
∑∑
∑∑, (2.1)
, , ,, ,o o oi j i j i jL u v y , , ,, ,x x x
i j i j i jL u v original imagen ,i jo y imagen filtrada ,i jx .
Tabla 2.1. Valores de PSNR, MAE y NCD en el caso de imagen “Lena” usando diferentes filtros para varios niveles de corrupción por ruido impulsivo.
Ruido PSNR FTSCF AVMF MF VMF ABST_SA AMNF3 CWVDF VMF_SAR INR
5 33,99 30,95 30,62 30,07 26,22 29,211 31,24 31,85 31,45 10 31,50 30,10 29,69 29,46 24,65 28,934 29,04 28,80 30,93 15 29,20 29,06 28,64 28,64 23,28 28,59 26,61 26,28 30,24 20 26,86 27,83 27,20 27,58 22,15 28,175 24,30 24,80 29,03 25 24,73 26,41 25,82 26,28 21,14 27,754 22,26 23,34 27,96 30 22,71 24,89 24,34 24,83 20,20 27,039 20,32 22,19 26,40 35 20,88 23,13 22,73 23,11 19,28 26,072 18,73 20,73 24,73
Ruido MAE FTSCF AVMF MF VMF ABST_SA AMNF3 CWVDF VMF_SAR INR
5 0,91 2,39 3,87 4,29 7,47 5,03 3,10 1,19 4,41 10 1,48 2,97 4,25 4,57 9,25 5,22 3,82 2,35 4,53 15 2,17 3,63 4,73 4,92 11,10 5,46 4,87 3,70 4,7 20 3,11 4,40 5,39 5,41 12,94 5,74 6,38 5,00 4,98 25 4,33 5,34 6,21 6,07 14,78 6,11 8,27 6,50 5,36 30 5,95 6,53 7,32 7,04 16,69 6,69 10,82 8,09 5,98 35 8,06 8,08 8,84 8,40 18,81 7,54 13,78 10,256 6,95
Ruido NCD FTSCF AVMF MF VMF ABST_SA AMNF3 CWVDF VMF_SAR INR
5 0,004 0,010 0,015 0,016 0,027 0,020 0,011 0,004 0,017 10 0,006 0,012 0,016 0,017 0,032 0,020 0,014 0,009 0,017 15 0,008 0,014 0,018 0,019 0,037 0,021 0,017 0,013 0,018 20 0,012 0,017 0,020 0,020 0,043 0,022 0,022 0,018 0,018 25 0,016 0,020 0,023 0,022 0,048 0,023 0,028 0,023 0,020 30 0,021 0,024 0,026 0,025 0,053 0,025 0,036 0,028 0,021 35 0,027 0,028 0,031 0,029 0,060 0,028 0,045 0,034 0,024
En la tabla 2.1 es fácil ver que el algoritmo propuesto demuestra el mejor preservación de detalles finos, además propiedades de cromocidad en el caso de filtrado de imagen a color Lena. Solo para alto porcentaje de contaminación el filtro propuesto baja su comportamiento. Acuerdo con criterio de PSNR, nuevo algoritmo expuesto el mejor resultado para bajos niveles de corrupción. Los resultados similares de filtrado presentan las Fig. 2.3 (imagen Goldhill) y Fig. 2.4 (imagen Parrots).
0
10
20
30
40
50
0 1 2 3 4 5 6 7 8 9 10 15 20 25 30 35 40 45 50 55 60
valu
e
Impulsive noise Percentage
FTSCF_2DAVMF
MF
VMF
Fig.2.3. Criterio MAE para diferentes niveles de corrupción en filtrado de imagen Goldhill.
05
10152025303540
0 1 2 3 4 5 6 7 8 9 10 15 20 25 30 35 40 45 50 55 60
valu
e
Impulsive noise Percentage
FTSCF_2DAVMFMFVMFABST_SAAMNF3CWVDF
Fig.2.4. Criterio MAE para diferentes niveles de corrupción en filtrado de imagen
Parrots.
Tabla 2.2. Valores de PSNR y MAE para diferentes algoritmos en el caso de imágenes multiespectrales satelitales con diferentes niveles de contaminación.
Imagen Multiespectral por 3, 2, y 1 Bandas Ruido (%)
GVDF MMKNN FTSCF MAE PSNR MAE PSNR MAE PSNR
5 13,62 21,06 13,12 22,09 4,79 25,20 15 15,44 20,17 14,49 21,33 6,97 22,99 20 16,55 19,60 15,31 20,86 8,38 21,77 25 18,05 18,85 16,31 20,33 10,24 20,44 30 19,86 18,07 17,45 19,75 12,3 19,25 Imagen Multiespectral por 4, 3, y 2 Bandas
5 11,92 21,75 11,40 22,94 3,77 26,2 15 13,62 20,80 12,71 22,13 5,87 23,71 20 14,678 20,20 13,54 21,57 7,28 22,33 25 16,01 19,45 14,55 20,95 9,08 20,89 30 17,58 18,68 15,70 20,29 11,16 19,55
Imagen Multiespectral por 4, 5, y 3 Bandas 5 11,49 21,74 10,9 23,14 3,32 26,67
15 13,11 20,84 12,19 22,3 5,46 23,96 20 14,11 20,25 13,03 21,72 6,879 22,45 25 15,30 19,60 14,03 21,06 8,65 21,00 30 16,81 18,83 15,15 20,42 10,74 19,63
La tabla 2.2 muestra los valores de criterios PSNR and MAE en forma de imágenes de color falso en 321, 432 and 453 bandas objetivos después del filtrado de imágenes multiespectrales recibidas por satélite Landsat 7. La Fig.2.5 presenta los resultados visuales del filtrado de mismas imágenes contaminadas por ruido con intensidad de 15% usando diferentes algoritmos. Las imágenes multispectrales fueron tomadas en siete bandas con resolución 320x320 pixeles.
Imágenes
originales
GVDF
MMKNN
FTSCF
Fig.2.5. Imágenes multiespectrals contaminadas por ruido con intensidad de 15%
usando diferentes algoritmos.
Tabla 2.3 muestra el tiempo de procesamiento en filtrado de 20 tramas de video usando EVM DM642 para diferentes filtros.
Tabla 2.3. Tiempo de procesamiento para 20 tramas de video.
Algoritmo Tramas Procesadas
Tiempo Total Tiempo Máximo Tiempo Promedio
AMNF3 20 85.917 seg 7.216 seg. 4.295 seg
AVMF 20 1.591 seg 0.0805 seg 0.0796 seg
CWVDF 20 58.18 seg 5.806 seg 2.909 seg
FM 20 0.062 seg 0.0037 seg 0.0031 seg
VMF 20 0.552 seg 0.0283 seg 0.0278 seg
FTSCF 20 24.822 seg 1,243 seg 1,241 seg VMF_SAR 20 41.116 seg 2.093 seg 2.055 seg
Conclusiones Nuevo filtrado propuesto FTSCF novel ha demostrado el mejor comportamiento en supresión de ruido en diferentes imágenes a color como imágenes estáticas tal imágenes satelitales de diferentes bandas. El algoritmo propuesto usa conjuntamente las dos diferentes técnicas lógica difusa y procesamiento direccional. Criterios: PSNR, MAE and NCD fueron calculados de numerosos experimentos caracterizan supresión de ruido, preservación de detalles y propiedades cromáticas. Evaluación de procesamiento en tiempo Real fue realizada en tiempo real usando EVM DM642 y demostrando buenas propiedades. Meta 4 Verificación de algoritmos propuestos basados en redes neuronales para diagnóstico de enfermedades usando bases médicas de mamografía. Meta 5 Selección de unas familias de funciones Wavelets que presentan el mejor comportamiento en compresión de imágenes médicas.
III. Selección de funciones de Wavelet para optimizar el diagnóstico de enfermedades usando imágenes digitales de mamografía
Introducción En el reporte anterior de año 2007 presentamos los resultados que se obtuvieron en el
sistema de reconocimiento al implementar una etapa de descomposición con transformada
Wavelet, en esta etapa se realizaron y presentaron pruebas con diferentes familias de
funciones Wavelets clásicas como son Daubechies, Symlets, Coiflets y Biortogonales.
A continuación se presenta una introducción a estas nuevas familias de Wavelets y
posteriormente los resultados obtenidos al implementarlas en nuestro sistema de
reconocimiento.
En las pruebas realizadas previamente se encontró que los mejores resultados para
imágenes de ultrasonido (US) se obtuvieron con la Wavelet Symlet y para imágenes de
mamografía (MG) con la Wavelet Daubechies.
Basados en estos resultados, se realizo una evaluación para comparar el desempeño de
tres familias Wavelet basadas en Funciones Atómicas (WFA) con estas Wavelets clásicas
que presentaron mejor desempeño.
MÉTODOS Y MATERIALES Se utilizaron las Wavelets de Kravchenko–Rvachev ψ(t) basadas en las funciones atómicas
up(t), fup2(t) y eup(t).
Los detalles las Wavelets complejas de Kravchenko–Rvachev basadas en la Funciones
Atómicas (FA) se puede encontrar en artículos publicados por nosotros en el tema (ver
subproductos del proyecto).
Resultados de reconocimiento empleando WFA Se realizaron numerosos experimentos de simulación para comparar el desempeño de los
algoritmos de reconocimiento usando diferentes funciones Wavelets (clásicas y basadas en
FAs).
Las figuras 3.1., 3.2 y 3.3 presentan los resultados en cuanto al porcentaje de
reconocimiento para los patrones de Microcalcificaciones en Mamografía con las Wavelets
Daubechies, contra las WFA up(t), WFA fup2(t) y WFA eup(t) respectivamente, para 40, 80,
120, 160, 200, 240 y 280 nodos en la capa oculta de la red neuronal.
Para Microcalcificaciones
70
75
80
85
90
95
100
40 80 120 160 200 240 280
Numero de Nodos en Capa Oculta
Reco
noci
mie
nto
(%)
W DaubechiesWFA up(t)
Figura 3.1. Comparación de los porcentajes de reconocimiento obtenidos con Wavelet Daubechies y
WFA up, para patrones de Microcalcificaciones.
Para Microcalcificaciones
70
75
80
85
90
95
100
40 80 120 160 200 240 280
Numero de Nodos en Capa Oculta
Rec
onoc
imie
nto
(%)
W DaubechiesWFA up(t)
Figura 3.2. Comparación de los porcentajes de reconocimiento obtenidos con Wavelet Daubechies y
WFA fup2, para patrones de Microcalcificaciones.
Para Microcalcificaciones
70
75
80
85
90
95
100
40 80 120 160 200 240 280
Numero de Nodos en Capa Oculta
Rec
onoc
imie
nto
(%)
W DaubechiesWFA eup(t)
Figura 3.3. Comparación de los porcentajes de reconocimiento obtenidos con Wavelet Daubechies y
WFA eup, para patrones de Microcalcificaciones.
Patrones de Masas Circunscritas Las figuras 3.4, 3.5 y 3.6 presentan los resultados en cuanto al porcentaje de reconocimiento
para los patrones de Masas Circunscritas en Mamografía con las Wavelets Daubechies,
contra las WFA up(t), WFA fup2(t) y WFA eup(t) respectivamente, para 40, 80, 120, 160, 200,
240 y 280 nodos en la capa oculta de la red neuronal.
Para Masas Circunscritas
70
75
80
85
90
95
100
40 80 120 160 200 240 280
Numero de Nodos en Capa Oculta
Rec
onoc
imie
nto
(%)
W DaubechiesWFA up(t)
Figura 3.4. Comparación de los porcentajes de reconocimiento obtenidos con Wavelet Daubechies y
WFA up, para patrones de Masas Circunscritas.
Para Masas Circunscritas
70
75
80
85
90
95
100
40 80 120 160 200 240 280
Numero de Nodos en Capa Oculta
Rec
onoc
imie
nto
(%)
W DaubechiesWFA up(t)
Figura 3.5. Comparación de los porcentajes de reconocimiento obtenidos con Wavelet Daubechies y
WFA fup2, para patrones de Masas Circunscritas.
Para Masas Circunscritas
70
75
80
85
90
95
100
40 80 120 160 200 240 280
Numero de Nodos en Capa Oculta
Rec
onoc
imie
nto
(%)
W DaubechiesWFA eup(t)
Figura 3.6. Comparación de los porcentajes de reconocimiento obtenidos con Wavelet Daubechies y
WFA eup, para patrones de Masas Circunscritas.
Patrones de Lesiones Estrelladas Las figuras 3.7, 3.8 y 3.9 presentan los resultados en cuanto al porcentaje de reconocimiento
para los patrones de Lesiones Estrelladas en Mamografía con las Wavelets Daubechies,
contra las WFA up(t), WFA fup2(t) y WFA eup(t) respectivamente, para 40, 80, 120, 160, 200,
240 y 280 nodos en la capa oculta de la red neuronal.
Para Lesiones Estrelladas
50
55
60
65
70
75
80
40 80 120 160 200 240 280
Numero de Nodos en Capa Oculta
Rec
onoc
imie
nto
(%)
W DaubechiesWFA up(t)
Figura 3.7. Comparación de los porcentajes de reconocimiento obtenidos con Wavelet Daubechies y
WFA up, para patrones de Lesiones Estrelladas.
Para Lesiones Estrelladas
50
55
60
65
70
75
80
40 80 120 160 200 240 280
Numero de Nodos en Capa Oculta
Rec
onoc
imie
nto
(%)
W DaubechiesWFA up(t)
Figura 3.8. Comparación de los porcentajes de reconocimiento obtenidos con Wavelet Daubechies y
WFA fup2, para patrones de Lesiones Estrelladas.
Para Lesiones Estrelladas
50
55
60
65
70
75
80
40 80 120 160 200 240 280
Numero de Nodos en Capa Oculta
Rec
onoc
imie
nto
(%)
W DaubechiesWFA eup(t)
Figura 3.9. Comparación de los porcentajes de reconocimiento obtenidos con Wavelet Daubechies y
WFA eup, para patrones de Lesiones Estrelladas.
Estos resultados confirman la superioridad de las familias de Wavelets basadas en
Funciones Atómicas para reconocimiento de este tipo de patrones, especialmente la basada
en la FA eup(t).
Conclusiones Se observo que para las tres clases patrones usados en las pruebas, las familias Wavelets
basadas en FAs presentaron mayor porcentaje de reconocimiento, con relación a sus
equivalentes funciones Wavelets clásicas.
La utilización de la Wavelet basada en FA eup(t) permitió mejorar los porcentajes de
reconocimiento en todos los casos para las tres clases diferentes de patrones
(microcalcificaciones, masas circunscritas y lesiones estrelladas).
Se observó que los filtros de las familias Wavelets basadas en FAs tienen una respuesta en
frecuencia aún más selectiva que los filtros de familias clásicas, dentro de estos los filtros
Wavelet basados en la FA eup(t), presentaron una respuesta en frecuencia mejor definida.
La existencia de los límites de Riesz demostró que los coeficientes de los filtros de análisis y
síntesis son linealmente independientes. La obtención de la proyección coseno mostró que
las familias Wavelets basadas en FAs son muy próximas a las óptimas, esto implica que son
casi ortogonales y “más independientes” lo cual asegura que los errores se presentan
escasamente en el proceso de descomposición y reconstrucción.
CONCLUCIONES GENERALES
I. Productos 1. 12 artículos de investigación en revistas especializadas, de calidad internacional (3 - en revistas ISI, 9 en revistas internacionales (no ISI). 2. 12 artículos en extenso en memorias y ponencias en Congresos Internacionales con arbitraje estricto y 5 artículos en extenso en memorias y ponencias en Congresos Nacionales de nivel 3. Tres tesis de maestría y tres tesis del doctorado (graduación) durante de 2008. 4. Implementación de los algoritmos de procesamiento de 3D y/ó video en un software y hardware usando DSP y FPGA. 5. Obtención de un derecho de autor en software de procesamiento de 3D y/ó video. 5. Implementación de algoritmos de reconocimiento de patrones de enfermedades usando las imágenes de mamografía con base en FWA funciones. II. RESULTADOS FINALES EN EL SEGUNDO AÑO DEL PROYECTO
• Se implementó el procesamiento de imágenes 2D/3D y/ó video usando hardware DSP y FPGA mejorando las características del filtrado.
• Se justificó efectividad de funciones Wavelets con base en funciones atómicas para comprimir las imágenes digitales de ultrasonido y mamografía.
• Se implementó y justificó efectividad de un sistema CAD para ayudar los médicos en diagnosis de cáncer de mama las imágenes digitales de mamografía.
• Se formó tres Maestros en Ciencias y tres Doctores en Ciencias durante de 2008.
• Se publicó 3 artículos en Revistas internacionales (ISI), 9 artículos en revistas Internacionales con arbitraje estricto, 12 artículos en extenso en Congresos Internacionales y 5 en Congresos Nacionales.
III. IMPACTO
- Los experimentos con procesamiento de imágenes 3D y video usando correlación temporal de las imágenes vecinas que presentan mejores resultados en comparación con existentes. - Selección y justificación las funciones Wavelets con base en funciones atómicas que son más eficientes en compresión de las imágenes de mamografía y ultrasonido. - Experimentos que justifican efectividad de un sistema CAD en diagnóstico de anomalías en imágenes digitales de mamografía. - Se concluyó las tres tesis de maestría y las tres tesis de doctorado (graduación) durante 2008. Además, dos tesis de maestría están en proceso. Se espera las defensas de dos tesis de maestría durante año 2009.