proyecto fin de carrera ingeniero de telecomunicaciones
TRANSCRIPT
Eugenia Ramírez Solano Página 1
Escuela Superior de Ingeniería
Universidad de Sevilla
Septiembre, 2013
Estudio de imágenes
dermatoscópicas para el
diagnóstico de lesiones de la
piel basado en análisis de
patrones
Autor: Eugenia Ramírez Solano
Tutor: Begoña Acha y Carmen Serrano
Proyecto Fin de Carrera
Ingeniero de Telecomunicaciones
Eugenia Ramírez Solano Página 3
ÍNDICE 1. INTRODUCCIÓN ..................................................................................................................... 5
1.1. Contexto del proyecto ................................................................................................... 5
1.2. Problema a resolver ...................................................................................................... 6
1.3. Metodología usada para la resolución del problema ................................................... 9
2. LESIONES PIGMENTADAS DE LA PIEL .................................................................................. 13
2.1. Incidencia del cáncer ................................................................................................... 13
2.2. Reglas clínicas para el diagnóstico .............................................................................. 14
2.3. Tipos de lesiones ......................................................................................................... 16
3. TRATAMIENTO DIGITAL DE IMÁGENES PARA CLASIFICACIÓN ............................................ 19
3.1. Estado del arte ............................................................................................................ 19
3.2. Algoritmo implementado ............................................................................................ 25
3.2.1. Estudio en escala de grises .................................................................................. 27
3.2.2. Estudio en color, Lab ........................................................................................... 30
4. RESULTADOS ....................................................................................................................... 35
4.1. Material usado ............................................................................................................ 35
4.2. Resultados ................................................................................................................... 36
5. CONCLUSIONES ................................................................................................................... 43
6. REFERENCIAS Y BIBLIOGRAFÍA ............................................................................................ 45
Eugenia Ramírez Solano Página 5
1. INTRODUCCIÓN
1.1. Contexto del proyecto En este proyecto desarrollaremos un algoritmo para el estudio de imágenes
dermatoscópicas basándonos en el análisis de patrones. Sin embargo, antes de
adentrarnos en esta materia sería interesante explicar algunos conocimientos médicos
que, aunque están fuera del objetivo de este proyecto, ayudarán a la contextualización
de nuestro trabajo.
Existen dos tipos fundamentales de cáncer de piel en función de la célula de la
cual se originen:
Melanoma: este cáncer surge en los melanocitos, que son células que forman
parte de la epidermis, la capa más superficial de la piel. El caso más típico de
esta patología es un lunar que degenera en melanoma. Este cáncer se da con
poca frecuencia pero es el más agresivo.
Actualmente supone un foco de atención desde el punto de vista médico ya
que en los años 80 se detectó un aumento de la enfermedad y desde entonces
la incidencia del melanoma no ha hecho más que aumentar por la base
genética que tiene.
Cáncer no melanoma: es debido a los queratinocitos que son células que, al
igual que en el caso anterior, forman parte de la epidermis. Hay dos tipos de
tumores dentro de este grupo:
- Carcinoma basocelular: es el cáncer de piel más frecuente. Suele
aparecer en la tercera edad, en pieles con un daño crónico por el sol,
aunque también puede aparecer en personas jóvenes con mucho
tiempo en exposición solar. En este tipo, la lesión aparece en piel
sana, a diferencia del melanoma que, como hemos comentado antes,
surge normalmente por la degeneración de lesiones benignas. El
carcinoma basocelular no da metástasis, (existen algunos casos pero
se consideran excepciones) crece célula a célula por contigüidad sin
invadir a distancia.
Eugenia Ramírez Solano Página 6
- Carcinoma espinocelular: aparece sobre todo en mucosas, es poco
frecuente y a diferencia del anterior puede producir metástasis. El
principal factor de la aparición de este cáncer es el sol aunque
también hay otros factores que crean mayor predisposición como los
genéticos, las radiaciones, algunas sustancias químicas, etc.
1.2. Problema a resolver En la actualidad, el número de casos de cáncer de piel diagnosticados, ha
aumentado significativamente debido tanto a la concienciación de la población como a
los avances hechos en la materia. Este incremento se ha producido principalmente en el
sector de población de jóvenes y mujeres por su mayor exposición al sol.
Para evitar desarrollar esta enfermedad, es muy importante la revisión de las
lesiones de la piel pudiendo conseguir una detección temprana. Con ese fin, se
desarrollan nuevos algoritmos y nuevas herramientas facilitadoras de la labor del
dermatólogo que le permitan obtener un diagnóstico precoz y fiable de esta patología.
La Dermatoscopia es la técnica no invasiva de diagnóstico que facilita el estudio
de las lesiones para poder realizar un tratamiento precoz. Utiliza un sistema de
magnificación con luz incidente que permite observar estructuras de la epidermis y la
dermis, las dos capas más superficiales de la piel, que a simple vista no son visibles. En
ningún momento hay que olvidar que esta técnica es una herramienta para
complementar al médico y contribuir a la eficiencia de su diagnóstico. Los avances
obtenidos en esta área nunca podrán sustituir al especialista.
Una vez obtenida la imagen de la lesión el siguiente paso es clasificarla. Para
realizar la evaluación dermatoscópica de la lesión cutánea es muy común usar el método
de diagnóstico en dos etapas. En el CNMD, el Consensus Net Meeting on Dermoscopy,
este procedimiento fue el usado por la mayoría de sus participantes para clasificar las
lesiones [3].
En la primera fase del procedimiento se cataloga la imagen en melanocítica o no
melanocítica. Para ello, se evalúa la presencia de una serie de características propias de
los tumores melanocíticos, quedando catalogada como lesión melanocíticas en caso de
detectarlos. Si estos criterios no se encuentran en la lesión se deberán evaluar las
características específicas de los tumores no melanocíticos. Si la lesión tampoco
Eugenia Ramírez Solano Página 7
presentara estas características se considerará lesión melanocítica. Esto se debe a que las
lesiones melanocíticas son las que podrían derivar en un melanoma, que como ya
dijimos anteriormente, es el cáncer más agresivo. Este es el motivo por el cual en caso
de no poder discernir entre un tipo u otro, la consideremos un posible melanoma,
minimizando así el riesgo de infradiagnóstico.
Una vez que esta clasificación es realizada se pasa a la siguiente etapa del
procedimiento. En la segunda fase, dentro del grupo de lesiones clasificadas
anteriormente como lesiones melanocíticas, se aplican algoritmos para diferenciar los
melanomas de las lesiones melanocíticas benignas. En este segundo paso se pueden usar
distintos algoritmos para el estudio de las lesiones. Los más comunes son:
- La regla de los 7 puntos
- La regla ABCD
- El método de Menzies
- Análisis de patrones
Además de las cuatro reglas clínicas mencionadas también existen más
algoritmos que han ido surgiendo conforme se profundizaba en la materia como pueden
ser el método ABCD(E) de Kittler o la lista de los 3 puntos de Soyer, etc.
En el CNMD, se evaluaron la especificidad y sensibilidad de los cuatro
algoritmos más comunes. De los resultados obtenidos se llegó a la conclusión de que
para el diagnóstico del melanoma el análisis de patrones era el más eficiente en términos
de especificidad y sensibilidad (83,4% y 83,7% respectivamente). El resto de algoritmos
a pesar de tener una sensibilidad similar a la del análisis de patrones, la especificidad era
menor (entre un 11,9% y un 13.4% menos) [3]. En este proyecto nos centraremos en el
estudio del análisis de patrones como algoritmo de clasificación de las lesiones
melanocíticas para implementar un método que detecte determinados patrones en las
imágenes.
Eugenia Ramírez Solano Página 8
Este proceso de clasificación que acabamos de explicar queda recogido en la
siguiente figura. Este algoritmo es conocido en el entorno médico por “Algoritmos de
diagnóstico”. (Nótese que, como ya hemos comentado, en el caso de no poder discernir
entre melanocítica o no melanocítica, la lesión se cataloga como melanocítica como
medida preventiva para así, contemplar la posibilidad de que sea el cáncer más
agresivo).
Ilustración 1 – Algoritmos de diagnóstico en 2 etapas
Eugenia Ramírez Solano Página 9
1.3. Metodología usada para la resolución del problema Como ya hemos comentado, el análisis de patrones es un método muy usado
para la detección de melanomas, de ahí que nos centremos en su estudio ya que es el
preferido por los dermatólogos profesionales, como apuntaron los participantes del
CNMD.
Este método se basa en buscar patrones determinados en la lesión bajo estudio
que guíen al dermatólogo al emitir el diagnóstico de la misma. Dentro de los múltiples
patrones que hay, los criterios establecen que lesiones con patrones globular,
empedrado, homogéneo o estrellado están asociadas a diagnósticos de lesiones
melanocíticas benignas mientras que el patrón paralelo y el multicomponente están
relacionados con el melanoma [3].
En nuestro trabajo, en primer lugar, se implementó un método que, basándose en
la textura de la imagen detectara 4 patrones: reticulado, paralelo, homogéneo y
empedrado. Este método se basa en la idea de que cada textura tiene un patrón que se
repite entre un píxel y su conjunto de vecinos. Es decir, si subdividimos la imagen de la
lesión en vecindarios estos guardarán cierto parecido en función del patrón de la imagen
bajo observación.
Por ejemplo, en el caso del homogéneo si tomamos un píxel cualquiera de
referencia y su vecindario 3x3 todos estos píxeles tendrán el mismo color o un color
muy similar por lo que los valores de los píxeles de dicho vecindario serán muy
parecidos. De esta forma una imagen con patrón homogéneo estará formada por un
conjunto de vecindarios cuya característica común será que los píxeles tienen un valor
similar. En la siguiente figura podemos observar una imagen de una lesión de la cual se
han extraído tres regiones a modo de vecindarios para representar lo explicado. Como se
puede comprobar las tres se caracterizan por tener un color similar, es decir, todos los
píxeles tienen un valor parecido.
Eugenia Ramírez Solano Página 10
Ilustración 2 – Lesión con patrón homogéneo
En el caso del patrón paralelo hemos extraído de nuevo tres regiones distintas de
la lesión. En este caso la característica que se repite es que los vecindarios están
formados por líneas verticales, de forma que los píxeles de las líneas verticales tendrán
un valor y aquellos donde no haya línea compartirán otro valor.
Ilustración 3 – Lesión con patrón paralelo
Eugenia Ramírez Solano Página 11
Así pues se implementó un algoritmo que extrajera esta característica que
comparten las imágenes de un mismo patrón y usara el resultado obtenido para formar
un modelo con el que poder clasificar imágenes nuevas.
Posteriormente con la intención de mejorar los resultados obtenidos por este
primer método se incluyó el color en el algoritmo de forma que caracterizamos los
patrones por textura y color en lugar de trabajar en grises como se hacía en el primer
método.
En este documento se profundizará sobre ambos algoritmos y se mostrarán los
resultados obtenidos en los experimentos llevados a cabo.
Eugenia Ramírez Solano Página 13
2. LESIONES PIGMENTADAS DE LA
PIEL
2.1. Incidencia del cáncer Según la AECC, Asociación Española contra el Cáncer, actualmente se
diagnostican unos 160.000 casos de melanomas al año en todo el mundo (79.000
hombres y 81.000 mujeres).
En Europa este cáncer es más frecuente entre las mujeres mientras que en el
resto del mundo es al contrario. La mayor incidencia se registra en países con fuerte
irradiación solar y con una población blanca no autóctona, como puede ser en Australia,
Nueva Zelanda, USA y Sudáfrica. En Europa es más frecuente en el norte y en el oeste
(población con piel muy blanca, expuesta al sol sobre todo en verano). Pero mientas que
en todas estas zonas la frecuencia del melanoma tiende a estabilizarse e incluso a
disminuir, sigue aumentando en el sur y el este de nuestro continente.
En España se diagnostican unos 3.600 casos anuales y al igual que en el resto de
Europa, es un tumor más frecuente entre las mujeres (2,7% de los cánceres femeninos)
que entre los hombres (1,5%). La incidencia en nuestro país se puede considerar alta
(tasa ajustada mundial en 2002: 5,3 nuevos casos/100.000 habitantes/año en hombres y
5,5 en mujeres), con un ascenso muy importante, especialmente desde los años 90.
En lo que respecta a la edad en la que se detectan los tumores se registran casos
prácticamente a cualquier edad, aunque la mayoría se diagnostican entre los 40 y los 70
años.
El carcinoma espinocelular supone el 20-25% de los tumores malignos. Al tener
una estrecha relación con la exposición solar esta incidencia ha aumentado en casi todos
los países. En el caso del carcinoma basocelular la incidencia está aumentando en un
10% anual y supone el 80% de los casos de cáncer de piel.
Eugenia Ramírez Solano Página 14
2.2. Reglas clínicas para el diagnóstico Desde el punto de vista clínico, el médico puede usar distintos métodos para
evaluar si una lesión melanocítica es benigna o es un melanoma. Hay muchas reglas
clínicas para diagnosticar el melanoma que han ido surgiendo conforme se ha
profundizado en la materia, sin embargo, aquí solo daremos una breve explicación de
las 4 reglas más comunes.
- 7-point checklist: En este método, también conocido como la regla de los 7
puntos, se definen 7 criterios: Athypical pigment network, Blue-whitish veil,
Atypical vascular pattern, Irregular streaks, Irregular gobules, Irregular blotches.
Las definiciones de estas características se recogen en la siguiente tabla:
Ilustración 4 - Criterios de la regla de los 7 puntos
Los tres primeros criterios se consideran los criterios principales y les
corresponden dos puntos a cada uno mientras que los restantes se consideran
secundarios y tienen asignados un punto para cada uno de ellos. De esta forma
cuando el médico analiza la lesión, evalúa si esta presenta alguno de los 7
criterios definidos y en caso de tenerlos suma los puntos correspondientes. Si al
terminar la evaluación la lesión tiene una puntuación de 3 o superior el
diagnostico estará asociado a un melanoma. Si por el contrario es menor, se
considerará una lesión melanocítica benigna.
Eugenia Ramírez Solano Página 15
- Menzies method: En este método se definen 2 características llamadas
“Negative features” y otras 9 características llamadas “Positive feautures”. La
definición de todas ellas se recoge en la tabla que se muestra a continuación:
Ilustración 5 - Características de Menzies
La lesión será diagnosticada como un melanoma si no aparece ninguno de los
dos criterios negativos y aparece al menos uno de los 9 criterios positivos.
Eugenia Ramírez Solano Página 16
- ABCD Rule: en este método se establecen cuatro criterios: la asimetría, los
bordes, el color y las estructuras dermatoscópicas. Estos criterios se definen a
continuación:
Ilustración 6 - Regla ABCD
El médico, según las calificaciones de la tabla anterior, puntuará los criterios que
se observen en la lesión y con la ayuda de una fórmula, se estimará la
puntuación total de la misma. Si el valor obtenido es menor que 4.75 la lesión
melanocítica es benigna; si pertenece al intervalo [4.8-5.45] la lesión se
considerará sospechosa y se recomienda su extirpación o seguimiento;
finalmente si el valor es mayor que 5.45 se considera posible melanoma.
- Análisis de patrones: como ya se ha comentado esta técnica es la más usada por
los médicos experimentados en la materia. Existen dos modalidades en función
de si se detectan patrones globales o patrones locales. Los patrones globales son
aquellos que cubren la mayor parte de la lesión permitiendo una categorización
preliminar rápida. Por otra parte, los patrones locales son aquellas estructuras
individuales presentes en distintas regiones de la lesión. Aquel patrón local que
sea predominante será el que determine el patrón global.
2.3. Tipos de lesiones Las lesiones con las que trabajaremos en este proyecto serán, como ya hemos
comentado, aquellas que tengan patrones globales, es decir, lesiones que presenten un
patrón que cubra la mayor parte de la lesión. A pesar de que existen muchos patrones
globales en este trabajo nos hemos centrado en el estudio de cuatro en particular: el
“Reticular pattern”, “Cobblestone pattern”, “Homogeneus pattern” y “Parallel pattern”.
Las características de estos patrones se detallan a continuación:
Eugenia Ramírez Solano Página 17
Reticular: se caracteriza por una red pigmentada que cubre la mayor parte de la
lesión. La red suele estar formada por finas líneas de color marrón. Este patrón
es común en las lesiones melanocíticas y suele conllevar el diagnóstico de
“Melanocytic nevus”, que es una lesión melanocítica benigna.
Ilustración 7 – Patrones reticulados
Cobbestone: esta textura está formada por glóbulos grandes muy cercanos. Su
traducción al español podría ser “empedrado” lo cual nos da una idea de su
aspecto. En este caso el diagnostico asociado sería “Dermal nevus”.
Ilustración 8 – Patrones empedrados
Eugenia Ramírez Solano Página 18
Homogeneous: en este caso la lesión presenta una superficie homogénea y no
presenta otras características locales. En este caso el diagnóstico es
“Melanocytic nevus”. Si el color de la lesión es azulino, tendremos un “Blue
nevus”.
Ilustración 9 – Patrones homogéneos
Parallel: este patrón es encontrado en las palmas de las manos y de los pies por
la particular anatomía de esas zonas de nuestro cuerpo (la piel ya tiene surcos de
por sí). El diagnóstico de este patrón puede estar asociado tanto a un “Acral
nevus” como a un “Melanoma”.
Ilustración 10 – Patrones paralelos
Eugenia Ramírez Solano Página 19
3. TRATAMIENTO DIGITAL DE
IMÁGENES PARA CLASIFICACIÓN
3.1. Estado del arte En las últimas décadas muchos han sido los autores que se han centrado en
desarrollar algoritmos de detección de patrones en las lesiones pigmentadas de la piel
por ser el método más usados por los dermatólogos. Los patrones pueden ser globales o
locales en función de si cubren la mayor parte de la lesión o de si están repartidos por
distintas regiones de la misma [14].
La red pigmentada, los puntos y glóbulos irregulares, el velo azul-blanquecino,
las estructuras de regresión o las estructuras vasculares son algunos de los patrones
locales que se detectan en los métodos desarrollados. El patrón local más estudiado es la
red pigmentada ya que es muy típico de las lesiones melanocíticas por lo que su
detección contribuye a la primera fase del procedimiento en dos etapas, la
diferenciación entre lesión melanocítica y no melanocítica. Además, si la red no es
regular el diagnóstico estará asociado al melanoma. Así pues gracias a toda la
información que aporta este patrón, los especialistas se han centrado en su detección.
Anantha et al. [6] trabajaron con dos algoritmos de identificación de texturas
llamados NGLDM y LAWS para la detección de la red pigmentada. Los resultados que
se obtuvieron en la correcta clasificación de las imágenes fueron de un 78% y un 65%
respectivamente sobre 155 lesiones a estudiar.
Sadegui et al. [9] desarrollaron un método basado en la detección de borde y la
búsqueda de estructuras cíclicas y mallas. La imagen se pasa por un filtro LOG el cual
detecta los cambios de intensidad dando como resultado una imagen binaria. En esta
imagen binaria se buscan estructuras circulares y en función de la densidad de la imagen
obtenida se decide si la imagen presenta una red pigmentada o no (Presento or Absent).
Un ejemplo de este proceso se recoge en la siguiente figura.
Eugenia Ramírez Solano Página 20
Ilustración 11 - Ejemplo del método de Sadeghi
Para probar el método se evaluaron 500 imágenes y se obtuvo un porcentaje de
acierto del 94.3%
Baratah et al[7] se centraron también en la detección de la red pigmentada. Su
método usó bancos de filtros direccionales obteniendo, al igual que en el caso anterior,
una imagen binaria con la que detectar la presencia de la red o no. Los filtros
direccionales usados estaban basados en los filtros 2-D Gabor. El diagrama de bloques
del sistema que propusieron se recoge en la siguiente figura:
Eugenia Ramírez Solano Página 21
Ilustración 12 - Diagramas de bloques del algoritmos de Barata et al.
Muchos otros autores, como Celebi et al. [8], centraron su atención en otros
patrones locales. Celebi detectó el velo azul-blanco (blue-white veil).
Betta. Et al. [10] desarrollaron un método para detectar la red pigmentada atípica
o el patrón vascular atípico. Para la red pigmentada usaron técnicas espectrales y
estructurales de análisis mientras que para la segunda característica se basaron en las
componentes HLS del color. Tras realizar las pruebas pertinentes se observó que el
método para detectar la red pigmentada atípica daba buenos resultados, sin embargo el
segundo método tuvo algunas detecciones erróneas.
Gola et al. [11] por su parte intentaron detectar tres patrones globales. Para ello
desarrolló tres algoritmos distintos. Los dos primeros, basados en la detección de
bordes, detectaban el patrón globular y el reticulado. En el tercero analizaron el color en
RGB para detectar el “blue veil pattern”. Los tres algoritmos se probaron con un
conjunto de 20 imágenes por patrón global y tuvo un porcentaje de acierto del 85%.
Eugenia Ramírez Solano Página 22
Existen también muchos trabajos que usan bancos de filtros para el estudio de la
textura, formando distribuciones de entrenamiento a partir de las representaciones
estadísticas de las respuestas de los filtros.
En este campo, a pesar de aunque hay varios autores que trabajaron en él, se ha
cogido el clasificador VZ de Varma y Zisserman [2] como referente.
El clasificador VZ, como es habitual, se divide en dos etapas. En la primera
etapa de aprendizaje se crean los modelos de las texturas a partir de las respuestas a los
bancos de filtros de las imágenes de entrenamiento. En la segunda etapa una imagen
nueva se clasificará comparando su distribución con las de los modelos del
entrenamiento.
En la fase de entrenamiento las imágenes de entrenamiento son convolucionadas
con los bancos de filtros. El número de filtros del banco era normalmente 50 por lo que
para cada píxel de cada imagen se obtendrían 50 respuestas distintas, es decir, un píxel
quedaría representado por Nfil respuestas, siendo Nfil el número de filtros del banco.
En este punto habría que preguntarse si realmente es útil toda la información
obtenida ya que si cada píxel está representado por Nfil respuestas tendremos una
cantidad elevada de datos que manejar. Repasando nuestro objetivo y el explicado hasta
ahora, nuestra intención es ser capaz de clasificar imágenes según su textura. La textura
es una propiedad de los materiales que no se puede medir, es algo intuitivo.
Observemos las siguientes imágenes de texturas:
Ilustración 13 – Ejemplos de texturas
Eugenia Ramírez Solano Página 23
La mayoría de la gente coincidiría en que la primera sería una textura granulada,
y la segunda una textura rugosa, por lo que aunque no tenemos forma de cuantificar la
textura sí somos capaces de diferenciar entre ambas. Esto se debe a que los píxeles de
cada imagen guardan una relación entre sí que los caracteriza. En el primer ejemplo la
imagen está compuesta de mucho gránulos, en el caso de que tuviéramos una imagen
lisa todos los píxeles serían iguales y así con cada tipo de textura. Se deja ver pues, que
una textura tiene ciertas propiedades espaciales que se repiten, es decir, contiene mucha
información redundante en sí misma.
Retomando la pregunta que nos hacíamos anteriormente, ¿toda la información
que obtenemos de los bancos de filtros es necesaria? La respuesta obviamente es
negativa por la explicación que acabamos de dar. Así pues, tras procesar todos los
píxeles de todas las imágenes tendríamos Nfil componentes por cada píxel procesado
como comentamos anteriormente. Sin embargo, al tener información redundante surgió
la idea del “clustering”, que se basa en reducir la información obtenida a un conjunto
pequeño de prototipos de respuesta a los filtros. Estos prototipos son conocidos como
textons. El algoritmo de cuantización usado normalmente es el K-means.
Antes de explicar los fundamentos del k-means explicaremos un par de
conceptos que nos ayudarán a entender el método. Llamamos “cluster”, o grupo, a un
conjunto de objetos que son similares entre ellos y diferentes de los objetos que
pertenecen a otro “cluster”. De esta forma cuando hablamos de “clustering” estamos
hablando de subdividir el conjunto de datos que tenemos en grupos que guarden
similitudes entre sí.
El k-means, como hemos dicho, es el algoritmo de clustering más usado y
conocido. Su nombre se debe a que representa cada uno de los cluster por la media de
sus puntos, es decir, por el centroide del grupo. El método se inicia con K cluster
iniciales. A continuación se asignan los datos al cluster más cercano. Cuando todos los
datos tienen un centroide asociado se recalcula el centroide formado por el conjunto de
puntos y de nuevo se vuelven a reasignar los puntos. Este proceso se repetirá hasta que
el sistema converja y obtengamos los cluster definitivos o textons. Un ejemplo del K-
means se muestra en la siguiente figura:
Eugenia Ramírez Solano Página 24
Ilustración 14 - Ejemplo de Clustering
En el ejemplo vemos cómo se han dibujado un elevado número de puntos. Sin
embargo como están localizados por zonas podemos quedarnos con los centroides de
esas nubes. En nuestro algoritmo haremos lo mismo para reducir puntos pero en un
espacio 8-dimensional.
Así pues, continuando con el clasificador VZ, para simplificar los resultados
obtenidos del banco de filtros se aplicó k-means. Los centroides de los clusters, o
textons, obtenidos formaron la base del diccionario de modelos de texturas. Una vez que
se obtuvo este diccionario de textons se pasó a formar los modelos de las imágenes de
entrenamiento. Para ello, se asignó cada píxel de una imagen al centroide más cercano.
Estos datos quedaron recogidos en un histograma que sería el modelo de la imagen. Este
histograma por tanto estaría compuesto por tantos bins como componentes tuviera el
banco de filtros.
Este proceso se repitió para todas las imágenes que formaron el entrenamiento
por lo que cada textura quedó representada por tantos modelos como imágenes de
entrenamiento hubiera de dicha textura en el conjunto.
Para catalogar una imagen nueva, en la etapa de clasificación se compararía el
modelo de dicha imagen con los modelos aprendidos anteriormente. Para ello la imagen
nueva se convolucionaría con el banco de filtros de nuevo obteniendo las respuestas
Eugenia Ramírez Solano Página 25
correspondientes. Estas se compararían con los textons del diccionario quedando otra
vez cada píxel de la imagen de prueba asociado a un texton y dando lugar al histograma
propio de la imagen de test. El último paso sería comparar este histograma con los
modelos formados en la etapa de entrenamiento. La imagen de test pertenecerá a la
textura del modelo más cercano al histograma de test. Para medir la distancia entre los
histogramas y poder realizar la comparación Varma usó la medida de distancia χ².
3.2. Algoritmo implementado Tras investigar los algoritmos implementados para el análisis de patrones
centramos nuestro proyecto en Varma y Zisserman y su algoritmo basado en el conjunto
de vecinos [2]
Al desarrollar el clasificador VZ basado en bancos de filtros, Varma y Zisserman
se centraron en reducir la carga computacional que este requería. Es por ello que se
comenzó a investigar sobre cómo extraer la información que caracteriza la textura sin
tener redundancia. Finalmente demostraron que, en lugar de trabajar con un banco de
filtros, se podría trabajar con el conjunto de vecinos de cada píxel ya que en ellos se
encontraba el patrón que definiría la textura, ahorrando tener tanta información
redundante y tanto coste computacional [1]. Implementaron varios algoritmos basados
en esta idea que explicaremos a continuación.
Este algoritmo, es prácticamente igual al clasificador VZ con la salvedad de que
se sustituye el banco de filtros y en su lugar se trabaja con el vecindario de cada píxel de
la imagen. De esta forma, para cada píxel, se cogía su conjunto de vecinos (NxN, en
nuestro caso 3x3), se reordenaba y se almacenaba en un vector formando un espacio N²
dimensional. De esta forma, el algoritmo procesaba, por cada imagen de una textura, el
píxel central y sus vecinos y los iba guardando en una matriz. Aplicando k-means a esta
matriz se obtendrían los centroides, o más comúnmente, los textons que se usarían para
formar el modelo de cada imagen de entrenamiento. Estos textons estarían en un espacio
N-dimensional, es decir, cada texton tendría N componentes. Para el caso de un
vecindario de 3x3, los textons serían puntos de 9 coordenadas.
Varma y Zisserman demostraron en su estudio que había suficiente información
en la distribución de probabilidad conjunta de los 9 valores (el píxel central y sus 8
vecinos) para poder discriminar entre tipos de texturas. Este clasificador recibió el
nombre de Joint Classifier.
Eugenia Ramírez Solano Página 26
A continuación estudiaron las relaciones entre el píxel central y el conjunto de
vecinos y cómo de significante era la distribución de probabilidad conjunta para la
clasificación. Se llegó a la conclusión de que aunque el píxel central es significativo la
probabilidad estaba condicionada realmente por el conjunto de vecinos por lo que
eliminaron el píxel central y trabajaron únicamente con el vecindario. De esta forma en
lugar de almacenar el píxel central con sus 8 vecinos se quedaron con estos últimos. En
este caso los textons pasaron a tener N-1 componentes. Los resultados obtenidos con
este método fueron muy similares a los del Joint Classifier. Este método recibió el
nombre de Neighbourhood classifier.
Finalmente, se pasó al otro extremo y se estudió la distribución del píxel central
condicionada por sus vecinos. Para ello, en primer lugar se obtuvieron los textons
teniendo en cuenta solamente los 8 vecinos, como se hizo en el Neighbourhood
classifier. A continuación se asignaron los píxeles de las imágenes a los textons más
próximos, como se hacía en los anteriores clasificadores. Sin embargo en este
algoritmo, para cada texton, para los píxeles asociados, se tuvo en cuenta el valor de
cada uno de ellos obteniendo así un histograma. El modelo por tanto ahora estaba
formado por tantos histogramas como textons hubiera, y cada histograma tendría tantos
bins como intervalos de intensidad del píxel central se consideraran.
Resumiendo, el modelo de una imagen de entrenamiento sería un conjunto de
histogramas unidimensionales, uno por cada textons, en el cual se indicaría el valor de
los píxeles centrales asociados al textons en cuestión. Este clasificador se denominó
MRF (Markov Random Field) Classifier. Los resultados obtenidos en la clasificación de
imágenes nuevas fueron mejores que con los dos algoritmos anteriores como
demostraron VZ en sus pruebas [2].
A continuación explicaremos con algo más de detalle los algoritmos
desarrollados en nuestro caso.
Eugenia Ramírez Solano Página 27
3.2.1. Estudio en escala de grises
Como ya se ha comentado en este proyecto nos hemos centrado en detectar
cuatro texturas: homogéneo, paralelo, reticulado y empedrado. El primer paso es crear
el diccionario de textons para formar los modelos de las texturas. Estos modelos serán
comparados con los modelos de las imágenes a clasificar pudiendo clasificar así dichas
imágenes.
Tras estudiar los tres algoritmos de Varma y Zisserman se decidió implementar
el MRF Classifier por ser el más eficiente.
En primer lugar, se cargaron las imágenes en escala de grises de forma que cada
píxel podía tener un valor de intervalo [0,255]. A continuación se recorrió el conjunto
de imágenes de cada textura reordenando los píxeles de la imagen. Para ello por cada
píxel se tomó su vecindario 3x3 formando un vector en un espacio 8-dimensional.
Todos los vectores se almacenaron en una matriz de dimensiones [Nº píxel totales, 8].
Para reducir la gran cantidad de puntos obtenidos, y recordando que tenemos
redundancia en los datos, se aplicó k-means para quedarnos solo con 10 centroides.
Este proceso se realizó para las cuatro texturas por lo que finalmente se
obtuvieron 40 textons, 10 por cada textura, que formaron el diccionario de textons. Una
vez obtenidos los textons, se asignó cada punto 8-dimensional (el vecindario) al
centroide más cercano al mismo (este proceso lo hace internamente el k-means).
Finalmente solo quedaría calcular la distribución del píxel central condicionada
por sus vecinos para obtener el modelo de la imagen de entrenamiento. Para ello, se
formó un histograma unidimensional por cada centroide con tantos bins como
particiones se hubieran tomado en el intervalo [0,255]. Así pues la búsqueda que se
llevó a cabo fue, por cada imagen, por cada centroide, por cada píxel central asociado a
dicho centroide, a qué intervalo del rango [0,255] pertenecía. De esta forma, el modelo
de cada imagen de entrenamiento estaría formado por 40 histogramas (uno por cada
centroide), cada uno de los cuales representaría el valor del píxel central para los
conjuntos de vecinos asociados al centroide del histrograma.
Repitiendo este proceso de formación de histogramas para cada una de las
imágenes de entrenamiento obtuvimos el “Diccionario de texturas”. A continuación se
muestra el diagrama de bloques del algoritmo implementado:
Eugenia Ramírez Solano Página 29
Una vez obtenidos los modelos de las imágenes de aprendizaje se pasa a la etapa
de clasificación en la cual se compara el modelo de la imagen a clasificar con los
modelos del entrenamiento por lo que lo primero que había que hallar era el modelo de
la imagen de test. Para obtener este modelo se cargó la imagen en escala de grises y se
procesó de la misma forma que las imágenes de aprendizaje, guardando los vecindarios
de cada píxel en una matriz. A continuación se asignó el centroide más cercanos de los
40 del diccionario a cada uno de los puntos 8-dimensionales almacenados. Finalmente
se hallaron los histogramas para cada centroide según el valor del píxel central de cada
conjunto de vecinos. Este proceso se llevaba a cabo respondiendo a la siguiente
pregunta: por cada centroide, para cada píxel central asociado a ese centroide, ¿a qué
intervalo pertenecía? De esta forma ya tendríamos formado el modelo de la imagen y
estaríamos en disposición de comparar con los modelos del entrenamiento con el nuevo
modelo formado.
En un principio se usaron varios algoritmos de medición de distancias entre
histogramas para realizar estas comparaciones: batthacharyya distance, χ² y The Earth
Mover's Distance (EMD).
Los dos primeros son del tipo “bin-to-bin” porque se asume que los histogramas
ya están alineados de forma que el bin de un histograma es comparado con el
correspondiente bin del otro histograma. Estas distancias se definen a continuación
[12],[13]:
( )
∑
( )
√ ∑√
En el caso del EMD la comparación es “cross-bin”, es decir, una comparación
global entre bins, sin suponer que los histogramas están alineados. El EMD se basa en la
solución de un problema de transporte calculando los costes que suponen los transportes
en el histograma para igualarlos. La distancia EMD se muestra a continuación y se
observa como en este caso sí que se tiene en cuenta las relaciones entre bins distintos.
Eugenia Ramírez Solano Página 30
( ) ∑ ∑
∑ ∑ donde {
Tras hacer pruebas para comprobar cuál era el más eficiente y más apropiado
para nuestro caso, nos quedamos con el EMD, como era de esperar al ser “cross-bin”.
El algoritmo implementado nos devolvía la imagen de entrenamiento a la que
más se parecía la imagen a catalogar, por lo que comprobando a qué textura pertenecía
el modelo de entrenamiento señalado ya teníamos la imagen clasificada.
3.2.2. Estudio en color, Lab
En un intento de mejorar el algoritmo anterior, se contempló la idea de
introducir el color en lugar de trabajar en escala de grises. El fundamento del algoritmo
es exactamente igual que el explicado en el apartado anterior.
El primer paso sería leer la imagen en Lab, que es el espacio de color en el que
vamos a trabajar. Sin embargo en este caso tendríamos por cada píxel, tres componentes
(Lab) en lugar de un valor del rango [0,255] como teníamos antes.
Así pues, al trabajar en color, necesitamos un pre-procesado de la imagen antes
de poder estudiar la textura para conseguir tener un único valor por píxel en lugar de
tres componentes. La solución está en la línea de lo hecho hasta el momento.
Al leer las imágenes tendremos por cada píxel, un vector de tres componentes
correspondientes a las componentes “L”, ”a” y ”b” que forman el color del píxel. De
esta forma leeremos todos los píxeles de todas las imágenes y almacenaremos su color
en una matriz. De nuevo podemos intuir que en esta matriz de colores habrá muchos de
ellos repetidos, ya que algunos formarán parte de la misma imagen e incluso, los colores
de las distintas lesiones son similares. Además las lesiones de la piel suelen tener
colores marrones, negros, azules y rara vez aparecerán colores como el rosa, el naranja,
etc. Es por ello que cuantificaremos los colores aplicando de nuevo k-means. De esta
forma pasaremos de tener colores a tener el número de colores que le indiquemos al
kmeans.
Pondremos un ejemplo aclaratorio. Supongamos que los colores recogidos de los
píxeles de las imágenes son los que se muestran en la siguiente figura (sabemos que esto
no es así porque ya hemos comentado que hay algunos colores que no se darán en las
lesiones pigmentadas de la piel):
Eugenia Ramírez Solano Página 31
Ilustración 16 - Ejemplo del k-means del color
En la imagen comprobamos que tenemos una cantidad muy elevada de colores
con la cual es difícil trabajar. Si aplicamos k-means podríamos reducir dichos colores a
tantos como nº de centroides le indiquemos al k-means. De esta forma, si
introdujéramos K=9, obtendríamos los centroides de 9 nubes de puntos, unificando los
colores de tonalidades similares y quedándonos finalmente con 9. La reducción de los
datos se puede apreciar en la siguiente figura:
Eugenia Ramírez Solano Página 32
Una vez que tengamos los centroides de los colores, debemos indexar dichos
colores. De esta forma haremos corresponder cada píxel, definido por un color en Lab
de tres componentes, con el índice del color más cercano. De este modo ya tendremos
los píxeles de las imágenes definidos por un único valor, el índice del color asociado.
En esta situación nos encontramos ya en el punto de partida del algoritmo en
escala de grises. Los píxeles de la imagen serán un único valor, si bien en el caso
anterior este valor era un número en la escala de grises [0,255], ahora será el índice del
centroide, es decir, del color, al que está asignado el píxel.
Ilustración 17 – Ejemplo del k-means para k=9
Eugenia Ramírez Solano Página 33
El procesamiento de las imágenes, junto con el desarrollo del algoritmo serán
iguales que en el estudio en escala de grises excepto al calcular los centroides asociados
a la textura.
En escala de grises almacenábamos el vecindario de cada píxel en una matriz y a
ese conjunto de puntos 8-dimensionales (el vecindario) le aplicábamos k-means para
obtener los centroides que definirían la textura. Los valores de los puntos eran números
de [0,255] correspondientes a la escala de grises. En el caso que nos ocupa los valores
de los puntos serían un valor del intervalo [1-nº de centroides], es decir, el índice del
color asociado. El k-means basa su funcionamiento en el cálculo de distancias entre
puntos, en el caso de grises calculaba la diferencia entre distintos grados de grises. En
este caso ha habido que modificar el k-means para que en lugar de realizar la distancia
entre índices de colores, que es el dato que recibe, calculara la distancia entre los
colores indexados por dichos índices. Explicaremos esto con un ejemplo sencillo.
Supongamos que los índices [34, 50, 35, 52, 40] corresponden con los colores [negro,
verdoso, amarillo, rosa, rojo] respectivamente. Supongamos también que el k-means
recibe, entre otros puntos, los dos siguientes: [34, 50, 35] y [35, 52, 40]. Al aplicar k-
means a estos vectores, este se basaría en las distancias entre dichos números, sin
embargo estos índices no se corresponden realmente con la posición que tienen los
colores a los que indexan en el espacio (índices cercanos no significa colores cercanos).
Para solucionar esta situación hubo que modificar el k-means para que no
subdividiera el conjunto de datos en función del índice del color al que estaban
asociados. Para definir los centroides a los que asociar los vecindarios compararía los
colores en sí de los puntos y no sus índices, es decir, calcularía la distancia euclídea
entre los colores representados por esos índices.
Una vez obtenidos los textons de la textura se hallaron los histogramas como se
hizo en el algoritmo en escala de grises, basándonos en el MRF classifier. Una vez que
se obtuvieron los modelos se implementó la etapa de clasificación.
En esta fase también se realizaron algunas modificaciones respecto al trabajo en
grises. La imagen a clasificar se cargó en Lab y a continuación se asoció el color de
cada píxel con el centroide de color más cercano de los obtenidos en la etapa de
entrenamiento. Una vez que los píxel de la imagen estaban definidos por el índice de un
color se aplicaba el k-means modificado y se formaban los histogramas del modelo.
Eugenia Ramírez Solano Página 34
Finalmente, había que comparar el modelo de la imagen de test con los modelos
de entrenamiento para poder catalogar la imagen con la textura del modelo al que
guardara más parecido. En este caso también hubo que modificar el EMD para que
calculara la distancia euclídea entre los colores indexados y no entre los índices en sí.
Eugenia Ramírez Solano Página 35
4. RESULTADOS
Para probar la validez de los algoritmos desarrollados se formó una base de
imágenes con la que poder trabajar. En primera instancia la formación de la misma
puede parecer algo trivial sin embargo la inmensa variabilidad de las lesiones, la calidad
del aparato con que se obtienen las imágenes e incluso las condiciones bajo las que estas
fueron tomadas hace que la elección de las imágenes requiera un gran trabajo.
Especialmente a la hora de elegir las imágenes de entrenamiento hubo que realizar un
trabajo minucioso ya que debían ser imágenes con el menor ruido posible y que
plasmaran claramente los patrones en base a los cuales se realizaría la clasificación
posteriormente.
4.1. Material usado Las imágenes que se han usado en este proyecto son del “Dermoscopy an
Interactive Atlas” [15]. Este atlas cuenta con muchísimas imágenes de lesiones sin
embargo con solo observar el atlas queda patente que las imágenes no fueron
conseguidas bajo condiciones similares. De esta forma hay muchas diferencias entre dos
imágenes que, por diagnóstico, debían presentar más similitudes que las observadas.
Este ha sido un gran problema a la hora de formar la base ya que tanta variabilidad
impide que el programa pueda establecer patrones regulares con los que poder catalogar
las imágenes.
Se ha trabajado con distintas bases de imágenes variando el tamaño de las
mismas (se ha trabajo con imágenes de 40x40, 50x50 y 81x81) o el número de
imágenes de la base. El conjunto de trabajo quedó finalmente formado por 78 imágenes
correspondientes a 4 texturas distintas: 20 de paralelo, 20 de reticulado, 18 de
empedrado y 20 homogéneo. El tamaño elegido de las imágenes fue 50x50 porque en
los conjuntos de 81x81 la carga computacional al tener tantos píxeles por imagen era
muy elevada y los tiempos de simulación llegaban a ser demasiado altos para los
medios de trabajo de los que se disponían.
Eugenia Ramírez Solano Página 36
4.2. Resultados Como ya se ha comentado anteriormente se ha trabajado con distintas bases con
características diferentes cada una. Es por ello que los resultados que se han obtenido
para cada base variaban según las propiedades de la misma. Cuanto mayor fuera el
número de imágenes con las que se trabajara mejores eran los resultados obtenidos. Sin
embargo en este apartado solo reflejaremos los resultados para la base definitiva.
Para probar los algoritmos se ha trabajado primero con un conjunto de imágenes
de entrenamiento a partir del cual se obtenían los textons necesarios para clasificar. Este
entrenamiento se realizaba con 15 imágenes de cada textura. A continuación se usaba el
conjunto de imágenes de test. Estas eran clasificadas comparando sus histogramas con
los obtenidos en el entrenamiento. De las texturas homogénea, paralelo y reticulado se
usaron 5 imágenes de test por cada una de ella sin embargo del patrón empedrado solo
se escogieron 3 imágenes de test.
Una vez realizada la primera prueba, las imágenes de test se incluían en el
conjunto de entrenamiento y de este se extraían el siguiente conjunto de imágenes para
clasificar. Este proceso se repitió en total 4 veces de forma que al final se clasificaron
20 imágenes de las texturas paralelo, empedrado y homogéneo y solo 12 imágenes de la
textura empedrada. Esta técnica es conocida como “Cross Fold Validation”
Eugenia Ramírez Solano Página 37
En el caso del algoritmo en escala de grises se hicieron dos pruebas. En primer
lugar se formó la base de entrenamiento con histogramas de 8 bins. El porcentaje de
acierto al clasificar las texturas fue de un 51,3889%. En la tabla que se muestra a
continuación podemos ver los resultados obtenidos con más detalle.
Ilustración 18 - Resultados en gris para histogramas con 8 bins
Eugenia Ramírez Solano Página 38
En la segunda prueba se aumentó el número de bins de los histogramas a 16
teniendo un porcentaje de 54.1667%. Los resultados detallados aparecen en la siguiente
tabla:
Ilustración 19 - Resultados en gris para histogramas con 16 bins
Como observamos en las dos tablas anteriores el homogéneo es el patrón mejor
detectado lo cual es lógico al ser el más simple. El que obtuvo el menor porcentaje fue
el reticulado.
Eugenia Ramírez Solano Página 39
Para los algoritmos en color el porcentaje de acierto aumentaba conforme
aumentaba el número de colores tenidos en cuenta durante el algoritmo por lo que se
hicieron de nuevos dos pruebas. En primer lugar se tomaron 15 colores y se obtuvo un
porcentaje del 59.7222%. Los resultados detallados muestran en la siguiente tabla:
Ilustración 20 - Resultados para 15 colores
Eugenia Ramírez Solano Página 40
Tomando 25 colores se obtuvo un 63.8889%. La tabla siguiente recoge estos
resultados:
En el caso del color el homogéneo sigue siendo el patrón mejor detectado. En
este caso la detección del patrón paralelo y del reticulado mejora notablemente con
respecto al trabajo en escala de grises. El patrón empedrado es, con diferencia el patrón
peor detectado. Una posible explicación a este hecho es que en el caso de ese patrón la
variabilidad respecto a las lesiones es mucho mayor y es más difícil definir un patrón
claro.
Como vemos estos resultados guardan cierta coherencia ya que al añadir el
color, aportamos más información para poder catalogar por lo que los resultados
mejoran. Sin embargo la falta de medios ha hecho que no se puedan realizar pruebas a
Ilustración 21 - Resultados para 25 colores
Eugenia Ramírez Solano Página 41
gran escala con mayor número de imágenes y más colores. Sería interesante llevar estas
pruebas a cabo para reafirmar la validez de los algoritmos y una vez comprobado añadir
más texturas al clasificador aunque para ello habría que disponer medios que soporten la
elevada carga computacional que requiere manejar tantos píxeles y trabajar en espacios
tan grandes (8-dimensional que es el mínimo que obtenemos con un vecindario 3x3).
Eugenia Ramírez Solano Página 43
5. CONCLUSIONES Tras estudiar los distintos métodos seguidos por los autores para análisis de
patrones se implementó un clasificador basado en el MRF Classifier de Varma y
Zisserman. Así pues desarrollamos el algoritmo para que detectara 4 de los patrones
comunes: el reticulado, el paralelo, el empedrado y el homogéneo. El funcionamiento se
comenta en líneas generales a continuación:
Etapa de aprendizaje
Leer las imágenes en escala de grises.
Reordenar la imagen, almacenando en vectores 8-dimensionales los vecinos de
cada píxel central, considerando un vecindario 3x3.
Reducir todos los puntos 8-dimensionales obtenidos aplicando k-means a 10
centroides por textura, 40 en total.
Asignar cada punto 8-dimensional al centroide más cercano obtenido en el k-
means.
Formar el modelo de la probabilidad condicionada del píxel central, esto es, para
cada imagen, cada centroide, para cada píxel asociado a dicho centroide, ¿a qué
intervalo del rango [0,255] pertenece? De esta forma se obtienen todos los
modelos de las imágenes de entrenamiento.
Etapa de clasificación
Se lee la imagen a clasificar en escala de grises.
Se reordena guardando por filas, el vecindario de cada píxel central.
Se asigna cada punto definido en el paso central al centroide más cercano
hallado en la etapa de entrenamiento.
Se forma el modelo siguiendo el mismo procedimiento que con las imágenes de
aprendizaje.
Se compara este modelo obtenido con los calculados en la fase anterior. Para
ello, se halla la distancia entre histogramas usando el método EMD, que es del
tipo cross-bin, (establece comparaciones globales entre histogramas).
Eugenia Ramírez Solano Página 44
En un intento de innovar y mejorar los resultados del algoritmo anterior se
contempló la idea de trabajar en color en lugar de en escala de grises. Así pues se
modificó el código anterior para poder trabajar en color como hemos explicado en la
sección 3.2.2.
Efectivamente, en los resultados de las pruebas realizadas se comprobó que el
algoritmo en color mejoraba los resultados obtenidos por el algoritmo en escala de
grises.
Sería muy interesante en el futuro seguir mejorando ambos clasificadores
aumentando el tamaño del vecindario escogido o considerando más colores. También
para reafirmar el buen funcionamiento de los clasificadores se podrían incluir más
texturas a detectar además de las cuatro con las que ya trabajamos.
Eugenia Ramírez Solano Página 45
6. REFERENCIAS Y BIBLIOGRAFÍA
[1] M. Varma, A. Zisserman. “Texture classification: Are Filter Banks Necessary?” Proc IEEE
Conf. Computer Vision and Pattern Recognition, vol.2, June 2003.
[2] M. Varma, A. Zisserman. “A Statistical Approach to Material Classification Using Imagen Patch
Exemplars” IEEE Transactions on pattern analysis and machine intelligence, vol. 31. November
2009.
[3] Argenziano G, Soyer HP, Chimenti S et al. “Dermoscopy of pigmented skin lesions: results of a
consensus meeting via the Internet”, J Am Acad Dermatol, 2003.
[4] T. Leung and J.Malik, “Representing and Recognizing the Visual Appearance of Materials using
Three-dimensional Textons”, Int’l J.Computer Vision, vol.43, June 2001
[5] Sadeghi, M., Lee, T.K., McLean, D., Lui, H., Atkins, M.S.: Global pattern analysis and
classification of dermoscopic images using textons. Progress in Biomedical Optics and Imaging
Proceedings of SPIE 8314, art. No. 83144X, 2012.
[6] Anantha, M., Moss, R.H., Stoecker, W.V.: Detection of pigment network in dermatoscopy
images using texture analysis. Computerized Medical Imaging and Graphics, 2004.
[7] Barata, C., Maques, J.S., Rozeira, J.: A system for the detection of pigment network in
dermoscopy images using directional filters. IEEE Transactions on Biomedical Engineering 59,
art. No. 10, 2012.
[8] Celebi, M.E., Iyatomi, H., Stoecker, W.V., Moss, R.H., Rabinovitz, H.S., Argenziano, G., Soyer,
H.P.: Automatic detection of blue-white veil and related structures in dermoscopy images.
Computerized Medical Imaging and Graphics 32, 2008.
[9] Sadeghi, M., Razmara, M., Lee, T.K., Atkins, M.S.: A novel method for detection of pigment
network in dermoscopic images using graphs. Computerized Medical Imaging and Graphics ,
2011.
[10] Betta, G., Di Leo, G., Fabbrocini, G., Paolillo, A., Sommella, P.: Dermoscopic image-analysis
system: estimation of atypical pigment network and atypical vascular pattern. IEEE International
Workshop on Medical Measurement and Applications, 2006.
[11] Gola Isasi, A., Garca Zapirain, B., Mndez Zorrilla, A.: Melanomas non-invasive diagnosis
application based on the ABCD rule and pattern recognition image processing algorithms.
Computers in Biology and Medicine, 2011.
[12] S. Dubuisson. The computation of the Bhattacharyya distance between histograms without
histograms. In International Conference on Image Processing Theory, Tools and Applications
(IPTA'10). Paris, France, July 7-10 2010.
[13] H. Ling and K. Okada, Diffusion Distance for Histogram Comparison, IEEE Conference on
Computer Vision and Pattern Recognition (CVPR), Vol. I, pp. 246-253, 2006.
[14] A.Saez, C.Serrano, B. Acha. Pattern analysis in dermoscopic images. In Computer Vision
Techniques for the Diagnosis Skin Cancer, Springer, 2013.
Eugenia Ramírez Solano Página 46
[15] G-Argenziano, H. Soyer, et al., “Interactive atlas of dermoscopy”, EDRA-Medical Publishing
and New Media, Milan, 2000.
[16] www.aecc.es, Asociación Española contra el Cáncer.
[17] www.cancer.org
Eugenia Ramírez Solano Página 47
Tabla de figuras Ilustración 1 – Algoritmos de diagnóstico en 2 etapas ................................................................. 8
Ilustración 2 – Lesión con patrón homogéneo ............................................................................ 10
Ilustración 3 – Lesión con patrón paralelo .................................................................................. 10
Ilustración 4 - Criterios de la regla de los 7 puntos ..................................................................... 14
Ilustración 5 - Características de Menzies ................................................................................... 15
Ilustración 6 - Regla ABCD ........................................................................................................... 16
Ilustración 7 – Patrones reticulados ............................................................................................ 17
Ilustración 8 – Patrones empedrados ......................................................................................... 17
Ilustración 9 – Patrones homogéneos ......................................................................................... 18
Ilustración 10 – Patrones paralelos ............................................................................................. 18
Ilustración 11 - Ejemplo del método de Sadeghi ........................................................................ 20
Ilustración 12 - Diagramas de bloques del algoritmos de Barata et al. ...................................... 21
Ilustración 13 – Ejemplos de texturas ......................................................................................... 22
Ilustración 14 - Ejemplo de Clustering ........................................................................................ 24
Ilustración 15 - Diagrama de bloques del algoritmo implementado .......................................... 28
Ilustración 16 - Ejemplo del k-means del color ........................................................................... 31
Ilustración 17 – Ejemplo del k-means para k=9 .......................................................................... 32
Ilustración 18 - Resultados en gris para histogramas con 8 bins ................................................ 37
Ilustración 19 - Resultados en gris para histogramas con 16 bins .............................................. 38
Ilustración 20 - Resultados para 15 colores ................................................................................ 39
Ilustración 21 - Resultados para 25 colores ................................................................................ 40