segmentaci on de subestructuras corticales del cerebro ... · cabeza del paciente (opci on...

28
ETSIDI universidad politecnica de madrid Segmentaci´ on de subestructuras corticales del cerebro humano desde im´ agenes T1-MR Tutor: D. Carlos Platero Due˜ nas Graduado: Juan Manuel Au˜ on Rodr´ ıguez de los Santos Marzo 2015

Upload: others

Post on 19-Apr-2020

8 views

Category:

Documents


0 download

TRANSCRIPT

ETSIDI

universidad politecnica de madrid

Segmentacion de subestructuras corticales delcerebro humano desde imagenes T1-MR

Tutor: D. Carlos Platero DuenasGraduado: Juan Manuel Aunon Rodrıguez de los Santos

Marzo 2015

Indice general

1. Introduccion 31.1. Procedimiento y tecnicas: Adquisicion y tratamiento de las MRI . . . . . . . . . . . . . . 4

1.1.1. Adquisicion de las imagenes de resonancia . . . . . . . . . . . . . . . . . . . . . . . 41.1.2. Tratamiento y procesamiento de las imagenes . . . . . . . . . . . . . . . . . . . . . 5

1.2. Objetivo del trabajo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61.3. Estructura del trabajo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

2. Calculo de ICV, estado de la tecnica 72.1. Shiva et al. 2010 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

2.1.1. Metodo solucion: RBM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82.1.2. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

2.2. Leung et al. 2011 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92.2.1. Descripcion del metodo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102.2.2. Resultados usando MAPS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112.2.3. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

2.3. Ramirez et al. 2011 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122.3.1. Calculo de volumen pvSH y dwSH dentro del SH . . . . . . . . . . . . . . . . . . . 132.3.2. Procesamiento de las imagenes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142.3.3. Segmentacion pvSH y dwSH . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152.3.4. Segmentacion pvSH y dwSH (lagunar y no lagunar) . . . . . . . . . . . . . . . . . 152.3.5. Salida final . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

2.4. Resultados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162.4.1. Todo el cerebro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162.4.2. Regiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

2.5. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

3. Extraccion del craneo 183.1. ¿Que es el Protocolo ENIGMA? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183.2. Procedimiento y pasos a seguir para el calculo del ICV . . . . . . . . . . . . . . . . . . . . 193.3. Resultados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

Capıtulo 1

Introduccion

La enfermedad del Alzheimer, considerada segun los expertos como la enfermedad mas importantedel s.XXI, afecta a dıa de hoy aproximadamente a 44 millones de personas en todo nuestro planeta, ylo que es peor, las previsiones son bastante pesimistas ya que se estima que su tendencia sera ascendente,hasta alcanzar los 135 millones de afectados en 2050. En Espana afecta al 4.2 % de la poblacion entre65 y 74 anos, al 12.5 % entre 75 y 84 anos y a mas del 27 % de las personas que superan los 85 anos. Porestos motivos, el Alzheimer es una de las principales preocupaciones de los gobiernos en todo el mundo.Actualmente no hay ningun tipo de tratamiento eficaz capaz de hacerle frente (el 99.6 % de los ensayosclınicos de estos tratamientos fracasan, segun estudio publicado por Cleveland Clinic).

Se sabe que existen ciertos tipos de proteınas implicadas en el desarrollo de la enfermedad, comoun fragmento de una proteına, el peptido amiloide, y la proteına tau entre otras. La evolucion de laenfermedad no es lineal y presenta fases de empeoramiento rapido y repentino, por lo que su desarrolloes impredecible.

El Dr. Guillermo Garcıa Ribas, medico especialista en la seccion de Neurologıa en el Hospital Ramony Cajal y Co-coordinador del proyecto “Know Alzheimer”, describe el desarrollo de la enfermedada partir de un proceso de precipitacion de las proteınas mencionadas anteriormente, que al volverseinsolubles y depositarse en la zona de conexion de las neuronas, se producen alteraciones, terminandoincluso con la propia destruccion. El mismo Dr. Garcıa Ribas compara este proceso de insolubilidad conel que sucede en la albumina, proteına presente en la clara del huevo, que en condiciones normales semuestra en estado “lıquido”, pero cuando se expone a una elevada temperatura, se solidifica y deja de sersoluble. Algo similar sucede en las neuronas.

A decir verdad, el Alzheimer es una enfermedad relativamente “desconocida”. Su estudio ha sido bas-tante complicado: el deterioro y atrofias de las estructuras cerebrales afectadas solo pueden ser analizadasuna vez fallece el paciente; tambien es difıcil determinar que proteınas son mas influyentes, o por que de-terminadas proteınas sufren ese proceso de precipitacion, debido a la gran cantidad de proteınas que seconocen (alrededor de 10.000) ası como el gran numero de ellas presentes en una celula (entre 800 y900 millones). Gracias a los avances en estos estudios, hoy sabemos que la enfermedad comienza con laatrofia de la corteza entorhinal y se va extendiendo hacia el hipocampo, areas altamente implicadas en elproceso de memoria, y de ahı hacia el resto del tejido cerebral.

3

Segmentacion de subestructuras corticales del cerebro humano desde imagenes T1-MR

1.1. Procedimiento y tecnicas: Adquisicion y tratamiento de las MRI

Tal y como se ha mencionado antes, la unica manera de saber con certeza cuales han sido las zonasafectadas es el analisis post-morten del paciente, y como es evidente, es importante en lo que se refiere aampliar nuestro conocimiento de la enfermedad, pero no de cara a proporcionar una cura o un tratamientoque retarde su desarrollo. Es por esto que se precisa de un metodo que ayude a los medicos a dar undiagnostico prematuro al paciente.

1.1.1. Adquisicion de las imagenes de resonancia

Una de las tecnicas mas importantes y que ha tomado mayor relevancia es el procesamiento y segmen-tacion de las imagenes de tomografıa o resonancia magnetica de la cabeza, metodo por el cual se obtieneinformacion de las estructuras o tejidos analizados a traves del fenomeno de la resonancia magnetica. Elprocedimiento de adquisicion de las imagenes es el siguiente:

El paciente se introduce en una maquina de resonancia o escaner, formada por una gran cantidadde componentes magneticos colocados con gran precision para obtener la informacion de los nucleosatomicos de la zona a estudiar.

Un iman superconductor (elemento principal) genera un campo magnetico constante muy potenteque afecta a los nucleos atomicos de la zona objetivo, produciendose una alineacion de los momentosmagneticos de dos tipos: todos los momentos magneticos alineados en el mismo sentido (estado odireccion paralela) o en sentidos opuestos (anti-paralela). La orientacion de los momentos juntocon la intensidad del campo, caracterıstica particular de cada maquina y que varıa entre los 0.5 y3 T (mas utilizadas 1.5T y 3T), determina la frecuencia de resonancia magnetica y el porcentajede nucleos atomicos en cada uno de los dos estados anteriores, proporcion gobernada por las leyesestadısticas de Maxwell-Boltzmann.

A continuacion se emite la radiacion electromagnetica a una frecuencia de resonancia determinada ylos nucleos que estaban en el estado paralelo pasaran a estado anti-paralelo (de baja a alta energıa)y tras un breve perıodo de tiempo, vuelven a emitir la energıa, cuya informacion se recoge con elinstrumental oportuno (bobina en funciones de antena (receptora y transmisora), amplificador ysintetizador de radiofrecuencia).

Uno de los inconvenientes es que al generarse un campo magnetico constante, la frecuencia deresonancia emitida por los nucleos con el mismo momento sera la misma, impidiendo que se tengainformacion espacial de los nucleos atomicos, y por lo tanto haciendo imposible diferenciar lasdistintas partes o tejidos que se analizan. Es por esto que se utilizan una serie de bobinas llamadasde gradiente, dispuestas de manera ortogonal, de modo que al emitir un campo magnetico con unaintensidad controlada, modifican la frecuencia de resonancia de los nucleos para que cada region delespacio este caracterizada por una frecuencia de resonancia distinta. La informacion final obtenidasera procesada por un equipo informatico para poder obtener finalmente el volumen de imagenesdel cerebro del paciente.

ETSIDI - UPM 4

Segmentacion de subestructuras corticales del cerebro humano desde imagenes T1-MR

1.1.2. Tratamiento y procesamiento de las imagenes

Una vez terminado el proceso de adquisicion se debe pasar a la fase de tratamiento y segmentacion delas imagenes para obtener resultados concluyentes. Lo normal es que encontremos las imagenes guardadascomo ficheros de tipo ANALYZE (que estan formados por dos archivos, uno de tipo *.img, que guarda losdatos de la imagen, y otro de tipo *.hdr, que guarda informacion sobre los tıtulos) o en formato NIFTI(archivos *.nii o *.nii.gz), que poco a poco se esta convirtiendo en el nuevo formato estandar de imagenesmedicas.

El tratamiento de las imagenes consiste en las diferentes tecnicas de transformacion con el objetivode preparar las imagenes para que puedan ser analizadas por un especialista. Para ello seran necesariasdiferentes herramientas software, como por ejemplo:

Insight Toolkit (ITK): Conjunto de librerıas de software libre cuya funcion principal es el procesa-miento y la segmentacion de imagenes medicas. Estan escritas en codigo C/C++ y pueden utilizarseen cualquier plataforma (MacOS, Linux, Windows), para lo cual requieren de la herramienta de me-tacompilacion CMake, que definira las opciones de compilacion.

FSL: Biblioteca de herramientas software para el analisis de imagenes FMRI, MRI y DTI y datos deimagenes cerebrales (segmentacion, transformacion y registro de imagenes), que puede ser utilizadaen cualquier plataforma o sistema operativo. Sera una herramienta de vital importancia en estetrabajo.

Los pasos que seguimos en este trabajo para el tratamiento de las imagenes son los siguientes:

1. Correccion de la orientacion: Es importante que la cabeza del paciente este centrada y sin ninguntipo de inclinacion para que los tratamientos posteriores no sean defectuosos, como por ejemplo, laextraccion del cerebro que realiza la herramienta de FSL BET, la cual se ve bastante perjudicadapor este factor.

2. Extraccion del craneo (Skull Stripping): Tecnica que separa el tejido cerebral (materia gris,materia blanca y fluido cerebrospinal) del resto de tejidos de la cabeza (dura madre, tejido oseo,nervio optico, etc.). Para ello, como ya hemos mencionado antes, emplearemos BET, y para quelos resultados sean lo mas precisos posibles, debemos ajustar el valor del centro de gravedad de lacabeza del paciente (opcion ’-c’), dado a partir de sus 3 coordenadas espaciales, ası como el valor delumbral de intensidad fraccional (opcion ’-f’) que determina donde esta el lımite de la segmentacionfinal del cerebro.

3. Correccion de bias: Operacion que se utiliza para corregir la falta de homogeneidad en la in-tensidad de la imagen debida a los artefactos magneticos que se encargan de las adquisicion de lasimagenes de resonancia magnetica.

4. Registro de las imagenes: En esta etapa se intentan establecer relaciones entre las imagenes de lospacientes a estudiar (objetivo) y una imagen de referencia (MNI152) para alinearlas espacialmentea traves de transformaciones espaciales. Las transformaciones pueden afectar a la orientacion, tras-lacion o tamano de la imagen, denominadas transformaciones lineales o ”transformaciones rıgidas”,sin que se produzcan cambios en las diferencias geometricas entre las imagenes.

ETSIDI - UPM 5

Segmentacion de subestructuras corticales del cerebro humano desde imagenes T1-MR

Para llevar a cabo estas transformaciones disponemos de una herramienta de FSL, llamada FLIRT ;por el contrario, existen otras transformaciones que pueden alterar dichas diferencias geometricas,denominadas transformaciones elasticas o ”transformaciones no-rıgidas 2que son capaces de deformarla imagen objetivo para alinearla con la imagen de referencia. La calidad del registro se conocera apartir de diferentes parametros que conoceremos mas adelante.

5. Segmentacion Multi-Atlas: Mediante el uso de varios atlas probabilısticos (etiquetas de diferenteszonas del cerebro, marcadas o delineadas manualmente por un experto) y su propagacion sobre laimagen objetivo, se llevan a cabo diferentes segmentaciones de la region deseada en la imagenobjetivo. Todas estas segmentaciones resultantes mediante una tecnica de fusion de etiquetas daranlugar a la segmentacion final, que sera la mejor y mas optima.

A grandes rasgos, estos pasos resumen el proceso que se sigue desde que adquirimos la imagen delpaciente hasta que conseguimos aislar la region de interes, que en este caso es la zona del hipocampo,para despues analizarla y poder determinar el nivel de atrofia que presenta el paciente y que le dara alespecialista una idea del desarrollo de la enfermedad.

1.2. Objetivo del trabajo

Tal y como sugieren algunos autores en sus publicaciones, se sabe que el tamano de ciertas estructurascerebrales esta determinado por el tamano total de la cabeza [1] (Shiva et al. 2010 ), ası como que la varia-cion en las mismas puede ser un indicador de la presencia de algun tipo de enfermedad neurodegenerativa[3] (Ramirez et al. 2011 ). De estos autores y sus procedimientos, trabajos y conclusiones se hablara masadelante en el capıtulo 2.

El objetivo de este trabajo consiste en el desarrollo de una aplicacion software que sea capaz derealizar todo el proceso de tratamiento de la imagen de un paciente objetivo, ası como realizar la correctasegmentacion de la region de interes, el hipocampo, y de este modo ofrecerle al especialista los medios ydatos pertinentes para que pueda dar un diagnostico de la enfermedad con mayor antelacion, mejorandoası las prestaciones actuales. Sin embargo, en primera instancia y como ya se habra podido dar cuenta,la primera tarea consistira en desarrollar un programa que se encargue de llevar a cabo el calculo delvolumen intracraneal (ICV) del paciente, dato importante que puede servirnos como indicador del posibledesarrollo de una enfermedad neurodegenerativa.

1.3. Estructura del trabajo

La estructura que va a presentar el trabajo es la siguiente:

1. Capıtulo 2: en este capıtulo se habla del estado de la tecnica, las principales publicaciones que nosguiaran en la labor del calculo del ICV, los metodos seguidos por los diferentes autores y algunasconclusiones al respecto.

2. Capıtulo 3: capıtulo dedicado a la explicacion del metodo que se ha utilizado en este proyectopara la extraccion del craneo de las imagenes proporcionadas por el Proyecto Vallecas (PV), etapaimportante en el calculo del ICV.

3. ...

ETSIDI - UPM 6

Capıtulo 2

Calculo de ICV, estado de la tecnica

En este apartado se pretende poner en conocimiento, de todo aquel que este interesado en la materia,del punto en el que se encuentra la tecnica para el calculo del ICV. Se procede a resumir las publicacionesque se han utilizado como guıa en el procedimiento desarrollado en este trabajo, teniendo en cuenta lasconsideraciones de los diferentes autores, resultados y conclusiones.

2.1. Shiva et al. 2010

En este paper, titulado “Desarrollo de un metodo robusto para el calculo del volumen in-tracraneal y la relevancia de las diferentes intensidades del campo magnetico usado por losescaneres de RM (3T y 1.5T)”, se desarrolla un metodo robusto capaz de determinar el ICV sin quese vea afectado por la variacion en la fuerza del campo magnetico del escaner con el que se toman lasimagenes de resonancia magnetica de los pacientes. Como se ha mencionado, el tamano de la cabeza esun factor importante, ası que en primer lugar corrigen esta caracterıstica.

El hecho de analizar la influencia de la intensidad del campo en la adquisicion de imagenes viene apartir de la aparicion de variaciones en la intensidad en el fluido cerebrospinal (CSF). Estas variacionesse refieren a diferencias sistematicas en la intensidad de este tejido en la zona de de los ventrıculos y lascisternas, a 3T y 1.5T. Se intenta normalizar la falta de homogeneidad en la intensidad por medio de lostres metodos mas conocidos:

FAST: paquete que corrige la polarizacion del campo provisto en la biblioteca FSL, que incorporael modelo de Campos Aleatorios Ocultos de Markov y algoritmo EM para resolver los problemas defalta de homogeneidad.

SPM5: herramienta para normalizacion espacial, clasificacion de tejidos y correccion de la polariza-cion.

N3: no necesita de ningun modelo de clases de tejido para la correccion de las no uniformidades dela intensidad. Emplea un nucleo de deconvolucion para afinar la intensidad del histograma que hasido suavizada.

Los resultados que se obtienen tras aplicar estos tres metodos no solventan el problema, motivo porel cual se propone como solucion un metodo automatizado, “Reverse MNI Brain Masking”, basado enmapas de probabilidad de tejidos en el espacio estandar MNI.

7

Segmentacion de subestructuras corticales del cerebro humano desde imagenes T1-MR

El procedimiento de trabajo que siguen es el siguiente: Cada volumen de imagenes se procesa en dosetapas: (1) Correccion de no-uniformidad (empleando los tres algoritmos ya mencionados) y (2) medida delICV, mediante dos algoritmos de los que hablaremos a continuacion (SPM variando parametros (SPMAy SPMB) y BET) ademas del propuesto como solucion. Para cada volumen, la porcion intracranealidentificada fue evaluada y comparada con un patron: la medida del ICV realizada manualmente por unexperto. La metrica utilizada para la comparacion fue la diferencia relativa del volumen y su magnitud,expresada como porcentaje del ICV promedio, y una superposicion espacial, expresada a traves del DICE:

%ADIFFV2−V1 =|V2 − V1|

(V2 + V1)/2× 100

DC =2×N(A ∩B)

N(A) + N(B)

2.1.1. Metodo solucion: RBM

El metodo RBM usa la suma de los tres mapas de probabilidad obtenidos con SPM5 sin ningunumbral para estimar la mascara probabilıstica del ICV en el espacio estandar. En SPM5, los mapas deprobabilidad son estimados usando una version modificada de los mapas probabilısticos de tejidos ICBM,los cuales derivan de 452 imagenes T1-W, que han sido alineadas con atlas espaciales, corregidas delas no-homogeneidades y clasificadas en materia gris (GM), blanca (WM) y CSF. Estos datos fueronregistrados afinmente al espacio MNI y muestreados a 2 mm de resolucion. La deformacion invertida delespacio estandar al espacio del sujeto nativo, derivada de la segmentacion unificada de SPM5, fue usadapara deformar la mascara probabilıstica del ICV en el espacio estandar de cada imagen al espacio nativoa traves de la interpolacion del“vecino mas cercano”. La normalizacion inversa se hizo usando SPM5 yestableciendo el marco lımite y el tamano de los voxeles a unos valores no finitos. La imagen resultantefue umbralizada al 90 % de probabilidad y el volumen del ICV fue medido como el numero de voxelesresultantes multiplicado por el volumen de un unico voxel. El diagrama de flujo del proceso del metodoRBM es mostrado a continuacion.

Figura 2.1: Diagrama de flujo del metodo RBM

ETSIDI - UPM 8

Segmentacion de subestructuras corticales del cerebro humano desde imagenes T1-MR

2.1.2. Conclusiones

El ICV es un dato bastante adecuado para la normalizacion de ciertas estructuras del cerebro, ademasde ser menos vulnerable a los cambios patologicos. Se ha visto que en imagenes a 1.5T, el CSF del espaciosubaracnoideo y el ventricular no presentan contraste de intensidad, mientras sı lo hace a 3T. Para estasultimas imagenes se ha demostrado que el CSF cisternal es eliminado debido a las diferencias sistematicasde intensidad entre dicho tejido y el CSF intraventricular. Las medidas realizadas subestiman la diferenciareal de la intensidad entre ambos tejidos debido a que la mayorıa del tejido subaracnoideo se encuentraen la parte central del espacio de la imagen. Por tanto, parece que el fenomeno de la alta intensidad esdebido a los artefactos de adquisicion (brillos centrales del 30 % a 3T y sin embargo 5 % a 1.5 T). Sepropone como medida para reducir la sobreintensidad central usar un conjunto de bobinas para la senalde recepcion, aunque aun ası, es muy difıcil eliminar la falta de homogeneidad en la imagen a 3T pormedio de los algoritmos tradicionales.

Tambien se ha encontrado que usando metodos similares para la segmentacion de imagenes en T1se excluye un porcion bastante importante de CSF, lo que supone una fuente de error sistematico en laestimacion del ICV.

El metodo RBM proupuesto en este paper y basado en mascaras enstandar en el espacio MNI, derivadasde los mapas probabilısticos MNI de tejidos y realizar la transformacion inversa para deformar el espaciode la mascara estandar del cerebro a cada imagen en el espacio nativo, lo cual les ha proporcionado unosdatos alentadores (ICC = 0.99).

2.2. Leung et al. 2011

“MAPS: un metodo automatico, preciso y robusto para la extraccion del cerebro utili-zando una biblioteca de plantillas” es un artıculo que se centra en la comparacion de 4 metodos deextraccion del craneo como son BET, BSE, HWA y en el propio algoritmo propuesto MAPS (“Multi-AtlasPropagation and Segmentation”). Todos ellos se aplicaron para el tratamiento de 682 imagenes a 1.5 Ty 157 imagenes a 3T procedentes de ADNI, ponderadas en T1. Utilizaremos como patron las segmen-taciones semiautomaticas delineadas por expertos. Los resultados demuestran que la mediana del ındicede Jaccard para MAPS supera a los otros metodos, ademas de ser similar tanto a 1.5T como a 3T, y elpercentil de 1 a 99 del ındice de Jaccard era menor en MAPS que en el resto.

Generalmente la accion de separar el cerebro del craneo consiste en separar la materia gris y blancadel resto de tejidos, aunque dependiendo de la aplicacion, se incluiran ciertas partes del CSF. Existeuna cierta variabilidad en la segmentacion del tejido cerebral puesto que a veces se incluye el troncodel cerebro y el cerebelo y se excluye la medula espinal y cervical. El parametro que mide la similitudentre los metodos automaticos y los manuales o semi-automaticos es el ındice de Jaccard (volumen encomun(interseccion) entre volumen total(union)), clasificado entre 0.8 y 0.94. Un aspecto relevante delas tecnicas de extraccion del cerebro es que son muy buenas para determinar variaciones o atrofias enciertas estructuras del cerebro, signo de padecer enfermedades neurodegenerativas como el Alzheimer.ADNI (Alzheimer Disease Neuroimaging Initiative) es un estudio que proporciona datos importantespara probar los metodos automaticos de extraccion en imagenes de diferente morfologıa, tomadas condiferentes aparatos o incluso con diferentes caracterısticas.

ETSIDI - UPM 9

Segmentacion de subestructuras corticales del cerebro humano desde imagenes T1-MR

Los metodos con los que comparamos la tecnica propuesta en el artıculo son:

1. BET: Como ya se ha comentado es una herramienta de la biblioteca FSL que posee un algoritmode extraccion del cerebro. El modo en que se ejecuta el algoritmo es mediante la implementacionde una envoltura de un modelo deformable que se ajusta a la superficie del cerebro apoyandose enciterios de suavidad y umbrales de intensidad local.

2. BSE: Usa un operador Mar-Hildreth en 2D para la deteccion de los bordes del cerebro despues deun filtrado de difusion anisotropica. Finalmente se usa una serie de morfologıas matematicas parala extraccion del tejido cerebral.

3. HWA: Es la tecnica de extraccion de craneos de la aplicacion software FreeSurfer, que combinaalgoritmosy modelos de superficies deformables. El algoritmo de cuencas proporciona una estimacioninicial robusta del volumen del cerebro para el modelo deformable para adaptarse a una superficielisa alrededor del cerebro. Un atlas estadıstico se utiliza para validar y corregir la extraccion delcerebro.

2.2.1. Descripcion del metodo

MAPS es un tecnica de segmentacion multi-atlas en la cual se seleccionan diversos atlases desde unabiblioteca de imagenes etiquetadas y propaga las etiquetas a la imagen objetivo despues del registro dela imagen, para despues aplicar tecnicas de fusion de etiquetas, dando lugar a una segmentacion optima(mas robusta y precisa).

La biblioteca de imagenes consiste en 682 imagenes a 1.5T y su correspondiente segmentacion semi-automatica. Como lo que se pretende es relacionar y comparar la imagen objetivo con los atlases de labiblioteca, lo primero que se hace es pasar los atlases al mismo espacio de referencia, y para ello se realizaregistro afın en un sujeto con un volumen cerebral cercano a la media del valor del volumen del resto.El algoritmo de registro afın se basa en la maximizacion de la correlacion cruzada normalizada entre laimagen fuente y la objetivo, usando un esquema de optimizacion descendente del gradiente conjugado.Desde que se usan las segmentaciones semiautomaticas como patrones, ha sido utilizado en todos losexperimentos el metodo de “dejar uno fuera”, excluyendo la imagen que se esta segmentando desde labiblioteca y por tanto esta consiste en 681 imagenes.

Pasos para realizar la extraccion del cerebro:

1. Registro afın de la imagen objetivo sobre la de referencia, la cual es una mezcla de todas las presentesen la biblioteca.

2. Las que presenten mayor coincidencia son clasificadas en cuanto a su similitud por medio de lacorrelacion cruzada entre la imagen objetivo y las segmentaciones en la biblioteca. Una vez clasifi-cados del mejor al peor, se coge el mejor subconjunto para propagar las etiquetas de los cerebrossegmentados no dilatados a la imagen objetivo por medio de registro afın y registro no rıgido, basadoen deformacion libre de forma.

3. El nivel de gris de todo el cerebro segmentado en la imagen objetivo es umbralizado entre 60 %y 160 % de la intensidad media de la segmentacion, seguido de una dilatacion condicional 2-voxelentre 60 % y 160 % de la misma.

ETSIDI - UPM 10

Segmentacion de subestructuras corticales del cerebro humano desde imagenes T1-MR

4. La fusion de etiquetas combina multiples segmentaciones del cerebro objetivo para generar unasegmentacion mas optima, dando lugar a los“ Cerebros MAPS no dilatados”. Tras una dilatacion2-voxel para recuperar el tejido perdido, obtenemos los “Cerebros MAPS”.

Figura 2.2: Diagrama de flujo del metodo MAPS

2.2.2. Resultados usando MAPS

MAPS tiene la mediana mas alta del ındice de Jaccard y BSE la menor mediana del evaluador falsopositivo. HWA de FreeSuerfer, sigue de cerca a MAPS en cuanto al valor mas bajo para la medianadel evaluador falso negativo. Ademas, MAPS tiene el menor rango del primer al centil 99 del ındice deJAccard, evaluador falso positivo y falso negativo. Tambien se ha observado que mientras no fallan lassegmentaciones mediante MAPS o HWA, fallan 2 por BET y 3 por BSE. En terminos de precision MAPS

ETSIDI - UPM 11

Segmentacion de subestructuras corticales del cerebro humano desde imagenes T1-MR

mejora los resultados a los obtenidos por los otros metodos (En el ındice de Jaccard, el orden de mayor amenor ındice es MAPS, HWA, BET y BSE; para el error falso positivo, en orden ascendente y a 1.5T es,BSE, MAPS, BET y HWA y para 3T, HWA, MAPS; BET y BSE; para el error falso negativo, en ordenascendente para 3T, HWA, MAPS; BET y BSE ), mientras que si hablamos de tiempo computacional,HWA y BSE tardan 1 minuto por imagen, BET 10 minutos y MAPS 19 horas, algo que juega bastanteen su contra.

2.2.3. Conclusiones

A pesar de que todos los metodos de extraccion del cerebro mostraban buenos resultados en cuantoal ındice de Jaccard se refiere, MAPS tenıa mejor precision y menor variabilidad a dicha precision. Sihablamos del error falso negativo y falso positivo, los que menos tenıan eran HWA y MAPS (mejor elultimo de los dos), lo cual significa que son los que mejor mantienen los voxeles detectados como delcerebro y ademas los que mejor eliminaban aquellos no considerados como del cerebro, aunque MAPStenıa mejores resultados.

2.3. Ramirez et al. 2011

En este paper se pretende desarrollar un metodo de analisis de volumen intracraneal que pueda asociarlos orıgenes patopsicologicos de enfermedades como el Alzheimer o deterioros cognitivos vasculares, a unfenomeno conocido como hiperintensidades subcorticales (SH), comunmente observado en imagenes deRM de cerebros de pacientes de edad avanzada. Gracias a esta herramienta, se podrıa cuantificar laenfermedad a nivel de los pequenos vasos sanguıneos subcorticales en el tejido cerebral. La solucion,“Lesion Explorer”, un software creado a partir de metodos ya publicados sobre segmentacion volumetricacomprehensiva y creacion de parcelas sobre flujos de imagenes.

La SH es un problema que se observa en imagenes de RM en T2 en pacientes de elevada edad. Lascorrelaciones clinico-patologicas sugieren orıgenes vasculares degenerativos. Se suele dar en pacientes queademas presentan factores de riesgo cerebrovascular como diabetes e hipertension, y esta asociado a unmayor riesgo de deterioro cognitivo, derrame cerebral, trastornos en la capacidad motora y los trastornosneuro-psiquiatricos. Detectar este problema es importante a la hora de evaluar en detalle los efectos de losfactores de riesgo vasculares en las enfermedades cerebrovascular abierta y encubierta y en la demencia.

A pesar de que visualmente podrıa realizarse una evaluacion rapida, es mejor aplicar estudios desegmentacion basados en la intensidad, que proporcionan una mayor precision en la estimacion de lacantidad de SH (ademas cuantifican la extension y la localizacion). Las tecnicas de segmentacion detejidos en T1 sobresegmentan la GM en T2 (no segmentan correctamente las hiperintensidades).

La segmentacion cuantitativa se aplica para captar el SH en imagenes T2, PD y FLAIR, y empleanlas tecnicas de:

agrupamiento difuso incluyendo clases de lesiones.

curvas gaussianas ajustadas para determinar la intensidad de los puntos de corte de la lesion,intensidad modal de corte aplicada a los histogramas de intensidad rodaja por rodaja.

combinacion de algoritmos de K-vecinos mas cercanos

corregistro a plantillas normales comparando la probabilidad de SH por voxeles de las imagenesFLAIR con los mapas de probabilidad de WM usando una funcion por pesos.

ETSIDI - UPM 12

Segmentacion de subestructuras corticales del cerebro humano desde imagenes T1-MR

Las tecnicas totalmente automatizadas son de gran fiabilidad y se aplican preferiblemente a estudiosde gran calado. Requieren imagenes FLAIR, en las que se puede diferenciar mejor el SH que en T2 y PD,aunque sean menos sensibles a la deteccion de lesiones talamicas focales. Se sugiere dividir en dos tiposel SH, para abordar la hipotesis de heterogeneidad dentro del mismo: “deep white SH”(dwSH) y “SHperiventricular”(pvSH). Algunos estudios demuestran la relacion del volumen de ambos con problemasde rendimiento motor, cognitivo y comportamental, atrofia de GM y dilatacion ventricular.

2.3.1. Calculo de volumen pvSH y dwSH dentro del SH

Ante la falta de un metodo estandar para la determinacion del pvSH, se suelen utilizar los siguientesmetodos, aunque se prefieren los metodos en los que se reconoce la naturaleza del SH vıa 3D:

crear una lınea de corte lateral 2D desde el ventrıculo en rodajas axiales. Podemos calcularla pordos metodos:

1. distancia proporcional desde el borde ventricular hasta duramadre.

2. Tambien puede calcularse tomando una distancia arbitraria de los voxeles del exterior delventrıculo hasta el centro semioval.

fundamentado en principios anatomicos, sugieren en clasificar el SH alrededor del ventrıculo en unradio de 13mm como pvSH.

El dwSH incluye los espacios perivasculares y los infartos lacunares rellenos de lıquido quıstico. Losespacios Virchow-Robin(VR) son extensiones del espacio subaracnoideo relleno de CSF en la vaina querodea los vasos sanguıneos. Aparecen como puntos hiperintensos o lıneas en las imagenes en T2, isointensasen las PD y generalmente menores de 1mm de diametro. Su tamano, forma y apariencia diferencial en T2y PD permiten que sean distinguidos de otros tipos de SH.

Las lagunas estan asociadas a la edad, hipertension, incremento del riesgo de accidente cerebrovascular,y se encuentran en el 8-11 % de los ancianos. Los llamados infartos encubiertos es aquel tejido entre 3-15mm de diametro, hipo-intensos en T1 e hiper-intensos en T2 y PD. Su presencia se asocia con riesgode demencia y esta relacionado con la perdida del metabolismo de la glucosa del lobulo frontal. Sinembargo, sin un corregistro entre la segmentacion en T1 y PD-T2, el contraste por comparacion delagunas y espacios VR es difıcil de cuantificar, solamente con imagenes FLAIR. Un beneficio adicionalde la segmentacion de tejidos en T1 combinado con la segmentacion de SH en PD-T2 es que permite,para tejidos volumetricos relativos, comparaciones entre GM, WM, CSF ventricular y CSF sulcal. Sinembargo, la volumetrıa del cerebro en global proporciona una informacion limitada. La cuantificacionregional, dentro de los metodos ROI o de plantillas, se ha convertido en la expectacion estandar paracualquier procedimiento de segmentacion de MRI.

La necesidad de un metodo, individual y comprehensivo, que segmente con fiabilidad el cerebro encompartimentos de tejidos por regiones e incluya los subtipos de SH es algo importante. Es por eso que“Lesion Explorer” (LE) es la solucion que se ha tomado en este trabajo. Fue construido a partir de 3componentes para el analisis de 8 tipos de tejido cerebral (GM, WM, sCSF, vCSF, lagunar y no lagunarpvCSF y dwCSF), que siguen:

Protocolo de segmentacion automatica de imagenes en T1.

Procedimiento de parcelacion semi-automatica para extraccion del cerebro.

ETSIDI - UPM 13

Segmentacion de subestructuras corticales del cerebro humano desde imagenes T1-MR

LE ha sido comparado frente a otros metodos alternativos (K-vecinos mas cercanos y 2 metodos deevaluacion visual). Se tiene en cuenta un estudio publicado bajo el marco de la ETF en relacion a loscambios en WM. Se acepto SH aquel ejido que apareciera en ambas imagenes de PD y T2 y ademas sitenıa al menos 5mm de diametro. El grado de severidad del SH va desde 0 a 3.

2.3.2. Procesamiento de las imagenes

Componente 1 Brain-Sizer:

La extraccion del cerebro y segmentacion del tejido se lleva a cabo usando un actualizado procedimiento“Cabeza hacia cerebro” (CHC). Las imagenes de PD y T2 son corregistradas a T1 usando transformacionesrıgidas, gracias a AIR5 y una funcion de coste promedio de la imagen. Sin embargo se perdio el alineamientocon algunos sujetos, y se uso FLIRT de FSL y una funcion de coste de informacion mutua normalizadapara realizar de nuevo el corregistro. La automatizacion del metodo se consiguio con un procedimientoa traves de una plantilla de referencia, obtenida como promedio de 50 cerebros escaneados (extraıdospreviamente usando nuestros metodos anteriores). La plantilla fue corregistrada a cada imagen en T1y su matriz de transformacion inversa fue usada para mover la mascara binaria de la plantilla de CHCal sujeto, utilizando interpolacion por vecino mas cercano. La plantilla de transformacion espacial dela mascara binaria de CHC en el sujeto se suaviza usando un filtro gaussiano en 3D (sigma=2). Laintensidad de las imagenes T2 y PD fue normalizada. Los voxeles mayores a una intensidad de 0.9995 enla plantilla de transformacion de la mascara binaria de CHC suavizada y los voxeles mayores a un valordeterminado de un umbral predefinido normalizado para T2 y PD, se aceptaron como tejido cerebral,creando la primera mascara binaria correcta CHC del sujeto. Cada una de ellas fue suavizada usandoun filtro gaussiano recursivo 3D y los voxeles mayores a 0.5 fueron aceptados como cerebro para crearla mascara final. Esta ultima fue chequeada manualmente y corregida de errores, usando un softwarepropio de edicion de imagenes y el paquete itk/SNAP. Todo el proceso dura alrededor de 1 a 10 min. Elcerebelo y los ventrıculos se removieron manualmente por un metodo de segmentacion de imagenes enT1, usando un software casero para edicion de imagenes. El re-etiquetado de los voxeles del CSF al CSFventricular fue abordado por medio de implantar una semilla en los voxeles del CSF en la segmentacion deT1 con la imagen T1 de referencia. Se realizo a mano para segmentar correctamente las hiperintensidadesperiventricular y sucortica. Estos pasos suponen 30-45 min de intervencion.

Componente 2SABRE: Semi-Automated Brain Region Extraction

Es una actualizacion de los metodos anteriores. Rapido y fiable y se usa para extraer 26 regiones delcerebro proporcionales a el tamano de la cabeza. Se ha utilizado este metodo para estudio de la EsclerosisMultiple y demencia frontotemporal. Un grupo de marcadores se trazan en la mascara T1 usando unrenderizador de volumen en 3D y regiones de interes en 2D con ANALYZE. Realizar los marcadores llevaunos 20 min. Una version actualizada toma una version propia modificada de itk-SNAP y reduce lostiempos en 5-10 min.

Componente 3LE: Lesion Explorer)

En este momento, todos los voxeles han sido clasificados como WM/GM/CSF ventricular/CSF sulcal/.LE puede ser considerado como una correccion de la segmentacion original de T1, donde los voxeles sonreclasificados como SH, usando informacion adicional de PD y T2.

ETSIDI - UPM 14

Segmentacion de subestructuras corticales del cerebro humano desde imagenes T1-MR

Para una segmentacion mas precisa y profunda se usan metodos automatizados. La segmentacion deSH se aborda con un modelo de umbralizacion adaptativo local, para tratar la falta de homogeneidad.Las segmentacion T1 se usa como mascara corregistrada con PD y T2 para el metodo de CHC y removerel CSF ventricular. Las imagenes se dividen en pequenas regiones 3D para calcular umbrales, basado enhistogramas de intensidad de las imagenes T2 y PD. La media maxima y local se usa para estimar laintensidad de corte para SH:

T = mean + P (max−mean)

donde P (umbral fraccional) nos permite calibrar al usuario (entre 0 y 1) para diferentes patologıas. Lasdos segmentaciones de SH, para T2 y PD, se combinan con una operacion AND y el volumen final es unvolumen etiquetado que contiene la segmentacion SH. Se genera una mascara vCSF-CP (plexo coroideo)de la segmentacion T1 y se cierne alas siguientes operaciones morfologias:

dilatacion 2D (radio 1, elemento estructurante = cruz).

cierre 2D (radio 1, elemento estructurante = esfera).

Se genera una mascara sCSF-GM a partir del algoritmo FCM, que es una tecnica de agrupamientono supervisado que se utiliza para los conjuntos de datos de particion en Cclases diferentes. Cada puntode datos se le asigna un grado de pertenencia difuso que representa el grado en que un punto de datospertenece a cada una de las clases. Se usan 4 clases, fondo, CSF, GM y WM, y el resultado es umbralizadocreando una mascara de CSF y otra eliminando el vCSF y dejando el sCSF. Los voxeles no conectadosen 3D en la mascara sCSF tambien se eliminan. El compartimento de mascara GM se obtiene de laestimacion teniendo en cuenta que los voxeles de este tipo de tejido se encuentran rodeando al sCSF. Lamascara sCSF-GM se obtiene:

dilatacion 3D radio 1, elemento estructurante = esfera) en la mascara de sCSF.

filtro medio 2D (radio 1).

cierre 2D (radio 1, elemento estructurante = cruz).

Los voxeles que no pertenecen a ninguna de las mascaras anteriores se clasifican como voxeles no SH.Un procedimiento, derivado del paquete itk-SNAP, con un operador de entrenamiento se lleva a cabo paraeliminar cualquier falso positivo que haya en la imagen, proceso que dura entre 10 y 20 minutos.

2.3.3. Segmentacion pvSH y dwSH

Una operacion automatica de conectividad 3D se aplica a la segmentacion del SH, en la que, todos losgrupos de voxeles de SH conectados al ventrıculo se subclasifican en pvSH y los restantes como dwSH.

2.3.4. Segmentacion pvSH y dwSH (lagunar y no lagunar)

Como en el caso anterior, se utiliza la segmentacion T1 para analizar los voxeles SH segmentados comoCSF se clasifican como fluido cıstico de tipo lagunar y el resto como no lagunar.

ETSIDI - UPM 15

Segmentacion de subestructuras corticales del cerebro humano desde imagenes T1-MR

2.3.5. Salida final

El resultado final es un perfil volumetrico comprehensivo de volumenes de tejido cerebral de un in-dividuo con datos de la segmentacion por regiones (GM, WM, vCSF, SCSF, lagunar y lagunar pvSH ylagunar y no lagunar dwSH).

Los datos volumetricos se organizan en i) todo el cerebro y ii) regiones SABRE. Se emplea el Indicede Similaridad (SI), para asegurar la concordancia espacial de los volumenes obtenidos por LE generadospor cada evaluador:

SI =2× (Evaluador1 ∩ Evaluador2)

Evaluador1 + Evaluador2

donde Evaluador1 ∩ Evaluador2 se refieren al solapamiento por pıxeles entre los dos evaluadores. SI tienevalores entre 0 y 1 (0 = pobre solapamiento espacial y 1 = perfecto solapamiento).

La fiabilidad inter-metodo de todo el cerebro se determino comparando el resultado de LE con elgenerado por metodos semi-automaticos basado en K-vecinos mas cercano. Se calculo el ICC para cadaregion cerebral SABRE en los 20 participantes.

2.4. Resultados

2.4.1. Todo el cerebro

La mediana absoluta de las diferencias de volumen entre los dos evaluadores fue de 230 mm3, con unICC = 0.99, p < 0.0001 y SI medio = 0.97, lo cual indica una excelente fiabilidad inter-evaluador para elsolapamiento del total del cerebro y por pıxeles. Tambien se demuestra la elevada fiabilidad al compararlocon el metodo de los K-vecinos mas cercanos (ICC = 0.97, p < 0.0001), ası como para pvSH, por lo quedwSH no necesita analisis, como tampodo la segmentacion lagunar.

2.4.2. Regiones

La mediana absoluta de las diferencias de volumen entre las regiones SABRE fue de 13.83 mm3 conun ICC medio = 0.98 lo cual indica una excelente fiabilidad inter-evaluador.

Figura 2.3: Resumen del test de fiabilidad

ETSIDI - UPM 16

Segmentacion de subestructuras corticales del cerebro humano desde imagenes T1-MR

2.5. Conclusiones

LE es el componente final de un paquete segmentacion comprehensiva y por parcelas que proporcionaun perfil volumetrico de las imagenes de RM. Se puede utilizar con total fiabilidad en poblaciones de edadavanzada, tanto para estudios transversales como para longitudinales, con un protocolo de adquisicionestructural estandar. Brain-Sizer, proporciona una medida precisa de la capacidad total intracraneal delindividuo, lo cual es un dato importante y que se usa para la correccion del tamano cerebral.

ETSIDI - UPM 17

Capıtulo 3

Extraccion del craneo

El objetivo principal de este apartado consiste en desarrollar un metodo automatico o semi-automaticoque permita el calculo del ICV del paciente. Definiremos por tanto el volumen intracraneal, para este casoconcreto, como el tejido resultante de la suma del tejido perteneciente a la materia gris y el relativo ala materia blanca. Es importante hacer un inciso: tal y como se trata en [1], debido a la variacion en lafuerza de los campos magneticos utilizados por los escaneres que se encargan de adquirir las imagenes delos pacientes, es necesario realizar un proceso de normalizacion de la intensidad en todo el volumen deimagenes ya que se ha denotado que se producen cambios en la intensidad del fluido cerebrospinal (CSF)en las imagenes tomadas a 3T en relacion con las tomadas a 1.5T. Este tejido es considerado en ciertasocasiones como parte del volumen intracraneal, mientras que en [1] y siguiendo los pasos del “ProtocoloENIGMA” consideraremos el CSF como tejido no cerebral.

3.1. ¿Que es el Protocolo ENIGMA?

El Protocolo ENIGMA es un consorcio llevado a cabo por los principales paıses del mundo y quecuenta con una red de investigadores expertos en genomica de imagen, neurologıa y psiquiatrıa, con el finprincipal de comprender el cerebro, tanto en el ambito estructural y anatomico como desde un punto devista funcional, basandose en imagenes de RM, imagenes funcionales de RM, DT, datos geneticos y unagran poblacion de pacientes.

Las siglas ENIGMA vienen del ingles “Enhancing Neuro Imaging Genetics through Meta-Analysis”queviene a significar el proceso de mejora de las neuroimagenes geneticas gracias a un grupo de herramientasestadısticas capaces de sintetizar los datos arrojados por los estudios previos en este campo.

Tal y como se explica en la pagina web oficial1 la red de trabajo ENIGMA ha combinado todos losdatos de estudios anteriores para obtener una gran poblacion de muestra con la que se intenta detectarla importancia del efecto que los genes tienen sobre ciertas patologıas, estructuras y comportamientos ennuestro cerebro.

1http://enigma.ini.usc.edu

18

Segmentacion de subestructuras corticales del cerebro humano desde imagenes T1-MR

Los objetivos para los cuales ha sido creada ENIGMA son claros:

1. formar una red de personas con ideas e intereses comunes, con la intencion de impulsar el campode las imagenes en genetica.

2. asegurar resultados prometedores, los cuales se replican a traves de la colaboracion de los miembros,con el fin de satisfacer la demanda de la mayorıa de revistas y publicaciones.

3. compartir ideas, algoritmos, datos e informacion sobre los resultados o metodos obtenidos.

4. facilitar la formacion y entrenamiento, a traves de talleres y conferencias sobre los metodos clave yla orientacion actual que esta tomando este campo de investigacion.

3.2. Procedimiento y pasos a seguir para el calculo del ICV

En nuestro caso hemos seguido el protocolo y algoritmo propuesto en ENIGMA para el calculo delICV usando la biblioteca FSL. El volumen de imagenes que vamos a tratar pertenecen al proyecto puestoen marcha y desarrollado por la Fundacion Reina Sofıa y la Fundacion Cien, el “Proyecto Vallecas”,un plan de investigacion que busca, a traves de todos los investigadores que colaboran en el, la posibilidadde dar un diagnostico precoz y una evaluacion correcta a pacientes actuales y futuros de la enfermedaddel Alzheimer. Cuenta con las imagenes de un total de 163 pacientes, de los cuales:

53 son pacientes sanos o “pacientes de control”.

39 son pacientes con deterioro cognitivo leve (MCI) amnesico diagnosticado.

58 son pacientes con deterioro cognitivo leve amnesico de multiples dominios diagnosticado.

13 son pacientes con la enfermedad del Alzheimer diagnosticada.

Nuestra labor estriba en procesar el conjunto de pacientes para obtener el valor de su ICV y someterloa analisis por medio de una matriz de confusion que realizara una primera estimacion o diagnosticodiscriminatorio de los pacientes.

La primera tarea consiste en observar posibles alteraciones en las imagenes, ya sean traslaciones,rotaciones o simplemente una mala adquisicion. En un primer chequeo, se observa un grupo de 32 pacientescuya imagen se ve perjudicada por alguno de los defectos posicionales mencionados anteriormente. Aexpensas de encontrar una herramienta software para corregirlos, los apartamos de la lista de pacientes aanalizar, ya que falsearıan el resultado final.

Tras haber leıdo los artıculos mencionados en la bibliografıa y observar que ninguno de ellos considerala herramienta de extraccion de craneo de FSL, BET, como primera opcion para llevar acabo la tarea,hemos creıdo conveniente probarla, ya que los resultados obtenidos en ejercicios/trabajos anteriores dabanbuenos resultados.

ETSIDI - UPM 19

Segmentacion de subestructuras corticales del cerebro humano desde imagenes T1-MR

La problematica viene a raız de dos parametros de suma importancia que intervienen en el algoritmode extraccion:

coordenadas del centro de gravedad (coordenadas espaciales x, y ,z).

umbral que estima el lımite donde acaba la segmentacion del tejido cerebral.

Si estos valores no se modifican y se ejecuta BET con los valores por defecto debemos tener en cuentaque quizas la segmentacion no sea la mas adecuada debido a las siguientes consideraciones:

1. tomar el valor del centro de gravedad calculado por defecto por el algoritmo es un error, ya que enla imagen aun aparecen cuello, ojos, nervio optico, tejido del cuero cabelludo, etc. y en ocasionesno realiza correctamente la extraccion.

2. el valor del umbral que utiliza BET por defecto esta establecido en 0.5. Si tenemos en cuenta que trasla experiencia se sabe que valores cercanos a la unidad producen una segmentacion mas agresiva,tendremos todas las papeletas para que el resultado sea erroneo.

Por estos motivos se cree que las pruebas en [1] y [2] no dan como uno de los mejores metodos de skullstripping a BET ya que no han tenido en cuenta la importancia de establecer correctamente el centro degravedad del cerebro del paciente, algo de vital importancia para la ejecucion del algoritmo.

Se demuestra que aproximando el centro de gravedad manualmente, aunque sea paciente a paciente,y estableciendo el valor del umbral (opcion ’-f’) en valores en torno a 0.2 y 0.3, los resultados de lasegmentacion suelen ser bastante buenos (salvando algunas ocasiones), por no hablar de la rapidez delproceso. De esta manera, aunque el metodo no sea totalmente automatico y precisarıa de la implicaciondel usuario, la solucion parece adecuada ya que la tarea de calcular el centro de gravedad es sencilla ycon practica, inmediata.

Se ha utilizado FSL en un sistema con Ubuntu y se ha ejecutado BET desde la lınea de comandos.Debido al laborioso uso de la herramienta desde el terminal, se opto por crear un sencillo script en bashque nos permitiera manejar con mayor facilidad las imagenes. El programa esta pensado para dar laopcion de ejecutar BET sobre una sola imagen o sobre un grupo de ellas y ademas, que sea el usuarioquien establezca el valor del centro de gravedad y del umbral. De manera convencional, BET se ejecutade la siguiente manera:

bet <ruta de la imagen de entrada > <ruta de la imagen resultante > [opciones]

Para el caso especıfico que se quiera modificar el centro de gravedad de la imagen, establecer el valordel umbral y que BET genere una mascara binaria de la segmentacion resultante, el codigo queda de lasiguiente manera:

bet <ruta de la imagen de entrada > <ruta de la imagen resultante > -c <x y z> -f <valor umbral > -m

Las imagenes de los pacientes estan nombradas de la siguiente manera: “id (numero del paciente entres dıgitos).nii.gz”. Como se puede ver, es bastante laborioso el manejo imagen por imagen para solomodificar el numero del paciente. Es por esto de la necesidad de crear un script que vaya incrementandolopor nosotros. Lo mismo sucede si queremos inspeccionar la imagen.

ETSIDI - UPM 20

Segmentacion de subestructuras corticales del cerebro humano desde imagenes T1-MR

FSL cuenta con un visor, que desde la lınea de comandos se corresponde con la siguiente sentencia:

fslview <ruta de la imagen >

ENIGMA nos facilita un codigo a seguir para llevar a cabo el calculo del ICV:

for subj_id in ‘cat list_subjects.txt ‘ ; do

bet ${SUBJECTS_DIR }/${subj_id} ${SUBJECTS_DIR }/${subj_id}_braintmp -f 0.2

fast -b --nopve ${SUBJECTS_DIR }/${subj_id}_braintmp

fslmaths ${SUBJECTS_DIR }/${subj_id} -div ${SUBJECTS_DIR }/${subj_id}_braintmp_bias ${SUBJECTS_DIR }/

${subj_id}_biascorrected

bet ${SUBJECTS_DIR }/${subj_id}_biascorrected ${SUBJECTS_DIR }/${subj_id}_brain -f 0.3

done

En esta primera etapa se propone la ejecucion de BET incluida en un bucle for, que recorre loselementos de un archivo .txt donde aparece el nombre o id del paciente a tratar. Probamos esta tecnicay se desistio en emplear este metodo por que no se consiguio que se ejecutara correctamente, de maneraque se fueron ejecutando cada paso de manera independiente, es decir, una vez que se realiza el primerBET, se pasa a ejcutar FAST en todas las imagenes, y ası sucesivamente.

A continuacion se muestra el codigo de los scripts utilizados: 1. BET.sh

#! /bin/bash

clear

#cg_X =85

#cg_Y =109

#cg_Z =141

#umb =0.2

doc=" Documentos/resultados /"

g_b="_"

nombre_arch_u ="/ id_00"

nombre_arch_d ="/ id_0"

nombre_arch_c ="/id_"

image_in_u ="/ home/juanmanuel/Documentos/T1s/id_00"

image_in_d ="/ home/juanmanuel/Documentos/T1s/id_0"

image_in_c ="/ home/juanmanuel/Documentos/T1s/id_"

image_out ="/ home/juanmanuel/Documentos/resultados /"

#funcion para hacer bet por grupos de imagenes

function bet_grupo {

#imagen de comienzo menor que la 10

if [ $n -lt 10 ]; then

#limite menor que la 10

if [ $d -lt 10 ]; then

for(( i=$n; i <= $d; i++ ))

do

bet ${image_in_u}${i} ${image_out}${cg_X}${g_b}${cg_Y}${g_b}${cg_Z}${nombre_arch_u}${i} -c $cg_X

$cg_Y $cg_Z -f $umb -m

dif=$[ $d - $i ]

echo "Procesada imagen $nombre_arch_u$i , quedan $dif!"

done

#limite menor que 100

elif [ $d -lt 100 ]; then

for(( i=$n; i <= 9; i++ ))

ETSIDI - UPM 21

Segmentacion de subestructuras corticales del cerebro humano desde imagenes T1-MR

do

bet ${image_in_u}${i} ${image_out}${cg_X}${g_b}${cg_Y}${g_b}${cg_Z}${nombre_arch_u}${i} -c $cg_X

$cg_Y $cg_Z -f $umb -m

dif=$[ $d - $i ]

echo "Procesada imagen $nombre_arch_u$i , quedan $dif!"

done

for(( j=10; j <= $d; j++ ))

do

bet ${image_in_d}${j} ${image_out}${cg_X}${g_b}${cg_Y}${g_b}${cg_Z}${nombre_arch_d}${j} -c $cg_X

$cg_Y $cg_Z -f $umb -m

dif=$[ $d - $j ]

echo "Procesada imagen $nombre_arch_d$j , quedan $dif!"

done

#limite mayor a 100

else

for(( i=$n; i <= 9; i++ ))

do

bet ${image_in_u}${i} ${image_out}${cg_X}${g_b}${cg_Y}${g_b}${cg_Z}${nombre_arch_u}${i} -c $cg_X

$cg_Y $cg_Z -f $umb -m

dif=$[ $d - $i ]

echo "Procesada imagen $nombre_arch_u$i , quedan $dif!"

done

for(( j=10; j <= 99; j++ ))

do

bet ${image_in_d}${j} ${image_out}${cg_X}${g_b}${cg_Y}${g_b}${cg_Z}${nombre_arch_d}${j} -c $cg_X

$cg_Y $cg_Z -f $umb -m

dif=$[ $d - $j ]

echo "Procesada imagen $nombre_arch_d$j , quedan $dif!"

done

for(( k=100; k <= $d; k++ ))

do

bet ${image_in_c}${k} ${image_out}${cg_X}${g_b}${cg_Y}${g_b}${cg_Z}${nombre_arch_c}${k} -c $cg_X

$cg_Y $cg_Z -f $umb -m

dif=$[ $d - $k ]

echo "Procesada imagen $nombre_arch_c$k , quedan $dif!"

done

fi

#imagen inicial entre 10 y 100

elif [ $n -ge 10 -a $n -lt 100 ]; then

#limite menor a 100

if [ $d -lt 100 ]; then

for(( i=$n; i <= $d; i++ ))

do

bet ${image_in_d}${i} ${image_out}${cg_X}${g_b}${cg_Y}${g_b}${cg_Z}${nombre_arch_d}${i} -c

$cg_X $cg_Y $cg_Z -f $umb -m

dif=$[ $d - $i ]

echo "Procesada imagen $nombre_arch_u$i , quedan $dif!"

done

#limite mayor a 100

else

for(( i=$n; i <= 99; i++ ))

do

bet ${image_in_d}${i} ${image_out}${cg_X}${g_b}${cg_Y}${g_b}${cg_Z}${nombre_arch_d}${i} -c

$cg_X $cg_Y $cg_Z -f $umb -m

dif=$[ $d - $i ]

echo "Procesada imagen $nombre_arch_d$i , quedan $dif!"

done

for(( j=100; j <= $d; j++ ))

do

bet ${image_in_c}${j} ${image_out}${cg_X}${g_b}${cg_Y}${g_b}${cg_Z}${nombre_arch_c}${j} -c $cg_X

$cg_Y $cg_Z -f $umb -m

dif=$[ $d - $j ]

echo "Procesada imagen $nombre_arch_c$j , quedan $dif!"

done

ETSIDI - UPM 22

Segmentacion de subestructuras corticales del cerebro humano desde imagenes T1-MR

fi

#imagen de comienzo mayor a 100 y limite mayor a 100

else

for(( i=$n; i <= $d; i++ ))

do

bet ${image_in_c}${i} ${image_out}${cg_X}${g_b}${cg_Y}${g_b}${cg_Z}${nombre_arch_c}${i} -c $cg_X

$cg_Y $cg_Z -f $umb -m

dif=$[ $d - $i ]

echo "Procesada imagen $nombre_arch_c$i , quedan $dif!"

done

fi

}

#funcion para hacer bet a imagenes individualmente

function bet_ind {

if [ $im -lt 100 ]; then

if [ $im -lt 10 ]; then

bet ${image_in_u}${im} ${image_out}${cg_X}${g_b}${cg_Y}${g_b}${cg_Z}${nombre_arch_u}${im} -c

$cg_X $cg_Y $cg_Z -f $umb -m

echo "Procesada imagen $nombre_arch_u$im"

fslview ${image_out}${cg_X}${g_b}${cg_Y}${g_b}${cg_Z}${nombre_arch_u}${im}

else

bet ${image_in_d}${im} ${image_out}${cg_X}${g_b}${cg_Y}${g_b}${cg_Z}${nombre_arch_d}${im} -c

$cg_X $cg_Y $cg_Z -f $umb -m

echo "Procesada imagen $nombre_arch_d$im"

fslview ${image_out}${cg_X}${g_b}${cg_Y}${g_b}${cg_Z}${nombre_arch_d}${im}

fi

else

bet ${image_in_c}${im} ${image_out}${cg_X}${g_b}${cg_Y}${g_b}${cg_Z}${nombre_arch_c}${im} -c

$cg_X $cg_Y $cg_Z -f $umb -m

echo "Procesada imagen $nombre_arch_c$im"

fslview ${image_out}${cg_X}${g_b}${cg_Y}${g_b}${cg_Z}${nombre_arch_c}${im}

fi

}

read -p "Bet en grupo o Bet a imagenes individuales ?: [G/I] " opcion

if [ "$opcion" = "G" -o "$opcion" = "g" ]

then

read -p "Desde que imagen (incluida) quieres aplicar bet?: " n

read -p "Hasta que imagen quiere procesar ?: " d

read -p "Indique el centro de gravedad con 3 coordenadas , <x y z>: " cg_X cg_Y cg_Z

read -p "Valor de F: " umb

mkdir ${doc}${cg_X}${g_b}${cg_Y}${g_b}${cg_Z}

cd $FSLDIR/bin

bet_grupo n d cg_X cg_Y cg_Z umb

else

read -p "A que imagen quieres aplicar bet?: " im

read -p "Indique el centro de gravedad con 3 coordenadas , <x y z>: " cg_X cg_Y cg_Z

read -p "Valor de F: " umb

mkdir ${doc}${cg_X}${g_b}${cg_Y}${g_b}${cg_Z}

cd $FSLDIR/bin

bet_ind im cg_X cg_Y cg_Z umb

fi

2. fsl view result.sh. Este codigo se utiliza para la visualizacion de los resultados obtenidos tras BET,para comprobar que se ha realizado bien la extraccion.

#! /bin/bash

clear

ETSIDI - UPM 23

Segmentacion de subestructuras corticales del cerebro humano desde imagenes T1-MR

g_b="_"

dir ="/ home/juanmanuel/Documentos/resultados /"

id_u=" id_00"

id_d="id_0"

id_c="id_"

function ver_img {

read -p "Que imagen quieres ver? " n

if [ $n -lt 100 ]; then

if [ $n -lt 10 ]; then

fslview ${id_u}${n}

else

fslview ${id_d}${n}

fi

else

fslview ${id_c}${n}

fi

read -p "Quieres ver una imagen? [S/N] " opcion

}

cd Documentos/resultados/

ls -l

cd cerebros

ls -l

ver_img

until [ "$opcion" = "N" -o "$opcion" = "n" ]; do

ver_img

done

Como se puede observar, el nombre con el que se van a almacenar las imagenes resultantes es el mismoque el original, pero cada una de ellas se almacenara en un directorio cuyo nombre se corresponde con elvalor del centro de gravedad utilizado para la segmentacion.

El objetivo propuesto para siguientes capıtulos es el de crear un script en MATLAB que realice elmismo trabajo que los scripts anteriores y ejecute la herramienta mandando un mensaje al sistema conel comando, que es como realmente nos interesa trabajar ya que de esa manera el proceso se simplifica.

Como se intuye y tras lo que ya se ha explicado, es logico que encontremos varios valores del centro degravedad, los cuales se han obtenido mediante la revision paciente a paciente o estimando su valor (trasrevisar una cantidad importante de ellos, es facil darse cuenta que en numerosas ocasiones tan solo varıanen ±5, ±10 y en algunos casos ±15 unidades cada una de las componentes del centro. Estos valores sehan almacenado en un archivo .ocv llamado “centros”junto con el id de cada paciente, para que el ficherosea leıdo desde el script en MATLAB que se creara posteriormente.

Una vez realizado la primera iteracion de extraccion, se procede a normalizar el campo de intensidadesde las imagenes y para ello usaremos FAST, otra herramienta de FSL que se encarga de corregir laintensidad por medio del modelo de “Campos Aleatorios Ocultos de Markov 2el algoritmo EM pararesolver los problemas de la falta de homogeneidad. Es importante mencionar que el hecho de normalizarel campo de intensidades es importante para ası poder normalizar el valor del volumen intracraneal. Elcomando de ejecucion es el siguiente:

fast [opciones] archivo(s)

El codigo del script para que ejecute FAST en todas las imagenes anteriores sera el siguiente:3. FAST.sh

#! /bin/bash

ETSIDI - UPM 24

Segmentacion de subestructuras corticales del cerebro humano desde imagenes T1-MR

direccion ="/ home/juanmanuel/Documentos/resultados/cerebros /"

nombre_arch_u ="id_00"

nombre_arch_d ="id_0"

nombre_arch_c ="id_"

#for(( i=1; i<=9; i++))

#do

#fast -b --nopve ${direccion}${nombre_arch_u}${i}

#echo "Corregida imagen ${nombre_arch_u}${i}"

#done

for(( j=24; j<=99; j++))

do

fast -b --nopve ${direccion}${nombre_arch_d}${j}

"Corregida imagen ${nombre_arch_d}${j}"

done

for(( k=100; k <=225; k++))

do

fast -b --nopve ${direccion}${nombre_arch_c}${k}

"Corregida imagen ${nombre_arch_c}${k}"

done

La opcion ’-b’ hace que tras ejecutarse FAST, la imagen de salida sea una imagen ya corregida, y laopcion ’–nopve’ evita que tras la ejecucion se genere la estimacion de volumen parcial de la imagen.

Una vez que se ha corregido la falta de homogeneidad de la imagen del paciente, se vuelve a ejecutarla extraccion del cerebro, pero esta vez incrementamos el valor del umbral, para que el proceso se afine yelimina la mayor cantidad de tejido no cerebral posible.

Cuando haya realizado el skull striped anterior, se debe hacer registro afın de la imagen resultante,por medio de transformaciones inversas, en la imagen de referencia MNI152. Para ello empleamos laherramienta que implementa la biblioteca FSL. Despues terminamos por realizar una ultima correccionde intensidades para normalizar el volumen final del cerebro, ya que los pasos posteriores se encargan degenerar la lista donde apareceran los resultados que nos interesan, como es el ICV resultante de la sumadel volumen de materia blanca y materia gris. Los comandos serıan los siguientes:

#! /bin/bash

clear

Ref_Brain =/home/juanmanuel/Documentos/reference/MNI152_T1_1mm_brain

direccion1 =/home/juanmanuel/Documentos/resultados /0.3

direccion2 =/home/juanmanuel/Documentos/resultados /0.35

direccion3 =/home/juanmanuel/Documentos/resultados /0.4

while read subj_id

do

flirt -in ${direccion1 }/${subj_id}_brain -ref ${Ref_Brain} -omat ${direccion1 }/${subj_id}

_brain_to_T_brain.mat

fast ${direccion1 }/${subj_id}_brain

done < sujetos.txt

while read subj_id

do

flirt -in ${direccion2 }/${subj_id}_brain -ref ${Ref_Brain} -omat ${direccion2 }/${subj_id}

_brain_to_T_brain.mat

fast ${direccion2 }/${subj_id}_brain

done < sujetos.txt

while read subj_id

do

flirt -in ${direccion3 }/${subj_id}_brain -ref ${Ref_Brain} -omat ${direccion3 }/${subj_id}

_brain_to_T_brain.mat

ETSIDI - UPM 25

Segmentacion de subestructuras corticales del cerebro humano desde imagenes T1-MR

fast ${direccion3 }/${subj_id}_brain

done < sujetos.txt

echo "subj_id ,eTIV_FLIRT ,FASTvol_noCSF" > global_size_FSL.csv

while read subj_id

do

eTIV=‘./ mat2det ${direccion1 }/${subj_id}_to_T_brain.mat | awk ’{ print $2 }’‘

volGM=‘fslstats ${direccion1 }/${subj_id}_brain_pve_1 -V -M | awk ’{ vol = $2 * $3 ; print vol }’‘

volWM=‘fslstats $direccion1 }/${subj_id}_brain_pve_2 -V -M | awk ’{ vol = $2 * $3 ; print vol }’‘

voltissue=‘expr ${volGM} + ${volWM}‘

echo "${subj_id},${eTIV},${voltissue }" >> global_size_FSL.csv

done

while read subj_id

do

eTIV=‘./ mat2det ${direccion2 }/${subj_id}_to_T_brain.mat | awk ’{ print $2 }’‘

volGM=‘fslstats ${direccion2 }/${subj_id}_brain_pve_1 -V -M | awk ’{ vol = $2 * $3 ; print vol }’‘

volWM=‘fslstats $direccion2 }/${subj_id}_brain_pve_2 -V -M | awk ’{ vol = $2 * $3 ; print vol }’‘

voltissue=‘expr ${volGM} + ${volWM}‘

echo "${subj_id},${eTIV},${voltissue }" >> global_size_FSL.csv

done

while read subj_id

do

eTIV=‘./ mat2det ${direccion3 }/${subj_id}_to_T_brain.mat | awk ’{ print $2 }’‘

volGM=‘fslstats ${direccion3 }/${subj_id}_brain_pve_1 -V -M | awk ’{ vol = $2 * $3 ; print vol }’‘

volWM=‘fslstats $direccion3 }/${subj_id}_brain_pve_2 -V -M | awk ’{ vol = $2 * $3 ; print vol }’‘

voltissue=‘expr ${volGM} + ${volWM}‘

echo "${subj_id},${eTIV},${voltissue }" >> global_size_FSL.csv

done

donde ./mat2det es una funcion cuyo codigo nos lo proporciona ENIGMA:

#!/ bin/awk -f

BEGIN { i=0; } {

if (i==0) {a=$1;b=$2;c=$3; i=i+1;} else

if (i==1) {d=$1;e=$2;f=$3; i=i+1;} else

if (i==2) {g=$1;h=$2;I=$3; i=i+1;} }

END {

det=a*e*I+b*f*g+c*d*h-a*f*h-b*d*I-c*e*g;

printf(" %f\t %f\n",det ,1/ det);}

ETSIDI - UPM 26

Segmentacion de subestructuras corticales del cerebro humano desde imagenes T1-MR

3.3. Resultados

Los resultados obtenidos hasta el momento, tras realizar la primera extraccion del cerebro con BETson esperanzadores. Han sido comparados con valores de ICV obtenidos usando la herramienta softwareFreesurfer. Utilizaremos una matriz de confusion para realizar una discriminacion inicial de los pacientes.La primera fila se corresponde con pacientes de control, la segunda fila con pacientes MCI, la tercera conMCI multiple y la ultima con pacientes con enfermedad del Alzheimer diagnosticada.

CN MCI MCI multiple AD

CN 0.6826 0.1538 0.0644 0.0992

MCI 0.3738 0.1613 0.1847 0.2801

MCI multiple 0.2214 0.1947 0.2864 0.2974

AD 0.1683 0.2103 0.2817 0.3397

Tabla 3.1: Resultados con Freesurfer

CN MCI MCI multiple AD

CN 0.7070 0.1462 0.0875 0.0593

MCI 0.3991 0.1686 0.1155 0.3168

MCI multiple 0.2738 0.1911 0.2060 0.3290

AD 0.0282 0.2002 0.2390 0.5327

Tabla 3.2: Resultados con BET

Las columnas tambien representan la discriminacion de cada tipo de paciente. La diagonal muestra elvalor en tanto por 1 de los pacientes discriminados correctamente. La solucion perfecta serıa una matrizdiagonal, pero como se puede ver hay pacientes mal clasificados. En comparacion de los primeros datos,por ejemplo, se ve la mejorıa en la clasificacion de pacientes CN clasificados como AD que pasa de un9.9 % a un 5.9 %. Tambien es notable el cambio de los pacientes con AD clasificados como CN, que pasade un 16.8 % a 2.8 %, ası como los pacientes bien diagnosticados de AD, pasa de 33.97 % a 53.27 %.

ETSIDI - UPM 27

Bibliografıa

[1] Shiva Keihaninejad et al. A robust method to estimate the intracranial volume across mri fieldstrengths (1.5t and 3t). NeuroImage, 50:1427–1437, 2010.

[2] Kelvin K. Leung et al. Brain maps: An automated, accurate and robust brain extraction techniqueusing a template library. NeuroImage, 55(1):1091–1108, 2011.

[3] J. Ramirez et al. Lesion explorer: A comprehensive segmentation and parcellation package to obtainregional volumetrics for subcortical hyperintensities and intracranial tissue. NeuroImage, 54:963–973,2012.

28