sistemas basados en casos iut

104

Upload: luis-alamo

Post on 20-Jun-2015

769 views

Category:

Education


0 download

TRANSCRIPT

Page 1: Sistemas Basados en Casos IUT
Page 2: Sistemas Basados en Casos IUT
Page 3: Sistemas Basados en Casos IUT

En el proceso de dividir el razonamiento basado en casos en diferentes subprocesos nos encontramos el ciclo que lo conforman puede ser dividido en 4 procesos claramente diferenciados:

RECUPERAR los casos similares al que analizamos.

REUTILIZAR la información y el conocimiento que tenemos en este caso para resolver el problema.

REVISAR la solución propuesta. RETENER o RECORDAR las partes de esta

experiencia que nos puedan ser útiles para la resolución de futuros problemas.

Page 4: Sistemas Basados en Casos IUT

Cuando nos encontramos delante de un nuevo problema para el cual tenemos que dar una solución lo que primeramente tenemos que hacer es dado ese determinado problema recordar los casos relevantes que pueden solucionarlo. Estos casos relevantes tendrá que ser una selección de aquellos casos de los que disponemos en la base de conocimiento del sistema experto. Por ejemplo, supongamos que Los Leones del Caracas quiere preparar el siguiente partido de la Liga Nacional de Beisbol Profesional Venezolano. Y la experiencia más relevante que él puede recordar es aquella en la cual Los Leones ganaron la liga PBV (2009-2010). El caso de recuerdo del Manager de los Leones estaría compuesto por todo lo que se hizo en aquel momento para ganar la liga (táctica, equipos contrarios) que hicieron que ganases, así como las decisiones que fue tomando a medida que iban avanzando en la eliminatoria.

Sistemas Basado en casos

Page 5: Sistemas Basados en Casos IUT
Page 6: Sistemas Basados en Casos IUT
Page 7: Sistemas Basados en Casos IUT

Primer modelo formal de una neurona (McCulloch y Pits, 1943)

Esquema de aprendizaje para actualizar conexiones entre neuronas (Donal Hebb, 1949)

Construcción y prueba de las primeras neurocomputadoras (1954)

Perceptron (Rosenblatt, 1958)

Page 8: Sistemas Basados en Casos IUT

Modelación del cerebro humano.

El cerebro humano contiene alrededor de 15 billones de células llamadas neuronas.

Una neurona se conecta con cientos de otras neuronas, formando una red neuronal.

Page 9: Sistemas Basados en Casos IUT

Sinapsis: conexión entre neuronas.

Dendritas: para recibir las señales eléctricas.

Axon: Envía señales de salida.

Núcleo: Se ejecutan las funciones principales.

Page 10: Sistemas Basados en Casos IUT

Una red neuronal es un modelo computacional que pretende simular el funcionamiento del cerebro a partir del desarrollo de una arquitectura que toma rasgos del funcionamiento de este órgano sin llegar a desarrollar una réplica del mismo.

Page 11: Sistemas Basados en Casos IUT

Primer modelo formal de una neurona (McCulloch y Pits, 1943)

Esquema de aprendizaje para actualizar conexiones entre neuronas (Donal Hebb, 1949)

Construcción y prueba de las primeras neurocomputadoras (1954)

Perceptron (Rosenblatt, 1958)

Page 12: Sistemas Basados en Casos IUT

Entrada Pesos Suma Pesada Función de

Transferencia Salida

Page 13: Sistemas Basados en Casos IUT

Un conjunto de elementos computacionales simples unidos por arcos dirigidos.

Cada arco tiene asociado un peso numérico Wij que indica la significación de la información que llega por este arco.

Cada celda Ui calcula una activación.

Page 14: Sistemas Basados en Casos IUT

Toda unidad uj (excepto las de entradas) calcula una nueva activación u'

j

Sj representa el nivel de voltaje que excita la neurona

u'j denota la intensidad de la

salida resultante de la neurona.

i

iijj uwS jj SFu '

j

1

2

n

.

.

.

w1j

w2j

wnj

Page 15: Sistemas Basados en Casos IUT

Por convenio existe una unidad U0 con activación siempre igual a 1 que está conectada al resto de los elementos de procesamiento y el peso W0j es una constante que representa un valor inicial añadido al calcularse el nivel de actividad del elemento.

Page 16: Sistemas Basados en Casos IUT

Entre la unidades o neuronas que forman una red neuronal artificial existe un conjunto de conexiones que las unen. Cada unidad transmite señales a aquellas que están conectadas a su salida. Asociada con cada unidad Uj hay una función de activación (Fact), que transforma la entrada neta que la unidad presenta como resultado de estar conectada con otras unidades que le suministran información, en el valor de salida Yj.

Page 17: Sistemas Basados en Casos IUT

Trapezoide Signo Sigmoide

Page 18: Sistemas Basados en Casos IUT

Aprendizaje se puede definir como: La modificación del comportamiento inducido por la interacción con el entorno y como resultado de experiencias conducentes al establecimiento de nuevos modelos de respuestas ante estímulos externos. Biológicamente, se suele aceptar que la información memorizada en el cerebro está más relacionada con los valores sinápticos de las conexiones entre las neuronas que con ellas mismas; es decir, el conocimiento se encuentra en las sinapsis. En el caso de las redes neuronales artificiales, se puede considerar que el conocimiento se encuentra representado en los pesos de las conexiones entre las neuronas. Todo proceso de aprendizaje implica cierto número de cambios en estas conexiones. En realidad se puede decir que se aprende modificando los pesos de la red.

Page 19: Sistemas Basados en Casos IUT
Page 20: Sistemas Basados en Casos IUT
Page 21: Sistemas Basados en Casos IUT

Un programa tradicional es un conjunto de instrucciones que representan objetos del mundo real que codifican el conocimiento; ejecutará siempre lo que está codificado en las instrucciones.

En una RN ningún conocimiento está codificado; es necesario enseñar presentando ejemplos. Básicamente, el conocimiento, al ser enseñado, se almacena en forma de pesos (valores) que darán a la red el comportamiento deseado.

◦Simulando un comportamiento parecido al del ser humano

Page 22: Sistemas Basados en Casos IUT

Redes analógicas ◦Procesan datos de entrada de naturaleza

analógica, valores reales continuos, para dar respuestas también continuas.

Redes discretas (binarias) ◦Procesan datos de naturaleza discreta,

habitualmente {0,1}, para acabar emitiendo una respuesta discreta.

Redes híbridas ◦Procesan entradas analógicas para dar

respuestas binarias.

Page 23: Sistemas Basados en Casos IUT

Organización o arquitectura del conjunto de neuronas que la forman; comprende - la distribución espacial de las mismas y

- los enlaces entre ellas.

Page 24: Sistemas Basados en Casos IUT

X

X

X

1

2

3

W1

W2

W3

X0W0 (bias)

Neurona Simple

Page 25: Sistemas Basados en Casos IUT

X1

X2

X3

b

a

c

1

2

Wa1

Wa2

Wb1

Wb2

Wc1

Wc2

Red Simple

Page 26: Sistemas Basados en Casos IUT

a

b

Wa1

Wb1

1

2

S1

S2

S3

Wa2

Wb2

Red con elementos de asociación

Page 27: Sistemas Basados en Casos IUT

S 1

S 2

a

b

c

d

e

f

1

2

r

Red Multicapa

Page 28: Sistemas Basados en Casos IUT

.a

Wabd

Wbcc

Wcdb

Wad

Wbd

Modelo Interactivo

Page 29: Sistemas Basados en Casos IUT

Las redes Monocapa ◦ sólo cuentan con una capa de neuronas, que

intercambian señales con el exterior y que constituyen a un tiempo la entrada y salida del sistema.

◦ En las redes Monocapa, se establecen conexiones laterales entre las neuronas, pudiendo existir, también conexiones autorrecurrentes (la salida de una neurona se conecta con su propia entrada).

Page 30: Sistemas Basados en Casos IUT

Conexiones Recurrentes

Page 31: Sistemas Basados en Casos IUT

Las redes Multicapa ◦ Disponen de conjuntos de neuronas

jerarquizadas en distintos niveles o capas, con al menos una capa de entrada y otra de salida, y, eventualmente una o varias capas intermedias (ocultas).

Page 32: Sistemas Basados en Casos IUT

Red Feedforward ◦ Una red que sólo

dispone de conexiones hacia delante o feedforward, en ella las neuronas de una capa reciben señales de otra capa anterior y envían señales a la capa posterior (en el sentido Entrada - Salida).

Page 33: Sistemas Basados en Casos IUT

Red Feedback o interactiva ◦Algunas de sus neuronas presentan conexiones con neuronas de capas anteriores, conexiones hacia atrás o feedback.

Redes FeedForward-FeedBack

Page 34: Sistemas Basados en Casos IUT

Qué es aprendizaje en nuestras vidas:

◦Adquisición de conocimientos nuevos ◦Reforzamiento de ciertas habilidades.

◦Conceptos Vectores de Entrenamiento Matriz de Entrenamiento Conjunto de Entrenamiento

Page 35: Sistemas Basados en Casos IUT

Aprendizaje Supervisado Aprendizaje no Supervisado

Page 36: Sistemas Basados en Casos IUT

Etapa de Entrenamiento Etapa de Prueba Etapa de Utilización

Page 37: Sistemas Basados en Casos IUT

Científicos de la computación que quieren averiguar sobre las propiedades del procesamiento de información no-simbólica con una red neuronal y sobre sistemas de aprendizaje en general.

Estadísticos utilizan redes neuronales como modelos de clasificación y regresión no lineal flexible

Ingenieros de varias especialidades se aprovechan de las capacidades de redes neuronales en muchas áreas, como procesamiento de señales y control automático

Los científicos cognoscitivos ven redes nerviosas como un posible aparato para describir modelos de pensamiento y conciencia (función cerebral de alto-nivel).

Neuro-fisiólogos utilizan redes neuronales para describir y explorar función cerebrales de medio-nivel (memoria del ej., sistema sensorial y motriz).

Físicos usan redes neuronales para modelar fenómenos en mecánica estadística y para muchas otras tareas.

Biólogos utilizan Redes Neuronales para interpretar sucesiones del nucleotide.

Filósofos y otras personas también pueden ser interesadas en Redes Nerviosas por las varias razones.

Page 38: Sistemas Basados en Casos IUT

Modelos de RNA

Redes de Clasificación

Page 39: Sistemas Basados en Casos IUT

En 1957 Frank Rosenblatt presentó el Perceptron, una red neuronal con aprendizaje supervisado.

El Perceptron trabaja con patrones de entrada binarios.

Page 40: Sistemas Basados en Casos IUT

Consta de dos niveles o capas.

Nivel de unidades de entrada, denominadas unidades sensoriales.

Nivel de unidades de salida, denominadas unidades de asociación, cuyas entradas son las salidas pesadas de las unidades de entrada.

x = S1 w1 + S2 w2 y = { 1 si x > h ; 0 si x<=

h }

Page 41: Sistemas Basados en Casos IUT
Page 42: Sistemas Basados en Casos IUT

Para que el Perceptron aprenda una función XOR deben cumplirse las siguientes cuatro desigualdades: ◦ 0 w1 + 0 w2 < h => 0 < h ◦ 1 w1 + 0 w2 < h => w1 > h ◦ 0 w1 + 1 w2 < h => w2 > h ◦ 1 w1 + 1 w2 < h => w1 + w2 < h

Espacios Linealmente Separables

Page 43: Sistemas Basados en Casos IUT

El principal aporte del Perceptron es que la adaptación de los pesos se realiza teniendo en cuenta el error entre la salida que da la red y la salida que se desea (Hebb).

Se crearon grandes expectativas sobre sus aplicaciones, que posteriormente se tornaron en gran decepción cuando en 1969 Minsky y Papert demostraron las grandes limitaciones de esta red.

Page 44: Sistemas Basados en Casos IUT
Page 45: Sistemas Basados en Casos IUT

Paso hacia delante Cálculo del Error cuadrático Medio

◦ Diferencia Cuadrática entre la salida Deseada Real y la calculada por la Red.

Paso hacia atrás.◦ Actualización de los pesos para disminuir el error

en la próxima ejecución◦ Algoritmo Backpropagation

Page 46: Sistemas Basados en Casos IUT

Modificación de los pesos utilizando método de gradiente descendente.

Page 47: Sistemas Basados en Casos IUT

Inicializar los pesos y los umbrales iniciales de cada neurona. Hay varias posibilidades de inicialización siendo las más comunes las que introducen valores aleatorios pequeños.

Para cada patrón del conjunto de los datos de entrenamiento ◦ Obtener la respuesta de la red ante ese patrón. Esta parte

se consigue propagando la entrada hacia delante. Las salidas de una capa sirven como entrada a las neuronas de la capa siguiente.

◦ Calcular los errores asociados según la ecuación Calcular el incremento total, para todos los patrones, de los

pesos y los umbrales Actualizar pesos y umbrales Calcular el error actual y volver al paso 2 si no es

satisfactorio

Page 48: Sistemas Basados en Casos IUT

Un desarrollo semejante al modelo desarrollado por Rosemblatt a partir del modelo de McCulloch y Pitts fue realizado por Bernard Widrow para obtener el modelo ADALINE (ADAptive LInear NEuron) - MADALINE (Many ADALINE).

Las diferencias entre un perceptron y una ADALINE no son significativas.

Page 49: Sistemas Basados en Casos IUT

Una ADALINE está formada por dos elementos.

El primer elemento constitutivo se conoce como dispositivo de combinación lineal adaptativa (Adaptive Linear Combiner, ALC).

En él se realiza la suma ponderada de los componentes del vector de entrada para formar la salida. Esta salida del ALC sirve de entrada a la otra parte, la cual es un clasificador lineal que es el que produce la salida binaria.

Page 50: Sistemas Basados en Casos IUT

X1

. . .

Xn

Y

Y

respuesta analógicahacia el adaptadorde pesos

ALC

+1

-1

0

Red Adaline

Page 51: Sistemas Basados en Casos IUT

La función que describe el funcionamiento de la ADALINE completa es la siguiente:

f x

f x

ii

N

i

ii

N

i

W X

W X

( ) *

( ) *

1 0

1 0

0

0

si

si

Page 52: Sistemas Basados en Casos IUT

El proceso de aprendizaje de la ADALINE se realiza de la forma siguiente:

La salida del ALC se compara con la respuesta esperada. La diferencia es realimentada a un bloque de corrección de los pesos en el que se lleva a cabo la adaptación de éstos, de forma que se disminuya el valor de hasta anularse a lo largo de sucesivas aproximaciones.

La ecuación que define la manera de cambiar el valor de los pesos Wi asociados a las distintas entradas Xi es la siguiente:

Wi t + 1 = Wi t + * t * Xi t

Page 53: Sistemas Basados en Casos IUT

Las MADALINES de los años 60 (llamadas MADALINE I) estaban formadas por dos capas.

En la primera tenían ADALINES y en la segunda funciones lógicas fijas como AND, OR y MAJ (Majority- Vote-Taker).

Un ejemplo de MADALINE con dos entradas y formada por dos ADALINES para la función NOR

X1

X2

ALC

ALC

+1

-1

+1

-1

Y

Y

Función

lógica

NOR

Page 54: Sistemas Basados en Casos IUT

Las MADALINE de los años 80 tienen muchas capas y todas son adaptativas.

El procedimiento de aprendizaje para esta clase de Madaline se conoce por Madaline Rule II (MRII).

Una consideración importante que se debe tener en cuenta al comparar varias topologías de redes neuronales es la cantidad de ejemplos de entrenamientos que ellas pueden almacenar (aprender).

Page 55: Sistemas Basados en Casos IUT

La cantidad promedio de patrones que una red Madaline I puede aprender a clasificar es igual a la capacidad promedio de las Adaline multiplicada por la cantidad de Adalines, lo que es aproximadamente igual a dos veces la cantidad de pesos adaptativos.

Aunque las Adaline y las Madaline tienen aproximadamente la misma capacidad por peso adaptativo, las primeras sólo pueden separar conjuntos separables linealmente.

Page 56: Sistemas Basados en Casos IUT

Otros modelos de RNA

Redes Autoorganizativas

Page 57: Sistemas Basados en Casos IUT

Existen evidencias que demuestran que en el cerebro existen neuronas que se organizan en muchas zonas, de forma que las informaciones se representan internamente en forma de capas bidimensionales.

Aunque en gran medida esta organización neuronal está predeterminada genéticamente, es probable que ella se origine mediante el aprendizaje.

Esto sugiere, que el cerebro podría poseer la capacidad inherente de formar mapas topológicos de las informaciones recibidas del exterior.

Page 58: Sistemas Basados en Casos IUT

Teuvo Kohonen presentó en 1982 un modelo de red neuronal con capacidad para formar mapas de características de manera similar a como ocurre en el cerebro.

Los algoritmos de aprendizaje no supervisado no necesitan de un supervisor externo que juzgue (a priori o sobre la marcha) los resultados del proceso de aprendizaje.◦ No se presentan las salidas objetivo que se quieren asociar al patrón de

entrada◦ Los algoritmos de aprendizaje solo manejan patrones de entrada

Page 59: Sistemas Basados en Casos IUT

Aprendizaje no supervisado.

Poseen una arquitectura de dos capas (entrada-salida) (una sola capa de conexiones), funciones de activación lineales y flujo de información unidireccional (son redes en cascada).

Las unidades de entrada reciben datos continuos normalizados, se normalizan así mismo los pesos de las conexiones con la capa de salida. Tras el aprendizaje de la red, cada patrón de entrada activará una única unidad de salida.

Page 60: Sistemas Basados en Casos IUT

Aprender a categorizar/ agrupar los datos de entrada◦ Se persigue que datos parecidos hagan reaccionar a las mismas

neuronas◦ Se consigue haciendo que cada neurona se especialice en

determinado "tipo" de patrones de entrada

Las neuronas juegan el papel de "prototipos" de los datos de entrada

La unidad de salida ganadora para cada grupo de entradas no se conoce previamente, es necesario averiguarlo después de entrenar a la red.

Page 61: Sistemas Basados en Casos IUT
Page 62: Sistemas Basados en Casos IUT

Capa de entrada recibe la señal de entrada a la red (no hay procesamiento)◦ Su dimensión, n, depende del problema◦ Será un vector X = (x1; x2; :::; xn)

Page 63: Sistemas Basados en Casos IUT

Capa de competición: formada por m neuronas◦ Cada neurona de competición esta conectada con todas la

neuronas de entrada◦ Los pesos de la neurona i formarán un vector de n dimensiones:

~Wi = (w1i;w2i; :::;wni)

No hay conexión entre las neuronas de competición Existe una relación de vecindad usada en el aprendizaje

Page 64: Sistemas Basados en Casos IUT

En el modo de operación normal permanecen fijos los pesos.◦ Cada neurona i calcula la similitud entre el vector de entrada X

y su vector de pesos Wi

Vence aquella con mayor similitud.

Page 65: Sistemas Basados en Casos IUT

En la fase de aprendizaje, la neurona vencedora ajusta sus pesos aproximándose cada vez más a los de X.

Por la función de vecindad también actualizan sus pesos neuronas vecinas a la vencedora

Page 66: Sistemas Basados en Casos IUT

Inicialmente los pesos de cada neurona se establecen aleatoriamente

Durante el entrenamiento, se elige al azar un vector de entrada con el que se realizan 2 tareas ◦ Determinar neurona ganadora◦ modificación de pesos

Page 67: Sistemas Basados en Casos IUT

Al recibir un patrón X cada neurona compara su vector de pesos con el vector de entrada◦ distintas funciones de distancia posible◦ la más usual es la distancia euclidea

La única neurona ganadora es aquella con los pesos mas parecidos al patrón◦ solo se activará la neurona cuya distancia sea la menor

Page 68: Sistemas Basados en Casos IUT

Solo se realizara ajuste de pesos en la neurona ganadora y sus "vecinas"◦ La idea es que dicha neurona se "especialice“ en patrones

similares◦ Se ajustan los pesos para hacerlos más parecidos al patrón de

entrada que provocó la activación

Idea base: acercar vector de pesos al vector de entrada

Ajuste de pesos controlado por dos parámetros que varían con el tiempo (num. patrones procesados)◦ función de vecindad y amplitud del "vecindario“◦ tasa de aprendizaje

Page 69: Sistemas Basados en Casos IUT

Nuevos pesos después de la iteración t para la neurona i

Con alpha(t + 1) el valor de la tasa de aprendizaje para la presente iteración

Con Hg(t; i - G) una media que indica el grado de vecindad entre la neurona i y la neurona ganadora G

Page 70: Sistemas Basados en Casos IUT

Acercar los pesos al patrón de entrada◦ El nuevo peso es el resultado de sumar al antiguo una

fracción de la diferencia entre el peso antiguo y su componente correspondiente del vector de entrada.

Page 71: Sistemas Basados en Casos IUT

Qué se entiende por vecinos?

Page 72: Sistemas Basados en Casos IUT

Regulado por tres parámetros:◦radio de vecindad (d)◦tipo de relación de vecindad (topología)◦función de vecindad (Hg)

Radio de vecindad (d)◦ Amplitud del alcance de las neuronas afectadas

por la vecindad

Page 73: Sistemas Basados en Casos IUT

Determina qué neuronas se consideran vecinas inmediatas de una dada

No es una conexión real física entre neuronas

Page 74: Sistemas Basados en Casos IUT
Page 75: Sistemas Basados en Casos IUT
Page 76: Sistemas Basados en Casos IUT
Page 77: Sistemas Basados en Casos IUT
Page 78: Sistemas Basados en Casos IUT

Cuantifican numéricamente el grado de vecindad en función de la distancia a la ganadora◦ El efecto del aprendizaje debe ser proporcional a la

distancia respecto a la neurona ganadora

Multitud de posibles funciones (con centro en la neurona ganadora)

Page 79: Sistemas Basados en Casos IUT
Page 80: Sistemas Basados en Casos IUT
Page 81: Sistemas Basados en Casos IUT

1. Inicializar pesos◦ Asignar a los pesos valores aleatorios pequeños

2. Presentar una entrada◦ El conjunto de aprendizaje se presenta repetidas

veces hasta llegar a la convergencia de la red◦ Actualizar alpha (reducir su valor)

3. Propagar el patrón de entrada hasta la capa de competición◦ Obtener los valores de salida (distancias) de las

neuronas de dicha capa4. Seleccionar la neurona ganadora G

◦ La de menor distancia al patrón5. Actualizar conexiones entre capa de entrada y la

neurona C◦ Actualizar también los pesos de sus vecinas según el

grado de vecindad6. Si alpha se mantiene por encima del umbral de parada,

volver a 2, en caso contrario FIN

Page 82: Sistemas Basados en Casos IUT

Cuando un dato se presenta a la red, solamente resulta activadauna neurona del conjunto de salida; por lo tanto, lo que se hace

es una clasificación

Después de entrenada, los datos similares presentados a la redestimularán siempre la misma neurona.

Por lo tanto es una red indicada para establecer relaciones, desconocidas previamente, entre datos.

Page 83: Sistemas Basados en Casos IUT

Una de las principales aplicaciones de las SOM están en algoritmos de clusterización, debido a su capacidad para formar grupos.

Page 84: Sistemas Basados en Casos IUT

Una de las posibles aplicaciones del mapa de Kohonen es a la clasificación de conjuntos de documentos.

Genéricamente, a esta aplicación se le llama WEBSOM. Lo que se persigue con esta aplicación no es solo la clasificación de documentos, sino también el crear un mapa de un corpus de documentos, de forma que se pueda navegar por él entre documentos similares, y, además, ver la estructura a gran escala del grupo de documentos, con el objetivo de detectar grupos naturales (los clusters de los que hemos hablado anteriormente).

Page 85: Sistemas Basados en Casos IUT

Otros modelos de RNA

Búsqueda Asociativa de Información

Page 86: Sistemas Basados en Casos IUT

La red está constituida de N neuronas artificiales, cada neurona se conecta con las N-1 restantes mediante caminos con pesos Wij.

La entrada y la salida de la red son vectores con N componentes binarias {+1,-1}. Una vez creada la red cuando se presente un vector de entrada X la red realiza un proceso iterativo el cual la debe llevar hasta producir el vector de salida Y, que representa la clase a la cual pertenece el vector X.

Modelo de Hopfield

Page 87: Sistemas Basados en Casos IUT

ji

jisi

XX

W

jk

M

kik

ij

si *

0

1

Para calcular los pesos

Page 88: Sistemas Basados en Casos IUT

NktywtyN

jjjkk ,...,1 para *sgn1

1

Fase de Explotación

Page 89: Sistemas Basados en Casos IUT

Reconocimiento de imágenes y de voz.El control de motores. La resolución de problemas de optimización tales como la resolución de ecuaciones y del problema del viajero vendedor, manipulación de grafos, procesamiento de señales (ejemplo: conversores analógico-digitales) y de imágenes, reconocimiento de patrones.

Page 90: Sistemas Basados en Casos IUT

Se aplica a las distintas expresiones que se pueden presentar en un solo rostro.

Las investigaciones psicológicas indican que existen al menos 6 emociones universalmente asociadas con distintas expresiones faciales y son: alegría, tristeza, sorpresa, miedo, angustia y disgusto.

Una imagen de cada una de las emociones deben de ser almacenadas en la memoria de Hopfield como el conjunto de entrenamiento.

Page 91: Sistemas Basados en Casos IUT

Este modelo de reconocimiento ha demostrado un funcionamiento aceptable utilizando imágenes de 30x30 píxeles, por lo tanto cada imagen está codificada en 900 unidades de patrón.

De una base de datos de imágenes se seleccionan aleatoriamente 50 imágenes y son la del patrón de prueba en el experimento.

Como resultado del experimento: la angustia, disgusto y sorpresa con un 100% de los casos reconocidos, la alegría con un 93 de los casos reconocidos y por último la tristeza y el miedo con un 75% de los casos.

Page 92: Sistemas Basados en Casos IUT

Resultados experimentales

Page 93: Sistemas Basados en Casos IUT

El reconocimiento de los distintos tipos de signos que se pueden obtener con el lenguaje de las manos, es una aplicación que es muy útil.

Un actor fue filmado a una velocidad de 15 cuadros por segundo sobre un fondo negro, este actor representaba con signos manuales las distintas palabras que le eran preguntadas. Después de esto viene un trabajo llamado extracción de las características de la forma de la mano. La red de Hopfield empleada está constituida por 60 neuronas y en promedio cada neurona iteraría de 4 a 5 veces.

Page 94: Sistemas Basados en Casos IUT

El modelo de esta red presenta en promedio un 87% de eficiencia en el reconocimiento de las imágenes y sus correspondientes símbolos, solo se presenta un problema serio con los símbolos que representa al número 7 y al símbolo que representa a una moneda.

Resultados experimentales

Page 95: Sistemas Basados en Casos IUT

El sistema de aprendizaje para el entrenamiento de la red de Hopfield incluye una base de datos con miles de imágenes de las flemas tanto de pacientes enfermos como de sujetos normales.

La red se diseñó basándose en las técnicas de detección de células enfermas, para lo cual primeramente se extraen las imágenes de las células a tratar utilizando resonancia magnética y luego se buscan áreas oscuras dentro de las células.

Para realizar esta tarea se recurre a una técnica llamada enmascaramiento, la cual aplica una máscara de un color predeterminado (R.G.B, Rojo, Verde o Azul intenso) a las imágenes obtenidas por el escaneo.

Los resultados arrojados por la imagen y su máscara aplicada son los parámetros a tomar en cuenta para la identificación de las células dañadas.

Page 96: Sistemas Basados en Casos IUT

En la topología de este modelo las neuronas se distribuyen en grupos.

Se establecen enlaces entre las neuronas de grupos diferentes y del mismo grupo.

Las conexiones entre las neuronas de grupos diferentes son excitadoras, mientras que las conexiones dentro de los grupos son inhibitorias.

Page 97: Sistemas Basados en Casos IUT

Las neuronas de grupos diferentes tratan de excitarse mutuamente de modo que cada unidad trata de incrementar el nivel de activación de sus unidades adyacentes en otros grupos.

Mientras que dentro de cada grupo se establece una competencia en la cual cada neurona trata de disminuir el nivel de activación de sus compañeras de grupo.

Page 98: Sistemas Basados en Casos IUT

Como en este modelo existe una estrecha identificación de qué significa o representa cada grupo y cada neurona, es posible asignar los pesos a cada enlace.

Programar prescriptivamente la red asignando pesos negativos para los enlaces inhibitorios y pesos positivos a las conexiones excitadoras, o aplicar algunos de los algoritmos de aprendizaje presentados antes.

Page 99: Sistemas Basados en Casos IUT

net i w output j extinput iijj

* *

Modelo de Neurona en IAC

Donde:output(j) representa el nivel de activación de la neurona j (esta variable toma valor 0 si el nivel de activación es negativo).

j es índice que recorre a todas las unidades conectadas a la neurona i.

extinput(i) es el valor de la entrada externa a la neurona, y son coeficientes que permiten llevar las entradas interna y externa a una escala deseada.

Page 100: Sistemas Basados en Casos IUT

Las unidades con ligeras ventajas iniciales, en términos de sus entradas externas, amplían esta ventaja sobre sus competidoras. “El rico se vuelve más rico”, y está dado porque si dos neuronas n1 y n2 son mutuamente inhibidoras y n1 recibe una mayor excitación externa que n2, n1 tendrá una activación inicial mayor que n2, permitiéndole inhibir a n2 más que lo que n2 puede inhibir a n1.

Efecto resonancia. Si dos neuronas n1 y n2 son mutuamente excitadoras, entonces cuando una de ellas se vuelva activa tenderá a mantener activa la otra. De este modo las activaciones de las unidades que entran en tales interacciones mutuamente excitadoras son sostenidas por la red.

Page 101: Sistemas Basados en Casos IUT

La magnitud de la entrada externa dada a ciertas unidades puede bloquear totalmente la entrada externa a otras unidades.

Page 102: Sistemas Basados en Casos IUT

Está compuesta de dos subredes:

La primera tiene N unidades sensoras que reciben los valores binarios de las N componentes del vector de entrada. Estas unidades sensoras están conectadas a M neuronas (una por cada clase) que producen los valores de salida que sirven de entrada a la segunda subred.

Page 103: Sistemas Basados en Casos IUT

La segunda subred tiene M neuronas y realiza la clasificación.

Cada uno de las N unidades sensoras está conectada a todas las unidades de salida en la primera subred mediante caminos con pesos Wij.

Estas M neuronas de salida se conectan biyectivamente (una a una) con las M neuronas de la segunda subred; en la segunda subred cada una de las M unidades está conectada con las M-1 neuronas restantes (como en la red de Hopfield) a través de caminos con pesos Tkl.

Page 104: Sistemas Basados en Casos IUT

Formar 11 equipos para presentación de los siguientes seminarios.

Redes Reconocimiento y Clasificación de Patrones Reconocimiento de olores “nariz electrónica”Detección de sustancias toxicas, emisiones de fabricas, monitoreo de calidad de aire, detección de derrames, etc.Categorización de Patrones ("clustering") Aproximación y seguimiento de funciones Procesamiento de señales Predicción Optimización Control Medicina Gestión financiera Cada equipo debe indicar en que consiste la aplicación, tipos de redes empleadas, que tipo de entrenamiento reciben y cuales son los resultados. Debe tener un ejemplo de la aplicación. Máximo 15 minutos. Traer Laminas digitales. Entregar digital y un pequeño resumen escrito.