rna informe

22
 ANTECEDENTES Las primeras explicaciones teóricas sobre el cerebro y el pensamiento fueron dadas  por algunos filósofos griegos, co mo Platón y Aristóteles, quienes fueron apoyados d espués  por Descartes y filósofos empiris tas. Alan Turing, en 1!", fue el primero en estudiar el cerebro como una forma de #er el mundo de la computación, pero quienes primero concibieron algunos fundamentos de la computación neuronal fueron $arren %c&ulloc' y $alter Pitts, (stos dos in#estigadores  propusieron un modelo matem)tico de neurona. (n este modelo cada n eurona estaba dotada de un con*unto de entradas y salidas. &ada entrada est) afectada por un peso. La acti#ación de la neurona se calcula mediante la suma de los productos de cada entrada y la salida es una función de esta acti#ación. Después otras teor+as in+ciales fueron expuestas por Donald ebb, quien en 1- definió dos conceptos muy importantes y fundamentales que 'an pesado en el campo de las redes neuronales (l aprendi/a*e se locali/a en las sinapsis o conexiones entre las neuronas. La información se representa en el cerebro mediante un con*unto de neuronas acti#as o inacti#as. Pero solo 'asta 10 2ran3 4osenblatt comen/ó el desarrollo del Perceptrón, esta es la red neuronal m)s antigua5 utili/)ndose 'oy en d+a para aplicación como identificador de  patrones. (ste modelo era capa/ de generali/ar, es decir, d espués de 'aber aprendido una serie de patrones pod+a reconocer otros similares, aunque no se le 'ubiesen presentado en el entrenamiento. %)s adelante en 10 $idro6 desarrolló la Teor+a sobre la Adaptación 7euronal y el Adaline 8Adaptati#e Linear 7euron9 y el %adaline 8%ultiple Adaline9. (s la primera aplicación de las redes a problemas reales filtros adaptati#os para eliminar ecos en las l+neas telefónicas. :tep'en ;rossberg en 1" reali/ó una red A#alanc'a, que consist+a en elementos dis cre tos con act i#i dad que #ar +a en el tie mpo que sat is fac e ecuaci ones dif ere nci ale s continuas, para resol#er acti#idades como reconocimiento continuo de 'abla y aprendi/a*e de los bra/os de un robot. asta 1<= el crecimiento se frenó pero surgieron luego in#estigaciones sobre redes como la de %ar#in %ins3y y :eymour Papert, después >ames Anderson desarrolló el Asociador Lineal, en >apón ?uni'i3o 2u3us'imi3a y Teu#o ?o'onen que se centraron en 4edes 7euronales para el reconocimiento de patrones5 en @:A >o'n opfield también reali/ó importantes in#estigaciones.

Upload: want90x

Post on 04-Feb-2018

219 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Rna Informe

7/21/2019 Rna Informe

http://slidepdf.com/reader/full/rna-informe 1/22

ANTECEDENTES

Las primeras explicaciones teóricas sobre el cerebro y el pensamiento fueron dadas

 por algunos filósofos griegos, como Platón y Aristóteles, quienes fueron apoyados después por Descartes y filósofos empiristas.

Alan Turing, en 1!", fue el primero en estudiar el cerebro como una forma de #er el mundo de la computación, pero quienes primero concibieron algunos fundamentos de la

computación neuronal fueron $arren %c&ulloc' y $alter Pitts, (stos dos in#estigadores

 propusieron un modelo matem)tico de neurona. (n este modelo cada neurona estaba dotadade un con*unto de entradas y salidas. &ada entrada est) afectada por un peso. La acti#ación

de la neurona se calcula mediante la suma de los productos de cada entrada y la salida es

una función de esta acti#ación.

Después otras teor+as in+ciales fueron expuestas por Donald ebb, quien en 1-definió dos conceptos muy importantes y fundamentales que 'an pesado en el campo de las

redes neuronales

• (l aprendi/a*e se locali/a en las sinapsis o conexiones entre las neuronas.

• La información se representa en el cerebro mediante un con*unto de neuronas

acti#as o inacti#as.

Pero solo 'asta 10 2ran3 4osenblatt comen/ó el desarrollo del Perceptrón, esta esla red neuronal m)s antigua5 utili/)ndose 'oy en d+a para aplicación como identificador de

 patrones. (ste modelo era capa/ de generali/ar, es decir, después de 'aber aprendido unaserie de patrones pod+a reconocer otros similares, aunque no se le 'ubiesen presentado en elentrenamiento.

%)s adelante en 10 $idro6 desarrolló la Teor+a sobre la Adaptación 7euronal y

el Adaline 8Adaptati#e Linear 7euron9 y el %adaline 8%ultiple Adaline9. (s la primeraaplicación de las redes a problemas reales filtros adaptati#os para eliminar ecos en las

l+neas telefónicas.

:tep'en ;rossberg en 1" reali/ó una red A#alanc'a, que consist+a en elementos

discretos con acti#idad que #ar+a en el tiempo que satisface ecuaciones diferenciales

continuas, para resol#er acti#idades como reconocimiento continuo de 'abla y aprendi/a*ede los bra/os de un robot.

asta 1<= el crecimiento se frenó pero surgieron luego in#estigaciones sobre redes

como la de %ar#in %ins3y y :eymour Papert, después >ames Anderson desarrolló elAsociador Lineal, en >apón ?uni'i3o 2u3us'imi3a y Teu#o ?o'onen que se centraron en

4edes 7euronales para el reconocimiento de patrones5 en @:A >o'n opfield también

reali/ó importantes in#estigaciones.

Page 2: Rna Informe

7/21/2019 Rna Informe

http://slidepdf.com/reader/full/rna-informe 2/22

Page 3: Rna Informe

7/21/2019 Rna Informe

http://slidepdf.com/reader/full/rna-informe 3/22

Las 4edes 7euronales Artificiales, 47A 8Artificial 7eural 7et6or3s9 est)n

inspiradas en las redes neuronales biológicas del cerebro 'umano. (st)n constituidas por 

elementos que se comportan de forma similar a la neurona biológica en sus funciones m)s

comunes. (stos elementos est)n organi/ados de una forma parecida a la que presenta elcerebro 'umano.

Las 47A al margen de HparecerseH al cerebro presentan una serie de caracter+sticas propias del cerebro. Por e*emplo las 47A aprenden de la experiencia, generali/an de

e*emplos pre#ios a e*emplos nue#os y abstraen las caracter+sticas principales de una serie

de datos. 

• Aprender adquirir el conocimiento de una cosa por medio del estudio, e*ercicio o

experiencia. Las 47A pueden cambiar su comportamiento en función del entorno.

:e les muestra un con*unto de entradas y ellas mismas se a*ustan para producir unas

salidas consistentes.

• ;enerali/ar extender o ampliar una cosa. Las 47A generali/an autom)ticamente

debido a su propia estructura y naturale/a. (stas redes pueden ofrecer, dentro de un

margen, respuestas correctas a entradas que presentan pequeas #ariaciones debidoa los efectos de ruido o distorsión.

• Abstraer aislar mentalmente o considerar por separado las cualidades de un ob*eto.

Algunas 47A son capaces de abstraer la esencia de un con*unto de entradas queaparentemente no presentan aspectos comunes o relati#os.

Enfoque Biológico:

La neurona es la unidad fundamental del sistema ner#ioso y en particular delcerebro.

&ada neurona es una simple unidad procesadora que recibe y combina seales desdey 'acia otras neuronas. :i la combinación de entradas es suficientemente fuerte la salida de

la neurona se acti#a. La siguiente figura muestra las partes que constituyen una neurona.

Page 4: Rna Informe

7/21/2019 Rna Informe

http://slidepdf.com/reader/full/rna-informe 4/22

(l cerebro consiste en uno o #arios billones de neuronas densamente

interconectadas.

(l axón 8salida9 de la neurona se ramifica y est) conectada a las dendritas 8entradas9

de otras neuronas a tra#és de uniones llamadas sinapsis. La eficacia de la sinapsis esmodificable durante el proceso de aprendi/a*e de la red.

Elemento Procesador:

(n las 4edes 7euronales Artificiales, 47A, la unidad an)loga a la neurona

 biológica es el elemento procesador,P( 8process element9. @n elemento procesador tiene

#arias entradas y las combina, normalmente con una suma b)sica. La suma de las entradases modificada por una función de transferencia y el #alor de la salida de esta función de

transferencia se pasa directamente a la salida del elemento procesador.

La salida del P( se puede conectar a las entradas de otras neuronas artificiales 8P(9

mediante conexiones ponderadas correspondientes a la eficacia de la sinapsis de las

conexiones neuronales.

La siguiente figura representa un elemento procesador de una red neuronal artificial

implementada en un ordenador. 

Page 5: Rna Informe

7/21/2019 Rna Informe

http://slidepdf.com/reader/full/rna-informe 5/22

@na red neuronal consiste en un con*unto de unidades elementales P( conectadas de

una forma concreta. (l interés de las 47A no reside solamente en el modelo del elementoP( sino en las formas en que se conectan estos elementos procesadores. ;eneralmente los

elementos P( est)n organi/ados en grupos llamados ni#eles o capas. @na red t+pica consiste

en una secuencia de capas con conexiones entre capas adyacentes consecuti#as.

(xisten dos capas con conexiones con el mundo exterior. @na capa de entrada,

 buffer de entrada, donde se presentan los datos a la red, y una capa buffer de salida quemantiene la respuesta de la red a una entrada. (l resto de las capas reciben el nombre de

capas ocultas. La siguiente figura muestra el aspecto de una 4ed 7euronal Artificial.

Page 6: Rna Informe

7/21/2019 Rna Informe

http://slidepdf.com/reader/full/rna-informe 6/22

Arquitecturas de Redes Neuronales Artificiales:

La arquitectura de las redes neuronales artificiales 'ace referencia a la organi/ación

y disposición de las neuronas en la red formando capas de procesadores interconectadosentre s+ a tra#és de sinapsis unidireccionales.

Las arquitecturas neuronales pueden clasificarse atendiendo a distintos criterios

a9 :egCn el nCmero de capas

4edes 7euronales %onocapas se corresponde con la red neuronal m)s sencilla

ya que tiene una capa de neuronas que proyectan las entradas a una capa de

neuronas de salida donde se reali/an diferentes c)lculos, se establecen

conexiones laterales. @na aplicación t+pica de este tipo de redes es como

memorias asociati#as y clusteri/aciones.

4edes 7euronales %ulticapas es una generali/ación de la anterior existiendo uncon*unto de capas intermedias entre la entrada y la salida 8capas ocultas9. La

capa a la que pertenece la neurona puede distinguirse mediante la obser#ación

del origen de las seales que recibe y el destino de la seal que genera. (ste tipo

de red puede estar total o parcialmente conectada.

b) Según el fujo de datos en la red

Page 7: Rna Informe

7/21/2019 Rna Informe

http://slidepdf.com/reader/full/rna-informe 7/22

Redes Neuronales Unidireccionales o de Propagación Hacia

Adelante (Feedorard)! en esta red la propagación de las

se"ales se produce en un sentido sola#ente$ no e%istiendo la

posibilidad de reali#entaciones$ es decir$ la inor#ación circula

en un único sentido$ desde las neuronas de entrada &acia lasneuronas de salida de la red' ógica#ente estas estructuras no

tienen #e#oria'

Redes Neuronales de Propagación Hacia Atrs (Feedbac*)! esta

red +iene caracteri,ada por la e%istencia de la,os de

reali#entación' -stos la,os pueden ser entre neuronas de

dierentes capas$ neuronas de la #is#a capa (cone%iones

laterales) o$ #s sencilla#ente$ entre una #is#a neurona' as

redes de propagación &acia atrs .ue presentan la,os cerrados

se deno#inan siste#as recurrentes' -sta estructura recurrente

la &ace especial#ente adecuada para estudiar la din#ica de

siste#as no lineales'

Page 8: Rna Informe

7/21/2019 Rna Informe

http://slidepdf.com/reader/full/rna-informe 8/22

c9 :egCn el tipo de respuesta de la red

4edes 'eteroasociati#as. (stas redes al asociar información de entrada con

información de salida, precisan al menos de dos capas, una para captar y retener 

la información de entrada y otra para mantener la salida con la información

asociada.(n cuanto a su conecti#idad existen redes 'eteroasociati#as con conexiones

'acia delante o feedfor6ard, redes con conexiones 'acia atr)s o feedbac3 y

redes con conexiones laterales. 4edes utili/adas para tareas de clasificación,

redes empleadas para la asociación de patrones, etc.

4edes autoasociati#as. (ste tipo de redes asocia una información de entrada con

el e*emplar m)s parecido de los almacenados conocidos por la red5 :e pueden

implementar con una sola capa de neuronas. (n cuanto a la conecti#idad en este

tipo de redes existen conexiones laterales entre las neuronas y en algunos casos

conexiones autorrecurrentes. :uelen emplearse en tareas de filtrado deinformación, para anali/ar las relaciones de #ecindad entre los datos

considerados 8clustering9 y para resol#er problemas de optimi/ación

d9 :egCn el grado de conexión

4edes 7euronales Totalmente &onectadas en este caso todas las neuronas de

una capa se encuentran conectadas con las de la capa siguiente 8redes no

recurrentes9 o con las de la anterior 8redes recurrentes9.

4edes Parcialmente &onectadas en este caso no se da la conexión total entre

neuronas de diferentes capas.

odelos de Redes Neuronales Artificiales:

Page 9: Rna Informe

7/21/2019 Rna Informe

http://slidepdf.com/reader/full/rna-informe 9/22

(n todo modelo artificial de neurona se tienen cinco elementos b)sicos

a9 &on*unto de entradas 8I *9. (stas pueden ser pro#enientes del exterior o de otras

neuronas artificiales.

 b9 Pesos sin)pticos o con*unto de conexiones 8$ i*9. Determinan el comportamiento dela neurona. 4epresentan el grado de comunicación entre la neurona artificial * y la

neurona artificial i.

(l peso sin)ptico define la fuer/a de una conexión sin)ptica entre dos neuronas, la

neurona presin)ptica i y la neurona postsin)ptica *. Los pesos sin)pticos puedentomar #alores positi#os, negati#os o cero. (n caso de una entrada positi#a, un peso

 positi#o actCa como excitador, mientras que un peso negati#o actCa como in'ibidor.

(n caso de que el peso sea cero, no existe comunicación entre el par de neuronas.

%ediante el a*uste de los pesos sin)pticos la red es capa/ de adaptarse a cualquier 

entorno y reali/ar una determinada tarea.

c9 :umador o regla de propagación 8i9. :e encarga de sumar todas las entradas

multiplicadas por los respecti#os pesos sin)pticos, es decir, integra la información

 pro#eniente de las distintas neuronas artificiales y proporciona el #alor del potencial postsin)ptico de la neurona i.

d9 2unción de acti#ación no lineal 8Ai9. Pro#ee el estado de acti#ación actual de laneurona i en base al potencial resultante y al estado de acti#ación anterior de la

neurona. :in embargo, en la mayor+a de los modelos se suele ignorar el estado

anterior de la neurona, definiéndose el estado de acti#ación en función del potencial

resultante para limitar la amplitud de la salida de la neurona.

e9 2unción de :alida 8Ei9. 4epresenta el #alor de la salida actual de la neurona i, en

 base al estado de acti#ación de la neurona.

Las entradas y salidas de una neurona pueden ser clasificadas en dos grandes

grupos, binarias o continuas. Las neuronas binarias 8digitales9 sólo admiten dos #alores posibles. (n general en este tipo de neurona se utili/an los siguientes dos alfabetos

JG,1K o J1,1K. Por su parte, las neuronas continuas 8analógicas9 admiten #alores dentro

de un determinado rango, que en general suele definirse como 1, 1M.

La selección del tipo de neurona a utili/ar depende de la aplicación y del modelo

a construir.

Page 10: Rna Informe

7/21/2019 Rna Informe

http://slidepdf.com/reader/full/rna-informe 10/22

/0

/1

/j

2 Hi

3i0

3i1

3ij

Ai  4i

-ntradas

PesosRegla de Propagación

Función de Acti+aciónFunción de Salida

 7(@4N7A i

(xiste una serie de modelos de redes neuronales artificiales, algunos de ellos son

• Perce!trón: (s la red m)s antigua creada por 2ran3 4osenblatt en 10 para el

reconocimiento de caracteres impresos con una des#enta*a que no puede reconocer 

caracteres comple*os.

• Bac"!ro!agation: (s la red m)s popular, con numerosas aplicaciones con éxito,

facilidad de aprendi/a*e y muy potente. 2ue creada por Paul $erbos, Da#id Par3er 

y Da#id 4umel'art entre los aos 1-1<05 para la s+ntesis de #o/ desde texto,

control de robots, predicción y reconocimiento de patrones. :us limitaciones son

que necesita muc'o tiempo para el aprendi/a*e y muc'os e*emplos.

Page 11: Rna Informe

7/21/2019 Rna Informe

http://slidepdf.com/reader/full/rna-informe 11/22

• #o!field: Puede implementarse en OL:F 8integración a muy gran escala9 y f)cil de

conceptuali/ar, fue creada por >o'n opfield en 1<= para la reconstrucción de

 patrones y optimi/ación con la limitante en cuanto a capacidad y estabilidad.

• emoria asociati$a %idireccional:  (s una red de arquitectura y aprendi/a*e

simple, creada por Bart ?os3o en 1<0 para las memorias 'eteroasociati#a de

Page 12: Rna Informe

7/21/2019 Rna Informe

http://slidepdf.com/reader/full/rna-informe 12/22

acceso por contenido con la des#enta*a en cuanto a la capacidad de almacenamiento

y que los datos deben ser codificados.

• Neocognitron: (s una red insensible a la traslación, rotación y escala. 2ue creada

 por 2u3usima entre los aos 1<1<- para el reconocimiento de caracteresmanuscritos. :us limitaciones son que requiere muc'os elementos de proceso,

ni#eles y conexiones.

Page 13: Rna Informe

7/21/2019 Rna Informe

http://slidepdf.com/reader/full/rna-informe 13/22

Estructura de las Redes Neuronales Artificiales:

Las neuronas artificiales se combinan en estructuras que est)n compuestas por un

con*unto de capas. De esta manera, la información se encuentre distribuida a lo largo de las

sinapsis de la red, d)ndole a este sistema cierta tolerancia a fallos. :e pueden distinguir tres

tipos de capas

a9 Ca!a de entrada: 4eciben información pro#eniente de las fuentes externas de la

red, que pueden pro#enir desde sensores o de otros sectores del sistema. ActCacomo buffer de entrada, almacenando la información bruta suministrada a la red o

reali/ando un sencillo preproceso de la misma.

 b9 Ca!a oculta:  :on aquellas cuyas entradas y salidas se encuentran dentro del

sistema, es decir son internas de la red no tienen contacto con el exterior. :on las

que reciben información desde otras neuronas artificiales. (n ellas es donde se

reali/a la representación de la información almacenada. Pueden estar 

interconectadas de distintas maneras, lo que determina *unto con su nCmero las

distintas tipolog+as de redes. Principalmente son las encargadas de extraer, procesar 

y memori/ar la información.

c9 Ca!a de salida: Transfieren la información recibida de la red 'acia el exterior o

fuera de la red. ActCa como interfa/ o buffer de salida, almacenando la respuesta de

la red para que pueda ser le+da.

Page 14: Rna Informe

7/21/2019 Rna Informe

http://slidepdf.com/reader/full/rna-informe 14/22

Page 15: Rna Informe

7/21/2019 Rna Informe

http://slidepdf.com/reader/full/rna-informe 15/22

los #alores deseados y los obtenidos en la salida de la red5 es decir en

función del error cometido en la salida.

Aprendi/a*e por refuer/o. (n el aprendi/a*e por refuer/o el entrenamiento se

reali/a sin conocer exactamente la salida deseada para una determinada

entrada. (xiste una relación de entradasalida a tra#és de un proceso de éxitoo fracaso, produciendo una seal 8seal de refuer/o9 que mide el buen

funcionamiento del sistema.

Los pesos se a*ustan en base a la seal de refuer/o bas)ndose en un

mecanismo de probabilidades. H:i una acción tomada por el sistema de

aprendi/a*e es seguida por un estado satisfactorio, entonces la tendencia del

sistema a producir esa particular acción es refor/ada. (n otro caso, la

tendencia del sistema a producir dic'a acción es disminuidaH. La función del

super#isor es m)s la de un cr+tico que la de un maestro.

Aprendi/a*e estoc)stico. Durante el entrenamiento de la red se reali/an

cambios aleatorios e los #alores de los pesos de las conexiones de la red y se

e#alCa su efecto a partir de la salida deseada y de distribuciones de

 probabilidad.

• A!rendi'a(e no su!er$isado:  (l aprendi/a*e no super#isado se caracteri/a

 porque la red no recibe influencia externa para a*ustar los pesos de las

conexiones entre sus neuronas. La red no conoce ninguna relación entre las

entradas y las salidas que debe generar, por ello, suele decirse que estas redes

son capaces de autoorgani/arse. (l éxito de este tipo de aprendi/a*e se logra

 buscando en el con*unto de datos de entrada, caracter+sticas, regularidades,

correlaciones o categor+as que se puedan establecer entre ellos.

c9 :egCn su modo de operación. &uando se 'abla del modo de operación de una red

neuronal se est) 'aciendo referencia a la manera en que la red neuronal procesa los

est+mulos externos y crea la respuesta de salida. Puede considerarse a una red

neuronal como perteneciente a una de dos grandes categor+as, como lo son las redesest)ticas y las din)micas.

• Redes est)ticas:  :on redes que toman problemas resueltos para construir 

sistemas que toman decisiones y que a dem)s pueden reali/ar clasificaciones,

tomando aquellos problemas que no tienen solución computacional e

implementado algoritmos para su solución.

Page 16: Rna Informe

7/21/2019 Rna Informe

http://slidepdf.com/reader/full/rna-informe 16/22

Las redes est)ticas producen un mapa de datos a datos y es por ello que se

utili/an como aproximadores uni#ersales de funciones. Debido a su modo de

funcionamiento, estas redes tienen una capacidad limitada para sinteti/ar 

funciones dependientes del tiempo en comparación con lo que exponen las redes

din)micas.

(ntre este tipo de redes encontramos la red Perceptron y las redes multicapa,

con las cuales se resuel#en los problemas de clasificación de patrones no

separables linealmente.

• Redes din)micas:  :on las utili/adas para sinteti/ar un comportamiento

din)mico, es decir algo que e#oluciona en el tiempo, para lo cual se alimenta la

red con muestras pasadas por todas las #ariables in#olucradas en la solución del

 problema.

(ste tipo de redes responde de manera diferente ante diferentes secuencias deentradas, 'aciendo uso de manera impl+cita o expl+cita de la #ariable tiempo.

(ste aspecto las 'ace en principio m)s idóneas que las redes est)ticas para la

s+ntesis de funciones en las que apare/ca de alguna manera el par)metro tiempo.

Algunas 4edes din)micas por naturale/a son las redes recurrentes tipo opfield

8D779 y las redes recurrentes tipo multicapa 8D77%9.

• Otras redes neuronales: :on redes que se caracteri/an por no tener un par 

entrada salida asociado, sino que extraen caracter+sticas de las entradas sin que

se cono/ca la salida. (stas redes asocian una respuesta a una entrada en

 particular mediante un procedimiento simple, (ntre este tipo de redes

encontramos las red de ?o'onen, las memorias asociati#as bidireccionales

BA% y la red de funciones radiales.

Page 17: Rna Informe

7/21/2019 Rna Informe

http://slidepdf.com/reader/full/rna-informe 17/22

#ERRAIENTAS * TECNO&O+IAS

(l resurgimiento de la computación neuronal en los Cltimos aos se 'a producido

 por el desarrollo teórico de nue#os modelos matem)ticos del comportamiento del cerebro y

 por el desarrollo de nue#as tecnolog+as que ya est)n siendo utili/adas en una gran #ariedadde aplicaciones comerciales.

(ntre los a#ances o desarrollos tecnológicos que permiten la reali/ación de lacomputación neuronal destacan los programas soft6are de simulación, los aceleradores

'ard6are, los c'ips de silicio y los procesadores ópticos.

Simuladores Soft,are: constituyen una de las formas m)s #ers)tiles con las que se

 pueden implementar redes neuronales. (stos programas constituyen todo un sistema dedesarrollo y reali/ación de prototipos de redes neuronales. (stos programas se utili/an para

disear, construir, entrenar y probar redes neuronales artificiales para resol#er problemascomple*os y problemas del mundo real.

Los primeros simuladores soft6are se e*ecutaban en ordenadores de grandes prestaciones y el a#ance de los ordenadores personales en capacidad de procesado y

capacidad de memoria 'ace posible que exista una serie de simuladores soft6are de

grandes prestaciones que corren sobre ordenadores personales. (ntre otros paquetessoft6are se incluye 7eural $or3s, 7euralyst, (xplore 7et y ?6o6ledge 7et.

Aceleradores #ard,are:  la naturale/a paralela de la computación neuronal se presta a reali/ar diseos concretos y a medida de dispositi#os f+sicos, aceleradores

'ard6are, que aceleren la e*ecución de los c)lculos. Los aceleradores 'ard6are para los

sistemas de computación neuronal son dispositi#os f+sicos constituidos por diferentes

 procesadores interconectados que ayudan a la reali/ación y e*ecución del comportamientode las 47A. @na de las #enta*as de los aceleradores 'ard6are diseados espec+ficamente

 para la computación neuronal es el aumento de la #elocidad de procesado. (sta

caracter+stica permite la utili/ación de las 47A en aplicaciones de tiempo real.

4obert ec't7ielsen desarrolló el acelerador 'ard6are %ar3 FFF que constaba de

<1GG procesadores y traba*aba como un periférico de un OAI. La mayor+a de las casas

comerciales dedicadas al diseo de las 47A 'an desarrollado diferentes tar*etas basadas enlos diferentes procesadores existentes, diseadas para traba*ar en el entorno de un

ordenador personal P& y presentando un progresi#o ratio de actuali/aciones de

interconexiones por segundo.

C-i!s de Silicio Ntro de los campos de la in#estigación en el mundo de las 47A al

margen de los simuladores soft6are y aceleradores 'ard6are, es la integración de todos loscomponentes de computación neuronal en un c'ip de silicio. @n e*emplo concreto es el

Page 18: Rna Informe

7/21/2019 Rna Informe

http://slidepdf.com/reader/full/rna-informe 18/22

c'ip (lectronic 7eural 7et6or3 8((79 de la compa+a ATRT que contiene =0"

transistoresneuronas y m)s de 1GG.GGG resistenciassinapsis. Actualmente este c'ip est)siendo utili/ado para aplicaciones de compresión del anc'o de banda de im)genes de #+deo

 para poder ser transmitidas por una l+nea telefónica. (xisten muc'as compa+as y centros

de in#estigación que est)n traba*ando en el desarrollo de circuitos integrados que reali/an

computación neuronal. La mayor+a de las aplicaciones de estos c'ips est) siendo lasimulación de procesos sensiti#os como la #isión de im)genes y la audición de sonidos.

Page 19: Rna Informe

7/21/2019 Rna Informe

http://slidepdf.com/reader/full/rna-informe 19/22

AP&ICABI&IDAD

(l principal rasgo de esta tecnolog+a es que 'a sido aplicada a un inmenso con*untode problemas, pertenecientes a di#ersas )reas del conocimiento, muc'os de los cuales

 parec+an ser demasiado complicados de resol#er en modelos teóricos o para los cuales se

carec+a de un modelo matem)tico apropiado.

ay muc'os tipos diferentes de redes neuronales, cada uno de los cuales tiene una

aplicación particular m)s apropiada. Las redes neuronales 'an encontrado muc'asaplicaciones con éxito en la #isión artificial, reconocimiento de textos manuscritos, en la

simulación de centrales de producción de energ+a, en la detección de explosi#os, en la

identificación de blancos de radares, en el procesado de seales e im)genes, reconocimientode #o/ y caracteres, sistemas expertos, an)lisis de im)genes médicas, control remoto,

control de robots, inspección industrial, en exploración cient+fica se utili/an redesneuronales en los #e'+culos de in#estigación espacial, en la biometr+a para distinguir 

 personas segCn patrones corporales tales como su 'uella, rostro, pupila y otros, la detecciónde células cancerosas, lesiones neurológicas y cardiacas, prospecciones geológicas,

 predicción de audiencias tele#isi#as, para *ugar a diferentes *uegos 8a*edre/, bac3gammon,

 bridge9, compresión de datos, predicciones meteorológicas, o comprobación de fallos enequipos. (ntre otros.

Tesis .DO

• Para el ao =GG, los estudiantes Luis Antonio &ordero y (noes &arolina %edina de

la @ni#ersidad de Nriente 7Ccleo An/o)tegui, desarrollaron el proyecto titulado

/Desarrollo de una A!licación que Permita E$olucionar Redes NeuronalesArtificiales !ara Resol$er Pro%lemas de Clasificación0 , para optar al t+tulo de

Fngeniero en &omputación. (ste proyecto se reali/ó con el propósito de desarrollar 

un soft6are que le brinde al usuario una solución expresada como una 4ed

 7euronal Artificial que puede ser obtenida de dos formas Algoritmo ;enético y

Algoritmo Bac3propagation5 que el usuario puede elegir que método usar. (sta

aplicación se reali/ó utili/ando tecnolog+as de soft6are libre, rigiéndose por eldecreto !!G, el cual dispone que La Administración PCblica 7acional deber)

emplear prioritariamente :oft6are Libre desarrollado con (st)ndares Abiertos, en

todos sus :istemas, Proyectos y :er#icios Fnform)ticosQ. (l desarrollo del proyecto

estu#o dirigido por la metodolog+a N%T 8Nb*ect %odeling Tec'nique9, la cual

utili/a el an)lisis y el diseo orientado a ob*etos por medio del Lengua*e de

Page 20: Rna Informe

7/21/2019 Rna Informe

http://slidepdf.com/reader/full/rna-informe 20/22

%odelado @%L. Para construir el soft6are se utili/ó >AOA como lengua*e de

 programación.

• Para el ao =GG, los estudiantes Eubras3a ?arina %ontaa Torres y ;iuseppe

Daniele :ifontes Lopardo de la @ni#ersidad de Nriente 7Ccleo An/o)tegui,

desarrollaron el proyecto titulado /Desarrollo de una A!licación !ara elReconocimiento 1acial mediante Redes Neuronales Artificiales0, para optar al

t+tulo de Fngeniero en &omputación. (ste proyecto se reali/o con el propósito de el

usuario podr) indicar los rostros que la aplicación debe memori/ar durante el

aprendi/a*e, también podr) seleccionar algunos par)metros de las redes neuronales,

como son el nCmero de capas y el nCmero de neuronas empleadas por cada capa y

el factor de aprendi/a*e, una #e/ configurados todos estos par)metros se podr) dar 

inicio al entrenamiento de las redes neuronales perceptrón multicapa y función de

 base radial, una #e/ finali/ado el entrenamiento se genera un arc'i#o con todos los

 pesos, umbrales y dem)s resultados obtenidos durante el entrenamiento, necesarios

 para que las redes logren el reconocimiento, este arc'i#o es denominado memoria y

se actuali/a cada #e/ que se encuentra una me*or solución a un problema, por lo

tanto, se puede entrenar tantas #eces como se desee en busca de una me*or solución.

@na #e/ que las redes neuronales artificiales se encuentren entrenadas estas ser)n

capaces de identificar o #erificar con un alto grado de acierto los su*etos aprendidos.

(l an)lisis y diseo de la aplicación fue reali/ado utili/ando el lengua*e gr)fico

@%L 8@nified %odeling Language9. Para el desarrollo de esta aplicación se utili/ó

el lengua*e de cuarta generación >a#a 1." y la 'erramienta >&reator Pro O!.

• Para el ao =GG1, los estudiantes 4osa Lérida Lunar 2ern)nde/ y Antonio Da :il#a%oreira de la @ni#ersidad de Nriente 7Ccleo An/o)tegui, desarrollaron el proyecto

titulado /Dise2o de un Sistema Basado en Redes Neuronales !ara el Control deun 3e-4culo0 para optar al t+tulo de Fngeniero en &omputación. (ste proyecto se

reali/ó con el propósito de disear un sistema que permita el control de un #e'+culo

 basado en 4edes 7euronales. (l sistema consta de dos subsistemas uno en ba*o

ni#el encargado de controlar la circuiter+a o 'ard6are del #e'+culo y otro en alto

ni#el que lle#a el control basado en el algoritmo Bac3propagation de 4edes

 7euronales. (ste proyecto utili/ó para el subsistema de control del 'ard6are el

Lengua*e (nsamblador y para el subsistema de control neuronal los diagramas de

Lengua*e @nificado para el %odelado de ob*eto 8@%L9, y se define con una

Programación Nrientada a Nb*etos con el Lengua*e de Programación Borland &SS.

• Para el ao 1, los estudiantes :arb*it :ing' ?aur y 2ran3lin Esaccis Betancourt

de la @ni#ersidad de Nriente 7Ccleo An/o)tegui, desarrollaron el proyecto titulado

/Simulador de Redes Neurales Com!etiti$as con A!rendi'a(e no Su!er$isadodel Ti!o SO 5 ART60 para optar al t+tulo de Fngeniero en &omputación. (ste

Page 21: Rna Informe

7/21/2019 Rna Informe

http://slidepdf.com/reader/full/rna-informe 21/22

 proyecto se reali/ó con el propósito de modelar 4edes 7euronales competiti#as de

aprendi/a*e no super#isado del tipo :N% 8:elf Nrgani/ing %ap9 y A4T1

8Adaptati#e 4esonance T'eory9, con la finalidad de e#aluar su aplicación en la

solución de problemas de categori/ación o agrupamiento. (l aspecto m)s resaltante

de este simulador es un Asistente para 4edes 7euronales5 este asistente gu+a al

usuario a tra#és del diseo de la red, 'aciendo sugerencias durante el proceso y

encapsulando muc'os detalles. (l simulador fue diseado para operar en ambiente

%:$indo6s con código de != bits y fue desarrollado ba*o una arquitectura

Nrientada a Nb*etos y codificado en el Lengua*e de Programación &SS.

• Para el ao 1-, la estudiante %elisendra Tre*o Padrino de la @ni#ersidad de

Nriente 7Ccleo An/o)tegui, desarrolló el proyecto titulado /Dise2o e Im!lantaciónde un Simulador de una Red Neuronal Bac"!ro!agation0, para optar al t+tulo de

Fngeniero en &omputación. (ste proyecto se reali/ó con el propósito de simular e

implementar el algoritmo Bac3propagation, puede simular redes de 'asta cinconi#eles y utili/ar una de tres funciones de acti#ación 8t'res'old, sigmoide y tangente

'iperbólica9. 2ue desarrollado en el Lengua*e de Programación &.

Page 22: Rna Informe

7/21/2019 Rna Informe

http://slidepdf.com/reader/full/rna-informe 22/22