ia-robot

74
HISTORIA Y ANTECEDENTES DE LA IA (INTELIGENCIA ARTIFICIAL) ANTECEDENTES La prehistoria de la inteligencia artificial abarca desde los primeros tiempos de nuestra civilización hasta mediados del siglo XX. En este período se producen hechos que podemos agrupar en dos líneas: Una de ella directamente relacionada con la construcción de autómatas que simulaba desde el punto de vista externo el comportamiento humano o animal, y que solían funcionar en ayuda de su amo. La otra línea, referente a la información y automatización del razonamiento lógico y matemático. CONSTRUCCION DE AUTOMATAS Es muy cierto que muchas veces la inteligencia se ha asociado a los aparatos mecánicos complejos, como es el caso de los autómatas. Y evidentemente, mucho antes de que surgieran la inteligencia artificial como una disciplina autónoma, hubo una gran cantidad de consideraciones casi filosóficas sobre la posibilidad de reproducir el ser humano mediante máquinas.

Upload: jimzsamir

Post on 31-Jan-2016

216 views

Category:

Documents


0 download

DESCRIPTION

inteligencia artificial y robotica. monografia

TRANSCRIPT

Page 1: IA-RObot

HISTORIA Y ANTECEDENTES DE LA IA (INTELIGENCIA ARTIFICIAL)

ANTECEDENTES

La prehistoria de la inteligencia artificial abarca desde los primeros tiempos de nuestra

civilización hasta mediados del siglo XX. En este período se producen hechos que podemos

agrupar en dos líneas:

Una de ella directamente relacionada con la construcción de autómatas que simulaba

desde el punto de vista externo el comportamiento humano o animal, y que solían

funcionar en ayuda de su amo.

La otra línea, referente a la información y automatización del razonamiento lógico y

matemático.

CONSTRUCCION DE AUTOMATAS

Es muy cierto que muchas veces la inteligencia se ha asociado a los aparatos mecánicos

complejos, como es el caso de los autómatas. Y evidentemente, mucho antes de que

surgieran la inteligencia artificial como una disciplina autónoma, hubo una gran cantidad de

consideraciones casi filosóficas sobre la posibilidad de reproducir el ser humano mediante

máquinas.

El nacimiento de la inteligencia Artificial, y el concepto de máquinas inteligentes debe ser

buscado en la mitología griega. Los artefactos inteligentes aparecen en la literatura desde

entonces.

La primera mención de los autómatas aparece en la Ilíada escrita en el siglo VIII a.C. (canto

XVIII), donde leemos que Vulcano fabricaba “veinte trípodes que debían permanecer

arrimados a la pared del bien construido palacio y tenían ruedas de oro en los pies para que

de propio impulso pudieran entrar donde los dioses se congregaban y volver a la casa” y

que era ayudado en su cojera por dos estatuas de oro semejantes a vivientes jóvenes, pues

tenían inteligencia, voz y fuerza”.

Page 2: IA-RObot

Por su parte, la tradición judía creó el mito de “golem” (1580), figura humanoide hecha de

arcilla a la que un rabino podía dar vida propia, convirtiéndola en un perfecto criado (que en

leyendas posteriores llega a escapar de su amo). Hay que decir, sin embargo, que se

requería la intervención divina para conseguir estos espectaculares resultados.

Al llegar el racionalista (s. XVIII), las cosas fueron diferentes. Descartes (1569-1650) había

defendido la tesis del “animal-máquina”: los seres vivos, salvo el hombre, son meros

mecanismos. La mettrie, en 1747, va más allá con su escandaloso “L’ homme machine”:

también el hombre y su comportamiento inteligente son explicables en términos

exclusivamente mecánicos.

Ciertamente existían admirables mecanismos, por ejemplo, los de: El Flautista (1737) que

movía realmente los dedos para producir una melodía, o el pato (1738) capaz de nadar, batir

las alas, comer y expulsar excrementos simulados (figura 1, pág. ). No por casualidad

Vaucanson fue, antes de Jacquard, el inventor del telar automático de tarjetas perforadas.

El español torres Quevedo construyó dos versiones de lo que, sin duda, constituye su más

llamativo invento: el jugador ajedrecista. Se trata de un autómata jugador de final de partidas

de ajedrez: juega el rey y torre blancos (máquina) contra rey negro (jugador humano). El

resultado (victoria de las blancas) del juego está determinado algorítmicamente. Para

simplificar el diseño, el autómata lograba siempre el jaque mate, si bien no por el camino

más corto.

El primer jugador fue construido en 1912 y expuesto en París en 1914, ocasionando gran

sensación. Disponía de un brazo mecánico para mover las piezas, y de sensores eléctricos

en el tablero para conocer su ubicación. El segundo jugador (figura 2, pág. ), de 1920, fue

construido por su hijo Gonzalo, en él el movimiento de las piezas se consigue mediante

imanes dispuestos bajo el tablero. Ambos ingenios eran de naturaleza electromecánica, y se

citan como precursores de la Inteligencia Artificial. Ciertamente, constituyeron el primer

intento exitoso de construir un autómata que jugase realmente a un juego humano, lo que se

venía intentando desde el siglo XVIII.

En 1929 se presenta en Francia el “Philidog”, que seguía el rayo luminoso de una linterna y

ladraba si la intensidad luminosa era excesiva.

Page 3: IA-RObot

El escritor karel Kapek difunde en los años 20 una palabra destinada a tener un gran éxito.

“robot”. En su obra “R.U.R.” (Rossum’s Universal Robots) aparece unos seres creados para

realizar las tareas que el hombre no quiere hacer, que acaban siendo más poderosos que el

mismo hombre, llegando a poner en peligro su existencia. Sin embargo, hasta la llegada de

los ordenadores electrónicos no dispusieron los científicos y técnicos de una herramienta

que permitiera la ejecución de tareas más complejas por parte de dispositivos mecánicos,

que hiciera posible, por así decir, la construcción de robots.

AUTOMATIZACION DEL RAZONAMIENTO

La segunda de las líneas, es la automatización del razonamiento y por tanto, la obtención de

una formalización.

Encontramos en primero a Ramón Llull y su “Ars Magna”, donde describe una gramática

universal para cristianos, musulmanes y hebreos, es decir, “un método científico” de

discusión. Esta ciencia universal consiste en que los místicos de las tres religiones del libro

acepten que dios tiene unos atributos, que hay un cierto número de nombres de Dios”, llull

los describió y creó unas tablas que permitían que cada término pudiese combinarse con los

demás, puesto que todos eran equivalentes y creó una gramática universal con una lógica

binaria, combinatoria.

También encontramos a Leibniz que buscó un álgebra universal que permitiera deducir

todas las verdades, y así “si surgieran controversias no habría necesidad de mayor disputa

entre dos filósofos que entre dos contables, pues bastaría que, tomando en sus manos lápiz,

se sentaran frente a sus pizarras y se dijeran (con un amigo como testigo), calculemos”,

como antecesores de los sistemas formales y de la lógica que tan buen papel juegan en la

moderna inteligencia artificial.

Los estudios matemáticos de Rusell y Hilert, permitieron por primera vez reducir el

razonamiento (o un tipo de razonamiento) a la manipulación abstracta de cadenas de

símbolos, ideas de gran fecundidad en los mecanismos de la inferencia simbólica de la

inteligencia artificial y también en los sistemas de representación del conocimiento.

Page 4: IA-RObot

Las teorías de la computabilidad y de los autómatas porporcionan el vinculo entre la

formalización del razonamiento y las máquinas que estaban a punto de surgir tras la

Segunda Guerra mundial. En este ambiente, no es extraña que la aparición de las primeras

máquinas electrónicas de cómputo fuera seguida inmediatamente por los intentos de

aplicarlas a lo que hoy llamamos IA.

CIBERNETICA

En los primeros años de la informática era habitual hablar de “cerebros electrónicos” y, de

hecho, este era uno de los objetos lejanos que resultaban más del gusto de los pioneros

como Von Neumann.

Más solidez ha tenido las ideas que provenían de la cibernética. La nueva visión, fruto de la

inspiración de Norbert Wiener, quedó publicada a partir de 1948 en su famoso libro

“Cibernetics” y, mas adelante, el mismo Wiener analizo las relaciones de la cibernética con

la sociedad.

Cibernética en un término que ya había sido utilizado en el año 1834 por el francés Ampere,

pero fue redefinido por Wiener como “el campo de la teoría del control y la comunicación,

tanto en las máquinas como en los animales”. En paralelo a la construcción de los primeros

ordenadores electrónicos, la cibernética introdujo nuevos conceptos como los de la retro-

alimentación (feedback), el control y los sistemas auto-organizados.

La cibernética influyó en muchos campos debido a su naturaleza fundamental

interdisciplinar, ligando entre sí la fisiología neurona, la teoría de la información de Shannon,

la lógica matemática y la naciente tecnología informática. De esta forma, las ideas de los

creadores de la cibernética llegaron a ser parte del espíritu del tiempo, e influyeron

fuertemente en los primeros investigadores de la IA.

Page 5: IA-RObot

NACIMIENTO DE LA INTELIGENCIA ARTIFICIAL

Ambiciosos y optimistas se mostraban los pioneros de la IA durante los primeros años de la

era informática. Pero el fracaso de la mayoría de sus proyectos mostro que los problemas

que intentaban resolver era demasiado complicado, tanto teórica como tecnológicamente.

En julio de 1945 Vannevar Bush publicó “As we May Think” una visión del futuro en donde

los ordenadores asistían a los humanos en muchas actividades.

En 1950 Alan Turing presentó un articulo sobre el tema de la IA, titulado “Inteligencia y

Funcionamiento de Máquinas”. En este trabajo propone un “Test de Turing” para determinar

el carácter inteligente o no de una máquina. El test parte del juego donde un interrogador

tiene que descubrir el sexo de dos participantes A y B situados en otra habitación, cuando,

aunque los dos dicen ser mujeres, en verdad son un hombre y una mujer. En la propuesta

original de Turing, se trata de sustituir a la mujer por un ordenador, y que el interrogador

descubriera quien era la máquina de los dos participantes, aunque los dos decían ser

personas. Este objetivo había que cumplirlo incluso sabiendo que los participantes no

estaban obligados a decir la verdad y que, por ejemplo, la máquina podía decidir dar un

resultado erróneo en una multiplicación o decir el resultado lo suficientemente más tarde

después de haberlo obtenido, para engañar al interlocutor sobre su propia habilidad

calculista. En la hipótesis optimista del mismo Turing, más o menos alrededor del año 2000

se podría disponer de ordenadores suficientemente potentes para conseguir que un

interrogador normal no tuviera mas del 70% de posibilidades de realizar la identificación

correcta a los cinco minutos del comienzo de las preguntas. Hay que decir que la predicción

de Turing parece, ahora mismo muy optimista.

Posteriormente, en 1955 fue creado un lenguaje de procesamiento (búsqueda heurística) por

Allen Newell, J.C. Shaw y Hebert Simon que fue considerado como el primer lenguaje

especializado de la Inteligencia Artificial, era el IPL-II (Information Proccessing Language-II)

En verano del 1956 tuvo lugar la “Conferencia del Dalmouth” a Hanover (New Hampshire)

sobre IA, organizada por John McCarthy (Stanford), Marvin Minsky (MIT), Allen Newell y J.C.

Shaw y Hebert Simon, con el patrocinio de la fundación Rockefeller, reunió a todos los que

trabajaban en el recién estrenado campo de la IA. A la Dartmouth Conference, Newell y

Simon ya disponían de un programa pro-IA, el “Logic Theorist” que resolvía problemas de

Page 6: IA-RObot

búsqueda heurística, junto con los principios matemáticos de Whitehead y Rusell. Gracias a

esta conferencia se crearon diferentes grupos de estudio de especialidades en diversas

universidades como el instituto Tecnológico de Massachusetts, MIT (Minsky), Stanford

(McCarthy) y Carnegie-Mellon (Newell y Simon).

Destaquemos también que a mediados de los años 50 John McCarthy y posteriormente el

MIT, diseñaron el lenguaje LISP (List Processing).

De todas formas, la Conferencia del Dalmouth acuñaba la expresión “Inteligencia Artificial” y

predecía que al cabo de 25 años los ordenadores harían todo el trabajo de los seres

humanos, y en 1958 Newell y Simon aseguraban que en 1968 un ordenador seria campeón

mundial de ajedrez y habría demostrado algún teorema importante de las matemáticas.

PERIODO 1956-1969

En este periodo la IA es una actividad académica poco conocida fuera de los círculos

especializados. Durante estos años la IA se caracteriza por una ambición exagerada en los

objetivos que se pretenden lograr, agravándose este hecho por las limitaciones reales del

hardware y del software de la época. Esto abocaría en una gran decepción al final de este

periodo, debiendo la dificultad de obtener resultados y a la constatación teórica de la

imposibilidad de obtenerlos en ciertos casos. Aun así en esta época se realizaron con éxito

varios proyectos menos ambiciosos que supusieron un avance en el campo de la IA (LISP,

SAINT, juego de dama, ELIZA, Student, etc.).

Los proyectos más ambiciosos de esta época fueron el intento del General Problem Solver

(GSP), el Perceptrón, la Traducción Automática y la resolución generalizada de problemas

matemáticos.

Logic Theorist.1956. El logic Teorist fue programado por Alan Newell, Hebert Simon y J.C.

Shaw y buscaba las demostraciones de Teoremas Lógicos. Un teorema lógico tiene la

siguiente forma: supuesto que o bien X o bien Y es verdadera, y supuesto que Yes de hecho

falsa, entonces X es verdadera. El Logic Theorist encontró la demostración de 38 de los 52

teoremas presentes en el capitulo II de los “Principia Mathematica” de Bertrand Ruseel y

Alfred North Whitehead. Sirvió como base para el GPS.

Page 7: IA-RObot

General Problem Solver (GPS). El solucionador General de Problemas fue llevado a cabo

por Alan Newell, Hebert Simon y J.C. Shaw. La filosofía del GPS era que las técnicas para

solucionar un problema pueden separarse del conocimiento específico sobre el problema.

Se trata de un programa que solo resuelve problemas en un microcosmos formalizado. El

programa es capaz de resolver problemas como el de las torres de Hanói. Exactamente del

tipo puzzle en los que descrito el objetivo y la posición final, y dado un listado de los medios

disponibles, GPS puede realizar los ensayos necesarios hasta encontrar la manera de usar

los medios para alcanzar el objetivo (análisis medios-fines). También utiliza la teoría de la

retroalimentación de Wiener.

Perceptrón. Proyecto iniciado en el 1958 por Frank Rosenblatt. Su intención era ilustrar

algunas propiedades fundamentales de los sistemas inteligentes en general, sin entrar en

mayores detalles con respecto a condiciones específicas y desconocidas para organismos

biológicos concretos. Roseblatt creía que la conectividad existente en las redes biológicas

tiene un elevado porcentaje de aleatoriedad y que la herramienta de análisis más apropiada

era la teoría de probabilidades. El Perceptrón que desarrolló Rosenbatt imitaba el

funcionamiento del ojo humano, el fotoperceptrón como se llamó era un dispositivo que

respondía a señales ópticas.

El Perceptrón era inicialmente un dispositivo de aprendizaje, en su configuración inicial no

estaba en capacidad de distinguir patrones de entrada muy complejos, sin embargo

mediante un proceso de aprendizaje era capaz de adquirir esta capacidad.

Mediante esas investigaciones se pudo demostrar que el Perceptrón era capaz de clasificar

patrones correctamente, en los que Rosenblatt denominaba un entorno diferenciador, en el

cual cada clase estaba formada por patrones similares. El Preceptrón también era capaz de

responder de manera congruente frente a patrones aleatorios, pero su precisión iba

disminuyendo a medida que aumentaba el número de patrones que intentaba aprender.

En 1969 Marvin Minsky y Seymour Papert publicaron su libro: “Preceptrons: An introduction

to Computational Geometry”, el cual para muchos significó el final de las redes neuronales.

En él se presentaba un análisis detallado del Perceptrón, en términos de sus capacidades y

limitaciones, en especial en cuanto a las restricciones que existen para los problemas que

una red tipo Perceptrón puede resolver, la mayor desventaja de este tipo de redes es su

incapacidad para solucionar problemas que no sean linealmente separables. A pesar de

Page 8: IA-RObot

esta limitación, el Perceptrón es aún hoy una red de gran importancia, pues con base en su

estructura se han desarrollado otros modelos de red neuronal como la red Adaline y las

redes multicapa.

LISP (List Procesing). En 1958 John McCarthy anunció el desarrollo del lenguaje LISP (List

Procesing), este fue considerado desde aquel momento como lenguaje de programación de

los investigadores de la IA. El LISP es un lenguaje declarativo funcional.

SAINT (Symbolic Autommatic Integrador). Programa desarrollado por J. Slagle en 1961. Con

el que se inicia la automatización de la integración simbólica.

GTP (Geometry Theorem Prover). Demostrador de Teoremas Geométricos. Programa

desarrollado por Hebert Gelernter y auspiciado por IBM para resolver problemas de

geometría elemental. Se inicio en el 1958. Gelernter trabajó durante tres años, escribiendo y

desarrollando las viente mil introducciones que componían el GPS; pero además tuvo que

diseñar un nuevo lenguaje de programación. GPS funcionaba de atrás hacia delante

(backward), primero exponemos el teorema a demostrar y el programa empieza a construir

cadenas de resultados intermedios que conducen al fin, a teoremas conocidos o a axiomas.

Programa para jugar a las damas. Programa creado por Arthur Samuel en 1962 y al igual

que el proyecto GTP fue auspiciado por IBM. El pregrama era capaz de aprender por si solo.

Aprendía de la experiencia teniendo en cuenta sus errores y éxitos pasados para determinar

su juego en partidas posteriores. Alex Bernstein, cinsiguió también un resultado similar para

el ajedrez. Tras hacerse eco la prensa de estos logros, se creo un escándalo entre los

periodistas y accionistas de IBM en general al considerar que se estaba gastando el dinero

de investigacion en unos objetivos tan frívolos. Con lo que IBM no siguió aportando fondos

para investigaciones en el campo de la IA.

Fracaso de la Traducción Automática. La CIA y otros organismos militares, tras ser

conocedores de la utilización, por parte del ejercito británico, de ordenadores en la Segunda

Guerra Mundial para descifrar códigos secretos enemigos; pensaron que la traducción

automática no seria más dificil, así podrían leer casi en el acto cualquier publicación del

mundo, escrita en cualquier idioma. Después de gastar viente años de investigacion y casi

vienticinco millones de dólares en proyectos de este tipo la NRC (Consejo Nacional de

Page 9: IA-RObot

Investigación, de EE.UU.) puso fin a este tipo de investigaciones con inversión pública

respecto a IA., el ALPAC (Automated Language Processing Advisory Committee, Comité de

Seguimiento del Procesamiento Automático del Lenguaje) arrolló a todos los laboratorios en

los que se realizaban proyectos sobre investigación lingüística, afortunadamente, los centros

de investigación más importantes (MIT, Carneige Mellon y Stanford) se salvaron por no tener

entre manos ningun proyecto asociado a la rama de la Traducción Automática.

Se reconocen las dificultades: concepción errónea de los proyectos, mal conocimiento del

lenguaje, técnicas informáticas inadecuadas, etc. Sin embargo, posteriormente comienzan a

vislumbrarse importantes avances tanto en lingüística teórica como en ciencia informática.

Como anécdota señalamos el resultado que se obtuvo al traducir primero del inglés al ruso,

y el resultado se tradujo de nuevo al inglés:

- Original en inglés: El espíritu es fuerte, pero la carne es débil.

- Resultado despues de traducir al ruso y luego al inglés: El vodka es bueno, pero el

filete está podrido.

Micromundos de Bloques. El proyecto de los micromundos fue ideado por Marvin Minsky y

Seymour Paper en 1963. Tras desistir de sus intentos previos en visión artificial ante la

dificultad que suponía realizar un proyecto de tal magnitud, en los que se intentaba conectae

una cámara de televisión a un ordenador y hacer que la cámara describiera lo que veía.

Minsky opto por llevarla a cabo en un plano más reducido, los Micromundos de bloques.

Los Micromundos no eran otra cosa que “representaciones” de laboratorio de la vida real,

con un aditivo muy especial, el sujeto que interaccionaría con la realidad sería un ordenador

con forma de robot o de simple programa. Se crearon programas capaces de tratar con

objetos geométricos (SHRDLU), robots que manejaban cubos (shakey) y diferentes

programas que “entendían” el inglés para sacar de las frases una determinada información

(SIR y Student). Finalmente en 1969 el proyecto de los Micromundos también fracaso, pues

su “sencillez” no tenía visos de ampliarse y cambiar el prefijo “micro” por uno con un

significado más extenso. ARPA (Advanced Research Proyect Agency) dejo de subvencionar

el proyecto tras acabarse los plazos fijados y ver que no se había logrado ni un 25% de lo

prometido.

Page 10: IA-RObot

STUDENT y SIR. 1964. Daniel Bobrow presentó como tesis doctoral a su profesor, Marvin

Minsky, un programa llamado STUDENT, este era capaz de entender enunciados de

problemas algebraicos escritos en inglés y responder a sus preguntas. Los problemas

característicos que podía solucionar STUDENT son similares al siguiente: “El tío de

Guillermo es dos veces más viejo que el padre de Guillermo. Dentro de dos años, el padre

de Guillermo será tres veces más viejo que Guillermo. La suma de sus edades es 92.

Averiguar la edad de Guillermo”.

A su vez, Bertram Raphael diseña SIR (Semntic Information Retrieval) [Recuperación de

Información Semántica], este programa comprendía oraciones sencillas en inglés que

describían situaciones acerca de pertenencias y relaciones parecidas.

Estos dos programas, SIR y STUDENT funcionan mediante la “comparación de patrones”,

es decir, cuando el programa detecta que unas palabras clave están colocadas de una forma

especial, toma la información necesaria de donde el patrón le aconseja.

ELIZA (o Doctor). Hacia 1965, Weizenbaum trabaja en el MIT, intentando que los

ordenadores hablaran en inglés con la gente. Pensó que los programas existentes como

STUDENT se basaban en dominios limitados, y los dominios que describían esos programas

estaban ligados a la propia estructura del programa. Y dado que Weizenbaum se dio cuenta

de que no podría conseguir ese fin en tan poco tiempo, pensó en crear un programa con

unas cuanteas ideas que se le habían ocurrido. Una de esas ideas era que el conocimiento

sobre los dominios se encontrase en módulos ajenos al propio programa, así cambiar de

tema seria tan fácil como cambiar de módulo. Uno de esos módulos, y el más famoso, fue el

que imitaba a un psicoanalista rogeriano (el psicoanalista Carl Rogers ponía en

funcionamiento una terapia que consistia simplemente en animar a los pacioentes a hablar

de sus problemas, repondiendo a sus preguntas con otras preguntas). El programa en

cuestión recibió el nombre de ELIZA (ahora todo mito de la historia de la I.A.). Aunque a

simple vista ELIZA parece estar hablando animadamente con la persona que le cuenta sus

problemas, la verdad es muy diferente. ELIZA hace creer a su interlocutor que se está

hablando con un “ser” que razona. Un truco es insertar frases a este programa como “ya

veo” o “háblame más acerca de esto”. Algo con lo que contaba a su favor ELIZA era que el

planteamiento de las conversaciones seguierian simpre un patron común de los psicoanálisis

rogeliano.

Page 11: IA-RObot

SHAKEY. 1969. Un equipo de investigacion de Stanford tuvo la atrevida idea de poner

ruedas a su robot, enseguida el ejercito (norteamericano) se mostró interesado por el

proyecto, subvencionándolo por medio del ARPA, la idea de este era convertir al robot de

Stanford en un espía mecánico, capaz de infiltrarse en las líneas enemigas para conseguir

información. Pero la apariencia del robot no parecía capaz ni de cruzar la esquina: una caja

cuadrada, con una cámara de televisión (de 1969), un telémetro y una antena de radio

(figura 3, pág. ). De todas formas el proyecto siguió adelante, y el robot fue bautizado como

Shakey (Temblón). El mundo de Shakey era un Micromundo de Bloques de tamaño natural,

compuesto de siete habitaciones conectadas entre sí por ocho puertas, habiendo en las

habitaciones cubos que Shakey podía manipular, apilando y transportándolos de un lado a

otro. Todo ello siguiendo las instrucciones (en inglés) que le transmitían mediante un

teclado. Finalmente el fracaso de los Micromundos afecto a este proyecto ya que ARPA dejo

de subvencionarlo.

DENTRAL: El primer sistema experto. Tambien en 1965 se inicia la investigacion en la

Universidad de Stanford de sistemas expertos en el programa Heuristic Programming

Project.

En 1965 Feigenbaum entra a formar parte del departamento de informatica de Stanford. Allí

conocio a Joshua Lederberg, el cual quería averiguar cual era la estructura de las moléculas

orgánicas completas. Si se quiere estudiar un compuesto quimico, lo primero que tenemos

que hacer es averiguar su formula quimica. El método habitual de análisis consiste en dividir

el problema en partes más pequeñas. El problema de lederberg era que había demasiadas

combinaciones. Cada fragmento podía corresponder a varias subestructuras, pero sólo una

estructura molecular gobal se ajusaba a todas las restricciones del problema. El

descubrimiento de esa estructura global exigía buscar en un árbol de posibilidades. Fue por

esta razón por la que pusieron al programa el nombre DENDRAL, que significa en griego

“árbol”. Antes de DENDRAL los quimicos sólo tenían una forma de resolver el problema, y

esta era tomar unas hipótesis relevantes como soluciones posibles, y someterlas a prueba

comparándolas con los datos. La realización DENDRAL duró más de diez años (desde

1965).

Page 12: IA-RObot

PERIODO 1970 – 1979

Los problemas debidos al exceso de optimismo y ambición sufridos en el periodo anterior,

llevaron a un replanteamiento de los objetivos a perseguir y se pasó a tratar problemas más

concretos. Como hecho más destacado es el nacimiento de los sistemas expertos y la

recuperación que trajó dentro del campo de la Inteligencia Artificial, ya que supuso el regreso

de las inversiones. Los sistemas expertos o sistemas de producción con reglas tratan

problemas restringidos o un entrono limitado. Dos de los sistemas expertos más populares

son el MYCIN y el PROSPECTOR, de los que hablaremos a continuación.

En este periodo, tambien se inicia la institunacionalización de la comunidad científica que

trabaja en el campo de la Inteligencia Artificial. Poco despues, en el año 1970, aparece el

primer número de la revista especializada Artificial Intelligence.

Otra de las diferencias con el periodo anterior es que la I.A. se extiende de los ámbitos

académicos a los centros de investigación y a las universidades, donde las aplicaciones ya

no son tan teóricas y además de tratar problemas matemáticos y demostraciones de

teoremas se realizan aplicaciones mas experimentales, como los sistemas expertos y la

programación lógica. Dentro de la programación lógica se logra uno de los avances más

destacables con la aparición en 1972 del lenguaje PROLOG.

MYCIN. 1976. Desarrollado por Eduard Feigenbaum, Bruce Buchanan en la Universidad de

Stanford y documentado por Edward Shortliffe. MYCIN se trataba de un sistema experto

para el diagnóstico de enfermedades infecciosas. Desde los resultados de análisis de

sangre, cultivos bacterianos y demás datos, el programa era capaz de determinar, o en lo

menos, sugerir el microorganismo que esaba causando la infección. Despúes de llegar a una

conclusión, MYCIN prescibpia una medicacion que se adaptaba perfectamente a las

caracteristicas del sujeto, tales como el peso corporal de este. Despues del reconocido éxito

que tuvo MYCIN entre la comunidad científica de I.A. e investigadores de medicina, los

autores del programa pusieron a disposición de otros investigadores una versión de MYCIN

que contenía el motor “inferencial” de este para que fueran los propios usuarios los que

insertasen al programa información respecto al tema a tratar; se podría decir que esta

versión “adaptada” del original MYCIN, era el primer entorno de desarrollo de sitemas

expertos.

Page 13: IA-RObot

PROSPECTOR. Documentado por P.E. Hart (1978) y R. Dudal (1979). Era un sistema

experto para evaluar los yacimientos de minerales, en particular de cobre y uranio.

PROLOG (Programing Logic). Desarrollado en 1972 por la Universidad de Marseille bajo la

dirección de Alan Colmerauer. Prolog se asa en la definición y después en la resolución de

formulas logicas. Prolog al igual que LISP es un lenguaje declarativo, ya que el programa

consiste en una lista de hechos y reglas en lugar de una serie de comandos.

XCON (Expert Configurer) [Configurador Experto]. 1979. John Mc Dermott. XCON es el

primer sistema experto con aplicaciones en el mundo real fuera de los ámbitos académicos y

de los laboratorios de investigación.

DEC iba a lanzar una nueva serie de ordenadores, los llamados VAX. Dado que todos los

ordenadores tenian configuraciones distintas entre sí, la VA estaba previniendo el enorme

cuello de botella que se iba a formar, cuando los ordenadores tuviesen fallos de

configuración y hubiese ue arreglar este problema uno por uno, por el consiguiente gasto de

tiempo y dinero que eso suponía. Los directivos de la DEC contrataron a John McDertmott.

Con el cometido de realizar un sistema experto que configurase todos los ordenadores que

saliesen de la DEC. El informe de viabilidad de McDermontt expuso resultados

prometedores, y en diciembre de 1978 se empezó a trabajar en el proyecto. En abril de 1979

el equipo de investigación que lo había diseñado (con McDermontt a cargo), pensó que ya

estaba preparado para salir y “conocer el mundo”, fue entonces cuando se hizo una prueba

real, esperando resolver positivamente un 95% de las configuraciones, este porcentaje tan

alto, anhelado por McDermontt y compañía, se quedó en un 20% al ser contrastado con la

realidad; XCON volvió al laboratorio, donde fue revisado y a finales de ese mismo año

(1979) funcionó con resultados positivos en la DEC. En 1980 XCON se instauró totalmente

en DEC. Y en 1984, el XCON había crecido hasta multiplicarse por diez. En 1986 la

compañía habia invertido mas de cincuenta años/hombre en el programa, pero se estaba

recuperando con creces de su inversión al ahorrarse cuarenta millones de dólares al año.

Page 14: IA-RObot

PERIODO: 1980 Y PRINCIPIOS DE LOS 90

Este periodo viene marcado por el éxito de los sistemas expertos y durante los años ochenta

aparecen empresas y poyectos especializados en ofrecer soluciones comercializables

basadas en las técnicas de la I.A. La I.A. se consolidó en cada vez más empresas que

desarrollaron las “máquinas lisp” (ordenadores que ejecutaban programas de LIPS con la

misma rapidez de un ordenador central) y los SHELLS (herramientas de desarrollo de

sistemas expertos). Ejemplos de sistemas expertos que se comercializaron en esta epoca

son el DELTA, de la General Electric Company, que ayudaba a los mecánicos en la

reparacion y en el diagnostico de locomotoras diesel; el Aldo en Disco para la reparacion de

calderas hidroestaticas giratorias usadas para la eliminacion de bacterias y el EURISKO

capaz de perfeccionar su propio cuerpo de leyes heurísticas por induccion.

Cada vez más el mantener la base de datos de reglas de los sistemas expertos actualizada

era mas costoso, El XCON llego a tener 10.000 reglas con lo que Dec tenia que gastar

anualmente 2 millones de dolares en el mantenimiento de la Base de onocimientos.

Actualmente este mantenimiento supone una de las actividades más importantes de la I.A.

El Ministerio de Industria y Comercio Internacional de Japón impulsa desde 1979 un

proyecto (Quinta generacion de ordenadores) conjunto de varias empresas que pretendia

desarrollar una nueva generacion de ordenadores daptados a las necesidades que se

preveían para la decada de los 90 y que basarian su funcionamiento en tecnicas de la I.A.

Finalmente el proyecto finalizo en 1992, pero aunque se obtuvieron ciertos avances en

procesamiento paralelo, procesamiento del lenguaje natural, programacion logica y en el

tratamiento de la informacion, no supuso ninguna revolucion ni ningun gran cambio ni

ventaja tenologica. Seguidamente Japón se lanzo a otro nuevo proyecto Real World

Computing (RWC) Project, cuyasvias de investigacion, son las redes neuronales, los

computadores opticos y la facilidad de uso de los ordenadores.

Por aquel entonces, el proyecto japones sirvió para estimular la inversión en Inteligencia

Artificial de otros paises. Sobre todo a raíz de la publicaion del liro The Fifth Generation de

Feigenbaum y McCorduck en 1983 que advertía del “peligro” de una superioridad del Japón

en el futuro de la informpatica a traves del dominio de las técnicas de la I.A.

Page 15: IA-RObot

En 1980 se crea el sistema experto matematico MAPLE. Mas tarde en 1988 se crea otro

sistema experto matemático importante el Mathematica. Ambos sistemas permiten trabajar

directamente, es decir sin tediosas programaciones, con expersiones simbólicas como

polinomios, derivadas, integrales indefinidas, matrices, tensores, grupos, funciones

especiales, y métodos altamente sofisticados. En 1982 se fundó el ECCAI (European

Coordinating Committee for Artificial Intelligence).

En 1985 la Nasa desarrolla CLIPS, es un generador de sistemas expertos que está

codificado en lenguaje C, y que implementa un lenguaje propio para desarrollar sistemas

expertos. Como principal característica se puede citar que uenta con tres paradigmas de

programación: orientado a reglas, procedural y orientado a objetos. También en este mismo

año se programa un juego de Ajedrez Hitech que alcanza el nivel de un Gran Maestro.

Apartir de 1986 se recuperan los viejos esquemas del Perceptron en las Redes Neuronales.

En1987 supuso el fin de las “maquinas LISP”, debido a la aparición de los

microordenadoresde Apple e IBM con potencia parecida a las maquinas LISP, y la

programacion en C del software utilizado en I.A. para los nuevos microordenadores.

En 1989 se constituye el Centro de Inteligencia Artificial (CIA), en España, más tarde, se

formaria la Asociacion Española Para la Inteligencia Artificial (AEPIA).

AÑOS 90 Y EL PRESENTE

Uno de los hechos más populares que cualquiera conoce sobre la IA es la victoria de Deep

Blue (computadora de IBM que jugaba al ajedrez), contra kasparov en 1997.

Pero recientemente en la industria japonesa han aparecido diversos Robots que han servido

para ejemplificar el estado actual de la Inteligencia Artificial. Primero fue Honda con ASIMO

(acrónimo de “Advanced Step in Innovative Mobility”- paso avanzado en movilidad

innovadora), es un robot humanoide creado en el año 2000 por la empresa Honda, un robot

conforma humanoide capaz de andar y subir escaleras (figura 4, pág. ).

SONY ha comercializado con éxito una serie de robots-perro, el AIBO (figura 5, pág. )

Artificial Intelligence Robot (Robot de Inteligencia Artificial).

Page 16: IA-RObot

Al robot AIBO se le han programado emociones e instintos. Actúa de modo que intentara

satisfacer sus deseos originados en sus instintos. Si se los satisface, aumentrán sus niveles

de alegría, en caso contrrio, se pondrá triste o furioso. Como todo ser viviente, Aibo

aprendera a lograr lo que “desea”. En ocasiones, moverá sus patas con furia o mostrará

otras señales de bronca si no recibe de su amo la atención que requiere. De este modo, la

manera en que el amo responde a las expresiones de emotividad de Aibo influirá en su

personalidad y “crecimiento”. El robot, tiene reconocimiento de voz, hasta 40 voces y puede

recordar el nombre que se le dé y responder. Escapaz de expresar emociones.

CRITICAS

Las principales críticas a la inteligencia artificial tienen que ver con su incapacidad de imitar

por completo a un ser humano. Estas críticas ignoran que ningún humano individual tiene

capacidad para resolver todo tipo de problemas, y autores como Howard Gardner han

propuesto que existen inteligencias múltiples. Un sistema de inteligencia artificial debería

resolver problemas. Por lo tanto es fundamental en su diseño la delimitación de los tipos de

problemas que resolverá y las estrategias y algoritmos que utilizará para encontrar la

solución.

Muchas personas consideran que el test de Turing ha sido superado, citando

conversaciones en que al dialogar con un programa de inteligencia artificial para chat no

saben que hablan con un programa. Sin embargo, esta situación no es equivalente a un test

de Turing, que requiere que el participante esté sobre aviso de la posibilidad de hablar con

una máquina.

Otros experimentos mentales como la Habitación China de John Searle han mostrado cómo

una máquina podría simular pensamiento sin tener que tenerlo, pasando el test de Turing sin

siquiera entender lo que hace. Esto demostraría que la máquina en realidad no está

pensando, ya que actuar de acuerdo con un programa preestablecido sería suficiente. Si

para Turing el hecho de engañar a un ser humano que intenta evitar que le engañen es

muestra de una mente inteligente, Searle considera posible lograr dicho efecto mediante

reglas definidas a priori.

Page 17: IA-RObot

Uno de los mayores problemas en sistemas de Inteligencia Artificial es la comunicación con

el usuario. Este obstáculo es debido a la ambigüedad del lenguaje, y apareció ya en los

inicios de los primeros sistemas operativos informáticos. La capacidad de los humanos para

comunicarse entre sí implica el conocimiento del lenguaje que utiliza el interlocutor. Para que

un humano pueda comunicarse con un sistema inteligente hay dos opciones: o bien el

humano aprende el lenguaje del sistema como si aprendiese a hablar cualquier otro idioma

distinto al nativo, o bien el sistema tiene la capacidad de interpretar el mensaje del usuario

en la lengua que el usuario utiliza.

Los desarrollos en Inteligencia Artificial son mayores en los campos disciplinares en los que

existe mayor consenso entre especialistas. Un sistema experto es más probable de ser

programado en física o en medicina que en sociología o en psicología. Esto se debe al

problema del consenso entre especialistas en la definición de los conceptos involucrados y

en los procedimientos y técnicas a utilizar. Por ejemplo, en física hay acuerdo sobre el

concepto de velocidad y cómo calcularla. Sin embargo, en psicología se discuten los

conceptos, la etiología, la psicopatología y cómo proceder ante cierto diagnóstico. Esto

dificulta la creación de sistemas inteligentes porque siempre habrá desacuerdo sobre lo que

se esperaría que el sistema haga.

A pesar de esto hay grandes avances en el diseño de sistemas expertos para el diagnóstico

y toma de decisiones en el ámbito médico y psiquiátrico (Adaraga Morales, Zaccagnini

Sancho, 1994).

Page 18: IA-RObot
Page 19: IA-RObot

CUESTION FILOSOFICA

La Vida Artificial también nos ofrece una "visión privilegiada" de nuestra realidad. No hace

falta que las simulaciones por ordenador sean todavía más complejas, para poder tener el

derecho a preguntarnos acerca de si nuestro propio mundo no será también una "simulación

dentro de un cosmo-ordenador". De hecho, esta pregunta se ha planteado, desde tiempos

remotos, de infinidad de maneras.

Si los ordenadores son capaces de simular universos artificiales poblados por organismos

que mediante la reproducción, las mutaciones y la selección natural, evolucionan y se hacen

cada vez más inteligentes y conscientes, podríamos interpretar nuestro propio mundo como

un "superordenador" donde nosotros mismos somos los "seres artificiales" que lo habitan,

siguiendo el curso de evolución que El Programador ha deseado.

En el caso de que existiera un creador y una intencionalidad, es decir, si El Programador que

nos ha creado lo ha hecho con algún objetivo, no sería extraño que ese mismo programador

hubiera implementado mecanismos para que sus "entidades" (nosotros) no escapen a su

control. Pero las limitaciones que el programador fija para controlar a sus entidades pueden

no ser suficientes. Algunos programadores de Vida Artificial quedan a menudo gratamente

sorprendidos por el inesperado comportamiento de sus pequeñas creaciones, más

inteligentes y capaces de lo que cabría esperar en un primer momento.

Además, los "bugs" (errores) en programación son probablemente una constante en todos

los universos, dimensiones y realidades posibles, así que tal vez el "programador" haya

dejado algún hueco por donde podamos colarnos; es decir, que es posible que en nuestro

mundo existan acciones, comportamientos, o razonamientos con efectos maravillosos, que

están ahí, accesibles, pero que aún nadie ha realizado, ya sea por ignorancia, mala suerte, o

porque provocan la muerte a quien llega a adquirirlos. Un ejemplo de esto último se

encuentra en "Creced y Multiplicaos", de Isaac Asimov.

Page 20: IA-RObot

ESCUELAS DE PENSAMIENTO

Inteligencia artificial convencional

Se conoce también como Inteligencia Aritificial simbólico-deductiva. Apartir de Bases de Conocimiento estaticas a las que se aplica un analisis formal estadistico para emular el comportamiento humano frente a problemas concretos. Siel problema cambias sus restricciones se requiere actualizar la base de conocimiento.

Esta basada en el analisis formal y estadistico del pomportamiento humano ante diferentes problemas:

Razonamiento basado en casos: Ayuda a tomar decisiones mientras se resulven

ciertos problemas concretos.

Sistemas expertos: Infieren una solucion, a traves del conocimiento previo del

contexto, en que se aplica y ocupa de ciertas reglas o relaciones.

Redes bayesianas: Propone soluciones mediante inferencia estadistica.

IA basada en comportamientos: que tienes autonimia y pueden auto-regularse y

controlarse para mejorar.

Smart Process Management: Facilita la toma de decisiones complejas, proponiendo

una solucion a un determinado problema al igual que lo haria un especialista en la

actividad.

Inteligencia artificial computacional

La Inteligencia Computacional (también conocida como Inteligencia Aritificial subsimbólica-

inductiva). La Inteligencia Computacional combina elementos de aprendizaje, adaptación,

evolución y Lógica difusa para crear programas que son, en cierta manera, inteligentes. La

investigación en Inteligencia Computacional no rechaza los métodos estadísticos, pero muy

a menudo aporta una vista complementaria. Las Redes Neuronales son una rama de la

inteligencia computacional muy relacionada con el aprendizaje automático

Page 21: IA-RObot

RAMAS DE LA INTELIGENCIA ARTIFICIAL

Aquí se brinda una lista de algunos de las muchas que existen dentro del estudio de la

Inteligencia Artificial e inclusive muchos de estos son considerados conceptos o tópicos.

INTELIGENCIA ARTIFICIAL LOGISTICA

Sistemas con programación que tiene una base de datos con conocimiento general sobre el

mundo que los rodean y dentro de estos tienen data de cómo reaccionar a las situaciones

específicas. El fin de estos sistemas es representar en oraciones soluciones a problemas

mediante un lenguaje matemático tal como algoritmo. El énfasis se hace mediante el análisis

de información y la reacción de este según su fuente de datos.

APRENDIZAJE POR EXPERIENCIA

Los sistemas van aprender a reaccionar y actuar de acuerdo a situaciones anteriores, es

decir el sistema tomara en cuenta decisiones pasadas para reaccionar a situaciones

corrientes. A medida que va obteniendo experiencia en situaciones similares las archiva en

su base de datos como memoria.

AGENTE INTELIGENTE

Un agente inteligente, es una entidad capaz de percibir su entorno, procesar tales

percepciones y responder o actuar en su entorno de manera racional, es decir, de manera

correcta y tendiendo a maximizar un resultado esperado.

En este contexto la racionalidad es la característica que posee una elección de ser correcta,

más específicamente, de tender a maximizar un resultado esperado. Este concepto de

racionalidad es más general y por ello más adecuado que inteligencia (la cual sugiere

entendimiento) para describir el comportamiento de los agentes inteligentes. Por este motivo

es mayor el consenso en llamarlos agentes racionales. Un agente inteligente puede ser una

entidad física o virtual. Si bien el término agente racional se refiere a agentes artificiales en

el campo de la Inteligencia Artificial, también puede considerarse agentes racionales a los

animales incluido el hombre.

Page 22: IA-RObot

Los agentes inteligentes se describen esquemáticamente como un sistema funcional

abstracto. Por esta razón, los agentes inteligentes son a veces llamados Agentes

Inteligentes Abstractos (AIA) para distinguirlos de sus implementaciones del mundo real

como sistemas informáticos, los sistemas biológicos, o de organizaciones. Algunas

definiciones de agentes inteligentes hacen énfasis en su autonomía por lo que prefieren el

término agente inteligente autónomo. Y otros (en particular, Russell y Norvig (2003))

consideran conducta dirigida a objetivos como la esencia de lo inteligente y prefieren un

término tomado de la economía "Agente Racional".

En Ciencias de la Computación el término agente inteligente puede ser usado para referirse

a un agente de software que tiene algo de inteligencia, independientemente de si no es un

agente racional por definición de Russell y Norvig. Por ejemplo, programas autónomos

utilizados para asistencia de un operador o de minería de datos (a veces denominado

robots) son también llamados "agentes inteligentes".

LOGICA DIFUSA

Se utiliza para la resolución de una variedad de problemas, principalmente los relacionados

con control de procesos industriales complejos y sistemas de decisión en general, la

resolución la compresión de datos. Los sistemas de lógica difusa están también muy

extendidos en la tecnología cotidiana, por ejemplo en cámaras digitales, sistemas de aire

acondicionado, lavarropas, etc. Los sistemas basados en lógica difusa imitan la forma en

que toman decisiones los humanos, con la ventaja de ser mucho más rápidos. Estos

sistemas son generalmente robustos y tolerantes a imprecisiones y ruidos en los datos de

entrada. Algunos lenguajes de programación lógica que han incorporado la lógica difusa

serían por ejemplo las diversas implementaciones de Fuzzy PROLOG o el lenguaje Fril.

Consiste en la aplicación de la lógica difusa con la intención de imitar el razonamiento

humano en la programación de computadoras. Con la lógica convencional, las

computadoras pueden manipular valores estrictamente duales, como verdadero/falso, sí/no

o ligado/desligado. En la lógica difusa, se usan modelos matemáticos para representar

nociones subjetivas, como caliente/tibio/frío, para valores concretos que puedan ser

manipuladas por los ordenadores.

Page 23: IA-RObot

En este paradigma, también tiene un especial valor la variable del tiempo, ya que los

sistemas de control pueden necesitar retroalimentarse en un espacio concreto de tiempo,

pueden necesitarse datos anteriores para hacer una evaluación media de la situación en un

período anterior.

SISTEMAS EXPERTOS

Es una aplicación informática capaz de solucionar un conjunto de problemas que exigen un

gran conocimiento sobre un determinado tema. Un sistema experto es un conjunto de

programas que, sobre una base de conocimientos, posee información de uno o más

expertos en un área específica. Se puede entender como una rama de la inteligencia

artificial, donde el poder de resolución de un problema en un programa de computadora

viene del conocimiento de un dominio específico. Estos sistemas imitan las actividades de

un humano para resolver problemas de distinta índole (no necesariamente tiene que ser de

inteligencia artificial). También se dice que un SE se basa en el conocimiento declarativo

(hechos sobre objetos, situaciones) y el conocimiento de control (información sobre el

seguimiento de una acción).

Para que un sistema experto sea herramienta efectiva, los usuarios deben interactuar de una

forma fácil, reuniendo dos capacidades para poder cumplirlo:

1. Explicar sus razonamientos o base del conocimiento: los sistemas expertos se deben

realizar siguiendo ciertas reglas o pasos comprensibles de manera que se pueda

generar la explicación para cada una de estas reglas, que a la vez se basan en

hechos.

2. Adquisición de nuevos conocimientos o integrador del sistema: son mecanismos de

razonamiento que sirven para modificar los conocimientos anteriores. Sobre la base

de lo anterior se puede decir que los sistemas expertos son el producto de

investigaciones en el campo de la inteligencia artificial ya que ésta no intenta sustituir

a los expertos humanos, sino que se desea ayudarlos a realizar con más rapidez y

eficacia todas las tareas que realiza.

Page 24: IA-RObot

Ventajas

Permanencia: A diferencia de un experto humano un SE (sistema experto) no

envejece, y por tanto no sufre pérdida de facultades con el paso del tiempo.

Duplicación: Una vez programado un SE lo podemos duplicar infinidad de veces.

Rapidez: Un SE puede obtener información de una base de datos y realizar cálculos

numéricos mucho más rápido que cualquier ser humano.

Bajo costo: A pesar de que el costo inicial pueda ser elevado, gracias a la capacidad

de duplicación el coste finalmente es bajo.

Entornos peligrosos: Un SE puede trabajar en entornos peligrosos o dañinos para el

ser humano.

Fiabilidad: Los SE no se ven afectados por condiciones externas, un humano sí

(cansancio, presión, etc.).

Consolidar varios conocimientos.

Apoyo Académico.

Limitaciones

Sentido común: Para un Sistema Experto no hay nada obvio. Por ejemplo, un sistema

experto sobre medicina podría admitir que un hombre lleva 40 meses embarazado, a

no ser que se especifique que esto no es posible ya que un hombre no puede

procrear hijos.

Lenguaje natural: Con un experto humano podemos mantener una conversación

informal mientras que con un SE no podemos.

Capacidad de aprendizaje: Cualquier persona aprende con relativa facilidad de sus

errores y de errores ajenos, que un SE haga esto es muy complicado.

Perspectiva global: Un experto humano es capaz de distinguir cuales son las

cuestiones relevantes de un problema y separarlas de cuestiones secundarias.

Capacidad sensorial: Un SE carece de sentidos.

Flexibilidad: Un humano es sumamente flexible a la hora de aceptar datos para la

resolución de un problema.

Page 25: IA-RObot

Conocimiento no estructurado: Un SE no es capaz de manejar conocimiento poco

estructurado.

REDES NEURONALES

Las Redes de Neuronas Artificiales (en inglés: “ANN”) son un paradigma de aprendizaje y

procesamiento automático inspirado en la forma en que funciona el sistema nervioso de los

animales. Se trata de un sistema de interconexión de neuronas en una red que colabora

para producir un estímulo de salida. En inteligencia artificial es frecuente referirse a ellas

como redes de neuronas o redes neuronales.

Las redes neuronales consisten en una simulación de las propiedades observadas en los

sistemas neuronales biológicos a través de modelos matemáticos recreados mediante

mecanismos artificiales (como un circuito integrado, un ordenador o un conjunto de

válvulas). El objetivo es conseguir que las máquinas den respuestas similares a las que es

capaz de dar el cerebro que se caracterizan por su generalización y su robustez

Las redes neuronales artificiales (RNA) tienen muchas ventajas debido a que está basado

en la estructura del sistema nervioso, principalmente el cerebro.

Aprendizaje: Las RNA tienen la habilidad de aprender mediante una etapa que se

llama etapa de aprendizaje. Esta consiste en proporcionar a la RNA datos como

entrada a su vez que se le indica cuál es la salida (respuesta) esperada.

Auto organización: Una RNA crea su propia representación de la información en su

interior, descargando al usuario de esto.

Tolerancia a fallos: Debido a que una RNA almacena la información de forma

redundante, ésta puede seguir respondiendo de manera aceptable aun si se daña

parcialmente.

Flexibilidad: Una RNA puede manejar cambios no importantes en la información de

entrada, como señales con ruido u otros cambios en la entrada (por ejemplo si la

información de entrada es la imagen de un objeto, la respuesta correspondiente no

sufre cambios si la imagen cambia un poco su brillo o el objeto cambia ligeramente).

Tiempo real: La estructura de una RNA es paralela, por lo cual si esto es

implementado con computadoras o en dispositivos electrónicos especiales, se pueden

obtener respuestas en tiempo real.

Page 26: IA-RObot

DEFINICIONES Y CONCEPTOS DE INTELIGENCIA ARTIFICIAL

Algunas definiciones sobre inteligencia Artificiaal son:

La Inteligencia Artificial estudia cómo lograr que las máquinasrealicen tareas, que por

el momento, son realizadas mejor por los seres humanos.

La Iinteligencia Artificial trata de encontrar las técnicas para diseñar y programar

máquinas –computadoras- que emulen nuestras capacidades mentales.

La Inteligencia Artificial es el área que trata de analizar o estudiar el comportamiento

humano, y llevarlo a máquinas (computadores).

La Inteligencia Artificial es la emulación de un comportamiento inteligente, como

reacciona, como aprende. Se trata de dotar de esta inteligencia artificial a seres no

vivos (computadoras), con el fin de ayudar a la humanidad.

Se denomina Inteligencia Artificial a la rama de la informatica que desarrolla procesos

que imitan a inteligencia de los seres vivos. La principal aplicación de esta ciencia es

la creacion de máquinas para la automatización de tareas que requieran un

comportamiento inteligente.

IMPORTANCIA DE LA INTELIGENCIA ARTIFICIAL

Las computadoras son fundamentales hoy día en nuestras vidas afectando todos los

aspectos de esta.

La Inteligencia Artificial se crea con la implementación en las computadoras para realizar

mecanismo de computación que utiliza programas fijos y contiene una seria de reglas que lo

hacen funcionar. Esto permite a las computadoras a ser creadas en maquinas artificiales que

Page 27: IA-RObot

desempeñan tareas monótonas, repetitivas y simples mas eficiente y efectivas que un ser

humano.

Estudios sobre trabajos o tareas repetitivas han demostrado que el ser humano no le

agrada este tipo de trabajo y al pasar el tiempo son más susceptibles a cometer errores en el

mismo. Para situaciones complejas el objetivo se hace mas complejo debido a que la

inteligente artificial dada a las computadoras tienen dificultad en entender ciertas

situaciones o problemas específicos y como reaccionar a estas. Tambien ocurre que dentro

de un problema tienen la variabilidad del mismo y no pueden adaptarece a un cambio que

pueda ocurrir. Estos problemas son de suma importancia para la Inteligencia Artificial que

busca el mejorar, aprender, entender y el razonamiento del comportamiento de las

computadoras en situaciones complejas.

El campo de la ciencia de Inteligencia Artificial esta todavía en etapas de crecimiento

comparadas con otras ramas de computadoras pero poco a poco el estudio del

comportamiento humano dará paso para aplicar estos conocimientos a las computadoras y

estas lograr de manera primitiva razonas sobre diferentes situaciones. La complejidad en

aplicarle conocimientos del ser humano a las computadoras es la capacidad de estos de ser

impredecible y las maneras diferentes que se actua ante una posible situación y estas

reacciones hacen que no se pueda implementar un patrón dentro de la memoria de una

computadora. Hasta ahora no existe la posibilidad de predecir o almacenar todo tipo de

comportamiento de un ser humano a todas las situaciones que se enfrenta durante su

existencia.

Page 28: IA-RObot

CARACTERISTICAS, APLICACIONES, AREAS DE APLICACIÓN Y AREAS DE INVESTIGACION DE LA INTELIGENCIA ARTIFICIAL

CARACTERISTICAS DE LA INTELIGENCIA ARTIFICIAL

A. Una característica fundamental que distingue a los métodos de Inteligencia Artificial de

los métodos numéricos es el uso de símbolos no matemáticos, aunque no es suficiente

para distinguirlo completamente. Otros tipos de programas como los compiladores y

sistemas de bases de datos, también procesan símbolos y no se considera que usen

técnicas de Inteligencia Artificial.

Las conclusiones de un programa declarativo no son fijas y son determinadas

parcialmente por las conclusiones intermedias alcanzadas durante las consideraciones al

problema específico. Los lenguajes orientados al objeto comparten esta propiedad y se

han caracterizado por su afinidad con la Inteligencia Artificial.

B. El comportamiento de los programas no es descrito explícitamente por el algoritmo. La

secuencia de pasos seguidos por el programa es influenciado por el problema particular

presente. El programa especifica cómo encontrar la secuencia de pasos necesarios para

resolver un problema dado (programa declarativo). En contraste con los programas que

no son de Inteligencia Artificial, que siguen un algoritmo definido, que especifica,

explícitamente, cómo encontrar las variables de salida para cualquier variable dada de

entrada (programa de procedimiento).

C. El razonamiento basado en el conocimiento, implica que estos programas incorporan

factores y relaciones del mundo real y del ámbito del conocimiento en que ellos operan.

Al contrario de los programas para propósito específico, como los de contabilidad y

cálculos científicos; los programas de Inteligencia Artificial pueden distinguir entre el

programa de razonamiento o motor de inferencia y base de conocimientos dándole la

capacidad de explicar discrepancias entre ellas.

Page 29: IA-RObot

D. Aplicabilidad a datos y problemas mal estructurados, sin las técnicas de Inteligencia

Artificial los programas no pueden trabajar con este tipo de problemas. Un ejemplo es

la resolución de conflictos en tareas orientadas a metas como en planificación, o el

diagnóstico de tareas en un sistema del mundo real: con poca información, con una

solución cercana y no necesariamente exacta.

APLICACIONES DE LA INTELIGENCIA ARTIFICIAL

Hay muchos usos y aplicaciones de la Inteligencia Artificial tanto en el mercado comercial

como en el servicio militar.

Algunos de los usos de la Inteligencia Artificial son:

1. Juegos Electrónicos: Hoy día se pueden comprar sistemas que utilizan esta

inteligencia para jugar a nivel profesional como por ejemplo un juego de ajedrez. En

el juego de ajedrez la información esta enmarcada para que se reconozca los

patrones del juego y sus posibilidades. Hay cientos de cálculos que el sistema hace

forzosamente para hacer el análisis y en este se evalúan cientos de posibilidades

por segundos. Un ejemplo de este tipo de sistema es “Deepblue” desarrollado por

IBM, el cual derrotó en un juego de ajedrez al campeón mundial en 1999.

2. Reconocimiento de Voz: Los sistemas que contienen en su memoria, la data para

reconocer voz, comenzaron su auge un la década de los ’90 cuando se logró

implementar el programa en los sistemas de las aerolíneas, aunque con

capacidades limitadas. El sistema consiste en indicarle las instrucciones mediante

los comandos de voz para que este realizara sus tareas. Un ejemplo de este tipo de

sistema es “Via Voice” el cual fue el primer sistema credo para las aerolíneas.

3.     Entendimiento del lenguaje natural: Los sistemas tienen data para el reconocer el

significado de la palabra estando esta sola pero cuando se tienen en contexto y en

una oracion hay problemas en que el sistema reconozca el significado de cada una

de las palabras. En este campo se esta muy primitivo por que el objetivo final es que

el sistema reconozca lo que se le indica y responda a este.

Page 30: IA-RObot

4.    Visión computarizada:   Existen ciertos sistemas que estan diseñados con

programas que reconocen en solo dos dimensiones pero para lograr eficientemente

que el sistema funcione a capacidad total se tiene que desarrollar información que se

pueda ser leída por el sistema en tercera dimensión porque esta la que se requiere.

Este sistema esta en etapas primitiva y su uso mayor es en el area verificación y/o

lectura de la retina para propósitos de seguridad.

5.  Sistemas Expertos: Estos sistemas tienen la capacidad de recoger la data de

información, analizarla y brindar recomendaciones e conclusiones sobre un problema

en particular. Un ejemplo de este tipo de sistema es MYCYN, este sistema esta

programado con conocimientos médicos y tiene la capacidad de diagnosticar a un

paciente como si fuese una verificación rutinaria de un doctor. Aunque es un avance

tecnológico sin duda alguna tiene sus limitaciones y para su desempeño depende

grandemente del diseño del sistema y el sentido común que tenga el sistema.

6.    Clasificación: Estos son sistemas que mayormente se utilizan en compañías que

evalúan y otorgan crédito a una entidad. Funcionan recogiendo toda la data,

analizando la misma y luego la almacenan en una base de datos para clasificarla en

las categorías. Una vez clasificada la data el sistema hace recomendación sobre la

entidad la cual se esta evaluando.

AREAS DE APLICACIÓN DE LA INTELIGENCIA ARTIFICIAL

La inteligencia Artificial se aplica en los sistemas reales en una gran variedad de ramas y

problemas:

Gestion y control: analisis inteligente, fijacion de objetos.

Fabricacion: diseño, planificacion, programacion, monitorizacion, control, gestion de

proyectos, robotica simplificada y vision computarizada.

Educacion: adiestramiento practico, exámenes y diagnósticos.

Ingenieria: diseño, control y analisis.

Page 31: IA-RObot

Equipamiento: diseño, diagnóstico, adiestramiento, mantenimiento, configuracion,

monitorizacion y ventas.

Cartografia: interpretacion de fotografias, diseño, resolucion de problemas

cartograficos.

Profesiones. Abogacia, medicina, contabilidad, geologia, quimica.

Software. Enseñanza, especificacion, diseño, verificacion, mantenimiento.

Sistemas de armamiento: guerra electronica, identificacion de objetos, control

adaptivo, proceso de imágenes, proceso de señales.

Procesos de datos: educacion, interfase en lengua natural, acceso inteligente a datos

y gestores de bases de datos, analisis inteligentes de datos.

Finanzas: planificacion, analisis, consultoria.

APLICACIONES COMERCIALES DE LA INTELIGENCIA ARTIFICIAL

Tambien la inteligencia Artificial tiene numerosas aplicaciones comerciales en el mundo de

hoy.

Configuracion: selección de distribucion de los componentes de un sistema de

computacion.

Diagnosis: hardware informatico, redes de ordenadores, equipos mecánicos,

problemas medicos, averias telefónicas, instrumentación electrónica, circuitos

electrónicos, averias automovilísticas.

Interpretacion y analisis: datos geológicos para prospeccion petrolífica, compuestos

quimicos, analisis de señales, problemas matematicos complejos, evaluacion de

amenazas militares, analisis de circuitos electronicos, datos biologicos (coronarios,

cerebrales y respiratorios), informacion de radar, sonar e infrarrojos.

Monitorización: quipos, monitorización de procesos, fabricación y gestión de procesos

científicos, amenazas militares, funciones vitales de pacientes hospitalizados, datos

financieros en tiras de pael perforado por teleimpresora, informes industriales y

gubernamentales.

Page 32: IA-RObot

Planificación: gestión de activo y pasivo, gestión de cartera, análisis de créditos y

préstamos, contratos, programación de trabajos de taller, gestión de proyectos,

planificación de experimentos, producción de tarjetas de circuito impreso.

Interfaces inteligentes: hardware (fiscal) de instrumentación, programas de

computadora, bases de datos múltiples, paneles de control.

Sistema de lenguaje natural: interfaces con bases de datos en lenguaje natural,

gestión de impuestos (ayudas para contabilidad), consultoría en temas legales,

planificación de fincas, consultoría de sistemas bancarios.

Sistemas de diseño: integracion de microcircuitos en muy alta escala, síntesis de

circuitos electrónicos, plantas químicas, edificios, puentes y presas, sistemas de

tranporte.

Sistemas de visión computarizada: selección de piezas y componentes, ensamblados,

control de calidad.

Desarrollo de software: programación automática.

Programas de reconocimiento de voz para reservar billetes de avión para un vuelo.

Sistemas expertos que controlan el correcto funcionamiento de un tranfbordador

espacial.

Sistemas expertos de diagnostico de enfermedades.

Protección de fraudes en tarjetas de crédito y cuentas a través de sistemas de redes

neuronales o sistemas expertos.

Detección de peueña anomalías invisibles al ojo humano en radiografías.

En el mundo de los videojuegos. Rivales con comportamiento lógico.

Traduccion automática de documentos (GOOGLE).

Page 33: IA-RObot

LAS AREAS DE INVESTIGACION DE LA INTELIGENCIA ARTIFICIAL

Son muchas las areas de la IA que se investigan hoy dia. Entre ellas, tenemos las

siguientes:

La representacion del conocimiento, que busca en el descubrimiento de metodos

expresivos y eficientes describir informacion sobre aspectos del mundo real.

Los metodos de aprendizaje automatico, que extienden las tecnicas estadísticas con

el fin de posibilitar la identificacion de un amplio rango de tendencias generales a

partir de un conjunto de datos de entrenamiento.

El campo de la planificación, que enfrenta el desarrollo de algoritmos que construyen

y ejecutan automáticamente secuencias de comandos primitivos con el fin de alcanzar

ciertas metas de alto nivel.

Los trabajos en el area de razonamiento posible, que hacen uso de principios

estadisticos para desarrollar codificaciones de información incierta.

El estudio de las arquitecturas de agentes, que busca la integración de otras áreas de

la Inteligencia Artificial con el objeto de crear agentes inteligentes, entidades robustas

capaces de comportamiento autonomo y en tiempo real.

La coordinacion y colaboracion multiagentes, que ha permitido el desarrollo de

técnicas para la representacion de la capacidades de otros agentes y la especificacion

del conocimiento necesario para la colaboracion entre ello.

El desarrollo de ontologias, que persigue la creacion de catalogos de conocimiento

explicito, formal y multipropósito, que puedan ser utilizados por sistemas inteligentes.

Los campos de procesamiento de voz y lenguaje, que buscan la creacion de sistemas

que se comunican con la gente en su lenguaje.

La síntesis y comprension de imágenes, que conduce a la produccion de algoritmos

para el análisis de fotografias, diagramas y videos, así como también de técnicas para

el despliegue visual de informacion cuantitativa y estructural.

Page 34: IA-RObot

TECNOLOGIAS DE APOYO

VISION ARTIFICIAL

La Visión artificial, también conocida como Visión por Computador (del inglés Computer

Vision) o Visión técnica, tiene el propósito de programar un computador para que "entienda"

una escena o las características de una imagen.

Los objetivos típicos de la visión artificial incluyen:

La detección, segmentación, localización y reconocimiento de ciertos objetos en

imágenes (por ejemplo, caras humanas).

La evaluación de los resultados (ej.: segmentación, registro).

Registro de diferentes imágenes de una misma escena u objeto, hacer concordar un

mismo objeto en diversas imágenes.

Seguimiento de un objeto en una secuencia de imágenes.

Mapeo de una escena para generar un modelo tridimensional de la escena; tal

modelo podría ser usado por un robot para navegar por la escena.

Estimación de las posturas tridimensionales de humanos.

Búsqueda de imágenes digitales por su contenido.

Estos objetivos se consiguen por medio de reconocimiento de patrones, aprendizaje

estadístico, geometría de proyección, procesado de imágenes, teoría de gráficos y otros

campos. La visión artificial cognitiva está muy relacionada con la psicología cognitiva y la

computación biológica.

Propiedades básicas de las imágenes digitales

Las imágenes de señal continua se reproducen mediante dispositivos electrónicos

analógicos que registran los datos de la imagen con precisión utilizando varios métodos,

como una secuencia de fluctuaciones de la señal eléctrica o cambios en la naturaleza

química de la emulsión de una película, que varían continuamente en los diferentes aspectos

de la imagen. Para procesar o visualizar en el ordenador una señal continua o una imagen

analógica, se debe convertir primero a un formato comprensible para el ordenador o formato

digital. Este proceso se aplica a todas las imágenes, independientemente de su origen,

Page 35: IA-RObot

complejidad y de si son en blanco y negro (escala de grises) o a todo color. Una imagen

digital se compone de una matriz rectangular (o cuadrada) de píxeles que representan una

serie de valores de intensidad ordenados en un sistema de coordenadas (x,y).

Detectores de imagen electrónicos

Con este documento se pretende ofrecer ayuda para la comprensión de conceptos básicos

sobre la detección de luz y proporcionar una guía para la selección del detector electrónico

adecuado ( CCD o sistema de videocámara) con aplicaciones específicas de microscopía

óptica.

Conceptos básicos sobre procesamiento digital de la imagen

El procesamiento digital de la imagen permite una modificación reversible de la imagen

prácticamente libre de ruido en forma de una matriz de enteros en vez de las clásicas

manipulaciones en el cuarto oscuro o filtración de voltajes dependientes del tiempo

necesarios para las imágenes analógicas y señales de video. Incluso aunque muchos

algoritmos de procesamiento de imágenes son extremadamente potentes, el usuario medio

a menudo aplica operaciones a imágenes digitales sin tener en cuenta los principios

subyacentes tras dichas manipulaciones. Las imágenes que resultan de una manipulación

descuidada están a menudo distorsionadas con respecto a aquellas que podrían producirse

si la potencia y versatilidad del software de procesamiento digital fuesen utilizadas

correctamente.

Estrategias recomendadas para el procesamiento de imágenes digitales

Dependiendo de las condiciones de iluminación, la integridad de la muestra y los métodos de

preparación, las imágenes capturadas con el microscopio óptico pueden requerir una

cantidad considerable de rehabilitación/reinserción/renovación para conseguir un equilibrio

entre precisión científica y composición estética. Las imágenes digitales que se obtienen

mediante un CCD (charge-coupled device) o un CMOS (complementary metal oxide

semiconductor) a menudo sufren señales-a-ruido pobres, iluminación irregular, impurezas de

enfoque, deslumbramiento, cambios en los colores y otros problemas que distorsionan la

calidad global de la imagen.

Page 36: IA-RObot

INTERFAZ DE USUARIO

Las interfaces básicas de usuario son aquellas que incluyen elementos como menús,

ventanas, teclado, ratón, los beeps y algunos otros sonidos que la computadora hace, y en

general, todos aquellos canales por los cuales se permite la comunicación entre el ser

humano y la computadora. La mejor interacción humano-máquina a través de una adecuada

interfaz (Interfaz de Usuario), que le brinde tanto comodidad, como eficiencia.

TIPOS DE INTERFACES DE USUARIO

Dentro de las Interfaces de Usuario se puede distinguir básicamente tres tipos:

A) Una interfaz de hardware, a nivel de los dispositivos utilizados para ingresar, procesar y

entregar los datos: teclado, ratón y pantalla visualizadora.

B) Una interfaz de software, destinada a entregar información acerca de los procesos y

herramientas de control, a través de lo que el usuario observa habitualmente en la pantalla.

C) Una interfaz de Software-Hardware, que establece un puente entre la maquina y las

personas, permite a la maquina entender la instruccion y a el hombre entender el codigo

binario traducido a informacion legible.

FUCIONES PRINCIPALES

Sus principales funciones son los siguientes:

Puesta en marcha y apagado.

Control de las funciones manipulables del equipo.

Manipulación de archivos y directorios.

Herramientas de desarrollo de aplicaciones.

Comunicación con otros sistemas.

Información de estado.

Configuración de la propia interfaz y entorno.

Intercambio de datos entre aplicaciones.

Control de acceso.

Sistema de ayuda interactivo.

Page 37: IA-RObot

TIPOS DE INTERFACES DE USUARIO

Según la forma de interactuar del usuario

Atendiendo a como el usuario puede interactuar con una interfaz, nos encontramos con

varios tipos de interfaces de usuario:

Interfaces alfanuméricas (intérpretes de mandatos) que solo presentan texto.

Interfaces gráficas de usuario (GUI, graphics user interfaces), las que permiten

comunicarse con el ordenador de una forma muy rápida e intuitiva representando

gráficamente los elementos de control y medida.

Interfaces táctiles, que representan gráficamente un "panel de control" en una pantalla

sensible que permite interaccionar con el dedo de forma similar a si se accionara un

control físico.

Según su construcción

Pueden ser de hardware o de software:

Interfaces de hardware: Se trata de un conjunto de controles o dispositivos que

permiten la interacción hombre-máquina, de modo que permiten introducir o leer

datos del equipo, mediante pulsadores, reguladores e instrumentos.

Interfaces de software: Son programas o parte de ellos, que permiten expresar

nuestros deseos al ordenador o visualizar su respuesta.

VALORACION

El principal objetivo de una interfaz de usuario es que éste se pueda comunicar a través de

ella con algún tipo de dispositivo, conseguida esta comunicación, el segundo objetivo que se

debería perseguir es el de que dicha comunicación se pueda desarrollar de la forma más

fácil y cómoda posible para el usuario, sin embargo, las interfaces no siempre son intuitivas

tal como es el caso de las interfaces de línea de órdenes (CLI), que se encuentran por

ejemplo en algunos sistemas operativos como los NOS de los Routers o algunos shell de

Page 38: IA-RObot

Unix, DOS, etc. Estas interfaces son las primeras que utilizaron los ordenadores y están

anticuadas, aunque los nostálgicos las siguen prefiriendo porque se saben de memoria los

comandos. También es importante reconocer las interfaces de línea de órdenes, como el

mejor medio para que el administrador del sistema pueda llevar a cabo tareas complejas, de

ahí que se sigan utilizando y todo sistema operativo disponga de un intérprete de comandos

(shell en Unix, consola o simbolo del sistema en Windows) como parte fundamental de la

interfaz del usuario.

Piense en el ejemplo de crear un usuario en un sistema: disponemos de un programa que

activaremos con doble clic del ratón y rellenaremos una serie de datos en una ventana de

diálogo. Mucho más fácil que recordar el comando y las opciones para hacerlo ¿verdad?

Ahora imagine que es el administrador de un sistema que debe crear 200 usuarios. Supongo

que no le es difícil imaginar lo engorroso de la operación. Esto se soluciona creando lo que

se llaman "scripts" o programitas que realizan tareas en un sistema operativo. Son ficheros

BAT en Windows y shell scripts en Unix/Linux. Estos programitas utilizan el conjunto de

comandos que ofrece el sistema. Además, no todo se puede hacer a través de la interfaz

gráfica, hay ciertas funciones para usuarios avanzados y administradores que sólo es

posible realizarlas mediante comandos.

El diseño de la interfaz es crítico para el manejo del equipo, hay algunas muy bien diseñadas

que incorporan controles intuitivos y de fácil manejo, en cambio existen otras que no se

entienden bien y el usuario no acierta a manejarlas correctamente sin estudiar un manual o

recibir formación del experto.

SMART PROCESS MANAGEMENT

SPM (Smart Process Management: Gestión de Procesos Inteligente) es una tecnología que

soporta la generación dinámica de procesos a partir de la representación del conocimiento

técnico de un experto (know-how).

El conocimiento gestionado por esta tecnología puede residir de forma estructurada o

semiestructurada en soportes físicos (manuales, guías de buenas prácticas, protocolos de

Page 39: IA-RObot

actuación) o de forma desestructurada en la mente de los expertos (reglas heurísticas y

modos de actuar adquiridos por la experiencia).

Mediante tecnología SPM es posible desarrollar sistemas capaces de generar

automáticamente los procesos necesarios para resolver problemas complejos. Gracias a

este tipo de sistemas es posible aumentar el desempeño de los trabajadores de una

organización. Además, mediante la tecnología SPM se consigue que el conocimiento sobre

los procesos llevados a cabo por los decisores y expertos (knowledge-workers) de una

organización quede representado en formato electrónico (estando disponible y accesible a

cualquier miembro de la organización).

Es necesario reconocer que hasta ahora las TICs han permitido el desarrollo de la Era

Digital y han propiciado la aparición de la nueva Sociedad del Conocimiento. Estas

tecnologías han tenido un gran impacto en la capacidad para gestionar y acceder a una gran

cantidad de conocimiento almacenado. Además, han cambiado la forma en que las personas

se relacionan, se comunican y trabajan.

En el entorno empresarial, las TIC (Tecnologías de la Información y la Comunicación) han

alcanzado un grado de madurez tal que han soportado el desarrollo de metodologías y

tecnologías tales como BPM (Business Process Management) capaces de gestionar

(modelar, representar y ejecutar) de forma eficiente los procesos de una organización. Esto

ha permitido que procesos estáticos, repetitivos y predecibles, llevados a cabo por los

trabajadores de menor cualificación de una organización, estén en la práctica totalmente

automatizados, requiriendo cada vez menos intervención humana para su desempeño.

El carácter del conocimiento y técnicas necesarios para gestionar estos procesos obliga a

adoptar nuevos conceptos que superen a los clásicos usados en las TICs. Así, aparece el

nuevo término TICA ( Tecnologías de la información, conocimiento y aprendizaje ) que

refleja de una mejor manera las nuevas tendencias fruto de las nuevas necesidades en

entornos empresariales. Los nuevos sistemas basados en las tecnologías TICA no sólo se

dedican a representar información de forma estática y a ejecutar procesos predecibles y

repetitivos Los nuevos sistemas inteligentes basados en las TICA permiten representar

conocimiento para ser utilizado con el objeto de mejorar el desempeño de las tareas de

decisores y expertos. Además, puesto que el conocimiento manejado tiene que evolucionar

Page 40: IA-RObot

y adaptarse con el aumento de la experiencia de los expertos, estos sistemas tienen que

incorporar capacidades de aprendizaje

Las TICA necesariamente están basadas en técnicas de Inteligencia Artificial. La Inteligencia

Artificial es una disciplina científica que entre otros tiene el objetivo de construir sistemas

inteligentes que den una respuesta dinámica, flexible y adaptable (inteligente) ante un

problema basándose en la información disponible. Esta respuesta puede no ser fácil de

encontrar para un humano, debido a la gran cantidad de información que maneja y/o a la

gran cantidad de casos a tener en cuenta. Una parte muy importante de la Inteligencia

Artificial se dedica al desarrollo de técnicas orientadas a resolver problemas cuya solución

implica adoptar una secuencia de acciones organizadas en el tiempo, considerando que el

conocimiento necesario para generar estos procesos debe evolucionar constantemente y

adaptarse a nuevas circunstancias

Por tanto, un problema para el cual la Inteligencia Artificial puede ayudar es la búsqueda del

proceso más adecuado, entendido como una secuencia de actividades ordenadas en el

tiempo, para llevar a cabo una determinada tarea.

En definitiva, se denomina Smart Process Management o SPM (gestión inteligente de

procesos), al conjunto de metodologías y tecnologías basadas en Inteligencia Artificial que

facilitan la solución a este tipo de problemas utilizando herramientas automáticas.

BENEFICIOS DEL SMART PROCESS MANAGEMENT

Mediante el uso de las metodologías y tecnologías SPM se consigue proporcionar un

enfoque integral a la hora ayudar a la persona a encontrar el proceso más adecuado para

resolver un problema durante todas las etapas de la búsqueda de la solución:

Durante la etapa de adquisición de la información, para realizar el modelado de los

conceptos que juegan un papel clave en la definición del proceso.

Durante la etapa de definición de los procedimientos o protocolos que marcan la

estructura a la cual se deberá adecuar el proceso resultante.

Durante la etapa de la descripción de los objetivos que queremos cubrir tras la ejecución

del proceso.

Page 41: IA-RObot

Durante la etapa de búsqueda del proceso más adecuado. Usando tecnologías

inteligentes (Smart) que realicen este proceso de forma automática.

Y durante la propia etapa de ejecución, puesta en marcha y adaptación del proceso

según la evolución del mismo.

Algunas de las ventajas de usar un enfoque SPM son varias:

Los sistemas desarrollados utilizando tecnología SPM permiten a las organizaciones el

aumento del rendimiento de sus empleados sin necesidad que éstos sean expertos en

los tipos de problemas a los que se enfrentan.

La tecnología SPM ofrece soluciones a problemas complejos de una forma más rápida y

óptima de la que lo haría cualquier experto.

Permite tener modelados en un formato digital los procedimientos o protocolos que

conforman el proceso. Estos procedimientos pueden ser visualizados, estudiados,

documentados y compartidos con otras personas. Además pueden ser modificados y

mejorados fácilmente para su adaptación a nuevas situaciones.

Los procesos resultantes pueden ser guardados, compartidos, comunicados y ejecutados

colaborativamente entre diferentes responsables.

Se pueden utilizar distintas estrategias para mejorar el proceso resultante en algún

aspecto.

Los procesos son adaptados de forma automática para satisfacer distintas restricciones

temporales o de consumo de recursos.

Distintos procesos pueden ser comparados con el objetivo de aprender distintos aspectos

que ayuden a mejorarlos.

Estas ventajas hacen de las metodologías y tecnologías SPM unas herramientas muy útiles

para la construcción de herramientas software fácilmente adaptables y escalables que

ayuden al usuario en la búsqueda de un proceso personalizado para resolver un

determinado problema. Así mismo pueden ser utilizadas dentro de un entorno empresarial

para la estandarización y automatización de protocolos operacionales, que homogenicen y

coordinen el comportamiento de los distintos miembros de la empresa mientras el gestor de

la misma puede seguir controlando los aspectos estratégicos.

Page 42: IA-RObot

CIENTIFICOS

JOHN MCCARTHY

John McCarthy, nació en septiembre de 1927, Boston.

Es un prominente informático que recibió el Premio Turing en 1971 por sus importantes

contribuciones en el campo de la Inteligencia Artificial. De hecho, fue el responsable de

introducir el término “inteligencia artificial”, concepto que acuñó en la Conferencia de

Dartmouth en 1956.

McCarthy inventó el lenguaje de programación Lisp y publicó su diseño en Comunicaciones

del ACM en 1960. John McCarthy ayudó a motivar la creación del Proyecto MAC en el MIT,

pero en 1962 se marchó del MIT y se fue a la Universidad de Stanford, donde se dedicó a

instalar el Laboratorio de IA de Stanford, que durante muchos años fue un rival amistoso del

Proyecto MAC.

En 1961, fue el primero en sugerir públicamente (en un discurso dado para celebrar el

centenario del MIT) que la tecnología de tiempo compartido de las computadoras podría

conducir a un futuro en el que el poder del cómputo e incluso aplicaciones específicas

podrían ser vendidas como un servicio (como el agua o la electricidad).

La idea de una computadora o una utilidad informática era muy popular a fines de la década

del 60, pero se desvaneció hacia mediados de los 70 cuando se volvió claro que el

hardware, software y las tecnologías de telecomunicación simplemente no estaban

preparados. Sin embargo, desde el 2000, la idea ha reaparecido en diferentes formas.

McCarthy recibió su B.S. en Matemáticas del Instituto de Tecnología de California en 1948 y

su Ph.D. en Matemáticas de la Universidad de Princeton en 1951. Tras cortas estancias en

Princeton, Stanford, Dartmouth, y el MIT, pasó a ser profesor a tiempo completo en Stanford

en 1962, donde permaneció hasta su retiro a finales del 2000. Ahora es Profesor Emérito.

JOSEPH WEIZENBAUM

Joseph Weizenbaum fue profesor emérito de Informática en el Instituto Tecnológico de

Massachusetts y se le considera uno de los padres de la cibernética.

Nació en Berlín, Alemán de padres judíos, escapó del régimen de Hitler en 1936, emigrando

con su familia a los Estados Unidos. Empezó a estudiar matemáticas en 1941, pero sus

Page 43: IA-RObot

estudios fueron interrumpidos por la guerra, durante la que sirvió en el ejército. Sobre

los años 50, trabajó en computación analógica, y ayudó a crear un ordenador digital para la

Universidad Wayne State. En 1955 trabajó para General Electric en el primer ordenador

utilizado por un banco y en 1963 entró en el Instituto Tecnológico de Massachusetts, dos

años después creó allí su célebre departamento de ciencias de la computación.

En 1966 publicó un aparentemente simple programa llamado ELIZA que utilizaba el

procesamiento del lenguaje natural para dar la sensación de cierta empatía. El programa

aplicaba reglas de concordancia de patrones a las frases de los humanos para calcular sus

respuestas. Weizenbaum se sorprendió del impacto que este programa tuvo, al tomarse en

serio por mucha gente que incluso llegaban a abrirle sus corazones. Esto le hizo pensar

sobre las implicaciones filosóficas de la Inteligencia Artificial y más adelante se convirtió en

uno de sus más fervientes críticos. Su influyente libro de 1976 El Poder de las

Computadoras y la Razón Humana (Computer Power and Human Reason) muestra su

ambivalencia en cuanto a la tecnología introducida por la informática y afirma que cuando la

Inteligencia Artificial sea posible, no deberemos dejarles tomar decisiones importantes

porque los ordenadores nunca tendrán cualidades humanas como la compasión y la

sabiduría al no haber crecido en el entorno emocional de una familia humana.

Falleció el 5 de marzo de 2008 en Gröben, Alemania por complicaciones de cáncer.

MARVIN MINSKY

Marvin Lee Minsky es un científico estadounidense nacido en Nueva York en agosto de

1927, considerado uno de los padres de las ciencias de la computación y cofundador del

laboratorio de inteligencia artificial del Instituto Tecnológico de Massachusetts o MIT.

Minsky ha contribuido en el desarrollo de la descripción gráfica simbólica, geometría

computacional, representación del conocimiento, semántica computacional, percepción

mecánica, aprendizaje simbólico y conexionista. En 1951 creó SNARC, el primer simulador

de redes neuronales.

Escribió el libro "Perceptrones" (con Seymour Papert), que se convirtió en el trabajo

fundacional en el análisis de redes neuronales artificiales. Su crítica de la investigación poco

rigurosa en el campo ha sido indicada como responsable de la desaparición virtual de la

Page 44: IA-RObot

investigación académica en redes neuronales artificiales durante los años 70. []

Minsky también es responsable de sugerir la trama de "Jurassic Park" a Michael Crichton

durante un paseo por la playa de Malibú. En ese punto los dinosaurios fueron concebidos

como autómatas. Más tarde Crichton hizo uso de sus conocimientos en biomedicina y

concibió los dinosaurios como clones.

ALAN TURING

Alan Mathison Turing (23 de junio de 1912 en Maida Vale, Londres - 7 de junio de 1954 en

Wilmslow, Cheshire) fue un matemático, informático teórico, criptógrafo y filósofo inglés.

Es considerado uno de los padres de la Ciencia de la computación siendo el precursor de la

informática moderna. Proporcionó una influyente formalización de los conceptos de algoritmo

y computación: la máquina de Turing. Formuló su propia versión de la hoy ampliamente

aceptada Tesis de Church-Turing, la cual postula que cualquier modelo computacional

existente tiene las mismas capacidades algorítmicas, o un subconjunto, de las que tiene una

máquina de Turing. Durante la Segunda Guerra Mundial, trabajó en romper los códigos

nazis, particularmente los de la máquina Enigma; durante un tiempo fue el director de la

sección Naval Enigma del Bletchley Park. Tras la guerra diseñó uno de los primeros

computadores electrónicos programables digitales en el Laboratorio Nacional de Física del

Reino Unido y poco tiempo después construyó otra de las primeras máquinas en la

Universidad de Mánchester. Entre otras muchas cosas, también contribuyó de forma

particular e incluso provocativa al enigma de si las máquinas pueden pensar, es decir a la

Inteligencia Artificial.

En 1952 Turing escribió un programa de ajedrez. A falta de una computadora lo

suficientemente potente como para ejecutarlo, él simulaba el funcionamiento de la

computadora, tardando más de hora y media en efectuar un movimiento. Una de las partidas

llegó a registrarse; el programa perdió frente a un amigo de Turing.

Trabajó junto a Norbert Wiener en el desarrollo de la cibernética. Esta rama de estudios se

genera a partir de la demanda de sistemas de control que exige el progresivo desarrollo de

las técnicas de producción a partir del siglo XX. La cibernética pretende establecer un

sistema de comunicación entre el hombre y la máquina como premisa fundamental para

Page 45: IA-RObot

administrar los sistemas de control. Sus estudios profundizaron en esta relación

estableciendo el concepto de interfaz y cuestionando los límites de simulación del

razonamiento humano.

La carrera de Turing terminó súbitamente cuando fue procesado por su homosexualidad. No

se defendió de los cargos y se le dio a escoger entre la castración química o ir a la cárcel.

Eligió lo primero y sufrió importantes consecuencias físicas, entre ellas la impotencia. Dos

años después del juicio, en 1954, se suicidó.

TEST DE TURING

El Test de Turing (o Prueba de Turing) es una prueba propuesta por Alan Turing para

demostrar la existencia de inteligencia en una máquina. Fue expuesto en 1950 en un artículo

(Computing machinery and intelligence) para la revista Mind, y sigue siendo uno de los

mejores métodos para los defensores de la Inteligencia Artificial. Se fundamenta en la

hipótesis positivista de que, si una máquina se comporta en todos los aspectos como

inteligente, entonces debe ser inteligente.

La prueba consiste en un desafío. Se supone un juez situado en una habitación, y una

máquina y un ser humano en otras. El juez debe descubrir cuál es el ser humano y cuál es la

máquina, estándoles a los dos permitido mentir al contestar por escrito las preguntas que el

juez les hiciera. La tesis de Turing es que si ambos jugadores eran suficientemente hábiles,

el juez no podría distinguir quién era el ser humano y quién la máquina. Todavía ninguna

máquina puede pasar este examen en una experiencia con método científico.

En 1990 se inició un concurso, el Premio Loebner, una competencia de carácter anual entre

programas de ordenador que sigue el estándar establecido en la prueba de Turing. Un juez

humano se enfrenta a dos pantallas de ordenador, una de ellas que se encuentra bajo el

control de un ordenador, y la otra bajo el control de un humano. El juez plantea preguntas a

las dos pantallas y recibe respuestas. El premio está dotado con 100.000 dólares

estadounidenses para el programa que pase el test, y un premio de consolación para el

mejor programa anual. Todavía no ha sido otorgado el premio principal.

Page 46: IA-RObot

ROBOTICA

La robótica es la ciencia y la tecnología de los robots.Se ocupa del diseño, manufactura y

aplicaciones de los robots. La robótica combina diversas disciplinas como son: la mecánica,

la electrónica, la informática, la inteligencia artificial y la ingeniería de control. Otras áreas

importantes en robótica son el álgebra, los autómatas programables y las máquinas de

estados.

En el término robot confluyen las imágenes de máquinas para la realización de trabajos

productivos y de imitación de movimientos y comportamientos de seres vivos.

Los robots actuales son obras de ingeniería y como tales concebidas para producir bienes y

servicios o explotar recursos naturales. Desde esta perspectiva son máquinas con las que se

continúa una actividad que parte de los propios orígenes de la humanidad, y que desde el

comienzo de la Edad Moderna se fundamentan esencualmente en conomientos científicos.

En nuestro siglo el desarrollo de máquinas ha estado fuertemente influido por el progreso

tecnológico. De esta forma se pasa de máquinas que tienen como objeto trabajo físico, a

máquinas o instrumentos que son también capaces de procesar información,

complementando, o incluso sustituyendo, al hombre en algunas actividades intelectuales.

Por otra parte, también desde la antigüedad, el hombre ha sentido fascinación por las

máquinas que imitan la figura y los movimientos de seres animados. Existe una larga

tradición de autómatas desde el mundo griego hasta nuestro siglo, pasando por los

autómatas de los artesanos franceses y suizos del siglo XVIII, que ya incorporaban

interesantes dispositivos mecánicos para el control automático de movimientos.

El término robot aparece por primera vez en 1921, en la obra teatral R.U.R. (Rossum’s

Universal Robots) del novelista y autor dramático checo Karel Capek en cuyo idioma la

palabra “robota” significa fuerza del trabajo o servidumbre. Por aquellos años la producción

en grandes series se había introducido en numerosas fábricas. Se discute ya del poder de

las máquinas y la dominación de los hombres por las máquinas, argumento de ésta y otras

obras teatrales y películas de los años viente en los que aparecen trabajadores robóticos.

Page 47: IA-RObot

El término tiene amplia aceptación y pronto se aplica a autómatas constridos en los años

viente y treinta ue se exhiben en ferias, promociones de productos, películas y otras

aplicaciones más o menos festivas. Se trata de imitar movimientos de seres vivos pero

también de demostrar técnicas de control remoto, incluyéndose en algunos casos funciones

sensoriales primarias.

En cualquier caso, interesa recordar que el término robot nace asociado a la idea trabajoy y

producción. En 1915, Leonardo Torres Quevedo declaró a la revista “Scientific American”

(Eames, 1973):

“Los antiguos autómatas imitan la apariencia y movimientos de los seres vivos, lo cual no

tiene mucho interés práctico; lo que yo busco es una clase de aparatos que, sin necesidad

de reproducir los gestos más visibles del hombre, intentan obtener los mismos resultados

que una persona”.

Los robots industriales surgen de la convergencia de tecnologías del control automático y, en

particular, del control de máquinas herramientas, de los manipuladores teleoperadores, y de

la aplicación de computadores en tiempo real. En los párrafos siguientes se comentan

brevemente algunos aspoectos significativos en la evolucion de estas tecnologias.

Mediante el control automatico de procesos se pretende concebir y realizar ingenios que

permitan gobernar un proceso sin la intervencion de agentes exteriores, especialmente el

hombre. En particular, se presentan problemas de seguimiento automatico de señales de

consigna, mediante los denominados servosistemas. Estos sistemas generan

automaticamente señales de control que tratan de anlar la diferencia entre la señal de

consigna y la señal medida en el proceso u objeto que se pretende controlar.

Un problema similar es el de la regulacion automatica mediante la cual se trata de mantener

una consigna, aunque se presenten perturbaciones que tiendan a separar al sistema de las

condiciones deseadas.

Tanto los servosistemas como los reguladores se basan en el principio de la

realimentacion.Las señales de consigna o referencia se comparan con medidas de variables

del proceso u objeto que se pretende controlar y su diferencia se emplea para generar

Page 48: IA-RObot

acciones de control sobre el propio proceso u objeto. En los sistemas de control automatico

esta cadena cerrada de accion-medida-accion se realiza sin intervenion del hombre.

La automatizacion industrial con utilizacion de sistemas de control automatico comienza

tambien en el siglo XIX pero no es hasta el siglo XX y, muy especialmente, despues de la

Segunda Guerra mundial, cuando empieza a extenderse la forma importante en todos los

sectores industriales. De esta forma, se generalizan los sistemas de control automatico de

variables de procesos industriales y, en particular, sistemas de control de posicion y

velocidad. Se emplean tambien sistemas de control realimentado en barcos o aviones que

deben seguir automaticamente una determinada trayectoria (pilotos automaticos) o en el

posicionamiento de radares. Tradicionalmente, en la realizacion de sistemas de control

automatico se han empleado diversas tecnologias tales como la neumatica, hidraulica y,

posteriormente, la electrica. A finales de los años sesenta y comienzos de los setenta los

minicomputadores encuentran una importante acogida en aplicaciones de control. La

aparicion en 1972 del microprocesador suministra un impulso decisivo al control por

computador, haciendo rentables numerisísimas aplicaciones entre las que se cuenta el

control de robots. Los avances en microelectronica de los años ochenta, con la tecnologia de

los circuitos de gran escala de integracion, acentuan esta tendencia.

Con respecto a las maquinas herramientas de control numerico, ha que señalar los

proyectos que se desarrollaron en EE.UU. A finales de los cuarenta y principios de los

cincuenta. Se combinaban los progresos en el diseño de servosistemas con las recientes

experiencias en tenicas de computacion digital. De esta forma, el contorno de corte era

codificado en cinta de papel perforado, utilizandose para generar automaticamente las

ordenes a los servomecanismos de la maquina. En 1953 se presentaba en el

“Massachesetts Institute of Technology” (MIT) una maquina de estas caracteristicas.

Los teleoperadores se desarrollaron en los años cuarenta para manejar materiales

radioactivos. Consistian en un par de pinzas “maestra” y “esclava” acopladas por

mecanismos que permitian que la pinza “esclava”, en contacto con el material peligroso,

reprodujera los movimientos de la pinza “maestra” accionada por un operador detrás de un

muro protector con ventanas apropiadas para observar la operación (Goertz, 1963).

Page 49: IA-RObot

El primer teleoperador accionado por servomecanismos electricos se presento en 1947.

Poco despues, en 1948, se introdujeron servosistemas con realimentacion de fuerza hacia la

pinza “maestra” para permitir que el operador percibiera el esfuerzo desarrollado.

En 1954 el ingeniero americano George Devol patentó el que se considera el primer robot

industrial. Un dispositivo que combinaba la articulacion de un teleoperador con el eje

servocontrolado de una maquina de control numerico.

En el proximo apartado se presenta una primera aproximacion a los robots actuales y su

interaccion con el entorno. En los dos siguientes se tratan aspectos especifios de los robots

manipuladores y los vehículos roboticos. Posteriormente, se presenta una clasificacion se

sistemas roboticos en cuenta su autonomia.

ROBOTICA INDUSTRIAL

Aunque la imagen del robot como una máquina a semejanza del ser humano subyace en el

hombre desde hace muchos siglos, esta idea ha derivado en la actualidad por los caminos

de la Biogenetica y la Bioingenieria.

El robot industrial que se conoce y utiliza en nuestros dias no surge con la finalidad de

reproducir seres vivientes sino el objetivo de aumentar la productividad, mejorar la calidad de

las piezas fabricadas y evitar la realización de trabajos tediosos al hombre.

George Devol es considerado el padre de la Robótica industrial y a él se debe la patente de

un manipulador programable en 1956, que fue germen del robot industrial

MICROBOTICA

En la Microbótica se puede considerar a la Robótica Industrial como su origen. No puede caerse en la simplicidad de considerarse al microbo como un robot pequeñito. Existen diferencias básicas relacionadas con el concepto, la arquitectura y la aplicación.

Hasta 1981 los computadores eran caros, voluminosos, complejos de manejar y mantener y estaban orientados a resolver grandes aplicaciones específicas. En dicho año cambió radicamente el concepto del computador como consecuencia de la idea del PC propuesta

Page 50: IA-RObot

por IBM. Actualmente, los computadores han pasado a ser máquinas potentes, fáciles de manejar, baratas y se usan hasta para jugar y divertirse.

A semejanza del robot industrial, que tuvo que esperar hasta 1971 a que Intel comercializase el microprocesador, el nacimiento del microbot fue posible gracias a la aparición del microcontrolador en la última década del siglo XX.

Un microcontrolador es un circuito integrado en cuyo chip interno se implementa un computador completo, aunque de limitadas prestaciones. De esta forma el computador que gobierna al microbot es más pequeño que un mechero y, en muchas ocasiones, cuesta menos.

En una primera aproximación al microbot destaca una diferencia notable con el robot industrial. El primero es móvil y carece de una estructura en forma de brazo. Además es mucho más pequeño y su precio estáal alcance de muchos bolsillos. Al estar gobernado por un microcontrolador concreto tiene limitado su nivel de inteligencia y su capacidad de programación. En la mayoría de las ocasiones el microbot dispone de ruedas o patas para moverse gracias a la acción de unos motores.

La mayoría de las labores que normalmente realizamos los humanos son muy sencilas. Desde que nos levantamos hasta que nos acostamos desarrollamos multitud de trabajos simples y rutinarios, desde afeitarnos, preparar desayunos y omidas, limpiar, recoger, ordenar manejar aparatos de video y sonido, etc. También nuestro trabajo y los desplazamientos están llenos de pequeñas tareas.

Los microbots no intentan quitar el puesto a los robots industriales. No están diseñados para llevar a cabo operaciones que exijan elevadas poencias y complicados algorítmos. Los microbot están destinados a resolver tareas pequeñas co rapidez y precisión. Limpian, detectan o buscan elementos concretos, miden, transportan pequeñas piezas, viilan, ayudan a minusválidos y hasta son magníficos compañeros de juegos.