test de turing

18

Click here to load reader

Upload: silcivimos

Post on 03-Dec-2015

14 views

Category:

Documents


6 download

DESCRIPTION

turing

TRANSCRIPT

Page 1: Test de Turing

Test de Turing

La “interpretación estándar” de la prueba de Turing, en la cualel jugador C, el interrogador, le es dada la tarea de tratar dedeterminar qué jugador - A o B - es una computadora y cualun ser humano. El interrogador se limita a la utilización de lasrespuestas a las preguntas escritas para tomar la determinación.Imagen adaptada de Saygin, 2000.[1]

El test de Turing (o prueba de Turing) es una prueba dela habilidad de unamáquina de exhibir un comportamien-to inteligente similar, o indistinguible, del de un humano.Alan Turing propuso que un humano evaluara conversa-ciones en lenguaje natural entre un humano y una máqui-na diseñada para generar repuestas similares a las de unhumano. El evaluador sabría que uno de los miembros dela conversación es una máquina y todos los participantesserían separados de otros. La conversación estaría limi-tada a un medio únicamente textual como un teclado decomputadora y un monitor por lo que sería irrelevante lacapacidad de la máquina de transformar texto en habla.[2]En el caso de que el evaluador no pueda distinguir entreel humano y la máquina acertadamente (Turing original-mente sugirió que la máquina debía convencer a un eva-luador, después de 5 minutos de conversación, el 70% deltiempo), la máquina habría pasado la prueba. Esta pruebano evalúa el conocimiento de la máquina en cuanto a sucapacidad de responder preguntas correctamente, solo setoma en cuenta la capacidad de ésta de generar respuestas

similares a las que daría un humano.Turing propuso esta prueba en su ensayo “ComputingMachinery and Intelligence” de 1950 mientras trabaja-ba en la Universidad de Mánchester (Turing, 1950; p.460).[3] Inicia con las palabras: “Propongo que se con-sidere la siguiente pregunta, ‘¿Pueden pensar las máqui-nas?’”. Como es difícil definir la palabra “pensar”, Turingdecide “reemplazar la pregunta con otra que está estre-chamente relacionada y en palabras no ambiguas.”, [4] lanueva pregunta de Turing es: “¿Existirán computadorasdigitales imaginables que tengan un buen desempeño enel juego de imitación?"[5]. Turing creía que esta preguntasí era posible de responder y en lo que resta de su ensayose dedica a argumentar en contra de las objeciones prin-cipales a la idea de que “las máquinas pueden pensar”.[6]

Desde 1950, la prueba ha servido de influencia y critica-da, además de ser esencial en el concepto de la filosofíade la inteligencia artificial.[1][7]

1 Historia

1.1 Contexto filosófico

La incógnita sobre la capacidad de las máquinas de pen-sar tiene una larga historia, esta se divide entre las pers-pectivas materialista y dualista de la mente. René Descar-tes tuvo ideas similares a la prueba de Turing en su textoDiscurso del Método (1637) donde escribió:Descartes reconoce que los autómatas son capaces dereaccionar ante interacciones humanas pero argumentaque tal autómata carece de la capacidad de responder demanera adecuada ante lo que se diga en su presencia de lamisma manera que un humano podría. Por lo tanto, Des-cartes abre las puertas para la puerta de Turing al identifi-car la insuficiencia de una respuesta lingüística apropiadalo que separa al humano del autómata. Descartes no llegaa considerar que una respuesta lingüística apropiada pue-de ser producida por un autómata del futuro y por lo tantono propone el test de Turing como tal aunque ya razonólos criterios y el marco conceptual.Denis Diderot plantea en su Pensées philosophiques uncriterio de la prueba de Turing:“Si se encuentra un loro que puede responder a todo, sele consideraría un ser inteligente sin duda alguna.”[9]

Esto no significa que él esté de acuerdo pero muestra queya era un argumento común usado por los materialistas

1

Page 2: Test de Turing

2 1 HISTORIA

de la época.Según el dualismo, la mente no tiene un estado físico (oal menos cuenta con propiedades no físicas)[10] y por lotanto no se puede explicar en términos estrictamente fí-sicos. De acuerdo con el materialismo, la mente puedeser explicada físicamente lo que abre la posibilidad a lacreación de mentes artificiales.[11]

En 1936, el filósofo Alfred Ayer consideraba la preguntafilosófica típica sobre otras mentes: ¿Cómo sabemos queotras personas experimentan el mismo nivel de concien-cia que nosotros? En su libro Lenguaje, Verdad y Lógica,Ayer propuso un método para distinguir entre un hom-bre consciente y una máquina inconsciente: “El único ar-gumento que tengo para asegurar que, lo que parece serconsciente, no es un ser consciente sino unamuñeco o unamáquina es el hecho de que falle en las pruebas empíricaspor medio de las cuales se determina la presencia o ausen-cia de la conciencia.”[12] (Es una propuesta muy similar ala prueba de Turing pero esta se enfoca en la concienciaen vez de en la inteligencia. Además se desconoce si Tu-ring estaba familiarizado con el clásico filosófico de Ayer.En otras palabras, algo no está consciente si reprueba unaprueba de consciencia.

1.2 Alan Turing

La “inteligencia maquinaria” ha sido un tema que inves-tigadores del Reino Unido han seguido desde 10 años an-tes de que se fundara el campo de investigación de lainteligencia artificial (IA) en 1956. [13] Era un tema co-múnmente discutido por los miembros del “Club de larazón”, grupo informal de investigadores cibernéticos yelectrónicos británicos que incluía a Alan Turing.[14]

Turing, en particular, había estado trabajando con elconcepto de la inteligencia maquinaria desde al menos1941,[15] una de las primeras menciones de la “inteligen-cia computacional” fue hecha por Turing en 1947.[16] Enel reporte de Turing llamado “maquinaria inteligente”,[17]él investigó “la idea de si era, o no, posible para una má-quina demostrar un comportamiento inteligente”[18] y co-mo parte de su investigación, propuso lo que se puedeconsiderar como un predecesor de sus pruebas futuras:

No es difícil diseñar una máquina de papelque juegue bien ajedrez.[19] Hay que conseguir3 hombres como sujetos para el experimento.A,B y C. A y C son dos jugadores malos deajedrez mientras que B es el operador de la má-quina.… Se usan dos cuartos con algún arreglopara transmitir los movimientos y se lleva a ca-bo un juego entre C y ya sea A o la máquina.C puede tener dificultad al decidir contra quienestá jugando.[20]

El primer texto publicado escrito por Turing enfocadocompletamente en la inteligencia de las máquinas fue

“Computing Machinery and Intelligence”. Turing iniciaeste texto diciendo “Me propongo tomar en cuenta la pre-gunta ‘¿Pueden pensar las máquinas?’”.[4] Turingmencio-na que el acercamiento tradicional es empezar con defini-ciones de los términos “máquina” e “inteligencia”, decideignorar esto y empieza reemplazando la pregunta con unanueva, “que está estrechamente relacionada y en palabrasno ambiguas”.[4] Él propone, en esencia, cambiar la pre-gunta de “¿pueden las máquinas pensar?” a “¿Pueden lasmáquinas hacer, lo que nosotros (como entidades pensan-tes) hacemos?”.[21] La ventaja de esta nueva pregunta esque “dibuja un límite entre las capacidades físicas e inte-lectuales del hombre.”[22]

Para demostrar este acercamiento, Turing propone unaprueba inspirada en el “Juego de imitación”, en este en-traban un hombre y una mujer a cuartos separados y elresto de los jugadores intentaría distinguir entre cada unopor medio de preguntas y leyendo las respuestas (escritasa máquina) en voz alta. El objetivo del juego es que losparticipantes que se encuentran en los cuartos deben con-vencer al resto que son el otro. (Huma Shah argumentaque Turing incluye la explicación de este juego para in-troducir al lector a la prueba de pregunta y respuesta en-tre humano y máquina[23]) Turing describe su versión deljuego de la siguiente manera:

Nos hacemos la pregunta, “¿Qué pasaría siuna máquina toma el papel de A en este jue-go?” ¿Se equivocaría tan frecuentemente el in-terrogador en esta nueva versión del juego quecuando era jugado por un hombre y una mujer?Estas preguntas sustituyen la pregunta original“¿Pueden pensar las máquinas?”.[22]

Más adelante en el texto se propone una versión similaren la que un juez conversa con una computadora y unhombre.[24] A pesar de que ninguna de las versiones pro-puestas es la misma que conocemos hoy en día, Turingpropuso una tercera opción, la cual discutió en una trans-misión de radio de la BBC, donde un jurado le hace pre-guntas a una computadora y el objetivo de la computado-ra es engañar a la mayoría del jurado haciéndolo creerque es un humano.[25]

El texto de Turing consideraba nueve objeciones putati-vas las cuales incluyen a todos los argumentos mayores,en contra de la inteligencia artificial, que habían surgidoen los años posteriores a la publicación de su texto (ver“Computing Machinery and Intelligence”).[6]

1.3 ELIZA y PARRY

En 1966, JosephWeizenbaum creó un programa que ase-guraba pasar la prueba de Turing. Este programa era co-nocido como ELIZA y funcionaba a través del análisis delas palabras escritas por el usuario en busca de palabrasclave. En el caso de encontrar una palabra clave, una re-gla que transformaba el comentario del usuario entra en

Page 3: Test de Turing

1.5 Premio Loebner 3

acción y se regresaba una oración resultado. Si no se en-contraba alguna palabra clave, ELIZA daba una respuestagenérica o repetía uno de los comentarios anteriores.[26]Además, Weizenbaum desarrolló a ELIZA para replicarel comportamiento de un psicoterapeuta Rogeriano lo quepermitía a ELIZA (asumir el rol de alguien que no cono-ce nada del mundo real”.[27] El programa fue capaz deengañar a algunas personas haciéndolas creer que habla-ban con una persona real e incluso algunos sujetos fue-ron “muy difíciles de convencerles de que ELIZA no erahumana”.[27] Como resultado, ELIZA es aclamado comouno de los programas (probablemente el primero) en pa-sar la prueba de Turing,[27][28] aunque esto es muy con-troversial. (ver más adelante).PARRY fue creado por Kenneth Colby en 1972, eraun programa descrito como “ELIZA con carácter”.[29]Este intentaba simular el comportamiento de unesquizofrénico paranoico usando un acercamiento simi-lar (probablemente más avanzado) al de Weizenbaum.PARRY fue examinado usando una variación de laprueba de Turing con tal de validar el trabajo. Ungrupo de psiquiatras experimentados analizaba a ungrupo de pacientes reales y computadoras ejecutandoel programa PARRY a través de teletipos. A otrogrupo de 33 psiquiatras se les enseñaban transcriptosde las conversaciones. A ambos grupos se les pedíaindicar cuales pacientes eran humanos y cuales erancomputadoras. [30] Los psiquiatras fueron capaces deresponder correctamente solo 48% de las veces, un valorconsistente con respuestas aleatorias..[31]

En el Siglo XXI, versiones de estos programas (llamados“bots conversacionales”) siguieron engañando a la gen-te. “CyberLover”, un programa de malware, acechaba ausuarios convenciéndoles de “revelar información sobresus identidades o de entrar a un sitio web que introduci-ría malware a sus equipos”.[32] El programa surgió comoun “Riesgo de San Valentín” coqueteando con la gente“buscando relaciones en línea para recabar informaciónpersonal”.[33]

1.4 La habitación china

El texto “Minds, Brains, and Programs” de 1980 escritopor John Searle, proponía el experimento de la “habita-ción china” y argumentaba que la prueba de Turing nopodía usarse para determinar si una máquina podía pen-sar. Searle observó que software (como ELIZA) podíaaprobar la prueba de Turing a través de la manipulaciónde caracteres que no había entendido. Si la comprensiónno se les puede clasificar realmente como “pensantes” dela misma manera que los humanos, por lo tanto, Searleconcluyó que la prueba de Turing no puede probar queuna máquina puede pensar. [34] Al igual que la pruebade Turing, el argumento de Searle ha sido ampliamentecriticado[35] al igual que respaldado.[36]

Argumentos como los de Searle y otros individuos traba-

jando en la filosofía de mente desataron un debate más in-tenso sobre la naturaleza de la inteligencia, la posibilidadde máquinas inteligentes y el valor de la prueba de Turingque continuó durante las décadas de los 80s y 90s.[37]

1.5 Premio Loebner

El Premio Loebner proporciona una plataforma anual pa-ra pruebas de Turing prácticas con su primera compe-tencia siendo en noviembre de 1991.[38] Es suscrita porHugh Loebner. El Centro de Estudios Conductuales deCambridge en Massachusets, Estados Unidos, organizólos premios hasta, e incluyendo, el año 2003. Como dijoLoebner, un motivo por el que se creó la competencia espara avanzar el estado de la investigación de IA, en al me-nos una parte, ya que no se había intentado implementarla prueba de Turing después de 40 años de discusión.[39]

La primera competencia del Premio Loebner en 1991,llevó a una discusión renovada sobre la viabilidad de laprueba de Turing y el valor de continuar persiguiéndolaen la prensa[40] y en la academia.[41] El primer concursolo ganó un programa inconsciente sin ninguna inteligen-cia identificable que logró engañar a interrogadores inge-nuos. Esto sacó a la luz muchas de las deficiencias de laprueba de Turing (discutido más adelante): El programaganó gracias a que fue capaz de “imitar errores humanosal escribir”;[40] ”, los interrogadores poco sofisticados fue-ron fácilmente engañados[41] y algunos investigados de IAsintieron que la prueba es una distracción de investigacio-nes más fructíferas.[42]

Los premios de plata (únicamente textual) y de oro (vi-sual y aural) no han sido ganados a la fecha, sin embargo,la competencia ha entregado la medalla de bronce cadaaño al sistema computacional que, según la opinión delos jueces, demuestra el comportamiento conversacional“más humano” entre los otros participantes. A.L.I.C.E.(Artificial Linguistic Internet Computer Entitity) ha ga-nado el premio de bronce en 3 ocasiones recientes (2000,2001 y 2004). La IA aprendiz Jabberwacky ganó en elaño 2005 y nuevamente en el 2006.[43]

El Premio Loebner evalúa la inteligencia conversacio-nal, los ganadores son, típicamente, bots conversaciona-les. Las reglas de las primeras instancias de la competen-cia, restringían las conversaciones: cada programa parti-cipante y un humano escondido conversaban de un solotema[44] y los interrogadores estaban limitados a una solapregunta por cada interacción con la entidad. Las conver-saciones restringidas fueron eliminadas en la competen-cia de 1995. La interacción entre el evaluador y la entidadha variado en las diferentes instancias del Premio Loeb-ner. En el Premio Loebner de 2003 en la Universidad deSurrey, cada interrogador tenía permitido interactuar conla entidad por 5 minutos fuera humana o máquina. Entre2004 y 2007, la interacción permitida era de más de 20minutos. En 2008, la interacción permitida era de 5 mi-nutos por par porque, el organizador KevinWarwick, y el

Page 4: Test de Turing

4 2 VERSIONES DE LA PRUEBA DE TURING

coordinador Huma Shah, consideraban que esta debía serla duración de cualquier prueba por como Turing lo pusoen su texto de 1950: “… la correcta identificación des-pués de 5minutos de cuestionamientos.”.[45] Ellos sentíanque las pruebas largas implementadas anteriormente eraninapropiadas para el estado de las tecnologías conversa-cionales artificiales.[46] Es irónico que la competencia del2008 fue ganada por Elbot de Artificial Solutions, esta nosimulaba una personalidad humana sino la de un robot yaun así logró engañar a tres jueces humanos de que era elhumano actuando como robot..[47]

Durante la competencia del 2009. Con sede en Brighton,Reino Unido, la interacción permitida era de 10 minu-tos por ronda, 5 minutos para hablar con la máquina y 5minutos para hablar con el humano. Se implementó de es-ta manera para probar la lectura alternativa sobre la pre-dicción de Turing que la interacción de 5 minutos debíaser con la computadora. Para la competencia del 2010,el patrocinador aumento el tiempo de interacción entreinterrogador y sistema a 25 minutos.[48]

1.6 Competencia en la Universidad deReading del 2014

El 7 de junio de 2014 se realizó una competencia de laprueba de Turing organizada por KevinWarwick y HumaShah para el 60 aniversario de la muerte de Turing y fuellevado a cabo en la Real Sociedad de Londres. Fue ga-nada por el robot conversacional ruso Eugene Goostman.El robot, durante una serie de conversaciones de 5 minu-tos de duración, logró convencer al 33% de los jueces delconcurso de que era humano. Los jueces incluían a JohnSharkley, patrocinador del proyecto de ley que propor-ción el perdón gubernamental a Turing, al profesor de IAAaron Sloman y Robert Llewellyn, actor de Enano Ro-jo.[49][50][51][52]

Los organizadores de la competencia creyeron que laprueba había sido “aprobada por primera vez” en el even-to diciendo: “algunos dirán que la prueba ya ha sido pa-sada. Las palabras ‘Prueba de Turing’ han sido aplicadasa competencias similares alrededor del mundo. Sin em-bargo, este evento involucra más pruebas simultáneas decomparación al mismo tiempo como nunca antes visto,fue independientemente verificado y, crucialmente, no serestringieron las conversaciones. Una prueba de Turingverdades no establece las preguntas ni los temas de lasconversaciones.”[50]

La competencia ha enfrentado críticas,[53] primero, soloun tercio de los jueces fue engañado por la computadora.Segundo, el personaje de computadora aparentaba ser unaniña ucraniana de 13 años de edad que aprendió ingléscomo segundo lenguaje. El premio requería que un 30%de los jueces fuera engañado lo que concuerda con el textode Turing Computing Machinery and Intelligence. JoshuaTenenbaum, experto en psicología matemática en el MIT,calificó el resultado como nada impresionante..[54]

2 Versiones de la prueba de Turing

El juego de la imitación, como descrito por Alan Turing en “Com-puting Machinery and Intelligence”. El jugador C, por medio depreguntas escritas, intenta determinar cuál de los otros dos juga-dores es mujer y cual hombre. El jugador A, el hombre, trata deengañar al jugador C para que erre su decisión mientras que eljugador B trata de ayudarlo. Figura adaptada de Saygin, 2000.

Saul Traigner argumenta que hay al menos 3 versionesprimarias de la prueba de Turing, de las cuales dos sonpropuestas en “Computing Machinery and Intelligence” yotra que el describe como “la interpretación estándar”.[55]A pesar de que hay controversia en cuanto a si esta “inter-pretación estándar” fue descrita por Turing o si está basa-da en la mala interpretación del texto, estas tres versionesno se clasifican como equivalentes [55] y sus fortalezas ydebilidades son diferentes.[56]

Huma Shah señala el hecho de que el mismo Turing es-taba consternado con la posibilidad de que una máquinapudiera pensar y estaba proporcionando un método sim-ple para examinar esto a través de sesiones de pregun-ta y respuesta entre humano y máquina.[57] Shah argu-menta que existe un juego de imitación que Turing pudohaber puesto en práctica de dos maneras diferentes: a)una prueba uno a uno entre el interrogador y la máqui-na o b) una comparación simultánea entre un humano yuna máquina interrogados paralelamente por un mismointerrogador.[23]Debido a que la prueba de Turing eva-lúa la indistinguibilidad en su capacidad de desempeño,la versión verbal naturalmente generaliza a toda la capa-cidad humana, verbal y no verbal (robótica). [58]

Page 5: Test de Turing

2.2 Interpretación estándar 5

2.1 Juego de la imitación

El juego original descrito por Turing proponía una unjuego de fiesta que involucraba a tres jugadores. El ju-gador A es un hombre, el jugador B es una mujer y eljugador C (quien tiene el rol de interrogador) es de cual-quier sexo. En el juego, el jugador C no tiene contactovisual con ninguno de los otros jugadores y se puede co-municar con ellos por medio de notas escritas. Al hacerlespreguntas a los jugadores, el jugador C intenta determinarcuál de los dos es el hombre y cual la mujer. El jugadorA intentará engañar al interrogador haciéndole escogererróneamente mientras que el jugador B le auxiliara alinterrogador en escoger al jugador correcto.[1]

Sterret se refiere a este juego como “La Prueba del Jue-go Original De La Imitación”.[59] Turing propuso que elrol del jugador A lo cumpliera una computadora paraque esta tuviera que pretender ser mujer e intentara guiaral interrogador a la respuesta incorrecta. El éxito de lacomputadora seria determinado al comparar el resultadodel juego cuando el jugador A es la computadora juntocon el resultado del juego cuando el jugador A es un hom-bre. Turing afirmó que si “el interrogador decide errónea-mente tan frecuentemente cuando el juego es jugado [conla computadora] como cuando el juego es jugado entreun hombre y una mujer”,[22] se podrá argumentar que lacomputadora es inteligente.

La prueba del Juego Original de la Imitación, en la cual el juga-dor A es reemplazado con una computadora. La computadoratiene el papel de un hombre mientras el jugador B tiene el papelde auxiliar al interrogador. Figura adaptada de Saygin, 2000.

La segunda versión apareció posteriormente en el textode 1950 de Turing. Similarmente a la Prueba del Juego

Original de la Imitación, el papel del jugador A seria rea-lizado por una computadora. Sin embargo, el papel deljugador B sería realizado por un hombre y no una mujer.

“Dirijamos nuestra atención a una compu-tadora digital en específico llamada C. ¿Seráverdad que al modificar la computadora paraque esta tenga un almacenamiento que aumen-tara su velocidad de reacción apropiadamentey proporcionándole un programa apropiado, Cpodrá realizar satisfactoriamente el rol de A enel juego de la imitación con el papel de B hechopor un hombre?”[22]

En esta versión ambos, el jugador A (la computadora) yel jugador B intentarán guiar al interrogador hacia la res-puesta incorrecta.

2.2 Interpretación estándar

La comprensión general dicta que el propósito de la prue-ba de Turing no es determinar específicamente si unacomputadora podrá engañar al interrogador haciéndolecreer que este es un humano sino su capacidad de imitaral humano.[1] Aunque hay cierta disputa sobre cual inter-pretación es a la que Turing se refería, Sterret cree queera ésta[59] y por lo tanto combina la segunda versión conesta mientras que otros, como Traiger, no lo hacen[55] sinembargo, esto no ha llevado a una interpretación estándarrealmente. En esta versión el jugador A es una compu-tadora y el sexo del jugador B es indiferente. El objetivodel interrogador no es determinar cuál de ellos es hombrey cual mujer sino cual es computadora y cual humano.[60]El problema fundamental con la interpretación estándares que el interrogador no pude diferenciar cual respon-dedor es humano y cual es una máquina. Hay otros pro-blemas en cuanto a la duración pero la interpretación es-tándar generalmente considera esta limitación como algoque debería ser razonable.

2.3 Juego de la imitación vs. Prueba de Tu-ring Estándar

Se ha creado controversia sobre cuál de las fórmulas al-ternativas es la que Turing planteo.[59] Sterret argumentaque se pueden obtener dos pruebas de la lectura del textode Turing de 1950 y que, según Turing, no son equiva-lentes. Se le refiere a la prueba que consiste del juegode fiesta y compara frecuencias de éxito como la “Prue-ba del Juego de la Imitación Original” mientras que a laprueba que consiste de un juez humano conversando conun humano y una máquina se le conoce “Prueba Están-dar de Turing”, nótese que Sterret trata por igual a estacon la “interpretación estándar” en vez de tratarle comola segunda versión del juego de la imitación. Sterret con-cuerda que la Prueba Estándar de Turing (PET) tiene los

Page 6: Test de Turing

6 3 FORTALEZAS DE LA PRUEBA

problemas que sus críticas citan pero siente que, en con-traste, la Prueba del Juego de la Imitación Original (Prue-ba JIO)mostró ser inmune amuchas de estas debido a unadiferencia crucial: A diferencia de la PET, esta no hacesimilitud con el desempeño humano, aunque emplea aldesempeño humano al definir criterio para la inteligenciade la máquina. Un humano puede reprobar la Prueba deJIO pero se argumenta que esta prueba es de inteligenciay el hecho de reprobar solo indica falta de creatividad. LaPrueba JIO requiere la creatividad asociada con la inteli-gencia y no la sola “simulación del comportamiento con-versacional humano. La estructura general de la PruebaJIO puede ser usada con versiones no verbales de juegosde imitación.[61]

Otros escritores[62] escritores continúan interpretando lapropuesta de Turing como el mismo juego de la imitaciónsin especificar como tomar en cuenta la declaración deTuring de que la prueba que el propuso usando la versiónfestiva del juego de la imitación está basada en un criteriode comparación de frecuencias de éxito en el juego en vezde la capacidad de ganar en tan solo una ronda.Saygin sugirió que, probablemente, el juego originales una manera de proponer un diseño experimentalmenos parcial ya que esconde la participación de lacomputadora.[63] El juego de la imitación incluye un “tru-co social” no encontrado en la interpretación estándar, yaque en el juego a ambos, la computadora y el hombre, sele requiere que pretendan ser alguien que no son.[64]

2.4 ¿Debería saber el interrogador de lacomputadora?

Una pieza vital en cualquier prueba de laboratorio es laexistencia de un control. Turing nunca aclara si el interro-gador en sus pruebas está al tanto de que uno de los par-ticipantes es una computadora. Sin embargo, si hubierauna máquina que tuviera el potencial de pasar la pruebade Turing, sería mejor asumir que un control doble ciegoes necesario.Regresando al Juego Original de la Imitación, Turingestablece que solo el jugador A será reemplazado conuna máquina, no que el jugador C esté al tanto de estecambio.[22] Cuando Colby, FD Hilf, S Weber y AD Kra-mer examinaron a PARRY, lo hicieron asumiendo quelos interrogadores no necesitaban saber que uno o másde los interrogados era una computadora.[65] Como AyseSaygin, Peter Swirski[66] y otros han resaltado, esto haceuna gran diferencia en la implementación y el resultadode la prueba[1] Un estudio experimental examinando vio-laciones a las máximas conversacionales de Grice usan-do transcripciones de los ganadores de la prueba (interlo-cutor escondido e interrogador) uno a uno entre 1994 y1999, Ayse Saygin observó diferencias significativas en-tre las respuestas de los participante que sabían que habíacomputadoras involucradas y los que no.[67]

Huma Shah y Kevin Warwick, quienes organizaron el

Premio Loebner del 2008 en la Universidad de Readingla cual fue sede de pruebas de comparativas simultáneas(un juez y dos interlocutores escondidos), demostraronque el conocimiento sobre los interlocutores no creó unadiferencia significativa en la determinación de los jueces.A estos jueces no se les dijo explícitamente la naturalezade las parejas de interlocutores escondidos que iban a in-terrogar. Los jueces fueron capaces de diferenciar entrehumano y máquina, inclusivamente cuando estaban en-frentándose a parejas de control de dos máquinas o doshumanos infiltrados entre las parejas de máquina y hu-mano. Los errores de ortografía delataban a los humanosescondidos, las máquinas eran identificadas por su velo-cidad de respuesta y expresiones de mayor tamaño.[47]

3 Fortalezas de la prueba

3.1 Tratabilidad y simplicidad

El poder y atractivo de la prueba de Turing se deriva desu simplicidad. La filosofía de la mente, la psicología y laneurociencia moderna han sido incapaces de proporcio-nar definiciones para “inteligencia” y “pensamiento” quesean suficientemente precisas y generales como para seraplicadas a máquinas. Sin estas definiciones, las incógni-tas principales de la filosofía de la inteligencia artificialno pueden ser respondidas. La prueba de Turing, aunqueimperfecta, al menos proporciona algo que puede ser me-dido y como tal, es una solución pragmática a una difícilpregunta filosófica.

3.2 Variedad de temas

El formato de la prueba permite al interrogador darle unagran variedad de tareas intelectuales a la máquina. Tu-ring escribió que: “Los métodos de pregunta y respuestaparecen ser adecuados para introducir cualquiera de loscampos de labor humana que queramos incluir.”.[68] JohnHaugeland agregó: “la comprensión de las palabras no essuficiente, también se tiene que entender el tema.”.[69]

Para aprobar una prueba de Turing diseñada correcta-mente, la máquina debe usar lenguaje natural, razón, te-ner conocimientos y aprender. La prueba puede ser ex-tendida para incluir video como fuente de informaciónjunto con una “escotilla” por la que se pueden transferirobjetos, esto forzaría a la máquina a probar su habilidadde visión y de robótica al mismo tiempo. En conjunto re-presentan casi todos los problemas que la investigaciónde inteligencia artificial quisiera resolver.[70]

La prueba de Feigenbaum está diseñada para usar a suventaja el rango de temas disponibles para una prueba deTuring. Es una forma limitada del juego de respuesta ypregunta de Turing el cual compara a la máquina contrala habilidad de expertos en campos específicos como laliteratura y la química. LamáquinaWatson de IBM alcan-

Page 7: Test de Turing

7

zó el éxito en un show de televisión que hacia preguntas deconocimiento humano a concursantes humanos y a la má-quina por igual y al mismo tiempo llamado Jeopardy!.[71]

3.3 Énfasis en la inteligencia emocional yestética

Siendo un graduado dematemáticas con honores de Cam-bridge, se esperaba que Turing propusiera una prueba deinteligencia computacional que requiriera conocimientoexperto de algún campo altamente técnico y como resul-tado necesitaría anticipar un acercamiento diferente. Envez de eso, la prueba que describió en su texto de 1950solo requiere que la computadora sea capaz de competirexitosamente en un juego de fiestas común, con esto serefiere a que pueda compararse su desempeño con el deun humano típico al responder series de preguntas paraaparentar ser la participante femenina.Dado el estatus de dimorfismo sexual humano como unode los temas más antiguos, se tiene implícito, en el es-cenario anterior, que las preguntas realizadas no puedeninvolucrar conocimientos factuales especializados ni téc-nicos de procesamiento de información. El reto para lacomputadora será exhibir empatía por el papel de la mu-jer al igual que demostrar una característica de sensibi-lidad estética, cualidades las cuales se muestran en esteextracto imaginado por Turing:

Interrogador: ¿Podría X decirme el largo de sucabello?Participante: Mi cabello está en capas y las he-bras más largas son de aproximadamente 9 pul-gadas de largo.

Cuando Turing introduce algo de conocimiento especia-lizado a sus diálogos imaginarios, el tema no es matemá-ticas ni electrónica sino poesía:

Interrogador: En la primera línea de tu sone-to se lee: “Podré compararla con un día de ve-rano”, ¿acaso no funcionaría “un día de prima-vera” de igual o mejor manera?Testigo: No funcionaría.Interrogador: ¿Qué tal “un día de invierno”?Eso debería funcionar.Testigo: Si, pero nadie quiere ser comparadocon un día de invierno.

Turing, nuevamente, demuestra su interés en la empatía yen la sensibilidad estética como componente de la inteli-gencia artificial y en luz de una preocupación creciente deuna IA en descontrol,[72] se ha sugerido[73]que este enfo-que puede representar una intuición crítica por parte deTuring, i.e. que la inteligencia y estética jugarán un rolclave en la creación de una “IA amigable”. Sin embargo,

se ha observado que cualquiera que sea la dirección enla que Turing nos inspire, depende de la preservación desu visión original, ósea, la promulgación de una “Inter-pretación Estándar” de la prueba de Turing (i.e. una quese enfoque únicamente en la inteligencia discursiva) debeser tomada con precaución.

4 Debilidades de la prueba

Turing no afirmó explícitamente que la prueba de Turingpodía ser usada como una medida de la inteligencia, o decualquier otra cualidad humana. Él quería proporcionaruna alternativa clara y comprensible a la palabra “pensar”,que posteriormente se pudiera usar para responder antelas críticas sobre la posibilidad de “máquinas pensantes”,y sugerir formas para que la investigación siga avanzan-do. Sin embargo, se ha propuesto el uso de la prueba deTuring como una medida de la “capacidad para pensar”o de la “inteligencia” de una máquina. Esta propuesta harecibido las críticas de filósofos y científicos de la compu-tación. Esta asume que un interrogador puede determinarsi una máquina es “pensante” al comparar su comporta-miento con el de un humano. Cada elemento de esta asun-ción ha sido cuestionado: la confiabilidad del juicio delinterrogador, el valor de comparar únicamente el com-portamiento y el valor de comparar a la máquina con elhumano, es por estas asunciones y otras consideracionesque algunos investigadores de IA cuestionan la relevanciade la prueba de Turing en el campo.

4.1 Inteligencia humana vs. Inteligencia engeneral

Intelligentbehaviorhumansdon't do

Turingtest

Unintelligenthuman

behavior

Human behavior Intelligent behavior

La prueba de Turing no evalúa directamente si unacomputadora se comporta inteligentemente, solo si secomporta como un ser humano. Ya que el comportamien-to humano y un comportamiento inteligente no son exac-tamente iguales, la prueba puede errar, al medir precisa-mente la inteligencia, de dos maneras:

Ciertos comportamientos humanos no son inteligentes

Page 8: Test de Turing

8 4 DEBILIDADES DE LA PRUEBA

La prueba de Turing requiere que la máquina des-pliegue todos los comportamientos humanos, sinimportar el hecho de que sean inteligentes o no.Incluso examina en búsqueda de comportamientosque consideramos, en lo absoluto, inteligentes.Entre ellos se encuentra la susceptibilidad a insul-tos, la tentación de mentir o, simplemente, erroresde escritura. Si una máquina falla al imitar estoscomportamientos no inteligentes, reprobaría laprueba.: Esta objeción fue sacada a la luz en unapublicación en “The Economist” titulada “ArtificialStupidity” (Estupidez artificial en inglés) pocodespués de la primera competencia del Premiode Loebner en 1992. El artículo afirmaba que elganador de la competencia fue, en parte, por lahabilidad de la máquina de “imitar errores humanosde escritura.”[40] El mismo Turing sugirió que losprogramas añadieran errores a la información quetransmitían para parecer “jugadores” del juego.[[74]

Ciertos comportamientos inteligentes son inhumanos

La prueba de Turing no examina comporta-mientos altamente inteligentes como lo son lahabilidad de resolver problemas difíciles o laocurrencia de ideas originales. De hecho, re-quiere específicamente decepción por parte delinterrogador: si la máquina es más inteligenteque un humano, esta debe aparentar no ser “de-masiado” inteligente. Si resolviera un proble-ma computacional que es prácticamente impo-sible para un ser humano, el interrogador sabríaque no es humano y como resultado la compu-tadora reprobaría la prueba.

Como no se puede medir la inteligencia que es-tá más allá de la humana, la prueba no pue-de ser usada para construir o evaluar siste-mas que son más inteligentes que los huma-nos. Por esto se han propuesto varias pruebasalternativas capaces de evaluar un sistema sú-per inteligente[75]

4.2 Inteligencia real vs. Inteligencia simu-lada

La prueba de Turing evalúa única y estrictamente cómose comporta el sujeto (ósea el comportamiento externode la máquina). En cuanto a esto, se toma una perspectivaconductista o fundamentalista al estudio de la inteligen-cia. El ejemplo de ELIZA sugiere que una máquina quepase la prueba podría simular el comportamiento conver-sacional humano siguiendo una simple (pero larga) listade reglas mecánicas sin pensar o tener mente en lo abso-luto.

John Searle ha argumentado que el comportamiento ex-terno no puede ser usado para determinar si una máquinaesta “realmente” pensando o simplemente “simulando elpensamiento”.[34] Su habitación china pretende demos-trar esto, aunque la prueba de Turing sea una buena defi-nición operacional de la inteligencia, no indica si la má-quina tiene una mente, conciencia o intencionalidad. (Laintencionalidad es un término filosófico para el poder delos pensamientos de ser “sobre” algo.)Turing anticipó esta crítica en su texto original [76] escri-biendo:

No deseo dar la impresión de que no creoen el misterio de la conciencia. Hay, por ejem-plo, algo paradójico conectado a cualquier in-tento de localizarla. Pero no creo que estosmisterios necesiten ser resueltos antes de po-der responder la pregunta que tratamos en estetexto.[77]

4.3 Ingenuidad de los interrogadores y lafalacia antropomórfica.

En la práctica, los resultados de la prueba pueden ser fá-cilmente dominados, no por la inteligencia de la compu-tadora sino por, las actitudes, la habilidad o la ingenuidaddel interrogador.Turing no especifica las habilidades ni el conocimientorequeridos del integrador en la descripción de su prue-ba pero si incluyo el término “interrogador promedio”:“[el] interrogador promedio no debe tener más del 70%de oportunidad de acertar en la identificación después decinco minutos de cuestionamiento.”[45]

Shah y Warwick (2009b) demostraron que los expertosson engañados y que la estrategia, “poder” vs “solidari-dad” del interrogador influyen en la identificación con laúltima siendo más exitosa.Los bots conversacionales como ELIZA han engañado,en repetidas ocasiones, a personas en creer que se comu-nican con seres humanos. En este caso, el interrogador noestaba al tanto de la posibilidad de que su interacción fue-ra con una computadora. Para aparentar ser un humanoexitosamente, no hay necesidad de que la máquina tengainteligencia alguna, solo se necesita una similitud super-ficial al comportamiento humano.Las primeras competencias del Premio Loebner usabaninterrogadores poco sofisticados que eran fácilmente en-gañados por las máquinas.[41] . Desde el 2004, los organi-zadores del Premio Loebner han implementado filósofos,científicos de la computación y periodistas entre los inte-rrogadores. Sin embargo, algunos de estos expertos hansido engañados por las máquinas.[78]

Michael Shermer señala que los seres humanos consisten-temente consideran objetos no humanos como humanossiempre que tenga la oportunidad de hacerlo, un error lla-

Page 9: Test de Turing

9

mado “falacia antropomórfica”: hablan con sus vehículos,atribuyen deseos e intenciones a fuerzas naturales (e.g. “lanaturaleza odia el vacío”) y veneran al solo como un serhumano con inteligencia. Si la prueba de Turing se aplica-ra a objetos religiosos, entonces las estatuas inanimadas,rocas y lugares aprobarían consistentemente la prueba alo largo de la historia según Shermer.[cita requerida] Esta ten-dencia humana hacia el antropomorfismo, efectivamentereduce la exigencia a la prueba de Turing a menos que sele entrene a los interrogadores a evitarlo.

4.4 Errores en la identificación humana

Una característica interesante de la prueba de Turing esla frecuencia con la que investigadores confunden a losparticipantes humanos con máquinas.[79]Se ha sugeridoque esto es porque los investigadores buscan respuestashumanas esperadas en vez respuestas típicas. Esto resul-ta en la categorización incorrecta de algunos individuoscomo máquinas lo que puede favorecer a la máquina.

4.5 Irrelevancia e impractibilidad: Turingy la investigación de IA.

Los investigadores de IA famosos argumentan que el in-tentar pasar la prueba de Turing es una distracción de lasinvestigaciones más fructíferas.[80] La prueba no es un en-foque activo de investigación académica o de esfuerzo co-mercial, como Stuart Russel y Peter Norvig escribieron:“Los investigadores de IA han dedicado poca atención apasar la prueba de Turing”.[81] Hay varias razones paraesto.En primera, hay formas más fáciles de probar un pro-grama. La mayoría de las investigaciones en los camposrelacionados con la IA están dedicados a metas más es-pecíficas y modestas como la planificación automatiza-da, reconocimiento de objetos o logísticas. Para probarla inteligencia de los programas al realizar estas tareas,los investigadores simplemente les dan la tarea directa-mente. Russell y Norvig propusieron una analogía con lahistoria del vuelo: Los aviones son probados según su ha-bilidad para volar, no comparándolos con aves. Textos de“Ingeniería Aeronáutica” mencionan: “no se debe definirla meta del campo como máquinas voladoras que vuelantan parecidamente a las palomas que podrían engañar aestas.”.[81]

En segunda, la creación de simulaciones de humanos esun problema difícil que no necesita resolverse para cum-plir las metas básicas de la investigación de IA. Carac-teres humanos creíbles son interesantes para una obra dearte, un juego o una interfaz de usuario sofisticada perono tienen lugar en la ciencia de la creación de máquinasinteligentes que resuelven problemas con esta inteligen-cia.Turing quería proporcionar un ejemplo claro y compren-

sible para ayudar en la discusión de la filosofía de la in-teligencia artificial.[82] John McCarthy menciona que lafilosofía de IA es “poco probable que tenga más efectoen la práctica de la investigación de IA que la filosofía dela ciencia tienen en la práctica de la ciencia.”.[83]

5 Variantes de la prueba de Turing

Numerosos versiones de la prueba de Turing, incluidas lasmencionadas anteriormente, han sido debatidas a travésde los años.

5.1 Prueba de Turing en reversa y CAPT-CHA

Una modificación de la prueba de Turing donde los ob-jetivos entre las máquinas y los humanos es una pruebade Turing en reversa. Un ejemplo es empleado por el psi-coanalista Wilfren Bion,[84] quien tiene una fascinaciónparticular por la “tormenta” que resultó del encuentro deuna mente por otra. En su libro del 2000,[66] entre otrasideas originales sobre la prueba de Turing, Swirski dis-cute a detalle lo que define como la Prueba de Swirski(básicamente la prueba de Turing en reversa). El señalaque esta supera todas las objeciones comunes de la ver-sión estándar.R.D. Hinshelwood[85] continuó con el desarrollo de estaidea al describir a la mente como un “aparato para reco-nocer mentes”. El reto sería que la computadora determi-ne si está interactuando con un humano o con otra compu-tadora. Esta es una extensión de la pregunta original queTuring intentaba responder y, probablemente, ofrece unestándar lo suficientemente alto para definir que una má-quina puede “pensar” de la misma manera que nosotrosdescribimos como humana.CAPTCHA es una forma de la prueba de Turing en rever-sa. Antes de ser capaz de realizar una acción en un sitioweb, se le presenta al usuario una serie de caracteres alfa-numéricos en una imagen distorsionada y se le pide que loingrese en un campo de texto. Esto tiene como propósi-to la prevención de la entrada de sistemas automatizadoscomúnmente usados para el abuso del sitio web. La razóndetrás de esto es que el software suficientemente sofis-ticado para leer y reproducir la imagen con precisión noexiste aún (o no está disponible para el usuario promedio)por lo que cualquier sistema capaz de pasar la prueba de-be ser humano.El software capaz de solucionar CAPTCHA con preci-sión al analizar patrones en la plataforma generadora estásiendo desarrollado activamente.[86] Reconocimiento deCaracteres Ópticos o OCR (por sus siglas en inglés) seencuentra bajo en desarrollo como una solución para lainaccesibilidad de sistemas de CAPTCHA para humanoscon discapacidades.

Page 10: Test de Turing

10 6 PREDICCIONES

5.2 Pruebas de Turing Experta en la Ma-teria.

Otra variación es descrita como la variación de la Pruebade Turing Experta en la Materia en la cual no se puededistinguir entre la respuesta de una máquina de una res-puesta dada por un experto en la materia. Se le conocecomo la Prueba Feigenbaum y fue propuesta por EdwardFeigenbaum en un texto del 2003.[87]

5.3 Prueba de Turing Total

La “Prueba de Turing Total”[58] es una variación que aña-de requerimientos a la prueba tradicional. El interrogadortambién evalúa las capacidades de percepción del sujeto(requiriendo visión computacional) y la habilidad del su-jeto de manipular objetos (requiriendo robótica).[88]

5.4 Prueba de la Señal de Inteligencia Mí-nima

La Prueba de la Señal de Inteligencia Mínima fue pro-puesta por Chris McKinstry como la “abstracción máxi-ma de la prueba de Turing”,[89] en la cual solo se per-miten entradas en binario (verdadero/falso o si/no) conel objetivo de enfocarse en la capacidad de pensar. Seeliminan problemas de la conversación textual como laparcialidad antropomorfa, y no requiere la simulación decomportamientos humanos no inteligentes permitiéndolela entrada a sistemas que superan la inteligencia humana.Las preguntas no dependen de otras, sin embargo, esto essimilar a una prueba de CI que una interrogación. Típi-camente es usada para recolectar información estadísticacontra la cual se mide el rendimiento de los programas deIA.[90]

5.5 Premio Hutter

Los organizadores del Premio Hutter creen que la com-presión del lenguaje natural es un problema difícil paralas inteligencias artificiales equivalente a pasar la pruebade Turing.La prueba de compresión de información tiene ciertasventajas sobre la mayoría de las versiones de la pruebade Turing incluyendo:

• Da un único número que puede ser usado directa-mente para comparar cuál de las dos máquinas enmás inteligente.

• No requiere que la computadora le mienta al juez.

Las desventajas principales de esta prueba son:

• No es posible evaluar a los humanos de esta manera.

• Se desconoce que puntuación de esta prueba equi-vale a pasar la prueba de Turing.

5.6 Otras pruebas basadas en la compre-sión o Complejidad de Kolmogorov

Un acercamiento similar al del Premio Hutter que apa-reció mucho antes al final de la década de los 90s es lainclusión de problemas de compresión en una prueba deTuring extendida,[91] o por pruebas completamente deri-vadas de la Complejidad de Kolmogórov[92] Otras prue-bas relacionadas son presentadas por Hernandez-Orallo yDowe.[93]

CI algorítmico, o CIA, es un intento de convertir la teó-rica Medida de la Inteligencia universal de Legg y Hut-ter (basada en la indiferencia inductiva de Solomonoff)en una prueba práctica funcional de la inteligencia de lasmáquinas.[94]

Dos de las mayores ventajas de estas pruebas son su apli-cabilidad a inteligencias no humanas y la ausencia de lanecesidad de interrogadores humanos.

5.7 Prueba de Ebert

La prueba de Turing inspiró la prueba de Ebert propuestaen el 2011 por el crítico de cine Robert Ebert la cual eva-lúa si una voz sintetizada por computadora es capaz deproducir las entonaciones, inflexiones, la sincronizaciónentre otras cosas para hacer a la gente reír.[95]

6 Predicciones

Turing predijo que las máquinas pasarían la prueba even-tualmente, de hecho, el estimaba que para el año 2000,las máquinas con al menos 100 MB de almacenamien-to podrían engañar a un 30% de los jueces humanos enuna prueba de 5 minutos y que la gente no considera-ría la frase “máquina pensante” como contradictoria.[4](En la práctica, desde el 2009 al 2012, los robots con-versacionales que participaron en el Premio Loebner so-lo lograron engañar una vez a un juez[96] y esto era de-bido a que el participante humano pretendía ser un ro-bot conversacional)[97] Turing también predijo que elaprendizaje de las máquinas serían una parte esencial alconstruir máquinas poderosas, esta afirmación se consi-dera posible en la actualidad por los investigadores enIA.[45]

En un texto del 2008 enviado a la decimonovena Con-ferencia de Inteligencia Artificial y Ciencia Cognitiva delMedio Oeste, el doctor Shane T. Mueller predijo que unavariante de la prueba de Turing llamada “Decatlón Cog-nitivo” sería completada en 5 años.[98]

Al extrapolar el crecimiento exponencial de la tecnolo-

Page 11: Test de Turing

7.4 Simposio de la Prueba de Turing IASC del 2010 11

gía a lo largo de varias décadas, el futurista Ray Kurz-weil predijo que las máquinas que aprobaran la prueba deTuring serían fabricadas en el futuro próximo. En 1990,Kurzweil definió este futuro próximo alrededor del año2020,[99] para el 2005 cambió su estimado para el año2029.[100]

El proyecto “Long Bet Project Nr. 1” es una apuesta de$20,000 USD entreMitch Kapor (pesimista) y Ray Kurz-weil (optimista) sobre la posibilidad de que una máquinapase la prueba de Turing para el año 2029. Durante laprueba de Turing de Long Now, cada uno de los tres jue-ces realizara entrevistas a cada uno de los cuatro partici-pantes (i.e. la computadora y tres humanos) durante doshoras para un total de 8 horas de entrevistas. La apuestaespecifica condiciones a detalle.[101]

7 Conferencias

7.1 Coloquio de Turing

El año 1990 marcó el 40 aniversario de la primera publi-cación del texto de Turing “Computing Machinery andIntelligence” por lo que se reavivó el interés en este. Doseventos importantes se llevaron a cabo ese año, el primerofue el Coloquio de Turing con sede en la Universidad deSussex en abril, este reunió a académicos e investigadoresde disciplinas diferentes para discutir sobre la Prueba deTuring en cuanto a su pasado, presente y futuro; el segun-do evento fue la competencia anual del Premio Loebner.Blay Whitby en listo 4 puntos clave en la historia de laprueba de Turing siendo esto: la publicación de “Compu-ting Machinery and Intelligence” en 1950, el anuncio deELIZA en 1966 por Joseph Weizenbaum, la creación dePARRY por Kenneth Colby y el Coloquio de Turing de1990.[102]

7.2 Coloquio de Sistemas Conversaciona-les del 2005

En noviembre del 2005, la Universidad de Surrey fue se-de de una junta de desarrolladores de entidades conversa-cionales artificiales[103] a la que atendieron los ganadoresdel Premio Loebner: Robby Garner, Richard Wallace yRollo Carpenter. Oradores invitados incluyeron a DavidHamill, Hugh Loebner (patrocinador del Premio Loeb-ner) Huma Shah.

7.3 Simposio de la Prueba de Turing IASCdel 2008

En paralelo con el Premio Loebner del 2008 con sede enla Universidad deReading[104] la Sociedad para el Estudiode la Inteligencia Artificial y la Simulación del Compor-tamiento (IASC) fueron anfitriones de un simposio dedi-

cado a discutir la Prueba de Turing, fue organizado porJohn Barnden, Mark Bishop, Huma Shah y Kevin War-wick[105] Los oradores incluían al director de la Institu-ción Real Susan Greenfield, Selmer Bringsjord, AndrewHodges (biógrafo de Turing) y Owen Holland (científi-co de la conciencia). No se llegó a un acuerdo para unaprueba de Turing canónica pero Bringsjord señalo que unpremio mayor resultaría en la aprobación de la prueba deTuring más rápidamente.

7.4 Simposio de la Prueba de Turing IASCdel 2010

60 años después de su introducción, el debate sobre elexperimento de Turing sobre si “¿Pueden las máquinaspensar?” llevó a su reconsideración para la Convenciónde AISB del Siglo XXI, llevada a cabo del 29 de Mar-zo al 1 de abril del 2010 en la Universidad De Month-fort, Reino unido. La IASC es la Sociedad para el Es-tudio de la Inteligencia Artificial y la Simulación delComportamiento.[106]

7.5 El Año de Turing y Turing100 en el2012

A lo largo del 2012, una cantidad considerable de eventospara celebrar la vida de Turing y su impacto científico sellevaron a cabo. El grupo Turing100 apoyó estos eventosy organizó una prueba de Turing especial en BletchleyPark el 23 de junio del 2012 para celebrar el aniversarionúmero 100 del natalicio de Turing.

7.6 Simposio de la Prueba de TuringIASC/IACAP del 2012

Las ultimas discusiones sobre la Prueba de Turing enun simposio con 11 oradores, organizada por Vincent C.Müller (ACT y Oxford) y Aladdin Ayeshm (De Mont-fort) con Mark Bishop, John Barnden, Alessio Piebe yPietro Perconti.

8 Notas[1] Saygin, 2000.

[2] Turing originally suggested a teleprinter, one of thefew text-only communication systems available in 1950.(Turing, 1950, p. 433)

[3] http://www.turing.org.uk/scrapbook/test.html

[4] Turing, 1950, p. 433.

[5] (Turing, 1950, p. 442) Turing does not call his idea “Tu-ring test”, but rather the “Imitation Game"; however, later

Page 12: Test de Turing

12 8 NOTAS

literature has reserved the term “Imitation game” to des-cribe a particular version of the test. See #Versions of theTuring test, below. Turing gives a more precise version ofthe question later in the paper: "[T]hese questions [are]equivalent to this, 'Let us fix our attention on one parti-cular digital computer C. Is it true that by modifying thiscomputer to have an adequate storage, suitably increasingits speed of action, and providing it with an appropriateprogramme, C can be made to play satisfactorily the partof A in the imitation game, the part of B being taken by aman?'" (Turing, 1950, p. 442)

[6] Turing, 1950, pp. 442–454 and see Russell y Norvig(2003, p. 948), where they comment, “Turing examineda wide variety of possible objections to the possibility ofintelligent machines, including virtually all of those thathave been raised in the half century since his paper ap-peared.”

[7] Russell y Norvig, 2003, pp. 2–3 and 948.

[8] Descartes, René (1996). Discourse on Method and Medi-tations on First Philosophy. New Haven & London: YaleUniversity Press. pp. 34–5. ISBN 0300067720.

[9] Diderot, D. (2007), Pensees Philosophiques, Addition auxPensees Philosophiques, [Flammarion], p. 68, ISBN 978-2-0807-1249-3

[10] For an example of property dualism, see Qualia.

[11] Noting that materialism does not necessitate the possibilityof artificial minds (for example, Roger Penrose), any mo-re than dualism necessarily precludes the possibility. (See,for example, Property dualism.)

[12] Ayer, A. J. (2001), «Language, Truth and Logic», Nature(Penguin) 138 (3498): 140, doi:10.1038/138823a0, ISBN0-334-04122-8, Bibcode: 1936Natur.138..823G

[13] The Dartmouth conferences of 1956 are widely conside-red the “birth of AI”. (Crevier, 1993, p. 49)

[14] McCorduck, 2004, p. 95.

[15] Copeland, 2003, p. 1.

[16] Copeland, 2003, p. 2.

[17] “Intelligent Machinery” (1948) was not published by Tu-ring, and did not see publication until 1968 in:

• Evans, A. D. J.; Robertson (1968), Cybernetics: KeyPapers, University Park Press

[18] Turing, 1948, p. 412.

[19] In 1948, working with his former undergraduate collea-gue, DG Champernowne, Turing began writing a chessprogram for a computer that did not yet exist and, in 1952,lacking a computer powerful enough to execute the pro-gram, played a game in which he simulated it, taking abouthalf an hour over each move. The game was recorded, andthe program lost to Turing’s colleague Alick Glennie, alt-hough it is said that it won a game against Champernow-ne’s wife.

[20] Turing, 1948, p. .

[21] Harnad, 2004, p. 1.

[22] Turing, 1950, p. 434.

[23] Shah, 2010.

[24] Turing, 1950, p. 446.

[25] Turing, 1952, pp. 524–525. Turing does not seem to dis-tinguish between “man” as a gender and “man” as a hu-man. In the former case, this formulation would be closerto the Imitation Game, whereas in the latter it would becloser to current depictions of the test.

[26] Weizenbaum, 1966, p. 37.

[27] Weizenbaum, 1966, p. 42.

[28] Thomas, 1995, p. 112.

[29] Bowden, 2006, p. 370.

[30] Colby et al., 1972, p. 42.

[31] Saygin, 2000, p. 501.

[32] Withers, Steven (11 December 2007),«Flirty Bot Passes for Human», iTWire,http://www.itwire.com/your-it-news/home-it/15748-flirty-bot-passes-for-human

[33] Williams, Ian (10 December 2007), «OnlineLove Seerkers Warned Flirt Bots», V3,http://www.v3.co.uk/vnunet/news/2205441/online-love-seekers-warned-flirt-bots

[34] Searle, 1980.

[35] There are a large number of arguments against Searle’sChinese room. A few are:

• Hauser, Larry (1997), «Searle’s ChineseBox: Debunking the Chinese Room Argu-ment», Minds and Machines 7 (2): 199–226,doi:10.1023/A:1008255830248.

• Rehman, Warren. (2009 Jul 19.), Argumentagainst the Chinese Room Argument,http://knol.google.com/k/warren-rehman/argument-against-the-chinese-room/19dflpeo1gadq/2.

• Thornley, David H. (1997),Why the Chinese RoomDoesn't Work, http://www.visi.com/~{}thornley/david/philosophy/searle.html

[36] M. Bishop & J. Preston (eds.) (2001) Essays on Searle’sChinese Room Argument. Oxford University Press.

[37] Saygin, 2000, p. 479.

[38] Sundman, 2003.

[39] Loebner, 1994.

[40] “Artificial Stupidity”, 1992.

[41] Shapiro, 1992 and Shieber, 1994, amongst others.

[42] Shieber, 1994.

[43] Jabberwacky is discussed in Shah y Warwick, 2009a.

Page 13: Test de Turing

13

[44] Plantilla:Scientific American Frontiers

[45] Turing, 1950, p. 442.

[46] Shah, 2009.

[47] 2008 Loebner Prize.

• Shah y Warwick (2010).• Results and report can be found in: «Can amachine think? – results from the 18th Loeb-ner Prize contest», University of Reading,http://www.rdg.ac.uk/research/Highlights-News/featuresnews/res-featureloebner.asp.

• Transcripts can be found at «Loebner Prize»,Loebner.net, http://www.loebner.net/Prizef/loebner-prize.html, consultado el 29 March 2009

[48] «Rules for the 20th Loebner Prize contest», Loebner.net,http://loebner.net/Prizef/2010_Contest/Loebner_Prize_Rules_2010.html

[49] «Computer passes Turing Test for first time by convincingjudges it is a 13-year-old boy». The Verge. Consultado el8 June 2014.

[50] «Turing Test success marks milestone in computing his-tory». University of Reading. Consultado el 8 June 2014.

[51] http://www.washingtonpost.com/news/morning-mix/wp/2014/06/09/a-computer-just-passed-the-turing-test-in-landmark-trial/

[52] http://www.pcworld.com/article/2361220/computer-said-to-pass-turing-test-by-posing-as-a-teenager.html

[53] Debunking Eugene: Montreal cognitive scientist doubtsUK university’s Turing test claim CBC Canada “As ItHappens” June 10, 2014

[54] AdamMann (9 June 2014). «That Computer Actually Gotan F on the Turing Test». Wired. Consultado el 9 June2014.

[55] Traiger, 2000.

[56] Saygin, 2008.

[57] Shah, 2011.

[58] Oppy, Graham & Dowe, David (2011) The Turing Test.Stanford Encyclopedia of Philosophy.

[59] Moor, 2003.

[60] Traiger, 2000, p. 99.

[61] Sterrett, 2000.

[62] Genova, 1994, Hayes y Ford, 1995, Heil, 1998, Dreyfus,1979

[63] R.Epstein, G. Roberts, G. Poland, (eds.) Parsing the Tu-ring Test: Philosophical and Methodological Issues in theQuest for the Thinking Computer. Springer: Dordrecht,Netherlands

[64] Thompson, Clive (July 2005). «The Other Turing Test».Issue 13.07 (WIRED magazine). Consultado el 10 Sep-tember 2011. «As a gay man who spent nearly his wholelife in the closet, Turing must have been keenly aware ofthe social difficulty of constantly faking your real identity.And there’s a delicious irony in the fact that decades of AIscientists have chosen to ignore Turing’s gender-twistingtest – only to have it seized upon by three college-age wo-men».. (Full version).

[65] Colby et al., 1972.

[66] Swirski, 2000.

[67] Saygin y Cicekli, 2002.

[68] Turing, 1950, under “Critique of the New Problem”.

[69] Haugeland, 1985, p. 8.

[70] “These six disciplines,” write Stuart J. Russell and PeterNorvig, “represent most of AI.” Russell y Norvig, 2003,p. 3

[71] Watson:

• «Watson Wins 'Jeopardy!' The IBM Challenge»,Sony Pictures, 16 February 2011, http://jeopardy.com/news/IBMchallenge.php

• Shah, Huma (5 April 2011), Turing’s misunders-tood imitation game and IBM’s Watson success,http://www.academia.edu/474617/Turing_s_misunderstood_imitation_game_and_IBM_s_Watson_success

[72] Urban, Tim (February 2015). «The AI Revolution: OurImmortality or Extinction». Wait But Why. Consultado elApril 5, 2015.

[73] Smith, G. W. (March 27, 2015). «Art and Artificial Inte-lligence». ArtEnt. Consultado el March 27, 2015.

[74] Turing, 1950, p. 448.

[75] Several alternatives to the Turing test, designed to evaluatemachines more intelligent than humans:

• Jose Hernandez-Orallo (2000), «Beyond the TuringTest», Journal of Logic, Language and Information9 (4): 447–466, doi:10.1023/A:1008367325700,http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.44.8943, consultado el 21 July 2009.

• D L Dowe and A R Hajek (1997), «A compu-tational extension to the Turing Test», Proceedingsof the 4th Conference of the Australasian Cogniti-ve Science Society, http://www.csse.monash.edu.au/publications/1997/tr-cs97-322-abs.html, consulta-do el 21 July 2009.

• Shane Legg and Marcus Hutter (2007), «UniversalIntelligence: A Definition of Machine Intelligence»(PDF), Minds and Machines 17 (4): 391–444,doi:10.1007/s11023-007-9079-x, http://www.vetta.org/documents/UniversalIntelligence.pdf,consultado el 21 July 2009.

Page 14: Test de Turing

14 9 REFERENCIAS.

• Hernandez-Orallo, J; Dowe, D L (2010),«Measuring Universal Intelligence: Towardsan Anytime Intelligence Test», ArtificialIntelligence Journal 174 (18): 1508–1539,doi:10.1016/j.artint.2010.09.006.

[76] Russell y Norvig (2003, pp. 958–960) identify Searle’s ar-gument with the one Turing answers.

[77] Turing, 1950.

[78] Shah y Warwick, 2010.

[79] Warwick,K. and Shah,H., “Human Misidentification inTuring Tests”, Journal of Experimental and Theoreti-cal Artificial Intelligence, DOI:10.1080/0952813X.2014.921734, 2014

[80] Shieber, 1994, p. 77.

[81] Russell y Norvig, 2003, p. 3.

[82] Turing, 1950, under the heading “The Imitation Game,”where he writes, “Instead of attempting such a definitionI shall replace the question by another, which is closelyrelated to it and is expressed in relatively unambiguouswords.”

[83] McCarthy, John (1996), «The Philosophy of ArtificialIntelligence», What has AI in Common with Philosophy?,http://www-formal.stanford.edu/jmc/aiphil/node2.html#SECTION00020000000000000000

[84] Bion, 1979.

[85] Hinshelwood, 2001.

[86] Malik, Jitendra; Mori, Greg, Breaking a Visual CAPT-CHA, http://www.cs.sfu.ca/~{}mori/research/gimpy/

[87] McCorduck, 2004, pp. 503–505, Feigenbaum, 2003. Thesubject matter expert test is also mentioned in Kurzweil(2005)

[88] Russell y Norvig, 2010, p. 3.

[89] http://tech.groups.yahoo.com/group/arcondev/message/337

[90] McKinstry, Chris (1997), «Minimum Intelligent Sig-nal Test: An Alternative Turing Test», Canadian Arti-ficial Intelligence (41), http://hps.elte.hu/~{}gk/Loebner/kcm9512.htm

[91] D L Dowe and A R Hajek (1997), «A computatio-nal extension to the Turing Test», Proceedings of the4th Conference of the Australasian Cognitive Science So-ciety, http://www.csse.monash.edu.au/publications/1997/tr-cs97-322-abs.html, consultado el 21 July 2009.

[92] Jose Hernandez-Orallo (2000), «Beyond the TuringTest», Journal of Logic, Language and Information9 (4): 447–466, doi:10.1023/A:1008367325700,http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.44.8943, consultado el 21 July 2009.

[93] Hernandez-Orallo y Dowe, 2010.

[94] An Approximation of the Universal Intelligence Measure,Shane Legg and Joel Veness, 2011 Solomonoff MemorialConference

[95] Alex_Pasternack (18 April 2011). «AMacBookMay Ha-ve Given Roger Ebert His Voice, But An iPod Saved HisLife (Video)».Motherboard. Consultado el 12 September2011. «He calls it the “Ebert Test,” after Turing’s AI stan-dard...»

[96] http://www.loebner.net/Prizef/loebner-prize.html

[97] http://www.newscientist.com/article/dn19643-prizewinning-chatbot-steers-the-conversation.html

[98] Shane T. Mueller, PhD (2008), «Is the Turing TestStill Relevant? A Plan for Developing the Cogni-tive Decathlon to Test Intelligent Embodied Beha-vior», Paper submitted to the 19th Midwest Arti-ficial Intelligence and Cognitive Science Conference:8pp, http://www.dod.mil/pubs/foi/darpa/08_F_0799Is_the_Turing_test_Still_Relevant.pdf, consultado el 8 Sep-tember 2010

[99] Kurzweil, 1990.

[100] Kurzweil, 2005.

[101] Kapor, Mitchell; Kurzweil, Ray, «By 2029 no computer– or “machine intelligence” – will have passed the TuringTest», The Arena for Accountable Predictions: A Long Bet,http://www.longbets.org/1#terms

[102] Whitby, 1996, p. 53.

[103] ALICE Anniversary and Colloquium on Conversation,A.L.I.C.E. Artificial Intelligence Foundation, http://www.alicebot.org/bbbbbbb.html, consultado el 29 March 2009

[104] Loebner Prize 2008, University of Reading, http://www.reading.ac.uk/cirg/loebner/cirg-loebner-main.asp,consultado el 29 March 2009

[105] AISB 2008 Symposium on the Turing Test, Society forthe Study of Artificial Intelligence and the Simulationof Behaviour, http://www.aisb.org.uk/events/turingevent.shtml, consultado el 29 March 2009

[106] Towards a Comprehensive Intelligence Test (TCIT):Reconsidering the Turing Test for the 21st CenturySymposium, http://www.cse.dmu.ac.uk/~{}aayesh/TuringTestRevisited/Welcome.html

9 Referencias.• «Artificial Stupidity», The Economist 324 (7770):14, 1 September 1992

• Bion, W.S. (1979), «Making the best of a bad job»,Clinical Seminars and Four Papers, Abingdon: Fleet-wood Press.

• Bowden, Margaret A. (2006), Mind As Machine:A History of Cognitive Science, Oxford UniversityPress, ISBN 978-0-19-924144-6

Page 15: Test de Turing

15

• Colby, K. M.; Hilf, F. D.; Weber, S.; Kraemer,H. (1972), «Turing-like indistinguishability tests forthe validation of a computer simulation of para-noid processes», Artificial Intelligence 3: 199–221,doi:10.1016/0004-3702(72)90049-5

• Copeland, Jack (2003), Moor, James, ed., «The Tu-ring Test», The Turing Test: The Elusive Standard ofArtificial Intelligence (Springer), ISBN 1-4020-1205-5

• Crevier, Daniel (1993), AI: The Tumultuous Searchfor Artificial Intelligence, New York, NY: Basic-Books, ISBN 0-465-02997-3

• Dreyfus, Hubert (1979),What Computers Still Can'tDo, New York: MIT Press, ISBN 0-06-090613-8

• Feigenbaum, Edward A. (2003), «Some challen-ges and grand challenges for computational in-telligence», Journal of the ACM 50 (1): 32–40,doi:10.1145/602382.602400

• Genova, J. (1994), «Turing’s Sexual GuessingGame», Social Epistemology 8 (4): 314–326,doi:10.1080/02691729408578758

• Harnad, Stevan (2004), «The Annotation Game: OnTuring (1950) on Computing, Machinery, and In-telligence», en Epstein, Robert; Peters, Grace, TheTuring Test Sourcebook: Philosophical andMethodo-logical Issues in the Quest for the Thinking Computer,Klewer, http://cogprints.org/3322/

• Haugeland, John (1985), Artificial Intelligence: TheVery Idea, Cambridge, Mass.: MIT Press.

• Hayes, Patrick; Ford, Kenneth (1995), «Turing TestConsidered Harmful», Proceedings of the FourteenthInternational Joint Conference on Artificial Inte-lligence (IJCAI95-1), Montreal, Quebec, Canada.:972–997

• Heil, John (1998), Philosophy ofMind: A Contempo-rary Introduction, London and New York: Routled-ge, ISBN 0-415-13060-3

• Hinshelwood, R.D. (2001), Group Mentality andHaving a Mind: Reflections on Bion’s work on groupsand on psychosis

• Kurzweil, Ray (1990), The Age of Intelligent Ma-chines, Cambridge, Mass.: MIT Press, ISBN 0-262-61079-5

• Kurzweil, Ray (2005), The Singularity is Near, Pen-guin Books, ISBN 0-670-03384-7

• Loebner, Hugh Gene (1994), «In res-ponse», Communications of the ACM 37(6): 79–82, doi:10.1145/175208.175218,http://loebner.net/Prizef/In-response.html, consul-tado el 22 March 2008

• Plantilla:McCorduck 2004

• Moor, James, ed. (2003), The Turing Test: The Elu-sive Standard of Artificial Intelligence, Dordrecht:Kluwer Academic Publishers, ISBN 1-4020-1205-5

• Penrose, Roger (1989), The Emperor’s New Mind:Concerning Computers, Minds, and The Laws ofPhysics, Oxford University Press, ISBN 0-14-014534-6

• Plantilla:Cite AIMA

• Russell, Stuart J.; Norvig, Peter (2010),Artificial In-telligence: A Modern Approach (3rd edición), UpperSaddle River, NJ: Prentice Hall, ISBN 0-13-604259-7

• Saygin, A. P.; Cicekli, I.; Akman, V. (2000),«Turing Test: 50 Years Later», Minds and Machi-nes 10 (4): 463–518, doi:10.1023/A:1011288000451,http://crl.ucsd.edu/~{}saygin/papers/MMTT.pdf.Reprinted in Moor (2003, pp. 23–78).

• Saygin, A. P.; Cicekli, I. (2002), «Pragmaticsin human-computer conversation», Journal ofPragmatics 34 (3): 227–258, doi:10.1016/S0378-2166(02)80001-7.

• Saygin, A.P.; Roberts, Gary; Beber, Grace (2008),Comments on “Computing Machinery and Intelligen-ce” by Alan Turing., en Epstein, R.; Roberts, G.;Poland, G., «Parsing the Turing Test», Parsing theTuring Test: Philosophical and Methodological Is-sues in the Quest for the Thinking Computer (Dor-drecht, Netherlands: Springer), doi:10.1007/978-1-4020-6710-5, ISBN 978-1-4020-9624-2, Bibcode:2009pttt.book.....E

• Searle, John (1980), «Minds, Brains and Programs»,Behavioral and Brain Sciences 3 (3): 417–457,doi:10.1017/S0140525X00005756, http://members.aol.com/NeoNoetics/MindsBrainsPrograms.html.Page numbers above refer to a standard pdf print ofthe article. See also Searle’s original draft.

• Shah, Huma (15 January 2009), Winner of 2008Loebner Prize for Artificial Intelligence, Conversa-tion, Deception and Intelligence, http://humashah.blogspot.com/, consultado el 29 March 2009.

• Shah, Huma (October 2010), Deception-detectionand machine intelligence in practical Turing tests,http://reading.academia.edu/HumaShah/Papers/394522/Deception-detection_and_machine_intelligence_in_practical_Turing_tests

• Shah, Huma (2011), Turing’s MisunderstoodImitation Game and IBM’s Watson Success,http://reading.academia.edu/HumaShah/Papers/464364/Turings_misunderstood_imitation_game_and_IBMs_Watson_success

Page 16: Test de Turing

16 11 ENLACES EXTERNOS

• Shah, Huma;Warwick, Kevin (2009a), «Emotion inthe Turing Test: ADownward Trend forMachines inRecent Loebner Prizes», en Vallverdú, Jordi; Casa-cuberta, David, Handbook of Research on SyntheticEmotions and Sociable Robotics: New Applications inAffective Computing and Artificial Intelligence, In-formation Science, IGI, ISBN 978-1-60566-354-8

• Shah, Huma; Warwick, Kevin (June 2010), «Hid-den Interlocutor Misidentification in Practical Tu-ring Tests», Minds and Machines 20 (3): 441–454,doi:10.1007/s11023-010-9219-6

• Shah, Huma; Warwick, Kevin (April 2010),«Testing Turing’s Five Minutes Parallel-pairedImitation Game», Kybernetes Turing Test SpecialIssue 4 (3): 449, doi:10.1108/03684921011036178,http://www.emeraldinsight.com/journals.htm?issn=0368-492x&volume=39&issue=3&articleid=1858548&show=abstract&PHPSESSID=mfm6a9jiv5c5no5a925gn2q701

• Shapiro, Stuart C. (1992), «The Turing Test andthe economist», ACM SIGART Bulletin 3 (4): 10–11,doi:10.1145/141420.141423

• Shieber, Stuart M. (1994), «Lessons from aRestricted Turing Test», Communications of theACM 37 (6): 70–78, doi:10.1145/175208.175217,http://www.eecs.harvard.edu/shieber/Biblio/Papers/loebner-rev-html/loebner-rev-html.html,consultado el 25 March 2008

• Sterrett, S. G. (2000), «Turing’s Two Test ofIntelligence», Minds and Machines 10 (4): 541,doi:10.1023/A:1011242120015 (reprinted in The Tu-ring Test: The Elusive Standard of Artificial Intelli-gence edited by James H. Moor, Kluwer Academic2003) ISBN 1-4020-1205-5

• Sundman, John (26 February 2003), «Artificial stu-pidity», Salon.com, http://dir.salon.com/story/tech/feature/2003/02/26/loebner_part_one/index.html,consultado el 22 March 2008

• Thomas, Peter J. (1995), The Social and Interac-tional Dimensions of Human-Computer Interfaces,Cambridge University Press, ISBN 0-521-45302-X

• Swirski, Peter (2000), Between Literature and Scien-ce: Poe, Lem, and Explorations in Aesthetics, Cog-nitive Science, and Literary Knowledge, McGill-Queen’s University Press, ISBN 0-7735-2078-3

• Traiger, Saul (2000), «Making the Right Identifica-tion in the Turing Test»,Minds andMachines 10 (4):561, doi:10.1023/A:1011254505902 (reprinted in TheTuring Test: The Elusive Standard of Artificial In-telligence edited by James H. Moor, Kluwer Acade-mic 2003) ISBN 1-4020-1205-5

• Turing, Alan (1948), «Machine Intelligence», enCopeland, B. Jack, The Essential Turing: The ideasthat gave birth to the computer age, Oxford: OxfordUniversity Press, ISBN 0-19-825080-0

• Plantilla:Turing 1950

• Turing, Alan (1952), «Can Automatic CalculatingMachines be Said to Think?», en Copeland, B. Jack,The Essential Turing: The ideas that gave birth tothe computer age, Oxford: Oxford University Press,ISBN 0-19-825080-0

• Zylberberg, A.; Calot, E. (2007), «Optimizing Liesin State Oriented Domains based on Genetic Al-gorithms», Proceedings VI Ibero-American Sympo-sium on Software Engineering: 11–18, ISBN 978-9972-2885-1-7

• Weizenbaum, Joseph (January 1966), «ELIZA – AComputer Program For the Study of Natural Lan-guage Communication Between Man And Machi-ne», Communications of the ACM 9 (1): 36–45,doi:10.1145/365153.365168

• Whitby, Blay (1996), «The Turing Test: AI’s BiggestBlind Alley?», en Millican, Peter & Clark, Andy,Machines and Thought: The Legacy of Alan Turing,1, Oxford University Press, pp. 53–62, ISBN 0-19-823876-2

10 Otras lecturas• Cohen, Paul R. (2006), «'If Not Turing’sTest, Then What?», AI Magazine 26 (4),http://www.cs.arizona.edu/~{}cohen/Publications/papers/IfNotWhat.pdf.

• Moor, James H. (2001), «The Status and Future ofthe Turing Test», Minds and Machines 11 (1): 77–93, doi:10.1023/A:1011218925467, ISSN 09246495,http://portal.acm.org/citation.cfm?id=596908.

11 Enlaces externos

• Wikimedia Commons alberga contenido multi-media sobre Test de Turing. Commons

• Turing Test Page

• The Turing Test – an Opera by Julian Wagstaff

• Test de Turing en Open Directory Project.

• The Turing Test- How accurate could the turing testreally be?

• The Turing test en la Stanford Encyclopedia of Phi-losophy.

Page 17: Test de Turing

17

• Turing Test: 50 Years Later reviews a half-centuryof work on the Turing Test, from the vantage pointof 2000.

• Bet between Kapor and Kurzweil, including detailedjustifications of their respective positions.

• Why The Turing Test is AI’s Biggest Blind Alley byBlay Witby

• TuringHub.com Take the Turing Test, live, online

• Jabberwacky.com An AI chatterbot that learns fromand imitates humans

• NewYork Times essays onmachine intelligence part1 and part 2

• Computer Science Unplugged teaching activity forthe Turing Test.

• Wiki News: "Talk:Computer professionals celebrate10th birthday of A.L.I.C.E.”

• Computing Machinery and intelligence Artículooriginal de Turing (1950) en la revista Mind

• ¿Qué es un CAPTCHA? Origen y uso. Vídeo queexplica qué es un captcha y su relación con el test deTuring

• Test de Turing y Conciencia Artificial. Vídeo sobreel test de Turing y su relación con la conciencia.

• Un ordenador pasa por primera vez el test de Turingy convence a los jueces de que es humano, diarioABC, 10 de junio de 2014.

Page 18: Test de Turing

18 12 ORIGEN DEL TEXTO Y LAS IMÁGENES, COLABORADORES Y LICENCIAS

12 Origen del texto y las imágenes, colaboradores y licencias

12.1 Texto• Test de Turing Fuente: https://es.wikipedia.org/wiki/Test_de_Turing?oldid=85809468 Colaboradores: Brion VIBBER, Psicobyte, Jpei-nado, Oblongo, Sabbut, Moriel, Pieter, ManuelGR, Zwobot, Ascánder, Sms, Wmagudelo, Quintanar, LeonardoRob0t, Emijrp, Rembiapopohyiete (bot), Caiser, Magister Mathematicae, Dem, RobotQuistnix, Palica, Caiserbot, Sancebau, Yrbot, Oscar ., FlaBot, YurikBot, Icvav,GermanX, KnightRider, Eskimbot, Maldoror, Cheveri, Chlewbot, Tomatejc, Fer31416, CEM-bot, JMCC1, Davius, Montgomery, RobertoFiadone, Felixgomez18, Gusgus, PabloGN, JAnDbot, El Loco De La Gabardina, TXiKiBoT, Humberto, Rei-bot, Idioma-bot, VolkovBot,Matdrodes, Lucien leGrey, Muro Bot, YonaBot, SieBot, Ensada, Loveless, Mcartney, Relleu, Mrfoxtalbot, DragonBot, Farisori, Leon-polanco, Kadellar, AVBOT, Jorge.maturana, Luckas-bot, Ptbotgourou, Hostbalear, Joarsolo, SuperBraulio13, Xqbot, Jkbw, MAfotBOT,Halfdrag, AnselmiJuan, PatruBOT, Foundling, EmausBot, Grillitus, Rubpe19, Mjbmrbot, MerlIwBot, JABO, Vichock, Makecat-bot, Add-bot, Stee 16, ImanolAbad, Jarould, Luis Enrique Moreno, RicardoRST, Lectorina, Zeleste73, Juanmartingg y Anónimos: 91

12.2 Imágenes• Archivo:Commons-logo.svg Fuente: https://upload.wikimedia.org/wikipedia/commons/4/4a/Commons-logo.svg Licencia: Public do-main Colaboradores: This version created by Pumbaa, using a proper partial circle and SVG geometry features. (Former versions usedto be slightly warped.) Artista original: SVG version was created by User:Grunt and cleaned up by 3247, based on the earlier PNG version,created by Reidab.

• Archivo:The_Imitation_Game.png Fuente: https://upload.wikimedia.org/wikipedia/commons/6/66/The_Imitation_Game.png Licen-cia: Public domain Colaboradores: Trabajo propio Artista original: Bilby

• Archivo:Turing_Test_Version_1.png Fuente: https://upload.wikimedia.org/wikipedia/commons/d/d2/Turing_Test_Version_1.png Li-cencia: Public domain Colaboradores: Trabajo propio Artista original: Bilby

• Archivo:Turing_Test_version_3.png Fuente: https://upload.wikimedia.org/wikipedia/commons/e/e4/Turing_Test_version_3.png Li-cencia: Public domain Colaboradores: Trabajo propio Artista original: Bilby

• Archivo:Weakness_of_Turing_test_1.svg Fuente: https://upload.wikimedia.org/wikipedia/commons/5/57/Weakness_of_Turing_test_1.svg Licencia: Public domain Colaboradores: en:Image:Weakness of Turing test 1.jpg Artista original: en:User:CharlesGillingham, User:Stannered

12.3 Licencia del contenido• Creative Commons Attribution-Share Alike 3.0