maquinaria computacional e inteligencia alan turing, 1950 1. el

22
Maquinaria computacional e Inteligencia Alan Turing, 1950 Traductor: Cristóbal Fuentes Barassi, 2010, Universidad de Chile. 1. El juego de la imitación. Propongo considerar la siguiente pregunta: “¿Pueden pensar las máquinas?”. Se debiera co- menzar definiendo el significado de los términos ‘máquina’ y ‘pensar’. Estas definiciones deberían ser elaboradas de manera tal que reflejen lo me- jor posible el uso normal de estas palabras, pe- ro una actitud así es peligrosa. Si el significado de las palabras ‘máquina’ y ‘pensar’ proviene del escrutinio de cómo son usadas comúnmente, se hace difícil escapar de la conclusión de que el sig- nificado y respuesta a la pregunta “¿pueden las máquinas pensar?” debiera ser buscado en una encuesta estadística, tal como la encuesta Ga- llup. Pero eso es absurdo. En vez de intentar una definición así, propondré reemplazar esa pregun- ta por otra, la cual se encuentra estrechamente relacionada y que se puede expresar en palabras relativamente poco ambiguas. La nueva forma del problema puede ser descrita en términos de un juego, el cual llamaremos “el juego de la imitación”. Se juega con 3 personas, un hombre (A), una mujer (B), y un interrogador (C) de cualquier sexo. El interrogador se encuen- tra en una habitación distinta a la de los otros dos participantes. El objetivo del juego para el inte- rrogador es determinar cuál de los participantes es el hombre y cuál es la mujer. Él los identifica con las etiquetas X y Y, y al final del juego él dice si “X es A y Y es B”, o “X es B e Y es A”. Al interrogador se le permite hacer preguntas tanto a A como B del tipo: C: X, ¿Sería tan amable de decirme el largo su cabello? Ahora, suponga que X es de hecho A, por lo que A debe responder. El objetivo de A en el juego es tratar de que C haga una identificación falsa. Por lo que su respuesta podría ser: “Mi pelo está cortado en capas, y los mechones más largos tienen unos 20 centímetros”. Para que los tonos de voz no ayuden al interro- gador, las respuestas deben ser escritas, o mejor aún, tecleadas. Las condiciones ideales deberían incluir un teletipo que comunique ambas habi- taciones. De manera opcional, las preguntas y respuestas podrían ser repetidas por un interme- diario. El objetivo de B en el juego es ayudar al interrogador. Probablemente, la mejor estrategia para ella sea dar respuestas verdaderas. Ella pue- de incluir en sus respuestas cosas tales como “Yo soy la mujer, ¡no lo escuches!”, pero aquello no garantizaría nada ya que el hombre podría decir cosas similares. Ahora hacemos la pregunta: “¿qué pasaría si una máquina asume el rol de A en este juego?” ¿Dis- criminaría equivocadamente el interrogador con la misma frecuencia con la que lo hace cuando el juego se juega con un hombre y una mujer? Estas preguntas reemplazan la pregunta original “¿pueden las máquinas pensar?”. 2. Crítica del nuevo problema. Así como es posible preguntar “¿cuál es la res- puesta para esta nueva pregunta?”, uno podría preguntar “¿vale la pena investigar esta nueva 1

Upload: duongtruc

Post on 31-Dec-2016

383 views

Category:

Documents


25 download

TRANSCRIPT

Page 1: Maquinaria computacional e Inteligencia Alan Turing, 1950 1. El

Maquinaria computacional eInteligencia

Alan Turing, 1950Traductor: Cristóbal Fuentes Barassi, 2010,

Universidad de Chile.

1. El juego de la imitación.

Propongo considerar la siguiente pregunta:“¿Pueden pensar las máquinas?”. Se debiera co-menzar definiendo el significado de los términos‘máquina’ y ‘pensar’. Estas definiciones deberíanser elaboradas de manera tal que reflejen lo me-jor posible el uso normal de estas palabras, pe-ro una actitud así es peligrosa. Si el significadode las palabras ‘máquina’ y ‘pensar’ proviene delescrutinio de cómo son usadas comúnmente, sehace difícil escapar de la conclusión de que el sig-nificado y respuesta a la pregunta “¿pueden lasmáquinas pensar?” debiera ser buscado en unaencuesta estadística, tal como la encuesta Ga-llup. Pero eso es absurdo. En vez de intentar unadefinición así, propondré reemplazar esa pregun-ta por otra, la cual se encuentra estrechamenterelacionada y que se puede expresar en palabrasrelativamente poco ambiguas.

La nueva forma del problema puede ser descritaen términos de un juego, el cual llamaremos “eljuego de la imitación”. Se juega con 3 personas,un hombre (A), una mujer (B), y un interrogador(C) de cualquier sexo. El interrogador se encuen-tra en una habitación distinta a la de los otros dosparticipantes. El objetivo del juego para el inte-rrogador es determinar cuál de los participanteses el hombre y cuál es la mujer. Él los identificacon las etiquetas X y Y, y al final del juego éldice si “X es A y Y es B”, o “X es B e Y es A”. Al

interrogador se le permite hacer preguntas tantoa A como B del tipo:

C: X, ¿Sería tan amable de decirme el largo sucabello?

Ahora, suponga que X es de hecho A, por lo queA debe responder. El objetivo de A en el juegoes tratar de que C haga una identificación falsa.Por lo que su respuesta podría ser:

“Mi pelo está cortado en capas, y los mechonesmás largos tienen unos 20 centímetros”.

Para que los tonos de voz no ayuden al interro-gador, las respuestas deben ser escritas, o mejoraún, tecleadas. Las condiciones ideales deberíanincluir un teletipo que comunique ambas habi-taciones. De manera opcional, las preguntas yrespuestas podrían ser repetidas por un interme-diario. El objetivo de B en el juego es ayudar alinterrogador. Probablemente, la mejor estrategiapara ella sea dar respuestas verdaderas. Ella pue-de incluir en sus respuestas cosas tales como “Yosoy la mujer, ¡no lo escuches!”, pero aquello nogarantizaría nada ya que el hombre podría decircosas similares.

Ahora hacemos la pregunta: “¿qué pasaría si unamáquina asume el rol de A en este juego?” ¿Dis-criminaría equivocadamente el interrogador conla misma frecuencia con la que lo hace cuandoel juego se juega con un hombre y una mujer?Estas preguntas reemplazan la pregunta original“¿pueden las máquinas pensar?”.

2. Crítica del nuevo problema.

Así como es posible preguntar “¿cuál es la res-puesta para esta nueva pregunta?”, uno podríapreguntar “¿vale la pena investigar esta nueva

1

Page 2: Maquinaria computacional e Inteligencia Alan Turing, 1950 1. El

pregunta?”. Esta última la investigamos sin máspreámbulos, para así evitar regresiones infinitas.

El nuevo problema posee la ventaja de trazar unalínea muy clara entre las capacidades físicas ylas intelectuales del hombre. Ningún ingeniero oquímico afirma ser capaz de producir un mate-rial que sea indistinguible de la piel humana. Esposible que en algún momento aquello se pue-da hacer, pero aún suponiendo la disponibilidadde esta invención deberíamos sentir que no tienemucho sentido en tratar de hacer más humanaa una “máquina pensante” a través del revesti-miento de piel artificial. La manera en la cualel problema ha sido planteado refleja esta condi-ción, la que impide que el interrogador pueda vero tocar a los otros competidores, o escuchar susvoces. Algunas otras ventajas del criterio que seha propuesto pueden ser ejemplificadas con unamuestra de preguntas y respuestas:

Q: Por favor escribe un soneto con el tema delPuente de Forth.A: No cuentes conmigo para eso. Nunca pudeescribir poesía.Q: Suma 34957 y 70764.A: (Pausa de 30 segundos y luego da la respues-ta) 105621.Q: ¿Juegas ajedrez?A: Sí.Q: Tengo mi K en mi K1, y ninguna otra pieza.Tú solo tienes K en K6, y R en R1. Es tu turno.¿Qué jugada harías?A: (Pausa de 15 segundos) R-R8 mate.

El método de la pregunta y respuesta parecieraser adecuado para introducir casi cualquiera delos campos de estudio humano que quisiéramosincluir. No queremos sancionar a la máquina porsu incapacidad de brillar en concursos de belle-

za, ni tampoco castigar a un hombre por perderuna carrera contra un aeroplano. Las condicionesde nuestro juego hacen que estas incapacidadessean irrelevantes. Los “testigos” pueden presumir,si lo consideran aconsejable, todo lo que quieranacerca de sus encantos, fuerza o heroísmo, pe-ro el interrogador no puede pedir demostracionesprácticas.

El juego podría quizás ser criticado en base alhecho de que las probabilidades están demasiadoen contra de la máquina. Si el hombre intenta-se pretender ser una máquina, éste haría clara-mente una muy mala demostración. Lo delataríarápidamente su lentitud e inexactitud en aritmé-tica. ¿Podría ser que las máquinas realizaran algoque pudiera ser descrito como pensar, pero quees muy distinto de lo que un hombre hace? Estaobjeción es muy sólida, pero al menos se puededecir que si, a pesar de todo, una máquina pue-de ser construida para jugar satisfactoriamenteel juego de la imitación, no necesitamos preocu-parnos por esta objeción.

Es posible sugerir que cuando se juegue el “jue-go de la imitación”, la mejor estrategia para lamáquina podría ser hacer algo distinto que imi-tar la conducta de un hombre. Podría ser, perocreo que es poco probable que se produjera unefecto como este. En cualquier caso, no hay nin-guna intención de investigar la teoría del juego,y daremos por asumido que la mejor estrategiaes tratar de dar respuestas que un hombre daríade manera natural.

2

Page 3: Maquinaria computacional e Inteligencia Alan Turing, 1950 1. El

3. Las máquinas involucradasen el juego.

La pregunta realizada en la sección 1 no será losuficientemente específica hasta que delimitemosqué queremos decir con la palabra “máquina”. Esnatural que queramos permitir el uso de cual-quier técnica de ingeniería en nuestras máquinas.También queremos admitir la posibilidad que uningeniero o un grupo de ingenieros pueda cons-truir una máquina que funcione, pero cuya formade operar no puede ser descrita satisfactoriamen-te por sus constructores debido a que ellos usanun método que fuera experimental en gran medi-da. Finalmente, queremos excluir de las máqui-nas a los hombres nacidos de manera normal. Esdifícil elaborar las definiciones de manera tal queestas tres condiciones sean cumplidas. Por ejem-plo, uno podría insistir que el equipo de ingenie-ros deba ser de un sexo únicamente, pero esto nosería realmente satisfactorio, ya que es probable-mente posible crear a un individuo completo apartir de una sola célula de la piel (por ejemplo)de un hombre. Hacer aquello sería una hazañapara la técnica biológica, que además mereceríagrandes alabanzas, pero no nos inclinaría a pen-sar que sea un caso en el cual se está “construyen-do una máquina pensante”. Lo anterior nos llevaa abandonar el requerimiento de que cualquiertécnica deba ser permitida. Estamos más que dis-puestos para hacerlo considerando el hecho deque el interés actual en las “máquinas pensan-tes” ha sido despertado por un tipo particular demáquina, usualmente llamada “computador elec-trónico” o “computador digital”. Siguiendo estasugerencia, sólo permitimos que los computado-res digitales tomen parte del nuestro juego.

A primera vista, esta restricción se ve muy drás-

tica. Trataré de demostrar que no lo es en la reali-dad. Hacer esto necesita una explicación breve dela naturaleza y las propiedades de estos compu-tadores.

También podría decirse que la identificación delas máquinas con los computadores digitales, talcomo nuestro criterio de “pensar”, sólo será in-satisfactorio si (contrario a lo que yo creo) loscomputadores digitales en definitiva son incapa-ces de hacer una buena demostración en el juego.

Ya hay un gran número de computadores digita-les que se encuentran funcionando, y se podríapreguntar “¿por qué no tratar de experimentarinmediatamente? Sería fácil satisfacer las condi-ciones el juego. Se podría usar un número de in-terrogadores, y se podrían compilar estadísticaspara demostrar con qué frecuencia se hicieron lasidentificaciones correctas”. La respuesta breve esque no estamos preguntando si todos los compu-tadores digitales lo harían bien en el juego, nitampoco si los computadores disponibles en laactualidad lo harían bien, sino que si hay compu-tadores imaginables que lo harían bien. Pero éstaes sólo una respuesta breve. Nos aproximaremosa esta pregunta desde otro ángulo después.

4. Computadores digitales.

La idea detrás de los computadores digitales po-dría ser explicada diciendo que estas máquinaspueden llevar a cabo cualquier operación que pu-diera ser realizada por un computador humano.El computador humano debiera seguir reglas fi-jas; él no tiene ninguna autoridad para desviarseen nada de ellas. Podemos suponer que estas re-glas se encuentran en un libro, el cual es alteradocada vez que a él se le da un nuevo trabajo. Tam-

3

Page 4: Maquinaria computacional e Inteligencia Alan Turing, 1950 1. El

bién posee un suministro ilimitado de papel sobreel cual realiza sus cálculos. De igual manera, élpodría realizar sus multiplicaciones y sumas enuna “máquina escritorio”, pero eso no es impor-tante.

Si usamos las explicaciones recién mencionadascomo una definición, estaríamos en peligro de ex-hibir circularidad argumentativa. Evitamos estodando un esbozo de los medios por los cuales elefecto deseado es alcanzado. Se puede conside-rar que un computador digital consiste en trespartes:

(i) Almacenamiento.(ii) Unidad ejecutiva.(iii) Control.

El almacenamiento es almacenamiento de infor-mación, y corresponde al papel que utiliza elcomputador humano, y corresponde tanto el pa-pel para hacer los cálculos como al libro en el cualse encuentran impresas las reglas. En la medidaen que el computador humano hace los cálculosen su cabeza, una parte del almacenamiento co-rresponderá a su memoria.

La unidad ejecutiva es la parte en la cual se lle-van a cabo las diversas operaciones individualesinvolucradas en un cálculo. Qué es lo que son es-tas operaciones individuales variará de una má-quina a otra. Usualmente, operaciones relativa-mente largas como “multiplique 3540675445 por7076345687” pueden ser realizadas, pero en al-gunas máquinas, sólo las operaciones simples deltipo “escriba 0” son posibles.

Hemos mencionado que “el libro de reglas” que sele proporcionó al computador es reemplazado enla máquina por una parte del almacenamiento.Es entonces cuando se le denomina “tabla de ins-trucciones”. Es el deber del Control de procurar

que estas instrucciones sean obedecidas adecua-damente y en el orden correcto. El Control estáconstruido de tal manera, que lo anterior ocurranecesariamente.

La información en el almacenamiento es usual-mente dividida en paquetes de tamaño modera-damente pequeño. En una máquina, por ejemplo,un paquete podría consistir en 10 dígitos decima-les. Se asignan números a las partes del almace-namiento en la que los varios paquetes de infor-mación son almacenados, de manera sistemática.Una instrucción típica podría ser:

“Sume el número almacenado en la posición 6809con el que está en la 4302 y ubique el resultadode vuelta en esta última posición de almacena-miento.”

No hay necesidad de decir que esto no ocurriríacon expresiones en inglés. Sería probablementecodificado con una forma tipo 6809430217. Aquí,17 significa cuál de las variadas operaciones posi-bles se realizará en los dos números en este caso laoperación que se describió recién, es decir “sumeel número...”. Es posible notar que la instrucciónrequiere 10 dígitos, y así se forma un paquete deinformación de manera muy conveniente. El con-trol tomará normalmente instrucciones para serobedecidas en el orden en el que están almacena-das, pero ocasionalmente una instrucción como

“Ahora obedezca la instrucción almacenada en laposición 5606, y continúe desde ahí.”

podría ocurrir, o también

“Si la posición 4505 contiene 0 obedezca a con-tinuación la instrucción almacenada en 6707, encaso contrario, continúe normalmente.”

Las instrucciones de este tipo son muy impor-tantes porque hacen posible que una secuencia

4

Page 5: Maquinaria computacional e Inteligencia Alan Turing, 1950 1. El

de operaciones sea repetida una y otra vez has-ta que una condición se cumpla, pero mientrasla obedece, no hay instrucciones nuevas en cadarepetición, sino las mismas una y otra vez. Paraconsiderar una analogía doméstica, suponga queMadre quiere que Tommy llame al zapatero to-das las mañanas mientras vaya saliendo al colegiopara saber si ya le repararon sus zapatos. Ella lepuede preguntar nuevamente todas las mañanas.O bien, ella puede poner un aviso de una vez portodas en la entrada, la cual él verá cuando se vayaal colegio y que dice que llame preguntando porlos zapatos, y también destruir el aviso cuandovuelva si ya los tiene.

El lector debe aceptar como un hecho que loscomputadores digitales pueden ser construidos,y de hecho han sido construidos, de acuerdo alos principios que hemos descrito, y que de he-cho pueden imitar las acciones de un computadorhumano con bastante similitud.

El libro de reglas que hemos descrito y que es usa-do por nuestro computador humano es una fic-ción conveniente, por supuesto. Los computado-res humanos reales en realidad recuerdan lo quedeben hacer. Si uno quiere hacer que una máqui-na imite el comportamiento de un computadorhumano en alguna tarea compleja, se le debe pre-guntar cómo lo hace, y luego traducir la respuestaa una tabla de instrucciones. Construir tablas deinstrucciones es usualmente conocido como “pro-gramación”. “Programar una máquina para quelleve a cabo la operación A” significa poner latabla de instrucciones apropiada en la máquinade manera tal que la realice.

Una variante interesante sobre la idea de uncomputador digital es un computador digital conalgún elemento aleatorio. Éstos poseen instruc-ciones con respecto al lanzamiento de un dado

o algún proceso electrónico equivalente; una ins-trucción de este tipo podría ser: Lance el dado yanote el resultado en el lugar de almacenamiento1000. Algunas veces, una máquina como ésta esdescrita como si tuviera libre albedrío (aunqueyo no ocuparía esta frase). Normalmente, no esposible determinar a través de la observación deuna máquina si posee un elemento aleatorio, da-do que un efecto similar se puede producir porun dispositivo que haga elecciones dependiendode los decimales de π.

La mayoría de los computadores digitales en laactualidad sólo tienen un almacenamiento finito.No hay ningún problema teórico con la idea deque un computador tenga un almacenamiento ili-mitado. Por supuesto, sólo una parte finita puedeser usada en cada momento. De manera similar,sólo una cantidad finita puede haber sido cons-truida, pero podemos imaginar que se agregueny más y más en la medida en que sea requeri-do. Tales computadores tienen intereses teóricosespeciales y serán llamados computadores de ca-pacidad infinita.

La idea de un computador digital es muy an-tigua. Charles Babbage, profesor Lucasiano dematemáticas en Cambridge desde 1828 a 1839,planeó una máquina así, la que llamó “MáquinaAnalítica”, pero que nunca pudo terminar. Aun-que Babbage poseía todas las ideas esenciales,su máquina nunca fue un prospecto muy atrac-tivo para su época. La velocidad con la cual ha-bría funcionado habría sido mucho más rápidaque un computador humano, pero 100 veces máslenta que la máquina de Manchester. El alma-cenamiento era puramente mecánico, y utilizabatarjetas y rodamientos.

El hecho de que la Máquina Analítica de Bab-bage fuera a ser completamente mecánica nos

5

Page 6: Maquinaria computacional e Inteligencia Alan Turing, 1950 1. El

ayudará a deshacernos de una superstición. Se leotorga importancia al hecho de que los compu-tadores digitales son eléctricos, y que el sistemanervioso también es eléctrico. Dado que la má-quina de Babbage no era eléctrica, y dado quelos computadores digitales son en cierto sentidoequivalentes, podemos ver que el uso de electri-cidad no tiene una importancia teórica. Por su-puesto que se usa la electricidad cuando se necesi-ta una transmisión rápida de señales, así que noes sorprendente que los encontremos en ambasconexiones. En el sistema nervioso, los fenóme-nos químicos son, al menos, igual de importantesque los eléctricos. En algunos computadores, elsistema de almacenamiento es básicamente acús-tico. Por lo tanto, el rasgo de utilizar electrici-dad puede ser visto como similitud superficial.Si queremos encontrar esas similitudes, debemosentonces buscar analogías matemáticas de fun-ción.

5. Universalidad de los compu-tadores digitales.

Los computadores digitales considerados en laúltima sección podrían ser clasificados entre las“máquinas de estados discretos”. Estas son la má-quinas que se mueven usando saltos (o clicks) re-pentinos de un estado definido a otro. Estos es-tados son lo suficientemente distintos como paradescartar la posibilidad de confundirlos. Estricta-mente hablando, no existen tales máquinas. To-do se mueve realmente de manera continua. Pe-ro hay muchos tipos de máquinas que puedenser provechosamente consideradas como máqui-nas de estados discretos. Por ejemplo, al consi-derar los interruptores de un sistema de ilumi-nación, es una ficción conveniente que cada inte-

rruptor está definitivamente prendido o apagado.Debe haber posiciones intermedias, pero para lamayoría de nuestros propósitos, nos podemos ol-vidar de ellos. Como ejemplo de una máquina deestados discretos podríamos considerar una rue-da que gira 120 grados una vez por segundo, peroque se puede detener con una palanca externa;además, una lámpara se enciende en una de lasposiciones de la rueda. La máquina puede ser des-crita de manera abstracta como sigue: El estadointerno de la máquina (la cual es descrita por laposición de la rueda) podría estar en q1, q2, oq3. Hay una señal de entrada i0 o i1 (posición dela palanca). El estado interno en cualquier mo-mento está determinado por el último estado yla señal de entrada de acuerdo a esta tabla:

Último Estadoq1 q2 q3

Entrada i0 q2 q3 q1i1 q1 q2 q3

Las señales de salida, las únicas indicaciones vi-sibles externamente de los estados internos (laluz), es descrita por la tabla de estados:

Estado: q1 q2 q3Salida: o0 o0 o1

Este es un ejemplo típico de una máquina de es-tados discretos. Éstas pueden ser descritas porestas tablas, siempre y cuando posean un núme-ro finito de estados posibles.

Pareciera que dado el estado inicial de la máqui-na y las señales de entrada siempre sería posiblepredecir los estados futuros. Esto es una remi-niscencia de la visión de Laplace que establecía

6

Page 7: Maquinaria computacional e Inteligencia Alan Turing, 1950 1. El

que a partir de el estado completo del univer-so en un momento en el tiempo, descrito por lasposiciones y velocidades de todas sus partículas,debería ser posible predecir todos los estados fu-turos. La predicción que estamos considerandoes, sin embargo, más cercana a la práctica que ala visión de Laplace. El sistema del “universo co-mo un todo” es tal, que pequeños errores en lascondiciones iniciales pueden tener un efecto in-menso en un tiempo posterior. El desplazamien-to de un solo electrón en una milmillonésima decentímetro en determinado momento podría ge-nerar la diferencia entre que un hombre mueraen una avalancha un año después, o que escapede ella. Es una propiedad esencial de los siste-mas mecánicos que hemos llamado “máquinas deestados discretos” que este fenómeno no ocurra.Incluso cuando consideramos las máquinas físicasreales en vez de las idealizadas, el conocimientorazonablemente preciso de un estado en determi-nado momento produce un conocimiento razona-blemente preciso luego de una cierta cantidad depasos.

Como hemos mencionado, los computadores digi-tales caben dentro de la clase de máquinas de es-tados discretos. Pero el número de estados de loscuales una máquina es capaz es, con frecuencia,tremendamente grande. Por ejemplo, el númerode estados para la máquina trabajando en Man-chester es aproximadamente de 2165,000 es decir,cerca de 1050,000. Compare eso con nuestro ejem-plo de la rueda antes mencionado, el cual teníatres estados. No es difícil visualizar por qué elnúmero de estados debiera ser tan inmensamen-te grande. El computador incluye un almacena-miento correspondiente a la cantidad de papelusado por un computador humano. Debe ser po-sible escribir en el lugar de almacenamiento cual-quiera de las combinaciones de símbolos que hu-

bieran sido escritas en papel. En términos prác-ticos, suponga que sólo los dígitos entre 0 y 9son usados como símbolos. Las variaciones en lacaligrafía son ignoradas. Suponga que al compu-tador se le entregan 100 hojas de papel, con 50líneas cada una, y a su vez, cada línea con 30dígitos. Por lo tanto, el número de estados es10100×50×30–es decir, 10150,000. Este es el núme-ro aproximado de estados de tres máquinas deManchester juntas. El logaritmo de base 2 con elnúmero de estados es conocido como la “capaci-dad de almacenamiento” de la máquina. De estamanera, la máquina de Manchester tiene una ca-pacidad de almacenamiento de aproximadamente165.000, y la máquina-rueda de nuestro ejemploalrededor de 1.6. Si las dos máquinas son unidas,sus capacidades deben ser sumadas para obtenerla capacidad de la máquina resultante. Esto llevaa la posibilidad de aseveraciones tales como “lamáquina de Manchester contiene 64 pistas cadauna con una capacidad de 2,560, ocho tubos elec-trónicos con una capacidad de 1,280. El almace-namiento heterogéneo alcanza a 300, alcanzandoun total de 174,380.

Dada la tabla correspondiente a una máquina deestados discretos, es posible predecir qué es lo quehará. No hay razón para creer que este cálculo nopudiera ser llevado a cabo por un computador di-gital. Dado que podría ser llevado a cabo lo sufi-cientemente rápido, el computador digital podríaimitar el comportamiento de cualquier máquinade estados discretos. El juego de la imitación po-dría entonces ser jugado con la máquina en cues-tión (como si fuera B), y el computador digitalque imita (como A) y el interrogador sería inca-paz de distinguirlos. Por supuesto, el computadordigital debe tener una capacidad de almacena-miento adecuada así como también funcionar losuficientemente rápido. Además, debe ser progra-

7

Page 8: Maquinaria computacional e Inteligencia Alan Turing, 1950 1. El

mado de nuevo para cada máquina que se deseaque imite.

Se puede aludir a esta propiedad especial de loscomputadores digitales, que puedan imitar unamáquina de estados discretos, diciendo que sonmáquinas universales. La existencia de máquinascon esta propiedad tiene la consecuencia impor-tante de que, consideraciones de velocidad de-jadas de lado, es innecesario diseñar varias má-quinas nuevas para que hagan variados proce-sos computacionales. Todo ellos pueden ser rea-lizados con un solo computador digital que seencuentre programado adecuadamente para ca-da caso. Se puede vislumbrar como consecuenciade esto que todos los computadores digitales sonequivalentes en cierto sentido. Ahora podríamosconsiderar nuevamente el punto mencionado alfinal de la sección 3. Se sugirió tentativamenteque la pregunta “¿pueden las máquinas pensar?”debiera ser reemplazada por “¿hay computado-res digitales imaginables que tendrían un buendesempeño en el juego de la imitación?”. Pero envirtud de la propiedad de universalidad podemosver que cualquiera de estas preguntas es equiva-lente a lo siguiente: “Permitámonos fijar nuestraatención en un computador C en particular. ¿Se-ría cierto que si se modifica este computador demanera tal que exhiba un almacenamiento ade-cuado, un aumento en su velocidad de acción, ydado que se le entregue el programa apropiado,podría C jugar satisfactoriamente la parte de Aen el juego de la imitación, mientras que B seallevada a cabo por un hombre?”.

6. Perspectivas contrarias sobrela pregunta principal.

Ahora podemos considerar que el terreno ha sidodelimitado, y nos encontramos listos para pro-ceder con el debate sobre la pregunta “¿puedenpensar las máquinas?” y la variante de esta pre-gunta presentada al final de la última sección. Nopodemos abandonar del todo la versión originalde problema, dado que las opiniones variarán conrespecto a la idoneidad de la substitución y de-bemos al menos escuchar lo que se pueda deciren conexión con esto.

Se simplificarán ciertos asuntos para el lector siprimero explico mis propias ideas con respectoal tema. Consideremos la versión más precisa dela pregunta. Creo que en un periodo de tiempode 50 años será posible programar computadores,con una capacidad de almacenamiento de alrede-dor de 109, para que puedan jugar el juego de laimitación de tal manera que el interrogador pro-medio no pueda obtener más de un 70 por cientode posibilidades de hacer la identificación acer-tada luego de cinco minutos de preguntas. Conrespecto a la pregunta original, “¿pueden las má-quinas pensar?”, creo que no tiene mucho sentidocomo para merecer discusión. No obstante, creoque cuando lleguemos a finales de siglo, el uso delas palabras y la opinión educada general habráncambiado tanto, que uno podrá ser capaz de ha-blar de máquinas pensantes sin esperar ser con-tradicho. Creo además que ningún propósito útilse puede lograr al ocultar estas ideas. La visiónpopular que los científicos proceden inexorable-mente desde los hechos bien establecidos haciaotros hechos bien establecidos sin nunca ser in-fluenciados por alguna conjetura no probada esbastante equivocada. Dado que se hace claro cuá-

8

Page 9: Maquinaria computacional e Inteligencia Alan Turing, 1950 1. El

les son los hechos probados y cuáles son conjetu-ras, no puede haber ningún daño. Las conjeturasposeen una gran importancia debido a que éstassugieren líneas útiles de investigación.

Ahora procedo a considerar opiniones opuestas alas mías.

6.1. La objeción teológica.

Pensar es una función del alma inmortal del hom-bre. Dios le ha otorgado un alma inmortal a cadahombre y mujer, pero no a otros animales o má-quinas. Por lo tanto, ningún animal o máquinapuede pensar.

Soy incapaz de aceptar ninguna parte de esto,pero intentaré responder en términos teológicos.Encontraría más convincente el argumento si losanimales fueran clasificados junto con los hom-bres, ya que según mi criterio, hay una diferenciaaún más grande entre el típico ser animado y elinanimado que entre el hombre y los otros anima-les. El carácter arbitrario de la visión ortodoxase hace más claro si consideramos cómo podríaparecer para el miembro de otra comunidad re-ligiosa. ¿Cómo consideran los cristianos la visiónmusulmana de que las mujeres no tienen alma?Pero dejemos este punto de lado y volvamos ala discusión central. Me parece que el argumentoantes mencionado implica una restricción seria ala omnipotencia del Todopoderoso. Es admisibleque haya cosas que Él no pueda hacer, tal comoigualar uno con dos, pero ¿no deberíamos creerque Él tiene la libertad de conferir un alma aun elefante si a Él le parece? Podríamos espe-rar que Él usaría este poder sólo en conjuncióncon una mutación que provea al elefante con uncerebro apropiadamente mejorado para suminis-trar las necesidades de esta alma. Una discusión

con la misma forma podría hacerse en el casode las máquinas. Podría parecer distinta, porquees más difícil de “tragar”. Pero esto sólo significaque pensamos que sería menos probable que Élpudiera considerar apropiadas estas circunstan-cias para conferir un alma. Las circunstancias encuestión son discutidas en el resto de este artícu-lo. En el intento de construir estas máquinas, nodeberíamos estar usurpando irreverentemente supoder para crear almas, en mayor medida quecuando procreamos niños: más bien, en cada ca-so somos instrumentos de su voluntad al proveermansiones para las almas que Él crea.

Sin embargo, esto es mera especulación. No meimpresionan mucho las discusiones teológicas, seacual sea el tema. Tales discusiones han sido fre-cuentemente insatisfactorias en el pasado. En lostiempos de Galileo, se discutía que los textos “Yel sol se quedó quieto... y consideró no bajar porun día” (Josué Cap. 10, v.13) y “Él puso los ci-mientos de la tierra, para que no se moviera enningún momento” (Salmos Cap. 105, v.5) eranuna refutación adecuada para la teoría de Copér-nico. Con nuestro actual conocimiento, tal argu-mento parece fútil. Cuando ese conocimiento noestaba disponible, causaba una impresión muydiferente.

6.2. La objeción de las “cabezas en laarena”.

“La consecuencia de que las máquinas piensensería demasiado espantosa. Esperemos y creamosque no lo pueden hacer”.

Este argumento es rara vez expresado tan abier-tamente como recién se plantea. Pero afecta a lamayoría de los que pensamos en ello. Nos gustacreer que el hombre es sutilmente superior al res-

9

Page 10: Maquinaria computacional e Inteligencia Alan Turing, 1950 1. El

to de la creación. Es mejor si se puede demostrarque es necesariamente superior, ya que entoncesno hay peligro de que pierda su posición de man-do. La popularidad del argumento teológico es-tá claramente conectada con esta sensación. Esprobable que sea bastante fuerte entre los intelec-tuales, dado que ellos valoran el poder de pensarmás que otros, y están más inclinados a basar sucreencia en la superioridad del Hombre en basea este poder.

No creo que este argumento sea lo suficientemen-te sustancial como para requerir refutación. Elconsuelo sería más apropiado; quizás eso debierabuscarse en la trasmigración de las almas.

6.3. La objeción Matemática.

Hay un varios resultados en la lógica matemáti-ca que puede ser usado para mostrar que existenlimitaciones para los poderes de una máquina deestados discretos. El más conocido de estos resul-tados es el teorema de Gödel (1931), y demuestraque en cualquier sistema lógico lo suficientemen-te poderoso se pueden formular aseveraciones queno se pueden ni probar ni desaprobar dentro delsistema, a menos que el sistema en sí sea incon-sistente. Algunos resultados similares en algunosaspectos se encuentran en el trabajo de Church(1936), Kleene (1935), Rosser (1936), y Turing(1937). El último resultado es el más convenien-te de considerar, dado que refiere directamente alas máquinas mientras que otros sólo pueden serusados comparativamente en discusiones indirec-tas; por ejemplo, si el teorema de Gödel es usado,necesitamos tener además algún medio para des-cribir sistemas lógicos en términos de máquinas,y máquinas en términos de sistemas lógicos. Elresultado en cuestión se refiere a un tipo de má-

quina que es esencialmente un computador digi-tal con una capacidad infinita. Establece que hayciertas cosas que una máquina con estas carac-terísticas no puede hacer. Si se le arma para quede respuestas a preguntas como las del juego dela imitación, habrá algunas preguntas a las cua-les responderá erróneamente, o simplemente noresponderá, no importa cuánto tiempo se le depara responder. Por supuesto, podría haber mu-chas de esas preguntas, y preguntas que no po-drían ser respondidas por una máquina, podríanser respondidas satisfactoriamente por otra. Es-tamos suponiendo en este caso que las preguntasson del tipo “si” y “no”, y no del tipo “¿qué piensassobre Picasso?”. Las preguntas que las máquinasdeberían fallar son del tipo “considere la máqui-na especificada de la siguiente manera... ¿podráesta máquina responder alguna vez ‘si’ a algunapregunta?”. Los puntos deben ser reemplazadospor la descripción habitual de una máquina, quepodría ser algo así como la usada en la sección5. Cuando la máquina descrita posee cierta re-lación relativamente simple con la máquina queesta siendo interrogada, se puede demostrar quela respuesta es equivocada o no disponible. Es-te es el resultado matemático: se argumenta quehay una discapacidad en las máquinas que el in-telecto humano no posee.

La respuesta breve a este argumento es que, aun-que se establece que hay limitaciones para el po-der de cualquier máquina, solo se ha dicho, sinningún tipo de prueba, que tales limitaciones nose aplican al intelecto humano. Pero no creo queesta visión pueda ser descartada a la ligera. Siem-pre que se le haga la respuesta crítica apropiadaa una de estas máquinas, y den una respuestadefinitiva, sabemos que esta respuesta debe es-tar equivocada, y eso nos da cierta sensación desuperioridad. ¿Es esta sensación ilusoria? No ca-

10

Page 11: Maquinaria computacional e Inteligencia Alan Turing, 1950 1. El

be duda que es genuina, pero no creo que se ledeba dar demasiada importancia. Con bastantefrecuencia respondemos equivocadamente comopara justificar algún tipo de satisfacción por te-ner evidencia de la falibilidad de las máquinas.Además, nuestra superioridad sólo se puede sen-tir en tales ocasiones en relación con la máquinasobre la que nos anotamos esa victoria pírrica. Nohabría la menor oportunidad de triunfar simul-táneamente sobre todas las máquinas. En pocaspalabras, puede que haya hombres más inteligen-tes que cualquier máquina dada, pero de nuevo,puede que haya otras máquinas aún más inteli-gentes, y así consecutivamente.

Creo que aquéllos que se aferran a la discusiónmatemática deberían estar dispuestos a aceptarel juego de la imitación como una base para ladiscusión. Aquéllos que creen en las dos prime-ras objeciones probablemente no estén interesa-dos en ningún criterio.

6.4. El argumento desde la conciencia.

Este argumento se encuentra muy bien expresa-do en la disertación de la Medalla de Lister delprofesor Jefferson en 1949, de donde cito: “Has-ta que una máquina pueda escribir un soneto ocomponer un concierto debido a las emocionesy pensamientos que tuvo, y que no sea debidoal uso de símbolos al azar, podremos estar deacuerdo que máquina es igual a cerebro es decir,no sólo que lo escriba, sino saber que lo escribió.Ningún mecanismo podría sentir (y no sólo unamera señal artificial, cosa fácil de hacer) placerpor sus éxitos, sentir pesar cuando se le fundeuna válvula, sentirse bien con un halago, sentirsemiserable por sus errores, estar encantado por elsexo, estar enojado o deprimido cuando no con-

sigue lo que quiere.”

Este argumento parece ser una negación a la va-lidez de nuestra prueba. De acuerdo a la formamás extrema de esta visión, la única manera conla cual uno podría estar seguro de que una má-quina piensa es ser la máquina y sentir su propiopensamiento. Por tanto, se podría describir estassensaciones al mundo, pero por supuesto nadieestaría justificado de poder percatarse. De ma-nera similar, de acuerdo a esta visión, la únicamanera de saber que un hombre piensa es ser esehombre en particular. Éste es el punto de vistade solipsista. Esa sería la visión más lógica desostener, pero hace difícil la comunicación de lasideas. A está inclinado a creer “A piensa pero Bno”, mientras que B cree “B piensa pero A no”.En vez de argumentar continuamente contra estepunto, lo usual es tener la convención educada deque todos pensamos.

Estoy seguro de que el profesor Jefferson no quie-re adoptar el punto de vista extremista del solip-sismo. Probablemente él se encontraría dispuestoa aceptar el juego de la imitación como una prue-ba. El juego (con el jugador B omitido) es usa-do frecuentemente en la práctica con el nombrede viva voce para descubrir si alguien realmen-te entiende algo o ha “aprendido como perico”.Escuchemos una parte de un viva voce:

Interrogador: En la primera línea de su soneto,el cual dice “deberíais compararles con un día deverano”, ¿no sería igual o mejor decir “un día deprimavera”?

Testigo: no tendría la métrica correcta.

Interrogador: y si usamos “un día de invierno”.Ese sí la tendría.

Testigo: sí, pero nadie quiere ser comparado conun día de invierno.

11

Page 12: Maquinaria computacional e Inteligencia Alan Turing, 1950 1. El

Interrogador: ¿se podría decir que el Sr. Pickwickle recuerda la navidad?

Testigo: de cierta manera.

Interrogador: pero la navidad es un día de in-vierno, y no creo que al Sr. Pickwick le importela comparación.

Testigo: no creo que estés hablando en serio.Cuando uno dice día de invierno se refiere a undía típico de invierno más que a uno especial co-mo la navidad.

Y se podría continuar. ¿Qué diría el profesor Jef-ferson si la máquina escritora de sonetos fuera ca-paz de responder de esta manera en el viva voce?No sé si él consideraría a la máquina como si estu-viera mandando “meras señales artificiales” pararesponder, pero si las respuestas fueran satisfac-torias y sostenidas como en el pasaje anterior,no creo que las describiría como un “cosa fácilde hacer”. Creo que esta frase tiene por intencióncubrir a dichos dispositivos en los cuales a unamáquina se le incluye la grabación de alguien quelee un soneto, con un interruptor apropiado paraprenderlo de cuando en cuando.

En pocas palabras, creo que aquellos que apo-yan el argumento de la conciencia podrían serpersuadidos de abandonarlo en vez de forzar unaposición solipsista. Probablemente, estarán dis-puestos a aceptar nuestra prueba.

No quisiera dar la impresión de que creo no hayun misterio con respecto a la conciencia. Hay, porejemplo, algo así como una paradoja en conexióncon cualquier intento de localizarla. Pero no creoque estos misterios deban ser resueltos antes deque podamos responder la pregunta que concier-ne a este artículo.

6.5. Argumentos desde las discapaci-dades múltiples.

Estos argumentos toman la forma “Te aseguroque puedes hacer máquinas que hagan todas lascosas que dices, pero nunca podrás hacer una quesea capaz de X”. Varias características de X sesugieren en relación a esto. Yo mismo ofrezco unaselección:

Ser amable, ingenioso, hermoso, amigable, teneriniciativa, tener sentido del humor, diferenciar locorrecto de lo incorrecto, cometer errores, enamo-rarse, disfrutar las fresas con crema, hacer que al-guien se enamore de él, aprender de la experien-cia, usar las palabras apropiadamente, ser sujetode sus propios pensamientos, tener tanta diver-sidad de conductas como un hombre, hacer algorealmente novedoso.

Usualmente no se ofrece ningún soporte a estosenunciados. Creo que la mayoría se basan en elprincipio de inducción científica. Un hombre vemiles de máquinas en su vida. Y de acuerdo a loque ve, saca una cantidad de conclusiones gene-rales. Son feas, se diseñan con un propósito muylimitado, y cuando se les requiere para una co-sa ligeramente diferente, no sirven, la variedadde conductas es muy poca, y así sucesivamente.Naturalmente, un hombre concluye que estas sonen general propiedades necesarias de las máqui-nas. Muchas de estas limitaciones se encuentranasociadas a la poca capacidad de almacenamien-to de la mayoría de ellas (asumo que la idea decapacidad de almacenamiento incluye de algunamanera a otras máquinas distintas a las máqui-nas de estados discretos. La definición exacta noimporta dado que no se sostiene ninguna preci-sión matemática en esta discusión). Algunos añosatrás, cuando no se sabía mucho sobre los compu-

12

Page 13: Maquinaria computacional e Inteligencia Alan Turing, 1950 1. El

tadores digitales, había mucha incredulidad conrespecto a ellos, si es que alguien mencionaba suspropiedades sin describir su construcción. Presu-miblemente, eso se debía a una aplicación similardel principio de inducción científica. Estas apli-caciones del principio son, por supuesto, incons-cientes en su mayoría. Cuando un niño con que-maduras le teme al fuego y demuestra su miedoevitándolo, yo podría decir que él está aplicandoinducción científica. (Por supuesto podría descri-bir su conducta de muchas otras maneras). Lostrabajos y costumbres de la humanidad no pare-cen ser material apropiado sobre el cual aplicar lainducción científica. Una gran parte del espacio-tiempo debe ser investigada si se busca obtenerresultados confiables. De otra manera, podríamos(como la mayoría de los niños ingleses lo hacen)decidir que todo el mundo habla inglés, y que porlo tanto es tonto aprender francés.

Sin embargo, se pueden hacer comentarios espe-ciales acerca de las muchas discapacidades quehan sido mencionadas. La incapacidad de dis-frutar las fresas con crema podría sorprender allector dada su frivolidad. Posiblemente, se po-dría hacer una máquina que disfrute este delicio-so plato, pero cualquier intento de crearla seríaestúpido. Lo que es importante con respecto aesta discapacidad es que contribuye a otras dis-capacidades, por ejemplo, a la dificultad del mis-mo tipo de amabilidad entre hombre y máquinascomo entre hombre blanco con hombre blanco, oentre hombre negro y hombre negro.

La declaración de que “las máquinas no puedencometer errores” parece curiosa. Uno es tentadoa responder “¿son peores por eso?”. Pero adop-temos una actitud un poco más comprensiva, yveamos que quiere decir realmente. Creo que estacrítica puede ser explicada en términos del juegode la imitación. Se sostiene que interrogador po-

dría distinguir simplemente la máquina del hom-bre al plantearle una cantidad de problemas arit-méticos. La máquina sería desenmascarada dadosu altísima eficacia. La respuesta a esto es simple.La máquina (programada para jugar el juego)no intentaría dar la respuesta correcta a los pro-blemas aritméticos. Deliberadamente, cometeríaerrores de manera calculada para confundir alinterrogador. Una falla mecánica podría proba-blemente delatar a la máquina con una decisiónpoco apropiada con respecto al tipo de error quecometa en el cálculo. Incluso esta interpretaciónde la crítica no es lo suficientemente compren-siva. Pero no podemos dedicarle el espacio paraahondar en ello. Me parece que esta crítica se sos-tiene en una confusión entre dos tipos de errores.Podríamos etiquetarlos como “errores de funcio-namiento” y “errores de conclusión”. Los erroresde funcionamiento se deben a alguna falla mecá-nica o eléctrica que produce que la máquina secomporte de una manera distinta con respectoa la cual fue diseñada. En la discusión filosófi-ca a uno le gusta ignorar la posibilidad de taleserrores; uno se encuentra por lo tanto discutien-do sobre “máquinas abstractas”. Estas máquinasabstractas son ficciones matemáticas más que ob-jetos físicos. Por definición, incapaces de presen-tar errores de funcionamiento. En este sentido,podemos realmente decir que “las máquinas nun-ca cometen errores”. Errores de conclusión sólose pueden producir cuando se adjunta algún sig-nificado a las señales de salida de la máquina. Lamáquina podría, por ejemplo, escribir ecuacio-nes matemáticas, u oraciones en inglés. Cuandoescribe una proposición falsa, decimos que la má-quina ha cometido un error de conclusión. Clara-mente, no hay razón para decir que la máquinano pueda cometer este tipo de error. Podría so-lamente escribir repetidas veces “0 = 1”. Al con-siderar un ejemplo menos rebuscado, se podría

13

Page 14: Maquinaria computacional e Inteligencia Alan Turing, 1950 1. El

tener algún método para dar conclusiones a tra-vés de la inducción científica. Debemos esperarque un método así nos lleve a resultados erró-neos ocasionalmente.

La aseveración de que una máquina no puede serobjeto de su propio pensamiento sólo puede serrespondida si se puede mostrar que la máquinaposee algún pensamiento con algún objeto. Noobstante, “el objeto de las operaciones de una má-quina” pareciera significar algo, al menos para laspersonas que tratan con ella. Si, por ejemplo, lamáquina estuviera tratando de encontrar una so-lución para la ecuación x2−40x−11 = 0, uno sesentiría tentado a describir estas ecuación comoparte del objeto del pensamiento de la máqui-na en ese momento. En este sentido, la máquinapuede sin lugar a dudas ser el objeto de su pro-pio pensamiento. Podría ser usada para ayudara crear sus propios programas, o para predecir elefecto de las alteraciones en su propia estructu-ra. A través de la observación de resultados desu propia conducta, podría modificar sus progra-mas de manera tal de alcanzar algún propósito demanera más efectiva. Éstas son más bien posibili-dades para el futuro cercano que sueños utópicos.

La crítica que refiere a que una máquina no puedetener una gran variedad de conductas es sólo unamanera de decir que no puede tener una grancapacidad de almacenamiento. Hasta hace poco,la capacidad de almacenamiento de incluso mildígitos era muy rara.

Las críticas que estamos considerando acá soncon frecuencia formas disfrazadas del argumentodesde la conciencia. Generalmente, si uno sostie-ne que una máquina puede hacer una de estascosas, y describe el tipo de método que la má-quina podría usar, uno no produciría una granimpresión. Se cree que el método (cualquiera que

sea, dado que debe ser mecánico) es realmentedeshonesto. Compare con el paréntesis de la afir-mación de Jefferson mencionada más arriba.

6.6. La objeción de Lady Lovelace.

La información más detallada de la MáquinaAnalítica de Babbage proviene de una de las me-morias de Lady Lovelace (1842). En ésta, ellasostiene que “la Máquina Analítica no tiene pre-tensiones de originar nada. Puede hacer cual-quier cosa que sepamos ordenarle que haga” (sucursiva). Esta declaración es citada por Hartree,que añade: “esto no implica que no sea posibleconstruir un equipamiento electrónico que podrá‘pensar por sí mismo’, o sobre el cual, en térmi-nos biológicos, uno pudiera construir un reflejocondicionado, que podría servir como la base del‘aprendizaje’. Si es que esto es posible en prin-cipio o no es una pregunta estimulante y apa-sionante, y es sugerida debido a algunos de losdesarrollos recientes. Pero no parece que las má-quinas construidas o proyectadas en ese momentopudieran tener esta propiedad”.

Estoy completamente de acuerdo con Hartree.Uno podrá notar que él no asevera que las má-quinas en cuestión no tuvieran la propiedad, sinoque la evidencia disponible para Lady Lovelaceno la alentaba a creer que la tuvieran. Es muy po-sible que las máquinas en cuestión tuvieran estapropiedad en cierto sentido. Suponga que algu-na máquina de estados discretos tiene la propie-dad. La Máquina Analítica era un computadoruniversal digital, así que, si la capacidad de al-macenamiento y velocidad fueran adecuadas, sepodría a través de una programación apropiadahacer que se imitara a la máquina en cuestión.Probablemente este argumento no se le ocurrió

14

Page 15: Maquinaria computacional e Inteligencia Alan Turing, 1950 1. El

ni a la Condesa ni a Babbage. En cualquier caso,no tenían ninguna obligación de afirmar todo loque se puede afirmar.

Toda esta pregunta será considerada nuevamentebajo la perspectiva de las máquinas que apren-den.

Una variante de la objeción de Lady Lovelaceafirma que una máquina “nunca hace nada real-mente nuevo”. Esto podría ser aludido desde laperspectiva de “no hay nada nuevo bajo el sol”.Quién puede tener certeza que el “trabajo ori-ginal” que alguien haya hecho no fue solamen-te el crecimiento de una semilla plantada en éla través de la enseñanza, o el efecto de seguirprincipios generales bien sabidos. Una variantemejor a la objeción dice que una máquina nun-ca puede “sorprendernos”. Esta declaración es undesafío más directo y puede ser enfrentada másdirectamente. Las máquinas me sorprenden congran frecuencia. Esto se debe en gran medida aque no hago el cálculo suficiente para decidir quépuedo esperar de ellas, o más bien porque, aun-que hago una estimación, lo hago apurado, condescuido, tomando riesgos. Quizás me digo a mimismo, “Y creería que el voltaje acá debiera ser elmismo que allá: bueno, supongamos que así es”.Naturalmente, con frecuencia me equivoco, y elresultado es una sorpresa, pues para cuando elexperimento se lleva a cabo, estos supuestos yase han olvidado. Reconocer lo anterior me dejaexpuesto a críticas sobre mis modos descuidadosde proceder, pero no arrojan ninguna duda sobremi credibilidad cuando testifico las sorpresas queexperimento.

No espero que esta respuesta silencie a mi críti-co. Él probablemente dirá que esas sorpresas sedeben a algún acto mental creativo de mi par-te, y que no otorga ningún crédito a la máquina.

Esto nos lleva de vuelta a la discusión sobre laconciencia, y lejos de la idea de la sorpresa. Estaes una línea argumental que debemos considerarcerrada, pero quizás valga la pena destacar que laapreciación de algo como sorpresivo requerirá un“acto mental creativo”, sin importar si el eventosorpresivo es originado por un hombre, un libro,una máquina o cualquier otra cosa.

La idea de que las máquinas no producen sorpre-sas se debe, creo yo, a una falacia a la cual seencuentran especialmente sujetos los filósofos ylos matemáticos. Es el supuesto de que tan pron-to como se presente un hecho a una mente, todaslas consecuencias de ese hecho florecen en ellasimultáneamente con el hecho. Es un supuestomuy útil en muchas circunstancias, pero uno ol-vida demasiado fácilmente que es falso. Una con-secuencia natural de hacer esto es que uno asu-me que no hay mérito en la simple búsqueda deconsecuencias a partir de datos y principios ge-nerales.

6.7. Argumento desde la continuidaden el sistema nervioso.

Con toda certeza, el sistema nervioso no es unamáquina de estados discretos. Un pequeño erroren la información sobre el tamaño del impulsonervioso que afecte a una neurona, podría haceruna gran diferencia en el tamaño del impulso sa-liente. Se podría sostener que, siendo esto así, nose puede esperar sea posible imitar la conductadel sistema nervioso con un sistema de estadosdiscretos.

Es verdad que una máquina de estados discretosdebe ser diferente de una máquina continua. Pe-ro si nos adherimos a las condiciones del juego dela imitación, el interrogador no será capaz sacar

15

Page 16: Maquinaria computacional e Inteligencia Alan Turing, 1950 1. El

provecho de esta diferencia. La situación se pue-de hacer más clara si consideramos a otras má-quinas continuas más simples. Un analizador di-ferencial servirá bien. (Un analizador diferencialen un tipo de máquina, que no es del tipo de esta-dos discretos, y que se usa para algunos tipos decálculos). Algunos de éstos generan sus respues-tas de manera escrita, por lo que son adecuadaspara formar parte del juego. No sería posible pa-ra un computador digital predecir exactamentequé respuestas daría el analizador diferencial pa-ra determinado problema, pero sería muy capazde dar el tipo correcto de respuesta. Por ejemplo,si se le pidiera que de el valor de π (alrededor de3.1416), sería razonable elegir al azar entre valo-res 3.12, 3.13, 3.14, 3.15, 3.16 con probabilidadesde 0.05, 0.15, 0.55, 0.19, 0.06 (por ejemplo). Ba-jo estas circunstancias, sería muy difícil para elinterrogador distinguir entre el analizador dife-rencial y el computador digital.

6.8. El argumento desde la informali-dad de la conducta.

No es posible producir una lista de reglas quepretendan describir lo que un hombre debierahacer en cada circunstancia concebible. Uno po-dría, por ejemplo, tener una regla en la que sedebe parar cuando alguien ve un semáforo en ro-jo, y de seguir si alguien ve la luz verde; pero,¿qué pasa si por alguna falla, ambas luces apa-recen juntas? Uno quizás decidiría detenerse yaque es más seguro. Pero una nueva dificultad bienpodría producirse más tarde por esta decisión. Elintento de proveer reglas de conducta para cubrircada eventualidad, incluso aquellas que se produ-cen por los semáforos, parece imposible. Estoy deacuerdo con todo esto.

Dado lo anterior, se dice que no podemos ser má-quinas. Trataré de reproducir el argumento, perome temo que no podré hacerle justicia. Parecie-ra que es algo así: “Si cada hombre tuviera ungrupo determinado de reglas de conducta por lascuales él regulara su vida, no sería más que unamáquina. Pero no existen tales reglas, así que loshombres no pueden ser máquinas”. La falacia ar-gumental es flagrante. No creo que el argumentose haya propuesto así alguna vez, no obstantecreo que ese es el argumento que se da. Sin em-bargo, podría hacer una cierta confusión entrelas “reglas de conducta” y las “leyes de compor-tamiento”. Se entiende por “reglas de conducta”los preceptos tales como “detenerse si uno ve unaluz roja”, sobre las cuales alguien puede actuar,y de las cuales se está consciente. Por “leyes decomportamiento” me refiero a las leyes de la na-turaleza aplicables al cuerpo de un hombre, talescomo “si lo pinchas, va a chillar”. Si substituimos“reglas de conducta que regulan su vida” por “le-yes de comportamiento que regulan su vida” enel argumento citado con anterioridad, la falaciadeja de serlo. Pues no solamente creemos que serregulados por leyes de comportamiento implicaser cierto tipo de máquina (aunque no necesaria-mente una máquina de estados discretos), sinoque recíprocamente, ser tal máquina implica serregulado por tales leyes. Sin embargo, no pode-mos convencernos tan fácilmente de la ausenciade leyes completas del comportamiento, como dela ausencia de reglas completas de la conducta.La única manera que sabemos para descubrir ta-les leyes es la observación científica, y ciertamen-te conocemos de circunstancia alguna en la quepodamos decir: “hemos buscado lo suficiente. Noexisten tales leyes”.

Podemos demostrar más convincentemente quecualquier declaración de este tipo sería injustifi-

16

Page 17: Maquinaria computacional e Inteligencia Alan Turing, 1950 1. El

cada: Suponga que estuviéramos seguros de en-contrar tales leyes cuando existieran. Entonces,dada una máquina de estados discretos, sería concerteza posible descubrir tales leyes a través su-ficientes observaciones de ella, y así predecir suconducta futura, y todo esto dentro de un tiemporazonable, digamos, mil años. Pero este no pare-ce ser el caso. He instalado en el computador deManchester un programa pequeño usando solo1000 unidades de almacenamiento, tal que cuan-do a la máquina se le provee con un número de 16dígitos, responde con otro número de 16 dígitosen dos segundos. Desafiaría a cualquiera a apren-der lo suficiente de las respuestas del programapara ser capaz de predecir cualquier respuesta avalores no probados con anterioridad.

6.9. El argumento desde la percepciónextra-sensorial.

Asumo que el lector se encuentra familiarizadocon la idea de percepción extra-sensorial, y delsignificado de sus cuatro términos, que son te-lepatía, clarividencia, precognición y psicoquine-sia. Estos fenómenos perturbadores parecieran iren contra de todas nuestras ideas científicas usua-les. ¡Cómo nos gustaría desacreditarlos! Desafor-tunadamente, la evidencia estadística, al menospara la telepatía, es abrumadora. Es muy difícilreordenar nuestras ideas de manera tal de queencajen con estos datos nuevos. Una vez que unolas ha aceptado, no parece un gran avance creeren fantasmas y cocos. La idea de que nuestroscuerpos se mueven simplemente debido a las re-glas físicas conocidas, junto a otras que aún nohan sido descubiertas pero que sin embargo sonsimilares, sería una de las primeras en ser aban-donadas.

Para mi criterio, este argumento es sólido. Unopuede fácilmente responder que muchas teoríascientíficas parecen ser útiles en la práctica, a pe-sar del conflicto con la P.E.S.; de hecho, uno pue-de olvidarse de ello sin mayor problema. Esto esconsuelo muy pobre, y me temo que el pensarsea el tipo de fenómeno donde la P.E.S. podríaser especialmente relevante.

Un argumento más específico basado en la P.E.S.podría ser: “Déjanos jugar el juego de la imita-ción, usando como testigo un hombre que es unbuen receptor telepático, y un computador digi-tal. El interrogador puede preguntar cosas talescomo ‘¿qué figura tiene la carta que tengo enmi mano derecha?’. El hombre, a través de te-lepatía o clarividencia, responde correctamente130 veces de un total de 400 cartas. La máqui-na sólo puede adivinar azarosamente, y obtiene104 respuestas correctas, por lo que el interro-gador realiza la identificación correcta”. Hay unaposibilidad interesante que se abre aquí. Supon-ga que el computador digital contiene un gene-rador de números aleatorios. Entonces, será na-tural usar esto para decidir qué respuesta dar.Pero entonces el generador de números aleato-rios estará sujeto a los poderes psicoquinéticosdel interrogador. Quizás esta psicoquinesia po-dría hacer que la máquina adivine correctamentecon más frecuencia de la esperada por un cálculode probabilidad, por lo que el interrogador seríaincapaz aún de realizar la identificación correc-ta. Por otro lado, él podría ser capaz de adivinarcorrectamente sin hacer preguntas, sino a travésde la clarividencia. Con la P.E.S. cualquier cosapodría pasar.

Si se admite la telepatía, será necesario afinarnuestra prueba. La situación podría ser conside-rada como análoga a lo que ocurriría si el inte-rrogador estuviera hablando consigo mismo en

17

Page 18: Maquinaria computacional e Inteligencia Alan Turing, 1950 1. El

voz alta y uno de los competidores estuviera es-cuchando con su oído en la pared. Poner a loscompetidores en una “habitación a prueba de te-lepatía” bastaría para cumplir todos los requeri-mientos.

7. Máquinas que aprenden.

El lector habrá anticipado que no tengo argumen-tos de naturaleza positiva muy convincentes paraapoyar mis puntos de vista. Si los tuviera, no mehabría tomado el trabajo de destacar las falaciasde perspectivas contrarias. Ahora presentaré laevidencia que tengo.

Volvamos por un momento a la objeción de LadyLovelace, la cual afirma que la máquina sólo pue-de hacer lo que le digamos que haga. Uno podríadecir que un hombre puede “inyectar” una ideaen la máquina, y que esta responderá hasta cier-to punto y luego caerá en un estado de quietud,tal como la cuerda de un piano cuando la gol-pea el martillo. Otra comparación sería una cargaatómica cuyo tamaño es menor al tamaño críti-co: una idea inyectada correspondería al neutrónque entra desde fuera. Tal neutrón causará ciertaalteración que eventualmente se acabará. Sin em-bargo, si el tamaño de la carga atómica es lo sufi-cientemente incrementada, la alteración causadapor la entrada de ese neutrón muy probablemen-te continuará sucesivamente, aumentando hastaque la carga se destruya. ¿Existe algún fenómenoanálogo para las mentes y existe uno análogo pa-ra las máquinas? Al parecer sí hay uno para lamente humana. La mayoría de ellas parecen ser“subcríticas”, es decir, en la analogía correspon-derían a cargas de tamaño subcrítico. La idea quese le presenta a una mente así generará en pro-medio menos que una idea en respuesta. Una pe-

queña proporción de ellas son supercríticas. Unaidea presentada a una de tales mentes podría ge-nerar toda una nueva “teoría” que contenga ideassecundarias, terciarias, y otras más remotas. Lasmentes de los animales parecieran ser absoluta-mente subcríticas. En relación a esta analogía sepuede preguntar, “¿se puede hacer una máquinapara que sea supercrítica?”

La analogía de las “capas de cebolla” también esútil. Al considerar las funciones de la mente o elcerebro, encontramos ciertas operaciones que sepueden explicar en términos puramente mecáni-cos. Decimos que esto no corresponde a la mentereal: es un cierto tipo de capa que debemos sacarsi queremos encontrar la mente real. Pero luegoen lo que queda, encontramos otra capa que sepuede remover, y así sucesivamente. Si se procedede esta manera, ¿podemos alcanzar en algún mo-mento la mente real, o eventualmente llegamos auna capa que no contiene nada? En este últimocaso, toda la mente sería mecánica. (Sin embar-go, no sería una máquina de estados discretos.Ya discutimos esto.)

Los dos últimos párrafos no aseguran ser necesa-riamente argumentos convincentes. Deberían envez ser descritos como “recitados que tienden aproducir creencia”.

El único fundamento realmente satisfactorio quese puede dar para la visión expresada al principiode la sección 6 será que, debemos esperar el finalde siglo y recién entonces, hacer el experimen-to descrito. Pero, ¿qué podemos decir mientrastanto? ¿Qué pasos deberían darse para que elexperimento sea exitoso?

Como he explicado, el problema es esencialmenteun problema de programación. También tendránque haber avances en la ingeniería, pero pareceimprobable que estos no vayan a ser adecuados

18

Page 19: Maquinaria computacional e Inteligencia Alan Turing, 1950 1. El

para los requerimientos. Las estimaciones para lacapacidad de almacenamiento del cerebro varíanentre 1010 a 1015 dígitos binarios. Yo me inclinopor los valores más bajos y creo que sólo una pe-queña fracción se usa en los tipos de pensamientosuperior. La mayor parte se usa probablemen-te para la retención de impresiones visuales. Mesorprendería si más de 109 se requiera para ju-gar satisfactoriamente el juego de la imitación,al menos, si se juega contra un ciego. (Nota: lacapacidad de la Enciclopedia Britannica, undéci-ma edición, es 2× 109.) Una capacidad de alma-cenamiento de 107 sería una posibilidad factibleincluso con las técnicas actuales. Es probable queno sea necesario incrementar la velocidad de lasoperaciones de las máquinas en lo absoluto. Laspartes de las máquinas modernas, que podríanser consideradas como análogas a células nervio-sas, trabajan cerca de mil veces más rápido queestas últimas. Esto debiera otorgar un “margende seguridad” el cual pudiera cubrir pérdidas develocidad que se produzcan de muchas maneras.Por lo tanto, nuestro problema es descubrir cómoprogramar estas máquinas para jugar el juego.En mi actual tasa de trabajo, produzco cerca demil dígitos de programa al día, por lo que cerca desesenta trabajadores, que trabajen regularmentea través de cincuenta años podrían lograr el ob-jetivo, si es que nada se debe desechar. Algúnmétodo más expedito parece deseable.

Durante el proceso de intento de imitación de lamente de un humano adulto tendemos a pensarbastante sobre el proceso que produjo el estadoen el que se encuentra. Podríamos mencionar trescomponentes:

(a) El estado inicial de la mente, digamos al mo-mento de nacer;(b) La educación a la cual fue sujeta;(c) Otra experiencia, no descrita como educación,

a la que haya sido sujeta.

En vez de tratar de producir un programa simi-lar a la mente adulta, ¿por qué no tratar en vezde producir una que simule la mente de un niño?Si ésta fuera luego sujeta al curso apropiado deeducación, uno obtendría el cerebro adulto. Pre-sumiblemente, el cerebro de un niño es algo asícomo un cuaderno que uno compra en una tien-da. Un mecanismo más bien simple, con muchashojas en blanco. (Mecanismo y escritura son casisinónimos para nuestro punto de vista.) Nues-tra esperanza es que haya tan poco mecanismoen el cerebro del niño, que algo así pueda serprogramado fácilmente. Podemos asumir en unaprimera aproximación que la cantidad de trabajoen la educación sería muy similar a la de un niñohumano.

Hemos por tanto dividido nuestro problema endos partes: el programa - niño y el proceso edu-cativo. Éstos permanecen estrechamente relacio-nados. No podemos esperar encontrar un buenniño-máquina al primer intento. Uno debe expe-rimentar enseñando a una máquina así y ver quétan bien aprende. Luego, se puede intentar conotra y ver si es mejor o peor. Hay una conexiónobvia entre este proceso y la evolución, a travésde estas identificaciones:

Estructura del niño-máquina = material heredi-tarioCambios de niño-máquina = MutacionesSelección natural = Juicio del experimentador

Uno podría esperar, no obstante, que este proce-so será más expedito que la evolución. La sobre-vivencia del más apto es un método lento paramedir ventajas. El experimentador, a través delejercicio de la inteligencia, debiera ser capaz deacelerarlo. Igualmente importante es el hecho deque él no se encuentra restringido a las muta-

19

Page 20: Maquinaria computacional e Inteligencia Alan Turing, 1950 1. El

ciones aleatorias. Si puede rastrear la causa parauna debilidad, puede probablemente pensar en eltipo de mutación para mejorarla.

No será posible aplicar exactamente los mismosmétodos de enseñanza a una máquina que los quese le aplicarían a un niño normal. No se le puedeproveer piernas, por ejemplo, por lo que no se lepedirá que vaya a buscar el cubo para el carbón.Posiblemente no tendría ojos. Pero sea como seaque estas deficiencias sean superadas por un di-seño inteligentemente planeado, uno no podríaenviar a la criatura a la escuela sin que los niñosno se burlaran excesivamente de ella. Se le debedar cierta instrucción. No debemos preocuparnostanto de las piernas, ojos, y otra cosas. El ejem-plo de la señorita Helen Keller demuestra que laeducación puede producirse siempre y cuando lacomunicación en ambos sentidos entre maestro ypupilo se produzca de una u otra manera.

Normalmente, se asocian los castigos y recom-pensas con proceso educativo. Se podría cons-truir o programar ciertos niño-máquinas simplesbasados en este principio. La máquina debe serconstruida de tal manera que los eventos previosa una señal de castigo sean poco probables devolver a ocurrir, mientras que la señal de recom-pensa aumente la probabilidad de repetición delos eventos que llevaron a ella. Estas definicionesno presuponen ningún sentimiento por parte dela máquina. He hecho algunos experimentos conuno de estos niño-máquinas, y tuve éxito en ensa-ñarle algunas cosas, pero el método de enseñanzafue demasiado poco ortodoxo como para que elexperimento sea considerado realmente exitoso.

El uso de castigos y recompensas puede, en elmejor de los casos, ser sólo una de las partes delproceso de enseñanza. En términos muy genera-les, si el profesor no tiene otros medios de comu-

nicarse con el pupilo, la cantidad de informaciónque le puede llegar no excede el número total derecompensas y castigos aplicados. Para el mo-mento en el cual el niño ha aprendido a repetir“Casabianca”, probablemente estará muy adolo-rido, si el texto sólo se pudiera descubrir a travésuna técnica tipo “Veinte Preguntas”, donde cada“No” toma la forma de un golpe. Es necesario porlo tanto tener algunos otros canales de comuni-cación “no emocionales”. Si estos estuvieran dis-ponibles, sería posible enseñarle a una máquinaa través de castigos y recompensas a obedecerórdenes en algún lenguaje, por ejemplo un len-guaje simbólico. Estas órdenes serían transmiti-das a través de los canales “no emocionales”. Eluso de este lenguaje disminuirá en gran medidael número de castigos y recompensas requeridos.

Las opiniones pueden variar respecto a la comple-jidad que es adecuada en el niño-máquina. Unopodría tratar de hacerlo lo más simple posibleconsistentemente con los principios generales. Obien, uno podría tener un sistema completo deinferencias lógicas “construido dentro” de él. Eneste último caso, el almacenamiento sería mayor-mente ocupado con definiciones y proposiciones.Las proposiciones tendrían varios tipos de esta-tus, tales como hechos bien establecidos, conje-turas, teoremas matemáticos probados, declara-ciones hechas por una autoridad, y expresionesque tengan la forma lógica de una proposiciónpero no un valor de creencia. Ciertas proposi-ciones pueden ser descritas como “imperativas”.La máquina debiera ser construida de tal ma-nera que tan pronto como una proposición im-perativa sea clasificada como “bien establecida”,la acción apropiada se produce inmediatamente.Para ilustrar esto, supongamos que el profesor ledice a una máquina “haz tu tarea ahora”. Estopodría hacer que “El profesor dice ‘haz tu tarea

20

Page 21: Maquinaria computacional e Inteligencia Alan Turing, 1950 1. El

ahora” ’ sea incluida entre los hechos bien esta-blecidos. Otro hecho como este podría ser “todolo que dice el profesor es verdad”. Al combinarestos dos se podría llegar al fin a que el impera-tivo “haz tu tarea ahora” sea incluida entre loshechos bien establecidos, y esto, dada la cons-trucción de la máquina, implicará que la tarea dehecho comienza a ser realizada; pero el efecto esmuy satisfactorio. El proceso de inferencia usadopor la máquina no necesita satisfacer a los lógicosmás exactos. Podría no existir una jerarquía detipos, por ejemplo. Pero esto no necesariamentesignifica que las falacias de tipo tienen que ocu-rrir más que lo que nosotros estamos destinadosa caer en los acantilados sin baranda. Impera-tivos apropiados (expresadas dentro del sistema,no que formen parte de las reglas del sistema) ta-les como “no use una clase a menos que sea unasubclase de otra que ha sido mencionada por elprofesor” pueden tener un efecto similar a “noacercarse demasiado al borde”.

Los imperativos que pueden ser obedecidos poruna máquina que no tenga extremidades estándestinados a tener un carácter más bien intelec-tual, como en el ejemplo (hacer la tarea) dadoarriba. Los imperativos que serán más importan-tes son aquéllos que regulen el orden en el cual lasreglas del sistema lógico utilizado sean aplicadas.Pues en cada etapa en la que se use un sistemalógico, existe un gran número de pasos alternati-vos, cualquiera de los cuales se puede aplicar enlo que concierne a la obediencia de las reglas delsistema lógico. Estas elecciones hacen la diferen-cia entre un razonador brillante y uno inútil, nola diferencia entre uno consistente y uno falaz.Las proposiciones que lleven a los imperativos deeste tipo podrían ser “cuando Sócrates sea men-cionado, use el silogismo en Bárbara” o “si unmétodo demuestra ser más rápido que otro, no

utilice el lento”. Algunos de éstos se podrían ser“hechos por una autoridad”, pero otros podríanser producidos por la propia máquina, a través,por ejemplo, de una inducción científica.

La idea de una máquina que aprende podría pare-cer paradójica para ciertos lectores. ¿Cómo pue-den las reglas de funcionamiento de una máquinacambiar? Estas debieran describir completamen-te cómo la máquina reaccionará sin importar cuálsea su historia, o los cambios por los que pudohaber pasado. Las reglas son entonces bastanteinvariantes en el tiempo. Esto es muy cierto. Laexplicación de la paradoja es que las reglas queson cambiadas en el proceso de aprendizaje sonde un tipo menos pretencioso, afirmando sola-mente tener una validez efímera. El lector puedehacer un paralelo con la constitución de los Es-tados Unidos.

Una característica importante de una máquinaque aprende es que su profesor será con bastan-te frecuencia muy ignorante sobre qué es lo queocurre dentro de ella, aunque aún así podría sercapaz de predecir la conducta de su pupilo, hastacierto punto. Este debería ser el caso en mayormedida en la educación tardía de una máquinaque surja de un niño-máquina con un diseño (oprograma) bien probado. Esto se encuentra endirecto contraste con el procedimiento normal alutilizar una máquina para que haga cálculos: enese caso, el objetivo es tener una imagen mentalclara del estado de la máquina en cada momentode la cálculo. Este objetivo se puede lograr so-lamente con dificultad. La visión de que “la má-quina solamente puede hacer lo que sepamos or-denarle que haga”, se vuelve extraña de cara aesto. La mayoría de los programas que podamosotorgarle a una máquina resultarán en que éstahaga algo que no tiene ningún sentido para noso-tros, o lo consideraríamos como comportamiento

21

Page 22: Maquinaria computacional e Inteligencia Alan Turing, 1950 1. El

completamente aleatorio. El comportamiento in-teligente consiste presumiblemente es una desvia-ción de la conducta completamente disciplinadainvolucrada en los cálculos, pero una desviaciónmoderada, que no genera conductas aleatorias, osecuencias repetitivas sin sentido. Otro resultadoimportante de preparar a nuestra máquina parasu parte en el juego de la imitación a través de unproceso de enseñanza y aprendizaje es que la “fa-libilidad humana” probablemente sea omitida demanera natural, es decir, sin un adiestramientoespecial. (El lector debiera reconciliar esto con elpunto de vista en páginas anteriores) Los proce-sos que son aprendidos no producen una certezadel cien por ciento en el resultado; si así fuera,no podrían ser desaprendidos.

Sería aconsejable incluir un elemento aleatorio enuna máquina que aprende. Un elemento aleato-rio es bastante útil cuando buscamos la solucióna un problema. Suponga, por ejemplo, que qui-siéramos encontrar un número entre 50 y 200 elcual es igual al cuadrado de la suma de sus dígi-tos; podríamos empezar con 51 y luego tratar con52 y continuar hasta que encontremos un númeroque funcione. Como alternativa, podríamos ele-gir números al azar hasta que encontremos unoque sirva. Este método tiene la ventaja de que esinnecesario mantener registro de los valores quehan sido probados, pero la desventaja de que sepodría intentar con el mismo número dos veces;pero eso no es muy importante si hay varias so-luciones. El método más sistemático tiene la des-ventaja de que puede haber un enorme bloquesin soluciones en la región que se investiga pri-mero. Ahora el proceso de aprendizaje podría serconsiderado como la búsqueda de una forma decomportamiento que satisfaga al profesor (o al-gún otro criterio). Dado que probablemente ha-ya un gran número de soluciones satisfactorias, el

método aleatorio parece ser mejor que el sistemá-tico. Debería señalarse que este es el que se usaen el proceso análogo de la evolución, ya que elmétodo sistemático no es posible. ¿Cómo se po-dría mantener registro de las distintas combina-ciones genéticas que se han probado, de manerade evitar realizarlas de nuevo?

Podríamos esperar que las máquinas eventual-mente compitan con los hombres en todos loscampos puramente intelectuales. Pero, ¿cuálesson los mejores para comenzar? Incluso eso esuna decisión difícil. Mucha gente cree que unaactividad muy abstracta, como jugar ajedrez, se-ría lo mejor. También se puede sostener que lomejor es proveer a la máquina con los mejoresórganos sensoriales que el dinero pueda comprary enseñarle a comprender y hablar inglés. Esteproceso podría seguir la enseñanza normal de unniño. Las cosas podrían ser señaladas y nombra-das, y así sucesivamente. Nuevamente, no sé cuálsea la respuesta correcta, pero creo que ambasaproximaciones debieran intentarse.

Sólo podemos ver una corta distancia delante denosotros, pero podemos ver ahí, muchísimo de loque se necesita hacer.

22