martes, 12 de julio de 2016

La Sombra de Turing

Por Juan José Gaytán Mertens*



La influencia de Turing es enorme en casi todas las áreas del conocimiento, es venerado en Inglaterra por ayudar a ganar la segunda guerra mundial al construir una máquina capaz de desencriptar los códigos nazis (aunque al mismo tiempo fue juzgado por homosexualidad y condenado a castración química).

Turing creó el concepto de Máquina de Turing en la que establece los límites de la demostrabilidad y la computación, la Máquina de Turing sigue siendo el objeto central en teoría de la computación, la tesis Church-Turing formula lo que puede ser computable o no, Turing también realizó trabajos de morfogénesis en biología matemática, entre otras cosas.

Hace poco se filmó una película biográfica acerca de Turing “The Imitation Game” que se concentra en el trabajo alrededor de su máquina Enigma y, como casi toda película biográfica, es limitada y ofrece una versión romántica de Turing.

¿Las máquinas pueden pensar? Es la pregunta de éste artículo. Sea su respuesta afirmativa o negativa, yo le pregunto, ¿Cómo puede usted demostrar que puede pensar?


- ¿Les celebras funerales a tus parientes cuando mueren?
- No, normalmente corto sus cuerpos y los incinero.


La anterior conversación es parte de una plática entre un Chatbot (un programa de computadora) y un juez dentro del premio Loebner para inteligencia artificial 2012. 
El premio se celebra cada año desde 1990 organizado por el millonario filántropo Hugh Loebner y consiste en el desafío de crear una computadora (o programa) capaz de hacerse pasar por una humano en un conversación escrita estilo chat con una persona real. Pareciera otra locura caprichosa de las tantas a la que nos tienen acostumbrados algunos millonarios pero en esta ocasión se intenta responder a la nada trivial pregunta: “Can machine think?”, ¿Las máquinas pueden pensar?

Hay muchos ejemplos de máquinas pensantes en los libros o películas de ciencia ficción, máquinas que sirven a las personas, máquinas que platican y conviven con las personas, máquinas con conciencia, hasta máquinas con sentimientos. Pero, ¿podrán existir este tipo de máquinas en la vida real?

Hombre vs. Máquina


En 1950 un joven matemático ingles llamado Alan Mathison Turing publicó un artículo titulado Computing machinery and intelligence en la revista de filosofía Mind, en el que pregunta si las máquinas pueden pensar o no y cómo podríamos darnos cuenta de ello.
Turing propuso un juego (una prueba o desafío) de imitación para responder a sus preguntas. El juego consiste en separar a una persona y a una máquina en cuartos diferentes y aparte, en una tercera habitación, a una persona (juez) que realizara preguntas a ambos. Si el juez no es capaz de determinar cuál es la máquina y cual la persona, entonces se puede decir que la máquina tiene inteligencia. Es importante notar que es permitido mentir en la conversación. El juego se conoce actualmente como Test de Turing.

En su época, Turing recibió fuertes y variadas críticas a su prueba pero se resumen en tres principalmente:

1. Impedimento teológico: El pensamiento es una propiedad del alma del hombre. Dios ha dado un alma inmortal a todos los hombres y mujeres, pero no así a ningún otro animal, mucho menos a las máquinas. Por lo tanto, ningún animal o máquina puede pensar.
Turing respondió que esta forma de pensar restringe gravemente la omnipotencia de Dios, ya que admite que existen cosas que Dios no puede hacer, como por ejemplo que Dios pueda conceder alma a un animal o a una máquina si lo considerase apropiado.

2. Impedimento matemático: Las máquinas que se construyan intentarían ser un sistema lógico poderoso pero el famoso Teorema de incompletitud de Gôdel demuestra que ningún sistema en las matemáticas puede ser consistente (i.e. no hay proposiciones ciertas y falsas al mismo tiempo) y completo (i.e. toda afirmación cierta puede ser probada y toda afirmación falsa puede ser refutada) al mismo tiempo. Godel lo demostró construyendo una hermosa proposición matemática: “Esta proposición no puede ser demostrada”. Una paradoja. Si podemos demostrarla, tenemos una contradicción, y el sistema es inconsistente. Si no puede ser demostrada, entonces la proposición es cierta. Pero no puede ser demostrada, lo que indica que el sistema es incompleto. Así que las matemáticas o son inconsistentes o son incompletas.

La respuesta de Turing fue que pesar de haberse establecido algunas limitaciones a las capacidades de cualquier máquina en particular, en ningún momento se ha demostrado que tales limitaciones no se encuentren también presentes en la inteligencia humana. En muchas ocasiones los humanos también damos respuestas equivocadas en comparación con la ofrecida por una máquina y, sin embargo, no le atribuimos la superioridad a la máquina.

3. Impedimento de conciencia y conducta: Ningún mecanismo podría sentir alegría por sus éxitos, tristeza cuando sus válvulas se fundieran, placer al ser adulado y sentirse desgraciado a consecuencia de sus errores, encantado por el sexo, enfadado o deprimido al no lograr lo que desee.
La conducta de un ser humano es demasiado complejo como para ser descrito mediante unas simples reglas de un juego (problema de cualificación) por lo tanto, no es posible elaborar un conjunto de reglas que describa lo que una persona debería hacer en cualquier serie de circunstancias posibles. Como consecuencia, una máquina no podrá imitar por completo el comportamiento de una persona pues no conocería todas estas reglas.

Las leyes de conducta por las que se rige una persona, como es pararse ante un semáforo en rojo, si pueden ser conocidas. Sin embargo, las leyes de comportamiento como las que sigue una persona en caso de encontrarse en un camino con dos señales que se contradicen, tendrían que ser encontradas mediante la observación científica. Siendo así, y suponiendo que se pudieran encontrar tales leyes si existieran, se podría llegar a predecir el comportamiento llevado a cabo por una persona a partir de cualquier circunstancia.

Turing argumenta que muchas de estas limitaciones se deben en gran medida a la reducida capacidad de memoria que presentan las máquinas. Con una memoria casi ilimitada podrían programarse una cantidad enorme de reglas que simulen el comportamiento humano.

¡Engáñame! (Si puedes)


En el año 2010, por primera vez en los veinte años del concurso, un programa por fin logró confundir a uno de los jueces en el premio Loebner. El programa Suzette simuló un enfado tras la insistencia del juez en hablar de política y en repetir las mismas preguntas.

El creador de Suzette, Bruce Wilcox, es un programador de videojuegos que ha ganado dos veces el premio Loebner. Pareciera un gran logro pero él mismo ha comentado que Suzette es solo una ilusión, Suzette intenta adivinar de que está hablando su interlocutor en base a sus 26,000 reglas de conversación programadas. Muchas veces, los intentos pueden ser terriblemente incorrectos y muy divertidos para el interlocutor. EL secreto de Bruce para ganar ese año fue incluir en la conversación de Suzette una noticia que había visto en televisión la noche anterior.

Eugene Goostman es un adolecente ucraniano de 13 años, tiene como mascota un cerdo de guinea y su papá es ginecólogo. Los 13 años es una edad en la que no estas demasiado joven para no saber nada y ni estas demasiado viejo para saber todo. Al menos eso es lo que creyeron el 33% de los treinta jueces que participaron en el premio Loebner de 2014 y que chatearon con el programa Eugene creado por Vladimir Veselov. La estrategia de Veselov fue darle una personalidad creíble a Eugene y disfrazar sus respuestas con una capa de humor.


Los ejemplos anteriores son ejemplos de chatbots que han superado el premio Lobner pero ha habido otros concursos con casos exitosos de programas que han logrado engañar a los jueces. En 1991, el programa PC Therapist creado por Joseph Weintraub logró engañar a 5 de 10 jueces que platicaron con él introduciendo errores en la escritura a propósito.

En el año de 2011 se celebró un festival de inteligencia artificial en la ciudad de Guwathi en la India; 13 voluntarios entablaron una plática por chat con un ente desconocido para ellos, la mitad de los voluntarios platicaron con humanos y el resto con el programa Cleverbot desarrollado por Rollo Carpenter. En un auditorio aparte, arriba de un millar de personas podían ver las conversaciones en unas pantallas enormes y juzgar sobre quien era humano y quien no; el 59.3 % de los 1334 votos dijeron que Cleverbot era humano mientras que el 63.3 % dijeron que lo eran los voluntarios. Con el resultado anterior ¿quiere decir entonces que Cleverbot puede pensar? La respuesta de Carpenter fue no.

"Que dice mi mamá que siempre no"

Es importante distinguir que Turing plantea la pregunta ¿Pueden pensar las máquinas? pero no la responde sino que propone su prueba como camino de solución llevándola a escenarios mas controlables. La pregunta sería entonces ¿El test de Turing permite responder la pregunta inicial?

Hagamos algunas observaciones a la prueba de Turing:
Los simios son de los pocos animales que usan herramientas adicionales a su cuerpo para obtener comida, pero ningún simio podría pasar la prueba de Turing. La prueba equipara incorrectamente al lenguaje con pensamiento. La prueba es logocéntrica.

En la prueba, los jueces entablan una conversación con una computadora y otra con un humano, es decir, que no depende solamente de la computadora superar la prueba sino también del oponente humano. Si el humano decide exhibir en la conversación ante el juez un comportamiento mas “robótico”, podría asistir a la computadora de manera indirecta para que gane el premio.

La prueba de Turing mide la capacidad para imitar a un ser humano. Es decir, la máquina intenta engañar a su interlocutor haciéndole creer que piensa, solo finge que lo hace. La mayoría de los chatbots ganadores a los premios Loebner lo han hecho pareciendo tan torpes como un humano. Con esto se fomenta el diseño de computadoras que engañen más que el diseño de computadoras pensantes.

El test se basa en una visión antropocéntrica de la inteligencia. Supone intrínsecamente que en caso de que hubiera inteligencia, esta sería una réplica de la inteligencia humana. La prueba mediría entonces, a lo más, la inteligencia tipo humana que la computadora fuera capaz de transmitirnos.

Orson Scott Card, en sus novelas de la Saga de Ender, propone una jerarquía de exclusión de 4 cuatro escalones que clasifica las relaciones entre la humanidad y el resto de las criaturas conocidas; Scott dice que una especie es Varelse si posiblemente sea inteligente pero es incapaz de comunicarse con los humanos, es decir, que los humanos no saben si tienen puntos en común con ellos ni adivinar sus objetivos o causas que las hacen actuar: son una amenaza.

Si una máquina inteligente quisiera que le diéramos por superada la prueba tendría que hacer dos cosas: ser inteligente y tener una interfaz que pudiéramos entender e imitar nuestra forma de comunicarnos. En las mismas novelas de Scott Card hay un ente inteligente autollamado Jane que existe en la red de ansibles (una red de dispositivos de comunicación más rápidos que la luz), con un pensamiento más rápido que cualquier humano y que tiene que simular un rostro por computadora para poder comunicarse con el personaje de la novela.

Si se comporta como humano, ¿es humano? Si se comporta como terrorista, ¿es terrorista? Este mismo criterio ha hecho que se cometan muchos asesinatos en varios países como por ejemplo el caso de Tamir Rice en 2014, un niño que amenazaba a varias personas con un arma de juguete y que un oficial de policía novato le disparó tras recibir un llamado del 911.

En 2005, Jean Charles de Menezes fue abatido a tiros en el metro de Londres por la policía tras haberlo confundido con el terrorista Husein Osman (según la versión policial), Menezes empezó a ser monitoreado por la policía 24 horas previas al incidente tras la tensión producida por los atentados terroristas ocurrido pocos días antes.

¿Cuánto tiempo debe durar la prueba para determinar que la computadora ha engañado al juez? Turing no lo específica en su texto. En el premio Loebner se ocupan en promedio 5 minutos para cada conversación, pero la sesión en la que ganó el programa Suzette se extendió a 25 minutos, lo que requiere que el juez tenga un nivel de atención superior sin cansancio.

Mi computadora es mejor que la tuya

Cualquier niño de 6 años podría guiarnos por la colonia donde vive e irnos contando actividades de las personas que conoce, describirnos los comercios y responder a las preguntas que le hagamos en el camino (respondiendo correctamente o no). La página de INEGI puede darnos cifras y hechos respecto a la misma colonia, como por ejemplo los materiales de construcción de las casas, pero sería incapaz de ofrecernos una mínima fracción del conocimiento que el niño nos transmitiría en aquel paseo.

El cerebro humano es muy limitado para almacenar y recordar hechos, constantemente hace un filtro de los hechos que guarda en la memoria, pero es excelente para manipular el conocimiento e incorporar relaciones entre los hechos. Una computadora es mejor para almacenar y manejar datos que conocimiento.

Una base de datos es una gran cantidad de información o de hechos organizados, una base de conocimientos cuenta con la habilidad de determinar y modificar las relaciones de los hechos que almacena. Hasta ahora, los científicos de la computación no han logrado crear una base de conocimientos que pueda comprender el mundo como lo haría cualquier niño. Las computadoras no pueden sustentarse en los años de experiencia de los seres humanos para construir modelos mentales del mundo y no desarrollan de manera automática un sentido común.

Gran parte de la investigación sobre inteligencia artificial se centra en proporcionar a las computadoras formas de adquirir y almacenar conocimiento de sentido común sobre el mundo real. Cuando la base de conocimientos se restringe a dominios estrechos y profundos (dominio experto) puede ser una herramienta eficaz y práctica. Por ejemplo, las bases de conocimiento en los sistemas expertos usados en las empresas y ciencia.

Es difícil definir a lo que nos referimos por pensar. Si creemos que la autoconciencia es necesaria para pensar entonces una máquina ha podido superar la prueba de Turing sin tener conciencia alguna.

La meta actual es hacer máquinas que generen conciencia, el reto es que no tenemos ninguna idea de cómo es que el cerebro humano la genera. ¿Qué es lo que hace que un sistema de redes electroquímicas genere conciencia? Es una excelente oportunidad para que computólogos, químicos, neurólogos, psicólogos y demás científicos afines puedan trabajar en conjunto y con una meta en común.

*Ciencias de la Computación.
juan.gaytan@ciencias.unam.mx
FC - UNAM.~2014 

Base de datos

• Home Page of The Loebner Prize in Artificial Intelligence
"The First Turing Test"
http://www.loebner.net/Prizef/loebner-prize.html

• ¿Filántropos o caprichosos? Así gastan su fortuna los millonarios de la tecnología
David G. Ortiz miércoles, 13/02/13
http://noticias.lainformacion.com/ciencia-y-tecnologia/tecnologia-general/filantropos-o-caprichosos-asi-gastan-su-fortuna-los-millonarios-de-la-tecnologia_moX2zqv4fe023HERAfhjo7/

• Vida y Legado de Turing, de Manuel de León y Ágata Timón. Madrid. Consejo Superior de Investigaciones Científicas; Los libros de la Catarata. 2014

• "Can Machines Think?" AI Magazine, vol 13 # 2, 1992.
http://www.aaai.org/ojs/index.php/aimagazine/article/view/993/911

• The Alan Turing Year
http://www.turingcentenary.eu/

• BBC News
http://news.bbc.co.uk/2/hi/in_depth/629/629/7073125.stm

• Revista New Scientist
http://www.newscientist.com/

• "Alan Turing, his work and impact." S. Barry Copper, Jan Van Leeuwen. Elsevier, 2013

No hay comentarios.:

Publicar un comentario