En una nota anterior, titulada Inteligencia no tan artificial, Marcel Bentancor, de la Facultad de Ciencias de la Universidad de la República, introducía conceptos y perspectivas sobre lo que se conoce como inteligencia artificial.

Aquí vamos a abordarlo desde otro ángulo, que tiene que ver con la historia de fascinación y búsqueda por crear entidades con características de los seres vivos, y más aún, de vida inteligente.

Un pato, un turco tramposo y la familia de HAL

Los antecedentes de autómatas más o menos convincentes vienen de tiempos precristianos, pero recién a partir del siglo XVIII y gracias a los avances en la mecánica de precisión derivados de la relojería, aparecen ejemplares elaborados como el pato de Vaucanson, capaz de picotear, tragar granos, procesarlos y... generar un excremento bastante convincente. Sobre inteligencia en sí, en esos tiempos a lo sumo se podía recurrir al engaño, como en el caso del famoso muñeco turco ajedrecista que asombró a las cortes europeas y en el que en realidad había un jugador humano oculto bajo el tablero.

La literatura de ciencia ficción, por su parte, se ensañó con aterrorizar a lectores con historias en las que invariablemente las máquinas, de alguna forma perversa, se vuelven en contra de sus creadores y buscan dominar el mundo. A fines de la década de 1960 la electrónica de estado sólido abrió la puerta a la construcción de robots con inteligencia rudimentaria. Pero 2001 Odisea del Espacio y Hollywood aparte, las computadoras son frustrantemente estúpidas, como lo puede atestiguar cualquiera que haya hecho un poco de programación.

Sin embargo, somos tozuda y particularmente vulnerables a percibir la ilusión de vida y de inteligencia como R2D2, el robot de La Guerra de las Galaxias, pero también a desarrollar empatía con dispositivos dotados del más rudimentario de los automatismos.

El investigador e informático Valentino Braitenberg propuso como experimento mental una serie de vehículos elementales que luego fueron construidos y se pueden ver en Youtube. Basta un par de sensores, motores y una interconexión elemental entre ellos, y a partir de esa arquitectura mínima, crear un comportamiento emergente complejo, tanto como para etiquetarlo según diferentes combinaciones de sensores y lógicas de movimiento, como “amor”, “miedo” o “agresión”. Menciono al pasar, pero quedará para otra ocasión, que estructuras o reglas engañosamente simples pueden resultar en patrones emergentes complejos; tal es el caso del juego de la vida de Conway y autómatas celulares similares sobre los que hay animaciones asombrosamente evocadoras de organismos vivos. También hay numerosos videos para quienes quieran curiosear.

Inteligente como un gusano

De hecho, en la naturaleza hay una vasta gama de organismos, desde aquellos completamente faltos de la menor traza de inteligencia, como una esponja (animales que no tienen sistema nervioso pero en los que se acaba de descubrir algunas células con características de nerviosas) hasta algunos bastante elaborados, como los primates.

Hermissenda crassicornis es un caracol marino con ojos rudimentarios que responden a luz o a la oscuridad, algo parecido a un oído interno que detecta movimientos, músculos y unas cuantas decenas de neuronas. En los años 70, un grupo de la institución Woods Hole, en Massachusetts, se puso a trabajar con este organismo para investigar las bases del comportamiento y formación de memoria, siendo una modelo suficientemente simple como para poder hacer un mapa completo de su sistema nervioso y entender cómo funciona. Se encontró que las bases del comportamiento se pueden deducir a partir de la forma en que sensores (ojos, oídos, tacto) y motores (músculos) se relacionan a través de interconexiones de neuronas en cuyo cableado está el programa nativo que define ese comportamiento e incluso el aprendizaje elemental.

Más chocante es el caso del gusano Caenorhabditis elegans, un modelo biológico utilizado en proyectos de investigación debido a su sencillez y facilidad de reproducción. En 2014 un proyecto colectivo llamado OpenWorm (aludiendo a los proyectos de código abierto como Linux) construyó el mapa del sistema nervioso de C. elegans de aproximadamente 300 neuronas conectadas entre sí y con terminaciones táctiles y musculares. Si el mapa genético se conoce como genoma, el mapa de interconexiones entre neuronas y terminaciones se conoce como conectoma. El conectoma de C. elegans se cargó en un robot Lego dotado de sensores de presión, motores y ruedas y, aun cuando la emulación de las neuronas no pretendió ser demasiado detallada, el robot se mueve, explora y en general se comporta como el gusano en cuanto a interacción con el entorno sin mediar ninguna programación adicional más que la copia del conectoma. También en este caso hay un sitio web del proyecto con videos.

Si una reconstrucción mecánica de un organismo se comporta en gran medida como el organismo mismo, hay una pregunta que surge automáticamente. ¿Será que una computadora suficientemente grande llegue a pensar? De otra forma, ¿un organismo artificial puede llegar a ser equivalente o indistinguible de un genuino ser vivo?

El conectoma de un gusano fue cargado en este robot para gobernar sus movimientos - Foto de Twitter de OpenWorm

El conectoma de un gusano fue cargado en este robot para gobernar sus movimientos - Foto de Twitter de OpenWorm

¿Las computadoras piensan?

Como es de esperar, también en este tema la gente se alinea en bandos antagónicos por razones muchas veces más emocionales que racionales.

Alan Turing fue un matemático inglés de mitad del siglo XX a quien se considera uno de los padres de las tecnologías de la información. Entre sus logros se cuenta haber dirigido el grupo de Bletchey Park, donde una rudimentaria y monstruosa máquina electromecánica, la primera computadora programable después del motor de diferencias de Charles Babbage, logró descifrar el cambiante código Enigma que utilizaba la marina de guerra alemana para comunicarse, entre otras cosas, con los submarinos que en el Atlántico depredaban los convoyes de abastecimiento aliados. Turing estableció formalmente las bases de la informática al definir teóricamente un autómata universal programable capaz de ejecutar cualquier algoritmo con base en un limitado mecanismo de interpretación de instrucciones.

Pero la razón por la que traemos a colación a Turing en este contexto es otra. A Turing le preguntaron si una computadora podría considerarse un ser pensante o no. Y su respuesta fue que, para dar una respuesta a esa interrogante, lo que hay que hacer es un experimento. El experimento que propuso se conoce como el test de Turing.

Para ello hay dos habitaciones cerradas, excepto por un buzón en cada una. En una hay un ser humano, en la otra una computadora, y afuera hay un operador que no sabe en cuál está la computadora y en cuál está el ser humano. El operador pasa preguntas por los respectivos buzones y recibe respuestas. Si el operador no consigue distinguir en cuál está la computadora y en cual la persona, entonces para Turing la computadora, desde todo punto de vista práctico, piensa.

Obviamente, muchos no quedan satisfechos con esta conclusión de objetivismo estricto (en los tiempos de Turing este test era inviable con las computadoras existentes, hoy en día se ha recreado en múltiples contextos con resultados ambiguos), y sostienen que el hecho del pensamiento como lo conocemos en el cerebro es singular y no reproducible por medios no biológicos.

Para mí es chino

Uno de los críticos mas vocales sobre la validez del test de Turing como prueba de inteligencia humana artificial es el filósofo John Searle, quien propuso en un paper de 1980 la tesis de que, sin importar cuán similar a la experiencia de interacción con un ser humano pueda ser, la máquina en esencia no tiene “mente” o “comprensión” en el sentido humano y que los estados mentales son privativos de cerebros biológicos.

Para apoyar su tesis toma el test de Turing y lo extiende partiendo de una de las habitaciones, pero con un par de cambios. Se reciben preguntas escritas en chino y dentro de la habitación hay un ser humano que no entiende chino pero tiene a su disposición cantidades ilimitadas de ideogramas y un libro de reglas, de tal modo que cuando recibe determinada combinación busca en las instrucciones que combinación de ideogramas tiene que dar como respuesta.

La idea es que visto desde afuera, la habitación china pasa el test de Turing en tanto genera respuestas correctas e indistinguibles de las generadas por un ser humano. Sin embargo, el operador, en tanto no sabe chino, no tiene la menor idea sobre el contendido semántico de lo que se intercambia. No tiene comprensión sobre la conversación, a diferencia de la que tiene un ser humano que sabe chino.

La distinción central para Searle es que “simular entender” no es equivalente a “entender” tanto como simular una carrera de fórmula 1 en una computadora no es equivalente a correr la carrera en un auto real. Para Searle, la habitación en su conjunto no entiende chino aunque lo parezca.

Esta discusión no es nueva. Ya el matemático Gottfried Leibniz planteó en 1714 la conjetura de que ningún mecanismo puede llegar a la esencia de la mente, y se ha reiterado a lo largo de la historia, pero el paper de Searle sigue siendo la referencia más icónica para detractores de la posibilidad de identificar como una mente genuina algo mecánico (o computacional hoy en día). Y así como la discusión no es nueva, también puede ser compleja. Por ejemplo, Roger Penrose, físico y matemático que por décadas trabajó con Stephen Hawking en en el origen y la estructura del universo, tiene su propia conjetura de que fenómenos cuánticos a nivel de las neuronas son los que hacen único al pensamiento de origen biológico.

¿Hay alguien ahí?

Ha corrido agua bajo los puentes sin que la controversia se encuentre zanjada, pero nuevos elementos agregan referencias sugestivas. La revista New Yorker publicó en octubre de 2019 un artículo de investigación del periodista John Seabroook enfocado fundamentalmente en los sistemas predictivos de generación de texto, como es el caso de Gmail, que sugiere desde hace años cómo completar una frase basado en el contexto y la historia del usuario. New Yorker no es una publicación científica y no pretende reportar con rigor técnico, más allá de lo cual, y en este tema en particular, tiene un fuerte interés por explorar la tecnología y perspectivas, habida cuenta de que se trata de su propia cancha, de la generación de contenidos.

Un caso notable analizado fue el de una experiencia con un producto llamado GPT2, de la compañía OpenAI, que tiene entre sus fundadores e inversores gente como Elon Musk. GPT2 utiliza el modelo de red neural que busca replicar la arquitectura del cerebro y utiliza fundamentalmente aprendizaje por ejemplos. La arquitectura de redes neurales por entrenamiento no pretende “diseñar” un funcionamiento sino dejar que el sistema aprenda solo, razón por la cual es esencialmente imposible entender analíticamente cómo funcionan estas.

En este caso, además del bagaje de conocimiento adquirido por el sistema a partir de analizar contenidos del foro Reddit (terabytes de texto) se le proporcionaron todos los artículos de New Yorker desde 2007, con excepción de aquellos de ficción y poesía. La idea fue ver si una vez entrenado, al darle al sistema un fragmento de texto de partida, podría tomar la idea y continuar escribiendo algo con sentido y en el estilo del New Yorker.

El resultado de varias pruebas fue una mezcla de perplejidad por aciertos, algunos errores garrafales, y la sensación general de que tal vez no estemos todavía frente a un autor válido pero tampoco ante un chorro de basura incoherente. GPT2 tiene unos 500 millones de interconexiones; el cerebro humano tiene centenares de billones de neuronas y trillones de interconexiones, pero en cinco años la tecnología podría estar alcanzando ese nivel.

Por lo que la sensación un poco inquietante es que tal vez algo se esté agitando y creciendo entre líneas, de que en algún momento podría pasar que preguntemos “¿Hay alguien allí?” y la respuesta que obtengamos sea: “Sí, tenemos que hablar”.