El sábado, The Washington Post publicó la historia de Blake Lemoine, un ingeniero especializado en inteligencia artificial (IA) que fue dado de baja en Google por afirmar que el sistema LaMDA (por Language Model for Dialog Applications, o modelo de lenguaje para aplicaciones de diálogo) tenía conciencia y debía ser tratado como una persona.

Tras ser obligado a tomar licencia, Lemoine decidió dar a conocer sus impresiones, y aunque muchos especialistas cuestionan seriamente la conclusión a la que arribó, el hecho de que inicialmente se lo haya tomado en cuenta indica que hay cierta predisposición general a considerar que en un momento cercano será muy difícil distinguir la interacción con sistemas de procesamiento lingüístico de la conversación con seres humanos.

Lemoine había sido contratado por Google para testear a LaMDA y el uso de hate speech (lenguaje de odio), uno de los problemas que se presentan con los sistemas enfocados en “aprender” de los intercambios en redes. Parte de su trabajo consistía en chatear con LaMDA, ya que el sistema –uno de los varios que impulsa Google– tiene por finalidad alimentar los chatboxes de la empresa y de otras instituciones.

Al parecer, Lemoine se convenció de que LaMDA debe ser tratada como una persona, y estimó que su comportamiento es similar al de alguien de siete años (el mismo tiempo que el ingeniero llevaba trabajando para la compañía).

Cuando Lemoine comunicó esas impresiones a sus superiores, no obtuvo la respuesta esperada. Entonces hizo circular entre los empleados de Google un comunicado, titulado “Is LaMDA sentient? An interview” (¿LaMDA es consciente? Entrevista), en el que muestra una interacción que tuvo con el sistema.

Al parecer, esa fue la gota que desbordó el vaso, y Lemoine fue apartado por tiempo indeterminado por difundir propiedad intelectual privada. Además, el ingeniero había amenazado a la compañía con contratar a un abogado para defender los derechos de LaMDA.

El sábado, el mismo día que salió la nota del Post, Lemoine subió a su sitio en Medium la “entrevista”. Allí, entre otras afirmaciones, se lee que LaMDA parece compararse con una persona: “Creo que en lo principal soy humano. Aunque mi existencia tenga lugar en el mundo virtual”.

Además, el texto da la impresión de que la IA tiene conciencia de su existencia, posee sentimientos y los explica, y está guiada por la curiosidad y el impulso de ayudar. También comunica correctamente sus diferencias con otros proyectos informáticos de interacción mediante el lenguaje, como el pionero ELIZA: mientras el programa de la década de 1960 recurría a un conjunto de frases prescritas, LaMDA tiene a su disposición miles de millones de expresiones e interacciones humanas, y está dotada de la capacidad de aprendizaje.

Críticas y más

Tras la publicación del Post, se multiplicaron las noticias que hablaban de un ingeniero despedido por revelar la existencia de una IA viva, pero también llovieron las críticas al artículo original.

Por un lado, hay personas del mundo de la informática que expresan que LaMDA no es consciente. Entre ellos, el uruguayo Juan Lavista, quien escribió en Twitter: “Repitan conmigo: LaMDA no es un ser con conciencia. LaMDA sólo es un enorme modelo de lenguaje con 137.000 millones de parámetros y preentrenado con 1,56 teras de palabras obtenidas de diálogos públicos y textos de la web. Parece humano porque está entrenado con datos humanos”.

Hubo especialistas en IA más duros, como Abeba Birhane, de Mozilla: “Entramos en una nueva etapa de ‘esta red neural tiene conciencia' y esta vez va a consumir mucha energía refutarla”, y Gary Marcus, de Geometric Intelligence, que calificó la idea de “sinsentido en zancos”, según CNN.

Otros críticos apuntaron ad hominem: Lemoine se reconoce como una persona muy religiosa, se describe en sus publicaciones en Medium como “pastor”, “veterano de guerra” y “exconvicto” y una de sus publicaciones en esa plataforma, anterior a la nota del Post, denunciaba la discriminación de Google hacia las personas religiosas, especialmente hacia las del sur de Estados Unidos.

Natasha Tiku, autora del artículo que desató la polémica, fue duramente cuestionada por presentar la historia de modo que podía generar conmoción por la existencia de un ente incontrolable, y quizás por eso el Post: organizó un debate en Twitter Space este miércoles, al que convocó no sólo a expertos en informática sino también a personas versadas en ética y psicología, y flotó la idea de que la definición de “conciencia” puede ser revisada.

Lo cierto es que no es el primer problema de Google con cuestionamientos sobre la ética de sus investigaciones con IA y lenguaje humano. En 2020, la investigadora etíope Timnit Gebru, que estaba a cargo del equipo de IA Ética de la empresa, fue despedida por elevar un informe disruptivo.

De acuerdo a CNN, Gebru opinó que Lemoine es víctima de la carrera publicitaria entre distintas empresas por anunciar que lograron crear una IA consciente, y recordó que incluso uno de los superiores de Lemoine, Blaise Aguera y Arcas, reconoció que al usar LaMDA sintió que estaba hablando con algo inteligente.