El 22 de marzo se publicó una carta abierta, firmada por personajes de la talla de Elon Musk y Noah Yuval Harari, solicitando una pausa en la investigación en Inteligencia Artificial (IA), particularmente en el caso de modelos que funcionan como “cajas negras” –como el reciente GPT-4–.

El argumento se podría caricaturizar así. En primer lugar, se afirma que el desarrollo de IA avanzada representa un “profundo cambio en la historia de la vida en la Tierra”, cuyos riesgos van desde la desinformación al “desarrollo de mentes no humanas que eventualmente (...) nos vuelvan obsoletos y nos reemplacen”. En segundo lugar, se presenta la consideración normativa de que los esfuerzos públicos por planificar y administrar ese cambio deberían ser acordes a su magnitud, y la constatación de que eso no está sucediendo: por el contrario, las decisiones recaen sobre unos pocos “líderes tecnológicos no electos”. Se concluye que es necesario detenerse y corregir ese desfase entre lo que debería ser y lo que es.

Las premisas resultan más interesantes que la conclusión. La carta expresa (no sin dramatismo) la intuición, ya común, de que vivimos en una época donde las máquinas, además de complementar el pensamiento humano, son capaces de aprender y mostrar comportamiento inteligente de manera relativamente autónoma. Somos testigos de un acontecimiento en la historia de la cognición: se pueden pensar cosas que eran impensables.

Un ejemplo ilustrativo es el trabajo del psicólogo Michal Kosinski. Tras mostrar que utilizando likes de Facebook podía predecir la personalidad de un/a sujeto con una precisión equivalente a la de su pareja (superando a compañeros de trabajo y familiares), mostró que –utilizando redes neuronales y sólo cinco fotos de la cara– podía predecir la orientación sexual con niveles de precisión tan altos como 91% (distinguiendo entre hombres homosexuales y heterosexuales). Kosinski, enfatizando el riesgo, señala la falta de transparencia de estos modelos: no sólo son “cajas negras”, sino que las predicciones se hacen “observando” variables que las personas no perciben.

La carta pregunta retóricamente: ¿deberíamos arriesgarnos a perder el control de nuestra civilización? Pareciera que eso que llaman “civilización” ya se halla bastante fuera de control –y, especialmente, fuera de nuestro control–. Nuestro lugar no es el de quienes escriben el código o toman las grandes decisiones. Nuestro lugar es el típico de la “inteligencia natural”: el de un animal social que toma pequeñas decisiones sobre asuntos concretos vinculados a su bienestar y el de los/as suyos/as (sea lo que sea que signifique eso para la persona). Uno de esos asuntos concretos es la educación propia, de nuestros/as hijos/as y nuestros/as estudiantes. En un contexto de transformación educativa, donde prima la retórica de la adaptación a un mundo cambiante, vale la pena explorar ideas en ese campo.

Se ha discutido mucho, recientemente, sobre el potencial de ChatGPT (y similares) tanto para potenciar el aprendizaje como para hacer trampa. Aunque los debates entre apocalípticos e integrados son interesantes, en cierta manera reeditan discusiones anteriores sobre el uso de nuevas tecnologías (desde la escritura, discutida por Platón, a Wikipedia y los correctores ortográficos). Una pregunta un poco más general –pero práctica– es la siguiente: en un mundo donde las máquinas muestran inteligencia (y lo harán cada vez más), ¿cuáles son las cosas que tiene sentido aprender?

Una dimensión de esa pregunta es la de la importancia asignada a diversos campos de conocimiento (STEM, humanidades, artes, etc.). Según una posición muy difundida, el correlato natural del avance tecnológico es la prioridad de las disciplinas científicas y técnicas. El Marco Curricular Nacional de ANEP parece adscribir implícitamente a esta visión; por ejemplo, al conceptualizar STEAHM (iniciales en inglés de ciencia, tecnología, ingeniería, artes, humanidades y matemáticas), hace aparecer a las humanidades y artes como subsidiarias de las demás disciplinas, a las cuales “humanizan” (p.56).

Además de impulsarnos a desarrollar habilidades técnicas, el advenimiento de máquinas inteligentes nos invita a profundizar en la capacidad de experimentar, de comprender y de dar sentido.

En su libro de 1967, El dilema del hombre, el psicólogo Rollo May da un argumento para una posición alternativa: el avance de la IA hace necesaria una revaloración de las artes y las humanidades, disciplinas que estudian y cultivan lo propiamente humano.

May narra un diálogo con un grupo de estudiantes que, en la California de los 60, organizaron un “baile con computadora”: completaron un cuestionario, y la moderna IBM de su universidad les dio una tarjeta con tres posibles parejas. Aunque los/as estudiantes disminuían su ansiedad de conocer gente nueva, May notó que sacrificaban la oportunidad de conocer a una persona muy distinta y descubrir “aquellos gustos, intereses y sensibilidades que ignoraban que tenían”. El algoritmo les daba cómodamente lo que deseaban, pero a cambio de no explorar los propios límites.

No es necesario enumerar las formas en que las máquinas simplifican nuestra vida de manera análoga. Hay casos extremos, como el del youtuber Dax Flame, que descansa sus decisiones vitales en ChatGPT; pero, ¿cuántas de nuestras propias funciones mentales son también delegadas? ¿Es una diferencia cualitativa o solamente de grado la que separa el “uso normal” del de Flame o los estudiantes?

La tecnología nos confronta con el dilema al que May dedica su libro: “el que se origina en la capacidad para sentirse como sujeto y objeto al mismo tiempo”. Somos un objeto en el mundo (un cuerpo, un nombre, una fuerza de trabajo) y también un sujeto, el centro de una experiencia del mundo. El problema no es la máquina sino la relación que nos permite tener con nuestra condición de sujetos; puede ser una herramienta de liberación, pero también “una manera de evitar enfrentarnos con nuestra propia ansiedad, nuestra alienación y nuestra soledad”.

En ese sentido, “una interpretación nueva de la importancia crítica de la capacidad de valoración del ser humano ayudaría a redescubrir las humanidades”. Además de impulsarnos a desarrollar habilidades técnicas, el advenimiento de máquinas inteligentes nos invita a profundizar en la capacidad de experimentar, de comprender y de dar sentido. ¿Cómo cultivar esas potencialidades? No hay que empezar de cero: durante milenios, las disciplinas artísticas y humanísticas han expresado y explorado la experiencia humana, desarrollando “tecnologías del yo” para conocer y hacerse cargo de la subjetividad.

La carta abierta recientemente publicada es sintomática del contexto histórico que nos toca: entre muchas otras cosas, un tiempo de máquinas pensantes. En nuestra realidad concreta, los cambios impelen a reflexionar sobre qué tiene sentido aprender y enseñar. Junto al saber técnico necesario para transitar este cambio de época, parece deseable profundizar en el conocimiento y desarrollo de lo subjetivo. Las humanidades y las artes, justamente, son las disciplinas que se especializan en aquello que nos distingue de las máquinas.

“¿No hay pruebas suficientes ya de que ni usted ni yo ni nuestros estudiantes tenemos la menor posibilidad de mantener el mismo paso que la máquina en lo que a producción se refiere? –afirmó Rollo May, hace más de 50 años– ¡Quizá la propia máquina nos demuestre que no tenemos otra opción que ser humanos!”.

Nigel Manchini es profesor de Filosofía y magíster en Neuropsicología y Educación.