Un medio para reconocer que los autómatas no son verdaderos humanos es que estos “jamás podrán usar de palabras, ni de otros signos, componiéndolos como hacemos nosotros para declarar a los demás nuestros pensamientos”, expresaba Descartes en su Discurso del método de 1637. Aproximadamente 400 años después, la puesta en producción y disposición pública de las herramientas de inteligencia artificial generativa atenúa el categórico “jamás” del comienzo, ampliando aparentemente la frontera de posibilidades de acción de las máquinas.
Para Descartes, a su vez, este medio para la diferenciación con los autómatas también nos separa de las bestias (animales), encontrando en la capacidad de generar y comprender el lenguaje como herramienta de comunicación y argumentación la virtud excepcional del ser humano para la comprobación de la existencia de un alma racional. ¿Podrán generar y comprender el lenguaje como los humanos las nuevas herramientas de inteligencia artificial? Si fuese así, ¿qué nos distingue entonces de un autómata?
La primera pregunta asume implícitamente que estas tecnologías actualmente generan y comprenden lenguaje. Aquellos lectores que hayan ingresado a las herramientas de creación de texto e imágenes disponibles habrán comprobado la potencia de respuesta ante algún requerimiento específico. No obstante, la interrogante presenta su centro en las palabras “como los humanos”, que puede entenderse en dos aspectos: 1) indistinguible de haber sido realizado por un humano o máquina, y 2) realizado bajo los mismos procesos que utiliza un humano para generar y comprender textos e imágenes.
En el caso del primer punto, existe cierta evidencia a favor de que incluso desarrollos anteriores a la inteligencia artificial generativa poseían características que no hacían distinguible el resultado de ser producido por un humano o una máquina.1 Por tanto, en el resto de la nota, el foco estará puesto en el segundo punto.
La máquina y su modelo mental del mundo
En cuanto a la generación del lenguaje, este último no parecería proceder en los seres humanos como un conocimiento innato, sino más bien como un desarrollo de la potencialidad que nos brindan las capacidades innatas de formar sonidos articulados y darles concepciones internas a dichos sonidos.2
En este sentido, el filósofo estadounidense Noam Chomsky desarrolla su gramática generativa a mediados del siglo XX, la cual establece (en términos simplificados) que el ser humano posee la cualidad de desarrollar y crear enunciados en base a la capacidad de aplicar un conjunto reducido de reglas simples de conjugación.3 De esta manera, además de generarse infinidad de enunciados con base en este conjunto limitado de reglas, se podría establecer un conjunto de palabras probables que completen una frase tal que cumpla con las reglas propuestas; en definitiva, el trasfondo del diseño de las herramientas de inteligencia artificial generativa, las cuales generan enunciados completando la siguiente palabra de acuerdo con la probabilidad que tiene de ocurrir dicha palabra en la frase, contexto y su regla de conjugación.
Por tanto, si se acepta la gramática generativa, la generación de texto por parte de la inteligencia artificial seguiría en principio los mismos procesos que utiliza un humano, con dos consideraciones.
En una disciplina tan cuantitativa como la economía, puede sonar contraintuitivo que la base teórica sea el conjunto de emociones y su potencial de incidir sobre nuestro pensar y actuar. No obstante, los cimientos marginalistas que reposan sobre la teoría económica moderna son, en definitiva, el placer y el dolor entendidos como medidas de magnitud.
La primera consideración, en pugna por el filósofo francés Éric Sadin, es que los humanos no elegimos según probabilidades nuestra siguiente palabra a utilizar, sino que surge espontáneamente y no somos capaces de predecir qué es lo siguiente que vamos a decir.4 Incluso tomando como cierta esta afirmación, los modelos de lenguaje aplicados en las herramientas de inteligencia artificial poseen la capacidad de “desordenar” las probabilidades de la siguiente palabra, de forma tal que no siempre se elija la palabra más probable y el lenguaje utilizado por la máquina sea menos predecible y, por tanto, más humano.
La segunda consideración es que el humano tiene un potencial de desarrollo de lenguaje extenso a partir de escasos estímulos, mientras que las tecnologías actuales requieren ser alimentadas con grandes volúmenes de información para obtener resultados aceptables. Es decir que, a pesar de que humanos y máquinas podríamos utilizar el mismo proceso para generar lenguaje, el primero todavía es más eficiente en su uso.
Por su parte, en cuanto a la comprensión del lenguaje, a pesar de que la disposición de la inteligencia artificial actual permite captar la esencia del requerimiento realizado y generar un texto bajo las directrices del lenguaje humano, el debate está planteado en torno a si la máquina puede (o podrá) amalgamar los conceptos vertidos de forma tal que, partiendo de ellos, englobe un modelo de interpretación del texto. Este debate se centra en la idea de que la comprensión humana, aunque no esté caracterizada precisamente, parte de la capacidad de desarrollar una conceptualización mental individual del mundo basada en intuiciones físicas, biológicas y psicológicas que permiten clasificar e interpretar estímulos.5
Esta capacidad de desarrollo en la clasificación e interpretación de los estímulos en base a un “modelo mental del mundo conocido” es, en parte, el segundo medio que Descartes propuso para reconocer que los autómatas no son verdaderos humanos, dado que, en carencia de este, el autómata será eficiente en algunas tareas complejas de cálculo pero excesivamente falible en tareas sencillas que impliquen comprender el ambiente.
En este sentido, la científica computacional Melanie Mitchell expone que los actuales desarrollos de inteligencia artificial generativa, al estar construidos con herramentales estadísticos que priman la generación de lenguaje con base en correlaciones y probabilidades, no poseen un esquema de conceptos a partir de los cuales posibilitar una interpretación de lo que se está generando.
No obstante, Mitchell señala avances recientes en esta dirección, particularmente en contextos controlados de juegos de mesa en los que la máquina, con relativamente escasa información de sus reglas, logra hacerse de un modelo conceptual del juego a partir del cual generar movimientos válidos.6 Aunque este resultado diste aun de la complejidad de las representaciones que nos hacemos los humanos, es un avance sobre la comprensibilidad del ambiente por parte de las máquinas y, por tanto, quizás en un futuro, la comprensibilidad del lenguaje.
En suma, la primera pregunta propuesta parecería responderse afirmativamente a favor de la capacidad de las máquinas de generar y comprender lenguaje como los humanos, a pesar de que este último todavía esté en su etapa potencial. ¿Acaso nada nos distingue de un autómata?
El último bastión de las bestias
En el libro ¿Sueñan los androides con ovejas eléctricas? el autor de ciencia ficción Philip K Dick crea un mundo distópico donde los animales (en su mayoría extintos) son el bien más cotizado del planeta y donde conviven de forma aparentemente indistinguible humanos y androides. Frente a la necesidad del humano de realizar esta distinción, con el fin de retirar del planeta androides defectuosos, se crea una prueba que logra captar, a partir de pequeñas variaciones en el iris ante preguntas sobre violencia/explotación animal, la empatía como un sentir no adquirido por los androides.
Inteligencia es saber escoger entre opciones. Quizás lo que nos distingue de los autómatas y las bestias es la capacidad de administrar y sopesar nuestras emociones con el fin de escoger entre un abanico de opciones aquella que, en principio, implique un placer mayor y a la vez genere el menor dolor posible.
El filósofo coreano Byung-Chul Han, en tanto, establece que la inteligencia artificial jamás podrá pensar porque el pensamiento se nutre del eros (el deseo) y la conmoción que genera un nuevo hallazgo.7 Quizás lo que nos distingue de un autómata sea lo que más nos acerca a las bestias: el sentir; el conjunto de emociones que adquirimos de forma innata y desarrollamos frente a los más inmediatos estímulos, cuyo potencial de incidir sobre nuestro pensar y actuar conllevó a que estos sean la base teórica de una disciplina social como la economía.
En una disciplina tan cuantitativa como la economía, puede sonar contraintuitivo que la base teórica sea el conjunto de emociones y su potencial de incidir sobre nuestro pensar y actuar. No obstante, los cimientos marginalistas que reposan sobre la teoría económica moderna son, en definitiva, el placer y el dolor entendidos como medidas de magnitud. En su libro La teoría de la economía política, de 1871, William Jevons (uno de los padres del marginalismo) expone que el placer y el dolor son los objetivos últimos del cálculo económico. Basados en el utilitarismo de Jeremy Bentham, explicita que las bases filosóficas de este cálculo económico es poder diferenciar que la magnitud del placer o el dolor dependerán de cuatro factores: a) su intensidad, b) su duración, c) su certeza o incertidumbre, y d) su cercanía o lejanía. Así como la utilidad de una mercancía será menor a medida que tengamos más de sí, la intensidad de un placer será menor a medida que aumente la duración del tiempo.
De esta concepción quizás se infiere erróneamente que la utilidad es un tipo de interés particular egoísta que cada individuo busca maximizar. No obstante, el interés personal puede tomar la concepción de aquel interés individual por el aumento de la riqueza (placer) que es moderada por el reconocimiento de los intereses de los demás, siguiendo la tradición de Adam Smith en su obra La teoría de los sentimientos morales. Esta concepción de interés que sopesa egoísmo y empatía, placeres y dolores, en pos de la mejor elección procurando un beneficio individual o social, es, en definitiva, la definición etimológica de la palabra inteligencia.
Inteligencia (“intuslegere”) es saber escoger (“legere”) entre (“intus”) opciones. Quizás lo que nos distingue de los autómatas y las bestias es la capacidad de administrar y sopesar nuestras emociones con el fin de escoger entre un abanico de opciones aquella que, en principio, implique un placer mayor y a la vez genere el menor dolor posible. La herramienta que la inteligencia artificial deja en nuestras manos, que las bestias no pueden administrar, que la economía toma como suya pero a veces queda oculta en sus desarrollos intermedios, la que toma la rienda en decisiones individuales y colectivas en épocas de elecciones. Aquella inteligencia particular que quizás buscaba Descartes para justificar al humano como cuerpo y alma, y que todavía nos evita preguntarnos, como el personaje de la novela de Dick a su compañero de oficio posterior a la ejecución de un androide, si creía que los androides poseían un alma.
Rafael Mosteiro, investigador del Cinve. Magíster en Economía por la Universidad de la República (X: @rmosteiro1, [email protected]). Entrada escrita para el blog SUMA del Cinve.
-
Epstein, R & Beber, G (2009). Parsing the Turing Test. California: Springer. ↩
-
Locke, J (1999). Ensayo sobre el entendimiento humano. Fondo de Cultura Económica. ↩
-
Chomsky, N (1957). Syntactic Structures. Nueva York: Mouton de Gruyter. ↩
-
Sadin, E (2024). La vida espectral. Buenos Aires: La Caja Negra. ↩
-
Mitchell, M (2023). “AI’s challenge of understanding the world”. Science, 382. ↩
-
Kenneth Li, A (2023). “Emergent World Representations: Exploring a Sequence Model Trained on a Synthetic Task”. ICLR 2023 Conference Program Chairs. ↩
-
Han, B.-C. (2021). No-cosas. Taurus. ↩