La inteligencia artificial (IA) se desarrolló en dos corrientes opuestas: una individualista y calculadora, inspirada en el capitalismo, y otra colectiva, que emergió en la Unión Soviética (URSS). Con el triunfo del enfoque capitalista, representado por ChatGPT, se abre el debate sobre alternativas futuras. Mark Fisher diría que no, que estamos atrapados en un “realismo capitalista”.
En 1956 la ciudad estadounidense de Dartmouth recibió a un grupo de matemáticos para el “Proyecto de verano de investigación en inteligencia artificial en Dartmouth”, un seminario de investigación que instalaría el uso de la expresión para nombrar a aquellos sistemas que simulan la mente humana. John McCarthy impuso la fórmula para diferenciarse de Norbert Wiener y de los cibernéticos que, en esa época, concentraban la atención y los recursos asignados a la automatización de procesos industriales1. Los seguidores de la conferencia de Dartmouth se basaban en la teoría económica liberal, a diferencia de los cibernéticos, grandes conocedores de los filósofos antiguos y de las ciencias de la vida. Para abordar su nuevo campo de estudio, postulaban de entrada que “la mente era algo ordenado, que vivía en el interior del cerebro individual y que seguía una lógica implícita y confiable, que podría ser modelizada de manera convincente por modos computacionales derivados de la observación de acontecimientos sociales”2.
Los métodos de la IA están inspirados en la economía ortodoxa, extrapolando en particular los comportamientos humanos a partir de un modelo de individuo racional y calculador. Herbert Simon, uno de los pioneros, y economista, se basó en los estudios de Adam Smith sobre la administración y los procesos de toma de decisiones para orientar los fundamentos de lo que se convertiría en el “paradigma simbólico” de la inteligencia artificial: el diseño de sistemas que asocian series de reglas de decisión concebidas por especialistas. El psicólogo Franck Rosenblatt encontró inspiración para su perceptrón –ancestro de las “redes neuronales” y emblema del “paradigma conexionista”– en las obras de Friedrich Hayek sobre las estructuras de los mercados, las asociaciones descentralizadas y espontáneas: según ese modelo, la inteligencia artificial debería conducir a un orden natural capaz de organizar estadísticamente el mundo de manera más eficiente, funcional y racional que los individuos y los organismos colectivos tales como los Estados.
Esos dos campos, a menudo enfrentados en el seno de las ciencias de la computación (Computer Science), parten en realidad de los mismos axiomas. Como sostiene el filósofo Mathieu Triclot, es la noción imprecisa de “información” la que permitió las analogías entre cosas tan distantes como las máquinas y los seres vivos, las calculadoras y el cerebro, la economía política y la metafísica. Tales paralelismos contradicen el discurso de los cibernéticos y de los precursores de la informática, como John von Neumann, para quien “el tratamiento de la información que acontece en el cerebro es profundamente diferente de lo que sucede en una computadora”3.
Las figuras contemporáneas de Yoshua Bengio y Yann Le Cun, ambos ganadores del premio Turing en 2018, encarnan la IA conexionista. El primero, profesor de Informática en Montreal, propone la regulación e insiste sobre los peligros del desarrollo desenfrenado de la IA. El segundo dirige la investigación sobre inteligencia artificial de Meta (ex Facebook), de la cual es también vicepresidente, y procura ser más tranquilizador –motivado quizá por los intereses de su grupo–. Si bien sus discursos a menudo los enfrentan, ambos tienen una mirada calculadora e individualizante sobre la inteligencia humana, en línea directa con McCarthy y Rosenblatt.
Etiquetadores anónimos, ganancias millonarias
En el centro de los objetivos económicos, intelectuales, militares e incluso filosóficos, la inteligencia artificial se presenta como la sublime e ineludible culminación de la genialidad humana, en lugar de presentarse como el retoño degenerado del individualismo estadounidense.
A fines de los años 1980 comenzó un largo invierno para la investigación en ese ámbito. El término mismo de inteligencia artificial desanimó a los financiadores, y la IA tomó el nombre de “algoritmia avanzada”. En la misma época, los científicos de la URSS estaban desarrollando otro enfoque. Formados con otros presupuestos ideológicos que los de sus colegas occidentales, los investigadores soviéticos rechazaban la idea de una máquina pensante que imitara la racionalidad de un actor individual. La inteligencia humana, consideraban, emerge como una facultad social y cultural en la multitud de las interacciones entre individuos. McCarthy y sus colegas, al intentar copiar las cogniciones individuales, inscribían a la IA en la ideología del libre mercado y las ciencias cognitivas; la IA “soviética”, por el contrario, buscaba replicar la inteligencia que surge de las macroestructuras, demasiado complejas para el entendimiento humano. Tal vez ambos se hubieran encontrado al final del recorrido: para poner a punto la IA estadounidense y conexionista, el capitalismo tuvo que recolectar datos en forma masiva. Y para imaginar la IA comunista, los soviéticos reconocían que habría que “asimilar la cultura y el sentido humano”4. Su proyecto se institucionalizó en 1989 con la fundación de la Asociación Soviética de IA, en el preciso momento en que el sistema soviético tambaleaba.
En Estados Unidos, desde el año 1990, internet se convirtió en el pináculo del mundo tecnológico, y los inversores sobreexcitados volvieron a financiar, en forma desmedida, las investigaciones en este campo. Al menos hasta que estalló la burbuja de internet en 2000. La sacudida marcó el final de la fiesta. Las empresas digitales, hoy sometidas a las presiones de sus donantes de fondos, comenzaron una carrera por la rentabilidad que culmina en la publicidad. Google puso a punto la mercantilización de los datos personales capturados masivamente de los usuarios de servicios gratuitos y utilizados como materia prima para predecir y luego orientar los comportamientos. La nueva ola de la IA tiene sus raíces en ese capitalismo de vigilancia5.
Su explosión se dio a comienzos de los años 2010 con la publicación del desafío anual de reconocimiento de imágenes, ImageNet, construido en la base de datos del mismo nombre. Esta titánica producción se inscribe en un trabajo de largo aliento iniciado desde 2006 por la investigadora Fei-Fei Li. A diferencia de muchos colegas, no se concentró en los algoritmos y en la potencia de cálculo, sino en el dato: un recurso esencial para el cumplimiento de la profecía conexionista y cuya extracción masiva requiere el desarrollo de una internet bajo coerción comercial.
Así, desde 2011, la IA se encuentra moldeada por un tecnocapitalismo del cual ella depende. Los gigantes de la web y su ejército de etiquetadores, movilizados por la plataforma Amazon Mechanical Turk en los cuatro rincones del mundo, estructuran y perfeccionan las bases de datos. La edición de 2012 del desafío ImageNet vio el triunfo del “aprendizaje profundo”, el invento más ambicioso de los conexionistas, hasta entonces considerado irrealizable. Desarrollos recientes como el ChatGPT requirieron miles de trabajadores keniatas, explotados por menos de dos dólares la hora para etiquetar imágenes y textos.
El fin de los ideales éticos
En el imaginario colectivo está anclada la idea de que los progresos de la IA dependen del incremento casi infinito de los parámetros y, por lo tanto, de las capacidades de cálculo, lo que arrastra todo el aparato de producción hacia una carrera precipitada. La organización sin fines de lucro OpenAI fue fundada en 2015 con la participación de Peter Thiel y Elon Musk, figuras del capitalismo desenfrenado. Pretende promover y desarrollar “una inteligencia artificial general segura y compartir sus beneficios con el mundo entero”, como lo indica su sitio web6. Para garantizar que ello se respete, OpenAI está equipada con un consejo de administración científica compuesto por figuras reconocidas en la investigación sobre ética de los sistemas de IA, como Helen Toner. Cuatro años más tarde, la organización se transformó en una empresa lucrativa con ganancias limitadas –a los primeros científicos humanistas se unieron ingenieros ambiciosos, atraídos por las stock-options–. En 2020, OpenAI lanzó GPT-3, manteniendo al mismo tiempo grandes proyectos “éticos”, como la “superalineación” (la alineación de sistemas de IA superiores con objetivos y principios definidos por humanos), entonces dirigido por Ilya Sutskever y Jan Leike. La debacle de noviembre de 2023 reveló un importante cambio de rumbo: el comité de administración fue destituido y los imperativos comerciales tomaron la delantera. En setiembre del presente año, OpenAI finalmente eliminó su límite de rentabilidad: la empresa ya no considera la IA una ciencia fundamental al servicio de la humanidad, sino principalmente un producto a comercializar lo más rápido posible.
Con su promesa de generar conciencia en una máquina, sus sueños prometeicos y sus vocablos ambiguos –empezando por su nombre (ver supra)–, la inteligencia artificial estimula los imaginarios políticos. Su potencial autoritario y represivo y su capacidad de vigilar a los individuos no se les escaparon a los gobernantes. Ya en los años 1960, los órganos dirigentes de la Agencia Central de Inteligencia de Estados Unidos (CIA) anticiparon las tecnologías de análisis automático de información, lo cual justifica la captura masiva y la centralización de datos personales7. Al imaginar el aporte de la singularidad a las técnicas de control social, tanto Estados Unidos como China entendieron de forma muy temprana el interés de invertir en la investigación en matemáticas, desarrollar las infraestructuras de lo digital, desplegar a gran escala maquinarias de recolección de datos.
Pero el imaginario asociado a las máquinas automáticas también consta de un lado luminoso, el de la democracia digital. Esta ciberdemocracia se basaría en sistemas de información que involucrarían de manera activa a los ciudadanos. Pero una vez que sus sueños libertarios originales se disolvieron en el ácido océano de los datos, aquella tomó la forma de una “gobernabilidad algorítmica”, aún menos tranquilizadora porque presenta, según la jurista Antoinette Rouvroy y el profesor de filosofía política Thomas Berns, “una forma de totalización, de cierre de lo ‘real’ estadístico sobre sí mismo, de reducción de la potencia a lo probable”8. Una infraestructura de inteligencia artificial ciberdemocrática no podría ser compatible con tal gobernabilidad, basada en la captura de los datos y la orientación del comportamiento.
Tal como están, los sistemas de procesamiento estadístico –y en particular, la inteligencia artificial— no nos permiten vislumbrar una alternativa al orden económico y social que los engendró. Contradecir los “datos” y sus anticipaciones estadísticas, salir del determinismo algorítmico y reorientar las inteligencias artificiales necesitan como condición previa un primer movimiento: desnaturalizar la relación con la inteligencia y con la sociedad que esas tecnologías y los actores que las promueven transmiten.
Victor Chaix, Auguste Lehuger, Zako Sapey-Triomphe, doctorando en Humanidades Digitales, ingeniero de Investigación en IA e ingeniero, respectivamente. Este texto es la síntesis de una nota publicada en octubre en el sitio web del grupo de reflexión X-Alternative. Traducción: Micaela Houston.
Del archivo
“Un espectro recorre Estados Unidos –el espectro del comunismo–. Esta vez, es digital. ¿Podría funcionar el comunismo gestionado mediante inteligencia artificial?”. Con esta cita de Daron Acemoğlu, economista del Instituto Tecnológico de Massachusetts, comenzaba el artículo de tres páginas de Evgeny Morozov, titulado “Fantasía de ‘otra’ inteligencia artificial”, que publicamos en nuestra edición de agosto de 2024. El texto se estructuraba en torno a una pregunta central: si sería posible una IA socialista sin socialismo.
-
David J. Gunkel, “What’s in a name? Cybernetics vs AI”, sublationmedia.com, 19-6-2023. ↩
-
Jonnie Penn, “Animo nullius: on AI’s origin story and a data colonial doctrine of discovery“, BJHS Themes, 8, Cambridge, 2023. ↩
-
Mathieu Triclot, “La notion d’information dans la cybernétique”, jornada “Histoire et didactique des sciences”, universidad de Lyon 1, 6-12-2004. ↩
-
Olessia Kirtchik, “The Soviet scientific programme on AI: if a machine cannot ‘think’, can it ‘control’?”, BJHS Themes, 8, 2023. ↩
-
Ver Shoshana Zuboff, “La era del capitalismo de vigilancia”, Le Monde diplomatique, enero de 2019. ↩
-
“About” en la web de OpenAI. ↩
-
Félix Tréguer, “Cómo se combatió la vigilancia estatal”, Le Monde diplomatique, edición Uruguay, julio de 2024. ↩
-
Antoinette Rouvroy y Thomas Berns, “Gouvernementalité algorithmique et perspectives d’émancipation”, Réseaux, París, 177, 2013. ↩