En un mundo donde la inteligencia artificial (IA) amenaza con reemplazar la mano de obra humana, concentrando aún más el poder en manos de unos pocos, algunos visionarios idearon una utopía: una IA comunista o socialista que democratice los beneficios del progreso tecnológico y que no sea meramente un eufemismo de militarismo o capitalismo. ¿Qué modelo prevalecerá en la economía del futuro?

Un espectro recorre Estados Unidos –el espectro del comunismo–. Esta vez, es digital. “¿Podría funcionar el comunismo gestionado mediante inteligencia artificial?”, se pregunta Daron Acemoğlu, economista del Massachusetts Institute of Technology (MIT). A la vez, al “capitalista de riesgo” Marc Andreessen le preocupa si China está a punto de crear una inteligencia artificial (IA) comunista.1 Hasta el agitador republicano Vivek Ramaswamy ofrece su propio análisis, afirmando en la red X que la IA procomunista constituye una amenaza comparable a la de la covid-19.

Pero ¿quién sabe realmente, en medio del pánico general, de qué estamos hablando? ¿Se trata de una IA comunista que seguiría el modelo chino, con plataformas calcadas de aquellas de las grandes empresas estadounidenses y sometidas a un férreo control estatal, o más bien de un enfoque del estilo Estado de bienestar a la europea, pero con un desarrollo centralizado en manos de las instituciones públicas?

La segunda opción presenta cierto atractivo, sobre todo porque la carrera en IA tiende hoy a anteponer la velocidad a la calidad ‒como pudimos darnos cuenta en mayo pasado cuando la función AI Overviews de Google recomendó poner pegamento en las pizzas y comer piedras.2 Una financiación pública de la IA generativa que se acompañara de una rigurosa selección de datos, así como de una supervisión exigente, podría aumentar la calidad de las herramientas y el precio facturado a los clientes corporativos, garantizando así una mejor remuneración para los creadores de contenidos.

Sin embargo, ¿intentar desarrollar una economía de la inteligencia artificial socializada no es claudicar incluso ante Silicon Valley? ¿Una IA “comunista” o “socialista” debe limitarse a decidir quién posee y controla los datos, o bien a modificar los modelos y las infraestructuras informáticas? ¿No podría implicar transformaciones más profundas?

Los visionarios de la IA

Dos ejemplos que tomamos de la historia contemporánea sugieren una respuesta positiva. El primero se denomina CyberSyn, la visionaria iniciativa del presidente chileno Salvador Allende.3 Dirigido por un carismático consultor británico llamado Stafford Beer, este proyecto tan ambicioso como efímero (1970-1973) apuntaba a inventar una forma más eficaz de gestionar la economía aprovechando los modestos recursos informáticos del país.

CyberSyn, a menudo calificado como una “internet socialista”, se basaba en el uso de la red de télex chilena para subir el conjunto de los datos de producción de las empresas nacionalizadas a una computadora central situada en Santiago. Sin embargo, con el fin de evitar las trampas de la centralización soviética, introducía una forma de aprendizaje automático de vanguardia destinada a dar más poder a los empleados.

Los técnicos gubernamentales fueron hasta las fábricas y trabajaron en un estrecho vínculo con los obreros para esquematizar los procesos de producción y gestión tal como se aplicaban en el terreno mismo del trabajo. Estas informaciones preciosas, inaccesibles para los directivos dentro de una empresa capitalista, se traducían de inmediato a modelos operativos, y después se los supervisaba con ayuda de softwares estadísticos específicos. De este modo, los capataces podían ser alertados casi en tiempo real de los problemas que se presentaban.

El núcleo del proyecto CyberSyn contenía la perspectiva de que fuera un sistema híbrido en el cual la potencia de cálculo amplificara la inteligencia humana. Transformar conocimientos implícitos en un saber formalizado y concreto tenía que permitir a los trabajadores ‒la clase recién llegada a los comandos del país‒ actuar con confianza y buen criterio cualquiera fuera su experiencia previa en materia de economía o gestión. ¿Habría en este proyecto algo con lo cual guiarnos en nuestra búsqueda de una IA socialista?

Para explorar más profundamente el significado de esta idea singular, tenemos que detenernos en las aventuras de Warren Brodey, un psiquiatra que se pasó a la cibernética antes de convertirse en hippie, y que ahora tiene 100 años.

A finales de los años 1960, gracias al dinero de un socio rico, Brodey creó en Boston un laboratorio experimental bautizado Environmental Ecology Lab (EEL). A pocas estaciones de subte de ahí, sus amigos Marvin Minsky y Seymour Papert, del MIT ‒institución a la que había estado afiliado durante un tiempo‒ desarrollaban proyectos de IA que, en su opinión, iban en la dirección equivocada. Minsky y Papert partían del principio de que el razonamiento humano estaba guiado por un conjunto de reglas y procesos algorítmicos abstractos que sólo había que enumerar y después descifrar para poder dotar a una computadora de “inteligencia artificial”.

De forma contraria a esta visión, Brodey y sus cinco colaboradores creían que la inteligencia, lejos de estar confinada a nuestros cerebros, nacía de las interacciones con nuestro entorno. Era una inteligencia ecológica. Las reglas y los mecanismos abstractos no tenían sentido en sí mismos, sino que todo estaba en el contexto. Un simple ejemplo les bastaba para ilustrar esta teoría: la orden de desvestirse significa cosas completamente distintas según la pronuncie un médico, un amante o un desconocido que uno se encuentra en un callejón oscuro.

Diseñar una inteligencia artificial capaz de captar de forma autónoma estos matices sutiles presentaba un verdadero desafío. Además de modelizar los procesos mentales humanos, había que pedirles a las computadoras que dominaran una variedad infinita de conceptos, de comportamientos y de situaciones, así como el conjunto de sus correlaciones; dicho de otra manera, había que abarcar en su totalidad el marco cultural de la civilización humana, la única, de hecho, en producir sentido.

En lugar de agotarse persiguiendo este objetivo en apariencia inalcanzable, el equipo de Brodey soñaba con poner las computadoras y las tecnologías cibernéticas al servicio de los seres humanos para permitirles explorar y enriquecer su entorno y, sobre todo, a sí mismos. Desde esta perspectiva, las tecnologías de la información no eran sólo herramientas para realizar tareas, sino instrumentos para pensar el mundo e interactuar con él. Imaginemos, por ejemplo, una ducha cibernética reactiva que le hable del cambio climático y la escasez de recursos hídricos, o de un automóvil que, durante el trayecto, le hable sobre el estado del sistema de transporte público. El laboratorio inventó incluso un traje que, si uno se lo ponía para bailar, cambiaba la música en tiempo real, dejando en evidencia los complejos vínculos entre sonido y movimientos.

El Environmental Ecology Lab se oponía de manera decidida a la Escuela de Frankfurt y a su crítica de la razón instrumental: era el capitalismo industrial, y no la tecnología, el que privaba a nuestro mundo de su dimensión ecológica y nos obligaba a recurrir a la racionalidad de medios y fines que denunciaban Theodor Adorno, Max Horkheimer y Herbert Marcuse. Para restaurar esta dimensión perdida, se proponía que tomáramos conciencia, con la ayuda de sensores y computadoras, de las complejidades que se escondían tras los aspectos de la existencia que nos parecían más banales.

Las excéntricas ideas de Brodey dejaron una huella profunda pero, paradójicamente, casi invisible en nuestra cultura digital. Durante su breve carrera en el MIT, Brodey tuteló a un tal Nicholas Negroponte, un tecnoutopista de vanguardia cuyo trabajo dentro del MIT Media Lab contribuyó en gran medida a definir los términos del debate en torno de la revolución digital.4 Sin embargo, las filosofías respectivas de ambos hombres diferían por completo.

Brodey creía que los aparatos cibernéticos de nueva generación debían distinguirse principalmente por su “reactividad”, un medio de facilitar el diálogo hombre-máquina y de agudizar nuestra conciencia ecológica. Postulaba que los individuos aspiraban de modo sincero a evolucionar y veía a la computadora como una aliada en esta empresa de transformación permanente. Su protegido Negroponte readaptó el concepto para hacerlo más manejable: las máquinas tenían como función primordial comprender, predecir y satisfacer nuestras necesidades inmediatas. En síntesis, Negroponte buscaba crear máquinas originales y excéntricas, mientras que Brodey, convencido de que los entornos inteligentes ‒y la inteligencia a secas‒ no podían existir sin las personas, buscaba crear humanos originales y excéntricos. Silicon Valley adoptó la visión de Negroponte.

Mejorar lo humano

Había otro elemento que hacía a Brodey muy singular entre sus pares: mientras que los expertos en informática de la época veían la IA como una herramienta para aumentar a los humanos –y a las máquinas les tocaba el trabajo sucio para estimular la productividad‒, él apuntaba a mejorar lo humano, un concepto que iba bastante más allá de la mera productividad.5

La distinción entre estos dos paradigmas es sutil, pero crucial. El aumento es cuando uno usa el GPS del teléfono celular para orientarse en un terreno desconocido: eso permite llegar de manera más rápida y fácil a destino. Pero la ganancia sigue siendo efímera. Sin esa muleta tecnológica, uno se encuentra más indefenso todavía. La mejora consiste en valerse de la tecnología para desarrollar nuevas competencias ‒en este caso, se trataría de afinar el sentido innato de la orientación recurriendo a técnicas de memorización, o de aprender a descifrar las señales de la naturaleza–.

En esencia, el aumento nos quita capacidades en nombre de la eficacia, mientras que la mejora nos hace adquirir algunas nuevas y enriquece nuestras interacciones con el mundo. De esta diferencia fundamental se deriva la manera en la que integramos la tecnología en nuestras vidas, sea para transformarnos en operadores pasivos o bien en artesanos creadores.

Brodey se había forjado esas convicciones mientras participaba, en calidad de psiquiatra, en un programa relativamente secreto ideado por la Agencia Central de Inteligencia (CIA) a principios de los años 1960. La agencia estadounidense había tenido la brillante idea de enseñar ruso a un equipo de no videntes seleccionados al azar y después hacerles escuchar las comunicaciones soviéticas interceptadas. La hipótesis era que, por ser ciegos, sus otros sentidos estarían más agudizados que los de los analistas dotados de visión. Tras varios años de trabajo con dichas personas con la finalidad de identificar las señales internas y externas ‒calor corporal, tasa de humedad ambiental, calidad de la luz...‒ que utilizaban para enriquecer sus percepciones, Brodey descubrió que su aptitud para perfeccionar sus sentidos era, de hecho, universalmente compartida.

Si bien este programa de mejora, que nos dotaba a todos de una sensibilidad artística en potencia, era decididamente poético, Brodey, un pragmático incorregible, lo juzgaba imposible de implementar sin la ayuda de computadoras. Cuando intentó importarlo al MIT para constituir un campo de investigación oficial, se encontró con una feroz oposición, y no sólo de parte de la élite conservadora de la IA. Otros también leyeron en ese proyecto sombrías connotaciones nazis: ¿acaso Brodey no estaba sugiriendo hacer experimentos con humanos? Esta reacción a la defensiva lo obligó finalmente a recurrir a donantes privados.

La profunda diferencia de matiz entre el aumento y la mejora de lo humano ‒y sus consecuencias en términos de automatización‒ no se hizo patente hasta décadas después. El aumento pretende crear máquinas que piensen y sientan como nosotros, con el consiguiente riesgo de dejar obsoletas nuestras habilidades. Las herramientas actuales basadas en la IA generativa no se proponen solamente “aumentar” el trabajo de artistas y autores, sino que, lisa y llanamente, amenazan con reemplazarlos por completo. A la inversa, las tecnologías inteligentes de Brodey no pretendían automatizar a la humanidad hasta volverla obsoleta ni estandarizar la existencia de nadie. Prometían enriquecer nuestros gustos y ampliar nuestras habilidades o, dicho de otro modo, elevar la experiencia humana en lugar de disminuirla.

Era un punto de vista valiente en el contexto de la época, cuando la mayoría de los representantes de la contracultura veían la tecnología como una fuerza anónima y desalmada de la que más valía desconfiar o, en las comunidades del estilo “retorno a la tierra”, como un instrumento de emancipación individual. Cuando formuló estas ideas a mediados de la década de 1960, Brodey vio desmoronarse su vida profesional y familiar. Sus tomas de posición lo acercaban cada vez más a los márgenes más vanguardistas del establishment estadounidense, del que había sido un miembro respetado. Como muchos dentro del movimiento hippie, no reconocía la legitimidad de lo político, lo que le impedía traducir sus teorías en reivindicaciones.

La militarización de la IA

Del otro lado del mundo, un filósofo soviético llamado Evald Ilyenkov, que había nacido en 1924 como él, se planteaba preguntas comparables, pero dentro del marco conceptual del “marxismo creativo”. Sus trabajos permiten comprender mejor qué recubre el concepto de mejora de lo humano dentro del pensamiento comunista y socialista.

Al igual que Brodey, Ilyenkov trabajó mucho con no videntes. De sus estudios concluyó que las capacidades cognitivas y sensoriales se derivan de la socialización y de las interacciones con la tecnología. Siempre que encontremos los entornos educativos y tecnológicos correctos, podremos cultivar habilidades que poseemos en estado latente. El comunismo apuntaba así, bajo la supervisión del Estado, a liberar las capacidades humanas dormidas a fin de que todos pudieran desarrollar plenamente el propio potencial, con independencia de las barreras sociales o naturales.

Desquiciado por la fascinación de los burócratas soviéticos por la inteligencia artificial al estilo estadounidense, Ilyenkov propuso una crítica particularmente convincente en un artículo de 1968 titulado “Ídolos e ideales”.6 En su opinión, poner a punto una inteligencia artificial se parecía a construir una enorme y costosa fábrica de arena artificial en el centro mismo del Sahara. Incluso admitiendo que funcionara a la perfección, era absurdo no aprovechar más bien los recursos naturales disponibles en abundancia más allá de sus paredes.

Casi 60 años más tarde, la denuncia de Ilyenkov no ha perdido actualidad. Seguimos atrapados en ese desierto defendiendo los méritos de la fábrica, sin darnos cuenta de que en realidad nadie, aparte de los jerarcas y los arquitectos del orden económico, la necesita. Brodey además utilizaba otra imagen, tomada de Marshall McLuhan: sus tecnologías ecológicas tenían el poder de abrirnos los ojos, como un pez que de repente tomara conciencia de la existencia del agua. Del mismo modo, ya es hora de que alguien les diga a los obsesionados con la IA que están rodeados de un gigantesco yacimiento de inteligencia humana, creativa, imprevisible y poética.

Queda entonces la pregunta: ¿podemos realmente mejorarnos a nosotros mismos si persistimos en esgrimir conceptos como la IA, que parecen contradecir la idea misma de desarrollo humano?

La ambición de construir una inteligencia artificial no sólo se tragó miles de millones de dólares; para algunos, también tuvo un costo en el plano personal. Y la intransigencia de los jóvenes lobos que presidieron su expansión ‒con su afán recaudatorio a diestra y siniestra y su rígida definición de las fronteras de la disciplina‒ llevó así a que quedaran marginados pensadores visionarios como Stafford Beer y Warren Brodey, que siempre se sintieron incómodos con la etiqueta de “inteligencia artificial”.

La IA en la Guerra Fría

Los dos hombres, que tuvieron oportunidad de conocerse poco tiempo antes de la muerte de Beer en 2002, procedían de entornos diametralmente opuestos. Beer, exdirector de una empresa, era miembro del sumamente elitista British Athenaeum Club; Brodey había crecido en Toronto en el seno de una familia judía de clase media. Esto no impedía que ambos consagraran un desprecio similar a la IA en tanto que disciplina científica y al dogmatismo de sus practicantes. También compartían un padre espiritual: Warren McCulloch, el gigante de la cibernética.

La cibernética había nacido justo después de la Segunda Guerra Mundial bajo los auspicios del matemático Norbert Wiener. Numerosos investigadores, pioneros en sus respectivos campos (matemáticas, neurofisiología, ingeniería, biología, antropología...), habían observado una dificultad común: todos se enfrentaban con procesos complejos y no lineales en los que se hacía imposible distinguir las causas de los efectos ‒el efecto aparente de un determinado proceso natural o social podía revelarse simultáneamente como vinculado con otro–.

Articulada en torno de esta idea de causalidad mutua y de imbricación entre fenómenos en apariencia independientes, la cibernética era menos una disciplina científica que una filosofía. Sus grandes pensadores no abandonaron su campo de investigación inicial, pero enriquecieron sus análisis con una nueva perspectiva. El abordaje interdisciplinar les permitió comprender los procesos operativos en las máquinas, los cerebros humanos y las sociedades por medio de un mismo conjunto de conceptos.

Cuando la inteligencia artificial hizo su aparición a mediados de la década de 1950, se planteó como una manifestación natural de la cibernética; en realidad, señalaba más bien una regresión. La cibernética había querido inspirarse en las máquinas para comprender mejor la inteligencia humana, no para reproducirla. Sin complejos, la disciplina emergente de la IA se propuso abrir una nueva frontera fabricando máquinas capaces de “pensarnos”. El objetivo no era atravesar los misterios de la cognición humana, sino satisfacer las exigencias de su principal cliente: el ejército. De inmediato la investigación se vio dictada por los imperativos de la defensa, lo que iba a revelarse como determinante para su evolución futura.

Así, algunos de los proyectos iniciales inspirados por la filosofía cibernética, como la tentativa de construir redes neuronales artificiales, fueron rápidamente reorientados hacia fines militares. De pronto, estas redes ya no apuntarían a desentrañar las complejidades del pensamiento, sino a analizar imágenes aéreas para localizar barcos enemigos o petroleros. La ambiciosa búsqueda de una inteligencia artificial terminó así por cubrir con un barniz de prestigio científico contratos militares banales.

En este contexto, lo interdisciplinario quedaba fuera de lugar. La IA estaba dominada por jóvenes y brillantes matemáticos o especialistas en informática que consideraban a la cibernética como demasiado abstracta, demasiado filosófica y, sobre todo, potencialmente subversiva. Hay que decir que, mientras tanto, Wiener había empezado a apoyar las luchas sindicales y a criticar al ejército, lo que no era el tipo de conducta que pudiera atraer la financiación del Pentágono.

La IA, que prometía “aumentar” a los operarios humanos y desarrollar armas autónomas, no padecía ese problema de imagen. Desde el principio, fue una disciplina científica aparte. Mientras que las ciencias tradicionales buscaban comprender el mundo a veces con la ayuda de la modelización, los pioneros de la IA decidieron construir modelos simplificados de un fenómeno del mundo real ‒la inteligencia‒ y después convencernos de que no había nada que diferenciara a esos modelos de la inteligencia misma. Es un poco como si algunos geógrafos renegados crearan una nueva disciplina, el “territorio artificial”, intentando hacernos creer que con los avances de la tecnología los mapas y el territorio pronto serían una sola y misma cosa.

En muchos aspectos, la trayectoria ‒y la tragedia‒ de la IA durante la Guerra Fría se parece a la de las ciencias económicas, en particular las estadounidenses. La economía en Estados Unidos había sido un pensamiento efervescente y plural, en sintonía con las dinámicas del mundo real, consciente de que el poder y las instituciones (desde los sindicatos a la Reserva Federal) tenían una influencia sobre la producción o el crecimiento. Las prioridades de la Guerra Fría la convirtieron en una disciplina obsesionada por los modelos abstractos –la optimización, el equilibrio, la teoría de juegos…‒ cuya pertinencia en la verdadera vida sólo tenía una importancia secundaria. Incluso si ciertas aplicaciones digitales, como la publicidad en línea o los servicios de automóviles con chófer (VTC), se apoyan ahora en estas construcciones matemáticas, la validez puntual de un abordaje sesgado no basta para redimirlas. El hecho concreto es que la economía ortodoxa moderna no tiene mucho que proponer para regular problemas como las desigualdades o el cambio climático si no son soluciones basadas en el mercado.

El mismo análisis vale para la IA, que, aunque se describe como un triunfo tecnológico, en general es un eufemismo para el militarismo o el capitalismo. Quizás sus heraldos reconozcan la necesidad de instaurar un mínimo de control y reglamentación, pero les cuesta mucho esfuerzo imaginar un futuro en el que nuestra concepción de la inteligencia no esté dominada por la IA. Desde el principio, la IA fue menos una ciencia ‒caracterizada por objetivos finales no predeterminados‒ que un híbrido de religión e ingeniería. Su designio último era crear un sistema informático universal capaz de realizar todo tipo de tareas sin haber sido entrenado de forma explícita para ello, una visión que conocemos hoy con el nombre de Inteligencia Artificial General (IAG).

Y en este punto interviene otro paralelismo con la economía: durante la Guerra Fría, la IAG se abordaba del mismo modo con el cual los economistas imaginaban el libre mercado, es decir, como una fuerza autónoma, autorregulada, a la cual la humanidad se vería obligada a adaptarse. Por un lado, el pensamiento económico escamoteaba el rol que desempeñó la violencia colonial, el patriarcado y el racismo en la expansión del capitalismo, como si prolongara de manera natural la inclinación humana “a traficar [y] a hacer trueques e intercambios de una cosa por otra”,7 según la célebre formulación de Adam Smith. Por otra parte, el relato tradicional de los orígenes de la IA reconoce los aportes de la cibernética, las matemáticas y la lógica, pero guarda silencio sobre el contexto histórico o geopolítico. Es como si calificáramos sencillamente a la eugenesia y la frenología como ramas de la genética y la biología, sin decir nada sobre su dimensión racista. No olvidemos, subraya Yarden Katz en su notable ensayo Artificial Whiteness,8 que la inteligencia artificial nunca habría existido sin el militarismo, el corporativismo y el patriotismo exacerbado de la Guerra Fría.

¿Podrá un concepto pervertido hasta ese punto volver a ponerse al servicio de las ambiciones progresistas? ¿No es tan inútil apelar a una “inteligencia artificial comunista” como soñar con talleres clandestinos con rostro humano o con instrumentos de tortura deliciosos?

Las experiencias de Stafford Beer y Warren Brodey sugieren que haríamos mejor en abandonar la fantasía de la inteligencia artificial socialista y nos concentremos en definir una política tecnológica socialista post-IA. Más que intentar humanizar los productos existentes imaginando aplicaciones de izquierda para ellos o inventando nuevos modelos de propiedad económica, necesitamos abrir a todos, sin consideraciones de clase, etnia o género, el acceso a instituciones, infraestructuras y tecnologías que favorezcan la autonomía creativa y permitan a las personas consumar plenamente sus capacidades. En otras palabras, tenemos que iniciar la transición del ser humano aumentado al ser humano mejorado.

Una política de ese tipo se apoyaría en los componentes del Estado de bienestar más alejados de las consignas conservadoras del capitalismo: la educación y la cultura, las bibliotecas, las universidades y las emisoras públicas. Abriría paso de este modo a una política educativa y cultural socialista, en lugar de reforzar la economía neoliberal como hace el enfoque actual.

El propio Brodey comprendió con bastante rapidez que no podía haber una IA socialista sin socialismo. A principios de la década de 1970, reconoció que el contexto de la Guerra Fría en Estados Unidos vaciaba de todo sentido su búsqueda de la “mejora humana” y la “tecnología ecológica”, por no mencionar el hecho de que se empeñaba en rechazar el dinero del Pentágono, e incluso de instituciones como el MIT, con el afán de marcar su oposición a la guerra de Vietnam.

Según Negroponte, Brodey nunca quiso saber nada de un puesto titular en el MIT. No le interesaban las comodidades. Prefirió ir y construirse una casa a base de espuma y globos en el medio del bosque de New Hampshire. Un entorno “reactivo e inteligente” que le venía bien. Pero esto iba demasiado lejos, incluso para sus admiradores. “No todo el mundo aspira a vivir en un globo”, bromeó Negroponte por entonces.

El pensamiento de Brodey estaba impregnado de utopismo. Él y su colega más cercano, Avery Johnson, alimentaban la esperanza de que la industria estadounidense adoptaría su visión: productos interactivos y con capacidad de respuesta que generan nuevos gustos e intereses en el usuario, en lugar de surfear la ola consumista. Pero las empresas optaron por la versión más conservadora de Negroponte, en la cual la interactividad permite a las máquinas, sobre todo, identificar nuestras angustias y hacernos comprar más.

En 1973, desilusionado, Brodey se instaló en Noruega. Ahí resurgió como maoísta, miembro activo del Partido Comunista de los Trabajadores, e incluso viajó a China para hablar con los ingenieros sobre su concepto de “tecnologías reactivas”. Para un hombre que había estado estrechamente implicado en proyectos para el ejército, la Administración Nacional de Aeronáutica y del Espacio (NASA) y la CIA durante la Guerra Fría, no era un giro anodino.

De acuerdo con las largas conversaciones que pude sostener con él en los últimos diez años en Noruega, donde todavía vive, Brodey sigue encarnando a la maravilla el proyecto de evolución abierta que defendía en los años 1960. Está claro que, para él, la mejora humana funcionó. Eso significa que quizá podría funcionar para todos nosotros, a condición de que elijamos las tecnologías adecuadas y cultivemos una buena dosis de escepticismo respecto de la inteligencia artificial, comunista o no.

Evgeny Morozov, autor del podcast A sense of rebellion, publicado en junio por Post-Utopia, en el que se basa este texto. Traducción del inglés: Élise Roy. Traducción del francés: Merlina Massip.

Una experiencia sensorial

A finales de la década de 1960, en el corazón de la América contestataria, un grupo de hippies apasionados por la informática y la cibernética se lanzó en pos de una utopía: desarrollar tecnologías que agudizaran los sentidos y la inteligencia de los humanos, y armonizaran su relación con el entorno. Entre la CIA y el LSD, el capitalismo y el maoísmo, los diez episodios del pódcast A Sense of Rebellion (disponible en inglés en www.sense-of-rebellion.com), dirigido por Evgeny Morozov y con sonido de Brian Eno, cuentan la historia de esta epopeya.


  1. Daron Acemoğlu, “Would AI-enabled communism work?”, www.project-syndicate.org, 28-6-2023. Véase también “Marc Andreessen: Future of the Internet, technology, and AI”, podcast de Lex Fridman N° 386, lexfridman.com, 21-6-2023. 

  2. Stephen Morris y Madhumita Murgia, “Google’s AI search tool tells users to ‘eat rocks’ for your health”, Financial Times, Londres, 24-5-2024. 

  3. “The Santiago Boys”, 2003; y Philippe Rivière, “El gobierno informático de Salvador Allende”, Le Monde diplomatique, edición Cono Sur, julio de 2010. 

  4. En particular a través de Nicholas Negroponte, Being Digital. Edición en español: Ser digital, Editorial Atlántica, Buenos Aires, 1995. 

  5. La primera publicación de este acercamiento por parte de Brodey data de 1967, aunque él se ocupó de promoverla desde 1964 (Warren M. Brodey y Nilo Lindgren, “Human enhancement through evolutionary technology”, IEEE Spectrum, Vol. 4, N° 9, Nueva York, setiembre de 1967). 

  6. Se encontrará una síntesis en Keti Chukhrov, “The philosophical disability of reason: Evald Ilyenkov’s critique of machinic intelligence”, Radical Philosophy, N° 207, Londres, primavera de 2020. 

  7. Adam Smith, Recherches sur la nature et les causes de la richesse des nations, libro I, capítulo 2, “Du principe qui donne lieu à la division du travail”. 

  8. Yarden Katz, Artificial Whiteness. Politics and Ideology in Artificial Intelligence, Columbia University Press, Nueva York, 2020.