El mundo libre encontró un nuevo héroe. ¿Su nombre? Dario Amodei, ciudadano estadounidense de 43 años. Amodei cofundó y dirigió la empresa Anthropic, principal rival de OpenAI en el mercado de la inteligencia artificial (IA). Si creemos a los grandes titulares de la prensa internacional, encarna la resistencia a la deriva fascista de la administración estadounidense. ¿Acaso Anthropic no es aquella “start-up de IA que se atrevió a contradecir a Donald Trump” (Le Monde, 11 de febrero), cuando se negó a ceder ante los ultimátums del Pentágono? ¿Aquella cuya “valiente toma de posición” puso a la administración de Trump “fuera de sí” (Fortune, 21 de febrero)? Desde la vuelta al poder del millonario a la Casa Blanca en enero de 2025, la alianza cada vez más asumida entre los industriales de lo digital y el presidente estadounidense provocó un cierto malestar en un medio con fama de liberal. Pero todo lo que termina bien está bien: Anthropic habría devuelto el prestigio al sector al imponer sus “líneas rojas” al Estado y al ejército.

Repasemos los hechos. En julio de 2025, Anthropic firmó con el Ministerio de Defensa un contrato de 200 millones de dólares a dos años: la empresa se convirtió así en la primera en desplegar un gran modelo de lenguaje (large language model, o LLM) en las redes clasificadas del Pentágono. Su producto estrella, bautizado Claude, se articuló con la plataforma de big data suministrada por Palantir, y el conjunto se integró a la infraestructura de alojamiento “ultrasecreta” construida por Amazon.1 Ahora bien, desde su creación en 2021 Anthropic hizo de la “ética” su credo. Así, la empresa estableció dos límites que en aquel momento el ejército pareció aceptar: no utilizar sus IA en el marco de una vigilancia masiva de los residentes estadounidenses, ni tampoco para guiar armas totalmente autónomas, es decir, sin supervisión humana.

Sin embargo, acto seguido, Trump promulgó un decreto presidencial que apuntaba a “impedir el uso de IA woke dentro del gobierno federal”. Un texto incluido el 11 de diciembre de 2025 en un memorándum instaba a las agencias federales a revisar los contratos existentes entre la administración federal y los proveedores de LLM, desde el momento en que dichos sistemas podían implicar “sesgos ideológicos”.2 Este febrero, el Pentágono exigió públicamente a Anthropic que levantara sus restricciones contractuales a fin de autorizar cualquier aplicación que el ejército juzgara lícita –algo a lo que la empresa se negó–. El 27 de febrero a las 17.01 expiró sin ningún acuerdo el ultimátum que había fijado el Pentágono. Trump hizo entonces que las agencias federales abandonaran los contratos ya firmados con Anthropic, mientras que Pete Hegseth, su secretario de Guerra, calificó a la empresa como un “riesgo para la cadena de suministro de la seguridad nacional”, una calificación hasta entonces reservada a un puñado de empresas extranjeras como Huawei, y que se supone que privará a Anthropic de jugosos contratos (a finales de marzo, sin embargo, esta decisión fue suspendida por un tribunal de San Francisco, a la espera de una sentencia sobre el fondo del asunto).3 Por su parte, Amodei dio una larga entrevista a CBS News para justificar su decisión.

El negocio de la ética

La controversia tiene todos los ingredientes de una buena serie televisiva: una start-up de Silicon Valley que se niega a permitir usos malévolos de su modelo de IA, un director ejecutivo (CEO) que sale al frente para defender su posición con valentía, y la ira de Trump y sus esbirros. Sin embargo, pese a las apariencias, las acciones de Anthropic contrastan con el humanismo que proclama.

Su colaboración con Palantir a cuenta del Pentágono, oficializada apenas algunos días después de la reelección de Trump en noviembre de 2024,4 lo ilustra de manera espectacular. Fundada en 2003 y ayudada en sus inicios por In-Q-Tel, el fondo de capital de riesgo de la Agencia Central de Inteligencia estadounidense (CIA), Palantir hizo de la vigilancia de las poblaciones su actividad principal. Por ejemplo, la empresa proporciona al Servicio de Inmigración y Control de Aduanas (ICE) componentes tecnológicos esenciales para hacer masivas sus operaciones de deportación. Cuando, en 2018, miles de empleados de Google protestaron contra la participación de su empresa en el Proyecto Maven, el programa del Pentágono para integrar el aprendizaje automático en sus sistemas, Palantir, a la cual este tipo de escrúpulos no molestan, recuperó el enorme contrato. Su cofundador y director ejecutivo Alexander Karp, a pesar de presentarse como un autoproclamado progresista, defiende la “superioridad de los valores occidentales” y milita por un enfoque imperialista de las relaciones internacionales, así como por el desarrollo de armas autónomas. En cuanto al otro cofundador, Peter Thiel, gran oráculo del capital de riesgo en Silicon Valley, su desprecio abierto por la democracia y su pionero apoyo a Trump son de pública notoriedad. Por lo tanto, existe una contradicción fundamental entre los principios que Anthropic opuso ante el Pentágono y su colaboración con una empresa que encarna su transgresión.

Una vez integrado en los programas desarrollados por Palantir para el ejército estadounidense, Claude parece haberse impuesto con rapidez como la interfaz preferida para el mando militar. Gracias a la IA de Anthropic, los analistas pueden ahora sondear, mediante consultas en lenguaje natural, los vastos conjuntos de datos surgidos de las imágenes que captan los satélites o los drones, la información de origen electromagnético, o los datos provenientes de la web o de informes diversos y variados. Como cualquier otro sistema, Claude genera resúmenes, propone análisis y recomendaciones. Pero también puede identificar objetivos militares clasificándolos por orden de importancia estratégica, sugerir los sistemas de armas mejor adaptados y generar secuencias de ataque prácticamente en tiempo real, incluso recopilando argumentos jurídicos al paso para poder justificar su legalidad.

Desde enero la prensa se hizo eco de rumores sobre el uso de Claude en la incursión que condujo al secuestro del entonces presidente Nicolás Maduro en Venezuela. Pero fue la guerra lanzada contra Irán el 28 de febrero –o sea, al día siguiente de que expirara el ultimátum contra Anthropic– la que permitió al Pentágono, por primera vez, apoyarse en gran medida en el chatbot de Anthropic para amplificar su campaña de bombardeos, mientras esperaba que un sistema de reemplazo pudiera sustituirlo. A imagen y semejanza de los sistemas de IA puestos a punto por el ejército israelí y utilizados sobre Gaza,5 o de aquellos que China despliega dentro del Ejército Popular de Liberación, el acoplamiento de Claude con las plataformas de Palantir acelera la “cadena de ejecución” –la kill-chain, en jerga militar–. En una conferencia celebrada el 12 de marzo, Chad Wahlquist, un ejecutivo de Palantir, se refirió a las estadísticas relativas al conflicto en Irán: “Normalmente, tendríamos 2.000 oficiales de inteligencia intentando identificar objetivos y analizar datos; ahora hay 20 y aumentaron su ritmo”.6 El uso de la IA para analizar de forma automática las imágenes aéreas habría permitido elevar el número de objetivos designados de 100 a 1.000 por día; la incorporación de LLM a estos sistemas permitiría ahora alcanzar cifras del orden de 5.000 objetivos diarios.7 En este ámbito, Anthropic no pone límites a sus socios... Más allá del asunto de las armas autónomas, la integración de la IA para intensificar las operaciones militares plantea grandes cuestiones jurídicas, éticas y políticas, por ahora ampliamente eludidas por los estados mayores y sus prestatarios.

Lo mismo se aplica a la otra medida de protección importante que Amodei reivindicó ante el Pentágono: la prohibición de usar Claude para analizar de modo masivo informaciones personales relativas a estadounidenses que hayan sido compradas por las agencias a los corredores de datos. Ya sea que se trate de acceder a los historiales de geolocalización o de navegación, a datos de salud o a informaciones financieras, las aplicaciones para teléfonos inteligentes son, sin duda, un engranaje clave de la vigilancia del Estado. Pero la “valiente” negativa de Anthropic se revela, después de un análisis más detallado, tan limitada como selectiva. En efecto, el uso de sus sistemas para afinar la vigilancia masiva de personas no estadounidenses, contraria al derecho internacional, no parece preocupar a la empresa más que el uso indebido de los programas de vigilancia externa de la Agencia de Seguridad Nacional (NSA) para apuntar a residentes estadounidenses; se registran casi 200.000 solicitudes anuales de este tipo.

Después de que Anthropic fuera dejada al margen y privada de contratos gubernamentales, su competidor OpenAI anunció un acuerdo con el Pentágono. Para evitar cualquier mala prensa, su director ejecutivo, Sam Altman, especificó que ChatGPT no podía usarse “intencionalmente con el propósito de vigilancia nacional de individuos y ciudadanos estadounidenses”, en particular en casos en los que dicha vigilancia se apoyara en “la adquisición o el uso de información personal o identificable obtenida comercialmente”.8 Es posible que esta formulación sea más conveniente para el Pentágono que la exigida por Anthropic, pero la diferencia aún es difícil de discernir.

El teatro de siempre

En realidad, esta pulseada, que supuestamente demuestra la existencia de un enfrentamiento entre el gobierno y Silicon Valley, recuerda al juego de rol que tuvo lugar inmediatamente después de las revelaciones de Edward Snowden en 2013 sobre la vigilancia digital de la NSA. Atenazadas entre su cooperación con el Estado en seguridad, por un lado, y el costo en términos de reputación de dicha asociación, por el otro, empresas como Google, Apple, Microsoft y otras pusieron entonces en escena su resistencia. Desplegaron soluciones de cifrado para proteger mejor la privacidad de los usuarios, promovieron la “soberanía digital” entre sus principales clientes extranjeros fingiendo protegerlos de la NSA y financiaron campañas en Washington para enmarcar mejor la inteligencia. Pero detrás de esta puesta en escena de los derechos humanos se trataba también, y sobre todo, de tranquilizar a sus empleados y usuarios, comprensiblemente inquietos por las pruebas de una integración simbiótica de sus infraestructuras con el aparato de seguridad estadounidense. Al hacerlo, consiguieron calmar en lo esencial a sus equipos, preservar sus colaboraciones con los servicios de inteligencia y mantener su participación de mercado a nivel internacional, contribuyendo así a reforzar las infraestructuras de vigilancia garantes del poder de Estados Unidos.

La administración Trump y Anthropic parecen estar jugando una partida similar. La pérdida de un contrato de 200 millones de dólares representa menos del 1,5 por ciento de sus 14.000 millones de dólares en ingresos.9 El 80 por ciento de las ganancias de Anthropic proviene del sector privado, y sus clientes, al igual que el público en general, sin duda no se molestarán por la formidable publicidad generada para Claude en el transcurso de este conflicto, en el que los insiders entrevistados por la prensa no dejaron de elogiar la superioridad del modelo sobre sus competidores.10 Durante febrero, la aplicación de Anthropic pasó de estar en los últimos lugares del ranking de descargas al primer lugar, destronando a ChatGPT.11 El prestigio de la empresa entre los trabajadores de la industria tecnológica también se fortaleció, en un momento en que la caza de los mejores investigadores de IA está en pleno auge. En cuanto a los inversores, no parecen para nada atemorizados: GIC (Singapur), MGX (Emiratos Árabes Unidos) y Founders Fund, dirigido por Thiel, contribuyeron en febrero a la histórica recaudación de fondos de 30.000 millones de dólares que llevó adelante Anthropic, precisamente cuando la disputa con el Pentágono ganaba en intensidad.12 A fin de cuentas, desde Claude hasta Gemini (Google), los modelos estadounidenses siguen dominando el mercado global. Gigantescos pozos de datos, garantes de la hegemonía de Washington.

Félix Tréguer, investigador asociado en el Centro Internet y Sociedad del Centro Nacional de la Investigación Científica de Francia (CNRS). Traducción: Merlina Massip.


  1. Francesca Bria, “Le coup d’État de la tech autoritaire”, y Evgeny Morozov, “La souveraineté comme marchandise américaine”, Le Monde diplomatique, noviembre de 2025. 

  2. “Memorandum on increasing public trust in artificial intelligence through unbiased AI principles”, whitehouse.gov, 11-12-2025. 

  3. Mike Isaac, “Judge stays Pentagon’s labeling of Anthropic as ‘supply chain risk’”, The New York Times, 26-3-2026. 

  4. “Anthropic and Palantir partner to bring Claude AI models to AWS for US government intelligence and defense operations”, investors.palantir.com, 7-11-2025. 

  5. Ben Reiff, “Inside Israel’s deal with Google and Amazon”, 972mag.com, 29-10-2025. 

  6. Johnson O’Ryan, “Pentagon praises Palantir tech for battlefield strike speed”, theregister.com, 13-3-2026. 

  7. Katrina Manson, “Omniscience, omnipresence and omnipotence: Meet the gods of AI warfare”, wired.com, 23-3-2026. 

  8. Cade Metz y Julian E. Barnes, “OpenAI amends AI deal with the Pentagon”, The New York Times, 3-3-2026. 

  9. Deepa Seetharaman y Krystal Hu, “Exclusive: Anthropic aims to nearly triple annualized revenue in 2026, sources say”, Reuters, 16-10-2025. 

  10. Un ejemplo: Hadas Gold, “Trump administration orders military contractors and federal agencies to cease business with Anthropics”, cnn.com, 27-2-2026. 

  11. Anthony Ha, “Anthropic’s Claude rises to Nº 1 in the app store following Pentagon dispute”, techcrunch.com, 1-3-2026. 

  12. Ashley Capoot, “Anthropic closes $30 billion funding round as cash keeps flowing into top AI startups”, cnbc.com, 12-2-2026.