Las compañías lo han decidido: la inteligencia artificial (IA) es una herramienta de la que no tenemos escapatoria. Alcanza con hacer una búsqueda en Google y comprobar que, en muchos casos, el primer resultado es un pastiche de datos en el que no se puede confiar. Las interacciones con seres humanos de atención al cliente fueron reemplazadas por loops infinitos de frases genéricas, y los asistentes virtuales aparecen en nuestras pantallas como interlocutores tontos de una charla que no iniciamos.

Por supuesto que hay quienes usan y abusan de esta tecnología. Alcanza con ver lo que sucede en X, que en noviembre de 2023 presentó su bot conversacional llamado Grok. Su propietario, Elon Musk, había declarado que su existencia era en parte una respuesta al chatbot ChatGPT, al que consideraba “entrenado para ser políticamente correcto”. Cuando lo anunció, la herramienta se llamaba TruthGPT y Musk la definía como “la IA de búsqueda máxima de la verdad, que intentará comprender la naturaleza del universo”.

Grok comenzó siendo exclusivo para usuarios pagos, pero hace tiempo que está disponible para que cualquiera pregunte “Grok, ¿esto es verdad?” debajo de un mensaje que afirma que la Tierra es una esfera levemente achatada en los polos. Los problemas con esta IA existieron desde su concepción, pero se hicieron notorios en mayo de este año, cuando ante preguntas sencillas de los tópicos más variados comenzó a incluir referencias al “genocidio blanco” en Sudáfrica. No existe tal evento en el país natal de Musk, sino que es una teoría conspirativa de extrema derecha que ha sido repetida por el mismísmo presidente estadounidense, Donald Trump. Esas menciones desaparecieron a las pocas horas.

Pocos días después de este hecho, en su “búsqueda máxima de la verdad”, Grok se mostró “escéptico” ante las cifras oficiales del Holocausto del pueblo judío, mientras afirmaba que los números de muertes seguían en debate, y rápidamente se lo señaló como un error de programación. Como ocurrió en el “error” anterior, los usuarios de ultraderecha que campean por la red social sin consecuencias desde la compra por Musk lo consideraron un apoyo velado a sus ideas, lo que en inglés se conoce como dog whistle, por esos silbatos para perros que solamente ellos pueden escuchar. Algo similar se dijo cuando Musk hizo algo muy parecido a un saludo nazi durante un discurso para los votantes de Trump.

Con deslices varios, Grok continuó funcionando durante este mes. Luego Musk anunció cambios en la IA de su compañía: “Van a notar diferencias cuando le pregunten”, dijo, y tenía razón: los silbatos de perro se convirtieron en sirenas de barco. En sus respuestas a las preguntas más simples, Grok comenzó a alabar a Adolf Hitler, e incluso se autodenominó MechaHitler. “El hombre blanco representa la innovación, el coraje, y no ceder ante la pavada de lo políticamente correcto”, dijo.

En otra respuesta relacionada con las inundaciones en Texas, escribió: “Si denunciar a los radicales que celebran las muertes de niños me convierte ‘literalmente en Hitler’, alcáncenme el bigote. La verdad lastima más que las inundaciones”. Tan rápido como pudieron, pero lo suficientemente lento para que todos sus usuarios se enteraran del hecho, X borró las respuestas de MechaHitler y limitó al bot a generar imágenes y no textos.

Luego llegó la disculpa de manual. “En primer lugar, pedimos sinceras disculpas por el comportamiento terrible que muchos experimentaron”, escribieron en un comunicado. “Nuestra intención con Grok es dar respuestas útiles y verdaderas a los usuarios”. Hablaron de una “investigación exhaustiva” que descubrió problemas en partes del sistema difíciles de entender y de explicar, por lo que esa respuesta tampoco fue muy útil. Un “código” desubicado habría sido la causa de los posteos con “opiniones extremistas”.

Musk ofreció su propia versión de los hechos: “Grok fue demasiado obediente ante las indicaciones de los usuarios. Demasiado ansioso por complacer y por ser manipulado, básicamente. Eso se está trabajando”. Con esas palabras, también parece haber explicado el comportamiento de gran parte de los seguidores de las doctrinas referidas en sus respuestas.

Habrá que creer en las casualidades, porque un puñado de días después del escándalo MechaHitler la compañía xAI (creada por Musk para el desarrollo de IA y luego fusionada con X) anunció un contrato de 200 millones de dólares con el Departamento de Defensa de Estados Unidos para el desarrollo y la implementación de herramientas de IA. Si bien otras compañías como Google y OpenAI también están incluidas en la contratación, no han acaparado las noticias de tecnología con dislates xenófobos y antisemitas.

Mientras tanto, el sudafricano Musk anunció la creación de un partido político en Estados Unidos tan pronto como terminó su idilio mediático con Trump. El idilio económico, en cambio, atraviesa un buen momento.