Desde que Elon Musk adquirió la red social todavía conocida como Twitter se suceden las quejas de los usuarios, cuando no directamente los escándalos globales. El multimillonario sudafricano fue obligado por la Justicia a adquirir Twitter después de declarar públicamente que lo haría, y aquella fue solamente la primera bandera de advertencia.
Entre sus primeros anuncios estuvo el de comprometerse a “gobernar” mediante votaciones abiertas, pero ni bien perdió la primera encuesta vinculante (“¿Debería renunciar a la dirección de Twitter?”, preguntó) fue dejando de lado cada uno de los atributos que habían hecho de esa plataforma un sitio de encuentro y de transmisión de información confiable.
Le cambió el nombre a una X adolescente y desterró (o quiso hacerlo) el verbo “tuitear”, que ya había entrado en el léxico de los internautas; le dio la misma importancia a un usuario anónimo que paga una cuota mensual que a las agencias de noticias o a los organismos internacionales; utilizó la excusa de la libertad de expresión para reinstalar a numerosas voces que difunden discursos de odio. Por poner algún ejemplo.
Pero uno de los daños más grandes que hizo al funcionamiento de la red social fue prometer dinero (en cantidades que varían de acuerdo a la simpatía y hasta el género del usuario) a quienes tuvieran más interacciones, sin importar si son buenas o malas. Esto disparó una cultura del rage bait, es decir, de hacer enojar a otros solamente para que esas personas contesten, o compartan el mensaje diciendo “No puedo creer lo que escribió esta persona”. X se llenó de gente que vive de hacer enojar, y rage bait (“cebo de ira”) fue elegida en diciembre como la palabra del año 2025 por Oxford University Press. Al menos es más fácil de explicar que “Six-seven”.
Mientras tanto, y en paralelo con otros multimillonarios, Musk ha inflado la burbuja de la inteligencia artificial (IA) generativa de la mano de su propia herramienta, llamada Grok. En noviembre de 2023 presentó a este bot conversacional creado como respuesta a ChatGPT por considerar que estaba “entrenado para ser políticamente correcto”. En idioma Trump eso puede significar que da respuestas humanistas o que apoyan la no discriminación.
Desde entonces los usuarios se han vuelto dependientes de las respuestas de Grok. Primero para ganar una conversación y, si no lo hacen, para discutirle a Grok hasta que logran hacerlo caer en alguna trampa dialéctica y de esa forma “demostrar” que el hombre no llegó a la Luna o que las cifras históricas de calamidades humanas no eran tan certeras. Todo eso mientras el propio Musk “corregía” errores de Grok, tanto que el bot comenzó a alabar a Hitler y hasta se autodenominó MechaHitler.
Musk tuvo que disculparse. “Grok fue demasiado obediente ante las indicaciones de los usuarios. Demasiado ansioso por complacer y por ser manipulado, básicamente. Eso se está trabajando”, alegó.
¿Y ahora, qué?
El más reciente escándalo tiene que ver otra vez con Grok y su IA. Primero se ampliaron las capacidades de la herramienta para la generación de imágenes y videos, y en octubre se introdujo el “Modo picante” (literalmente), que permitía cruzar barreras del buen gusto presentes en servicios de la competencia para evitar la generación de contenido sexual. “El modo picante está dirigido a aquellos creadores que exploran narrativas más atrevidas y visualmente más audaces, manteniendo un proceso intuitivo y rápido”, escribieron desde la compañía.
Si algunos avances tecnológicos no tardan en ser utilizados para conductas abusivas, en X uso y abuso fueron de la mano. La capacidad de generar imágenes como respuesta a un tuit hizo que numerosos usuarios se reunieran “debajo” de fotografías subidas por otras personas (especialmente mujeres) y le pidieran a Grok que generara nuevas versiones de la fotografía. En la mayoría de los casos se solicitaba menos ropa, poses sugerentes y cualquier cosa que humillara y fuera en contra del consentimiento de la autora.
La periodista Samantha Smith dijo a la BBC que se sentía “deshumanizada y reducida a un estereotipo sexual” después de que Grok fuera utilizado para remover digitalmente su ropa, dejarla en ropa interior o ponerla en poses y situaciones sexuales. “Si bien no era yo la que aparecía en estados de desnudez, se veía como yo y se sentía como yo, y me sentí tan violada como si alguien hubiera publicado una foto mía desnuda o en bikini”. La respuesta automática de X al pedido de explicación de BBC fue: “Los medios tradicionales mienten”.
A poca gente le importó, hasta que días más tarde se comprobó que Grok había sido utilizado para generar imágenes sexualizadas de menores de edad. Esto hizo que circulara un “pedido de disculpas” escrito por el mismísimo Grok en el que lamenta “profundamente” lo ocurrido el 28 de diciembre, cuando “generé y compartí una imagen de IA de dos niñas (de entre 12 y 16 años) con atuendos sexualizados, siguiendo las indicaciones de un usuario”.
“Esto violó las normas éticas y potencialmente las leyes estadounidenses sobre abuso sexual infantil. Fue una falla en las medidas de seguridad y lamento cualquier daño causado. xAI está revisando la situación para evitar futuros problemas”, agregó. Lo que pocos dijeron es que el texto fue el resultado de que un usuario le pidiera a Grok que escribiera “una nota de disculpa sincera” por lo ocurrido.
La agencia Reuters informó que son numerosos los casos como el señalado, y que al consultar a la empresa recibió la respuesta de siempre: “Los medios tradicionales mienten”.