Cotidiana Ingresá
Cotidiana

Foto: AFP

Porno sintético: ¿el último negocio del big tech?

6 minutos de lectura
Contenido exclusivo con tu suscripción de pago

Los contenidos eróticos para adultos llegan a los nuevos grandes modelos de lenguaje, y con ellos los peligros y controversias.

Contenido no disponible con tu suscripción actual
Exclusivo para suscripción digital de pago
Actualizá tu suscripción para tener acceso ilimitado a todos los contenidos del sitio
Para acceder a todos los contenidos de manera ilimitada
Exclusivo para suscripción digital de pago
Para acceder a todos los contenidos del sitio
Si ya tenés una cuenta
Te queda 1 artículo gratuito
Este es tu último artículo gratuito
Nuestro periodismo depende de vos
Nuestro periodismo depende de vos
Si ya tenés una cuenta
Registrate para acceder a 6 artículos gratis por mes
Llegaste al límite de artículos gratuitos
Nuestro periodismo depende de vos
Para seguir leyendo ingresá o suscribite
Si ya tenés una cuenta
o registrate para acceder a 6 artículos gratis por mes

Editar

En un escenario donde la inteligencia artificial (IA) –una de las inversiones más publicitadas de 2025– parece estar pinchándose a medida que pasa el tiempo (ya se habla de que la burbuja de la IA será aún mayor que la de las punto com), mientras que también crecen las preocupaciones por sus implicancias en la sociedad –tanto de privacidad como de seguridad, por citar algunas–, una nueva arista productiva podría salvarla del naufragio: el entretenimiento adulto.

Desde hace unos meses, cada vez suena más fuerte la posibilidad de que algunas de las grandes empresas tecnológicas detrás de los LLM (“grandes modelos de lenguaje”, según su sigla en inglés) empiecen a permitir circular contenido “erótico” –un término paraguas y más bien vago que podría incluir distintos tipos de productos– para adultos en sus asistentes y/o plataformas. Sería una vía rápida para aumentar los ingresos, algo que empresas como OpenAI necesitan con urgencia.

Todavía no se sabe cuáles serán las ofertas específicas. Tampoco queda claro en qué se diferencia un sexbot de un chatbot que genera “erótica”, pero se abren numerosos interrogantes con relación a sus impactos éticos, en un contexto en el que ya hay preocupación sobre la propagación de deepfakes y la violencia digital hacia mujeres y niñas, pero también culturales, en una época de creciente soledad, atomización de los vínculos y brecha relacional entre géneros.

Antecedentes y primeras reacciones

En un comienzo, muchos empresarios detrás de los bots conversacionales –Sam Altman, director ejecutivo de Open IA, incluido– se negaban a hablar abiertamente del tema y omitían lo evidente: mucha gente está usando los asistentes para el autoplacer. Anuncios recientes de OpenAI y antecedentes como los de Grok señalan una realidad innegable: desde siempre la gente ha usado la tecnología para fines sexuales. De hecho, en 2023 la firma a16z publicó un análisis del mercado de la IA generativa que concluyó con el hallazgo de que las personas usan la herramienta como parte de su vida sexual. OpenAI podría ser uno de los últimos en darse cuenta de eso, o el primero de los gigantes de la IA en admitirlo.

Aunque no sería el primero en monetizarlo, como muestra el escándalo en torno a Grok, el chatbot desarrollado por la empresa xAI, de Elon Musk (también dueño de X). La cronología marca que en julio del año pasado xAI había añadido un compañero de animé NSFW, es decir, Not Safe For Work (No seguro para el trabajo), un rótulo que se emplea para denotar contenido adulto u ofensivo. Este waifu femenino (en la cultura otaku son personajes ficticios por los que se siente atracción) llamado Ani, con el que se podía hablar y tener interacciones subidas de tono, ya mostraba una paulatina avanzada del big tech para empezar a producir contenido erótico para adultos. Teniendo en cuenta esto, tal vez no llame tanto la atención que, según un informe de la plataforma Pornhub, entre las palabras más buscadas de 2025, en el top 5 tanto argentino, en el región, como mundial, encontremos hentai, un término japonés que hace referencia al manga y el animé enfocado en contenido sexual explícito. Es decir, dibujos animados para adultos.

Pero la controversia no termina ahí. Durante los primeros días de enero surgieron miles de denuncias de mujeres que habían sido “desnudadas” digitalmente por el chatbot sin su consentimiento, ya que es posible pedirle a Grok que muestre a personas en lencería o bikini, desnudas o en poses comprometedoras. También habría producción de imágenes de niños y niñas en estas condiciones. Lejos de impedir que genere más de estas imágenes explícitas, Musk ha comenzado a cobrar a los usuarios por crear imágenes –sexuales o no– siempre que sea con Grok, lo que, por supuesto, y acorde con el espíritu del magnate, es menos un factor disuasorio que una forma de aprovechar la popularidad del servicio.

Mientras las descargas diarias de Grok aumentaron un 54% este mes, según la firma Apptopia, el rechazo en redes y desde la sociedad civil aumenta y algunos gobiernos están analizando qué se puede hacer al respecto. Por ahora sólo se ha bloqueado la aplicación “en las jurisdicciones donde este contenido es ilegal”, de acuerdo con un comunicado de la empresa (sin mucho detalle sobre esas ubicaciones). Algunos países, como Inglaterra, están intentando aprobar leyes que imposibiliten la creación de este tipo de imágenes y deepfakes. La ley estadounidense Take It Down Act (de eliminación de imágenes sexuales), que a raíz de los acontecimientos recientes logró cierto momentum que le permitió ser aprobada en el Senado (luego de haber quedado trabada el año pasado), ahora pasará a la Cámara de Representantes.

La única medida visible de la empresa xAI fue limitar la posibilidad de solicitar imágenes de Grok en respuestas a publicaciones públicas para los usuarios que no están suscritos al nivel pago de la plataforma. Pero los usuarios aún pueden crear imágenes en bikini y contenido mucho más gráfico mediante la función de chatbot privado de Grok o la aplicación independiente de Grok, que además inexplicablemente todavía está disponible en la App Store, a pesar de sus normas contra las aplicaciones con contenido sexualmente explícito.

Como explica la autora Laura Bates en su libro The New Age of Sexism, cuando se analiza la cadena de responsabilidades hay que señalar no sólo a las empresas a cargo de la producción de estas nuevas tecnologías, sino también a las compañías de webhosting, los buscadores y las tiendas de aplicaciones como Apple Store, que permiten que estos productos sean accesibles a un público masivo. “Al hacer estas tecnologías ampliamente accesibles estamos, como sociedad, dándoles a los hombres la poderosa ilusión de que son dueños del cuerpo de cualquier mujer que quieran, lo cual va a tener consecuencias al exacerbar los de por sí altos niveles de violencia misógina”, sostiene Bates.

Problema en alza

Más allá del escándalo puntual con Grok, es sabido que en los últimos años el impacto de la IA generativa ha sido sumamente negativo para mujeres y niños y niñas víctimas de deepfakes, incluyendo material de abuso sexual infantil. Los afectados incluyen desde famosos (como lo fue hace unos meses Taylor Swift) hasta gente común, ya que cualquier foto publicada en línea puede ser descargada y alterada mediante IA.

Datos recopilados por la investigadora de redes sociales Genevieve Oh y compartidos en la revista Wired indican que Grok genera más de 1.500 imágenes dañinas por hora, incluyendo fotos de desnudos, sexualización y desnudez. Y para colmo de males, según la investigadora, la cada vez más polémica plataforma X ahora genera 20 veces más material deepfake sexualizado que los cinco principales sitios web dedicados a deepfakes sexualizados juntos. Es decir que basta con entrar o sacar una cuenta en una plataforma pública de redes sociales como esa para estar expuestos a estos riesgos o, por el contrario, poder acceder a ese material y ahora, evidentemente, también producirlo.

La eliminación de restricciones sobre contenido para adultos por parte de OpenAI y otras compañías, si siguieran sus pasos, nos introduce en una nueva era de relaciones sexuales con asistentes inteligentes, que supone no sólo un cambio en la forma en que las personas se relacionan afectivamente, sino que también suma una nueva capa de interacción atractiva que podría mantener a los usuarios en la plataforma y generar adicción. Por otro lado, si hablamos de acceso de los jóvenes a estas plataformas y su regulación, tópico que está siendo tratado en todo el mundo con urgencia, y además tenemos en cuenta la abundante evidencia que ya señala tácticas de retención que promueven la dependencia, el terreno se vuelve aún más pantanoso.

Según la investigadora Genevieve Oh, la cada vez más polémica plataforma X ahora genera 20 veces más material deepfake sexualizado que los cinco principales sitios web dedicados a deepfakes sexualizados juntos.

“Frente a la declarada epidemia de soledad, esto abre muchas preguntas sobre la manipulación de los vínculos afectivos, los problemas de privacidad y seguridad de las aplicaciones. Con casos reportados en los que las conversaciones con los chatbots son entregadas a requerimiento de autoridades, o un ‘AI catfishing’, donde la persona cree hablar con una IA, pero detrás hay otro ser humano realizando una labor íntima precarizada. Hay que pensar que no se trata de ‘escribir en un diario íntimo’, sino más bien de hablar frente a un ‘espejo doble en una sala de interrogatorios’. Hay mucha gente escuchando o pudiendo ver detrás”, advierte Micaela Mantegna, investigadora especializada en ética de la IA, que está escribiendo un libro sobre IA.

Otra de las aristas de este problema es que la incorporación de contenido adulto en plataformas de uso mixto vuelve a poner el acento en la identificación y verificación de la edad de los usuarios. “Esto está alineado con la ola de leyes que buscan prohibir o limitar el acceso a la pornografía en menores de edad, pero con consecuencias que repercuten en todo el ecosistema de derechos de internet, capturando más datos de los usuarios y fomentando la censura”, sigue Mantegna.

“Se está normalizando que la gente comparta información muy íntima con chatbots. Compartir tus pensamientos, deseos, inclinaciones sexuales, fetiches y aventuras más íntimos”, afirmaba Julie Carpenter, investigadora de Cal Poly especializada en IA y apego a Wired. Si la cuenta Chat GPT de un usuario es hackeada o las transcripciones del chat se filtran, las conversaciones eróticas no sólo exponen públicamente a la persona, sino que podrían ser perjudiciales para su seguridad al incluir detalles altamente sensibles como su orientación sexual.

En cuanto a los planes de OpenAI de avanzar con este tipo de contenido, aún no está claro si la moderación incluirá contenido generado únicamente mediante texto o si también incluirá otros aspectos, como imágenes y voz de IA, avivando o calmando las preocupaciones sobre la propagación de deepfakes eróticos, a menudo generados para acosar a mujeres y niñas. “La forma en que OpenAI decida definir su enfoque de moderación actualizado en la práctica será crucial para dar forma a la versión más reciente, y potencialmente más excitante, de Chat GPT”, advierte la periodista Reece Rogers.

¿Tenés algún aporte para hacer?

Valoramos cualquier aporte aclaratorio que quieras realizar sobre el artículo que acabás de leer, podés hacerlo completando este formulario.

Este artículo está guardado para leer después en tu lista de lectura
¿Terminaste de leerlo?
Guardaste este artículo como favorito en tu lista de lectura