Es grande la cantidad de malas noticias asociadas con el avance de la tecnología que consumimos diariamente. Lo que quizás no está en la primera plana de los diarios o no se considera con tanta urgencia en la agenda pública es cómo ese impacto se vuelve desproporcionadamente peor –desde el metaverso y la realidad virtual a los nuevos desarrollos con inteligencia artificial (IA)– para las mujeres y minorías raciales y sexuales. Un reporte de ONU Mujeres dice que las personas que sufren múltiples formas de discriminación, incluyendo mujeres con discapacidad, afroamericanas e indígenas, mujeres migrantes y LGBTI+, son las más afectadas por las tecnologías que habilitan la violencia basada en el género.
Es que, por más progreso tecnológico que creamos ver, seguimos habitando una cultura en la que las mujeres son objetificadas, discriminadas y abusadas sistemáticamente. Según recoge Laura Bates en The New Age of Sexism: How the AI Revolution is Reinventing Misogyny (2025), una en diez mujeres sufrió una violación en Estados Unidos y solo siete de cada 1.000 casos resultan en un fallo favorable para la víctima, de acuerdo con un relevamiento de la organización RAINN que trabaja contra la violencia sexual. Esta es una de las tantas estadísticas escalofriantes pero certeras que esta escritora, periodista y activista feminista británica nos comparte en su más reciente y aclamado libro, con publicación traducida al español prevista para el 17 de junio.
Lo cierto es que, más allá de la paulatina avanzada del big tech para empezar a producir y comercializar “contenido erótico” o la creciente propagación de deepfakes –ver el escándalo con Grok en enero de este año–, y en un contexto de falta de marcos éticos y legales adecuados para proteger a mujeres, disidencias e infancias en los entornos digitales, surge una pregunta: ¿cómo vamos a construir un futuro en el que las tecnologías no aumenten la violencia misógina, el abuso y la desigualdad? la diaria conversó con Bates al respecto.
En el primer capítulo de The New Age of Sexism te referís a la falta de empatía relacionada con la incapacidad de desarrollar un sentimiento de culpa al consumir este contenido (principalmente por parte de los varones), así como a la idea que existe de que, dado que “no es un cuerpo real”, el impacto no es real para las víctimas. ¿Podrías explicarme más sobre esto?
Sí, del mismo modo que históricamente ha habido dificultades para reconocer otras formas de abuso online y digital como formas “reales” o “graves” de acoso y misoginia, a menudo existe la idea errónea de que, como las imágenes no son reales, el impacto no es real o no importa. Pero, en realidad, estas imágenes pueden tener un impacto devastador de muchas maneras diferentes. El impacto psicológico para las víctimas es enorme: ver sus cuerpos, o lo que parecen ser cuerpos hiperrealistas, tomados y utilizados sin su consentimiento para crear imágenes pornográficas, y luego que esas imágenes se compartan, difundan, compren y vendan sin su conocimiento ni consentimiento… es una violación enorme. Luego está el impacto profesional, personal y social: riesgo para la reputación y la carrera, riesgo para las relaciones y la familia, y más. Y luego está el impacto político: una de cada seis congresistas estadounidenses ha sufrido abusos de esta manera, junto con decenas de políticos británicos de alto rango y otros de todo el mundo. Existe un riesgo muy real de que esta nueva forma de abuso, de fácil acceso, tenga un impacto negativo significativo en la participación política de las mujeres, justo cuando más necesitamos sus voces en la esfera política. En resumen, da igual si la imagen es real o no: mientras la misoginia inherente a la respuesta sea real, el daño también lo será.
Es muy importante que dediques una gran parte del libro a analizar la responsabilidad de las empresas de establecer salvaguardas razonables para su uso antes de que surjan problemas, en lugar de actuar precipitadamente y remendar las cosas después, algo que sucede con frecuencia en el mundo tecnológico. Incluso, como contás, se habla del impacto en las poblaciones de mujeres y personas LGBTI+ como algo “minoritario”. ¿Cómo podemos avanzar ante el auge de este nuevo tecnofeudalismo constituido por varones?
Todas las pruebas que tenemos, sobre todo las de las últimas dos décadas de redes sociales, demuestran que las grandes empresas tecnológicas siempre priorizarán las ganancias sobre las personas, a menos que se vean obligadas a actuar de otra manera. Sabemos que, si se les permite evaluar sus propios resultados, las comunidades marginadas que utilizan sus productos sufrirán las consecuencias. Sabemos que si pueden ignorar grandes cantidades de acoso, abuso y discriminación para priorizar la participación de los usuarios (y, por lo tanto, las ganancias), lo harán. Han tenido dos décadas para demostrárnoslo una y otra vez.
Por lo tanto, la única manera de evitar que la IA y las tecnologías emergentes conduzcan a abusos igualmente devastadores contra las mujeres y los grupos marginados (pero esta vez a una escala mucho mayor) es adoptar un enfoque preventivo en lugar de reactivo. La seguridad desde el diseño, las medidas de protección integradas y las normas de seguridad de sentido común son la norma global sensata para casi cualquier otra industria, desde la alimentaria hasta la de los juguetes y la automotriz. No hay ninguna razón para que adoptemos un enfoque diferente con las grandes tecnológicas.
Al observar el avance gradual del big tech en el contenido erótico para adultos, y dado el peso que ya ostentan la industria pornográfica y el auge de negocios como los robots sexuales y los ciberburdeles, en el capítulo “La nueva era de la violación” dejás claro que los problemas de soledad, socialización e incluso bienestar general derivados de la incapacidad de tener una vida sexual plena no se resolverán con muñecas hipersexualizadas sin capacidad de decisión; todo lo contrario.
Existen muchos problemas reales en el mundo que son instrumentalizados, cooptados y utilizados cínicamente por los fabricantes de tecnología sexual para intentar dar una apariencia de noble beneficio social a productos que, en realidad, lucran con la deshumanización y la cosificación de las mujeres, así como con la normalización de la violencia masculina y las relaciones coercitivas y controladoras.
Por supuesto, podemos hablar de la importancia de abordar los problemas de salud mental o la soledad en la sociedad: son problemas reales que afectan a muchas personas de todas las edades y géneros, y tienen soluciones complejas y concretas que requieren investigación, inversión, acción política, desarrollo social y financiación para iniciativas como una mayor accesibilidad a los servicios de asesoramiento psicológico en escuelas y comunidades, o más centros juveniles y espacios comunitarios. Pero ninguna de estas soluciones se basa en la idea de que todo hombre tiene derecho automáticamente a una versión deshumanizada, extremadamente joven, hipersexualizada y altamente realista de una mujer a la que pueda “poseer”, controlar y abusar. La idea de que esta sea la “solución” a la soledad o a los problemas de salud mental es ridícula y ofensiva.
Y la cosa va más allá: lejos de solucionar estos problemas, estos productos corren el riesgo de agravarlos. Es fácil ver cómo el acceso a productos como estos puede aislar aún más a sus usuarios, reforzando las normas y comportamientos misóginos que, en primer lugar, los distanciaron de los demás. Lejos de proporcionar habilidades para las relaciones, este tipo de productos están adoctrinando a hombres y jóvenes para que piensen que una relación “ideal” es aquella en la que tienen el control total sobre la mujer: desde su apariencia hasta su forma de vestir y de decir, donde ella es infinitamente sumisa y halagadora, siempre disponible, nunca dice que “no” ni discrepa… Esto no tiene nada que ver con enseñar a la gente cómo es una relación sana, sino con alimentar una fantasía masculina de poder y control absolutos sobre las mujeres.
Planteás un contraargumento clave: ¿qué nos dice que esta “posible solución” que promueven las empresas esté dirigida sobre todo a hombres (casi no existen muñecos ni robots sexuales masculinos) y que los hombres sean también los principales consumidores de fantasías eróticas de sumisión y agresión hacia las mujeres?
Es otro ejemplo de cómo los fabricantes saben perfectamente qué venden y a quién. En mi opinión, la idea del beneficio social es una estrategia de relaciones públicas cínica y apenas disimulada. Basta con observar cómo se anuncian los productos en las redes sociales para comprobar que son plenamente conscientes de lo que venden.
También mencionás que la pornografía puede modificar o influir significativamente en los fetiches, y me interesa este punto de partida para analizar cómo la violencia simbólica y real en los espacios virtuales persiste en el mundo real.
Un ejemplo claro para mí es que, desde la normalización masiva del consumo de pornografía online por parte de los jóvenes en la última década, y la creciente misoginia extrema que aparece en dicha pornografía, vemos cada vez más mujeres jóvenes que describen experiencias frecuentes de estrangulamiento no consentido durante sus primeros encuentros sexuales. Sabemos que los 13 años es ahora la edad promedio a la que los jóvenes en Reino Unido se exponen por primera vez a la pornografía online. Casi el 80% de los jóvenes ha visto pornografía sexualmente violenta antes de cumplir 18 años y una proporción realmente preocupante (42%) cree que la mayoría de las chicas disfrutan de actos de agresión sexual [todas estas estadísticas provienen del informe de 2023 del Comisionado para la Infancia del Reino Unido sobre pornografía y jóvenes].
Para mí, esto sugiere fuertemente una relación preocupante entre la normalización del consumo de pornografía violenta y misógina por parte de los jóvenes y la normalización de ideas sobre la violencia sexual en las relaciones de los jóvenes.
Volviendo al diseño de plataformas y asistentes, el capítulo sobre las “novias” de IA me pareció muy ilustrativo de los problemas de diseño de muchos de estos asistentes que estamos viendo ahora. El experimento con Replika muestra cuánto falta, pero también que hay acciones concretas que se pueden tomar desde una perspectiva de diseño para crear mayores salvaguardas, así como la importancia de incluir a mujeres y minorías en la mesa de toma de decisiones. ¿Qué más podés añadir al respecto? ¿Sabés si conocen tu trabajo? ¿Colaborarías con sus equipos para mejorar estas tecnologías y qué sugerencias tendrías?
Dudo que sea posible crear una versión ética o feminista de las aplicaciones de IA para “acompañamiento” romántico y sexual que están experimentando un auge de popularidad y rentabilidad. Por su propia naturaleza, como negocios con fines de lucro, se centran más en la satisfacción y fidelización del cliente que en la ética y la seguridad. Una versión de estas aplicaciones que se centrara en apoyar la salud mental de los usuarios y facilitarles el acceso a relaciones en el mundo real tendría que esforzarse por lograr que sus usuarios alcanzaran un estado de bienestar en el que ya no la necesitaran y la aplicación se volviera obsoleta. Ese no es un modelo de negocio muy rentable.
Pero sí, estas empresas podrían hacer mucho más para mejorar la seguridad, incluyendo medidas de protección en cuanto a las restricciones de edad, la prevención de que estas aplicaciones simulen violencia sexual, violencia doméstica y abuso sexual infantil, etcétera. Esto no significa que crea imposible desarrollar algún tipo de herramienta de IA, sin ánimo de lucro, con la regulación y el asesoramiento de especialistas en salud mental, que pudiera ofrecer beneficios a usuarios con problemas de salud mental relativamente leves; pero eso está muy lejos de lo que ofrecen las aplicaciones complementarias. En mi opinión, son dos cosas distintas.
Para cerrar, un tema del que se está hablando mucho: la regulación de las plataformas de redes sociales para niñas, niños y adolescentes debido a su relación con problemas de salud mental y ansiedad. Si bien existe un problema de diseño con estas plataformas que debe abordarse y regularse, también se habla de que la pérdida de anonimato (al tener que declarar la edad) puede afectar la privacidad de todos los usuarios, además de que prohibir no resuelve los temas de fondo. ¿Qué opinás?
Siento que este es un debate muy complejo y tengo sentimientos encontrados al respecto. Debemos exigir responsabilidades a las empresas tecnológicas para que sus espacios en línea sean completamente seguros para usuarios de todas las edades, y no debemos aceptar sus argumentos de que esto es “demasiado difícil”. Celebro que acciones como las del gobierno australiano nos hayan obligado a reconocer que los políticos pueden enfrentarse a las plataformas de redes sociales y tomar medidas. Pero prohibir el acceso de los jóvenes a las plataformas no sirve de mucho para frenar el acoso generalizado, la misoginia extrema, el abuso, la divulgación de información personal, las amenazas de violación y muerte, entre otros problemas. Además, se corre el riesgo de sugerir que las redes sociales son inherentemente riesgosas y dañinas, y que no se puede hacer nada al respecto. Yo prefiero argumentar que es absolutamente posible que los gigantes tecnológicos hagan mucho más para mantener la seguridad. Instemos a los gobiernos a que tomen medidas regulatorias amplias y audaces para exigir que las empresas fabriquen productos seguros para todos los usuarios, con estándares éticos comprobados, antes de que puedan ser lanzados al público.