“La perspectiva feminista siempre ha sido crítica con las tecnologías”, sentencia la mexicana Marcela Suárez en diálogo con la diaria. La doctora en Ciencia Política por la Freie Universität Berlin (Alemania) investiga y da clases sobre las relaciones de poder que hay detrás de los modelos de inteligencia artificial (IA) como ChatGPT desde una perspectiva feminista, interseccional y decolonial. Con sus investigaciones traza la línea de materialidad que une la nube con el territorio, las comunidades y los cuerpos de las mujeres.
Toda esa información que creamos y guardamos en la nube como por arte de magia tiene una correlación en el mundo material y tangible. Una que no siempre es amigable con nuestro entorno y nuestros cuerpos. Es un hecho que ChatGPT se coló en nuestras vidas: ese chatbot que pareciera redactar correos, brindar recetas de cocina o escribir artículos, para muchos cumple las funciones de un amigo, un terapeuta o un asistente de trabajo. Pero estos modelos están dejando una gran huella en el ambiente, normalizando el trabajo precarizado y potenciando las desigualdades de poder.
Desde la academia, Suárez va a fondo para entender cuál es el impacto de la IA, por eso se pregunta: ¿quiénes están detrás de estas empresas?, ¿dónde están situadas?, ¿qué ideología y visiones del mundo tienen?, ¿cuál es su materialidad?, ¿qué están haciendo y en qué territorios?, ¿qué tipo de relaciones sustentan a la IA?
En paralelo, activistas, referentes y organizaciones feministas consideran que puede ser una herramienta útil para reducir la brecha de género que existe en el acceso a las tecnologías.
La materialidad
“No podemos quedarnos con esto de que las tecnologías son creadas por determinadas personas y que por eso tienen sesgos [de género, por ejemplo]”, explica Suárez. Para ella, en este contexto, la palabra sesgo “es limitada para entender las relaciones de poder. El sesgo es una consecuencia, no es intencional. Y estas tecnologías son una materialización de relaciones de poder que están conectadas a muchos procesos materiales que están ocultos, pero están presentes”.
Sí, ocultos intencionalmente. Esa nube de la que tanto se habla, y que puede almacenarlo todo, en el mundo material son los centros de datos. En Uruguay existen tres y un cuarto, el de Google, está en construcción. Pero en el estado de Querétaro, en México, hay 30 centros de datos. “Fui a sacar fotos a los data centers de Querétaro para mi investigación. Están ubicados en parques industriales cerca de grandes plantas de electricidad porque necesitan un buen voltaje para funcionar. Eso hace que las comunidades cercanas tengan severos cortes de electricidad”, relata Suárez.
Estos centros de datos también consumen mucha agua para mantener su sistema de enfriamiento, y vierten desechos de todo tipo. “Las mujeres e infancias son las que principalmente se ven afectadas por la contaminación y lidian con los ríos secos o contaminados por los data centers. Ellas son las que enfrentan la devastación medioambiental”, asegura Suárez.
Es muy grande la cantidad de recursos que se explotan para sostener a la IA: agua, energía, metales y minerales. Eso deriva en conflictos sociales, como los que genera la explotación de litio en Chile, Argentina o México, donde las comunidades indígenas y campesinas son las más afectadas. A su vez, para crear estas infraestructuras se produce mucha basura; ya hay basureros electrónicos en todo el mundo.
“Cada pocos meses, Open AI introduce un nuevo modelo (va por el modelo 4) y se renuevan los equipos de cómputos enormes que tienen los data centers”, dice Suárez. La consecuencia inmediata es más gasto de dinero, más explotación de recursos y más explotación laboral. “Open AI contrata a una empresa que subcontrata a trabajadores por un salario muy bajo para entrenar a estos modelos. Son los humanos los que remueven el contenido tóxico o la violencia digital para que los modelos no reproduzcan ese lenguaje. Esos trabajadores están expuestos a materiales violentos, como pedofilia o asesinatos, y quedan traumatizados”.
A comienzos de 2023, la revista Time reveló que Open AI, a través de la empresa Sama, contrataba en Kenia a trabajadores para estas tareas por menos de dos dólares la hora.
Suárez denuncia que son mujeres en mayor medida las que “tienen un trabajo en otro sector, y luego llegan a su casa a realizar las tareas de entrenamiento”. El medio brasileño Intercept describe cómo las mujeres en su país están expuestas a estos trabajos mal pagos por la flexibilidad horaria y la posibilidad de estar en la casa cuidando de sus hijos e hijas. El trabajo precarizado e invisible de miles de personas, principalmente del Sur global, es imprescindible para que ChatGPT pueda brindar respuestas calificadas.
La resistencia
Consultada sobre si los feminismos y las mujeres se pueden beneficiar de la IA, Suárez es categórica: “No veo de qué forma puedan ir de la mano, sobre todo con la IA corporativa. En algún punto contradice lo que es el feminismo, que es espíritu crítico. La IA se introduce de una forma muy violenta desde lo discursivo y narrativo; te dicen que si no la usás te vas a quedar atrás, que es peor que no la uses. Yo quiero cuestionar eso. El no uso de la IA es un acto de resistencia, y yo quisiera que desde los feminismos exista la posibilidad de resistir”.
La mayoría de las empresas que están detrás del desarrollo de la IA “tienen su sede en San Francisco, y sus líderes han pactado con [Donald] Trump para que esta tecnología no sea regulada como debería”, dice Suárez. La académica las vincula a la derecha y la extrema derecha, y asegura que desarrollan “ideologías de transhumanismo que ven a las máquinas como mejores y que deshumanizan” a las personas. “Eso es lo peligroso de la IA, y es absurdo. La inteligencia es una labor cognitiva que sólo los humanos tienen; sólo los humanos pueden pensar y sentir. Las máquinas nunca van a poder pensar”, agrega.
¿Quiénes producen la IA opresora? En su mayoría, hombres. Para Suárez, “a las mujeres ingenieras muchas veces no se las reconoce como parte de la comunidad de especialistas en IA. La evidencia muestra que ellas son críticas, sobre todo si son racializadas del Sur global, negras o indígenas con otra visión de mundo. Ellas van a chocar con la visión dominante, que es extractivista, explotadora y que pone las máquinas primero”.
El aporte
“Me cuesta pensar en el aporte de la IA a las mujeres y no en lo que las mujeres le pueden aportar al desarrollo de la IA”, explica por su parte Ana Correa a la diaria. La abogada y comunicadora argentina se suma a la carrera por reducir las desigualdades de género en las tecnologías, por lo que recientemente lanzó OlivIA.
Esta herramienta de análisis integrada dentro de ChatGPT ayuda a detectar sesgos de género en textos, imágenes o discursos, y propone alternativas. Para Correa, en la tecnología “los sesgos son errores que hay que subsanar de alguna manera, consumiendo datos, energía, recursos y, en casos extremos, vidas. Porque un sistema de diagnóstico que no diferencia las características de un ataque cardíaco según sea mujer o varón quien lo está sufriendo es un error no subsanable”.
La idea de crear OlivIA surgió mientras cursaba un posgrado en IA y Derecho en la Universidad de Buenos Aires, y tuvo el acompañamiento académico de la vicerrectora del programa Mariana Sánchez Caparrós. Desarrollar la herramienta le llevó cuatro meses de trabajo, entre diseño de comportamiento, selección de fuentes teóricas y jurídicas, validación de casos de uso y pruebas de diálogo.
Para alimentar la base de datos usó marcos legales como el de la Cedaw (Convención sobre la Eliminación de Todas las Formas de Discriminación contra la Mujer), sentencias y documentos del Sistema Interamericano de Derechos Humanos, y literatura feminista, académica y científica. “Quería crear una herramienta que no sólo detectara sesgos, sino que también educara, preguntara, invitara a revisar desde una mirada feminista y sin imponer una única visión”, explica Correa.
Al hablar de OlivIA, la experta hace algunas salvedades: asegura que no reemplaza a un experto humano, que tiene margen de error como toda IA generativa, y recomienda a los y las usuarias no brindarle datos personales. Ahora, ¿por qué usar una IA corporativa? Correa dice que ChatGPT es en estos momentos la IA generativa más usada del mundo y la más accesible, y que “necesitaba urgentemente herramientas para filtrar sesgos de género”.
Además, la única inversión que hizo fue en la versión ChatGPT paga, sus horas de estudio, el arancel del curso de posgrado y las horas de trabajo de entrenamiento que invirtió. Ella asegura que “para hacerlo de forma totalmente independiente hubiera necesitado una inversión muy grande”, algo imposible de afrontar para la especialista.
De todos lados
Correa no es la única. Activistas feministas, organizaciones y organismos de todo el mundo hacen sus aportes para reducir la brecha de género en las tecnologías a través de la IA. Por ejemplo, en Filipinas, SafeHer es una aplicación que utilizan las usuarias del trasporte público para mejorar su seguridad ante acoso y agresiones sexuales.
En Chile, Sof+IA es un chatbot feminista que brinda apoyo y recursos a quienes sufren violencia de género. Y, en Argentina, Data Género desarrolló el software AymurAI que anonimiza documentos, recolecta y pone a disposición datos sobre violencia de género a partir de sentencias judiciales.
En Uruguay, Lorena Etcheverry es docente e investigadora del Instituto de Computación de la Facultad de Ingeniería de la Universidad de la República e integrante del Centro Interdisciplinario en Ciencia de Datos y Aprendizaje Automático. Desde allí, la académica cuenta a la diaria que están trabajando con un programa de ética, sesgos y discriminación en la ciencia de datos, que definió como un programa de “IA responsable”.
En alianza con especialistas de la región, estudian cómo “el uso de datos puede perjudicar a poblaciones vulnerables y cómo pueden ser usados para perpetuar las relaciones de poder”. También cómo se potencian los sesgos de género en los grandes modelos generadores de lenguaje como ChatGPT.
Por otra parte, la investigadora académica uruguaya Helena Suárez Val, que es la fundadora del proyecto Feminicidio Uruguay, una base de datos y mapeo de las muertes violentas de mujeres por razones de género en Uruguay desde 2015, también impulsa Datos contra el Feminicidio. A través de este proyecto internacional colectivo, ha creado una metodología y herramientas con IA para facilitar el trabajo de monitoreo y registro de datos sobre femicidios para activistas y periodistas de todo el mundo.