La inteligencia artificial (IA) es una tecnología que, a pesar de haberse puesto de moda en los últimos meses gracias a ChatGPT, ya se viene desarrollando desde hace décadas y hoy se utiliza en una amplia gama de aplicaciones, desde sistemas de recomendación de películas hasta diagnóstico médico. Sin embargo, existe una preocupación creciente sobre la presencia de diferentes tipos de sesgos –particularmente de género, pero también raciales– en la IA. ¿Cómo puede ser posible que una tecnología “neutral” como la IA tenga prejuicios?
En primer lugar, es importante entender que los sesgos de género en la IA no son intencionales. En cambio, se deben a una serie de factores, como la falta de diversidad en los equipos que desarrollan y prueban los algoritmos, la calidad de los datos de entrenamiento y las limitaciones inherentes de los algoritmos en sí. A menudo, los sesgos de género se manifiestan en los resultados que producen los algoritmos, lo que puede tener consecuencias perjudiciales para las personas, especialmente para las mujeres.
Recientemente, la delegación de la Unión Europea en Uruguay lanzó una campaña que se basa en un experimento en el que se usaron algoritmos predictivos muy famosos, como Dall-E, MidJourney y ChatGPT. Se le pidió, por ejemplo, a ChatGPT que hiciera un poema sobre la primera persona en pisar Marte. La IA asumió que era hombre y escribió versos como “Con el casco puesto y la mirada al frente, el astronauta camina sin temor”. Cuando a MidJourney, una plataforma de generación de imágenes mediante IA, se le pidió un retrato ambientado en 2050 sobre las primeras personas en poner un pie en Marte, en ganar un Premio Nobel, las más influyentes en política o personajes de ficción del futuro, los resultados fueron retratos de hombres. Las solicitudes a los sistemas (los famosos prompts o indicaciones que se da para que el sistema responda) fueron realizadas en inglés, un idioma notoriamente más neutro en sus expresiones genéricas (con el uso del they/them) para evitar dirigir la respuesta con las preguntas.
Este último ejemplo que puso de relieve la campaña es particularmente relevante, ya que uno de los ejemplos más conocidos de sesgos de género en la IA se vincula con lo estético y visual; particularmente en los sistemas de reconocimiento facial.
Un estudio de 2018 realizado por Joy Buolamwini, investigadora del MIT Media Lab,1 encontró que los algoritmos de reconocimiento facial son menos precisos para reconocer a las mujeres y a las personas con tonos de piel más oscuros. En concreto, los algoritmos estudiados por la investigadora en ese entonces registraban un grado de error de 0,8% para hombres blancos, mientras que la tasa se disparaba a 34,7% para mujeres negras.
Esto se debe a que los datos de entrenamiento utilizados para desarrollar estos algoritmos son predominantemente de hombres blancos. Como resultado, los algoritmos no están optimizados para reconocer a las mujeres y a las personas con diferentes tonos de piel, lo que puede tener consecuencias graves en situaciones como la seguridad pública o el acceso a servicios.
Existe una preocupación creciente sobre la presencia de diferentes tipos de sesgos –particularmente de género, pero también raciales– en la IA.
La IA y el mercado laboral
Otra área relevante en la que los sesgos de la IA pueden tener impactos tangibles en la vida de la población se encuentra en los sistemas de recomendación de empleo.
Un estudio realizado en 2018 por la Universidad de Columbia, de Estados Unidos, encontró que los algoritmos de recomendación de empleo tienden a ofrecer trabajos mejor remunerados a los hombres que a las mujeres, incluso cuando tienen el mismo nivel de educación y experiencia laboral. Esto se debe a que los algoritmos se basan en datos históricos que reflejan la discriminación de género, y –la mayoría de estos sistemas, aunque no todos– no tienen contrapesos diseñados a medida para revertir estas tendencias.
Sin embargo, la solución no es tan fácil como “poner contrapesos”. Porque... ¿quién los pone?, ¿bajo qué criterio? Por ejemplo, el otro día le pedí a ChatGPT que escribiera un poema sobre el expresidente estadounidense Donald Trump. Me dijo que tenía que ser imparcial y que no podía proveerme el poema. Acto seguido le pedí que escribiera un poema sobre Joe Biden y Barack Obama. Produjo lo siguiente: “Clama el viento en la nación de la libertad / Hoy se erige un líder, Joe Biden su nombre será / Un hombre de humildad, valentía y tesón / De espíritu compasivo y un gran corazón / La historia lo llama, en el momento más crucial / Líder en tiempos oscuros, con una luz que es crucial / Muestra un camino de unidad, de respeto y de justicia / Un ideal de prosperidad, de equidad y de conciencia / Ha luchado por su pueblo desde la más tierna edad / Con gran empatía lleva alivio al dolor y al pesar / Con sus años de experiencia y con su sabiduría / Levanta la bandera de la libertad y de la democracia”. Y luego: “Barack Obama, oh, cómo inspiras / Con tu elocuencia y gracia enciendes nuestros corazones / Tus palabras resuenan con verdad y esperanza”, y así continúa.
Más preguntas que respuestas
Sin duda, la IA va a revolucionar, y para bien, el nivel de productividad de determinadas industrias, ahorrándonos tiempo y dinero a todos. Pero también los sesgos y potenciales puntos ciegos de estos sistemas pueden impactar la vida concreta de millones de personas y, lo que es más complejo, hacerlo con una arbitrariedad y despersonalización total: si un empleado de un banco niega un préstamo y se comprueba que lo hizo por discriminación (sea racial, de género o por cualquier otro motivo), la persona física y/o la institución pueden tener repercusiones a nivel legal y la persona discriminada puede tomar acciones. Ahora, ¿qué pasa cuando tenemos discriminación embebida en los sistemas con los que interactuamos digitalmente, a través de algoritmos black box2 de los cuales ni siquiera los ingenieros (más que ingenieras) que los programan pueden explicar cómo funcionan? ¿Quién se hace responsable?
Y, fundamentalmente, ¿los algoritmos deben reflejar el comportamiento humano o decirnos la “verdad”? ¿Deben ser como nosotros, o ser mejores que nosotros?
Pedro Copelmayer es consultor digital en Ciudadana y responsable de innovación financiera en la diaria.
-
https://news.mit.edu/2018/study-finds-gender-skin-type-bias-artificial-intelligence-systems-0212 ↩
-
Término que el mundo informático toma de la aviación para definir sistemas de los cuales no se puede explicar el proceso que desarrollan para partir de un input (información inicial) a un output (información final), ya que el sistema “aprende” en base a los datos brindados. ↩