La herramienta conocida como inteligencia artificial (IA), que entre otras cosas permite la generación de imágenes a partir de palabras clave, se encuentra en un período de explosión y también de abuso, ya que no existen regulaciones con respecto a su uso ni experiencia de parte de los internautas que se cruzan con sus resultados. El caso más reciente, que anticipa discusiones que solamente se multiplicarán, involucra a Amnistía Internacional (AI).

La organización de derechos humanos utilizó una herramienta de IA para generar tres imágenes que representan la brutalidad policial contra la población civil en Colombia. La cuenta regional de AI en Noruega compartió esas imágenes en su cuenta de Twitter a dos años de las protestas por la reforma fiscal propuesta por el gobierno de Iván Duque, que terminaron con toda clase de abusos por parte de la Policía, incluyendo decenas de homicidios.

Las imágenes, que finalmente fueron retiradas, tenían debajo el texto “Ilustraciones producidas por inteligencia artificial”, además de signos claros de su origen para aquellos que saben del tema. Sin embargo, personas con menos conocimiento o que se cruzaran con los tuits en forma casual podrían haber creído que se trataba de fotografías.

En respuesta a cuestionamientos del sitio Gizmodo, AI había defendido el uso de este recurso, aduciendo que preservaba el anonimato de quienes protestaron. Sin embargo, no tardaron en llover las críticas de quienes señalan que el uso de esta tecnología debilita la credibilidad de grupos cuyas imágenes reales ya sufren el descrédito por parte de regímenes autoritarios. También se criticó el uso de la herramienta que en la actualidad está asociada a memes y experimentos pop (“¿Cómo sería una película de Star Wars dirigida por Wes Anderson?”) en un tema tan sensible como las violaciones de los derechos humanos.

La organización insistió en que el uso de la IA permitía mostrar lo ocurrido “sin poner en peligro a ninguno de los presentes”, y que había consultado a organizaciones asociadas en Colombia antes de generar las imágenes. “Muchas de las personas que participaron en el paro nacional se cubrieron los rostros porque tenían miedo de ser reprimidas y estigmatizadas por las fuerzas de seguridad estatales. Aquellos que mostraron sus rostros todavía están en riesgo y algunos están siendo criminalizados por las autoridades colombianas”.

“Creemos que si Amnistía Internacional hubiera usado los verdaderos rostros de quienes participaron en las protestas los hubiera puesto en peligro de represalias”, agregó un vocero. Es por eso que consideraron que el resultado de la IA fue un sustituto necesario e insistieron con que cada imagen tenía un texto que indicaba su origen.

Sam Gregory, de la organización Witness, que enseña a utilizar la tecnología para registrar abusos y proteger los derechos humanos, dijo al citado medio que el uso de estas herramientas sienta un precedente problemático y golpea aún más la credibilidad de esta clase de organizaciones. “En los últimos cinco años hablamos con cientos de activistas y periodistas que ya sufren la deslegitimación de sus fotos y videos bajo acusaciones de falsedad”. Ahora los líderes autoritarios podrían acusar a cualquier filmación o fotografía que muestre violaciones de los derechos humanos de ser un deepfake.

Esto pondría en los periodistas y activistas toda la presión de tener que demostrar que lo que están presentando es real. Gregory coincidió en la importancia del anonimato de quienes participan en protestas, pero dijo que hay otras formas de presentar los abusos sin caer en los generadores de imágenes ni “prenderse del bombo publicitario de los ciclos noticiosos”.