Cultura Ingresá
Cultura

Detalle del tuit de @Amnesty_Norgey

Amnistía Internacional utilizó imágenes de inteligencia artificial para recordar abusos en Colombia

2 minutos de lectura
Contenido exclusivo con tu suscripción de pago

Se buscó proteger a los manifestantes, pero podría ser tomado como desinformación.

Contenido no disponible con tu suscripción actual
Exclusivo para suscripción digital de pago
Actualizá tu suscripción para tener acceso ilimitado a todos los contenidos del sitio
Para acceder a todos los contenidos de manera ilimitada
Exclusivo para suscripción digital de pago
Para acceder a todos los contenidos del sitio
Si ya tenés una cuenta
Te queda 1 artículo gratuito
Este es tu último artículo gratuito
Nuestro periodismo depende de vos
Nuestro periodismo depende de vos
Si ya tenés una cuenta
Registrate para acceder a 6 artículos gratis por mes
Llegaste al límite de artículos gratuitos
Nuestro periodismo depende de vos
Para seguir leyendo ingresá o suscribite
Si ya tenés una cuenta
o registrate para acceder a 6 artículos gratis por mes

Editar

La herramienta conocida como inteligencia artificial (IA), que entre otras cosas permite la generación de imágenes a partir de palabras clave, se encuentra en un período de explosión y también de abuso, ya que no existen regulaciones con respecto a su uso ni experiencia de parte de los internautas que se cruzan con sus resultados. El caso más reciente, que anticipa discusiones que solamente se multiplicarán, involucra a Amnistía Internacional (AI).

La organización de derechos humanos utilizó una herramienta de IA para generar tres imágenes que representan la brutalidad policial contra la población civil en Colombia. La cuenta regional de AI en Noruega compartió esas imágenes en su cuenta de Twitter a dos años de las protestas por la reforma fiscal propuesta por el gobierno de Iván Duque, que terminaron con toda clase de abusos por parte de la Policía, incluyendo decenas de homicidios.

Las imágenes, que finalmente fueron retiradas, tenían debajo el texto “Ilustraciones producidas por inteligencia artificial”, además de signos claros de su origen para aquellos que saben del tema. Sin embargo, personas con menos conocimiento o que se cruzaran con los tuits en forma casual podrían haber creído que se trataba de fotografías.

En respuesta a cuestionamientos del sitio Gizmodo, AI había defendido el uso de este recurso, aduciendo que preservaba el anonimato de quienes protestaron. Sin embargo, no tardaron en llover las críticas de quienes señalan que el uso de esta tecnología debilita la credibilidad de grupos cuyas imágenes reales ya sufren el descrédito por parte de regímenes autoritarios. También se criticó el uso de la herramienta que en la actualidad está asociada a memes y experimentos pop (“¿Cómo sería una película de Star Wars dirigida por Wes Anderson?”) en un tema tan sensible como las violaciones de los derechos humanos.

La organización insistió en que el uso de la IA permitía mostrar lo ocurrido “sin poner en peligro a ninguno de los presentes”, y que había consultado a organizaciones asociadas en Colombia antes de generar las imágenes. “Muchas de las personas que participaron en el paro nacional se cubrieron los rostros porque tenían miedo de ser reprimidas y estigmatizadas por las fuerzas de seguridad estatales. Aquellos que mostraron sus rostros todavía están en riesgo y algunos están siendo criminalizados por las autoridades colombianas”.

“Creemos que si Amnistía Internacional hubiera usado los verdaderos rostros de quienes participaron en las protestas los hubiera puesto en peligro de represalias”, agregó un vocero. Es por eso que consideraron que el resultado de la IA fue un sustituto necesario e insistieron con que cada imagen tenía un texto que indicaba su origen.

Sam Gregory, de la organización Witness, que enseña a utilizar la tecnología para registrar abusos y proteger los derechos humanos, dijo al citado medio que el uso de estas herramientas sienta un precedente problemático y golpea aún más la credibilidad de esta clase de organizaciones. “En los últimos cinco años hablamos con cientos de activistas y periodistas que ya sufren la deslegitimación de sus fotos y videos bajo acusaciones de falsedad”. Ahora los líderes autoritarios podrían acusar a cualquier filmación o fotografía que muestre violaciones de los derechos humanos de ser un deepfake.

Esto pondría en los periodistas y activistas toda la presión de tener que demostrar que lo que están presentando es real. Gregory coincidió en la importancia del anonimato de quienes participan en protestas, pero dijo que hay otras formas de presentar los abusos sin caer en los generadores de imágenes ni “prenderse del bombo publicitario de los ciclos noticiosos”.

¿Te interesa la cultura?
None
Suscribite
¿Te interesa la cultura?
Recibí el newsletter de Cultura en tu email.
Recibir
Este artículo está guardado para leer después en tu lista de lectura
¿Terminaste de leerlo?
Guardaste este artículo como favorito en tu lista de lectura