La proliferación de imágenes falsas se ha convertido en un desafío creciente para el periodismo y la ciudadanía. En ese contexto, investigadores uruguayos desarrollaron en los últimos años una herramienta gratuita que funciona como un “detective de imágenes”, capaz de distinguir si una fotografía fue manipulada o generada con inteligencia artificial (IA).

“En líneas generales, la idea es saber si la imagen tiene alguna manipulación local, o sea una falsificación puntual o fue generada con IA”, dijo a la diaria la doctora en Matemática e investigadora posdoctoral en el Centre Borelli de la ENS Paris-Saclay Marina Gardella.

Gardella trabaja desde 2019 junto con Pablo Musé, profesor asociado en el mismo centro francés y docente titular del Instituto de Ingeniería Eléctrica de la Universidad de la República. Ambos participaron en el desarrollo y testeo de métodos del software de verificación de imágenes InVID, un kit de herramientas pensado para ayudar a periodistas a verificar contenidos visuales.

InVID es un plugin para navegadores desarrollado por la Agence France-Presse (AFP) que ofrece una especie de “análisis forense” de imágenes sospechosas, mostrando resultados obtenidos por distintos algoritmos. El producto es gratuito y de acceso abierto para toda la ciudadanía.

Además del trabajo técnico, los investigadores han colaborado con la diaria Verifica cuando surgen casos de imágenes dudosas en la agenda pública.

Falsificaciones locales

Musé explicó, en diálogo con este medio, que una “falsificación local” implica modificar solo una parte de la imagen: insertar un objeto, alterar un rostro o cambiar un fondo. A diferencia de los análisis semánticos, que evalúan si algo parece raro, el enfoque del equipo se basa en el análisis estadístico de los píxeles (puntos mínimos que componen una fotografía).

“Extraemos información que es prácticamente imperceptible para el ojo humano, pero que puede estimarse con herramientas matemáticas. Si la imagen es real, esa información suele ser homogénea. Cuando hay una manipulación local, esa consistencia estadística se rompe”, detalló Gardella.

En el caso de imágenes completamente generadas con IA, agregó, aparecen patrones que no suelen observarse en fotografías tomadas con cámaras reales. Los investigadores han buscado en los últimos años testear métodos y desarrollar bases de datos que establezcan parámetros controlados de las imágenes.

“Generamos nuestras propias imágenes para testear los métodos o las falsificamos en pedacitos también para testear nuestros métodos. Nos movemos en condiciones de laboratorio”, indicó.

En la misma línea, Musé agregó que toda cámara deja una “huella” particular: los sensores generan un ruido específico, con determinadas características estadísticas.

“Ningún sensor es idéntico de un aparato o una cámara a otra, deja trazas y cumple con determinadas estadísticas. Cuando uno manipula la imagen, se generan apartamientos de esa estadística de ruido que es muy sutil, que no se ve a simple vista y que hay que hacer un procedimiento para extraer la distorsión”, afirmó.

Cuando se analiza el ruido de una foto, los investigadores pueden darse cuenta de si la imagen fue manipulada. “Lo que queremos es un algoritmo que automáticamente detecte la imagen. Lo que nosotros no hacemos es ver si hay algo que aparezca en una posición rara, que sería más de un análisis a ojo”, agregó.

“Las manipulaciones no necesariamente van a tener un objetivo de desinformar o de engañar. Hoy en día uno manipula imágenes para hacerlas más lindas. En ese debate no entramos nosotros; nos concentramos en decir si la imagen fue manipulada o no”, añadió.

Cómo surgió el proyecto

El trabajo comenzó en 2019 cuando Gardella inició su doctorado en Francia, donde empezó a investigar técnicas de detección de falsificaciones junto a un equipo en París. Musé codirigió su tesis doctoral junto con otros colegas franceses.

Luego del regreso de Gardella a Uruguay, ambos continuaron la investigación y codirigieron proyectos académicos, entre ellos un proyecto de fin de carrera de grado de la carrera de Ingeniería Eléctrica, que fue realizado por Rodrigo Paganini, Julieta Umpiérrez, Juan Pablo Sotelo y Julian O’Flaherty.

Al mismo tiempo, Musé, Gardella y Rafael Grompone, investigador en el Centre Borelli de la Ecole Normale Supérieure de Paris-Saclay, codirigieron la tesis de maestría de Julieta Umpiérrez referida a temas vinculados. Asimismo, Musé y Gardella dirigieron la tesis de maestría de Juan Pablo Sotelo en Aprendizaje Automático.

Desde el inicio, uno de los ejes del proyecto fue el vínculo con la prensa. Gardella y Musé trabajaron con AFP en tareas de fact-checking y mantuvieron un contacto fluido con la diaria, especialmente durante el período electoral.

Impacto de la inteligencia artificial

Según Gardella, el tipo de falsificaciones más comunes ha cambiado. “Antes predominaban las manipulaciones parciales; hoy lo que más vemos son imágenes completamente generadas con IA”, señaló. Por eso, sostuvo, se trata de un trabajo en permanente actualización.

Musé explicó que las imágenes generadas por IA no provienen de una cámara y, por lo tanto, no presentan la estadística de ruido típica de una fotografía real. “Los modelos de generación aprenden de imágenes reales y podrían eventualmente aprender parte de ese ruido, pero hoy todavía no alcanzan ese nivel de sutileza”, afirmó.

El desafío, añadió, es que cada nuevo método de generación introduce trazas distintas. “Uno quisiera detectar si una imagen fue generada por IA sin importar qué modelo se usó, pero eso es difícil cuando los algoritmos cambian tan rápido”, añadió.

Ambos coincidieron en que, aunque detectar imágenes falsas se volvió más complejo, ningún modelo actual logra replicar completamente las características estadísticas de una foto real.

“Todavía no pueden replicar exactamente las estadísticas de una imagen adquirida con una cámara. Por más que puedan corregir ciertos artefactos que van quedando, en general va a ser muy difícil llegar al algoritmo de generación perfecto, sobre todo si tenemos en cuenta que estos métodos en realidad lo que buscan es una similaridad visual”, agregó Gardella.

Por su parte, Musé indicó que hace muy poco tiempo las personas podían darse cuenta de si una imagen era generada por IA por pequeños detalles, como por ejemplo los dedos de las manos. Sin embargo, el experto dijo que actualmente es más difícil detectarlo a partir de un análisis meramente visual.

“Existen desafíos a futuro, pero es probable que se pueda seguir identificando cuando una imagen es falsa. (...) Es un poco complejo, porque se podría generar una imagen con IA y luego, si se aprende la distribución de ruido en el caso de las fotografías realizadas por una cámara, se podría sumar esa distorsión a la imagen y en ese caso el método fallaría ”, remarcó.

Redes sociales

Un problema adicional es la compresión de imágenes en redes sociales, que degrada la información original. “Las imágenes que van por las redes sociales, que en general tienen compresión, son más complejas de distinguir”, agregó Musé.

Gardella agregó que, a nivel global, se trabaja en desarrollar múltiples métodos complementarios. “Lo que se busca es tener un abanico de métodos que haga que trampear a todos requiera un trabajo importante. El 90% de la gente no va a poder hacerlo porque primero tendrían que leer los papers y tendrían que entender cómo funcionan los métodos. Esto lo que evita es la masificación de imágenes falsas”, indicó.

Si bien el desafío continúa, ambos investigadores coinciden en que estos desarrollos son clave para frenar la masificación y circulación de imágenes falsas en el espacio público.