Desde que asumió Javier Milei la presidencia de Argentina a fines de 2023, se hicieron recortes en casi todas las áreas, tal como había anunciado en campaña: en educación, en jubilaciones, en salud y en asistencia social. Sin embargo, “el ajuste más grande de la historia” que dijo que iba a implementar desde los primeros meses el líder de La Libertad Avanza no tuvo lugar para el área de Servicios de Inteligencia. Por el contrario, quintuplicó su presupuesto.

Los fondos que se destinaron en 2024 para la Secretaría de Inteligencia del Estado (SIDE) –ex Agencia Federal de Inteligencia– representaron un incremento de 483% respecto del año anterior: el total pasó de 650 millones de pesos argentinos (unos 624.500 dólares) a 3.794 millones de pesos (3.645.500 dólares), con el 100% de presupuesto ejecutado para fines de diciembre.

A pesar de haber incrementado la partida destinada a inteligencia para su primer año de mandato, en julio Milei intentó ir por más con un decreto de necesidad y urgencia (DNU), con el que buscaba ampliar el presupuesto de la SIDE en 100.000 millones de pesos (más de 96 millones de dólares) en carácter de fondos reservados (sin precisar para qué funciones serían destinados), pero encontró un freno: el Congreso Nacional lo rechazó, marcando un hito en el país, ya que es la primera vez que las dos cámaras rechazan un DNU desde la historia de su creación.

¿Por qué resulta tan importante ampliar la estructura de control en vigilancia social y espionaje para el líder libertario? ¿Cuáles son los riesgos que están en debate?

Desde el Centro de Estudios Legales y Sociales (CELS) observan con preocupación la reforma que hizo el gobierno de Milei a través de un DNU en la estructura de la SIDE, sin haber tenido una discusión en el Congreso ni en el entorno público.

“Si bien es cierto que el espionaje político y cierta vigilancia ilegal a organizaciones sociales, a referentes y a periodistas tiene antecedentes en distintos gobiernos, el gobierno de Milei nos preocupa en particular por las características que está planteando tanto en política exterior como en política interna de seguridad, con una narrativa vinculada con la agenda del terrorismo y de las nuevas amenazas”, precisa en diálogo con la diaria Paula Litvachky, directora ejecutiva de CELS.

Inteligencia artificial aplicada a la seguridad: ¿de qué se trata?

En paralelo al DNU de Milei, el Ministerio de Seguridad, liderado por Patricia Bullrich, a través de la resolución 710/2024, creó la Unidad de Inteligencia Artificial Aplicada a la Seguridad (UIAAS), con un marco de aplicación de sistemas de inteligencia artificial (IA) para predicción de delitos, perfilado de personas, análisis de casos y detección de fraude, entre otras acciones.

Según la normativa, la UIAAS se encargará de patrullar “redes sociales abiertas, aplicaciones y sitios de internet”, así como “la ‘dark web’ o internet profunda” con el objetivo de investigar delitos, identificar a sus autores, anticipar situaciones de riesgo grave para la seguridad, detectar actividades sospechosas (con la utilización de cámaras y drones en tiempo real cuando fuera necesario) y, al mismo tiempo, “crear perfiles de sospechosos o identificar vínculos entre diferentes casos”.

la diaria se contactó con el área de Comunicación del Ministerio de Seguridad para pedir más detalles sobre la UIAAS, a cargo de Santiago González Bellengeri, pero no obtuvo respuesta. Según explicó Bellengeri al diario La Nación, a los pocos días de que se publicó la medida, el software que se utilizaría para vigilar posibles delitos desde el espacio cibernético no estaba definido; tampoco los protocolos ni el equipo de analistas que participaría en la unidad.

Entre los argumentos que se encuentran en la resolución, dice que “resulta indispensable aplicar la Inteligencia Artificial en la prevención, detección, investigación y persecución del delito y sus conexiones” y que países como “Estados Unidos de América, China, Reino Unido, Israel, Francia, Singapur, India, entre otros, son pioneros en la utilización de la Inteligencia Artificial en sus áreas de gobierno y Fuerzas de Seguridad”.

Como en aquellos países, en Argentina, ahora también se buscaría mediante la IA hacer “Análisis de Video y Reconocimiento Facial, Predicción de Crímenes, Ciberseguridad, Análisis de Datos, Drones y Robótica, Comunicación y Coordinación, Asistentes Virtuales y Automatización, Análisis de Redes Sociales y Detección de Fraude y Anomalías”.

Los expertos consultados por este medio coinciden en que este tipo de medidas e instrumentos digitales “amenazan y ponen en riesgo los derechos a la privacidad, intimidad, libertad de expresión y no discriminación, entre otros”.

Los límites y alcances del ciberpatrullaje

“Aunque los desarrollos de la IA y las tecnologías brindan nuevas oportunidades y beneficios, no deben ignorarse los peligros documentados que estas herramientas suponen cuando se utilizan como medio de control social, vigilancia masiva y discriminación, analiza en diálogo con la diaria Paola García Rey, directora adjunta de Amnistía Internacional Argentina.

“Estas acciones resultan todavía más preocupantes en un contexto de enorme aumento de presupuesto para vigilancia, inteligencia, seguridad y defensa –en gran medida en secreto– en un escenario de desfinanciamiento de políticas sociales, educativas y de salud. Mientras el discurso imperante es que no hay plata, se aumentaban unilateralmente, a través de decretos de necesidad y urgencia, fondos reservados para la SIDE”, puntualiza.

Si bien García Rey admite que el uso de información disponible en internet o en las redes sociales puede tener un gran valor para la ciudadanía e incluso para el Estado en situaciones específicas, como “prevenir atentados terroristas, desarticular redes de trata de personas o prevenir la explotación y el abuso infantil”, observa con preocupación que “en nombre de la seguridad, el Estado avance en una serie de regulaciones que combinan el uso de tecnologías y la inteligencia artificial con el objetivo último de vigilar de manera masiva e indiscriminada a las personas, poniendo en riesgo su privacidad, libertad, igualdad e intimidad”.

“La información disponible en línea no pierde, por su publicación, su naturaleza de información personal privada o sensible. Que algo sea público no habilita la recolección, el procesamiento y el uso de estos datos para el entrenamiento de sistemas de IA ni mucho menos el perfilamiento, especialmente cuando se trata de datos personales protegidos en Argentina con el más alto nivel constitucional”, consideró.

Por su parte, Beatriz Busaniche, magíster en Propiedad Intelectual por el Consejo Latinoamericano de Ciencias Sociales (Clacso), activista digital y presidenta de la Fundación Vía Libre, cuenta a la diaria que “el ciberpatrullaje, que quiere decir hacer monitoreo (inteligencia de fuentes abiertas) de lo que las personas hacen en el espacio semipúblico de las redes sociales, está emparentado directamente con lo que se denomina inteligencia criminal”.

Y lo explica así: “Cuando hablamos de inteligencia criminal tenemos que tener un delito concreto que se esté investigando y un estado de derecho que da marco a esa investigación. ¿Qué supone ese estado de derecho? Debido proceso, es decir, una orden emitida con las salvaguardas legales correspondientes, que esté monitoreado por una fiscalía, autorización de un juez y controles jurisdiccionales apropiados. Por lo tanto, este tipo de vigilancia para nosotros es un tipo de vigilancia que no corresponde sino en los marcos de la investigación criminal y con todas las salvaguardas de la investigación criminal”.

Acceso a la información: ¿cómo se usará la IA para seguridad?

Cuando el CELS pidió acceso a la información para conocer detalles del decreto que habilitaba el uso de IA en Argentina con fines de seguridad, la respuesta fue “muy pobre”.

“La comunicación no fue clara sobre cómo se va a usar y cómo se va armar esta unidad, por eso hicimos un pedido de acceso a la información para preguntar qué tipo de software iban a usar, cómo iban a funcionar los algoritmos, cómo los iban a controlar, en qué contexto, en qué hipótesis se iba a usar, y nos respondieron que nada de esto estaba definido todavía. Es decir que el anuncio se hizo antes de que estuvieran estas cuestiones claves definidas o que no fueron transparentes en responder lo que saben”, detalla la directora ejecutiva del organismo, que enfatiza en el posible “efecto de silenciamiento o de amedrentamiento” que se pueda ejercer sobre las personas que quieran “expresarse en el ámbito digital de forma crítica hacia el gobierno o planteen agendas de debate que impliquen conflictos sociales, territoriales o disputas políticas”.

La Fundación Vía Libre también hizo un pedido de acceso a la información pública a raíz de la falta de precisiones por parte del Ministerio de Seguridad: “Cuando les preguntamos qué es lo que estaban haciendo, qué tecnologías habían comprado, qué tipo de aplicación iban a hacer, nos respondieron ‘estamos estudiando’. A esto se suma la posible compra de tecnologías que puedan realizarse en el futuro, las cuales pueden ser muy peligrosas para los derechos civiles”, advirtió Busaniche.

Entre las tareas que tiene a cargo el área donde se trabaja con IA aplicada a la seguridad, se encuentra la “predicción de crímenes, el análisis de redes abiertas y la creación de perfiles de sospechosos”.

Martín Becerra, doctor en Ciencias de la Información e investigador del Consejo Nacional de Investigaciones Científicas y Técnicas (Conicet), conversó al respecto con la diaria: “La unidad [UIAAS] nace reñida con principios constitucionales y leyes vigentes, ya que tiene la función de invadir, sin orden judicial, la privacidad de millones de personas. Además, la predicción de futuros delitos con base en datos que selecciona caprichosamente el Ministerio de Seguridad para entrenar herramientas de inteligencia artificial ataca el principio de inocencia. Predecir comportamientos futuros, sentenciándolos como delictivos con base en criterios de programación algorítmica, es una atribución desproporcionada que el gobierno argentino se arroga sin advertir la contradicción con la protección de los derechos humanos que compromete al Estado, al menos en sus normas legales”.

En concordancia con Becerra, para Busaniche, uno de los ítems creados por la unidad que mayor controversia generan es justamente aquel que “permite buscar y procesar grandes volúmenes de datos de diversas fuentes para extraer información y crear perfiles de sospechosos o identificar vínculos entre diferentes casos”.

“Entre esto y la creación de una unidad de precrimen, en los términos de las ficciones que hemos visto en el cine, no hay gran diferencia”, subraya la activista digital y continúa: “La idea de crear perfiles de sospechosos es justamente aplicar conocimiento estadístico a casos individuales. En el fuero penal y en la persecución penal esto es lo último que hay que hacer. Uno no puede perseguir a una persona por su pertenencia a un grupo social, por el color de su piel, por los estudios que ha cursado, por la forma en la que se mueve, entre otros patrones, por eso creemos que es altamente peligroso el uso tecnologías predictivas de inteligencia artificial para estos fines”.

Según entiende Becerra, la norma de Bullrich “aspira a patrullar todo el universo digital. Una ambición ilimitada con la que no se atreverían a fantasear ni los capos de la National Security Agency (NSA) estadounidense ni los mandamases del Guoanbu [el servicio de inteligencia] chino. La discrecionalidad en la definición de la política de patrullaje digital de Bullrich es preocupante porque, así como en el pasado –siendo ministra de su ahora adversario, el expresidente Mauricio Macri– denunció penalmente a personas por tuitear (personas que luego fueron absueltas en proceso judicial), las facultades conferidas a la nueva Unidad de Inteligencia Artificial pueden elevar los niveles de represión de la disidencia que sufren periodistas, movimientos sociales y políticos opositores por parte del gobierno, esta vez en nombre de los algoritmos”.

“Este gobierno –concluye el investigador del Conicet– es el mismo que atacó a periodistas y animadores de medios de comunicación y recortó por decreto presidencial la Ley de Acceso a la Información Pública, acotando el ejercicio de la libertad de expresión en la Argentina de Milei”.

En la misma línea, Amnistía Internacional Argentina resalta los efectos negativos que este tipo de medidas puede provocar en el discurso público: “el patrullaje de las redes puede generar el llamado chilling effect. Si una persona sabe (o tiene la sospecha fundada) de que todo lo que comenta, postea o publica está siendo vigilado por las fuerzas de seguridad, podría inhibirse de emitir, por ejemplo, opiniones críticas o disidentes, afectando la libertad de expresión, y perjudicando la calidad plural y democrática del debate público”.

Los efectos intimidatorios que el acceso indiscriminado a datos sobre la comunicación de las personas puede generar sobre la libre expresión del pensamiento, búsqueda y difusión de información es, sin lugar a dudas, uno de los puntos en análisis que mayor temor despierta entre las miradas críticas al gobierno.