Ingresá

Fiscalía General de la Nación, en la Ciudad Vieja de Montevideo (archivo).

Foto: Ernesto Ryan

Fiscales uruguayos dan pasos “cautelosos” hacia la aplicación de la inteligencia artificial en sus tareas

7 minutos de lectura
Contenido exclusivo con tu suscripción de pago

Mientras el tema comienza a ser considerado por la Fiscalía, magistrados y abogados consultados por la diaria analizaron los riesgos y oportunidades de comenzar a utilizar inteligencia artificial en la Justicia.

Contenido no disponible con tu suscripción actual
Exclusivo para suscripción digital de pago
Actualizá tu suscripción para tener acceso ilimitado a todos los contenidos del sitio
Para acceder a todos los contenidos de manera ilimitada
Exclusivo para suscripción digital de pago
Para acceder a todos los contenidos del sitio
Si ya tenés una cuenta
Te queda 1 artículo gratuito
Este es tu último artículo gratuito
Nuestro periodismo depende de vos
Nuestro periodismo depende de vos
Si ya tenés una cuenta
Registrate para acceder a 6 artículos gratis por mes
Llegaste al límite de artículos gratuitos
Nuestro periodismo depende de vos
Para seguir leyendo ingresá o suscribite
Si ya tenés una cuenta
o registrate para acceder a 6 artículos gratis por mes

Editar

La irrupción de la inteligencia artificial (IA) en el sistema de justicia uruguayo todavía es incipiente, pero el debate ya está instalado y los fiscales son los primeros en considerarlo.

La Fiscalía General de la Nación se encuentra actualmente en una etapa de exploración “cautelosa” para incorporar herramientas de IA en distintas áreas de trabajo.

Así lo explicó a la diaria el director encargado de la Unidad Especializada en Cibercriminalidad, Ricardo Lackner, quien anunció que el proyecto está “todavía en elaboración”, pero ya se iniciaron contactos con la Fiscalía de Chile para conocer su experiencia y evaluar qué aspectos podrían trasladarse a Uruguay. “El tema es enorme; lo que se está planteando en la Fiscalía son pasos prudentes y modestos”, remarcó.

Mientras tanto, expertos en temas judiciales consultados por la diaria coincidieron en que la IA abre una oportunidad de modernización –sobre todo en tareas de gestión, búsqueda de información e investigación criminal–, pero advirtieron que su incorporación debe ser prudente, gradual y siempre bajo supervisión humana efectiva, porque, de lo contrario, existe el riesgo de sesgos, falsos positivos y uso de pruebas adulteradas.

La directora del Centro de Estudios Judiciales (CEJU) y ministra del Tribunal de Apelaciones, Verónica Scavone, dijo a este medio que el sistema de justicia uruguayo debe mantener una mirada crítica y formarse activamente frente al avance de la IA.

Consultada sobre el impacto que la IA podría tener en el corto plazo, Scavone remarcó que el contexto actual exige adaptación. “En cualquier caso entiendo que la adaptabilidad frente a los cambios es un elemento central en los tiempos que corren. Eso no implica ‘olvidar’ el pasado o lo que se hizo hasta ahora, más bien se trata de aprender de lo que está sucediendo”, afirmó.

Por su parte, la presidenta de la Asociación de Magistrados Fiscales, Claudia González, consideró que la IA aún no ha tenido un impacto significativo en el sistema de justicia uruguayo, pero advirtió que, en caso de incorporarse, debe ser concebida estrictamente como un instrumento y no como un mecanismo resolutivo.

Situación actual

El doctor en Derecho por la Universidad de Salamanca y profesor de la Universidad de la República Ignacio Soba consideró que el sistema judicial uruguayo atraviesa una etapa de “desconcierto y desorientación” frente a la irrupción de esta tecnología.

Para Soba, se trata de un momento bisagra y adelantó que a nivel internacional están surgiendo muchas guías y protocolos en torno a este tema. Consultado sobre la situación local, Soba señaló que Uruguay aún no inició una etapa de regulación específica del uso de IA en procesos jurisdiccionales. “Tampoco tenemos a nivel del Poder Judicial o del Colegio de Abogados de Uruguay pautas definidas para la utilización de la inteligencia artificial”, señaló Soba, quien junto con el profesor Gabriel Valentín elaboró un anteproyecto académico centrado en regular el impacto de la IA en procesos jurisdiccionales.

Asimismo, recordó que el Colegio de Abogados del Uruguay cuenta con un código de ética, pero dijo que “ya tiene sus años y no incluye referencias concretas a la inteligencia artificial”. En contraste, mencionó que la American Bar Association (Colegio de Abogados de Estados Unidos) ya emitió una opinión técnica sobre aspectos éticos del uso de IA y que en Brasil y Colombia existen regulaciones específicas.

Sesgos y falsos positivos

Sobre los riesgos que implica el uso de IA en el sistema de justicia, Lackner subrayó que en la Unión Europea existe una “especial preocupación por la vulneración que podría tener esa tecnología de los derechos fundamentales”, tanto en la investigación criminal como en la etapa jurisdiccional.

Uno de los principales riesgos es la presencia de sesgos en las bases de datos que alimentan los algoritmos. “La cuestión de la aplicación de algunos programas de inteligencia artificial ha revelado que contienen ciertos sesgos que están en las bases de datos”, indicó. “Se han descubierto (en la IA) sesgos en cuanto a determinadas características personales, que funcionan como prejuicios. Un sesgo puede dar falsos positivos”, afirmó.

Mencionó casos en que sistemas de evaluación crediticia aumentaban tasas de interés a mujeres sin fundamento económico, debido a la forma en que estaban construidas las bases de datos. Por eso, remarcó la importancia de la transparencia en la minería de datos y en el funcionamiento algorítmico, así como conocer “cuáles son los porcentajes de falsos positivos que pueden arrojar”.

“Pongo un ejemplo que ya se está debatiendo en la jurisprudencia española, que son los programas de reconocimiento facial. El sistema puede decir que es una misma persona, pero la fotografía se captó con una cámara de seguridad que tenía un ángulo determinado, con cierta iluminación. El debate se está trasladando a la posibilidad de que haya habido, por ejemplo, un falso positivo”, explicó.

Entre los usos prohibidos que mencionó Soba, puso el ejemplo de aquellos sistemas que no permiten revisión humana de los resultados o que generan dependencia absoluta del usuario. También citó la prohibición de evaluar rasgos de personalidad para predecir la comisión de delitos o la probabilidad de reincidencia.

Además, advirtió sobre riesgos concretos en el proceso jurisdiccional, como la incorporación de argumentos con citas inexactas, material falso o adulterado y el fenómeno de los deepfakes en la prueba judicial.

Desde otro criterio, Lackner advirtió sobre el riesgo que implica el análisis automatizado de grandes volúmenes de datos para la intimidad de las personas. “Un dato aislado no puede decir mucho de una persona, pero la obtención rápida, simultánea, de una cantidad de aspectos, de datos que individualmente no dicen nada, en conjunto pueden vulnerar aspectos relacionados con la intimidad”, afirmó. Si no se analizan estos aspectos, el experto dijo que una decisión a nivel judicial podría volverse injusta.

Posibles aplicaciones

En el ámbito de la investigación, las aplicaciones de IA aparecen más claras y menos controvertidas. Para González, esta tecnología podría tener mayor utilidad en la investigación policial que en la tarea estrictamente fiscal. Como ejemplo, mencionó la posibilidad de reconstrucciones en casos penales: “Si hay un homicidio y hay que hacer una reconstrucción, puede servir mucho la IA para realmente dar una pauta certera de cómo sucedió”.

Mientras tanto, Lackner explicó que la IA es especialmente útil en tareas repetitivas y en la detección de patrones. Asimismo, sostuvo que puede suponer una “reducción de tiempo enorme” en lo que sería la búsqueda de precedentes.

Puso como ejemplo las estafas, que muchas veces se denuncian en distintos departamentos y por montos pequeños, pero que en conjunto representan cifras significativas. Sostuvo que hay programas capaces de identificar un mismo modus operandi o coincidencias en números telefónicos, los cuales permitirían orientar mejor la investigación.

Lackner y Scavone coincidieron en que la IA puede ser útil para las “tareas repetitivas”, como pueden ser la transcripción automática de audiencias, anonimización de sentencias para su publicación respetando la ley de protección de datos personales y mejoras en la búsqueda avanzada de jurisprudencia.

“Las herramientas de IA generativas podrían ser de utilidad en áreas auxiliares al trabajo jurisdiccional y de gestión”, dijo Scavone, y puso como ejemplo el fortalecimiento de las bases de datos jurisprudenciales y normativas, mejorando motores de búsqueda y optimizando tiempos y resultados.

Lackner también mencionó sistemas de asistencia al momento de tomar denuncias, que orienten sobre qué información recabar y qué pruebas preservar, así como herramientas para la cooperación internacional que faciliten la redacción de oficios conforme a los requisitos de cada país.

“Es como tener actualizado una especie de asistente que para cada situación concreta le va advirtiendo, para que no se olvide de nada”, opinión lo meó.

Diferencias entre sistemas jurídicos

Desde la Asociación de Magistrados Fiscales, González señaló que muchas de las experiencias de incorporación de IA provienen de países anglosajones, cuyos sistemas jurídicos difieren del uruguayo.

Remarcó que en esos sistemas la jurisprudencia tiene un peso central, lo que facilita la búsqueda automatizada de precedentes. En Uruguay, en cambio, la IA podría ser útil para localizar normativa o jurisprudencia relevante para fundamentar posiciones fiscales. “Quizás la IA nos pueda servir para buscar normativa internacional o nacional”, indicó.

En materia de investigación, reiteró que el potencial podría ser mayor. “Se pueden hacer simulaciones de cómo pueden haber sucedido los hechos, de un accidente de tránsito hasta un hurto, una rapiña, un homicidio”, sostuvo, aunque reconoció que desconoce el alcance técnico actual en áreas como ADN u otros análisis científicos.

Formación y mirada crítica

Desde el CEJU, Scavone explicó que se trabaja activamente en la formación en esta área. “Desde la Escuela Judicial de Uruguay estamos comprometidos en la formación en esta área porque es necesario mantener una mirada crítica, pero esto es imposible sin conocimiento del tema”, señaló.

Scavone confirmó que actualmente se trabaja, con apoyo de Unesco, en la elaboración de guías para el uso ético de la IA en el sistema de justicia.

Además, subrayó que cualquier regulación debe analizarse bajo “el prisma de los derechos humanos y la dignidad de la persona humana”, tomando como referencia marcos internacionales como el Reglamento de Inteligencia Artificial de la Unión Europea (EU AI Act), los principios de la OCDE, la Recomendación sobre la Ética de la IA de Unuesco y los lineamientos de la Cumbre Judicial Iberoamericana, en sintonía con la Estrategia Nacional de IA a cargo de Agesic.

“La naturaleza dinámica de la IA exige además marcos flexibles, porque lo que hoy puede ser adecuado en breve tiempo podría dejar de serlo”, advirtió.

Actualmente, el CEJU procesa los datos recogidos en una encuesta realizada a jueces, juezas y directores de área sobre el uso de IA, con el objetivo de conocer el punto de partida.

Desafíos

Consultada sobre si Uruguay está preparado para incorporar IA en el sistema judicial, Scavone destacó que el Poder Judicial uruguayo es “uno de los poderes judiciales con mayor índice de confianza en América Latina”, lo que fortalece su institucionalidad. Sin embargo, reconoció que “tenemos mucho para hacer”.

En cuanto al futuro, evitó hacer pronósticos: “En un mundo donde se producen cambios con tanta velocidad, es difícil aventurar lo que sucederá”, señaló.

Por su parte, González afirmó que existen otras prioridades por parte de la Fiscalía. “La Fiscalía, por ahora, tiene tantos problemas de funcionamiento y tantos problemas a nivel presupuestal, que creo que este tipo de problemas, por ahora, como no hay situaciones de gravedad, no los ha evaluado”, señaló.

También puso en duda que el país esté preparado institucionalmente para una incorporación amplia de estas herramientas. “No sé si está preparado, porque si se mira lo que son las salas de audiencia en algunos lugares, lo que son las sedes de Fiscalía en otros, hay situaciones que son realmente terribles. La seguridad de los fiscales es terrible. (...) Para todo se necesita presupuesto, y la verdad es que los recursos de la Fiscalía son tan lamentables que creo que se va a priorizar otra cosa”, finalizó.

¿Tenés algún aporte para hacer?

Valoramos cualquier aporte aclaratorio que quieras realizar sobre el artículo que acabás de leer, podés hacerlo completando este formulario.

¿Te interesa el futuro?
None
Suscribite
¿Te interesa el futuro?
Recibí el newsletter de Futuro en tu email.
Recibir
Este artículo está guardado para leer después en tu lista de lectura
¿Terminaste de leerlo?
Guardaste este artículo como favorito en tu lista de lectura