La inteligencia artificial (IA) irrumpe como promesa de eficiencia y objetividad en la gestión pública. Pero sin una gobernanza ética y deliberativa, podría desplazar el juicio colectivo y debilitar la evaluación de políticas públicas y la calidad democrática.
Un país entre rendiciones y promesas tecnológicas
La Rendición de Cuentas 2024, presentada por el actual gobierno en cumplimiento de una obligación constitucional, refiere al ejercicio del año anterior y busca cerrar el ciclo político del quinquenio pasado. En ella se destacan logros institucionales y mejoras en la gestión, con énfasis en eficiencia, consolidación fiscal, digitalización y planificación orientada a resultados. Sin embargo, lo que no se encuentra –ni en el documento ni en el discurso público que lo acompaña– es una revisión sistemática, participativa y pública de lo que funcionó, lo que no y por qué.
Casi al mismo tiempo, el nuevo gobierno instaló Uruguay Innova, una iniciativa liderada por Bruno Gili desde Presidencia que busca articular las políticas de ciencia, tecnología e innovación con una mirada estratégica. En sus intervenciones, Gili ha insistido en que Uruguay debe dar un salto hacia una economía del conocimiento, apoyándose en tecnologías emergentes como la IA. Entre sus ejes está precisamente el desarrollo de plataformas transversales –una de ellas dedicada a la IA– y la creación de una institucionalidad que favorezca la transferencia tecnológica y la sofisticación productiva.
Ambos eventos –la rendición de un gobierno y la apertura de una nueva arquitectura estatal– colocan en primer plano una pregunta urgente: ¿cómo pensar la transformación del Estado en tiempos de IA? ¿Qué rol puede jugar la IA en la evaluación de políticas públicas? ¿Y qué condiciones deberían garantizarse para que no se convierta en una herramienta de control tecnocrático, sino en un medio para fortalecer la inteligencia colectiva del país?
Más allá del hype: entre eficiencia, control y sentido público
La IA ha ingresado con fuerza en la agenda estatal. Se la presenta como una promesa de eficiencia, velocidad y precisión: algoritmos que procesan datos masivos, que predicen comportamientos, que identifican patrones invisibles al ojo humano. En el marco de Uruguay Innova, se menciona la creación de plataformas interinstitucionales donde la IA, junto con otras tecnologías, pueda potenciar el desarrollo científico, la innovación empresarial y la gestión pública. El discurso es seductor. Pero también exige cautela.
No toda aplicación de IA en la gestión pública constituye un avance democrático. Automatizar decisiones presupuestales, simular políticas o generar indicadores en tiempo real puede acelerar procesos, sí, pero también cerrar preguntas que deberían abrirse al debate público. Si la evaluación de políticas se reduce a un ejercicio técnico, operado por sistemas que aprenden de datos heredados y, por tanto, de sesgos históricos, corremos el riesgo de legitimar decisiones opacas con una pátina de objetividad algorítmica.
Uruguay tiene una oportunidad única: usar la IA no sólo como acelerador de trámites o insumo para rankings, sino como herramienta para expandir el juicio colectivo, enriquecer el análisis de impacto, detectar efectos no previstos, visibilizar desigualdades estructurales. Pero para ello, hace falta mucho más que tecnología. Hace falta una política deliberativa sobre cómo se definen los fines del Estado, quién decide los criterios de éxito y cómo se audita el funcionamiento de estas nuevas herramientas.
Riesgos y dilemas de una IA mal integrada
Integrar IA en procesos públicos sin una reflexión ética y política profunda puede llevar a consecuencias no deseadas. Uno de los riesgos más evidentes es la reproducción automatizada de sesgos sociales y culturales presentes en los datos que alimentan los sistemas. Si los algoritmos se entrenan con registros históricos de decisiones estatales, es probable que perpetúen patrones de exclusión o desigualdad que ya existen. La IA no es neutral: aprende del pasado, pero rara vez lo cuestiona.
Otro dilema central es la opacidad de los modelos algorítmicos. Mientras se exige transparencia a las y los funcionarios públicos, los sistemas de IA muchas veces operan como cajas negras: complejos, no auditables, inaccesibles para la ciudadanía. Esto debilita la evaluación y la rendición de cuentas y genera una asimetría peligrosa entre quienes desarrollan o controlan los sistemas y quienes son afectados por sus decisiones.
En un panel reciente sobre IA y políticas públicas, se compartieron casos que ilustran tanto el potencial como los dilemas de estas herramientas. Se relató cómo un modelo predictivo utilizado durante la pandemia en un país de la región llegó a determinar confinamientos a gran escala, con impactos decisivos en la vida cotidiana. Aunque permitió anticipar picos sanitarios, también mostró lo delicado que es traducir proyecciones algorítmicas en decisiones políticas comprensibles y legítimas.
Si la evaluación de políticas se reduce a un ejercicio técnico, operado por sistemas que aprenden de datos heredados y, por tanto, de sesgos históricos, corremos el riesgo de legitimar decisiones opacas.
En última instancia, una IA mal integrada puede debilitar la calidad democrática y, por ende, la legitimidad del Estado, en lugar de fortalecerla. En lugar de aumentar la confianza pública, puede generar desconfianza si se percibe que la IA se utiliza como un nuevo lenguaje de poder, que habla por encima de la ciudadanía y reemplaza la discusión pública por automatismos incuestionables.
IA como aliada de una evaluación democrática
No se trata de rechazar la IA, sino de preguntarnos con qué propósitos, en qué condiciones y bajo qué formas de gobernanza se la incorpora en la política pública. Lejos de ser sólo una herramienta técnica, la IA puede ser diseñada y orientada para ampliar las capacidades públicas de observación, análisis y aprendizaje colectivo. Pero para que eso ocurra es imprescindible insertarla en marcos éticos, deliberativos y participativos.
En el campo de la evaluación de políticas públicas, la IA podría ofrecer nuevas formas de ver lo que antes era invisible: impactos diferenciales sobre grupos vulnerables, patrones espaciales de exclusión, efectos a largo plazo de decisiones actuales. Pero el valor de estas herramientas no reside en su capacidad de reemplazo del juicio humano, sino en su posibilidad de potenciar la IA. Un modelo de IA que ayuda a mapear las desigualdades en el acceso a un programa social, por ejemplo, sólo cobra sentido si sus resultados son accesibles, comprensibles y discutibles por quienes están implicados en esas decisiones: gestores, funcionarios y funcionarias, ciudadanía organizada.
La clave está en concebir la evaluación no como un instrumento de control descendente, sino como una práctica de aprendizaje público, donde la IA puede sumar si se la domestica para ese fin. Esto implica abrir los algoritmos a la auditoría, documentar sus sesgos y limitaciones, y vincular su uso a los procesos de planificación, diseño, evaluación y rendición de cuentas horizontales. Implica también reconocer que los datos no son neutrales y que la calidad de la información es inseparable de los valores que la guían.
Una hoja de ruta para la transformación, no para el control
Para que la IA contribuya a mejorar la evaluación de políticas públicas no alcanza con disponer de tecnologías de punta. Hace falta también una ética institucional, una cultura democrática de revisión crítica, y estructuras que promuevan el uso deliberado y responsable de la información.
Uruguay tiene las condiciones para dar este paso. Cuenta con un ecosistema estatal que ha acumulado aprendizajes en planificación y evaluación, con capacidades técnicas en expansión y una comunidad científica activa. La reciente creación de Uruguay Innova podría ser una plataforma clave si se convierte en espacio de articulación estratégica y no sólo en coordinadora de instrumentos dispersos.
Bruno Gili, al presentar Uruguay Innova, afirmó con claridad: “Algo no está funcionando bien y necesitamos resolverlo”. Esa afirmación, lejos de ser un gesto retórico, puede ser un punto de partida. Nombrar el problema es el primer paso para enfrentarlo. Y si algo no está funcionando bien, la evaluación crítica –con ayuda de herramientas como la IA, pero sin delegarle la responsabilidad del juicio– debe ser parte de la solución.
La IA no debe ser el fin. Debe ser un medio. Un medio para ampliar el juicio colectivo, para integrar nuevas voces en la evaluación pública, para hacer más visibles los efectos de las políticas en las personas que no suelen ser escuchadas. Si logramos gobernarla con sentido público, puede ayudarnos a transformar el Estado no en una máquina más eficiente, sino en una institución más justa, más reflexiva y más democrática.
Leopoldo Font es docente en la Universidad de la República y en Uclaeh, y consultor internacional en planificación estratégica y en evaluación.