Uruguay aparece como uno de los países mejor posicionados de América Latina para integrar la inteligencia artificial (IA) en el Estado. Sin embargo, los datos muestran que, sin capacidades estatales robustas y visión estratégica de largo plazo, la IA corre el riesgo de concentrar poder, reproducir desigualdades y debilitar la democracia. Sin instituciones robustas, sin equipos públicos con masa crítica, sin marcos éticos deliberativos ni sistemas de evaluación abiertos, ningún algoritmo, por más sofisticado que sea, puede servir al bien común. Y sin capacidad estatal, la democracia corre el riesgo de delegar sus decisiones a dispositivos sin responsabilidad política.
El espejismo del liderazgo
Uruguay aparece, en los principales índices de preparación para la inteligencia artificial, como uno de los países latinoamericanos mejor posicionados. Tanto el Government AI Readiness Index (Gairi) como el Índice Latinoamericano de Inteligencia Artificial (ILIA) lo ubican entre los “pioneros” de la región, destacando aspectos como la existencia de una estrategia nacional, un ecosistema legal favorable y avances en digitalización del Estado.
Pero el liderazgo no siempre es lo que parece. Esos mismos informes reconocen que, más allá del marco normativo, existen déficits importantes en capacidades técnicas, infraestructura, desarrollo local de tecnologías y articulación entre actores públicos. Las capacidades estatales para gobernar la IA no se reducen a tener una hoja de ruta: implican también contar con instituciones robustas, equipos formados, recursos sostenibles, procesos auditables y una cultura organizacional orientada al aprendizaje colectivo y al bien común.
Uruguay podría estar corriendo un riesgo silencioso: el de confundir avance tecnológico con capacidad pública. En otras palabras, tener conectividad, datos abiertos o regulación avanzada no garantiza que se pueda gobernar con inteligencia artificial sin comprometer la calidad democrática. Porque si el Estado no cuenta con músculo propio para implementar, supervisar y auditar los sistemas que adopta, corre el riesgo de delegar decisiones estratégicas a proveedores externos, actores privados o lógicas automatizadas que operan sin control público.
En lugar de fortalecer el juicio colectivo, este tipo de liderazgo simbólico puede terminar debilitándolo. Y si la evaluación pública, como se ha sostenido antes, es una herramienta para recuperar el sentido político de las decisiones del Estado, entonces es urgente preguntarnos qué tipo de capacidades reales estamos desarrollando para sostener esa evaluación en tiempos de algoritmos.
Sin capacidades estatales, no hay gobernanza democrática
La inteligencia artificial no puede gobernarse sola. Su integración en la vida pública requiere mucho más que plataformas digitales o marcos regulatorios: exige capacidades estatales activas, diversas y sostenidas. Capacidad para formular políticas con sentido público. Capacidad para implementar con equidad. Capacidad para evaluar impactos y ajustar el rumbo. En suma, capacidad para gobernar tecnológicamente sin renunciar a la legitimidad democrática.
Hoy, muchos de los países que lideran los índices regionales –Uruguay entre ellos– exhiben avances en regulación o en conectividad, pero no necesariamente en formación de equipos públicos, desarrollo de infraestructuras soberanas o articulación interinstitucional. En otras palabras, se destaca lo normativo, pero se desatiende lo operativo. Se prioriza lo técnico, pero se relega lo político. Y sin capacidades estatales distribuidas y críticas, la inteligencia artificial corre el riesgo de reforzar automatismos sin contrapesos, o de convertirse en un dispositivo de decisiones que nadie puede explicar ni auditar.
Hablar de gobernanza democrática de la IA no es sólo hablar de eficiencia o transparencia. Es hablar de accesibilidad, de diversidad epistémica y cultural, de equidad de género, de derechos humanos y de reconocimiento a las voces históricamente excluidas. Un sistema de IA puede optimizar la asignación de recursos, sí. Pero si esa optimización se basa en datos sesgados o ignora contextos desiguales, puede agravar las brechas en lugar de reducirlas.
La calidad democrática, entendida como la capacidad del Estado de garantizar derechos, deliberar con sus ciudadanos y gobernar con justicia, no se sostiene en declaraciones ni en buenas intenciones. Se construye con capacidades reales: equipos estables, marcos deliberativos, procesos de evaluación crítica y mecanismos de rendición de cuentas accesibles y comprensibles. Sin eso, lo que parece innovación puede ser, en el fondo, una nueva forma de exclusión automatizada.
Riesgos: automatismos sin control, exclusión sin rostro
Cuando las capacidades públicas no alcanzan para comprender, adaptar o supervisar sistemas algorítmicos, los riesgos no son sólo técnicos: son democráticos. El primero de ellos es la opacidad. Muchos modelos de IA operan como cajas negras, inaccesibles para quienes deben rendir cuentas y para quienes son afectados por sus decisiones. En contextos de baja capacidad estatal, esto no se resuelve con buena voluntad ni con discursos de modernización: se agrava.
Un segundo riesgo es la externalización del juicio público. En ausencia de criterios deliberativos y capacidades internas para analizarlos, los algoritmos –diseñados muchas veces por actores privados o en contextos culturales ajenos– terminan ocupando el lugar del juicio humano. Y cuando eso ocurre, las decisiones dejan de ser debatibles. Se presentan como “lo que dice el sistema”. Se naturalizan. Se automatizan. Y lo automatizado, sin reflexión crítica, no mejora la política: la reemplaza.
Un tercer riesgo es la normalización de la desigualdad. Si los datos que alimentan los sistemas son herencia de decisiones previas –y lo son–, los sesgos estructurales pueden volverse silenciosamente normativos. Lo que fue discriminación se vuelve predicción. Lo que fue exclusión se transforma en recomendación técnica. Y sin capacidades públicas para identificar, auditar y corregir esos sesgos, la inteligencia artificial no reduce brechas: las estabiliza.
Lo que fue exclusión, se transforma en recomendación técnica. Y sin capacidades públicas para identificar, auditar y corregir esos sesgos, la inteligencia artificial no reduce brechas: las estabiliza.
Estos no son riesgos hipotéticos. Son amenazas reales que ya se han materializado en otros países, donde sistemas algorítmicos fueron usados para asignar beneficios sociales, monitorear estudiantes, evaluar el riesgo penal de personas detenidas o decidir el acceso a servicios públicos. En todos esos casos, cuando el Estado carecía de capacidad técnica, ética o política para gobernar la tecnología, la tecnología terminó gobernando al Estado.
Capacidades para una inteligencia pública
Ante estos desafíos, no se trata de frenar la innovación, sino de dotarla de sentido público y capacidad institucional. La inteligencia artificial puede ser una aliada poderosa para mejorar las políticas públicas, siempre que esté gobernada con principios de justicia, participación y sostenibilidad. Pero eso no ocurre por inercia. Requiere construir, desde lo público, un nuevo tipo de inteligencia: una inteligencia pública.
La propuesta de Uruguay Innova reconoce, con acierto, que los esfuerzos institucionales dispersos deben ser articulados, que la innovación no se sostiene sin apropiación social y que sin coordinación estatal no hay transformación posible. Esa base es imprescindible. Pero para convertirla en un cambio efectivo –y no sólo en un rediseño organizacional– hace falta avanzar en aspectos que aún no tienen estructura ni horizonte claros.
Algunas líneas de acción podrían marcar esa diferencia:
Formar y retener capacidades internas en el Estado: profesionales con comprensión técnica, ética y política de la IA, capaces de diseñar, adaptar y auditar sistemas con criterios públicos.
Fortalecer espacios interinstitucionales y deliberativos, que integren a quienes diseñan políticas, a quienes las implementan, a quienes las evalúan y a la ciudadanía que las vive. Sin diálogo estructurado, no hay gobernanza democrática posible.
Asegurar la trazabilidad de los algoritmos: documentación, auditoría independiente, capacidad de ser explicado y rendición de cuentas deben ser condiciones mínimas para cualquier sistema de IA que incida en decisiones públicas.
Incorporar la perspectiva de derechos y equidad como estándar transversal: género, discapacidad, territorio, condición socioeconómica y pertenencia étnico-racial no pueden ser variables invisibles en sistemas que se presentan como neutros.
Vincular la IA a procesos de evaluación transformadora: no basta con predecir o clasificar. Hay que entender, interpretar, dialogar y corregir. La evaluación debe ser una práctica que sostenga el juicio colectivo, no que lo sustituya por automatismos.
No se trata solo de tener más tecnología. Se trata de tener mejor institucionalidad, más capacidad para anticipar impactos, para sostener el conflicto democrático y para corregir el rumbo cuando los resultados no acompañan la promesa.
Gobernar la IA es gobernar el futuro
La inteligencia artificial no es una fuerza inevitable ni una solución mágica. Es una herramienta poderosa que puede amplificar tanto nuestras capacidades como nuestras omisiones. Lo decisivo no es si la usamos, sino cómo, para qué y con qué capacidades públicas la integramos en la vida democrática.
Uruguay tiene la oportunidad de ejercer un liderazgo real en la región, pero eso no se mide solo por su posición en los rankings. Se mide por su disposición a fortalecer el Estado, a escuchar a su ciudadanía, a evaluar con honestidad y a corregir con justicia. Porque si la IA se convierte en un nuevo lenguaje de poder que habla por encima de las personas, habrá fracasado incluso antes de ser desplegada.
La gobernanza algorítmica no puede ser una nueva forma de gestión tecnocrática. Tiene que ser un ejercicio de inteligencia pública. Y eso exige capacidades, voluntad política y un compromiso innegociable con el bien común.
En última instancia, gobernar la inteligencia artificial no es un desafío técnico: es una puesta a prueba más de nuestra calidad democrática.
Leopoldo Font es docente en la Universidad de la República y en Uclaeh, y consultor internacional en planificación estratégica y evaluación de políticas públicas.