En un contexto en el que las decisiones automatizadas comienzan a moldear la economía, el empleo y la vida cotidiana, Uruguay se prepara para dar un paso clave: la creación de una ley que regule el uso de la inteligencia artificial (IA). La Agencia de Gobierno Electrónico y Sociedad de la Información y del Conocimiento (Agesic) trabaja desde hace unos meses en un marco normativo que busca proteger los derechos de las personas sin frenar la innovación tecnológica.
El director ejecutivo de Agesic, Daniel Mordecki, afirmó, en diálogo con la diaria, que el objetivo central es “equilibrar las fuerzas” entre las grandes corporaciones tecnológicas y la sociedad. “Si no hay regulación, el impacto será como quiera quien tiene el poder de imponer los cambios. Lo que hace la regulación es equilibrar las fuerzas y proteger a los más vulnerables”, subrayó.
El jerarca aclaró que no hay una fecha estimada para la presentación del proyecto de ley, que se está trabajando internamente en la Agesic, y añadió que priorizarán la articulación con distintos actores involucrados. “La paciencia es un gran consejero”, afirmó; “hay que articular, escuchar, generar un proyecto de consenso que dure, en el que las partes entiendan qué ganan y qué pierden, y se sientan razonablemente cómodas con él”.
Mordecki consideró que la IA está “cambiando las reglas de juego profundamente” y generando nuevos fenómenos en algunas industrias y en la economía. Frente a este contexto, “regular también es determinar las relaciones con el poder económico. Los vínculos entre las grandes corporaciones y los ciudadanos son muy asimétricos y desiguales. Lo que hace la regulación es defender los derechos de las personas, imponer obligaciones para volver a reequilibrar de alguna manera la balanza”, señaló.
En la misma línea, especialistas consultados por la diaria advirtieron que el desafío no se limita a legislar sobre tecnología, sino pensar en una regulación en la que la IA no vulnere derechos, cumpla con “estándares éticos, de seguridad y transparencia” y permita que el país pueda asegurarse que “la tecnología está al servicio de la sociedad y no al revés”.
La doctora en Ciencias Sociales Carolina Aguerre destacó que Uruguay tiene una “trayectoria madura y consistente” en materia de IA, pero consideró que el país debe pasar del plano declarativo a la acción concreta; mientras que la senior developer de Endava Uruguay –una empresa proveedora de servicios tecnológicos–, Vanesa Arévalo, sostuvo que el país está en condiciones de “liderar la conversación regional sobre una inteligencia artificial responsable”.
Desde otra perspectiva, el economista Pablo da Rocha, del Instituto Cuesta Duarte, insistió en que la regulación debe incluir derechos laborales, negociación colectiva y soberanía tecnológica.
Hacia una ley
En Uruguay no hay una ley específica que ordene y articule aspectos referidos a la IA, explicó Mordecki, quien remarcó que igualmente hay normativas que regulan algunos temas. Puso el ejemplo de la ley de protección de datos personales o la ley que regula el trabajo en las plataformas digitales.
Mordecki explicó los principales ejes que deberían integrar una futura ley sobre IA y advirtió sobre los desafíos que implican tanto el uso de algoritmos en la vida cotidiana como su impacto en el empleo y la economía.
“Los aspectos que están cambiando la IA son casi inabarcables”, señaló Mordecki, aunque identificó tres grandes áreas donde la regulación resulta urgente.
El primer aspecto tiene que ver con los derechos de las personas frente a los sistemas automatizados. “Debe establecerse el derecho a saber que lo que uno está recibiendo es el resultado de IA; también debe contemplarse el derecho a reclamar o corregir lo que afecte a los ciudadanos ya sea ante una empresa, ante el Estado o ante alguien que publica cosas”, resumió.
En ese sentido, advirtió sobre la indefensión actual de los usuarios ante decisiones tomadas por los algoritmos. “Cuando un algoritmo decide que tu cuenta de correo o de redes sociales viola alguna norma o promueve una noticia, prácticamente estás indefenso. ¿Cómo reclamás por los daños? Es una empresa que te está afectando y no hay mecanismos claros para hacerlo”, sostuvo.
El segundo eje debería referir al impacto de la IA en el trabajo y las relaciones laborales, indicó Mordecki, quien destacó el antecedente de la ley de plataformas, que obliga a las empresas a aceptar la jurisdicción uruguaya y a disponer de una persona física que pueda responder ante reclamos de trabajadores.
El último componente señalado por Mordecki fue la propiedad, transparencia y uso de los datos. Para el jerarca, no se trata de revelar cómo funciona cada algoritmo, sino de garantizar que las personas puedan entender qué criterios se usaron para generar una respuesta o tomar una decisión automatizada. “En este tema hay dos áreas: ciberseguridad y propiedad intelectual”, agregó.
Asimismo, Mordecki remarcó que la regulación no debe frenar la innovación: “Hay que cuidar la innovación, fomentar todo lo que la IA puede brindar a la economía, la industria del software, la cultura y otras industrias. La clave es el equilibrio: fomentar lo bueno y proteger de los efectos nocivos”.
La mirada del Cuesta Duarte
El economista e integrante del equipo económico del Instituto Cuesta Duarte, del PIT-CNT, Pablo da Rocha consideró que hay “cuatro pisos” que Uruguay tiene que asegurar de “forma explícita” en una regulación sobre IA. El primero radica en el derecho a la negociación colectiva en clave tecnológica.
“Cada vez que se introduce una nueva herramienta digital o un sistema de IA que cambia la organización del trabajo, debe negociarse con el sindicato antes, no después. Esto tiene que ser un derecho reconocido, no una cortesía”, agregó.
Sostuvo que es necesario tener una indicación “clara” sobre responsabilidad empresarial. “Si un algoritmo evalúa desempeño, fija objetivos o incluso despide, la responsabilidad sigue siendo de la empresa, no de la máquina”, añadió.
En tercer lugar, indicó que es necesaria la protección de datos laborales. “Los datos que genera un trabajador en jornada son parte de la relación laboral, no un activo gratuito de la empresa para vender o exportar”.
Por último, Da Rocha sostuvo que una futura regulación debe comprender una política industrial y tecnológica nacional para evitar que el país quede como un “usuario pasivo de software importado”.
“Necesitamos desarrollo propio, incluso en el sector público, porque la soberanía tecnológica también es soberanía laboral. En resumen, la IA puede ser una palanca para un trabajo más digno, con menos tareas alienantes y más valor agregado nacional. Pero eso no va a pasar por accidente. Va a suceder si los trabajadores, organizados, negocian a tiempo y si el Estado asume que esta discusión es tan estructural como lo fue, en su momento, la jornada de ocho horas”, reflexionó.
Una regulación responsable
Para Arévalo, Uruguay está en condiciones de “liderar la conversación regional sobre una IA responsable en la región”, pero debe hacerlo con una regulación que contemple “principios claros”.
“A grandes rasgos, creo que cualquier regulación debería contemplar cuatro principios fundamentales. Lo primero es reconocer que los sistemas de IA no pueden ser cajas negras. Necesitamos que sean transparentes y trazables, que las organizaciones puedan explicar cómo llegan a una decisión automatizada y bajo qué criterios lo hacen. Esa claridad no sólo protege a los usuarios, también fortalece la confianza pública en la tecnología”, afirmó.
Otro punto clave para Arévalo es que toda decisión automatizada con impacto sobre las personas, por ejemplo, en áreas como salud, justicia o finanzas, tenga revisión humana: “Debe haber alguien capaz de contextualizar, validar y asumir responsabilidad sobre la decisión final”, afirmó.
Además, Arévalo advirtió que la protección de datos personales debe actualizarse: “También es necesario actualizar el marco existente en torno a la protección de datos y derechos digitales, alineada con la Ley 18.331 y el rol de la URCDP (Unidad Reguladora y de Control de Datos Personales). Uruguay tiene una ley avanzada en esta materia, pero fue pensada en otra era tecnológica; hoy los desafíos son distintos. Los algoritmos procesan grandes volúmenes de información personal y, si no hay controles adecuados, pueden afectar derechos sin que nadie lo note”, añadió.
Por último, consideró que es necesario definir con claridad quién responde cuando “algo sale mal”: “¿El desarrollador que creó el modelo, la empresa que lo implementó o el usuario que lo usó sin supervisión? Esa claridad legal es indispensable”, remarcó.
Los riesgos de no legislar
Mientras tanto, Aguerre, quien es profesora de la Universidad Católica del Uruguay y experta en gobernanza de tecnologías digitales, consideró que la ausencia de una ley genera incertidumbre tanto para empresas como para usuarios.
“El mayor riesgo de no legislar es no brindar garantías jurídicas. Las empresas y los ciudadanos quedan en un vacío legal frente al uso de una tecnología que tiene carácter de propósito general, como la electricidad. Puede usarse en salud, educación o logística, y por eso es clave regular los usos y no la IA en sí misma”, explicó.
Según la investigadora, el enfoque uruguayo debería priorizar los derechos humanos y la seguridad sin frenar la innovación. “No se trata de regular la IA como disciplina, sino sus usos. Lo importante es garantizar que las aplicaciones basadas en IA no vulneren derechos, que cumplan con estándares éticos, de seguridad y transparencia”, subrayó.
En la misma sintonía, Arévalo sostuvo que una normativa clara puede potenciar el desarrollo tecnológico. “La regulación no es un obstáculo, sino una forma de cuidar. Se trata de establecer límites que protejan a las personas y al mismo tiempo den confianza para seguir innovando. La regulación bien diseñada fomenta una innovación responsable. Les da a las empresas y desarrolladores un marco claro de actuación y genera confianza en la ciudadanía”, enfatizó.
“Regular la IA es, en el fondo, asegurarnos de que la tecnología esté al servicio de la sociedad y no al revés”, afirmó.
Para Aguerre y Arévalo, la regulación no puede resolver por sí sola los dilemas que plantea la IA. Consideraron que es necesario promover la educación y la alfabetización digital, tanto dentro del Estado como entre la ciudadanía.
“La regulación es una solución parcial. Lo que más importa es educar: formar a los administradores públicos, a los funcionarios y a la ciudadanía. No es que todos deban entender cómo funciona un algoritmo, pero sí las implicancias de su uso masivo y de sistemas que pueden no cumplir con los debidos estándares éticos o de seguridad”, enfatizó Arévalo.
Un enfoque centrado en el humano
Por otro lado, Arévalo advirtió que el verdadero riesgo no está en la automatización en sí misma, sino en dejarla actuar sin control humano.
“Nos hemos enfrentado a la automatización desde siempre, pero quizás nunca a algo que parece ‘pensar’. (...) No es peligrosa por sí misma, es una herramienta más. El riesgo aparece cuando los sistemas automáticos toman decisiones sin supervisión humana”, afirmó.
Según Arévalo, los sistemas de IA no comprenden el contexto, los valores ni las consecuencias éticas de sus acciones: “Ya hay algunos casos que lo demuestran: una IA autónoma que eliminó datos en producción por falta de control, otra que alucinaba información regulatoria o modelos de lenguaje que mostraron sesgos en procesos de selección de personal. Ninguno de esos problemas fue por la tecnología en sí misma, sino por la ausencia de límites y supervisión estructural”. Remarcó que el “problema no es automatizar”, sino hacerlo “sin responsabilidad”.
Uno de los conceptos que Arévalo consideró centrales es el enfoque Human in the Loop (HITL), que propone mantener la intervención humana en todas las etapas del desarrollo y uso de la IA. “El HITL propone una integración activa entre el humano y la IA. En lugar de delegar completamente las decisiones, el humano se mantiene dentro del circuito, participando en etapas críticas: el diseño, el entrenamiento, la validación y la decisión final”, explicó.
El desafío del empleo
Consultado sobre el impacto de la IA en el trabajo, el director de Agesic reconoció que se trata de “un problema muy serio”. Sin embargo, sostuvo que la humanidad ha vivido esta situación “múltiples veces”.
“Lo que enseña la historia es que no se pierden puestos de trabajo, pero hay gente que se queda sin trabajo. Y esto sí es vital e importante, es un tema que nosotros estamos conversando con el Ministerio de Trabajo y Seguridad Social. (...) Si uno mira la historia, los telares reemplazaron mano de obra en Inglaterra (...); lo que nosotros tenemos por delante es si vamos a construir una sociedad como la que devino del reemplazo de los telares, con unos niveles de pobreza terribles, o vamos a generar una sociedad donde cada uno pueda beneficiarse, tener más tiempo libre, asegurada la alimentación y trabajar menos. El desafío radica en cómo se maneja el impacto en la sociedad”, reflexionó.