Hay en Uruguay ejemplos recientes de regulaciones con un fuerte impacto en la economía y la sociedad: la Ley Forestal de 1987, la regulación del Marco Energético de 1997 y la Ley de Regulación y Control de Cannabis en 2013. La inteligencia artificial (IA) debería ser la próxima.
La regulación de la IA a nivel mundial
Dentro del paquete argumental que da a entender que “regular” y “prohibir” son sinónimos, hay una línea muy fuerte que intenta hacernos creer que Estados Unidos está en contra de cualquier regulación, y que por tanto no tiene ninguna. Si se leen los documentos de ese país, el argumento no se sostiene un instante.
Pongamos un ejemplo: ¿aprobaría Estados Unidos una regulación en Uruguay que prohíba que sus competidores (los de Estados Unidos, naturalmente) le vendan tecnología de IA a Uruguay?
Es obvio que una regulación así inhibiría todas las vías de desarrollo que no impliquen el uso de la tecnología estadounidense, y que por tanto una prohibición semejante es conveniente para Estados Unidos y no para Uruguay.
La intuición nos dice que Estados Unidos apoyaría una regulación de este tipo. Y nuestra intuición queda confirmada con lo que está escrito negro sobre blanco en el documento “Winning the Race, America’s AI action plan”, que publicó la Casa Blanca en julio de 2025. Aquí la cita: “[...] coordinar con los aliados para garantizar que adopten los controles de exportación estadounidenses, trabajar conjuntamente con Estados Unidos para desarrollar nuevos controles y prohibir que los adversarios de Estados Unidos abastezcan su base industrial de defensa o adquieran participaciones mayoritarias en proveedores de defensa”.
A abril de 2026 hay regulación específica de IA, de control algorítmico o de utilización del reconocimiento biométrico al menos en los siguientes estados de Estados Unidos: Alabama, Arizona, Arkansas, California, Colorado, Connecticut, Florida, Illinois, Maryland, Montana, New Hampshire, Nueva York, Oregón, Texas, Utah, Washington.
En resumen, Estados Unidos regula para proteger y potenciar su industria de IA como cree más conveniente en función de sus intereses, que es lo que razonablemente debería hacer cada país del mundo.
La autorregulación no funciona
Estamos en un momento de inflexión para analizar la autorregulación: por separado dos cortes de Estados Unidos, una en Nuevo México y la otra en Los Ángeles, en dos juicios independientes, acaban de condenar a las grandes corporaciones por el accionar de sus algoritmos.
El fallo de la corte de Los Ángeles es esclarecedor, porque dice que “actuaron con malicia, opresión o fraude”. No es la opinión de un grupo de presión, no es la opinión de un comentarista woke, es la resolución de un juez que indica que las multinacionales (en este caso Meta y Google) sabiendo que sus algoritmos causaban grandes daños siguieron profundizando sus efectos.
Este caso en California, denominado KGM vs. Meta & Youtube, forma parte de un litigio muy amplio denominado “Social Media Adolescent Addiction/Personal Injury Products Liability Litigation (MDL 3047)” que agrupa las demandas de 500 familias cuyos hijos sufrieron depresión, trastornos alimenticios, se autolesionaron e incluso se suicidaron. La sentencia sienta un precedente muy fuerte para apoyar a los demandantes en el argumento de que los problemas no son “defectos de fabricación”, sino productos con un diseño algorítmico de IA específico para generar esos comportamientos.
La autorregulación no puede funcionar si las empresas actúan con malicia, opresión y fraude.
Países con regulación de IA
La regulación emblemática de inteligencia artificial es la de la Unión Europea (UE). Su enfoque es el de determinar, administrar y contrarrestar los riesgos que la IA implica. Como la mayoría de la legislación europea, producto de numerosas, largas y arduas negociaciones, es bastante aparatosa y en muchos casos burocrática.
La UE lo ha reconocido con la propuesta de una ley modificatoria denominada Ómnibus Digital en noviembre del año pasado, un paquete de medidas que tienen la finalidad de reducir la carga administrativa y facilitar la aplicación de la regulación de IA, sin alterar sus principios y objetivos.
Son muchos los países del mundo que ya tienen guías éticas, comités de gobernanza o estrategias nacionales de articulación. En muchos de ellos hay proyectos de ley con un trámite muy avanzado, como Brasil o Chile. También hay una cantidad de países que tienen regulación vigente con leyes aprobadas, entre los que se cuentan al menos Perú (Ley 31814-2023), Colombia (Sentencia T-067/2025), Argentina (Disposición 2/2023), Corea del Sur (Ley Marco sobre IA, 2026), China (múltiples regulaciones), Vietnam (Ley de Tecnología Digital, 2026), Arabia Saudita (Orden Real A/471 de creación de la SDAIA y sucesivas), Egipto (Ley 151/2020) y Reino Unido (DUAA, 2025).
Regulación que ya existe en Uruguay
En Uruguay ya existe legislación que regula el uso de algoritmos e IA. Por un lado, hay regulación incluida en la Ley 20.396, la “ley de apps”. Por otro, está el artículo 75 de la Ley 20.212, que crea los Espacios Controlados de Prueba (sandboxes).
Es llamativo que a la vez que desde el Ejecutivo se sigue una línea en los hechos coincidente con la falsa idea de que “regular es prohibir”, no se presta la más mínima atención a estas dos leyes señeras, ambas de gran importancia como antecedentes regulatorios.
En Uruguay la regulación de la IA ya comenzó, con dos ejemplos de calidad, uno de protección de derechos y otro de fomento. No se cayó el cielo sobre nuestras cabezas, todo lo contrario.
La ley de apps
La ley de apps o de “protección para los trabajadores que desarrollen tareas mediante plataformas digitales” aplica en el terreno del transporte oneroso de pasajeros y bienes, es decir, regula empresas como Uber y Pedidos Ya.
Desde el punto de vista de la “protección de los trabajadores” la ley deja muchísimo que desear porque va en contra de la definición de la relación empresa-trabajador como trabajo dependiente.
Pero desde el punto del control algorítmico y los derechos digitales sienta un precedente de un valor incalculable, demostrando que en Uruguay se puede regular y se puede hacerlo bien. La ley incluye:
- Obligación para las empresas de respetar el principio de igualdad y no discriminación en sus algoritmos.
- La obligación de comunicar a cada trabajador el uso de sistemas automatizados de seguimiento y control.
- La obligación de comunicar a cada trabajador el uso de sistemas automatizados para evaluar el desempeño.
- La obligación de comunicar la existencia de sistemas automatizados de toma de decisiones sobre asignación, ingresos, seguridad, entre otros.
- Las empresas deben informar a cada trabajador las categorías de decisiones que son tomadas por los algoritmos.
- Las empresas deben informar a cada trabajador los principales parámetros de los algoritmos y su importancia relativa.
- Las empresas deben informar a cada trabajador los fundamentos de las decisiones de restricción, suspensión o baja.
- Los trabajadores tienen derecho a tener una explicación de cualquier decisión de un sistema automatizado que los perjudique brindada por una persona con competencia, formación y autoridad necesarias.
- Los motivos de las decisiones que afecten la labor del trabajador deberán ser proporcionadas al trabajador por escrito.
- Los tribunales de la República Oriental del Uruguay tendrán competencia en relación con cualquier controversia originada entre un trabajador y una empresa titular.
- Es obligatorio para las empresas realizar una evaluación de riesgos de sus algoritmos y tomar medidas para prevenirlos.
¿Qué tal una ley que tenga un solo artículo que diga “lo que vale para los trabajadores de las apps vale para cualquier trabajador en Uruguay?”.
Entornos Controlados de Prueba
Los Entornos Controlados de Prueba, que internacionalmente se conocen como regulatory sandboxes o sencillamente sandboxes, son excepciones normativas con limitación de alcance para poder probar nuevas tecnologías.
La idea es sencilla: ¿cómo probar vehículos autónomos en Uruguay sin violar la reglamentación? Con una excepción temporal y limitada que habilite a una o varias empresas a tener tres o cuatro vehículos autónomos circulando en zonas determinadas con un chofer humano supervisando y un capítulo sobre riesgos, mitigación y cobertura de daños. Eso es lo que habilita el artículo 75 de la Ley 20.201 y su decreto reglamentario del 2 de diciembre de 2025.
Los sandboxes son una herramienta invaluable de fomento de la innovación, que están disponibles hoy en Uruguay. Y mientras nos mostramos congelados ante el desafío, mientras echamos combustible a la falacia de que regular es prohibir, tenemos una regulación moderna y potente a la que no le prestamos la más mínima atención.
La IA, el próximo marco regulatorio
Un viejo proverbio chino (que a veces se atribuye a Confucio, como todo buen proverbio chino) afirma: “El hombre que dice que no se puede hacer no debería interrumpir al hombre que lo está haciendo”. En Uruguay la regulación de la IA ya comenzó, con dos ejemplos de calidad, uno de protección de derechos y otro de fomento. No se cayó el cielo sobre nuestras cabezas, todo lo contrario, avanzamos en el camino de que la IA sea más provechosa a la vez que controlamos sus riesgos.
Es importante señalar que la historia de Uruguay, como la de todos los países, muestra momentos en los que se construyeron marcos regulatorios que habilitaron un cambio económico y social. Algunos son hijos de una gran ley, otros se construyen con pasos acumulativos, todos tienen ajustes, correcciones y alguna contramarcha. Pero no se puede esperar que el país se desarrolle en otra dirección sin cambiar las reglas que determinan hacia dónde vamos.
Los ejemplos son numerosísimos y solo citaremos tres de gran impacto: como se mencionó, la Ley Forestal de 1987 y la regulación del Marco Energético de 1997, y también la Ley de Regulación y Control de Cannabis en 2013. Cada uno de ellos supuso un punto de partida que habilitó un cambio económico y social que puso a Uruguay en el mapa mundial, como productor de pulpa de celulosa, como país con 100% de energía eléctrica renovable o como el primer país en legalizar la marihuana. Sin esos marcos regulatorios eso no hubiera sucedido.
No importa cuántas veces declaremos que queremos ser un polo, un centro, un faro, un hub o la palabra que se elija: nuestro camino actual de desarrollo de IA es el de ser usuarios finales con alguna participación en aplicaciones especializadas. Ser parte de los espectadores del gran cambio que recogen las migas que sobran al final de la cadena. La IA necesita de un marco regulatorio nuevo para torcer ese rumbo.
Daniel Mordecki es docente de Usabilidad y fue director ejecutivo de la Agesic. Este artículo es la continuación de Regular la IA no es prohibir I.