Diseñados para flexibilizar el marco reglamentario con el fin de fomentar la innovación, los sandboxes o espacios controlados de pruebas ofrecen a las empresas de tecnología condiciones que se apartan del derecho común, sobre todo en materia de protección de la vida privada. Forman parte de un proceso de desregulación que reconfigura al Estado en beneficio de los agentes del mercado y en detrimento de las libertades públicas.
¿Y si los jóvenes empresarios del sector tecnológico tuvieran derecho a liberarse de la ley para experimentar con sus productos sin incurrir en riesgos legales? Esto es exactamente lo que pretenden los espacios controlados de pruebas (regulatory sandboxes), una nueva tendencia en el ámbito de la regulación económica. Según Datasphere Initiative, una fundación financiada sobre todo por Google y Microsoft, que los promueve a escala internacional, estos sistemas son un entorno colaborativo controlado que permite probar tecnologías y prácticas innovadoras frente a los marcos normativos que se supone que las rigen1. En la práctica, consisten en que el Estado y los organismos públicos que actúan en su nombre apoyan a las empresas suspendiendo determinados requisitos normativos con el fin de acelerar el lanzamiento al mercado de una determinada innovación. Probados por primera vez en Reino Unido y Suiza para las nuevas tecnologías financieras (fintech), los espacios controlados de pruebas han ido ganando popularidad desde 2018, un año marcado por la inclusión de la inteligencia artificial (IA) por parte del gobierno entre sus prioridades estratégicas. Desde entonces, los ejemplos de implementaciones se han multiplicado en todo el mundo, en especial en los sectores de la salud o el transporte, como en el caso del estado de Río de Janeiro, que experimenta con la entrega de bebidas frías con drones desde el verano de 2023.
Vinos nuevos
Con la industria tomando el control de las políticas de investigación y optando por la externalización, los espacios controlados de pruebas ilustran una reconfiguración de las políticas públicas en beneficio del sector privado y de la sacrosanta innovación. Desde el punto de vista de sus promotores, estas medidas refuerzan la seguridad jurídica de las empresas que desarrollan “innovaciones disruptivas”. También demuestran una forma de apoyo público que puede transformarse con facilidad en una garantía de cumplimiento y, por tanto, en una ventaja competitiva. Por su parte, el Estado consolida su papel de socio en las estrategias empresariales y desarrolla una regulación basada en el mercado (market-based), al tiempo que se dota de medios para modelarlo. De este modo, los poderes públicos reconfiguran en silencio sus intervenciones para favorecer la “disrupción” que preconizan los partidarios de la start-up nation.
Pero ¿las personas se benefician de esta lógica ganar-ganar? En Europa, donde las normas de protección de datos personales adoptadas en 2018 han sido objeto de críticas por su efecto supuestamente nocivo para la innovación, se multiplican los sandboxes normativos en el ámbito de la seguridad. Es el caso, por ejemplo, de la videovigilancia algorítmica –el acoplamiento de inteligencia artificial y cámaras de la calle para identificar personas y activar alertas de manera automática si se detectan eventos sospechosos2–. “Europa se está quedando muy atrás”, lamenta François Brémond, del Instituto Nacional de Investigación de Ciencias y Tecnologías Digitales (Inria) Sophia-Antipolis, de Francia: debido al Reglamento General de Protección de Datos (RGPD), “es prácticamente imposible recopilar datos”3. Ya en 2019, en un informe dedicado al reconocimiento facial, un panel de abogados, investigadores e industriales vicepresidido por Florence Fourets, directora jurídica en la Comisión Nacional de Informática y Libertades (CNIL) francesa, coincidió con esta opinión y señaló el “marco normativo restrictivo” que obstaculiza el desarrollo de algoritmos que necesitan ser “entrenados a partir de bases de datos que contienen un número muy grande de imágenes de rostros variados de diferentes orígenes”4.
Por lo tanto, los espacios controlados de pruebas parecen ser la respuesta para eliminar estos “obstáculos”, incluso si esto significa que la lógica de la experimentación se consagre en la ley. Ya en 2018, uno de los primeros informes dedicados a las políticas públicas de apoyo a la inteligencia artificial en Francia, elaborado por una comisión presidida por el matemático Cédric Villani, entonces diputado oficialista, abordó la cuestión específica de la “IA al servicio de la defensa y la seguridad”, al pedir experimentaciones y “excepciones a las normas existentes siguiendo la lógica del espacio controlado de pruebas”5. En estos sectores altamente estratégicos, este sistema también tiene la ventaja de dar rienda suelta a los departamentos gubernamentales.
A raíz del informe de Villani, el parlamento francés autorizó al ejército, y luego al servicio de inteligencia, a hacer excepciones a la ley con el fin de acumular datos para entrenar mejor su IA. En 2023, la misma lógica rigió la experimentación de la videovigilancia algorítmica prevista en la ley, relativa a los Juegos Olímpicos, con contratos públicos que darían vía libre a las startups como Wintics o al holding Chapsvision para probar sus productos en “condiciones reales” en colaboración con la Policía. Adoptada en la primavera boreal de 2024, la normativa europea sobre IA corona este enfoque al obligar a todos los Estados miembro, mediante el artículo 57, a experimentar con estos sistemas ubicándolos bajo la égida de un organismo de regulación.
La presidenta de la CNIL, la asesora estatal Marie-Laure Denis, ve en esta disposición una forma de reforzar el papel de la institución de la que es responsable, al tiempo que promete “conciliar la IA y la innovación con la protección de los derechos”6. Pero ¿no se corre el riesgo de que una reglamentación específica concedida a título experimental suplante la ley general y las garantías que aporta en materia de libertades públicas? En lugar de una intervención ad hoc en forma de autorización previa, control y sanciones, los “espacios controlados de pruebas” ilustran la preferencia neoliberal por la regulación. Según Pascale Idoux, profesora de Derecho, este proceso, que los dirigentes consideran más fluido y adaptable, implica un apoyo continuo a las entidades reguladas por parte de organismos públicos con “capacidad para influir de forma inmediata y amplia en los comportamientos”. Benjamin Lemoine y Antoine Vauches, investigadores, lo consideran una “contracultura de gobierno” que “desafía la cultura oficial y reguladora del Estado, percibida como un freno, y tiende a subvertir el conocimiento del derecho público y penal”7. En el sector de la vigilancia digital, se trata de completar un proceso que ya se ha consumado en gran medida con la transición del modelo de supervisión de la CNIL, de los años 1980, al modelo de “cumplimiento” (o compliance) en los años 2010: la comisión pasa de controlar la legalidad a apoyar a los agentes del mercado, y el “organismo de control de los datos personales” se ve ahora como un organismo de promoción de la innovación.
Es posible establecer una analogía entre estos dispositivos jurídicos derogatorios instaurados con el pretexto de la innovación tecnológica y aquellos de los estados de excepción que, en los momentos de crisis, justifican la hipertrofia de los poderes represivos. En el caso de los espacios controlados de pruebas, la necesidad no es consecuencia directa de un estado de excepción, que justificaría una acción policial libre de “trabas procesales”. Se deriva más bien de la prioridad concedida a la comercialización de estas innovaciones tecnológicas, que no debe retrasarse ni verse obstaculizada “inútilmente” por ningún escollo jurídico, en un contexto de mayor competencia económica. Pero tanto si se trata de un espacio controlado de pruebas como de la ampliación de los poderes del Ejecutivo en nombre del estado de emergencia, las libertades fundamentales pasan a concebirse en términos de pérdidas y ganancias, a medida que la emergencia de la tecnoseguridad descalifica cada vez más el viejo derecho liberal.
Odres viejos
Este retroceso actual de la “ley general e impersonal”, pilar del liberalismo político desde el siglo XVIII, no es novedoso. En la Alemania de los años 1930, los juristas marxistas asociados a la Escuela de Frankfurt ya señalaban con el dedo la teoría jurídica de la “toma de decisiones” preconizada por su adversario político, Carl Schmitt, y puesta en práctica por los conservadores alemanes incluso antes de la llegada de los nazis al poder8. Franz von Papen, canciller del Reich en 1932, se declaró partidario de un Estado garante de los intereses de la gran industria, dispuesto a protegerla de las reivindicaciones democráticas mediante la represión y el silenciamiento de las libertades. Había que hacer todo lo posible, argumentaba, para evitar “obstaculizar aún más la movilidad de la economía mediante nuevas construcciones artificiales” y, por el contrario, “aflojar las ataduras” que encerraban el mercado9.
En ese entonces, Carl Schmitt proporcionó la justificación teórica y práctica de estas políticas a través de su crítica al “racionalismo” y la “abstracción” de la ley, a la que contraponía “medidas y órdenes emitidas según las necesidades”10. Disposiciones adaptadas a situaciones individuales, o incluso delegadas a una esfera de “autogestión económica”, para y por las grandes empresas oligopólicas que el Estado reconoce como de “interés público”. El objetivo era poner fin a la República de Weimar y sentar las bases de un orden jurídico del que se harían cargo los conservadores y luego los nazis. Abogados disidentes como Franz Neumann y Otto Kirchheimer denunciaron esta deriva autoritaria. Señalaron que el Estado de derecho, con sus principios abstractos y generales, su jerarquía de normas y sus valores asociados, seguía siendo la condición necesaria –aunque insuficiente– para cumplir la promesa de igualdad de libertades y la promesa, más clásicamente liberal, de un derecho capaz de frenar la violencia estatal. La historia nunca se repite, pero nuestra época también está marcada por el auge de un derecho cada vez más supeditado a los intereses de los grandes grupos y por el resurgimiento del autoritarismo estatal.
Félix Tréguer, investigador y miembro de La Quadrature du Net. Texto adaptado de Technopolice. La surveillance policière à l’ère de l’intelligence artificielle (Divergences, París, 2024). Traducción: Emilia Fernández Tasende.
-
“5 min intro to sandboxes” (thedatasphere.org). ↩
-
Ver Thomas Jusquiame, “Les cuisines de la surveillance automatiste”, Le Monde diplomatique, París, febrero de 2023. ↩
-
Citado por Thomas Allard. “Surveillance: quels systèmes pour demain?”, Science & Vie, Montrouge, setiembre de 2023. ↩
-
“Reconnaissance faciale, entre exigence de contròle et respect de la vie privée: quels outiles, quels enjeux, quelles garanties?”, Instituto Nacional de Altos Estudios de Seguridad y Justicia, 30º Sesión Nacional, “Seguridad y Justicia”, 2018-2019, disponible en el sitio web de La Quadrature du Net. ↩
-
Cédric Villani (bajo la dir. de), “Donner un sens à l’intelligence artificielle: pour une stratégie nationale et européenne”, informe de la Misión Parlamentaria, París, marzo de 2018. ↩
-
Alexandre Piquard, “La protection des données personnelles en doit pas être la variable d’ajustement de l’IA”, Le Monde, 24-11-2024. ↩
-
Pascale Idoux, “Le temps de la régulation”, en Le temps en droit administratif, Dalloz, París, 2022; Bejamin Lemoine y Antoine Vauchez, “Le négoce de la souveraineté juridique”, Actes de la recherche en sciences sociales, nº 251, París, 2024. ↩
-
Franz L. Neumann, “The change in the function of law in modern society”, en William E. Scheuerman (bajo la dir. de), The Rule of Law Under Siege. Selected Essays of Franz L. Neumann and Otto Kirchheimer, University of California Press, Berkeley, 1996. ↩
-
Citado por Hermann Heller, “Libéralisme autoritaire?”, en Grégoire Chamayou (bajo la dir. de), Du libéralisme autoritaire, La Découverte, París, 2020. ↩
-
Carl Schmitt, Légalité et Légitimité, Presses de l’Université de Montréal – Éditions de la MSH, París, 1936. ↩