Las instituciones de la Unión Europea (UE) lograron, después de un arduo debate que se extendió por más de 30 horas, llegar a acordar una ley de inteligencia artificial que permite o prohíbe el uso de esta tecnología en función del riesgo que suponga para las personas y que busca impulsar a la industria europea frente a potencias como China y Estados Unidos.

La legislación, la primera de este alcance en todo el mundo, deberá ser ratificada por el Parlamento Europeo y también por el Consejo de la UE, la institución que representa a los gobiernos de los 27 países que integran el bloque.

De acuerdo a lo que informó Efe, uno de los puntos más sensibles de las negociaciones fue el uso que las fuerzas de seguridad podrán hacer de las cámaras de identificación biométrica en espacios públicos para garantizar la seguridad nacional.

Se acordó que este tipo de tecnología se podrá utilizar para encontrar o identificar a una persona que haya cometido delitos de terrorismo, tráfico de personas, explotación sexual o, por ejemplo, un crimen medioambiental, y para buscar a las víctimas de estos delitos.

Durante las negociaciones, los gobiernos presionaron para ampliar la lista de delitos, mientras que el Parlamento comunitario trató de limitarlo lo máximo posible para salvaguardar los derechos fundamentales de los ciudadanos.

La ley, además, prohíbe expresamente todos los sistemas de categorización biométrica por creencias políticas, religiosas, filosóficas o por su raza y orientación sexual. Tampoco se podrán usar los sistemas que puntúan a las personas en función de su comportamiento o características personales, ni la inteligencia artificial capaz de manipular el comportamiento humano.

Asimismo, se prohibirán los sistemas para expandir o crear bases de datos faciales captando datos de manera indiscriminada a través de internet o de grabaciones audiovisuales.

El otro tema que centró las negociaciones es la regulación de los modelos fundacionales de inteligencia artificial, los sistemas en los que se basan programas como ChatGPT, de la empresa OpeanAI, o Bard, de Google.

Según la ley, estos sistemas deberán cumplir criterios de transparencia, como especificar si un texto, una canción o una fotografía se creó a través de la inteligencia artificial y garantizar que los datos que se usaron respetan los derechos de autor.

Inicialmente, la ley no estaba pensada para regular este tipo de sistemas, porque aún no se habían popularizado cuando el gobierno de la UE propuso la ley, en abril de 2021, pero las instituciones comunitarias se vieron en la necesidad de hacerlo desde la irrupción de ChatGPT el año pasado.

La norma no prohíbe su utilización, pero sí determinó una serie de criterios para detectar los modelos que pueden generar un alto riesgo en función del contexto en el que se usen y obliga a sus desarrolladores a cumplir garantías más estrictas antes de sacarlos al mercado.

El reglamento permite o prohíbe el uso de la inteligencia artificial en función del riesgo que genera para las personas e identifica sistemas de alto riesgo que sólo se podrán utilizar si se demuestra que respetan los derechos fundamentales.

La norma prevé la creación de la Oficina Europea de Inteligencia Artificial, que coordinará el uso de la tecnología entre las autoridades nacionales y que estará asesorada por un panel de científicos y de organizaciones de la sociedad civil.

Está previsto que la ley entre en vigor en 2026, pero se aplicará por fases: la oficina europea se creará de forma inmediata, la prohibición de los sistemas prohibidos de inteligencia artificial llegará a los seis meses y los requisitos para los sistemas y modelos de inteligencia artificial generativa, en el plazo de un año.