Las políticas públicas y las instituciones deben diseñarse para garantizar que las innovaciones mejoren el mundo, pero tal como están las cosas, muchas tecnologías se están implementando en el vacío, y los avances en inteligencia artificial levantan una bandera roja tras otra. La era de la autorregulación ligera debe terminar.

El mundo tecnológico generó abundantes noticias de portada en 2022. En octubre, Elon Musk compró Twitter (una de las principales plataformas de comunicación pública de periodistas, académicos, empresas y gobiernos) y procedió a despedir a la mayor parte del personal de moderación de contenido, e indicó al hacerlo que la empresa iba a usar inteligencia artificial en su reemplazo.

Luego, en noviembre, un grupo de empleados de Meta reveló que habían diseñado un programa de inteligencia artificial (IA) capaz de vencer a la mayoría de los humanos en el juego de estrategia Diplomacy. En Shenzhen (China), el gobierno está usando la tecnología de “gemelos digitales” con miles de dispositivos móviles conectados a 5G para monitorear y gestionar los flujos de personas y automóviles y el consumo de energía en tiempo real. Y con la última versión del modelo lingüístico predictivo ChatGPT, muchos han declarado el fin de la tesis estudiantil.

En síntesis, fue un año en el que inquietudes serias respecto del diseño y el uso de las tecnologías se profundizaron para dar lugar a dudas aún más urgentes. ¿Quién tiene el control? ¿Quién debería tenerlo? Se necesitan políticas e instituciones públicas que velen por que las innovaciones impliquen mejoras para el mundo, pero hoy, muchas tecnologías se desarrollan en un vacío. Necesitamos estructuras de gobernanza con sentido de misión1 inclusivas y centradas en un auténtico bien común. Gobiernos provistos de las capacidades necesarias pueden guiar esta revolución tecnológica para que sirva al interés público.

Tomemos el caso de la IA, que el Diccionario de la Real Academia Española define así: “Disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje o el razonamiento lógico”. La IA puede traernos numerosos beneficios, por ejemplo, mejorar la producción y la gestión de los alimentos aumentando la eficiencia de la agricultura y la seguridad de los productos alimentarios, o ayudarnos a fortalecer la resiliencia frente a desastres naturales, diseñar edificios con eficiencia energética, mejorar el almacenamiento de energía y optimizar el despliegue de las fuentes de energía renovables. Y puede incrementar la exactitud de los diagnósticos médicos (cuando se la combina con la opinión profesional).

Estas aplicaciones prometen una variedad de beneficios. Pero sin reglas efectivas, hay riesgo de que la IA cree nuevas desigualdades y amplíe las ya existentes. No hace falta buscar mucho para encontrar ejemplos de sistemas basados en IA que reproducen sesgos sociales injustos. En un experimento reciente, robots manejados por un algoritmo de aprendizaje automático mostraron un comportamiento abiertamente racista y sexista. Sin la debida supervisión, puede ocurrir que algoritmos supuestamente diseñados para ayudar al sector público a gestionar prestaciones sociales terminen discriminando a familias realmente necesitadas. Otro ejemplo igual de preocupante es que, en algunos países, las autoridades públicas ya usan tecnologías de reconocimiento facial basadas en IA para controlar a disidentes políticos y someter a la ciudadanía a regímenes de vigilancia masiva.

Otro problema importante es la concentración de mercados. Unos pocos actores poderosos geográficamente concentrados dominan el desarrollo de la IA (y el control de los datos subyacentes). Entre 2013 y 2021, 80% de la inversión mundial privada en IA se hizo en China y en Estados Unidos. Ya hay un enorme desequilibrio de poder entre los dueños privados de estas tecnologías y el resto de la gente.

Pero la IA también recibe una enorme cantidad de financiación pública, y esos fondos deberían estar al servicio del bien común y no de unos pocos. Necesitamos una arquitectura digital que distribuya en forma más equitativa los beneficios de la creación colectiva de valor. Ya no se puede tener una postura no intervencionista basada en la autorregulación. Dar vía libre al fundamentalismo de mercado es condenar al Estado y a los contribuyentes a reparar más tarde los destrozos (como hemos visto en el contexto de la crisis financiera de 2008 y de la pandemia de covid-19), no sin grandes costos financieros y cicatrices sociales duraderas. En el caso de la IA es todavía peor, porque ni siquiera sabemos si una intervención ex post será suficiente. Como señaló hace poco The Economist, es común que hasta los desarrolladores de IA se sorprendan por el poder de sus creaciones.

Felizmente, ya sabemos cómo evitar que el laissez faire vuelva a provocar una crisis. Necesitamos una misión para crear una IA que sea “ética por diseño”, sobre la base de normativas sólidas y de la labor de gobiernos provistos de las capacidades necesarias para guiar esta revolución tecnológica en dirección al bien común y no sólo en beneficio de los accionistas. Una vez plantados estos pilares, el sector privado podrá y querrá unirse al esfuerzo más amplio en pos de crear tecnologías más seguras y justas.

Se necesita una supervisión pública eficaz para que la digitalización y la IA generen oportunidades para la creación de valor público. Este principio es un componente esencial de la Recomendación sobre la Ética de la IA, un marco normativo propuesto por la Unesco y aprobado por 193 Estados miembros en noviembre de 2021. Además, actores clave han comenzado a asumir la responsabilidad de reformular el debate; en los Estados Unidos, el gobierno del presidente Joe Biden ha propuesto una Carta de Derechos para la IA, y la Unión Europea está desarrollando un marco holístico para su gobernanza.

Pero el uso público de la IA también debe estar asentado en una sólida base ética. Frente al avance de esta tecnología como herramienta auxiliar para la toma de decisiones, es importante evitar un uso de los sistemas de IA que sea contrario a la democracia o a los derechos humanos.

También hay que resolver la falta de inversión en las capacidades de innovación y gobernanza del sector público, que −como puso de manifiesto la covid-19− tienen que ser mucho más dinámicas. Si, por ejemplo, no se fijan términos y condiciones claros para las alianzas público-privadas, existe el riesgo de que las empresas se adueñen de la agenda.

El problema es que la subcontratación (externalización) de funciones del Estado se ha convertido en un importante obstáculo a la creación de capacidades en el sector público. Para mantener el control sobre productos importantes y garantizar el respeto de normas éticas, los gobiernos deben tener capacidad de desarrollar la IA sin depender del sector privado para la provisión de sistemas de carácter delicado. También tienen que poder sostener un uso compartido de la información y la interoperabilidad de protocolos y métricas entre los diversos departamentos y ministerios. Todo esto demandará inversión pública en las capacidades del Estado, según un enfoque basado en la idea de misión.

En vista de la concentración de conocimiento y experiencia que hay en el sector privado, la creación de sinergias entre los sectores público y privado es, a la vez, inevitable y deseable. El sentido de misión tiene que ver con seleccionar actores dispuestos a colaborar, mediante la inversión conjunta con socios que reconozcan el potencial de las misiones lideradas por el Estado. La clave está en darle al Estado la capacidad de gestionar el despliegue y el uso de los sistemas de IA, en vez de estar siempre corriendo detrás de los acontecimientos. Un modo de asegurar una correcta distribución de los riesgos y beneficios de la inversión pública es que los gobiernos pongan condiciones para la provisión de fondos públicos. También pueden, y deben, exigir más apertura y transparencia a las grandes empresas tecnológicas.

El futuro de nuestras sociedades está en juego. No sólo debemos corregir los problemas y controlar los riesgos de la IA, sino también influir en el rumbo general de la transformación digital y de la innovación tecnológica. ¿Qué mejor momento que el comienzo de un nuevo año para empezar a sentar las bases de un proceso de innovaciones ilimitadas al servicio de toda la humanidad?

Gabriela Ramos es directora general asistente de Ciencias Sociales y Humanas en la Unesco. Mariana Mazzucato, fundadora y directora del Instituto para la Innovación y el Propósito Público en el University College de Londres, preside el Consejo sobre la Economía de la Salud para Todos de la Organización Mundial de la Salud. Copyright: Project Syndicate, 2022. www.project-syndicate.org. Traducción: Esteban Flamini.


  1. Las “misiones” son objetivos concretos, entendidos como un paso alcanzable hacia un gran desafío que contextualiza los proyectos concretos.