En diciembre, la Unión Europea (UE) sentó un precedente global al finalizar la Ley de Inteligencia Artificial (IA), uno de los conjuntos de normas de IA más completos del mundo. La legislación emblemática de Europa podría indicar una tendencia más amplia hacia políticas de IA más receptivas. Pero si bien la regulación es necesaria, no es suficiente. Además de imponer restricciones a las empresas privadas de IA, los estados deben asumir un papel activo en el desarrollo de la tecnología, el diseño de sistemas y la configuración de mercados para los bienes comunes.

Está claro que los modelos de IA están evolucionando rápidamente. Cuando los reguladores de la UE publicaron el primer borrador de la ley sobre el tema en abril de 2021, se jactaron de que supuestamente estaba “preparado para el futuro”. Tan sólo un año y medio después, se apresuraron a actualizar el texto en respuesta al lanzamiento de ChatGPT.

Pero los esfuerzos regulatorios no son en vano. Por ejemplo, la prohibición, por ley, del uso de IA en la vigilancia biométrica probablemente seguirá siendo relevante, a pesar de los avances tecnológicos. Además, los parámetros de riesgo incluidos en la ley de IA ayudarán a los formuladores de políticas a protegerse contra algunos de los usos más peligrosos de la tecnología. Si bien la IA tiende a desarrollarse más rápido que la política, no será necesario cambiar los principios fundamentales de la ley, aunque se necesitarán herramientas regulatorias más flexibles para ajustar y actualizar las reglas.

Pero pensar en el Estado sólo como regulador es perder de vista el aspecto principal. La innovación no es sólo un fenómeno de mercados astutos. Tiene una dirección; y esto depende de las condiciones en las que emerge. Los responsables de las políticas públicas pueden influir en estas condiciones. El surgimiento de un diseño tecnológico o modelo de negocios dominante es el resultado de una lucha de poder entre múltiples actores (corporaciones, organismos gubernamentales, instituciones académicas) con intereses en conflicto y prioridades divergentes. Al reflejar esta lucha, la tecnología resultante puede ser más o menos centralizada, más o menos propietaria, etcétera.

Los mercados que se forman en torno a las nuevas tecnologías siguen el mismo patrón, con importantes implicaciones distributivas. Como dice el pionero del software Mitch Kapor: “La arquitectura es política”. Más que la regulación, el diseño de una tecnología y la infraestructura que la rodea dicta quién puede hacer qué con ella y quién se beneficia. Para garantizar que las innovaciones transformadoras produzcan un crecimiento inclusivo y sostenible, no basta con que los estados arreglen los mercados. Necesitan darles forma y cocrearlos. Cuando los estados contribuyen a la innovación a través de inversiones audaces, estratégicas e impulsadas por una misión, pueden crear nuevos mercados y atraer al sector privado.

En el caso de la IA, la tarea de impulsar la innovación está actualmente dominada por grandes corporaciones privadas. Esto conduce a una infraestructura que sirve a los intereses de quienes ya están involucrados y exacerba la desigualdad económica. Es un reflejo de un problema de larga data. Algunas de las empresas tecnológicas que más se han beneficiado del apoyo público –como Apple y Google– también han sido acusadas de utilizar sus operaciones internacionales para evadir impuestos. Estas relaciones desequilibradas y parasitarias entre las grandes empresas y el Estado corren ahora el riesgo de ser amplificadas por la IA, que promete recompensar el capital y al mismo tiempo reducir los ingresos conferidos al trabajo.

Las empresas que desarrollan IA generativa ya están en el centro de los debates sobre comportamientos extractivos, debido a su uso desenfrenado de texto, audio e imágenes con derechos de autor para entrenar sus modelos. Al centralizar el valor dentro de sus propios servicios, reducirán los flujos de recursos hacia los artistas y autores de los que dependen. Al igual que en las redes sociales, los mecanismos están alineados para extraer rentas, cuya lógica es permitir a los intermediarios dominantes acumular ganancias a expensas de otros. Las plataformas que prevalecen hoy –como Amazon y Google– han explotado su posición dominante utilizando sus algoritmos para extraer rentas cada vez mayores (“rentas de atención algorítmica”) por el acceso de los usuarios. Los sistemas de IA actuales podrían seguir un camino similar: extracción de valor, monetización encubierta y deterioro de la calidad de la información.

Gobernar modelos de IA generativa para los comunes requerirá asociaciones mutuamente beneficiosas, orientadas hacia objetivos compartidos y la creación de valor público, no sólo privado. Esto no será posible con estados que actúan sólo después de que se hayan consumado los hechos. Necesitamos estados emprendedores, capaces de establecer estructuras predistributivas que compartan riesgos y recompensas ex ante. Los formuladores de políticas deben centrarse en comprender cómo las plataformas, los algoritmos y la IA generativa crean y extraen valor para poder establecer las condiciones (incluidas reglas de diseño equitativas) para una economía digital que recompense la creación de valor.

Mariana Mazzucato es economista.

  • Una versión más extensa de este artículo fue publicada originalmente en Outras Palavras.