En los últimos meses, el desarrollo de la inteligencia artificial (IA) se ha acelerado considerablemente. Sistemas de IA generativa como ChatGPT y Midjourney están transformando a pasos acelerados un amplio rango de actividades profesionales y procesos creativos. La ventana de oportunidad para guiar el desarrollo de esta tecnología poderosa de manera tal que se minimicen los riesgos y se maximicen los beneficios se está achicando con celeridad.
Las capacidades basadas en IA forman parte de un proceso, en el que los sistemas de IA generativa como GPT-4 (la última versión de ChatGPT) caen dentro de la categoría más avanzada. Dado que este tipo de sistemas son los más prometedores y pueden generar los escollos más traicioneros, merecen un escrutinio especial por parte de las partes interesadas, tanto públicas como privadas.
Prácticamente todos los avances tecnológicos han tenido efectos positivos y negativos en la sociedad. Por un lado, han impulsado la productividad económica y el crecimiento de los ingresos, un mayor acceso a las tecnologías de información y comunicación, vidas humanas más prolongadas y un mejor bienestar general. Por otro lado, han provocado el desplazamiento de los trabajadores, un estancamiento salarial, una mayor desigualdad y una creciente concentración de los recursos entre los individuos y las corporaciones.
La IA no es diferente. Los sistemas de IA generativa abren muchísimas oportunidades en áreas como el diseño de productos, la creación de contenidos, el descubrimiento de drogas y la atención médica, la educación personalizada y la optimización energética. Al mismo tiempo, pueden resultar altamente disruptivos y hasta perjudiciales para nuestras economías y sociedades.
Los riesgos que ya ha planteado la IA avanzada, y los que se pueden prever de manera razonable, son considerables. Más allá de una reorientación generalizada de los mercados laborales, los sistemas de modelo de lenguaje grande pueden aumentar la propagación de desinformación y perpetuar los prejuicios nocivos. La IA generativa también amenaza con exacerbar la desigualdad económica. Esos sistemas, incluso, pueden plantear riesgos existenciales para la humanidad.
Para algunos, este es un motivo para ponerle freno a la investigación sobre IA. El mes pasado, más de 1.000 tecnólogos de IA, desde Elon Musk hasta Steve Wozniak, firmaron una carta abierta1 en la que recomendaban que los laboratorios de IA “pongan en pausa de inmediato” el desarrollo de sistemas más poderosos que el GPT-4, al menos durante seis meses. Durante esta pausa, sostienen, se debería diseñar e implementar un conjunto de protocolos de seguridad compartidos –“auditados y supervisados rigurosamente por expertos externos independientes”.
La carta abierta, y el debate acalorado que ha desatado, subraya la necesidad urgente de que las partes interesadas se involucren en un proceso de buena fe y de amplio espectro destinado a adoptar lineamientos compartidos sólidos para el desarrollo y la implementación de IA avanzada. Un esfuerzo de esas características debe tener en cuenta cuestiones como la automatización y el desplazamiento laboral, la división digital y la concentración del control sobre los activos y recursos tecnológicos, como datos y poder informático. Y una prioridad principal debe ser la de trabajar continuamente para eliminar los prejuicios sistémicos en el desarrollo de IA, para que sistemas como ChatGPT no terminen reproduciéndolos o, inclusive, exacerbándolos.
Ya están surgiendo propuestas para una gobernanza de la IA y de los servicios digitales, incluso en Estados Unidos y la Unión Europea. Al mismo tiempo, organizaciones como el Foro Económico Mundial también están haciendo contribuciones. En 2021, el Foro lanzó la Coalición Global para la Seguridad Digital, que apunta a unir a las partes interesadas para abordar el contenido online que sea dañino y facilitar el intercambio de las mejores prácticas para regular la seguridad en línea. El Foro, posteriormente, creó la Iniciativa de Confianza Digital, para garantizar que las tecnologías avanzadas como la IA se desarrollen teniendo en mente los mejores intereses de la población.
Ahora, el Foro está reclamando una cooperación urgente público-privada para abordar los desafíos que han acompañado el surgimiento de la IA generativa y construir consenso respecto de los próximos pasos para desarrollar y desplegar la tecnología. Para facilitar el progreso, el Foro, en alianza con AI Commons –una organización sin fines de lucro respaldada por profesionales de IA, el mundo académico y las ONG centradas en el bien común–, llevará a cabo una cumbre global sobre IA generativa en San Francisco del 26 al 28 de abril. Las partes interesadas discutirán el impacto de la tecnología en las empresas, la sociedad y el planeta, y trabajarán en conjunto para diseñar maneras de mitigar las externalidades negativas y brindar desenlaces más seguros, sostenibles y equitativos.
La IA generativa cambiará al mundo, nos guste o no. En este momento crucial del desarrollo de la tecnología, es esencial que haya una estrategia de cooperación para que podamos hacer todo lo que esté en nuestro poder para garantizar que el proceso esté alineado con nuestros intereses y valores compartidos.
Klaus Schwab es fundador y presidente ejecutivo del Foro Económico Mundial. Cathy Li es directora de IA, Datos y Metaverso y miembro del Comité Ejecutivo del Foro Económico Mundial. Copyright: Project Syndicate, 2023. www.project-syndicate.org.
-
«Pause Giant AI Experiments: An Open Letter». Future of Life Institute. ↩