Expertos tecnológicos, líderes políticos y científicos de todo el mundo solicitaron en una carta abierta que se detenga el avance hacia la superinteligencia artificial hasta que exista un consenso para que se realice de “forma segura y controlada”.

“Pedimos que se impulse la prohibición del desarrollo de la superinteligencia (referida a una IA con una capacidad superior a la humana en materia de razonamiento, creatividad y resolución de problemas), que no debe levantarse hasta que haya un amplio consenso científico de que se realizará de forma segura y controlada y una fuerte aceptación pública”, se señala en la carta abierta que ya ha alcanzado más de 21.600 firmas y ha sido difundida este miércoles en los principales medios del mundo.

La propuesta, que es impulsada por el Future of Life Institute, señala que la IA puede generar herramientas “innovadoras” que impulsen la salud y prosperidad “sin precedentes”. No obstante, se advierte que muchas empresas tienen el objetivo declarado de desarrollar una superinteligencia en la próxima década que “pueda superar significativamente a todos los humanos en prácticamente todas las tareas cognitivas”.

“Esto ha suscitado preocupaciones, que abarcan desde la obsolescencia económica y el desempoderamiento humano, la pérdida de libertad, de libertades civiles, dignidad y control, hasta riesgos para la seguridad nacional e incluso la posible extinción humana”, se añade en la misiva.

El documento ha sido firmado hasta el momento por el premio Nobel de Física de 2024, Geoffrey Hinton, y el primer científico más citado en el mundo, Yoshua Bengio. “Para avanzar con seguridad hacia la superinteligencia, debemos determinar científicamente cómo diseñar sistemas de IA que sean fundamentalmente incapaces de dañar a las personas, ya sea por desalineación o uso malicioso. También debemos asegurarnos de que la ciudadanía tenga una participación mucho más fuerte en las decisiones que definirán nuestro futuro colectivo”, consideró Bengio.

Asimismo, el historiador y escritor Yuval Noah Harari, quien también firmó la misiva, sostuvo que la superinteligencia “probablemente desbarataría el sistema operativo de la civilización humana y es completamente innecesaria”.

“Si hoy, en cambio, nos centramos en desarrollar herramientas de IA controlables para ayudar a la gente, podremos aprovechar los increíbles beneficios de la IA de forma mucho más fiable y segura”, reflexionó el también profesor de la Universidad Hebrea de Jerusalén.

La carta también fue firmada por Stuart Russell, director del Center for Human-Compatible Artificial Intelligence; Steve Wozniak, cofundador de Apple; Richard Branson, fundador de Virgin Group; Steve Bannon, exestratega del presidente Donald Trump, y Susan Rice, exasesora de seguridad nacional de Estados Unidos, entre otros.

“El desarrollo de una inteligencia artificial superhumana es probablemente la mayor amenaza para la existencia continua de la humanidad”, indicó el CEO de Open IA, Sam Altman, quien no firmó la misiva, pero su frase es mencionada en el documento.

Según una encuesta realizada por Future of Life Institute, publicada hace tres días, el 5% de los adultos estadounidenses apoya el desarrollo rápido y desregulado de la superinteligencia, mientras que el 64% considera que no se debería impulsar el tema hasta que no se demuestre que es segura o controlable. Asimismo, en el estudio se señala que el 73% quiere una regulación sólida sobre la IA avanzada.