Ingresá

Foto: www.emanueladler.com

Gigantes tecnológicas concentran mucho más poder que 20 países juntos, advierte experto

8 minutos de lectura
Contenido exclusivo con tu suscripción de pago

El doctor en ciencia política por la Universidad de California y profesor de la Universidad de Toronto, Emanuel Adler, dijo a la diaria, que el avance acelerado de la IA plantea riesgos profundos para la democracia, la verdad y el futuro de la civilización.

Contenido no disponible con tu suscripción actual
Exclusivo para suscripción digital de pago
Actualizá tu suscripción para tener acceso ilimitado a todos los contenidos del sitio
Para acceder a todos los contenidos de manera ilimitada
Exclusivo para suscripción digital de pago
Para acceder a todos los contenidos del sitio
Si ya tenés una cuenta
Te queda 1 artículo gratuito
Este es tu último artículo gratuito
Nuestro periodismo depende de vos
Nuestro periodismo depende de vos
Si ya tenés una cuenta
Registrate para acceder a 6 artículos gratis por mes
Llegaste al límite de artículos gratuitos
Nuestro periodismo depende de vos
Para seguir leyendo ingresá o suscribite
Si ya tenés una cuenta
o registrate para acceder a 6 artículos gratis por mes

Editar

La concentración inédita de poder en manos de las grandes corporaciones tecnológicas, la carrera global por desarrollar una inteligencia artificial (IA) superior al ser humano y la erosión de la democracia son algunos de los principales riesgos que plantea el avance acelerado de esta tecnología, advirtió, en diálogo con la diaria, Emanuel Adler, doctor en ciencia política por la Universidad de California, titular de la Cátedra Andrea y Charles Bronfman de Estudios Israelíes y profesor emérito de Ciencias Políticas en la Universidad de Toronto.

“Esto no existía hace 30, 40 años. Hoy día, (el empresario y cofundador de OpenAI) Elon Musk tiene un beneficio anual de un trillón de dólares. El poder que tienen (las empresas tecnológicas), ya sea con satélites, con misiles y cohetes al espacio, etc., es mucho más fuerte que 20 o 30 países juntos. Quiere decir que es algo nuevo (...) y es difícil saber hacia dónde vamos”, afirmó el también miembro de la Royal Society of Canada y profesor honorario de la Universidad de Copenhague.

Uno de los ejes centrales de esta transformación es la carrera por desarrollar la llamada Inteligencia Artificial General (AGI), una tecnología que, a diferencia de las aplicaciones actuales, podría igualar o superar las capacidades cognitivas humanas, advirtió.

“No es una IA que sirve para manejar un coche o para hacer cosas por separado. Es realmente crear un cerebro que hace todo”, añadió.

El experto recordó que hasta hace pocos años la AGI parecía una posibilidad lejana, pero hoy se percibe como un horizonte cercano, con consecuencias imprevisibles.

Asimismo, destacó que otro de los puntos críticos es la acumulación masiva de datos por parte de las grandes plataformas digitales, que hoy concentran información en volúmenes que superan incluso a los Estados. Adler consideró que esta situación genera una nueva relación de dependencia entre los países y las corporaciones tecnológicas.

Más allá de los impactos económicos, el especialista puso el foco en las consecuencias políticas y culturales del avance tecnológico, especialmente sobre la democracia. “Lo que estamos viendo en los últimos años es un retroceso de la democracia en el mundo. Los algoritmos y las redes sociales tienen un efecto en ello. Pero además, la IA tiene un efecto epistémico, del conocimiento, y es una de las razones que impulsa a los populismos autoritarios, basados en gran parte de lo que hoy día se llama desinformación”, añadió.

¿De qué manera las grandes empresas tecnológicas están redefiniendo hoy las normas de poder más allá del Estado?

La respuesta a esa pregunta es sí y no. El tema está muy vinculado a la tecnología de estas empresas que son (pensadas) para el bien y para el mal. Las compañías como Microsoft, OpenAI y Google tienen un poder muy grande en la mayoría de los Estados, pero no en todos. En China, la ciencia aplicada a la IA es dirigida por el gobierno.

No obstante, las grandes compañías son norteamericanas. Además, gastan billones de dólares en el Congreso para que no las regulen. Quiere decir que tienen una fuerza muy grande en el sentido de crear la tecnología, cómo usarla para que no nos lleve a desastres, no solamente nacionales, sino mundiales. Además, tienen inversiones que hoy día están cerca de 40, 50 billones de dólares. Los números que tengo en la cabeza son de hace dos o tres meses; probablemente ya los sobrepasaron.

Las grandes compañías necesitan mucha energía para poder crear especialmente lo que están interesadas: Artificial General Intelligence (Inteligencia Artificial General, AGI). Hay una carrera entre las compañías americanas y chinas para llegar a una IA que tenga el poder del cerebro. No sería solamente el poder que tiene una persona normal, sino el de un experto o un científico. No es una IA que sirva para manejar un coche o para hacer cosas por separado. Es realmente crear un cerebro que hace todo.

¿Se refiere a la superinteligencia artificial?

En realidad, los científicos primero hablaron de AGI. Yo empecé a trabajar sobre AGI hace cinco años, cuando se creía que era algo que iba a pasar entre 50 y 100 años. Hoy día ya se habla de que será en los próximos años. En cambio, la superinteligencia va mucho más allá de la AGI. No es un algoritmo cognitivamente tan fuerte como una persona, sino como miles de individuos a la vez. Supone que las máquinas se comuniquen entre ellas y nos dejen atrás a los humanos. Las empresas tienen científicos que ya han trabajado mucho en eso desde las universidades.

El poder de estas empresas es muy grande. Pero lo principal es que ellos tienen una gran cantidad de datos. Se habla de billones de datos que van acumulando por intermedio de las plataformas. Cuando nosotros entramos en Facebook, Instagram, etc., están recabando información. La IA de OpenAI puede decir todas las leyes que ha hecho Uruguay desde 1925 y demora más o menos unos 30 segundos, un minuto, para responderte.

Los LLMs (los modelos de lenguaje) llegan a nosotros por intermedio de la recuperación de los datos y tienen más información en muchos casos que los Estados. Muchas veces, los países dependen de las corporaciones para los datos, ya sea por razones económicas y especialmente por razones de seguridad. Pero al mismo tiempo, el Estado provee energía, puede regular a las corporaciones. El Estado tiene el poder legal de legislar una regulación que puede ser propicia o no para las corporaciones.

Organizaciones internacionales, universidades, sociedad civil, Unesco y últimamente Naciones Unidas están tratando de controlar esta tecnología para que no cause daños fenomenales. Los científicos dicen que la posibilidad de que la IA lleve al fin de la humanidad puede estar entre un 40 y un 50%, aunque no todos están de acuerdo. Uno de los problemas es que la regulación por ahora es muy inicial.

¿Cuál cree que es el principal riesgo que tiene la IA para los pueblos?

Tiene muchísimos riesgos y no se habla de muchos de ellos en realidad, porque en lo que más se enfoca es en los aspectos materiales, como por ejemplo en términos económicos, la pérdida de trabajos, aunque todo esto no está 100% probado, porque también va creando nuevas ocupaciones. Mientras tanto, no se observa que tenga efectos en la democracia. El efecto que tiene sobre esta forma de gobierno es muy grande, entre otras razones por la concentración del poder en las corporaciones.

Lo que estamos viendo en los últimos años es un retroceso de la democracia en el mundo. Los algoritmos y las redes sociales tienen un efecto en ello. Pero además, la IA tiene un efecto epistémico, del conocimiento, y es una de las razones que impulsa a los populismos autoritarios, basados en gran parte en lo que hoy día se llama desinformación.

Lo que está empujando a los regímenes autoritarios no es la mentira, es que no se valora la verdad. Es el llegar a casi un nihilismo en el cual se crean divisiones en la sociedad, se fomenta la polarización. Quiere decir que el efecto epistémico consiste en dejar de tener presente la importancia que tiene la verdad, lo cual es muy nocivo para las democracias. Porque es muy difícil mantener ese orden social si no sabés qué es verdad y qué es mentira. En ese contexto, la ciencia ha sufrido mucho. La gran mayoría de los populistas, cuando llegan al poder, van contra la ciencia porque habla de una forma racional.

El libro 1984 de (George) Orwell es el prototipo de lo que está pasando ahora. Es más fácil creer a un bot que a algo que es verdadero, pero que te molesta. Una gran mayoría de las cosas que están en Facebook no son personas humanas, son bots, que están usados por servicios de inteligencia de todo tipo de países que quieren subvertir a otros Estados. Eso es casi mortal para la democracia. Existe también lo que se llama el capitalismo de vigilancia, surveillance capitalism, que significa que las grandes compañías, empezando por Google a principios de este siglo, comenzaron a acaparar los datos de todos nosotros. Una vez que nosotros miramos Google Maps, todo lo que hacemos por intermedio de Internet llega a las grandes compañías como materia prima que ellos usan para hacer predicciones económicas. Esas predicciones son vendidas en un mercado mundial a miles y miles de compañías que vale billones de dólares. Se ha tratado de controlarlo. Los más avanzados en hacerlo son los países de la Unión Europea.

También está la cuestión de la privacidad, que es un problema que está vinculado también a la democracia, porque lo que hacen esas redes y los bots es un hackeo de los cerebros de todos nosotros. Si usas un reloj que te mide ciertos aspectos de tu salud, todo pasa a ser parte de la data que tiene Google y que tiene OpenAI, etc. Quiere decir que es un hackeo de los cerebros. Es un poder biométrico.

¿Qué poder tienen estas empresas cuando hablamos del efecto epistémico?

Tienen el poder de crear la realidad. Tienen el poder biométrico de saber todo lo que está dentro del cuerpo de una persona; además, tienen el poder militar y agéntico en manos de una inteligencia que no es humana. Frente a esta situación, los Estados europeos son los que han hecho más. En América Latina se está tratando de imitar el modelo europeo, pero se ha hecho todavía muy poco.

Más allá de los efectos materiales y epistémicos, hay consecuencias en la democracia y en la noción de la verdad. Estamos en la era posverdad y nos estamos alejando de lo que se ganó en el iluminismo en los últimos siglos. Las democracias surgieron con el iluminismo, cuando se crearon las reglas básicas de lo que es una democracia y las divisiones de poder. Pero esta tecnología representa un problema epistémico y material que podría ser casi fatal para la democracia y para la civilización. Estamos en cierta manera volviendo a la Edad Media, antes del iluminismo, de la racionalidad, de la ciencia.

También está el poder sobre el conocimiento humano. Porque hoy, en gran parte, el conocimiento humano está siendo reemplazado por el de los LLMs (modelos de lenguaje) de la IA, que se basan en billones de datos que las compañías acaparan. Se va creando un saber que no parte del sentido humano. Cuanto más se avance hacia la AGI y hacia las supercomputadoras, que tienen una velocidad miles de veces más grande, el conocimiento humano estará siendo dejado de lado. Una vez que el conocimiento pasa a ser de las máquinas, la posibilidad de mantener un orden democrático es muy pequeña. Y por eso hay millones de ciudadanos alrededor del mundo que hoy día sienten una crisis de incertidumbre global. Hay una crisis emocional, de identidad, de cómo entendemos el mundo. Y eso es algo también fundamental que está siendo influenciado por el avance de la IA.

Uno de los principales actores interesados son los científicos. Sin los científicos, las compañías no pueden hacer nada. Ellos son los que desarrollaron los algoritmos. Aportan mucho a las compañías y las empresas los compran por millones de dólares. Pero no pueden parar la tecnología. El problema es que muchos científicos, incluso los que participaron en desarrollar esos mecanismos, hoy día se preguntan: ‘¿qué hicimos? Esto puede hacer peligrar a la humanidad’. Puede llevar a que individuos utilicen ese enorme poder para dominar al mundo, para causar desastres, y también para darle una autonomía a las máquinas, en la cual los humanos no podemos intervenir.

Muchos dicen que se puede ‘desenchufar la computadora y se terminó el partido’. No es así, las máquinas cuentan con la función de autoaprendizaje, que ya está siendo usada en armas de guerra, en aviones, ni qué hablar de los coches. El ser humano va a ir perdiendo el poder sobre la tecnología; existe incluso la posibilidad de que el bot, el algoritmo, no entienda lo que el humano pidió y, al no comprenderlo, como va aprendiendo autónomamente, no pare hasta que termine con el resto de la humanidad. Suena como algo muy distópico, pero muchos científicos ya no lo ven así. Están muy asustados.

¿Tenés algún aporte para hacer?

Valoramos cualquier aporte aclaratorio que quieras realizar sobre el artículo que acabás de leer, podés hacerlo completando este formulario.

¿Te interesa el futuro?
None
Suscribite
¿Te interesa el futuro?
Recibí el newsletter de Futuro en tu email.
Recibir
Este artículo está guardado para leer después en tu lista de lectura
¿Terminaste de leerlo?
Guardaste este artículo como favorito en tu lista de lectura