En 2012 el español Joaquín Quiñonero comenzó a trabajar en Facebook desarrollando herramientas de inteligencia artificial (IA) para mejorar el alcance de los anuncios promocionados en la red social. Con el tiempo, el sistema de algoritmos de aprendizaje automático que implementó fue replicado en la selección de contenidos para los usuarios. Sin saberlo, se estaba creando el actual sistema que favorece la polarización política y el extremismo en las redes sociales.

Nueve años pasaron: ocurrió el escándalo de Cambridge Analytica en las elecciones de 2016 en Estados Unidos; al año siguiente, el genocidio de la población rohinyá en Birmania, alentado masivamente con posteos antimusulmanes en la red social; más tarde, la ola de desinformación sobre la covid-19, catalogada como “infodemia” por los directivos de la Organización Mundial de la Salud, y el asalto al Capitolio, en enero de este año, organizado en parte por grupos en la red social. Quiñonero, ahora encargado del área de Tecnologías de IA responsable de Facebook, reconoció que no sabe cómo frenar el campo minado de desinformación en el que se convirtió la compañía.

En un extenso artículo publicado en el portal Technology Review del Instituto Tecnológico de Massachussets (MIT), el español fue consultado acerca de los disturbios en el Capitolio y por qué no se buscaron mecanismos para reducir la desinformación y el extremismo. Eludió la pregunta dos veces hasta que, ante la insistencia de la periodista, respondió: “No lo sé. Esa es mi respuesta sincera. No lo sé”.

El artículo repasa la carrera de Quiñonero dentro de Facebook, su incidencia en el momento actual de la empresa y el poco interés del fundador y director ejecutivo, Mark Zuckerberg, en poner fin al clima que se generó dentro de la red social, especialmente cuando se sabe que ese clima es lo que termina generando más compromiso de los usuarios y, en consecuencia, más ingresos.

El cambio clave

Cuando Quiñonero entró a trabajar en Facebook, creó algoritmos que adaptaban el contenido a los usuarios de una forma sorprendentemente específica. Las publicidades (y posteriormente el contenido) de la red social ya no eran dirigidas únicamente por el rango de edad, sexo o ubicación. Quiñonero generó una herramienta que aprendía a tal ritmo, identificando correlaciones entre los rasgos de cada cuenta, que en este momento cada persona con una cuenta en Facebook tiene unas 200 características adjuntas a su perfil. Esto incluye color de piel, origen étnico, nivel de educación, religión e inclinación política, entre otras. De esta manera, es más fácil que un anuncio llegue a un público predeterminado.

El ingeniero español quedó a cargo de un área concreta de IA y le dieron una oficina cercana a Zuckerberg. Pronto comenzaron a aplicar el mismo método para hacer una curaduría del contenido que cada usuario podría estar interesado en ver, con el objetivo de que ingresara y permaneciera más tiempo en Facebook.

Esto terminó provocando que el contenido más escandaloso, el que se aproxima más a violar las normas de la comunidad sin llegar a hacerlo, fuera más consumido, más compartido, más comentado. Este tipo de contenido comenzó a aparecer cada vez más entre los destacados, al tiempo que el algoritmo se retroalimentaba de las interacciones.

Una de estas consecuencias fue la proliferación de mensajes de odio, que tuvo su punto más dramático durante el genocidio en Birmania en 2017. Un año después, tras una acusación de la Organización de las Naciones Unidas, Facebook reconoció que su plataforma fue utilizada masivamente para incitar a la violencia antimusulmana y llamar al asesinato de la comunidad rohinyá.

Facebook sabía todo

La red social siempre estuvo al tanto de la polarización que generaba su algoritmo y lo utilizó en su beneficio. Un artículo de The Wall Street Journal publicado en mayo de 2020 reveló que en 2016 una investigadora de Facebook hizo una presentación interna en la que informó que no sólo había una cantidad enorme de grupos extremistas alojados en la red social, sino que 64% de los miembros de esos grupos llegaron allí gracias a las recomendaciones del algoritmo.

En 2018, con Quiñonero al frente, se creó el Laboratorio de IA y Sociedad, que posteriormente se convirtió en el área de Responsabilidad IA. El objetivo era “examinar el impacto social de los algoritmos”, y los referentes del área destacan su labor para filtrar la desinformación y combatir la polarización.

Sin embargo, como demuestra Technology Review tras consultar a varios empleados y exempleados, este equipo está enfocado en prevenir lo que denominan “sesgo de la IA”, una denuncia que el expresidente estadounidense Donald Trump hizo en 2018 con el hashtag #StopTheBias, acusando a Google, Facebook y Twitter de acallar a las voces conservadoras, lo que generó molestia en los seguidores del magnate y político, amenazando con una posible regulación a la red social.

Desde entonces, Zuckerberg asignó a Quiñonero y otros jerarcas la tarea de eliminar ese supuesto sesgo de los modelos de moderación de contenido de Facebook. Llamativamente, esto se hizo a costa de permitir que se esparzan la desinformación y los mensajes de odio. Cuando logran pasar el filtro (y lo hacen muy seguido) continúan escalando hasta destacarse en la pantalla de inicio de los usuarios de Facebook, retroalimentando el algoritmo.