Cotidiana Ingresá
Cotidiana

Steve Satterfield, Vicepresidente de Privacidad y Política Pública de Facebook, testifica a través de un monitor ante el Subcomité Judicial de Política de Competencia, Antimonopolio y Derechos del Consumidor, el martes, en Washington, DC.

Foto: Ken Cedeno, Getty Images, AFP

Archivos de Facebook

3 minutos de lectura
Contenido exclusivo con tu suscripción de pago

Una investigación de The Wall Street Journal revela una serie de documentos internos que muestran qué tan al tanto está la compañía de los problemas que suceden dentro de sus redes sociales.

Contenido no disponible con tu suscripción actual
Exclusivo para suscripción digital de pago
Actualizá tu suscripción para tener acceso ilimitado a todos los contenidos del sitio
Para acceder a todos los contenidos de manera ilimitada
Exclusivo para suscripción digital de pago
Para acceder a todos los contenidos del sitio
Si ya tenés una cuenta
Te queda 1 artículo gratuito
Este es tu último artículo gratuito
Nuestro periodismo depende de vos
Nuestro periodismo depende de vos
Si ya tenés una cuenta
Registrate para acceder a 6 artículos gratis por mes
Este audio es una característica exclusiva de la suscripción digital.
Escuchá este artículo

Tu navegador no soporta audios HTML5.

Tu navegador no soporta audios HTML5.

Leído por Abril Mederos.
Llegaste al límite de artículos gratuitos
Nuestro periodismo depende de vos
Para seguir leyendo ingresá o suscribite
Si ya tenés una cuenta
o registrate para acceder a 6 artículos gratis por mes

Editar

Qué permite y qué no permite Facebook dentro de sus plataformas. Esa es la cuestión. La empresa lleva varios años en el centro de la agenda por lo que sucede con la moderación de contenido en sus redes sociales y qué posturas toma al respecto. La semana pasada, The Wall Street Journal (WSJ) publicó los “Archivos de Facebook”, una serie de artículos basados en documentos internos de la empresa a los que tuvieron acceso, que revelan que la compañía tiene bien claro que la desinformación, el acoso y hasta la contratación de sicarios son moneda corriente en sus servicios, pero su respuesta suele ser bastante débil, y eso cuando hay una respuesta.

Una de las primeras revelaciones del WSJ es sobre XCheck, un programa que fue creado como un mecanismo de control de calidad sobre los contenidos de cuentas de alto perfil, pero que poco a poco se fue convirtiendo en una suerte de círculo VIP conformado por unas cinco millones de cuentas, en el que quienes están adentro hacen circular la desinformación o el contenido malicioso con absoluta impunidad.

Uno de los ejemplos que se cita es el del futbolista Neymar, que en 2019 fue acusado de abuso sexual por una modelo brasileña. El jugador del Paris Saint-Germain, que cuenta con más de 150 millones de seguidores en Instagram, publicó una serie de videos para defenderse de las acusaciones en su contra. El contenido incluía fotos de la mujer desnuda –lo que fue visto por sus seguidores tanto en Instagram como en Facebook–, afirmando que estaba siendo extorsionado.

56 millones de usuarios denunciaron a Facebook que lo que estaba haciendo Neymar encajaba en la figura de “pornovenganza” establecida por la propia compañía dentro de sus normas de la comunidad. Sin embargo, no hubo sanciones para el jugador, cuyas cuentas estaban dentro del programa XCheck.

Según un informe interno divulgado por WSJ, se constató que en 2019 XCheck mostró que de 18 incidentes investigados, 16 involucraron instancias en las que la empresa cometió un error en las acciones tomadas contra usuarios destacados. Cuatro eran acciones coercitivas inadvertidas contra el contenido del expresidente estadounidense Donald Trump y su hijo, Donald Trump Jr. También se tomaron acciones coercitivas fallidas contra las cuentas de la senadora Elizabeth Warren, la modelo Sunnaya Nash y Mark Zuckerberg, director ejecutivo de Facebook, que vio cómo una transmisión en vivo se eliminó luego de que un algoritmo calificó el contenido como información errónea.

Sicarios

Otro de los artículos de los “Archivos de Facebook” publicado por el WSJ cuenta que un expolicía especializado en ciberdelitos, contratado por la empresa, detectó que el Cártel Jalisco Nueva Generación (CJNG), una de las mayores organizaciones de crimen organizado de América Latina, estaba utilizando Instagram y Facebook para reclutar sicarios.

El cártel está en la lista de “personas y organizaciones peligrosas” de Facebook, sin embargo, la investigación detalla que varias cuentas que incluso utilizaban la sigla de la organización, CJNG, publicando contenido violento y anuncios en los que invitaban a jóvenes a participar en “campos de entrenamiento”, permanecían varios meses en actividad.

El expolicía planteó a Facebook que debería ser más estricto en el seguimiento y eliminación de estas cuentas y WSJ detalla que desde la empresa se solicitó aplicar estas medidas a una unidad, pero esta nunca realizó un seguimiento del tema.

Toxicidad

En un informe interno elaborado por Facebook en marzo de 2020 y divulgado por el WSJ, se indica que 32% de las adolescentes que utilizan Instagram afirman que cuando se sienten mal con su cuerpo, acceder a la red social las hace sentir peor y que más de 40% de jóvenes que se sienten poco atractivas empezaron a tener estas sensaciones viendo contenido en Instagram.

Esto contradice las declaraciones que hizo Zuckerberg hace algunos meses, quien afirmó que según “la investigación que hemos visto”, el uso de redes sociales “puede tener beneficios mentales positivos”.

40% de los usuarios de Instagram en Estados Unidos son menores de 22 años.

Facebook responde

La compañía dirigida por Mark Zuckerberg respondió a la investigación del WSJ mediante un comunicado escrito por Nick Clegg, vicepresidente de asuntos globales de la empresa. Clegg señala que el trabajo periodístico contiene “caracterizaciones erróneas deliberadas de lo que estamos tratando de hacer y han conferido motivos atrozmente falsos a los líderes y empleados de Facebook”. Señaló que el WSJ busca hacer creer que Facebook realiza investigaciones “y luego las ignora sistemática y deliberadamente si los hallazgos son inconvenientes para la empresa”.

Según Clegg, que fue viceprimer ministro de Reino Unido entre 2010 y 2015 durante la administración de David Cameron y se incorporó a Facebook en 2018, luego de una fuerte caída en la Bolsa tras el escándalo de filtraciones de datos por medio de Cambridge Analytica, esta afirmación “sólo podría hacerse seleccionando cuidadosamente citas de piezas individuales de material filtrado de una manera que presente problemas complejos y matizados como si sólo hubiera una respuesta correcta”.

¿Tenés algún aporte para hacer?

Valoramos cualquier aporte aclaratorio que quieras realizar sobre el artículo que acabás de leer, podés hacerlo completando este formulario.

Este artículo está guardado para leer después en tu lista de lectura
¿Terminaste de leerlo?
Guardaste este artículo como favorito en tu lista de lectura