La Comisión Europea publicó el jueves los resultados de su sexta evaluación del código de conducta para combatir el discurso de odio en línea, y destacó que hubo resultados “positivos”, pero que su progreso se ha visto ralentizado. El informe apunta a que tanto Facebook como Youtube no han avanzado tanto como se esperaba en la moderación del contenido que circula dentro de sus plataformas.
Según explicó la checa Věra Jourová, vicepresidenta del área de Valores y Transparencia de la Comisión Europea, el código de conducta ha “traído buenos resultados, pero las plataformas no pueden bajar la guardia y necesitan abordar las brechas” que quedan.
Según la evaluación, entre el 1° de marzo de 2021 y el 14 de abril del mismo año se recibieron más de 4.500 denuncias sobre presuntos mensajes de odio publicados en alguno de los 27 países que integran la Unión Europea (UE). Las compañías en promedio lograron hacer una revisión de 81% de estas denuncias de las primeras 24 horas desde su publicación, y eliminaron 62,5% del contenido señalado como peligroso. Parece un muy buen resultado, pero es inferior a las cifras registradas en 2019 y 2020. El año pasado, por ejemplo, se alcanzó a revisar más de 90% de las denuncias cada 24 horas y la media de contenido eliminado era de 71%.
Esa media de más de 62% se eleva a 69% cuando se trata de contenidos que incitan a la violencia o el asesinato contra determinados grupos de personas y se reduce a 55% si se analizan las denuncias de mensajes difamatorios. Nuevamente, la diferencia con años anteriores es clara: las cifras de eliminación de contenido de odio en 2020 eran de 83,5% en el primer caso y de 57,8% en el segundo.
Según el informe, el principal motivo de los mensajes de odio en redes sociales en los países de la UE es la orientación sexual de las personas (18,2%), seguido por la xenofobia (18%) y el discurso contra la comunidad gitana (12,5%). El antisemitismo representó 9,3% de las denuncias, mientras que los mensajes islamófobos fueron 8,5%.
De esas más de 4.500 denuncias sobre mensajes de odio recibidas durante el período de tiempo analizado, la mayoría se produjeron dentro de Facebook (1.799), seguido por Twitter (1.595) y, más lejos, Youtube (519), Instagram (401), Tik Tok (199) y los foros de la plataforma francesa Jeuxvideo (30).
Las únicas plataformas que mejoraron su rendimiento en materia de moderación del contenido peligroso recibido fueron Twitter y Youtube. Facebook llegó a revisar 81% dentro de las primeras 24 horas, mientras que Instagram, que también pertenece a la compañía creada por Mark Zuckerberg, recibió una cifra de denuncias muy inferior y apenas llegó a revisar 62%.
Sin embargo, al ver los números de eliminación de este contenido, la situación cambió bastante. Con Jeuxvideo (100%) y Tik Tok (80,1%) como excepciones, ninguna de las empresas llegó a eliminar más de 80% del contenido denunciado. Facebook apenas alcanzó 70,2%, mientras que Instagram llegó a 66,2%. Youtube eliminó 58,8% y Twitter apenas 49,8%. Sin embargo, este último tuvo su mejor desempeño desde que empezó a participar en las evaluaciones del Código de Conducta, en 2016, mientras que el rendimiento de Facebook bajó a niveles inferiores a los de diciembre de 2017. Algo similar ocurrió con Youtube, que tuvo su segundo peor desempeño en seis evaluaciones.
En este sentido, el informe señala que “el progreso de Instagram (66,2% de eliminaciones en 2021, 42% en 2020) y Twitter (49,8% frente a 35,9%) es digno de mención”, al tiempo que destacó a Tik Tok, que se incluyó en la evaluación por primera vez y “funcionó bien”, con 80,1% de eliminaciones del contenido denunciado como peligroso.
Además de las plataformas mencionadas, participaron en la evaluación Snapchat, Dailymotion y Microsoft. En junio, luego de que se llevó a cabo esta evaluación, Linkedin se sumó al código de conducta. Según informó la agencia AFP, la participación de las empresas dentro de este marco de evaluación es voluntaria, pero actualmente el Parlamento Europeo está preparando una regulación más amplia, que reforzará los poderes del bloque para regir los contenidos que se publican.
Cuando esta regulación sea aprobada, las redes sociales y plataformas podrán ser multadas si no actúan ante los contenidos ilegales, y además la normativa obligará a tener mayor transparencia sobre los criterios para mostrar las publicaciones a los usuarios.