Tal vez a algún lector o lectora le haya pasado. Su cuenta en redes sociales puede haber sido inhabilitada o suspendida temporalmente, alegando que utilizó discursos de odio, violencia o desinformación. Esto puede haberse debido a que uno de los 35.000 moderadores de contenido que tiene Facebook así lo resolvió. O, más recientemente, quizá un algoritmo hizo esa tarea sin intervención humana. Y la “decisión” del algoritmo que a usted, lector o lectora, lo privó de participar en un espacio de debate público, puede ser un error. Así lo reconoció Youtube recientemente: la plataforma eliminó más de 11,4 millones de contenidos en el segundo trimestre de 2020 por infringir sus normas comunitarias; 42% fue removido antes de ser visto por un usuario, y una “proporción significativa” de este porcentaje ni siquiera violaba las reglas de la plataforma.

Las plataformas de internet como Google, Facebook y Youtube son bastante más que intermediarios entre la emisión y recepción de contenidos, alerta el informe recientemente elaborado por el Programa de las Naciones Unidas para el Desarrollo (PNUD) y el Observatorio Latinoamericano de Regulación, Medios y Convergencia (Observacom). Se han transformado en editores de contenidos, un rol que solían asumir en exclusividad los medios tradicionales. “Las plataformas adoptan políticas de remoción, desindexación o bloqueo de contenidos basados en reglas propias que no siempre respetan las expresiones legítimas de sus usuarios ni los estándares internacionales sobre derechos humanos”, se advierte en el informe.

En el primer trimestre de 2020, Facebook removió o aplicó medidas en aproximadamente 1.800 millones de cuentas por sus políticas sobre desnudez adulta, cuentas falsas y discursos de odio y violencia, recuerda el informe. En 2019, Youtube removió globalmente más de 12 millones de canales y 259 millones de videos. Twitter tomó acciones sobre más de dos millones de cuentas en el segundo semestre de 2019.

El informe “El papel de las grandes plataformas de internet y su impacto sobre la libertad de expresión y la deliberación pública” busca visibilizar este tema y elaborar recomendaciones que sirvan de base para una eventual regulación nacional y regional.

El estudio alerta sobre la remoción, desindexación o bloqueo de contenidos por decisiones judiciales, presión del Estado y actores privados: “Estas decisiones se adoptan discrecionalmente y se fundamentan por el no cumplimiento de términos de servicio o políticas comunitarias exigidos a los usuarios para poder utilizar una determinada plataforma para informarse o comunicarse. Sin embargo, estos términos muchas veces no respetan los parámetros internacionales de libertad de expresión, y su aplicación se realiza sin debido proceso y sin transparencia”.

Además de las medidas extremas de remoción de contenidos, las plataformas también tienen “mecanismos de priorización, recomendación y curaduría de los contenidos publicados por los usuarios” que fragmentan el debate público, “así como afectan la diversidad, al generar sesgos informativos y relegar las voces de algunos sectores”, indica el informe. “En la práctica, la arquitectura de las aplicaciones y sus políticas de moderación de contenidos configuran una especie de regulación privada del ambiente público de debate”, remarca el estudio. Esto en ausencia de parámetros públicos y democráticos que guíen dichas políticas de moderación privada de contenidos.

Asimismo, el informe alerta sobre restricciones indirectas a la libertad de expresión que surgen del crecimiento de las plataformas. La concentración de la pauta publicitaria en las plataformas –60% del mercado publicitario se concentra en Google y Facebook– compromete la sostenibilidad de los medios de comunicación, tradicionales destinatarios de esa publicidad, y va en detrimento de la diversidad informativa.

Avances y recomendaciones a futuro

Hasta el momento, en general, las plataformas de internet han sido consideradas simples intermediarios, y por lo tanto sin responsabilidad respecto de los contenidos y su moderación. Sin embargo, expertos en materia de libertad de expresión vienen alertando que esta situación debería cambiar, recuerda el informe. En 2011, el entonces relator especial sobre la Promoción y Protección del Derecho a la Libertad de Opinión y de Expresión de la Organización de las Naciones Unidas (ONU), Frank La Rue, alertaba que “por la posición que ocupan y el rol que cumplen, los intermediarios se han erigido como puntos a través de los cuales es técnicamente posible ejercer el control de los contenidos en internet”. Su sucesor en ese cargo, David Kaye, con motivo de la presentación del Informe Anual 2016, manifestó que “es común para las compañías privadas censurar, vigilar, o realizar otras restricciones a la libertad de expresión, usualmente presionados por los gobiernos, pero algunas veces, por su propia iniciativa”. Y en 2017, en una Declaración Conjunta de las Relatorías Especiales para la Libertad de Expresión de distintos organismos internacionales, entre ellos la ONU, los expertos se manifestaron “consternados” por “sistemas de eliminación de contenidos basados en algoritmos o en el reconocimiento digital” que “no son transparentes, incumplen los estándares mínimos de debido proceso y/o limitan de manera indebida el acceso a contenidos o su difusión”.

En 2018, la Comisión Europea logró un acuerdo con Google, Twitter y Facebook para introducir cambios en sus términos y condiciones de funcionamiento para adecuarse a la normativa europea. Se trató de “un hecho sin antecedentes y que significa un primer paso para la regulación de las plataformas de intermediarios para la protección de sus usuarios”, destaca el informe.

Desde la sociedad civil latinoamericana, un grupo de organizaciones, entre ellas Observacom, elaboraron una propuesta de estándares democráticos base para la elaboración de una regulación que garantice mayor libertad de expresión en internet, denominada “Estándares para una regulación democrática de las grandes plataformas que garantice la libertad de expresión en línea y una internet libre y abierta”.

Este año, PNUD y Observacom tienen previsto implementar un mecanismo de deliberación pública y presentar recomendaciones sobre este tema.