Cuando aún no existen consensos claros sobre las garantías que deben ofrecer las grandes plataformas de internet en cuanto a su moderación de contenidos, Facebook puso en marcha su propio tribunal de expertos, un mecanismo inédito que promete ser el eje del debate en los próximos años.

Tras una primera década de oro en la que internet parecía destinada a democratizar la libertad de expresión, ayudar a reducir la desigualdad y darles voz a quienes luchan contra los regímenes autoritarios, el paso del tiempo nos muestra una vez más que la historia no es lineal. En efecto, en los últimos diez años hemos presenciado el crecimiento de fenómenos problemáticos en relación con contenidos que circulan en las redes sociales, al punto de que en varios países hicieron tambalear el sistema democrático.

Una lista rápida de estos fenómenos debe incluir la desinformación interesada sobre diferentes asuntos, mensajes virales incitando a la violencia contra grupos vulnerables, el manejo de campañas electorales mediante desinformación y perfilamiento de los votantes, videos con contenido extremista y violento. Centros de trolls, gurúes de campañas electorales, grupos criminales y hasta gobiernos pasaron a ser jugadores claves en la esfera pública de las redes sociales.

Esta realidad ha generado un creciente debate sobre las regulaciones aplicables a estos espacios, sin que exista hasta la fecha un consenso internacional. Están quienes defienden la naturaleza privada de estas plataformas y, por tanto, promueven una moderación autónoma a cargo de ellas mismas. El argumento tras esta posición es el siguiente: si las personas aceptan los términos y condiciones deben ajustarse a esas reglas, y si no les gusta pueden ir a otro lado o borrar su cuenta.

Otros expertos, sin embargo, postulan la necesidad de establecer normas estatales que establezcan límites sobre lo que pueden decidir las plataformas y cómo lo hacen. Entienden que las redes sociales se asemejan a foros públicos que impactan directamente en el discurso y el juego democrático. Además, sostienen que estas compañías tienen altos niveles de concentración con capacidad para imponer modelos de negocios con consecuencias sociales y económicas. Por todo ello, la autorregulación podría ser insuficiente y sería necesaria la intervención de los gobiernos.

A decir verdad, no han faltado intentos regulatorios por parte de gobiernos que a veces persiguen buenas intenciones y otras, cercenar críticas. Muchas de estas soluciones legales no siempre toman en cuenta el diseño de internet descentralizado y global. Además, en no pocos casos vienen a plantear restricciones a la libertad de expresión en lugar de proteger y promover este derecho.

En tanto, varias propuestas planteadas por organizaciones no gubernamentales y organismos de derechos humanos vienen reclamando a las compañías de internet mayor transparencia y compromiso con la aplicación de los estándares de protección de los derechos humanos en sus decisiones sobre el discurso que circula en sus redes. También postulan la necesidad de que las plataformas dominantes incorporen el contexto particular de cada país o región en las decisiones sobre contenidos.

Un experimento en proceso

Aunque todas las plataformas han enfrentado episodios complejos en relación a los impactos que generan sus prácticas y diversos aspectos de sus modelos de negocio, Facebook –la compañía de redes sociales más grande– ha protagonizado algunos de los escándalos de mayores proporciones. The Facebook Files es el más reciente y refiere a la filtración de documentos internos por parte de una exfuncionaria que darían cuenta de la existencia de un sistema diferenciado de moderación de contenidos para gobernantes y personalidades de alto perfil público que los exonera de las reglas que aplican al resto de los usuarios, así como de una reacción débil ante estudios que advierten de los efectos negativos en adolescentes de los algoritmos de Instagram.

Dos años atrás, cuando arreciaron las críticas sobre el impacto de las prácticas nocivas en sus plataformas, el experimento más osado lo puso en marcha el propio Mark Zuckerberg, director ejecutivo de Facebook. En noviembre de 2018, anunció la creación del Facebook Oversight Board (Consejo Asesor de Contenido, en español) con el fin declarado de crear un consejo de expertos independientes para revisar las decisiones que toma la compañía y definir si están alineadas con el interés de la comunidad.

Los casos de América Latina

Dentro de la primera tanda de decisiones, se encuentra un caso que afectó a usuarios de Brasil en relación con la eliminación de una fotografía en la que se mostraban pezones femeninos. La imagen, publicada en Instagram, formaba parte de un llamado a la concientización acerca de los síntomas del cáncer de mama en consonancia con la campaña internacional Octubre Rosa.

Los sistemas automatizados de Facebook eliminaron la fotografía por infringir, supuestamente, la norma comunitaria sobre desnudos y actividad sexual de adultos. El Consejo anuló la decisión de Facebook por entender que las normas comunitarias permiten a los usuarios compartir desnudos cuando lo hagan para “concientizar sobre una causa o con fines educativos o médicos”. Asimismo, recomendó a la empresa mejorar sus sistemas de apelación para las detecciones automatizadas y su transparencia a la hora de informar sobre su uso.

El segundo caso referido a Brasil se trata de una publicación del Consejo Médico Estatal de ese país sobre la efectividad de los confinamientos como medida para reducir la propagación de la covid-19. El contenido de la institución pública cuestionaba los confinamientos como medida para detener la pandemia, afirmaba que son condenados por la Organización Mundial de la Salud y que provocan una serie de efectos secundarios como el abuso de alcohol y de drogas. Facebook mantuvo la publicación en línea por no violar su política de información errónea y dañosa, pero decidió remitirla al Consejo por considerarlo un caso “complicado” que puede ser usado como “para adoptar ciertas medidas de seguridad durante la pandemia”.

El Consejo determinó que el contenido no representaba un daño inminente a la salud pública, por lo cual la decisión de Facebook de mantenerlo era la correcta. Hizo hincapié en la importancia de implementar medidas que no sean eliminar contenido para contrarrestar la difusión de información errónea sobre la covid-19 en ciertas circunstancias, como en este caso.

Un tercer caso refiere a un medio de comunicación colombiano que compartió un video en el que se apoyaba a los manifestantes que insultaban al presidente Iván Duque. El video mostraba una manifestación en el marco de las protestas contra la reforma tributaria en aquel país con cánticos contra el presidente. Facebook decidió dar de baja el contenido por violar su norma comunitaria sobre lenguaje que incita al odio. El Consejo revirtió la posición de la empresa determinando que existía interés público en la publicación de las manifestaciones.

A finales de 2020 el Consejo quedó constituido por 20 integrantes, luego de dos años de una serie de consultas globales y una inversión de más de 130 millones de dólares en un fondo fiduciario. Lo integran expertos y expertas internacionales en derechos humanos, tecnología y libertad de expresión. Distintos actores del ecosistema de internet han valorado la idoneidad e independencia de sus integrantes, así como el objetivo de ayudar a resolver parte de los problemas derivados de la regulación de contenidos en línea.

No obstante, las lecturas que se han hecho frente a la legitimidad de este intento global de resolución de casos son variadas. Algunos analistas ven en este Consejo un ejemplo más en el proceso de privatización de la justicia: el intento de una de las empresas más poderosas del mundo de crear su propio tribunal privado para, de cierta forma, asumir responsabilidades y autolegitimar sus propias decisiones.

Otras opiniones abren una carta de crédito a esta experiencia y la ubican en la tradición de los Consejos de Ética o Colegios de Medios y Periodistas que fueron de los primeros mecanismos de autorregulación sobre contenidos de prensa, reconocidos y alentados por el derecho internacional.

Más allá de interpretaciones, resulta interesante que este Consejo, al dotarse de un estatuto constitutivo, haya adoptado una guía aprobada por el Consejo de Derechos Humanos de Naciones Unidas, denominada Principios Rectores sobre Empresas y los Derechos Humanos. Estos principios buscan que las empresas adopten estándares de derechos humanos en sus operaciones y sus políticas de actuación, incluyendo reparar los daños que puedan producir con su actividad.

Según esta guía, para asegurar la efectividad de los mecanismos de reparación no judiciales, estos deben ser legítimos, accesibles, predecibles, equitativos, transparentes, compatibles con los derechos humanos y una fuente de aprendizaje continuo. Si la solución planteada por Facebook, que ahora toma forma como un Consejo Asesor, se ajusta a estas reglas internacionales, aún está en proceso de legitimación y verificación.

Miles de personas asisten a la inauguración de un monumento en el lugar denominado popularmente como Puerto Resistencia, epicentro de las protestas contra la violencia policia y las políticas del Gobierno de Iván Duque, en Cali.  (archivo, junio de 2021)

Miles de personas asisten a la inauguración de un monumento en el lugar denominado popularmente como Puerto Resistencia, epicentro de las protestas contra la violencia policia y las políticas del Gobierno de Iván Duque, en Cali. (archivo, junio de 2021)

Foto: Ernesto Guzmán Jr / EFE

Primeras decisiones y alcance del Consejo

En lo que va de 2021, el Consejo emitió una veintena de decisiones sobre casos de lo más variados y ya ha ordenado a Facebook cambiar varias decisiones. En los últimos días y frente a la revelación que significaron los Facebook Files, el Consejo solicitó además una lista exhaustiva de informes a la empresa.

La colombiana y ex relatora para la Libertad de Expresión de la Comisión Interamericana de Derechos Humanos, Catalina Botero, es una de las cuatro personas en la dirección del Consejo. En un reciente encuentro afirmó que, en lo que hace a los temas de contenido –asunto en el cual el Consejo que integra tiene competencia–, sería grave que se confirmara la existencia de listas de usuarios que por su incidencia o perfil no deben cumplir con las mismas reglas que los otros 2.800 millones que participan en la plataforma.

Con anterioridad a este incidente, el Consejo ya se había expedido sobre casos que involucran mensajes que incitan al odio en Birmania, también sobre la suspensión de la cuenta del expresidente de Estados Unidos Donald Trump, y hasta sobre las publicaciones del gobierno brasileño que ponen en duda las medidas contra la covid-19. Todo tipo de discusiones de actualidad que giran en torno al balance entre diferentes derechos humanos ha ido pasando por el novel Consejo (ver recuadros).

De este primer conjunto de decisiones, en general, se ha ponderado positivamente la inclusión expresa y detallada de los estándares internacionales de derechos humanos. También se valoró que el Consejo en cada caso hizo recomendaciones a la empresa para mejorar la transparencia y las políticas de moderación de contenidos.

Este cuerpo también hace solicitudes de información a la empresa sobre los casos a estudio, que generan respuestas o evidencias de falta de transparencia en algunos criterios, todo lo cual permite abrir otra puerta para conocer el funcionamiento de la denominada “moderación de contenidos a nivel interno de la corporación”.

En un reciente evento organizado por el think tank Diálogo Interamericano, que contó con la participación de expertas, ex relatores de libertad de expresión e integrantes del Consejo, estos últimos afirmaron que no aspiran a sustituir ni a crear una estructura judicial supraestatal. Indicaron que buscan generar legitimidad para influir en las decisiones de la empresa, basado en el marco de origen que le ofrece la carta constitutiva del Consejo y los fundamentos de sus propias decisiones.

Entre las reservas a este mecanismo, se plantea la amplitud de temas y los costos que supone el funcionamiento del Consejo Asesor. Sólo gigantes como Facebook o Google pueden tener la espalda financiera para sostener un mecanismo de este tipo. Por otra parte, una multiplicidad de soluciones a asuntos parecidos tampoco ayudaría a generar estándares replicables.

El seguimiento del cumplimiento de estas recomendaciones y pedidos de informes será clave para evaluar la legitimidad y eficacia del mecanismo, así como el apego a los principios antes mencionados.

Finalmente, expertos y académicos advierten que el Consejo Asesor no debería monopolizar las discusiones sobre moderación de contenidos. Hay lugar para que gobiernos, empresas y organizaciones de la sociedad civil impulsen otro tipo de paneles y formas de evaluar las decisiones considerando el marco de derechos humanos y una participación de las múltiples partes interesadas.

América Latina y las decisiones del Consejo

Desde la región latinoamericana es relevante seguir de cerca e involucrarse en las discusiones globales acerca de la moderación de contenidos y regulación en internet. Las decisiones tienen alcance global y son especialmente relevantes para países donde las redes sociales tienen incidencia en el debate público. Así, por ejemplo, el nuevo mecanismo de Facebook ha decidido tres casos que involucran a países latinoamericanos: dos de Brasil y uno de Colombia (ver recuadro).

El Consejo también incluyó a dos expertos latinoamericanos en su primera integración. Además de Botero, ex relatora para la Libertad de Expresión de la OEA, se sumó Ronaldo Lemos, profesor de Derecho en la Universidad de Río de Janeiro.

Los miembros del Consejo consultados en el panel del Diálogo Interamericano indicaron que a la hora de abordar casos de la región reciben comentarios y hay consultas a expertas y expertos de los países involucrados, a los efectos de evaluar si la empresa tuvo en cuenta el contexto nacional y regional, la situación política, las tensiones sociales y las discusiones públicas.

Por otra parte, en los primeros casos decididos que refieren a la región, aún no se han tomado en cuenta los estándares del Sistema Interamericano de Derechos Humanos, pese al robusto marco jurídico que los órganos del sistema han desarrollado en las últimas dos décadas.

En los últimos años en los parlamentos latinoamericanos han aumentado las iniciativas que buscan regular los contenidos en redes sociales. Existen en trámite decenas de proyectos de ley al respecto con una fuerte impronta de intervención estatal, por lo que este asunto está en discusión y el funcionamiento del Consejo Asesor representa un debate más que oportuno.

La decisión del caso Trump

El 6 de enero de 2021, durante el acto de convalidación de las elecciones de 2020 en Estados Unidos, una multitud asaltó el Capitolio en Washington. En el transcurso de los hechos, el entonces presidente, Donald Trump, hizo dos publicaciones dirigidas a la multitud que en ese instante ingresaba violentamente en el Capitolio, por las cuales Facebook le impidió el acceso a sus cuentas por el plazo de 24 horas.

Luego de revisar los mensajes y recabar información sobre los hechos ocurridos en el Capitolio, Facebook decidió extender el bloqueo “de forma indefinida”. La misma decisión adoptó Twitter, plataforma en la cual Trump también había realizado publicaciones. Por primera vez las principales redes sociales expulsaban a la máxima autoridad de un país de manera indefinida.

Estas decisiones sin precedentes generaron debates en todo el mundo acerca del poder que detentan las plataformas de internet sobre la libertad de expresión, el debate público y la influencia en las sociedades que en las que operan. Se plantearon cuestionamientos acerca de la legitimidad de esas medidas, la responsabilidad de las empresas durante eventos que implican violencia y la aplicación del derecho internacional de derechos humanos a los actores privados.

Finalmente, el 5 de mayo el Consejo compartió la postura de Facebook de restringir el acceso de Trump a sus cuentas durante la asonada, dado que en la aplicación del Plan de Acción de Rabatt los mensajes del entonces presidente incitaron a los manifestantes a mantener su acción violenta. Sin embargo, consideró inapropiada la suspensión indefinida impuesta por la plataforma, “ya que se trata de una penalización indeterminada y sin fundamentos normativos”. Por este motivo, otorgó a Facebook un plazo de seis meses para analizar el asunto y brindar una respuesta proporcionada.

En su respuesta a la decisión, Facebook se comprometió a implementar completamente las recomendaciones del Consejo. Este compromiso incluye la revisión de las políticas y tiempos de respuesta ante contenido proveniente de usuarios de “alta influencia” que puede ocasionar daño inminente o suponer amenazas a la integridad de personas. La empresa tomó la decisión de mantener la suspensión de la cuenta de Trump por dos años, período tras el cual la situación será reevaluada considerando los riesgos que existan en ese momento.

.