Podría parecer una noticia falsa, pero tristemente es verdadera. “Ante los reiterados posteos en redes sociales de parte de legisladores con información falsa, el exfiscal de Corte Jorge Díaz planteó la necesidad de una ‘interpretación auténtica del artículo 112 de la Constitución’, que legisla sobre los fueros parlamentarios”, informaba la diaria hace pocos días. El exfiscal de Corte comunicó su idea justamente en una red social –Twitter en este caso– señalando que “los legisladores no están ejerciendo su función cuando utilizan las redes sociales”, lo que promovió un intercambio de pareceres al respecto, bastante civilizado para tal red, que tocan temas como la libertad de expresión, sus límites y la responsabilidad ante el hecho de andar repartiendo cosas que son incorrectas, falaces o incitan al odio.

La política es un terreno resbaloso. O al menos un poco más resbaloso que la ciencia: mientras esta última pretende o al menos trata de guiarse por la evidencia, para comprender qué sucede, cómo y por qué, en política las aproximaciones a la verdad mediante la evidencia son un insumo para discutir de qué maneras puede resolver una sociedad las múltiples tensiones que hay en su seno. Allí los aportes de la ciencia no necesariamente indican cuál solución es “la mejor”, porque cada parte política defiende intereses distintos.

En las discusiones políticas es legítimo que se les asignen significados a los hechos a partir de visiones diferentes e incluso contrapuestas de la realidad, sin que una de esas visiones pueda demostrar que es la única correcta. Aun así, mal haríamos en colocar a legisladoras, legisladores y demás integrantes del sistema político en una bolsa aparte: a la hora de propagar desinformación en una red social, las motivaciones y las responsabilidades que los llevan a hacerlo son las mismas que las de cualquier ser humano.

En una pieza dedicada a menores, que forma parte de una iniciativa para trabajar el problema de la desinformación con niños y adolescentes llevada adelante por este diario bajo el nombre Reinformados, se les informa que la intención que tiene una persona, empresa o institución “que creó una noticia o información falsa o engañosa” puede ser diversa. “Ganar dinero a través de la venta de publicidad en una página web”, “vender un producto”, “robar información y datos personales”, “perjudicar la imagen o la reputación de una persona o institución”, “manipular o afectar el comportamiento de las personas” son algunas de las motivaciones allí listadas. La última no descarta además que a veces ni siquiera haya una intención deliberada: “a veces las noticias falsas o engañosas pueden ser el resultado de un error”. Una investigación, dada a conocer en estos días, suma un nuevo ítem al punteo: compartir desinformación puede ser parte de un hábito propiciado por las propias redes.

Titulado algo así como “Compartir información errónea es habitual, no sólo perezoso o sesgado”, el trabajo está liderado por la investigadora Gizem Ceylan, de la Escuela de Administración de la Universidad de Yale, y coescrito por Ian Anderson y Wendy Wood, del Departamento de Psicología de la Universidad de Carolina del Sur, todas instituciones de Estados Unidos. Así que tomando con las pinzas adecuadas sus conclusiones, ya que por un lado no podemos extender lo que encontraron a todo el universo de desinformadores –y menos aún pasar por alto factores socioculturales que harían que aquí los resultados pudieran variar de alguna manera–, mientras que por otro los algoritmos de las redes sociales son bastante globales, veamos qué nos aporta su investigación para un tema tan sensible y relevante en nuestros días.

El hábito de hacerse preguntas

“¿Por qué la gente comparte información errónea en las redes sociales?”, se preguntan Ceylan y sus colegas ya en la primera línea del trabajo. A modo de adelanto, en el resumen responden que su investigación, llevada adelante con 2.476 participantes online, muestra que “la estructura de intercambio en línea integrada en las plataformas sociales es más importante que los déficits individuales en el razonamiento crítico y el sesgo partidista”, dos “factores comúnmente citados” para explicar la propagación de desinformación en las redes sociales. En otras palabras: no es que (toda) la gente es tonta juzgando qué es un bolazo y qué no lo es, o que (toda) la gente está flechada y cegada por sus posturas ideológico-partidarias, sino que hay algo en el propio funcionamiento de las redes que impulsa a que algunos usuarios sean propagadores de desinformación. Ya veremos eso con más detalle. Pero antes veamos al horror a la cara.

“El intercambio de desinformación en línea se ha convertido en una preocupación mundial con graves consecuencias económicas, políticas y sociales”, sostienen en su trabajo. Definiendo qué entienden por desinformación, establecen que en su investigación tratarán tanto con casos de “información que no tienen una base fáctica (es decir, noticias falsas)” como con “contenido que, aunque no es objetivamente falso, propaga hechos unilaterales (es decir, noticias con sesgo partidista)”. Seguro se han topado con sobrados ejemplos de uno y otro caso sea cual sea la red en la que andan. El asunto, dicen, es que esa desinformación “cambia percepciones y crea confusión acerca de la realidad”.

¿Qué es lo que lleva a las personas a propagar desinformación? “Una respuesta es que las personas a menudo carecen de la capacidad de considerar la veracidad de dicha información”, y hablan entonces de “reflexión limitada” o “falta de atención”. También señalan que “las afirmaciones falsas pueden parecer novedosas y sorprendentes y, por lo tanto, activar un procesamiento emocional no crítico”.

Por otro lado, dicen, otra razón a la que se apela para explicar la desinformación viene por el lado de que “las personas están motivadas para evaluar los titulares de noticias de maneras sesgadas que respaldan sus identidades”, lo que definen como un “razonamiento motivado”. En otras palabras, si el titular coincide con lo que ya pienso, lo propago sin cuestionar demasiado su veracidad o autenticidad. Los humanos somos buenos encontrándole el pelo al huevo de los otros pero no tanto al nuestro. “Las cascadas de rumores en las redes sociales en línea son más marcadas cuando se comparten dentro de comunidades de usuarios homogéneas y polarizadas”, ejemplifican, señalando además que “el partidismo puede influir especialmente en las evaluaciones de la veracidad de la información”.

El problema es que, dicen en el trabajo Ceylan y sus colegas, “si bien estos análisis identifican distintos predictores de la aceptación de noticias falsas, todos implican que las personas difundirían menos información falsa si tuvieran la capacidad o la motivación suficientes para considerar la precisión de dicha información y discernir su veracidad”. Pero parece que no es así. “Estas limitaciones y motivaciones personales, aunque ampliamente estudiadas, pueden no ser los únicos mecanismos detrás del intercambio de noticias falsas”, proponen. Y aquí el trabajo aporta un dato relevante: “el intercambio de información errónea parece ser parte de un patrón más amplio de intercambio frecuente de información en línea”.

Citando resultados obtenidos en su propio estudio, el artículo sostiene que “las personas que comparten una mayor cantidad de noticias falsas también tienden a compartir más noticias verdaderas”. Es más, “es posible que la motivación no explique por completo la desinformación con orientación política, dado que las personas que comparten noticias políticamente más liberales también comparten noticias más conservadoras”, adelantan. Por todo eso, afirman que “tal intercambio indiscriminado sugiere causas más allá de la falta de razonamiento crítico o un sesgo de mi bando”. ¿Y cuál es esa causa que proponen? Que somos un animal de hábitos.

“Un mecanismo psicológico que podría explicar estas tendencias más amplias de compartir son los hábitos que las personas desarrollan cuando usan repetidamente un sitio de redes sociales”, dicen entonces. Y esa mirada tiene consecuencias importantes. “Tomar en cuenta los hábitos cambia el enfoque de los déficits en los usuarios individuales hacia los patrones de comportamiento que se aprenden dentro de las estructuras actuales de los sitios de redes sociales”, afirman. También reseñan que abordar esto desde los hábitos propiciados por las redes “ubica el control de la información errónea no en el reconocimiento de la veracidad por parte de los usuarios, sino directamente en la estructura de intercambio en línea integrada en la mayoría de las plataformas sociales”. Su propuesta es sumamente atractiva: en lugar de enfocarse en “las deficiencias del usuario” proponen mirar el sistema en el que los usuarios despliegan sus comportamientos.

¿Cómo se establece un hábito? Sencillo: la respuesta es conocida por la psicología contractual desde hace muchas décadas. “Los hábitos se forman cuando las personas repiten una respuesta gratificante en un contexto particular y, por lo tanto, forman asociaciones en la memoria entre la respuesta y las claves del contexto recurrente”, explican en el trabajo. Y entonces dicen que es altamente probable que “la simple repetición del uso de las redes sociales genere hábitos”, algo que cualquiera que haya usado redes no tendrá problemas en dar por cierto. Y el asunto es que una vez instalado el hábito, las personas actúan con cierta automaticidad, respondiendo “con una sensibilidad limitada a los resultados, como engañar a otros o actuar en contra de las creencias personales”. Y todos sabemos lo difícil que resulta en algunos contextos dejar hábitos que nos traen recompensas cuantiosas e inmediatas.

Con todo este marco sobre la mesa, se propusieron en su investigación probar “si los hábitos que las personas forman a través del uso repetido de las redes sociales se extienden al intercambio de información independientemente de su contenido”. Razonan que “si compartir es una respuesta habitual a los pies que da la plataforma, se activará con una deliberación mínima sobre los resultados de la respuesta”. En otras palabras: si las plataformas instalan el hábito en las personas de compartir noticias, puede que las personas lo hagan sin andar pensando demasiado en si son falsas o verdaderas, si fomentan el odio o están sesgadas ideológicamente. Si la recompensa está, bajo forma de me gusta, comentarios, señales de que ahí afuera hay otros y otras que reciben lo que posteo, tal vez las plataformas sean los Víctor Frankenstein de múltiples desinformadores y desinformadoras.

Para ver si es eso lo que sucede, Ceylan, Anderson y Wood realizaron cuatro estudios con participantes en línea que abarcaron a 2.476 personas. Querían ver si “la fuerza de los hábitos para compartir información en línea aumenta el intercambio de todo tipo de información por parte de las personas”, al tiempo que “si los usuarios fuertemente habituados son menos perspicaces” discerniendo entre titulares verdaderos y falsos y “menos sensibles al sesgo partidista” al compartir información “en comparación con aquellos con hábitos más débiles”.

El hábito de contestar preguntas con evidencia

Todos los participantes del estudio tenían cuenta de Facebook y debieron participar en un ejercicio en el que, al presentárseles 16 titulares de noticias con el formato en el que aparecen en esa red, debían apretar un botón que estaba a su lado para compartirla o no. Además se analizaron otros datos, como “la historia de compartir noticias en Facebook” de cada uno, un cuestionario de autorreporte para ver qué tan automáticos eran compartiendo, y otros aspectos. Las tareas estuvieron divididas en cuatro estudios que buscaban responder distintos aspectos del tema.

En el estudio 1 participaron 200 personas. De los 16 titulares de noticias que se les personaron, ocho verdaderos y ocho falsos, se compartieron más titulares verdaderos (32%) que falsos (5%). Y allí vieron algo que ya era consistente con sus hipótesis: “los participantes con hábitos más fuertes compartieron más titulares”. También reportan que aquellos con hábitos más fuertes de compartir “fueron menos exigentes acerca de la veracidad de los titulares”. Las cifras hablan: quienes tenían hábitos fuertes compartieron un porcentaje similar de noticias falsas y verdaderas: 38% y 43% respectivamente. Quienes tenían hábitos más débiles, compartieron más titulares de noticias verdaderas (15%) que falsas (6%). Las personas con hábitos más débiles “fueron 3,9 veces más exigentes sobre la veracidad a la hora de compartir” que aquellas con hábitos más fuertes.

Ejemplos de titular verdadero (i) y falso usados en el trabajo.
Imagen: Ceylan et al.

Ejemplos de titular verdadero (i) y falso usados en el trabajo. Imagen: Ceylan et al.

Ya en ese estudio vieron algo también sorprendente: al analizar “la contribución de los usuarios muy habituados a la difusión de información errónea”, encontraron que “15% de los compartidores más habituales fueron los responsables del 37% de los titulares falsos que se compartieron”, por lo que dicen que “los usuarios habituales fueron responsables de compartir una cantidad desproporcionada de información falsa”. Si uno une lo que vieron, puede decir entonces que estas personas que crearon un hábito fuerte de compartir titulares a diestra y siniestra. Y tanto da que sean cosas verdaderas como bolazos. Lo importante, parece ser, es compartir. ¿Conocen a alguien que está todo el tiempo posteando y reposteando cosas? Tal vez tenga un hábito tan difícil de erradicar como el tabaquismo. Pero hay más.

En el estudio 2, teniendo en cuenta que “una posible explicación” es que “los que comparten habitualmente difunden información errónea sólo porque los hábitos fuertes limitan la atención a la veracidad” de los titulares, se propusieron ver si eso era así. Entonces reclutaron a 839 participantes que se dividieron en dos grupos. El primero debía, al igual que en el estudio 1, decidir compartir o no 16 titulares (ocho falsos y ocho verdaderos) y luego contestar si pensaban que eran ciertos o no. En el segundo, los pasos se invertían: primero debían evaluar si los titulares les parecían verdaderos o no y luego debían decidir cuáles compartían. Buscaban entonces ver “si resaltar la veracidad antes de compartir reduciría la difusión habitual de información errónea y aumentaría el discernimiento al compartir”.

Lo que encontraron fue que, como preveían y de acuerdo con el estudio 1, “los participantes fuertemente habituales continuaron compartiendo con sensibilidad limitada a la veracidad de los titulares” y compartieron 42% de los titulares verdaderos y 26% de los falsos. De todas formas, señalan que la “manipulación sobre la veracidad” fue “ampliamente efectiva”, ya que evaluar si el titular era falso o no antes “redujo que los participantes compartieran titulares falsos” (9% contra 13% de los que no los evaluaron antes de compartir), pero no que compartieran los verdaderos (25% y 27% respectivamente).

De todas formas, reportan además que “resaltar la veracidad resultó útil para reducir la difusión de información errónea, pero no entre los usuarios más habituales”, ya que “15% de los participantes con hábitos más fuertes fueron responsables de compartir una cantidad desproporcionada de información errónea: 39% en todas las condiciones experimentales”. Una vez más, encontraron un núcleo duro de propagadores de desinformación entre aquellas personas con hábitos más instalados.

En el estudio 3 pusieron a prueba todo la anterior relacionándolo con la visión partidaria: si es cierto que los que comparten más noticias lo hacen más por hábito que por discernir en especial cuáles, “entonces los usuarios habituales de las redes sociales pueden compartir titulares incluso cuando el contenido entra en conflicto con sus propias opiniones políticas”. En esta ronda participaron 836 personas online, que en lugar de enfrentarse a 16 titulares o falsos o verdaderos, fueron ocho liberales y ocho conservadores (aquí habría funcionado con ocho de un abordaje de izquierda y ocho de derecha). La mitad analizó esa mirada antes de compartir y la otra mitad luego. A su vez, los participantes debieron contestar en qué parte del espectro conservador-liberal se ubicaban (excluyendo a los 162 que dijeron ubicarse en el centro). Lo que reporta el trabajo es que “los participantes compartieron más titulares concordantes que discordantes con su propia posición política”, lo cual era esperable.

Pero, una vez más, también en este caso las personas con hábitos más fuertes de compartir repostearon más titulares. Y al respecto señalan que aquellos con hábitos más débiles compartieron más titulares concordantes (21%) que discordantes (3%). En el caso de los fuertemente habituados a compartir, los titulares concordantes reposteados treparon a 45%, pero, paradójicamente, también compartieron 16% de los discordantes. “Los usuarios fuertemente habituales mostraron menos sesgos partidistas en sus elecciones para compartir que los usuarios menos habituales”, dicen entonces. Y para enmarcar: “Por lo tanto, los usuarios habituales de Facebook no sólo comparten más información falsa (ver estudios 1 y 2), sino que también comparten más información inconsistente con sus propias creencias políticas”.

Pero tampoco es que se coman los mocos. Aclaran que es esperable que las personas altamente partidizadas “desarrollen el hábito de compartir información sólo de fuentes altamente politizadas” y reconocen que “los relativamente moderados titulares” que usaron en su estudio “no capturan esos patrones extremos”. Así y todo, dicen, sus “hallazgos revelan que compartir información errónea es parte de un patrón de respuesta más amplio de insensibilidad a los resultados informativos que resulta de los hábitos formados a través del uso repetido de las redes sociales”.

Pensando en la recompensa

En el cuarto y último estudio se propusieron ver qué pasaba con los mecanismos responsables de establecer esos hábitos. “Si los hábitos se desarrollan a través del aprendizaje instrumental a medida que las personas responden repetidamente a las recompensas (como me gusta y comentarios), entonces se pueden construir contextos en línea con diferentes contingencias de recompensa para crear diferentes hábitos de intercambio”, postulaban. Y entonces premiaron a los participantes en tres grupos de entrenamiento distintos: en uno los participantes fueron recompensados al compartir información que era falsa o al no compartir información verdadera; en otro, al compartir información verdadera y no hacerlo con información falsa, y en el restante grupo no se recompensó nada, oficiando de grupo control. Tras el entrenamiento, compartieron titulares o no pero sin recibir recompensa alguna.

Durante el entrenamiento observaron que “las recompensas fueron efectivas para cambiar los patrones de reposteo” de los participantes. Luego del entrenamiento, aquellos que fueron recompensados por no propagar titulares falsos o hacerlo sólo con los verdaderos “continuaron compartiendo más titulares verdaderos (66%) que falsos (24%)”. En el caso de los entrenados para compartir falsedades, siguieron compartiendo más titulares verdaderos (54%) que falsos (33%), mostrando así que “las contingencias de recompensa en las pruebas de entrenamiento crearon hábitos que se trasladaron a las pruebas sin recompensa cuando se instruyó a los participantes para que compartieran normalmente”.

Pero además encontraron algo que trae cierta esperanza. “Dado lo central que es la participación de los usuarios en el modelo de negocios de las plataformas, una nota importante para la aplicación es que nuestra intervención no redujo la frecuencia con la que los usuarios compartían”, sino que encima “aumentó el reposteo”. Por lo tanto, señalan que “las recompensas basadas en la veracidad pueden motivar a compartir información verdadera sin sacrificar la participación del usuario”.

Como segundo dato a resaltar, dicen que su intervención “impactó tanto a los usuarios habituales débiles como fuertes, los que son desproporcionadamente responsables de difundir información errónea en las plataformas sociales”.

¿Podemos entregarnos al hábito de esperar un mañana mejor?

El trabajo abre la puerta a otra batería de soluciones para enfrentar el problema de la desinformación. “Nuestros resultados destacan la importancia de la reestructuración de los sistemas de recompensas en las redes sociales para promover el intercambio de información precisa en lugar de material popular que llame la atención”, señalan a modo de ejemplo.

“Los algoritmos actuales se basan en la participación (es decir, me gusta, comentarios, acciones, seguidores) como una señal de calidad y clasifican el contenido con más me gusta en la parte superior de los feeds de los usuarios”, destacan. “Dado que los algoritmos que dan prioridad a la popularidad de la información reducen la calidad general del contenido de un sitio, es necesario eliminar la prioridad algorítmica del contenido de noticias no verificado”, proponen.

“Otra intervención útil podría basarse en la estructura y el diseño actuales de las plataformas de redes sociales para interrumpir el intercambio habitual de noticias o aumentar la fricción”, dicen, y destacan que se podría agregar “botones adicionales (por ejemplo botones de desconexión)” al de compartir, como también botones para hacer un chequeo rápido de veracidad, y de “omitir”, de forma de “interrumpir las respuestas automáticas que se activan cuando los usuarios están expuestos sólo a las opciones de dar me gusta y compartir”.

Termina afirmando que su trabajo muestra que “compartir no disminuye por alteraciones ligeras, como recompensar la difusión de información veraz”, y que “una solución integral podría interrumpir primero al grupo central de usuarios habituales y luego recompensar a todos los usuarios por compartir información precisa”.

En definitiva, como dicen en el título, no se trata sólo de gente holgazana o sesgada. Que las hay. No se trata sólo de gente que persigue borrar los límites entre lo veraz y lo falso. Que las hay. También hay que mirar el entorno que produce a los usuarios de las redes sociales. ¿Qué están premiando? ¿Qué están promoviendo? No cabe la menor duda, no hay tecnología neutra. Y lo que como sociedad dejamos pasar, nos termina pasando por arriba. Por lo pronto, nos queda siempre la alternativa de salir de la trampa. Y ayudar a salir a quien está con el hábito hasta el tuétano.

Artículo: Sharing of misinformation is habitual, not just lazy or biased
Publicación: PNAS (enero 2023)
Autores: Gizem Ceylan, Ian Anderson y Wendy Wood.