A partir de un encuentro con Pilar Rahola en Punta del Este, su presentación inspiró la siguiente nota: en tiempos en que la información abunda y el discernimiento escasea, el pensamiento crítico está siendo desplazado por una aparente neutralidad de la que ni Wikipedia ni la inteligencia artificial (IA) han venido a salvarnos.
Rahola fue directa: "Wikipedia es un saco de mentiras", no por exageración retórica, sino para advertir que lo que suele percibirse como una fuente neutral y confiable es, en realidad, un instrumento con dirección ideológica. Según señala, cada país tiene un “director” de Wikipedia, y ese rol no está exento de connotaciones políticas.
En vez de servir para abrir preguntas, Wikipedia muchas veces clausura el pensamiento. Su estructura participativa da una ilusión de neutralidad que no resiste un análisis riguroso: lo que se presenta como verdad enciclopédica es, con frecuencia, el resultado de un conflicto entre editores, grupos de presión y sensibilidades ideológicas. Sin una lectura crítica, ese consenso se toma como garantía de verdad, y el trabajo editorial se limita a reproducir en lugar de cuestionar, renovar o ampliar perspectivas.
¿Podemos confiar en Wikipedia como fuente neutral?
En la actualidad, muchas redacciones periodísticas construyen su política editorial sobre lo que dice Wikipedia, que ha pasado de ser una herramienta auxiliar a erigirse en fuente principal. Lo que debería funcionar como punto de partida se ha convertido en la Biblia informativa de una generación que confunde consenso con verdad y edición con objetividad.
Rahola no niega su utilidad, pero advierte que convertirla en autoridad definitiva es peligroso, ya que sus entradas —editables por personas con posibles agendas políticas— reflejan más los equilibrios de poder del momento que una genuina búsqueda de la verdad.
El peligro de perder el matiz
Tal vez el punto más importante que plantea Rahola sea el riesgo de perder la complejidad. En sus palabras: “Si ya nos cuesta ahora hacer complejo el pensamiento, con la inteligencia artificial nos va a costar más aún”. No se trata sólo de la verdad, sino de la capacidad humana de matizar, dudar, contrastar y cuestionar.
Pensar en profundidad requiere tiempo, contexto, contradicción y tolerancia al error. Pero nada de eso encaja en los parámetros de eficiencia algorítmica. La cultura del clic rápido, el resumen automático y la necesidad de producir respuestas inmediatas están desplazando ese espacio vital donde florecen las ideas: el pensamiento crítico.
Pensar en profundidad requiere tiempo, contexto, contradicción y tolerancia al error. Pero nada de eso encaja en los parámetros de eficiencia algorítmica.
Como diría Zygmunt Bauman, “hemos cambiado la conversación por el clic”, y, en lo que Bauman denominó “tiempos líquidos”, “el pensamiento crítico se disuelve: se vuelve inmediato, fragmentado y cada vez menos capaz de sostener los matices”.
IA: ¿corrección o amplificación de sesgos?
La IA entra a esta escena como nuevo árbitro de lo “verdadero”, pero en realidad opera en base a los datos con los que fue entrenada. "No existe la verdad pura, y la información pura tampoco existe", señala Rahola. El problema no es que las máquinas procesen información, sino que lo hagan a partir de sistemas ya condicionados por prejuicios, intereses o narrativas dominantes.
Si Wikipedia es un espejo distorsionado, la IA es una lupa que amplifica esa distorsión. Y lo hace con la legitimidad de lo automático, lo matemático, lo “neutro”. Pero la neutralidad, en contextos ideologizados, es una ilusión, y como toda ilusión, engañosa.
La IA, lejos de devolvernos complejidad, tiende a simplificar: está diseñada para ofrecer respuestas rápidas y funcionales, no para sostener la duda o fomentar la crítica. En esa eficiencia aséptica que se disfraza de progreso, lo que con frecuencia se sacrifica es el juicio humano. La IA no piensa: reproduce patrones. Y si esos patrones están sesgados, se validan con autoridad técnica en un entorno donde los matices no tienen el lugar que exige el pensamiento crítico.
El riesgo no es sólo que la IA nos dé respuestas equivocadas, sino que las dé con tanta seguridad que dejemos de preguntarnos si son correctas. Es el auténtico empobrecimiento del pensamiento: cuando el criterio cede ante la comodidad.
En este panorama, la advertencia de Rahola funciona como llamada de atención: no dejemos que sistemas opacos nos dicten lo que pensar. Wikipedia, la IA, los algoritmos de búsqueda y los resúmenes automatizados pueden ser herramientas útiles, pero nunca sustitutos del discernimiento personal.
Porque lo que define a una sociedad libre es su capacidad de pensar con autonomía, incluso, y sobre todo, cuando los consensos parecen inapelables.
Jimmy Baikovicius tiene un doctorado en Ingeniería Eléctrica, fue profesor universitario y actualmente es CEO de Ikatu, empresa especializada en automatización, A/V e IT, y partner global de Bang & Olufsen en desarrollo tecnológico. Dirige también las operaciones de Bang & Olufsen, Desigual y Brownie Spain en Uruguay.