La publicación, a comienzos de abril, del informe Aristas 2018 del Instituto Nacional de Evaluación Educativa (Ineed) dejó en evidencia un asunto sobre el que reflexionamos poco: buena parte del tratamiento mediático y político que se hace de la información producida por las evaluaciones educativas tiene efectos muy negativos en la discusión pública sobre nuestra educación. Muchos de estos abordajes, en lugar de mejorar el debate, lo empobrecen. En lugar de dar cuenta de la complejidad de los temas, producen simplificaciones maniqueas que llevan agua para algún molino. Veamos dos ejemplos en relación con el tratamiento que se le dio en los días pasados al último informe del Ineed. El primero es un ejemplo de distorsión; el segundo, de omisión.

1) La primera nota sobre el tema la publicó El Observador el 2 de abril con el titular: “El 80% de los estudiantes de educación media no entiende lo que lee”. De inmediato, el mismo 2 de abril, Pablo Mieres, actual ministro de Trabajo y director de Educación del Ministerio de Educación y Cultura entre 1995 y 1996, publicó en su cuenta de Twitter el siguiente comentario: “En medio de la emergencia sanitaria corremos el riesgo de no valorar la tremenda significación que tiene el dato del informe Aristas de @ineed_uy que dice que el 80% de los estudiantes de 3er año de liceo tiene dificultades para sacar conclusiones de la lectura. Terrible”. Unos días después, El Observador cambió el titular por el que figura actualmente en la noticia: “El 80% de los estudiantes de 3o de liceo tiene dificultades para hacer inferencias sobre lo que lee”. Otros medios dieron a entender lo mismo, y una multitud de comentaristas propagó la información de que el 80% de los estudiantes de 3o de liceo no puede hacer inferencias sobre lo que lee o, lisa y llanamente, como afirma el primer titular de El Observador, “no entiende”.

Lo cierto es que ambas variantes del titular contienen una afirmación totalmente equivocada, que no puede inferirse (dicho sin ironía) del informe Aristas. El 3 de abril, el propio Ineed se vio en la necesidad de publicar una aclaración en su cuenta de Twitter: “Queremos aclarar que es incorrecto decir que el 80% de los estudiantes que participó de #AristasMedia no comprende los textos que lee. Todos los estudiantes poseen un nivel de comprensión lectora de los textos presentes en la prueba. Además, los tipos de lectura descriptos en la evaluación (literal, inferencial y crítica) no se identifican con un nivel de habilidad de #AristasMedia. Por ejemplo, las habilidades de lectura inferencial cruzan todos, desde el 1 al 6”.

Es difícil entender cómo pudo generarse la confusión de El Observador. Pero, en cualquier caso, llama la atención que en una escala de seis niveles hayan tomado como medida de suficiencia los niveles 5 y 6. El informe de Ineed no define cuál es el nivel de suficiencia, ya que esto es competencia de la Administración Nacional de Educación Pública, pero los descriptores de los niveles 5 y 6 refieren claramente a niveles de excelencia (por ejemplo, si uno compara estas habilidades con las descripciones de los niveles más altos de PISA). Es decir que, para afirmar que cerca del 20% de los estudiantes se encuentra en niveles muy avanzados o de excelencia, El Observador tituló que el 80% de los estudiantes no entiende lo que lee. Parafraseando a Mieres: terrible.

2) En la presentación del informe, comentando los resultados de la prueba, el presidente del Consejo Directivo Central, Robert Silva, anunció su preocupación por los resultados de matemática de los estudiantes de Formación Profesional Básica (FPB) y señaló la necesidad de repensar ese programa. Esta afirmación nos sirve para destacar un aspecto del informe Aristas que llamativamente brilló por su ausencia en los abordajes mediáticos: el hecho de que la prueba de matemática aplicada a los estudiantes de FPB no contempló los contenidos de su formación en la materia. Dice el informe Aristas en la página 249: “Es importante tener en cuenta que el programa de matemática de formación profesional básica no fue tomado en consideración durante la elaboración del marco de la prueba (Ineed, 2017b). En consecuencia, el 19,1% de los ítems respondidos por sus estudiantes aborda temáticas que no están incluidas en el programa de matemática de este tipo de curso”.

Buena parte del tratamiento mediático y político que se hace de la información producida por las evaluaciones educativas tiene efectos muy negativos en la discusión pública sobre nuestra educación.

Probablemente, el programa de FPB requiera una evaluación en profundidad y una revisión crítica de varios de sus componentes. Para esa evaluación, como para cualquier otra, además de pruebas de aprendizajes, sería bueno acudir también a metodologías, saberes y preguntas (como la sistematización de experiencias junto con docentes y estudiantes y otros abordajes pedagógicos) que han sido desplazados por el peso de la estadística educativa, la oposición inclusión/calidad como marco único del debate educativo y el lenguaje de la planeación como gramática que despliega una racionalidad eficientista que lo ocupa todo, desplazando las preguntas sobre el sentido de la educación. Para todo esto, no es un buen punto de partida que en la prueba de aprendizajes en matemática a los estudiantes se les aplique un cuestionario que no se corresponde con el currículo que cursaron. Esto les quita consistencia a las conclusiones en esa materia, pero, al mismo tiempo, les da un efecto de verdad. El propio informe del Ineed advierte al lector sobre ese desacierto metodológico, pero ningún medio lo notó.

Si El Observador lo hubiera notado, no habría terminado su comentario sobre los resultados en matemática con el siguiente pasaje: “En resumen, los estudiantes de liceos privados tienen ‘desempeños en promedio más amplios que los que asisten a liceos públicos, que a su vez tienen mejores desempeños promedio que aquellos que asisten al ciclo básico tecnológico’”. La primera parte de esta oración contiene una comparación parcial y descontextualizada que lleva al lector a una conclusión equivocada, ya que –como vimos– los resultados en matemática están comprometidos por el hecho de que a planes como el de FPB se les aplicó una prueba que no contempla su currículo casi en el 20%. Si se observa qué sucede en la prueba de lectura, se constata que se mantiene la evidencia histórica, incluida PISA, de la inexistencia de diferencias entre los centros públicos y los privados una vez controlado el contexto (y sin considerar aspectos como el gasto por estudiante). Así, en la misma nota, El Observador desliza como ciertas dos afirmaciones que no lo son, llevando al lector a sacar conclusiones equivocadas.

Hasta el momento, El Observador no publicó ninguna aclaración. Tampoco lo hizo el ministro Mieres, cuyo tuit se compartió cientos de veces. Así se produce y se propaga la idea del “desastre de la educación pública”, una idea que ha cobrado tanta fuerza que cualquier noticia que la confirme es tomada por cierta, aunque sea un dislate, como la nota de El Observador o el comentario del ministro.

Buena parte de la ideología educativa del nuevo gobierno se basa en la premisa de que la educación privada es (o, su equivalente, funciona) mejor que la pública. Se trata de una premisa netamente ideológica, sin sustento en la realidad, aun si suponemos que las pruebas estandarizadas son instrumentos suficientes para dar cuenta de los fenómenos educativos en su complejidad, su multiplicidad, su historicidad y su movimiento, algo que ni el más entusiasta estadístico educativo se atrevería a afirmar. Sin embargo, el tratamiento mediático y político que reciben estas evaluaciones produce un efecto de totalidad: la educación es aquello que estos informes dicen (incluso el informe Aristas, además de las evaluaciones de desempeño, contiene otros estudios que evidencian fortalezas de la educación pública, pero estos no son comentados por los medios). En este marco, la reducción de los problemas educativos a las mediciones de desempeño, junto con la publicación de titulares engañosos y su propagación por voceros que ocupan lugares de referencia, construye una percepción negativa de la educación pública, funcional al paquete de medidas que el gobierno comienza a impulsar por medio de la Ley de Urgente Consideración.

Los dos ejemplos reseñados muestran que algunos abordajes mediáticos y políticos son una parte activa del problema de la educación que no se suele visualizar. Mucho menos se reflexiona sobre sus efectos negativos en varios planos. Quizá necesitamos una Agencia de Evaluación del Tratamiento Mediático de la Información Educativa.

Agustín Cano es licenciado en Psicología por la Universidad de la República y doctor en Pedagogía por la Universidad Nacional Autónoma de México.