La inteligencia artificial (IA) es mucho más que la inteligencia generativa que permiten los grandes modelos de lenguaje como ChatGPT, de Open IA, o Gemini, de Google, pero lo cierto es que, con estos últimos, la IA dejó de ser algo en lo que se trabajaba en ambientes académicos, empresas tecnológicas y círculos reducidos, para pasar a tener un uso masivo. Y así como su presencia ha inundado diversos ámbitos, la IA también se adentra en la educación. Y Uruguay no está ajeno a ello.
“La rápida expansión de la IA en diferentes aspectos de nuestras vidas ha generado la necesidad de preparar a cada estudiante para interactuar de manera efectiva con esta tecnología en constante evolución. En particular, en el ámbito educativo, se requiere un enfoque pedagógico que permita a cada estudiante comprender y utilizar la IA de manera crítica y creativa”, señala el documento Marco referencial para la enseñanza de la inteligencia artificial publicado por el Plan Ceibal en octubre de 2023. “El pensamiento computacional y sus competencias asociadas se han identificado como fundamentales para desarrollar habilidades cognitivas y metacognitivas necesarias para abordar los desafíos de la era digital. Asimismo, se busca fomentar una mentalidad abierta y adaptativa en cada estudiante, construyendo bases para enfrentar los desafíos y las oportunidades que la IA y la tecnología digital traen consigo”, agregaba ese documento.
El tema es de interés en todas partes. Pero dado que este “desborde” de la IA a diversas áreas es tan reciente, nos enfrentamos al desafío de avanzar en el uso y conocimiento de la IA en el mundo educativo sin que haya demasiados ejemplos que nos guíen sobre por dónde ir y por dónde no. A ese respecto, una reciente publicación en una revista internacional hace aportes que no sólo son de interés, sino que deben llenarnos de cierto, por qué no decirlo, orgullo.
Titulado algo así como “La IA puede revolucionar la educación, pero la tecnología no es suficiente: cuando el desarrollo humano se encuentra con la evolución cultural”, el trabajo fue publicado en el Journal of Human Development and Capabilities, algo así como Revista del Desarrollo Humano y de Capacidades, que se define a sí misma como una publicación “multidisciplinaria para el desarrollo centrado en las personas”. El texto lleva la firma de un equipo de investigadores, todos del Departamento de Ciencias Psicológicas y del Comportamiento de la Escuela de Economía y Ciencia Política de la Universidad de Londres, Reino Unido, y está liderado por Michael Muthukrishna.
¿Por qué el artículo podría llenarnos de orgullo? Porque sin ambages ni pelos en la lengua, Muthukrishna y sus colegas señalan que “ante la falta de estudios de caso específicos de IA a largo plazo, para ofrecer recomendaciones de políticas sobre lo que ha funcionado y lo que no”, se basan en tres ejemplos. Uno es el “caso exitoso de la revolución tecnológica impulsada por el programa Salto del Tigre en Estonia”; otro es el “caso fallido de Un Laptop por Niño” a escala global, mientras que el tercero es “el singular éxito del enfoque de Un Laptop por Niño en Uruguay”. Según los autores, “en conjunto, estos ejemplos revelan varias lecciones importantes para los responsables de las políticas públicas” sobre cómo llevar de la mejor manera la IA a las aulas. Así que veamos qué dicen al respecto de todo esto, sabiendo que, aunque a veces no consigamos verlo, aquí también hacemos cosas inspiradoras.
Tecnología que se impone
“La radio, la televisión, las computadoras, internet y las redes sociales transformaron la educación y la sociedad, pero la IA representa un cambio más radical que las tecnologías anteriores”, comienzan diciendo Muthukrishna y sus colegas, argumentando que, a diferencia de las demás, la IA “no se limita a transmitir información” ni se limita a “respaldar algunos aspectos de la cognición, como lo hacen las calculadoras, los procesadores de texto o los correctores ortográficos y gramaticales”. Claro está, aluden a la IA generativa y los grandes modelos de lenguaje, que “son participantes activos y agentes de la cognición misma” y, según dicen, se asemejan más a “un experto fácilmente accesible, si bien poco confiable, disponible en todo momento”.
Así las cosas, señalan que la cuestión no es ya “si los estudiantes van a usar la IA”, cosa que un relevamiento reciente muestra que 86% de estudiantes de 16 países ya la utilizan, sino más bien “cómo integrar la IA de manera que empodere a los estudiantes y educadores en lugar de limitar su capacidad de acción”. Desde la perspectiva del desarrollo humano de los autores, eso implica determinar “si la IA amplía las libertades reales de las personas para pensar, aprender y vivir las vidas que valoran”.
La idea en el trabajo es analizar el asunto desde la perspectiva que trabaja el grupo de investigadores, que es la de la “evolución cultural”. Esta mirada busca examinar “cómo se aprenden, adaptan y transmiten las ideas y las tecnologías en el contexto de las normas e instituciones sociales”. Desde este abordaje, “las innovaciones tienen éxito no sólo porque funcionan, sino porque encajan en una cultura y evolucionan a través de la adopción social”. La IA tendrá éxito en promover el desarrollo humano, sostienen, en tanto sea objeto de un proceso de “adaptación colectiva”. Y en lo que respecta a lo educativo, señalan que “el impacto de la IA en la educación debe evaluarse no por las capacidades de la tecnología, sino por las capacidades humanas que expande y el contexto cultural en el que se desarrolla”.
Pros y contras de la IA en el aula
“La llegada de la IA a los salones de clase trae consigo grandes promesas: tutorías personalizadas e individuales para cada estudiante, calificación automatizada que libera tiempo al profesorado, sistemas de tutoría inteligentes para identificar las brechas de aprendizaje y contenido adaptativo acorde a los intereses y niveles de cada alumno”, señalan. Ponen algunos ejemplos, como el de que en una clase de 30 estudiantes, la IA podría facilitar que hubiera 30 caminos de aprendizaje distintos, que cada uno avanzara “a su propio ritmo”. También presenta ventajas para las maestras, maestros y docentes: asistiéndolos, la IA “puede gestionar tareas rutinarias (como redactar comentarios o calificar pruebas) y analizar datos de desempeño de los estudiantes, lo que libera a los docentes para que se concentren en la tutoría y la instrucción creativa”.
Del lado positivo, entonces, la IA podría tener una “función como 'multiplicador de fuerza'” que “amplía el alcance de los educadores y deja el criterio profesional en manos humanas, mejorando idealmente la capacidad de los docentes para apoyar a estudiantes diversos”. También señalan que “al ampliar la libertad de cada estudiante para acceder al conocimiento, superando las barreras individuales, la IA tiene el potencial de democratizar el aprendizaje y ampliar las capacidades de estudiantes que, de otro modo, podrían quedar rezagados”.
Pero no todo es color de rosa. “A pesar de todas sus promesas, la IA en la educación también conlleva riesgos importantes que, si no se abordan, podrían limitar o incluso reducir las capacidades de los estudiantes y los docentes”, alertan Muthukrishna y sus colegas. Al respecto, señalan que hay tres preguntas clave: “¿Las prácticas impulsadas por IA protegen y mejoran la autonomía humana o la erosionan?”, si “¿promueven la equidad o exacerban las desigualdades?”, y finalmente, si “¿respetan la dignidad y la voz de estudiantes y docentes?”. Responde que “sin un diseño cuidadoso, la IA podría socavar la autonomía estudiantil”, poniendo de ejemplo si les da soluciones a las pequeñas y pequeños “como quien alimenta a un bebé con la cuchara”, o si “sesga hacia contenido basado en un conjunto de datos mayoritariamente occidental”, cosas que pueden “generar dependencia y moldear sutilmente valores, normas y aspiraciones”.
También apuntan a uno de los grandes problemas de la IA generativa: “La alucinación de información falsa es una nueva forma de la vieja preocupación acerca de fuentes poco confiables”, que dicen ahora que se agrava porque “provienen de una IA segura y autorizada”. Al respecto, recordemos lo que decía Luis Chirruzo, investigador de IA de la Facultad de Ingeniería de la Universidad de la República: “La idea de que la IA no falla nunca es una locura. La IA falla todo el tiempo, y es lo que tratamos de transmitir siempre. Esto es una herramienta más. No le crean a lo que responde ChatGPT, porque puede estar bien o puede ser cualquier cosa. Pasa, te dice cualquier cosa todo el tiempo”. Otro eje problemático refiere a la privacidad de los datos y la vigilancia de los y las estudiantes.
Asimismo, la IA también podría afectar negativamente a las y los educadores: “Una dependencia excesiva de la IA podría perjudicar al profesorado y, en última instancia, al aprendizaje, si los administradores la ven como una forma de reducir los costos de los educadores humanos”, dicen en el artículo. También puntualizan que la IA podría incrementar las desigualdades “si las tecnologías educativas de IA de vanguardia sólo llegan a escuelas con financiación suficiente y a países ricos”.
Dado este panorama, el equipo de investigación señala que las políticas educativas deberían apuntar a “implementar salvaguardas éticas, asegurar el acceso inclusivo (de forma que la IA no se convierta en un bien de lujo) y mantener el foco en el empodramiento humano (capacitando a educadores y estudiantes para utilizar la IA para sus propios fines, no para ser controlados por ella)”. Pero claro, está el problemita de que la tecnología avanza más rápido que las políticas.
“Hasta la fecha, no existen ejemplos de resultados a largo plazo para la integración de la IA en la educación, especialmente porque, incluso en los últimos seis meses, se han producido avances significativos en los modelos de base de vanguardia, lo que ha dejado obsoleta la investigación previa para describir las capacidades actuales de la IA en la educación”, dicen los autores. Y entonces es cuando citan los tres ejemplos, los casos exitosos de Estonia con su programa Salto del Tigre y de Uruguay con el Plan Ceibal, y el fracaso de la implementación en otras partes del programa Un Laptop por Niño. Vamos a eso.
Uruguay y su Plan Ceibal como modelo
Luego de dedicar un párrafo al caso de éxito de Estonia (que cubrirán los medios de prensa de ese país), el trabajo aborda un fracaso estrepitoso (que aquí sí cubrimos porque es el contraejemplo de lo que pasó con el Plan Ceibal).
“Un Laptop por Niño: Lecciones de una tragedia de la tecnología educativa” lleva por título ese apartado. Dicen que el programa “asumía que una computadora portátil barata y resistente potenciaría el aprendizaje en todo el mundo”, pero sostienen que “sin un enfoque centrado en el ser humano con apoyo para los docentes”, sin una coordinación con los “planes de estudio”, sin apoyo a “la infraestructura local” y sin apoyo de “software local”, lo que sucedió es que “se desperdiciaron miles de millones sin ningún beneficio educativo que mostrar”.
Es entonces que señalan que “la tecnología por sí sola no es suficiente”, para luego levantar nuestro ego: “La excepción exitosa a este amplio fracaso fue el Plan Ceibal de Uruguay, que compartía muchas características con el programa Salto del Tigre de Estonia”. Veamos qué dicen de nosotros.
“El Plan Ceibal de Uruguay consideró la computadora del plan Un Laptop por Niño tan sólo como un componente de un plan de expansión de capacidades a largo plazo”, que consistió en “construir infraestructura, capacitar a docentes, suministrar contenido local y seguir iterando bajo una agencia especializada, aislada de la agitación política”. También destacan que este “enfoque sistémico, centrado en el ser humano y con énfasis en la equidad” del Plan Ceibal, que contrasta con “el modelo de 'depositar hardware y esperar lo mejor'”, generó “avances mensurables en el aprendizaje, altas tasas de uso y una aprobación pública duradera, mientras que la mayoría de los demás proyectos de Un Laptop por Niño fracasaron”. Y como una buena o buen alumno al que el docente hace pasar al frente para mostrar su trabajo, Muthukrishna y sus colegas entonces dicen: “¿Qué podemos aprender de estos estudios de caso para orientar la IA global en las políticas educativas?”.
Qué hacer (y qué no) al incorporar la IA a la educación
Con base en los dos casos de éxito y el fracaso estrepitoso de Un Laptop por Niño, los autores desmenuzan tres “pasos en falso” que se deberían evitar: procurar no hacer énfasis únicamente en la tecnología, la idea de que “un talle único les calza a todos” (por ejemplo, dicen que las computadoras del programa Un Laptop por Niño “fueron diseñadas por ingenieros del MIT con una participación mínima de los educadores de los países que las recibieron”), buscando entonces la adaptación local, y por último, no pasar por alto las capacidades de infraestructura, soporte y desarrollo locales.
En el lado positivo de la balanza, hacen recomendaciones para implementar políticas, aclarando que “los encargados de formular políticas, los educadores y los desarrolladores tienen papeles que desempeñar” en todo esto.
La primera recomendación es “adoptar un marco de desarrollo humano”, apuntando a que “los ministerios de Educación deberían enmarcar explícitamente sus estrategias de tecnología educativa en torno a los resultados del desarrollo humano (por ejemplo, pensamiento crítico, creatividad, compromiso cívico, bienestar) en lugar de simplemente en torno a la implementación y adopción de tecnología”. Para ello proponen que se fijen metas, como que la IA se utilizará “para personalizar el aprendizaje y garantizar que cada niño adquiera habilidades fundamentales y confianza” o “para liberar tiempo de los docentes para la tutoría y el apoyo socioemocional”, en lugar de metas como “20.000 escuelas ahora tienen acceso a ChatGPT Educativo”.
Otra de las recomendaciones es “asegurarse de que el acceso equitativo” a estas tecnologías sea “no negociable”, y señalan que “los gobiernos deben tratar la infraestructura digital (dispositivos, conectividad) y el acceso a la IA como componentes esenciales del derecho a la educación en el siglo XXI”. También hacen énfasis en “desarrollar la alfabetización en IA y las capacidades docentes”, aclarando que “contrariamente a la percepción común de que la integración de la IA reduce la demanda de docentes”, su postura es que “los docentes son un canal necesario para promover la adopción segura, ética y eficaz de la IA”.
Para cerrar el trabajo, puntualizan que “la IA tiene el potencial de revolucionar la educación, pero sólo si está guiada por un enfoque centrado en el ser humano, con oportunidades para personalizar el aprendizaje, apoyar a los docentes y ampliar el acceso”. Llaman a que “los decisores de políticas” actúen “con rapidez para garantizar que la IA fortalezca las capacidades, en lugar de debilitarlas”, y reconocen que “las innovaciones en IA avanzan más rápido que las innovaciones en políticas, por lo que hay mucho en juego, pero también hay un gran potencial”. El Salto del Tigre de Estonia y el Plan Ceibal de Uruguay les dan esperanzas para ser optimistas.
Artículo: “AI can revolutionise education but technology is not enough: human development meets cultural evolution”
Publicación: Journal of Human Development and Capabilities (junio 2025)
Autores: Michael Muthukrishna, Jiner Dai, Diana Panizo, Riya Sabherwal, Karlijn Vanoppen y Hanying Yao.