A esta altura dejó de ser novedad que la inteligencia artificial (IA) generativa está –y seguirá– produciendo disrupciones en el relacionamiento entre los seres humanos y la tecnología. Esta situación ocupa y preocupa a gobiernos y organizaciones de distintas partes del mundo, y el tema también está presente en la agenda de organismos internacionales.

Cristóbal Cobo es actualmente especialista sénior en Educación del Banco Mundial y tiene una amplia trayectoria de investigación en tecnología e innovación educativa, por ejemplo, como investigador asociado en el Instituto de Internet de la Universidad Oxford. En Uruguay fue director y fundador del Centro de Investigación de la Fundación Ceibal, responsabilidad que desempeñó entre 2014 y 2019.

Cobo fue uno de los principales expositores del congreso regional sobre IA en la educación que en octubre organizaron Ceibal y el Banco Mundial, con apoyo de Unesco. El especialista conversó con la diaria sobre los usos adecuados e inadecuados de dicha tecnología en la educación, pese a que advierte que todavía no hay evidencia suficiente para sacar conclusiones tajantes.

¿Cuál es el margen de acción que tiene el sistema educativo para que los seres humanos sigamos desarrollando nuestras habilidades más importantes, con los cambios que la IA generativa puede ocasionar a nivel cognitivo?

Lo primero que hay que decir es que hay poquísima evidencia sobre el impacto de la IA en los procesos cognitivos, es muy temprano. Cuando hablamos de IA es un conjunto de tecnología, entonces, la IA que uso para irme del punto A al punto B en el Google Maps es muy distinta a la que tomo para dar un prompt [instrucción de texto que se le da a una herramienta de IA]. Todas caben bajo el paraguas de la IA, pero son muy distintas. Cuando hablamos de generativa, que es donde está la principal atención hoy día, dado que es una tecnología que tiene dos añitos desde que se popularizó, lo que yo he visto hasta ahora son estudios con casos cualitativos, pequeñas muestras, no hay evidencia para decir lo que está muy bien y dónde falta camino.

Poniendo esa base, en la que todavía hay información imperfecta para entender esto, creo que la discusión que hoy se está dando, que todavía es una discusión en construcción, del debate de la educación respecto de la IA, debe centrarse menos en los outputs [productos que genera la IA] y más en los procesos cognitivos que acompañan su uso. Tanto para los procesos de enseñanza como de evaluación, eso significa pensar más cómo construyo el conocimiento y no solamente en el producto final. El producto final es hoy día un commodity, aprieto un botón y lo tengo. Cómo llegué ahí, qué decisiones tomé, qué cosas discriminé, cuáles son las limitaciones que entendí antes de usarlo: si vamos por ese camino nos va a ir mejor que si solamente pensamos en que todo ahora se puede tercerizar a este segundo cerebro.

Eso inevitablemente lleva a que los docentes tengan que tener por lo menos un conocimiento básico de cuáles son las principales herramientas y los principales usos que hace la sociedad, y en concreto los estudiantes.

Yo creo que sí, pero no se me ocurre una profesión que hoy en día pueda decir que está totalmente ajena a ese reto, es algo que les pasa a todas las profesiones. Al dentista le pasa para hacer análisis de la dentadura y al abogado le pasa para hacer una primera revisión de los contratos. Si no hay capacidades básicas en el docente para poder navegar en esto, va a ser un obstáculo. Ahí hay enormes retos detrás de cómo asegurarse que eso pase. Creo que sabemos que no va a pasar de la noche a la mañana y sabemos que tampoco va a pasarles a todos los profesores con el mismo nivel de interés, entonces, hay un buen diseño que hacer para ver cómo generar esto.

Has dicho que una de las preguntas clave es cuándo sí y cuándo no usar la tecnología. ¿Cuándo sí y cuándo no usar la IA como apoyo al docente, ya sea para la planificación o para el resto de sus tareas?

A medida que va madurando nuestra relación con la tecnología, hemos entendido que tenemos que ser más estratégicos en cómo invertimos el tiempo, la atención y el uso de esta herramienta. En este contexto, volviendo a lo que dije antes, en el que la evidencia es muy temprana, yo soy más amigo de la idea de poner tecnología a disposición del docente para apoyarlo en sus diseños de lecciones, en su preparación, en explorar buenas estrategias, que en poner la tecnología a disposición de los estudiantes sin supervisión.

Lo primero que se me viene a la cabeza con la pregunta es que en niños pequeños, en edades tempranas, sin haber demasiada evidencia, yo sería híper cauteloso de animarse a hacer esto. Sí se puede hacer en entornos controlados, por ejemplo, un laboratorio de experimentación donde hay un docente, un padre o un tutor, y si el output que nos sale de la IA no está bueno, hay alguien que oriente. No es lo mismo para los profes, con los docentes creo que sí vale la pena, con un poquito menos de temor y controles, abrir la cancha para hacer experimentación, para probar. A priori, quizás mañana cambie, pero hoy me gusta pensarla más como una herramienta a disposición de los docentes que de los niños.

Una de las cosas que a veces se mencionan como una fortaleza o una potencialidad de la IA para el apoyo al docente es la atención de la inclusión educativa de estudiantes con trastorno del espectro autista o alguna discapacidad. ¿Estás de acuerdo con que puede ser un punto de apoyo en esa área?

Te doy un ejemplo. Hasta hace muy poco tiempo, más o menos 36 meses, había una aplicación para las personas no videntes que sacaban el celular, conectaban el lugar en el que se encontraban y esa app se conectaba con un voluntario que tenía acceso a la cámara y le decía: estás en el ascensor, un poquito más arriba, ahí está el botón, apriétalo. Era un humano que veía y asistía a la persona, lo mismo para tomar un avión y lo mismo para subirse al ómnibus. Hoy la guía por suerte ya la hace [la herramienta de IA] Computer Vision, ese es un cambio enorme, porque antes había que tener un humano, aunque fuera remoto. Lo mismo al traducir un video en texto o poner un tema de un idioma a otro y ponerle subtítulos. Cambió absolutamente. Para estos casos cambiaron brutalmente las oportunidades con una tecnología que, bien utilizada, puede ser súper amigable para ampliar potencialidades a personas con capacidad limitada.

Si el estudiante entiende las bondades, pero también las limitaciones de esta herramienta, vamos por buen camino.

¿De qué manera hay que ir adaptando los procesos de evaluación a las posibilidades de la IA generativa, sobre todo de texto?

En general, mi lectura es que la evaluación es una de las áreas en las que ha costado más traer innovación. Es mucho más fácil traer innovación en el libro de texto, en los programas de formación, pero la evaluación es una zona que es bastante más resiliente a los cambios. Dicho eso, creo que vale la pena que los docentes tomen una serie de decisiones antes de hacer la evaluación en función de si quieren o no que se utilice IA. Si no quiero, probablemente voy a tener que cambiar las maneras de siempre, por ejemplo, poner un ejercicio presencial, un examen oral o pedirles a los chicos que graben un podcast. Ejercicios en los que es menos probable que yo descanse mi ejercicio cognitivo en un tercer cerebro o en una IA. Si yo como profe quiero experimentar, también tienen que cambiar las reglas de juego: tengo que decir cuáles son los objetivos pedagógicos, qué tipos de herramientas de IA quiero que utilicen, les puedo pedir o no que transparenten qué prompts utilizaron para la construcción, por ejemplo, de un texto. Quizás les puedo decir qué herramientas quiero que no utilicen o por qué decidieron utilizar una frente a otra.

Bajo esa lógica, el énfasis está en el proceso y no en el producto. El producto me importa poco, porque en verdad si yo no entendí cómo llegaste ahí, no me sirve de mucho que me pases un texto de diez páginas, porque no tengo idea de cómo llegaste a eso. Pero si me pasaste un texto y me dijiste cómo llegaste ahí y qué decisiones tomaste, entonces, me parece más interesante.

Otro ejemplo, algunos docentes les piden a los estudiantes que lean un texto. Asumiendo que lo leen, les piden que escriban en una página lo que entendieron. Segundo ejercicio: después les piden que lo discutan en clase, y por ahí cosas que el chico no vio las ve en el debate. Y después de ese ejercicio le hacemos la misma pregunta a ChatGPT y comparamos los tres estadios: conocimiento individual, conocimiento colectivo y conocimiento tercerizado. Ahí obviamente lo que menos me interesa es lo que leyeron, lo que quiero mostrar es cómo distintas instancias de producción de conocimiento van a tener outputs diferentes. Ahí yo creo que hay un enorme valor, porque si el estudiante entiende las bondades, pero también las limitaciones de esta herramienta, vamos por buen camino. Si solamente lo vemos como un acelerador de outputs o para que yo me ahorre la desagradable tarea de tener que pensar, no estamos cumpliendo la experiencia de aprendizaje.

¿Cómo ves la presencia y la discusión de este tema en los sistemas educativos de América Latina y en particular en Uruguay?

Para responder esa pregunta hay que entender que la educación siempre navega en dos velocidades. Navega a la velocidad de tratar de ponerse al día con los cambios que están ocurriendo, preparar a los jóvenes para el siglo XXI y para un mundo que tiene un montón de complejidades medioambientales; pero, al mismo tiempo, haciéndose cargo de traer la historia de la que venimos, entender por qué somos como somos, la cultura. Esa es una tensión permanente: ir hacia adelante y no deshacernos del pasado. Si vamos muy rápido, los que quieren no perder las raíces no están conformes, y si pasa al revés pasa lo mismo.

Segundo, el cambio tecnológico va mucho más rápido que la capacidad de adaptación de los sistemas educativos, y, tercero, muchos de los detonadores de estas transformaciones tecnológicas no ocurren en nuestra región. Entonces, somos segundos o terceros adoptantes. Todo eso hace que haya un poco de divorcio entre estas oportunidades tecnológicas y cuánto pueden permear en los sistemas.

Suena como que estoy haciendo justificaciones, pero lo que es interesante es que este tipo de tecnologías no entraron por un plan nacional estratégico. Entraron en los bolsillos de los estudiantes. Aunque el ministerio nunca dijo nada, el estudiante fue y lo probó, porque un amigo le dijo que estaba buenísimo para determinado uso. Lo que han tenido que hacer los sistemas es primero educarse a sí mismos, entender qué está pasando, poner las alertas. En los últimos dos años en América Latina también se realizaron muchas publicaciones de principios, valores éticos, cómo construir los cimientos de la casa. Está buenísimo y es muy importante, pero al docente no le alcanza para entrar a la clase al día siguiente y menos para evaluar.

Después de decir que esta tecnología hay que usarla con cuidado, dar las orientaciones, capacitar, viene la puesta en marcha: preguntarse cómo esto entra al aula: ¿vamos a promover todas las tecnologías o vamos a hacer algunas zonas seguras? Lo que estoy viendo es que hay grupos innovadores, grupos experimentales dentro de los colegios, dentro de las ciudades, pero no es una cuestión homogénea. Lo que permiten eventos como el que se organizó en Montevideo en octubre es pasar de la innovación bottom-up a una innovación que también sea top-down, es decir, que los sistemas aprendan, que los países se enseñen entre ellos y vean que hay que construir más evidencia, hay que formar a los docentes y dar orientaciones. Si un docente o un estudiante se encuentra con un problema, con una situación incómoda o no apropiada, alguien tiene que estar ahí disponible para ayudar.

Por último, quizás un poco más ambicioso es pensar en lo que están haciendo, por ejemplo, los coreanos: decir que van a cambiar hasta el libro de texto y va a tener IA. Esa parte de la discusión es bonita y es importante, pero hoy tenemos tareas mucho más básicas: asegurar que esta no sea una herramienta que amplifica inequidades. Muchas veces nos ha pasado que los nuevos cambios tecnológicos benefician más a los que ya están mejor preparados. Todo el mundo dice que la herramienta tiene un lado buenísimo, que puede ser una herramienta para apoyar, asistir, pero si esto corre por generación espontánea, se nos va a quedar un montón de gente, que ya estaba un poco fuera.

¿Qué rol y qué límites tienen los países y las políticas públicas para definir medidas cuando estamos hablando de plataformas que son totalmente privadas y transnacionales?

Aquí tenemos esta compleja relación entre el individuo y la enorme coalición de empresas tecnológicas que trabajan de una manera que nosotros no entendemos, no vemos, muchas veces no hay que pagar una tarifa, pero hay que pagar con tu atención o con tus datos. Esa tensión existe en casi todas partes. En los marcos europeos existen grandes regulaciones, pero siempre es a nivel macro y eso está buenísimo que exista, pero al docente de aula no necesariamente le resuelve los problemas. Experiencias como Ceibal al final se convierten en una especie de mini broker entre el usuario final y la gran corporación tecnológica. Cuando hay abusos, usos inapropiados o usos que demandan ajuste, es súper importante que haya entidades intermediarias que son técnicamente expertas, que pueden convocar inquietudes y presentarlas a estas empresas.