Entre el asombro, el descrédito, el miedo y la desconfianza, la inteligencia artificial (IA) generativa ha ocupado cada vez con más frecuencia conversaciones e intercambios en los centros educativos. Desde su explosión en 2023, esa tecnología preocupa y ocupa a docentes y tomadores de decisiones de todo el mundo, que se desvelan por tratar de minimizar los riesgos que supone y de maximizar el potencial de la herramienta.

Fengchun Miao es jefe de la Unidad de Tecnología e IA en Educación en el Sector de la Educación de la Unesco en París y recientemente visitó Uruguay, en donde participó en el congreso regional sobre IA en la educación que en octubre organizaron Ceibal y el Banco Mundial, con apoyo de la Unesco, entre otros organismos. Entrevistado por la diaria, el también docente en la Universidad Normal de Beijing habló sobre los principales efectos que trae y traerá la IA generativa en el vínculo de los humanos con el conocimiento.

Precisamente, una de las áreas en las que se especula con que podría tener un impacto importante es el lenguaje, sobre todo porque a partir del auge de herramientas como ChatGPT se cayó en la cuenta de que estas plataformas pueden hacer producciones de texto muy similares a las elaboradas por seres humanos. El posterior desarrollo de la IA hace que hoy ya pueda decirse lo mismo de audios, imágenes y videos.

Consultado al respecto, Miao aseguró que la IA generativa es “la primera generación de IA”, ya que la tecnología continuará evolucionando. En ese sentido, planteó que, para alterar nuestro vínculo con el lenguaje, primero debe empezar por el pensamiento “de orden inferior” o más sencillo, que tiene que ver con la memorización del conocimiento, algo que ya hacen las herramientas de IA. Sostuvo que el siguiente paso es el de comprender el conocimiento.

Al respecto, el experto planteó que en materia de memorización la IA ya les sacó varios cuerpos a los seres humanos, que no pueden ni acercarse a la cantidad de datos que es capaz de almacenar esa tecnología. Respecto de la comprensión del conocimiento, planteó que la IA es capaz de analizar e interpretar textos y que puede apoyar a las personas en esa tarea y, por lo tanto, en el desarrollo del pensamiento.

Por eso, a Miao le gusta referirse a la IA como “un supercargador del procesamiento de la información” y del lenguaje, en el mismo sentido en que lo plantea la Guía para el uso de IA en educación e investigación. “Está actuando cada vez más como un punto de partida para el procesamiento del lenguaje por parte de los humanos. Tendrá un impacto muy profundo. Hasta ahora no se cuenta con un seguimiento sistemático y detallado del impacto, nadie puede juzgar hasta qué punto y con qué profundidad afectará nuestra relación con el lenguaje”, analizó.

Otro de los términos clave para hablar de esta tecnología es “transformador”, según planteó. De hecho, recordó que, de acuerdo con la sigla en inglés, GPT quiere decir “transformador generativo preentrenado”. En ese sentido, explicó que eso significa que la IA generativa “puede ayudar a los humanos a confiar en la información que reciben”, es decir, en lo que llama “reproducción simbólica”. Según amplió, eso incluye el lenguaje en sus distintas formas, pero también otros formatos como el de la imagen e incluso el lenguaje de programación informático.

Miao señaló que la IA ya ha superado a los humanos en su capacidad de detección de distintos tipos de patrones o anomalías en grandes volúmenes de información y, por ejemplo, es algo que ya vienen incorporando los programas de procesamiento de texto como Word. Por eso, aseguró que ya se ha convertido en un importante “discriminador”. De hecho, cuando genera distintas producciones, esta tecnología se basa en mecanismos discriminadores para diferenciarse de producciones humanas, que con el paso del tiempo se van desarrollando.

Si bien Miao afirma que no puede decirse cuál será el impacto a largo plazo de estos cambios, considera que puede hacer que los humanos se dediquen al pensamiento “de orden superior”, que consiste en los procesos más complejos. En materia educativa, considera que esto llevará necesariamente a hacer ajustes, sobre todo de lo que se pide a los estudiantes y cómo se evalúa. “Es posible que necesitemos pedirle a un estudiante que haga un pensamiento más analítico y crítico sobre el idioma, y tener un tipo diferente de metodología de evaluación del aprendizaje”, señaló.

El rol de los sistemas educativos

Cuando se piensa en el impacto de la IA en los procesos educativos, la mirada pedagógica a menudo está ausente del debate. En ese sentido, Miao aseguró que las preguntas que los sistemas educativos deben hacerse tienen que ver con los resultados de aprendizaje de los estudiantes. Por lo tanto, planteó que si las herramientas tecnológicas se van fortaleciendo, deben ser consideradas en función de la manera en que puedan fortalecer el vínculo de los estudiantes con los aprendizajes.

En particular, señaló que ya hay un camino trazado sobre cómo pueden intervenir en la adquisición de habilidades de un orden más básico, tanto lingüísticas como matemáticas o artísticas. Respecto de estas últimas, ilustró que no se refiere al desarrollo de la imaginación o del trabajo artístico innovador, sino, por ejemplo, a hacer dibujos sencillos o la réplica de una obra famosa.

Eso lo lleva a pensar que es necesario “redefinir el resultado del aprendizaje” esperado. Según Miao, más que listar habilidades para que niños y jóvenes desarrollen, en ese proceso se vuelve importante preguntarse “por qué necesitan hacer eso”. En términos más concretos, señaló que en una tradicional prueba de 100 puntos es pertinente preguntarse cuántos puntos se dirigirán al desarrollo de habilidades y conocimiento de orden inferior y cuántos al de las de orden medio y superior.

De acuerdo con el especialista, otra de las preguntas fundamentales que deben hacerse los sistemas educativos en este tipo de procesos es “cuál será el aprendizaje a nivel social y emocional” al que se apunta. En consecuencia, eso implica a su vez cuestionarse acerca de cuál será el componente de la actividad pedagógica que no esté basado en la IA. Según completó, una de las preguntas más relevantes a hacerse es “cuándo no se debe usar la IA”.

“La educación no es sólo aprender conocimientos. La educación, en primer lugar, es una interacción humana”, aseguró. Por lo tanto, considera fundamental interrogarse acerca de cómo, desde las aulas, es posible desarrollar el valor de las personas en ambos planos. Al respecto, agregó que muchos especialistas coinciden en que la IA no es fiable cuando se trata de la detección y el juicio de las emociones humanas y de características sociales de las personas.

Para Miao, también es necesario superar la idea de que la IA viene a suplantar a los docentes y, en esa línea, se requiere pensar de qué forma puede “ayudarlos a enseñar mejor, a monitorear y a interactuar mejor con sus estudiantes”. Además, planteó que se necesita “pensar profundamente cómo la IA realmente puede ayudar a los estudiantes a profundizar su comprensión del conocimiento”. Completó la idea diciendo que se debe apuntar a que los estudiantes puedan apelar a estas tecnologías para obtener un aprendizaje “más basado en la investigación, en proyectos, en tener un pensamiento crítico” y también en “ayudar al desarrollo de su creatividad”.

En este sentido, comentó que la empresa OpenIA, propietaria de ChatGPT, recientemente anunció que lanzará una herramienta que ayudará a las personas a razonar. Según dijo, será necesario plantearse si eso será así y de qué forma podría aportar en los procesos educativos formales.

Hacia un uso ético de la IA

En el pensamiento de Miao sobre el tema toma especial relieve la dimensión ética en el uso de la IA, sobre todo en la educación. Consultado al respecto, afirmó que los estados deben crear regulaciones en dos planos. El primero es de carácter general y debería apuntar a que todas las personas puedan utilizar herramientas de IA generativa de forma segura fuera de las escuelas.

El segundo apunta a lo que ocurre dentro del sistema educativo. Si bien allí también son necesarias las regulaciones, se requiere un papel más activo a la hora de pensar qué herramientas deberían estar en los centros. En ese sentido, dijo que dichas herramientas se introducirán con fondos públicos y como ejemplo mencionó lo que hace Ceibal en Uruguay.

“Con este fin, el gobierno debe establecer las regulaciones para los desarrolladores para garantizar que toda la IA que llegue al mercado esté auditada y validada”, sostuvo, y planteó como un modelo a seguir el de la Organización Europea de Ciberseguridad (ECSO, según su sigla en inglés). Al respecto, contó que esa institución clasifica a las herramientas de IA a partir de cuatro niveles de riesgo.

Según amplió, las que se ubican en la categoría de “riesgo inaceptable” directamente están prohibidas y “nunca deberían llegar al mercado”. En el caso de que alguna esté operativa, debería ser cerrada o bloqueada de inmediato. Luego se listan las herramientas con riesgo alto, limitado y mínimo.

Respecto de esa última categoría, Miao planteó la importancia de que las herramientas tengan validación, algo especialmente importante al pensar en su introducción en el sistema educativo, por ejemplo, mediante su instalación en los dispositivos con los que trabajan los estudiantes. En ese sentido, planteó que la validación debe incluir el detalle de los puntos fuertes y las debilidades de cada herramienta, así como una valoración general en la que se indique por qué la tecnología debería emplearse en el sistema educativo o por qué no debería hacerse.

“Cuando se trata del aula, desde la Unesco promovemos que debemos ayudar a docentes y estudiantes a comprender el conocimiento, las reglas y la práctica relacionados con el acompañamiento de la IA. Entonces, deberíamos comenzar con la promoción de los siete principios de ESCO para que todos los comprendan; por ejemplo: la IA nunca debe violar los derechos humanos, debe respetar la dignidad humana, debe proteger la agencia humana, debe proteger nuestra cultura y diversidad lingüística y no debe tener un impacto muy significativo ni negativo en el medioambiente”, planteó el experto.

Según Miao, además de la “internalización” de esas nociones, también se debe dotar a los actores del sistema educativo de “habilidades muy prácticas sobre cómo pueden proteger su seguridad” y también “respetar la seguridad de otras personas”. Como otro ejemplo, planteó la importancia de dar herramientas para que estudiantes y docentes sepan “cómo pueden utilizar el contenido generativo de IA respetando los derechos de autor de otras personas”. En conclusión, hizo hincapié en que puedan “hacer un uso seguro y responsable” de la tecnología.

El experto también marcó la relevancia de que los individuos aprendan a “monitorear las herramientas de IA”, ya que las utilizan a diario. “Si una herramienta tiene algún problema, deben aprender a detectarlo, a controlarlo e incluso a informar del problema que encuentren”, completó. Como la IA es un campo de conocimiento “en rápida expansión”, de forma frecuente “aparecen nuevas leyes” sobre el tema, por lo que es necesario “estar muy al día y actualizar los conocimientos”.

Un país pequeño, levemente ondulado

Consultado sobre las limitaciones de un país pequeño como Uruguay para lidiar con una tecnología impulsada por grandes plataformas multinacionales, Miao consideró que es importante que pueda exigir que se use material local para entrenar y reentrenar al algoritmo. Según dijo, eso es importante para que los resultados que las herramientas arrojen reflejen las características culturales del país. “No se puede utilizar el modelo de IA que está de moda en Estados Unidos y simplemente venderlo en Uruguay. Se debe tener en cuenta esto y tratar de proteger la diversidad lingüística y cultural”, cerró.