“Para construir inteligencia artificial [IA] hay que saber qué es la inteligencia”. En eso está trabajando Rose Luckin, una docente de la Universidad de Londres que estudia técnicas de IA, tecnología educativa aplicada a la enseñanza y el uso masivo de datos; su investigación la llevó a ganarse un puesto en 2017 entre las 20 figuras más importantes de la educación en su país. El lunes estuvo en Montevideo para participar en Repensar la educación para un futuro en construcción, el ciclo de conferencias organizado por la Fundación Ceibal. La investigadora expuso los avances en la temática y el potencial uso que tiene esta herramienta en la educación. Además, conversó con la diaria sobre cómo se aplica IA en las clases y advirtió sobre los peligros de no trabajar el tema de forma ética.
La IA es –a grandes rasgos– un software diseñado para hacer determinadas cosas características de la inteligencia humana, por ejemplo aprender de las acciones previas para volver a actuar teniendo en cuenta los resultados. Según Luckin, en los últimos años el avance de esta disciplina ha sido gigantesco debido a factores como la gran cantidad de datos digitalizados existente, la creación de algoritmos muy sofisticados, que pudieron aprender de esos datos, y la existencia de computadoras con la potencia suficiente para procesarlos a un precio accesible. Por eso ahora hay programas que pueden entender la forma en la que cada persona desarrolla su proceso de aprendizaje, así como sistemas que enseñan matemática o inglés, y robots que van a clase cuando los niños están enfermos.
A pesar de lo mucho que puede hacer ahora la IA –y lo mucho que podrá hacer en los próximos años–, hay algo que Luckin cree que no se va a lograr nunca: la IA general. Hasta el momento se han creado sistemas que son muy buenos en hacer una sola cosa, pero los humanos tenemos varias inteligencias y las podemos aplicar al mismo tiempo; somos capaces de entender y de saber que no entendemos, o de reflexionar sobre cómo nos sentimos e incluso de imaginarnos en el futuro. Según la experta, la inteligencia emocional es la rama que no se puede fabricar, y la razón por la que los humanos seguiremos siendo el pilar de la educación.
¿Cuáles son los beneficios de la IA cuando se aplica a la educación?
Puede ser fuente de muchos beneficios. Podemos usarla para construir piezas de software que pueden tutorear y entrenar a los estudiantes de una manera muy personalizada. Podemos construir estos sistemas para ciertas áreas bien definidas, como ciencias, tecnología, ingeniería o matemática, aunque también para otros temas, como puede ser el aprendizaje de las lenguas, por ejemplo. Eso es sólo una de las formas en las que podemos usar la IA. Creo que la más importante es cuando analizamos todos los datos que podemos colectar como personas que interactuamos con el mundo. Si diseñamos la IA de una manera informada, podemos empezar a entender mucho más sobre cómo la gente está aprendiendo, cómo los docentes pueden apoyar a los estudiantes y cómo los propios jóvenes pueden entender cómo son sus propios procesos de aprendizaje.
¿De qué forma podemos ver la IA en la práctica, en salones de clase?
Se puede ver en muchísimas formas. Por ejemplo, hay diferentes compañías que producen sistemas de IA que tutorizan estudiantes; no digo que puedan hacer toda la enseñanza, pero pueden tutorear estudiantes eficientemente en matemática, por poner un ejemplo. Tenemos sistemas que han sido testeados y que pueden hacer esa labor muy bien y ya están disponibles en el mundo. Se puede hacer mucho más aun. Hay sistemas que no han sido diseñados para la educación pero pueden usarse para ayudar a algunas personas a las que se les haga difícil interactuar con la tecnología: podemos pensar en interfaces de voz, que pueden ser muy útiles y ya están siendo utilizadas en el aprendizaje de los idiomas, para generar certezas en la pronunciación correcta. También podemos incluir la robótica; hay algunos robots que pueden ayudar a chicos con enfermedades crónicas a aprender, que por ejemplo lo sustituyen yendo a clases mientras el estudiante está en su casa o en el hospital, y así no se pierde clases. Esto ya está pasando.
¿Estos productos no son tan conocidos porque son demasiado caros?
Esa es la razón por la que muchos sistemas de tutoría que han estado en la vuelta desde hace mucho tiempo no han tenido más impacto ni han sido usados por más personas. El sistema inicial es bastante caro de construir, pero una vez que está hecho sigue y sigue aprendiendo, no se toma vacaciones, no se toma días libres, no necesita dormir. El costo inicial solía ser demasiado alto porque el sistema acababa de salir; ahora, porque el sistema está en constante actualización, se convirtió en algo mucho más valioso económicamente y en una inversión más segura.
En esos ejemplos que mencionaste hay muy poca interacción entre personas, ¿creés que el uso de la IA puede convertirse en algo solitario?
Si lo entendemos mal, sí; por eso creo que el profesor es tan importante, es el que puede orquestar el aprendizaje. Estos estudiantes pueden usar un tutor de IA en determinado momento, otros pueden usarlo en otras áreas; en una parte del día los niños pueden trabajar solos en equipo y luego trabajar con el docente, sin IA. Si ingresamos la IA al salón de clase tendremos más tiempo para cosas como el drama, la educación física y todas esas materias que giran sobre la interacción social. En mi opinión si incluimos esta tecnología tendremos más interacción que antes, siempre y cuando la entendamos bien. La IA es maravillosa, pero debemos ser cuidadosos para no terminar con niños enchufados a computadoras en los salones o en sus casas; eso sería un desastre. Para evitar esa situación tenemos que pensarla con mucha atención, tenemos que pensar a dónde queremos llegar.
Algunos docentes dijeron estar preocupados por el uso de datos de sus estudiantes. ¿Hay razones para estarlo?
Sí. La IA es una de las áreas que presentan un potencial enorme para beneficiarnos, pero también tiene muchos riesgos asociados. Tendríamos que reducir los riesgos y así poder entender el verdadero detalle de cómo alguien está aprendiendo y progresando, o por qué no está aprendiendo; saber qué está pasando en su vida, cómo se siente. Es una herramienta muy útil, pero los docentes están absolutamente en lo correcto cuando piensan que hay grandes riesgos, por eso tenemos que enfocarnos en la ética de la IA en la educación. Yo misma tengo preocupaciones sobre cómo se usan mis datos; es algo en lo que tenemos que enfocarnos porque es importante que lo hagamos bien, si no vamos a perder los beneficios y vamos a sufrir las consecuencias. Con otros colegas, en Reino Unido hemos armado el Instituto para la Ética en Inteligencia Artificial en Educación, porque estamos muy preocupados en crear un marco legal con códigos de prácticas tan rápido como sea posible. Tenemos que llegar a que cada uno se apropie de sus datos y los proteja, y a su vez a que sienta confianza en que los puede liberar para trabajar.
¿Creés que esa protección debería estar en manos del gobierno?
Creo que tiene que ser una mezcla de regulación, educación y conciencia. Sin duda el gobierno necesita poner un marco legal que nos regule, pero no podemos quedarnos sólo con eso, porque la gente que quiere darle un mal uso siempre estará un paso adelante. Tiene que combinarse la regulación con educación y entrenamiento para que la gente esté más meticulosamente consciente, para que no teman todo el tiempo, pero sí que se preocupen cuando tengan que hacerlo.
Has dicho que la IA va a ser útil si los estudiantes están a cargo. ¿Cómo toman el control?
Cuando digo que el estudiante va a estar a cargo es que entienda la IA y esta forme parte de su educación. Para un niño los padres y los maestros cumplirán un rol fundamental en que logren entender, pero en el caso de los estudiantes universitarios será su responsabilidad en mayor medida; obviamente hay complicaciones con las poblaciones más vulneradas, que siguen necesitando que se las acompañe en el camino. Necesitamos entender mucho más la propiedad personal y el control de lo que pasa, pero no va a pasar de la noche a la mañana, porque la gente aún no entiende lo suficiente sobre cómo controlar, y algunas personas nunca lo harán, porque son vulnerables y necesitan ser protegidas. Lo que es seguro es que en educación no podemos dejar la IA en manos de compañías.
Si los estudiantes se hacen cargo de su propio aprendizaje, ¿eso va a significar un retroceso del rol docente?
No, de hecho creo que el rol docente va a ser más importante, porque si ellos no tienen que cumplir con su rutina administrativa, tienen más tiempo para obtener información detallada sobre el proceso del aprendizaje. Pueden pasar mucho más tiempo para tutorear, sosteniendo y apoyando a los estudiantes a desarrollar una forma más sofisticada de entendimiento. Tal vez la IA está ayudando a obtener las bases del tema, pero el docente es el que tiene que impulsar la reflexión. El docente pasa a tener un rol más sofisticado: se encargará de las cosas que no puede hacer la IA, como aplicar ciertos métodos de enseñanza, como el trabajo colaborativo o los debates; para eso se necesitan humanos que puedan manejar cosas como la inteligencia emocional o el contexto situacional, algo que la IA no puede hacer y personalmente no creo que se pueda lograr nunca, ya veremos.
¿Los profesores están interviniendo lo suficiente en la creación de la IA aplicada a la educación?
No, ellos no están teniendo la oportunidad ahora mismo y necesitamos dársela.
¿Cómo se les puede acercar el tema?
Primero haciéndolos sentir valorados y haciéndoles sentir que tienen una voz en cómo estas tecnologías serán usadas y cómo están siendo diseñadas. Desde mi experiencia en Reino Unido y en otras partes del mundo puedo decir que con la entrada de la tecnología en el aula muchos docentes sintieron que se les imponía algo hecho por investigadores fuera del aula, sin su participación. En muchos de los primeros trabajos de la academia sobre el desarrollo de la IA usada en educación los profesores eran ignorados, y ese fue un gran error. Se construyó un sistema y de repente se dieron cuenta de que los docentes tenían mucho para aportar. Eso es algo que no debemos hacer con el desarrollo de la IA: es fundamental que ayudemos a los educadores a tener una voz y hacerlos sentir que lo que ellos saben de educación y aprendizaje es realmente importante y será incluido en el diseño. Para eso los docentes y los desarrolladores debemos trabajar juntos; ambos necesitamos trabajar juntos para entender el proceso de trabajo del otro, y si lo hacemos obtendremos mejores resultados.
Luego del primer impulso, ¿qué se necesita para que la IA llegue a su máximo potencial?
El siguiente paso está abierto a las decisiones que tomemos ahora, y la única forma de tomar decisiones correctas es asegurándonos de que mucha gente entienda lo suficiente sobre la IA y que se le dé la oportunidad de tomar acciones. Si no lo hacemos podemos, muy fácilmente, dejar que los políticos y los gobernantes sean tomados por grandes compañías tecnológicas, que prometen el mundo entero, y antes de que nos demos cuenta vamos a tener un salón lleno de niños en computadoras, y no es necesario que sea así.
¿Qué necesitamos enseñarles a los niños ahora para hacer un buen uso de la IA?
Creo que el pensamiento computacional es muy importante, y el conocimiento de la ciencia de los datos; entender qué son esos datos, qué significa cuando alguien los colecta y los analiza, en fin, saber por qué son tan importantes. No quiero decir que los niños deben entender los algoritmos técnicos de análisis, pero de la misma forma en que mi nieto está aprendiendo a escribir, creo que se le debería enseñar también qué información está ayudando a recolectar.
¿Cómo puede afectar la IA los proceso de evaluación?
En varias formas. Primero, no necesitamos pruebas escritas: podemos tener mucha mejor información si construimos un sistema de evaluación continuo, ético y efectivo, que colecte datos y los procese. Técnicamente se puede hacer; éticamente es muy desafiante, por eso tenemos que empezar a pensar qué significa evaluar en IA. Porque podríamos erradicar la necesidad de exámenes, podríamos hacerlo mejor de esta forma, pero ¿qué hacemos si alguien tiene un momento de tristeza y no rinde lo suficiente?, ¿qué pasa si un adolescente empieza bien el año, se desmotiva y abandona un tiempo, y después vuelve? La IA va a decir que abandonó y no llegó al nivel esperado, pero el docente puede evaluar su resiliencia, la situación que lo hizo abandonar y su capacidad de volver para ponerse al día. Por eso es necesario que los humanos sean parte de esto, ellos tienen que tomar las decisiones sobre lo que le está diciendo la IA.