A iniciativa de Daysi Iglesias, consejera docente del Consejo Directivo Central (Codicen), el jueves comenzó un ciclo de seis conferencias que tendrán lugar de aquí a setiembre. “Inteligencia Artificial y educación” es el título de las instancias, que se caracterizarán por ir profundizando los conocimientos sobre el vínculo entre ambos ítems y, en ese entendido, “proveer insumos para una discusión a nivel de la enseñanza pública sobre cómo abordar la temática y preparar a los estudiantes para los próximos años”.

La serie de charlas comenzó con una “introducción a la Inteligencia Artificial (IA)”, continuará con “fundamentos computacionales de la IA”, posteriormente “fundamentos matemáticos”, “aplicaciones”, “deep learning, modelos de lenguaje” y, por último, “desafíos éticos de la IA”. En todos los casos, los expositores serán investigadores de la Universidad de la República (Udelar) y del Programa de Desarrollo de las Ciencias Básicas (Pedeciba) y las exposiciones están dirigidas, fundamentalmente, a docentes de todos los subsistemas.

La introducción a la IA se realizó en el edificio de la Administración Nacional de Educación Pública (ANEP) y no solo contó con la presencia de docentes, sino también de autoridades y exautoridades variadas: el presidente del Codicen, Robert Silva; la vicepresidenta de la República en ejercicio, Graciela Bianchi; la intendenta de Montevideo, Carolina Cosse; el expresidente del Codicen, Wilson Netto; y el otro consejero docente además de Iglesias, Julián Mazzoni.

En esta ocasión, los expositores fueron Álvaro Cabana, doctor en Ciencias Biológicas por el Pedeciba y docente de la Udelar, y Guillermo Moncecchi, doctor en Informática por el Pedeciba y la Universidad Paris Ouest, y también docente de la Udelar.

Antes de llegar a la profundización del tema, Iglesias y Silva brindaron una breve introducción. El presidente del Codicen se refirió al reciente informe divulgado por Unesco, en el que se afirma que al mismo tiempo que la tecnología puede contribuir a una mejora en la equidad y la inclusión, existen “profundas brechas en su acceso”. En ese marco, Silva expresó: “Tenemos un desafío como sistema educativo; buscar aliados en temáticas tan importantes como esta, es hasta una razón de supervivencia”.

¿De qué hablamos cuando hablamos de IA?

“Somos investigadores que hacemos cosas, hemos aprendido mucho, pero no pretendemos tener la posta”, dijo, en primera instancia Moncecchi, quien también afirmó que la búsqueda que tiene el ciclo de charlas es “proveer insumos para una discusión”, sobre la base, además, de que hay versiones muy variadas sobre lo que es la IA.

Aún así, esgrimió que podría decirse que la IA “es parecida a un ser humano” y que en el transcurso de la historia se ha avanzado en “emular cosas que hacen los seres humanos”. En esa línea del tiempo, recordó a la calculadora, a la filosofía y el afán por reflexionar sobre qué es pensar y hasta dónde llega el razonamiento, hasta la llegada del año 1936.

Ahí “llega un momento interesante e importante con la figura de Alan Turing, un matemático que formalizó un modelo computacional que es el que se usa hasta hoy para las computadoras”, explicó Moncecchi. En esa misma época, apareció la tesis de Church-Turing, que básicamente manifiesta que “lo que entendemos como computar es lo que hacen las computadoras”. Según el docente, la afirmación entabló una discusión “importante”, porque “si todo lo que hago es computar, una computadora va a poder reproducir todo”.

En paralelo, Claude Elwood Shannon introdujo la teoría de la comunicación, que “sienta las bases de lo que es hoy la internet, se avanza en la robótica, en modelar a imágenes y semejanzas del cerebro, en cómo computar eficientemente”. Pero fue en 1950 que Turing escribió un paper con una pregunta clave: “¿Pueden las máquinas pensar?”. Moncecchi explicó que el matemático realizó una propuesta de cómo la máquina podría ser inteligente y para develarlo ideó un test en el que “si yo no puedo distinguir si del otro lado tengo una computadora o un ser humano, entonces habremos logrado la IA”.

Desde entonces se fijaron las bases “de lo indistinguible de la computadora con un ser humano”, y ha habido avances de estudios y acciones que apuntan a la IA. Sin embargo, las distintas versiones sobre lo que es la IA se han extendido y continúan siendo objeto de diversas miradas. El docente ejemplificó que, para algunos, se trata de “sistemas que actúan como humanos”, otros de sistemas “que tratan de pensar como humanos” o “que piensan racionalmente y no está asociado a lo humano”.

En ese marco, hizo una vinculación con la robótica, y puso algunos ejemplos de IA que han trascendido históricamente hasta el día de hoy: Deep Blue, una computadora que le ganó un partido de ajedrez al campeón mundial de ajedrez; AlphaGo y AlphaGoZero, otra máquina que le ganó al campeón mundial del Go; el Google Translate, que, afirmó, en sus inicios no funcionaba tan bien y ahora lo hace casi a la perfección; y el famoso ChatGPT, que, según Cabana, es la IA que inevitablemente abrió las puertas a este ciclo de charlas.

ChatGPT: tan solo y tanto más

Cabana inició su exposición con la afirmación de que la IA existe desde hace largos años atrás, pero que el reciente ChatGPT, debido a su acceso libre y su eficiencia, “tomó por asalto al mundo, en todas las disciplinas”, y abrió nuevas discusiones sobre lo humano y lo artificial. En la educación y en particular con lo relativo a la producción escrita, señaló que trajo la necesidad de “tomar otros recaudos” y comenzar a pensar en “otras formas de evaluar”.

Por esta razón, el biólogo escogió profundizar en lo que es y hace el ChatGPT. En su opinión, realiza dos cosas: por un lado, “es un modelo de lenguaje, porque lee y escribe” y, por el otro lado, “es un chat”, algo que consideró relevante, porque se relaciona con el Test de Turing y la Pareidolia.

En ese marco, explicó que el lenguaje “nos permite referir a elementos y expresar sus relaciones”, “ayuda a pensar en distintas formas”, “comunicar” y “transmitir pensamientos complejos a través de palabras”.

Aunque, en ese sentido, el modelo de ChatGPT forma parte de “los grandes modelos de lenguaje”, Cabana puntualizó en que se trata de “sólo” -con grandes comillas- de “un autocompletador”: “Lo que hace es producir más texto, completar oraciones, a partir de estimar cuál es la palabra que viene, que sea la más probable”.

A diferencia del humano, el docente narró que, si bien puede saber de sintaxis, de vocabulario rioplatense o de conocimiento histórico, el ChatGPT “no tiene voluntad, imaginación, no busca, no razona”. Sin embargo, aunque “uno sabe que es solo un autocompletador, hay una tendencia fuertísima, una ilusión, a creer que es una persona”, dijo, lo que significa la Pareidolia.

En ese contexto, reafirmó que el ChatGPT “resuelve problemas matemáticos importantes” y que, dependiendo la versión, lo hace bien la mayoría de las veces. En las ocasiones en que no, “si le das otra oportunidad, como decirle que por favor piense paso a paso, genera más texto, ajusta las probabilidades de las palabras que tiene que surgir, y termina funcionando”.

Explicó, en tanto, que lo que sucede, finalmente, es que se trata de “modelos de redes neuronales artificiales” inspiradas en cómo funciona el cerebro. De hecho, trajo a cuento que unos investigadores franceses realizaron una experimentación vinculada: compararon los movimientos neuronales de humanos al escuchar el audio de una historia, cuándo se prenden y cuándo se apagan, e hicieron lo mismo con el ChatGPT. El resultado: “Las actividades artificiales de una máquina en algo se parecen a algunas partes de nuestro cerebro cuando procesamos el lenguaje. Y algunas personas se parecen más y otras menos: las que se parecen más son aquellas que comprendieron mejor el texto”, describió.

Como conclusiones, Cabana afirmó que suele haber “una tendencia brutal a pensar que los GPT pueden tener consciencia, voluntad, sentimientos o erradicarnos, pero la realidad es que lo que hay ahí es un autocompletador, que, a lo sumo, nos puede dar una idea de qué es la inteligencia nuestra, la natural”.