Educación Ingresá
Educación

Carlos Scolari.

Foto: Mara Quintero

La inteligencia artificial en la educación supone “pensar en acciones de utilización” desde un marco ético y “no quedarse a esperar indicaciones”

14 minutos de lectura
Contenido exclusivo con tu suscripción de pago

Con Carlos Scolari, especialista en el estudio de medios digitales de comunicación y la ecología de medios.

Contenido no disponible con tu suscripción actual
Exclusivo para suscripción digital de pago
Actualizá tu suscripción para tener acceso ilimitado a todos los contenidos del sitio
Para acceder a todos los contenidos de manera ilimitada
Exclusivo para suscripción digital de pago
Para acceder a todos los contenidos del sitio
Si ya tenés una cuenta
Te queda 1 artículo gratuito
Este es tu último artículo gratuito
Nuestro periodismo depende de vos
Nuestro periodismo depende de vos
Si ya tenés una cuenta
Registrate para acceder a 6 artículos gratis por mes
Llegaste al límite de artículos gratuitos
Nuestro periodismo depende de vos
Para seguir leyendo ingresá o suscribite
Si ya tenés una cuenta
o registrate para acceder a 6 artículos gratis por mes

Editar

El investigador argentino radicado desde hace años en España Carlos Scolari ha dedicado su carrera a entender y explicar cómo funcionan y evolucionan los entornos mediáticos, con especial foco en los digitales. Esta semana estuvo en Uruguay para ser el principal orador en la entrega de los Premios NODO y conversó con la diaria sobre los desafíos que traen estos cambios para la sociedad y, en particular, para la educación.

Scolari es catedrático de Teoría y Análisis de la Comunicación Digital Interactiva del Departamento de Comunicación de la Universitat Pompeu Fabra de Barcelona y, como no podía ser de otra manera, en los últimos meses se ha dedicado a reflexionar sobre los impactos de la inteligencia artificial (IA), tema sobre el que ha escrito varias entradas en su blog personal. Si bien siempre se ha sostenido que los medios digitales han generado transformaciones que son parecidas a las que en su momento generaron otras tecnologías de información y comunicación (TIC), considera que por la velocidad en que se ha desarrollado y expandido la IA generativa, es posible que esta vez sí estemos ante un caso con componentes inéditos.

Has cuestionado que las nuevas TIC hayan llegado a revolucionar todo como nunca antes en la historia de la humanidad. ¿Pasa lo mismo con la disrupción que está generando la IA?

Si esta entrevista la hubiéramos tenido hace un año estaríamos hablando del metaverso y hace tres años estaríamos hablando de blockchain. Son cosas que tuvieron un hype [emoción exagerada]. El metaverso existe, por suerte no el que soñaba [Mark] Zuckerberg; hay empresas trabajando, pero no tuvo esa difusión masiva que el grupo Meta se esperaba. La IA generativa, el Chat GPT, que es la popular, más todo lo que viene alrededor, creo que sí. Yo viví la aparición y emergencia de la web, que duró cinco años, en 1991 Tim Berners-Lee sube la primera página web, en el 95 Microsoft saca el Internet Explorer y empieza la parafernalia de difusión de la web. El ChatGPT en cinco días llegó a un millón de usuarios, algo para lo que Netflix tardó dos años y medio.

Este jueves se cumplió un año desde que se abrió el ChatGPT. Es un acelere brutal y nada hace pensar que esto sea un hype del que dentro de seis meses nos olvidemos. Lo que se está viendo es que todos los recursos, la innovación que había en el mundo de la comunicación móvil, toda esa inversión e innovación parecía en un momento que se iba al metaverso, pero no alcanzó a atraer todo eso y se fue a la inteligencia artificial. Ahí están los grandes actores: Google, Amazon, OpenAI trabajando con Microsoft. A su vez, toda una efervescencia de nuevos actores, pequeños, medianos, gente que se va de las grandes empresas para fundar otras, y yo creo que esto va a durar. Va a tener y está teniendo efectos. A mí no me gusta abusar de la palabra disruptivo, pero creo que esta vez estamos viendo efectos disruptivos muy interesantes y muy rápido. Todo hace pensar que esto va a ser muy fuerte para el lado bueno y para el lado malo. Para los que estudiamos la comunicación y enseñamos y pretendemos formar a los profesionales del futuro es un gran desafío.

En los años 80 lo digital fue una disrupción de la producción: el que se llamaba el desktop publishing, el DTP, la aparición de Photoshop revolucionó la producción de revistas, de diarios. Después el sonido, ya en 1983 Charly García sampleó para el disco Clics Modernos y después llegó el video digital. En los 90 fue la disrupción de la circulación, la web llevó los contenidos gratis, afectando a la prensa tradicional, y ya en la década del 2000 fue una disrupción del consumo, porque dejamos de ser espectadores totalmente pasivos –aunque nunca fue tan así– y empezamos a generar contenidos: explota la cultura fan. Ya el hecho de compartir fotos, videos, memes nos convierte en lo que se llama el prosumidor –productor consumidor–. Y yo creo que ahora volvemos a estar en una disrupción potentísima de la creación y la producción.

En los 80 el creador estaba preservado, porque aparecían toda una serie de softwares y herramientas digitales que le permitían acelerar los procesos y hacer cosas nuevas, pero acá estamos frente a máquinas que están creando, si querés entre comillas, o no, y eso abre unos debates: si es inteligencia, si es artificial, si esto es humano, si hay peligro de extinción, como dicen líderes de algunas empresas. Ya se venían anunciando algunas cosas, pero siempre como algo que parecía en el futuro lejano.

Has planteado que el límite de la IA es la aducción, ¿a qué te referís?

Las primeras inteligencias artificiales, de los años 50-60, querían hacer máquinas deductivas, tipo silogismo, pasar de lo general a lo particular. Llenar la máquina de principios generales y que después la máquina aplicara eso para resolver problemas individuales. La llaman la good old fashion artificial intelligence y se vio que por ese camino no, porque no somos máquinas lógicas aristotélicas. Se probó por el camino inductivo, en el que estamos ahora: la máquina procesa la información de lo micro a lo macro, va acumulando casos y casos hasta llegar a darnos una respuesta. El ChatGPT es una máquina predictiva, si uno le pone la primera parte una poesía te la va a completar, porque si es una poesía muy popular la máquina sabe lo que sigue.

El tercer camino, en la filosofía y en la lógica, era la abducción, que era unir dos cosas que no tenían nada que ver una con la otra y dar un salto a lo general. Aparentemente, estas máquinas no tendrían esta capacidad abductiva, que es muy del ser humano, pero yo no pondría las manos en el fuego y no diría que nunca se va a llegar a ese tipo de cosas. El grado de innovación y de capital que hay en ese sector va a hacer que aparezcan otras cosas. Hoy le falta esa chispa a estas IA, siempre lo digo en plural. Hoy tenemos muchas IA débiles, que son híper especializadas: la que es campeona de ajedrez no sabe conducir un coche y el ChatGPT no sabe identificar tumores en una radiografía. El gran tema es la IA general o fuerte, que la hemos visto siempre en la ciencia ficción como inteligencia superior a la humana y que controla o pretende controlar todo.

Hasta ahora en el mundo de la ingeniería te decían que no hay nadie trabajando en eso, que nunca se va a poder llegar a ver, a verificar, por eso trabajaban en IA débiles híper especializadas. Algunos sí apostaban por la general, por ejemplo, Raymond Kurzweil, que fundó la Singularity University, gente que hace años visualizaba que para 2030 o 2035 tendríamos una IA general total. Los otros los tildaban de locos. A final de los 80, Kurzweil anticipó que en 1998 una máquina iba a superar al campeón de ajedrez, y eso pasó en 1995, o sea, atención a las predicciones de este loco que trabaja para Google.

A mí me sorprendió mucho leer una entrevista a los dirigentes de OpenIA, a Sam Altman y todo este grupo, antes de la crisis [en la que despidieron y recontrataron a Altman como CEO de OpenAI], en setiembre la revista Wire publica casi un monográfico sobre IA y el caso de OpenAI y me sorprendió leer que nació como un laboratorio, era casi una organización sin fines de lucro, y después montaron a la empresa. Parece ser que todos estos conflictos que hubo en el mes anterior fueron entre el grupo que quiere frenar y rechaza esta lógica empresarial de acelerar y liberar cosas con las que no se sabe bien lo que puede llegar a pasar y el sector más cercano a Microsoft, que quiere acelerar y facturar. Pero me sorprendió ver que en este grupo había gente que decía que el objetivo era una IA general, cuando Sam Altman, antes de la crisis, fue al Senado de Estados Unidos, habla del riesgo de extinción del homo sapiens y pide regulación. Claro, esto fue una vez que ellos coparon el mercado, prácticamente. No confío mucho en las palabras de estas personas, que son voceros de las grandes corporaciones y de ciertos intereses, pero antes no se hablaba de eso, era terreno de la ciencia ficción. Ahora hay gente en primera línea que está alertando de los peligros de un desarrollo desaforado e híper acelerado de esta tecnología. Algunos hacen la comparación de que es como estar liberando medicamentos y vacunas sin haberlas probado y yo creo que la metáfora es válida.

Escribiste sobre la guerra de las plataformas un tiempo antes de que estallara el uso de la IA generativa. ¿Cómo incide esta nueva realidad en esa guerra?

Así como diferentes sectores de la economía se fueron plataformizando, porque plataforma no es sólo Netflix o Facebook; Uber es plataforma, Cabify es plataforma, Airbnb también. Hay plataformización de la economía en diferentes sectores y no me extrañaría que la haya de las IA. Ahora hay una store en la que uno puede comprar aplicaciones, están las API [interfaz de programación de aplicaciones que les permite comunicarse entre sí] para conectar las IA y uno puede personalizarla. No me extrañaría que adopten un modelo de negocio de plataformización: uno paga una cuota al mes para tener un acceso más potente, poder procesar más cosas, poder personalizarla. Entonces, las IA pasan a ser otra fase más u otro espacio más de la gran guerra de las plataformas.

Y no nos olvidemos de que China tiene sus propias IA y se cree que están incluso más avanzados que en occidente. No sólo en Estados Unidos, en Europa también hay una preocupación por regular al sector, pero China ya es otro mundo. Tengo estudiantes de doctorado en China que me contaban que el ChatGPT está prohibido, pero tienen sus propias IA chinas para la educación y ya tienen tutores virtuales con IA. Va a haber guerra de plataformas, que, como yo decía en mi libro, también es una guerra geopolítica.

¿Estamos tomando conciencia del cambio que puede generar la IA?

La esfera sociotecnológica cada vez evoluciona más rápidamente, hay muchísimos actores en todo el planeta haciendo cosas, y en las otras esferas uno puede hablar del mundo de la educación, que va a otro ritmo, el mundo de las instituciones estatales va a un ritmo mucho más lento. Por ejemplo, en Europa tardó una década en legislar sobre la privacidad en redes sociales. Europa ahora sacó un documento sobre IA, pero es un documento paraguas, negociado diplomáticamente, que de acá a que se implemente algo van a pasar años. Y si hablamos de años, el ChatGPT se abrió hace 12 meses... Acabamos de tener campañas electorales en Argentina, creo que nadie habló de IA, aunque seguramente lo usaron para hacer memes. Pero los políticos tampoco están hablando del cambio climático. Cuánto hace que se viene machacando con estos temas y no hay ningún tipo de propuestas.

La misma crisis a veces de los países de América Latina te lleva a pensar en si como mañana, y no hay ningún tipo de pensamiento estratégico sobre esto y yo creo que eso es un error. Fijémonos lo que pasó en Uruguay con la sequía, lo que está pasando ahora en España. O hacer como el presidente [electo de Argentina, Javier] Milei y ser un negacionista, a esta altura eso es terrible. Pero en las altas esferas políticas evidentemente no hay una preocupación por esto.

¿Qué rol tienen para jugar los sistemas educativos, tratando de ver lo bueno y lo malo de la IA?

Todas las tecnologías al principio siempre vienen con el pack utópico y el pack distópico. Los medios de comunicación también. Pasó hace 15 años cuando aparecieron Facebook y Twitter, la web 2.0, la web colaborativa y después de diez años descubrimos que eran máquinas para extraer datos personales y facturar. Por otro lado, si no hubiéramos tenido estas plataformas en la pandemia no sé qué hubiera pasado. Pudimos seguir trabajando, enseñando, manteniendo relaciones sociales gracias a estas plataformas. Hay que tratar de ver siempre diferentes perspectivas.

Lo mismo con la IA. Es obvio que los chicos de todo el mundo la están usando para hacer las tareas de la escuela secundaria y la universidad. ¿Vamos a esperar a que cambien los planes de estudio para poder incorporar la IA en las aulas? No es el camino. El camino está bien, pero lleva su tiempo. Tenemos que pensar en acciones de utilización, de compartir conocimiento, no podemos quedarnos a esperar las indicaciones normativas que nos lleguen de arriba, porque van a pasar meses o años y esto va muy rápido. Tenemos que hacer ya mismo acciones para explicar y transparentar el uso, hablar de la cuestión ética. No podemos cerrarnos a eso y para el profesorado es complicado, porque también tienen que aprender. Esto es realmente una disrupción en las formas de evaluación, por ejemplo, siempre le pedíamos a los estudiantes que lean un capítulo y hagan una síntesis, yo como soy posmoderno les pedía que hicieran tweets. Ahora uno le da un texto al ChatGPT y te extrae los tweets en medio segundo. Tenemos que pensar nuevas cosas.

Son herramientas que yo también uso, por ejemplo, al redactar textos científicos, me mejora muchísimo el inglés. La semana pasada estábamos terminando un artículo que tenía que quedar de 8.000 palabras y con las coautoras vimos que tenía 8.500 palabras. Antes eso era perder un día, ahora uno le da eso a una IA generativa y, dándole bien las indicaciones, te soluciona ese problema en 30 segundos. Para cualquier persona vinculada a la producción textual, escrita, fotográfica, gráfica, es una herramienta impresionante. Tenemos que domarla, incorporarla, aprender a usarla y hacer un uso ético y transparente.

¿Qué rol juega, por un lado, la formación docente y, por otro, la introducción de tecnología en el sistema educativo, que no soluciona mágicamente todos los problemas?

Está el mito, que siempre viene de California, de que metiendo algo digital se solucionan los problemas. Cualquier persona que estudie un poco cómo funciona la tecnología y la sociedad descubre que a veces ciertas tecnologías o ciertos medios utilizados de cierta manera, en determinado contexto, pueden ayudar a solucionar algunos de los problemas. La misma tecnología utilizada en otro contexto y de otra manera no hace más que reproducir el pasado. Yo ahí soy muy freireano, de Paulo Freire, que proponía cambiar las relaciones dentro del aula, dejar el modelo de que uno sabe y los estudiantes no, todo el mundo sabe algo. Pero a Freire se lo ha citado más de lo que se lo ha aplicado. Lo que postulaba sigue siendo fundamental. A veces las tecnologías te pueden ayudar a eso. Ceibal es un buen ejemplo de utilización de la tecnología con esa perspectiva. Pero no alcanza con poner un chip en el aula y con eso solucionamos los problemas, sería ridículo pensar eso. Hay una presión obviamente del mercado siempre para hacernos creer eso, pero sabemos que así no funciona.

El ChatGPT es lindo, es gratis. Si uno quiere hacer un uso avanzado hay que pagar, pero la versión gratuita que se abrió hace un año funciona, se pueden hacer cosas interesantes y ahí hay que ponerse y aprender con los estudiantes. Habrá alguno que aprendió un truco, bueno, que lo comparta con el resto. Hay que luchar porque cuando se utiliza se diga que se utilizó, no ocultarlo. Eso ya está pasando en el mundo científico, uno puede publicar un artículo y decir que determinada sección se hizo con la ayuda de este sistema, de otro. Va por ahí el tema, no ocultarlo y aprender entre todo el mundo a usarlo. Las IA generativas como el ChatGPT van cambiando cada semana. Hace unos meses uno metía un comando y salía una cosa, ahora salen cosas mucho más sofisticadas con lo mismo. Esto es un aprendizaje colectivo y, sobre todo pensando en el aula, tiene que ser muy horizontal.

Más allá de quienes plantean que es deseable que se incorporen materias como programación al currículo, ¿cuál es la importancia de las ciencias sociales y las humanidades en este contexto?

Cada diez años tenemos que estudiar un lenguaje de programación que se pone de moda. Cuando apareció la web decían que había que estudiar HTML y parecía que si uno no sabía hablarlo no podía hacer nada en la vida; después vino Java, ahora está Python. Enseñar la lógica de la programación no está mal, habrá gente que en el futuro se dedique a eso y la programación tiene un aspecto lógico, creo que interesante, no para formar programadores expertos, pero para que la gente entienda cómo funciona un algoritmo, más que aprender a programar. Aprenderlo no sé si ya en la primaria o la secundaria es útil, más allá de que después uno se dedique o no a la ingeniería.

Respecto a las ciencias sociales y las humanidades, no es casual que todas las megacorporaciones tecnológicas tengan equipos de etnógrafos trabajando. No podemos pensar un mundo sólo de carreras computacionales, sería ridículo, como lo sería que todo el mundo estudie solamente sociología. Lo bueno y lo deseable es que todas estas disciplinas interactúen, que esa es una deuda que tenemos las universidades. Uno viaja a cualquier universidad del mundo y vas a tener un departamento de TIC y están desarrollando reconocimiento facial, algoritmo de control, todo eso. Cruzás el pasillo y hay un departamento de humanística o de ciencias sociales que está criticando la manipulación de los algoritmos y no hay a veces conversación. Eso me parece terrible. A lo mejor si nos juntáramos antes haríamos mejores cosas.

¿Cómo interactúa todo este escenario con las narrativas transmedia? ¿Puede hablarse de una nueva etapa, en un momento en el que está en fuerte cuestionamiento la veracidad de los mensajes?

Hay dos cosas, narrativa transmedia es un concepto que tiene 20 años, aunque antes ya había comunicación transmedia con participación de la gente. Walt Disney en los años 50 hacía narrativas transmedia, tenía los dibujos animados, los cómics, el parque de atracciones. Quizás faltaba la parte de la creación de los contenidos de autor, pero los chicos y las chicas se disfrazaban de personajes Disney, así que ya había también un contenido generado por usuarios. En los últimos 20 años esto se teoriza, se le da un concepto. Henry Jenkins empieza a hablar de narrativas transmedia, hay una mayor visibilidad en la cultura de los fans, gracias a las redes. La fanfiction se vuelve algo potente a escala mundial, antes la fanfiction era la fotocopiada, quedaba en pequeños círculos locales y ahora es un fenómeno global también. La narrativa transmedia se instauró como campo de investigación, de producción y ya es muy difícil encontrar algún proyecto de comunicación, sea publicitaria, periodística o corporativa, que no sea transmedia. Contar la historia en muchos medios: un poco impreso, un poco en audio, un poco en imagen fija, en imágenes y audiovisuales en movimiento. Todo el mundo está más o menos en eso. Y todo el mundo quiere que la gente participe y que te repostee en X o que comparta en Instagram. Las marcas a veces promueven que la gente genere contenido. Siempre digo que el concepto transmedia se va a dejar de usar un día de estos porque se da por supuesto que todo es transmedia y que todo el mundo busca la participación de los consumidores.

Respecto a la parte de la pregunta más fake news, Umberto Eco decía que el signo sirve para mentir, siempre me pregunto si la capacidad de mentir no fue una ventaja evolutiva a favor nuestro, de ciertos grupos. Mentiras hubo siempre, fake news también, operaciones escritas, invenciones. El estalinismo se ocupaba siempre de manipular la foto, meter a uno cuando algún líder comunista caía en desgracia, lo cancelaban de la foto. En la mediasfera actual, donde hay millones de personas generando contenido, hay algoritmos, hay grupos muy interesados en dar vuelta a elecciones, manipular la opinión pública adquiere otra dimensión. Existió siempre y como muchas otras cosas que hemos hablado ahora se entró una dimensión de aceleración, una cosa más exponencial.

Ya hace un año esto era un caos total, el debate sobre las fake news, la necesidad de chequear información, ahora se agregan máquinas que crean contenidos automáticamente. Estamos en un momento increíble. En una época, mis padres o mis abuelos decían “lo dijo la radio” o “lo dijo el diario”. Ahora cada vez más se va difundiendo una cultura de la sospecha, pero es el mundo en el que estamos.

Ahí todo lo que es la alfabetización mediática o transmedia es una de las partes que hay que activar cada vez más. Siempre digo que viví la dictadura en Argentina y prefiero los riesgos de tener mucha información al riesgo de tener poca. Pensar en una época que había dos canales de televisión o tres, equis diarios y venía un coronel y copaba la radio otro copaba la televisión. Era un mundo muy pobre comunicacionalmente y estaba la lógica de dar un golpe de estado y tomar los medios, eso ya no existe. En parte porque la mediasfera es tan compleja y tan polifónica. Yo prefiero tener todo este caos y la infoxicación, como se le dice, y los riesgos de fake news a lo otro.

¿Tenés algún aporte para hacer?

Valoramos cualquier aporte aclaratorio que quieras realizar sobre el artículo que acabás de leer, podés hacerlo completando este formulario.

¿Te interesa la educación?
Suscribite y recibí la newsletter de Educación en tu email.
Suscribite
¿Te interesa la educación?
Recibí la newsletter de Educación en tu email todos los jueves.
Recibir
Este artículo está guardado para leer después en tu lista de lectura
¿Terminaste de leerlo?
Guardaste este artículo como favorito en tu lista de lectura