Ciencia Ingresá
Ciencia

Foto: Gianni Schiaffarino

¿Quién aprende cuando escribe la IA? Parte 2: lo que el atajo no construye

9 minutos de lectura
Contenido exclusivo con tu suscripción de pago

Si en educación se diseña un juego en el que el atajo de la IA conduce al mismo lugar que el camino largo y esforzado, Pablo de los Campos y Jennifer Silva se preguntan si el problema es la IA o el diseño del juego, y trazan algunas perspectivas para valorizar la escritura en el aula.

Contenido no disponible con tu suscripción actual
Exclusivo para suscripción digital de pago
Actualizá tu suscripción para tener acceso ilimitado a todos los contenidos del sitio
Para acceder a todos los contenidos de manera ilimitada
Exclusivo para suscripción digital de pago
Para acceder a todos los contenidos del sitio
Si ya tenés una cuenta
Te queda 1 artículo gratuito
Este es tu último artículo gratuito
Nuestro periodismo depende de vos
Nuestro periodismo depende de vos
Si ya tenés una cuenta
Registrate para acceder a 6 artículos gratis por mes
Llegaste al límite de artículos gratuitos
Nuestro periodismo depende de vos
Para seguir leyendo ingresá o suscribite
Si ya tenés una cuenta
o registrate para acceder a 6 artículos gratis por mes

Editar

Como señalábamos en la nota anterior, más que leer el uso masivo de inteligencia artificial (IA)1 en las tareas escolares como un acto de deshonestidad generacional, conviene entenderlo como el síntoma previsible de un sistema de evaluación que sigue premiando más el producto que el proceso. Todas las generaciones hemos sentido la tentación del camino corto, aun sabiendo –como nos enseña Caperucita Roja– que no siempre es gratis. Para diseñar mejor el juego, conviene detenerse en lo que el atajo deja sin construir. Este fenómeno no se limita a las aulas. Fuera de ellas, cuando la IA se usa como sustituto del pensamiento, el resultado es igualmente empobrecedor.

En la red social X se repite una escena que lo ilustra con precisión. Alguien hace una afirmación y, antes de razonar o contrastar fuentes, otro escribe “@grok ¿es verdad?”. El 28 de febrero, durante un ataque aéreo que destruyó una escuela de niñas en Minab, Irán, esa dinámica tuvo consecuencias concretas. Mientras los medios documentaban el ataque, Grok, el chatbot de IA de X no solo lo negó: cuando los usuarios le pidieron verificar las imágenes, afirmó que correspondían a un ataque del ISIS en Kabul en 2021, avalando sin pruebas mensajes de cuentas anónimas. Esa versión circuló en redes antes de ser desmentida por los verificadores de diversos medios. La corrección llegó tarde y se difundió menos.

Quien preguntó no buscaba contrastar, sino confirmar. Usó a Grok como oráculo, del mismo modo que un estudiante usa la IA para que resuelva una tarea sin pasar por el proceso de pensar. En ambos casos, el atajo evita el ejercicio de construir pensamiento crítico. Y el riesgo es real. Todas las IA pueden hacer pasar como verdaderos datos erróneos, referencias inexistentes o fechas equivocadas; en la jerga informática esto se conoce como alucinaciones. El problema no es la herramienta, sino saltarse las preguntas que entrenan el criterio. ¿Cómo se sabe? ¿De dónde surge esa información? ¿Qué falta para estar seguro? Eso, cuando se delega sistemáticamente, no se recupera con ninguna búsqueda posterior. Consultar a una IA no es el problema. El problema es usarla como oráculo y perder en ese desplazamiento algo irrecuperable, el ejercicio mismo de dudar y hacerse cargo.

La deuda cognitiva se acumula cuando la delegación sistemática reemplaza las operaciones centrales del aprendizaje: elaborar ideas propias, conectarlas con lo que ya se sabe, revisarlas hasta que cobren sentido. El estudio más citado sobre este fenómeno es el del MIT Media Lab, titulado algo así como Tu cerebro en ChatGPT: Acumulación de deuda cognitiva al usar un asistente de IA para tareas de redacción de ensayos, publicado en 2025. La investigación tiene críticas metodológicas –la muestra es reducida y los titulares suelen exagerar sus conclusiones–, pero lo que sus datos sí sugieren es revelador. Los participantes que escribieron apoyándose más en IA sentían que el trabajo no les pertenecía y, poco después de entregarlo, tenían grandes dificultades para recordar lo que supuestamente acababan de escribir. La evidencia apunta a una regla básica del aprendizaje: cuando el esfuerzo pesado lo hace otro, el músculo cognitivo no se entrena.

Es tentador comparar la IA con la calculadora. Si nadie llama trampa a usarla en matemáticas, ¿por qué habría problema en usar IA para escribir? La analogía tiene algo de verdad. La calculadora libera al estudiante de la aritmética para concentrarse en el razonamiento matemático, delegando lo operativo para preservar el núcleo de la habilidad. La versión más atractiva del argumento funciona del mismo modo: la herramienta liberaría la producción superficial del texto para que el estudiante se concentre en el argumento. El problema es que en la escritura no existe un equivalente de “la aritmética”; las decisiones de la superficie textual son las que generan sentidos. Construir sentido, argumentar y revisar no es un paso previo al pensamiento, es el pensamiento mismo. Delegar la escritura no es tener un GPS para llegar más rápido al destino. Es mandar a alguien en tu lugar para que haga el viaje. La foto en la playa la vas a tener igual, pero lo que ese camino construye no te lo hace nadie.

Si pensamos en usar la IA como asistente más que como sustituto, la noción de andamiaje del psicólogo Lev Vygotsky resulta pertinente. Un apoyo sirve si permite llegar a un lugar nuevo y luego se retira; si se vuelve permanente, deja de ser apoyo y se transforma en dependencia. La teoría de carga cognitiva de John Sweller agrega el matiz complementario: lo que produce aprendizaje real es la carga que obliga a procesar, conectar y construir. Ese límite, sin embargo, no es universal. Para estudiantes con dislexia o TDAH, usar IA para destrabar el primer párrafo genera equidad, no deuda. El límite entre el andamio y la muleta depende siempre de quién está caminando.

La promesa optimista de que la IA nos puede ayudar a personalizar el aprendizaje y superar las inequidades en el aula sigue incumplida. Para usar la IA como andamio –por ejemplo, revisar sus respuestas; decidir la pertinencia de las ideas a incluir en nuestro texto; analizar desde qué lugar teórico surgen y si estamos de acuerdo con ese posicionamiento; qué cambios hacer en la textualización para no perder nuestra propia voz– se necesita saber. Saber sobre los temas disciplinares, saberes sociales sobre los ámbitos y las convenciones, saberes lingüísticos y discursivos. Y este saber no está distribuido equitativamente entre nuestros estudiantes. Quien más dominio tenga sobre estos saberes, va a estar mejor preparado para hacer un uso más efectivo y ético de la herramienta. Y para esto, no hay atajos.

De prohibir a enseñar cómo integrar para aprender

Frente al desafío que para los docentes representa enseñar en un mundo con IA, la respuesta más tentadora –y más antigua– es la prohibición. Las escuelas ya declararon la guerra a la calculadora, a Wikipedia, al celular. Si algo distorsiona el aula, se destierra. Ahora le toca a la IA: si ella escribe, que no entre. Es una respuesta AC en un mundo DC. Desde esa posición, el docente queda reducido a detector, vigilante o cazador, y al evaluar tiene que tratar a todos sus estudiantes como sospechosos antes de leer una sola línea.

La carrera que sigue es predecible. La presa aprende a no ser atrapada y, en esta pelea entre el gato y el ratón, la tecnología avanza más rápido que cualquier herramienta de detección. En 2023, la propia OpenAI retiró su clasificador de texto generado admitiendo su baja precisión, con una tasa de error que lo hacía inútil en la práctica. Un presentador en un webinar oficial de la empresa recomendó, ante la pregunta por la integridad académica, volver a los blue books –los cuadernillos de examen en papel–, comparable a que la cadena de comida rápida McDonald’s recomiende cocinar en casa.

Consideramos que el rediseño pedagógico es una alternativa para evitar esta incómoda posición de la sospecha. Es la opción más compleja, la que exige más tiempo y más esfuerzo, y la que tampoco garantiza nada. Es también la que nos devuelve a la esencia de nuestro rol: intentar que nuestros alumnos aprendan más y mejor. Como ya sabemos, no existen fórmulas mágicas; sin embargo, hay caminos posibles.

Cuando las consignas requieren recorrido visible –borradores, decisiones justificadas, narración del recorrido–, la trampa se vuelve mucho más difícil y mucho menos tentadora. Una consigna tradicional como “escriba un ensayo sobre las causas de la Revolución francesa” se resuelve con IA en segundos. Una que pide señalar tres errores en el texto que la IA produce sobre ese mismo tema, justificarlos con la bibliografía y reflexionar sobre ese diálogo es otra cosa, convierte a la IA en materia prima; no en un atajo. No es infalible –un estudiante muy decidido puede pedirle a otra IA que critique a la primera–, pero eleva el costo del atajo hasta acercarlo al del aprendizaje real. Y eso es mucho más que lo que logra cualquier detector.

Cuando las consignas implican escribir para alguien de verdad, con un propósito auténtico, cobra más sentido revisar crítica y éticamente lo que sugiere la IA, si decidimos usarla. Ya no se trata de escribir para un docente, en la privacidad de la relación didáctica: alguien que ya sabe lo que se supone que el alumno debe explicar o que ya está convencido de lo que el estudiante debe defender. Ante una audiencia real, nuestro nombre estará expuesto, seremos desafiados a ser convincentes y sólidos para ser tomados en cuenta, estaremos visibles ante una comunidad. Nos referimos a las propuestas de producciones destinadas a un medio estudiantil o académico, a una jornada o un congreso, que invitan al estudiante a cambiar la relación con lo que escribe y con sus lectores.

Cuando las consignas suponen concebir la escritura como un proceso de interacción con otros, se habilita el lugar del que escribe como autor de su propio texto o como contribuyente de textos ajenos. Nos referimos a dialogar con la bibliografía para generar ideas y abrir preguntas; con los compañeros para discutir la consigna, tomar posiciones, argumentarlas; con los aportes del docente: activar el componente dialógico de la escritura. ¿Puede enseñarse a usar la IA para generar interacciones ricas que permitan iterar y complementar estos procesos, sin evitarlos? El aprendizaje de la escritura nunca fue en solitario; en la era de la IA, rescatar esa dimensión colectiva se vuelve más necesario, no menos.

Cuando el propósito de una actividad lo habilite, podemos integrar el uso de la IA desde la consigna con propuestas orientadas a construir usos críticos, incorporándola en alguno de los procesos implicados en el escribir. Podemos habilitar el uso de la IA para explorar ideas al inicio y pedir que justifiquen la toma de decisiones final en su texto. O, elaborada una primera versión, podemos invitar a los alumnos a que le pidan a la IA identificar problemas en la progresión de la información, en el uso de conectores, en la estructura sintáctica de las oraciones o en la ortografía y que, a partir de las respuestas, presenten y justifiquen las decisiones sobre los cambios.

Cuando valoramos que los sesgos y alucinaciones de la IA son riesgos reales y nos disponemos a poner la IA bajo la lupa junto con ellos, los problemas del uso acrítico de la herramienta se vuelven más palpables. Probarla en clase, identificar errores factuales, detectar sesgos o analizar cómo cambian las respuestas según la forma del prompt es una forma de entrenar el criterio propio. Un estudiante que busca activamente cuándo la herramienta falla, distorsiona o simplifica está en condiciones de usarla bien. Uno que la acepta sin más, está incorporando una voz que no interrogó, una síntesis que no construyó, una conclusión cuyas premisas no valoró. El criterio no es solo técnico; es también ético.

Cuando usamos IA, declararla es una cuestión de integridad intelectual. Así como les pedimos a los estudiantes que citen sus fuentes, también deben explicitar qué IA usaron y para qué. Pero la sola declaración no alcanza. La experiencia en aulas universitarias lo confirma: tres de cada cuatro estudiantes no declararon el uso de IA, aunque era obligatorio, según una publicación de la investigadora Chahna Gonsalves de 2024 con alumnos de una facultad de Reino Unido. Entonces, sin un proceso visible, declarar no mueve la aguja. Funciona cuando hay borradores sucesivos, devoluciones en el proceso y no solo al final. Quien puede narrar su camino –explicar qué decidió, qué cambió, qué sostuvo y por qué– prueba algo que ningún texto ajeno puede imitar. Implica un uso sin atajos. Ese relato no es un trámite; es evidencia evaluable en sí misma, tan válida como el producto final.

Finalmente, pensar cómo integrar la IA para aprender nos lleva a la cuestión de la transparencia: esta no debería ser una exigencia solamente para los estudiantes. Si también nosotros usamos IA para diseñar consignas, generar rúbricas y dar retroalimentación, nombrar ese uso –cuándo, para qué, qué se revisó después– es parte del mismo contrato intelectual que le pedimos al estudiante. Incluir la dimensión ética en el aula, como asunto a discutir con los estudiantes, no es opcional.

Las torceduras y las cicatrices

Para terminar, volvamos al inicio. Aquellos estudiantes entregaron textos que cerraban bien, sin fisuras visibles ni titubeos; carecían de la huella de quien escribe por primera vez sobre algo que le importa. Esa superficie lisa no evidencia un aprendizaje. Lo que hace que un texto sea genuinamente de alguien no es su fluidez, sino sus marcas. Se nota en la decisión que costó tomar, el argumento que se reescribió tres veces o la idea que se sostuvo porque alguien la pensó, la revisó y eligió defenderla.

Son estas marcas las que evidencian su agencia: la capacidad de decir “esta idea es mía, la pensé yo y me hago cargo”. Es exactamente lo que se construye si alguien escribe de verdad, revisa, decide y asume lo que afirma. Ninguna IA la fabrica porque ninguna la padece. Las torceduras y las cicatrices que buscábamos en esos textos no son imperfecciones, sino la prueba de que alguien estuvo ahí.

Jennifer Silva es profesora de Lengua y Literatura, licenciada en Psicología y magíster en Currículum y Aprendizaje. Ha profundizado en la enseñanza de la lectura, la escritura y la oralidad académicas a futuros profesores como docente efectiva en el Consejo de Formación en Educación. Pablo de los Campos es especialista en educación y docente de Ciencias de la Computación. Dirige el área de Tecnología e Innovación en la Escuela Integral, donde impulsa proyectos de robótica, programación y recursos digitales desde inicial hasta bachillerato.

Ciencia en primera persona es un espacio abierto para que científicos y científicas reflexionen sobre el mundo y sus particularidades. Los esperamos en ciencia@ladiaria.com.uy.


  1. Aclaración: aunque la inteligencia artificial incluye múltiples tecnologías, en este artículo usamos el término en un sentido acotado para referirnos a la inteligencia artificial generativa. Más específicamente, aludimos a los grandes modelos de lenguaje (LLM, por sus siglas en inglés), sistemas de aprendizaje automático entrenados para procesar, predecir y generar texto en lenguaje natural como ChatGPT, Claude o Gemini. 

¿Tenés algún aporte para hacer?

Valoramos cualquier aporte aclaratorio que quieras realizar sobre el artículo que acabás de leer, podés hacerlo completando este formulario.

¿Te interesa la ciencia?
Suscribite y recibí la newsletter de Ciencia en tu email.
Suscribite
¿Te interesa la ciencia?
Recibí la newsletter de Ciencia en tu email cada dos viernes.
Recibir
Este artículo está guardado para leer después en tu lista de lectura
¿Terminaste de leerlo?
Guardaste este artículo como favorito en tu lista de lectura