Opinión Ingresá
Opinión

La inteligencia artificial y nuestra obediencia sin juicio: una combinación que sí amenaza

7 minutos de lectura
Contenido exclusivo con tu suscripción de pago
Contenido no disponible con tu suscripción actual
Exclusivo para suscripción digital de pago
Actualizá tu suscripción para tener acceso ilimitado a todos los contenidos del sitio
Para acceder a todos los contenidos de manera ilimitada
Exclusivo para suscripción digital de pago
Para acceder a todos los contenidos del sitio
Si ya tenés una cuenta
Te queda 1 artículo gratuito
Este es tu último artículo gratuito
Nuestro periodismo depende de vos
Nuestro periodismo depende de vos
Si ya tenés una cuenta
Registrate para acceder a 6 artículos gratis por mes
Llegaste al límite de artículos gratuitos
Nuestro periodismo depende de vos
Para seguir leyendo ingresá o suscribite
Si ya tenés una cuenta
o registrate para acceder a 6 artículos gratis por mes

Editar

“La inteligencia artificial (IA) no es una amenaza: es un detector de nuestra pereza intelectual”. Esta idea, inspirada en la filosofía del español Daniel Innerarity, resume el gran reto de la era generativa. Tenemos máquinas capaces de producir textos, imágenes y argumentos a una velocidad que ningún humano podría igualar... pero eso no significa que piensen por nosotros.

El verdadero riesgo no es la IA: es nuestra costumbre, tan humana como arraigada, de barrer bajo la alfombra los errores para no verlos, como si así dejaran de existir. Es una herencia de nuestra cultura: ocultar la mugre parece más cómodo que enfrentarla y limpiarla. Es esa vieja enseñanza que asocia fallar con regaño y vergüenza, como si equivocarse fuera prueba de incapacidad y no una puerta para entendernos mejor.

Hannah Arendt lo advirtió hace décadas: el mayor peligro no es la máquina, sino cuando dejamos de usar nuestro juicio. En tiempos de IA, ese juicio es nuestro mejor antídoto para no convertirnos, otra vez, en piezas obedientes de una fábrica mental, como si siguiéramos atascados en la cinta de Tiempos modernos.

No podemos ser ingenuos: detrás de la IA hay intereses corporativos, plataformas y agendas propias. No es un ente neutro. Su poder se multiplica cuando encuentra usuarios dispuestos a delegar sin preguntar a quién beneficia cada respuesta. Una IA mal regulada y una cultura obediente se retroalimentan: ahí es donde se vuelve realmente peligrosa.

La pregunta es incómoda, pero urgente: ¿qué hacemos con esta tecnología que actúa como un espejo brutal de nuestras rutinas sin reflexión? ¿Seguiremos buscando atajos para cumplir sin pensar… o elegiremos aprender, equivocarnos y crear algo que ninguna máquina podrá reemplazar?

Esta pregunta no es sólo para quien copia y delega sin criterio, es también para quien se aferra a la comodidad de no cambiar. Porque el miedo es profundo: miedo a perder trabajos, a perder jerarquías, a perder esa estabilidad que sostenía un lugar en la cadena de mando. Miedo a la tecnología, miedo a compartir poder, miedo a que el otro cuestione lo que siempre se dio por sentado.

Como recordaba el historiador Georges Duby, el miedo al otro, a lo distinto, a lo que desplaza, ha acompañado a la humanidad a lo largo de toda su historia. Hoy, a esos miedos se suma la IA: un otro sin rostro, pero que irrumpe, reorganiza y nos obliga a mirarnos sin disfraz. Y cuando este miedo coincide con otros miedos –cambios migratorios, transformaciones laborales, nuevas formas de comunidad– se vuelve más humano que nunca. No se trata de negar el miedo, sino de preguntarnos: ¿qué haremos con él? ¿Lo barreremos bajo la alfombra, como si al no verlo no existiera? ¿O nos atreveremos a enfrentarlo y resignificarlo juntos?

Quizá los clásicos griegos dirían lo mismo hoy que hace siglos: que el miedo no es el enemigo, sino la oportunidad de recordar que “solo sé que no sé nada”: Sócrates. Que aprender es natural, pero requiere virtud para sostenerse, como enseñaba Aristóteles; y que nuestro carácter, al enfrentar lo desconocido, es lo que traza nuestro destino, afirmaba Heráclito. Hoy ese “otro” que tememos se llama IA. La pregunta es la misma de siempre: ¿la veremos cómo amenaza... o como invitación a pensar, a fallar y a crear juntos algo que ninguna máquina podrá repetir?

El miedo a fallar

Desde la escuela, muchos aprendimos que equivocarse era sinónimo de regaño y señalamiento. Durante años, la calificación perfecta fue la recompensa más deseada, aunque detrás sólo hubiera repetición mecánica y miedo a arriesgarse.

El pedagogo brasileño Paulo Freire lo llamó educación bancaria: un sistema que deposita datos en la mente del estudiante y castiga el error como si fuera un pecado, en lugar de verlo como el inicio de la comprensión crítica. “Mejor no intento nada nuevo, no vaya a equivocarme y perder puntos”. Muchos han advertido que la escuela fomenta obediencia más que pensamiento libre, y que confundimos “cumplir” con “aprender”. Hoy, la IA generativa expone esa fragilidad con crudeza: produce un ensayo en segundos, pero revela nuestra falta de criterio para cuestionarlo. Si nada falla, nada se aprende.

Byung-Chul Han, en La sociedad del cansancio, observa que la mayor trampa contemporánea no es el exceso de trabajo impuesto, sino la autoexplotación disfrazada de rendimiento perfecto. Nos exigimos sin pausa, pero tememos ver nuestra propia fragilidad. Por eso barrer la mugre bajo la alfombra es tan tentador: mientras no la veamos, podemos seguir aparentando que cumplimos.

Entonces, ¿qué sentido tiene una calificación impecable si nunca nos damos permiso de fallar? Si la IA hace el trabajo mecánico, ¿qué hacemos nosotros con ese tiempo liberado? Neil Postman advertía que cuando la forma devora el contenido, la sustancia se disuelve. Fallar, mirar la mugre, limpiar con conciencia: eso es lo que ningún algoritmo puede hacer por nosotros.

Esa lección no es sólo una idea teórica para mí: la viví en carne propia. Lo vi de primera mano cuando era estudiante de Historia en Uruguay, en los años 90. Recuerdo cuántas trabas burocráticas y filtros académicos había en la Facultad de Humanidades y Ciencias de la Educación: tesis interminables, revisiones eternas y miedo a no “dar la talla” por temor a equivocarse o ser señalado. De mi generación sólo conozco a dos personas que lograron recibirse. Esa experiencia me marcó porque muestra cómo, incluso en espacios que deberían fomentar la curiosidad y la reflexión libre, el miedo al error se convierte en una barrera invisible. Hoy, con la IA, ese patrón puede repetirse si no aprendemos a usarla como una herramienta –como muleta, no como atajo– para pensar mejor y no sólo para “cumplir” sin cuestionar nada.

De Chaplin a la IA

Charles Chaplin, en Tiempos modernos, se burló de un sistema que reduce a la persona a un tornillo más de la gran máquina: un obrero que aprieta tuercas sin entender el todo, repetitivo, sustituible. Un siglo después, esa imagen sigue viva, sólo que ahora la línea de ensamblaje es mental: tareas sin cuestionar, contenidos generados sin criterio.

No se trata de prohibir la IA ni de temerle como un monstruo, sino de aprender a usarla bien. No existe sustituto para la curiosidad, la empatía y la ética.

Hoy podemos producir en minutos campañas, guiones, mundos virtuales... y la lista sigue y sigue. Todo pulido, todo aparente, pero cada pieza generada necesita a alguien que pregunte: ¿qué sentido tiene? ¿Para qué sirve?

Arendt sigue vigente: el verdadero riesgo no está en la tecnología, sino en renunciar a usar nuestro juicio. La obediencia mecánica que ella señalaba como raíz de la banalidad del mal se manifiesta hoy como aceptar sin hacer preguntas, aceptar lo que una máquina dicta como correcto. La IA no es la amenaza: es el espejo de cuánto preferimos repetir sin pensar.

El reto real: director de orquesta y no un simple usuario

Hay una idea que resuena cada vez que surge la conversación sobre IA: “Va a quitarnos trabajo”. Lo cierto es que pasa todo lo contrario. La IA no reduce el trabajo: lo transforma y lo multiplica. Lo mecánico se automatiza, sí, pero cada contenido generado –una imagen, un texto, un guion, una propuesta– necesita a alguien que piense, filtre, conecte ideas y garantice coherencia.

No hay atajo: tiene que existir un estratega, un director de orquesta, un curador que sepa cuándo aceptar lo que la IA sugiere y cuándo decir “esto no conecta, falta propósito, falta voz”. Esa habilidad no se aprende apretando un botón. Es experiencia, sí, pero también es lectura, error, paciencia y pasión. La experiencia, que a veces idealizamos, no es otra cosa que muchos errores transformados en criterio.

Este mismo reto lo enfrentan docentes, editores, creativos, líderes de equipo, estudiantes. No se trata de prohibir la IA ni de temerle como un monstruo, sino de aprender a usarla bien. No existe sustituto para la curiosidad, la empatía y la ética. Hay que evaluar sin miedo el error, dar espacio a la conversación incómoda y resignificar el “fracaso” como parte del aprendizaje. Trabajar horizontalmente, sin silos, con la IA como herramienta que libera tiempo para pensar –no para dejar de pensar–, es parte de esta nueva forma de trabajar. El error no es enemigo: es la chispa que da vida a la experiencia real.

Prototipar el futuro

Esta idea de aprender explorando, fallando y versionando no es nueva, la propuso María Montessori (1870-1952), pedagoga italiana que defendió la mente absorbente como motor de curiosidad en la infancia. Surgió también en la ciudad de Reggio Emilia, donde Loris Malaguzzi (1920-1994) impulsó una filosofía en la que cada niño es protagonista activo y el error se celebra como hallazgo. Hoy, escuelas como High Tech High, nacida en California a fines de los 90, apuestan por proyectos reales, feedback entre pares y publicaciones visibles. Países como Finlandia implementan el phenomenon-based learning para cruzar disciplinas y resolver problemas complejos, mientras que Singapur integra el Design Thinking desde primaria y evalúa la metacognición: pensar sobre cómo pensamos.

Estos enfoques recuerdan algo esencial: la verdadera innovación educativa no depende sólo de aulas sueltas o voluntades individuales, sino de sistemas que permitan experimentar sin miedo. Los gobiernos que diseñan currículos, acreditan programas y forman a los futuros maestros tienen un desafío urgente: dejar de premiar la obediencia mecánica y empezar a proteger el espacio del error como insumo de aprendizaje. En la era de la IA generativa, esta pregunta es más incómoda y necesaria que nunca: ¿seguiremos formando nuevos profesionales como piezas de una fábrica mental? ¿O nos atreveremos a crear entornos –en la escuela, la universidad, la empresa– donde la curiosidad, la iteración y el juicio propio sean la norma, no la excepción?

Montessori y Design Thinking tienen algo profundo en común: confían en la curiosidad como motor y en el error como chispa, no como condena. Hoy, un prompt –esa instrucción o pregunta que damos a la IA para que genere una respuesta– puede ser nuestro material Montessori del siglo XXI: no existe para recibir una respuesta perfecta, sino para abrir versiones, contrastar sesgos y hacer visible lo que falta.

¿Es posible este Laboratorio Montessori-Prompt? Sí, si se entiende como una evolución viva de la esencia montessoriana: enseñar a cuestionar, sostener la curiosidad y sacar conclusiones propias sin miedo a equivocarse. No se trata de replicar un método físico, sino de aplicar esa filosofía de exploración crítica desde la primaria, la secundaria o la universidad: usar prompts como disparadores de hipótesis, compartir versiones imperfectas, hackear respuestas, revisar sesgos y documentar hallazgos. No es utopía: es un prototipo vivo que puede germinar en cualquier aula, equipo de trabajo o comunidad curiosa. Montessori, más que método, como semilla para reforzar la enseñanza del criterio en la era IA.

Una IA sin criterio humano puede volverse sólo otro atajo cómodo para repetir sin pensar; o, peor aún, una excusa para delegar en algoritmos decisiones que deberían orquestarse desde la ética y la comunidad. El desafío no es temer a la herramienta, sino aprender a sostener la pregunta incómoda y usarla como chispa para pensar juntos.

Porque ya no basta con pedir una respuesta perfecta: basta con mantener la pregunta abierta, dejar que falle, mostrar la versión imperfecta y compartirla como hallazgo vivo. Porque ese músculo crítico –prototipar, pulir, fallar sin disfraz– es lo único que ningún modelo puede automatizar. El mejor futuro no se predice, se prototipa, se comparte y se construye juntos.

Leticia Borrazás es historiadora y directora del área de contenido estratégico de Clickplan, empresa mexicana de diseño e implementación de estrategias de marketing de contenido digital.

¿Tenés algún aporte para hacer?

Valoramos cualquier aporte aclaratorio que quieras realizar sobre el artículo que acabás de leer, podés hacerlo completando este formulario.

¿Te interesan las opiniones?
None
Suscribite
¿Te interesan las opiniones?
Recibí la newsletter de Opinión en tu email todos los sábados.
Recibir
Este artículo está guardado para leer después en tu lista de lectura
¿Terminaste de leerlo?
Guardaste este artículo como favorito en tu lista de lectura