Según un estudio publicado por Scientific American, un grupo de científicos analizó más de 360.000 videos de Youtube y 771.000 episodios de podcast anteriores y posteriores al lanzamiento de ChatGPT para rastrear el uso de palabras relacionadas con ChatGPT y el de ciertos signos. Una de las primeras cosas que llamaron la atención de los investigadores fue el aumento en el uso de palabras como delve (ahondar), que aparecen con mucha frecuencia en el entrenamiento de los bots que se realizan en países como Kenia o Nigeria, en África, donde se subcontratan estos servicios con mano de obra más barata que en Estados Unidos.

Lo que los investigadores hicieron primero fue editar millones de páginas de mails, ensayos y publicaciones científicas que utilizaban prompts típicos como “pulí el texto” o “mejorá la claridad”, para entender qué devolvía el asistente, que en la mayoría de los casos añadía palabras que se repetían sistemáticamente, como delve, realm y meticulous, para luego analizar discurso reciente en distintos formatos (videos, podcast, etcétera) y encontrar que efectivamente este patrón repetitivo en el léxico se estaba trasladando desde lo escrito a lo oral, es decir, al discurso.

Todo esto tiene importantes implicaciones en tanto el lenguaje moldea cómo pensamos, mientras cada vez más niños están usando asistentes de IA en las escuelas y también se introduce en la vida académica. El efecto derrame que está produciendo en el modo en que hablamos y escribimos cotidianamente podría tener implicancias a futuro que no deberían minimizarse.

¿Una convivencia forzada?

Durante el último año uno de los debates más acalorados ha sido cómo implementar la IA en los ámbitos educativos y la academia. Mientras que en América del Norte los actores más importantes en tecnología educativa, como Google, Microsoft y Khan Academy, están promoviendo fuertemente la IA (para investigación estudiantil, tutoría y planificación de lecciones), unos pocos e incipientes estudios están empezando a revelar los “costos cognitivos” del uso de la IA generativa.

En este sentido, un experimento realizado el año pasado en el Instituto Tecnológico de Massachusetts (MIT), entre más de 50 estudiantes de universidades divididos en grupos y con la consigna de escribir ensayos con la ayuda de IA y por sí solos, reveló que los usuarios del LLM (grandes modelos de lenguaje, un tipo de inteligencia artificial entrenado para procesarlo y generarlo) no sentían ningún tipo de propiedad sobre los ensayos que habían escrito, y que el 80% no podía citar lo que había escrito. Además de que los sujetos que usaron ChatGPT mostraron menos actividad cerebral que cualquiera de los otros grupos, tendían a converger en palabras e ideas comunes, lo que llevaba a la conclusión de que el uso de IA tuvo un efecto homogeneizador.

Esta idea está totalmente en línea con lo que descubrieron los científicos del Instituto Max Planck de Desarrollo Humano en Berlín: señalan que desde los dos años que llevamos usando GPT ya se ha visto un incremento diez veces mayor en el uso de palabras como delve en los trabajos académicos y el lenguaje oral coloquial. Como todo círculo vicioso, más usamos GPT para ayudarnos a escribir y trabajar en nuestras vidas cotidianas, más van a aparecer ciertas repeticiones de palabras –aunque no exclusivamente esos, también construcciones, expresiones y hasta ideas– y más vamos a naturalizar esos usos. “Internalizamos este vocabulario virtual en la comunicación diaria”, afirma Hiromu Yakura, autor principal del estudio e investigador en el Instituto Planck.

Pero ojo que además de sumarse palabras “preferidas” por los bots a nuestra expresión coloquial, como prowess y tapestry, otras palabras, como bolster, unearth y nuance, han disminuido. Los investigadores ya están documentando cambios en nuestra forma de hablar señalando que la influencia lingüística se está convirtiendo en algo mucho más amplio de lo que creemos. No es sólo lo que estamos usando más o repitiendo, sino también lo que estamos dejando de lado. Estos procesos sólo van a acelerarse al tiempo que se vuelva cada vez más difícil distinguir entre la expresión producida por una IA, el lenguaje humano influenciado por esta y el lenguaje humano natural.

¿Por qué no es bueno hablar como GPT? Esta pregunta podría ser un buen puntapié para discutir con los tecnoptimistas que ven en la incorporación de estas nuevas tecnologías una mejora indiscutible en nuestros procesos de trabajo. De hecho, muchos podrían argumentar que el lenguaje evoluciona y se actualiza constantemente (ver la incorporación de palabras nuevas todos los años, el lenguaje inclusivo, los emojis, etcétera) y que los avances tecnológicos –la imprenta y la radio, entre tantos– han moldeado desde siempre la forma en que las personas se comunican. Pero lo que este análisis omite es que estas nuevas tecnologías no son neutrales y su impacto acarrea una serie de problemas en relación con los sesgos y falencias que estos asistentes cargan, por la manera en que son producidos, entrenados y hasta comercializados.

Respecto de esto último, según un artículo del periódico británico The Guardian, los desarrolladores de Apple han estado entrenando su modelo de IA con textos no especificados. Aproximadamente la mitad de los teléfonos vendidos en Reino Unido son de Apple, y el lanzamiento de su IA se produce después de que Google y Microsoft lanzaran sus propias herramientas para ayudar a los usuarios a ajustar el tono de escritura a través de sus IA Gemini y Copilot.

Si entendemos que la IA generativa depende en gran medida del entrenamiento de algoritmos con grandes bases de datos, que a su vez son etiquetadas o rotuladas según distintas morfologías, y que mucho de este trabajo es realizado por humanos de carne y hueso, es más fácil rastrear los posibles sesgos y el refuerzo de prejuicios. Una investigación de la Universidad de California descubrió que las respuestas que la IA devuelve contenían estereotipos o aproximaciones imprecisas cuando se les pedía que usaran dialectos distintos del inglés estándar estadounidense. Vale recordar que allí está el epicentro de producción de muchas de estas tecnologías, al ser precisamente empresas estadounidenses. Esto ocurre porque las lenguas predominantemente orales, como el guaraní —que representan más de la mitad de los idiomas del mundo—, carecen de suficientes datos de entrenamiento y enfrentan escasos incentivos económicos para su integración. Como resultado, casi siete millones de hablantes en Paraguay, Bolivia y Argentina se ven aún más expuestos a la desinformación, la exclusión digital y la erosión de sus derechos lingüísticos.

Pero la brecha digital e idiomática no se da únicamente en relación con América Latina. Para otro estudio, de la Universidad de Cornell, se hizo un experimento en el que una herramienta de escritura con IA hizo que los participantes indios escribieran como los estadounidenses, “homogeneizando la escritura hacia estilos occidentales y reduciendo los matices que diferencian la expresión cultural”, detallaron los autores. Toda esta evidencia muestra que la IA no sólo prefiere el inglés estándar estadounidense, sino que también aplana activamente otros dialectos de maneras que pueden resultar discriminatorias, no sólo homogeneizando las diferencias culturales, también estableciendo prelaciones que denotan etnocentrismo.

Lo que perdemos en el camino

Otros impactos en el lenguaje oral que quizás no estamos considerando o que parecen más sutiles pero que están ahí, según un excelente artículo de The Verge titulado “Sonás como ChatGPT”, tienen que ver también con el tono y las afectaciones cuando hablamos, que nos hacen empezar a oírnos como ChatGPT, es decir, más robóticos. Ya abundan las parodias en redes sobre el uso indiscriminado de GPT para responder mails, mensajes y hasta preguntas en interacciones cara a cara, y que está transformándonos en pequeños autómatas.

“Aunque los estudios actuales se centran principalmente en el vocabulario, los investigadores sospechan que la influencia de la IA también se está notando en el tono, en forma de un discurso más largo y estructurado, y una expresión emocional más contenida”, dice Levin Brinkmann, coautor del estudio del Instituto Planck.

En donde se ponen de manifiesto los impactos de la IA de manera más evidente es en funciones como las respuestas inteligentes (que sugiere respuestas rápidas y contextuales a los mensajes para agilizar la comunicación), el autocorrector y el corrector ortográfico. A su vez, esto genera otra paradoja que los científicos están notando: aunque el uso de las respuestas inteligentes aumenta la cooperación general y la sensación de cercanía, ya que los usuarios terminan seleccionando un lenguaje emocional más positivo, a la vez puede generar un efecto negativo si los interlocutores sospechan que se está usando IA para responder.

En suma, las señales básicas de humanidad que no se traducen bien y que son esenciales en los intercambios son las reacciones de vulnerabilidad cuando se comparte información sensible, el esfuerzo intencional de no delegar la respuesta en una máquina que muestra atención e importancia y, por último, las características personales, como el sentido del humor, demarcadores de autenticidad y personalidad.

“Cuando todos a nuestro alrededor empiezan a parecer ‘correctos’, perdemos las evasivas, los modismos regionales y las frases extravagantes que denotan vulnerabilidad, autenticidad y personalidad. El lenguaje conciso que utilizamos al contactar a un chatbot puede hacer que desechemos cualquier gentileza o floritura literaria al comunicarnos con amigos y colegas”, indica el artículo. Otros proponen que el idiolecto (el conjunto de rasgos propios de la forma de expresarse de un individuo) corre riesgo porque los sistemas de IA como el de Apple no analizan los datos de los usuarios para entrenarse: una buena noticia para los clientes preocupados por la seguridad de sus datos, pero no para quienes esperan que la IA aprenda su tono.

No seas aparato

Así como nos preocupamos por la interacción que los nativos digitales tienen desde pequeños con la tecnología, pensando en la exposición a las pantallas o incluso en adolescencias que hoy no podrían pensarse sin redes sociales, ¿acaso no deberíamos preguntarnos por las implicancias que podría tener crecer o pasar etapas formativas de nuestras vidas con los chatbots como principales interlocutores? “Como una persona cuyas únicas experiencias sexuales han estado mediadas por la pornografía o el erotismo, podrían tener expectativas poco realistas de sus parejas humanas. Y cuanto más ubicuos y realistas se vuelvan los chatbots, mayor será su impacto”, vaticina un editorial de The Atlantic.

Pero tal vez no se trate tanto, o solamente, de si la IA seguirá moldeando nuestra forma de hablar, ya que sin dudas lo está haciendo y lo hará, sino de cómo impactará la manera en que pensamos sobre el lenguaje y si elegiremos activamente preservar nuestras peculiaridades verbales, nuestros localismos y “color humano”, o nos rendiremos a una comunicación más inexpresiva y homogénea. Desde la sociedad civil surgen cada vez más iniciativas como el proyecto AIkuaa, una iniciativa de El Surti que busca crear y fortalecer datos abiertos de voz en guaraní, uno de los idiomas oficiales de Paraguay y una de las lenguas nativas más habladas de América del Sur, pero aun significativamente subrepresentada en los sistemas de IA.

El desafío es que la comunicación no termine dándose casi únicamente entre máquinas, como ya se está viendo en el mundo laboral en relación con la “enshitificación” (un término que describe cómo plataformas y productos se convierten en basura) de las búsquedas laborales y el software desarrollado para detectar las aplicaciones y currículums hechos con IA. O como podría suceder si crece el uso de ChatGPT para la comunicación diaria y el discurso coloquial: una persona recurre a una herramienta de IA para enviar un correo electrónico extenso y profesional que, del otro lado, un destinatario recibirá mediante otra herramienta que rezume prosa sin necesidad de leerla. Algo así como el meme de los Hombre Araña señalándose unos a otros hecho realidad.

Por eso tampoco faltan los que ya vaticinan una reacción negativa en los usos de la IA y su predominio: personas que optan por dejarla total o parcialmente y hasta desarrollan nuevas y propias formas de hablar o léxicos para sortear el algoritmo online, como explica el etimólogo Adam Aleksic, que estudia cómo internet está transformando el lenguaje, en su libro Algospeak. Así se abre una serie de interrogantes acerca de los límites y problemas de estas tecnologías, pero también sobre cómo cultivar la soberanía digital, cultural y lingüística como una aptitud indispensable para el futuro que se viene o, más bien, que ya está acá.