Jack Nicholson entra al almacén de la estación de servicio, se acoda en el mostrador y pide “una caja de luces”. Qué extraño, pienso, que este policía jubilado, sin ningún motivo, quiera comprar una caja de luces en una estación de servicio. ¿Era el cumpleaños de alguien? ¿Va a decorar su balcón? Nada de esto coincide con la imagen del personaje que la película viene armando. Mientras pienso en estas posibilidades, el vendedor le da un paquete de cigarrillos, el señor paga, y ahí entiendo lo que pasaba. Jerry Black, el personaje de The Pledge, no le pidió una caja de luces al vendedor, sino una caja de cigarrillos light. A box of lights. Cuando la escena termina y Jerry sale de la estación prendiéndose un pucho, pienso que todo el tiempo que invertí en hacer una hipótesis acerca de por qué el expolicía querría una caja de luces fue tiempo durante el que me distraje de lo que, yo creo, es lo más importante, tanto para el director como para los actores, los productores y, quiero creer, Netflix: la trama de la película.
Tiempo después, me contactaron de una agencia de traducción china para proponerme lo que antes generaba escándalo y ahora se ha vuelto muy común en mi profesión: las famosas MTPE tasks o machine translation post-editing, es decir, la tarea de “editar” lo que una máquina tradujo. Nunca había recibido una propuesta de este tipo. Buscando en foros de traductores, descubro que es bastante común. Lo primero que pienso es que tengo que negarme. Es cierto que, por un lado, aceptar estas tareas es aceptar nuestra derrota. Muchos traductores piensan que, de todos modos, la inteligencia artificial (IA) jamás será capaz de remplazar al traductor humano. Yo tengo mis dudas al respecto. Sin embargo, aunque el futuro acabe demostrando que efectivamente no se puede prescindir de los humanos para traducir, es un hecho que ya se está traduciendo sin humanos y, en algunos casos, los resultados no parecen ser tan catastróficos.
Lo cierto es que “la máquina”, o traductor automático, o LLM (large language model), ya sea DeepL, Google Translate o ChatGPT, sí puede hacer, al menos, parte de nuestro trabajo. Y no sólo puede hacerlo, sino que, además, puede lograr que la finalidad comunicativa se cumpla, lo que no es poco. Si, por ejemplo, le pido a DeepL, un traductor automático, que traduzca el párrafo de Wikipedia que cuenta el inicio de la trama de The Pledge, me da el siguiente resultado: “Jerry Black, detective de la policía de Reno (Nevada), asiste a una fiesta de jubilación organizada por su departamento durante la cual el capitán Pollack le regala unos billetes para un viaje de pesca en México. La celebración se ve interrumpida por el descubrimiento de una niña asesinada, Ginny Larsen. Jerry decide ir con otro detective, Stan Krolak, a la escena del crimen”.
A la pregunta ¿es esto una traducción del texto original?, honestamente, habría que responder que sí. Ahora bien: ¿es esto una buena traducción? Probablemente haya que responder que no, por varios motivos. En primer lugar, el traductor automático omite un concepto que figura en el original, relacionado con la caracterización del personaje. En inglés, el párrafo comienza así: “Aging Reno, Nevada, police detective Jerry Black...”. ¿Cómo sabemos, en español, que Jerry es un señor de edad avanzada y que, por lo tanto, es altamente probable que la “fiesta de jubilación” se haya organizado en su honor?
El traductor automático no sólo comete estas omisiones. Además, elige términos que sí, se entienden, pero no son los que realmente se usan. Lo que propone el traductor automático no es lo que diríamos nosotros naturalmente. Una lengua no es la suma de todas las palabras de un diccionario, sino el uso que los hablantes hacemos de ella como herramienta, y ese uso está enmarcado en un contexto sociocultural que, por definición, está vivo y en constante movimiento, a diferencia del diccionario.
Traducir bien, tal como se entendió a partir del surgimiento de la traductología como disciplina, no es solamente buscar equivalentes en el diccionario. Nuestro trabajo es sumergirnos en el contexto sociocultural de partida, entender sus usos y convertir esa materia prima en nuevos usos dentro de un nuevo contexto: el de la lengua de llegada. Traducir bien, entre otras cosas, es que quien lea la traducción no se dé cuenta de que es una traducción. El inglés traducido al español no debe sonar a inglés traducido. Eso, que se llama “traducción literal” o “palabra por palabra” (y que, por cierto, fue la forma de traducir durante siglos), no se considera actualmente una buena traducción, porque en vez de hacer dialogar a dos culturas simplemente impone a una sobre la otra. Cuando un personaje dice “Please, just tell me”, traducir esto como “Por favor, sólo dímelo” es hacer una traducción literal o un “calco” y faltarle el respeto groseramente a un idioma en el que jamás nadie, nunca, dirá espontáneamente, en ninguna variedad, “sólo dímelo”.
Algo así ocurre con nuestra traducción del párrafo de Wikipedia: ¿cuántos de nosotros hemos ido a “una fiesta de jubilación”? ¿Y cuántos hemos comprado “billetes”? Creo que, por lo menos en nuestra variedad, más bien vamos a despedidas y compramos pasajes.
Me pregunto si ChatGPT, que es una IA, traducirá mejor que DeepL. Pego el párrafo en inglés y le pido que lo traduzca, sin más. De entrada, noto una mejora: incluye, en la primera línea, el término veterano como equivalente de aging. Es decir que, a pesar de la extraña forma en que estaba redactado el texto en inglés, pudo entender la sintaxis y no dejar afuera ese término (que es lo que haría un humano). Sigo leyendo y veo que, en vez de billetes, usa pasajes. Cuando me empiezo a entusiasmar, leo, más adelante, “fiesta de jubilación”. Entonces, en un segundo intento, le pido que suene rioplatense, pero repite “fiesta de jubilación”. Al final, le termino diciendo que esa expresión me suena un poco rara y me responde: “¡Tenés toda la razón! ‘Fiesta de jubilación’ suena medio a traducción literal. En nuestro idioma más natural, le podríamos decir: despedida, festejo de despedida del laburo, último brindis en la comisaría”.
Poco inteligente
Hay quienes dicen que la IA tiene mal puesto el nombre, porque no es inteligencia. Creo que estoy de acuerdo. La IA, para dar sus respuestas, no lee, ni entiende, ni piensa como lo hace la inteligencia humana. Lo que hace, más bien, es detectar las palabras que escribimos, relacionarlas con los millones y millones de palabras que conoce y establecer probabilidades. Para la IA, “responder” significa ir calculando probabilidades. Lo hace tan rápido, que realmente parece que nos entendiera y nos respondiera como una persona. ¿Qué palabra es más probable que aparezca después de la que acabo de escribir? Aunque parezca que ChatGPT entiende lo que escribimos, esto no es así: sólo los humanos entienden. ChatGPT calcula.
Así, al preguntarle cómo traduciría “le dio la vuelta a la manzana”, me propone una traducción de manzana como el concepto urbanístico. ¿Por qué lo hace? Porque, según sus palabras, “sabemos que en español ‘darle la vuelta a la manzana’ suele significar ‘hacer el recorrido alrededor de una cuadra’”. Y en eso tiene razón: es mucho más probable que, en esa frase, manzana haga referencia al espacio urbano y no a la fruta. Es decir que la traducción, para esta expresión, sería exitosa en la mayoría de los casos. Pero ¿cómo harías, le pregunto al chat, para saber que se trata de una fruta, en el caso de que así fuera? En otras palabras: ¿de dónde saca la IA el contexto? Fácil, me responde: “Siempre elegiré la cuadra, salvo que en el texto aparezca Blanca Nieves, un cuchillo o una ensalada de frutas”.
No me interesa dialogar con la IA (la IA no dialoga, sólo genera la ilusión de que lo está haciendo), así que no le respondo nada, pero me imagino al personaje de una película que acaso me tocara traducir que, en la primera escena, le dijera a otro: “Dale la vuelta a la manzana”. ¿Interpretaría yo el concepto urbanístico porque “es lo más probable” o debería observar la escena, prestar atención a los personajes, a dónde están y qué hacen, para poder traducir correctamente? Si siguiéramos a la IA por el camino “de lo más probable”, ¿qué sería de la creatividad? ¿Acaso no puede una persona agarrar una manzana y darle la vuelta? ¿Acaso no es eso, lo poco probable, lo impredecible, las palabras que no esperabas que aparecieran, lo verdaderamente valioso de la creación?
Pero volviendo a la manzana, hay numerosos ejemplos de este tipo de errores por traducir basándose en probabilidades. Muchos tienen que ver con la polisemia, pero otros no. Por ejemplo, ¿qué haría la IA para traducir términos tan cargados de expresividad que hasta son tabú en su lengua original, como por ejemplo el insulto nigger? ¿Y qué haría cuando en un mismo texto o una misma película el término también fuera usado no como insulto, sino como expresión de camaradería (o sea, todo lo contrario) entre personas negras? ¿Cómo podría saber quiénes son los personajes que están hablando, cuál es su color de piel y cuál es el ambiente que reina en la conversación? Sólo con esos datos se podría hacer una traducción correcta (y buena) de un término así.
La IA puede acceder al contexto siempre y cuando ese contexto esté escrito en la misma unidad que le presentamos. Si está en un texto anterior, no lo ve. Si está en la realidad, menos. Y en eso, precisamente, se destaca la traducción audiovisual de las demás: nuestra materia prima no es un texto escrito, sino la oralidad misma, gente que habla y dialoga y que está en un lugar determinado, que pone diferentes caras, que hace gestos, que se mueve para allá o para acá. Y la IA no puede acceder a toda la información que nos proporciona lo visual y lo auditivo, por la simple razón de que no es información que esté escrita en algún lado. Entonces, si bien en un texto el escritor estaría (quizá) obligado a explicar “le dio vuelta a la manzana y luego la depositó sobre la mesa” para que el lector entienda lo que sucede, en una película ese mismo contexto podría ser únicamente visual, inaccesible para una IA.
Entonces no debería sorprendernos que, en unos subtítulos traducidos por una máquina, leamos cosas como he is waiting for you in the bank para referirse a alguien que está esperando sentado en un banco de plaza o the doctor yelled at the nurse because she was late como traducción de “el doctor le gritó a la enfermera porque había llegado tarde”, lo que introduce, además, un sesgo de género que no estaba presente en el español, ya que en la oración original el sujeto de “llegar tarde”, que está omitido, puede ser tanto la enfermera como el doctor. Al no tener el inglés la posibilidad de omitir el sujeto, la IA se ve obligada a usar uno, y este tipo de errores se repetirá incesantemente en una traducción automática.
En los subtítulos de la serie que estoy traduciendo o, mejor dicho, “editando”, una mujer le pide a su novio que la maquille. Él pasa un largo rato aplicándole todo tipo de pinturas y polvillos. Cuando termina, le dice que le quedó genial y se va. Ella se acerca al espejo, se mira, su cara se deforma en un gesto de espanto y, con un horror y una preocupación evidentes, dice algo, gritando. Los subtítulos automáticos en español ponen: “¡Genial!”. Otra vez están equivocados, otra vez la IA demuestra su falta de inteligencia. ¿A quién se le puede ocurrir que esta mujer está conforme con su maquillaje? Únicamente a una IA. Pero ¿es correcto decir que a la IA “se le ocurrió” algo? No, es mucho más sencillo que eso. Lo que sucedió es que el subtítulo en inglés decía wicked!, una interjección usada para significar que algo es maravilloso, pero también... todo lo contrario. Sólo un ser humano con acceso a la totalidad de la escena y la posibilidad de interpretar la cara de la mujer puede saber que es imposible que aquí wicked signifique “genial”. Si no fuera por mi edición, entonces, ¿qué pensaría el espectador mirando esta escena? ¿No quedaría un tanto confundido, como con Jerry Black y su caja de luces?
Un error similar al de atribuir mal un sujeto que estaba omitido es confundirse sistemáticamente respecto del género. Como la IA no puede ver quién está hablando, constantemente aparecen mujeres diciendo que están muy cansados, o que se sienten contentos, o que deberían estar más atentos, y hombres declarando que están agotadas o que se sienten enfermas. El inglés no marca el género y el español sí, por lo que la IA se ve obligada a elegir un morfema entre dos opciones y no le queda otra que hacerlo de manera totalmente arbitraria, con la misma desfachatez que, cuando le hacemos una pregunta y no sabe la respuesta, inventa cualquier cosa, porque la IA (o al menos ChatGPT) no está programada para decir que no sabe o para poner una variable en lugar de los morfemas de género. No puede expresar duda ni declarar ignorancia y por eso, yo creo, tampoco se puede considerar inteligencia. Es más bien un eco eterno, dicho por nadie, que repite sin parar “¡Tenés razón, lo siento!”, y vuelve a calcular.
Incertidumbres
Pero entonces, ¿en qué quedamos? ¿Va a reemplazar la IA a los traductores? ¿Me quedaré sin trabajo en pocos años? ¿Lograrán crear una IA que además de procesar texto procese imágenes y sonidos y entonces pueda subtitular sin equivocarse? ¿Podrá esa IA detectar el horror en la cara de la mujer que se miró al espejo y darse cuenta de que es imposible que haya exclamado “¡Genial!”? ¿Podrá, entonces, detectar también mis caras, ver lo que sucede a mi alrededor, percibir mi estado emocional y saber si estoy hablando en serio o siendo irónica cuando le escribo? Y si logra hacer todo eso, ¿será al fin realmente inteligente?
No podemos frenar el desarrollo de estos programas y no estoy segura de que eso sea lo deseable. Seguirán mejorando, lo queramos o no. En qué acabará (si es que va a acabar) no lo sabemos. Quizá no sólo se extinga la traducción, sino todas las disciplinas que se enseñan y se practican mediante la escritura. Ya no es posible pedirle a un estudiante que haga un ensayo o un resumen. En realidad, ya no es posible pedirle casi nada. Mis estudiantes de la carrera de Traductorado me preguntan si todavía tiene sentido estudiar traducción. A modo de respuesta, les llevo a la clase un texto traducido por ChatGPT. Lo leemos, lo analizamos y concluimos que tiene algunos aspectos mejorables pero que, en su conjunto, no está mal. Quizá no sea la mejor traducción y tiene muchos calcos, pero se entiende.
Tal vez nos dirigimos hacia traducciones que serán cada vez más literales, tal vez terminemos todos hablando un inglés españolizado; este, en realidad, ya es el caso de los hablantes más jóvenes, que calcan el inglés constantemente y sin darse cuenta, como cuando usan la expresión “al final del día” para decir “al fin y al cabo”. Esto no es, sin embargo, solamente producto de las malas traducciones. El uso abusivo de calcos está más relacionado con la invasión cultural del inglés en todos los ámbitos y la traducción, justamente, era uno de los pocos bastiones de resistencia, porque haciendo buenas traducciones, o al menos así me enseñaron en mi carrera, podíamos frenar la invasión del inglés y restablecer el equilibrio entre las dos culturas: allá se dice así, acá se dice asá.
Me imagino qué hubiera pasado si el vendedor de la estación de servicio le hubiera dado a Jerry Black lo que yo pensé que le había pedido. Un expolicía, deseoso de fumar, se inclina en el mostrador y le habla al empleado. El empleado le trae una caja. Pero no es una caja de pequeñas dimensiones, envuelta en papel celofán transparente. Es una caja más grande, alargada. Él la mira sorprendido. El director, sentado en su silla, grita algo incomprensible y el de la cámara no entiende nada porque Jack Nicholson no parece reparar en que hay un error, en que no le dieron lo que decía el guion, y hay que cortar la escena. El director vuelve a gritar, pero lo ignoran de nuevo. Sobre el mostrador, Jerry Black va desenvolviendo una guía de luces y piensa que, después de todo, no está tan mal que el vendedor no le haya entendido: puede dejar los cigarrillos para después. El director, exasperado, se levanta de su silla y se dirige al actor para decirle (en no muy buenos términos) que no puede salirse del guion. Esto una IA no me lo haría, piensa mientras va avanzando por el plató.
Inés Garbarino (Montevideo, 1983) es magíster en Letras, traductora, docente e investigadora y escribe ficción.