Varios países latinoamericanos, liderados por Chile, lanzaron este martes el primer modelo de lenguaje diseñado específicamente para la región llamado Latam-GPT, que busca ser una respuesta a los sesgos culturales que se presentan en los sistemas de inteligencia artificial (IA) dominados por las grandes potencias tecnológicas. El objetivo del proyecto es avanzar hacia una mayor soberanía digital regional.
“Cuando se mezcla la hegemonía cultural que se venía dando con esta tecnología, puede ser muy abrumador. Algunos podrían pensar que crear un modelo de lenguaje desde América Latina es una cuestión de nerds, pero no, acá estamos defendiendo nuestra identidad, nuestro derecho a existir. Es una cuestión muy relevante”, dijo el presidente de Chile, Gabriel Boric, durante el lanzamiento de Latam-GPT.
La doctora en Filosofía, Inteligencia Artificial y Ética de Datos por la Universidad de Leeds e integrante del equipo de Latam-GPT, Gabriela Arriagada, consideró, en diálogo con la diaria, que el lanzamiento de este modelo de lenguaje marca un “hito en el desarrollo tecnológico de América Latina y el Caribe”.
“No se trata solo de un nuevo modelo de inteligencia artificial, sino de un proyecto estratégico que busca construir capacidades regionales en un ámbito que hasta ahora ha estado dominado por potencias tecnológicas fuera de la región. Su propuesta va más allá de lo técnico. Impulsa la formación de talento, la creación de infraestructura, el desarrollo de datos propios y la generación de estándares de evaluación que respondan a las realidades culturales y lingüísticas latinoamericanas”, resaltó la académica de la Pontificia Universidad Católica de Chile y del Centro Nacional de Inteligencia Artificial (Cenia).
La propuesta demuestra que “es posible avanzar regionalmente en temas de IA para seguir aprendiendo y aumentando la representatividad de nuestras culturas en la esfera digital de manera responsable”, agregó. “Latam-GPT representa una apuesta regional por participar activamente en el desarrollo de la IA, con identidad propia, enfoque colaborativo y una preocupación explícita por la inclusión. Es una plataforma en construcción que busca sentar las bases de una IA latinoamericana, desarrollada con conciencia de sus desafíos y con la ambición de responder a las necesidades de su propia región”, consideró.
La iniciativa se realizó de forma colaborativa a partir de 50 alianzas técnicas en 15 países de la región e implicó una articulación entre la academia, actores estatales, organismos internacionales y líderes tecnológicos, informó la Presidencia de Chile en su página web.
Participaron en el proyecto la Agencia de Gobierno Electrónico y Sociedad de la Información y del Conocimiento (Agesic) y la organización DATA Uruguay.
El objetivo de este modelo de lenguaje abierto, que contó con el apoyo de Data Observatory y Amazon Web Services, es mitigar los sesgos que presentan otras IA que dominan el mercado. Para ello, Latam-GPT fue entrenado con idioma español e información sobre la cultura y la realidad latinoamericana.
La nueva IA se define en su página web como “un modelo de lenguaje hecho en Latinoamérica, para Latinoamérica”. “Es importante que en la región podamos desarrollar capacidades para tener independencia y tomar decisiones sobre cómo esta tecnología impacta a la sociedad. Hasta el momento, no tenemos un modelo de lenguaje regional, y esta tarea no la puede asumir solo un grupo ni un solo país: es un desafío que requiere el esfuerzo de toda la región”, se afirma en el portal.
La iniciativa pretende ser un modelo abierto y sus datos serán alojados y analizados en el Centro de Supercómputo de la Universidad de Tarapacá de Chile.
Gabriela Arriagada (archivo, noviembre de 2025).
Foto: Alessandro Maradei
¿Qué es un modelo de lenguaje?
Los modelos de lenguaje generativos son sistemas de IA capaces de producir textos, responder preguntas o resumir información a partir de grandes volúmenes de datos.
En una entrevista anterior con la diaria, Arriagada consideró que “las epistemologías de Latinoamérica y del Sur global –que representan nuestra historia, nuestra cultura–, en general no están representadas en los grandes debates que se llevan adelante sobre el uso de la inteligencia artificial”, lo que refuerza el “colonialismo digital”.
La académica sostuvo que desde el origen los modelos de lenguaje de la IA nunca estuvieron “diseñados” para la inclusión de otros idiomas que no fueran el inglés. Dijo que tampoco contemplan realidades como las dictaduras que vivió la región, los estilos de música, la esclavitud o el feminicidio.
Declaraciones de Boric
Durante el lanzamiento, el presidente de Chile consideró que la iniciativa representa un “parteaguas”. “Hace poco el primer ministro de Canadá realizaba una metáfora a propósito de la geopolítica mundial que aplica a esta situación [...] que decía que si no estamos en la mesa, estamos en el menú. Uno de los desafíos que tiene la IA es que el punto de partida importa mucho porque su crecimiento es exponencial. Cuando nos demoramos, vamos quedando atrás”.
Boric puso el ejemplo del gobierno de Islandia, que en 2023, para no “perder su lengua en el mundo de esta tecnología”, hizo algunos acuerdos. “En aquel momento me pregunté qué estamos haciendo en América Latina. [...] Hoy día quizás no nos damos cuenta de cómo incide la reproducción de la información, cómo se va moldeando la cultura y cómo se impone una sobre otra”.
“Si le preguntas a un modelo de lenguaje por información de Europa o de Latinoamérica, seguramente te dirá que tiene más información de Europa. Lo mismo ocurre con Estados Unidos [...] No es casualidad, no es que sencillamente exista más información, depende de cómo se utiliza, cómo se recaban los datos. [...] Por eso Latam-GPT es tremendamente valioso”, añadió. El mandatario sostuvo que el lenguaje está “muy determinado por la IA” actualmente y remarcó que los países no deben “temer” a la tecnología o verla “solo como una amenaza”.
La diferencia con modelos anteriores
En contraposición con los grandes modelos globales, Latam-GPT se entrena con información que refleja los contextos sociales, los dialectos, los temas y las expresiones propias de América Latina y el Caribe, destacó Arriagada.
La académica indicó que el modelo se alimenta de datos privados o donados por medio de alianzas estratégicas, además de un corpus propio y datos sintéticos, que “permiten equilibrar áreas que se identifican como poco representativas”.
“De esta forma, cuando hablamos de incorporar la cultural latinoamericana, hablamos de una visión de entrenamiento que permite hacerse cargo de datos que representen realidades culturales, entendiendo dónde están los vacíos en otros modelos, ver en qué falla, e ir ganando conocimiento para mejorar esa representación. Esto es un esfuerzo progresivo y constante, el modelo es un elemento clave que se seguirá trabajando, refinando y robusteciendo en el tiempo”, añadió.
Asimismo, consideró que el proyecto se desarrolla bajo un “esquema colaborativo sin precedentes”, que reúne a instituciones académicas, organismos públicos y organizaciones especializadas de múltiples países, con un “fuerte énfasis en la apertura y la transparencia”.
“Otro rasgo distintivo es la creación de metodologías de evaluación diseñadas específicamente para la región para evaluar sesgos o temas de seguridad. Esto permite medir el desempeño del modelo no solo con estándares internacionales, sino también con criterios que valoran el conocimiento contextual latinoamericano. En un escenario donde la mayoría de las tecnologías de inteligencia artificial provienen del extranjero, Latam-GPT representa un paso concreto hacia la soberanía tecnológica y la construcción de un bien público regional sobre el cual puedan desarrollarse futuras soluciones”, destacó.
Desafíos
Sin embargo, Latam-GPT también enfrenta “retos relevantes”, indicó la experta chilena, destacando como uno de los desafíos la representatividad de los datos. “A pesar de los esfuerzos por incluir información de distintos países y áreas temáticas, no todas las comunidades tienen la misma presencia digital, lo que implica el riesgo de que ciertas voces o realidades queden subrepresentadas. Este es un proceso en evolución que requerirá ajustes y ampliaciones continuas del corpus”, agregó.
También persisten retos asociados a la “desinformación” y a las “respuestas erróneas” que los modelos de lenguaje pueden generar, señaló. Frente a esta situación, el proyecto está fortaleciendo sus procesos de evaluación, revisión ética y enfoques de seguridad en IA, con el fin de anticipar y mitigar estos riesgos, indicó.
“A esto se suma la necesidad de consolidar mecanismos robustos de gobernanza de datos, que aseguren privacidad, licencias adecuadas y claridad sobre los usos permitidos del modelo”, finalizó.