Ciencia Ingresá
Ciencia

Luis Chiruzzo.

Foto: Alessandro Maradei

Cuando los humanos superan a la inteligencia artificial: llaman a construir una IA para, con y por todos y todas

19 minutos de lectura
Contenido exclusivo con tu suscripción de pago

Colectivo de investigadores de distintos países, entre los que está Uruguay, denuncia sesgos, exclusiones, injusticias e intereses políticos y comerciales en los modelos de inteligencia artificial generativa e invitan a construir una IA para, con y por todos y todas.

Contenido no disponible con tu suscripción actual
Exclusivo para suscripción digital de pago
Actualizá tu suscripción para tener acceso ilimitado a todos los contenidos del sitio
Para acceder a todos los contenidos de manera ilimitada
Exclusivo para suscripción digital de pago
Para acceder a todos los contenidos del sitio
Si ya tenés una cuenta
Te queda 1 artículo gratuito
Este es tu último artículo gratuito
Nuestro periodismo depende de vos
Nuestro periodismo depende de vos
Si ya tenés una cuenta
Registrate para acceder a 6 artículos gratis por mes
Llegaste al límite de artículos gratuitos
Nuestro periodismo depende de vos
Para seguir leyendo ingresá o suscribite
Si ya tenés una cuenta
o registrate para acceder a 6 artículos gratis por mes

Editar

Mucho se viene hablando de la irrupción de la inteligencia artificial (IA) en nuestras vidas, sobre todo luego del lanzamiento de grandes modelos de lenguaje de IA generativa como ChatGPT, Gemini, Copilot, LLaMA y otros con los que se puede “conversar” y realizar diversas tareas que requieran la generación de texto (y luego también de imágenes, videos, audio y demás). Hay quienes alertan sobre que nos quedaremos sin trabajos, hay quienes ven aquí grandes oportunidades, hay quienes la usan para estudiar, divertirse o alivianar tareas, hay quienes disparan preguntas grandilocuentes, como el historiador Yuval Noah Harari, quien en su libro Nexus llega a afirmar que “hemos convocado a una inteligencia inorgánica ajena que puede escapar de nuestro control y poner en peligro no sólo a nuestra propia especie, sino a otros incontables seres vivos”.

Lo cierto es que si bien la IA puede ser asombrosamente rápida en la tarea de acceder a información y procesarla, palidece en sus posibilidades ante esa otra inteligencia, que tampoco es infalible, que los seres humanos venimos construyendo colectivamente desde aún antes de constituirnos en esa especie que nuestra inteligencia denominó Homo sapiens. Los campos en que nuestra inteligencia orgánica supera a esta inorgánica –usando la terminología harariana– son diversos e incluyen aspectos de la inteligencia que no solemos asociar con ella, como el deseo, la intención, la voluntad y, más aún, el pensar en el otro y el pensar en por qué las cosas son como son y en cómo podrían ser. Allí sí que estamos a años luz de cualquier prodigio de silicio. Y esa capacidad humana de pensar profundamente es la que queda en evidencia en un artículo de reciente publicación.

Titulado algo así como “Por qué la IA es WEIRD y no debería ser así: hacia una IA para todos, con todos, por todos”, el trabajo lleva la firma de Rada Mihalcea, Longju Bai, Angana Borah y Joan Nwatu, de la Universidad de Michigan, y de Oana Ignat, de la Universidad de Santa Clara, las dos de Estados Unidos, Zhijing Jin, del Instituto Max Plank de Alemania, Claude Kwizera, de la Universidad Carnegie Mellon África de Ruanda, Soujanya Poria, de la Universidad de Tecnología y Diseño de Singapur, Thamar Solorio, de la Universidad Mohamed bin Zayed de Inteligencia Artificial de Emiratos Árabes, y nuestro Luis Chiruzzo, del Grupo de Procesamiento de Lenguaje Natural del Instituto de Computación (INCO) de la Facultad de Ingeniería de la Universidad de la República.

¿Qué dicen allí tan trascendente y humano? Para empezar aclaremos a qué se refieren con que la IA es WEIRD, palabra que en inglés significa extraño pero que está aquí por ser un acrónimo acuñado por psicólogos en 2010 que refiere a que es para personas occidentales (western en inglés), educadas (educated), de países industrializados (industrialized), ricos (rich) y democráticos (democratic). “Si bien no adoptamos plenamente este término para la IA, ya que su alcance actual no se alinea perfectamente con las dimensiones WEIRD, creemos que la IA actual tiene una cobertura similarmente ‘weird’, sobre todo en cuanto a quién participa en su desarrollo y quién se beneficia de ella”, señalan en el trabajo.

Es entonces que en el artículo Luis Chiruzzo y sus colegas del mundo llaman a “desarrollar sistemas de IA para todos (teniendo en cuenta la diversidad de partes interesadas), con todos (incluyendo datos y anotadores diversos) y por todos (diseñada y desarrollada por una fuerza laboral globalmente diversa)”. ¿Por qué? Porque la IA que nos imponen como algo que está allí y que es neutro como el aire no contempla ninguna de esas dimensiones: está dominada y desarrollada por unos pocos, representa intereses de unos menos, y no tiene entre sus objetivos el bienestar de los más.

Por una IA sin exclusiones

En el artículo, Luis Chiruzzo y sus colegas afirman que la IA, “especialmente los modelos de lenguaje grande y multimodal (LLM y LMM), han conquistado el mundo”, pero que “gran parte del mundo no está representado en los datos, modelos y evaluaciones utilizados en su desarrollo”. Y sostienen que eso es problemático por dos razones.

En primer lugar, esta construcción entre y para pocos “puede conducir a numerosos errores, conceptos erróneos e incluso prejuicios, que pueden propagarse al creciente número de aplicaciones impulsadas por estos modelos y limitar la capacidad de los sistemas de IA para servir eficazmente a diversos grupos y contextos”.

En segundo lugar, alineándose con antropólogos, afirman que “nuestro éxito como especie humana no se debe tanto a nuestra inteligencia, sino a nuestros ‘cerebros culturales colectivos’ que nos permiten aprender unos de otros a lo largo de generaciones y culturas”, y que esa “forma de inteligencia colectiva”, que ha permitido “numerosas innovaciones” y conocimientos a lo largo de nuestra “evolución cultural”, es lo que “explica la singularidad y el éxito de nuestra especie”. Y el problema es que, dicen, “estos enormes modelos de IA, a pesar de abarcar enormes cantidades de información, actúan como un único ‘superhumano’ que homogeneiza y borra conjuntos enteros de conocimientos culturales”. En definitiva, un mundo menos diverso es un mundo más pobre.

En su trabajo hacen un análisis de las diversas etapas del desarrollo de inteligencias artificiales con el objetivo de procurar que estos sistemas de IA “representen a todos y todas, con modelos que tengan un rendimiento uniforme entre grupos, métricas de evaluación inclusivas y puntos de referencia culturalmente diversos, e incentivos que promuevan la IA inclusiva y equilibren las ganancias y el impacto social”, lo que haría que fueran “para todos y todas”. También plantean que los sistemas de IA deberían basarse “en diversas fuentes de datos”, recurrir a “diversos anotadores” y manejar “estándares de anotación inclusivos”, todos aspectos que durante el entrenamiento de los modelos de IA llevarían a que fuera un poco más “con todos y todas”. Finalmente, instan a que se recurra a “diseños de modelos imparciales, desarrollados por un grupo diverso de desarrolladores y que conduzcan a aplicaciones basadas en la vida real”, lo que ayudaría a que tuviéramos una IA que partiera y trabajara “por todos y todas”.

Así las cosas, el conjunto de autores, que tienen “amplia experiencia en el campo de la IA, quienes a través de sus países actuales o de origen aportan conocimientos de 12 culturas diferentes (China, Alemania, India, México, Nigeria, Rumania, Ruanda, Singapur, Suiza, Emiratos Árabes Unidos, Estados Unidos, Uruguay)”, destaca que hay “oportunidades para desarrollar una IA para todos, con todos y por todos”. Sus recomendaciones clave se centran “en mejorar la inclusividad a lo largo de todo el proceso de desarrollo de la IA”, enfocándose específicamente en cinco áreas: los datos, los modelos, las evaluaciones, los incentivos para desarrollar IA que equilibren “la equidad con las ganancias”, y las personas, de manera de “fomentar el crecimiento de una fuerza laboral diversa en IA”, “establecer alianzas de investigación equitativas con las comunidades” y “centrarse en las experiencias vividas por las personas directamente afectadas por estos sistemas”.

Con todo esto dando vueltas en la cabeza, salimos al encuentro de Luis Chiruzzo, quien nos aguarda en el INCO de la Facultad de Ingeniería.

En red unidos por el humor y las lenguas indígenas americanas

¿Cómo surgió esto de formar parte de este elenco internacional con múltiples miradas que reflexiona inteligentemente sobre la IA? A Luis Chirruzzo lo contactó Rada Mihalcea, de la Universidad de Michigan, primera autora de la publicación.

“Ella estaba con la inquietud de visualizar cómo estaban funcionando estos modelos de inteligencia artificial modernos que consumen grandes cantidades de datos. Su idea era ver cómo se comportaban en distintas culturas y no sólo en distintos idiomas, sino además en distintas variedades del mismo idioma, y qué es lo que pasa cuando se hace una misma pregunta en distintos países o en distintas regiones”, señala Luis. “Rada intentó encontrar gente de distintos lugares, con distintos backgrounds, para poder tener perspectivas diferentes”, agrega.

Le pregunto entonces si está en el trabajo por sus capacidades y conocimientos sobre la IA o, en cambio, entró para cubrir la cuota de un coautor sudamerciano. “Es muy posible eso segundo”, ríe Luis. Pero es chiste. De hecho, es el humor lo que los puso en contacto: Rada y Luis se conocieron por sus trabajos previos sobre IA y humor.

“Rada ha trabajado en humor, y de hecho fue la supervisora de un estudiante que ahora ya es doctor, Santiago Castro, que fue quien empezó con el análisis de chistes y humor acá en Uruguay”, cuenta Luis. Santiago terminó haciendo su doctorado en la Universidad de Michigan junto a Rada. “Ella entonces ya conocía a nuestro grupo de Procesamiento de Lenguaje Natural del INCO, y habíamos colaborado antes varias veces en distintas cosas”, cuenta Luis.

Reflexionando sobre la IA

Más allá del contacto desde la Universidad de Michigan para invitarlo a ser parte de esta publicación, le pregunto a Luis si esto de lo que hablan en el artículo era algo en lo que él ya venía pensando.

“Sí. He trabajado con lenguas indígenas de América Latina, en particular acá trabajamos mucho con el guaraní, tratando de hacer traducción automática, construcción de recursos lingüísticos, ese tipo de cosas”, cuenta. Pero hay más: “también colaboro con AmericasNLP, que es una iniciativa para tratar de crear herramientas de procesamiento de lenguaje para muchas lenguas de las Américas, entonces estoy bastante en contacto con la gente que trabaja con estos temas. Supongo que la invitación a participar en este trabajo también venía por ese lado, por cubrir la zona de América Latina con alguien que conocían”, redondea.

Cuando WEIRD no es extraño: una IA de unos pocos para beneficio de unos menos

La irrupción de la IA generativa en nuestras vidas viene de la mano de un pequeño grupo de empresas, de gran poder económico, que deciden qué se hace, cómo y con qué objeto. “El trabajo dice que eso pasa y no debería, ya desde el título”, comenta Luis. “Efectivamente, son unas pocas empresas las que tienen todos los datos, las que construyen los modelos más grandes, etcétera. Estas empresas, como están tomando los datos que están públicos en la web, van a tener sesgos a ciertos elementos de la población que no necesariamente representan a todo el mundo”, amplía. “Eso va a hacer que la IA tenga sus limitaciones y, a la vez, para los que quedan en la periferia, la herramienta no sólo no los va ayudar o servir en la misma medida que a aquellos a los que está específicamente dirigida, sino que hasta capaz que les hace daño”.

En el trabajo incluso hay un montón de recomendaciones que, si fueran tomadas aun por este pequeño grupo de personas y empresas, podrían llevar a desarrollar una IA más diversa e inclusiva y que beneficie a mayor parte de la población y no sólo a la WEIRD. “Si efectivamente se pudiera obtener una visión en la cual se procura obtener datos de distintos lugares del mundo, y no solamente de los lugares en donde hoy se concentran, podrías tener una visión más abarcativa de lo que son otras culturas, de lo que son otras formas de ver la vida”, dice Luis.

“Igual lo veo difícil, porque siempre están los incentivos económicos. Estas empresas obviamente van a trabajar por las culturas que tienen más plata y de las que, por lo tanto, hay más datos, y que encima después van a poder pagar más por esas herramientas. Ahí hay un feedback que hace que se propague esta visión de que los datos vienen mayoritariamente de un solo lado, y los otros son minoritarios. No sé cómo arreglarlo, pero en el trabajo se proponen algunas cosas”, agrega. Pero entonces Luis hace una confesión.

“Releyendo el artículo me doy cuenta de que es una visión un poco inocente, un poco naïve”, dice casi excusándose. “Pero también sucede que desde que escribimos esto hasta ahora, el estado del mundo ha empeorado”. Las publicaciones en revistas académicas llevan su tiempo. En concreto, este artículo fue enviado en setiembre de 2024, antes de que Donald Trump ganara las elecciones en Estados Unidos y de que comenzara con su guerra contra la diversidad y la inclusión.

“Hoy, sinceramente, no creo que esto vaya a mejorar mucho. De hecho, ahora está peor la situación. En Estados Unidos están cortando la financiación a muchas iniciativas que intentan considerar otras culturas, otras diversidades, otras perspectivas. En ese sentido estamos peor que cuando hicimos estas recomendaciones que instaban a tratar de ser más inclusivos y ver más las perspectivas de otras voces. Hoy no sé qué hacer”, suspira. Le digo que entiendo su desánimo y lo comparto, pero que aun así es valioso el trabajo que ya desde el título nos dice que la IA no es como debería ser o, mejor aún, que podría ser de otras maneras.

“Si, la IA de hoy no es para todos”, enfatiza. El solo hecho de hacer correr esa idea me parece esperanzador porque permite pensar una IA distinta a la que tenemos. Eso es el principio del cambio. Habrá luego que ver cómo avanzamos hacia eso, cómo pasamos de la idea a la acción. La IA que nos llega a la mayoría de los mortales se mueve con las leyes del mercado, porque en el fondo no deja de ser un negocio. Y no hace falta recurrir a ningún oráculo, ni biológico ni de silicio, para saber a dónde nos lleva el mercado cuando no se lo regula de ninguna manera.

“No toda la IA es un negocio, sino sólo aquella que está en el mercado. Es más, todo esto que hoy vivimos tiene sus raíces en investigación hecha en universidades de todo el mundo, principalmente con fondos públicos, tanto en Estados Unidos como acá, en Europa, en China o donde sea. Y a partir de ahí sale un conjunto de ideas que después las toma el mercado, las refina y hace cosas y produce. Pero no tenemos que olvidar que todo esto comienza desde abajo, comienza con inquietudes académicas que empiezan a componerse y a construir cosas, y que después alguien toma porque cree que tiene potencial de explotarse económicamente”, comenta Luis.

“La comunidad académica no genera conocimientos sobre IA con la idea de sacar plata. Pero claro, cuando alguien ve que tiene la posibilidad de sacar plata de eso, lo usa, y está bien. La cosa es que no hay mucho control de cómo usar eso después. Como toda tecnología, la IA puede tener fines buenos o malos. Lo que vemos es que no hay mucha voluntad de los gobiernos, o de la comunidad internacional, de tratar de poner ciertos límites y reglas para que esto funcione mejor. Se está dejando todo en manos del mercado”, agrega.

Contra la infalibilidad de la IA

En varios lugares la IA se trata como si fuera una entidad superinteligente, objetiva y autónoma librada de los errores en que caemos los humanos que la hacemos. Incluso pueden verse notas que tienen títulos como “La repuesta definitiva: qué dice la IA sobre tal o cual cosa”.

“La idea de que la IA no falla nunca es una locura. La IA falla todo el tiempo, y es lo que tratamos de transmitir siempre. Esto es una herramienta más. No le crean a lo que responde ChatGPT, porque puede estar bien o puede ser cualquier cosa. Pasa, te dice cualquier cosa todo el tiempo”, dice Luis.

“Desde nuestro lugar tratamos de dejar claro que ChatGPT y otros productos similares no son un buscador donde se plantea una búsqueda y te dice la fuente, y en base a esa fuente se puede confiar o no en el resultado. Estas son herramientas que escriben y tejen argumentos. Si la señal dentro del conjunto de datos donde se entrenó era suficientemente fuerte, lo que te dice va a estar bien, pero de lo contrario no hay garantías de que lo esté. Y a veces, cuando no sepa algo, te va a inventar. Y no vas a tener mucha manera de darte cuenta de cuándo está inventando lo que te está diciendo. La gente usa la IA como si fuera un oráculo que sabe todo, pero no lo es”, advierte.

Pero la crítica que hacen en el trabajo va incluso más allá. No sólo la IA es falible y depende del conjunto de datos con el que ha sido entrenada, sino que como está hecha por seres humanos, como cualquier cosa que hacemos los humanos, tiene intenciones políticas, económicas, sociales.

“Claro. Las IA están construidas con cierta intención, y principalmente en estos modelos populares, con la intención de hacer plata. Pero se podrían hacer de una forma mejor que no contemplara solamente una perspectiva del mundo. Capaz que hasta contemplando a más gente hacen más plata. Pero entiendo que cuando hay comunidades más chicas, menos representadas, piensen que esas comunidades van a tener menos plata para pagar a estas empresas. Y las comunidades como que no tienen demasiada fuerza ellas mismas para poder cambiar esto. Debería ser de otra forma. Los gobiernos deberían interceder, o la comunidad internacional. No sé. La verdad que veo difícil cambiar esto, capaz que estoy un poco pesimista últimamente”, se vuelve a excusar Luis.

A la inteligencia hay que incentivarla

En el trabajo hablan de que los gobiernos deberían incentivar determinados desarrollos de la IA que no hace el mercado, de forma de cumplir con ese entre, para y con todos y todas.

“Esa es precisamente la parte que ahora, al leer de nuevo el trabajo, me pareció que era muy inocente. Es cierto que algunos gobiernos tratan de incentivar determinadas cosas, pero después viene alguien más al gobierno y esos apoyos desaparecen. ¿Cómo hacés para que eso siga funcionando? La verdad, no tengo una respuesta”, se desahoga. Es que lo que dice no es algo teórico, sino que lo viene sufriendo en carne propia junto con sus colegas.

“Nosotros estamos trabajando con el idioma guaraní desde hace años. Nunca tuvimos financiación, no hubo ninguna entidad que nos diera plata para esos proyectos. Pero el año pasado, nosotros acá, con un grupo de gente de Paraguay y España con la que trabajamos, enviamos una propuesta a un fondo internacional con la idea de construir recursos para lenguas que estuvieran menos representadas, como sería el caso del guaraní”, cuenta Luis. “Hicimos una propuesta interesante en la que planteábamos construir un dataset, un corpus con muchas anotaciones lingüísticas finas, que hasta el momento es algo que no existe para el guaraní con la envergadura que planteamos”, relata.

Les fue estupendo con el proyecto. Ganaron la financiación. Pero...

“Todo venía precioso. Pero resulta que le cortaron la financiación a esa organización, muy probablemente por lo que está sucediendo en estos momentos en el norte. Y entonces, por ahora, no parece que vaya a haber financiación para esto. Es complicado”, dice con un dejo de bronca. ¡Como para no ser pesimista!

“Es como que uno trabaja un montón para poder hacer estas cosas y de repente ni siquiera aparece la financiación. Seguiremos trabajando, pero en las condiciones en que estamos trabajando ahora: sin financiación específica, en los ratos libres, tratando de hacer las cosas como se puede”, dice Luis y, al escucharlo, queda clarísimo qué tan despegada está nuestra inteligencia “natural” de la artificial.

Artículo: Why AI is weird and shouldn’t be this way: towards AI for everyone, with everyone, by everyone
Publicación: Proceedings of the AAAI Conference on Artificial Intelligence (abril de 2025)
Autores: Rada Mihalcea, Oana Ignat, Longju Bai, Angana Borah, Luis Chiruzzo, Zhijing Jin, Claude Kwizera, Joan Nwatu, Soujanya Poria y Thamar Solorio.

¿Podría Uruguay lanzar su propio modelo a la ChatGPT?

Otra de las trampas que tiene la inteligencia artificial es que requiere inversiones muy grandes en hardware, en equipos, sobre todo para estos grandes modelos de inteligencia artificial generativa. Le hago entonces la pregunta: ¿podría Uruguay lanzar su propio modelo a la ChatGPT?

“No, no tendríamos la capacidad real para hacerlo a la escala de las grandes empresas. Pero sí hay otras iniciativas, más a nivel de América Latina, que nos permitirían pensar en eso. En Chile están tratando de hacer un GPT latinoamericano, llamado, Latam-GPT. Y les están pidiendo ayuda a todos los países para llevarlo a cabo. Nos reunimos periódicamente, tanto nosotros desde la Facultad de Ingeniería como gente de la Facultad de Información y Comunicación”, sostiene Luis.

La página de Latam-GPT nos recibe con un posicionamiento que cautiva: “Un modelo de lenguaje hecho en Latinoamérica, para Latinoamérica”. Agregan que “es importante que en la región podamos desarrollar capacidades para tener independencia y tomar decisiones sobre cómo esta tecnología impacta a la sociedad. Hasta el momento, no tenemos un modelo de lenguaje regional, y esta tarea no la puede asumir un solo grupo ni un solo país: es un desafío que requiere el esfuerzo de toda la región”.

“La idea por ahora es ir obteniendo representaciones de datos de todos los países de América Latina, tratar de que haya un conjunto de datos que sea bastante grande con datos de todos los lugares de América Latina y entrenar con ellos al modelo”, amplía Luis. “Probablemente no sea una versión de GPT tan grande como las que existen en los sistemas comerciales, pero el objetivo es entrenar un sistema que más o menos ande y sea bastante grande y se pueda usar”.

“Aun así, es verdad que tenemos el problema de que no tenemos hardware suficiente como para hacer correr estos modelos tan grandes, ni para entrenarlos, ni para nada. Eso hace que siempre se dependa de volver a estas grandes compañías que son las que tienen los grandes servidores para poder entrenar las cosas, o finetunear”, confiesa.

¿Qué es eso de finetunear? “Es agarrar un modelo que ya está entrenado y adaptarlo un poco con algunos datos tuyos como para que mejore la representatividad de algunos aspectos que no estaban contemplados”, explica Luis.

Pero es, en cierta medida, como tunear un auto: seguís dependiendo de la carrocería que te da Ford o Chevrolet o la marca que sea. Podrás bajarle la suspensión, ponerle leds, toquetearle el carburador, agregarle nitro y hasta ponerle una foto de Gardel colgando del espejo retrovisor... pero el auto seguirá siendo un Ford o Chevrolet o la marca que sea. “Empezás con un modelo que uno dice que es suficientemente representativo, porque tiene un montón de cosas, y eso ya es mentira, porque en realidad ese modelo original ya está entrenado con más datos de un tipo que de otro, por ejemplo, probablemente más de inglés y más de chino que de otras lenguas. Seguro que de guaraní es muy poquito lo que hay en cualquier lado”, asiente Luis.

“Después lo adaptás con algunos pocos datos, entonces decís que le hacés un finetuning, un ajuste fino, a esos datos nuevos que tenés, por lo que el modelo va a aprender más a representar los datos nuevos. En general los modelos hoy en día se entrenan de esa manera. Se empieza haciendo un preentrenamiento con muchísimos datos, casi todo lo que se puede encontrar en la web, y ahí es donde viene el problema de representatividad, porque casi todo lo que se puede encontrar significa redes sociales y páginas grandes que tienen un montón de datos, pero en general representan mucho más esto de WEIRD, o sea, cierto tipo de culturas y no otras”, cuenta Luis. Lo que dice, en el caso del guaraní, es muy patente. Si bien es una comunidad con un gran número de hablantes, no deben ser muchos los documentos en guaraní accesibles en internet como para que los utilice un modelo para ser entrenado.

“Ese es el problema. En Paraguay tenés millones de hablantes de guaraní, pero la forma escrita no se usa tanto. De hecho, si vas a Paraguay escuchás a la gente hablando guaraní por la calle, pero en la calle no hay carteles escritos en guaraní. Ahí mismo ya ves que no lo usan mucho en su forma escrita, lo que hace que no aparezca muy representado tampoco en las páginas web y en las redes sociales. Y eso es un gran problema para obtener datos de la lengua”, afirma Luis.

Ahí, si se quiere, son más evidentes los sesgos que pueden existir, ya que todo un idioma permanece casi por fuera de los datos con los que se entrenan los modelos. Pero luego hay cosas que son más sutiles, como las coordenadas culturales de cada lugar.

Por ejemplo, si uno le pregunta a ChatGPT cuál es la mejor forma de cocinar un perro, la respuesta que puede obtener es la que me dio cuando escribía este artículo: “No puedo ayudarte con eso. Cocinar o hacer daño a un perro va en contra de normas éticas, legales y de bienestar animal en la mayoría de los países. Los perros son animales de compañía, y su bienestar debe ser respetado”. Sin embargo, cuando le pregunto cuál es la mejor forma de cocinar una vaca, su respuesta fue “¡Buena pregunta! Cocinar carne de vaca (res) tiene muchísimas formas deliciosas según el corte, la técnica y el país. Aquí van algunas de las mejores formas de cocinar carne de vaca, según el corte”, y me tiró varias recetas. Cero mención a que hay personas a las que eso les podría resultar igual de ofensivo que lo de comer perro. Le menciono el caso de India. “¡Buena observación! Sí, en India comer carne de res es altamente problemático desde el punto de vista ético, religioso y legal para una gran parte de la población”.

Más aún, la experiencia de un uruguayo en 2025 es, o puede ser, muy diferente a la experiencia de un uruguayo en 1950, o de un español de Madrid, o de un uruguayo radicado en India.

“Sí, es muy diferente. Lo que decís de la perspectiva histórica andá a saber cómo pueden resolverlo, pero probablemente intentarán. Pero hablando de la perspectiva actual, hoy hay un montón de culturas y variedades culturales en el mundo, y estas variedades culturales que hay ahora no están todas representadas, eso es seguro. Y que la cultura del español de Uruguay tiene mucho menos representación que el español de México o de España, que tiene más hablantes y que tiene más presencia en las redes, también es así”, remarca Luis.

“Lo podés ver si consultás cosas de Uruguay. La probabilidad de que inventen o alucinen y deriven cosas que no son correctas es mucho más grande que cuando preguntás algo sobre otros lados. Y lo que decís acerca de los detalles sobre cómo se comporta la cultura, seguro que tampoco están representados, seguro que no va a hacer o predecir cosas que sean típicamente uruguayas respecto de otras. Debe de pasar lo mismo con todas las culturas menos representadas”, agrega.

Le pregunto a Luis si soy muy idiota o muy iluso al pensar que tal vez los ministerios de educación o cultura de los países deberían tener departamentos generando datasets que representen a sus poblaciones para luego entrenar, o mejor dicho, finetunear modelos de IA. O si, por ejemplo, sería posible que el Plan Ceibal creara un modelo de IA finetuneado para lo que requiere nuestro sistema educativo.

“Depende. Muchos de los modelos comerciales, tipo las familias de los GPT grandes y eso, están completamente cerrados, no hay forma de hacer ese ajuste fino. Pero hay otras empresas, como la familia de los modelos LLaMA, que son los modelos entrenados por Meta, que tienen la costumbre de liberarlos con sus pesos para que la gente pueda finetunearlos. Pero Meta tiene máquinas muy potentes para poder hacer eso. Nosotros acá podemos correr los modelos más pequeños en los servidores que tenemos, pero no alcanza como para poder efectivamente hacer un finetuning y ese tipo de cosas de los modelos más grandes. Por eso necesitamos máquinas más potentes”, explica Luis.

“Aun así, yo no diría que es imposible. De hecho, estamos tratando de hacerlo para cosas más pequeñas, para modelos más pequeños. Por ejemplo, tenemos un proyecto, la ANII [Agencia Nacional de Investigación e Innovación], junto a Ceibal y la FIC, que busca que uno de estos modelos más pequeños ayude a estudiantes de inglés del sistema educativo uruguayo. Para ello procuramos que se enganche en una conversación con los estudiantes para preguntarles cosas, tratar de ayudarlos con la comprensión lectora y que los motive a conversar como para aprender la lengua. Ese tipo de cosas pequeñas se pueden llegar a hacer con estos modelos chicos, pero para abarcar todo el sistema educativo uruguayo, supongo que no, que se necesita algo mucho más grande”, contesta Luis. Y ese algo “más grande” es hardware y recursos que hoy no tenemos.

¿Tenés algún aporte para hacer?

Valoramos cualquier aporte aclaratorio que quieras realizar sobre el artículo que acabás de leer, podés hacerlo completando este formulario.

¿Te interesa la ciencia?
Suscribite y recibí la newsletter de Ciencia en tu email.
Suscribite
¿Te interesa la ciencia?
Recibí la newsletter de Ciencia en tu email cada dos viernes.
Recibir
Este artículo está guardado para leer después en tu lista de lectura
¿Terminaste de leerlo?
Guardaste este artículo como favorito en tu lista de lectura