Usamos inteligencia artificial (AI, por su sigla en inglés) en la vida cotidiana sin ser siempre conscientes de ello. Nuestros celulares tienen varios sistemas de AI incorporados, al igual que muchos electrodomésticos y dispositivos conectados a internet. Más evidentes son los algoritmos de búsqueda que usa Google, o el feed de Twitter, etcétera.
Se han desarrollado muchos debates sobre el funcionamiento de las inteligencias artificiales. Sin embargo, nos enfocamos en Chat GPT, que es la más mencionada en este momento. Chat GPT es una AI que recibe instrucciones o preguntas, en lenguaje natural, y da respuestas o acciones solicitadas en un lenguaje muy similar al humano. Se le puede pedir que resuma textos, que busque palabras clave, que extraiga los conceptos fundamentales o que corrija un texto extenso, que escriba una carta o un correo electrónico, entre muchas consultas posibles.
¿Cómo sabe hacer esas tareas? Chat GPT se entrenó con un corpus de datos de un gran tamaño, difícil de imaginar –el tamaño exacto es secreto empresarial–. Esa información fue curada y depurada por la empresa que la desarrolló, OpenAI. Los criterios de selección que utiliza no son públicos; no sabemos qué eligieron incluir, pero, más importante, no sabemos qué eligieron excluir. Para Chat GPT puede haber eventos históricos que no sucedieron, personas que no existieron, palabras que nunca se dijeron.
El Ministerio de la Verdad
En la novela distópica 1984, de George Orwell, bajo el régimen del Gran Hermano, existe un Ministerio de la Verdad que se dedica exclusivamente a eliminar hechos indeseados de la historia de la humanidad. Revisa libros antiguos, revistas, publicaciones y borra todo registro de aquello que resulta inconveniente para la realidad que quiere recordar.
En el mundo real, las AI más avanzadas –propiedad de corporaciones multimillonarias de un poder increíble como Microsoft, Google y Amazon, entre otras– tienen el potencial de hacer lo mismo que el Ministerio de la Verdad. Mediante el proceso de curación y selección de la información a utilizar para entrenar los sistemas, se puede alterar la realidad actual y el pasado histórico.
Alterar la realidad no es nada nuevo. En el sistema educativo uruguayo se omitían (¿omiten?) menciones a las dictaduras militares en las clases de Historia del liceo; se estudian las guerras mundiales desde la perspectiva de Estados Unidos, ignorando la visión de Europa Oriental, que difiere considerablemente. Puede ocurrir lo mismo con la información dada a las AI para entrenarse; la diferencia es la escala.
A pesar de su nombre (open = “abierto”), OpenAI no está abierta a revelar cómo Chat GPT procesó toda esa información. Al leer la documentación de Chat GPT,1 da a entender que se estuviera entrenando a un sistema que está fuera de su control. Sin embargo, es todo lo contrario. Quien diseña el sistema decide cómo ese sistema aprende.
Ninguna de estas empresas liberó el código al público, ni a investigadores, ni a agencias reguladoras. No se sabe cómo procesa las consultas; sólo se nos dice que es capaz de hacer esas cosas. A esto se le denomina black box o “caja negra”: un sistema cerrado al que le damos algo (input) y nos devuelve otra cosa (output). En el caso de Chat GPT, le hacemos una pregunta y el sistema nos contesta. ¿Cómo llegó a esa conclusión? ¿Por qué nos responde una cosa y no otra? ¿Cómo puedo saber si llegó a esa respuesta porque es la estadísticamente probable o porque fue programada para omitir alguna de las alternativas?
Es importante que los problemas que surjan a raíz del uso de herramientas como Chat GPT –indudablemente los habrá– se les atribuyan a estas empresas que se mueven rápido, rompen cosas y jamás, jamás piden permiso.
Microsoft no perdió tiempo en integrar Chat GPT a su buscador Bing y productos de Office luego de invertir 10.000 millones de dólares en OpenAI –eso es lo que dijeron al público–. Se estima que Microsoft es propietaria de 49% de las acciones de OpenAI; además, es el proveedor exclusivo de infraestructura en la nube para la empresa. Es decir, Chat GPT y todas las herramientas de OpenAI se alojan en servidores de Microsoft exclusivamente. La próxima AI de Google, llamada Bard, estará integrada a todos sus servicios: búsqueda, correo, documentos, etcétera.
Todas las grandes empresas tecnológicas están apresurándose a implementarlas para no quedar fuera de competencia. Considerando que cualquier actividad realizada en internet pasa por los servidores de estas empresas, es razonable decir que son los dueños de toda la información y, crucialmente, de los medios para consumirla. Entonces, al eliminar el proceso mínimo de seleccionar un resultado de una búsqueda, reemplazándolo con una mera pregunta, se pierde el acto de elegir, de ponderar más de una opción.
Cualquier cosa creada por un humano va a tener rasgos imperfectos inherentes a nuestra naturaleza. Nuestros prejuicios, tendencias, ideologías, todo forma parte de la lente por la cual miramos el mundo y actuamos sobre él. El diseño de AI no es ajeno a esta realidad. Los primeros experimentos de sistemas de AI públicos fueron controvertidos: al poco tiempo de estar expuestos a las redes sociales, empezaron a espetar discursos racistas, antisemitas, entre otras variedades de discriminación y discursos de odio.2
Estamos intentando transitar un camino hacia una sociedad más igualitaria, más justa para todos, con muchos contratiempos y piedras en el camino. En ese contexto, corporaciones de enorme poder e influencia liberan una herramienta que perpetúa los mismos comportamientos nefastos que arrastramos como sociedad hace años y agrega algunos más.
Chat GPT, a raíz de experiencias previas, fue sometida a restricciones en la forma en que presenta sus respuestas; existen filtros y aplicaciones satélite que controlan que las respuestas no sean ofensivas, que no tengan tintes políticos, que no tengan tendencias ideológicas, etcétera. Se confunde, entonces, la inteligencia con acceso a la información, la verdad con el dato estadístico, la realidad con la objetividad.
La frase que titula el artículo está presente en el manifiesto de programación del lenguaje Python, usado para programar Chat GPT, entre muchos otros sistemas.
Silicon Valley tiene una filosofía similar que reza: “Muévete rápido y rompe cosas”. Esta mentalidad fue la que llevó a Facebook a servir –voluntaria o involuntariamente– de herramienta para erosionar democracias en el mundo; llevó a Google a almacenar cada byte de nuestros datos de navegación –al principio sin claro consentimiento e ignorando los pedidos de agencias gubernamentales– y a armar perfiles comprensivos de nuestra personalidad para luego vender al mejor postor; las consecuencias de las “innovaciones” desarrolladas por estas empresas las notamos cuando ya es demasiado tarde para controlar o mitigarlas.
No parece haberse hecho un estudio previo que midiera las posibles implicancias de un avance tecnológico como el presente, al menos no un estudio meticuloso. Es importante que los problemas que surjan a raíz del uso de herramientas como Chat GPT –indudablemente los habrá– se les atribuyan a estas empresas que se mueven rápido, rompen cosas y jamás, jamás piden permiso.
Francisco Villaverde es escritor, estudiante de Lingüística y programador.