Opinión Ingresá
Opinión

¿Qué debe saber la política sobre ChatGPT?

3 minutos de lectura
Contenido exclusivo con tu suscripción de pago
Contenido no disponible con tu suscripción actual
Exclusivo para suscripción digital de pago
Actualizá tu suscripción para tener acceso ilimitado a todos los contenidos del sitio
Para acceder a todos los contenidos de manera ilimitada
Exclusivo para suscripción digital de pago
Para acceder a todos los contenidos del sitio
Si ya tenés una cuenta
Te queda 1 artículo gratuito
Este es tu último artículo gratuito
Nuestro periodismo depende de vos
Nuestro periodismo depende de vos
Si ya tenés una cuenta
Registrate para acceder a 6 artículos gratis por mes
Llegaste al límite de artículos gratuitos
Nuestro periodismo depende de vos
Para seguir leyendo ingresá o suscribite
Si ya tenés una cuenta
o registrate para acceder a 6 artículos gratis por mes

Editar

ChatGPT, el nuevo programa de inteligencia artificial (IA), ha despertado alarmas que no se escucharon cuando similares tecnologías empezaron a aplicarse con provecho en campos como la traducción automática. Claramente, ChatGPT amenaza con producir textos más o menos elaborados. Eso tocó la sensibilidad de los periodistas, con más posibilidad de agendar sus temores que el gremio de los traductores.

La prensa disfruta en replicar columnas catastrofistas que le confirman sus miedos, como la de Yuval Harari en The New York Times (24/3/2023). Su sentencia es apocalíptica: “La inteligencia artificial podría devorar rápidamente toda la cultura humana, todo lo que hemos producido a lo largo de miles de años, digerirla y empezar a producir a borbotones una avalancha de nuevos artefactos culturales. No sólo ensayos escolares, sino también discursos políticos, manifiestos ideológicos e incluso libros sagrados para nuevos cultos”, dijo.

Desde hace mucho, la posición de la prensa ante la tecnología se parece bastante a la de la política. Abraza los peores pronósticos incluso antes de tener claras evidencias.

En el mismo diario, pero con menos repercusión, Noam Chomsky junto con dos especialistas (8/2/2023) afirmaron exactamente lo contrario. Desde su sólido conocimiento en lenguaje generativo expresaron: “La mente humana no es, como ChatGPT y sus semejantes, un motor estadístico pesado para la coincidencia de patrones, atiborrándose de cientos de terabytes de datos y extrapolando la respuesta conversacional más probable o la respuesta más probable a una pregunta científica. Por el contrario, la mente humana es un sistema sorprendentemente eficiente e incluso elegante que opera con pequeñas cantidades de información”.

Antes y después

Esa posibilidad creativa es la que la inteligencia artificial no emula. Que cierto sector del periodismo se sienta amenazado por ello habla más de la mecanicidad del trabajo que realiza que de las posibilidades reales de que, como vaticina Harari, la IA pudiera “hackear los cimientos de nuestra civilización”.

El periodismo del cortar y pegar ya estaba muerto antes de la aparición de ChatGP, así como los exámenes monográficos en que insisten profesores decimonónicos. Igual de extinta estaba la política basada en la repetición de la misma receta de moda para todas las campañas.

“Mientras que los humanos están limitados en los tipos de explicaciones que podemos conjeturar racionalmente, los sistemas de aprendizaje automático pueden aprender tanto que la Tierra es plana como que la Tierra es redonda”.

De nuevo, dice el artículo de Chomsky, el aporte de cualquier actividad humana “no busca inferir correlaciones brutas entre puntos de datos, sino crear explicaciones”. El artículo agrega una observación que parece describir la comunicación populista: “Mientras que los humanos están limitados en los tipos de explicaciones que podemos conjeturar racionalmente, los sistemas de aprendizaje automático pueden aprender tanto que la Tierra es plana como que la Tierra es redonda”. Igual que el consultor político oportunista que, parafraseando a Groucho Marx, podría decir: “Estas son mis campañas; si no le gustan, tengo otras”.

ChatGPT, un momento prometeico

Con menos repercusión que la calamidad de falta de “píldoras azules” de Harari, Thomas L Friedmann (21/3/2023) lo presenta como un momento prometeico. El periodista entiende que el desafío de la IA no es diferente del de la energía nuclear. Esta dio pruebas de su potencial destructivo y, por estar en el ámbito de los gobiernos, se dificultó la creación de “coaliciones adaptativas complejas, donde las empresas, el gobierno, los emprendedores sociales, los educadores, las superpotencias competidoras y los filósofos morales se unan para definir cómo obtenemos lo mejor y amortiguamos lo peor de la IA”.

La IA sí permite ese camino, que es el mismo que el de la pandemia, donde el virus no discriminaba derecha o izquierda, sino orientación al servicio público o guerra ideológica.

Tampoco estamos exentos de una nueva y, sin embargo, no hay tantas opiniones amenazantes como las que despierta cada nueva tecnología que aparece. Harari junto con otras 3.000 firmas distinguidas entre las que están Elon Musk (Space X, Tesla y Twitter) y Steve Wozniak (Apple) urgen que se detenga por seis meses el entrenamiento de la inteligencia artificial. Esa pausa debería servir para que se hagan más robustos y transparentes los sistemas y que los gobiernos aceleren políticas para la gobernanza. Como solución de los especialistas en el tema de todo el mundo, la carta no deja de ser una advertencia más. La desinformación lleva mínimo siete años en boga y aún espera soluciones de los estados. Y la mayoría de los firmantes tienen línea directa con los supuestos destinatarios de la “carta abierta” como para encontrar caminos más conducentes que la comunicación al mundo de su indignación moral.

Como cuenta el mito de Prometeo, los viejos dioses se sienten indignados porque el titán les entregó el fuego a los hombres. En este siglo ocurrió con la clonación, tecnología que no multiplicó humanos, pero fue fundamental para el desarrollo de las vacunas. Hasta la Wikipedia fue condenada como el fin de la cultura y la amenaza de los maestros, igual que hoy ChatGPT. Recuerda Chomsky que Sherlock Holmes le dijo al doctor Watson: “Cuando hayas eliminado lo imposible, lo que quede, por improbable que sea, debe ser la verdad”. Para dar alguna pista de las improbabilidades que ofrece la IA, ChatGPT contestó a Diálogo Político algunas cuestiones sobre su posible uso en la política, en distintos aspectos. Recorriendo alguna de sus respuestas se puede comprobar que ChatGPT es más prudente y criterioso al emitir opiniones que algunas personas.

Adriana Amado es doctora en Ciencias Sociales, periodista argentina e investigadora en Worlds of Journalism Study. Este artículo fue publicado originalmente en Diálogo Político y latinoamerica21.com.

¿Tenés algún aporte para hacer?

Valoramos cualquier aporte aclaratorio que quieras realizar sobre el artículo que acabás de leer, podés hacerlo completando este formulario.

¿Te interesan las opiniones?
None
Suscribite
¿Te interesan las opiniones?
Recibí la newsletter de Opinión en tu email todos los sábados.
Recibir
Este artículo está guardado para leer después en tu lista de lectura
¿Terminaste de leerlo?
Guardaste este artículo como favorito en tu lista de lectura