La inteligencia artificial (IA) no es ni moral ni filosóficamente neutra, sino que responde a “intereses determinados” y “reproduce sesgos culturales y estructuras de poder”, dijo a la diaria el doctor en Filosofía y máster en Bioética Miguel Pastorino, quien advirtió que la humanidad vive el avance de dicha tecnología con un “excesivo optimismo” que se vuelve una “forma de superstición”.

“Estamos entrando en una era en la que el poder tecnológico tiende a concentrarse en pocas manos. Las grandes corporaciones que desarrollan y entrenan los sistemas de IA controlan los datos, los recursos y las infraestructuras. Esto configura un nuevo poder tecnocrático que [...] amenaza con convertirse en un ‘ciberleviatán’: una alianza entre lo técnico, lo económico y lo político que erosiona la libertad individual y la deliberación democrática. Cuando el poder de decisión se traslada a sistemas automatizados que escapan al control ciudadano, la democracia se debilita”, señaló el filósofo, quien es profesor investigador y director del Centro Core en la Universidad Católica del Uruguay.

En ese marco, Uruguay y América Latina corren el riesgo de “quedar atrapados” en una “nueva forma de dependencia”, advirtió Pastorino, lo que puede “profundizar las desigualdades globales”, por lo que la región debe apostar por un “desarrollo crítico de la tecnología, que integre la dimensión ética y humanista y que defienda la dignidad de las personas frente a la lógica del mercado y del control”.

“Ya estamos experimentando una forma de sedentarismo cognitivo: la delegación del esfuerzo mental en las máquinas. Si dejamos que la IA piense por nosotros, perderemos la capacidad de concentración, de atención, de esfuerzo intelectual. Cada vez que externalizamos una tarea cognitiva, cedemos una parte de nuestra libertad”, reflexionó el también autor del libro Pensar en la era de las máquinas: ¿por qué la filosofía es inevitable?

Pastorino consideró que el tema no está siendo lo suficientemente debatido en la sociedad y que en muchos casos se lo aborda desde “la fascinación o el miedo”.

“Hace falta una reflexión más profunda, crítica y serena, que nos permita pensar cómo trabajar colaborativamente con la IA, qué queremos delegarle y qué no. Falta una educación crítica y humanista que ayude a comprender el alcance de lo que está en juego. No basta con discutir la eficiencia o los riesgos económicos: hay que pensar filosóficamente qué significa seguir siendo humanos en la era de las máquinas. [...] No hay neutralidad posible: o pensamos la tecnología, o la tecnología pensará por nosotros”, finalizó.

Usted ha afirmado que la IA no es solamente un salto tecnológico, sino que representa una de las cuestiones filosóficas más relevantes de nuestro tiempo. ¿Por qué asegura esto?

La IA no es una simple herramienta ni un progreso técnico aislado, sino una realidad que se ha convertido en el nuevo ambiente en el que vivimos. No se limita a transformar nuestras prácticas, sino que redefine lo que somos, cómo pensamos y cómo nos relacionamos con el mundo. Su irrupción genera un verdadero cambio antropológico: altera nuestra concepción de la verdad, de la libertad, del conocimiento y de la vida misma. Estamos ante una revolución que, más allá de la ingeniería y la informática, interroga el sentido de lo humano. Por eso es una cuestión filosófica de primer orden: porque nos obliga a repensar nuestra condición, nuestras decisiones y los límites de nuestro propio poder creador.

¿Por qué es tan importante que las sociedades comiencen a entender que la IA no es ni moral ni filosóficamente neutra?

Porque la IA no surge en el vacío ni es un instrumento neutral. Está cargada de supuestos antropológicos, económicos y políticos. Detrás de cada algoritmo hay un modo de concebir al ser humano y de organizar el mundo. Su diseño responde a intereses determinados y reproduce sesgos culturales y estructuras de poder. Pensar que la tecnología es neutra equivale a renunciar a nuestra responsabilidad moral. Si no comprendemos que cada avance técnico conlleva decisiones éticas, corremos el riesgo de que la IA, en lugar de servir al bien común, se convierta en una herramienta de control, vigilancia y desigualdad.

¿Cuál es la diferencia entre la inteligencia humana y la artificial? ¿En qué aspectos la artificial jamás podría alcanzar a la humana?

La inteligencia humana es irreductible a la función computacional. Pensar no es sólo procesar información, detectar patrones, producir texto, música o imágenes: implica conciencia, subjetividad, imaginación, afectividad y sentido. La inteligencia artificial puede imitar funciones humanas a una velocidad increíble, pero no puede vivir la experiencia de la subjetividad humana. Carece de interioridad, de autoconciencia, de intencionalidad y de libertad. Puede calcular, puede correlacionar datos, pero no puede preguntarse desde una conciencia propia por el sentido, aunque simule una conciencia humana y pueda dar respuestas a preguntas de sentido, no se pueden confundir algunas funciones cognitivas con el inteligir humano. La IA podrá superar muchas de nuestras capacidades de cálculo y procesamiento de información, simular sentimientos, pero no tiene nuestra capacidad de comprender y amar. La conciencia humana puede ser imitada, pero eso no es un “otro”, porque no es alguien, sino algo, no es persona, sino cosa. Las metáforas que usamos para referirnos a la IA suelen darle atribuciones que no tiene.

¿Las máquinas pueden producir sabiduría o implican una forma de saber más primitiva?

Lo que la IA produce no es sabiduría, sino correlaciones. Puede descubrir regularidades entre datos, pero no puede discernir su significado. Como advierte el filósofo Byung-Chul Han, el conocimiento basado en datos es una forma primitiva de saber porque renuncia a la pregunta por el sentido. La sabiduría no es acumulación de información, sino reflexión, experiencia y juicio. Y eso requiere una conciencia que se pregunte por el bien y por la verdad. La IA puede ayudarnos a acceder a información, pero no puede sustituir el proceso de pensar. Cuando confundimos información con conocimiento, y cálculo con pensamiento, corremos el riesgo de atrofiar nuestra capacidad crítica y de entregarle el juicio a las máquinas.

Usted afirma que la IA ha sido diseñada para servir a los intereses dominantes ya existentes. ¿Hacia qué tipo de futuro a nivel social, político y económico nos estamos dirigiendo? ¿En dónde queda la democracia?

Estamos entrando en una era en la que el poder tecnológico tiende a concentrarse en pocas manos. Las grandes corporaciones que desarrollan y entrenan los sistemas de IA controlan los datos, los recursos y las infraestructuras. Esto configura un nuevo poder tecnocrático que, como advertía José María Lasalle, amenaza con convertirse en un ‘ciberleviatán’: una alianza entre lo técnico, lo económico y lo político que erosiona la libertad individual y la deliberación democrática. Cuando el poder de decisión se traslada a sistemas automatizados que escapan al control ciudadano, la democracia se debilita. El desafío no es sólo técnico, sino político: cómo preservar la autonomía humana y el bien común frente a una tecnología que tiende a gobernarnos.

Si la IA reproduce los intereses dominantes existentes, ¿qué les depara a países en desarrollo como el nuestro o a América Latina?

El riesgo es quedar atrapados en una nueva forma de dependencia: la dependencia tecnológica. Si los países del sur no participan activamente en la creación, regulación y reflexión sobre la IA, se verán reducidos a consumidores de tecnologías diseñadas según otros valores e intereses. Esto puede profundizar las desigualdades globales y reforzar la brecha entre quienes controlan los datos y quienes los producen sin poder sobre ellos. América Latina debe apostar a un desarrollo crítico de la tecnología, que integre la dimensión ética y humanista, y que defienda la dignidad de las personas frente a la lógica del mercado y del control.

¿Qué impactos puede llegar a tener el uso de IA en nuestra forma de pensar y en nuestra libertad?

Ya estamos experimentando una forma de sedentarismo cognitivo: la delegación del esfuerzo mental en las máquinas. Si dejamos que la IA piense por nosotros, perderemos la capacidad de concentración, de atención, de esfuerzo intelectual. Cada vez que externalizamos una tarea cognitiva, cedemos una parte de nuestra libertad. Pensar requiere tiempo, disciplina y paciencia. Cuando todo se vuelve instantáneo, cuando la comodidad reemplaza al esfuerzo, la libertad se debilita. El mayor peligro no es que las máquinas nos dominen, sino que nosotros renunciemos a pensar y a decidir por comodidad. La libertad se ejercita, como un músculo: si no la usamos, se atrofia.

¿Cree que se está viviendo un excesivo optimismo actualmente sobre las posibilidades de la IA?

Sí, y ese optimismo es una forma moderna de superstición. Se cree que la IA todo lo resolverá, como si fuera un oráculo infalible. Ese entusiasmo oculta la ingenuidad de pensar que los problemas humanos se solucionan con más datos o más algoritmos. Pero la vida humana no se reduce a lo calculable. Hay un determinismo tecnológico que nos quiere hacer creer que el futuro está programado y que no hay alternativa. Sin embargo, el futuro no se predice, se construye con nuestras decisiones. Lo verdaderamente humano es la capacidad de crear lo inesperado, de abrir caminos nuevos. Y eso no puede hacerlo un algoritmo.

¿Considera que el tema está siendo lo suficientemente debatido en la sociedad, en los países y en la comunidad internacional?

No lo suficiente, y en muchos casos se lo aborda desde la fascinación o el miedo, desde visiones deterministas de que todo irá bien por el progreso tecnológico, o de que todo irá cada vez peor por la deshumanización. Hace falta una reflexión más profunda, crítica y serena, que nos permita pensar cómo trabajar colaborativamente con la IA, qué queremos delegarle y qué no. Falta una educación crítica y humanista que ayude a comprender el alcance de lo que está en juego. No basta con discutir la eficiencia o los riesgos económicos: hay que pensar filosóficamente qué significa seguir siendo humanos en la era de las máquinas. Las universidades, los gobiernos y las instituciones internacionales deberían promover espacios interdisciplinarios donde filósofos, neurocientíficos, ingenieros, juristas y educadores dialoguen sobre el rumbo que queremos dar al desarrollo tecnológico. No hay neutralidad posible: o pensamos la tecnología, o la tecnología pensará por nosotros.

¿La regulación podría ser una solución o es sólo una propuesta parcial a todos los cambios que podría generar la IA?

La regulación es necesaria, pero no suficiente. Puede establecer límites, proteger derechos y prevenir abusos, pero no puede responder por sí sola a la pregunta fundamental: ¿qué tipo de humanidad queremos construir? La gobernanza tecnológica requiere marcos éticos, deliberación democrática y participación ciudadana. Si la regulación se limita a lo técnico o lo jurídico, sin una reflexión antropológica y filosófica de fondo, será siempre parcial. El desafío no es sólo controlar la IA, sino orientar su desarrollo al servicio de la dignidad humana, la justicia y la libertad.