El uso de la inteligencia artificial (IA) como un terapeuta muestra las carencias que existen en materia de atención de salud mental, señalaron, en diálogo con la diaria, los psicólogos Lorena Estefanell y Roberto Balaguer.

Ambos especialistas consideraron que el crecimiento de estas prácticas es un síntoma de las limitaciones del sistema sanitario en materia de salud mental, marcado por dificultades de acceso, altos costos y respuestas insuficientes para demandas leves o intermedias.

“Este uso [de la IA como terapeuta] es uno de los mayores consumos de la gente, lo que nos está indicando que los servicios que estamos dando en salud mental no están siendo suficientes”, dijo Estefanell.

Los asesoramientos a nivel de atención primaria de la salud mental en Uruguay “prácticamente no existen” y se encuentran en una forma “muy débil” en el sistema sanitario, afirmó.

La también magíster en Psicología sostuvo que esta situación ocurre por la falta de acceso a las personas a un profesional de la salud mental, así como porque los terapeutas no siempre responden a las necesidades de los usuarios.

“La forma en que resolvemos los problemas de salud mental es todo o nada. O no tenemos nada o accedemos a psicoterapia, y en el medio hay una cantidad de situaciones que las personas necesitan resolver, quizás sin psicoterapia, porque no tienen trastornos mentales o porque sus síntomas son leves, o porque en realidad están enfrentando una situación difícil, un duelo, una separación, un tema de crianza, donde no necesariamente la psicoterapia es la mejor respuesta a ese problema”, indicó la profesora universitaria y directora de la maestría en Psicoterapia Cognitiva de Adultos y Familias de la Universidad Católica.

Mientras tanto, Balaguer, quien es docente universitario e investigador especializado en tecnología, educación y juventud, consideró que esta tecnología está funcionando como un “parche”, ya que pone al alcance de las personas un servicio que no siempre es accesible y es “costoso”. “En muchos casos, esas primeras interacciones [con los modelos de lenguaje] alientan a la persona a terminar consultando. [...] En ese sentido, termina siendo una oportunidad para una consulta real”, destacó.

Marc Zao-Sanders, cofundador de la plataforma de IA Filtered, publicó en marzo del año pasado, en Harvard Business Review, una investigación titulada “Cómo se utiliza realmente la IA generativa en la actualidad”. En el trabajo señaló que la terapia con IA desplazó en 2025 a la generación de ideas como su principal uso global: la herramienta dejó de ser usada exclusivamente para la productividad y se convirtió en un soporte emocional, un buscador de propósito y un organizador de tareas de la vida cotidiana.

A fines de octubre, OpenAI estimó que el 0,15% de sus usuarios tienen interacciones semanales que muestran señales de angustia, posible planificación suicida o emocionalidad intensa. Según un informe de setiembre, ChatGPT tiene 700 millones de usuarios activos semanales, lo que implica que cerca de un millón de ellos podrían presentar señales de angustia o planificación suicida.

¿Una moda peligrosa?

Balaguer dijo que, más que una moda peligrosa, ve este tipo de consumo de IA como un escenario “desafiante” porque implica “potenciales cambios” en la atención psicológica tanto para el paciente como para el terapeuta.

No obstante, reconoció que tiene algunos “riesgos”, como el hecho de que el paciente tenga una “confianza ciega” en la tecnología o que la IA no acceda a todo el contexto del usuario, por lo que sus respuestas puedan ser incompletas y no sean las más apropiadas.

Asimismo, sostuvo que los modelos de lenguaje vienen “minimizando” los riesgos y buscan ser “extremadamente cautos” a la hora de dar diagnósticos y recomendaciones luego de que sucedieron algunos eventos con “desenlace fatal” en el pasado.

“Hubo casos de adolescentes, que interactuando con ChatGPT y planteándose situaciones, tomaron la decisión de quitarse la vida. En virtud de esos hechos, hoy los modelos de lenguaje son extremadamente cautos. Pueden pecar incluso de no jugarse nada”, indicó.

Por su parte, Estefanell dijo que “el riesgo” radica “en que las personas pueden estar creyendo que están mejorando su salud mental, entrando en procesos que las alivian, que les dan placer, pero que no necesariamente las ayudan a construir bienestar”.

“El Chat GPT mal usado puede perfectamente contribuir a los factores de mantenimiento (que hacen que el problema siga presentándose en el tiempo) sin que nos demos cuenta, entonces la persona lejos de estar resolviendo su problema de salud mental, puede mantener su sintomatología. Si alguien tiene una paranoia, que implica desconfiar mucho de todas las personas, el Chat GPT no le cuestiona [...] porque es obediente”, aseguró.

No obstante, el uso de esta tecnología muestra que no siempre los tratamientos que ofrecen los profesionales son los más útiles para las personas, agregó.

Un profesional de la salud es el que debería decidir cuál es el mejor tratamiento para una persona, indicó. “Es como que yo te diga que tengo una contractura crónica. Si lo mejor es un masaje para mí, el que lo puede decidir es el que de alguna manera puede ver mi columna y darse cuenta de si tengo una contractura muscular o una hernia de disco. Porque si tengo una contractura muscular, un masaje me va a servir, pero si tengo una hernia de disco, me puede lastimar. Cuando el consumo es decidido por el usuario final, el riesgo es que muchas personas pueden estar usándolo para cosas que de repente las alivian, pero no significa que las beneficien”, explicó.

¿Demasiado complaciente?

Uno de los riesgos de la IA es que los modelos de lenguaje son “demasiado complacientes”, remarcó Balaguer. “No es un peligro en sí, pero sí un riesgo, la validación y el conformismo de avalar y legitimar todas las interpretaciones, las lecturas, las narrativas que trae la persona en lugar de ayudarla a confrontar, a pensar alternativas. Al tratar de ser complaciente, de ser políticamente correcto, termina siendo riesgoso, pero no en el sentido de que ponga en peligro a una persona, sino que, en todo caso, no la cuestiona”, indicó.

En un vínculo con un psicólogo, la persona llega a la terapia con una historia, una narrativa, y en el encuentro con el profesional, “confronta, piensa y reestructura su historia”, agregó.

“Las limitantes que tiene es que ese otro que está en el Chat GPT o en cualquier modelo de lenguaje, no es un total otro. Es alguien que está espejeando mucho lo que la persona trae y no termina siendo un verdadero otro [...] Esto no quiere decir que no haya situaciones, por ejemplo, de ansiedad, de angustia, donde las recomendaciones generales sean muy buenas y ayuden. Me refiero más a un proceso más profundo, donde la persona acude para modificar algo, reestructurar una forma de ver”, explicó.

Por medio de esta “complacencia”, se podrían agravar los casos de paranoia y narcisismo, remarcó. “En estos modelos corres el riesgo de que te alimenten la paranoia, los miedos infundados, [...] Porque justamente lo que falta es ese ser humano que te haga repensar y que te ayude a encontrar una mejor síntesis”, añadió.

Vínculo terapéutico

El uso de esta tecnología está mostrando que los profesionales deben diversificar la forma en que responden a los problemas de salud mental de las personas, dijo Estefanell, quien remarcó que no cree que la IA esté atentando contra el vínculo terapéutico entre un psicólogo y su paciente.

“La IA le da un pseudovínculo a las personas, una conversación, que es lo que muchas veces necesitan para darse cuenta de lo que les pasa. Es cierto que si es una conversación en la que el prompt [pregunta o indicación que se dirige al modelo de lenguaje] está bien redactado, puede tener cierta calidad. El riesgo está sobre todo en cuál es el prompt que la persona utiliza”, añadió.

La clave está en que las personas tengan buenas guías para saber cómo hacer las preguntas correctas, un trabajo que suele hacer el terapeuta al cambiar las interrogantes del paciente, explicó.

“Por ejemplo, una persona que recién se separó se sienta en la terapia y dice ‘yo quiero que vuelva porque me muero sin él o sin ella’, y el terapeuta le cuenta que no se va a morir, que es una separación, que es capaz de superarla. Chat GPT no tiene esa capacidad, por lo que perfectamente puede contribuir a un proceso de mucha rumiación [dar vueltas a un pensamiento de forma obsesiva]”, indicó.

La experta sostuvo que al ser una herramienta de “fácil acceso” puede utilizarse en cualquier momento de crisis y, en el caso de ser bien usada, “puede tener su utilidad”.

Por su parte, Balaguer consideró que este uso de la tecnología podría suponer en algunos sentidos una sustitución progresiva del vínculo terapéutico tradicional, especialmente los aspectos que puedan ser automatizables y en donde exista cierta continuidad.

“No hay que pensarlo como una sustitución exactamente, sino también como un complemento profesional que puede ayudar al terapeuta a darle seguimiento y llegar a un diagnóstico”, añadió.

Públicos

Las personas utilizan esta tecnología porque sienten que se desenvuelven en un ambiente “seguro, controlado y gratuito”. “Tiene una serie de beneficios. Yo conozco a un montón de gente que para muchas situaciones, desde muy prácticas como tener que contestar un mensaje que hizo enojar mucho, [la IA se vuelve] una buena alternativa para contestarlo de mejor manera y ayuda a gestionar la emocionalidad [...] mostrando una mejor versión de ti mismo”, dijo Balaguer.

El psicólogo indicó que los jóvenes utilizan mucho esta tecnología y remarcó que lo mismo ocurre con los perfiles más introvertidos y reservados. “Lo que garantiza cualquier modelo de lenguaje es la confianza, el evitar sentirse juzgado, vulnerable”.

Mientras tanto, Estefanell sostuvo que para el caso de las personas con ansiedad, depresión o con “procesos desregulativos”, que tienden a tener “emociones más intensas que las desbordan”, pueden encontrar en esta tecnología una “conversación accesible” en cualquier momento.

“Muchas veces no acceden a un terapeuta porque la mutualista tiene una lista de espera o a veces porque por sus propias características de personalidad no confían en alguien o no tienen vínculos de intimidad [...]Chat GPT permite un acceso mucho más universal, más rápido, más accesible a personas que pueden tener dificultad en conversar con alguien. [...] El problema es que se le tiene que hacer la pregunta correcta y ahí es donde está el desafío más grande”, agregó.

Llamado a los psicólogos

La experta remarcó que, ante esta tecnología, lo importante es pararse en una postura intermedia. “Hay gente que cree que esto va a matar el vínculo terapéutico y otra que no cuestiona a la IA. A mí me parece que siempre está bueno pararse en el medio, [...] no nos podemos pelear con la realidad, nuestros pacientes están usando Chat GPT [...] Debemos preguntarnos cómo podemos hacer para que esto funcione lo mejor posible”.

La psicóloga consideró que los profesionales deben empezar a hablar sobre cuáles son los mejores prompts, en qué aspectos la IA puede ayudar y en cuáles no. “La pregunta es si lo que estamos haciendo realmente está dando buenas respuestas a las personas. Creo que nos podemos desafiar un poquito más, nos podemos meter en el mundo de la educación, de la salud, de la promoción de las empresas, y ayudar a las personas a que cuiden su salud mental y a que utilicen las herramientas que tenemos”, finalizó.