Personas de todo el mundo están chateando con inteligencias artificiales generativas para que los aconsejen como si se trataran de sus terapeutas. Como es lógico, esto genera dudas y temores en la comunidad científica.


No hace falta decir que la inteligencia artificial está atravesando uno de los momentos más importantes de la historia después de la llegada de ChatGPT, que puso a los algoritmos y tecnologías en boca de todos. La simpleza a la hora de poder usar estos sistemas hizo que personas que nunca habían interactuado con tecnologías del estilo pudieran hacerlo. Así es como hoy hay usuarios de todo el mundo que, constantemente, le escriben a estos chatbots conversacionales para hacerles preguntas sobre historia, matemática, para que les traduzcan frases, los ayuden con sus estudios o pedirles recetas.


Pero si bien decirle a GPT que prepare la lista de compras para el supermercado no luce para nada peligroso, hay personas que empezaron a usar a estos algoritmos como sus propios terapeutas. Los motivos son tan variados como personales: desde personas que no tienen los recursos para acceder a un tratamiento psicológico hasta quienes quieren ahorrarse el tiempo de la sesión.


Varios usuarios utilizan ChatGPT como sus terapeutas. (Foto: Adobe Stock)
Varios usuarios utilizan ChatGPT como sus terapeutas. (Foto: Adobe Stock)

Terapia GPT

Ejemplos por la web, con publicaciones de usuarios a través de redes sociales donde cuentan sus experiencias, hay de sobra. Así es como se pueden encontrar posts en Reddit, TikTok, Twitter o cualquiera de las grandes plataformas donde personas cuentan que le dicen a GPT cosas como “actuá como si fueras mi terapeuta. Necesito apoyo y consejo sobre qué hacer con algunas situaciones complejas que estoy atravesando”. La respuesta del sistema, si bien puede variar levemente, es siempre la misma: “Entendido, estoy aquí para ofrecerte apoyo. Puedes compartir las situaciones o problemas con los que estás lidiando, y haré lo mejor posible para darte orientación y consejo”. Después, recuerda que es importante consultar con un profesional de la salud mental.

Como no podría ser de otra manera, este tipo de situaciones despiertan temores en los especialistas. Hablé con la psicóloga Constanza Gonzalez Cazón: “La inteligencia artificial puede ser utilizada como herramienta para la terapia psicológica, pero no puede reemplazar la relación entre el terapeuta y el paciente. Básicamente porque un terapeuta puede entender y atender la complejidad propia de la vida humana; experimentar, comprender y validar las emociones; tener empatía hacia la persona que consulta y trabajar dependiendo de su contexto e historia de aprendizaje”. Una cosa es mensajearse con GPT, que puede simular la forma de hablar de un humano que sabe de terapia, otra es hablar con una persona que puede entender lo que estamos atravesando y que fue entrenada para eso.

Leé también: Sin autos voladores ni robots, así será el mundo en 2100, según la inteligencia artificial

Pero hay otras preocupaciones. Si bien GPT puede contestar, en muchas oportunidades, con información que efectivamente le servirá a quien esté hablando con esta IA, en muchas oportunidades puede devolver información sin sentido o, peor, incorrecta. Sin ir más lejos, en la pantalla principal de GPT, exactamente abajo del campo para chatear con el algoritmo, se puede leer “ChatGPT puede cometer errores. Chequear la información es importante”.

 “La inteligencia artificial puede ser utilizada como herramienta para la terapia psicológica
“La inteligencia artificial puede ser utilizada como herramienta para la terapia psicológica", aseguran los psicólogos. (Foto: Adobe Stock)Lo mejor, según González Cazón, es acompañar a los pacientes en el uso de estas plataformas: “La utilización de la inteligencia artificial como herramienta puede ser acordada para favorecer el logro de distintos objetivos establecidos previamente”.

La relación paciente-terapeuta

¿Pero qué pasará en el futuro? Si bien nadie tiene la bola de cristal para poder entender cómo evolucionarán estos algoritmos, ya hay opiniones dando vueltas: “Creo que en el futuro probablemente nos superará –incluso a los terapeutas– en muchos aspectos medibles. Pero una cosa que no podrá ser nunca es humano”, le explicó a Health Russell Fulmer, director de consejería en la Universidad Husson, en Maine, Estados Unidos.

A lo que se refieren Fulmer y González Cazón es que la relación paciente-terapeuta crea un vínculo emocional que es clave para la mejora de las personas que van a hacer la consulta y, al menos por ahora, ninguna inteligencia puede reemplazar esa característica tan humana.

La llegada de las apps

Y como suele suceder cuando las compañías ven que muchos usuarios le están dando un uso particular a una tecnología, Microsoft quiere aprovechar esta ola. Por eso hace menos de un mes registró una patente en Estados Unidos de un chatbot psicólogo que usará inteligencia artificial para llevar adelante tratamientos terapéuticos.

Incluso, por más que no se trate más que de algo en fase muy preliminar, mostraron un ejemplo. En él un paciente le cuenta a la inteligencia artificial que se siente mal porque tiene problemas de familia y el chatbot, como respuesta, le recomienda salir a correr 30 minutos para descansar la cabeza.

Existen aplicaciones desarrolladas especialmente para acompañar a personas con problemas de salud mental como Woebot o Elomia. (Foto: Adobe Stock)
Existen aplicaciones desarrolladas especialmente para acompañar a personas con problemas de salud mental como Woebot o Elomia. (Foto: Adobe Stock)Por: Arnav Pratap Singh - stock.adobe

No son los únicos. De hecho, hay aplicaciones desarrolladas especialmente para acompañar a personas con problemas de salud mental como Woebot o Elomia. En ambos casos hay especialistas que siguen de cerca el desarrollo de estas tecnologías para que no terminen generando más problemas que soluciones. Desde Elomia explican que tienen una característica de seguridad en la app en la que los humanos intervendrán si las personas necesitan hablar con un terapeuta real. Desde Woebot, que su inteligencia artificial se basa en “enfoques terapéuticos clínicamente probados”.

Este tipo de algoritmos conversacionales nacieron hace no mucho más de un año. Esto significa que todavía estamos en los inicios de lo que es la terapia que usa IAs generativas. Nadie sabe cómo estas tecnologías serán utilizadas en algunos años, pero lo que está claro es que el factor humano, al menos por ahora, es clave para los pacientes y su salud mental.


FUENTE: TN