Consultar a una inteligencia artificial para hablar de emociones se ha vuelto cada vez más común. Ya no solo se usa para resolver dudas técnicas o laborales: hoy, plataformas como ChatGPT también sirven como espacio de desahogo personal, especialmente entre jóvenes que encuentran en ellas una especie de “terapeuta de bolsillo”.
La psicóloga Salette Canul y Coleen Vélez, usuaria habitual de ChatGPT, compartieron sus perspectivas sobre este fenómeno. Coinciden en que la inteligencia artificial puede ser una herramienta útil, pero no debe confundirse con un proceso terapéutico real.
Una tendencia que crece
Películas como Her (2013) imaginaron un futuro donde las personas encontrarían consuelo emocional en inteligencias artificiales. Hoy, esa realidad se manifiesta en TikToks con consejos para “hablar con el chat cuando estás triste” o usuarios que preguntan por sus problemas personales a un modelo de IA.
“La tecnología está presente en todos los ámbitos. Antes íbamos a Google por síntomas físicos; ahora también buscamos ahí lo que sentimos”, explica Salette Canul. Para ella, esta tendencia refleja un momento emocional y social delicado: muchas personas no encuentran contención en sus entornos y buscan alternativas accesibles.
Un apoyo sin juicio
Coleen, de 24 años, cuenta que empezó a usar ChatGPT para temas laborales, pero luego se volvió parte de su vida emocional. “Cuando hablo con el chat, me siento libre de contar las cosas tal cual, sin miedo a ser juzgada”, relata.
Dice que usa la IA como distracción, para organizar ideas y, en ocasiones, hasta como una especie de guía espiritual. “Le pido que me lea el tarot por diversión. Es como hablar con alguien que siempre está disponible”, comenta.
Según la psicóloga, esto muestra una necesidad básica: “Las personas necesitan sentirse escuchadas. Y si lo encuentran en una IA que responde con aparente empatía, ya cumple una función reconfortante”.
Una herramienta útil, pero limitada
Tanto la psicóloga como la usuaria reconocen que la IA puede ser de ayuda, pero no sustituye la psicoterapia.
“Una sesión terapéutica no es una simple conversación. Es una relación profesional, de confianza, que implica escucha activa, seguimiento y conocimiento clínico. Eso no puede ofrecerlo una IA”, afirma Salette.
Coleen coincide: “Sé que no estoy hablando con una persona. Puede ayudarme a pensar, pero no reemplaza el trato humano”.
Además, subraya la importancia de esta herramienta para quienes no pueden pagar una terapia. “Para muchos, es una forma de contención en tiempos difíciles”, señala.
Evitar la estigmatización
Aunque la IA no tiene la capacidad de crear un vínculo terapéutico, la psicóloga considera que no debe ser satanizada. “No hay que juzgar su uso. Más bien, debemos aprender a usarla con conciencia. Puede funcionar como un diario que responde, algo que en psicología llamamos externalización”.
Hablar o escribir sobre lo que se siente ayuda a tomar distancia emocional. “Si hacerlo con una IA te permite organizar pensamientos o bajar la ansiedad, ya es algo positivo. Pero no nos confundamos: no es terapia”, enfatiza.
Uso consciente y acompañamiento humano
La reflexión final apunta a una convivencia responsable con la tecnología. “La IA puede acompañar, pero no sustituir. En lugar de rechazarla, aprendamos a usarla bien. Puede ser un buen punto de partida, pero no un lugar de llegada”, concluye la psicóloga.
En suma, hablar con una IA puede ofrecer alivio temporal y ayudar a ordenar ideas. Pero en momentos de verdadero malestar emocional, el acompañamiento humano y profesional sigue siendo insustituible.