

ADMIN
26 julio, 2025
Utilizar ChatGPT como psicólogo se está volviendo un hábito para los argentinos, y ya empezamos a descubrir su impacto en la salud mental
Ante la dificultad para acceder a terapia tradicional por sus costes o por la falta de recursos, cada vez más personas recurren a la inteligencia artificial en busca de apoyo. Usar ChatGPT como un confidente digital se está convirtiendo en un hábito, una solución aparentemente rápida y accesible para gestionar la ansiedad o la depresión. Pero, ¿es realmente una alternativa segura?
La verdad es que apenas comenzamos a entender el impacto real de estos modelos de lenguaje en nuestra psiquis. ¿Puede una IA reemplazar la compleja labor de un psicólogo? Acompáñanos a analizar lo que dice la ciencia, los expertos y los casos de uso reales sobre esta creciente tendencia.
Las grietas en el código: ¿Por qué ChatGPT no es un terapeuta?
Aunque la idea de tener un "psicólogo" disponible 24/7 en tu bolsillo es atractiva, es crucial entender las limitaciones fundamentales de la tecnología actual. Estas herramientas no fueron diseñadas para la intervención clínica y carecen de elementos esenciales para una terapia efectiva.
1. Respuestas genéricas y falta de contexto humano
Un estudio de la Universidad Nacional de San Luis en Argentina lo dejó claro: al entrenar asistentes virtuales para tratar casos de adicciones, los bots ofrecieron escucha activa pero fallaron en lo crucial. Subestimaron los signos de riesgo y, ante situaciones graves como la ideación suicida, su única respuesta fue derivar a un profesional humano.
Como señaló una de las investigadoras, la diferencia es abismal:
"Un terapeuta humano entrenado evalúa un amplio abanico de estrategias (...) en consideración de la persona concreta que tiene enfrente, y no da propuestas genéricas como puede ofrecerlas un asistente virtual".
Tu historia, tu contexto y tus matices son únicos. Una IA, por ahora, solo puede ofrecer respuestas basadas en patrones de texto, sin una comprensión real de tu situación personal.
Ia Salud Mental
2. Carencia de elementos terapéuticos clave
El psiquiatra Mariano H. Castelli fue contundente en una entrevista para el medio Chequeado al advertir que "es fundamental tener en cuenta que ChatGPT no es un chatbot con finalidades terapéuticas". Estás interactuando con un sistema que no posee conciencia, emociones ni la capacidad de entender la experiencia interpersonal.
Un chatbot carece de las habilidades que definen el trabajo de un profesional de la salud mental:
- Escucha activa y empática: No solo oír, sino comprender lo que no se dice.
- Contención emocional: Ofrecer un espacio seguro en momentos de crisis.
- Lectura del lenguaje no verbal: Interpretar gestos, tonos y silencios.
- Manejo de los tiempos: Saber cuándo presionar, cuándo esperar y cuándo intervenir.
3. Sesgos, privacidad y seguridad de tus datos
¿Alguna vez te has preguntado cómo se entrenó la IA con la que hablas? Estos sistemas aprenden de enormes cantidades de texto de internet, lo que significa que heredan sus sesgos. Un consejo que podría ser útil para una persona en Estados Unidos podría no serlo, o incluso ser perjudicial, para alguien con una realidad completamente diferente en Argentina o la India.
Además, la privacidad es una preocupación mayúscula. Contrario a la creencia popular de que "nadie lo va a leer", tus conversaciones pueden ser utilizadas por las empresas para reentrenar y mejorar sus sistemas. Estás compartiendo tu información más sensible sin las garantías de confidencialidad que ofrece una consulta profesional.
Cuando la "terapia" sale mal: Riesgos reales
Más allá de los consejos genéricos, el uso de la IA como sustituto terapéutico conlleva riesgos tangibles. Ya se han documentado casos en los que los chatbots han minimizado problemas graves o, en el extremo opuesto, han surgido informes anecdóticos de psicosis inducida por el uso intensivo de ChatGPT.
Estos incidentes nos recuerdan lo poco que sabemos sobre la interacción a largo plazo entre la mente humana y los sistemas de IA. Confiar tu salud mental a un algoritmo sin supervisión es, por ahora, un experimento con consecuencias impredecibles.
¿Hay un futuro para la IA en la salud mental?
A pesar de las advertencias, el panorama no es del todo negativo. La clave no está en reemplazar al humano, sino en potenciar su trabajo. La inteligencia artificial puede convertirse en una herramienta poderosa para los profesionales de la salud mental, no para los pacientes directamente.
Según expertos y análisis de la industria, como los publicados en portales como AIMultiple, la IA podría integrarse de formas muy beneficiosas:
- Agilizar procesos administrativos: Ayudar a los terapeutas con la toma de notas y la gestión de citas.
- Realizar un primer filtro: Diseñar chatbots supervisados para triajes iniciales que dirijan al paciente al profesional adecuado.
- Analizar patrones de lenguaje: Asistir al terapeuta en la identificación de patrones en el discurso del paciente (siempre con consentimiento y supervisión).
- Ofrecer recursos educativos: Crear plataformas de psicoeducación validadas por expertos.
El camino a seguir requiere una regulación clara que proteja a los usuarios y garantice que cualquier herramienta de IA utilizada en este campo cumpla con estrictos estándares éticos y de seguridad.
Conclusión: Una herramienta poderosa, no un terapeuta
En resumen, si bien ChatGPT y otras IA pueden ofrecer una conversación y parecer empáticas, no son un sustituto de la terapia profesional. Carecen de la comprensión, la ética y la seguridad necesarias para manejar la complejidad de la salud mental. Usarlas como un diario personal o para organizar ideas puede ser inofensivo, pero confiarles tu bienestar es un riesgo que no deberías tomar.
Si estás lidiando con dificultades emocionales o psicológicas, la recomendación es clara: busca siempre el apoyo de un psicólogo o psiquiatra cualificado. La conexión humana, la experiencia y la confidencialidad que te ofrece un profesional son, hoy por hoy, irremplazables.