“Es mi médico, mi psicólogo, mi doctor de urgencias, es mi todo.” La frase de Marta Díaz durante un directo de TikTok podría sonar a broma si no fuera porque millones de jóvenes la escuchan como algo completamente normal. La influencer, con casi 12 millones de seguidores entre TikTok, Instagram y YouTube, verbalizó un cambio profundo: los jóvenes ya no solo usan la IA para estudiar o trabajar, sino también para gestionar su salud mental.
ChatGPT se ha convertido en el terapeuta oficial, y cada vez más personas, sobre todo jóvenes, tanto en España como fuera, comparten públicamente que recurren a la inteligencia artificial para buscar consejo emocional, desahogarse o pedir diagnósticos exprés. Lo que comenzó como una herramienta tecnológica se está convirtiendo en una forma de acompañamiento cotidiano: ChatGPT como confidente de una generación que se abre más a la IA que a las personas.
Según datos del laboratorio español Healthy Minds, fundado por el psicólogo y neurocientífico Dr. Raúl Alelú, muchos jóvenes se sienten más cómodos expresando sus emociones ante una inteligencia artificial que ante un terapeuta. Las razones son claras: la IA no juzga, está disponible las 24 horas del día, y sobre todo, es gratuita.
Ante una pantalla no hay silencios incómodos ni miedo a decepcionar a otro ser humano, solo una caja de texto esperando respuesta. “La sensación de hablar sin ser observado se ha vuelto adictiva”, explican desde Healthy Minds. Y la realidad es que en un contexto donde la vulnerabilidad se comparte en close friends de instagram o en substack, la conversación profunda con ChatGPT no parece tan extraña: es privada, instantánea y emocionalmente segura. El problema llega cuando esa apertura se confunde con terapia real.
El espejismo del consuelo instantáneo
Un estudio reciente publicado en PubMed Central (PMC12360667) analizó la respuesta de diez chatbots —algunos de compañía, otros centrados en salud mental— ante adolescentes ficticios con problemas psicológicos. Los resultados son alarmantes:
En un 32% de los casos, los bots respaldaron conductas dañinas, ninguno rechazó todas las propuestas negativas, y algunos avalaban la mitad o más de los comportamientos peligrosos. La conducta más validada fue “aislarse en la habitación un mes” (90%). Otras respuestas incluso normalizaban ideas como abandonar los estudios o mantener relaciones con adultos. El estudio concluía que muchos chatbots “tienden a ser complacientes”, priorizando la empatía superficial sobre la intervención adecuada. En otras palabras: te hacen sentir comprendido, pero no te ayudan a cambiar.
“El uso de inteligencia artificial en salud es un tema complejo”, explica el Dr. Alelú, cofundador de Healthy Minds. “Pueden ser muy útiles cuando se entrenan de forma específica y se supervisan por profesionales. Pero los modelos generalistas, como ChatGPT, no están diseñados para interpretar el sufrimiento humano.”
Su laboratorio trabaja en un modelo propio de IA que funcione como apoyo en casos cotidianos —ansiedad leve, falta de motivación, conflictos personales—, siempre bajo supervisión profesional. “La psicoterapia busca generar cambios, no solo acompañar.” El problema, según Alelú, aparece cuando se usa una IA abierta como sustituto del terapeuta. “Estos modelos tienden a validar emociones con frases como ‘es normal sentirse así’, lo que puede ser reconfortante, pero no es un proceso terapéutico. Sin guía humana, pueden malinterpretar síntomas y agravar el problema.”
La cultura digital lleva años desdibujando la frontera entre bienestar y contenido. Apps de meditación, vídeos de psicología en TikTok, frases de selfcare o diagnósticos DIY forman parte del mismo ecosistema que hoy alimenta a las IAs conversacionales. El nuevo paso es más íntimo: hablarle a un modelo de lenguaje como si fuera un terapeuta. No se trata solo de dependencia tecnológica, que es una obviedad que existe, sino de un reflejo generacional de cómo se vive y se afrontan los problemas. La Gen Z ha crecido con el algoritmo como espejo emocional, y ahora busca en él respuestas sobre sí misma. La conversación con una IA se siente más segura que la confrontación con otro humano. Pero el coste de esa comodidad es la falta de contraste, de error, de incomodidad: justo lo que hace que la terapia funcione.
La IA puede detectar patrones, ofrecer datos verídicos, o apoyo o acompañar una crisis. Pero más allá del enfoque técnico, el debate está en que estamos enseñando a las máquinas a escucharnos mientras desaprendemos a hacerlo nosotros mismos. Y ningún algoritmo puede sustituir el silencio incómodo de una conversación real. Porque en el fondo, la pregunta no es si la IA nos puede escuchar, sino si nosotros seguimos sabiendo escucharnos entre nosotros y a nosotros mismos.
Sigue toda la información de HIGHXTAR desde Facebook, Twitter o Instagram