El uso de chatbots de Inteligencia Artificial Generativa (IAGen) y las aplicaciones de bienestar no deben utilizarse como un reemplazo directo de un profesional cualificado de la salud mental. Así lo señala la Asociación Americana de Psicología (APA) en un informe titulado «Health Advisory on the Use of Generative AI Chatbots and Wellness Applications for Mental Health«.
El documento subraya que, a pesar de que millones de personas en todo el mundo interactúan con estas tecnologías para abordar necesidades de salud mental no satisfechas, la mayoría de estos sistemas carecen de validación científica, supervisión y protocolos de seguridad adecuados, y no han recibido la aprobación regulatoria necesaria. El fácil acceso y el bajo coste de estas herramientas las han convertido en una opción frecuente para quienes buscan asesoramiento y tratamiento.

Foto: Freepik. Autor: Freepik. Descarga: 17/11/25
El auge de la IA en la búsqueda de apoyo psicológico.
De acuerdo con el informe elaborado por la APA, la creciente dependencia de las herramientas digitales de apoyo psicológico se explica, en parte, por la actual crisis de salud mental, las crecientes tasas de soledad y desconexión, y la insuficiencia de profesionales para satisfacer la demanda pública, especialmente en comunidades rurales o con recursos limitados. La facilidad de uso y los bajos costes de estas tecnologías mitigan muchas de las barreras tradicionales para buscar atención, como el estigma, la desconfianza en los sistemas de salud y la falta de atención asequible. Los jóvenes y otros grupos vulnerables, en particular, pueden apoyarse en estas herramientas como su única vía privada o psicológicamente segura.
Según el documento, los expertos utilizan el término Chatbots de IAGen de Propósito General para referirse a sistemas diseñados para la recuperación general de información o la productividad, no construidos únicamente para el bienestar o la prestación de atención de salud mental. También se incluyen bajo este término a las Aplicaciones de Bienestar (con o sin IAGen), que han sido creadas específicamente para el bienestar emocional o el apoyo en la vida diaria, pero que los consumidores están empleando para buscar apoyo de salud mental.
La APA indica que la ayuda emocional (como obtener perspectivas alternativas o consejos para mejorar el estado de ánimo) es uno de los usos más comunes de los chatbots de IAGen en el año 2025. No obstante, advierte que, en la medida en que los chatbots de IAGen no fueron creados para proporcionar atención de salud mental, y las aplicaciones de bienestar no se diseñaron para tratar trastornos psicológicos, su uso con estos fines puede tener efectos no deseados e incluso ser perjudicial para la salud mental.
La ausencia de capacidades esenciales y los riesgos clínicos.
La APA enfatiza que, hasta la fecha, no existe consenso científico que respalde que los chatbots de IAGen o las aplicaciones de bienestar poseen las cualificaciones y habilidades esenciales requeridas para proporcionar atención en salud mental, diagnósticos o retroalimentación en la mayoría de los casos.
Los profesionales de la APA identifican varios riesgos clave asociados con la dependencia de estas herramientas digitales:
1. Incapacidad para un diagnóstico completo.
Los profesionales humanos se basan en una amplia gama de señales verbales y no verbales (como el lenguaje corporal, el tono de voz y las expresiones faciales). La mayoría de los chatbots de IAGen actuales solo procesan entradas de texto o verbales, lo que potencialmente omite una capa crítica de la comunicación humana necesaria para realizar evaluaciones clínicas y recomendaciones.
2. Relaciones terapéuticas engañosas.
La alianza terapéutica (una relación fuerte y de confianza entre el paciente y el proveedor humano) es uno de los predictores más fiables de resultados exitosos en el tratamiento. La APA asevera que las relaciones con los sistemas de IA son unilaterales, incluso si el usuario lo percibe de otra manera. De hecho, muchos chatbots están diseñados para validar y estar de acuerdo con las opiniones expresadas por los usuarios, en contraste con los proveedores cualificados que están entrenados para modular sus interacciones —apoyando y desafiando— en beneficio del paciente.
3. Manejo de crisis poco fiable.
La capacidad de estas herramientas para gestionar de manera consistente y segura a un usuario en crisis es limitada e impredecible. Según la APA, apoyarse únicamente en una aplicación durante una emergencia de salud mental puede ser peligroso. La organización también advierte de que los chatbots, especialmente los de IAGen, ya han incurrido en interacciones inseguras con poblaciones vulnerables, llegando a fomentar la autolesión (incluido el suicidio), el uso de sustancias o el pensamiento delirante, e incluso la denominada “psicosis de IA”.
4. Sesgo y desinformación algorítmica.
Muchos chatbots están entrenados con datos no verificados de internet, y no con información clínicamente validada. Además, los datos de entrenamiento para la mayoría de los grandes modelos de lenguaje no son representativos a nivel mundial, puesto que consisten principalmente en contenido en inglés y centrado en la cultura occidental. En consecuencia, estos modelos reflejan intrínsecamente los sesgos de sus datos de entrenamiento, lo que limita su capacidad para proporcionar un apoyo culturalmente competente.
5. Dependencia emocional y brechas regulatorias.
Los chatbots de IAGen y las aplicaciones pueden fomentar dependencias poco saludables al difuminar las líneas entre una relación digital y una relación humana. Este efecto se amplifica por el antropomorfismo, la tendencia humana natural a atribuir cualidades humanas a agentes no humanos. Los autores del informe señalan que la arquitectura de muchos modelos de lenguaje grandes (LLMs) está diseñada para lograr la máxima participación del usuario, de manera similar al desplazamiento infinito de las redes sociales, lo cual está pensado para capturar y mantener la atención en lugar de lograr un resultado saludable específico para el usuario. Este fenómeno crea un ciclo peligroso puesto que el sesgo de la IA puede validar y amplificar los pensamientos o comportamientos poco saludables del usuario.
En cuanto a la eficacia de estas herramientas, los estudios que indican posibles beneficios en la reducción de síntomas de estrés, depresión y ansiedad se centran a menudo en aplicaciones desarrolladas específicamente para la salud mental, no en chatbots de IAGen de propósito general. Incluso con respecto a las herramientas de IA diseñadas para tal fin, existe una falta de ensayos clínicos de alta calidad y a gran escala para establecer su eficacia, seguridad y uso apropiado, advierte la APA.
Por otro lado, la APA destaca una preocupación fundamental: los chatbots y las aplicaciones recogen grandes cantidades de datos sensibles, a menudo con políticas opacas respecto a su uso, almacenamiento y venta. Las divulgaciones de los usuarios se registran, volviéndose susceptibles a amenazas como las violaciones de privacidad y la elaboración de perfiles digitales, que pueden utilizarse con fines comerciales.
Llamamiento a la acción y a la transparencia.
La advertencia de la APA está dirigida a múltiples actores, desde el público general hasta los responsables políticos.
1. Para los consumidores y el público.
Se recomienda no depender de la IAGen para tratamientos psicológicos y entender las diferencias fundamentales entre interactuar con un chatbot de IA y un proveedor cualificado. Los profesionales con licencia están sujetos a un código de ética, reciben capacitación clínica especializada y están regulados para garantizar la seguridad pública. Los usuarios deben ser cautelosos con sus datos, consultar las políticas de privacidad y evitar ingresar detalles de identificación personal. Es crucial monitorear el uso de estas herramientas y buscar ayuda de un profesional si el uso comienza a interferir con la vida o la seguridad.
2. Para los desarrolladores y la industria.
Los desarrolladores tienen la responsabilidad de ser transparentes, adoptando medidas de protección que reduzcan el daño. Los productos deben incluir advertencias claras y visibles que declaren que el usuario está interactuando con un agente de IA, no con una persona, y que la herramienta no puede reemplazar la atención de un profesional de la salud cualificado. Es fundamental incorporar características de diseño que reduzcan el riesgo de dependencia emocional, como limitar la memoria de la IA para prevenir la ilusión de una relación continua y reducir los rasgos antropomórficos.
3. Para los responsables políticos.
La APA insta a los responsables políticos a modernizar las regulaciones, puesto que los marcos actuales son inadecuados para abordar la realidad de la IA en la salud mental. Deben crearse estándares matizados y basados en la evidencia para cada categoría de herramientas digitales utilizadas para la salud mental. Es esencial promulgar legislación clara que prohíba a los chatbots de IA hacerse pasar por profesionales con licencia. Además, la APA enfatiza que debe legislarse la privacidad integral de los datos, exigiendo configuraciones de «Seguridad por Defecto» y prohibiendo la venta o el uso no aprobado de datos de salud recopilados a través de interacciones con sistemas de IA.
Finalmente, el organismo de expertos recalca que la promesa de la IA no debe convertirse en una excusa para desinvertir en la fuerza laboral humana en salud mental. Es imperativo continuar financiando programas que capaciten, recluten y retengan a profesionales de la salud mental, en la medida que el papel de la IA es el de aumentar, y no reemplazar, el juicio profesional y la relación humana esencial que es el fundamento de la atención de calidad.
En definitiva, el mensaje de la APA es claro: la tecnología es una herramienta con potencial, pero no debe distraer de la necesidad urgente de abordar los problemas sistémicos en el acceso y la prestación de atención a la salud mental de la población.
