El auge de las aplicaciones de salud mental y de los sistemas de apoyo emocional basados en inteligencia artificial (IA) está modificando la forma en que muchas personas se relacionan con su bienestar psicológico entre sesiones clínicas e, incluso, antes de iniciar un tratamiento. Sin embargo, de acuerdo con un artículo reciente publicado por la Asociación Americana de Psicología (American Psychological Association, APA), en su revista Monitor on Psychology, no todas estas herramientas ofrecen garantías suficientes, y algunas pueden resultar problemáticas cuando carecen de evidencia, no protegen adecuadamente los datos personales o favorecen un uso digital que, lejos de ayudar, puede intensificar el aislamiento o reforzar conductas desadaptativas.
Según la Asociación Americana, el uso de estas aplicaciones ya forma parte de la vida cotidiana de un número importante de personas. En concreto, una encuesta de 2024 publicada en BMC Public Health, halló que el 41% de la población general había utilizado en los 12 meses previos alguna app de salud mental, como aplicaciones de meditación o de seguimiento del estado de ánimo. El texto subraya, además, que el mercado sigue creciendo y que estas herramientas llegan cada vez con más frecuencia tanto a la práctica clínica como al uso autónomo por parte de la ciudadanía.

No obstante, la APA no presenta una visión unívocamente negativa. Al contrario, reconoce que determinadas aplicaciones pueden desempeñar una función útil, por ejemplo, ayudando a incorporar principios terapéuticos a la vida diaria, facilitando tareas entre sesiones o sirviendo de apoyo temporal mientras la persona espera atención psicológica. En esa línea, menciona un ensayo clínico aleatorizado publicado en 2024 en JAMA Network Open, según el cual las aplicaciones basadas en terapia cognitivo-conductual pueden mejorar síntomas de ansiedad y depresión antes del inicio formal de la terapia, actuando como un puente mientras llega la atención asistencial.
El núcleo del reportaje pone el foco en los riesgos. Según los expertos, muchas —y posiblemente la mayoría— de estas aplicaciones plantean dudas relevantes en materia de privacidad, no han sido sometidas a pruebas rigurosas y no están expuestas a una evaluación ni a una regulación homogéneas. La Asociación Americana insiste en que una herramienta potencialmente útil para una persona puede situarse muy cerca del perjuicio en otra, dependiendo tanto del diseño de la aplicación como de la forma concreta en que se utilice.
La vida digital del paciente, un elemento clave a integrar en la evaluación clínica.
Uno de los principales mensajes es que los y las profesionales de la Psicología necesitan incorporar la vida digital de sus pacientes a la evaluación clínica. De acuerdo con los expertos, antes incluso de valorar una app concreta, conviene explorar qué papel juegan en la vida de la persona la inteligencia artificial, los chatbots o las aplicaciones de salud mental. Esta cuestión debería abordarse de forma no enjuiciadora, del mismo modo que en una entrevista clínica se pregunta por otras fuentes de apoyo, intereses, vínculos familiares o participación comunitaria.
En este sentido, la APA recoge la recomendación de examinar el equilibrio entre la vida «online» y la vida «offline». Según los expertos, revisar junto a la persona usuaria datos como el tiempo total de pantalla, las aplicaciones más utilizadas o la frecuencia con que consulta el teléfono puede ayudar a dibujar un «paisaje digital completo». Esa información, combinada con la relativa a la vida social presencial, los hobbies y otros apoyos fuera del entorno digital, permite valorar mejor si una intervención basada en apps puede contribuir a los objetivos terapéuticos o, por el contrario, socavarlos.
Riesgos de uso inadecuado y dificultad para orientarse en un mercado saturado de apps de salud mental.
El reportaje también advierte de que la mera existencia de una app bien diseñada o respaldada por investigación no elimina por sí sola el riesgo de un uso inadecuado. Según los expertos, algunas personas pueden recurrir a herramientas digitales para evitar confrontaciones o vínculos reales, para buscar respuestas emocionales fuera de la relación terapéutica o para alimentar patrones problemáticos ya presentes. A modo de ejemplo, una aplicación de bienestar puede terminar reforzando conductas desordenadas o una preocupación excesiva por la actividad física o el sueño, cuando el problema de fondo está en otro plano psicológico. Por ello, el modo de uso es tan relevante como las características técnicas del producto.
Otro aspecto central destacado, es la enorme dificultad para orientarse en un mercado saturado. Según un estudio publicado en Springer Nature, se estiman en más de 10.000 las apps de salud mental disponibles a comienzos de 2023 (King et al., 2023), mientras que otro, publicado por la Agencia estadounidense para la Investigación y la Calidad de la Atención Médica (AHRQ) eleva la cifra a 20.000. Esa proliferación hace prácticamente imposible mantener una evaluación individual actualizada de todas las herramientas disponibles.
Regulación desigual y desarrollo de marcos para evaluar la fiabilidad de las aplicaciones de salud mental.
A ello se suma la heterogeneidad regulatoria. Tal y como explica la APA, muchas aplicaciones entran en la categoría de «bienestar general», como las que ofrecen meditaciones guiadas o seguimiento de hábitos, y no están reguladas por la Food and Drug Administration (FDA) de Estados Unidos. Otras, en cambio, se consideran terapias digitales y sí están sujetas a control regulatorio porque proporcionan tratamiento para una condición médica. En esos casos, los desarrolladores deben aportar datos procedentes de ensayos controlados aleatorizados para respaldar la seguridad y la eficacia de la herramienta. Con todo, la Asociación Americana aclara que el hecho de que una app no tenga autorización de la FDA no implica automáticamente que carezca de valor, ya que muchas simplemente no alcanzan el umbral de riesgo que exigiría esa revisión.
Para ayudar a discriminar entre herramientas más y menos fiables, en los últimos años han surgido distintos marcos de evaluación. Entre ellos, se menciona una guía paso a paso elaborada por la APA para ayudar a decidir qué herramientas de inteligencia artificial pueden ser adecuadas para la práctica profesional, el modelo de evaluación de la American Psychiatric Association y, más recientemente, el programa de distintivos digitales de APA Labs, destinado a identificar herramientas digitales de salud mental y del comportamiento que cumplan determinados criterios de valor clínico, cumplimiento regulatorio, seguridad de la persona usuaria y privacidad de datos. Estas iniciativas se presentan como intentos de ofrecer reglas prácticas que permitan recomendar aplicaciones útiles y no dañinas.
Privacidad, evidencia científica y diseño ético: tres señales de alerta clave en las apps de salud mental.
Entre las señales de alerta concretas, la primera que subraya la APA es la falta de protección de la privacidad. En este sentido, cita un estudio de 2019 publicado en Internet Interventions en el que se evaluaron 116 aplicaciones móviles para el abordaje de la depresión. Al analizar sus políticas de seguridad y privacidad, solo cinco obtuvieron una puntuación de transparencia «aceptable», mientras que la mayoría, el 68% —79 aplicaciones—, recibió una calificación de «inaceptable». Además, algo más de la mitad no tenía política de privacidad alguna. Para los expertos, este dato resulta especialmente preocupante porque significa que muchas aplicaciones no explican con claridad qué hacen con la información de quienes las utilizan.
La APA recoge otras dos grandes «banderas rojas»: que la herramienta no esté basada en evidencia y que trate de atraer a la persona hacia más tiempo de permanencia online. El texto plantea así una advertencia clara: una aplicación de salud mental no debería valorarse solo por su apariencia, popularidad o facilidad de uso, sino también por el respaldo empírico que tenga y por el tipo de relación que fomente con la tecnología. Cuando una herramienta empuja a prolongar la conexión, puede entrar en contradicción con objetivos clínicos ligados al autocuidado, la regulación emocional, la exposición a la vida cotidiana o la reconstrucción de vínculos presenciales.
Acceso a ayuda en crisis y control de los propios datos: requisitos básicos de seguridad y utilidad clínica.
Otra señal de alerta relevante es que la aplicación no ofrezca un acceso claro a ayuda humana en situaciones de crisis. De acuerdo con los expertos, cualquier herramienta utilizada para apoyo en salud mental debería proporcionar una vía directa para contactar con servicios de ayuda en el mundo real, como líneas telefónicas de asistencia o servicios de emergencia. Esto resulta especialmente importante en situaciones de crisis, en las que la persona usuaria necesita poder salir rápidamente de la aplicación y hablar con un profesional o con personal especializado que pueda ofrecer apoyo inmediato.
Asimismo, las aplicaciones deberían permitir a las personas usuarias acceder a sus propios datos y descargarlos si lo desean. Muchas de estas herramientas recopilan información relacionada con variables como el sueño, la actividad física o el estado de ánimo, y la posibilidad de disponer de esos datos puede resultar útil para analizarlos junto con otros aspectos de la vida cotidiana o integrarlos en el proceso terapéutico. Cuando la información queda completamente cerrada dentro de la aplicación y no puede compartirse ni revisarse fuera de ella, su utilidad clínica puede verse limitada, especialmente si la herramienta forma parte del plan de atención psicológica.
Promesas exageradas y escasa evidencia científica detrás de muchas aplicaciones.
Otro elemento que debería suscitar cautela es la presencia de afirmaciones exageradas o poco precisas sobre lo que la aplicación puede ofrecer. Las herramientas digitales fiables deberían ser transparentes respecto a sus capacidades y limitaciones. En particular, cuando una aplicación afirma basarse en determinados enfoques psicológicos o técnicas terapéuticas —como la terapia cognitivo-conductual—, estas deberían estar claramente identificadas y aplicarse de forma rigurosa. En caso contrario, el hecho de invocar principios terapéuticos reconocidos no garantiza que la herramienta proporcione realmente ese tipo de intervención.
Con relación a ello, el artículo advierte de que, aunque muchas aplicaciones afirman estar respaldadas por la ciencia, en realidad son pocas las que han sido evaluadas directamente mediante estudios rigurosos. De hecho, un estudio publicado en la revista Cognitive and Behavioral Practice (2018) encontró que menos del 4% de las aplicaciones dirigidas al abordaje de la ansiedad habían sido sometidas a ensayos clínicos aleatorizados que evaluaran su viabilidad y eficacia.
Diferenciar entre herramientas basadas en evidencia y aplicaciones diseñadas principalmente para retener a los usuarios.
Según los expertos, existe una base científica amplia que muestra que las intervenciones digitales en salud mental pueden ser eficaces, pero eso no significa que todas las aplicaciones disponibles en el mercado hayan demostrado realmente producir los resultados que prometen. Por este motivo, se advierte también de la diferencia entre herramientas verdaderamente basadas en la evidencia y aquellas que simplemente se describen como «informadas por evidencia», es decir, que se inspiran en investigaciones previas sin que el propio producto haya sido evaluado científicamente.
La participación de profesionales de la salud mental o de instituciones académicas o sanitarias en el desarrollo de una aplicación constituye también un indicador importante de fiabilidad. Mientras que el objetivo principal de los y las profesionales clínicos/as suele ser mejorar los resultados en salud mental y bienestar, los desarrolladores de productos tecnológicos pueden centrarse en mantener a las personas usuarias activas dentro de la plataforma el mayor tiempo posible. Por ello, recomiendan examinar si la aplicación ha sido desarrollada o validada en colaboración con universidades, hospitales u organizaciones sanitarias reconocidas.
Uso, mantenimiento y límites éticos en el uso de chatbots y sistemas de inteligencia artificial.
El funcionamiento práctico de la herramienta es otro aspecto que merece atención. Los expertos aconsejan valorar cuestiones como la compatibilidad con diferentes sistemas operativos, la posibilidad de utilizar la aplicación sin conexión a Internet o la frecuencia con la que se actualiza. Una aplicación que no ha recibido actualizaciones durante largos periodos podría haber sido abandonada por sus desarrolladores, lo que incrementa el riesgo de fallos de seguridad. Asimismo, la facilidad de uso, la accesibilidad para personas con discapacidad, el nivel de lectura requerido o la complejidad tecnológica necesaria para utilizarla son factores que pueden influir en su utilidad real.
La APA advierte igualmente sobre las aplicaciones —especialmente aquellas que incorporan chatbots o sistemas de inteligencia artificial— que adoptan un papel similar al de un «compañero» emocional. Estas herramientas deberían limitarse a su función terapéutica concreta, como guiar ejercicios, promover la reflexión personal o apoyar determinadas habilidades psicológicas, evitando simular relaciones personales. Los sistemas que oscilan entre los roles de amigo, familiar o incluso pareja pueden resultar confusos o desorientadores para personas que buscan apoyo en salud mental.
En cambio, los modelos más adecuados son aquellos que recuerdan de forma explícita a las personas usuarias que están interactuando con una herramienta tecnológica, y no con un ser humano. De acuerdo con los expertos, las aplicaciones deberían dejar claro que se trata de un sistema automatizado diseñado para facilitar determinadas estrategias o ejercicios, no para sustituir relaciones personales ni vínculos terapéuticos.
Estrategias manipulativas para retener al usuario y la necesidad de un uso prudente y crítico de estas herramientas.
Finalmente, el artículo señala que una aplicación de calidad no debería utilizar estrategias manipulativas para prolongar el tiempo de uso. Algunas investigaciones han observado que determinadas aplicaciones emplean mensajes diseñados para persuadir a los usuarios de seguir interactuando incluso cuando han indicado su intención de cerrar la aplicación. Un estudio de 2025 encontró que el 37% de los mensajes de despedida analizados en aplicaciones relacionales utilizaban este tipo de tácticas persuasivas (De Freitas et al., 2025). Según los expertos, este tipo de prácticas constituye otra señal de alerta, ya que una herramienta ética debería respetar la decisión de la persona usuaria de finalizar la interacción sin intentar retenerla de forma artificial.
En conjunto, el artículo de la APA transmite una idea de prudencia informada. Los expertos no proponen ignorar ni demonizar estas herramientas, pero sí conocerlas, preguntar por ellas e integrarlas críticamente en la conversación clínica. Dado que millones de personas ya las utilizan, la cuestión no sería tanto si van a formar parte del ecosistema del cuidado psicológico, sino en qué condiciones pueden hacerlo sin comprometer la seguridad, la privacidad ni la calidad de la atención. Desde esta perspectiva, el mensaje principal es que la innovación digital en salud mental solo puede considerarse realmente útil cuando se acompaña de transparencia, evaluación rigurosa y una atención constante a la manera en que esas tecnologías afectan a la vida real de quienes las usan.
Fuente.
Medaris, A. (2026, 1 March). How psychologists can spot red flags in mental health apps. Monitor on Psychology, 57 (2), pp.73. American Psychological Association.
