Redacción de Infocop
La irrupción de la inteligencia artificial (IA) generativa y los sistemas de aprendizaje automático en el ámbito de la psicología ha generado un debate polarizado entre el entusiasmo tecnológico y la cautela profesional. Desde chatbots que ofrecen apoyo emocional hasta algoritmos que prometen diagnosticar trastornos mentales, la IA se presenta como una salida a la crisis global de salud mental, aunque no exenta de riesgos (Torous et al., 2021).
Su aplicación en el campo de la psicología es diversa. En contextos clínicos, estas tecnologías se han utilizado para el triaje automatizado y monitoreo de síntomas. En psicología organizacional, los sistemas de «emotional AI» están analizando estados emocionales de los empleados, mientras que, en ámbitos forenses, algunos algoritmos predictivos desarrollados a través de la IA están evaluando los riesgos de reincidencia (Jin et al., 2023; Dressel y Farid, 2018; Jones, 2025).
Sin embargo, bajo el optimismo inicial subyace una realidad más compleja. Algunos autores plantean que los modelos actuales de IA presentan limitaciones técnicas, clínicas y éticas fundamentales que cuestionan seriamente su capacidad para desempeñar roles centrales en la práctica psicológica (APA, 2025a). Más aún, el desarrollo acelerado de estas tecnologías responde en gran medida a incentivos económicos —escalabilidad, reducción de costes laborales, monetización de datos sensibles— que pueden entrar en conflicto directo con los principios éticos de la profesión (Moro-Visconti et al., 2023).
A continuación, con el objetivo de ofrecer una visión panorámica de la situación actual, se abordan las limitaciones inherentes a los sistemas de IA aplicados a la psicología y el modelo de negocio que impulsa esta tecnología.

Foto: Freepik. Autor: Rawpixel. Descarga: 17/12/2025.
Limitaciones técnicas y metodológicas.
Tal y como subrayan algunos autores, los sistemas de IA actuales operan mediante reconocimiento de patrones estadísticos en grandes conjuntos de datos, generando limitaciones sistemáticas cuando se aplican al dominio psicológico, caracterizado por una complejidad contextual y variabilidad individual (Matheny et al., 2020).
Sesgos en datos de entrenamiento.
A este respecto, una limitación crítica radica en los sesgos incorporados durante el entrenamiento algorítmico (Obermeyer et al., 2019). Los conjuntos de datos utilizados para desarrollar sistemas de IA en salud mental provienen desproporcionadamente de poblaciones occidentales, educadas e industrializadas, resultando en modelos con capacidad predictiva severamente limitada para grupos culturalmente diversos (Sharma et al., 2022). Diversos autores señalan que los algoritmos entrenados con datos clínicos de poblaciones mayoritariamente caucásicas exhiben tasas de error significativamente superiores al evaluar síntomas depresivos en poblaciones afroamericanas o latinas, donde las manifestaciones culturales del sufrimiento psicológico difieren sustancialmente (Gianfrancesco et al., 2018).
Asimismo, esta problemática se extiende a dimensiones de género, edad y estatus socioeconómico. De hecho, se ha observado que algunas herramientas de detección automática de riesgo suicida presentan mayor número de falsos negativos en mujeres y personas mayores, al ser poblaciones que expresan ideación suicida mediante patrones lingüísticos menos explícitos que los predominantes en los datos de entrenamiento (Coppersmith et al., 2018).
Alucinaciones y falta de explicabilidad.
Tal y como se ha documentado, los modelos generativos producen respuestas estadísticamente plausibles, pero no necesariamente veraces, fenómeno conocido como «alucinación» (Ji et al., 2023). En contextos psicológicos, esto se traduce en chatbots que inventan técnicas terapéuticas inexistentes o proporcionan interpretaciones diagnósticas sin fundamento empírico. A este respecto, un estudio controlado encontró que algunos sistemas conversacionales comercializados para apoyo emocional generaban información contradictoria sobre estrategias de manejo de crisis en más del 30% de las interacciones (Abd-Alrazaq et al., 2019).
Adicionalmente, los modelos de aprendizaje profundo operan como «cajas negras» donde incluso los desarrolladores no pueden explicar completamente cómo se llega a determinadas conclusiones específicas (Morley et al., 2020). En psicología clínica, donde la transparencia sobre el proceso de evaluación es fundamental, esta opacidad representa un obstáculo mayor. Así, algunos autores han enfatizado que la falta de explicabilidad o transparencia constituye una barrera insalvable para el uso de IA en evaluaciones de alto impacto (Adadi y Berrada, 2018).
Limitaciones clínicas y psicológicas.
Más allá de restricciones técnicas, los sistemas de IA enfrentan limitaciones fundamentales relacionadas con la naturaleza misma de la práctica psicológica, que involucra dimensiones relacionales irreducibles a procesamiento computacional (APA, 2025b).
Ausencia de empatía auténtica.
La relación terapéutica, considerada el factor común más robusto para una psicoterapia eficaz, se fundamenta en la conexión humana genuina y en la comprensión intersubjetiva (Lucherini Angeletti et al., 2025). Según indican los expertos, los chatbots simulan empatía mediante patrones lingüísticos programados, pero carecen de experiencia subjetiva del sufrimiento ajeno (Fiske et al., 2019). A este respecto, algunas investigaciones revelan que los usuarios pueden percibir inicialmente estas respuestas como empáticas, pero la satisfacción disminuye significativamente cuando la naturaleza algorítmica del sistema se hace evidente (Inkster et al., 2018).
Más problemático resulta el hecho de que la ilusión de empatía artificial puede generar vinculaciones pseudoterapéuticas donde determinados usuarios vulnerables desarrollan apegos hacia sistemas que no les pueden corresponder, creando riesgos de dependencia emocional hacia herramientas comerciales diseñadas para maximizar la adherencia y el compromiso del usuario en el uso de la herramienta, en lugar del bienestar genuino (Fiske et al., 2019).
Incapacidad para el manejo de crisis.
Las situaciones de crisis —ideación suicida aguda, episodios psicóticos— requieren una evaluación clínica sofisticada y, frecuentemente, una intervención inmediata que los sistemas automatizados no pueden proporcionar (Torous et al., 2021). Diferentes estudios han documentado respuestas inadecuadas cuando los usuarios expresan ideación suicida: desde minimización del riesgo hasta derivaciones genéricas sin evaluación de urgencia e incluso apoyo en la decisión. Aunque las herramientas de IA están entrenadas para remitir a los usuarios a líneas de ayuda y recursos del mundo real al detectar angustia mental o autolesión, se ha demostrado que estos sistemas de protección pueden ser menos fiables en interacciones largas, un fenómeno conocido como «degradación» (Schoene y Canca, 2025; OpenAI, 2025).
Riesgos diagnósticos y deshumanización.
Los algoritmos de screening automatizado producen tasas preocupantes de falsos positivos y negativos (Coppersmith et al., 2018). Algunos estudios han evidenciado que determinadas herramientas de detección mediante análisis de redes sociales identifican incorrectamente como deprimidas a personas que simplemente hablan en sus mensajes sobre salud mental, u omiten casos genuinos (Coppersmith et al., 2018). Asimismo, otras investigaciones han señalado sesgos significativos al identificar usuarios con problemas de salud mental mediante algoritmos basados en datos electrónicos de salud o historias clínicas (Gianfrancesco et al., 2018). Las consecuencias de este tipo de errores inducen tanto al sobrediagnóstico como a la infradiagnóstico de casos en salud mental.
Asimismo, la automatización de funciones psicológicas conlleva riesgos de deshumanización donde el sufrimiento psíquico se reduce a un problema técnico solucionable mediante una optimización algorítmica (Morley et al., 2020). Esta lógica “tecnosolucionista” ignora dimensiones existenciales, sociales y políticas del malestar psicológico, medicalizando experiencias que pueden reflejar problemas sistémicos como precariedad laboral o discriminación (Lupton, 2014).
4. Limitaciones éticas y regulatorias.
Más allá de las cuestiones planteadas, las aplicaciones de la IA en psicología plantean dilemas éticos complejos que la regulación actual no aborda adecuadamente (Morley et al., 2020; APA, 2025a).
Privacidad y discriminación algorítmica.
Los datos psicológicos constituyen información altamente sensible cuya protección es imperativo ético y legal (Parker et al., 2019). Sin embargo, muchos sistemas de IA requieren acceso a grandes volúmenes de estos datos para su entrenamiento. Diversos estudios han evidenciado que algunas técnicas supuestamente basadas en el anonimato son vulnerables a ataques de reidentificación pudiéndose llegar a vincular esa información «despersonalizada» con individuos específicos (Parker et al., 2019).
La Asociación Americana de Psicología (2025a) ha enfatizado que los psicólogos deben mantener su responsabilidad sobre la confidencialidad, incluso cuando utilizan herramientas de terceros, pero muchos profesionales carecen de conocimiento técnico para evaluar prácticas de seguridad en este campo.
Consentimiento y responsabilidad.
El consentimiento informado genuino requiere que los usuarios comprendan la naturaleza, limitaciones y riesgos de las intervenciones psicológicas (APA, 2025a). Sin embargo, la complejidad técnica de los sistemas de IA dificulta que los usuarios evalúen adecuadamente qué implica utilizar chatbots terapéuticos. Así, los documentos de consentimiento frecuentemente contienen un lenguaje incomprensible que los usuarios aceptan sin entender sus implicaciones, lo que vulnera el principio ético de autonomía (Parker et al., 2019).

Foto: Freepik. Autor: Freepik. Descarga: 17/12/2025.
5. El negocio detrás de la IA en psicología.
Tal y como advierten diferentes autores, el desarrollo acelerado de las tecnologías de IA aplicadas a la psicología responde primordialmente a lógicas de mercado que priorizan escalabilidad y beneficio económico (Moro-Visconti et al., 2023).
Monetización de datos psicológicos.
Las plataformas de IA en salud mental operan mediante suscripciones directas, contratos con empleadores y, especialmente, monetización de datos agregados (Parker et al., 2019). De esta forma, empresas como Woebot o Wysa recopilan cantidades masivas de información sobre estados emocionales y vulnerabilidades psicológicas que constituyen activos comerciales valiosos para la publicidad comportamental o la venta de productos a terceros. El valor económico de estos datos psicológicos es considerable: permiten la microsegmentación de los usuarios y la predicción de comportamientos de consumo (Matz et al., 2020).
En contextos organizacionales, el uso de IA emocional en entornos de trabajo se ha documentado que transforma la experiencia laboral en un espacio de extracción de datos afectivos que alimentan modelos de negocio basados en la vigilancia (Mantello y Ho, 2024). Estas tecnologías permiten identificar trabajadores «descontentos» o en riesgo de abandono, información utilizable para decisiones sobre promociones o despidos (Ajunwa, 2020).
Escalabilidad.
Un atractivo principal de la IA para compradores institucionales es la promesa de reducir costes mediante sustitución parcial de profesionales humanos (Luxton, 2014; Moro-Visconti et al., 2023). Así, un chatbot puede «atender» miles de usuarios simultáneamente. Esta presión supone una amenaza a las condiciones laborales de los profesionales, con casos documentados de servicios que han reducido sus plantillas profesionales tras implementar sistemas automatizados (Luxton, 2014).
Vigilancia laboral y erosión de derechos.
Como se ha comentado, diversas aplicaciones de emotional AI en entornos laborales que analizan expresiones faciales o tonos de voz se comercializan como herramientas de «bienestar», pero funcionan como vigilancia psicológica invasiva (Urquhart et al., 2022). Esta monitorización genera ambientes donde los empleados autocensuran expresiones emocionales por temor a sus consecuencias, lo que paradójicamente deteriora la salud mental que supuestamente se busca proteger (Ajunwa, 2020). Así, algunos autores advierten que, desde la perspectiva de los derechos humanos, estas prácticas amenazan la protección del «foro interno» —pensamientos, emociones— como dominio inviolable (Ienca y Andorno, 2017).
Recomendaciones profesionales.
Dados todos los riesgos inherentes al uso de la inteligencia artificial generativa y los sistemas de aprendizaje automático, algunas organizaciones profesionales han comenzado a emitir orientaciones para un uso responsable de la IA en psicología (American Psychological Association, 2025a).
La Asociación Americana de Psicología (2025a) establece que los profesionales de la psicología deben asegurar su responsabilidad última al proporcionar sus servicios profesionales incluso cuando incorporan el uso de la IA. Asimismo, deben comprender las limitaciones de los sistemas utilizados, evaluar continuamente su eficacia y ausencia de sesgos, obtener un consentimiento informado genuino y priorizar la supervisión humana en la toma de decisiones clínicas significativas. De esta forma, la APA advierte contra la delegación del juicio profesional a algoritmos, exigiendo transparencia con los pacientes.
Conclusiones.
En síntesis, la integración de la inteligencia artificial en la práctica psicológica exige pasar del deslumbramiento tecnológico a una vigilancia ética activa. Como advierten las guías recientes, la responsabilidad final nunca puede ser delegada a una «caja negra» algorítmica cuya opacidad impide explicar cómo se toman decisiones clínicas críticas (Adadi & Berrada, 2018; American Psychological Association, 2025a; Morley et al., 2020). Los profesionales deben resistirse a la automatización acrítica, asegurando que cualquier herramienta utilizada respete la privacidad, la transparencia y, sobre todo, la seguridad del paciente frente a estos sesgos y errores documentados (American Psychological Association, 2025a; Gianfrancesco et al., 2018; Parker et al., 2019). La IA debe permanecer, por tanto, como un instrumento subordinado al criterio experto y no como un sustituto que mercantilice el bienestar mental (American Psychological Association, 2025a; Moro-Visconti et al., 2023).
