La rápida expansión de las aplicaciones de inteligencia artificial (IA) en ámbitos clínicos, administrativos y de evaluación supone oportunidades innovadoras para los psicólogos y psicólogas y, paralelamente, genera dilemas éticos que requieren de pautas claras. En junio de 2025, la American Psychological Association (APA) publicó un documento titulado Ethical Guidance for AI in the Professional Practice of Health Service Psychology (Guía ética para el uso de la AI en el ejercicio profesional de los servicios de Psicología de la Salud), con el objetivo de ofrecer orientaciones a los profesionales de la salud mental que integran herramientas basadas en IA en su ejercicio profesional.
Principales directrices del documento.
El documento de la APA no pretende cubrir absolutamente todos los escenarios posibles, sino trazar principios, recomendaciones y advertencias para guiar a los y las profesionales que ya están utilizando (o piensan utilizar) la IA en su práctica.

La guía está estructurada en torno a varios ejes éticos fundamentales, que incluyen: transparencia y consentimiento informado, control de sesgos, privacidad y seguridad de datos, precisión y responsabilidad, supervisión humana y responsabilidad profesional. En cada dimensión o eje, la APA subraya que la IA debe apoyar al profesional, y no reemplazar su juicio clínico.
A continuación, se recogen los puntos más destacados y las implicaciones prácticas para la psicología.
Puntos clave y aspectos más relevantes.
1. Transparencia y consentimiento informado
La APA insiste en que, en el caso de que se utilicen herramientas de IA en alguna parte de la evaluación, tratamiento o documentación, los y las pacientes deben ser plenamente informados/as. Esto significa que el psicólogo debe explicar con claridad:
- Qué tipo de IA se va a usar (por ejemplo, para sugerir intervenciones, analizar datos, generar de textos…).
- Cuáles son las capacidades, limitaciones o potenciales riesgos de esa herramienta.
- Cómo se recogerán, almacenarán, usarán y compartirán los datos.
- Que el cliente tiene derecho a optar por no usar la IA o revocar su consentimiento en cualquier momento.
La transparencia es clave para respetar la autonomía del o de la paciente.
2. Control de sesgos y promoción de la equidad.
Uno de los peligros más señalados es que los sistemas de IA pueden replicar o acentuar posibles sesgos (de género, raza, cultura, clase social, idioma, etc.), especialmente si los datos que se hayan usado para el entrenamiento no han sido inclusivos.
La APA recomienda que los y las profesionales:
- Evalúen si el sistema ha sido validado en poblaciones diversas.
- Supervisen constantemente la salida de la IA para detectar resultados discriminatorios o inadecuados.
- Seleccionen herramientas de IA que empleen estrategias explicitas de disminución de sesgos.
- Actúen con conciencia crítica, siendo ellos o ellas quienes revisen y corrijan cualquier sesgo que detecten.
3. Privacidad, seguridad de datos y confidencialidad.
El manejo de datos sensibles (historial clínico, puntuaciones psico-diagnósticas, registros de sesión) exige estándares altos de seguridad. La APA advierte sobre los riesgos de posibles filtraciones, uso indebido de datos o re-identificación de los mismos.
Recomendaciones clave:
- Emplear sistemas encriptados, con control de acceso y auditorías de seguridad.
- Verificar las políticas del proveedor de IA (qué hacen con los datos, si los usan para entrenar modelos, etc.).
- Asegurar que cualquier procesamiento de datos se realice de forma compatible con regulaciones legales aplicables (por ejemplo, en España, la Ley orgánica 3/2018 de protección de datos personales y garantía de derechos digitales).
- Permitir al cliente controlar qué datos compartir y con quién (y revocar la autorización).
4. Exactitud, fiabilidad y riesgo de errores (“alucinaciones”).
La IA puede producir salidas incorrectas, imprecisas o incluso inventar contenido (fenómeno conocido como hallucination). La APA insta a los psicólogos y psicólogas a no asumir automáticamente que los resultados de la IA son válidos y anima a:
- Evaluar críticamente los resultados generados por la IA al inicio del uso y en uso continuado.
- No delegar en la IA decisiones clínicas o diagnósticas sin revisión humana.
- Documentar claramente cuándo se utiliza la IA (y qué parte del resultado es aportada por ella) en los registros profesionales.
- Ser transparentes sobre las incertidumbres inherentes a cualquier herramienta algorítmica.

5. Supervisión humana, juicio profesional y responsabilidad.
La APA establece claramente que la decisión final y la responsabilidad siempre deben recaer sobre el o la profesional:
- La IA puede “apoyar” o “sugerir”, no debe dictar las intervenciones ni las decisiones por sí sola.
- El psicólogo/a debe revisar, ajustar o rechazar las recomendaciones generadas por la IA si no coinciden con su juicio.
- En contextos de supervisión o formación, los y las supervisoras deben capacitar en el uso ético y crítico de IA.
- En caso de error o daño, el profesional debe estar preparado para responder ética y legalmente por el uso de estas herramientas.
6. Continuidad profesional, competencia y rendición de cuentas.
La guía también insiste en que los psicólogos y psicólogas:
- Solo utilicen herramientas de IA para las cuales tienen formación o competencia (o que entiendan lo suficiente).
- Mantengan su conocimiento actualizado sobre los avances que se producen en IA, las regulaciones emergentes y las mejores prácticas éticas.
- Promuevan la transparencia frente a los y las colegas, instituciones o clientes respecto al uso de IA.
- Exijan a los desarrolladores de software responsabilidad, auditoría, trazabilidad y mecanismos de corrección ante errores.
En el contexto europeo.
En el contexto europeo y español, además de estas orientaciones generales, es fundamental tener en cuenta el marco legal y las particularidades del ejercicio de la psicología en nuestro entorno. A este respecto, adicionalmente a las pautas propuestas por la APA, algunas sugerencias incluirían, además:
Consentimiento informado adaptado a la IA.
- Incluir en el consentimiento informado que se entrega a los y las pacientes una cláusula específica sobre el uso de IA, explicando de forma clara y accesible qué herramientas se emplean (si es que se emplean), con qué finalidad y qué limitaciones presentan.
- Ofrecer siempre la opción de rechazar el uso de IA sin que esto afecte al acceso a la terapia.
Cumplimiento del GDPR y la LOPDGDD.
- Verificar que el proveedor de IA cumple con el Reglamento General de Protección de Datos (GDPR) y la LOPDGDD (como ejemplo, a día de hoy, Chat GPT, no cumpliría con estas normativas).
- Asegurar que los datos clínicos no se usan para entrenar modelos de IA sin consentimiento explícito.
- Aplicar medidas de minimización de datos.
Relevancia e implicaciones para la práctica psicológica.
¿Por qué son tan importantes estas directrices para los psicólogos y psicólogas hoy en día? Algunas de las razones incluyen:
- Innovación con cautela: La IA tiene el potencial de aliviar la carga administrativa, optimizar diagnósticos complementarios y personalizar las intervenciones, pero sin un marco ético riguroso, el riesgo de daño, pérdida de confianza o mal uso es real.
- Confianza del paciente: La relación terapéutica se basa en la confianza. Si el paciente descubre que una IA está haciendo parte del trabajo sin que haya transparencia, puede sentirse engañado o alienado.
- Desigualdades y justicia clínica: Si no se vigilan los sesgos, la IA puede perpetuar desigualdades ya existentes y marginar poblaciones vulnerables.
- Riesgo legal y profesional: En caso de daño o error en el uso de una herramienta automatizada, el psicólogo/a seguirá siendo responsable. Tener criterios claros documentados y procesos de supervisión reduce la exposición a reclamaciones éticas o legales.
- Competencia profesional en la era digital: La IA ya no es una tecnología del futuro, está entrando en muchas áreas del cuidado de la salud mental. Ser competente en su uso ético forma parte del rol profesional actual.
- Coordinación con estándares profesionales y regulatorios: Estas pautas permiten al psicólogo/a anticipar la convergencia entre ética, buenas prácticas y normativa futura (nacional e internacional) sobre IA aplicada al ámbito sanitario y psicológico.
Estas directrices ofrecen, por lo tanto, una hoja de ruta para que los psicólogos y las psicólogas puedan beneficiarse de la IA sin perder el timón ético ni la responsabilidad profesional.
Reflexiones finales.
El documento de la APA Ethical Guidance for AI in the Professional Practice of Health Service Psychology es un hito importante que reconoce el momento de transformación tecnológica que atraviesa la profesión. Más allá de plantear normas rígidas, establece un paradigma: la IA es una herramienta al servicio de los psicólogos y psicólogas, y no su sustituta.
Los y las profesionales que adopten recomendaciones de este tipo estarán mejor preparados para integrar las innovaciones tecnológicas de manera segura, responsable y respetuosa con sus pacientes, sin renunciar al núcleo del oficio: el juicio humano, la relación terapéutica y la perspectiva ética. Este momento exige no solo de competencias técnicas, sino también sensibilidad ética, reflexión crítica y compromiso con la dignidad y autonomía de las personas.
Fuente.
American Psychological Association. (2025, junio). Ethical Guidance for AI in the Professional Practice of Health Service Psychology.