La inteligencia artificial generativa (IAG) está redefiniendo la forma en que trabajamos, investigamos y nos relacionamos. Así lo confirman Choudhury, Elyoseph, Fast, Ong, Nsoesie y Pavlick, 6 investigadores relevantes de áreas como la psicología, la salud pública y la lingüística, que ofrecen un análisis multidisciplinario del fenómeno tecnológico en un artículo publicado por Nature Reviews Psychology.
Según se deduce de las reflexiones de estos investigadores, lejos de tratarse de una moda tecnológica, la IAG —que a diferencia de otras es capaz de producir texto, imágenes, música y otros muchos contenidos— representa un cambio profundo en cómo interactuamos y nos relacionamos con las máquinas.

No obstante, su avance, tal y como alertan, plantea interrogantes fundamentales: ¿puede la IAG pensar como un ser humano? ¿Qué riesgos implica su uso generalizado? ¿Estamos preparados para convivir con ella?
Aplicaciones científicas y sociales.
La IAG no es solo una herramienta para programadores. En psicología clínica, por ejemplo, Zohar Elyoseph explica que ya se usa como simulador en la formación de psicólogos/as, como asistente para la redacción de artículos e, incluso, como herramienta para analizar emociones y comportamientos humanos.
En el campo de la salud global, Elaine O. Nsoesie destaca su potencial para mejorar el diagnóstico de enfermedades y la comunicación con pacientes, especialmente en contextos donde los recursos son limitados. Sin embargo, advierte de que su implementación debe ser evaluada cuidadosamente en ambientes reales, como son los hospitales.
Desde la psicología organizacional, Nathanael J. Fast ha empleado la IAG para simular escenarios en los que empleados y empleadas son gestionados por algoritmos, lo que permite estudiar el impacto psicológico de trabajar bajo la supervisión de una máquina.
Incluso en lingüística, Monojit Choudhury señala que estas herramientas ya se usan para evaluar la calidad de otros modelos de lenguaje, logrando resultados comparables al juicio humano en idiomas como el inglés.
¿Piensan las máquinas?
Aunque los modelos generativos pueden parecer “inteligentes”, los expertos son cautos. Desmond C. Ong recuerda que su funcionamiento se basa en estadística, no en procesos mentales como los humanos. Aunque pueden imitar respuestas emocionales, según señala, no sienten ni razonan como nosotros.
Ellie Pavlick, especialista en lingüística y computación, indica, por su lado, que no tenemos una definición precisa de qué significa realmente “pensar” o “ser inteligente”, ni siquiera en los humanos. Por eso, hablar de la inteligencia de la IAG requiere repensar nuestros conceptos.
Beneficios y aplicación con límites.
Si bien la IAG puede facilitar tareas como escribir, traducir o analizar datos, los expertos coinciden en que no debería sustituir a los humanos, sino complementar sus capacidades. Por ejemplo, según se señala en este artículo, puede automatizar procesos administrativos o ayudar a los y las profesionales de la salud mental entre sesiones, pero no debería reemplazar el juicio clínico.
El artículo señala, también, que, si se usa sin cuidado, la IAG puede reforzar sesgos existentes, como el racismo o la discriminación cultural. Además, prosigue, puede provocar dependencia tecnológica o deterioro de habilidades como la escritura o la toma de decisiones, especialmente entre los más jóvenes.
Dilemas éticos urgentes.
Los investigadores que participan en este debate insisten en que el desarrollo y uso de IAG plantea preguntas complejas. Por ejemplo: ¿Debería adaptarse a los valores de cada cultura? ¿Quién decide qué tipo de comportamiento es “correcto” para una IA? Choudhury señala que muchos modelos actuales están alineados con valores anglosajones, lo que puede resultar problemático en otros contextos.
Nsoesie propone, por su lado, que las IAG incluyan “etiquetas de uso responsable”, similares a las advertencias de los medicamentos, para informar a los usuarios sobre usos adecuados, limitaciones y riesgos.

El uso de la IAG también implica desafíos legales –como la responsabilidad de la toma de decisiones automatizadas–, y sociales –como la pérdida de diversidad lingüística y cultural si se impone un único modelo de lenguaje–.
Mirando hacia el futuro.
En los próximos años, la IAG podría convertirse en un “copiloto cognitivo”, apoyando procesos creativos y científicos. Pero también podría cambiar nuestra manera de aprender, trabajar y relacionarnos. Según Elyoseph, este cambio podría incluso modificar nuestra percepción de lo que significa ser humano, para bien o para mal.
Aunque algunos sueñan con un “científico IA” que realice investigaciones completas, otros, como Pavlick, creen que el verdadero impacto vendrá a largo plazo, cuando nuevas generaciones crezcan con esta tecnología como parte de su entorno cotidiano.
Algunas conclusiones comunes.
Los investigadores que han participado en el artículo de Nature Reviews Psychology coinciden en algunos puntos:
- Potencial transformador con riesgos éticos: Todos señalan que la IAG tiene el poder de revolucionar la ciencia y la vida cotidiana, pero necesita desarrollarse con criterios éticos rigurosos para evitar la amplificación de desigualdades o sesgos. En el mismo sentido se han pronunciado entidades como la Organización Mundial de la Salud (OMS) en su guía Ethics and gobernance of artificial intelligence for health (Ética y dirección de la inteligencia artificial para la salud).
- Colaboración humano-IA como paradigma deseable: En lugar de sustituir a los humanos, la IAG debería potenciar sus capacidades, apoyando tareas repetitivas o administrativas, pero manteniendo la supervisión y juicio humano en decisiones complejas.
- Urgencia de marcos regulatorios y educativos: Es indispensable avanzar en la regulación y alfabetización en IA para garantizar un uso seguro, equitativo y beneficioso de estas tecnologías.
Fuente.
Choudhury, M., Elyoseph, Z., Fast, N. J., Ong, D. C., Nsoesie, E. O., & Pavlick, E. (2025). The promise and pitfalls of generative AI. Nature Reviews Psychology, 4, 75–80. https://doi.org/10.1038/s44159-024-00402-0