Contenido elaborado por Jóvenes Profesionales de la Psicología (División Académica – SEP)
La inteligencia artificial ya ha entrado de lleno en la vida académica. Un reportaje reciente de Nature recoge que, en una encuesta a casi 3.800 doctorandos, tres de cada cuatro consideraban que estas herramientas podían ayudarles a trabajar con más eficiencia y el 71% veía aceptable utilizarlas como apoyo a sus estudios. Sin embargo, el 81% decía no confiar plenamente en ellas y el 65% temía que pudieran debilitar habilidades como pensar, investigar y escribir. El debate, por tanto, ya no es solo si usar IA o no, sino cómo hacerlo sin empobrecer el aprendizaje ni el criterio profesional (media.nature.com).

La IA ya ha entrado en la investigación.
Para quienes empiezan en Psicología, la utilidad de estas herramientas no está solo en redactar más rápido. También puede estar en tareas previas y muy concretas: delimitar una pregunta, explorar literatura, localizar informes, comparar documentos, resumir artículos o preparar una primera síntesis de un tema. Ahí conviene hacer una distinción importante: no todas las herramientas sirven para lo mismo. Elicit orienta buena parte de su propuesta a informes de investigación, revisiones sistemáticas, búsqueda de artículos, extracción de datos y trabajo con papers. Perplexity Research está más pensado para investigación amplia en la web y generación de informes a partir de múltiples fuentes. ChatGPT, en su modo de investigación profunda, está diseñado para tareas complejas que combinan archivos, web pública, sitios concretos y apps conectadas en un informe documentado (support.elicit.com).
No toda la IA sirve para lo mismo.
En la práctica, esto obliga a ser más precisos. Elicit encaja mejor cuando el trabajo exige revisar literatura, comparar estudios o empezar a ordenar evidencia. Perplexity puede resultar más útil para una fase exploratoria o de contextualización rápida, por ejemplo, para localizar informes, marcos normativos o tendencias recientes. ChatGPT, en investigación profunda, puede ser especialmente útil cuando hay que integrar materiales diversos y convertirlos en una síntesis razonada. La clave editorial aquí no es recomendar una plataforma concreta, sino recordar que investigar no consiste solo en generar texto, también implica seleccionar fuentes, valorar su calidad, interpretar resultados y decidir qué peso tiene cada evidencia (support.elicit.com).
Para qué sí y para qué no.
| Herramienta | Para qué sí | Para qué no conviene delegar |
| Elicit | Revisar literatura, localizar estudios, ordenar hallazgos, empezar una revisión más estructurada | Dar por buena una síntesis sin leer los artículos clave ni comprobar qué evidencia se ha incluido (support.elicit.com) |
| Perplexity | Explorar un tema, contextualizarlo rápido, localizar informes, normativa o fuentes web recientes | Sustituir una búsqueda académica rigurosa o tratar una síntesis web como si equivaliera a revisión científica (Perplexity AI) |
| ChatGPT (investigación profunda) | Integrar archivos, webs y fuentes delimitadas, y convertirlos en un informe documentado | Delegar la comprensión conceptual, la interpretación de resultados o la autoría real del texto final (OpenAI Help Center) |
Cuando la ayuda tecnológica también genera carga.
Aquí conviene añadir una cautela menos visible, pero más profunda. La literatura sobre tecnoestrés define este fenómeno como un estado de estrés o malestar psicológico asociado al uso de tecnologías. Entre sus factores de riesgo aparecen la sobrecarga mental, la multitarea sin control suficiente, la aceleración del ritmo de trabajo y la prolongación de la jornada (Sánchez-Toledo Ledesma, 2026). En un estudio reciente con teletrabajadores en España, se observaron entre 2016 y 2024 menos autonomía percibida, menos consecuencias positivas del uso tecnológico y más consecuencias negativas, junto con un aumento de la postura negativa hacia las TIC. Los efectos fueron en general modestos, pero consistentes, y el trabajo plantea que la adaptación tecnológica puede coexistir con mayores demandas psicológicas y sociales. Trasladado a la investigación, eso obliga a una prudencia básica: una herramienta puede ahorrar tiempo y, a la vez, aumentar la presión por producir más, revisar más fuentes o mantenerse constantemente actualizado (Área Europea de Educación).
Una ayuda para investigar, no un sustituto del criterio.
Las instituciones también están intentando ponerse al día. La Comisión Europea insiste en la necesidad de alfabetización ética y crítica en el uso de IA y datos, y OpenAI describe la investigación profunda como una función para planificar, investigar y sintetizar preguntas complejas en un informe documentado, no como un reemplazo del juicio del usuario. Para la Psicología joven, la conclusión más útil quizá sea sencilla: la IA puede ayudar a buscar, resumir, comparar o sintetizar, pero no conviene delegar en ella la comprensión de un problema, la lectura crítica de los artículos, la interpretación de resultados ni la autoría real de un trabajo. Más que sustituir capacidades, debería servir para reforzar un trabajo propio, supervisado y responsable (Área Europea de Educación).
Referencias.
- European Commission. (2026). Guidelines on the ethical use of artificial intelligence and data in teaching and learning.
- Nordling, L. (2026). AI and the PhD student: friend or foe? Nature.
- OpenAI. (2026). Deep research in ChatGPT.
- Perplexity. (2026). What is Research mode?
- Sánchez-Toledo Ledesma, A. (2026). Technostress in Spain between 2016 and 2024: perception of the impact of teleworking on the health of Spanish workers. Frontiers in Psychology, 17, 1774427.
- Support Elicit. (2026). Getting started with Elicit: Which workflow or tool should I use?
