El valor del mercado por encima de la ciencia en Psicología

25 Abr 2019

Luis Valero Aguayo 1

1Universidad de Málaga

La búsqueda de la verdad y el conocimiento siempre se ha propuesto como el objetivo de la Ciencia, así con mayúsculas. Sin embargo, la situación de la investigación científica en el siglo XXI parece haber cambiado, al igual que lo ha hecho el resto de la sociedad, hacia un entorno de mercado. Ya parecen no primar tanto los hallazgos importantes, fundamentados de manera parsimoniosa, sino la novedad, la innovación y lo que pueda convertirse rápidamente en objeto de ventas o titulares de periódicos. La Psicología, si estamos de acuerdo en que ha de ser una ciencia del comportamiento, también se ve inmersa actualmente en ese zeitgeist o espíritu de la época.  Pero la Psicología no es un producto que haya que vender, sino una ciencia que obtiene conocimientos sobre el ser humano, y trata de aplicarlos para mejorar la vida de las personas.

El año pasado realizamos las Jornadas Críticas de Psicología en la Universidad Autónoma de Madrid (jornadas-criticas-psicologia.uma.es), y recientemente ha aparecido un monográfico en la revista Apuntes de Psicología  (www.apuntesdepsicologia.es), como producto de esas exposiciones y largas discusiones que se produjeron en su momento. Porque creemos que ha llegado el momento de parar, reflexionar y decidir el camino que debería seguir nuestra disciplina como ciencia y como servicio social éticamente responsable.

Esta reflexión no es nuestra, ni nueva. Ya han surgido voces internacionales críticas (p.ej., los Premios Nobel Randy Schekman y Peter Lawrence) sobre la presión de las empresas de publicación y las formas de financiación de las investigaciones que dirigen los temas que interesan, y que llegan a tergiversar e incluso ocultar los resultados científicos que no les resultan convenientes (Declaration on Research Assessment, DORA San Francisco, 2017). También en España se han hecho declaraciones en contra de esta situación y proponiendo alternativas (p.ej., Declaración de San Joan d’Alacan, 2017). El punto de inflexión se produjo en 2015 cuando la revista Science publicó un estudio sobre la replicación de 100 estudios de Psicología (Open Science Collaboration, 2015), los autores contaron incluso con el asesoramiento de los autores originales, pero los resultados fueron sorprendentes, puesto que solo en 39 de esos estudios tuvieron los mismos resultados, y en ellos el tamaño de ese efecto se redujo un 50%. El resto, es decir, 61 estudios no tuvieron resultados significativos, no se replicaban los mismos resultados. Otro estudio más reciente (Camerer et al., 2018) ha encontrado unos resultados similares al replicar 21 estudios de las revistas Nature y Science sobre temas de ciencias sociales, obteniendo resultados similares, solo en el 62% de los casos se obtenían resultados similares. Esto pone en duda muchas de las afirmaciones que suelen hacerse en Psicología sobre fenómenos psicológicos y sociales, que se dan por válidos, cuando nadie más los ha comprobado. La replicación directa y sistemática es, precisamente, una de las bases de una metodología científica, y la única que nos ha permitido hasta ahora avanzar con pasos seguros en el conocimiento científico.

Una de los principales factores de esta situación puede atribuirse a la utilización del Journal Citation Report (JCR) como criterio casi único en la valoración de los curricula de los investigadores y profesores. Un índice JCR que está en manos de dos empresas multinacionales (Clarivate Analytics de USA y Elsevier de Holanda) y que, basándose solo en el número de citas, elaboran el ranking de las revistas más prestigiosas, donde los investigadores están obligados a publicar si quieren sobrevivir. En un marco institucional, esta situación provoca una gran corrupción (tergiversación y falseamiento de un escrito), puesto que cobran al productor de información y también al consumidor de esa información, que siempre son los investigadores y las universidades. Según la Conferencia de Rectores se han pagado más de 24 millones de euros al año por las revistas incluidas en Science Direct. Algunos países europeos han roto con este sistema, España todavía no (Villareal y Escudero, 2018).

Por otro lado, esta presión sobre los investigadores está llevando a un aumento de la vacuidad de lo que se publica, y la aparición cada vez de más maquillajes e incluso mentiras descaradas en las investigaciones. Al fin y al cabo, la ciencia es la conducta que hacen los científicos, y estos se ven ante un reforzador prácticamente único (el JCR), con lo que dirigen todos sus esfuerzos a publicar en busca de ese reforzador. En Psicología son conocidos los casos de Wakefield sobre las vacunas y el autismo; el del psicólogo social holandés Diederik Stapel en 2011; el de Dirk Smeeters en 2012; el de Anders Eklund sobre los errores de las mediciones de resonancia magnética funcional; o la impostura del fraude de Anna Szust en 2017. Pero son más usuales aún las prácticas de maquillaje, denominadas ya en la literatura como prácticas cuestionables de investigación (PCI), decisiones poco éticas tomadas por los investigadores a lo largo de la elaboración y producción de una investigación. Algunos estudios sitúan en torno al 34% la cantidad de científicos que afirman haber realizado alguna vez este tipo de prácticas.

Algunas de ellas incluyen: cambiar la asignación de los grupos para tener un grupo control, repetir el mismo estudio en distintas revistas y distintos títulos, aumentar artificialmente las citas de la revista donde se va a publicar, probar varios tipos análisis de datos hasta encontrar una que sea significativa, aumentar el tamaño de la muestra hasta que sea significativo, corregir, modificar o descartar participantes para maximizar la significatividad, no probar la potencia de las pruebas estadísticas, interpretar de forma incorrecta las pruebas estadísticas, exagerar las conclusiones, maximizar la importancia del estudio en el abstract, e incongruencias entre los resúmenes y la metodología real que se describe dentro del texto.

Frente a estos problemas, durante las jornadas también se ofrecieron alternativas de mejora, puesto que las hay, y se están llevando a cabo en algunos otros países y organizaciones profesionales. Remitimos al lector al conjunto de artículos de ese monográfico, pero resumiendo algunas de esas alternativas pasan por: (a) Utilizar el JCR como un indicador más de la producción investigadora, unido a otros muchos indicadores, incluyendo lecturas y descargas reales de los artículos; (b) Fomentar y utilizar siempre publicaciones open-access y gratuitas para todo el mundo, subvencionadas y administradas por el estado o por las universidades; (c) Fomento de bases de datos en español como algunas de las que ya existen, y también redes de trabajo científicas accesibles con todos los artículos; (d) Fomento de las pre-publicaciones, donde aparezcan los proyectos de investigación antes de tener los resultados; (d) Secciones críticas en las revistas científicas, y revisiones anónimas en pre-publicaciones en internet; (e) Fomentar la publicación de estudios de replicación y de artículos con resultados negativos; (e) Fomentar la crítica libre y el diálogo en los congresos científicos; (e) Apoyar webs de denuncia de prácticas poco  científicas, y listados de universidades pseudo-científicas; (f) En la enseñanza universitaria poner más énfasis en los aspectos éticos y las cualidades de la investigación científica.

Podrían proponerse muchas más, ya que el futuro de la Psicología como ciencia está en nuestra manos. Cada uno/a en su grado de responsabilidad (como investigador/a, profesor/a, profesional o usuario/a) podría cambiar algo para que el mercado no sea el único valor de nuestra disciplina.

El estudio en el que se basa este artículo puede consultarse en la revista Apuntes de Psicología:

Valero-Aguayo, L. (2018). Mentiras, maquillaje y mercantilización en la Psicología. Apuntes de Psicología, 36, 41-48.

Referencias:

Camerer, C.F., Dreber, A., Holzmeister, F., Ho, T.H., Huber, J., Johanneson, M.K., Nave, G., Nosek, B.A., Pfeiffer, T., Altmejd, A., et al. (2018). Evaluation the replicability of social science experiments in Nature and Science between 2010 and 2015. Nature Human Behaviour, 2, 637-644. DOI: 101.1038/s41562-018-0399-z.

DORA (2012). San Francisco Declaration on Research Assessment. Información sobre su Comité Director. Disponible en https://sfdora.org/.

Open Science Collaboration (2015). Estimating the Reproducibility of Psychological Science. Science, 349, (6251). DOI: 10.1126/science.aac4716.

GERECS (Grupo de Editores de Revistas Españolas sobre Ciencias de la Salud) (2018). Declaración de Sant Joan d’Alacant en defensa del acceso abierto a las publicaciones científicas, del grupo de editores de revistas españolas sobre ciencias de la salud (Noviembre de 2017). Journal of Negative and No Positive Results: (JONNPR). 3 (1), 4-7. Extraido de http://www.accesoabierto.net.

Villareal, A. y Escudero, J. (2018). Todos contra Elsevier, el gigante editorial científico que cobra a España “25 kilos” al año. El Confidencial, 15 de febrero. Extraído de https://www.elconfidencial.com/tecnologia/ciencia/2018-02-15/todos-contra-elsevier-gigante-revistas-cientificas_1521884/.

Luis Valero Aguayo . Profesor e investigador, catedrático de la UMA, especializado en temas clínicos, especialmente las terapias contextuales, la evaluación conductual y también las aplicaciones de nuevas tecnologías de realidad virtual y BCI en los tratamientos psicológicos.

PSICOLOGÍA EN RED


LOS COLEGIOS HABLAN

MÁS NOTICIAS