Paula Fernández1,a, Pablo Livacic-Rojas2 y Guillermo Vallejo1

1Universidad de Oviedo, 2Universidad de Santiago de Chile

El espectro de las ocupaciones que un psicólogo puede llevar a cabo es tan amplio como valioso, y, de entre todas ellas, la labor de realizar investigación aplicada es, además, una necesidad de magnitud inconmensurable para el avance de la Ciencia Psicológica. En este ámbito con frecuencia, es preciso describir, pronosticar y explicar los procesos que se producen con el paso del tiempo (biológicos, psicológicos, sociales…). Cuando así es, los diseños de medidas repetidas son los únicos que permiten abordarlo.

Aunque estos diseños admiten una gran variedad de estructuras, la más utilizada es aquella que tiene un único factor intra-sujeto y un único factor entre-sujetos, esto es, los sujetos son clasificados en función de, o asignados aleatoriamente a, los niveles del factor entre-sujetos y con posterioridad observados y medidos en todos los niveles del factor intra-sujeto. 

 

Toda investigación que utiliza este modo de recogida de datos tiene considerables ventajas de valor práctico (no es necesario disponer de una gran cantidad de sujetos), estadístico (son más potentes que los diseños transversales para poner en evidencia el efecto de las variables independientes o de clasificación, así como las interacciones entre ellas) y sustantivo (son los únicos que nos permiten obtener información concerniente a los patrones de cambio individual). Sin embargo, también pueden presentar dificultades, algunas de ellas derivadas de la propia estrategia de recogida de los datos, como la aparición de efectos residuales, de orden y de autocorrelación de las puntuaciones. Otras derivadas del propio ámbito de aplicación, esto es, en ambientes aplicados el investigador, frecuentemente, no ejerce un control estricto sobre las circunstancias en las que registra los datos y es posible que algunos sujetos abandonen, que perdamos ocasiones de medida, que el tamaño de los grupos sea dispar, o que no podamos registrar las variables de interés en intervalos regulares.

Así las cosas, y aún habiendo cuidado que la planificación de la investigación sea exquisita en cuanto a aquellos aspectos que garanticen la validez interna y de constructo, y donde las variables que deseamos observar se hayan registrado con la máxima fiabilidad posible, puede estar comprometida la validez de la conclusión estadística. Entonces, puede suceder que, o bien siendo verdadera nuestra hipótesis nula la rechacemos (cometamos un mayor error de Tipo I del especificado a priori) o bien que siendo nuestra hipótesis nula falsa la aceptemos (tenemos una escasa potencia de prueba).

Para garantizar la máxima sensibilidad para poner a prueba nuestras hipótesis es imperativo seleccionar adecuadamente la técnica de análisis de los datos, porque, aunque son muchas las disponibles, ninguna de ellas es uniformemente mejor que el resto en todas las situaciones.

Habitualmente, los datos recogidos mediante un diseño de medidas repetidas son analizados mediante el análisis Univariado o Multivariado de la varianza. La decisión es acertada si se satisfacen los supuestos que subyacen a los modelos. En común comparten los siguientes: normalidad conjunta multivariada, independencia entre los vectores de observaciones de las diferentes unidades experimentales y homogeneidad de las matrices de dispersión (Σ). De modo particular, el modelo Univariado (AVAR) también requiere que la estructura de la matriz Σ sea esférica, esto es, requiere que las varianzas correspondientes a las diferencias entre las distintas ocasiones de medida sean iguales o que haya varianzas iguales y covarianzas iguales. El modelo Multivariado (AMVAR) no requiere este supuesto, pero sí es imperativo para que se pueda calcular que el número de sujetos dentro de cada grupo sea mayor que el número de medidas repetidas.

Así pues, cuando alguno de los supuestos anteriores no se satisface en nuestros datos es preciso utilizar una técnica alternativa de análisis. Varias son las existentes, clásicas unas, de reciente desarrollo otras, y todas ellas con un común denominador, garantizar la robustez y la potencia en la prueba de las hipótesis de los efectos del diseño.

 

De entre ellas algunas son univariadas (prueba de Greenhouse y Geisser; prueba de Huynh y Feldt; prueba de Huynh y Feldt con la corrección de Lecoutre; la Aproximación General Mejorada (AGM); el enfoque del Modelo Lineal Mixto (MLM); el enfoque Bootstrap) y otras multivariadas (prueba del Welch-James (WJ) y prueba de Brown-Forsythe (BF)), y es preciso conocer su eficacia en las condiciones adversas que nos podemos encontrar para elegir aquella que nos garantice las mejores inferencias en función de las características que subyacen a nuestros datos.

Todas ellas están disponibles en/para los paquetes estadísticos más habitualmente utilizados por el investigador aplicado, SPSS y SAS, del siguiente modo: AVAR, AMVAR, estadístico de Huynh-Feldt con la corrección de Lecoutre y estadístico de Greenhouse y Geisser (SAS, SPSS); MLM (PROC MIXED, SAS); AGM (Programa en SAS/IML de Algina, 1997); WJ (Programa en SAS/IML de Lix y Keselman, 1995; Keselman, Algina, Wilcox y Kowalchuck, 2000); BF (Programa en SAS/IML de Vallejo, Moris y Conejo, 2006).

El artículo original al que hace referencia este resumen puede encontrarse en la revista International Journal of Clinical and Health Psychology: Fernández, P., Livacic-Rojas, P., y Vallejo, G. (2007).Cómo elegir la mejor prueba estadística para analizar un diseño de medidas repetidas. International Journal of Clinical and Health Psychology, 7, 153-175.

Ver referencias bibliográficas.

Sobre los autores y autora:

Paula Fernández García es Psicóloga y Profesora Titular de la Facultad de Psicología en la Universidad de Oviedo. Su principal línea de investigación abarca el estudio de los diseños de medidas repetidas tanto univariados como multivariados y el estudio del comportamiento de procedimientos robustos alternativos.

Pablo Livacic-Rojas es Psicólogo y Doctor en Psicología por la Universidad de Oviedo y Profesor de Metodología de las Ciencias del Comportamiento en la Universidad de Santiago de Chile. Su principal línea de investigación abarca el estudio de los diseños de medidas repetidas y el estudio del comportamiento de procedimientos robustos alternativos.

Guillermo Vallejo Seco es Psicólogo y Profesor Catedrático de la Facultad de Psicología de Oviedo. Varias son las líneas de investigación en las que trabaja, entre ellas, el estudio de los diseños de medidas repetidas tanto univariados como multivariados y el estudio del comportamiento de procedimientos robustos alternativos; también el análisis de la intervención en series temporales así como el estudio de procedimientos de comparación múltiple en ausencia de independencia.

Actualmente los tres autores, junto con los profesores F.J. Herrero Díez y M. Cuesta, están llevando a cabo la investigación que lleva por título Análisis de Diseños de Medidas Repetidas con Datos Incompletos subvencionada por el Ministerio de Educación y Cultura. Plan Nacional de I+D+I. (Rf: SEJ2005-01883).

Artículos Relacionados
EL META-ANALISIS: UNA METODOLOGÍA DE NUESTRO TIEMPO