Ir al contenido

Usuario:JAGT/SPSS/Análisis Factorial

De Wikipedia, la enciclopedia libre

Cuándo utilizamos el AF[editar]

En las ciencias sociales a veces intentamos medir cosas que no pueden ser directamente medidas (las llamadas Variables latentes). Por ejemplo, un psicólogo puede estar interesado en medir el "burnout", que es cuando alguien que ha estado trabajando muy duro en un proyecto (un libro, por ejemplo) por un tiempo prolongado al final se encuentran desmotivados, sin inspiración, y con ganas de golpear con la cabeza el ordenador. No puedes medir el burnout directamente: tiene muchas facetas. Sin embargo, puedes medir diferentes aspectos del burnout: puedes recoger un poco de información sobre motivación, sobre los niveles de estrés, si la persona tiene nuevas ideas... y así. Una vez hecho esto, quieres hallar si estas diferencias están influidas por una única variable. Dicho de otro modo: ¿Las puntuaciones en todas estas distintas variables están influenciadas por otra variable subyacente?

Para esto se utiliza el AF: Una técnica para identificar grupos de clusters de variables.Esta técnica tiene tres usos principales:

(1) para entender la estructura de un grupo de variables (por ejemplo, los pioneros en utilizar esta técnica como Spearman y Thurstone utilizaron el AF para identificar la estructura de las variables latentes de la "inteligencia").

(2) para diseñar un cuestionario que sea capaz de medir esta variable latente

(3) para reducir un gran grupo de variables a un grupo más pequeño de variables que explican el resto, de forma más manejable.

Eligiendo un método[editar]

Dependiendo de lo que esperas hacer con tu análisis, hay varios métodos para llevar a cabo un AF. Tinsley & Tinsley (1987) nos ofrecen una lista con los métodos existentes.

Hay dos cosas a considerar: si quieres generalizar los resultados de tu muestra a una población, y si estás explorando tus datos o comprobando una hipótesis específica.

En este apartado hablaremos de explorar los datos, ya que para confirmar una hipótesis específica se necesitan técnicas más avanzadas (análisis factoriales confirmatorios, con AMOS o EQS).

Ya que lo que vamos a hacer es explorar nuestros datos, debemos considerar si queremos aplicar nuestros hallazgos exclusivamente a nuestra muestra (método descriptivo), o si queremos generalizar las conclusiones a una población (método inferencial).

Por ello tenemos dos métodos: el "análisis de componentes principales" y el "análisis de covarianza image" (mala traducción). Estos dos métodos son los más utilizados y normalmente nos llevan a soluciones muy similares. Cuando se utiliza uno de estos dos métodos, los resultados se restringen exclusivamente a la muestra que hemos utilizado.

Pero si hemos escogido una muestra aleatoria (los participantes se han escogido totalmente al azar), y las variables medidas constituyen la población de variables en las que estamos interesados, es posible llevar a cabo técnicas que nos permitan generalizar los resultados a una población más grande. Ténicas para este propósito son el método de máxima-verosimilitud (maximun-likelihood).

Comunalidad[editar]

AF vs ACP[editar]

Teoría subyacente al PCA[editar]

Extracción de factores[editar]

Existe un gran debate sobre qué criterio utilizar a la hora de escoger el número de factores de un análisis factorial.

El principal sistema para escoger el número de factores, es cogiendo los "eigenvalues" más altos. Pero... ¿Hasta qué punto? ¿En qué momento se considera que un eigenvalue ya no tiene valor para considerarse un factor?

Cattell (1966) señaló que, mirando el diagrama de sedimentación de los eigenvalues, el punto de inflexión marca el punto de corte de los factores. Es un criterio visual.

Kaiser (1960) recomendó que sean todos los factores cuyo eigenvalue sea mayor a 1 (actualmente, este criterio es el que utiliza el SPSS). Jolliffe (1972, 1986) hizo una revisión del criterio de Kaiser, y alegó que era demasiado estricto, por lo que recomendó que el punto de corte fuera 0.7. El problema es que en ocasiones, la diferencia entre el criterio de Kaiser y el de Jolliffe puede ser dramático. Estudios posteriores han demostrado que el criterio de Kaiser puede sobreestimar el número de factores, pero que este criterio es bastante preciso cuando se trata de un número de variables menor a 30 y que el resultado de las comunalidades (después de la extracción) sean mayor de 0.7. El criterio de Kaiser parece ser también bastante preciso cuando la muestra es superior a 250 participantes y las comunalidades son superiores a 0.6.

El problema es que hay veces que usando todos estos diferentes criterios, llegamos a números de factores realmente distintos.

Probablemente, el mejor método para determinar el número de factores es calculando un análisis factorial paralelo (Horn, 1965). Básicamente consiste en realizar el mismo análisis factorial (con las mismas características que tu análisis factorial), pero cuyos datos son completamente al azar siguiendo una distribución normal. El resultado de este análisis factorial aleatorio nos dará como resultado unos eigenvalues que representan la aleatoriedad. Se considerarán entonces, factores, aquellos eigenvalues de nuestro análisis factorial original los que sean superiores a los eigenvalues generados al azar en el análisis paralelo.

Rotación: mejorando resultados[editar]