domingo

Analisis Factorial

El Análisis Factorial es un método matemático/estadístico de tratamiento de datos -susceptibles de ser expresados numéricamente- cuya aplicación al estudio de los fenómenos psicológicos puede revestir singular importancia. No podemos obviar, en consecuencia, su descripción.

Prácticamente hasta los comienzos del siglo XX, el problema de las aptitudes había sido objeto de puras especulaciones; la observación e introspección -poco o nada sistematizadas, con frecuencia- han sido y siguen siendo incapaces de ofrecer una prueba científica de la existencia de las aptitudes. Hoy en día, por supuesto, se prefiere utilizar conceptos directamente derivados de actividades mensurables de los seres humanos.

Para averiguar experimentalmente cuáles son las características fundamentales de las funciones cognoscitivas, se dispone, desde principios del siglo XX, de dos nuevos instrumentos: el coeficiente de correlación y los “tests” mentales, y de un concepto empírico: el de “unidad funcional”.

El Análisis Factorial es una técnica que consiste en resumir la información contenida en una matriz de datos con V variables. Para ello se identifican un reducido número de factores F, siendo el número de factores menor que el número de variables. Los factores representan a las variables originales, con una pérdida mínima de información.

El modelo matemático del Análisis Factorial es parecido al de la regresión múltiple. Cada variable se expresa como una combinación lineal de factores no directamente observables. A saber:

Xij = F1i•ai1 + F2i•ai2 +....+ Fki•aik + Vi

siendo:

Xij la puntuación del individuo i en la variable j .

Fij son los coeficientes factoriales.

aij son las puntuaciones factoriales.

Vi es el factor único de cada variable.

Se asume que los factores únicos no están correlacionados entre sí ni con los factores comunes. Así mismo, podemos distinguir entre:

Análisis Factorial Exploratorio, donde no se conocen los factores "a priori", sino que se determinan mediante el Análisis Factorial.

Análisis Confirmatorio donde se propone "a priori" un modelo según el cual hay unos factores que representan a las variables originales, siendo el número de éstos superior al de aquellos, y se somete a comprobación el modelo.

Para que el Análisis Factorial tenga sentido deberían cumplirse dos condiciones básicas: Parsimonia e Interpretabilidad.

Parsimonia, los fenómenos deben explicarse con el menor número de elementos posibles. Por lo tanto, respecto al Análisis Factorial, el número de factores debe ser lo más reducido posible y éstos deben ser susceptibles de interpretación substantiva. Una buena solución factorial es aquella que resulta sencilla e interpretable. Los pasos o fases que se suelen seguir en el Análisis Factorial son los siguientes:

1. Cálculo de la matriz de correlaciones entre todas las variables (conocida habitualmente como matriz R).

2. Extracción de los factores necesarios para representar los datos.

3. Rotación de los factores con objeto de facilitar su interpretación.

4. Representación gráfica.

5. Cálculo de las puntuaciones factoriales de cada individuo.

EXAMEN DE LA MATRIZ DE CORRELACIONES

El primer paso en el Análisis Factorial será calcular la matriz de correlaciones entre todas las variables que entran en el análisis.

Pueden utilizarse diferentes métodos para comprobar el grado de asociación entre las variables:

- El determinante de la matriz de correlaciones: un determinante muy bajo indicará altas intercorrelaciones entre las variables, pero no debe ser cero (matriz no singular), pues esto indicaría que algunas de las variables son linealmente dependientes y no se podrían realizar ciertos cálculos necesarios en el Análisis Factorial.

Test de Esfericidad de Bartlett:

Comprueba que la matriz de correlaciones se ajuste a la matriz identidad, es decir ausencia de correlación significativa entre las variables.

Indice KMO de Kaiser-Meyer-Olkin:

Valores bajos (menores de 0,5) del indice KMO desaconsejan la utilización de Análisis Factorial.

Correlación Anti-imagen:

Que es el negativo del coeficiente de correlación parcial, deberá haber pocos coeficientes altos para que sea razonable aplicar el Análisis Factorial.

Medida de Adecuación de la Muestra (MSA):

Valores bajos de este índice desaconsejan el uso del Análisis Factorial.

Correlación Múltiple, que deberá ser alto, sobre todo si la técnica a utilizar es un análisis factorial. Esta técnica, por defecto, toma los valores de la correlación múltiple al cuadrado como los valores iniciales de comunalidad.

NUMERO DE FACTORES A CONSERVAR

La matriz factorial puede presentar un número de factores superior al necesario para explicar la estructura de los datos originales. Generalmente hay un conjunto reducido de factores, los primeros, que son los que explican la mayor parte de la variabilidad total.

Los otros factores suelen contribuir relativamente poco. Uno de los problemas que se plantean, por tanto, consiste en determinar el número de factores que debemos conservar, de manera que se cumpla el principio de parsimonia.

Se han dado diversos criterios para determinar el número de factores a conservar. Uno de los más conocidos y utilizados es el criterio o regla de Kaiser (1960) que indicaría lo siguiente: "conservar solamente aquellos factores cuyos valores propios (eigenvalues) son mayores a la unidad". Este criterio es el que suelen utilizar los programas estadísticos por defecto.

ROTACIONES FACTORIALES

La matriz factorial indica, como sabemos, la relación entre los factores y las variables. Sin embargo, a partir de la matriz factorial muchas veces resulta difícil la interpretación de los factores.

Para facilitar la interpretación se realizan lo que se denominan rotaciones factoriales.

La rotación factorial pretende seleccionar la solución más sencilla e interpretable. En síntesis consiste en hacer girar los ejes de coordenadas, que representan a los factores, hasta conseguir que se aproxime al máximo a las variables en que están saturados.

La saturación de factores transforma la matriz factorial inicial en otra denominada matriz factorial rotada, de más fácil interpretación.

Como hemos dicho el objetivo de la rotación es obtener una solución más interpretable, una forma de conseguirlo es intentando aproximarla al principio de estructura simple (Thurstone, 1935). Según este principio, la matriz factorial debe reunir las siguientes características:

1. Cada factor debe tener unos pocos pesos altos y los otros próximos a 0.
2. Cada variable no debe estar saturada más que en un factor.
3. No deben existir factores con la misma distribución, es decir, los factores distintos deben presentar distribuciones de cargas altas y bajas distintas.

Existen varios métodos de rotación que podemos agrupar en dos grandes tipos: ortogonales y oblicuos.

De entre las rotaciones ortogonales la más utilizada es la varimax mientras que en las oblicuas es la oblimin.

INTERPRETACION DE FACTORES

En la fase de interpretación juega un papel preponderante la teoría y el conocimiento sustantivo.

A efectos prácticos se sugieren dos pasos en el proceso de interpretación:

1. Estudiar la composición de las saturaciones factoriales significativas de cada factor.

2. Intentar dar nombre a los factores. Nombre que se debe dar de acuerdo con la estructura de sus saturaciones, es decir, conociendo su contenido.

Dos cuestiones que pueden ayudar a la interpretación son:

- Ordenar la matriz rotada de forma que las variables con saturaciones altas en un factor aparezcan juntas.

- La eliminación de las cargas factoriales bajas (generalmente aquellas que van por debajo de 0,25).

ANALISIS FACTORIAL BOOLEANO

El análisis factorial booleano se usa para variables binarias. Las puntuaciones del individuo i en la variable j se denominan por Xij , y solamente pueden tomar valores dicotómicos como por ejemplo 0-1 ó 1-2. En todo lo demás es muy similar al análisis factorial clásico.

ANALISIS DE CORRESPONDENCIA

Es un caso particular del análisis factorial clásico. Siendo una técnica factorial, sus resultados pueden ser presentados gráficamente, lo que aporta una gran ayuda a la interpretación de resultados.

Es una técnica utilizada para el estudio de las relaciones de dependencia entre variables categóricas, presentadas en forma de una tabla de contingencia. Sin embargo este análisis, permite analizar como esta estructurada esta asociación, describiendo "proximidades" que permiten identificar categorías causa de asociación.

El análisis de correspondencia simple se aplica a una tabla de frecuencias de dos variables categóricas. Además existe una generalización de método a mas de dos variables, denominado análisis de correspondencias múltiples, que lo hace especialmente útil en situaciones multivariables categóricas.

Ejemplo

Se intentan conocer los determinantes de los ingresos de la ocupación principal de los asalariados. Dado que se supone que estos están asociados a un conjunto de características de la persona y del puesto. Dado que el conjunto de variables es grande y se sospecha que algunas de ellas están muy relacionadas, por lo que parece conveniente antes del análisis intentar determinar si existen subconjuntos diferenciados de ellas.

Examen de la matriz de correlaciones

1- El primer paso en el Análisis Factorial será calcular la matriz de correlaciones entre todas las variables que entran en el análisis.

2- Una vez que se dispone de esta matriz cabe examinarla para comprobar si sus características son adecuadas para realizar un Análisis Factorial.

3- Uno de los requisitos que deben cumplirse para que el Análisis Factorial tenga sentido es que las variables estén altamente correlacionadas.

Matriz de Correlaciòn


El Análisis Factorial extrae una matriz factorial:

F 1 F 2

1 P11 P21

2 P12 P22

Cada columna es un factor y cada fila una variable. Los elementos Pij pueden interpretarse como índices de correlación entre el factor i y la variable j.

Estos coeficientes reciben el nombre de pesos o cargas factoriales. Las cargas indican el peso de cada variable en cada factor. Lo ideal es que cada variable cargue alto en un factor y bajo en los demás.

El cuadrado de una carga factorial indica la proporción de la varianza explicada por un factor en una variable particular.

La suma de los cuadrados de los pesos de cualquier columna de la matriz factorial es lo que denominamos eigenvalues, indica la cantidad total de varianza que explica ese factor.

  • Las cargas factoriales pueden tener como valor máximo 1, por tanto el valor máximo que puede alcanzar el valor propio es igual al número de variables.

EXTRACCIÓN DE MATRIZ FACTORIAL

COMUNALIDADES

Se denomina "comunalidad" a la proporción de la varianza explicada por los factores comunes en una variable. La comunalidad es la suma de los pesos factoriales al cuadrado en cada una de las filas.

El Análisis Factorial comienza sus cálculos a partir de lo que se conoce como matriz reducida compuesta por los coeficientes de correlación entre las variables y con las comunalidades en la diagonal.

Como la comunalidad no se puede saber hasta que se conocen los factores, este resulta ser uno de los problemas del Análisis Factorial.

NUMERO DE FACTORES A CONSERVAR

La matriz factorial presenta un número de factores superior al necesario para explicar la estructura de los datos. Generalmente hay un conjunto reducido de factores, los primeros, que son los que explican la mayor parte de la variabilidad total. Los otros factores suelen contribuir relativamente poco.

Existen diversos criterios para determinar el número de factores a conservar. Uno de los más utilizados es la regla de Kaiser: "conservar aquellos factores cuyos valores propios (eigenvalues) son mayores a la unidad". Este criterio tiende a sobreestimar el número de factores.






1 comentario:

Visitas