BIBLIOTECA VIRTUAL de Derecho, Economía y Ciencias Sociales

DESARROLLO DEL ANÁLISIS FACTORIAL MULTIVARIABLE APLICADO AL ANÁLISIS FINANCIERO ACTUAL

Alberto Ibarra Mares


 


Esta página muestra parte del texto pero sin formato.

Puede bajarse el libro completo en PDF comprimido ZIP (211 páginas, 1.08 Mb) pulsando aquí

 

 

3. METODOLOGÍA A SEGUIR PARA LA APLICACIÓN DEL FACTORIAL

Tanto en el análisis factorial común como en el análisis de componentes principales (o de las demás variantes que existen) se presentan básicamente cuatro pasos a cumplir que son:

a) Se calcula la matriz de correlaciones o de datos entre las variables a partir de la matriz de datos originales, y posteriormente se aplica un conjunto de pruebas para comprobar si dicha matriz es significativamente diferente de una matriz identidad.

b) Se obtienen o extraen los factores iniciales y necesarios que representen a los datos originales.

c) Se lleva a cabo la rotación de los factores iniciales y su representación gráfica para facilitar su interpretación.

d) Se estiman las puntuaciones factoriales para cada individuo o empresa para que se utilicen en estimaciones posteriores.

3.1. CALCULO DE LA MATRIZ DE CORRELACIONES ENTRE LAS VARIABLES

Para la aplicación del análisis factorial se requiere de inicio una matriz de datos , también conocida como matriz de datos original, para que se transforme en una matriz de correlaciones (“determinant of correlation matrix”).

A través de la matriz de correlaciones, que se calcula con todas las variables independientes para utilizarse como un input, se indica el grado de las intercorrelaciones, aunque aquí no aparecen las cargas factoriales del factor único. Para llevar a cabo esta tarea se recomienda efectuar un análisis de esta matriz con el fin de verificar si sus características responden a las exigencias del análisis factorial.

Entre uno de los requisitos más importantes que debe cumplir la matriz de datos está el que las variables independientes tienen que estar altamente correlacionadas, y para esto se tiene que tomar en cuenta el determinante de la matriz. Si dicho determinante es muy bajo, entonces significa que existen variables con intercorrelaciones muy altas, y entonces es factible continuar con el análisis factorial. Sin embargo, el determinante no debe ser igual a cero, pues en este caso los datos no serían válidos.

También al comprobar si la matriz de correlaciones es una matriz identidad, es decir, que las intercorrelaciones entre las variables son ceros, se utiliza el “test de esfericidad de Bartlett”, el cual consiste en una estimación de “ji-cuadrado” a partir de una transformación del determinante de la matriz de correlaciones. Si las variables no están intercorrelacionadas, entonces el test de Bartlett presenta una nube de puntos en forma de esfera dentro del espacio. El test de esfericidad de Bartlett se basa en que el determinante de la matriz es un índice de la varianza generalizada de la misma. Esto quiere decir que un determinante próximo a cero indica que una o varias de las variables independientes pueden ser expresadas como una combinación lineal de otras variables independientes (Bizquerra: p. 295-296). Para llevar a cabo este análisis es necesario que los datos procedan de poblaciones con distribución normal multivariable. Según Miquel (1996), se pueden dar como válidos aquellos resultados que presenten un valor elevado del análisis y cuya fiabilidad sea menor a 0.05.

El tercer análisis a tomarse en cuenta fue el índice “Kaiser – Meyer – Olkin” (KMO), que sirve para comparar las magnitudes de los coeficientes de correlación general o simple con respecto a las magnitudes de los coeficientes de correlación parcial . Si la suma de los coeficientes de correlación parcial elevados al cuadrado entre todos los pares de variables es bajo en comparación con la suma de los coeficientes de correlación al cuadrado, entonces el índice KMO estará próximo a uno y esto se considerará positivo e indicará que se puede continuar con el análisis factorial. Pero si se obtienen valores bajos con el índice KMO, entonces indica que las correlaciones entre pares de variables no pueden ser explicadas por las otras variables, y por lo tanto, no es factible llevar a cabo el análisis factorial ya que el índice KMO se alejará de cero. Esto se debe a que cuando las variables independientes tienen factores comunes, el coeficiente de correlación parcial entre pares de variables es bajo al eliminarse los efectos lineales de las otras variables.

Un cuarto análisis que se aplicó fue el del coeficiente de correlación parcial, que se utiliza como un indicador que muestra la fuerza de las relaciones entre dos variables eliminando la influencia de las otras variables. Este coeficiente es bajo entre pares de variables si las variables tienen factores comunes, ya que se eliminan los efectos lineales de las otras variables. Las correlaciones parciales representan estimaciones entre factores únicos, los cuales deben estar intercorrelacionados entre sí, y además deben tender a ser próximos a cero cuando se dan las condiciones para el análisis factorial. Por otra parte, también existe un coeficiente de correlación parcial que es negativo y se denomina: coeficiente de correlación anti-imagen (“anti-image correlation”). Si la matriz contiene correlaciones anti-imagen, entonces indica que hay un elevado número de coeficientes altos que deben tomarse en cuenta antes de aplicar el factorial. Según Miquel (1996), en la matriz de correlación anti-imagen se deben observar pocos valores elevados en términos absolutos y no debe haber un número elevado de coeficientes ceros, pues de lo contrario se recomienda no llevar a cabo el análisis factorial.

Otro análisis para comprobar la factibilidad de la aplicación del factorial es la diagonal de la matriz anti-imagen, la cual permite ver el valor de las medidas de adecuación que presenta cada variable y que conocemos como: “Measure of Sampling Adecuacy” (MSA). Este tipo de medida permite comprobar variable por variable, si es adecuado llevar a cabo el análisis factorial. Aquí se toma como valores mínimos y máximos respectivamente el 0 y el 1, siendo tanto mejor cuanto mayor sea el valor del MSA.

En la primera etapa del análisis factorial si superan satisfactoriamente todos los tipos de análisis sobre la pertinencia y validez de la matriz de datos podemos proceder a llevar a cabo la segunda etapa que consiste principalmente en la extracción de los distintos factores a través de la agrupación de las variables originales en unas nuevas variables que denominaremos indistintamente como: “componentes” o “factores”, las cuales son combinaciones de las variables originales.

3.2. EXTRACCIÓN DE LOS FACTORES INICIALES Y NECESARIOS QUE REPRESENTEN A LOS DATOS ORIGINALES

Utilizando el análisis factorial de componentes principales a partir de la matriz de correlaciones se obtiene la matriz factorial (“factor matrix”), que es una reproducción de la primera de forma simple. Cada columna de esta nueva matriz representa a un factor y el número de filas corresponde por igual al número de variables independientes. Con este output también obtenemos una tabla de comunalidades y una tabla de la varianza total explicada. En el caso del análisis factorial confirmatorio, en ambas tablas se dan diferentes resultados de acuerdo al número de factores seleccionados previamente.

Previo al análisis de las estimaciones de las comunalidades, primero es importante entender que la comunalidad es la proporción de la varianza explicada por los factores comunes. Las comunalidades iniciales dentro del análisis de componentes principales son siempre iguales a uno, por lo que este dato no representa información importante. En cambio, en los estadísticos finales la comunalidad sí tiene una significación importante. Esto se debe a que al final del proceso no queda explicada la varianza total de cada una de las variables debido a que sólo se ha conservado un pequeño conjunto de factores entre todos los posibles, y por lo tanto, la comunalidad de cada variable representará la proporción de varianza explicada por el conjunto de los factores finales resultantes. La comunalidad (h2) de cada variable se estima a partir de la matriz factorial, y esto es igual a la suma de los cuadrados de las saturaciones o ponderaciones factoriales de cada una de las variables, es decir:

FORMULA DE LA COMUNALIDAD

H2I = F21J + F22J +........... + F2KJ

La comunalidad puede oscilar entre cero y uno. Cuando obtenemos una comunalidad de cero quiere decir que los factores comunes no tienen ningún poder explicativo de la variabilidad de una variable. En cambio, si la comunalidad es uno, entonces la variable está totalmente explicada por los factores comunes que aparecen en la matriz factorial. Por último, la varianza que no queda explicada por los factores comunes se atribuye al factor único, el cual no aparece en la matriz factorial, y esto se puede expresar de la siguiente forma:

EXPRESIÓN MATEMÁTICA DEL FACTOR UNICO

1 = H2 +U2

Donde:

h2 = comunalidad

U2 = factor único

Si se logran obtener los factores o determinados grupos de variables correlacionadas para formar cada uno de los factores iniciales con un fundamento teórico sólido, se supera uno de los principales problemas para llevar a cabo la correcta aplicación del análisis factorial. También es importante mejorar la normalidad, pudiéndose alcanzar esto a través de transformaciones logarítmicas, o bien, reduciendo los valores extremos y mejorando la homocedasticidad de las distribuciones. Este último aspecto es un supuesto relativo principalmente a las relaciones de dependencia entre las variables. Con variables independientes métricas, la homocedasticidad se basa en la dispersión de la varianza de la variable dependiente a lo largo del rango de los valores de la variable independiente. En el caso de nuestro estudio, y por lo que respecta a la tabla de comunalidades, comentamos a continuación los eventos más importantes que observamos.

Entre más factores se establecen, se incrementa la comunalidad final de cada una de las variables originales. Es decir, si consideramos que la comunalidad es el porcentaje de las variables iniciales explicadas por las nuevas variables (factores), entonces cuando aumentamos el número de estas nuevas variables, también se incrementa la proporción de la varianza explicada. Por otra parte, se puede calcular las comunalidades por medio de los valores propios (“eigenvalue”).

Para obtener aún más evidencia empírica sobre esta hipótesis es necesario pasar a analizar la tabla de la varianza total explicada y su respectivo gráfico de sedimentación denominado: “scree plot”.

La tabla de la varianza total explicada la podemos dividir para su análisis básicamente en dos partes. En la primera de ellas se encuentran los estadísticos iniciales de los factores seleccionados, en donde primero encontramos la lista de factores o componentes. En seguida se presentan los valores propios (“initial eigenvalues”) en valores absolutos (“total”) y valores relativos con sus respectiva acumulaciones (“% of variance” and “cumulative %”). Posteriormente, y para completar la primera parte de la tabla, se presenta la varianza explicada de todos los factores seleccionados en el análisis confirmatorio o en el análisis exploratorio. Esta parte de la tabla de ninguna forma se ve alterada en las estimaciones por la inclusión o exclusión de factores.

Es importante destacar que las tablas de los componentes ya no representan a los valores de las variables originales, sino a las variables independientes de acuerdo a su comunalidad final. Por otra parte, considerando la varianza acumulada de los factores seleccionados es posible obtener el grafico de sedimentación “scree plot” para facilitar la interpretación de la varianza explicada por cada factor. Por lógica podemos deducir que dicho gráfico tampoco se ve modificado por el número de factores seleccionados. Además, esta gráfica elimina todas aquellas variables con “eigenvalues” menores a uno. El “scree plot” representa en el eje de las “x” el número de los factores en orden ascedente, y en el eje de las “y” los valores propios (“eigenvalue”) en orden descedente.

La segunda parte de la tabla sobre la varianza total explicada incluye la suma de cuadrados de los pesos rotados (“rotation sums of squared loandings”). En esta parte de la tabla se obtienen diferentes resultados dependiendo del número de factores seleccionados. Esto es debido a que la rotación varía de acuerdo a los factores que se incluyen en el análisis.

Lo anterior indica que al utilizar más factores con respecto al “eigenvalue”, disminuirá la varianza total explicada parcial y acumulada hasta que coincidan el número de componentes y factores, que es el punto donde se iguala la varianza explicada después de la rotación, es decir, no se perderá información acumulada.

Una vez analizadas las comunalidades, la varianza total explicada y el “scree plot”, se procede a analizar la matriz factorial sin rotar. Los resultados que obtuvimos fueron los que a continuación explicamos.También es importante aclarar que para facilitar la lectura de las matrices factoriales se utilizó una condición de sintaxis en el SPSS para eliminar valores absolutos menores a un parámetro de .40 a .60, según la exigencia del investigador. Dicha restricción se establece dentro del menú de opciones del análisis factorial denominada: “supress absolute values less than...”.

En términos generales, en la matriz sin rotar las nuevas variables dentro del factor se conocen también se conoce como las “nuevas puntuaciones factoriales” o “constructos”. Para Hair (2000: p.770) el constructo es un concepto que el analista puede definir en términos conceptuales, pero que no puede ser directamente medido, ya que sólo representa las bases para formar relaciones causales en la medida en que son las representaciones más “puras” posibles de un concepto. También este mismo autor apunta que los constructos pueden definirse con diversos grados de precisión, que parten desde los conceptos más simples (como las cantidades o magnitudes monetarias) hasta conceptos más complejos y abstractos, como por ejemplo: las emociones, los gustos de los consumidores, entre otros. En conclusión, cualquiera que sea el nivel de especificidad del constructo, éste nunca podrá ser medido directa y perfectamente, aunque sí aproximarse a través de indicadores.

Con base en lo antes descrito y para facilitar al analista la interpretación de dichas puntuaciones factoriales se procede a rotar la matriz. A continuación explicamos en que consiste este proceso.


Grupo EUMEDNET de la Universidad de Málaga Mensajes cristianos

Venta, Reparación y Liberación de Teléfonos Móviles
Enciclopedia Virtual
Biblioteca Virtual
Servicios