Tesis doctorales de Ciencias Sociales


ANÁLISIS DE LAS DIFICULTADES FINANCIERAS DE LAS EMPRESAS EN UNA ECONOMÍA EMERGENTE: LAS BASES DE DATOS Y LAS VARIABLES INDEPENDIENTES EN EL SECTOR HOTELERO DE LA BOLSA MEXICANA DE VALORES

Alberto Ibarra Mares



Esta página muestra parte del texto pero sin formato.
Puede bajarse la tesis completa en PDF comprimido ZIP (319 páginas, 1.52 Mb) pulsando aquí

 

 

 

8.4.1. METODOLOGÍA A SEGUIR PARA LA APLICACIÓN DEL FACTORIAL

Tanto en el análisis factorial común como en el análisis de componentes principales (o de las demás variantes que existen) se presentan básicamente cuatro pasos a cumplir que son:

a) Se calcula la matriz de correlaciones o de datos entre las variables a partir de la matriz de datos originales, y posteriormente se aplica un conjunto de pruebas para comprobar si dicha matriz es significativamente diferente de una matriz identidad.

b) Se obtienen o extraen los factores iniciales y necesarios que representen a los datos originales.

c) Se lleva a cabo la rotación de los factores iniciales y su representación gráfica para facilitar su interpretación.

d) Se estiman las puntuaciones factoriales para cada individuo o empresa para que se utilicen en estimaciones posteriores.

8.4.2. CALCULO DE LA MATRIZ DE CORRELACIONES ENTRE LAS VARIABLES.

Para la aplicación del análisis factorial se requiere de inicio una matriz de datos , también conocida como matriz de datos original, para que se transforme en una matriz de correlaciones (“determinant of correlation matrix”).

A través de la matriz de correlaciones, que se calcula con todas las variables independientes para utilizarse como un input, se indica el grado de las intercorrelaciones, aunque aquí no aparecen las cargas factoriales del factor único. Para llevar a cabo esta tarea se recomienda efectuar un análisis de esta matriz con el fin de verificar si sus características responden a las exigencias del análisis factorial.

Entre uno de los requisitos más importantes que debe cumplir la matriz de datos está el que las variables independientes tienen que estar altamente correlacionadas, y para esto se tiene que tomar en cuenta el determinante de la matriz. Si dicho determinante es muy bajo, entonces significa que existe variables con intercorrelaciones muy altas, y entonces es factible continuar con el análisis factorial. Sin embargo, el determinante no debe ser igual a cero, pues en este caso los datos no serían válidos. Para el caso de este estudio obtuvimos un determinante igual a 2.517E-15. Esto nos indica que dicho determinante es muy próximo a cero.

También al comprobar si la matriz de correlaciones es una matriz identidad, es decir, que las intercorrelaciones entre las variables son ceros, se utiliza el “test de esfericidad de Bartlett”, el cual consiste en una estimación de “ji-cuadrado” a partir de una transformación del determinante de la matriz de correlaciones. Si las variables no están intercorrelacionadas, entonces el test de Bartlett presenta una nube de puntos en forma de esfera dentro del espacio. El test de esfericidad de Bartlett se basa en que el determinante de la matriz es un índice de la varianza generalizada de la misma. Esto quiere decir que un determinante próximo a cero indica que una o varias de las variables independientes pueden ser expresadas como una combinación lineal de otras variables independientes (Bizquerra: p. 295-296). Para llevar a cabo este análisis es necesario que los datos procedan de poblaciones con distribución normal multivariable. Según Miquel (1996), se pueden dar como válidos aquellos resultados que presenten un valor elevado del análisis y cuya fiabilidad sea menor a 0.05. En nuestro caso dicho análisis presentó una significancia muy inferior al límite de 0.05, pues fue de .000, lo cual nos indica que la matriz de datos es válida para continuar con el proceso del análisis factorial (ver tabla 2).

El tercer análisis a tomarse en cuenta fue el índice “Kaiser – Meyer – Olkin” (KMO), que sirve para comparar las magnitudes de los coeficientes de correlación general o simple con respecto a las magnitudes de los coeficientes de correlación parcial . Si la suma de los coeficientes de correlación parcial elevados al cuadrado entre todos los pares de variables es bajo en comparación con la suma de los coeficientes de correlación al cuadrado, entonces el índice KMO estará próximo a uno y esto se considerará positivo e indicará que se puede continuar con el análisis factorial. Pero si se obtienen valores bajos con el índice KMO, entonces indica que las correlaciones entre pares de variables no pueden ser explicadas por las otras variables, y por lo tanto, no es factible llevar a cabo el análisis factorial ya que el índice KMO se alejará de cero. Esto se debe a que cuando las variables independientes tienen factores comunes, el coeficiente de correlación parcial entre pares de variables es bajo al eliminarse los efectos lineales de las otras variables. En el caso de la matriz de datos que estamos examinando, obtuvimos un KMO de .661. Considerando que los valores oscilan entre 0 y 1, según un baremo para interpretar dichos resultados, el resultado obtenido se considera como mediano o bueno (ver tabla 2).

Un cuarto análisis que se aplicó fue el del coeficiente de correlación parcial, que se utiliza como un indicador que muestra la fuerza de las relaciones entre dos variables eliminando la influencia de las otras variables. Este coeficiente es bajo entre pares de variables si las variables tienen factores comunes, ya que se eliminan los efectos lineales de las otras variables. Las correlaciones parciales representan estimaciones entre factores únicos, los cuales deben estar intercorrelacionados entre sí, y además deben tender a ser próximos a cero cuando se dan las condiciones para el análisis factorial (ver tabla 1.2.). Por otra parte, también existe un coeficiente de correlación parcial que es negativo y se denomina: coeficiente de correlación anti-imagen (“anti-image correlation”). Si la matriz contiene correlaciones anti-imagen, entonces indica que hay un elevado número de coeficientes altos que deben tomarse en cuenta antes de aplicar el factorial. Según Miquel (1996), en la matriz de correlación anti-imagen se deben observar pocos valores elevados en términos absolutos y no debe haber un número elevado de coeficientes ceros, pues de lo contrario se recomienda no llevar a cabo el análisis factorial. En nuestro caso, la matriz de correlación anti-imagen mostró en general valores muy bajos y sólo se detectaron tres valores cero, lo que da un excelente indicador con respecto a la bondad o pertenencia para aplicar el factorial (ver tabla 3.2.).

Otro análisis para comprobar la factibilidad de la aplicación del factorial es la diagonal de la matriz anti-imagen, la cual permite ver el valor de las medidas de adecuación que presenta cada variable y que conocemos como: “Measure of Sampling Adecuacy” (MSA). Este tipo de medida permite comprobar variable por variable, si es adecuado llevar a cabo el análisis factorial. Aquí se toma como valores mínimos y máximos respectivamente el 0 y el 1, siendo tanto mejor cuanto mayor sea el valor del MSA. En el caso de la matriz de correlaciones anti-imagen, de los 21 valores sólo se presentaron dos valores muy bajos que fueron: R35 = .36, y el R14= .26. (tabla 3.2.). Los resultados anteriores proporcionan otro indicador positivo sobre la matriz de datos.

La conclusión sobre la primera etapa del análisis factorial es que se comprueban y superan satisfactoriamente todos los tipos de análisis sobre la pertinencia y validez de la matriz de datos. Dicha matriz quedó conformada por 5 ratios de rentabilidad (R1, R4, R9, R11, R12), 3 ratios de productividad y eficiencia (R13, R14, R15), 5 ratios de liquidez (R28, R30, R35, R36, R38), 1 ratio de cash flow (R50), 5 ratios de solvencia (R51, R52, R56, R57, R58) y 2 ratios de endeudamiento (R64, R70). Como se puede observar los ratios predominantes son los de rentabilidad, liquidez y solvencia. Esto coincide con el marco teórico tradicional de los modelos predictivos que consideran a estos tres factores como los más importantes dentro de la función lineal discriminante.

Con esto podemos proceder a llevar a cabo la segunda etapa que consiste principalmente en la extracción de los distintos factores a través de la agrupación de las 21 variables originales en unas nuevas variables que denominaremos indistintamente como: “componentes” o “factores”, las cuales son combinaciones de las variables originales.


Grupo EUMEDNET de la Universidad de Málaga Mensajes cristianos

Venta, Reparación y Liberación de Teléfonos Móviles
Enciclopedia Virtual
Biblioteca Virtual
Servicios