EL NIVEL DE EDUCACIÓN FINANCIERA DE LOS JÓVENES DE BACHILLERATO Y SU INFLUENCIA EN LA PERCEPCIÓN QUE TIENEN DE LAS INSTITUCIONES FINANCIERAS. UN ESTUDIO EMPÍRICO EN XALAPA, VERACRUZ

EL NIVEL DE EDUCACIÓN FINANCIERA DE LOS JÓVENES DE BACHILLERATO Y SU INFLUENCIA EN LA PERCEPCIÓN QUE TIENEN DE LAS INSTITUCIONES FINANCIERAS. UN ESTUDIO EMPÍRICO EN XALAPA, VERACRUZ

María Teresa de Jesús Zamora Lobato
Universidad Cristóbal Colón

Volver al índice

3.8.- Procedimiento estadístico para análisis de datos
3.8.1.- Análisis exploratorio

En el análisis factorial exploratorio se identifican las medidas del modelo, es decir, el número de factores y sus respectivos indicadores. De acuerdo a la teoría, algunas variables son indicadores de determinados factores. La teoría da la pauta para especificar la estructura del modelo, con el fin de llevarlo al plano confirmatorio, es decir, validar el modelo obtenido para poderlo confirmar a través del uso de ecuaciones estructurales.   

3.8.2.- Estadísticos de prueba para el AFE
Para validar la pertinencia del análisis factorial, se calcula el test de esfericidad de Bartlett, con KMO y la prueba de bondad de ajuste Chi cuadrada X2 con una significancia α=0.01.
Posteriormente se obtiene el valor de las comunalidades y los pesos factoriales para identificar el poder explicativo del modelo (la matriz de componentes y las comunalidades para obtener el eigenvalue y su % de varianza total). 
Una vez obtenidos los primeros datos estadísticos que validen la pertinencia de utilizar la técnica multivariante de análisis factorial con extracción de componentes principales rotados, entonces se sigue el procedimiento propuesto por Carrasco Arroyo (s/f) y reproducido en varios estudios por: García-Santillán, Venegas, Escalera, Córdova (2013), García-Santillán, Venegas y Escalera (2013), García-Santillán, Escalera y Venegas (2013b), Rojas-Kramer; García-Santillán, Fuentes, Benítez and Córdova (2015), con el fin de medir el conjunto de variables aleatorias observadas;  X1 X 2 . . . . . . X401   las cuales se definen en la población que comparten m (m<p) causas comunes para encontrar m+p nuevas variables, mismas que llamaremos factores comunes (Z1, Z2, … Zm).  Además los factores únicos (e1e2 …… ep) con el fin de determinar su contribución en las variables originales (X1  X2 ……..Xp-1  Xp), de ahí se define el modelo a partir de las siguientes ecuaciones:
En donde:
Z1, Z2, … Zm constituyen los factores comunes.
e1e2 …… ep   corresponden a los factores únicos.

Por lo tanto,  e1e2 …… ep tienen influencia en la totalidad de las variables  Xi   ( i=1 ………p)   influencia en Xi(i=1……..p)
Así, el modelo de ecuaciones podemos expresarlo en forma matricial de acuerdo al siguiente:
Por lo tanto, el modelo resultante se puede presentar de manera condensada de la siguiente forma:

Donde se asume que m<p porque se quiere explicar las variables a través de un pequeño número de nuevas variables aleatorias y todos los (m + p) factores son variables correlacionadas, es decir, que la variabilidad que se explica por un factor variable, no tiene relación con los otros factores.

Cabe destacar que cada variable observada del modelo es el resultado de la combinación lineal de cada factor común con diferentes pesos (aia), a esos pesos se les llama saturaciones. Pero una parte de xi no es explicada por factores comunes. Como es sabido, todos los problemas intuitivos pueden ser inconsistentes en la obtención de soluciones y por lo tanto, se requerirá el planteamiento de la hipótesis; de ahí que, en el modelo de factores se utilicen los siguientes supuestos:

H1: Los factores son variables aleatorias tipificadas, e intercorrelacionadas, como:
Además, se debe tener en cuenta que los factores tienen un objetivo principal para estudiar y simplificar las correlaciones entre las variables medidas, a través de la matriz de correlación, entonces, se entendería que:
H2: Las variables originales podrían ser tipificadas por la transformación de estas variables de tipo:
Por lo tanto, y teniendo en cuenta la propiedad de la varianza, se tiene:

Resultando:
Posteriormente, se calculan las saturaciones, comunalidades y la unicidad.
Se denomina saturación de la variable xi en el factor za al coeficiente aia.
Para mostrar la relación entre las variables y los factores comunes se hace necesario determinar el coeficiente A (asumiendo la hipótesis H1 y H2), donde V es la matriz de los eigenvectores o vectores propios y L es la matriz de eigenvalues o valores propios, de ahí que se obtiene:
Lo anterior sugiere que aia coincide con el coeficiente de correlación entre las variables y los factores. En otra idea, para el caso de las variables no estandarizadas A, estas se obtienen de la matriz de covarianzas S, de ahí que la correlación entre xi y za es el cociente:

Por lo tanto, la varianza de los factores ai es resultado de la suma de las saturaciones al cuadrado de ai , columna A de la fórmula (7):
Considerando que:
Respecto a las comunalidades, estas se definen a partir del siguiente teorema:
Las comunalidades representan  el porcentaje de la varianza de cada variable (i) y es explicada por m factores.
Por lo tanto, a cada coeficiente  se le denomina especificidad de la variable.  De ahí que el modelo que se tenía en forma matricial  X=AZ+x,x (matriz de factores únicos), Z (matriz de factores comunes) será menor a partir de que sea mayor la variación explicada por los m factores comunes. Ahora bien, si se trabaja con variables tipificadas y las propiedades de la varianza referida anteriormente, ahora se tiene:

Cabe recordar que la varianza de cualquier variable, es el resultado de sumar sus comunalidades y su unicidad , por lo tanto, en función del número de factores obtenidos, habrá una parte de la variabilidad de las variables originales que no son explicadas y corresponderán a un residuo (factor único).

Posteriormente, con base en la matriz de correlaciones entre las variables i and i, se obtiene ahora:

De igual forma se sabe que:

A partir de las hipótesis iniciales se tiene entonces que:

Si se desarrolla el producto, se tiene que:

A partir de la esperanza matemática y al ser los factores incorrelacionados (hipótesis de partida) se encuentra que:

La varianza de la variable i-ésima, viene dada por la expresión:
Si se toma de nuevo la hipótesis de inicio, se podrá probar la expresión que previamente se había indicado:
De esta forma podemos comprobar cómo se divide la varianza en dos partes: las comunalidades (que es la proporción de la varianza) y la unicidad, que es la varianza residual no explicada por el modelo.  De ahí es posible decir que la forma de la matriz es: R=AA’+x   donde R*=R-x2 .

R * es una matriz de correlación reproducida, obtenida a partir de la matriz R
                                    La identidad fundamental es equivalente a la siguiente expresión: R * AA '. Por lo tanto, la matriz de correlación de la muestra es un estimador de la matriz de AA’. Mientras por su parte, aia coeficientes de saturación de las variables en los factores deben verificar esta condición, que por cierto, no es suficiente para determinarlos.

Cuando el producto es estimado AA ', diagonalizamos la matriz reducida de correlación, mientras que una solución de la ecuación sería: R-x2 =R*=AA’ es la matriz A, cuyas columnas son los autovectores normalizados de R *. A partir de esta matriz reducida, a través de una diagonal como instrumento matemático, se obtienen a través de vectores y valores propios, los ejes de los factores.
           
3.8.3- Viabilidad o pertinencia del Análisis Factorial   
           
Para validar la pertinencia para utilizar la técnica factorial, es necesario diseñar la matriz de correlación de la muestra R, a partir de los datos obtenidos. También se realizan pruebas de hipótesis previas para determinar la pertinencia del modelo de factores, es decir, si es apropiado para analizar los datos con este modelo.

Es importante realizar la prueba de esfericidad de Bartlett. Se trata de determinar si existe una estructura de relación o no entre las variables originales. La matriz de correlación R indica la relación entre cada par de variables (rij) y su diagonal se compone de unos (1). En consecuencia, si no hay relación entre las variables h, entoncestodos los coeficientes de correlación entre cada par de variable serían cero.

Por lo tanto, la matriz de correlación poblacional coincidiría con la matriz identidad y su determinante sería igual a uno “1”.  
            Si los datos son una muestra aleatoria procedente de una distribución normal multivariante, entonces bajo la hipótesis nula, el determinante de la matriz será 1 y se demuestra que el estadístico…

... se distribuye asintóticamente como una  χ2 con p(p-1)/2 grados de libertad. En el caso de que se acepte la hipótesis nula carecería de sentido realizar un análisis factorial.

 Otro índice de idoneidad de la aplicación del AF es el contraste de Kaiser-Meyer-Oklim. Consiste en comparar los coeficientes de correlación y los coeficientes de correlación parcial. Esta medida se denomina “adecuación muestral” (KMO), y puede obtenerse para el conjunto o para cada variable (MSA). 
Dado que el coeficiente de correlación parcial nos indica la correlación existente entre dos variables una vez que se han eliminado los efectos lineales de las demás variables. En un AF se pueden interpretar esos efectos de las otras variables como los correspondientes a los factores comunes. Por lo tanto, el coeficiente de correlación parcial entre dos variables sería equivalente en este contexto, al coeficiente de correlación entre los factores únicos específicos de cada dos variables. 

 De acuerdo con las hipótesis de partida, los factores únicos están incorrelacionados, los coeficientes de correlación parcial constituyen una aproximación a los teóricos y serán prácticamente cero. 

            La medida de adecuación se expresa como:
Donde: rij (p)  es el coeficiente parcial de la correlación entre las variables  Xi y Xj en todos los casos.

            De esta manera, para medir los obtenidos en la aplicación del instrumento, se sigue el procedimiento utilizado por García-Santillán, Venegas-Martínez y Escalera-Chávez (2013), de ahí que se tiene la siguiente matriz de datos:

3.8.4.- Región de Aceptación o Rechazo en el análisis Factorial
Para medir los datos y poner a prueba la hipótesis (Hi) sobre el conjunto de variables que conforman el constructo sobre educación financiera (ingreso, administración del dinero, ahorro e inversión, gasto y crédito), se parte de la hipótesis: Ho: ρ = 0 no tienen correlación Ha: ρ ≠ 0 tienen correlación.

La prueba estadística: χ2, y el test de esfericidad de Bartlett, KMO (Kaiser-Meyer-Olkin), MSA (Medida adecuación de la muestra), con nivel de significancia: α = 0,05; p <0,05 carga factorial 0,70 valor crítico  χ2 calculada > χ2 tablas, entonces la regla de decisión es: Rechazar Ho si χ2 calculada > χ2 tablas.

Lo anterior se da a partir de la siguiente ecuación:

Donde F1. . . Fk (K << p) son factores comunes, u1,.... up son factores específicos y los coeficientes  son la carga factorial. Se asume que los factores comunes han sido estandarizados o normalizados E(Fi) = 0, Var (fi) = 1, los factores específicos tienen una media igual a cero y ambos factores tienen correlación Cov(Fi,uj) = 0, j=1,….,p.  

Con la siguiente consideración: si los factores se correlacionan (Cov (Fi, Fj) = 0, si i ≠ j, j, i = 1, ... .., k), entonces se trata de un modelo con factores ortogonales, de lo contrario, si no están correlacionados, es un modelo con factores oblicuos.

De ahí que la expresión puede ser expresada de la siguiente forma:
Donde:

Con varianza igual a:
Donde: 
            Esta ecuación corresponde a las comunalidades y la especificidad de la variable Xi. Así, la varianza de cada variable se puede dividir en dos partes: a) en sus comunalidades hi2 que representa la varianza explicada por factores comunes, y b) la especificidad YI que representa la varianza específica de cada variable.
           
            Obteniendo así:

              Con la transformación del determinante de la matriz de correlaciones, obtenemos el test de esfericidad de Bartlett, el cual está dado por la siguiente expresión:
Posterior al análisis factorial exploratorio, en donde se buscó reducir el número de factores y definir el modelo final ajustado, se procedió al análisis de los datos y las correspondientes conclusiones y recomendaciones.