BIBLIOTECA VIRTUAL de Derecho, Economía y Ciencias Sociales

DESARROLLO DEL ANÁLISIS FACTORIAL MULTIVARIABLE APLICADO AL ANÁLISIS FINANCIERO ACTUAL

Alberto Ibarra Mares


 


Esta página muestra parte del texto pero sin formato.

Puede bajarse el libro completo en PDF comprimido ZIP (211 páginas, 1.08 Mb) pulsando aquí

 

 

CAPITULO IV

1. ETAPA PREDICTIVA A TRAVÉS DE MODELOS MULTIVARIABLES CON BASE HISTÓRICA: DEVENGO

La teoría de la solvencia inicialmente tomó como fundamento la metodología de los ratios y pasó a enriquecerse con los métodos estadísticos multivariables, que junto al desarrollo del software estadístico (SPSS, SAS, BMPD, LISREL, SPAD, etc.) proporcionaron al investigador instrumentos más potentes y eficaces para intentar llegar a predicciones más confiables. Además, en el ámbito mundial con el progreso en los trabajos de armonización de los principios de contabilidad generalmente aceptados, las normas y procedimientos de auditoría, y la institucionalización de comités internacionales para la elaboración de información económica y financiera (que tratan de homologar más los criterios para su presentación a partir de la segunda mitad de la década de los setenta), se mejoraron en varios casos las bases de datos que modificaron a su vez el diseño de los modelos y los resultados de los indicadores para predecir las quiebras, tal es el caso de los trabajos que utilizaron estados financieros basados en la contabilidad del cash flow.

Los estudios y metodologías utilizadas en las investigaciones de predicción de quiebras fueron incrementando su complejidad desde los trabajos pioneros de Beaver (1966,1968). Los estudios univariantes, basados principalmente en mediciones múltiples de la solvencia y otras importantes medidas de la posición financiera y resultados de las empresas, habían representado un camino mejor para la predicción de quiebras al lograr el modelo de Beaver alcanzar una exactitud en las clasificaciones hasta del 87%. Sin embargo, los posteriores modelos multivariables fueron superando la exactitud de las clasificaciones univariables al ser más precisos los ratios y obtener porcentajes más altos en modelos como los de Altman y Blum (95%), Edmister (93%), Ohlson (96%), Deakin (97%) y Rose y Giroux (92%).

Algunos de estos estudios, como los de Altman (1968), lograron reducir el número de ratios utilizados en las investigaciones univariantes al aplicar el método Multiple Discriminant Analysis: MDA. Otros estudios se distinguieron por utilizar otras técnicas de análisis multivariable como: el análisis discriminante lineal, el análisis discriminante cuadrático, el análisis de regresión, el análisis de componentes principales, el análisis factorial (para explicar la varianza de los ratios), el análisis cluster (para reducir la colinealidad), el análisis con redes neuronales, y el análisis de probabilidad condicional Logit y Probit (los cuales constituyen una mejor variante de la regresión, ya que sí permiten definir a la variable dependiente cualitativa como dicotómica o categórica).

El análisis multivariable parte de la idea de que la predicción de quiebras es un tema complejo y la investigación aplicada a fenómenos complejos requiere de un análisis dirigido a una considerable cantidad de variables (n > 1). Son las técnicas multivariables las que se aplican a esa diversidad de variables mediante el tratamiento multidimensional de los datos.

Con respecto al término de “Multivariate Analysis”, según Bizquerra (1989: p.2) este se introdujo en la lengua española de tres maneras distintas, aunque su significado no varia:

a) Análisis Multivariable: este término se utiliza generalmente en economía, sociología o psicología.

b) Análisis Multivariante: utilizado en bioestadística o biología.

c) Análisis Multivariado: utilizado en psicología o educación.

En cuanto a su significado, el análisis multivariable es un conjunto de técnicas estadísticas que analizan simultáneamente más de dos variables en una muestra de observaciones (Kendall: 1975). Para Cuadras (1981: p.3) esta técnica estudia, interpreta y elabora el material estadístico sobre la base de un conjunto de n >1 variables, las cuales pueden ser de tipo cuantitativo, cualitativo o una combinación de ambas.

Una de las aplicaciones principales del análisis multivariable dentro del campo de las ciencias sociales, consiste en resumir y sintetizar grandes conjuntos de datos y variables en función de ciertos objetivos para obtener información válida que logre una mejor comprensión del fenómeno objeto de estudio (Bizquerra:1989, p.1).

En general cualquier análisis simultáneo de más de dos variables es parte del análisis multivariable, sin embargo, dentro del análisis existen diversos y variados métodos que pueden ser empleados de diferentes formas (según sean los datos de entrada y los resultados a obtener o salidas). Según Ortega (1984: p. 406), el resultado de dichas aplicaciones da la posibilidad al usuario de clasificar las situaciones y variables, mediante la obtención de relaciones entre esas variables en términos de influencia sobre los factores incontrolables por parte de la empresa, es decir, este análisis se establece a partir de numerosos datos, relaciones y leyes operativas; investiga estructuras latentes (ocultas), y ensaya diversas formas de organizar dichos datos en estructuras conocidas y fácilmente utilizables en dos sentidos: a) Transformándolos y presentándolos bajo una forma nueva; y b) Reduciéndolos sin perder demasiada información inicial, para constituir un resumen relativamente exhaustivo del conjunto de partida que es habitualmente complejo y con informaciones redundantes.

Los orígenes del análisis multivariable se encuentran en las primeras generalizaciones de la correlación y regresión, en donde se establecieron las primeras ideas del análisis de componentes principales (Pearson; 1901 y Spearman; 1904). Pero el establecimiento definitivo de la mayoría del análisis multivariable se ubica en los años treinta con los estudios de Hotelling (1931, 1933); Willes (1932, 1935); Fisher (1935, 1936); Mahalanobis (1936) y Bartlett (1939).

Bizquerra (1989: p.9), citando a Prieto (1985), indica que el análisis multivariable distingue entre métodos predictivos y métodos reductivos. Los primeros identifican a un grupo de variables predictoras o independientes; un criterio o variable dependiente, y en ocasiones a variables intervinientes cuyo efecto se desea mantener bajo control. Sin embargo, el problema radica en especificar las dependencias significativas entre los dos primeros tipos de variables. Con respecto a los métodos reductivos, estos analizan las interdependencias entre todas las variables con el objeto de reducir al mínimo el número de variables necesarias para describir la información relevante contenida en las observaciones.

En cuanto al desarrollo y maduración de los fundamentos del análisis multivariable, este se debe a los pioneros de la estadística moderna que fueron los ingleses (Galton, Pearson, Fisher, Snecodor, etc.) Posteriormente, el centro de gravedad se desplazó hacia los Estados Unidos (Hotelling, Wilks, Bartlett, etc.), aunque sin dejar de considerar las aportaciones que se dieron con el nacimiento de otras escuelas tan importantes como la escuela india (Mahalanobis, Roy, Krishnaah, etc.); la escuela francesa surgida en los años sesenta (Benzecri, Lebart, Morineau, Fenelon, etc.) y la escuela sueca surgida en los años setenta (Jöreskog y Sörborn).

EL MODELO ALTMAN (1968)

A partir de 1968 y como consecuencia de los estudios de Beaver, varios investigadores comenzaron a trabajar con modelos multivariables con el objetivo de poder determinar con más precisión qué empresas se dirigían hacia la quiebra y cuales otras no. Entre estos estudios destacan los conducidos por Edward Altman de la Universidad de Nueva York (1968, 1977, 1978, 1979, 1981, 1984, 1988, 1993, 1994a, 1994b, 1995, 1996, etc.) el cual amplió el análisis univariable al introducir por primera vez múltiples predictores de quiebra mediante el Análisis Discriminante Múltiple (MDA). A través de los años Altman ha llegado a ser considerado por gran número de expertos como el investigador que más ha contribuido al desarrollo de la relativamente nueva teoría de la solvencia, sobre todo al haber creado el modelo original de la “Z-Score” (1977).

Actualmente las grandes empresas, y sobretodo las financieras, utilizan el “Zeta Credit Risk System” o “Zeta Credit Scoring Model” que fue producto de su investigación y que continua desarrollando la “Zeta Services Inc.”, una de las principales firmas que comercializa sistemas que contribuyen a la investigación del análisis del fracaso empresarial en los Estados Unidos. Otras que también son muy importantes son: “ Advantage Financial Systems” (Boston); Trust Division of the First Union Bank” (Carolina del Norte); “Datastream” (Reino Unido); “Performance Analisys Services Ltd” (Reino Unido).

En 1984 a través de la revista “ Studies in Banking and Finance” (North Holland; Vol. 8, No.2), Altman editó una serie de 20 artículos que intentaron perfeccionar el modelo para medir el riesgo de las compañías (“Company and Country Risk Models”). Estos estudios se hicieron en países altamente industrializados como: Alemania, Australia, Francia, Italia, Israel, Japón y el Reino Unido. Para 1988, en esta misma revista (Vol. 7) se volvieron a editar otras investigaciones realizadas en países con economías emergentes tales como: España, Finlandia, Grecia, India, Malasia, Singapur, Turquía y Uruguay. Sin embargo, para esas fechas únicamente las autoridades de Malasia estaban utilizando el modelo predictivo de Altman con una base de datos en tiempo real.

Posteriormente, durante sus investigaciones en México con Hartzcel y Peck (1995), Altman adaptó el modelo original de su Z-Score para economías emergentes con el fin de proponer un nuevo indicador global predictivo exclusivo para este tipo de mercados. A este nuevo indicador lo denominó: “Emerging Market Scoring Model” (EMS Model) .

Según el propio Altman, lo anterior obedeció al hecho de que para el otorgamiento de créditos en los mercados emergentes, el análisis financiero tradicional debería de realizarse de forma similar a como se hace, por ejemplo, en los Estados Unidos. Sin embargo, este autor reconoció que la realidad indicaba que en los países emergentes existía una serie de riesgos adicionales cuantitativos que el análisis tradicional no consideraba. Tal era el caso del riesgo de la moneda y el riesgo industrial que impedia frecuentemente construir un modelo específico para la muestra de empresas ubicadas en las economías emergentes. A partir de esto propuso que el tipo de análisis tenía que modificarse.

En general los trabajos de Altman se fueron desarrollando bajo un nuevo entorno tecnológico que se inició a finales de los años sesenta cuando se contó con un uso más significativo de las computadoras y el grado de maduración de las escuelas estadísticas repercutió directamente en el desarrollo de las técnicas multivariables. Por eso Altman consiguió resultados sorprendentes al aprovechar las ventajas del análisis tradicional de ratios sin fundamentos simplistas y combinándolos con las técnicas estadísticas más sofisticadas.

En su primer estudio multivariable relacionó un conjunto de variables mediante una función que explicará su comportamiento y se orientaran principalmente a la predicción de quiebras. Concluyó que existen relaciones entre los ratios financieros, y que el uso de un sólo ratio como indicador de empresas fracasadas, es susceptible de interpretación defectuosa o errónea si el ratio en cuestión es disfrazado por otros ratios, los cuales pueden indicar una gran diferencia de probabilidad de quiebra. Por ejemplo, decía, si nos guiamos sobre un ratio de circulante "sano" e ignoramos un ratio "pobre" de pasivo / activo, o cash flow, puede conducir a predicciones incorrectas acerca del futuro de la empresa. Con respecto a las decisiones incorrectas, para él estas tendían a ser menos probables de realizarse si estaban basadas sobre el análisis simultáneo de varios ratios que midieran diferentes aspectos de la salud financiera de la empresa.

Altman al aplicar el MDA sobre las bases de datos contables sintetizadas en ratios financieros, desarrolló la función lineal con una serie de variables explicatorias para clasificar o predecir el valor de una variable dependiente cualitativa, como por ejemplo, “quiebra” o “no quiebra”. Aquí la definición de la variable dependiente se basó en el hecho de que la empresa estuviera en un procedimiento concursal, es decir, amparada sobre el Capítulo X del “National Bankruptcy Act” de los Estados Unidos.

Para su investigación de 1968 seleccionó una submuestra de 33 empresas que fueron a la quiebra y otra submuestra de 33 empresas sin quiebra de tamaño medio y del sector manufacturero que cotizaban en la bolsa de valores durante el período de 1946-1965. La selección de la muestra se hizo de acuerdo a dos criterios que fueron: a) considerando el tipo de industria al que pertenecía la empresa; y b) de acuerdo al tamaño de los activos de la empresa. La media del tamaño de los activos de las empresas fracasadas muestreadas fue de 6.4 millones de dólares, con un rango entre los 700 mil hasta los 25.9 millones de dólares. La media de los activos de las empresas sanas que continuaban operando hasta 1966 fue de 9.6 millones de dólares, cuyos rangos se ubicaron entre 1 a 25 millones de dólares.

Posteriormente, cada empresa fracasada fue emparejada con otra no fracasada, considerando la homogeneidad entre su tamaño y sector, pues se trató de evitar los efectos de distorsión de ambos factores en los resultados.

Para la selección de las variables independientes, inicialmente Altman integró un grupo de 22 ratios que fueron aplicados a ambas submuestras de empresas. La selección de dichos ratios estuvo basada sobre los siguientes tres criterios:

a) Por su popularidad dentro de la literatura.

b) Por su relevancia potencial para el estudio.

c) Por la forma innovadora que presentaron algunos ratios en el análisis.

Los 22 ratios fueron reducidos a cinco factores que median: la rentabilidad, actividad, liquidez y solvencia. Este último factor (variable independiente X4) era en realidad el apalancamiento financiero, pues se refería a aquellas operaciones financieras rentables efectuadas con prestamos (relación deuda / capital propio; o la relación endeudamiento / medios propios) Es decir, se trataba de la compra de activos a cambio de emisión de obligaciones.

Para Altman los cinco factores mostraron ser las mejores combinaciones para el discriminante entre empresas en quiebra y empresas sin quiebra. Sin embargo, este autor no indicó con base a que dividió en cinco categorías su modelo, y si en realidad dichas categorías eran las más representativas en su conjunto e independientes entre sí para predecir una quiebra. También en su primer trabajo llama la atención que de los veintidós ratios seleccionados no se consideró al ratio de cash flow / deuda total, el cual había proporcionado buenos resultados de clasificación en los estudios de Beaver y en otros trabajos posteriores. Según Altman, esto se debió a la dificultad que existió para obtener bases de datos que incluyeran la amortización.

Con respecto a las bases de datos, y que constituyen una de las principales críticas a su primer trabajo, Altman seleccionó los estados financieros del “Moody´s Industrial Manual” del último cierre de ejercicio antes de la solicitud de quiebra. El promedio entre la fecha de cierre y la solicitud de quiebra fue de 7.5 meses. Para algunos analistas, la no contemplación del problema del retraso en la disponibilidad de datos dio como resultado que el plazo medio de tiempo representativo de un año previo al fracaso fuera inferior con respecto al de otros trabajos en donde se consideró como último año, aquel cuyos estados financieros resultaron disponibles con anterioridad. En cuanto al proceso de su investigación, ésta involucró las siguientes cuatro etapas:

1. Observación de la significancia estadística de varias combinaciones de ratios incluyendo las contribución estadística relativa de los ratios individuales.

2. El análisis de intercorrelaciones entre ratios.

3. El análisis de la exactitud de predicción de varias combinaciones de ratios.

4. El juicio del análisis sobre los resultados obtenidos.

Este proceso dio como resultado la inclusión de los cinco ratios en la función discriminante con los que Altman construyó la puntuación “Z-Score”, que es considerada por gran número de académicos como uno de los mejores modelos teóricos de predicción de quiebras (ver cuadro 2.6.).

El análisis discriminante múltiple fue seleccionado como el método de análisis estadístico. La primera ventaja de utilizar el MDA sobre el análisis univariable es que el primero analizaba el perfil completo de las características simultáneamente y no sólo individualmente.

La experiencia con este modelo llevó a su autor a la conclusión de que puntuaciones Z-Scores inferiores a 1.81 indicaban una probabilidad elevada de quiebra. En cambio, puntuaciones superiores a 3.00 indicaban una escasa probabilidad de quiebra. Altman denominó "la zona de ignorancia" al rango comprendido entre 1.81 y 2.99.

Al analizar a las empresas que cayeron dentro de la zona de ignorancia, Altman razonó que utilizando una Z-Score de 2.675 daba como resultado el número más bajo de errores para clasificar a una empresa entre quiebra y no quiebra. Según él, este punto medio de la Z-Score podía tener aplicaciones prácticas para la evaluación de los préstamos, pues indicaba cuales empresas presentan poca capacidad de evaluación y cuales empresas garantizaban una capacidad de evaluación adicional por su posición fuera de la zona de ignorancia.

Respecto a los porcentajes de error de clasificación, obtuvo en promedio un 5% para un año previo a la quiebra (tipo I = 6%; tipo II = 3%); un 17 % para dos años previos (tipo I = 28 %, y tipo II = 6 %). Sin embargo, para el tercero, cuarto y quinto año, los porcentajes de error se incrementaron significativamente, obteniéndose 52 %, 71 % y 14 % respectivamente.

Después de obtener estos resultados, Altman seleccionó una segunda submuestra de validación compuesta por 25 empresas en quiebra, las cuales dieron como resultado un porcentaje de error general de sólo el 4% un año previo a la quiebra. Para otra submuestra de 66 empresas fracasadas, aunque esta vez estas no estaban en quiebra, sino sólo con agudos problemas financieros, se obtuvo un porcentaje de error del 21%, cinco años previos a la quiebra.

Volviendo a la muestra inicial, en donde obtuvo el 95 % de aciertos un año previo a la quiebra, el cuadro 2.7. nos permite ver el comportamiento de los años siguientes. Según Altman, su modelo predictivo proporcionaba un pronóstico más exacto hasta dos años previos a la quiebra, pero conforme pasaban los años la exactitud tendía a perderse.

Es muy importante hacer notar que para Altman la cuestión principal no radicaba en si la empresa tenía que acabar forzosamente fracasando por tener unos niveles determinados en sus ratios, sino la importancia de su modelo radicaba en si sus síntomas eran similares a los de otras empresas que sí avanzaban o terminaban en un proceso de fracaso. Es decir, el modelo predictivo de Altman era de alerta y previsión.

Altman al defender su modelo hizo varias observaciones a otros trabajos como el de Deakin (1972), en el sentido de que éste construyó una función discriminante para cada año, en lugar de desarrollar la misma función del primer año con las bases de datos de los otros años previos al fracaso.

En general, los críticos del modelo Altman señalaban que las variables independientes del modelo inicial no eran las más representativas. De ahí que posteriores estudios al seleccionar las variables independientes se apoyasen más en el trabajo de Beaver, y únicamente para el aspecto metodológico se tomaba como referencia a Altman.

Por ejemplo, la variable X5 propuesta por Altman y que se refiere al factor de rotación o eficiencia global de activos (ventas / activo total) fue considerado como un ratio no significativo en los modelos univariables, pues apenas tenía capacidad de discriminación. En cambio, en los modelos multivariables representaba la segunda variable independiente más importante de la función. Según Joy Tolleferson, esto se debía a un defecto metodológico en la medición correspondiente a las contribuciones individuales que son deducidas mediante los valores de los coeficientes estandarizados.

También se cuestionaba mucho el problema que presentaba la variable X4 en aquellas empresas que no cotizan, pues varios analistas opinaban que al no cotizar en Bolsa la mayoría de las firmas, la función era poco práctica al requerir indicadores del mercado de valores. Con respecto a la X4, Lizarraga (1993) opinó que existían dos importantes situaciones que fueron: a) El ratio X2 (beneficios retenidos / activo total), que recogía el tipo de información de la X4; y b) el ratio X4 que no representaba un verdadero indicador del endeudamiento, a excepción de aquellas empresas que tuvieran una gran dependencia del mercado de valores y dada su volátil cotización podría desvirtuar el sentido del ratio. Algunos estudios como los de Moyer (1977) habían logrado en la reestimación eliminar a las variables X4 y X5.

Altman propuso entonces cambiar a datos contables el numerador de la variable X4 para aquellas empresas que no cotizaran en la bolsa y revisar la variable X5 para su posible eliminación del modelo. A partir de las observaciones de Jhonson (1970) y Moller (1977), Altman llegó a comprender algunas limitaciones y defectos en su modelo; sobretodo en lo tocante a lo polémica sobre la capacidad predictiva.

Otras desventajas del modelo, según Jhonson (1970), se referían a la poca capacidad de los ratios financieros para llevar predicciones “ex ante”. En cambio, cuando las predicciones eran “ex post”, el modelo Altman tendía a ser más exacto y se reconocían más las causas del fracaso a través de los estados financieros. Sin embargo, el modelo no por eso podía diferenciar realmente a las empresas que iban a fracasar, ya que no todas las clasificadas como fracasadas llegaban a su fin.

El modelo predictivo también tenía poca capacidad para captar la dinamicidad del proceso del fracaso empresarial, y los ratios por sí solos no tenían la capacidad para describir el proceso dinámico de la quiebra, pues éste hecho hasta la fecha es muy complejo en términos cuantitativos y cualitativos. Tradicionalmente los ratios sólo habían servido para los análisis comparativos estáticos. El mismo Altman reconoció el problema del dinamismo en estos modelos.

En general, los modelos como los de Altman, aunque habían demostrado que las empresas fracasadas y las sanas presentaban ratios diferentes, no habían demostrado estos concluyentemente que tuvieran poder predictivo (Jhonson 1970: p. 1168).

En cuanto a la variable dependiente, existía la polémica sobre la necesidad de delimitar la definición de fracaso, pues si sólo se incluía un término, esto producía continuos errores de estimación en el modelo. Por otra parte, si la definición se ampliaba a varios términos, entonces el modelo era más exacto estadísticamente pero más subjetivo para el mundo real.

MODELO ALTMAN, HALDEMAN Y NARAYAMAN (1977)

Interesado en superar y perfeccionar su modelo, en 1977 Altman llevó a cabo una nueva investigación junto con Robert Haldeman y Paul Narayaman para actualizar su modelo original. Para ello consideraron los importantes cambios que se habían producido en las finanzas empresariales y en la nueva tecnología; y partieron sobre la base de que eran cinco las principales razones que tomarían en cuenta para mejorar el modelo:

1. Investigar por qué cada vez había más fracasos en las empresas grandes (las cuales habían cambiado tanto en su tamaño como en su estructura financiera).

2. Considerando la naturaleza temporal de las bases de datos, se establecía la necesidad de actualizar constantemente el modelo.

3. Querían investigar si era importante recurrir a las notas de los estados financieros para llevar a cabo los correspondientes ajustes contables, producto de las nuevas normas y principios generalmente aceptados en la contabilidad, con el objetivo de mejorar las bases de datos utilizadas en los modelos.

4. Comparar en qué medida se podía incluir en el modelo, tanto empresas comerciales como industriales, sin perder por ello exactitud en la capacidad predictiva.

5. Revisar parte de la metodología del análisis discriminante para mejorar le técnica y la validez estadística de sus interpretaciones.

Para esta nueva investigación, Altman et. al. seleccionaron siete variables independientes que proporcionaron una clasificación eficiente en la muestra original o de estimación, y que posteriormente mejoró la clasificación en la muestra de validación. Dichas variables fueron las siguientes:

X1= beneficios antes de intereses e impuestos / activo total. Esta variable coincidía con la variable X2 de su modelo anterior.

X2= estabilidad de las ganancias. Se calculaba mediante una medida normalizada del error estándar a lo largo de la tendencia de diez años correspondiente a la variable X1 de su modelo anterior.

X3= ratio de cobertura de intereses (beneficios netos de intereses e impuestos / gastos financieros por intereses). A pesar de su gran potencial informativo este ratio no había sido contrastado en trabajos anteriores.

X4= ratio de rentabilidad acumulada (beneficios retenidos / activo total). Este ratio coincidía con la variable X3 de su modelo anterior.

X5= ratio de circulante (activo circulante / pasivo circulante). En su modelo original utilizó un ratio distinto como medida de liquidez (capital circulante / activo total). Sin embargo, existen opiniones que continúan considerando a ambos ratios de liquidez como información que no es importante para el modelo, pues algunos autores opinan que más que medir la liquidez se tiene que medir “la falta de liquidez” dadas las características particulares de la población muestral. Por eso se continúa especulando si la liquidez es un factor importante en el análisis predictivo.

X6= ratio o indicador de capitalización = fondos propios/ fondos totales (pasivo + capital contable). Aquí los fondos propios fueron medidos tanto en el numerador como en el denominador, a través de su valor medio de mercado a lo largo de cinco años. Nuevamente incluyó un valor de mercado, aunque en esta ocasión consideró los datos de varios años. Se puede decir que intentó perfeccionar su variable X4 de su modelo anterior.

X7= tamaño de la empresa (total de activos intangibles). Altman et. al. no quisieron eliminar el efecto que tiene el tamaño de la empresa para la capacidad predictiva, por eso establecieron este concepto como una variable independiente.

Este nuevo modelo dio como resultado una alta capacidad predictiva de más del 89 % para las empresas sanas y del 96 % para las empresas fracasadas dentro de la muestra de estimación, un año previo a la quiebra. Además, los resultados lograron aumentar la unidad temporal de la anticipación predictiva en la muestra de validación a través del método “Lachenbruch”, que incrementó de dos años obtenidos en el modelo original hasta los cinco años previos a la quiebra. Con esto también se mejoró el porcentaje de exactitud predictiva, siendo del 82.10 % para las empresas sanas y del 69.80 % para las empresas fracasadas, cinco años previos al evento.

Los resultados de la muestra de estimación (“Lachembruch”) fue realizada por Lizarraga (1993) con base al modelo Altman, Haldeman y Narayanan (1977).

Con esta nueva investigación, Altman nuevamente propuso, ahora con sus compañeros, importantes innovaciones para los modelos. Primero sugirió integrar de forma explícita las probabilidades poblacionales previas, pues consideró que el análisis discriminante derivado a partir de una muestra, debía tener en cuenta las probabilidades reales de pertenencia de un individuo a cada uno de los grupos existentes en la población. En el caso de las empresas, la probabilidad de que fracasen era significativamente menor en comparación con su continuidad, incluso en épocas de crisis.

Con base a lo anterior, se puede deducir que en la práctica siempre se presentará una desigualdad importante entre las dos submuestras de empresas, pues no existe una relación de igualdad probabilística previa de pertenencia a cada submuestra de uno a uno.

Otro aspecto importante que tuvieron en cuenta para el nuevo modelo fueron los costes de error. Opinaron que la subjetividad era mayor con respecto a las probabilidades poblacionales, pues dichos costes, dependen de quién es el usuario que aplica el modelo.

Al incluir tanto las probabilidades poblacionales previas como los costes de error en el análisis discriminante, las “Z-Scores o “puntos de corte” seleccionados al principio para la clasificación se modificaron y condicionaron directamente los porcentajes de error. Sin embargo, se desconocen tales modificaciones, pues en esta ocasión por razones de comercialización, Altman et. al. no hicieron públicos los coeficientes, sino únicamente las variables independientes.

De ahí que algunos investigadores opinen que en esta ocasión la interpretación estricta sobre la importancia relativa de las variables independientes no constituyó el objetivo principal de su estudio, sino que se enfocó más bien a mostrar las comparaciones de los diferentes resultados a través de diversas alternativas. Al contrario de otros trabajos posteriores que asesoró Altman, aquí no tomó en cuenta la influencia del sector industrial, e incluso en la muestra incluyó tanto empresas industriales como manufactureras. Según sus conclusiones, dicha combinación no afectó negativamente a la eficiencia del modelo.

En general, el modelo Altman se puede considerar como un método para evaluar el riesgo, el cual ha sido definido por su compañía como “la incapacidad de una empresa para hacer frente a sus pasivos”. Aquí la Z-score indica en qué medida la empresa analizada se parece a otras que han incumplido sus créditos y que es muy posible que entren a un procedimiento concursal, pero su fin no está dirigido a la predicción del fracaso empresarial futuro, es decir, en la práctica el modelo de Altman se ha diseñado específicamente para comparar las características financieras y operativas de las empresas con las de un gran número de empresas que han fracasado.


Grupo EUMEDNET de la Universidad de Málaga Mensajes cristianos

Venta, Reparación y Liberación de Teléfonos Móviles
Enciclopedia Virtual
Biblioteca Virtual
Servicios
 
Todo en eumed.net:

Congresos Internacionales


¿Qué son?
 ¿Cómo funcionan?

 

15 al 29 de
julio
X Congreso EUMEDNET sobre
Turismo y Desarrollo




Aún está a tiempo de inscribirse en el congreso como participante-espectador.


Próximos congresos

 

06 al 20 de
octubre
I Congreso EUMEDNET sobre
Políticas públicas ante la crisis de las commodities

10 al 25 de
noviembre
I Congreso EUMEDNET sobre
Migración y Desarrollo

12 al 30 de
diciembre
I Congreso EUMEDNET sobre
Economía y Cambio Climático

 

 

 

 

Encuentros de economia internacionales a traves de internet


Este sitio web está mantenido por el grupo de investigación eumednet con el apoyo de Servicios Académicos Internacionales S.C.

Volver a la página principal de eumednet