BIBLIOTECA VIRTUAL de Derecho, Economía y Ciencias Sociales

DESARROLLO DEL ANÁLISIS FACTORIAL MULTIVARIABLE APLICADO AL ANÁLISIS FINANCIERO ACTUAL

Alberto Ibarra Mares


 


Esta página muestra parte del texto pero sin formato.

Puede bajarse el libro completo en PDF comprimido ZIP (211 páginas, 1.08 Mb) pulsando aquí

 

 

3. ALGUNOS ESTUDIOS DE PAÍSES DESARROLLADOS BASADOS EN EL MODELO ALTMAN

MODELO DEAKIN (1972, 1977)

Edward B. Deakin (1972), profesor asistente de la Universidad de Austin Texas, combinó en su trabajo las investigaciones de Beaver y Altman dentro de un único estudio para desarrollar un modelo alternativo del fracaso empresarial. Este investigador consideró que el modelo univariable de Beaver obtuvo mejores resultados predictivos a través de la eficiencia de algunos de los ratios contrastados con el modelo multivariable de Altman, pero que el método utilizado por Altman tenía más atracción intuitiva (Altman: p. 167).

Primeramente Deakin intentó combinar los aspectos más interesantes de ambos modelos y partiendo de la misma hipótesis teórica, reprodujo el estudio de Beaver (1968), utilizando las mismas variables explicativas. Posteriormente, utilizó la metodología del MDA de Altman para investigar las combinaciones de los 14 ratios de Beaver, los cuales podrían ser los mejores predictores de una quiebra dentro de una combinación lineal de ratios.

Deakin seleccionó 32 empresas fracasadas, las cuales estaban en “quiebra”, “insolventes” o en “liquidación para cubrir sus deudas con los acreedores”, durante el período 1964-1970. También integró una muestra de control de 32 empresas sin quiebra. El total de la muestra seleccionada tuvo como base dos criterios que fueron: a) su clasificación industrial; b) el tamaño de sus activos.

Para su muestra Deakin seleccionó 11 empresas en quiebra incluidas en el “Moody´s Industrial Manual” y 23 empresas sin quiebra durante el período 1963-1964.

Su estudio partió de un test de “significación individual” y “clasificación dicotómica” de cada variable independiente. Luego llevó a cabo el cálculo de las combinaciones multivariables de los ratios a través de las funciones discriminantes. La metodología completa utilizada por Deakin fue la siguiente:

1. Estableció dos submuestras: una de empresas fracasadas y una de empresas con éxito.

2. La primera submuestra (de empresas fracasadas) la consideró como la base para establecer la unidad temporal.

3. La submuestra de empresas sanas fue producto del emparejamiento con la submuestra de empresas fracasadas considerando su tamaño y su sector industrial.

4. Posteriormente, calculó los 14 ratios previamente seleccionados para cada empresa a través de cada uno de los años de la unidad temporal.

5. La selección de los ratios fue con base a sus resultados positivos por su capacidad predictiva y a su popularidad como variables independientes dentro de la literatura especializada. Cada ratio debió tener una lectura y una base teórica sólida para su interpretación, así como también incluir la explicación de cada uno de sus componentes.

6. Las empresas de cada submuestra se “ranquearon” de acuerdo al valor de sus ratios. El valor de cada ratio en la primera submuestra dio como resultado el número más pequeño de error de clasificación cuando se utilizó el valor crítico.

Deakin observó que la discrepancia existente en el relativo poder predictivo de los ratios dentro de los tres años previos a la quiebra se debió a que durante el tercer y cuarto año, hubo una expansión en las empresas que fue financiada a través del incremento de los pasivos e inventarios.

Para la función lineal utilizó coeficientes de correlación “Spearman Rank Order” para conocer el poder predictivo de los ratios y cuando aplicó el MDA a los 14 ratios utilizados en los estudios de Beaver, la aplicación del examen de coeficientes dio un alto grado de correlación entre la relativa capacidad predictiva de los ratios utilizados en los estudios de Beaver y la réplica que hizo Deakin durante tres años previos a la quiebra.

Deakin llegó a dos interesantes conclusiones basadas sobre el "scaled vector" que indicaban la contribución relativa de cada variable a la función discriminante y fueron:

1. Consiguió diminuir el número de variables, eliminando aquellas que proporcionan una contribución relativamente pequeña a la función y que daban como resultado el incremento substancial dentro del número de errores de clasificación.

2. Descubrió que un modelo único puede ser suficiente para predecir una quiebra con un alto grado de probabilidad, pero insuficiente para predecir a largo plazo la misma probabilidad de que ocurra.

Los exámenes de significancia sobre las funciones discriminantes indicaron que las funciones fueron significativas para menos de .006 de cada uno de los tres años previos a la quiebra, .016 para el cuarto año previo a la quiebra, y .05 para 5 años previos a la quiebra.

Deakin no estableció un "valor crítico" para utilizarlo como una frontera entre las predicciones de empresas en quiebra y de empresas sin quiebra. Por otra parte, la extensión multivariable de su examen empírico a partir del examen univariable Z fue utilizada para determinar la probabilidad de que una empresa perteneciera al grupo de "quiebras" o al grupo de "sin quiebras". Utilizando este método la tasa de error de clasificación para la muestra original fue del 3%, 4.5%, 17% y 21% respectivamente para cada uno de los 5 años previos a la quiebra.

Cuando desarrolló una muestra de validación (“validación-cross”) a 11 empresas quebradas y 23 empresas sin quiebra, la tasa de error se incrementó a 22%, 6%, 12%, 23% y 15% respectivamente. Deakin no pudo explicar el severo deterioro en el primer año previo a la quiebra de la empresa, aunque le pareció lógico que se empeoraran los resultados cuando se aplica un estadístico a muestras diferentes (la de estimación y la de validación).

Los resultados de su análisis multivariable le indicaron que las funciones discriminantes tuvieron menos errores en el primer año previo al evento, pero posteriormente aumentaron a partir del tercer año. Esto se debía en parte al gran número de variables independientes utilizadas dentro de la función (14 ratios).

Sus resultados coincidieron con los de Beaver en cuanto al ratio de cash flow / deuda total que obtuvo la mayor exactitud de clasificación, y cuyos porcentajes fueron altos, incluso hasta 5 años antes de la quiebra (80 %, 84 %, 72 %, 78%, 78%). También los ratios de resultado neto / activo total y deuda total / activo total, dieron excelentes resultados. Lo anterior se debió a la mayor dificultad para aplicar el efecto window dressing en elementos tales como el cash flow, resultado neto y la posición de endeudamientos. En cambio, los ratios tradicionales de liquidez mostraron poca capacidad predictiva por la mayor facilidad para su “maquillaje”. Como se recordará esta observación ya había sido hecha por Beaver.

Para Deakin aparentemente las empresas que quebraron tendían a expanderse rápidamente en el tercero y cuarto año previo al evento. Según él, esto se debía a que la expansión de la estructura de capital se financiaba a través del aumento más intenso de los pasivos y las acciones preferentes con respecto al aumento de los beneficios retenidos y las acciones comunes; por tanto, los fondos se invierten más intensamente en planta y equipo (activos fijos) con respecto a como se hacía con los activos líquidos (activos circulantes). Luego, estas empresas no eran capaces de aumentar sus ventas y beneficios a tal grado para cubrir sus pasivos, perdiendo sus activos normalmente a partir del tercer año previo al fracaso.

Con respecto a esto, Deakin subrayó que el anterior fenómeno no fue apreciado en el estudio pionero de Beaver, pues las empresas de su muestra presentaban como característica principal: su incapacidad para generar ventas e ingresos netos que cubrieran sus deudas (sobre todo en el tercer año previo a la quiebra). De ahí, que a partir de los tres años previos a la quiebra, se marcara la diferencia entre la capacidad predictiva del ratio cash flow / ventas. Sin embargo, para él, los otros ratios tendían a ser consistentes.

Deakin también consideró que el cambio de estrategia sobre la estructura de capital se vio seriamente influenciada por los factores externos. Como ejemplo, apuntaba que en la década de los sesenta, las empresas de los Estados Unidos tendieron a invertir más sus reservas en efectivo porque los porcentajes de los intereses eran muy altos. Esto originó que el ratio cash flow / ventas se viera afectado seriamente en muchas empresas. Al analizar el ratio capital de trabajo / activos totales (cinco años previos a la quiebra) observó que obtuvo el valor más alto del vector (1.163).

Esto le indicó que dicho ratio contribuyó de forma importante para obtener la capacidad discriminatoria de la función. En cambio, el ratio de activos circulantes / pasivos circulantes contribuyó muy poco, pues sólo tuvo una contribución del 0.036. Para Deakin los anteriores resultados contradecían la teoría de la liquidez, la cual sostenía que el último ratio tenía que ser de los mejores (aunque matizó que había también que considerar que existe un porcentaje de errores de clasificación).

Desde un punto de vista estadístico, Deakin apuntó que la significancia de cada una de las funciones discriminantes se podía medir utilizando la “Wilks´ Lambda”. Este estadístico lo utilizó para contrastar la hipótesis. También indicó que la “Wilks´ Lambda” podía ser convertida a una “F-Value”, la cual se podía utilizar posteriormente para indicar la probabilidad de una separación significativa entre las “Z-Scores” de las empresas quebradas y las no quebradas.

Con respecto a las bases de datos, consideró que éstas no fueron suficientes para determinar si las diferencias en los porcentajes de error eran significativas.

Deakin concluyó que los modelos predictivos podían ser desarrollados muy bien “ex post”; sin embargo, opinaba que “hay problemas para aplicar el modelo en situaciones prácticas” porque en primer lugar: un portafolio de inversiones crediticias está compuesto de muchas firmas que tienen experiencia de por lo menos un año hasta un número infinito de años en el futuro. Para él y desde un punto de vista “ex ante”, la función del modelo sólo podía aplicarse para obtener el estado de la empresa que quebraría dentro de un año en el futuro (p.176). Al igual que otros estudios, los errores de clasificación se incrementaron al pasar los años previos a la quiebra, aunque estos no se presentaron como lineales.

El segundo problema que Deakin observó en su modelo fue que el análisis discriminante no pudo derivar de una función discriminante de poblaciones en donde una empresa podía posiblemente pertenecer a través del tiempo a más de un grupo; pues por ejemplo, una firma podía estar potencialmente fracasada en un punto del tiempo y posteriormente ser capaz de revertir esa tendencia antes de que la quiebra ocurriera.

De acuerdo al desarrollo de su modelo, Deakin consideró que el trabajo de Altman, aunque presentaba una correcta metodología estadística a través del análisis discriminante, dudaba en cambio sobre la selección de las variables independientes y de ahí que intentara mejorar este aspecto.

Para este autor los ratios que median los “aspectos permanentes” de la empresa y en donde es más difícil aplicar el efecto window dressing, eran los que determinan los indicadores más importantes para advertir sobre el fracaso empresarial. Por eso, en los modelos predictivos, los ratios que medían los “aspectos temporales” y eran más manipulables (como la liquidez) tendían a perder importancia dentro del modelo. Por otra parte, opinaba que un número elevado de ratios al incluirse en la función, aumentaba significativamente los costes de su aplicación, además que hacía más compleja la explicación objetiva de las causas de la quiebra a través del modelo.

En 1977 Deakin volvió a intentar mejorar su modelo llamando de forma especial nuestra atención en el aspecto metodológico, y muy concretamente sobre su interés por definir mejor a la variable dependiente para llegar a mejores resultados.

Para esta nueva investigación Deakin consideró 1780 empresas del “Compustat” y redujo las 30 variables de Beaver a 14. Posteriormente, Libby a través del análisis factorial, redujo las 14 variables de Deakin a 5. Y por último, para el replanteamiento de su modelo, Deakin utilizó las 5 variables que Libby había obtenido.

Al seleccionar a las 1780 empresas y aplicarles las 5 variables independientes, obtuvo la siguiente clasificación: 1317 empresas no fracasadas, 250 empresas con fracaso seguro y 173 empresas que cayeron en la zona gris de ignorancia.

Deakin consideró que en este trabajo, la interpretación de los resultados dependería principalmente de la definición que propusiera para la variable dependiente y de la utilización de un período de tiempo posterior (“ex-ante”). De esta forma llevó a cabo un análisis de la submuestra de las empresas fracasadas y de su posible efecto dadas sus distintas definiciones.

En la muestra de estimación definió al fracaso como: “quiebra legal”, “liquidación” y “reorganización”. A partir de esto sólo obtuvo una baja capacidad de predicción del 6.2 %, es decir, 18 de 290 empresas se clasificaron en alguno de los fenómenos durante un período de tres años. Posteriormente, amplió la definición de la variable dependiente incluyendo también para la definición del fracaso a los siguientes términos: “empresas fusionadas supuestamente por motivos de ineficiencia” y “empresas que no pagaron dividendos preferentes a tiempo”.

Esta vez su modelo aumentó “la exactitud predictiva” hasta un 77.2 % (224 empresas). Por último, Deakin analizó 72 empresas que quebraron entre 1972-1974, utilizando sólo datos de dos años previos al evento. Su exactitud de predicción fue de 39 empresas bien clasificadas, una empresa mal clasificada y 7 empresas mal clasificadas en la zona gris.

Al respecto, Lizarraga opina que no puede admitirse la aplicación de un modelo bajo una definición distinta de la que sirvió para su estimación, y al preguntarse como es posible tanta diferencia entre los resultados de las últimas dos pruebas, afirma que en gran parte se debe a la diferencia que se da al aplicar un modelo “a priori” o “ex-ante” (sin conocer la situación real futura de la empresa que es el primer caso), y aplicar un modelo “a posteriori” o “ex-post” (que constituye el segundo caso, cuando se conoce la situación real de la empresa y en donde los resultados son mucho mejores. (p.122).

MODELO EDMISTER (1972)

Robert Edmister elaboró su tesis doctoral en la Universidad de Purdue y la Universidad Estatal de Ohio en 1970, y dos años después publicó un artículo sobre su trabajo empírico que trataba sobre el desarrollo de un número de métodos de análisis financieros basados en ratios para las pequeñas empresas, partiendo de la idea de que no todos los métodos ni todos los ratios pueden ser predictores de quiebras.

Partiendo de los fundamentos de Beaver (1966), en cuanto a la importancia estadística para predecir una quiebra, realizó un análisis multivariable aplicando el MDA para tratar de predecir el fracaso empresarial sólo en las pequeñas empresas, ya que los estudios realizados hasta antes de 1972 en este campo, únicamente se habían enfocado a empresas de tamaño mediano y grande (Beaver, 1966; Altman, 1968; y Deakin, 1972).

Para Edmister los estudios anteriores le indicaban que se podían realizar combinaciones con pocos ratios con el objetivo de construir una función discriminante con alto grado de exactitud, siempre y cuando se aplicase en bases de datos similares que hubieran sido utilizadas para determinar la función. Por otra parte, consideraba que algunos ratios son mejores predictores que otros, aunque aclaró que en ciertos casos no siempre los mismos ratios son los mejores predictores para todos los estudios. Para él, esto le indicaba que la función discriminante podía aplicarse exactamente igual sólo en situaciones muy similares bajo las que se genera dicha función. Con base en lo anterior su estudio lo enfocó únicamente a las pequeñas empresas por lo que advirtió que su función sería sólo de importancia para el análisis de este tipo de empresas.

Con esto se volvía a insistir en que los modelos predictivos presentan problemas de sesgos muestrales, validaciones alternativas de los resultados y problemas de comprobación de la estabilidad en las relaciones establecidas en el modelo.

Edmister siguiendo a Beaver, sugirió que era importante que se incluyera en la base de datos el estado de flujos de fondos. Sin embargo, en esa época, tanto Beaver, Edmister como otros muchos investigadores, consideraban este concepto tan complejo como la simple suma de los beneficios netos más las amortizaciones, depreciaciones y provisiones .

Para su base de datos utilizó estados financieros de la “Small Business Administration” que fueron proporcionados por “Robert Morris Associates”, con una unidad temporal de tres años previos a la quiebra y considerando como unidad temporal el período 1954-1969. Estos datos pertenecían a una muestra de 21 "recipientes" de pequeñas empresas que eventualmente habían “quebrado” y 21 "recipientes" de empresas pequeñas que no estaban en quiebra.

La anterior información tenía la característica de ser poco confiable dada la falta de obligación para llevar a cabo auditorías a los estados financieros en las empresas pequeñas, lo que presuponía desde el inicio serias reservas en cuanto a los resultados que se obtendrían. Al considerar esto, Edmister optó por no entrar en el análisis de cuestiones metodológicas, explicaciones semánticas sobre el fracaso como variable dependiente o en la problemática de la selección de la muestra, y concentró sus esfuerzos en los resultados del modelo.

Sin embargo, con relación a la muestra advirtió que ante la tendencia y las inestabilidades de algunos parámetros de las muestras, era importante reflejar ambos fenómenos en las variables independientes, transformándolas de continuas a dicotómicas. Esto lo llevó a cabo estimando los coeficientes del modelo a través de una regresión. De esta forma Edmister combinó los niveles de los ratios con sus tendencias a través de la dicotomización de las variables independientes.

Para su investigación entendió simplemente que el “éxito empresarial” era para aquellas empresas que no tenía pérdidas. En cambio el “fracaso empresarial” se daba en aquellas que reportaban pérdidas. Pero en el caso del sector que él analizaba (empresas financieras para sus decisiones de crédito) consideró que el fracaso de una empresa se presentaba por el simple incumplimiento para devolver un préstamo a su vencimiento .

Para el desarrolló de su investigación Edmister se basó en cuatro hipótesis que fueron las siguientes:

La H1 establecía que el nivel del ratio representa poder predictivo para una quiebra en las pequeñas empresas, sin importar el sector o el país en donde se ubique la firma.

La H2 se basó en que la tendencia experimentada por el ratio durante tres años consecutivos, representa un poder predictivo de quiebra para las empresas pequeñas. Para él, generalmente la tendencia se definía estadísticamente como la relación significativa entre la variable dependiente y el tiempo. Además, hizo una interesante observación que se refería a que la tendencia podía ser entendida de muchas maneras. Por ejemplo, decía, si tenemos una tendencia en los últimos tres años de 2/1, 3/1 y 4/1; la tendencia está obviamente definida. Sin embargo, si la tendencia fuera de 2/1, 4/1 y 3/1; se puede inferir que no existe dicha tendencia.

A partir de esto consideró que se podía crear una variable ficticia (“dummy”) con tendencia creciente (“up-trend”) cuyo valor sería “1” al incrementarse y “0” al disminuir. Por otra parte, también se podían crear variables ficticias con tendencia decreciente (“down-trend”), en donde el valor sería “1” al disminuir y “0” al incrementarse la tendencia.

La H3 establecía que el promedio “tri-anual” de un ratio es un predictor de quiebra para las empresas pequeñas y éste es más efectivo con respecto a sólo un promedio anual.

La H4 estableció que la combinación entre la tendencia relativa y el nivel relativo de la industria para cada ratio, era un predictor de quiebras para los pequeños negocios. Según Edmister esta hipótesis nunca antes había sido utilizada.

Con respecto a los métodos seleccionados para el análisis de las variables independientes, Edmister observó que el poder predictivo de los ratios parecía depender de la selección de los métodos de análisis, así como de la selección de los ratios. A partir de esto sugirió una técnica que consistió en dividir el ratio entre su respectivo promedio industrial. De esta forma, cinco de las siete variables fueron divididas entre su promedio.

Edmister consideraba que el poder predictivo de los ratios era acumulativo dado que un ratio individual no predecía tan bien como un pequeño grupo de estos. Además, algunos ratios no le indicaron buenas predicciones por sí mismos, pues estos sólo incrementaron su capacidad discriminatoria cuando se sumaron a una función. Sin embargo, cuando los ratios se adicionaban sin considerar el análisis de los otros ratios ya incluidos en la función, el poder predictivo real del análisis no se incrementaba. Esto se debía al efecto ilusorio de la multicolinealidad que había sido ya evidente en varias investigaciones con muestras “uni-anuales”.

Este investigador pareció entender que, tanto en la práctica como en la teoría, la fiabilidad de las funciones se conformaba mejor sobre un conjunto de predictores o variables independientes. Así, la tendencia de los ratios era muy similar al contenido de su información y por eso había que tener mucho cuidado para seleccionar un grupo que fuera lo más diverso posible, ya que este dominio de la información tenía una implicación muy importante para el análisis del ratio. Para él, las máximas ventajas se obtenían al seleccionar un ratio para cada una de las diferentes características. Anteriores investigaciones le habían confirmado que un reducido número de ratios seleccionados cuidadosamente eran más útiles en comparación con la utilización de un gran número de ratios sin ningún previo y riguroso método de selección.

Como variables independientes seleccionó 19 ratios considerando dos criterios que fueron: a) Por su popularidad, y b) Con base en sus resultados positivos en investigaciones anteriores (a excepción del ratio de Margen de Operación Neto). Posteriormente, utilizó los ratios más significativos de previos estudios y también consideró el valor del ratio en relación al porcentaje de la industria (estándares). Los ratios fueron convertidos a variables dicotómicas para compararlos con el valor individual del ratio para los cuartiles de la industria: si el valor individual del ratio era menor que el cuartíl más bajo para la industria se le designaba el valor de "1", por el contrario, si este era mayor se le designaba el valor de "0".

RATIOS UTILIZADOS POR EDMISTER

NOMBRE DEL RATIO COMPONENTES

Ratio de Liquidez No específica

Ratio de Circulante No específica

Ratio de Inventarios / Capital de Trabajo Neto -------

Capital Circulante / Activo Total --------

Activo Circulante / Pasivo Circulante -------

Ratio Activo Líquido a Pasivo Circulante -------

Ratio de Retorno de Capital o Intervalo sin Crédito**

(Capital de trabajo / Pasivo Total) [Activo Circulante – Existencias] – Pasivo Circulante / [Gastos de Explotación – Amortizaciones y Provisiones]

* Cash flow = Beneficio Neto + Amortizaciones.

** Este ratio mide el volumen de ventas o facturación de la empresa y es un indicador del número de días que los activos defensivos (disponible + realizable) son capaces de hacer frente a las salidas de tesorería provocadas por los gastos de explotación sin ningún tipo de ayudas adicionales.

RATIOS ORIGINALES SELECCIONADOS

1. Liquidez

2. Circulante

3. Inventarios / Capital de Trabajo Neto

4. Capital de Trabajo Neto / Activo Total

5. Activo Circulante / Pasivo Total

6. Pasivo Total / Capital Contable

7. Activos Fijos / Capital Contable

8. Cash flow / Pasivo Circulante

9. Pasivo Circulante / Capital Contable

10. Capital Contable + Pasivo Fijo / Activo Total 11. Inventarios / Ventas

12. Activo Fijo / Ventas

13. Activo Total / Ventas

14. Capital de Trabajo Neto / Ventas

15. Capital Contable / Ventas

16. Beneficios antes de Impuestos / Ventas

17. Beneficios antes de Impuestos / Activo Total

18. Beneficios antes de Impuestos / Capital Contable

19. Beneficios antes de Impuestos / Pasivo Total

Fuente: Edmister (1972).

Al aplicar el MDA “Stepwise”, Edmister obtuvo la siguiente función lineal discriminante con siete variables independientes.

Con respecto a las variables independientes finales, Edmister las definió de la siguiente manera:

X1= Flujo de Fondos Anuales / Pasivo Circulante. Edmister entendió al flujo de fondos como los beneficios netos antes de impuestos más la depreciación.

X2= Capital Contable / Ventas. Este ratio dividido entre el respectivo ratio estandarizado de “Robert Morris Associates” (RMA) indicaba que si X2 = 1 entonces era menor que .07; y si X2 = 0, entonces era mayor que .07; Según Edmister, la quiebra estaba más cerca cuando las empresas presentaban una base de capital contable más pequeña para sus ventas, con independencia de su clasificación industrial.

X3= Capital de Trabajo / Ventas. Aquí la X3 = 1 si era menor que .02; y X3 = 0 si era mayor que .02 .

X4= Pasivo Circulante / Capital Contable. Este ratio dividido entre su respectivo ratio de RMA indicaba que: X4 = 1 si era menor que .48; y X4 = 0 si era mayor que .48. Esto le confirmaba que un pasivo bajo con respecto al capital contable reducía la probabilidad de quiebra.

X5= Inventarios / Ventas. Este ratio dividido entre su respectivo ratio estandarizado de RMA indicaba que un prestamista muy endeudado y con una rotación de inventarios baja en los promedios industriales de “Robert Morris Associates”, tenía un alto potencial de fracaso.

X6= Ratio de Circulante. Aquí X6 = 1 si era menor que .34; y X6 = 0, si era mayor que .34. Este ratio dividido entre su respectivo ratio de RMA, indicó sólo en dos casos la característica de que su disminución lleva a la quiebra.

Resultados con Z-Scores por debajo de .47 fueron obtenidos sólo para empresas en quiebra. En cambio Z-Scores sobre .53 fueron obtenidas sólo para empresas sin quiebra. La zona gris, similar a la zona de ignorancia de Altman, la determinó entre .47 y .53. Tanto las empresas en quiebra como las empresas sin quiebra exhibieron Z-Scores sin esta zona gris. Los análisis de la zona gris indicaron un punto de corte de .52; representando esto la mejor exactitud de clasificación global que fue del 93%

Sus resultados le indicaron que la certeza de los ratios individuales o de pequeños grupos de ratios fueron efectivos para predecir quiebras. Edmister notó que estudios previos podían no coincidir sobre un conjunto común de ratios. Esto le sugirió que las funciones discriminantes pueden únicamente ser aplicadas relativamente a situaciones similares para aquellas de las cuales la función fue desarrollada, y por consiguiente, los resultados de estudios previos no pueden ser generalizados para pequeñas empresas en lo que se refiere a la predicción de la quiebra.

Para Edmister el MDA le proporcionó en su estudio un medio de selección para un conjunto óptimo de ratios y métodos. También le permitió asignar las ponderaciones o “pesos óptimos” de cada uno de los coeficientes dentro de la función lineal. Aunque este método no lo consideraba el más exacto, era sin embargo una técnica más eficiente para su modelo con respecto a aquellos procesos subjetivos que en ese tiempo se practicaban.

Utilizando el MDA Stepwise encontró que sus métodos de análisis fueron útiles para los siguientes aspectos:

1. La clasificación de los ratios de endeudamiento dentro de cuartiles relativos a otros deudores de la muestra. Para él la clasificación de las distribuciones de los ratios por cuartiles podía ser importante para la interpretación de los resultados.

2. Le permitía observar la tendencia (a la baja y a la alta) durante un período de tres años.

3. Podía llevar a cabo un análisis combinatorio de la tendencia de los ratios y de sus niveles más recientes.

4. Podía calcular el promedio “tri-anual”, ya que consideraba que para poder desarrollar funciones discriminantes con alto poder predictivo, las bases de datos deberían ser superiores a un año.

5. Era posible dividir los ratios entre sus correspondientes promedios industriales. En este caso consideró los promedios de “Robert Morris Associaties”, ya que la división de los valores de los ratios entre los valores medios del sector industrial le ayudaron a compensar el efecto inevitable de la heterogeneidad poblacional.

Su función discriminante le demostró una alta capacidad de discriminación, al igual que aquellas funciones aplicadas a las grandes empresas como las de Altman, Beaver y Blum. La exactitud de la función lineal discriminó correctamente 39 de los 42 casos. Esto significó alcanzar un porcentaje del 93% de exactitud predictiva. Z-Scores menores de .520 indicaban “predicción de quiebra”; en cambio Z-Scores mayores de .520 indicaban “predicción de no quiebra”. Otros indicadores interesantes que obtuvo Edmister fueron los que se muestran en el siguiente cuadro:

El estudio de Edmister confirmó los descubrimientos de Altman: de que un grupo pequeño de ratios tienen mejor precisión o exactitud de predicción que cualquier ratio único. Edmister también concluyó que estandarizando los ratios a través de su división por promedios industriales, y posteriormente convirtiéndolos de variables continúas a variables dicotómicas, sumaban significancía al modelo.

En cuanto al análisis del ratio, sugirió que podía ser descrito en términos de las presentes condiciones y de futuros eventos. En cuanto a los algoritmos, éstos se presentaron altamente complejos en su trabajo. Consideró que cada ratio es un método analítico óptimo al promediarse o dividirse entre su estándar industrial.

El MDA que utilizó para derivar la función discriminante intentó clasificar a las empresas como empresas en quiebra y empresas sin quiebra, y el procedimiento de selección fue utilizado para limitar la multicolianilidad. Este procedimiento excluyó cualquier variable del modelo si el coeficiente de correlación de una variable excedía el .31. Este indicador fue producto de la regresión por etapas “Stepwise”, la cual consistió en eliminar del modelo ratios con correlaciones superiores a un número previamente definido. Aquí el problema ha radicado en establecer el límite de forma objetiva a través de los modelos estadísticos. De cualquier forma, lo que buscó Edmister fue mantener el poder predictivo de los ratios a través del tiempo, pues como ya se apuntó, consideraba que dicho poder era acumulativo siempre y cuando se estimaran las funciones discriminantes con variables independientes que tuvieran poca multicolianilidad.

En general los resultados de su estudio fueron mixtos: la exactitud de la función discriminante basada sobre datos de un año previo a la quiebra no pudo determinarla. La validación de la prueba de las funciones resultó en una capacidad de predicción pobre y los mejores resultados que obtuvo fueron con la base de datos de tres años previos a la quiebra.

Edmister concluyó su investigación con una idea muy interesante acerca del problema potencial que se da con la técnica de ratios, afirmaba que, a través de esta técnica las relaciones suelen ser complejas, pues por ejemplo, si una relación es de –1:2 y otra es de 1:-2; en ambos casos las relaciones serán equivalentes computacionalmente, pues darán como resultado una proporción de -.5:1 y esto por supuesto que tiene un significado totalmente diferente, aunque rara vez se presentan estas magnitudes en la práctica.

MODELO BLUM (1974)

En 1969 Marc Blum presentó su tesis doctoral en la Universidad de Columbia bajo el título de: “The Failing Company Doctrine”. Posteriormente editó dos artículos, contando con la colaboración de la firma de abogados “Gorden, Feinblatt y Asociados de Baltimore”. El nuevo enfoque de su trabajo sobre la condición de la quiebra le fue sugerido en 1967 por E. Zimmerman quien trabajaba como: “Assistent Atturney General, Antitrust Division” del Departamento de Justicia de los Estados Unidos de Norteamérica.

En su artículo de 1974 incluyó los resultados de un análisis discriminante con el que construyó un modelo que denominó: “Failin Company Model”, con la intención de que sirviera a los usuarios como una guía ante la quiebra. Partió de la idea de que las fusiones de los competidores, y en especial cuando dos empresas se fusionan y una de ellas está en quiebra y la otra lo desconoce, además de que se violaban las leyes “antitrust” atentaban contra la doctrina empresarial de las quiebras.

Su estudio continuó con la evolución de los estudios multivariables, incluyendo variables para medir el cambio dentro de los ratios a través del tiempo y la variabilidad de los datos contables. También analizó la capacidad de predicción de “datos contables en bruto” (cantidades absolutas) e investigó los efectos de la incorporación de un rango de años dentro de los datos del modelo en lugar de sólo un único año. Sus resultados le indicaron que los modelos basados sobre datos en bruto tienen una mayor precisión de predicción a través de los años previos a la quiebra con respecto a los modelos basados en ratios, sin embargo, Blum no supo dar respuesta de tal fenómeno.

Blum también realizó una investigación que consistió en la construcción de un modelo sin ratios financieros. Para ello descompuso cinco de las nueve variables independientes que había utilizado en otro estudio, obteniendo ocho numeradores y denominadores que combinó con cuatro “variables no ratios”. Los resultados durante el primer año previo a la quiebra no fueron tan exactos como en su anterior modelo, lo cual le llevó a la conclusión de que este modelo no era un discriminador eficiente.

Con respecto a la variable dependiente, Blum notó que existía una ambigüedad y falta de precisión para aplicar el concepto de quiebra. Observó que el criterio legal definía al fracaso como: “una grave probabilidad de quiebra”. A partir de esto consideró importante definir mejor a la variable dependiente.

Llegó a la conclusión de que el fracaso se podía definir como: “el momento en que la empresa entra en un procedimiento concursal para declarar la quiebra” o “cuando se da un acuerdo explícito con los acreedores, los cuales otorgan una quita sobre sus pasivos”. También consideró la posibilidad de que las empresas fracasadas eran aquellas que tenían incapacidad para pagar sus deudas, debido a la entrada en un procedimiento de quiebra o aquellas empresas que son insolventes y llegan a un acuerdo con sus acreedores para reducir sus pasivos. En su estudio el 90% de las empresas había llevado a cabo su solicitud de quiebra bajo el “Acta Federal de Quiebras” y el 10% restante de las empresas ya estaba en estado de liquidación.

A diferencia de otras investigaciones, Blum puso especial interés en definir a la variable dependiente al comprobar el problema que tenía el Departamento de Justicia de los Estados Unidos con respecto al concepto de fracaso. Esto era muy importante ya que a partir de esta definición se podía o no autorizar una fusión. En aquellos momentos este departamento tenía serios problemas doctrinales para determinar el momento en el cual una empresa podía estar en camino del fracaso, a pesar de que se contemplaban tres supuestos que eran: “la incapacidad para el pago de las deudas vencidas”, “la solicitud de quiebra” y “el acuerdo extrajudicial con acreedores para obtener quitas”.

Otro aspecto interesante de este estudio y que se derivaba del objeto y enfoque de la investigación era que, partiendo del principio de que las fusiones se autorizaban principalmente entre empresas que estaban sanas con empresas que estaban en camino del fracaso, la Ley Antitrust consideraba más grave autorizar una fusión entre empresas sanas, que dejar quebrar realmente a una empresa en la que no tuviera la certeza de que estaba en proceso de quiebra. Esto marcaba el precedente de que no siempre el error tipo I tenía mayores costes con respecto al error tipo II, lo cual aunque era muy poco usual, era posible que se presentara.

Blum al desarrollar su modelo se basó en datos contables y datos del mercado financiero. Para la base de datos consideró como unidad temporal hasta ocho años previos a la quiebra, aunque aclaró que el período óptimo para el análisis de las empresas en quiebra era de cinco años. Blum destacaba la importancia de las bases de datos al afirmar que una teoría sobre los síntomas de la quiebra se debería enfocar a como es el comportamiento de las variables económicas básicas, las cuales debían ser un reflejo de los estados financieros, ya que los productos del sistema contable son siempre sustituidos porque éstos son únicamente útiles si representan los principales eventos económicos de una empresa.

La teoría para Blum debía considerar las limitaciones inherentes de los datos contables que se expresan en los estados financieros. También sugirió algunos lineamientos para implementar un sistema de cash flow pues consideraba que: “la empresa era un depósito de recursos financieros”, y por lo tanto, la probabilidad de la quiebra estaba determinada de acuerdo a las expectativas de los flujos que generaban esos recursos. A partir de esto concluyó que aquellas empresas que estaban más cerca de la quiebra eran las que presentaban los siguientes síntomas:

* Pequeños depósitos (ya que las empresas con grandes depósitos están mejor situadas ante la incertidumbre).

* Bajos niveles de inflows provenientes de operaciones normales, tanto a corto como a largo plazo.

* Numerosas reclamaciones de recursos por parte de los acreedores.

* Altos niveles de outflows operativos.

* Mayor variabilidad de las ganancias y de las reclamaciones de los recursos.

* Mayor riesgo de fracaso del sector donde se ubicaba la empresa.

Los ocho años de bases de datos contables fueron desarrolladas en 21 modelos. Cada modelo contenía de tres a ocho años de datos. Este estudio mostró un avance con respecto a otros métodos previos para predecir quiebras con un período superior a un año previo a la quiebra. Blum criticó a previos estudios que utilizaron datos de sólo un año previo a la quiebra para desarrollar el modelo. La capacidad de predicción del modelo de Blum fue experimentada mediante la utilización del análisis discriminante. Los resultados de este estudio confirmaron una vez más los descubrimientos de previos estudios: la exactitud de las clasificaciones es mejor un año previo a la quiebra y va declinando dicha exactitud conforme se incrementa el número de años previos a la quiebra.

Su base de datos consistió en balances generales, estados de resultados y precios de mercado durante un período de tres años. Para él las empresas pequeñas no tenían ninguna relevancia en sus estudios, pues éstos se basaban en el sistema antitrust para grandes empresas.

Su muestra se compuso de 115 empresas industriales que quebraron durante el período 1954-1968 y cuyos pasivos fueron superiores al millón de dólares. Esta submuestra la emparejó con otra de 115 empresas sanas considerando los siguientes cuatro criterios:

1. La clasificación industrial de las empresas.

2. Considerando las ventas dentro del cuarto año previo a la quiebra.

3. El número de empleados.

4. El año fiscal del cierre contable.

Blum consideró que las variables independientes tenían que tener un marco teórico, pues sin éste no había razón para esperar una relación significativa con el evento a predecir. Para estructurar ese marco teórico dirigido a la selección de las variables y que fuera generalizable, nuevamente se basó en la idea de “la empresa como un depósito de recursos financieros” y que la descripción de su probabilidad de fracaso debía ser con base a los flujos de entrada y salida esperados para dichos recursos. Para las variables independientes fueron seleccionados doce ratios para medir: los flujos de liquidez, los flujos de posición, la probabilidad, y la variabilidad dentro del modelo. De particular interés resultaron las medidas de variabilidad que introdujo por primera vez para los ingresos netos; activos rápidos y los inventarios en un período de tiempo dado. Para su modelo final redujo los ratios a diez, los cuales fueron los más representativos para los tres factores previamente determinados que se muestran en el cuadro 2.19.

Con las anteriores variables desarrolló varias funciones discriminantes obteniendo una exactitud predictiva de un 90% hasta un 95% para el primer año previo a la quiebra; 80% para el segundo año y un 70% para el tercer año. Todos estos resultados fueron contrastados con una muestra de validación que consideró el problema de la correlación.

Blum observó que el coeficiente discriminante estandarizado del ratio de cash flow / pasivo total (en donde el cash flow estaba compuesto por los ingresos netos más depreciación) parecía ser la variable mas significativa en los 21 modelos desarrollados para distinguir entre una empresa en quiebra y una empresa sin quiebra. Este resultado fue consistente con los resultados de Beaver (1966).

El componente de la deuda total se comportó con mayores aumentos en las empresas sanas con respecto a las fracasadas. Esto le hizo sugerir que la deuda se utilizaba para financiar el crecimiento en las empresas con éxito (apalancamiento financiero). En cambió, los inventarios disminuyeron en las empresas con crisis, lo que le demostró que las empresas que quebraron no fue por un exceso de inventarios acumulados como se creía tradicionalmente. La relación de activos rápidos netos / inventarios, le mostraron la segunda significancia más alta en el primer y segundo año previo a la quiebra.

La exactitud de la clasificación de un año previo a la quiebra se incrementó del 64% al 95% dependiendo del número de años de las bases de datos utilizadas dentro del desarrollo del modelo. Esta conclusión discrepó con otras que afirmaban que no necesariamente una base de datos con más número de años incrementa la capacidad predictiva del modelo, pues eran los últimos años los que contienen los aspectos más esenciales para determinar el posible comportamiento futuro de la empresa. Sin embargo, en el estudio de Blum la tasa más alta de exactitud ocurrió cuando 4, 5 o 6 años de datos fueron utilizados, incluyendo los datos del séptimo y octavo año previo a la quiebra.

Para Blum las variables más importantes fueron las ganancias y las reclamaciones sobre esas ganancias, lo que Beaver ya había denominado: “la teoría del depósito de liquidez”. A Blum ambas variables le indicaron outflows importantes que mantenían las operaciones actuales y el cumplimiento de las obligaciones de la empresa. Al basarse en esta idea estructuró su modelo con base en tres denominadores o factores comunes basados en un sistema de cash flow, que fueron: la liquidez, la rentabilidad y la variabilidad.

Para la medición del volumen de las ventas este autor tomó como criterio los últimos cuatro años previos a la quiebra, siendo el cuarto año el que registró los cambios más dramáticos.

En su modelo la exactitud de las clasificaciones fue el factor más importante del análisis discriminante. Esta clasificación la consideró en dos direcciones que eran: el error tipo I y el error tipo II, cuyos costes no eran iguales.

Al aplicar el análisis discriminante en la submuestra de 115 empresas sanas, la exactitud de clasificación fue del 94% un año previo a la quiebra; del 80% dos años previos y del 70% para el tercero, cuarto y quinto año previos a la quiebra.

Blum reconoció que la multicolianilidad fue un problema en su estudio, y por consiguiente el coeficiente de la función discriminante fue inestable. También desarrolló funciones discriminantes utilizando únicamente “datos contables en bruto”.

Existen dudas de algunos investigadores sobre porque Blum, que definió como muy importante una base teórica para la selección de las variables independientes, no incluyó tal teoría en su trabajo para explicar la selecciones de sus factores como fue el caso de la rentabilidad. También se le ha criticado que a pesar de los altos porcentajes de clasificación, no logró explicar el sentido económico de las funciones obtenidas. Según Blum, esto se debió al problema para establecer mejor en términos estadísticos las contribuciones individuales de cada una de las variables independientes. Por ejemplo, el ratio de cash flow / deuda total mostró una gran eficiencia pero en un contexto multivariable.

Blum concluyó que el proceso de fracaso es dinámico y por eso le dio tanta importancia a las variaciones de los ratios a través del tiempo y no únicamente a sus valores puntuales. Para esto estableció el tercer factor que denomino de “variabilidad”, el cual incluía ratios expresados en términos de tendencia y desviación, proposición que ya había sido sugerida antes por Deakin.

MODELO OHLSON (1980).

James A. Ohlson (1980) de la Universidad de California y que desarrolló su trabajo asesorado por William Beaver, presentó como principal cambio con respecto a otras investigaciones, un método estadístico diferente de los que tradicionalmente se habían venido utilizando para evaluar las quiebras. Ohlson por primera vez utilizó el modelo econométrico de probabilidad condicional de regresión logística (Logit) en lugar del MDA para intentar mejorar las deficiencias que éste último presentaba. Según él, el “MDA Score” tenía poco valor interpretativo al contrario del Logit y por eso su estudio se centraba más al problema metodológico que a otra cuestión.

Antes de la década de los ochenta, aunque ya se habían encontrado problemas metodológicos y estadísticos aplicando el análisis discriminante en el modelo, ningún investigador intentó probar otras alternativas para mejorar estos aspectos. Esto se debió en gran parte a los buenos resultados de exactitud de clasificación. Sin embargo, los problemas de clasificación dicotómica dentro del campo de las finanzas eran diferentes con respecto a otros campos y se volvieron más complejos. Pero aún así, los investigadores no se dieron cuenta o poca atención prestaron a este hecho y continuaron utilizando únicamente el análisis discriminante para elaborar sus generalizaciones, las cuales comenzaron a ser cada vez menos acertadas pues presentaban problemas tan evidentes en alguno de los elementos del modelo, como los que se citan a continuación, y que era necesario intentar mejorar a través de la estadística como medio o herramienta y no como un objetivo o fin principal.

En los ratios y las variables independientes había deficiencias como:

1. El problema de la reducción en el número de variables independientes.

2. La distribución de los ratios no era normal en el modelo.

3. No había evidencia empírica generalizada sobre la correcta determinación de la contribución o significancia relativa de cada ratio dentro de la función discriminante.

4. Existía ausencia en la interpretación correcta de los ratios en términos financieros y económicos.

5. Había poca normalidad multivariable para el conjunto de las variables independientes y falta de un test que verificara esto.

6. Se observaba inexistencia de normalidad multivariable en los ratios y falta de un test que lo verificara.

7. Había asimetrías positivas en las distribuciones de los ratios.

8. En ocasiones la variabilidad de los ratios en las empresas fracasadas era muy diferente con respecto a los de las empresas sanas, sin embargo en otras no. Esto dependía principalmente de la metodología que se aplicara.

9. En la muestra se presentaban problemas tales como: la dispersión, definición y limitación de los grupos; y la selección incorrecta de las probabilidades poblacionales previas.

10. En los resultados había una incorrecta evaluación de los costes de error tipo I y II en los resultados; un deficiente diseño e interpretación correcta del análisis discriminante; y faltaba certeza de igualdad en las matrices de covarianzas de los grupos, además de test que lo verificara.

Ohlson consideró que existía un camino que podía completamente ordenar el poder predictivo de un conjunto de modelos utilizados para las decisiones predictivas. Trabajos previos al suyo habían generalmente estado basados en dos importantes consideraciones específicas y restrictivas cuando los resultados predictivos fueron evaluados y eran:

1. La matriz de clasificación se suponía que era una parte adecuada de la estructura de pagos;

2. Los dos tipos de errores de clasificación tenían una propiedad aditiva, y el “mejor” modelo era aquel que minimizaba la suma de los porcentajes de error.

Para Ohlson ambos de estos supuestos eran arbitrarios, pues afirmaba que en el caso del segundo supuesto era imposible comparar los resultados de las diferentes investigaciones realizadas porque los períodos de tiempo eran diferentes, y por consiguiente, los predictores y el conjunto de datos respondían a situaciones también diferentes. Por tanto, lo que sugería como interesante era hallar en cuánto se excedían los resultados entre las diferentes investigaciones.

Con respecto a la variable dependiente, Ohlson detectó que la definición de fracaso tenía significativas variaciones y arbitrariedades entre la diversidad de estudios. La dicotomía entre “quiebra versus no quiebra” era normalmente la más utilizada, pero para él era una aproximación muy “cruda”. Además, apuntaba que también existía un gran número de dificultades estadísticas y problemas metodológicos que requerían ser discutidos.

Su base de datos la obtuvo del “Compustat File” cuyo período fue de 1970-1978. Para el grupo o muestra de control utilizó datos de un año previo al último cierre contable para todas las empresas sanas. En cambio para la muestra de estimación se consideraron hasta tres años previos a la quiebra.

Este fue un estudio que difirió de los anteriores en cuanto a que Ohlson no seleccionó su base de datos de empresas fracasadas del “Moodys´ Industrial Manual”, pues optó por un procedimiento diferente que, según él, tenía una mayor ventaja al considerar que los reportes indicaban una situación en un punto del tiempo en que éstos fueron hechos públicos, y por tanto, el analista no podía verificar si la empresa había llegado a la quiebra antes o después de que los datos se publicaran. Este problema de temporalidad se daba porque se creía que los informes financieros estaban disponibles a la fecha del cierre anual.

En la práctica lo anterior no sucedía, y menos aún en las empresas fracasadas, las cuales en ocasiones llegaban a producir su información después de ésta ya no era “oportuna”. Por eso Ohlson prefirió buscar otra fuente para su base de datos que le indicara la fecha exacta de su emisión pública para en realidad poder predecir las relaciones económicas, pues si una empresa solicitaba el procedimiento concursal entre el posterior cierre de ejercicio y antes de la emisión de los estados financieros finales, la información perdía validez, y por consiguiente el análisis predictivo también.

Ohlson observó que anteriores estudios no habían considerado explícitamente este sutil hecho, ya que presuponían que un reporte está disponible al final del año fiscal y esto podía llegar a ser importante dependiendo del objetivo del estudio. Si el propósito era llevar a cabo una investigación como la suya para solamente pronosticar las relaciones, entonces el procedimiento era inadecuado. Como todos los demás investigadores, Ohlson se encontró con estados financieros incompletos y con períodos de cierre variables en algunas empresas.

Los porcentajes de error en las predicciones de Ohlson fueron mayores con respecto a otros estudios similares como los de Altman. Esto podría haberse debido, según Ohlson, a que los datos obtenidos fueron de períodos anteriores a 1970. Otra desventaja que encontró en su modelo y que también estaba relacionada con las bases de datos, fue que no utilizó datos basados en precios del mercado, lo cual pudo haber impedido incrementar el poder predictivo de su análisis.

En su opinión, uno de los problemas principales que había en los modelos predictivos era el relacionado con el desarrollo de los datos de las empresas quebradas, los cuales no habían sido mencionados en la literatura sobre el tema (op. cit. p. 111). Por eso en su estudio este factor le produjo según él las siguientes limitaciones:

1. Los resultados obtenidos a través de la aplicación del modelo MDA era un score que tenía poca interpretación intuitiva.

2. Existían problemas relacionados con los procedimientos para la selección de la muestra, los cuales habían sido utilizados en el modelo MDA. Por ejemplo, las empresas fracasadas y no fracasadas eran seleccionadas de acuerdo a ciertos criterios, tales como el tamaño y el sector industrial. Para Ohlson estas tendencias eran en ocasiones arbitrarias.

Ohlson consideraba las mayores determinantes para el éxito de la empresa eran: a) el tamaño de la empresa; b) las mediciones de la estructura financiera; c) los resultados y d) la liquidez actual. Basado sobre esta teoría construyó un modelo para predecir la quiebra utilizando nueve variables predictivas que incluyeron: el tamaño de la empresa; los ratios citados comúnmente en la literatura especializada; los resultados del ejercicio; las medidas de posición; y, los resultados y cambios en la posición de la empresa. Detectó que la submuestra de empresas quebradas usualmente era pequeña. Esto le llevó a que incluyera a 105 empresas en quiebra y 2058 empresas no quebradas. No especificó si éstas últimas estaban sanas o enfermas.

En la selección de las variables independientes no llevó a cabo ninguna tentativa para desarrollar algún ratio nuevo. Sus criterios fueron simples y aplicó nueve variables independientes que fueron las siguientes:

1. Log. Activo Total / Índice del Nivel de Precios del Producto Interno Bruto*

2. Pasivo Total / Activo Total

3. Capital de Trabajo / Activo Total

4. Pasivo Circulante / Activo Circulante

5. Variable Dummy = “1”, si el total del pasivo excede al total del activo; y “0”, si el total del activo excede al total del pasivo. **

6. Ingresos Netos / Activo Total

7. Fondos de Operaciones Normales / Activo Total

8. Variable Dummy=1 si los ingresos netos fueron negativos en los dos últimos años; y 0 si los ingresos netos no fueron negativos en los últimos dos años.

9. (Ingresos Netos del Período más reciente (NIt) – Ingresos Netos del Período t-1 (NIt-1) / NIt+ NIt-1)***

* Esta variable la seleccionó para analizar el tamaño de la empresa y su base partió del 100% para 1968. Para los activos, el índice anual equivalía a un año previo al año de cierre del balance general. El procedimiento le aseguró a su modelo la implementación del tiempo real. La transformación logarítmica tuvo para él importantes implicaciones, pues supuso que si dos empresas (A y B) tienen una fecha de balance dentro del mismo año, el signo de PA - PB es independiente del índice del nivel de precios, lo cual constituye una propiedad deseable.

** El ratio dummy (no. 5) lo utilizó como una corrección discontinua del ratio no. 2; concluyendo que: a) Una empresa que tenga un valor en libros negativo es un caso especial. b) La existencia de una empresa depende de una complejidad de factores y por tanto el efecto de una posición de endeudamiento extrema requiere ser corregida; y c) Un signo positivo sugiere casi la seguridad de una quiebra, en cambio un signo negativo indica que la situación es mala debido al ratio no. 2.

*** Aquí el denominador actúa como un indicador de nivel. Esta variable intenta medir los cambios de los ingresos netos y fue propuesta por vez primera por McKibben (1972). Con respecto a los ratios de beneficios, el análisis de datos mostró que los ratios se deterioraron más conforme se acercaba la quiebra (1 y 2 años previos).

Anteriores estudios sobre el “sentido común” le sugirieron a Ohlson que el signo de los coeficientes de los diferentes ratios deberían computarse de la siguiente forma:

Sus resultados le indicaron poca correlación entre las variables de resultados y las de posición. En ambos casos obtuvo contribuciones significativas para su modelo. El tamaño de la empresa fue también considerado como un elemento significativo para la predicción de la quiebra.

El modelo Ohlson clasificó correctamente 96.12% de la muestra de empresas industriales (probabilidad de quiebra). Estos resultados le indicaron que la combinación de la tasa de errores de Tipo I y II, eran mínimas en un punto límite de .038; lo que significó que 17.4% de las empresas sanas y 12.4% de las empresas en quiebra no fueran correctamente clasificadas.

Las conclusiones finales de Ohlson fueron básicamente las siguientes:

1. El período de cualquier modelo depende de la información financiera disponible, es decir, de las bases de datos.

2. El poder predictivo de las transformaciones lineales de un vector de ratios parece ser más amplio cuando se aplica a muestras grandes.

3. Propuso llevar a cabo transformaciones logarítmicas o de raíz para conseguir mayor normalidad en las distribuciones.

4. Con respecto a la desigualdad de las covarianzas pensó en el análisis discriminante cuadrático, aunque consideró que éste se veía afectado más que el análisis lineal por la falta de normalidad, además de su mayor dificultad de aplicación y la disminución de la utilidad marginal de las distintas matrices de covarianzas conforme el tamaño de la muestra se reduce y el número de las variables independientes aumenta con relación a la muestra.

5. En su modelo fue posible identificar cuatro factores básicos que eran significativos estadísticamente para detectar la probabilidad de quiebra un año previo al evento. Estos factores fueron: el tamaño de la empresa, las medidas de la estructura financiera, las mediciones de los resultados, y las mediciones de liquidez a corto plazo (aunque para él las evidencias de este factor no fueron tan claras).

6. Según Ohlson, estudios anteriores como los de Beaver, Altman, Libby, Deakin, Blum, Edmister, Wilcox, Lev, etc., parecen haber exagerado el poder predictivo de los modelos desarrollados, pues consideró que erróneamente entendieron la “predicción” como sinónimo de “pronóstico”. Al respecto Ohlson opinaba que si uno utiliza predictores derivados de estados financieros que fueron hechos después de la fecha de la quiebra, la evidencia indica que será fácil “predecir” la quiebra (p. 110).

7. Los estudios de Ohlson tuvieron una influencia en los posteriores estudios sobre la posibilidad de elección de metodologías estadísticas alternativas, pues se comenzaron a utilizar otros modelos más flexibles en sus requerimientos, proponiendo en general otros dos modelos de probabilidad condicional que fueron: la regresión logística, “Logit”, y la regresión probabilística, “Probit”, las cuales fueron tan eficientes como el MDA.

8. Su trabajo empíricamente no tuvo éxito, pero metodológicamente fue vanguardista en su aportación al desarrollo de las variables independientes.

9. En la muestra propuso por vez primera, que las muestras se podían seleccionar sin un emparejamiento y sin necesidad de cumplir las diferentes proporciones existentes entre los grupos de empresas de la población.

MODELO ROSE-GIROUX (1984).

Peter Rose y Gary A. Giroux (1984) a través de su investigación siguieron la línea tradicional en el uso de ratios. Como muestra seleccionaron 46 empresas sin problemas de quiebra y 46 empresas en quiebra. Posteriormente seleccionaron 130 nuevos ratios, que fueron contrastados empíricamente para probar su capacidad de predicción y discriminación entre empresas en proceso de quiebra y empresas sanas. Del total, sólo 34 nuevos ratios mostraron diferencias significativas entre los dos grupos y éstos fueron combinados con 27 ratios que habían dado resultados positivos en previos estudios.

Como método estadístico, utilizaron el MDA Stepwise, dando como resultado un modelo de 18 variables las cuales tuvieron una importante capacidad de predicción hasta 7 años previos a la quiebra. De estas variables 13 fueron nuevos ratios que indicaron creatividad en la elección de predictores.

Este estudio fue importante porque además de utilizarse las tradicionales funciones discriminantes lineales, se aplicaron las funciones cuadráticas. Ambos tipos de funciones, fueron validadas a través del método “holdout Lachembroch”. La exactitud de la clasificación sobre el período de siete años fluctuó del 97.4% al 88% para la función lineal; y del 86.7% al 74.5% para la función cuadrática.

Sus resultados les indicaron que a pesar de que la función cuadrática tuvo menor exactitud de clasificación, ésta reportó menos porcentajes de error durante el séptimo año previo a la quiebra. Además, la “F-test” les indicó diferentes matrices de varianza-covarianza para los dos grupos, lo que sugirió que la función cuadrática podía ser mejor pues exhibía menos capacidad predictiva errática. Sin embargo, estudios posteriores que utilizaron métodos estadísticos alternativos demostraron que los resultados habían sido muy similares, incluso hasta en las tasas de error.

Esto llevaría a otros investigadores a la conclusión de que la capacidad del modelo predictivo no se basaba principalmente en la mejor elección de un tipo de método estadístico que sustituya a otro o en las variables independientes empleadas para la estimación y validación del modelo estadístico; sino que lo fundamental primeramente era considerar la dificultad que existe para obtener los datos que se utilizan en las variables, los cuales tienen que ser una colección de varios años con utilidad informativa y en la mayoría de las veces su acceso es difícil.

Para estos investigadores, sólo a partir de lo anterior era válido considerar posteriormente la correcta selección de las variables y la importancia del método estadístico a utilizar. Esta idea ya había sido expuesta por Hamer (1983) y fue producto de un trabajo empírico llevado a cabo con el objetivo de constatar la sensibilidad de las variables independientes a través de la utilización de tres métodos estadísticos alternativos (discriminante lineal, discriminante cuadrático y condicional logit). Para cumplir con su propósito, Hamer había seleccionado los modelos de Altman, Deakin, Blum y Ohlson, y utilizando una base de datos de empresas fracasadas, aplicó tres métodos estadísticos diferentes y concluyó al igual que Gentry, Newbold, Witford (1985) y Casey, Bartczak (1985), entre otros, que la capacidad de los modelos predictivos construidos a partir de técnicas alternativas de clasificación no difería de forma significativa. Esto establecía como precedente el reconocimiento implícito que eran las bases de datos las que determinaban en una primera fase la selección de las variables independientes y de la técnica estadística.

MODELO TAFFLER (1984).

Richard Taffler (1984), profesor de la “University Business School of London”, llevó a cabo un trabajo cuyos principales objetivos fueron los siguientes:

1. Hacer una revisión crítica de los modelos Z-Score que se habían desarrollado hasta esa fecha en el Reino Unido.

2. Establecer la necesidad de separar los modelos de las empresas manufactureras y las empresas de distribución.

3. Explorar la utilidad del punto de corte de la técnica discriminante.

4. Determinar como las técnicas de las Z-Scores podían ser utilizadas en ese momento en el Reino Unido.

Para Taffler, al igual que Altman, su modelo no se enfocaba principalmente a la capacidad predictiva, sino a la exactitud de clasificación. Su idea se fundamentaba en que si una empresa obtiene una puntuación Z-Score que la sitúe en la zona de riesgo, eso no indicaba de inicio que el modelo estuviera prediciendo el fracaso, sino de que esa empresa presenta más similitudes con un grupo de empresas fracasadas que con un grupo de empresas sanas. Posteriormente, si la empresa quebraba o no, eso dependería ya de otros factores o sujetos que no era posible incorporarlos al modelo, tal era el caso de los acuerdos con acreedores, proveedores, etc. Por eso el trabajo de Taffler se enfocó más a los problemas conceptuales y estadísticos del modelo que a la importancia de la capacidad de predicción.

En 1984 realizó un “survey” sobre los trabajos desarrollados en el Reino Unido entre 1974 y 1977. Este fue el primer trabajo importante fuera de los Estados Unidos que por cierto también reconoció la importancia que tenían las bases de datos dentro del modelo. Por ejemplo, Taffler opinaba que el Reino Unido era un país ideal para el desarrollo de los modelos predictivos pues contaba con las condiciones más ventajosas para obtener mejores resultados. Éstas las resumía en los siguientes puntos:

1. La información financiera producida por las empresas que cotizaran o no, tenía la suficiente calidad y cantidad. Condición indispensable para desarrollar el modelo predictivo.

2. La bolsa de valores de este país estaba ya lo suficientemente desarrollada.

3. Existían suficientes bases de datos contables informatizadas y homogeneizadas.

4. Había en el país un gran número de empresas fracasadas y este hecho permitía conformar la submuestra de empresas quebradas, cosa que normalmente era una limitación para desarrollar adecuadamente el modelo.

Taffler consideraba que una empresa que seguía operando no necesariamente se tenía que considerar como una empresa no fracasada dentro del modelo. Por otra parte, opinaba que una revisión bibliográfica exhaustiva no era suficiente para elaborar una teoría sobre la selección de los ratios.

Con base en estas premisas, Taffler seleccionó 50 ratios y aplicó posteriormente un análisis de componentes principales para reducir el número de factores y variables a un total de 5. Con éstas diseño la función discriminante.

FACTORES Y VARIABLES DEL MODELO TAFFLER

FACTORES RATIOS

1. Rentabilidad

2. Endeudamiento

3. Posición de Activos

4. Posición del capital circulante

5. Nivel de actividad. 1. Beneficio neto antes de interese e imptos /Activo total inicial

2. Pasivo total / Capital Contable

3. Activos diferidos / Activo total

4. Capital circulante / Fondos propios

5. Rotación de Stocks.

Fuente: Taffler (1984)

Entre sus primeros resultados Taffler observó que los dos primeros factores presentaron la mayor capacidad discriminatoria de la función.

En 1977 Taffler junto con Tisshawa realizaron un segundo trabajo en donde modificaron las variables del modelo original de Taffler (1973), reduciendo los factores a cuatro para hacer frente a la nueva y compleja información contable que se presentó en el Reino Unido debido a las altas tasas de inflación que afectaron a la información contable e incluyeron empresas fracasadas entre 1968-1973. La función discriminante quedó compuesta por los siguientes factores y ratios; sin embargo, el modelo de Taffler y Tisshawa no fue publicado por razones comerciales, de ahí que se desconozcan los coeficientes y su ponderación dentro del modelo.

FACTOR RATIO

1. Rentabilidad

2. Posición de capital circulante

3. Nivel de endeudamiento

4. Liquidez 1. Beneficios netos antes de intereses e impuestos / Activo Total

2. Activo Circulante / Pasivo Total

3. Pasivo Circulante / Activo Total

4. Intervalo sin crédito.

Fuente: Taffler (1984)

Los factores de rentabilidad y endeudamiento fueron los que más peso clasificatorio tuvieron. Para Taffler el análisis multivariable redujo el efecto window dressing en la contabilidad, pues esta técnica estadística permitió llevar a cabo un análisis simultáneo entre la rentabilidad, el endeudamiento y la posición de liquidez; lo que hizo más difícil la manipulación.

Taffler y Tisshawa advirtieron, al igual que los Takahashi y Kurokawua (1985), sobre las limitaciones del análisis discriminante a través de la utilización aislada de la Z-Score, pues opinaba que esta herramienta era más útil cuando se consigue un desarrollo complementario que proporciona una aproximación a los diferentes grados de riesgo. A partir de esto propuso dos importantes conceptos con el fin de incorporarlos a su modelo y fueron:

1. El índice de riesgo: esta medida trató de indicar en qué medida y durante cuantos años la Z-Score era negativa. También intentó proporcionar indicadores sobre la tendencia de la Z-Score

2. El “Performance Analysis Service Score”(PAS-SCORE). Este indicador consistió en transformar la Z-Score en una medida de escala de 0 a 100. Para esto primeramente se debía de ordenar en forma ascendente las puntuaciones de las empresas muestreadas y posteriormente, se establecía el percentil en el que se ubicaban las empresas para medir el riesgo global de cada una de estas considerando la situación económica del sector.

Por último, Taffler también destacó la gran importancia de la utilidad de los estados financieros cuando se analizaban adecuadamente, agregando que para cada sector se requería el desarrollo de modelos distintos. La base de datos se tomó del sistema “EXAT”, que es el equivalente al “COMPUSTAT” de los Estados Unidos de Norteamérica.

MODELO ZAVGREN (1985).

Christine V. Zavgren (1985), profesor asistente de la Universidad de Purdue, Indiana, llevó a cabo su investigación utilizando los resultados del análisis factorial de Pinches (1973) para: reducir el número de variables, reducir la probabilidad de multicolianilidad y continuar con la medición de todas las fases de la posición financiera y los resultados de las empresas.

El estudio partió del hecho de que existía una deficiente técnica que guiara la selección de las variables independientes y consideró que la importancia que tienen dichas variables tenían que ser realmente valoradas pues eran empíricamente determinantes.

Zavgren seleccionó el estadístico logit como método de estimación, considerando que la probabilidad de quiebra era más importante con respecto a una única clasificación de quiebra o no quiebra, lo cual permitiría al usuario valorar el potencial de riesgo.

Para la muestra seleccionó 45 empresas en quiebra y 45 empresas sanas del sector manufacturero durante el período 1972-1978. La muestra de empresas sanas la tomó del “Compustat New York Stock Exchange, Over-The Counter”. Para la muestra de empresas en quiebra tomó 130 que se inscribieron en el procedimiento concursal bajo el Capítulo X y XI durante el período de 1972-1978. De estas 69 pertenecían al sector manufacturero (SIC Codes 2200-3940) . Posteriormente 16 de estas empresas fueron descartadas por tener una mala base de datos. Por último, cada empresa quebrada fue emparejada con una sana.

Para la selección de las variables independientes, el autor se basó en los estudios de Pinches, Mingo y Caruthers (1973) y de Pinches, Eubank, Mingo y Caruthers (1975), los cuales habían aplicado el análisis factorial. Estos estudios habían identificado que los ratios representaban la principal dimensión independiente de las bases de datos de los estados financieros. Por eso consideraban que era importante valorar la estabilidad de estas dimensiones a corto y a largo plazo.

Zavgren observó que los anteriores estudios de Pinches et. al. habían determinado, a través del análisis factorial ortogonal, que existía estabilidad en las dimensiones de la información financiera y que cada factor contenía por lo menos un ratio con alto peso o correlación con el factor. De esta forma la mayor parte de la información estaba relacionada con el factor.

Para su estudio empleó los mismos ratios y los mismos siete factores de Pinches et al., a excepción del ratio de circulante que sustituyó por el ratio de la prueba del ácido dentro del factor de la liquidez a corto plazo. Esto lo hizo porque consideró que el ratio de circulante se incrementaba en proporción con los inventarios acumulados; y dentro de una empresa en quiebra este fenómeno daba una medida de liquidez errónea.

Su modelo final quedó compuesto por el ratio más representativo de cada uno de los siete factores (peso o correlación del ratio dentro del factor).

MODELO ZAVGREN

FACTOR RATIO FACTOR LOADING

1. Retorno de la Inversión Ingresos Totales / Capital Total .97

2. Rotación de Capital Ventas / Activo Fijo .95

3. Rotación de Inventarios Inventarios / Ventas .97

4. Apalancamiento financiero Proveedores / Capital Total .99

5. Rotación de Cuentas por Cobrar Cuentas por Cobrar / Inventarios -.99

6. Liquidez a Corto Plazo Activos Rápidos / Pasivo Circulante .81

7. Posición de Tesorería Tesorería / Activo Total .91

Para Zavgren la rentabilidad le proporcionó una medida del retorno de la inversión y era significativa al igual que la estructura de capital y la liquidez para determinar lo sano de una empresa. Por otra parte, observó que en las empresas fracasadas se presentaba un alto apalancamiento financiero y éstas eran incapaces de cumplir con el servicio de la deuda de sus pasivos. Como se verá igualmente en otros trabajos, la liquidez no fue considerada como un signo determinante para decidir si la empresa estaba sana o no.

Los ratios de eficiencia tuvieron una gran importancia a largo plazo en el modelo, porque le permitieron medir la capacidad de la empresa para la utilización de sus activos considerando el total de su capacidad instalada. Sin embargo, Zavgren determinó que a corto plazo era difícil medir la eficiencia porque la utilización de los activos es difícil de modificar en ese período y sobre todo la correspondiente a la rotación de los activos fijos. A partir de esto consideró que las medidas de eficiencia iban dirigidas a decisiones a largo plazo al igual que las inversiones en capital y las plusvalías de marketing que afectan también a los ratios de eficiencia; y por lo tanto, se tenía que analizar bajo la óptica de largo plazo. Con base en lo anterior Zavgren consideró que estas variables eran significativas dentro de su modelo financiero predictivo.

Con respecto al ratio de la prueba del ácido, éste le indicó la capacidad de la empresa para hacer frente a sus obligaciones a corto plazo, pues para él una reserva inadecuada de activos rápidos podía llevar a una empresa al fracaso. El coeficiente negativo y la alta significancia del ratio del ácido en los años posteriores indicaron que la capacidad para cubrir las obligaciones a corto plazo era un factor importante para no quebrar. Los coeficientes de liquidez en los primeros años y su signo negativo mostraron que las empresas quebradas estuvieron más interesadas en la liquidez que en las oportunidades productivas.

El ratio de activo circulante / activo total lo consideró como una medida de relativa liquidez pero de especial importancia, pues cuando daba resultados críticos se estaba cerca de la quiebra. Para él sólo los activos líquidos podían generar tesorería para cubrir las obligaciones, en cambio a largo plazo, una empresa exitosa debía intentar minimizar su liquidez. Por eso, algunos consideran que este ratio no es comparable entre empresas con diferentes desarrollos financieros dadas las diversas estrategias para alcanzar el éxito.

Sus resultados le indicaron que en los años cercanos a la quiebra, los ratios de tesorería / activo total y activo rápido / pasivo circulante eran importantes para la predicción de una quiebra; el ratio pasivo total /capital total fue significativo durante todos los 5 años; en cambio, el ratio inventarios / volumen de capital fue únicamente más significativo con el incremento del número de años previos a la quiebra. En cuanto a las mediciones del retorno sobre la inversión, éstas fueron marginalmente significativas sólo en el cuarto año previo a la quiebra. Esto le sugirió que “la medición contable de los beneficios no distinguía entre lo sano o enfermo de una empresa” (p.41). En la rentabilidad no encontró una característica significativa distinta.

Zavgren consideró a los costes de error tipo I y II como iguales, por consiguiente, el punto límite de quiebra: “Logit-Score”, dio como resultado un porcentaje de error total más bajo. Los porcentajes de error en la muestra original fueron de: 18%, 17%, 28%, 27% y 20%, del primero hasta el quinto año previo a la quiebra entre los cinco años previos a la quiebra. La muestra de validación (1979-1980) dio un porcentaje de error de clasificación del 31% para cada uno de los años.

Los porcentajes de error un año previo a la quiebra fueron similares a los de Ohlson; es decir, fueron más bajos que los reportados por Altman. Sin embargo, Zavgren reconoció que dada la limitada disponibilidad de datos correspondientes a las empresas en quiebra, una posible generalización no era un hecho factible, pues a lo más la única generalización que se podía hacer de su estudio era si los resultados del modelo podían ser validamente extensibles a períodos de tiempo futuros. Zavgren, a través del análisis riguroso de los estudios pioneros elaborados hasta la década de los setenta, ha sido uno de los principales investigadores que llegó a la conclusión sobre la importancia que tiene la mejora de las bases de datos contenidas en los estados financieros para mejorar los modelos predictivos.

7 ESTUDIOS BASADOS EN CASH FLOW PARA EL ANALISIS FINANCIERO MULTIVARIABLE

Una primera crítica que han hecho algunos investigadores a los trabajos empíricos sobre quiebras conducidos antes de mediados de la década de los ochenta, es que estos estudios sólo se realizaban sobre la base del devengo. Pero a partir de la época de los ochenta, se iniciaron estudios conducidos principalmente para investigar si existía evidencia empírica de una mayor capacidad predictiva al utilizarse el cash flow operativo, para aplicarlo posteriormente a ratios individuales o en combinación con otros ratios basados en el devengo. Esto se llevó a cabo con metodologías estadísticas similares a las que se habían estado utilizando en los modelos basados únicamente en el devengo y desarrollados principalmente en los Estados Unidos durante las décadas de los sesenta y setenta.

En aquellos tiempos la utilización de datos basados únicamente en la contabilidad del devengo, puede ser parcialmente justificada por la falta de información y normatividad sobre el cash flow. Los reportes de cash flow no se elaboraron hasta que se volvieron obligatorios en 1987 por recomendaciones del FASB en su Boletín No. 95 que estableció los estados estandarizados de contabilidad financiera y exigió por vez primera elaborar el estado de cash flow.

Como se observará más adelante, el concepto de cash flow fue considerado en general sólo como la suma de los ingresos netos más las depreciaciones o el capital de trabajo operativo, hasta que Pinches et Al (1973, 1975) hicieron notar que los sustitutos del cash flow no contenían la misma información del concepto más correcto y actual del cash flow.

En general, el antiguo concepto de cash flow se asociaba más con las medidas de rotación de ventas o rotación de activos. Por otra parte, la posición de tesorería se presentaba como un factor separado de la liquidez a corto plazo, pues se consideraba un concepto distinto.

Actualmente el cash flow tiene otros componentes tales como el de financiación y el de inversión. Con respecto al cash flow operativo, éste puede ser calculado por dos métodos que son reconocidos por el SFAS No. 95. Dichos métodos son el directo y el indirecto. El primero incluye las actividades ordinarias, las cuentas por pagar y otras cuentas de tesorería. En el segundo método su cálculo parte de los ingresos netos sin considerar los extraordinarios, y a su vez se puede optar por dos alternativas que son: a) eliminando los efectos del devengo, los anticipos diferidos, y las operaciones que producen ingresos y gastos pero que no modifican o contienen partidas de tesorería; y b) ajustando los recursos operativos y los usos de la tesorería, los cuales no producen ingresos y gastos. La adopción de los anteriores criterios aunque ha sido importante en varias investigaciones, también en otras se ha omitido erróneamente.

Así, en la década de los ochenta los estudios sobre quiebras pasaron por alto la información sobre los componentes del cash flow operativo, de inversión y de financiación, y por consiguiente, de los ratios basados sobre las diversas actividades medidas a partir de esta variable. Estudios como los de Beaver (1966), Deakin (1972), Edmister (1972) y Ohlson (1980), aunque utilizaron diversos conceptos de cash flow, estos en realidad fueron sustituciones imprecisas, tales como la de los ingresos netos más la depreciación, los ingresos extraordinarios y algunas partidas de gastos.

Aunque tales sustituciones estaban justificadas por el “state of art” del concepto del cash flow, en la opinión de Bukovinsky (1993), esto originaba principalmente tres situaciones negativas dentro del modelo que eran las siguientes:

1. Las sustituciones del cash flow podían llevar a conclusiones erróneas al usuario del modelo.

2. La sustitución del cash flow no contenía la misma información que tiene actualmente este concepto que es muy complejo. De hecho se ha podido comprobar que el contenido de la información del antiguo y más popular concepto no es ni siquiera equivalente al contenido del cash flow operativo.

3. Los sustitutos del cash flow sólo se referían al cash flow operativo y no se consideraba al cash flow de financiación e inversión. Por eso, en los primeros estudios no fue posible utilizar esa información en los componentes de los ratios cuya base era el efectivo, para contrastar si aumentaba el poder predictivo de los modelos.

Con base en estos tres puntos se puede concluir que durante la década de los sesenta y setenta no se sabía exactamente lo que se estaba midiendo, pues incluso la liquidez y el cash flow se consideraban como conceptos equivalentes.

Con respecto a la información de cash flow, el boletín No. 95 del FASB obligó a las empresas a incluir un estado de cash flow dentro del conjunto de estados financieros básicos, pues consideró que este estado debía sustituir al estado de cambios en la posición financiera, pues proporcionaba información financiera más relevante que no contienen otros estados financieros, como por ejemplo: la determinación de la liquidez y la capacidad de pago de los pasivos (solvencia).

Al avanzar el desarrollo contable también se propuso la sustitución del estado de cash flow por el estado de cambios en la situación financiera, pues aunque actualmente la información que ambos estados proporcionan es válida, las bases de su preparación y su significado pueden ser en ciertas ocasiones diferentes, debido principalmente a los efectos de la inflación en la información financiera. En este caso, el estado de cambios en la posición financiera muestra en moneda constante los recursos generados y aplicados en la operación, los cambios en la estructura financiera y su reflejo final en el efectivo e inversiones temporales a través de un período determinado.

En general, los resultados de los estudios predictivos, que consideraron al cash flow operativo, mostraron que tales medidas podían utilizarse sólo como una contribución marginal para diferenciar entre las empresas en quiebra y las empresas sanas. Sin embargo, dicha exactitud marginal dentro del modelo podía ser mínima y siempre debía tenerse un gran cuidado para seleccionar a las variables independientes.

Diversas investigaciones en general han coincidido en que entre las empresas sanas y fracasadas existen valores estadísticos diferentes para varias mediciones del cash flow total, operativo, financiero y de inversión. Pero que no todas estas medidas proporcionan una utilidad para predecir la quiebra.

Estudios como lo de Casey y Bartczak (1984, 1985) nos ayudan a comprender que no deberíamos caer en la euforia de una “medida mágica” para los modelos predictivos, pues en sus resultados quedó demostrado que el cash flow operativo no exhibió por sí sólo (o cuando lo sumaron a los modelos basados en el devengo) mayor poder predictivo. Similares resultados obtuvieron Gómbola et al. (1987), Gentry et al. (1985 a, 1985 b), Aziz y Lawson (1989), entre otros.

Los diferentes resultados obtenidos han llevado a la conclusión de que el análisis de sólo el concepto del cash flow operativo debe abandonarse y considerar la diversidad de conceptos que tiene el cash flow; incorporando como mínimo el cash flow de inversión y de financiación.

La literatura especializada indica también que es importante analizar el modelo predictivo no sólo desde la óptica estadística, sino partiendo desde la concepción del modelo como sistema de información contable complejo y multidisciplinario, y cuyo objetivo es presentar estados o información financiera condensada en ratios que posteriormente sean transformados, a través del análisis estadístico, a indicadores de exactitud, error e ignorancia, para clasificar o discriminar entre empresas sanas, fracasadas y enfermas.

Como hemos visto, los primeros estudios se concentraron en partir de la posición de la empresa basada en los sistemas de devengo y en las mediciones de rentabilidad. Posteriormente, el avance en la evolución de los estados de cambios en la posición financiera incrementó la complejidad, pero a la par también incrementó la objetividad y la utilización más correcta de los conceptos y medidas de flujos de fondos; es decir, hoy sabemos mejor qué y cómo queremos medir ciertas variables, así como, que componentes deben incluirse en ellas.

Por otra parte, también hoy sabemos que hemos pasado de un periodo “obscuro”, en donde la liquidez y el cash flow se consideraban erróneamente como sinónimos. Actualmente no sólo se han propuesto diferentes definiciones a estos dos elementos, sino que también se pueden utilizar para cada uno de ellos diferentes estados financieros que son producto de un mejor cálculo. Así tenemos por ejemplo: el estado de cambios en la posición financiera, el estado de cash flow, el estado de tesorería o el estado de caja entre otros.

Algunos de los anteriores estados deberían de contribuir de forma importante como nuevas alternativas para las bases de datos a lo largo del desarrollo de los actuales modelos predictivos. Sin embargo, aún es notoria la ausencia de contables en este campo donde paradójicamente el lenguaje común son los estados financieros.

La combinación adecuada y constante de nuevos estudios con base en el cash flow y con base en el devengo, puede llevarnos a una mayor exactitud real tanto clasificatoria como predictiva. También la descomposición cada vez más exacta de los elementos del cash flow puede proporcionar al modelo nuevas variables independientes que incrementen la exactitud marginal, y por qué no, llegar tal vez a proponer un nuevo factor dentro de las funciones lineales. Para esto se deberán desarrollar nuevas propuestas de ratios basados en una sólida teoría que habrá nuevas oportunidades al investigador.

Debemos entender que el “cash position” y el cash flow constituyen conceptos diferentes que juegan un papel muy importante. La nueva tendencia metodológica parece indicar que hay que intentar sumar o restar variables o componentes del cash flow dentro del sistema del devengo para incrementar el poder predictivo del modelo. A continuación se presentan una serie de trabajos que establecieron las bases de un nuevo enfoque de los modelos predictivos.

MODELO DAMBOLENA Y KHOURY (1980).

Dambonela Ismael, de la Universidad de Babson, y Khoury Sarkis, de la Universidad de Bucknell, realizaron un estudio sobre la estabilidad de los ratios y la quiebra empresarial. Para ello presentaron un modelo cuyo principal atributo era su estabilidad a través del tiempo y el mantenimiento del nivel de los ratios como variables explicativas dentro de la función discriminante.

Este estudio fue de los primeros en importancia que abordó el problema de la falta de dinimicidad de los modelos predictivos, al utilizar ratios como variables independientes estáticas que no reflejaban la evolución de la información en cuanto a su tendencia y variabilidad a lo largo de los años.

Según los autores, los ratios de las empresas fracasadas presentan importantes fluctuaciones a medida que se está más cerca del fracaso. Por eso su principal objetivo fue obtener una propuesta sobre la dinimicidad. Para esto consideraron básico medir la estabilidad de cada uno de los ratios en un momento del tiempo aplicando la desviación estándar hasta 4 años previos a la quiebra. El modelo con esto, a parte de incluir los valores de cada ratio con los que se estructuraba la función discriminante, también integraba indicadores de estabilidad temporal pertenecientes a esas variables independientes.

Anteriores estudios sólo habían considerado la estabilidad del ratio pero no del conjunto en general.

Las medidas para medir la estabilidad y dinimicidad del modelo fueron cuatro:1.- Desviación típica de los valores durante los últimos tres años. 2.- Desviación típica de los valores durante los últimos cuatro años. 3.- El error estándar de las tendencias a lo largo de cuatro años. 4.- El coeficiente de variación de los cuatro años.

Una vez obtenidas estas medidas Dambolena y Khoury definieron dos funciones discriminantes a través del método “Stepwise”. La primera función se diseñó a partir de los 15 ratios más populares. En la segunda función se incluyeron a demás de éstos ratios, las desviaciones típicas de cada ratio a lo largo de los últimos cuatro años.

Su investigación les indicó que existía un grado sustancial de inestabilidad durante los últimos años al aplicar a los ratios financieros mediciones como: la desviación estándar; la estimación del error estándar; y el coeficiente de variación de los ratios correspondientes a empresas que llegaron a la quiebra en comparación con aquellas que no quebraron. Dicha inestabilidad mostró un significativo incremento a través del tiempo. La inclusión de la estabilidad de los ratios en el análisis incrementó considerablemente la capacidad discriminante de la función para predecir una quiebra.

El modelo de estos investigadores obtuvo una exactitud clasificatoria entre grupos de empresas fracasadas y no fracasadas del 78% cinco años previos a la quiebra. La fuerza de su análisis consistió en que éste no sólo tendió a desarrollar un modelo con mayor poder predictivo, sino que además buscó desarrollar un sistema conceptual para los demás modelos que buscan predecir las quiebras en las empresas. La desviación estándar de los ratios a través del tiempo mostró ser la mejor medida para la estabilidad del ratio, lo cual representó para ellos el núcleo fuerte de su análisis. Los porcentajes de clasificación correcta fueron del 87% un año previo a la quiebra; 85% tres años y 78% cinco años previos a la quiebra. Su función discriminante incluyó a ratios que pertenecían a las categorías de rentabilidad, endeudamiento y liquidez; y fueron los siguientes:

FACTOR RATIOS

MEDIDAS DE RENTABILIDAD 1. Beneficios netos / Ventas

2. Beneficios netos / Capital Contable

3. Beneficios netos / Capital de Trabajo Neto

4. Beneficios netos / Activo Fijo

5. Beneficios netos / Activo Total

ACTIVIDAD Y RETORNO (EFICIENCIA)

5. Ventas / Capital Contable

6. Ventas / Capital de Trabajo Neto

7. Ventas / Inventarios

Coste de Ventas / Inventarios

MEDIDAS DE LIQUIDEZ 8. Ratio de Circulante

9. Ratio de Prueba del Acido

10. Desviación Estándar del ratio Inventario / Capital de Trabajo Neto

11. Pasivo Circulante / Inventarios

MEDIDAS DE ENDEUDAMIENTO 12. Desviación Estándar del Ratio Activo Fijo / Capital Contable

13. Pasivo Circulante / Capital Contable

14. Pasivo Total / Capital Contable

15. Ratio de Intereses Ganados

16. Pasivo Fijo (Deuda Consolidada) / Capital de trabajo Neto

17. Pasivo Total / Activo Total

Fuente: Dambolena y Khory (1980)

Para ellos la utilidad de los ratios ofreció una medición razonable para la eficiencia directiva. Los ratios de apalancamiento y la estabilidad del ratio de Activo Fijo / Capital Contable les proporcionó, según ellos, algunos razonamientos históricos para el fracaso empresarial que se resumía en que la excesiva utilización del apalancamiento estaba directamente relacionada con el fracaso, y que la estabilidad del ratio de liquidez constituye una medición necesaria para la solvencia empresarial

En cuanto a su base de datos, ésta la obtuvieron de 68 empresas (34 sanas y 34 en quiebra). Las empresas fueron emparejadas de acuerdo al sector industrial y según los criterios del “Dun and Bradstreets´ Million Dollar Directory”. Los datos financieros de 20 empresas se obtuvieron del “Moody´s Industrial Manual”, con un período de ocho años previos a la quiebra o al último cierre del ejercicio de las empresas sanas. Como en casi todos las investigaciones sobre este tema, los autores tuvieron que eliminar de la muestra a once pares de empresas por la inconsistencia y la variabilidad de los criterios contables. Aquí los estados financieros (balance general y estado de resultados) no tenían ajustes ni estaban reexpresados. Esta omisión se debe a que consideraron que el único ajuste significativo que había realizado Altman fue el correspondiente a la capitalización.

Las quiebras ocurrieron durante el período de 1969-1975 y el sector al que pertenecían las empresas era el manufacturero y el detallista. En cuanto a las variables independientes, la selección de los ratios se hizo bajo las siguientes cuatro consideraciones:

1. La disponibilidad de los datos para calcular los ratios entre todas las empresas y a través del tiempo.

2. La razonabilidad del ratio con relación al desarrollo de la función discriminante.

3. El desarrollo comprensible de un conjunto de ratios en cuanto a su tipo (rentabilidad, liquidez, endeudamiento y actividad).

4. Cada ratio se calculó para todas las empresas a través de un período de cinco años.

Con base en sus resultados finales, Dambolena y Khory concluyeron que al incluirse medidas de estabilidad se obtenía un incremento en las funciones discriminantes un año previo al fracaso. Su trabajo en general aportó importantes elementos y conceptos a la teoría del fracaso empresarial.

Años después Dambolena realizó otro trabajo con Joel Shulman (1988). Su Estudio proporcionó evidencia empírica sobre el incremento de la capacidad predicitiva cuando se incluyen variables basadas en el cash flow. Para ellos la utilización de la variable de Balance Neto Liquido fue muy importante y consistía en la diferencia entre todos los activos líquidos financieros (tesorería, valores transferibles y valores moviliarios) y todos los pasivos exigibles. Esta variable ya había sido utilizada en otros estudios como los de Altman (1968) y Gentry, Newbold y Whitford (1985a). En el modelo de Altman esta variable había incrementado la exactitud predictiva del 85% al 92% un año previo a la quiebra; y del 82% al 84% dos años previos a la quiebra. En el modelo de Gentry et. al. se incrementó del 74% al 89% y del 68 % al 76 %, uno y dos años previos a la quiebra. Todos estos resultados les indicaron que las bases de datos basadas en el efectivo podían incrementar el poder predictivo.

MODELO CASEY (1980).

Cornelius Casey (1980) realizó su estudio con el apoyo de la Universidad de Harvard, “Robert Morris Associates” y la fundación “Peat, Marwick and Mitchell”, entre otras. Este estudio se basó en el trabajo de Libby (1975) que había determinado que la confianza tradicional que se tenía en el análisis de ratios para los ratings crediticios parecía justificada (p. 156). Para su estudio Libby había utilizado sólo una base de datos financieros correspondiente a un año. A partir de esto Casey se propuso llevar a cabo un estudio comparativo con respecto al trabajo de Libby con una muestra que integraba únicamente a bancos, los cuales habían sido seleccionados con base en su participación activa dentro de los más sofisticados análisis de información contable.

La muestra final quedó integrada por 15 empresas quebradas y 15 empresas no quebradas incluidas en el “Compustat Industrial Tape•”. Para la selección de la muestra se tomó en cuenta principalmente el tamaño y el sector industrial de la empresa (clasificación industrial estándar: SIC). “Robert Morris Associates” le proporcionó la base de datos de 27 bancos comerciales ubicados en 18 ciudades dentro de 14 estados de Norteamérica. A su vez esta base de estados financieros, con datos contables y datos no contables, se obtuvo del “Compustat Industrial Tape” con una unidad temporal de cinco años previos a la quiebra y contaba con una clasificación industrial estándar que especificaba el período de tiempo de los datos.

Para definir a la variable dependiente se consideraron aquellas empresas que habían solicitado su quiebra bajo el Capítulo X y XI del “Federal Bankruptcy Act” durante el período 1972-1976 y que fueron incluidas en la lista de quiebras del “Wall Street Journal Index”. Aquí el fracaso fue un sinónimo de las empresas que estaban en un procedimiento concursal. En cambio en el estudio de Libby se había considerado para el fracaso a los conceptos de: “quiebra”, “insolvencia” o “liquidación para el beneficio de los acreedores”.

Como variables independientes Casey utilizó los cinco ratios del trabajo de Libby, más el ratio número seis y cuyos porcentajes de importancia fueron los siguientes:

Al analizar el comportamiento de los ratios durante tres años previos a la quiebra los porcentajes de Casey coincidieron con los de Libby. La exactitud predictiva correcta que obtuvo fue de 17 empresas de un total de 30 empresas. Esto le sugirió que las oficinas de crédito cuando analizaban una muestra, era frecuente que no supieran con certeza acerca de la posibilidad futura de una quiebra. Por otra parte, como ha sido normal en todos los resultados de las investigaciones, el mayor porcentaje obtenido del total de predicciones correspondió a las empresas no quebradas (79.6%).

Las conclusiones finales de Casey fueron que los años y la tendencia de los datos (que esta fuertemente influenciada por las predicciones subjetivas) son desconocidos. También reconoció que la obtención de los datos por medio de encuestas presenta problemas, especialmente por una falta de control que esta asociada con el uso inadecuado de un cuestionario que se envía por correo. De ahí que advirtiera sobre la necesidad de llevar a cabo futuras investigaciones sobre las bases de datos contables más representativas del mundo real, así como de las diferentes cantidades y tipos de “multiperíodos” de datos de los ratios con variaciones en sus niveles de contenido predictivo.

MODELO CASEY Y BARTCZAK (1984).

Cornelius Casey y Norman Bartczak (1984), éste último profesor del Dartmouth College, desarrollaron conjuntamente y por primera vez una investigación que contrastara estadísticamente la utilidad del cash flow operativo en un análisis univariable, comparándolo con un análisis multivariable aplicado a ratios basados en el devengo en un mismo modelo para ver su capacidad predictiva marginal. Esto con el objetivo de limitar el exceso de optimismo que comenzaba a presentarse con esta nueva magnitud, ya que la experiencia vivida en muchos trabajos antes de la década de los setenta, les había señalado que el excesivo convencimiento de muchos investigadores sobre el ratio de circulante y el de beneficio por acción había resultado erróneo.

La muestra se compuso de 60 empresas quebradas y 230 empresas sanas durante el período de 1971-1982.

La selección de las variables independientes se estructuró a través de la combinación de un análisis univariable a un grupo de tres ratios cuya base era el cash flow operativo (cash flow operativo, cash flow operativo / pasivo circulante y cash flow operativo / pasivo total) y otro grupo de seis ratios que se calcularon con base en el devengo a través del análisis MDA. Para estos ratios, se seleccionaron principalmente los factores de rentabilidad y endeudamiento.

Para el análisis se calcularon los valores medios de los ratios para cada grupo de la muestra, los cuales dieron valores bajos para las empresas en quiebra durante los cinco años del análisis. También muchas empresas, tanto sanas como fracasadas, exhibieron similares medidas de cash flow operativo, y sólo pocas empresas sanas mostraron mayores magnitudes de cash flow operativo. En general ninguna de las tres variables de cash flow operativo obtuvo mayor capacidad de clasificación en comparación con las seis variables analizadas con el tradicional MDA, cuya exactitud predictiva global para el primer grupo osciló entre el 72% hasta el 46%, y para el segundo grupo osciló entre el 86% al 61%, del primero hasta el quinto año previo a la quiebra.

Posteriormente, Casey y Bartczak incluyeron las tres variables de cash flow en el modelo basado en el devengo, pero tampoco obtuvieron una significativa capacidad de clasificación marginal. Estos resultados les indicaron que el cash flow operativo no tenía una importante capacidad predictiva, sobre todo en aquellas empresas con crecimiento económico y aquellas empresas fracasadas que producen relativamente poco cash flow, porque su tesorería esta vinculada con la expansión del inventario y los pasivos.

En 1985 ambos autores emprendieron otro estudio para comprobar la capacidad predictiva marginal de los flujos de caja en el modelo a través del análisis discriminante. Para este estudio contaron con las sugerencias de importantes investigadores como Altman, Horrigan, Stickney, entre otros.

A estas fechas ya se reconocía la mayor confiabilidad de los estados financieros contables y de la información adicional que las empresas ya comenzaban a emitir sobre el cash flow operativo. El FASB consideraba que este concepto tenía una gran importancia para que la empresa pudiera entender los cambios adversos en las condiciones de operabilidad. Casey y Bartczak consideraban que basados en la intuición y en la evidencia empírica, el cash flow operativo histórico les permitría valorar mejor el cash flow futuro de la empresa.

Su estudio nuevamente se orientó a comprobar si en realidad los datos del cash flow operativo y las medidas obtenidas con éste, proporcionaban una mayor exactitud predictiva. Para esto, tomaron en cuenta los resultados de la investigación de Gombola y Ketz (1983), en donde habían determinado varios ratios basados en el cash flow operativo en lugar de un simple ratio de cash flow con el fin de ver si eran más útiles como descriptores y predictores. A partir de esta idea intentaron determinar el contenido predictivo marginal de un número de ratios cuyo componente era el cash flow operativo. Los autores utilizaron como variables independientes iniciales a las siguientes:

1. Cash flow operativo/ Pasivo Circulante

2. Cash flow operativo / Pasivo Total

3. Cash flow operativo / Activo Total

4. Activo Circulante / Activo Total

5. Activo Circulante / Pasivo Circulante

6. Ventas / Activo Circulante

7. Ingresos Netos / Activo Total

8. Pasivo Total / Capital Contable

Para Casey y Bartczak los pobres resultados sobre este tipo de ratios en trabajos anteriores, no implicaban un preludio de su capacidad para aumentar el poder predictivo del modelo cuando se utilizaban en combinación con los ratios basados en la acumulación o devengo. Tomaron en cuenta que las investigaciones contables habían sido incapaces de documentar la existencia de un contenido informativo incremental sobre datos de cash flow operativo y por ello decidieron volver a examinar el potencial de esos datos contables.

En las anteriores investigaciones se definía normalmente al cash flow como los ingresos netos más los gastos que no eran de capital de trabajo. Para ellos esto era un grave error, pues se omitían elementos tan importantes, tales como los cambios en los activos y pasivos circulantes, los cuales tenían un significativo impacto sobre el cash flow operativo actual de la empresa.

Para ellos el concepto de cash flow correcto era el capital de trabajo operativo más, o menos, los cambios en las cuentas del capital de trabajo, que no fueran en efectivo. Este concepto era consistente con aquel recientemente expuesto por el FASB (Exposure Draf de 1981).

Partiendo siempre de que las anteriores investigaciones empíricas sobre la relación del cash flow operativo y el fracaso financiero habían proporcionado poca evidencia de que tales datos eran útiles para discriminar entre las empresas con “problemas” y las empresas sanas, propusieron como solución establecer algunas diferencias que fueron principalmente las siguientes:

1. Incluyeron un enfoque sobre el potencial marginal que incrementara la exactitud de clasificación al utilizar el cash flow operativo.

2. Utilizaron una muestra grande de empresas en donde sólo existiera una pequeña porción de empresas fracasadas.

3. Llevaron a cabo una validación de los resultados basada sobre una muestra de control.

4. Utilizaron la misma base de datos de las empresas quebradas del estudio de Ohlson (1980).

Para la submuestra seleccionaron 60 empresas quebradas. Parte de estas empresas constituyeron la base de datos que Ohlson (1980) había utilizado en su estudio durante el período de 1971-1982. También incluyeron algunas otras empresas del “Dun and Bradstreet” y del “Wall Street Journal Index”. Un criterio importante para la selección de la muestra fue que las empresas tuvieran una base de datos de estados financieros de por lo menos cinco años. Esto lo hicieron con el fin de poder observar bien la tendencia de las variables.

En cuanto a la submuestra de empresas sanas, incluyeron 230 empresas del “Compustat Industrial Tape”. Aquí las firmas no se seleccionaron con base en su tamaño pues este aspecto no se consideró de importancia.

Como técnica estadística, utilizaron los análisis MDA, el Logit y el condicional “Stepwise”. El MDA lo aplicaron a 9 variables: seis de las cuales habían sido propuestas por Chen y Shimerda (1981) y estaban basadas en el devengo. Las otras tres variables de cash flow eran las mismas que había utilizado en su anterior estudio (1984).

El ratio de cash flow operativo / pasivo circulante fue significativo durante los tres primeros años. El cash flow operativo / pasivo total fue significativo únicamente los dos primeros años. Por último, el ratio de cash flow operativo fue significativo el primero, cuarto y quinto año, es decir, no tuvo una tendencia decreciente constante.

Al validar estos resultados con una muestra de control, las nueve variables independientes no mejoraron su significancia o capacidad predictiva con respecto al modelo original que incluía sólo seis variables basadas en el devengo.

Posteriormente aplicaron una regresión logística “stepwise” en cada uno de los cinco años previos a la quiebra. Los resultados indicaron que las variables de cash flow operativo no tenían poder explicativo, pues no se obtuvo mayor exactitud en la clasificación. Estos resultados reafirmaron los de su estudio de 1984. Los autores sugirieron que utilizando medidas alternativas de cash flow en combinación con otras medidas financieras y no financieras, se podría tal vez obtener mayor exactitud clasificadora.

La capacidad de clasificación total de la muestra original fue del 75% un año previo a la quiebra para el ratio cash flow operativo / pasivo circulante, decreciendo hasta el 62% durante el quinto año. Con respecto al cash flow operativo, éste mostró los peores resultados al clasificar correctamente sólo el 60% de la muestra un año previo a la quiebra, decreciendo hasta el 50% a partir del tercer año.

Aunque la exactitud de clasificación fue mejor en las empresas sanas, los porcentajes de error tipo II se presentaron en general también en éstas. Esto lo atribuyeron al hecho de que en gran número de empresas sanas se presentaron medidas de cash flow operativo muy similares a los que mostraron las empresas fracasadas. Esto les sugirió que el cash flow operativo no representaba un factor con tanta capacidad predictiva como se empezaba a creer, al contrario de otros factores que sí podían representar mejores indicadores preventivos, como por ejemplo: el nivel de endeudamiento, la estabilidad de los activos de capital, los activos líquidos, la capacidad de desinversión o el acceso al crédito y mercado accionario.

Al no obtener resultados positivos en este trabajo, concluyeron que el cash flow operativo no incrementaba el poder predictivo de los modelos y con esto diferían de aquellas opiniones, como las de James Largay y Clyde Sticney (1980), las cuales afirmaban que la inclusión de ratios de cash flow producía más exactitud en las predicciones en comparación con aquellos modelos que únicamente utilizaban información basada en el devengo. Además, advirtieron que el simple concepto de cash flow operativo no era suficiente, pues había otras medidas que también eran importantes como el cash flow de financiación, el de inversión o la posición de tesorería.

James Gahlon y Robert Vigeland también descompusieron el cash flow total en varios componentes con el fin de analizar su capacidad marginal de exactitud dentro del modelo. Para esto seleccionaron una muestra de 60 empresas fracasadas y 204 empresas sanas. Aquí el cash flow se presentó de acuerdo al formato del estado de cash flow propuesto por el FASB. En este caso, estos investigadores advirtieron que el formato del “análisis crediticio uniforme” era diferente al formato para preparar el estado de cash flow, y por lo tanto, entre ambos estados no estaba contenida información similar.

Gahlon y Vigeland al analizar los valores medios de las dos submuestras durante un período de cinco años, sus resultados mostraron diferencias entre ambos grupos. El cash flow de las ventas, el coste de ventas y los gastos de operación fueron los principales componentes del cash flow operativo, y estos no mostraron diferencias significativas en ningún año entre las dos submuestras. Sin embargo, las medias de los valores de los componentes podían representar posibles alternativas como variables independientes para incluirse en un modelo predictivo; aunque advirtieron que estas diferencias significativas no necesariamente indicaban capacidad de predicción.

Otro estudio importante que siguió la misma línea de Casey y Bartczack fue el de Abdul Azis y Gerald Lawson (1989). Su estudio también se enfocó a descomponer el cash flow total para compararlo entre modelos basados en el cash flow y en el devengo. Para esto crearon tres tipos de modelos que fueron: los de tesorería, los de devengo y los mixtos. Esto tuvo como fin comprobar si un modelo basado únicamente en el cash flow tenía más poder predictivo. Para esto utilizaron las mismas cinco variables del modelo Altman (1968), aplicándolas al modelo de Lawson (1985) que estaba basado en el efectivo. Posteriormente, compararon sus resultados con los del modelo Altman (1968) y el modelo Altman, Halderman y Narayanan (1977).

Para determinar la capacidad predictiva del modelo utilizaron el método estadístico Logit y el formato del estado de cash flow para obtener los componentes del cash flow total. Los resultados de su trabajo les indicaron que su modelo no fue mejor que la Z-Score de los trabajos de Altman et. al. para clasificar entre empresas sanas y fracasadas. Sin embargo, las diferencias en los porcentajes de error fueron consistentes con el estudio de Casey y Bartczak (1984) y de Gentry, Newbold y Whitford (1985), los cuales habían determinado que las bases de datos basadas en el efectivo, no mejoraban la capacidad predictiva global del modelo, aunque en la submuestra de empresas fracasadas observaron que si mejoró la exactitud predictiva cuando los modelos tuvieron únicamente como base al efectivo, o bien, se combinaron con variables tradicionales basadas en el devengo.

MODELO GENTRY, NEWBOLD Y WITFORD (1985a, 1985b)

James Gentry, Paul Newbold y David Whitford, profesores de la Universidad de Illinois, al analizar el estudio de Ball y Foster (1982), les llamó la atención que éstos últimos en su revisión sobre los modelos de quiebras, habían visto que en general estos utilizaban un total empirismo para seleccionar a las variables independientes.

Los dos estudios de Gentry et al., consistieron en verificar si un modelo con ratios basados en todos los conceptos de flujos de fondos (“cash-based funds flow”) podía clasificar mejor a las empresas quebradas y no quebradas, en lugar de utilizar sólo ratios basados en la contabilidad acumulativa (“accrual accounting”). Estos estudios se llevaron a cabo como complemento al estudio realizado anteriormente por Casey y Bartczack (1985) en donde únicamente utilizaron el cash flow operativo y cuyos resultados dejaron demostrado que éste no incrementó los resultados clasificatorios.

El modelo utilizado por estos tres autores fue desarrollado inicialmente en 1972 por Helfert y su propósito inicial fue identificar la relevancia de las mediciones de flujos de fondos a través de la inclusión de ocho componentes de flujos de fondos netos que fueron:

COMPONENTES DEL MODELO DE FLUJOS DE HELFERT

1. Fondos de operacionales (capital circulante operativo o flujos de fondos netos operativos)

2. Capital de trabajo (variaciones de saldos operativos del circulante)

3. Dividendos financieros (actividades de financiación)

4. Gastos fijos de cobertura (actividades de inversión)

5. Gastos de capital (pago de intereses)

6. Pago de Dividendos (gastos de capital)

7. Otros flujos de activos y pasivos (variaciones)

8. Cobros en efectivo y “marketable securities” (variaciones de tesorería).

Fuente: Gentry, et al.. (1985)

Con estos componentes se obtuvo un 83.33% de clasificación global correcta. Al comparar el cash flow operativo y las entradas y salidas de tesorería, observaron que en las empresas fracasadas los principales inflows previos al fracaso provenían de la rotación de cuentas por cobrar y los inventarios, lo cual constituía su principal fuente de liquidez que se utiliza para cubrir los altos gastos financieros provocados por el sobre endeudamiento. Las interrelaciones de estos componentes fue muy compleja para ellos, y por tanto, trataron de traducirla en una ecuación (p.147).

Para determinar si los componentes del flujo de fondos por sí mismos podían discriminar entre las dos submuestras de empresas, utilizaron el MDA, el Probit y el logit con el fin de examinar dicha capacidad de predicción de los componentes a partir de tres años previos a la quiebra.

En el análisis de los valores medios de las 8 variables, se llevaron a cabo cálculos en 33 empresas fracasadas y 33 empresas sanas, mostrando importantes diferencias entre los dos grupos. Además, la submuestra de empresas fracasadas mostró una mayor desviación estándar.

Los resultados del análisis Logit clasificaron correctamente el 83 % de las empresas un año previo a la quiebra cuando utilizaron datos “uni-anuales”; y en un 77 % cuando utilizaron la media de los datos durante un periodo de tres años.

Posteriormente utilizaron una segunda muestra de empresas “débiles” y “sanas”, obteniendo una exactitud de clasificación del 72 % con la base de datos “uni-anual”; y un 74 % con la media de la base de datos “tri-anual” para el primer año previo a la quiebra. Estos resultados fueron consistentes con los de Casey y Bartzack (1984 1985).

En 1985, Gentry et al. llevaron a cabo un segundo estudio y sustituyeron el capital de trabajo por 5 componentes incluidos en el flujo de fondos que fueron: cuentas por cobrar, inventarios, otros activos circulantes, cuentas por pagar, otros pasivos circulantes.

Las medias de estos componentes mostraron una significativa diferencia entre las empresas sanas y las fracasadas. Por ejemplo, las cuentas por cobrar, los inventarios y los otros activos circulantes en general se comportaron como inflows en las empresas fracasadas y como outflows en las empresas sanas. Esto le sugirió que las empresas fracasadas tendían a liquidar sus activos circulantes para generar tesorería. En cambio, las empresas sanas tendían a invertir dichos activos.

Los autores concluyeron que la adición de las variables de cash flow dentro del modelo y basándose en el devengo, daba resultados significativos que incrementan los resultados predictivos. Sin embargo, esta conclusión estaba basada únicamente en la significancia estadística global del modelo.

Su muestra la obtuvieron del “Standar and Poor´s Compustat, Industrial Annual Research 1981”, durante el período 1970-1980. Para esto seleccionaron 114 empresas fracasadas, las cuales no necesariamente estaban quebradas. Dichas empresas frecuentemente dejaron de producir estados financieros uno o dos años antes del fracaso. Del total de empresas, 68 estaban en quiebra y 24 en liquidación. Posteriormente seleccionaron sólo a 92 empresas dentro del grupo de fracasadas. De las 92 empresas seleccionadas que se emparejaron posteriormente para formar la muestra de empresas sanas, sólo 33 presentaron información completa durante el primero, segundo y tercer año previo a la quiebra. De estas 21 eran del sector industrial y 12 de otros sectores.

El Balance General y el estado de Resultados fueron los informes utilizados para determinar los componentes del flujo de fondos. Es importante señalar que los archivos del Compustat no indicaron con precisión la fecha del último reporte anual que fue realizado, pues únicamente mencionaba la fecha en que la quiebra fue declarada antes o después de que el Compustat recibiera el reporte anual.

Aunque su estudio fue similar al de Casey y Bartczack, el de Gentry et al. se diferenció en dos aspectos básicos que fueron: a) los objetivos y b) el diseño experimental.

Según los autores, Casey y Bartczack estaban sólo interesados en la capacidad clasificadora del cash flow operativo y por eso decidieron únicamente utilizar el flujo de fondos basado en el capital de trabajo. En cambio, ellos utilizaron el modelo de flujos de fondos basado en el efectivo para identificar los componentes que midieran los resultados asociados con las principales decisiones financieras dentro de la empresa.

La conclusión final de este trabajo fue que los componentes del flujo de fondos basados en el cash flow ofrecen una alternativa viable para clasificar a las empresas en sanas y no sanas. Esto contrasta con los resultados de Casey y Bartczack que llegaron a la conclusión de que el cash flow operativo no incrementaba la capacidad de dicha clasificación.

En cuanto al análisis logit, sus resultados les indicaron que los componentes del flujo de fondos del dividendo eran una variable significativa para el modelo. Según ellos, esto tal vez se debió a las diferencias que hubo entre los dos estudios en cuanto al diseño de la investigación. Lo que nos lleva a pensar que aunque se utilicen similares bases de datos, el diseño experimental afecta directamente a los resultados dentro de los modelos predictivos.

MODELO TAKAHASI Y KUROKAWUA (JAPON, 1985)

A partir de principios de la década de los setenta se iniciaron en Japón los primeros estudios predictivos en el “Nomura Research Institute” (1973), aunque también fueron precursores de la escuela japonesa investigadores tan importantes como: Toda (1974); Itoh (1977); Ohta (1978); Tamaka y Nakagi (1974); Murakami (1979); Igarashi (1979); Ozeki y Ohno (1980). Todos ellos utilizaron los modelos de predicción multivariable a través de funciones discriminantes a excepción de Tamaka y Nakagi que utilizaron el análisis de componentes principales y el análisis cluster.

En general, todos estos estudios utilizaron muestras de empresas pequeñas y se caracterizaron por utilizar pocas variables independientes. Sin embargo, uno de los trabajos que más llamó la atención fue el de Takahashi y kurokawua (1985). Éste resultó interesante para nuestro análisis por la importancia y el enfoque que prestaba a las bases de datos contables a través de una proposición bien estructurada sobre el fracaso empresarial.

Takahashi y kurokawua consideraron que el poder predictivo del análisis aumentaba si se utilizaban como variables tanto a los ratios como a las cantidades absolutas; basados ambos elementos en datos de estados financieros sobre la base de efectivo (“cash based”) a partir de tres años antes de la quiebra. También destacaban en su estudio los numerosos casos que se dan en Japón, donde los reportes de los auditores de las empresas quebradas muestran “excepciones” o “reservas” dado el importante efecto del window dressing que se presume existe en las bases de datos contables (op. cit. p. 231).

A partir de esto Takahashi y kurokawua consideraron que dada la existencia de este fenómeno, se debían realizar ajustes a los estados financieros, pues pocos estudios lo habían intentado antes. También mantenían la idea de que el período óptimo para las bases de datos obtenidas en Japón debía ser de tres años pues resulta que aquí era raro el número de empresas que quebraban.

Para la base de datos seleccionaron 75 ratios con datos financieros cuya base era acumulativa o de devengo, “accrual based” (61 ratios y 14 cantidades absolutas); y 54 índices con datos financieros cuya base fue el efectivo, “cash based” (45 ratios y 9 cantidades absolutas).

Desde el punto de vista de Takahashi y kurokawua, se podían desarrollar diferentes tipos de modelos predictivos dependiendo sobre todo de qué tipo de datos provenientes de los estados financieros e índices utilizados. Como ejemplos citaban los siguientes cuatro puntos:

a. Con datos no ajustados o datos ajustados que reflejen las salvedades, negación de opinión o las notas que aparecen en los informes del auditor.

b. Utilizando índices con datos financieros con base acumulativa (devengo) o con base de flujos de efectivo.

c. Con valores de índices de tres años previos a la quiebra.

d. Sólo utilizando ratios o una combinación de ratios con valores absolutos.

Desde un enfoque teórico, para ellos la combinación de los anteriores puntos podía llegar a producir 16 tipos de modelos contables diferentes. Además, en adición a los 16 modelos, se podía desarrollar otra función discriminante que representará al modelo número 17, el cual utiliza ratios y cantidades absolutas derivadas de la base ajustada del acumulado y la base ajustada del efectivo durante tres años previos a la quiebra. Para cada uno de sus 17 modelos utilizaron 8 índices (24 variables), o bien, 24 índices que fueron seleccionados sobre la misma base que utilizaron para el análisis de componentes principales.

Los autores, al analizar el trabajo de Altman y basados en la idea de sus 17 modelos, producto de las diferentes bases de datos que utilizaron en forma simple o combinada, concluyeron que Altman en realidad desarrolló diferentes tipos de modelos entre el período de 1968 a 1977. Según ellos, esto se dio al utilizar diferentes tipos de bases de datos de estados financieros para integrar sus ratios: primero calculándolos un año previo a la quiebra, y posteriormente extendiendo el período a más de un año previo a la quiebra. Además, observaron que Altman utilizó una parte de los datos de los estados financieros como cantidades absolutas para sus ratios.

Sobre el tipo de contenido de las bases de datos, los autores recomendaron que se debía utilizar una con base de efectivo, pues a corto plazo era mejor para mostrar los flujos de fondos. Sin embargo, alertaron sobre los diferentes conceptos que existen sobre los fondos. Ellos, en este caso, utilizaron la definición del “APB Opinion” Nos. 3 y 9, que se refieren a los conceptos de “capital de trabajo” y “cash fund”. Además, al observar que el valor del ratio para las empresas fracasadas mostraba un comportamiento diferente cuando los conceptos utilizados eran diferentes, recomendaron utilizar los anteriores dos conceptos en el mismo modelo.

Subrayaron que en general las instituciones financieras (y en particular los bancos) tienen una gran influencia sobre las empresas por los préstamos que les proporcionan. En el caso de Japón, esta influencia era más significativa e incluso en ocasiones se llega al caso de que era el banco quien determinaba si continuaba o no apoyando a ciertas empresas para que no quebrara. Desgraciadamente para ellos estos factores no se reflejaban en los datos de los estados financieros y apuntaban que también ante el efecto del window dressing existía la necesidad de intentar ajustar los datos financieros para reflejar las salvedades, la negación de la opinión o las notas del informe del auditor antes de aplicar el análisis discriminante, al menos en el caso particular de las empresas japonesas.

Continuando con el análisis de la situación japonesa, los autores señalaban que cuando tratan de predecir una quiebra no creen que se pueda lograr solamente utilizando un único punto de corte o punto discriminante. Para ellos era mejor contar con más de un punto de corte, obteniendo desde el más “conservador” hasta el más “optimista”. En el caso de su estudio establecieron 6 puntos de corte para el modelo predictivo con el objetivo de proporcionar al usuario resultados predictivos plurales para formar su juicio final. Los puntos de corte que desarrollaron fueron los siguientes:

CUT OFF POINT SIGNIFICADO

Ca Este punto tiene una probabilidad global de mala clasificación (mínima), asumiendo que ambas poblaciones tienen una distribución normal.

Cb Este punto tiene ua probabilidad de error tipo I (clasificación de empresas fracasadas como no fracasadas que llegó al 11%), asumiendo que ambas poblaciones tienen una distribución normal.

Cc Este punto tiene ua probabilidad de error tipo I (clasificación de empresas fracasadas como no fracasadas que llegó al 5%), asumiendo que ambas poblaciones tienen una distribución normal.

Cd En este punto el número de empresas mal clasificadas fue mínimo.

Ce En este punto el número de empresas quebradas mal clasificadas, como no quebradas, fue cero.

Cf

En este punto el número de empresas no fracasadas mal clasificadas como quebradas (error tipo II) llegó a cero.

Fuente: Takahashi y kurokawua (1988).

Al intentar determinar la variable dependiente de su modelo, partieron de la premisa de que en Japón existen dos tipos de empresas fracasadas: 1) un grupo con estructuras financieras negativas; y 2) el segundo grupo de empresas que tienen una pérdida de flujos de fondos. Para su muestra seleccionaron 72 empresas: 36 habían fracasado y las emparejaron con otras 36 empresas que estaban sanas. En cuanto a las fracasadas, estas quebraron antes de 1977. El período de análisis de este estudio fue de 1961 a 1977. Un elemento interesante que se observó en la selección de la muestra fue que en la selección de la submuestra de empresas fracasadas se establecieron varias clasificaciones con base en ciertos patrones en cada uno de los grupos, lo cual les dio como resultado dos tipos de métodos que a continuación explicamos. En el primer método, la empresa fracasada se podía clasificar en los siguientes tres grupos:

Tipo A1 = Empresas que tienen una mala estructura financiera (27 empresas fracasadas).

Tipo B1 = Empresas que tienen una disminución en los flujos de fondos (9 empresas fracasadas).

Tipo C1 = Empresas que no tienen mala estructura financiera, ni disminución en los flujos de fondos (3 empresas fracasadas).

El objetivo de esta clasificación consistía en excluir de la submuestra de empresas fracasadas a aquellas empresas que mostraron índices con datos financieros con extraordinarios valores. En cuanto al segundo método, también se establecieron tres grupos que fueron los siguientes:

Tipo A2 = Empresas con mala posición financiera y con cambios de comportamiento en la serie temporal de los índices de datos financieros, donde el valor del índice para el primero y para el tercer año antes de la quiebra fue en ambos casos mayor con respecto al segundo año previo a la quiebra (28 empresas fracasadas).

Tipo B2 = Empresas con mala posición financiera y con cambios en el comportamiento en las series temporales de los índices de datos financieros donde el valor del índice para el primero y tercer año previos a la quiebra, fue en ambos casos menor con respecto al segundo año antes de la quiebra (7 empresas fracasadas).

Tipo C2 = Empresas cuya posición financiera no fue mala (4 empresas fracasadas).

Como variables independientes seleccionaron inicialmente 80 ratios basados en los siguientes dos criterios:

1. Verificar si cada uno de los ratios mostraba o no cambios significativos antes de la quiebra.

2. Verificar si cada ratio había dado o no buenos resultados en previos estudios.

Posteriormente analizaron en los ratios: el valor de su nivel, tendencia, y comportamiento a partir de tres años previos a la quiebra. Al final únicamente utilizaron 6 ratios seleccionados de la lista original de los 80 ratios con base en: a) la determinación del coeficiente de correlación de cada ratio con respecto a la lista original; y b) La selección se llevó de acuerdo a las principales diferencias que mostraron los ratios entre los grupos de empresas fracasadas y sanas.

VARIABLES INDEPENDIENTES (6 ÍNDICES 18 VARIABLES)

UTILIZADOS PARA EL ANÁLISIS DE COMPONENTES PRINCIPALES

1. Capital Contable / Activo Total

2. Capital de Trabajo / Activo Total

3. Gastos Financieros / Ventas

4. Valor Añadido del Activo Total al principio del año.

5. Cash flow Operativo / Activo Total al principio del año.

6. Capital de Trabajo / Activo Total al principio del año.

En el análisis de componentes principales sus resultados les indicaron dos importantes características que son peculiares en la muestra de empresas fracasadas que son las siguientes:

La primera característica, y que frecuentemente no se toma en cuenta en la literatura sobre las quiebras empresariales, es que las empresas fracasadas pueden ser clasificadas dentro de dos grupos importantes que son: a) Aquellas empresas que sufren constantes problemas en su estructura financiera (Tipo A1). b) Aquellas empresas que sufren problemas en el flujo de fondos dentro de un período de tiempo relativamente corto (Tipo B1).

La segunda característica se refiere a los cambios en las series temporales, los cuales cuando presentaron mejoras temporales, les indicaron que las empresas ocultan algunos de sus fracasos antes de la quiebra. Estos tipos de mejoras las clasificaron en dos importantes grupos que fueron: a) Aquellos que temporalmente muestran alguna mejora en su posición financiera durante el segundo año previo a la quiebra y posteriormente se agrava su situación nuevamente (Tipo B2). b) Aquellos que temporalmente muestran alguna mejora en su posición financiera durante el primer año previo a la quiebra (Tipo A2).

Las conclusiones finales de Takahashi y kurokawua fueron que los modelos 6 y 17 tuvieron relativamente una alta exactitud predictiva relacionada con los puntos de corte utilizados. También cada uno de los 17 modelos fue sujeto a un estudio comparativo para constatar si se observaba o no algún cambio significativo en la exactitud predictiva debido a: a) los diferentes componentes; b) los diferentes datos de los estados financieros; c) los diferentes números de años antes de la quiebra; y/o d) los diferentes tipos de índices financieros que se utilizaron. El estudio comparativo reveló los siguientes hechos importantes:

1. Los modelos predictivos que utilizaron datos de estados financieros ajustados tuvieron una mayor exactitud predictiva con respecto a aquellos que utilizaron datos no ajustados.

2. Los modelos predictivos que utilizaron índices cuya base fue la del devengo tuvieron una mayor exactitud predictiva con respecto a los que utilizaron la base de flujos de efectivo.

3. Los modelos predictivos que utilizaron datos de estados financieros tres años previos a la quiebra, tuvieron mayor exactitud predictiva con respecto a aquellos que sólo utilizaron datos de sólo un año previo al fracaso.

4. No existió una significativa diferencia de exactitud predictiva entre los modelos que sólo utilizaron ratios y aquellos que utilizaron además de ratios, cantidades absolutas.

EL MODELO DE REDES NEURONALES DE GIANCARLO Y VARETTO (ITALIA, 1993)

En 1993 Marco Giancarlo y Franco Varetto, de la Central de Balances de Turín, realizaron un trabajo empírico en el que utilizaron redes neuronales. Este trabajo lo dividieron en cuatro partes cuyos objetivos consistieron en lo siguiente:

1. Verificar la capacidad de las redes neuronales para reproducir los valores numéricos de los Z-Scores que se obtienen a través del análisis discriminante lineal.

2. Verificar la capacidad de las redes neuronales para separar las muestras entre empresas sanas y empresas en quiebra.

3. Determinar los cambios de los resultados de las empresas a través del tiempo, ya que las funciones discriminantes tienen un problema de “sensibilidad” sobre dichos cambios.

4. Verificar la capacidad de las redes neuronales para no separar a las empresas en dos categorías como se hacía tradicionalmente, sino en tres categorías: “empresas sanas”, “empresas vulnerables” y “empresas inestables”.

Para Giancarlo y Varetto las redes neuronales no representaban una teoría matemática exacta y clara en comparación con las técnicas estadísticas tradicionales. Sin embargo, y a pesar de estas limitaciones, subrayaron la importancia de que una de las partes integrales de su proyecto consistía en probar nuevas metodologías de análisis para las empresas crediticias a través de construir y mantener una base de datos específica que incluyera compañías con problemas financieros. Esto con el objetivo de desarrollar investigaciones mediante procesos dinámicos (en tiempo real) de quiebras y fracasos.

En su trabajo también se destacaba el reto por crear modelos específicos para cada sector, pues la investigación se centraba en un modelo que trataba por separado a las empresas de tres sectores: el industrial, el comercial y el de la construcción. Consideraron como un punto básico que el modelo era un “sistema de diagnóstico” que sólo debía tomar en cuenta a empresas del mismo tamaño. En este caso ellos sólo consideraron a empresas medianas y pequeñas, excluyendo de la muestra aquellas que tuvieran ventas superiores a 60 millones de dólares durante el período de 1985-1992. La muestra fue seleccionada de una población total anual de 37 mil compañías.

El método de las redes neuronales consistía en interconectar un gran número de unidades con otras, para ver si son capaces de dar resultados que son relativamente fáciles de calcular. Es decir, la idea se basaba en observar como un gran número de unidades interactuan entre si.

Para ellos, el análisis de los resultados de las empresas presentan problemas cuyo origen está en la teoría tradicional financiera y esto imposibilitaba el completar un modelo específico. Por eso los autores opinaban que las investigaciones tenían que adoptar una forma funcional comúnmente lineal predefinida que relacionara a variables endógenas y exógenas. Por otra parte, apuntaban que las redes neuronales no requerían una previa especificación de una forma funcional lineal, ni la adopción de supuestos restrictivos acerca de las características de las distribuciones estadísticas de las variables y errores del modelo. Es decir, las redes daban la posibilidad de trabajar con variables imprecisas, cambiando los modelos a través del tiempo para que fueran capaces estos de adaptarse gradualmente a cada nuevo caso que se presentara.

Para la unidad temporal, la estimación no se inició un año previo a la quiebra, sino dos años previos a que la empresa fuera clasificada como fracasada. Según ellos, esto obedeció a que las empresas transitan, entre el procedimiento concursal y la suspensión de pagos, un tiempo mayor a un año con respecto al momento de su declaración fiscal.

Con respecto a la muestra y a los modelos discriminantes, consideraron que éstos últimos tenían sólo una modesta exactitud “ex-post” cuando utilizan muestras grandes de empresas sanas. También reconocieron la dificultad para clasificar y discriminar muestras compuestas de empresas “vulnerables” y “enfermas”, ya que la utilización de una sofisticada metodología estadística bayesiana no incrementaba la exactitud para integrar los grupos. Sin embargo, apuntaron que otro camino para mejorar el sistema de muestreo consistía en realizar una serie de etapas pragmáticas para llegar a obtener las dos submuestras, advirtiendo que estos métodos no podían ser consistentes para todos los casos pues eran únicos para cada estudio y para cada base de datos.

Como ya se apuntó anteriormente, para obtener la variable dependiente separaron a las empresas en tres categorías: “sanas”, “vulnerables” y “poco estables”. Al final consideraron que el término “poco estable” era el que se debía considerar como fracaso empresarial, y así lo hicieron seleccionando 213 empresas con esta situación. Posteriormente, a estas empresas fracasadas las emparejaron con otra submuestra de empresas sanas. Ambas submuestras fueron elegidas entre un total de mil empresas cuyas bases de datos estaban integradas en la Central de Balances de Turín y cuya unidad temporal comprendió el período de 1982-1992. Los sectores a los que pertenecían las empresas muestreadas eran: el industrial, el comercial, de la construcción y el detallista (comercio al menudeo).

Cabe resaltar que por la importancia que mostraron los italianos con respecto a las bases de datos, la Central de Balances de Turín fue establecida en 1983 por el banco de Italia, la Asociación Bancaria Italiana y otros bancos e instituciones de crédito. Los autores trabajaron con especial interés para coadyuvar en el proyecto para la integración del Sistema Informático, Económico y Financiero de esta nueva institución cuyo producto principal sería precisamente el proveer a los bancos de bases de datos contables, que se utilizasen como herramienta para identificar a empresas con problemas financieros. Sin embargo, hasta 1993 esta institución sólo agrupaba a 37 empresas que proporcionaban información sobre sus estados financieros.

A partir de los criterios establecidos para la variable dependiente, los autores incluyeron en su primera función (F1) “un espacio de clasificación” más amplio que tenía cinco zonas:

1. Empresas con alta seguridad.

2. Empresas seguras.

3. Empresas con incertidumbre (entre seguras y vulnerables).

4. Empresas vulnerables.

5. Empresas muy vulnerables.

En su segunda función (F2) establecieron otros cinco tipos de zonas o espacios clasificatorios que fueron: empresas con alta vulnerabilidad, empresas vulnerables, empresas con incertidumbre (entre vulnerables y con riesgo), empresas con riesgo y empresas con alto riesgo de quiebra.

Una novedad en el estudio de estos investigadores consistió en probar por primera vez un método alternativo al análisis discriminante cuya aplicación estuviera basada en la inteligencia artificial, a través de las redes neuronales. Sus resultados les confirmaron que este sistema da un diagnóstico automático y puede ser utilizado para preseleccionar negocios que deban examinarse posteriormente con más profundidad para otorgarles créditos.

En cuanto al mayor problema que encontraron en su investigación, destacó la existencia de un inaceptable tipo de comportamiento dentro de la red. La frecuencia de tipos de comportamientos ilógicos dentro del juicio del análisis financiero creció con el incremento en la complejidad de la arquitectura de la red. Sólo las redes neuronales muy simples limitaban la probabilidad de resultados inaceptables. Sin embargo, los autores sugirieron como una alternativa, el integrar redes y funciones discriminantes para tratar problemas complejos de clasificación aprovechando la flexibilidad y la capacidad de estructuración simple que tienen las redes.

Los resultados obtenidos mostraron que un año previo a la quiebra se llegó a una exactitud del 92.6 % para las empresas fracasadas. De acuerdo con esto, los autores consideraron que las redes neuronales permitían al analista obtener una capacidad para aproximarse a un indicador con valor numérico para discriminar funciones y en ocasiones poder clasificar con más exactitud que el análisis discriminante lineal, a grupos de empresas sanas y no sanas. Un año previo a la quiebra se obtuvo una exactitud del 87.6 % para las empresas fracasadas. Según los autores, con estos resultados se podían sacar las siguientes conclusiones:

1. Las redes neuronales proporcionaban al analista la capacidad para aproximarse a un valor numérico (indicadores) para discriminar funciones entre grupos de empresas sanas y no sanas, e incluso con mayor exactitud que el análisis discriminante múltiple.

2. Este sistema tenía un poder predictivo considerable y era flexible, sin embargo se requerían numerosas pruebas para obtener la estructura de las redes.

3. Existía la posibilidad de obtener un comportamiento ilógico de las redes dadas las diferentes variaciones de los “input-valores”. Esto constituyó para ellos un serio problema desde un punto de vista financiero, y por lo tanto, recomendaron utilizar en paralelo tanto el MDA como las redes neuronales.

Giancarlo y Varetto concluyeron que aunque este sistema tenía un poder predictivo considerable y era flexible, se requerían numerosas pruebas para obtener la estructura de las redes neuronales. Además, también existía la posibilidad de obtener resultados con un comportamiento ilógico dadas las diferentes variaciones de los “input-valores”. Esto desde un punto de vista financiero representaba un serio problema. Por eso reconocieron la necesidad de utilizar simultáneamente el análisis discriminante múltiple y el método de redes neuronales.

El análisis final sobre esta primera parte del trabajo indica el desacuerdo extraordinario que existe hasta la fecha sobre los modelos predictivos en general, pero sobre todo en lo particular cuando analizamos cada uno de sus componentes desde un enfoque conceptual y técnico. Así lo podemos ver en el siguiente cuadro en cuanto a la muestra, el sector que tiende a no definirse de forma específica, la unidad temporal y el número de ratios utilizados.


Grupo EUMEDNET de la Universidad de Málaga Mensajes cristianos

Venta, Reparación y Liberación de Teléfonos Móviles
Enciclopedia Virtual
Biblioteca Virtual
Servicios