Tesis doctorales de Ciencias Sociales


ANÁLISIS DE LAS DIFICULTADES FINANCIERAS DE LAS EMPRESAS EN UNA ECONOMÍA EMERGENTE: LAS BASES DE DATOS Y LAS VARIABLES INDEPENDIENTES EN EL SECTOR HOTELERO DE LA BOLSA MEXICANA DE VALORES

Alberto Ibarra Mares



Esta página muestra parte del texto pero sin formato.
Puede bajarse la tesis completa en PDF comprimido ZIP (319 páginas, 1.52 Mb) pulsando aquí

 

 

 

2.4.3. MODELO DEAKIN (1972, 1977)

Edward B. Deakin (1972), profesor asistente de la Universidad de Austin Texas, combinó en su trabajo las investigaciones de Beaver y Altman dentro de un único estudio para desarrollar un modelo alternativo del fracaso empresarial. Este investigador consideró que el modelo univariable de Beaver obtuvo mejores resultados predictivos a través de la eficiencia de algunos de los ratios contrastados con el modelo multivariable de Altman, pero que el método utilizado por Altman tenía más atracción intuitiva (p. 167).

Primeramente Deakin intentó combinar los aspectos más interesantes de ambos modelos y partiendo de la misma hipótesis teórica, reprodujo el estudio de Beaver (1968), utilizando las mismas variables explicativas. Posteriormente, utilizó la metodología del MDA de Altman para investigar las combinaciones de los 14 ratios de Beaver, los cuales podrían ser los mejores predictores de una quiebra dentro de una combinación lineal de ratios.

Deakin seleccionó 32 empresas fracasadas, las cuales estaban en “quiebra”, “insolventes” o en “liquidación para cubrir sus deudas con los acreedores”, durante el período 1964-1970. También integró una muestra de control de 32 empresas sin quiebra. El total de la muestra seleccionada tuvo como base dos criterios que fueron: a) su clasificación industrial; b) el tamaño de sus activos.

Para su muestra Deakin seleccionó 11 empresas en quiebra incluidas en el “Moody´s Industrial Manual” y 23 empresas sin quiebra durante el período 1963-1964.

Su estudio partió de un test de “significación individual” y “clasificación dicotómica” de cada variable independiente. Luego llevó a cabo el cálculo de las combinaciones multivariables de los ratios a través de las funciones discriminantes. La metodología completa utilizada por Deakin fue la siguiente:

1. Estableció dos submuestras: una de empresas fracasadas y una de empresas con éxito.

2. La primera submuestra (de empresas fracasadas) la consideró como la base para establecer la unidad temporal.

3. La submuestra de empresas sanas fue producto del emparejamiento con la submuestra de empresas fracasadas considerando su tamaño y su sector industrial.

4. Posteriormente, calculó los 14 ratios previamente seleccionados para cada empresa a través de cada uno de los años de la unidad temporal.

5. La selección de los ratios fue con base a sus resultados positivos por su capacidad predictiva y a su popularidad como variables independientes dentro de la literatura especializada. Cada ratio debió tener una lectura y una base teórica sólida para su interpretación, así como también incluir la explicación de cada uno de sus componentes.

6. Las empresas de cada submuestra se “ranquearon” de acuerdo al valor de sus ratios. El valor de cada ratio en la primera submuestra dio como resultado el número más pequeño de error de clasificación cuando se utilizó el valor crítico.

Deakin observó que la discrepancia existente en el relativo poder predictivo de los ratios dentro de los tres años previos a la quiebra se debió a que durante el tercer y cuarto año, hubo una expansión en las empresas que fue financiada a través del incremento de los pasivos e inventarios.

Para la función lineal utilizó coeficientes de correlación “Spearman Rank Order” para conocer el poder predictivo de los ratios y cuando aplicó el MDA a los 14 ratios utilizados en los estudios de Beaver, la aplicación del examen de coeficientes dio un alto grado de correlación entre la relativa capacidad predictiva de los ratios utilizados en los estudios de Beaver y la réplica que hizo Deakin durante tres años previos a la quiebra.

Deakin llegó a dos interesantes conclusiones basadas sobre el "scaled vector" que indicaban la contribución relativa de cada variable a la función discriminante y fueron:

1. Consiguió diminuir el número de variables, eliminando aquellas que proporcionan una contribución relativamente pequeña a la función y que daban como resultado el incremento substancial dentro del número de errores de clasificación.

2. Descubrió que un modelo único puede ser suficiente para predecir una quiebra con un alto grado de probabilidad, pero insuficiente para predecir a largo plazo la misma probabilidad de que ocurra.

Los exámenes de significancia sobre las funciones discriminantes indicaron que las funciones fueron significativas para menos de .006 de cada uno de los tres años previos a la quiebra, .016 para el cuarto año previo a la quiebra, y .05 para 5 años previos a la quiebra.

Deakin no estableció un "valor crítico" para utilizarlo como una frontera entre las predicciones de empresas en quiebra y de empresas sin quiebra. Por otra parte, la extensión multivariable de su examen empírico a partir del examen univariable Z fue utilizada para determinar la probabilidad de que una empresa perteneciera al grupo de "quiebras" o al grupo de "sin quiebras". Utilizando este método la tasa de error de clasificación para la muestra original fue del 3%, 4.5%, 17% y 21% respectivamente para cada uno de los 5 años previos a la quiebra.

Cuando desarrolló una muestra de validación (“validación-cross”) a 11 empresas quebradas y 23 empresas sin quiebra, la tasa de error se incrementó a 22%, 6%, 12%, 23% y 15% respectivamente. Deakin no pudo explicar el severo deterioro en el primer año previo a la quiebra de la empresa, aunque le pareció lógico que se empeoraran los resultados cuando se aplica un estadístico a muestras diferentes (la de estimación y la de validación).

Los resultados de su análisis multivariable le indicaron que las funciones discriminantes tuvieron menos errores en el primer año previo al evento, pero posteriormente aumentaron a partir del tercer año. Esto se debía en parte al gran número de variables independientes utilizadas dentro de la función (14 ratios).

Sus resultados coincidieron con los de Beaver en cuanto al ratio de cash flow / deuda total que obtuvo la mayor exactitud de clasificación, y cuyos porcentajes fueron altos, incluso hasta 5 años antes de la quiebra (80 %, 84 %, 72 %, 78%, 78%). También los ratios de resultado neto / activo total y deuda total / activo total, dieron excelentes resultados. Lo anterior se debió a la mayor dificultad para aplicar el efecto window dressing en elementos tales como el cash flow, resultado neto y la posición de endeudamientos. En cambio, los ratios tradicionales de liquidez mostraron poca capacidad predictiva por la mayor facilidad para su “maquillaje”. Como se recordará esta observación ya había sido hecha por Beaver.

Para Deakin aparentemente las empresas que quebraron tendían a expanderse rápidamente en el tercero y cuarto año previo al evento. Según él, esto se debía a que la expansión de la estructura de capital se financiaba a través del aumento más intenso de los pasivos y las acciones preferentes con respecto al aumento de los beneficios retenidos y las acciones comunes; por tanto, los fondos se invierten más intensamente en planta y equipo (activos fijos) con respecto a como se hacía con los activos líquidos (activos circulantes). Luego, estas empresas no eran capaces de aumentar sus ventas y beneficios a tal grado para cubrir sus pasivos, perdiendo sus activos normalmente a partir del tercer año previo al fracaso.

Con respecto a esto, Deakin subrayó que el anterior fenómeno no fue apreciado en el estudio pionero de Beaver, pues las empresas de su muestra presentaban como característica principal: su incapacidad para generar ventas e ingresos netos que cubrieran sus deudas (sobre todo en el tercer año previo a la quiebra). De ahí, que a partir de los tres años previos a la quiebra, se marcara la diferencia entre la capacidad predictiva del ratio cash flow / ventas. Sin embargo, para él, los otros ratios tendían a ser consistentes.

Deakin también consideró que el cambio de estrategia sobre la estructura de capital se vio seriamente influenciada por los factores externos. Como ejemplo, apuntaba que en la década de los sesenta, las empresas de los Estados Unidos tendieron a invertir más sus reservas en efectivo porque los porcentajes de los intereses eran muy altos. Esto originó que el ratio cash flow / ventas se viera afectado seriamente en muchas empresas. Al analizar el ratio capital de trabajo / activos totales (cinco años previos a la quiebra) observó que obtuvo el valor más alto del vector (1.163).

Esto le indicó que dicho ratio contribuyó de forma importante para obtener la capacidad discriminatoria de la función. En cambio, el ratio de activos circulantes / pasivos circulantes contribuyó muy poco, pues sólo tuvo una contribución del 0.036. Para Deakin los anteriores resultados contradecían la teoría de la liquidez, la cual sostenía que el último ratio tenía que ser de los mejores (aunque matizó que había también que considerar que existe un porcentaje de errores de clasificación).

Desde un punto de vista estadístico, Deakin apuntó que la significancia de cada una de las funciones discriminantes se podía medir utilizando la “Wilks´ Lambda”. Este estadístico lo utilizó para contrastar la hipótesis. También indicó que la “Wilks´ Lambda” podía ser convertida a una “F-Value”, la cual se podía utilizar posteriormente para indicar la probabilidad de una separación significativa entre las “Z-Scores” de las empresas quebradas y las no quebradas.

Con respecto a las bases de datos, consideró que éstas no fueron suficientes para determinar si las diferencias en los porcentajes de error eran significativas.

Deakin concluyó que los modelos predictivos podían ser desarrollados muy bien “ex post”; sin embargo, opinaba que “hay problemas para aplicar el modelo en situaciones prácticas” porque en primer lugar: un portafolio de inversiones crediticias está compuesto de muchas firmas que tienen experiencia de por lo menos un año hasta un número infinito de años en el futuro. Para él y desde un punto de vista “ex ante”, la función del modelo sólo podía aplicarse para obtener el estado de la empresa que quebraría dentro de un año en el futuro (p.176). Al igual que otros estudios, los errores de clasificación se incrementaron al pasar los años previos a la quiebra, aunque estos no se presentaron como lineales.

El segundo problema que Deakin observó en su modelo fue que el análisis discriminante no pudo derivar de una función discriminante de poblaciones en donde una empresa podía posiblemente pertenecer a través del tiempo a más de un grupo; pues por ejemplo, una firma podía estar potencialmente fracasada en un punto del tiempo y posteriormente ser capaz de revertir esa tendencia antes de que la quiebra ocurriera.

De acuerdo al desarrollo de su modelo, Deakin consideró que el trabajo de Altman, aunque presentaba una correcta metodología estadística a través del análisis discriminante, dudaba en cambio sobre la selección de las variables independientes y de ahí que intentara mejorar este aspecto.

Para este autor los ratios que median los “aspectos permanentes” de la empresa y en donde es más difícil aplicar el efecto window dressing, eran los que determinan los indicadores más importantes para advertir sobre el fracaso empresarial. Por eso, en los modelos predictivos, los ratios que medían los “aspectos temporales” y eran más manipulables (como la liquidez) tendían a perder importancia dentro del modelo. Por otra parte, opinaba que un número elevado de ratios al incluirse en la función, aumentaba significativamente los costes de su aplicación, además que hacía más compleja la explicación objetiva de las causas de la quiebra a través del modelo.

En 1977 Deakin volvió a intentar mejorar su modelo llamando de forma especial nuestra atención en el aspecto metodológico, y muy concretamente sobre su interés por definir mejor a la variable dependiente para llegar a mejores resultados.

Para esta nueva investigación Deakin consideró 1780 empresas del “Compustat” y redujo las 30 variables de Beaver a 14. Posteriormente, Libby a través del análisis factorial, redujo las 14 variables de Deakin a 5. Y por último, para el replanteamiento de su modelo, Deakin utilizó las 5 variables que Libby había obtenido.

Al seleccionar a las 1780 empresas y aplicarles las 5 variables independientes, obtuvo la siguiente clasificación: 1317 empresas no fracasadas, 250 empresas con fracaso seguro y 173 empresas que cayeron en la zona gris de ignorancia.

Deakin consideró que en este trabajo, la interpretación de los resultados dependería principalmente de la definición que propusiera para la variable dependiente y de la utilización de un período de tiempo posterior (“ex-ante”). De esta forma llevó a cabo un análisis de la submuestra de las empresas fracasadas y de su posible efecto dadas sus distintas definiciones.

En la muestra de estimación definió al fracaso como: “quiebra legal”, “liquidación” y “reorganización”. A partir de esto sólo obtuvo una baja capacidad de predicción del 6.2 %, es decir, 18 de 290 empresas se clasificaron en alguno de los fenómenos durante un período de tres años. Posteriormente, amplió la definición de la variable dependiente incluyendo también para la definición del fracaso a los siguientes términos: “empresas fusionadas supuestamente por motivos de ineficiencia” y “empresas que no pagaron dividendos preferentes a tiempo”.

Esta vez su modelo aumentó “la exactitud predictiva” hasta un 77.2 % (224 empresas). Por último, Deakin analizó 72 empresas que quebraron entre 1972-1974, utilizando sólo datos de dos años previos al evento. Su exactitud de predicción fue de 39 empresas bien clasificadas, una empresa mal clasificada y 7 empresas mal clasificadas en la zona gris.

Al respecto, Lizarraga opina que no puede admitirse la aplicación de un modelo bajo una definición distinta de la que sirvió para su estimación, y al preguntarse como es posible tanta diferencia entre los resultados de las últimas dos pruebas, afirma que en gran parte se debe a la diferencia que se da al aplicar un modelo “a priori” o “ex-ante” (sin conocer la situación real futura de la empresa que es el primer caso), y aplicar un modelo “a posteriori” o “ex-post” (que constituye el segundo caso, cuando se conoce la situación real de la empresa y en donde los resultados son mucho mejores. (p.122).


Grupo EUMEDNET de la Universidad de Málaga Mensajes cristianos

Venta, Reparación y Liberación de Teléfonos Móviles
Enciclopedia Virtual
Biblioteca Virtual
Servicios