BIBLIOTECA VIRTUAL de Derecho, Economía y Ciencias Sociales

DESARROLLO DEL ANÁLISIS FACTORIAL MULTIVARIABLE APLICADO AL ANÁLISIS FINANCIERO ACTUAL

Alberto Ibarra Mares


 


Esta página muestra parte del texto pero sin formato.

Puede bajarse el libro completo en PDF comprimido ZIP (211 páginas, 1.08 Mb) pulsando aquí

 

 

CAPITULO II

1. QUE ES EL ANALISIS FINANCIERO MULTIVARIABLE

La justificación del análisis financiero multivariable, basado en métodos y software estadístico, ha revolucionado el concepto de las finanzas tradicionales al servir como complemento he incluso sustituto del análisis tradicional a través de ratios. y dentro del análisis financiero contemporáneo, parte del hecho de que determinar el éxito o fracaso de una empresa constituye un tema complejo. Esto por interactuar varios factores simultáneamente y combinados entre sí. Además, el principal problema en realidad radica en determinar el peso específico o la contribución marginal que tienen cada uno de esos factores dentro de un análisis financiero integral con fines predictivos (preventivos o correctivos). Los factores a los que nos referimos se expresan como variables explicativas o independientes dentro de ciertos modelos econométricos con base en funciones lineales, y son básicamente: la rentabilidad, el crecimiento, la creación de valor, la solvencia, la estructura de capital, el grado de apalancamiento financiero y la liquidez de la empresa.

Con base en lo anterior, una metodología adecuada exige la observación conjunta del desarrollo de éstos y otros factores a través de mediciones que se obtienen mediante coeficientes o ratios. Estos ratios a su vez pueden representar el producto final del análisis financiero tradicional (outputs), o bien, la base de datos sobre la que se inicia el análisis financiero multivarible (inputs). También es importante que se intente determinar un perfil sobre las características conjuntas de esas variables explicativas, las cuales se muestran de forma distinta en cada empresa en función de que el individuo observado presente o no tal condición (Lizarraga: 1996: p. 93).

El análisis multivariable parte de la idea de que el análisis financiero eficiente para valuaciones de crecimiento y rentabilidad, la determinación optima de los niveles de liquidez y solvencia de una empresa o la posible predicción de una quiebra, requieren de un análisis financiero complejo, y la investigación aplicada a fenómenos complejos requiere de un análisis dirigido a una considerable cantidad de variables (n > 2). A partir de estos hechos se ha aceptado que las técnicas multivariables tienen capacidad para integrar simultáneamente una gran diversidad de variables mediante el tratamiento multidimensional de los datos y pueden utilizarse como una herramienta eficaz dentro del contexto de los negocios.

Además, con el desarrollo de las teorías del valor, la solvencia y de los conceptos financieros que han unificado más los criterios sobre el éxito financiero entre las empresas privadas principalmente, y tomando como fundamento el análisis a través de ratios, el análisis financiero ha pasado a enriquecerse junto con el desarrollo del software estadístico (SPSS, SAS, BMPD, LISREL, SPAD, MINITAB etc.), pues proporcionan al investigador instrumentos más potentes y eficaces para intentar llegar a evaluaciones y predicciones más confiables.

En cuanto al desarrollo histórico del análisis financiero multivariable, este se puede dividir en cinco etapas: a) la etapa descriptiva a través del método de ratios; b) el inicio de la etapa predictiva con modelos univariables; c) el inicio de la etapa predictiva con modelos multivariables como regresiones múltiples, análisis discriminante, análisis Logit y análisis Probit; d) los modelos multivariables que se desarrollaron con base en los flujos de efectivo; y por último, e) los modelos multivariables basados en el análisis factorial y de componentes principales para seleccionar las variables independientes.

Dentro del campo de la investigación sobre la relación entre los ratios y los modelos multivariables, la predicción de quiebras ha sido el tema central al que se han dirigido la mayoría de los trabajos empíricos. Esto se debe en parte al hecho de haberse alcanzado la idea de la diferenciación de los ratios entre los diferentes períodos contables, lo cual representó en su momento para esta línea de estudio la denominada: “etapa descriptiva”. Posteriormente, la idea que se desarrolló fue la significancia de cada ratio (posibilidad de explicación de la quiebra) así como la capacidad predictiva de los ratios más relevantes, lo cual dio origen a la denominada: “etapa predictiva”(Gabas: 1990, p. 27).

En esta segunda etapa es cuando surgen los modelos univariables con los trabajos pioneros de Beaver (1966, 1968). Este investigador inició sus estudios empíricos tendiendo a "descomponer" los ratios a través de métodos estadísticos avanzados con el fin de aplicarlos como una técnica que permitiera determinar la solvencia y la liquidez real de las empresas para posteriormente poder predecir una quiebra. Para esto utilizó el análisis univariable, que tiene como objetivo principal la utilización por separado de una o varias variables independientes para explicar una variable dependiente.

Beaver concluyó que los datos contables se podían utilizar para estimar la sensibilidad de los cambios en las utilidades agregadas de todas las empresas a través del uso de una "Beta Contable". Estableció que era posible utilizar ratios para distinguir entre empresas en quiebra y empresas sin quiebra en una medida mucho mayor que la permitida por la predicción aleatoria. Al comparar entre la capacidad predictiva de los ratios contra los precios de mercado, observó que se cumplía la hipótesis de la eficiencia de los mercados de capitales al resultar ser mejores predictores estos últimos a través de la cotización de las acciones. Creemos que Beaver tiene que ser más bien considerado como el pionero de la corriente que promulga la utilidad de la información contable y el uso de ratios para conocer más sobre el fracaso empresarial. Previo a sus estudios los ratios habían sido utilizados únicamente como predictores informales y su efectividad no había sido empíricamente contrastada.

Beaver se basó en la hipótesis primaria que parte de que la solvencia está ligada a unas variables independientes que pueden ser controladas. Según Bizquerra (1989, p.4) dicha hipótesis, sencilla y con alta probabilidad de ser mejorada, representa la primera de un total de tres fases del análisis multivariable con el que se llega a la máxima sofisticación en el proceso de datos y que puede sintetizarse en los siguientes tres tipos: a) El análisis exploratorio de los datos o estadística descriptiva univariable: consiste en analizar una o cada una de las variables independientes por separado. b) El análisis o estadística bivariable: su objetivo consiste en buscar la relación entre pares de variables independientes. c) El análisis multivariable: su objetivo es analizar simultáneamente tres o más variables independientes métricas (ratios) a través de funciones lineales de dependencia como las siguientes:

Análisis de Regresión Múltiple.

Variable Dependiente Métrica; Variables Independientes Métricas, no Métricas:

Y1 = C1X1 + C2X2 +................CnXn

Es decir:

Fij = Fi1 Z1 + Fi2 Z2 + .........Fir Zr = ? Fim Zm

Donde:

Fij = Puntuación factorial del individuo “j” en el factor “i”

Zm= Puntuaciones individuales en cada variable con puntuaciones estandarizadas

Cada Fim Zm = Es la ponderación factorial de la variable “m” en el factor “i”

Análisis Discriminante Múltiple.

Variable Dependiente No Métrica; Variables Independientes Métricas.

Zscore = C1X1 + C2X2 +................CnXn

Donde:

Z = Punto de Corte

Vn = Coefeficiente Discriminante

Xn = Variables Independientes (Ratios Financieros)

Análisis de Correlación Canonica.

Variables Dependientes Métricas y No Métrica; Variables Independientes Métricas y No Métricas.

Y1 +Y2 +Y3 .......+Yn= X1 +X2 +X3 .......+Xn

Análisis Factorial o de Componentes Principales.

Siendo el Modelo de la Matriz de datos como:

Xij=F1i ai1 + F2i ai2 +..........+Fki aik + Ui

Donde:

Xij = Puntuación del individuo i en la variable j

Fij = Coeficientes factoriales

a = Puntuaciones factoriales

u = Factor único

Y siendo la fórmula de la Comunalidad:

h2i = F21j + F22J +........... + f2KJ

Así como el Factor Unico:

1 = h2 +U2

Donde:

h2 = comunalidad

U2 = factor único

Como podrá observarse en todos estos modelos estadísticos, las variables independientes cumplen la condición de ser métricas, lo cual posibilita el utilizar a los ratios como base de datos y sustituir o complementar así el análisis financiero tradicional.

El análisis multivariable es un conjunto de técnicas estadísticas que analizan simultáneamente más de dos variables en una muestra de observaciones (Kendall: 1975). Para Cuadras (1981: p.3) esta técnica estudia, interpreta y elabora el material estadístico sobre la base de un conjunto de n >2 variables, las cuales pueden ser de tipo cuantitativo, cualitativo o una combinación de ambas. Una de las aplicaciones principales del análisis multivariable dentro del campo del análisis financiero consiste en resumir, sintetizar, correlacionar o discriminar grandes conjuntos de datos y variables en función de ciertos objetivos para obtener información válida que logre una mejor comprensión del fenómeno objeto de estudio (Bizquerra:1989, p.1).

En general cualquier análisis simultáneo de más de dos variables es parte del análisis multivariable. Sin embargo, dentro del análisis existen diversos métodos que pueden ser empleados de diferentes formas (según sean los datos de entrada y los resultados o salidas). Según Ortega (1984: p. 406), el resultado de dichas aplicaciones da la posibilidad al usuario de clasificar las situaciones y variables. Esto mediante la obtención de relaciones entre esas variables en términos de influencia sobre los factores incontrolables por parte de la empresa. Es decir, este análisis se establece a partir de numerosos datos, relaciones y leyes operativas; investiga estructuras latentes (ocultas), y ensaya diversas formas de organizar dichos datos en estructuras conocidas y fácilmente utilizables en dos sentidos: a) Transformándolos y presentándolos bajo una forma nueva. b) Reduciéndolos sin perder demasiada información inicial con el objetivo de construir un resumen relativamente exhaustivo del conjunto de partida que es habitualmente complejo y con informaciones redundantes.

Los orígenes del análisis multivariable se encuentran en las primeras generalizaciones de la correlación y regresión, en donde se establecieron las primeras ideas del análisis de componentes principales (Pearson; 1901 y Spearman; 1904). Sin embargo, el establecimiento definitivo de la mayoría del análisis multivariable se ubica en los años treinta con los estudios de Hotelling (1931, 1933); Willes (1932, 1935); Fisher (1935, 1936); Mahalanobis (1936) y Bartlett (1939). En cuanto a la maduración de los fundamentos del análisis multivariable, este se debe a los pioneros de la estadística moderna que inicio en Inglaterra (Galton, Pearson, Fisher, Snecodor) Posteriormente, el centro de gravedad se desplazó hacia los Estados Unidos (Hotelling, Wilks, Bartlett), aunque sin dejar de considerar las aportaciones que se dieron con el nacimiento de otras escuelas tan importantes como la escuela india (Mahalanobis, Roy, Krishnaah), la escuela francesa surgida en los años sesenta (Benzecri, Lebart, Morineau, Fenelon, etc.) y la escuela sueca surgida en los años setenta (Jöreskog y Sörborn).

A partir de Spearman (1904) se estableció el inicio del análisis factorial cuando en su estudio sobre la inteligencia distinguió un factor general con respecto a un cierto número de factores específicos. Este autor había considerado como antecedentes teóricos las técnicas de regresión lineal propuestas por Galton (1888). Por otra parte, Pearson (1901) propuso el método de componentes principales como un primer paso previo para llevar a cabo las estimaciones del análisis factorial. Posteriormente, Hotelling (1933) aplicó el método de extracción de factores mediante la técnica de componentes principales, la cual hasta nuestros días se ha confirmado como una de las más aceptadas entre los diversos trabajos multivariables. La relación entre las correlaciones y las saturaciones de las variables en los factores fue expuesta por Thurstone (1947). Este autor introdujo la idea de la estructura simple, así como la teoría y el método de las rotaciones factoriales ortogonales y oblicuas con el objetivo de obtener una estructura factorial más sencilla para facilitar la interpretación de los factores. Otra aportación importante relacionada con este tipo de análisis fue la de Keiser (1958), quien desarrolló una serie de procedimientos matemáticos mediante el método varimax para llevar a cabo las rotaciones ortogonales, pues antes de sus trabajos dichas rotaciones únicamente eran gráficas.

Bizquerra (1989) y Prieto (1985) indican que el análisis multivariable distingue entre métodos predictivos y métodos reductivos. Los primeros identifican a un grupo de variables independientes (predictoras), un criterio o variable dependiente, y en ocasiones a un grupo de variables aleatorias (intervinientes) cuyo efecto se desea mantener bajo control. Sin embargo, el problema radica en especificar las dependencias o correlaciones significativas entre los dos primeros tipos de variables, tal es el caso de la regresión múltiple. Con respecto a los métodos reductivos, estos analizan las interdependencias entre todas las variables con el objeto de reducir al mínimo el número de variables necesarias para describir la información relevante contenida en las observaciones.

Una clasificación también utilizada para los modelos multivariables es la que los divide en: a) métodos descriptivos o exploratorios (no se establece ninguna hipótesis previa); y b) métodos explicativos o confirmatorios (se basan en un marco teórico para fundamentar y validar empíricamente una hipótesis). Otra importante clasificación es la que divide a los métodos en: a) métodos reductivos (análisis factorial, componentes principales, correlación canónica, análisis de clusters, análisis de correspondencias); y b) métodos de dependencia (análisis de la varianza, análisis de la covarianza, regresión múltiple, análisis discriminante, análisis de probabilidad condicional Logit y análisis de probabilidad condicional Probit).

Los estudios de Beaver fueron muy importantes como antecedente del análisis financiero multivariable, ya que logró separar y analizar los componentes de los ratios mediante el uso de métodos estadísticos univariables y determinó la media de los valores de dichos componentes, tanto de empresas en quiebra como de empresas sanas. Este análisis sobre las medias le llevaron a la conclusión de que la combinación de datos dentro de la forma de ratio puede “oscurecer” la información contenida en los componentes individuales. Beaver sugirió que los ratios tienen que aplicarse con discreción porque no todos tienen el mismo grado de capacidad explicativa y predictiva. Estos estudios dieron paso a la idea de los modelos multivariables llevados a cabo por primera vez por Altman (1968). Lo que si es definitivo es que a partir de los estudios univariables de Beaver se demostraron las múltiples limitaciones que presentaba el análisis financiero tradicional basado únicamente en ratios.

Las ideas sobre el análisis financiero basado en métodos multivariables se comenzaron a divulgar de forma más amplia a finales de la década de los sesenta y durante los setenta, y posteriormente se intensificaron en las décadas de los ochenta en diversas partes del mundo industrializado (Pinches y Mingo: 1973; Libby: 1975; Pinches, Mingo y Caruthers: 1973, 1975; Largay y Stickney: 1980; Chen y Shimerda: 1981; Gombola y Ketz: 1983; Gahlon y Vigeland: 1988; Dambolena y Shulman: 1988; entre otros). A partir de entonces se ha continuado aplicando ininterrumpidamente una serie de herramientas cada vez más eficientes, como es el caso del análisis de regresión múltiple, el análisis factorial común, el análisis de componentes principales, el análisis discriminante, entre otros. Dentro del campo de estudio sobre el éxito o fracaso empresarial, el trabajo de Libby (1975) representó una de las primeras investigaciones en donde se aplicó el análisis factorial antes de la aplicación de una regresión o un análisis discriminante.

Los metodologías utilizadas en las investigaciones que versan sobre nuevas formas de llevar a cabo el análisis financiero de las empresas fueron incrementando su complejidad desde los trabajos pioneros de Beaver (1966,1968). Los estudios univariables habían representado un camino mejor para la predicción de quiebras al lograr el modelo de Beaver alcanzar una exactitud en las clasificaciones hasta del 87%. Sin embargo, los posteriores modelos multivariables fueron superando la exactitud de las clasificaciones univariables al ser más precisos los ratios financieros y obtener porcentajes más altos en modelos como los de Altman y Blum (95%), Edmister (93%), Ohlson (96%), Deakin (97%) y Rose y Giroux (92%).

Algunos de estos estudios, como los de Altman (1968), lograron reducir el número de ratios utilizados en las investigaciones univariantes al aplicar el método Multiple Discriminant Analysis: MDA. Otros estudios se distinguieron por utilizar otras técnicas de análisis multivariable como: el análisis discriminante lineal, el análisis discriminante cuadrático, el análisis de regresión, el análisis de componentes principales, el análisis factorial (para explicar la varianza de los ratios), el análisis cluster (para reducir la colinealidad), el análisis con redes neuronales, y el análisis de probabilidad condicional Logit y Probit (los cuales constituyen una mejor variante de la regresión múltiple, ya que sí permiten definir a la variable dependiente cualitativa como dicotómica o categórica)

Aunque los estudios pioneros de la década de los sesenta y setenta intentaron limitar este fenómeno y capturar al mismo tiempo la mayor cantidad de información útil en los ratios financieros, tales métodos actualmente se han cuestionado. Por ejemplo, Atlman (1968) analizó las intercorrelaciones entre las variables independientes antes de seleccionar las variables finales de su modelo. El método que utilizó consistió sólo en analizar al mismo tiempo las correlaciones entre dos pares de variables. Este análisis bivariable de intercorrelaciones estaba muy lejos del actual concepto del análisis múltiple de correlaciones. Por otra parte, Edmister (1972), y Rose-Giroux (1984) fueron más lejos y utilizaron la técnica de selección “Stepwise” para determinar la contribución relativa de cada variable independiente y su correlación con otras variables del modelo. Sin embargo, el análisis “Stepwise” aunque limitó la multicolinealidad, el nivel de correlación aceptable se estableció arbitrariamente.

Respecto a los estudios más sobresalientes aplicado específicamente a las ratios financieros están los desarrollados por: Pinches y Mingo (1973), Libby (1975), Gombola y Ketz (1983),Gombola, Haskings, Ketz y Wiiliams (1987), Largay y Stickney (1980), Gahlon y Vigeland (1988), Dambolena y Shulman (1988), Azis y Lawson (1989). También el análisis financiero multivariable ha sido utilizado en una gran variedad de estudios contables que han sido de especial relevancia para incrementar al análisis proyectivo sobre casos de quiebras. Entre estos estan los desarrollados por Pinches, Mingo y Caruthers (1973, 1975) y de Chen y Shimerda (1981). Por otra parte, los trabajos de Gombola y Ketz (1983a) así como los de Casey y Bartczak (1985) han sido muy importantes para los estudios sobre la posición de tesorería y el cash flow. Otros trabajos relevantes son los que se refieren a la determinación de los principales factores a evaluar en la función lineal (Lo: 1986 y Zavgren: 1985).

Años después Dambolena realizó otro trabajo con Joel Shulman (1988). Su Estudio proporcionó evidencia empírica sobre el incremento de la capacidad predicitiva cuando se incluyen variables basadas en el cash flow. Esta variable ya había sido utilizada en otros estudios como los de Altman (1968) y Gentry, Newbold y Whitford (1985a). En el modelo de Altman esta variable había incrementado la exactitud predictiva del 85% al 92% un año previo a la quiebra; y del 82% al 84% dos años previos a la quiebra. En el modelo de Gentry et. al. se incrementó del 74% al 89% y del 68 % al 76 %, uno y dos años previos a la quiebra. Todos estos resultados les indicaron que las bases de datos basadas en flujos de efectivo podían incrementar el poder explicativo y predictivo entre empresas sanas y empresas fracasadas.

Otro estudio importante que siguió la misma línea de Casey y Bartczack fue el de Abdul Azis y Gerald Lawson (1989). Su estudio se enfocó a descomponer el cash flow total para compararlo entre modelos basados en el cash flow y en el devengo. Esto tuvo como fin comprobar si un modelo basado únicamente en el cash flow tenía más poder predictivo. Para esto utilizaron las mismas cinco variables del modelo Altman (1968), aplicándolas al modelo de Lawson (1985) que estaba basado en el cash flow. Posteriormente, compararon sus resultados con los del modelo Altman (1968) y el modelo Altman, Halderman y Narayanan (1977).

Para determinar la capacidad predictiva del modelo utilizaron el método estadístico Logit y el formato del estado de cash flow para obtener los componentes del cash flow total. Los resultados de su trabajo les indicaron que su modelo no fue mejor que la Z-Score de los trabajos de Altman. Sin embargo, las diferencias en los porcentajes de error fueron consistentes con el estudio de Casey y Bartczak (1984) y de Gentry, Newbold y Whitford (1985), los cuales habían determinado que las bases de datos basadas en el efectivo, no mejoraban la capacidad predictiva global del modelo, aunque en la submuestra de empresas fracasadas observaron que si mejoró la exactitud predictiva cuando los modelos tuvieron únicamente como base al efectivo, o bien, se combinaron con variables tradicionales basadas en el devengo.

Gentry, Newbold y Whitford, al analizar el estudio de Ball y Foster (1982), les llamó la atención que éstos últimos en su revisión sobre los modelos de quiebras, habían visto que en general estos utilizaban un total empirismo para seleccionar a las variables independientes. El modelo utilizado por estos tres autores fue desarrollado inicialmente en 1972 por Helfert y su propósito inicial fue identificar la relevancia de las mediciones de flujos de fondos a través de la inclusión de ocho componentes de flujos de fondos netos. Con estos componentes se obtuvo un 83.33% de clasificación global correcta.

A partir de principios de la década de los setenta se iniciaron en Japón los primeros estudios sobre análisis financiero a través de métodos multivariables en el “Nomura Research Institute” (1973). También fueron precursores de la escuela japonesa investigadores tan importantes como: Toda (1974); Itoh (1977); Ohta (1978); Tamaka y Nakagi (1974); Murakami (1979); Igarashi (1979); Ozeki y Ohno (1980). Todos ellos utilizaron los modelos de predicción multivariable a través de funciones discriminantes a excepción de Tamaka y Nakagi que utilizaron el análisis de componentes principales y el análisis cluster. Uno de los trabajos que más llamó la atención fue el de Takahashi y kurokawua (1985). Éste resultó interesante por la importancia y el enfoque que prestaba a las bases de datos contables.

Takahashi y kurokawua consideraron que el poder predictivo del análisis aumentaba si se utilizaban como variables tanto a los ratios como a las cantidades absolutas, basados ambos elementos en datos de estados financieros sobre la base de efectivo (“cash based”). También destacaban en su estudio los numerosos casos que se dan en Japón, donde los reportes de los auditores de las empresas quebradas muestran “excepciones” o “reservas” dado el importante efecto del window dressing que se presume existe en las bases de datos contables (op. cit. p. 231).

Como ya apuntamos, a partir de 1968 y como consecuencia de los estudios de Beaver, varios investigadores comenzaron a trabajar con modelos multivariables con el objetivo de poder determinar con más precisión qué empresas se dirigían hacia la quiebra y cuales otras no. Entre estos estudios destacan los conducidos por Altman (1968, 1977, 1978, 1979, 1981, 1984, 1988, 1993, 1994a, 1994b, 1995, 1996, etc.) Este investigador amplió el análisis univariable al introducir por primera vez múltiples predictores de quiebra mediante el Análisis Discriminante Múltiple (MDA). A través de los años Altman ha llegado a ser considerado por gran número de expertos como el investigador que más ha contribuido al desarrollo de la relativamente nueva teoría de la solvencia, sobre todo al haber creado el modelo original de la “Z-Score” (1977).

Z-Score de Altman

Z = 1.2X1 + 1.4X2 + 3.3.X3 + 0.6X4 + 1.0X5

Donde:

Z = Indicador Global o Sintético Z-Score (Overal Index)

X1 = Ratio de Liquidez (capital circulante neto* / activo total).

X2 = Ratio de Rentabilidad Acumulada (beneficios no distribuidos / activo total).

X3 = Ratio de Rentabilidad (beneficios antes de intereses e impuestos. / activo total) .

X4 = Ratio de Estructura Financiera (valor de mercado de fondos propios / valor contable de los pasivos)

X5 = Tasa de Rotación de Capital (ventas netas / activo total).

Actualmente las grandes empresas, y sobretodo las financieras, utilizan el “Zeta Credit Risk System” o “Zeta Credit Scoring Model” que fue producto de su investigación y que continua desarrollando la “Zeta Services Inc.”, una de las principales firmas que comercializa sistemas de análisis financiero crediticio tales como: “ Advantage Financial Systems”, “Trust Division of the First Union Bank”, “Datastream”, “Performance Analisys Services Ltd”, etc.

En 1984 a través de la revista “ Studies in Banking and Finance” (North Holland; Vol. 8, No.2), Altman editó una serie de 20 artículos que intentaron perfeccionar un modelo de análisis financiero para medir el riesgo de las compañías (“Company and Country Risk Models”). Estos estudios se hicieron en países altamente industrializados como: Alemania, Australia, Francia, Italia, Israel, Japón y el Reino Unido. Para 1988, en esta misma revista (Vol. 7) se volvieron a editar otras investigaciones realizadas en países con economías emergentes tales como: España, Finlandia, Grecia, India, Malasia, Singapur, Turquía y Uruguay.

Posteriormente, durante sus investigaciones en México con Hartzcel y Peck (1995), Altman adaptó el modelo original de su Z-Score para economías emergentes con el fin de proponer un nuevo indicador global predictivo exclusivo para este tipo de mercados. A este nuevo indicador lo denominó: “Emerging Market Scoring Model” (EMS Model). Este autor reconoció que la realidad indicaba que en los países emergentes existía una serie de riesgos adicionales cuantitativos que el análisis tradicional no consideraba. Tal era el caso del riesgo de la moneda y el riesgo industrial que impedía frecuentemente construir un modelo de análisis financiero específico para la muestra de empresas ubicadas en las economías emergentes.

Altman participó también directamente en las investigaciones para la construcción de los modelos de análisis multivariables de: Australia, Brasil, Canadá, Corea del Sur e Italia. En estos países se encontró con toda una serie de opiniones diferentes sobre el peso que debería dársele a cada una de las variables explicativas contenidas en el modelo. Actualmente, Altman también es asesor de numerosas agencias gubernamentales e instituciones financieras que desarrollan modelos de análisis financiero multivariable.

Durante 1979 Baidya y Ribeiro, junto con Altman aplicaron el modelo de la Z-Score a la difícil experiencia financiera Brasileña que se presentó durante la década de los setenta. Este estudio se llevo bajo un ambiente caracterizado por porcentajes de inflación muy altos. Baidya y Ribeiro concluyeron que el modelo de análisis financiero de Altman que aplicaron en su estudio, en el caso de economías emergentes presentaba problemas fundamentales en cuanto a la calidad y disponibilidad para obtener bases de datos fiables. En general los trabajos de Altman y de otros pioneros del nuevo concepto del análisis financiero multivariable, se fueron desarrollando bajo un nuevo entorno tecnológico que se inició a finales de los años sesenta cuando se contó con un uso más significativo de las computadoras y el grado de maduración de las escuelas estadísticas repercutió directamente en el desarrollo de las técnicas multivariables.


Grupo EUMEDNET de la Universidad de Málaga Mensajes cristianos

Venta, Reparación y Liberación de Teléfonos Móviles
Enciclopedia Virtual
Biblioteca Virtual
Servicios