BIBLIOTECA VIRTUAL de Derecho, Economía y Ciencias Sociales

DESARROLLO DEL ANÁLISIS FACTORIAL MULTIVARIABLE APLICADO AL ANÁLISIS FINANCIERO ACTUAL

Alberto Ibarra Mares


 


Esta página muestra parte del texto pero sin formato.

Puede bajarse el libro completo en PDF comprimido ZIP (211 páginas, 1.08 Mb) pulsando aquí

 

 

CONCLUSIONES

De inicio la conclusión principal a la que se llega en este trabajo es que en general los modelos predictivos presentan dos fases para su desarrollo que son muy complejas y de igual importancia, y sin embargo, en la primera de ellas poco se ha trabajado en términos de una estrecha relación conceptual-empírica.

La primera fase comprende el estudio y estructuración detallada de la base de datos para evitar el efecto window dressing, mantener la utilidad y confiabilidad del sistema contable a través de los años para su comparabilidad, y llegar al máximo grado de armonización conceptual entre los diferentes estados financieros utilizados.

Continuando con esta fase, el siguiente paso consiste en que con la base de datos se debe proceder siempre a estimar un conjunto de ratios financieros previamente seleccionados y sustentados todos y cada uno de ellos dentro de un marco teórico bien fundamentado, el cual también incluya la definición conceptual de la variable dependiente. Si esto se ha cumplido, sólo entonces se debería proceder a utilizar un método mulvariable reductivo para determinar un conjunto de factores y eliminar al mismo tiempo aquellos ratios que presenten una alta multicolinealidad. Esto con el fin de llegar a obtener los ratios finales que representarán a los factores con base en su alta correlación entre cada factor y cada ratio emparejado. Una vez llevado a cabo lo anterior, se considera que es de suma importancia que al factor se le asigne un nombre clave de acuerdo al marco teórico que presentó originalmente el ratio para su interpretación financiera.

Sobre la metodología propuesta, se recomienda no pasar por alto la importancia que conlleva seleccionar adecuadamente el sector de la unidad de análisis, la unidad temporal, la muestra y la unidad geográfica. Sin embargo, de no ser posible llevar con éxito el desarrollo de la primera fase en términos generales, consideramos que definitivamente no se debería proceder al desarrollo de la segunda fase, pues el modelo adolecería de un sustento conceptual y empírico necesario.

En cuanto a la segunda fase del modelo, consiste en determinar la variable dependiente de forma categórica e incorporar en una función lineal los ratios seleccionados como variables independientes, asignándoles una ponderación individual a cada uno de ellos con el fin de aplicar un método multivariable clasificatorio para obtener porcentajes de exactitud y errores predictivos “ex-ante” o “ex-post”.

E muy importante desarrollar de forma muy detallada la primera fase del modelo predictivo dentro de un sector muy específico tomando en cuenta si la economía es desarrollada, emergente o pobre. Pues esta situación conlleva importantes particularidades por el aspecto tan “sui generis” en relación con las bases de datos e información financiera. Con base en estos alcnaces y limitaciones se pueden comentar las siguientes conclusiones de algunos elementos importantes del modelo factorial, paso previo para aplicar modelos multivariables predictivos como el análisis discriminante multiple.

BASES DE DATOS.

Lo ideal para desarrollar adecuadamente un modelo predictivo sería que la contabilidad presentase en todo momento dos características fundamentales para el usuario: utilidad y confiabilidad. Sin embargo, la naturaleza propia de la técnica contable es provisional y en la práctica este sistema no refleja con exactitud la situación real de una empresa, ni tampoco el resultado contable constituye una buena medida de creación de valor dada la alta probabilidad de manipulación que puede introducirse y que se denomina efecto window dressing. Por otra parte, la estructura contable de medición es de partida defectuosa y se distorsiona aún más por la inflación, la devaluación de la moneda y la variación en las tasas de interés.

Ante esta evidente situación que se da de forma más acentuada en las economías emergentes, la revelación y la reexpresión son los dos únicos caminos que actualmente se han desarrollado de manera sistemática para mantener al máximo la utilidad de la información financiera a través del tiempo y utilizar entonces estos estados como base de datos. En el caso de la reexpresión, que es el método más eficaz para erradicar los efectos de distorsión del sistema de información empresarial, éste se fundamenta en dos principios que están en constante evolución y son: el principio del mantenimiento del capital financiero y el principio del mantenimiento del capital físico.

Otro fenómeno importante que hace vulnerable al sistema de información empresarial es la falta de armonización contable, pues la tendencia de la técnica varía entre los diferentes países y usuarios. En algunos casos o países se dirige a las necesidades del inversor; en otros el sistema contable se enfoca a los acreedores y proveedores; y por último, también se diseña para cumplir con políticas macroeconómicas del gobierno, tales como el nivel de crecimiento y el fortalecimiento del sistema tributario. Sin embargo, y como apunta acertadamente Stevens (1982), muchas ocasiones los principales usuarios del sistema contable, aunque perciben su subjetividad, erróneamente se han convencido durante décadas de que la contabilidad refleja con exactitud la situación real de un negocio al utilizar números detallados y formatos ordenados de clasificación e interpretación basados en principios y normas. En el caso de muchos investigadores que utilizan bases de datos contables, además de que no se detecta estos hechos en sus trabajos, tampoco se nota indicio sobre la percepción sobre el entorno económico en donde se produce dicha información.

Lo que llama nuestra atención es que ya varios investigadores considerados clásicos en este campo, como Lev (1989), han venido proponiendo con poco éxito nuevos elementos para la predicción del fracaso ampliando el concepto de la contabilidad positiva y exponiendo el escaso papel que la información contable desempeña en el mercado de capitales, añadiendo que el resultado contable no constituye una buena medida de la capacidad de creación del valor de una empresa dada su alta probabilidad de manipulación. Para Lev los pronósticos de los analistas financieros y las expectativas creadas por los participantes en el mercado son los que realmente provocan los movimientos en las cotizaciones, y por tanto, los precios son los que originan cambios en los resultados y no a la inversa. Algunos trabajos como los de Ohlson (1992), también nos sugieren acertadamente que las causas que explican el bajo contenido informativo de la información financiera se deben a que, el resultado contable anual mide la capacidad de creación del valor de las empresas en un plazo muy corto y con varios errores. Además, en el caso de los modelos predictivos, cuando se utiliza a los resultados acumulados de varios ejercicios como variable explicativa o independiente, éstos aumentan el grado de error en las mediciones según lo demuestran los resultados de sus investigaciones.

Otros estudios como el de Hammer (1983), que tuvo como objetivo constatar la sensibilidad de las variables independientes a través de la utilización de tres métodos (discriminante lineal, discriminante cuadrático y logit), concluye que son las bases de datos las que determinan la selección de las variables independientes y la técnica estadística. Así también lo reconocen Won y Young (1995) quienes opinan que cualquier trabajo predictivo requiere buenas bases de datos.

Se destaca el hecho de que el tipo de información contable que se toma como base de datos en los estudios predictivos de economías desarrolladas es en definitiva sustancialmente diferente con respecto de aquella información que producen las empresas que se ubican en economías en vías de desarrollo, en donde por cierto, la utilidad de la información contable se ve frecuentemente más cuestionada por fenómenos tan comunes como el efecto window dressing, o bien, por la incorrecta reexpresión de los estados financieros.

Por eso para la obtención y estructuración de las bases de datos con fines predictivos, se puso especial énfasis a este aspecto porque a pesar de que ha sido mencionada su problemática en ciertas investigaciones, su tratamiento teórico y empírico se ha limitado sólo a aspectos genéricos. Este elemento constituye una de las principales claves para llevar a cabo adecuadamente las estimaciones y obtener correctamente los indicadores cuantitativos de un modelo predictivo. Por lo tanto, dicho elemento es uno de los que se deben de analizar con más detenimiento a través de tres diferentes e importantes matices que son los siguientes:

a) El problema que existe para obtener las bases de datos ante la práctica del denominado efecto “window dressing” afecta en definitiva negativamente la utilidad del sistema contable.

b) Para solucionar el problema que se presenta para la comparación de las bases de datos entre las diferentes empresas de la muestra seleccionada, se debe considerar las diferentes tendencias que se dan en la presentación de los estados financieros e incorporar las propuestas más avanzadas para obtener nuevos modelos de homogeneización o armonización a escala mundial para la elaboración de los estados financieros básicos.

c) Hay que considerar seriamente el problema de la estructuración de las bases de datos ante los diferentes criterios de actualización de las cifras, bien sea mediante la revelación o a través de la reexpresión de los estados financieros. Como sabemos la actualización es necesaria para conservar la validez, confiabilidad y comparabilidad de la información contable a lo largo de los años. Sin embargo, a la fecha existe una controversia en cuanto al método para actualizar dichas cifras pues cada uno de éstos da diferentes resultados.

En el caso de las economías emergentes que utilicen unidades temporales de largo alcance es imprescindible reconocer la revelación y la actualización de los estados financieros para disminuir la distorsión de la unidad monetaria cuando hay inflación. El caso de la revelación se utiliza cuando la tasa inflacionaria es moderada y consiste en incluir sólo notas en los anexos de los estados financieros. Sin embargo, cuando se revela no se reconoce ni se incorpora dicho efecto en los estados financieros básicos. Por eso cuando las tasas inflacionarias son altas entre los períodos contables se recomienda optar siempre por la actualización o reexpresión de las cifras. Esto último representa un planteamiento más formalizado y sistemático, que sí reconoce e incorpora las distorsiones originadas por los cambios en el nivel general de precios, principalmente en las partidas no monetarias del activo fijo (con sus respectivas amortizaciones y depreciaciones); el capital social; los beneficios acumulados; los inventarios y el coste de ventas. De todo esto se obtiene dos resultados muy importantes que se reconocen tanto en el balance general como en el estado de resultados y son respectivamente: el resultado por activos no monetarios (retam) y los resultados por posición monetaria (repomo).

Los sistemas para actualizar y hacer comparables las bases de datos se pueden desarrollar bajo dos tipos de pensamiento o principios que a su vez producen dos modelos de contabilidad que son:

a) El principio de mantenimiento del capital financiero (contabilidad en moneda constante o al nivel general de precios). Este modelo busca mantener el poder adquisitivo general del capital que han invertido los accionistas. La contabilidad que se produce bajo este principio está diseñada para evitar la distribución del poder adquisitivo que reside en el capital financiero, centrándose en los efectos del declive de dicho poder adquisitivo. Es decir, el método se centra en la unidad de medida para modificarla o cambiarla por monedas de poder de compra y así eliminar el concepto de la moneda como unidad fiduciaria.

b) El principio de mantenimiento del capital físico (contabilidad al coste actual). Los fundamentos de la contabilidad que se produce bajo este principio, se basan en la premisa de que una empresa no puede declarar beneficios si antes no ha cubierto el mantenimiento de su capacidad de explotación existente. Este modelo se centra en los cambios de precios específicos que afectan a la empresa. Es decir, se centra en el atributo medido, buscando reemplazar los valores en que están valuadas las inversiones no monetarias por sus valores de reemplazo o actuales, tomando en cuenta para ello el uso y la capacidad de servicio del bien.

En algunos países a partir de los 70^s y 80`s se ha establecido como obligatorio el reconocimiento de los efectos de la inflación en la información financiera. Posteriormente, en dichas normas se reconocieron como de carácter evolutivo pues se consideró que la reexpresión de la información financiera es un tema sujeto a un permanente proceso de investigación para mejorar el contenido y presentación de los datos, así como para simplificar la aplicación de los métodos de actualización y llegar a una comparación mejor de los estados financieros.

Ahora pasemos a analizar las conclusiones sobre las bases de datos ya en el contexto específico de los modelos predictivos. Se coincidide en la postura de Hair (2000) sobre que el análisis multivariable requiere previamente un examen riguroso de los datos por la influencia de atípicos, violaciones de los supuestos y la ausencia de datos que puede llevar a la pérdida de varias variables independientes y provocar con ello efectos sustancialmente diferentes en los resultados. Pero como el examen de las bases de datos es complejo y lleva tiempo, es común que se descuide este importante aspecto por parte del analista.

Sin embargo, un análisis eficiente de las bases llevará siempre a una mejor predicción, una mejor evaluación de las empresas muestreadas, soluciones más eficaces a los problemas de los datos ausentes, identificación de casos atípicos y la comprobación de los supuestos subyacentes en los modelos multivariables predictivos. Los datos ausentes tienen efectos negativos en cualquier investigación y son producto de la introducción o estimación de los datos. Los casos atípicos son magnitudes extremas que tienen influencia negativa o ilógica en los resultados. Por último, es necesario considerar los supuestos que puedan subyacer en un análisis multivariable, lo cual sólo es posible si se cuenta con la experiencia o la asesoría de un especialista para analizar e interpretar los estados financieros.

LOS RATIOS.

Uun objetivo prioritario en estos trabajos de modelos financieros multivariables basados en ratios, consiste en desarrollar un trabajo empírico detallado sobre las clasificaciones de los ratios, midiendo la estabilidad de los factores a largo plazo para obtener una clasificación de factores estadísticamente independientes con relación al gran número de ratios expuestos en la literatura especializada.

Las conclusiones a las que se llegó sobre los ratios es que la tendencia de éstos no siempre indica si una empresa se dirige al fracaso o no, pues puede existir una manipulación en los estados financieros, y en específico en aquellas partidas que son parte de los componentes de los ratios más representativos para efectuar la evaluación de la empresa. A este hecho se debe añadir la calidad de la auditoría y la disponibilidad de los directivos para asumir mejores criterios de contabilización. Esto por supuesto no descarta la gran ventaja que tiene el método de ratios para resumir la información financiera, aunque hay que considerar que este método, al no tener un carácter obligatorio, lleva a que las estimaciones de los ratios presenten diversos criterios y componentes, y por lo tanto, no es factible alcanzar una armonización entre las empresas. También hay que considerar la experiencia de Beaver (1966) que demostró en sus investigaciones que los ratios no presentan la misma capacidad de evaluación o predicción a través del tiempo, ni predicen con igual exactitud el fracaso y el éxito (error tipo I y II).

Por otra parte, también ha sido común para este tipo de trabajos recibir serias críticas en cuanto a que las variables independientes y sus respectivos factores utilizados en la función lineal no tienen un sustento teórico bien fundamentado, de ahí que hayamos desarrollado ampliamente el marco teórico de cada una de ellas. Aunque los estudios realizados con ratios financieros para medir fracaso empresarial se han enfocado en la comparación entre empresas en quiebra y empresas que no han quebrado (sanas y no sanas). Para algunos analistas esto ha permitido ofrecer pruebas de que las empresas que no quebraron presentaban ratios de tesorería "más firmes" que aquellas que si quebraron, aunque aún no se ha demostrado de manera concluyente la capacidad de los ratios por sí solos para la predicción de quiebras.

Otro aspecto importante a tomar en cuenta es que dentro del ratio, el numerador o el denominador pueden presentar signos negativos. Esto da origen a una interpretación engañosa sobre el coeficiente. Por eso se recomienda analizar sobre todo el signo del numerador, pues cuando presenta un signo negativo el análisis se vuelve más complejo.

Lizarraga (1996) que apunta el serio problema que existe en gran cantidad de ratios para encontrar su claro significado económico o financiero. La ausencia estos elementos lleva a una inevitable complejidad y a diferentes tipos de interpretación que genera desacuerdos o equívocos, lo que a su vez conducen a un exagerado optimismo sobre la utilidad del ratio, la cual tras ser analizada durante décadas, posteriormente se ha demostrado en varios casos como absurda o sin sentido.

Como hemos señalado antes, ningún ratio hay que considerarlo aisladamente porque no son significativos por sí solos, pues todos ellos deben ser comparados con un patrón para determinar si su nivel es satisfactorio o no. Para obtener dicho patrón es necesario seleccionar primero a los ratios y definir cuales serán sus objetivos (Westwick: 1987). Posteriormente es muy importante interpretar cada ratio comparándolo con ratios anteriores de la misma empresa, algún estándar establecido y ratios de otras compañías del mismo o similar sector.

Una de las últimas propuestas más importantes para las que se utilizan los ratios es la de servir como una base de datos aún más sintética que los estados financieros, reduciendo su redundancia y multicolinealidad a través de métodos estadísticos para llevar a cabo predicciones. Al respecto Horrigan (1965) sostiene que los problemas presentes de multicolinealidad son también oportunidades para el investigador, pues cuando se presenta este fenómeno con los ratios financieros, permite al analista contar con la máxima información contenida en los ratios, aunque sea redundante, para posteriormente ser capturados y reducidos a un pequeño número de factores. Sin embargo, es importante considerar que los estados financieros, cuya característica básica es el devengo, representan el primer punto de partida para calcular cualquier medida o ratio. Por eso ciertos ratios requieren posteriormente ajustes más analíticos, pues no todos los componentes son fiables o están incluidos en los estados financieros.

Con respecto a la clasificación de los ratios por factores, consideramos importante la opinión de García-Ayuso (1996). Este nos indica que muchas de éstas se hacen “a priori” y sin ningún fundamento empírico. Esta situación ha dado como resultado únicamente coherencia en términos conceptuales en la totalidad de los ratios. Además, en este tipo de clasificaciones muchas veces influye más el amplio reconocimiento que se presta a ciertos autores que las han propuesto y esto lleva a que aquellas clasificaciones más tradicionales ya no sean cuestionadas, situación que sí se lleva a cabo con el análisis factorial. También existen estudios empíricos que aplicando técnicas estadísticas multivariables buscan obtener clasificaciones que determinen que ratios presentan un comportamiento análogo y aportan un contenido informativo similar sin más trascendencia conceptual o de medición, o bien, otros ratios que siendo efectivamente diferentes sirvan para medir variables importantes que afectan a la empresa. Con base en ello, se recomienda incorporar los principales objetivos de trabajos como los de García-Ayuso, que consisten en presentar una comparación entre clasificaciones a priori propuestas en la literatura contable y las clasificaciones obtenidas de investigaciones empíricas como resultado de la explicación de técnicas del análisis factorial.

Se debe tratar de eleccionar aquellas variables independientes que más influyen en el desarrollo económico y financiero de la empresa. Hipotéticamente la serie de variables independientes tiene que aportar conclusiones rigurosas, con base en técnicas y relaciones complejas. Sin embargo, se debe tomar en cuenta que existen casos en donde considerando una sola variable independiente, ésta puede aportar un rigor similar o ligeramente inferior en lugar de utilizar varias.

En cuanto a las relaciones empíricas entre los ratios, y según puede verse en el cuadro siguiente, hasta la fecha no existe suficiente consistencia entre los diferentes modelos predictivos. Esto se debe principalmente a problemas tales como: la inexactitud de los diferentes modelos propuestos, los diferentes criterios de selección y clasificación de los ratios, las distintas ponderaciones que los investigadores dan a las variables independientes, la diferencia de las poblaciones de ratios entre los modelos y a las relaciones empíricas que estos mantienen.

LA VARIABLE DEPENDIENTE.

Para iniciar la determinación de la variable dependiente se recomienda que no siempre se parta del supuesto del fracaso. Pues puede enfocarse desde dos estados que presentan las empresas: a) como éxito empresarial, y b) como fracaso empresarial.

En el primer caso los criterios se reducen a dos supuestos que no son tan polémicos: "empresa sana" (maximización de los beneficios y maximización del valor de la empresa) y "empresa no fracasada" (no presenta ningún síntoma de fracaso, aunque tampoco necesariamente presente ninguno de éxito). Este criterio se recomienda utilizarlo en aquellas investigaciones en donde la población de empresas quebradas sea muy reducida y no se cuente con una unidad temporal amplia (más de tres años). También coincidimos con Mora (1993) en el sentido de que este enfoque es mejor cuando el analista tiene como objetivo principal el valorar la probabilidad de éxito en lugar que la del fracaso. Sin embargo, hemos de reconocer que para ello existen otras opciones muy bien fundamentadas tanto teóricas como prácticas para medir el éxito de la empresa en términos cuantitativos. Aunque dichas alternativas se han desarrollado con mayor éxito y excelentes resultados dentro del marco de las finanzas corporativas y no del análisis e interpretación de estados financieros o con modelos predictivos.

Además, al hablar de éxito empresarial también hay que considerar que actualmente éste se puede interpretar de acuerdo a ciertas estrategias sobre las formas de empresa. Por ejemplo, si los acreedores optan por realizar acuerdos con el deudor a través de nuevas formas de empresa (como puede ser la fusión por absorción, la asociación o la participación significativa) aunque la entidad presente síntomas de fracaso, puede estar más cerca de alcanzar el éxito empresarial. Esto se debe a que en el corto plazo se logra cumplir con los principios de continuidad y de liquidez, mientras que en el largo plazo los socios pueden llegar a obtener plusvalías en el valor de sus nuevas acciones o volver a maximizar sus beneficios a través de la nueva entidad.

En el segundo enfoque, que es el de más amplia aceptación, se detecta que hasta la fecha continúan las divergencias entre los autores en cuanto al momento y la intensidad que presenta la enfermedad financiera en la empresa, pues hay quienes consideran que el estado de fracaso se inicia a partir de no alcanzar los objetivos del éxito empresarial, hasta quienes lo aceptan únicamente cuando la empresa ha llegado a la quiebra definitiva y estado de liquidación total.

Es más importante considerar que el concepto de fracaso no es un fenómeno puntual, sino un proceso de crisis que se compone de dos etapas: el fracaso económico y el fracaso financiero. Además, el fracaso responde a situaciones no sólo económicas, sino también a aspectos de tipo jurídico, conceptual y técnico.

Aunque la determinación de la variable dependiente suele ser un proceso secundario en gran cantidad de investigaciones por la mayor influencia que ejerce el enfoque estadístico, consideramos que el estado actual de esta línea de investigación exige en estos momentos un planteamiento más riguroso, pues este elemento conceptual es central para definir mejor las dos clases de submuestras de empresas sanas y empresas fracasadas, porque esto repercutirá directamente en los porcentajes de error tipo I y II que se estiman en la segunda fase del modelo.

En cuanto a las posibles definiciones que se pueden presentar de acuerdo al contexto en donde se desarrolla la investigación, es importante considerar el aspecto temporal del fracaso, pues la crisis puede ser transitoria o crónica, y en gran medida a partir de este hecho depende que la empresa inicie un procedimiento concursal. Desde nuestro punto de vista existen básicamente cinco supuestos sólidos para definir técnicamente al fracaso empresarial y son: la suspensión de pagos decretada, la quiebra, la rentabilidad negativa o por debajo de su coste de oportunidad durante varios períodos (éstos se definen de acuerdo al ciclo de explotación y maduración que presente el sector), el capital contable negativo, y por último, el exceso de valor presente de los activos con respecto al valor presente de los pasivos.

En cuanto a un estado ideal para definir a la variable dependiente desde el enfoque del fracaso empresarial, se considera que se daría cuando la empresa fuera formalmente declarada en quiebra o en suspensión de pagos, reuniendo a la vez todos los supuestos financieros, económicos, jurídicos y técnicos que tienen más aceptación en determinadas economías en un momento puntual, sin que intervengan para ello acuerdos que no estén contemplados en el sistema concursal vigente, ni tampoco se implementen subsidios ocultos por parte de los acreedores, gobierno u otras instancias.

Hemos de finalizar este apartado con tres observaciones: a) Que aquellas investigaciones que no presentan un estudio detallado y sólido sobre la definición de la variable dependiente, seguramente sus fundamentos serán débiles con respecto a la selección de la muestra, afectando directamente la confiabilidad de las inferencias estadísticas; b) También se subraya la importancia que tiene la relación entre el efecto window dressing y la determinación del éxito o fracaso en cualquiera de sus supuestos, pues si no se revisa dicho efecto, entonces las bases de datos proporcionarán indicadores o supuestos erróneos; y por último, c) En el caso de elegir entre una suspensión de pagos y una quiebra dentro de un sistema concursal eficiente, recomendamos se considere el primer supuesto por el hecho de que este tipo de empresas tienen la obligación de seguir generando estados financieros contables basados en el principio del devengo y no en el de la liquidación. Esto en definitiva ayuda a mantener vigentes todos los principios de contabilidad generalmente aceptados al estar el negocio en marcha, facilitándose con ello la comparación entre las empresas sanas y las empresas fracasadas.

LA MUESTRA.

En cuanto a la muestra, se coincide con el principio propuesto por Beaver (1966) que recomienda que las empresas seleccionadas deban cumplir con la característica de "tamaño comparable" y "sector homogéneo". Por otra parte, también se considera acertado lo expuesto por Altman(1968) en el sentido de que la heterogeneidad entre el tamaño y el sector de las empresas muestreadas se debe eliminar para tratar de evitar los efectos de distorsión que provocan ambos factores en los resultados.

Es posible mejorar el modelo si sólo se selecciona un sector determinado, pues los resultados hasta ahora obtenidos han demostrado que estos no son generalizables a todas las empresas por lo diferente de sus estructuras financieras y el peso específico que tienen las variables independientes en cada sector productivo. Sin embargo, el modelo predictivo actualmente sí tiene posibilidades de desarrollarse entre sectores similares de diferentes países, pues existe más capacidad de comparación entre empresas similares aunque pertenezcan a sistemas macroeconómicos diferentes, dado el impulso extraordinario que se ha experimentado a nivel internacional para armonizar los criterios contables y su presentación.

Con lo que respecta al emparejamiento de las dos submuestras, aunque algunos autores lo consideran necesario, otros como Ohlson (1980) lo descartan como una vía para lograr mayor exactitud predictiva. En nuestro caso coincidimos con este autor en que no es necesario dicho emparejamiento, máxime en la primera fase del modelo predictivo donde se aplica únicamente el análisis factorial. Sin embargo, para un estudio futuro sobre el análisis discriminante sí se recomienda contrastar las diferencias que se pueden producir al estimar muestras emparejadas y muestras no emparejadas para obtener mayor evidencia empírica al respecto. Aunque hay que recordar que esto último forma parte de la segunda fase del modelo y consiste en la aplicación del análisis discriminante.

LA UNIDAD TEMPORAL Y LA UNIDAD GEOGRAFICA.

Algunos investigadores han comenzado a recomendar que dentro de los períodos se obtengan también informes financieros trimestrales y no sólo anuales para observar mejor las tendencias en los cambios de los ratios. Esto lleva a que de alguna manera la unidad temporal se amplié y compense algunos aspectos negativos de aquellas muestras que sean pequeñas.. Sin embargo, hemos de apuntar que al existir distintos criterios sobre el número de años y trimestres en los períodos seleccionados es indudable que continuará presentándose un problema para la consistencia del modelo.

En general se puede decir que los dos problemas principales a resolver a la hora de determinar la unidad temporal son los dos siguientes: a) La dificultad de una definición representativa y objetiva del fracaso; y b) La dificultad para establecer la fecha concreta del fracaso.

Con respecto a la unidad geográfica, en este punto se concluye que la determinación correcta de la unidad geográfica en los diferentes estudios se ha realizado con base en los siguientes dos criterios: a) aquellos que están dirigidos a un sector muy concreto, y b) los estudios que abarcan varios sectores pero con características financieras homogéneas. En ambos casos normalmente se excluyen de la muestra las empresas financieras, aseguradoras y los bancos, ya que tienen características particulares. En resumen podemos decir que para que la muestra sea más representativa y puedan llevarse a cabo generalizaciones, la unidad geográfica debe seleccionarse considerando aspectos tan importantes como: a) determinación correcta del país y región; b) determinación correcta del sector y subsectores macroeconómicos en que opera la empresa; y c) fijación de las condiciones necesarias para obtener el tamaño de la empresa.

SOBRE EL METODO FACTORIAL Y LA EVIDENCIA EMPIRICA.

Es importante mencionar que en el caso de este trabajo el enfoque se dirigió a explicar el método reductivo del factorial, dado que lo que interesa es reducir el número de ratios y de factores a partir de una base de datos contable reexpresada, con el fin de obtener para posteriores etapas indicadores estándar de un sector productivo específico. Posteriormente, estos indicadores representarán un punto de partida para contrastarlos con otras empresas que pertenezcan al tamaño y sector de la muestra original seleccionada. Al final, el propósito es definir una función lineal muy específica para analizar un sector, para lo cual dicha función incluiría las variables independientes más representativas para evaluar a este tipo de empresas, esto a través del análisis discriminante.

ALCANCES Y LIMITACIONES DEL MODELO FACTORIAL.

La validación de los modelos predictivos multivariables presentan serios problemas por el bajo nivel teórico que existe sobre la solvencia, además de las múltiples deficiencias metodológicas contenidas en los modelos, así como la falta de obtención de verdaderos resultados predictivos en empresas que se dirigen hacia la quiebra. Recordemos que el principal objetivo de los modelos de predicción es la detección oportuna de empresas que quebrarán en el futuro y su utilidad práctica sólo es patente cuando dichos modelos son capaces de distinguir entre empresas que “no fracasan” y tiene éxito (aunque presenten síntomas de fracaso empresarial) y empresas que sí fracasan (aunque no quiebren).

A lo largo del trabajo de revisión bibliografìca, algo que llama la atención es el constatar que a la fecha muchas investigaciones continúan sin aplicar nuevas variantes en los modelos y en la fase de diseño del trabajo empírico, pues se interesan más en la aplicación de las técnicas estadísticas. Sin embargo, para el trabajo del analista financiero siempre es más importante la exactitud del modelo predictivo que la contrastación de una hipótesis o la validación rigurosa de una teoría que sólo busca demostrar una compleja habilidad en el empleo de técnicas informáticas y estadísticas que se apartan de ambientes reales. Lizarraga (1993) también coincide con la idea anterior pues considera que la sofisticación metodológica, aunque imprescindible en el avance de la técnica, transforma en ocasiones a los investigadores en sólo “especuladores estadísticos”, que fundamentados en buenos resultados tras largos procesos de contrastación de variables, no tienen en cambio una base teórica y carecen de interpretaciones económicas convincentes.

Ya Lev (1978) afirmó hace más de dos décadas que algunos modelos son inadecuados y cuando se emplean, presentan generalmente el síntoma de la falta de una teoría base, desvirtuando en experimentos excesivos con gran número de variables y de modelos matemáticos cuyos datos y resultados son difíciles de generalizar. Con respecto a esto se vuelve a recomendar que en la interpretación y validación de los resultados exista una interpretación económica y financiera para dar un sentido lógico a las causas del fracaso empresarial, y no sólo interpretaciones en términos estadísticos.

Uno de los objetivos actuales del análisis financiero es el estudio de los aspectos importantes de la teoría contable y su relación con los modelos predictivos. Para esto es importante revisar detalladamente el marco conceptual de los principios y normas que rigen la técnica contable actual para entender y saber solucionar los problemas prácticos que se presentan en la obtención de aquella información financiera que necesita la empresa en economías abiertas y a través del tiempo para alcanzar su estabilidad así como el crecimiento sostenido dentro del mercado en donde opera.

Por otra parte, las generalizaciones del modelo a través del tiempo pueden presentar una inestabilidad por las variables que afectan a la información financiera, debido principalmente a los cambios en los criterios contables. Sin embargo, para reducir dicha inestabilidad hemos utilizado únicamente cifras reexpresadas y auditadas para que sean comparables a través de los años.

La reducción del conjunto de las variables independientes se dirige hacia la selección de una variable por cada factor que contenga similar información. Así, el uso de varias variables en un factor dado no es necesario. Utilizar pocas variables predictivas reduce la multicolinealidad y la probabilidad de que las variables incluidas en el modelo sean combinaciones lineales con respecto de cada una de aquellas que exhiban un alto grado de correlación. Además, pocas variables en el modelo final simplifican la aplicación del modelo y la interpretación de los resultados

Hasta ahora no se ha alcanzado un acuerdo sobre cuál es el mejor método para extraer los factores, aunque algunos coinciden en que el análisis de componentes principales es el de mejor aceptación. Sin embargo, otros autores consideran que dicho método en realidad no pertenece al análisis factorial y que las mejores alternativas factoriales son el método de mínimos cuadrados o el método de máxima verosimilitud. Para comprender mejor la complejidad del factorial en este punto, se pueden llevar a cabo las comparaciones de los resultados que se obtienen a través de la aplicación de los diferentes métodos.

En general las limitaciones impiden a los investigadores y analistas financieros partir de un estándar de variables independientes como el propuesto por Altman. Además, en repetidas ocasiones los estudios no parten de bases de datos y muestras ya reducidas para el desarrollo de sus respectivos modelos, pues no existe un enfoque sistemático único. Esto trae como resultado que cada vez que se inicia un modelo se tiene que partir de un gran número de variables independientes para aplicar la técnica de reducción de datos con pequeñas variaciones. En otros casos se parte con criterios totalmente diferentes aunque se trate del mismo sector y tamaño de empresas analizadas.

Este trabajo no ha estado exento de varios de los problemas ampliamente comentados a lo largo de la investigación, por eso podemos concluir diciendo que afortunadamente aún queda mucho por hacer.


Grupo EUMEDNET de la Universidad de Málaga Mensajes cristianos

Venta, Reparación y Liberación de Teléfonos Móviles
Enciclopedia Virtual
Biblioteca Virtual
Servicios