Tesis doctorales de Ciencias Sociales


ANÁLISIS DE LAS DIFICULTADES FINANCIERAS DE LAS EMPRESAS EN UNA ECONOMÍA EMERGENTE: LAS BASES DE DATOS Y LAS VARIABLES INDEPENDIENTES EN EL SECTOR HOTELERO DE LA BOLSA MEXICANA DE VALORES

Alberto Ibarra Mares



Esta página muestra parte del texto pero sin formato.
Puede bajarse la tesis completa en PDF comprimido ZIP (319 páginas, 1.52 Mb) pulsando aquí

 

 

 

1.1. OBJETIVOS CONCRETOS A ALCANZAR E IMPORTANCIA DEL ESTUDIO

Este trabajo tiene como primer objetivo estudiar en una economía emergente como la mexicana y dentro de un sector muy específico, el marco conceptual de las bases de datos contables a partir de las cuales se estiman los ratios, los que a su vez se utilizan como variables independientes en las funciones lineales empleadas en los modelos predictivos. Como segundo objetivo nos propusimos desarrollar una metodología basada en el modelo estadístico del factorial de componentes principales, para reducir de un conjunto de ratios financieros seleccionados rigurosamente, a aquellos que representen mejor a cada uno de los factores que resulten ser más significativos estadísticamente y que se incluirán en posteriores estudios en una función lineal del sector hotelero que cotiza en la Bolsa Mexicana de Valores. Este sector actualmente esta compuesto por cinco empresas que son : Aristos, Calinda, Posadas, Realtur y Situr.

La investigación se enfoca a mejorar la metodología, el marco conceptual y los resultados empíricos de la primera fase de un modelo predictivo en el contexto de un país cuya economía es emergente. La primera fase de los modelos predictivos se refieren a la estructuración de las bases de datos y a la determinación de las variables independientes, pero sin llegar a proponer ningún coeficiente o ponderación para los ratios seleccionados. Esto se debe a que la muestra se seleccionó sólo para cumplir la primera fase, ya que para la estimación de la función lineal, que constituye la segunda fase, se requiere una muestra más robusta y emparejada de empresas sanas y empresas fracasadas.

El análisis conceptual que se desarrolla en los primeros capítulos del trabajo está justificado por el hecho de que las principales investigaciones sobre este tema se han llevado a cabo en economías altamente desarrolladas. A pesar de que esta línea de investigación tiene más tres décadas, su desarrollo en Latinoamérica y en específico en México ha sido muy incipiente. Este hecho ya había sido comentado por los brasileños Baida y Ribeiro (1979) quienes a finales de la década de los setenta concluyeron a través de su estudio que, en el caso de las economías emergentes de la región, el modelo de Altman aplicado en nuestro contexto presentaba problemas de calidad y disponibilidad para obtener bases de datos fiables, pues en la práctica existía una alteración de la información financiera y no se contaba con programas específicos para desarrollar bancos de bases de datos a largo plazo.

Un década después esta situación no había cambiado. Los argentinos Swason y Tybout (1988) volvieron a destacar este problema al apuntar que pocos estudios predictvos se enfocaban a países en vías de desarrollo, y según ellos, esto obedecía al problema de la disponibilidad y al problema de la correcta interpretación de las bases de datos en estos países por el tipo de contenido tan singular de la información financiera que producen. En Uruguay Pascale (1988) también coincidía con lo anterior y apuntaba que la estructuración de las bases de datos debería ser rigurosa dada la importancia que representa para el modelo predictivo. Por eso en su trabajo intentó que la metodología fuera detallada para el tratamiento de los datos contables y para ello puso especial énfasis sobre el control de la calidad de los estados financieros. Es importante apuntar que todos estos trabajos contaron con el decidido apoyo de los Bancos Centrales y de algunos de los principales ministerios de sus respectivos gobiernos.

Altman también advirtió lo anterior, y con Haldeman y Narayaman (1977) destacaron en una parte de su trabajo la importancia sobre la naturaleza temporal de las bases de datos, estableciendo así la necesidad de actualizar constantemente el modelo y recurrir a las notas de los estados financieros para efectuar ajustes contables apegados en los principios de contabilidad generalmente aceptados, con el fin de mejorar las bases de datos.

En cuanto a la adecuación de los modelos predictivos dentro de las economías emergentes, es importante destacar que Altman participó directamente en la experiencia Brasileña y Argentina antes citadas. Más recientemente en México, Altman, Hartzcel y Peck (1995) propusieron la adaptación del modelo original "Z-Score Model", por otro modelo que denominaron "Emerging Market Scoring Model". Este trabajo reconoció que en los países emergentes existen ciertos riesgos adicionales, que el análisis tradicional y los modelos predictivos no consideran en contextos de economías desarrolladas, tal es el caso del "riesgo de la moneda" y el "riesgo industrial".

Por eso, en este trabajo partimos del hecho de que el tipo de información contable que se toma como base de datos en los estudios predictivos de economías desarrolladas es, en definitiva, sustancialmente diferente con respecto de aquella información que producen las empresas que se ubican en economías en vías de desarrollo, en donde por cierto, la utilidad de la información contable se ve más frecuentemente cuestionada por fenómenos tan comunes como el efecto window dressing, o bien, por la incorrecta reexpresión de los estados financieros.

Originalmente esta investigación parte de dos ideas. La primera de ellas fue expuesta en el trabajo clásico de Beaver (1966), quien afirma que el acierto principal de su investigación fue sugerir una metodología para la evaluación de los datos contables con miras a diferentes propósitos y no sólo para la determinación de la solvencia. La segunda idea corresponde al trabajo de Gombola y Ketz (1983), en donde los autores, más que buscar obtener la capacidad predictiva de un modelo sobre quiebras, buscaron desarrollar ciertos patrones de clasificación de ratios financieros a través del establecimiento de una serie de factores estratégicos que estuvieran diferenciados entre sí.

También en la investigación de Pinches, Mingo y Caruthers (1973) se estableció como un objetivo prioritario desarrollar un trabajo empírico sobre las clasificaciones de los ratios, midiendo la estabilidad de los factores a largo plazo para obtener una clasificación de factores estadísticamente independientes con relación al gran número de ratios expuestos en la literatura especializada. Con base en ello, consideramos importante desarrollar en una parte del trabajo la clasificación de los factores y la selección de cada uno de los ratios que los representaran dentro del sector hotelero mexicano que cotiza en bolsa.

Una de las críticas más importantes que se hicieron, tanto al modelo original de Altman como a gran número de trabajos predictivos posteriores, es que las variables independientes seleccionadas no siempre son las más representativas. Por otra parte, también ha sido común para este tipo de trabajos recibir serias críticas en cuanto a que las variables independientes y sus respectivos factores utilizados en la función lineal no tienen un sustento teórico bien fundamentado.

Por lo que respecta a los estados financieros utilizados en los diferentes estudios predictivos, que en este caso ya no son el producto final del proceso contable sino la “materia prima” para estimar los ratios, se ha criticado también la ligereza de su análisis dentro del modelo. De ahí que muchos estudios al seleccionar a las variables independientes hayan optado por apoyarse más en el trabajo univariable de Beaver, y únicamente para el aspecto metodológico se centran en modelos multivariables como los de Altman.

Por ejemplo, Johnson (1970) fue uno de los primeros investigadores en destacar estas desventajas del modelo Altman al referirse a la poca capacidad de los ratios financieros para llevar a cabo predicciones “ex-ante”. Sin embargo, este autor también reconoció que cuando las predicciones eran “ex-post”, el modelo Altman tendía a ser más exacto y se podían analizar mejor las causas del fracaso a través de los estados financieros, aunque el modelo no por eso podía diferenciar realmente a las empresas que iban a fracasar, pues no todas las clasificadas como fracasadas llegaban a su fin.

Desde nuestro punto de vista, uno de los problemas más importantes que presentan este tipo de modelos se refiere a cómo clasificar a los ratios dentro de ciertos factores, con base en un marco teórico financiero bien fundamentado para que nos lleve a una correcta interpretación de los resultados. En el caso de este trabajo se partió de una clasificación inicial de siete factores que fueron: la rentabilidad, la productividad, la eficiencia, la liquidez, el cash flow, la solvencia y el endeudamiento. Cada uno de ellos fue estudiado de forma detallada en sus aspectos teóricos para seleccionar a los ratios más representativos de cada factor (Capítulo 6). Inicialmente obtuvimos a través de una minuciosa revisión bibliográfica un total de 71 ratios, de los cuales posteriormente tuvimos que reducir a 21 ratios ante una considerable ausencia de datos que creemos fue provocada principalmente por el uso incorrecto de algunas cuentas contables concentradoras, y que forman parte del numerador o denominador de ciertos ratios.

Por otra parte, dicha ausencia de datos también pudo ser provocada por el efecto window dressing que comúnmente se aplica a los estados financieros. Sin embargo, el contar al final con 21 ratios financieros y un total de 160 observaciones provenientes de cinco empresas hoteleras, representó un número razonable para desarrollar el análisis factorial a través de la técnica de componentes principales con el fin contrastar los resultados con el marco conceptual.

Todos los factores analizados en su conjunto mediante técnicas tradicionales y técnicas estadísticas multivariables, se supone que proporcionan una visión más completa sobre la verdadera situación financiera y económica de la empresa. Estas ideas primero se comenzaron a exponer a finales de la década de los sesenta, y posteriormente se intensificaron en las décadas de los setenta y ochenta en diversas partes del mundo industrializado (Pinches y Mingo: 1973; Libby: 1975; Pinches, Mingo y Caruthers: 1973, 1975; Largay y Stickney: 1980; Chen y Shimerda: 1981; Gombola y Ketz: 1983; Gahlon y Vigeland: 1988; Dambolena y Shulman: 1988; entre otros). A partir de entonces se ha continuado aplicando ininterrumpidamente una serie de herramientas cada vez más eficientes, como es el caso del análisis factorial común y el análisis de componentes principales, los cuales se consideran un paso previo y mejor fundamentado para aplicar posteriormente los métodos multivariables discriminantes.

Esto se debe a que para la obtención de mayor capacidad predictiva se requiere contar sobre todo con una base de datos de estados financieros contables de forma sintetizada, y como se apuntó, esto se logra a través de su expresión en ratios, los cuales a continuación se ordenan en una matriz de datos mediante algún método multivariable reductivo. Posteriormente, se obtiene una matriz de correlaciones a partir de la cual se pueden llevar a cabo las estimaciones, que tiendan a la selección fundamentada dentro de un marco teórico y técnica estadística eficiente, para así obtener los mejores factores y variables con las que se efectuará la estimación discriminante.

A través de la revisión bibliográfica detectamos que en uno de los principales trabajos sobre la predicción de quiebras y que llevó a cabo Taffler (1984), se aplicó el método de componentes principales a cincuenta ratios. El autor con anterioridad transformó los ratios para aproximar sus distribuciones a la normalidad univariable. Posteriormente, de seis factores seleccionados inicialmente, utilizó cinco para su función discriminante: “Performance Analysis Service Score” (Pas-Score). El principal objetivo de este trabajo en realidad no estuvo encaminado a obtener más poder predictivo en el modelo, sino que se enfocó a analizar algunos de los principales problemas conceptuales y estadísticos que se presentaron en la reducción de los componentes o factores. A partir de entonces en numerosos trabajos el análisis de componentes principales se ha fijado como principal objetivo la extracción de los factores, y no la aplicación del análisis factorial como paso previo para desarrollar el análisis multivariable predictivo.

El análisis multivariable requiere previamente un examen riguroso de los datos, pues como apunta Hair (2000: p. 20): la influencia de atípicos, violaciones de los supuestos y la pérdida de datos puede agravarse a través de la pérdida de varias variables y tener efectos sustancialmente diferentes. Por eso, este autor apunta que el investigador de un problema multivariable tiene que tomarse su tiempo en utilizar medidas de diagnóstico para un mayor entendimiento de los datos y de las relaciones básicas que existen.

Para Hair (2000), con la recogida y estructuración de los datos, el primer análisis del modelo predictivo no tiene que consistir en estimar principalmente dicho modelo, sino en evaluar los supuestos subyacentes que son tan importantes como el propio resultado final. Todas las técnicas multivariables tienen supuestos subyacentes, tanto conceptuales como estadísticos, que se ven afectados de forma importante para representar las relaciones multivariables. Sin embargo, el examen de las bases de datos es complejo y lleva tiempo. Habitualmente esto provoca que se descuide este importante aspecto por parte del analista. Pero un análisis eficiente de las bases llevará siempre a una mejor predicción, y por lo tanto, a una mejor evaluación de las empresas muestreadas.

Otros problemas que conciernen al analista cuando está examinando las bases de datos son: cómo evaluar y solucionar los problemas de los datos ausentes, la identificación de casos atípicos y la comprobación de los supuestos subyacentes de los modelos multivariables predictivos. Los datos ausentes tienen efectos negativos en cualquier investigación y son producto de la introducción o estimación de los datos. Los casos atípicos son magnitudes extremas que tienen influencia negativa o ilógica en los resultados. Por último, es necesario considerar los supuestos que puedan subyacer en un análisis multivariable.

El trabajo implícito que conlleva el análisis de las bases de datos puede parecer insignificante y sin mayores consecuencias, sin embargo, es tan importante como cada una de las fases del análisis financiero univariable y multivariable. Examinando previamente los datos de aplicación para un análisis multivariable predictivo, el analista obtiene un conocimiento fundamental sobre como se produce la información contable y las relaciones entre las variables independientes que están representadas por los ratios. Las técnicas multivariables en particular plantean serios problemas al analista sobre la comprensión, interpretación y articulación de resultados basados en relaciones cuya complejidad está en continuo aumento. El conocimiento de las interrelaciones de las variables puede ayudar a mejorar la especificación del modelo, así como proporcionar una perspectiva razonable para interpretar con las apropiadas limitaciones los resultados obtenidos. Todos estos supuestos nos llevaron a la necesidad de desarrollar ampliamente un marco teórico sobre la estructuración y actualización de las bases de datos (Capítulos 3 y 4).

Por eso, es importante resaltar que la efectividad estadística de las técnicas multivariables requiere antes que nada grandes bases de datos y supuestos más complejos que los exigidos por el análisis tradicional y el univariable. La sofisticación analítica que se presenta al utilizar técnicas multivariables lleva a que se examinen cada vez más las técnicas para producir y verificar la información financiera, y esto en definitiva ha llevado actualmente a que se tenga una complejidad similar a la del propio análisis final que consiste en aplicar principalmente la técnica discriminante.

Por otra parte, también existe la necesidad de obtener información contable cuya utilidad sea estable a través del tiempo, pues el análisis requiere de la observación de datos correspondientes a varios ejercicios económicos para constatar que pueden ser comparados. Aunque Rees (1990) indica que la comparación entre los ratios ajustados al nivel de precios y los ratios no ajustados que se utilizan como base de datos no presentan dimensiones diferentes, posteriormente se ha comprobado que esto en definitiva no es cierto, pues al no actualizarse dichas bases las distorsiones en la información contable se tornan graves, y máxime si existen altos e inestables índices de inflación como es el caso actual de la mayoría de las economías emergentes. Por eso, en este trabajo también abordamos ampliamente la actualización de los estados financieros en México a través del Boletín B-10: “Reconocimiento de los Efectos de la Inflación en la Información Financiera”, pues esto responde ya más a las características muy particulares que presentan las bases de datos para un modelo predictivo desarrollado en nuestro entorno económico.

Desde el punto de vista de Baidya y Ribeiro (1979), el problema del desarrollo de las bases de datos en Latinoamérica ha sido generalizado, pues tanto en Brasil como en los demás países del área, cuyas economías han sido inestables y cambiantes en sus estructuras macroeconómicas, el analista financiero se ha encontrado ante diferentes criterios contables dentro de tres tipos de empresas: las del estado, las filiales multinacionales y las domésticas (que pueden ser privadas y con participación estatal). Según los autores, esto ha llevado a que algunos investigadores, como Taylor (1977) en Colombia, optaran por no utilizar bases de datos públicas, pues generalmente corresponden a empresas grandes que aplican frecuentemente el efecto window dressing. Algunos trabajos, como alternativa, han seguido el ejemplo de Edmister (1972) que utilizó datos de empresas pequeñas, pues consideró que en ocasiones es más fácil obtener en este tipo de empresas información más confiable. Sin embargo, hemos de señalar que este supuesto no es del todo cierto por la no obligatoriedad de una auditoría externa, lo cual repercute directamente en la calidad de la información.

El problema de las bases de datos con efecto window dressing también puede presentarse en los países desarrollados, y prueba de ello fue la mala experiencia que tuvo Altman (1973) en Francia al aplicar su modelo. Aquí sus resultados fueron malos debido a la calidad de los datos. En este país, hasta finales de la década de los setenta, la Comisión de Operaciones de la Bolsa apoyaba la estricta confidencialidad de los estados financieros, y por lo tanto, era muy difícil saber los criterios contables que se aplicaban en partidas muy específicas. Para ese entonces Altman aún consideraba que la aplicación de su modelo por parte de las instituciones financieras podía llevarse a cabo de forma similar en cualquier país. Esta idea posteriormente la cambiaría a partir de su estudio en Brasil y luego en México, en donde propuso la nueva Z-Score, pues tomó en cuenta las características muy particulares que presentaba la información financiera de las economías emergentes latinoamericanas.

Con respecto a las bases de datos del estudio llevado a cabo en Argentina, Swason y Tybout (1988) seleccionaron únicamente un conjunto de estados financieros de empresas manufactureras, pues estos autores consideraron importante el comportamiento sectorial. En el caso de Uruguay, Pascale (1988) consideró que la estructuración de su base de datos podía mejorarse a través de un cuestionario estandarizado que se envió a las empresas para verificar el grado de acuerdo y desacuerdo en cuanto a la contabilización. Con esto el autor reconocía que debía ponerse un énfasis especial en el control de la calidad de los datos a través de: a) la correcta clasificación de las partidas dentro de los estados financieros; b) la correcta valuación de los activos y pasivos en moneda extranjera (utilizándose el período final de la tasa de cambio); y c) verificó la valuación de los activos fijos estandarizándolos de acuerdo a las leyes fiscales. Por otra parte, entre una de las principales conclusiones de Ohlson(1980) está la que se refiere a que el éxito de un modelo predictivo depende en gran medida de la información financiera disponible.

También una crítica importante que han hecho algunos investigadores a los trabajos empíricos sobre quiebras conducidos hasta antes de mediados de la década de los ochenta, es que estos estudios sólo se realizaban sobre la base del devengo. A partir de finales de los ochenta se iniciaron estudios tendientes a investigar si existía evidencia empírica sobre una mayor capacidad predictiva al utilizarse el cash flow operativo con el fin de aplicarlo posteriormente a ratios individuales, o bien, en combinación con otros ratios basados en el devengo. Esto se llevó a cabo con métodos estadísticos similares a las que se habían estado utilizando en los modelos basados únicamente en el devengo y desarrollados principalmente en los Estados Unidos durante las décadas de los sesenta y setenta.

En la década de los ochenta, los estudios sobre quiebras pasaron por alto la información sobre los componentes del cash flow operativo, de inversión y de financiación. Esto llevó a que los ratios basados sobre aquellas operaciones medidas a partir de estas variables nunca fueran considerados. Por ejemplo, estudios como los de Beaver (1966), Deakin (1972), Edmister (1972) y Ohlson (1980), aunque utilizaron diversos conceptos de cash flow, estos en realidad fueron sustituciones imprecisas, como por ejemplo los ingresos netos más la depreciación.

Por su parte Takahashi y Kurokawua (1985: p.231) consideran que el poder predictivo del análisis financiero a través de modelos discriminantes aumenta si se utilizan como variables independientes a los ratios así como a las cantidades absolutas. También los autores destacan en su estudio los numerosos casos que se dan en el Japón con respecto a la poca confianza que se tiene en las bases de datos, pues en muchos de los reportes de los auditores de las empresas quebradas se muestran “excepciones” o “reservas” dado el importante efecto del window dressing que se presume existe en los estados contables.

Para Takahashi y Kurokawua (1985) se pueden desarrollar diferentes tipos de modelos predictivos, dependiendo sobre todo de tipo de datos utilizados. A partir de esto consideran estos autores cuatro supuestos en cuanto a las bases de datos contables que son: a) con datos no ajustados o datos ajustados que reflejan las salvedades, negación de opinión o las notas que aparecen en los informes del auditor; b) utilizando índices con datos financieros con base acumulativa o con base en flujos de efectivo; c) con valores de índices de tres años previos a la quiebra; y c) sólo utilizando ratios o una combinación de ratios con valores absolutos.

Desde un enfoque teórico, para ellos la combinación de los anteriores puntos puede llegar a producir hasta 16 tipos de modelos contables diferentes. Además, en adición a estos modelos, según los autores se puede desarrollar otra función discriminante que represente al modelo número 17, el cual utiliza ratios y cantidades absolutas derivadas de la base ajustada del acumulado y la base ajustada del cash flow durante tres años previos a la quiebra. Para cada uno de sus 17 modelos utilizaron 24 variables, o bien, 24 índices que fueron seleccionados sobre la misma base que utilizaron para el análisis de componentes principales.

En el caso de Lizarraga (1996: p.71), para él existe un serio problema en gran cantidad de ratios para encontrar su claro significado económico o financiero que justifique su creación. Esto unido al hecho de que la aplicación de los ratios nunca ha tenido un carácter obligatorio, y por lo tanto, su normalización o armonización es prácticamente imposible. Además, este autor agrega que esta ausencia de sentido económico evidente que presentan los ratios como base de datos o información final, lleva a una inevitable complejidad y a diferentes tipos de interpretación que genera desacuerdos o equívocos, lo que a su vez conducen a un exagerado optimismo sobre su utilidad, la cual tras ser analizada durante décadas, posteriormente se ha demostrado en varios casos como absurda o sin sentido. Para este autor “la avalancha” actual de indicadores de nada sirve, pues al final los agentes económicos continúan en la práctica utilizando pocos ratios con pequeñas variantes en cuanto a la forma de su cálculo o interpretación, los cuales fueron desarrollados incluso antes de 1930.

La gran cantidad de ratios que se presenta actualmente en la literatura contable y financiera, y que muchas veces son complejos estudios y especulaciones teóricas, ha derivado en que los analistas se refieran a un mismo ratio con diferentes nombres, o bien, se refieran con un mismo nombre para un conjunto de ratios que son distintos entre sí y en sus componentes. El análisis factorial resuelve en gran medida este tipo de problemas, aunque cabe aclarar que su utilización es compleja y que también existen diferentes métodos factoriales que dan a su vez diferentes resultados a pesar de utilizar bases de datos comunes. Sin embargo, esta metodología resulta más apropiada con respecto a la simple selección de las variables independientes mediante criterios de revisión literaria.


Grupo EUMEDNET de la Universidad de Málaga Mensajes cristianos

Venta, Reparación y Liberación de Teléfonos Móviles
Enciclopedia Virtual
Biblioteca Virtual
Servicios