¿Cómo citar estas
tesis doctorales?

¿Cómo poner un
enlace a esta página?

 



 


En esta página se muestra parte del texto pero sin formato, gráficas, fórmulas, tablas ni notas a pié de página.

Texto completo de la tesis en formato DOC
comprimido ZIP (328 páginas, 1 Mb)

La Nueva Fase de Desarrollo Económico y Social del Capitalismo Mundial

José de Jesús Rodríguez Vargas



III LA NUEVA FASE DE DESARROLLO ECONÓMICO Y SOCIAL

GREENSPAN Y LA FED



Alan Greenspan, Presidente de la Junta de Gobernadores de la Reserva Federal, fue designado como el “campeón” de la Nueva Economía por la revista The Economist, también se le considera el “descubridor” de la productividad de los años noventa por el periodista Bob Woodward. Greenspan en su acostumbrado testimonio de mediados de año ante el Comité Económico Conjunto del Congreso de Estados Unidos, en 1999, afirmó que “algo especial le ha sucedido a la economía de Estados Unidos en los años recientes”, porque una “economía que hace veinte años parecía que había visto sus mejores años está desplegando un extraordinario crecimiento económico que parece que tiene sus raíces en los actuales avances en la tecnología”.
Greenspan con este testimonio se sumaba a la corriente que considera que el mayor crecimiento y estabilidad de Estados Unidos, es producto de una revolución tecnológica en curso, principalmente en ese país. El reconocido banquero, señala como hipótesis que las “sinergias” desarrolladas entre el microprocesador, el láser, la fibra óptica y las tecnologías satelitales, han elevado espectacularmente las tasas de retorno en todos los equipos que incorporan, o utilizan, las más recientes tecnologías. Sobre todo, Greenspan percibía que las innovaciones en la tecnología de la información (IT), estaban alterado la manera de hacer negocios y de crear valor, maneras que no eran fácilmente previsibles todavía un lustro antes .
En 1996, Greenspan, abordo por primera vez, de manera más amplia, las transformaciones estructurales, las nuevas tecnologías y la productividad del trabajo. “Las transformaciones radicales en la manera que producimos los bienes y servicios ocurren una o dos veces en un siglo” afirmaba ante los miembros de The Conference Board de Nueva York . Greenspan, comparó el mundo de 1996 con el 1948, cuando empezó a trabajar en dicho organismo; aunque en los dos momentos Estados Unidos ha sido el país con la más moderna tecnología y alta productividad, el mundo era enormemente diferente. Antes era un “modelo fundamentalmente industrial y el producto eran enormes cosas físicas, hoy hay un desplazamiento del trabajo humano físico por el trabajo conceptual, por las ideas, por las nuevas tecnologías” . Sin embargo, Greenspan se quejaba, que con todos los extraordinarios avances tecnológicos de las pasadas dos décadas no se registraba en los datos oficiales ninguna mejora en la productividad, a pesar de que era evidente que había una aceleración del cambio tecnológico en la sociedad; también cuestiona si realmente se estaba produciendo poco valor agregado, a pesar de la “frenética actividad”, ¿acaso se estaba “dando vueltas sin avanzar”?.
Con base a las actas de las reuniones de los gobernadores de la Fed, analizadas por Woodward se puede rastrear la historia de la “paradoja de la productividad” desde el punto de vista del Presidente de la Reserva Federal. Greenspan, desde 1993, empezó a plantear dudas con respecto a los datos oficiales, que no mostraban mejoría alguna en la productividad; sus “cálculos y sus instintos” de la realidad que el analizaba, no cuadraban con los informes oficiales; el esquema era el siguiente: había incremento en la inversión de capital (particularmente en equipo de oficinas y computadoras), existía crecimiento del producto, del empleo y de las ganancias, en tanto, disminuían las tasas de inflación y del desempleo, y los costos laborales aumentaban poco, pero -de acuerdo con los datos oficiales- la productividad en general era baja, y negativa en el sector servicios, donde más se estaba empleando la nueva tecnología.
Para Greenspan era incomprensible ese panorama, había una contradicción que no lograba entender; era imposible matemáticamente que no hubiera crecimiento de la productividad del trabajo: “hay un error en los números que estamos consultando. -afirmaba en una reunión del Comité de Mercado Abierto (FOMC) de la Fed- No sé lo que pasa en el sistema estadístico, pero estoy casi convencido de que ahí afuera, en el mundo, en una economía que está en expansión, resulta absurda la idea de que la productividad ha estado bajando. No cuadra con mi conocimiento del mundo real” .
Había un mundo real que no se estaba midiendo adecuadamente. Sospechaba que la falta de registro de la productividad se debía a la dudosa calidad de los datos (metodología) que se empleaba para medir la producción de la economía actual y, una segunda razón era que los importantes avances tecnológicos tomaban tiempo para convertirse en fuerzas productivas, como fue el caso del motor eléctrico que tardó una generación para sustituir al motor de vapor, o el caso del automóvil que no desplegó todas sus potenciales productivas hasta que se crearon carreteras y estaciones de servicios. Compartía la opinión de otros expertos que las tecnologías basadas en las computadoras se reflejarían en la productividad nacional en la medida que la nueva infraestructura gradualmente fuera ajustándose a los nuevos modos de producir (ver La solución a la “Paradoja Solow”). Pero insistía que el problema actual era la incapacidad para registrar el crecimiento de la productividad .
LA SOLUCIÓN A LA “PARADOJA SOLOW”

La revista Time en 1980 eligió a la computadora como el “hombre del año”, señal de la “revolución de la computación”; durante la década de los setenta y los ochenta aumentaba la inversión en el sector de IT, mientras que sus precios disminuían. Sin embargo, la tasa de productividad del trabajo, en las décadas mencionadas, fue baja (alrededor de 1.5 por ciento). En este marco, el prestigiado economista Robert Solow, advierte, irónicamente, que las computadoras se ven por todas partes, excepto en las estadísticas de la productividad*. Esta llamativa declaración fue incorporada en los textos de Macroeconomía como “paradoja”, y se convirtió en el apoyo para posiciones “escépticas” de las bondades de las nuevas tecnologías. Pronto se popularizó la “Paradoja Solow”, multicitada en la mayoría de los papers del debate de los noventa.
No obstante, en 1990, Paul A. David, de la Universidad de Stanford California, lanzó una explicación a la, también, llamada “Paradoja de la productividad”. Desde una perspectiva histórica, planteó que había que tomar en consideración el “tiempo de ejecución” de grandes sistemas técnicos, en los periodos de transición entre los regímenes tecnológicos ya establecidos y los sucesores. Con este enfoque la paradoja “no es enigmática y ni sin precedentes”.
David encontró un paralelismo entre la computadora, y, otro “general purpose engine” (ver Apéndice I.4) que fue importante en la “segunda Revolución Industrial”, el motor eléctrico. Explica que a principios del siglo XX, también, se presentó la paradoja en Estados Unidos y Gran Bretaña, con una pronunciada desaceleración de la productividad durante el periodo 1890-1913. Las previsiones de los ingenieros visionarios no se materializaron inmediatamente; la transformación de los procesos industriales, por la nueva tecnología de la energía eléctrica, dice David, fue un proceso retrasado largamente y muy lejos de ser automático.
No hubo impulso real de la nueva tecnología en Estados Unidos sino después de la primera Guerra Mundial, cuando las estaciones centrales aumentaron la capacidad de generación de energía sobre la capacidad de industrias aisladas, y cuando las tasas del servicio eléctrico disminuyeron sustancialmente con relación al nivel general de precios; aún así, la electrificación de las fabricas no alcanzó completa realización en su desarrollo técnico, ni tuvo impacto en el crecimiento de la productividad de las manufacturas, hasta la década de 1920, cuatro décadas después de la apertura de la primera central de energía eléctrica (principios de 1880), tiempo suficiente para reorganizar los procesos cuando ya estaban electrificadas más del 50 por ciento de las fábricas; para David una tecnología tiene impacto importante en la productividad total, únicamente, en el momento que alcanza una penetración o difusión del 50 por ciento en los procesos industriales o en las fábricas.

David, Paul A.(1990). “The Dynamo and the Computer: An Historical Perspective on the Modern Productivity Paradox”. American Economic Review. Papers and Proceedings, May, pp. 355-361.
* New York Times Book Review.(1987). “We´d Better Watch Out”, July 12, p. 36: “we can see the computer age everywhere but in the production statistics”.


Greenspan cuestionaba la metodología habitual de la productividad; creía que no era lo mismo medir la productividad en la manufactura tradicional que en las actividades de servicios, basadas en tecnologías recientes. Esta tenía que ser una explicación por el cual no aparecía el crecimiento de la productividad en los datos oficiales; no dudaba, en 1999, que el crecimiento fenomenal de la economía y la disminución de precios se debía a la Revolución de la Tecnología de la Información; él percibía que se estaba transformando la estructura de la economía y la manera de producir, y no se estaba registrando adecuadamente en las estadísticas. Planteaba que era importante entender la manera en que las nuevas fuerzas se desarrollaban para definir la política monetaria apropiada a los nuevos tiempos .
El presidente de la Fed fue pionero, cuando menos desde 1996, en resaltar las nuevas tendencias en relación con la lucha antiinflacionaria y el papel de la política monetaria. Era importante estar conciente de las transformaciones estructurales, del aumento de la productividad y del crecimiento del potencial de la economía, porque ello explicaba la alta tasa del producto, con tasas de desempleo inferiores al NAIRU y con inflación baja. Esta contradicción no era admisible en los modelos, y en la concepción dominante, porque se suponía que si la tasa de desempleo disminuía del seis por ciento (tasa natural de desempleo), la inflación aumentaría; así se había comportado la economía en años anteriores. En la segunda mitad de los noventa el desempleo tocaba el cuatro por ciento y continuaba la desinflación, por tanto, se requería una nueva razón. Greenspan y la Fed la explicaron a partir de la Nueva Economía y a las Tecnologías de la Información.
La teoría de la curva de Phillips sirve para explicar la disyuntiva entre inflación y desempleo. La curva presenta una curva de pendiente negativa en un plano de coordenadas, en la vertical la tasa de inflación y en la horizontal la tasa de desempleo; la inflación disminuye a medida que el desempleo aumenta; este modelo no funcionaba así en los noventa, porque disminuía el desempleo a la par con la inflación, como tampoco funcionó en los setentas cuando crecía la tasa de desempleo y la tasa de inflación, era una curva vertical o con pendiente positiva (ver Gráfica II.2).
La falla de los modelos econométricos en prever la aceleración de la productividad contribuyó a subestimar las posibilidades del crecimiento económico y a sobreestimar las posibilidades de la inflación. Esto es lo que confirma un reciente estudio sobre los pronósticos del producto y la inflación; la Fed al igual que los pronosticadores privados (Blue Chip) subestimaron el producto real en el periodo 1996-1999 en dos puntos porcentuales y sobrestimaron la tasa de inflación; también se muestra en el paper de Wynne, con base en las actas del FOMC, que los miembros de la Fed fueron sorprendidos por la inusual fortaleza económica de Estados Unidos . Para Greenspan era indudable que las decisiones tomadas con base a los modelos habituales habría llevado a inhibir lo que fue una extraordinaria prosperidad económica, porque se hubiera decidido una política restrictiva cuando aumentaba el producto y disminuía el desempleo, temiendo un incremento en la inflación .
La desconfianza de Greenspan en las estadísticas oficiales se había disipado en el año 2000 cuando fue evidente, oficialmente, que la productividad total crecía a tasas excepcionales, a tasas no esperadas. En el periodo 1999-2000 había mejorado la metodología de las Cuentas Nacionales para “medir la nueva economía”, se reconoció el efecto en el PIB por parte de la inversión en las nuevas tecnologías, mejoró la medición de los precios al consumidor y su impacto en el producto. Los resultados de los datos revisados fueron una mayor productividad, menor inflación y más producto. La estadística reivindicaba a Greenspan y, de paso, refutaba la “Paradoja Solow”: había computadoras por todos lados y la estadística registraba el aumento de la productividad .


 Volver al índice de la tesis doctoral La Nueva Fase de Desarrollo Económico y Social del Capitalismo Mundial

Volver al menú de Tesis Doctorales

Volver a la Enciclopedia y Biblioteca de Economía EMVI


Google

Web www.eumed.net