BIBLIOTECA VIRTUAL de Derecho, Economía y Ciencias Sociales

MANUAL DE APLICACIÓN DEL MODELO DE REGRESIÓN LINEAL MULTIPLE CON CORRECIONES DE ESPECIFICACIÓN, USOS DE STATA 9.0,STATA 10.0, EVIEWS 5.0, SSPS 11.0

Rafael David Escalante Cortina y otros



Esta página muestra parte del texto pero sin formato.

Puede bajarse el libro completo en PDF comprimido ZIP (67 páginas, 850 kb) pulsando aquí

 


AUTOCORRELACIÓN

La autocorrelación se puede definir como la correlación entre miembros de series de observaciones ordenadas en el tiempo (información de series de tiempo) o en el espacio (información de corte de transversal). El modelo de regresión lineal supone que no debe existir autocorrelación en los errores , es decir, el término de perturbación relacionado con una observación cualquiera no debería estar influenciado por el término de perturbación relacionado con cualquier otra observación.

para todo

Causas de la Autocorrelación

Algunas de las causas son las siguientes :

Trabajo con datos de serie temporal: cuando se trabaja con datos de corte longitudinal (p.e.: una variable explicativa cuyas observaciones correspondan a valores obtenidos en instantes temporales sucesivos), resulta bastante frecuente que el término de perturbación en un instante dado siga una tendencia marcada por los términos de perturbación asociados a instantes anteriores. Este hecho da lugar a la aparición de autocorrelación en el modelo.

Especificación errónea en la parte determinista del modelo (autocorrelación espuria):

1. Omisión de variables relevantes: en tal caso, las variables omitidas pasan a formar parte del término de error y, por tanto, si hay correlación entre distintas observaciones de las variables omitidas, también la habrá entre distintos valores de los términos de perturbación.

2. Especificación incorrecta de la forma funcional del modelo: si usamos un modelo inadecuado para describir las observaciones (p.e.: un modelo lineal cuando en realidad se debería usar un modelo cuadrático), notaremos que los residuos muestran comportamientos no aleatorios (i.e.: están correlacionados).

Transformaciones de los datos: determinadas transformaciones del modelo original podrían causar la aparición de autocorrelación en el término de perturbación del modelo transformado (incluso cuando el modelo original no presentase problemas de autocorrelación).

Trabajo con modelos dinámicos: cuando se trabaja con series temporales suele ser habitual considerar modelos de regresión que incluyan no sólo los valores actuales sino también los valores retardados (pasados) de las variables explicativas. Es el caso de un modelo de retardos distribuidos de orden s o RD(s):

Otro tipo de modelo dinámico que presentaría problemas de autocorrelación sería aquel que incluyese entre sus variables explicativas uno o más valores retardados de la variable dependiente. Este otro tipo de modelo dinámico se conoce como modelo autorregresivo de orden s o AR(s):

Otra causa común de la autocorrelación es la existencia de tendencias y ciclos en los datos. Es decir, la mayoría de las variables económicas no son estacionarias en media. Esto significa que si la variable endógena del modelo tiene una tendencia creciente o presenta un comportamiento cíclico que no es explicado por las exógenas, el término de error recogerá ese ciclo o tendencia.

Consecuencias de la Autocorrelación:

La consecuencia más grave de la autocorrelación de las perturbaciones es que la estimación MCO deja de ser eficiente y la inferencia estadística también se verá afectada. Las consecuencias dependen del tipo de autocorrelación (positiva o negativa):

1. Cuando se tiene autocorrelación positiva, la matriz de varianza y covarianza de los residuos esta subestimada, si el tipo de autocorrelación es negativa, se tiene una sobrestimación de la misma.

2. Cuando se tiene autocorrelación positiva, la matriz de varianza y covarianza de los coeficientes (betas) esta subestimada, si el tipo de autocorrelación es negativa, se tiene una sobrestimación de la misma.

3. Cuando se tiene autocorrelación positiva, los intervalos de confianza son angostos, si el tipo de autocorrelación es negativa, se tienen intervalos de confianza más amplios.

4. Cuando se tiene autocorrelación positiva, se tiende a cometer error tipo I (rechazar la hipótesis nula cuando es verdadera), si el tipo de autocorrelación es negativa, se tiende a cometer error tipo II (no rechazar la hipótesis nula cuando es falsa).

5. Los son lineales, insesgados, pero ineficientes (no tienen varianza mínima).

6. Las pruebas y pierden validez.

Detección de la Autocorrelación:

Para analizar la posible presencia de autocorrelación en el modelo se suele recurrir a dos técnicas complementarias: (1) el análisis gráfico de los residuos (obtenidos al realizar la regresión por MCO), y (2) los contrastes de hipótesis específicos (test de Durbin-Watson, test h de Durbin, test de Breusch-Godfrey, test Q de Box-Pierce, etc.).

Análisis Gráfico:

Al realizar la regresión por MCO, se pueden graficar los residuos (o, alternativamente, los residuos estandarizados, es simplemente dividir por el error estandar de la estimación ) frente al tiempo. Dado que los residuos MCO son estimadores consistentes de los términos de perturbación, si se aprecian en el gráfico anterior patrones de comportamiento sistemático (no aleatorio) podremos afirmar que los términos de perturbación presentan algún tipo de autocorrelación.

Contrastes:

Test de Durbin-Watson

Es la prueba mas conocida para detectar correlación serial; permite contrastar si el término de perturbación está autocorrelacionado. Dicha prueba presenta algunos supuestos:

Es válido para autocorrelación serial de 1° orden en los residuos, no aplica para modelos con variable dependiente rezagada como variable explicativa, las variables explicativas son no estocásticas (son fijas en muestreo repetido), el modelo de regresión lineal debe incluir el intercepto, y no hay observaciones faltantes en los datos.

Una vez hallado DW, es posible usar su valor para estimar el coeficiente de autocorrelación simple mediante la expresión:

El estadístico DW es un valor comprendido entre 0 y 4. Como se observa en el siguiente gráfico, para valores de DW cercanos a 2 no rechazaremos la hipótesis nula, por el contrario, para valores de DW alejados de 2, sí rechazaremos la hipótesis nula

Tabla de decisión:

, se rechaza , existe autocorrelación positiva.

, se rechaza , existe autocorrelación negativa.

, no se rechaza , no existe autocorrelación.

o , el contraste no es concluyente.

Los pasos a seguir de este contraste son:

1. Estimación por mínimos cuadrados ordinarios (MCO) del modelo de regresión.

2. Cálculo de los residuos MCO.

3. Obtención del estadístico d (experimental) de Durbin-Watson.

4. Búsqueda de los niveles críticos del contraste.

5. Aplicación de la regla de decisión.

Un inconveniente que presenta este contraste es que a veces puede no ser concluyente, por lo que hay que considerar, utilizando otros criterios, si existe o no autocorrelación.

Ejemplo en Stata:

Se trabajara con la base de datos PHILLIPS.DTA, la cual contiene las siguientes variables:

, indica el año.

, es la tasa de inflación.

, es la tasa de desempleo.

Con el fin de realizar estimaciones de series de tiempo en Stata, es importante escribir el siguiente comando:

tsset year

Donde es la variable que contiene los años.

Automáticamente el sistema reconoce la serie de tiempo, y muestra:

time variable: year, 1948 to 1996

Salida en Stata: reg inf unem

Source | SS df MS Number of obs = 49

-------------+------------------------------ F( 1, 47) = 2.62

Model | 25.6369575 1 25.6369575 Prob > F = 0.1125

Residual | 460.61979 47 9.80042107 R-squared = 0.0527

-------------+------------------------------ Adj R-squared = 0.0326

Total | 486.256748 48 10.1303489 Root MSE = 3.1306

------------------------------------------------------------------------------

inf | Coef. Std. Err. t P>|t| [95% Conf. Interval]

-------------+----------------------------------------------------------------

unem | .4676257 .2891262 1.62 0.112 -.1140213 1.049273

_cons | 1.42361 1.719015 0.83 0.412 -2.034602 4.881822

------------------------------------------------------------------------------

Una vez estimada la regresión, se procede a ejecutar el siguiente comando con el cual se obtiene el estadístico Durbin-Watson:

estat dwatson o dwstat

Durbin-Watson d-statistic( 2, 49) = .8027005

Si se quiere estimar el Durbin-Watson por las ventanas en Stata 9, la ruta a seguir es:

Statistics/time-series/tests/time series epecification tests after regress

Automáticamente se despliega el siguiente recuadro, en donde se muestra la opción a seleccionar, y le damos OK.

La ruta a seguir en Stata 8.2 es:

Statistics/time-series/tests/Durbin-Watson d statistics after regress

Automáticamente se despliega el siguiente recuadro, en donde se muestra la opción a seleccionar, y le damos OK.

Teniendo en cuenta que DW es 0.8027, gráficamente se tiene:

Por tanto se rechaza la hipótesis nula, hay autocorrelación.

Prueba de Breusch – Godfrey (BG) sobre autocorrelación de orden superior

Este estadístico es muy sencillo de calcular y resuelve los problemas del contraste de Durbin-Watson; por ejemplo, los regresores incluidos en el modelo pueden contener valores rezagados de la variable dependiente, es decir, , etc. Pueden aparecer como variables explicativas.

Supóngase que el termino de perturbación es generado por el siguiente esquema autorregresivo de orden :

Donde es un término de perturbación puramente aleatorio con media cero y varianza constante.

Dado el modelo anterior, la hipótesis será:

No hay autocorrelación de ningún orden.

Dicha hipótesis puede ser probada de la siguiente manera:

1. Estimación por MCO del modelo de regresión y obtención de los residuos MCO

.

2. Estimación de una regresión auxiliar de los residuos sobre p retardos de los

mismos, .

3. Obtención del coeficiente de determinación ( ) de la regresión auxiliar ( ).

4. Si el tamaño de la muestra es grande, Breusch y Golfrey han demostrado que:

se distribuye con con g.l.

5. Si el valor calculado excede el valor critico de al nivel de significancia seleccionado, se puede rechazar la hipótesis nula, en cuyo caso, por lo menos un es significativamente diferente de cero (se admite que hay autocorrelación), en caso contrario no habría autocorrelación.

Ejemplo en Stata:

El comando a ejecutar es:

estat bgodfrey o bgodfrey

Breusch-Godfrey LM test for autocorrelation

---------------------------------------------------------------------------

lags(p) | chi2 df Prob > chi2

-------------+-------------------------------------------------------------

1 | 18.472 1 0.0000

---------------------------------------------------------------------------

H0: no serial correlation

De acuerdo a la salida anterior, se puede observar que el p-valor asociado al es 0.000, lo cual confirma la presencia de autocorrelación.

Si se quiere estimar la prueba Breusch – Godfrey por las ventanas en Stata 9, la ruta a seguir es:

Statistics/time-series/tests/time series epecification tests after regress

utomáticamente se despliega el siguiente recuadro, en donde se muestra la opción a seleccionar, y le damos OK.

La ruta a seguir en Stata 8.2 es:

Statistics/time-series/tests/Breusch-Godfrey LM test for autocorrelation

Automáticamente se despliega el siguiente recuadro, en donde se muestra la opción a seleccionar, y le damos OK.

Como solucionar la autocorrelación

Cuando es conocido:

1. se tiene:

(a)

(b)

2. Multiplico (b) por , y se tiene:

(c)

4. Se resta (a)-(c):

5.

(d)

Donde

6. Estimo (d) por MCO.

Cuando desconocida:

Se utiliza en algoritmo de Cochrane Orcutt: Considérese el siguiente modelo:

(e)

Y supóngase que , es generado por el esquema AR(1):

Cochrane Orcutt recomienda realizar los siguientes pasos:

1. Estimar (e) por MCO y se obtener .

2. Utilizando los residuos estimados , realizo las siguiente regresión:

(f)

3. Utilizando obtenido en la regresión anterior, efectúese la ecuación en diferencia planteada en (d) por MCO.

4. Obtengo los y los sustituyo en (a).

5. Se estima nuevamente:

; donde es la estimación de de (f).

6. Se continúan haciendo estimaciones, y se suspenden las iteraciones cuando las estimaciones consecutivas de difieren en una cantidad muy pequeña, es decir, en menos de 0.01 o 0.05.

Ejemplo en Stata:

Para ejecutar el algoritmo de Cochrane Orcutt en Stat por comando, se escribe:

prais inf unem, corc

Iteration 0: rho = 0.0000

Iteration 1: rho = 0.5727

Iteration 2: rho = 0.7160

Iteration 3: rho = 0.7611

Iteration 4: rho = 0.7715

Iteration 5: rho = 0.7735

Iteration 6: rho = 0.7740

Iteration 7: rho = 0.7740

Iteration 8: rho = 0.7740

Iteration 9: rho = 0.7741

Iteration 10: rho = 0.7741

Cochrane-Orcutt AR(1) regression -- iterated estimates

Source | SS df MS Number of obs = 48

-------------+------------------------------ F( 1, 46) = 4.33

Model | 22.4790685 1 22.4790685 Prob > F = 0.0430

Residual | 238.604008 46 5.18704365 R-squared = 0.0861

-------------+------------------------------ Adj R-squared = 0.0662

Total | 261.083076 47 5.55495907 Root MSE = 2.2775

------------------------------------------------------------------------------

inf | Coef. Std. Err. t P>|t| [95% Conf. Interval]

-------------+----------------------------------------------------------------

unem | -.6653356 .3196035 -2.08 0.043 -1.308664 -.0220071

_cons | 7.583458 2.38053 3.19 0.003 2.7917 12.37522

-------------+----------------------------------------------------------------

rho | .7740512

------------------------------------------------------------------------------

Durbin-Watson statistic (original) 0.802700

Durbin-Watson statistic (transformed) 1.593634

En la salida anterior, se puede observar el numero de iteraciones que realizó el algoritmo (en este caso fueron 10), la regresión transformada, y el DW del modelo original y el DW del modelo corregido. Se puede concluir, con el nuevo DW=1.59, que ya no existe autocorrelación, pues dicho valor se encuentra muy cerca de 2.

Gráficamente se tiene:

Si se quiere ejecutar el algoritmo por las ventanas en Stata, la ruta a seguir es:

Statistics/time-series/tests/prais-winsten regression

Automáticamente se despliega el siguiente recuadro, en donde se selecciona la variable dependiente y las independientes, seleccionamos Corchrane-Orcutt transformation, y le damos OK.


Grupo EUMEDNET de la Universidad de Málaga Mensajes cristianos

Venta, Reparación y Liberación de Teléfonos Móviles