Sunteți pe pagina 1din 100

Introduccin

El Modelo de Regresin Lineal General


Jorge Rodas
INFOPUC
Febrero 2014
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 1 / 100
El Modelo de Regresin Lineal General La Media Condicional y el Concepto de Regresin
Modelo Condicional
La teora econmica puede sugerir:
E(y[x) = g(x) =
0
+
1
x
Denimos la perturbacin como:
u = y E(y[x) = y
0

1
x
De donde tendremos el modelo de regresin lineal general
(MRLG):
y =
0
+
1
x +u
Tomando expectativas condicionales tenemos que E(u[x) = 0
Graquemos la media condicional y los valores observados de y.
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 2 / 100
El Modelo de Regresin Lineal General La Media Condicional y el Concepto de Regresin
Modelo Condicional
Sea (x
i
, y
i
) : i = 1, ..., n una muestra aleatoria de tamao n
generada con el MRLG:
y
i
=
0
+
1
x
i
+u
i
Generalmente se hacen los siguientes supuestos para el trmino de
perturbacin:
E(u
i
) = 0 para todo i
Var (u
i
) = E(u
2
i
) =
2
> 0 para todo i
Cov(u
i
, u
j
) = E(u
i
u
j
) = 0 para i ,= j
estos supuestos se resumen en decir que u
i
~ iid(0,
2
)
_

0
,
1
,
2
_
son parmetros desconocidos existentes en el modelo
torico.
_

0
,

1
,
2
_
son estimadores extrados de la muestra mediante un
mtodo.
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 3 / 100
El Modelo de Regresin Lineal General El Modelo de Rgresin Lineal Bivariado
Derivando el Estimador del MRLG
Dado que E(u) = 0 y E(u[x) = 0 tenemos que
Cov(x, u) = E(xu) = 0
Tendremos entonces las siguientes ecuaciones:
E(y
0

1
x) = 0
E [x(y
0

1
x)] = 0
Mtodo de momentos: elegimos estimadores

0
y

1
que resuelvan
las contrapartes muestrales:
n
1
n

i =1
(y
i

1
x
i
) = 0
n
1
n

i =1
x
i
(y
i

1
x
i
) = 0
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 4 / 100
El Modelo de Regresin Lineal General El Modelo de Rgresin Lineal Bivariado
Derivando el Estimador del MRLG
Podemos reescribir la primera ecuacin como:
y =

0
+

1
x
Despejamos

0
e insertamos en la segunda ecuacin:
n
1
n

i =1
x
i
_
y
i

_
y

1
x
_

1
x
i

= 0
Reemplazando y operando podemos obtener:

1
=
n

i =1
(x
i
x) (y
i
y)
n

i =1
(x
i
x)
2
=
S
y
S
x
A
_

0
,

1
_
se les conoce como estimadores de mnimos cuadrados
ordinarios (MICO, MCO u OLS).
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 5 / 100
El Modelo de Regresin Lineal General El Modelo de Rgresin Lineal Bivariado
Derivando el Estimador del MRLG
Veamos cmo
_

0
,

1
_
minimizan efectivamente "minimizan los
cuadrados".
Denamos los residuos e
i
como la diferencia entre el valor observado
de y
i
y el valor ajustado de y
i
( y
i
=

0
+

1
x
i
) :
e
i
= y
i
y
i
= y
i

1
x
i
Denimos la suma de residuos al cuadrado:
SSR =
n

i =1
e
2
i
=
n

i =1
_
y
i

1
x
i
_
2
Problem
Obtener los estimadores OLS a partir de las condiciones de primer orden
sobre SSR.
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 6 / 100
El Modelo de Regresin Lineal General El Modelo de Rgresin Lineal Bivariado
Bondad de Ajuste
Denimos la suma de cuadrados totales (SST) y la suma de
cuadrados explicada (SSE) como:
SST =
n

i =1
(y
i
y)
2
SSE =
n

i =1
( y
i
y)
2
Problem
Demostrar que SST = SSE +SSR
Necesitamos medir qu tan bien la variable independiente x explica a
la variable dependiente y o qu tambin la linea de regresin OLS se
ajusta a los datos.
El R
2
o coeciente de determinacin es la fraccin de la variacin
muestral en y que es explicada por x:
R
2
=
SSE
SST
= 1
SSR
SST
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 7 / 100
El Modelo de Regresin Lineal General El Modelo de Regresin Lineal Multivariado
El Modelo de Regresin Lineal Multivariado
Se compone de una variable llamada regresando o variable
dependiente que es determinada por un conjunto de variables
denominadas regresores o variables independientes.
y
i
= f (x
i 1
, x
i 2
, ..., x
iK
) donde i = 1, ..., n
Asumiremos que se cumplen los siguientes supuestos:
1
Linealidad
2
Exogeneidad estricta
3
No multicolinealidad
4
Perturbaciones esfricas
5
Normalidad de los errores
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 8 / 100
El Modelo de Regresin Lineal General El Modelo de Regresin Lineal Multivariado
1. Linealidad
y
i
=
1
x
i 1
+
2
x
i 2
+ ... +
K
x
iK
+u
i
La linealidad implica que el efecto marginal no depende del nivel de
los regresores.
El trmino de error representa la parte de la variable dependiente que
no es explicada por los regresores. Ejemplo:
CON
i
=
1
+
2
YD
i
+u
i
Se pueden incluir formas bsicas de no linealidad. Ejemplo:
W
i
= exp(
1
) exp(
2
S
i
) exp(
3
T
i
) exp(
4
E
i
) exp(u
i
)
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 9 / 100
El Modelo de Regresin Lineal General El Modelo de Regresin Lineal Multivariado
Notacin Matricial
Sea
x
i
(Kx1)
=
_

_
x
i 1
x
i 2
.
.
.
x
iK
_

_
,

(Kx1)
=
_

2
.
.
.

K
_

_
La ecuacin se puede escribir como
y
i
= x
/
i
+u
i
(i = 1, ..., n)
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 10 / 100
El Modelo de Regresin Lineal General El Modelo de Regresin Lineal Multivariado
Notacin Matricial
Denamos tambin
y
(nx1)
=
_

_
y
1
.
.
.
y
n
_

_
,
u
(nx1)
=
_

_
u
1
.
.
.
u
n
_

_
X
(nxK)
=
_

_
x
/
1
.
.
.
x
/
n
_

_
=
_

_
x
11
... x
1K
.
.
. ...
.
.
.
x
n1
... x
nK
_

_
(1)
El supuesto de linealidad puede escribirse como
y
(nx1)
=
X
(nxK)

(Kx1)
+
u
(nx1)
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 11 / 100
El Modelo de Regresin Lineal General El Modelo de Regresin Lineal Multivariado
2. Exogeneidad Estricta
La media condicional es una funcin no lineal de X y bajo este
supuesto, se vuelve una constante igual a cero.
E(u
i
[X) = 0 (i = 1, ..., n)
Este supuesto no es restrictivo si los regresores incluyen una
constante. Ejemplo: Tomar E(u
i
[X) = y x
i 1
= 1.
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 12 / 100
El Modelo de Regresin Lineal General El Modelo de Regresin Lineal Multivariado
2. Exogeneidad Estricta - Implicancias
La media no condicional del error es cero
E(u
i
) = 0 (i = 1, ..., n) (2)
Por la Ley de Expectativas Totales: E[E(y[x)] = E(y).
Los regresores son ortogonales con el error para todas las
observaciones, i.e.,
E(x
jk
u
i
) = 0 (i , j = 1, ..., n; k = 1, ..., K)
E(x
j
u
i
) =
_

_
E(x
j 1
u
i
)
E(x
j 2
u
i
)
.
.
.
E(x
jK
u
i
)
_

_
=
0
(Kx1)
(para todo i , j )
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 13 / 100
El Modelo de Regresin Lineal General El Modelo de Regresin Lineal Multivariado
2. Exogeneidad Estricta - Implicancias
La demostracin requiere el uso de la Ley de Expectativas Iteradas
E[E(y[x, z)[x] = E(y[x)
y la linealidad de la expectativa condicional:
E[f (x)y[x] = f (x)E(y[x)
Proof.
E(u
i
[x
jk
) = E[E(u
i
[X))[x
jk
] = 0
E(x
jk
u
i
) = E[E(x
jk
u
i
[x
jk
)] = E[x
jk
E(u
i
[x
jk
)] = 0
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 14 / 100
El Modelo de Regresin Lineal General El Modelo de Regresin Lineal Multivariado
2. Exogeneidad Estricta - Implicancias
Los regresores estn no correlacionados con el error
Cov(u
i
, x
jK
) = 0
Proof.
Cov(u
i
, x
jK
) = E(x
jK
u
i
) E(x
jK
)E(u
i
)
= E(x
jK
u
i
)
= 0
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 15 / 100
El Modelo de Regresin Lineal General El Modelo de Regresin Lineal Multivariado
2. Exogeneidad Estricta - Implicancias
En un contexto de series de tiempo, la exogeneidad estricta implica
que el trmino de error sea ortogonal a los regresores pasados,
presentes y futuros. PERO
Tomemos el ejemplo de un proceso autorregresivo de orden uno:
y
i
= y
i 1
+u
i
(i = 1, ..., n)
Supongamos que E(y
i 1
u
i
) = 0 y hallemos E(y
i
u
i
).
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 16 / 100
El Modelo de Regresin Lineal General El Modelo de Regresin Lineal Multivariado
3. No Multicolinealidad
El rango de la matriz X, de orden n x K, es K, donde n _ K.
RECORDAR: el rango de una matriz es el nmero de columnas
linealmente independientes.
Ello implica que la matriz tiene rango completo.
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 17 / 100
El Modelo de Regresin Lineal General El Modelo de Regresin Lineal Multivariado
4. Perturbaciones Esfricas
Homoscedasticidad condicional
E(u
2
i
[X) =
2
> 0
No correlacin entre observaciones
E(u
i
u
j
[X) = 0
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 18 / 100
El Modelo de Regresin Lineal General El Modelo de Regresin Lineal Multivariado
4. Perturbaciones Esfricas
La homoscedasticidad puede expresarse como
Var (u
i
[X) =
2
> 0 y Var (u[X) =
2
I
n
La no correlacin entre observaciones equivale a
Cov(u
i
, u
j
[X) = 0
En general, todo el supuesto puede expresarse como
E(uu
/
[X) =
2
I
n
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 19 / 100
El Modelo de Regresin Lineal General El lgebra de Mnimos Cuadrados
OLS minimiza la suma de residuos al cuadrado
Suma de residuos al cuadrado:
SSR(
~
) =
n

i =1
(y
i
x
/
i
~
)
2
= (y X
~
)
/
(y X
~
)
El estimador OLS de es el
~
que minimiza la funcin:
b = arg min
~

SSR(
~
)
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 20 / 100
El Modelo de Regresin Lineal General El lgebra de Mnimos Cuadrados
Ecuaciones normales
Por lgebra matricial
(a
/
~
)

= a y
(
~

/
A
~
)

= 2A
~
para A simtrica
Tenemos que SSR(
~
) = y
/
y 2y
/
X
~
+
~

/
X
/
X
~

A partir de las condiciones de primer orden obtenemos un sistema de


ecuaciones normales:
SSR(
~
)

= 2X
/
y+2X
/
X
~
= 0
De donde se obtiene:
b = (X
/
X)
1
X
/
y
Cumple el estimador OLS la condicin de segundo orden?
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 21 / 100
El Modelo de Regresin Lineal General El lgebra de Mnimos Cuadrados
Conceptos y lgebra
Si reemplazamos b por
~
en los residuos de la regresin tendremos los
residuos OLS.
e = y Xb
El valor ajustado de y se dene como ^y = Xb
^y = X(X
/
X)
1
X
/
y = Py
P es la matriz de proyeccin (PX = X).
M = I
n
P es la matriz aniquiladora (MX = 0). M es idempotente,
simtrica y su traza es tr (M) = n K.
Problem
Demostrar que SSR = e
/
e = u
/
Mu.
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 22 / 100
El Modelo de Regresin Lineal General El lgebra de Mnimos Cuadrados
Conceptos y lgebra
Estimador de la varianza de los errores:

2
= s
2
=
SSR
n K
=
e
/
e
n K
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 23 / 100
El Modelo de Regresin Lineal General Propiedades en Muestras Finitas de OLS
Distribucin en Muestras Finitas del Estimador OLS
Insesgadez
E(b[X) =
Varianza
Var (b[X) =
2
(X
/
X)
1
Teorema Gauss-Markov. Para cualquier estimador lineal e insesgado
^

se cumple que:
Var (
^
[X) _ Var (b[X)
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 24 / 100
El Modelo de Regresin Lineal General Pruebas de Hiptesis Bajo Normalidad
Pruebas de Hiptesis Bajo Normalidad
Supuesto adicional:
u[X ~ N(0,
2
I
n
)
Distribucin de b (error muestral):
(b )[X ~ N(0,
2
(X
/
X)
1
)
Consideremos la hiptesis nula sobre el k-simo coeciente:
H
0
:
k
=

k
a un nivel de signicancia de
Se tiene que:
(b
k

k
)[X ~ N(0,
2

_
(X
/
X)
1
_
kk
)
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 25 / 100
El Modelo de Regresin Lineal General Pruebas de Hiptesis Bajo Normalidad
Pruebas de Hiptesis Bajo Normalidad
Denimos el ratio z
k
:
z
k
=
b
k

k
_

_
(X
/
X)
1
_
kk
Cul es la distribucin de z
k
?
PERO no conocemos
2
.
Solucin: Reemplazar
2
por su estimador OLS, s
2
.
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 26 / 100
El Modelo de Regresin Lineal General Pruebas de Hiptesis Bajo Normalidad
Pruebas de Hiptesis Bajo Normalidad
SE(b
k
) =
_
s
2

_
(X
/
X)
1
_
kk
=
_
elemento (k, k) de
2
b
Theorem (distribucin del ratio t)
Considere los supuestos del MRLG. Bajo la hiptesis nula H
0
:
k
=

k
, el
ratio t se dene como
t
k
=
b
k

k
SE(b
k
)
=
b
k

k
_
s
2
_
(X
/
X)
1
_
kk
y se distribuye como una t de Student con n K grados de libertad.
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 27 / 100
El Modelo de Regresin Lineal General Pruebas de Hiptesis Bajo Normalidad
Pasos para aplicar el test t
1
Dado

k
, formar el ratio t
k
. Una desviacin muy grande de t
k
respecto a cero es una seal de la falla de la hiptesis nula.
2
Ir a la tabla t y encontrar el valor crtico t
/2
(n K), tal que el rea
debajo de la distribucin t a la derecha de t
/2
(n K) es /2.
Recordar que: Pr (t
/2
(n K) < t < t
/2
(n K)) = 1
3
"Aceptar" H
0
si t
/2
(n K) < t
k
< t
/2
(n K). Rechazar H
0
de
otro modo. Dado que t
k
~ t(n K) bajo H
0
, la probabilidad de
rechazar H
0
cuando H
0
es verdadera es . Entonces el nivel de
signicancia del test es .
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 28 / 100
El Modelo de Regresin Lineal General Pruebas de Hiptesis Bajo Normalidad
Intervalos de Conanza
El paso 3 puede ser expresado en trminos de b
k
y SE(b
k
) :
t
/2
(n K) <
b
k

k
SE(b
k
)
< t
/2
(n K)
b
k
SE(b
k
) t
/2
(n K) <

k
< b
k
+SE(b
k
) t
/2
(n K)
Entonces aceptamos H
0
si y slo si

k
cae en el anterior intervalo de
conanza al nivel 1 .
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 29 / 100
El Modelo de Regresin Lineal General Pruebas de Hiptesis Bajo Normalidad
P-value
La regla de decisin de la prueba t puede reformularse usando el p-value:
1
El mismo de arriba.
2
En vez de calcular t
/2
(n K) calcular p = Pr(t > [t
k
[) 2. Dado
que la distribucin t es simtrica alrededor de 0,
Pr(t > [t
k
[) = Pr(t < [t
k
[) de tal modo que:
Pr ([t
k
[ < t < [t
k
[) = 1 p
3
"Aceptar" H
0
si p > . Rechazar de otro modo.
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 30 / 100
El Modelo de Regresin Lineal General Pruebas de Hiptesis Bajo Normalidad
Hiptesis lineales
Qu sucede si queremos evaluar varias hiptesis al mismo tiempo?
Podemos usar un sistema de ecuaciones lineales:
H
0
: R = r
Los valores de la matriz R y el vector r proviene de las hiptesis. El
nmero de ecuaciones es q = dim(r ) y R es q K. Para asegurarnos
que no haya ecuaciones redundantes y las ecuaciones sean
consistentes entre s se debe cumplir que rank(R) = q
Ejemplo: Supongamos que K = 4 y deseamos probar conjutamente
las hiptesis
2
=
3
y
4
= 0 , tiene R rango completo?
Suponga que adicionalmente quiere probar que
2

3
=
4
y luego

4
= 0.5. Se cumple la condicin de rango completo?
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 31 / 100
El Modelo de Regresin Lineal General Pruebas de Hiptesis Bajo Normalidad
La prueba F
Theorem (distribucin del ratio F)
Considere los supuesto del MRLG. Bajo la hiptesis nula H
0
: R = r,
donde R es q K con rank(R) = q el ratio F se dene como:
F =
(Rb r)
/
_
R(X
/
X)
1
R
/
_
1
(Rb r)/q
s
2
= (Rb r)
/
_
R
2
b
R
/

1
(Rb r)/q
se distribuye como F(q, n K).
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 32 / 100
El Modelo de Regresin Lineal General Pruebas de Hiptesis Bajo Normalidad
Pasos para aplicar el test F
1
Calcular el ratio F de acuerdo a la frmula.
2
En la tabla de la distribucin F ubicar el valor crtico F

(q, n K)
que deja a en la cola superior de la distribucin F.
3
"Aceptar" la hiptesis nula si el ratio F es menor que F

(q, n K) .
Rechazar de otro modo.
Usando el p-value los pasos seran:
1
Calcular ratio F
2
Calcular p =rea de la cola superior de la distribucin F a la derecha
del ratio F.
3
"Aceptar" la nula si p > ; rechazar de otro modo.
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 33 / 100
El Modelo de Regresin Lineal General Pruebas de Hiptesis Bajo Normalidad
Una expresin ms conveniente para el ratio F
Denotemos por SSR
U
a la suma de residuos al cuadrado del modelo
MRLG.
Ahora considere la siguiente problema de minimizacin de cuadrados:
min
~

SSR(
~
) s.a. R
~
= r
Este es un problema de mnimos cuadrados restringidos la suma de
residuos en este caso la denotamos SSR
R
.
Se le pide demostrar que el ratio F se puede expresar como:
F =
(SSR
R
SSR
U
) /q
SSR
U
/ (n K)
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 34 / 100
El Modelo de Regresin Lineal General Pruebas de Hiptesis Bajo Normalidad
t versus F
La prueba t de H
0
:
k
=

k
es un caso especial de la prueba F :
R
(1K)
=
_
0 ... 0 1 0 ... 0

, r =

k
El ratio F queda como:
F =
_
b
k

k
_ _
s
2
elemento (k, k) de (X
/
X)
1

1
_
b
k

k
_
que es el cuadrado del ratio t ya que una variable aleatoria distribuida
como F(1, n K) es el cuadrado de una variable aleatoria distruibida
como t(n K)
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 35 / 100
El Modelo de Regresin Lineal General Pruebas de Hiptesis Bajo Normalidad
t versus F
Supongamos que K = 2 y queremos testear H
0
:
1
= 1 y
2
= 0. Si
usamos la prueba t por separado tendramos la siguiente regin de
conanza:
(
1
,
2
) [b
1
SE(b
1
) t
/2
(n K) <
1
< b
1
+SE(b
1
)
t
/2
(n K), b
2
SE(b
2
) t
/2
(n K) <
2
< b
2
+SE(b
2
)
t
/2
(n K)
Por su parte, la regin de conanza para el test F sera:
(
1
,
2
) [ (b
1

1
, b
2

2
)
_

2
b
_
1
_
b
1

1
b
2

2
_
< 2F

(q, n K)
Debemos usar la prueba F o dos pruebas t?
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 36 / 100
El Modelo de Regresin Lineal General Propiedades Asintticas del Estimador MCO
Propiedades Asintticas
Denition (Convergencia en probabilidad)
Una variable aleatoria x
n
converge en probabilidad a una constante c si
lim
n
Pr([x
n
c[ > ) = 0 para cualquier positivo. Si x
n
converge en
probabilidad a c podemos escribir plim x
n
= c o tambin x
n
p
c.
Theorem
Si x
n
y y
n
son variables aleatorias tales que plim x
n
= c y plim y
n
= d,
entonces plim x
n
+y
n
= c +d, plim x
n
y
n
= cd, plim x
n
/y
n
= c/d si
d ,= 0
Denition (Estimador consistente)
Un estimador

n
de un parmetro es un estimador consistente de si y
slo si plim

n
= .
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 37 / 100
El Modelo de Regresin Lineal General Propiedades Asintticas del Estimador MCO
Propiedades Asintticas
Denition (Convergencia en r media)
Si x
n
es una secuencia de variables aleatorias tal que E[[x
n
[
r
] < y
lim
n
E[[x
n
c[
r
] = 0, entonces x
n
converge en r media a c. En ese caso
podemos escribir x
n
r .m.
c.
Example
Si r = 2 decimos que x
n
converge en media cuadrtica a c. La varianza de
x
n
tiende a cero.
Theorem (Slutzky)
Si g() es una funcin continua entonces plim g(x
n
) = g(plim x
n
).
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 38 / 100
El Modelo de Regresin Lineal General Propiedades Asintticas del Estimador MCO
Propiedades Asintticas
Theorem (Khinchine)
Si x
i
, i = 1, ..., n son iid con E(x
i
) = , entonces plim x
n
=
Denition (Convergencia en distribucin)
x
n
converge en distribucin a una variable aleatoria x con funcin de
distribucin acumulada F(x) si lim
n
[F
n
(x
n
) F(x)[ = 0 para todos los
puntos de continuidad de F(x). En ese caso podemos escribir x
n
d
x.
Theorem (Lindberg-Levy)
Si x
n
es una secuencia de vectores aleatorios de una distribucin
multivariada con media nita y con matriz de varianzas y covarianzas
nita y positiva denida Q, entonces
_
n (x
n
)
d
N (0, Q)
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 39 / 100
El Modelo de Regresin Lineal General Propiedades Asintticas del Estimador MCO
Propiedades Asintticas del Estimador MCO
Supongamos que:
1
Los x
i
son estcasticos e independientes de u
i
2
u
i
son no Gaussianos pero iid con media y varianza nitas.
3
plim
1
n
n

i =1
x
i
x
/
i
= Q
Entonces se cumple que:
1
El estimador MCO es consistente: b
p

2
El estimador MCO se distribuye asintticamente normal:
_
n (b )
d
N
_
0,
2
Q
1
_
3
El estimador asinttico de la varianza de b es s
2
(X
/
X)
1
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 40 / 100
El Modelo de Regresin Lineal General Propiedades Asintticas del Estimador MCO
Propiedades Asintticas del Estimador MCO
Denition (Eciencia asinttica)
Un estimador es asintticamente eciente si es consistente,
asintticamente distribuido como una normal y tiene una matriz de
varianzas-covarianzas asinttica que no es ms grande que la matriz de
varianzas-covarianzas de cualquier otro estimador consistente y
asintticamente distribuido como normal.
Es el estimador MCO asintticamente eciente?
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 41 / 100
El Modelo de Regresin Lineal General Estimacin por Mxima Verosimilitud
Funcin de Verosimilitud
Suponga una muestra y
/
= (y
1
, y
2
, ..., y
n
) que depende de un vector
de parmetros
/
= (
1
,
2
, ...,
K
). La funcin de densidad f (y
i
[) es
conocida y describe el proceso generador de datos de nuestra
muestra. Si las observaciones son iid entonces la funcin de densidad
conjunta ser:
f (y
1
, y
2
, ..., y
n
[) =
n

i =1
f (y
i
[) = L([y) (3)
L([y) es la funcin de verosimilitud y es condicional a la data y
para resaltar nuestro objetivo, que es estimar el vector .
El principio de mxima verosimilitud consiste en estimar mediante
la mximizacin de L([y).
En la prctica, es ms amigable trabajar con ln L([y).
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 42 / 100
El Modelo de Regresin Lineal General Estimacin por Mxima Verosimilitud
Score y Hessiano
El vector score se dene como:
S =
ln L([y)

=
_
ln L([y)

1
ln L([y)

2

ln L([y)

k
_
/
(4)
La matriz de informacin I() es la matriz de varianzas y covarianzas
del vector score.
La matriz Hessiana o Hessiano se dene como:
H =

2
ln L([y)

/
=
_

2
ln L([y)

2
1

2
ln L([y)

2


2
ln L([y)

2
ln L([y)

2
ln L([y)

2
2


2
ln L([y)

k

.
.
.

2
ln L([y)

2
ln L([y)

2


2
ln L([y)

2
k
_

_
(5)
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 43 / 100
El Modelo de Regresin Lineal General Estimacin por Mxima Verosimilitud
Estimador de Mxima Verosimilitud
Problem
Demostrar que la esperanza del score es cero y que la matriz de
informacin es el negativo de la esperanza del Hessiano.
Problem
Estime por mxima verosimilitud el MRLG bajo el supuesto de normalidad
de las perturbaciones.
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 44 / 100
El Modelo de Regresin Lineal General Estimacin por Mxima Verosimilitud
Propiedades Asintticas del Estimador de MV
1
Consistencia:
plim
^

MV
= (6)
2
Normalidad asinttica:
_
n
_
^

MV

_
d
N(0, I
1
()) (7)
donde a I
1
() se le conoce como la cota inferior de Cramer-Rao.
3
Eciencia Asinttica: La varianza asinttica del estimador de MV es
la cota inferior de Cramer-Rao y por tanto ningn otro estimador
puede tener una varianza asinttica menor.
4
Invarianza: Si g() es una funcin continua de entonces g(
^

MV
)
es el estimador de MV de g().
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 45 / 100
El Modelo de Regresin Lineal General Hiptesis No Lineales
Wald Test (W)
Supongamos la restriccin no lineal. H
0
: c() = r donde dim(r) = q.
Bajo H
0
c(
^

MV
) r debe ser cercano a cero, dado que
^

MV
es
consistente.
Bajo H
0
y en muestras grandes, el estadstico de Wald:
W = [c(
^

MV
) r]
/
[Asy.Var (c(
^

MV
) r)]
1
[c(
^

MV
) r] s
2
(q)
Usaremos el estimador de la varianza asinttica:
Est.Asy.Var (c(
^

MV
) r) = D
_
Est.Asy.Var (
^

MV
)
_
D
/
donde D =
c(
^

MV
)

/
MV
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 46 / 100
El Modelo de Regresin Lineal General Hiptesis No Lineales
Likelihood Ratio (LR)
Suponga que
^

U
es el estimador de MV obtenido sin las restricciones
y
^

R
es el estimador de MV obtenido de la maximizacin de la funcin
de verosimilitud sujeto a las restricciones. Suponga que

L
U
y

L
R
son
las funciones de verosimilitud evaluadas en
^

U
y
^

R
respectivamente.
El ratio de versomilitud se dene como: =

L
R

L
U
Notar que se encuentra entre 0 y 1 y

L
R
_

L
U
Bajo H
0
y en muestras grandes:
LR = 2 ln s
2
(q)
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 47 / 100
El Modelo de Regresin Lineal General Hiptesis No Lineales
Lagrange Multiplier (LM)
Denamos el Lagrangiano:
ln L
+
() = ln L() +
/
[c() r]
ln L
+

=
ln L

+D
/
= 0
ln L
+

= c() r = 0
Si las restricciones son vlidas, el trmino (multiplicador de
Lagrange) debe ser pequeo. Si evaluamos las derivadas en
^

R
tenemos:
ln L(
^

R
)

R
=
^
D
/
^
=
^
S
R
Si las restricciones son vlidas el score restringido
^
S
R
= 0 (test score).
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 48 / 100
El Modelo de Regresin Lineal General Hiptesis No Lineales
Lagrange Multiplier (LM)
Bajo H
0
y en muestras grandes:
LM =
_
ln L(
^

R
)

R
_
/
_
I(
^

R
)
_
1
_
ln L(
^

R
)

R
_
s
2
(q)
La eleccin de W, LR; o LM depende de la facilidad de clculo de
^

U
(W),
^

R
(LM) o de la funcin de verosimilitud (LR):
Un conocido resultado terico:
LM _ LR _ W
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 49 / 100
El Modelo de Regresin Lineal General Contrastes de Cambio Estructural
Test de Chow
En el MRLG damos por sentado que los supuestos se cumplen para
toda la muestra.
Cambio estructural y estabilidad de parmetros.
Supongamos que observamos un cambio en la data que nos permite
separarla en dos submuestras:
_
y
1
y
2
_
=
_
X
1
0
0 X
2
_ _

1

2
_
+
_
u
1
u
2
_
Asumiendo ortogonalidad de X
1
y X
2
:
_
b
1
b
2
_
=
_
X
/
1
X
1
0
0 X
/
2
X
2
_
1
_
X
/
1
y
1
X
/
2
y
2
_
Nuestro objetivo es construir una prueba F para evaluar cambio
estructural.
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 50 / 100
El Modelo de Regresin Lineal General Contrastes de Cambio Estructural
Test de Chow
Se puede demostrar que:
e
/
e = e
/
1
e
1
+e
/
2
e
2
Hiptesis nula:
1
=
2
se puede representar como R = q donde
R = [I : I] y q = 0.
Si se cumple la nula podemos expresar el modelo como:
_
y
1
y
2
_
=
_
X
1
X
2
_
+
_
u
1
u
2
_
denotemos e
+/
e
+
a la suma de residuos al cuadrado de este modelo
restringido.
El test F
[e
+/
e
+
(e
/
1
e
1
+e
/
2
e
2
)] / (K)
(e
/
1
e
1
+e
/
2
e
2
) /(n 2K)
~ F(K, n 2K)
y es denominado Chow breakpoint test
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 51 / 100
El Modelo de Regresin Lineal General Contrastes de Cambio Estructural
CUSUM
El test CUSUM est basado en una tcnica recursiva. Es apropiado
para series de tiempo.
Ventaja: no conocemos en qu punto se da el cambio estructural.
Desventaja: tiene menor potencia (probabilidad de rechazar una
hiptesis nula cuando sta es falsa) que la prueba de Chow.
Hiptesis nula: el es el mismo en todos los periodos.
Supongamos que T es el tamao de la muestra. Denimos el
tsimo error recursivo como el error de prediccin ex post de y
t
usando las t 1 primeras observaciones:
e
t
= y
t
x
t
/b
t1
La varianza del error de prediccin ser:

2
ft
=
2
_
1 +x
t
/
_
X
/
t1
X
t1
_
1
x
t
_
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 52 / 100
El Modelo de Regresin Lineal General Contrastes de Cambio Estructural
CUSUM
Denamos el r simo residuo estandarizado:
w
r
=
e
r
_
1 x
t
/
_
X
/
t1
X
t1
_
1
x
t
Bajo la nula los coecientes permanecen constantes y w
r
~ N(0,
2
)
y es independiente de w
s
con r ,= s. Si no se cumple la nula w
r
ir
cambiando en el tiempo.
El test CUSUM se basa en:
W
t
=
t

r =K+1
w
r

2
donde:

2
=

T
r =K+1
(w
r
w)
2
T K 1
y w =

T
r =K+1
w
r
T K
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 53 / 100
El Modelo de Regresin Lineal General Contrastes de Cambio Estructural
CUSUMQ
El contraste consiste en gracar la evolucin de W
t
en el tiempo. Se
pueden construir bandas de conanza alrededor de W
t
de tal suerte
que si observamos que W
t
escapa de las bandas, tendremos evidencia
del rechazo de la hiptesis nula.
El contraste CUSUM de cuadrados (CUSUMQ) se basa en:
S
t
=

t
r =K+1
w
2
r

T
r =K+1
w
2
r
Como los residuos son independientes, tanto numerador como
denominador son aproximadamente sumas de chi-cuadrados con 1
grado de libertad.
Entonces E (S
t
) =
tK
TK
. Del mismo modo, podemos construir
bandas de conanza para E (S
t
) .
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 54 / 100
El Modelo de Regresin Lineal General Prediccin
Prediccin
Prediccin vs Proyeccin.
Supongamos que queremos predecir y
0
donde y
0
=
/
x
0
+u
0
Error de prediccin:
e
0
= y
0
y
0
= ( b)
/
x
0
+u
0
(8)
Y su varianza:
Var (e
0
) = Var
_
( b)
/
x
0

+Var
_
u
0
_
(9)
Var (e
0
) =
2
+x
0/
_

2
(X
/
X)
1

x
0
(10)
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 55 / 100
El Modelo de Regresin Lineal General Prediccin
Prediccin
Si la regresin tiene un trmino constante:
Var (e
0
) =
2
_
1 +
1
n
+
K1

j =1
K1

k=1
_
x
0
j
x
j
_ _
x
0
k
x
k
_ _
Z
/
M
0
Z
_
jk
_
(11)
donde Z es la matriz de K 1 regresores exceptuando el intercepto y
M
0
es la matriz aniquiladora donde X es un vector de
unos.
_
Z
/
M
0
Z
_
jk
es el jk-simo elemento de
_
Z
/
M
0
Z
_
.
Si usamos s
2
para estimar
2
podemos hallar un intervalo de
prediccin:
y
0
t
/2
se(e
0
) (12)
El ancho de las bandas depende de la distancia de los elementos de x
0
a las medias.
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 56 / 100
El Modelo de Regresin Lineal General Prediccin
Medicin de la Capacidad Predictiva
Raz del Error Cuadrtrico Medio:
RMSE =
_
1
n
0

i
(y
i
y
i
)
2
(13)
Error Absoluto Medio:
MAE =
1
n
0

i
[y
i
y
i
[ (14)
donde n
0
es el nmero de periodos a predecir. Ambos estadsticos
presentan un problema de escala, por lo cual una alternativa es el
estadstico U de Theil.
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 57 / 100
El Modelo de Regresin Lineal General Prediccin
Medicin de la Capacidad Predictiva
Estadstico U de Theil:
U =

_
1
n
0

i
(y
i
y
i
)
2
1
n
0

i
y
2
i
(15)
Esta medida est relacionada con el R
2
pero no est acotada entre 0
y 1. Valores grandes de U indican poca capacidad predictiva.
Estadstico U de Theil en primeras diferencias:
U =

_
1
n
0

i
(y
i
y
i
)
2
1
n
0

i
(y
i
)
2
(16)
Dado que esta medida depende de las primeras diferencias, es
importante la capacidad del modelo de capturar los puntos de cambio
de giro o cambio de tendencia de los datos.
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 58 / 100
El Modelo de Regresin Lineal General Errores de Especicacin
Incumplimiento de los supuestos del MRLG
La especicacin del MRLG se centra en el vector de perturbacin u y
la matriz X.
Posibles problemas con u :
1
u
i
~ iid(0,
2
) pero no se cumple que u
i
~ N(0,
2
). No se ve
afectada la propiedad BLUE pero las inferencias slo son vlidas
asintticamente.
2
E(uu
/
) = diag
_

2
1
, ...,
2
n
_
o heteroscedasticidad. La inferencia se ve
afectada.
3
E (u
t
u
ts
) ,= 0 o autocorrelacin. La inferencia se ve afectada.
Posibles problemas con X :
1
X no tiene rango completo: multicolinealidad, que evita el clculo de
un nico estimador b.
2
E(X
/
u) ,= 0. El estimador OLS b se vuelve sesgado e inconsistente.
3
Las variables en X no son estacionarias. La inferencia se ve afectada.
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 59 / 100
El Modelo de Regresin Lineal General Errores de Especicacin
Errores de Especicacin
Se derivan del incumplimiento del supuesto de linealidad:
y = X +u (17)
y son problemas con X o u :
1
Omisin de variables relevantes.
2
Inclusin de variables irrelevantes.
3
Forma funcional incorrecta.
4
Errores de medida.
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 60 / 100
El Modelo de Regresin Lineal General Errores de Especicacin
Omisin de Variables Relevantes
Suponga que el modelo correctamente especicado es:
y = X
1

1
+X
2

2
+u (18)
donde X
1
y X
2
tiene K
1
y K
2
columnas, respectivamente.
Si omitimos X
2
:
b
1
=
_
X
/
1
X
1
_
1
X
/
1
y
=
1
+
_
X
/
1
X
1
_
1
X
/
1
X
2

2
+
_
X
/
1
X
1
_
1
X
/
1
u (19)
b
1
es sesgado a no ser que X
/
1
X
2
= 0 o
2
= 0.
b
1
tampoco ser consistente.
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 61 / 100
El Modelo de Regresin Lineal General Errores de Especicacin
Omisin de Variables Relevantes
Sesgo de variables omitidas:
E (b
1
)
1
=
_
X
/
1
X
1
_
1
X
/
1
X
2

2
(20)
La varianza de la perturbacin ser incorrectamente estimada. Como
consecuencia, los intervalos de conanza y los procedimientos para
probar hiptesis darn conclusiones engaosas sobre la signicancia de
los parmetros estimados.
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 62 / 100
El Modelo de Regresin Lineal General Errores de Especicacin
Inclusin de Variables Redundantes
Suponga que el modelo correctamente especicado es:
y = X
1

1
+u (21)
pero estimamos el siguiente modelo como si fuera el verdadero:
y = X
1

1
+X
2

2
+u (22)
En esta regresin fallamos en imponer la restriccin
2
= 0.
Los estimadores OLS del modelo incorrecto son insesgados y
consistentes.
La varianza del error
2
ser correctamente estimada. Como
consecuencia, los intervalos de conanza y los procedimientos para
probar hiptesis sern vlidos.
El problema estar en la varianza de los estimadores de , reduciendo
su precisin.
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 63 / 100
El Modelo de Regresin Lineal General Errores de Especicacin
Forma Funcional Incorrecta
Supongamos que estimamos el modelo:
y
i
= x
i 1

1
+x
i 2

2
+x
i 3

3
+u
i
(23)
cuando el verdadero modelo es:
y
i
= x
i 1

1
+x
i 2

2
+x
i 3

3
+x
2
i 2

2
+x
2
i 3

3
+ (x
i 2
x
i 3
) +u
i
(24)
Se puede resolver aadiendo los trminos x
2
i 2
, x
2
i 3
y x
i 2
x
i 3
, pero para
ello hay que detectar el problema.
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 64 / 100
El Modelo de Regresin Lineal General Errores de Especicacin
Ramsey RESET Test
Regression Especication Error Test (RESET): diseado para detectar
errores de especicacin en la forma funcional.
Supongamos que aadimos trminos a la regresin:
y
i
= x
i 1

1
+x
i 2

2
+x
i 3

3
+
1
y
2
i
+
2
y
3
i
+u
i
(25)
RESET es el estadstico F para H
0
:
1
= 0 y
2
= 0
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 65 / 100
El Modelo de Regresin Lineal General Errores de Especicacin
Errores de Medida
Supongamos que queremos estimar el modelo:
y
i
= x
i 1

1
+u
i
(26)
y en vez de usar y
i
y x
i 1
usamos variables proxy: y
+
i
= y
i
+
i
y
x
+
i 1
= x
i 1
+
i
con lo cual estimamos en la prctica el modelo:
y
+
i
= x
+
i 1

1
+u
+
i
(27)
Si el error de medida se da slo en y
i
tendremos que los estimadores
OLS seguirn siendo insesgados; sin embargo, la varianza de los
parmetros estimados ser mayor.
Si el error de medida se da en x
i 1
tendremos que los estimadores OLS
sern sesgados e inconsistentes.
La solucin ms usada a este ltimo problema es el Mtodo de
Variables Instrumentales (IV).
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 66 / 100
El Modelo de Regresin Lineal General Multicolinealidad
Multicolinealidad
La multicolinealidad aparece cuando las variables explicativas del
modelo estn correlacionadas.
Podemos tener perfecta o imperfecta multicolinealidad:

1
x
i 1
+
2
x
i 2
+
3
x
i 3
= 0 (28)

1
x
i 1
+
2
x
i 2
+
3
x
i 3
+
i
= 0 (29)
Example
Hallar el coeciente de correlacin entre x
1
y x
2
y entre x
2
y x
3
:
x
1
x
2
x
3
10 50 52
15 75 75
18 90 97
24 120 129
30 150 152
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 67 / 100
El Modelo de Regresin Lineal General Multicolinealidad
Multicolinealidad
Supongamos que el modelo tiene 2 variables explicativas y una
constante. Se puede mostrar que:
Var (b
k
) =

2
(1 r
2
12
)

n
i =1
(x
ik
x
k
)
2
k = 1, 2 (30)
donde r
12
es el coeciente de correlacin entre las 2 variables
explicativas.
Si la multicolinealidad es perfecta,los parmetros estimados sern
indeterminados y sus varianzas innitas.
Si la multicolinealidad es menos que perfecta,los parmetros
estimados sern determinados pero sus errores estndar muy altos, lo
que har que los estimados sean imprecisos.
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 68 / 100
El Modelo de Regresin Lineal General Multicolinealidad
Multicolinealidad
Consecuencias de la Multicolinealidad Exacta o Perfecta
La solucin del sistema de ecuaciones normales est mal denida. Los
estimadores MCO son indeterminados debido a que la matriz X
/
X es
singular.
La matriz de covarianzas del estimador MCO ser muy grande y sus
errores estndar innitos, lo que har que el estimador OLS sea muy
poco preciso
Consecuencias de la Multicolinealidad Aproximada o Imperfecta
S es posible calcular el estimador MCO, stos mantienen la propiedad
MELI; sin embargo, la varianza del estimador ya no ser pequea,
reduciendo la precisin de los estimados, los intervalos de conanza
sern ms grandes y las reas de aceptacin de la hiptesis nula ms
extensas.
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 69 / 100
El Modelo de Regresin Lineal General Multicolinealidad
Multicolinealidad vs. Micronumerosidad
El problema de multicolinealidad es un problema de grado: qu tan
correlacionados se encuentran los regresores.
La nica consecuencia prctica de la multicolinealidad imperfecta es
que los estimadores MCO tendrn errores estndar grandes.
Sin embargo, el mismo problema surgira si es que tenemos pocos
datos (apenas por encima del nmero de regresores) Por qu?
Goldberger llama a este ltimo problema "micronumerosidad" y
plantea que en la prctica equivale al problema de multicolinealidad.
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 70 / 100
El Modelo de Regresin Lineal General Multicolinealidad
Sntomas de Multicolinealidad
R
2
altos pero ratios t poco signicativos. Los coecientes estimados
tienen errores estndar elevados y bajo nivel de signicancia.
Elevada correlacin entre regresores.
Pequeos cambios en la data producen cambios fuertes en los
parmetros estimados.
Los coecientes estimados tienen los signos equivocados o
magnitudes poco crebles.
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 71 / 100
El Modelo de Regresin Lineal General Multicolinealidad
Deteccin de Multicolinealidad
Al factor
VIF =
1
(1 r
2
12
)
=
1
(1 R
2
k
)
(31)
se le conoce como factor de inacin de la varianza y mide cmo la
varianza del estimador b
k
es inada por la presencia de
multicolinealidad. R
2
k
es el coeciente de determinacin de la
regresin de la ksima variable con respecto al resto de regresores
(incluyendo la constante). Para un r
12
= 0.95, VIF = 10.26. Valores
del VIF encima de 10 son seal de presencia de alta multicolinealidad.
A la inversa del VIF se le conoce como tolerancia.
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 72 / 100
El Modelo de Regresin Lineal General Multicolinealidad
Deteccin de Multicolinealidad
Otra forma de detectar multicolinealidad es usando la condicin
(condition number) de la matriz X
/
X :
cond(X
/
X) =
mayor valor propio de X
/
X
menor valor propio de X
/
X
=
_
_
X
/
X
_
_
_
_
_
_
X
/
X
_
1
_
_
_
(32)
donde |X
/
X| es el mximo valor propio de X
/
X y
_
_
_(X
/
X)
1
_
_
_ es la inversa
del mnimo valor propio de (X
/
X) .
Valores de cond(X
/
X) mayores que 20 son seal de alta
multicolinealidad.
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 73 / 100
El Modelo de Regresin Lineal General Multicolinealidad
Correccin de Multicolinealidad
No hacer nada. La multicolinealidad es una deciencia de la data,
sobre todo en el tamao de la muestra, y si no podemos conseguir
ms datos, trabajamos con lo que tenemos.
Eliminar las variables sospechosas de causar la multicolinealidad. El
riesgo de hacer esto es caer en el problema de omisin de variables
relevantes.
Estimador cresta o cordillera (ridge regression):
b
r
=
_
X
/
X+r D
_
1
X
/
y (33)
donde D es una matriz diagonal. Es posible elegir r de tal forma que
la varianza de b
r
sea menor que la varianza de b.Un criterio puede ser
el r que genere el menor error cuadrtico medio (sesgo al cuadrado
ms varianza). Sin embargo, el estimador b
r
es sesgado y ese es un
punto contra de este estimador.
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 74 / 100
El Modelo de Regresin Lineal General Mnimos Cuadrados Generalizados
Modelo de Regresin Lineal Generalizado
Es el Modelo de Regresin Lineal General (MRLG) con la diferencia
de que ahora se viola el supuesto de perturbaciones esfricas:
y = X +u (34)
E [u[X] = 0 y E
_
uu
/
[X

=
2
(35)
donde es una matriz denida positiva.
Estudiaremos 2 casos de perturbaciones no esfricas:
Heteroscedasticidad y Autocorrelacin.
Heteroscedasticidad:

2
=
_

2
1
0 0
0
2
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0
2
n
_

_
(36)
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 75 / 100
El Modelo de Regresin Lineal General Mnimos Cuadrados Generalizados
Modelo de Regresin Lineal Generalizado
Autocorrelacin:

2
=
2
_

_
1
1

n1

1
1
n2
.
.
.
.
.
.
.
.
.
.
.
.

n1

n2
1
_

_
(37)
donde
i
es la correlacin de u
1
con u
i +1
.
En este contexto, en el que E [uu
/
[X] =
2
tendremos que el
estimador de mnimos cuadrados MCO tiene las siguientes
caractersticas:
El estimador MCO es insesgado y consistente.
El teorema de Gauss-Markov ya no se cumple, esto es, el estimador
MCO ya no es el de menor varianza.
Las pruebas t y F ya no son vlidas porque los ratios no se distribuyen
ni como t de Student ni como F.
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 76 / 100
El Modelo de Regresin Lineal General Mnimos Cuadrados Generalizados
Modelo de Regresin Lineal Generalizado
Derivemos un estimador eciente para este modelo.
Como es positiva denida podemos expresarla como = ADA
/
.
Donde las columnas de A son los vectores propios de y D es una
matriz diagonal cuyos elementos son los valores propios de ..
Adems es posible expresar = VV
/
donde V es una matriz cuadrada
no singular. Se puede mostrar que
1
= P
/
P donde P
/
= AD
1/2
y
P = V
1
.
Transformando el modelo:
Py = PX +Pu (38)
y
+
= X
+
+u
+
(39)
El estimador de Mnimos Cuadrados Generalizados (MCG o GLS) es:
b
MCG
=
_
X
+/
X
+
_
1
X
+/
y
+
(40)
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 77 / 100
El Modelo de Regresin Lineal General Mnimos Cuadrados Generalizados
Estimador de Mnimos Cuadrados Generalizados
Podemos expresar el estimador como:
b
MCG
=
_
X
/

1
X
_
1
X
/

1
y (41)
Demostrar que la varianza de este estimador es:
Var (b
MCG
) =
2

_
X
/

1
X
_
1
(42)
Propiedades del estimador MCG (demostrarlas):
Es insesgado y consistente.
Es el de menor varianza (eciencia).
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 78 / 100
El Modelo de Regresin Lineal General Mnimos Cuadrados Generalizados
Estimador de Mnimos Cuadrados Generalizados
Para pruebas de hiptesis, la prueba F es la siguiente:
(Rb
MCG
r)
/
_
R^
2
MCG
(X
+/
X
+
)
1
R
/
_
(Rb
MCG
r)
q
~ F(q, n K)
(43)
donde
^
2
MCG
=
^u
/
^u
n K
=
(y
+
X
+
b
MCG
)
/
(y
+
X
+
b
MCG
)
n K
=
(y Xb
MCG
)
/

1
(y Xb
MCG
)
n K
(44)
El R
2
no tiene una interpretacin clara.
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 79 / 100
El Modelo de Regresin Lineal General Mnimos Cuadrados Generalizados
Mnimos Cuadrados Generalizados Factibles
Si no conocemos no podremos obtener el estimador MCG. Una
salida es obtener un estimador consistente de . Para ello podemos
suponer una estructura predeterminada para , que dependa de un
conjunto de parmetros, por ejemplo:

2
i
=
_

_
1
n1
1
n2
.
.
.
.
.
.
.
.
.
.
.
.

n1

n2
1
_

_
(45)
o sino

2
i
=
2
z

i
(46)
El estimador

=
_

_
lo reemplazamos en la frmula y tendremos al
estimador de mnimos cuadrados generalizados factibles (FGLS):
b
MCGF
=
_
X
/

1
X
_
1
X
/

1
y (47)
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 80 / 100
El Modelo de Regresin Lineal General Heteroscedasticidad
Modelo de Regresin Heteroscedstico
Supongamos el siguiente comportamiento para la matriz de
covarianzas de u :
Var (u
i
) =
2
i
i = 1, ..., n (48)
Var (uu
/
) =
2
=
2
_

1
0 0
0
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0
n
_

_
=
_

2
1
0 0
0
2
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0
2
n
_

_
(49)
De donde
2
i
=
2

i
y suponemos tr () =

n
i =1

i
= n
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 81 / 100
El Modelo de Regresin Lineal General Heteroscedasticidad
Consecuencias de la Heteroscedasticidad
Si estimamos por MCO un modelo heteroscedstico obtendremos
grandes varianzas para los estimadores, lo cual conlleva a que los
errores estndar los mismos sean sobreestimados, al igual que los
intervalos de conanza que sern innecesariamente grandes. Las
pruebas t y F ya no son de conar.
Var (b
MCO
) =
2
(X
/
X)
1
X
/
X(X
/
X)
1
ya no es consistente.
El estimador consistente de la varianza del estimador MCO ser el
estimador de White:
Var (b
MCO
) =
_
X
/
X
_
1
_
n

i =1
e
2
i
x
i
x
/
i
_
_
X
/
X
_
1
(50)
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 82 / 100
El Modelo de Regresin Lineal General Heteroscedasticidad
Deteccin de la Heteroscedasticidad
Inspeccin grca de los residuos al cuadrado. Podemos gracarlos
contra la variable dependiente estimada o contra uno de los
regresores.
Contrastes de Heteroscedasticidad.
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 83 / 100
El Modelo de Regresin Lineal General Heteroscedasticidad
Test de White
La hiptesis nula:
H
0
=
2
i
=
2
para todo i (51)
El estadstico:
nR
2
~
2
(P 1) (52)
donde R
2
es el coeciente de determinacin de la regresin de e
2
i
contra P regresores, entre los que se encuentran: una constante, las
variables explicativas del modelo, los cuadrados de dichas variables, y
sus productos cruzados de segundo orden.
Tambin puede indicar errores de especicacin
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 84 / 100
El Modelo de Regresin Lineal General Heteroscedasticidad
Test de Goldfeld-Quandt
Dividimos la muestra en 2 grupos de tamaos n
1
(alta varianza) y n
2
(baja varianza) y estimamos una regresin para cada grupo.
Bajo la hiptesis nula es de homoscedasticidad.el estadstico se
distribuye como una F :
e
/
1
e
1
/ (n
1
K)
e
/
2
e
2
/ (n
2
K)
~ F(n
1
K, n
2
K) (53)
La hiptesis nula es de homoscedasticidad.
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 85 / 100
El Modelo de Regresin Lineal General Heteroscedasticidad
Test de Breusch-Pagan-Godfrey
Supongamos que:

2
i
= f
_

0
+
/
z
i
_
(54)
donde z
i
es un vector de variables independientes. El modelo es
homoscedstico si = 0.
El estadstico es del tipo multiplicador de Lagrange (LM) y se
construye as:
LM =
1
2
_
suma de cuadrados explicada de la
regresin de
e
2
i
(e
/
e)/n
sobre z
i
_
(55)
LM ~
2
(nmero de variables en z
i
) (56)
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 86 / 100
El Modelo de Regresin Lineal General Heteroscedasticidad
Correccin de la Heteroscedasticidad
Si los
2
i
son conocidos, podemos utilizar mnimos cuadrados
ponderados (WLS) que ser un estimador insesgado e eciente.
Si no conocemos
2
i
:
Usar la matriz de covarianzas consistente en presencia de
heteroscedasticidad propuesta por White que nos proporciona errores
estndar robustos.
Asumir patrones de heteroscedasticidad: E(u
2
i
) =
2
X
2
i
,
E(u
2
i
) =
2
X
i
, E(u
2
i
) =
2
E
2
(Y
i
) o usar transformaciones
logartmicas.
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 87 / 100
El Modelo de Regresin Lineal General Autocorrelacin
Modelo de Regresin con Autocorrelacin
El caso clsico de autocorrelacin es uno en el que la perturbacin
est correlacionada consigo mismo en un modelo de series de tiempo:
y
t
= x
/
t
+u
t
t = 1, ..., T (57)
u
t
= u
t1
+
t
(58)
Decimos que la perturbacin sigue un proceso autorregresivo de orden
1 o AR(1) con los siguientes momentos para
t
:
E (
t
) = 0 (59)
Var (
t
) =
2

(60)
Cov (
s
,
t
) = 0 si s ,= t (61)
En este contexto, cul es la forma de la matriz Var (u)? Debemos
hacer alguna restriccin sobre ?
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 88 / 100
El Modelo de Regresin Lineal General Autocorrelacin
Modelo de Regresin con Autocorrelacin
Se puede mostrar que:
Var (u) =
2

=

2

1
2
_

_
1
2

T1
1
T2

2
1
T3
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

T1

T2

T3
1
_

_
Cuando hay autocorrelacin el estimador MCO ya no es el de mnima
varianza entre los estimadores lineales e insesgados. Como resultado,
las pruebas t y F ya no son vlidas.
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 89 / 100
El Modelo de Regresin Lineal General Autocorrelacin
Naturaleza y Causas de la Autocorrelacin
Existencia de ciclos y tendencias.
Variables omitidas.
Relaciones no lineales.
Relaciones dinmicas.
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 90 / 100
El Modelo de Regresin Lineal General Autocorrelacin
Deteccin de Autocorrelacin
Examinacin visual de los residuos en el tiempo.
Correlograma de las perturbaciones.
Contrastes de Autocorrelacin.
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 91 / 100
El Modelo de Regresin Lineal General Autocorrelacin
Durbin-Watson
El test estadstico es:
d =

T
t=2
(e
t
e
t1
)
2

T
t=1
e
2
t
= 2 (1 r )
_
e
2
1
+e
2
T
_

T
t=1
e
2
t
(62)
donde r =
_

T
t=2
e
t
e
t1
_
/
_

T
t=1
e
2
t
_
es el coeciente de
autocorrelacin de primer orden, un estimador de . Si T
d - 2 (1 r ) (63)
La hiptesis nula es H
0
: = 0
Cuando d - 2 tenemos evidencia de ausencia de autocorrelacin.
Cuando d - 0 tenemos evidencia de correlacin positiva y cuando
d - 4 tenemos evidencia de autocorrelacin negativa.
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 92 / 100
El Modelo de Regresin Lineal General Autocorrelacin
Breusch-Godfrey
Es una prueba construida en base a un multiplicador de Lagrange, con
la hiptesis nula
H
0
: no autocorrelacin en u
t
(64)
H
0
: u
t
~ AR(p) o u
t
~ MA(p) (65)
El estadstico es
LM = TR
2
~
2
(p) (66)
donde R
2
es el coeciente de determinacin de la regresin de e
t
contra x
t
y los p primeros rezagos de e
t
.
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 93 / 100
El Modelo de Regresin Lineal General Autocorrelacin
Box-Pierce-Ljung
Hiptesis nula:
H
0
: no autocorrelacin en u
t
(67)
Estadstico:
Q = T
p

j =1
r
2
j
~
2
(p) (68)
donde r =
_

T
t=j +1
e
t
e
tj
_
/
_

T
t=1
e
2
t
_
.Asintticamente
equivalente a Breusch-Godfrey cuando la hiptesis nula es verdadera.
Una modicacin del estadstico Q propuesta por Ljung:
Q
/
= T(T + 2)
p

j =1
r
2
j
T j
~
2
(p) (69)
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 94 / 100
El Modelo de Regresin Lineal General Autocorrelacin
Correccin de la Autocorrelacin
Si conocemos usamos el estimador MCG. Para ello debemos
transformar el modelo original con la matriz P.
=
1
1
2
_

_
1
2

T1
1
T2

2
1
T3
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

T1

T2

T3
1
_

_
Se puede vericar que:

1
=
_

_
1 0 0 0
1 +
2
0 0
0 1 +
2
0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 1 +
2

0 0 0 1
_

_
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 95 / 100
El Modelo de Regresin Lineal General Autocorrelacin
Correccin de la Autocorrelacin
Como
1
= P
/
P se puede llegar a:
P =
_

_
_
1
2
0 0 0 0
1 0 0 0
0 1 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 1 0
0 0 0 1
_

_
Tenemos que el modelo transformado es la "cuasi-diferencia" del
modelo original:
y
+
= Py =
_

_
_
_
1
2
_
y
1
y
2
y
1
.
.
.
y
T
y
T1
_

_
, X
+
= PX =
_

_
_
_
1
2
_
x
1
x
2
x
1
.
.
.
x
T
x
T1
_

_
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 96 / 100
El Modelo de Regresin Lineal General Autocorrelacin
Correccin de la Autocorrelacin
Si no conocemos usamos el estimador MCGF. Para ello
necesitamos estimar . Una alternativa es a travs del mtodo
iterativo de Cochrane-Orcutt. Los pasos son los siguientes:
1
Estimar el modelo original (sin transformar) y guardar los residuos.
2
Regresionar esos residuos contra su primer rezago. Obtendremos aqu
un primer estimado de .
3
Con este estimado transformamos el modelo original y obtenemos las
cuasidiferencias.
4
Estimamos el modelo transformado y obtenemos un estimado de .
5
Usamos este en el modelo original para calcular una nueva serie de
residuos. Usamos estos nuevos residuos para calcular un nuevo
estimado de .
6
Repetimos los pasos 3 al 5 hasta converger a un estimado de .
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 97 / 100
El Modelo de Regresin Lineal General Autocorrelacin
Correccin de la Autocorrelacin
Este procedimiento se aplica a t = 2, ..., T ya que la primera
observacin no tiene cuasidiferencia.
El mtodo de Prais y Winsten es similar al de Cochrane-Orcutt con la
diferencia de que s podemos incluir la primera observacin y en vez
de tomarle la cuasidiferencia le aplicamos la
transformacin
_
_
1
2
_
y
1
.
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 98 / 100
El Modelo de Regresin Lineal General Autocorrelacin
Correccin de la Autocorrelacin
En vez de usar MCGF podemos usar MCO pero con errores estndar
corregidos por autocorrelacin usando un procedimiento desarrollado
por Newey-West. Este procedimiento es una extensin de la matriz
consistente de White, que genera errores estndar robustos.
Recordemos que
Var (b
MCO
) =
1
T
_
X
/
X
T
_
1
_
1
T
X
/
_

X
_ _
X
/
X
T
_
1
=
1
T
_
X
/
X
T
_
1
Q
+
_
X
/
X
T
_
1
(70)
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 99 / 100
El Modelo de Regresin Lineal General Autocorrelacin
Correccin de la Autocorrelacin
El estimador de Newey-West de Q
+
es consistente ante
heteroscedasticidad y autocorrelacin:
^
Q
+
=
1
T
T

t=1
e
2
t
x
t
x
/
t
+
1
T
L

l =1
T

t=l +1
_
1
l
L + 1
_
e
t
e
tl
_
x
t
x
/
tl
+x
tl
x
/
t
_
(71)
donde L es el mximo rezago, esto es, autocorrelaciones con rezagos
mayores a L son lo sucientemente pequeas para ser ignoradas. El
econometrista determina L. Usualmente se trabaja con L - T
1/4
.
Jorge Rodas (INFOPUC) Introduccin Febrero 2014 100 / 100

S-ar putea să vă placă și