Documente Academic
Documente Profesional
Documente Cultură
Carlos Velasco1
1 Departamento de Economa
Econometra I
Mster en Economa Industrial
Universidad Carlos III de Madrid
Curso 2007/08
y = 0 + 1 x1 + 2 x2 + u
0 es el trmino constante.
1 mide el efecto sobre y de un cambio en x1 , manteniendo otros
factores constantes.
2 mide el efecto sobre y de un cambio en x2 , manteniendo otros
factores constantes.
Generalizacin de RLS.3:
E (u|x1 , x2 ) = 0.
El valor esperado de u debe ser igual para todas las
combinaciones de x1 y x2 : implica que los otros factores que
afectan a y deben estar no relacionados (en media) con x1 y x2 .
EJEMPLO ecuacin de salarios: los niveles medios habilidad
deben ser iguales para todas las combinaciones de educacin y
experiencia en la poblacin de trabajadores.
EJEMPLO resultados estudiantes: otros factores que afecten a la
nota (caractersticas del instituto o del estudiante), NO deben
estar, en promedio, relacionados con la financiacin ni con el
ingreso familiar medio.
EJEMPLO modelo cuadrtico: en este caso
E u|inc, inc 2 = E (u|inc) = 0.
C Velasco (MEI, UC3M) Anlisis de Regresin Mltiple: Estimacin UC3M, 2006 7 / 67
Motivacin para la regresin mltiple
Modelo con k variables independientes
y = 0 + 1 x1 + 2 x2 + + k xk + u
k + 1 parmetros.
0 es el trmino constante.
j mide el efecto sobre y de un cambio en xj , manteniendo otros
factores constantes (parmetros de pendiente).
u : otros factores que afectan y y no son x1 , x2 , . . . , xk .
Generalizacin de RLS.3:
E (u|x1 , x2 , . . . , xk ) = 0.
y = 0 + 1 x1 + 2 x2 .
y = 0 + 1 x1 + 2 x2 + + k xk .
y = 0 + 1 x1 + 2 x2 + + k xk .
y = 0 + 1 x1 + 2 x2
y = 1 x1 + 2 x2 .
y = 1 x1 .
y = 2 x2 .
Regresin Mltiple:
colGPA = 0 + 1 ACT + v
y = 0 + 1 x1 + 2 x2 + + k xk
y = 1 x1 + 2 x2 + + k xk .
Si x2 = = xk = 0 (mantenemos x2 , . . . , xk constantes)
entonces
y = 1 x1 .
n = 526, WAGE1.
Variable dependiente en logaritmos: el salario aumenta en un
j 100 % si xj = 1
ui = yi yi
= yi 0 1 xi1 2 xi2 k xik .
u = 0
d n u, xj = 0,
Cov j = 1, . . . , k
El punto
(x1 , x2 , , . . . xk , y )
pertenece la recta de regresin MCO.
donde ri1 son los residuos MCO de una regresin simple de x1 sobre
x2 , con la misma muestra.
1 Regresamos la variable x1 sobre la variable x2 .
Obtenemos los residuos r1 (la parte de x1 que no puede ser
explicada por x2 , incorrelada con x2 ) : r1 es la parte de x1 filtrada
de x2 .
2 Regresamos y sobre los residuos r1 , lo que nos dar el efecto
parcial de x1 sobre y , corregido por x2 .
(Como ri1 tienen media cero, 1 es equivalente a una regresin
habitual con constante).
Hay dos casos especiales en los que una regresin simple de y sobre
x1 produce el mismo estimador MCO para x1 que una regresin
mltiple sobre x1 y x2 , es decir
1 = 1
en
y = 0 + 1 x1
y = 0 + 1 x1 + 2 x2 .
i=1
y = 0 + 1 x1 + 2 x2 + + k xk + u,
E (u|x1 , x2 , . . . , xk ) = 0.
pero no en
porque x3 = x1 + x2 .
En todos estos casos no se pueden calcular los estimadores
MCO.
Solucin: especificar con cuidado el modelo: eliminar la(s)
variable(s) redundante(s).
Otra causa: el tamao muestral n es demasiado pequeo,
n < k + 1.
y = 0 + 1 x1 + 2 x2 + u
y se satisfacen RLM.1-4.
Suponemos que el objeto de inters es 1 , el efecto parcial de x1
sobre y .
Para obtener estimadores insesgados deberamos incluir x2 en la
regresin, pero no lo hacemos,
y = 0 + 1 x1 .
Modelo verdadero:
Modelo estimado:
wage = 0 + 1 educ + v ,
WAGE1, n = 526
y = 0 + 1 x1 + 2 x2 + 3 x3 + u
y se satisfacen RLM.1-4.
Se omite x3 , y se ajusta
y = 0 + 1 x1 + 2 x2 .
Var (u|x1 , . . . , xk ) = 2 .
E (y |x) = 0 + 1 x1 + 2 x2 + + k xk
Var (u|x) = 2
donde
n
X 2
SSTj = xij xj
i=1
Varianza del error, 2 : cuanto ms ruido, mayor Var j .
Es una propiedad de la poblacin, no depende de n, y es
desconocido.
La nica forma de reducirlo es introducir ms variables explicativas,
pero eso no es siempre deseable ni posible.
Variacin total de xj , SSTj : cuanto mayor, menor Var j .
Es difcil incrementarla, a parte de aumentar n.
SSTj = 0 no est permitido por RLM.4.
I Si x1 y x2 NO estn incorrelados:
1 Si 2 6= 0, 1 es sesgado, 1 es insesgado y Var 1 < Var 1 .
2 Si 2 = 0, 1 y 1 son insesgados y Var 1 < Var 1 .
n1 ni=1 ui2 .
Como los errores
Pnno son observables, un primer estimador sera
1 1 2
n SSR = n i=1 ui , pero este no es insesgado.
Los residuos ui satisfacen k + 1 restricciones.
Por tanto los residuos tienen n k 1 grados de libertad:
Desviacin estndar de j :
sd j = h i1/2 .
SSTj 1 Rj2
Error estndar de j :
se j = h i1/2 .
SSTj 1 Rj2
Slo es vlida en presencia de RLM.5 (hay que cambiar sd j y
se j ).