Sunteți pe pagina 1din 67

Econometría I

(572716-572317)

Leonardo Salazar
lesalaza@udec.cl

Semestre 1-2018

1/2
Estimación

Un estimador es una regla, o estrategia, para utilizar los


datos con el fin de estimar un cierto parámetro. Así, un
estimador es una función de la forma
θ̂ = θ̂ (X1 , X2 , X3 , . . . , Xn ), es decir depende de las
observaciones de la muestra y, por lo tanto, es una V.A
Un valor específico para θ̂ se denomina estadístico o
estimado.

2 / 66
Estimación

El estimador, generalmente, presentará diferencias respecto


del verdadero parámetro poblacional.
Ejemplo:
Asumamos que la media de una población es µ = 4, pero la
desconocemos.
Si de la población se extrae una muestra de 3 elementos: 2, 5 y
11, entonces se tiene que X̄ = 6 y la mediana será ME = 5.
Luego, la mediana pasaría a ser el mejor estimador de (por
estar más cerca de dicho valor).
Ahora, si se extrae otra muestra: 2, 6 y 7, entonces X̄ = 5 y
ME = 6. En este caso X̄ será el mejor estimador de µ.

3 / 66
Propiedades deseadas de los estimadores

Insesgamiento:
Un estimador del parámetro θ es insesgado si la media de su
distribución muestral es igual a θ. Formalmente se puede
escribir de la siguiente forma
 
E θ̂ = θ

ó
     
Sesgo θ̂ θ ≡ E θ̂ − θ = E θ̂ − θ = 0

4 / 66
Propiedades deseadas de los estimadores

θ̂1 es un estimador insesgado de θ.


En cambio, θ̂2 es un estimado sesgado
  de θ y el sesgo, que es
positivo, viene dado por Sesgo θ̂2 θ ≡ E θ̂2 − θ > 0.

De acuerdo a la propiedad deseada de insesgamiento, se


puede decir que θ̂1 es preferido a θ̂2 .
5 / 66
Propiedades deseadas de los estimadores

¿Cuál estimador es preferido, θ̂1 o θ̂2 ?


Ambos estimadores son insesgados. Por lo tanto, de acuerdo a
la propiedad de insesgamiento, no existe estimador preferido.
Se debería ser indiferente entre usar uno o el otro.
Sin embargo, la varianza del estimador θ̂1 es más pequeña que
la varianza de θ̂2 . Esto es, el estimador θ̂1 es más preciso.
6 / 66
Propiedades deseadas de los estimadores

Eficiencia:
Un estimador insesgado θ̂1 se dice que es más eficiente que
otro estimador insesgado θ̂2 si la varianza muestral de θ̂1 es
menor que la varianza muestral de θ̂2 . Es decir, θ̂1 insesgado
es más eficiente que θ̂2 insesgado si:
   
Var θ̂1 < Var θ̂2

  h  i2
donde Var θ̂i ≡ E θ̂i − E θ̂i
Luego, del gráfico anterior se deduce que θ̂1 es más eficiente
que θ̂2 .

7 / 66
Propiedades deseadas de los estimadores

¿Cuál estimador es preferido, θ̂1 o θ̂2 ?


θ̂1 es insesgado, pero θ̂2 tiene una varianza menor.

8 / 66
Propiedades deseadas de los estimadores

Error cuadrático medio (ECM):

El error cuadrático medio (ECM) de un estimador θ̂, se define


como:

   2 
ECM θ̂ = E θ̂ − θ
    h  i2
ECM θ̂ = Var θ̂ + Sesgo θ̂

De la definición anterior, se deduce que el estimador que


posee el menor ECM será preferido.

9 / 66
Propiedades deseadas de los estimadores

Ejemplo:
Sea X1 , X2 , . . . , Xn una muestra aleatoria, de alguna
población, tal que: E (Xi ) = µ y Var (Xi ) = σ 2 , ∀i = 1, n.
Considere los siguientes posibles estimadores de µ:
n
P
Xi
i=1
θ̂1 = X̄ θ̂2 =
n+1

Obtener el ECM de ambos estimadores.


Demostrar
  que para algún
 valor de µ se cumple que
ECM θ̂2 < ECM θ̂1 , mientras que la proposición inversa
es cierta para otros valores de µ.

10 / 66
Propiedades deseadas de los estimadores

Linealidad:
Se dice que θ̂ es un estimador lineal de θ si es una función
lineal de las observaciones muestrales.

Ejemplo: ¿Es X̄ un estimador lineal de µ?

11 / 66
Propiedades deseadas de los estimadores

Mejor Estimador Lineal e Insesgado:

Si θ̂ es lineal, insesgado y posee la minima varianza dentro


de toda la clase de estimadores lineales e insesgados de θ,
entonces se dice que es el mejor estimador lineal e insesgado
(MELI)

12 / 66
Métodos de Estimación

Existen, en general, tres métodos para obtener estimadores:


1 Método de Máxima Verosimilitud (MV).
2 Método de Mínimos Cuadrados Ordinarios (MCO).
3 Método de los Momentos (MM) y su extensión al Método
Generalizado de los Momentos (MGM).

13 / 66
Análisis de Regresión

El análisis de regresión se relaciona, principalmente, con la


estimación y/o predicción de la media de la población o valor
promedio de la variable dependiente, con base en los valores
conocidos o fijos de las variables explicativas.
Antes de utilizar formalmente el concepto de análisis de
regresión, se mostrá la intuición de su significado a través de
un ejemplo.
Se asumirá que existe un población compuesta por 60
familias. Cada familia fue encuestada y se le preguntó
respecto a su ingreso ($) y gasto en consumo semanal ($).
En base a los datos de ingreso, las familias fueron divididas en
10 grupos y la información de su gasto en consumo fue
tabulada.

14 / 66
Análisis de Regresión

15 / 66
Análisis de Regresión

Los puntos centrales para cada nivel de ingreso, muestran los


valores medios condicionales de Y . Esto es: E (Y |X ).
Al unir los valores de las medias condicionales, se obtiene la
recta de regresión poblacional o función de regresión
poblacional.
También se puede decir que la función graficada corresponde
a la regresión de Y sobre X.
16 / 66
Análisis de Regresión
Notar que alrededor de la media condicional, existe una
dispersión de datos de gasto en consumo. Esta idea se puede
representar a través de la siguiente figura.

17 / 66
Función de Regresión Poblacional (FRP)

De la exposición anterior, es claro que la media condicional es


función de Xi . Esto es:

E (Y |Xi ) = f (Xi )
La expresión anterior se conoce cono FRP y señala como la
respuesta promedio de la variable Y varía con X .
¿Qué forma adopta f (Xi )?
En la realidad no conocemos toda la población y por lo tanto
es complicado conocer la forma de f (Xi ).
La teoría económica o investigaciones previas pueden ayudar a
definir la forma de f (Xi ).
Generalmente una buena aproximación es asumir que f (Xi ) es
lineal en Xi .

E (Y |Xi ) = β1 + β2 Xi

18 / 66
Función de Regresión Poblacional (FRP)

E (Y |Xi ) = β1 + β2 Xi

β1 y β2 son parámetros de la regresión y se conocen,


respectivamente, como el intercepto y el coeficiente de la
pendiente.
Cuando la FRP adopta una forma lineal, se conoce con el
nombre de Función de Regresión Poblacional Lineal
(FRPL)
Por lo tanto, el desafío del análisis de regresión
 es obtener los
valores estimados de los parámetros β̂1 , β̂2 que cumplan
con las propiedades deseadas de los estimadores.

19 / 66
Función de Regresión Poblacional (FRP)

Notar que el concepto de lineal se refiere a lineal en los


parámetros. Esto es, al especificar la FRP, los parámetros
sólo pueden estar elevados a su primera potencia.

f (Xi ) = β1 + β2 Xi o f (Xi ) = β1 + β23 Xi son ejemplos de
FRP no lineales en los parámetros.

Notar que en f (Xi ) = β1 + β2 Xi , Xi no está elevado a su
primera potencia. Sin embargo, el modelo sigue siendo lineal
en los parámetros.

20 / 66
Especificación Estocástica del FRP

Es claro que de los datos tabulados en el ejemplo de


ingreso-gasto en consumo, a medida que aumenta el ingreso,
el gasto de consumo familiar promedio también aumenta.
Lo anterior, sin embargo, no es necesariamente cierto cuando
valores individuales de Xi son analizados. Por ejemplo, en la
tabla se puede ver que cuando el ingreso es de $100 existe una
familia que consume $65, lo cual es menor al gasto en
consumo de una familia que tiene como ingreso $80.
Por lo tanto es claro que sobre y bajo al esperanza
condicional, E (Y |Xi ), existirán observaciones de gasto en
consumo para distintas familias

21 / 66
Especificación Estocástica del FRP

Por consiguiente, el gasto en consumo de la i-esima familia


(Yi ) se puede expresar como una desvío (diferencia) respecto
a su valor esperado. La diferencia se denota con la expresión
µi . Esto es:

µi = Yi − E (Y |Xi )

Yi = E (Y |Xi ) + µi
Donde la variable µi (que puede ser positiva o negativa), se
conoce como perturbación estocástica o término de error
estocástico.

22 / 66
Especificación Estocástica del FRP
Si E (Y |Xi ) = β1 + β2 Xi , entonces la expresión
Yi = E (Y |Xi ) + µi , se puede plantear como:

Yi = β1 + β2 Xi + µi
La ecuación anterior plantea, por ejemplo, que el nivel de
gasto en consumo de una familia (Yi ) está relacionado
linealmente con su ingreso (Xi ), más el término de
perturbación (µi ).
Notar que al fijar un valor de Xi y tomando esperanzas a
ambos lados de Yi = E (Y |Xi ) + µi , se obtiene:

E (Yi |Xi ) = E [E (Y |Xi )] + E (µi |Xi )


E (Yi |Xi ) = E (Y |Xi ) + E (µi |Xi )
E (µi |Xi ) = 0
23 / 66
Especificación Estocástica del FRP

E (µi |Xi ) = 0 indica que el hecho que la recta de regresión


pasa a través de las medias condicionales de Y implica que los
valores de la media condicional de µi , condicionadas al valor
dado de X , son cero.
Notar que Yi = β1 + β2 Xi + µi indica, por ejemplo, que el
gasto en consumo de las familias no puede ser sólo explicado
por su nivel de ingreso.
La pregunta interesante, es cómo a partir de una muestra
extraída de la población se puede estimar la FRP.
Lo anterior se puede responder recurriendo a la Función de
Regresión Muestral (FRM)

24 / 66
Función de Regresión Muestral (FRM)
Supongamos que no conocemos la información de las 60
familias del ejemplo de gasto en consumo e ingreso por
semana.
Sin embargo, tenemos información de dos muestra tomadas
en forma aleatoria

Muestra 1 Muestra 2

25 / 66
Función de Regresión Muestral (FRM)
Al graficar ambas muestras se obtiene un diagrama de
dispersión.
Si en dicho diagrama se traza una recta que se ajuste a los
punto se obtiene, entonces, una función de regresión
muestral (FRM).

26 / 66
Función de Regresión Muestral (FRM)

¿Cuál de la dos rectas, FRM1 o FRM2, representa de mejor


forma a la FRP?
Si no conocemos la FRP (lo cual es siempre el caso), no existe
forma de saber cuál es mejor.
En general, se considera que las FRM son una buena
aproximación de la FRP, pero debido a fluctuaciones
muestrales nunca coincidirán en forma exacta.
La idea del análisis de regresión es encontrar una «regla» que
minimice las diferencias.

27 / 66
Función de Regresión Muestral (FRM)

En forma análoga a la FRP, Yi = β1 + β2 Xi + µi , se puede


desarrollar una función de regresión muestral (FRM).
La FRM puede ser escrita como:

Yi = β̂1 + β̂2 Xi + µ̂i

Ŷi = β̂1 + β̂2 Xi

28 / 66
Función de Regresión Muestral (FRM)

Notar que para X = Xi , se tiene una correspondiente


observación muestral. Esto es, Y = Yi .
Luego, se verifica la siguiente relación en términos del FRM:

Yi = Ŷi + µ̂i
Dicha expresión, en forma análoga, se cumple al utilizar la
FRP:

Yi = E ( Y | Xi ) + µi

29 / 66
FRM y FRP

30 / 66
Modelo de Regresión: Método de Mínimos Cuadrados
Ordinarios (MCO)
El método de Mínimos Cuadrados Ordinarios (MCO) tiene
propiedades estadísticas que lo hacen ser preferido por sobre
otros métodos de estimación
Bajo ciertos supuestos se puede demostrar que los estimadores
de MCO son MELI.
Recordar que la FRM está dada por:

Yi = β̂1 + β̂2 Xi + µ̂i


| {z }
Ŷi
Por lo tanto:

Yi = Ŷi + µ̂i
µ̂i = Yi − Ŷi
µ̂i = Yi − β̂1 − β̂2 Xi
31 / 66
Mínimos Cuadrados Ordinarios

32 / 66
Mínimos Cuadrados Ordinarios

El método de MCO minimiza la sumatoria de errores al


cuadrado a través de seleccionar el valor de β̂1 y β̂2 . Esto es:

n
X n 
X 2
Min µ̂2i = Yi − β̂1 − β̂2 Xi
{β̂1 ,β̂2 } i=1 i=1

33 / 66
Mínimos Cuadrados Ordinarios

La condición de primero orden (CNPO) con respecto a β̂1 es:

Pn 2
∂ i=1 µ̂i
=0
∂ β̂1
n 
X 
2 Yi − β̂1 − β̂2 Xi · −1 = 0
i=1
n
X n
X
Yi − nβ̂1 − β̂2 Xi = 0
i=1 i=1

n
P n
P
Yi Xi
i=1 i=1
β̂1 = − β̂2 = Ȳ − β̂2 X̄ (1)
n n

34 / 66
Mínimos Cuadrados Ordinarios
La condición de primero orden (CNPO) con respecto a β̂2 es:
Pn 2
∂ i=1 µ̂i
=0
∂ β̂2
n 
X 
2 Yi − β̂1 − β̂2 Xi · −Xi = 0
i=1
n
X n
X n
X
Yi Xi − β̂1 Xi − β̂2 Xi2 = 0
i=1 i=1 i=1
Reemplazado (1) en la última ecuación, se tiene:
n
P n
P 
n Yi Xi n n
i=1
− β̂2 i=1
X X X
Xi2 = 0

Yi Xi − 
 n
 Xi − β̂2
i=1
n 
i=1 i=1
| {z }
β̂1
35 / 66
Mínimos Cuadrados Ordinarios

n n n
! n n
X X X X X
n Yi Xi − Yi − β̂2 Xi Xi − nβ̂2 Xi2 = 0
i=1 i=1 i=1 i=1 i=1
n n n n
!2 n
X X X X X
n Yi Xi − Yi Xi + β̂2 Xi − nβ̂2 Xi2 = 0
i=1 i=1 i=1 i=1 i=1
 !2 
n
X n
X n
X n
X n
X
n Yi Xi − Yi Xi − β̂2 n Xi2 − Xi =0
i=1 i=1 i=1 i=1 i=1

Pn Pn Pn
n i=1 Yi Xi − i=1 Yi i=1 Xi
β̂2 = (2)
n i=1 Xi − ( i=1 Xi )2
Pn 2 Pn

36 / 66
Mínimos Cuadrados Ordinarios

Por lo tanto, el valor de β̂1 y β̂2 de MCO está dado por las
expresiones (1) y (2), respectivamente.
Notar que al dividir al multiplicar el numerador y denominador
de β̂2 en (2) por 1/n se tiene:

Pn Pn
Pn Yi X
i=1 i
i=1 Yi Xi −
i=1
β̂2 = Pn n 2
Pn 2 ( i=1 Xi )
i=1 Xi − n
Pn
i=1 Yi Xi − nY X
β̂2 = P 2
n 2
i=1 Xi − nX

37 / 66
Mínimos Cuadrados Ordinarios

Ahora, dado que


Pn   Pn
i=1 Xi − X Yi − Y = i=1 Yi Xi − nY X
Pn 2 P n 2
i=1 Xi − X = i=1 Xi2 − nX
β̂2 puede ser expresado como:
Pn   
i=1 Xi − X P Yi − Y n
xi yi
β̂2 = 2 = Pi=1
n 2
i=1 xi
Pn 
i=1 Xi − X
   
donde xi = Xi − X y yi = Yi − Y . Estas expresiones se
conocen como desviaciones (o desvíos respecto de la media).1

1
Pn Pn
Recordar que i=1
xi = i=1
yi = 0.
38 / 66
Mínimos Cuadrados Ordinarios

Ahora, dado que: P


n Pn
(Xi −X )(Yi −Y ) xi yi
Cov (X , Y ) = i=1
n−1 P = i=1
n−1
Pn 2 n
(Xi −X ) xi2
Var (X ) = i=1n−1 = n−1 i=1

Luego, β̂2 también puede ser expresado como:


Cov (X , Y )
β̂2 =
Var (X )

39 / 66
Mínimos Cuadrados Ordinarios

Los estimadores de MCO poseen propiedades algebraicas. Esto


es, propiedades que se verifican por el simple hecho de ocupar
el método MCO.
A continución se mencionan y demuestras las más utilizadas.
Propiedad 1 : - El promedio de la variable dependiente estimada,
Ŷ , es igual al promedio de la variables dependiente observada, Y .

Ŷi = β̂1 + β̂2 Xi


 
Ŷi = Ȳ − β̂2 X̄ +β̂2 Xi
| {z }
β̂1
 
Ŷi = Ȳ + β̂2 Xi − X̄
| {z }
xi

40 / 66
Mínimos Cuadrados Ordinarios

Ŷi = Ȳ + β̂2 xi
n
X n
X n
X
Ŷi = Y + β̂2 xi
i=1 i=1 i=1
Xn
Ŷi = nY
i=1
Pn
i=1 Ŷi
=Y
n
Por lo tanto, la primera propiedad algebraica implica que:

Ŷ = Y

41 / 66
Mínimos Cuadrados Ordinarios
Propiedad
  2 : El promedio de los errores estimados es igual a cero
µ̂ = 0

µ̂i = Yi − Ŷi
 
µ̂i = Yi − β̂1 + β̂2 Xi
µ̂i = Yi − β̂1 − β̂2 Xi
 
µ̂i = Yi − Ȳ − β̂2 X̄ − β̂2 Xi
   
µ̂i = Yi − Ȳ − β̂2 Xi − X̄
µ̂i = yi − β̂2 xi
n
X n
X n
X
µ̂i = yi − β̂2 xi
i=1 i=1 i=1
Xn
µ̂i = 0 → µ̂ = 0
i=1 42 / 66
Mínimos Cuadrados Ordinarios
Propiedad 3 : La función de regresión muestral (FRM) pasa a
través de las medias muestrales de Y y de X .

Si en algún momento la variable independiente Xi coincide con la


media de los datos, es decir Xi = X , entonce el valor predicho por
la FRM será:

Ŷi = β̂1 + β̂2 Xi


Ŷi = β̂1 + β̂2 X
Ŷi = Y − β̂2 X + β̂2 X
Ŷi = Y

Por lo tanto, cuando Xi = X , el valor predicho por la FRM será


Ŷi = Y . Esto es, la FRM pasa a través de las medias muestrales
43 / 66
Mínimos Cuadrados Ordinarios

44 / 66
Mínimos Cuadrados Ordinarios
Propiedad 4 : Los residuos estimados, µ̂i , no están correlacionados
con el valor predicho de la variable dependiente, Ŷi .
Para demostrar lo anterior, la FRM puede ser modificada y
presentada en su forma de desvíos respecto de la media. Esto es:

Ŷi = β̂1 + β̂2 Xi


Ŷi = Y − β̂2 X̄ + β̂2 Xi

Restando Ŷ = Y de ambos lados, se tiene:

Ŷi − Ŷ = Y − β̂2 X̄ + β̂2 Xi − Ŷ


   
Ŷi − Ŷ = β̂2 Xi − X̄
ŷi = β̂2 xi
La expresión anterior se conoce como al FRM expresada como
desvíos respecto de las medias.
45 / 66
Mínimos Cuadrados Ordinarios

Utilizando la última expresión y multiplicando ambos lados por µ̂i ,


se tiene:

ŷi µ̂i = β̂2 xi µ̂i


n
X n
X
ŷi µ̂i = xi µ̂i
i=1 i=1
Xn Xn  
ŷi µ̂i = xi yi − β̂2 xi
i=1 i=1

46 / 66
47 / 66
Mínimos Cuadrados Ordinarios

n
X n
X n
X
ŷi µ̂i = xi yi − β̂2 xi2
i=1 i=1 i=1
Xn
ŷi µ̂i = 0
i=1

La expresión anterior indica que residuos estimados, µ̂i , no están


correlacionados con el valor predicho de la variable dependiente,
Ŷi .2

2
Pn
Notar
P que para llegar a i=1
ŷi µ̂i = 0 se utilizó el hecho que
n
xi yi
β̂2 = Pi=1
n .
x2
i=1 i 47 / 66
Mínimos Cuadrados Ordinarios
Propiedad 5 : Los residuos estimados, µ̂i , no están correlacionados
con Xi .

Esta propiedad se deriva de la CNPO con respecto a β̂2 . Recordar:


Pn 2
∂ i=1 µ̂i
=0
∂ β̂2
n 
X 
2 Yi − β̂1 − β̂2 Xi · −Xi = 0
i=1
n
X
−2 µ̂i Xi = 0
i=1
Xn
µ̂i Xi = 0
i=1
La última expresión confirma que la covarianza entre los errores
estimados y Xi es cero y por lo tanto las variables no están
48 / 66
Mínimos Cuadrados Ordinarios

Cuando el objetivo del investigador es solo estimar β̂1 y β̂2 ,


entonces el método de MCO es suficiente.
Sin embargo, el objetivo final nunca será la sola estimación. El
objetivo es hacer inferencia respecto de los parámetros
poblaciones desoconocidos, β1 y β2 , en base a sus estimadores
muestrales, β̂1 y β̂2 .
Para hacer lo anterior, se debe establecer algunos supuestos
para que los estimadores posean ciertas propiedades
estadísticas deseadas.
Cuando al método MCO se le agregan los supuestos
estadísticos, se denomina Modelo Clásico de Regresión Lineal.
A continuación se describirá, brevemente, cada uno de los 10
supuestos que garantizan las propiedades estadísticas.

49 / 66
Modelo Clásico de Regresión Lineal

Supuesto 1: Modelo de regresión lineal.


El modelo a estimar debe ser lineal en los parámetros.
Ejemplos modelos lineales en los parámetros:
1 Yi = β1 + β2 Xi + µi
2 Yi = β1 + β2 X1i + µi
3 ln (Xi ) = β1 + β2 ln (Xi ) + µi
Ejemplos modelos no lineales en los parámetros:

1 Yi = β1 + β2 Xi + µi
2
2 Yi = β1 + β2 X1i + µi
3 ln (Xi ) = β1 + β24 ln (Xi ) + µi

50 / 66
Modelo Clásico de Regresión Lineal

Supuesto 2 : Los valores de X son fijos en muestreos


repetidos.

Los valores que toma el regresor X son considerados fijos


muestreo repetido. Esto es, si la muestra se puede repetir, el
valor de X permanece fijo, siendo el valor de Y el que puede
variar.

El análisis de regresión, por lo tanto, es un análisis de


regresión condicional. Esto es, el análisis está condicionado a
los valores del o los regresores Xs. (ver a modo de ejemplo de
la muestra 1 y muestra 2 tomados de la población en el caso
del gasto en consumo e ingreso por semana).

51 / 66
Modelo Clásico de Regresión Lineal
Supuesto 3 : El valor medio de las perturbaciones, µi , es igual
a cero.
Este supuesto establece que dado un valor de Xi , la media, o
el valor esperado, del término estocástico aleatorio de
perturbación, µi , es igual a cero. Esto es, el valor de la media
condicional de µi es cero:

E (µi ) = E (µi |Xi ) = 0

La idea tras este supuesto que que aquellos factores que no


están explícitamente incorporados en el modelo, y por
consiguiente están medidos en µi , no afectan en forma
sistemática el valor de la media de Y .
Por lo tanto, la idea que los valores positivos de µi se
cancelan con sus valores negativos, de forma que la suma y el
promedio son cero.
52 / 66
Modelo Clásico de Regresión Lineal

Notar que el supuesto E (µi |Xi ) = 0 implica que


E (Yi |Xi ) = β1 + β2 Xi .
53 / 66
Modelo Clásico de Regresión Lineal

Supuesto 4 : Homoscedasticidad o igual varianza de µi .


Este supuesto establece que independiente del valor de Xi , la
dispersión (varianza) de µi es siempre la misma. Esto es:

Var (µi ) = Var (µi |Xi )


Var (µi ) = E [µi − E (µi ) |Xi ]2
h i
Var (µi ) = E µ2i |Xi
Var (µi ) = σ 2

Luego, este supuesto establece que la varianza de los µi es


idéntica, positiva y constante e igual a σ 2 .

54 / 66
Modelo Clásico de Regresión Lineal

55 / 66
Modelo Clásico de Regresión Lineal

Si el supuesto de homoscedasticidad no se cumple, entonces existe


evidencia de heteroscedasticidad. Esto es, la dispersión de µi en
torno a la media condicional no es la misma a través de los
distintos valores de Xi .

Este caso se expresa como:

Var (µi |Xi ) = σi2

56 / 66
Modelo Clásico de Regresión Lineal

57 / 66
Modelo Clásico de Regresión Lineal

Supuesto 5 : No existe autocorrelación entre las


perturbaciones.
Dado dos valores cualquiera de X , Xi y Xj , con i 6= j, la
correlación entre dos µi y µj es cero. Esto se expresa como:

Cov ( µi , µj | Xi , Xj ) = Cov (µi , µj )


Cov ( µi , µj | Xi , Xj ) = E {[ µi − E (µi )| Xi ] [ µj − E (µj )| Xji ]}
Cov ( µi , µj | Xi , Xj ) = E [( µi | Xi ) ( µj | Xj )]
Cov ( µi , µj | Xi , Xj ) = E (µi · µj )
Cov ( µi , µj | Xi , Xj ) = 0

58 / 66
Modelo Clásico de Regresión Lineal

La idea tras el supuesto de no autocorrelación es como sigue:


Suponga que la FRP está dada por Yt = β1 + β2 Xt + µt y
que existe autocorrelación. Específicamente asuma que µt
está positivamente correlacionada con µt−1 .
Luego, Yt no depende solamente de Xt sino que también de
µt−1 .
Por lo tanto, no necesariamente se cumplirá que las
perturbaciones de ut en torno a la media se anulen. Esto es, el
supuesto 4 es probable que no se cumpla.

59 / 66
Modelo Clásico de Regresión Lineal

Autocorrelación Autocorrelación No
Positiva Negativa autocorrelación

60 / 66
Modelo Clásico de Regresión Lineal

Supuesto 6 : La covarianza entre µi y Xi es cero.

Cov (µi , Xi ) = E [(µi − E (µi )) (Xi − E (Xi ))]


Cov (µi , Xi ) = E [µi (Xi − E (Xi ))]
Cov (µi , Xi ) = E [µi Xi ] − E [µi E (Xi )]
Cov (µi , Xi ) = E [µi Xi ] − E (Xi ) E (µi )
Cov (µi , Xi ) = E [µi Xi ]
Cov (µi , Xi ) = 0

61 / 66
Modelo Clásico de Regresión Lineal

La idea de este supuesto es como sigue. Si la FRP está dada por


Yi = β1 + β2 Xi + µi , entonces se ha determinado que el efecto que
otras variables, distintas a X , tiene sobre Y están capturado a
través del término estocástico µi en una forma aditiva.

Luego, si Xi y µi están positiva o negativamente correlacionadas,


µi tendrá un efecto en Xi y, por lo tanto, en Yi .

Lo anterior dificultará aislar el efecto de X y µ en la variable


dependiente Y .

62 / 66
Modelo Clásico de Regresión Lineal

Supuesto 7 : El número de observaciones debe ser mayor que


número de parámetros a estimar.

Si el tamaño de la muestra se denota por n y el número de


parámetros a estimar por k, entonces este supuesto plantea que:

n>k

Si este supuesto no se cumple, entonces los parámetros no


pueden ser estimados.

63 / 66
Modelo Clásico de Regresión Lineal

Supuesto 8 : Variabilidad en los valores de X .

Se asume que los valores de X en una muestra no son todos


iguales. Si este supuesto no se cumple, se tendrá que la
Var (X ) = 0 y por lo tanto β̂2 ni β̂1 pueden ser estimados.

Si X varía levemente, entonces, y a pesar que los parámetros


podrán ser estimados, no servirá mucho para explicar las
variaciones de la variable Y .

64 / 66
Modelo Clásico de Regresión Lineal

Supuesto 9 : El modelo de regresión está correctamente


especificado.

Este supuesto indica que no existe error al especificar el


modelo de regresión. Esto es:
Todas las variables necesarias para explicar Y deben estar en el
modelo.
La forma funcional del modelo es la correcta.
El modelo es linear el los parámetros.

65 / 66
Modelo Clásico de Regresión Lineal

Supuesto 10 : No existe multicolinealidad perfecta.


Este supuesto plantea que no existe una relación lineal exacta
entre las variables independientes en el modelo de regresión.

Suponga que la FRP está dada por


Yi = β1 + β2 X2i + β3 X3i + µi .

Luego, si, por ejemplo, se sabe que X2i = 3 + X3i , entonces se


dice que existe multicolinealidad perfecta. En este caso el
modelo no podrá ser estimado.

66 / 66

S-ar putea să vă placă și