Sunteți pe pagina 1din 47

Caratula (julio)

SESIÓN 1: ANÁLISIS DE REGRESIÓN


LINEAL
SESIÓN 1: ANÁLISIS DE REGRESIÓN LINEAL

Objetivos de la Sesión

• Aprender acerca de las estimación del modelo regresión lineal usando


Stata.
SESIÓN 1: ANÁLISIS DE REGRESIÓN LINEAL

• Modelo de Regresión Lineal General • Linealidad


• Especificación y Supuestos Modelo del • Normalidad
Clásico de regresión lineal • Aplicación práctica
• Mínimos cuadrados ordinarios
• Regresión Lineal
• Post Estimación
• Violación de los supuesto (detección y
solución)
• Multicolinealidad
• Heterocedasticidad
• Autocorrelación
SESIÓN 1: ANÁLISIS DE REGRESIÓN LINEAL

Es una representación simplificada de la


realidad, de las características más importantes
Definición
de determinadas relación entre variables
económicas

Modelo
econométrico (variable dependiente) son las variables
Variables objetos de estudio, se desea encontrar su
endógenas comportamiento.

Elementos
(variable
V. Exógenas corrientes independiente)
Variables ayudan a explicar el
V. Exógenas no corrientes comportamiento de la
exógenas
V. Exógenas con rezago variable modelo.
Valores fijos durante el
muestreo.
SESIÓN 1: ANÁLISIS DE REGRESIÓN LINEAL

DE REGRESIÓN GENERAL

• Un modelo de regresión general esta especificado como:

𝑦 = 𝑓 𝑥𝑖1 , 𝑥𝑖2 , … , 𝑥𝑖𝑘 + 𝜀𝑖

𝑦 = 𝛽1 𝑥𝑖1 + 𝛽2 𝑥𝑖2 + … + 𝛽𝑘 𝑥𝑖𝑘 + 𝜀𝑖

𝑖 = 1, 2, … , 𝑛

• Donde y es la variable dependiente o explicada; 𝑥1 , 𝑥2 , … , 𝑥𝑘 son las variables independientes o explicativas,


y el subíndice i indicia las n observaciones muestrales.

• El término 𝜀𝑖 se le denomina perturbación aleatoria, porque “perturba” la que, de otra manera, sería una
relación determinística estable.
SESIÓN 1: ANÁLISIS DE REGRESIÓN LINEAL

• Modelo de Regresión Lineal General • Linealidad


• Especificación y Supuestos del Modelo • Normalidad
Clásico de regresión lineal • Aplicación práctica
• Mínimos cuadrados ordinarios
• Regresión Lineal
• Post Estimación
• Violación de los supuesto (detección y
solución)
• Multicolinealidad
• Heterocedasticidad
• Autocorrelación
SESIÓN 1: ANÁLISIS DE REGRESIÓN LINEAL

MODELO DE REGRESIÓN LINEAL

• Un modelo de regresión esta especificado como:

𝑦 = 𝛽0 + 𝛽1 ∗ 𝑥 + 𝜇

• El modelo es lineal
• Si los otros factores de 𝜇 se mantiene fijos de modo que ∆𝜇 = 0, entonces 𝑥 tiene efecto lineal en 𝑦:

∆𝑦 = 𝛽1 ∆𝑥 𝑠𝑖 ∆𝜇 = 0

• La linealidad implica que un cambio de 1 unidad en 𝑥 tiene el mismo efecto en 𝑦, cualquiera que
sea el valor inicial de 𝑥.
SESIÓN 1: ANÁLISIS DE REGRESIÓN LINEAL

MODELO DE REGRESIÓN LINEAL

• Como las variables 𝜇, 𝑥 son variables aleatorias, se puede definir la distribución condicional de 𝜇 dado
cualquier valor de 𝑥.

𝐸 (𝜇/𝑥) = 𝐸 𝜇 = 0

• Este supuesto implica que la media condicional de 𝜇 dado x es igual a cero, por lo que el promedio de los
factores inobservables es el mismo y por lo tanto debe ser al promedio de 𝜇 para todo la población. Según
esto, se obtiene:

𝐸(𝑦/𝑥) = 𝛽0 + 𝛽1 𝑥

• Lo cual muestra que la función de regresión poblacional (FPR), 𝐸(𝑦/𝑥) es una función lineal de x.
SESIÓN 1: ANÁLISIS DE REGRESIÓN LINEAL

SUPUESTOS DEL MODELO DE


REGRESIÓN CLÁSICO

a) Los valores de x se mantienen fijos en el muestreo f) 𝑐𝑜𝑣 (𝜇/𝑥) = 0

b) El modelo de regresión es lineal g) n > k

c) 𝐸 (𝜇/𝑥) = 0 h) Variabilidad en los valores de x

d) 𝑣𝑎𝑟 (𝜇/𝑥) = 𝜎 2 i) No existe multicolinealidad

e) No existe autocorrelación.
SESIÓN 1: ANÁLISIS DE REGRESIÓN LINEAL

• Modelo de Regresión Lineal General • Linealidad


• Especificación y Supuestos Modelo del • Normalidad
Clásico de regresión lineal • Aplicación práctica
• Mínimos cuadrados ordinarios
• Regresión Lineal
• Post Estimación
• Violación de los supuesto (detección y
solución)
• Multicolinealidad
• Heterocedasticidad
• Autocorrelación
SESIÓN 1: ANÁLISIS DE REGRESIÓN LINEAL

MÍNIMOS CUADRADOS ORDINARIOS (MCO)

• Este es el método más común para la estimación del modelo de regresión lineal.
• Los parámetros desconocidos de la relación (𝛽𝑖 , 𝜇 ) son el objetivo de la estimación.
PASOS
1) Minimizar la parte indeterminada de la regresión 𝜇

𝜇 = 𝑦 − 𝛽0 − 𝛽1 𝑥 …(1)

2) Elevar al cuadrado cada miembro y sumar

σ 𝜇2 = σ(𝑦 − 𝛽0 − 𝛽1 𝑥)2 …(2)

Obtenemos SCR
SESIÓN 1: ANÁLISIS DE REGRESIÓN LINEAL

MÍNIMOS CUADRADOS ORDINARIOS (MCO)

• Para obtener un punto mínimo: CPO

𝜕 σ 𝜇𝑖2
= σ 2(𝑦𝑖 − 𝛽0 − 𝛽1 𝑥) −1 = 0 … (3)
𝜕 𝛽0

𝜕 σ 𝜇𝑖2
𝜕 𝛽1
= σ 2(𝑦𝑖 − 𝛽0 − 𝛽1 𝑥𝑖 ) −𝑥𝑖 = 0 …(4)

• Operando y reagrupando términos se obtienen ecuaciones normales. Y para obtener la solución,


se divide a la primera ecuación entre n. El resultado es:

𝑦ത = 𝛽0 − 𝛽1 𝑥ҧ …(5)
SESIÓN 1: ANÁLISIS DE REGRESIÓN LINEAL

PROPIEDADES DE LOS
(Teorema de Gauss – Markov)
ESTIMADORES DE MCO

• Se dice que un estimador es MELI si cumple con las siguientes propiedades:


1) Es lineal
2) Es insesgado, es decir:
෢2 = 𝛽2
𝐸 𝛽
3) Tiene varianza mínima
4) Es eficiente
SESIÓN 1: ANÁLISIS DE REGRESIÓN LINEAL

• Modelo de Regresión Lineal General • Linealidad


• Especificación y Supuestos Modelo del • Normalidad
Clásico de regresión lineal • Aplicación práctica
• Mínimos cuadrados ordinarios
• Regresión Lineal
• Post Estimación
• Violación de los supuesto (detección y
solución)
• Multicolinealidad
• Heterocedasticidad
• Autocorrelación
SESIÓN 1: ANÁLISIS DE REGRESIÓN LINEAL

ANÁLISIS DE REGRESIÓN

• Trata de encontrar el comportamiento de la variable endógena (o


dependiente) tomando como base la información de la(s)
variable(s) explicativa(s) (o independientes).

IDENTIDAD FUNDAMENTAL DE LA ECONOMETRÍA

𝑦 = 𝛽0 + 𝛽1 𝑥 + 𝜇
Donde:
STC: Suma total de cuadrados
STC = SEC + SRC
SEC: Suma explicada de cuadrados
SRC: Suma residual de cuadrados
ത 2 = ෍(ෞ
෍(𝑦𝑖 − 𝑦) ෢2 )2 + ෍(𝑦𝑖 − 𝑦ෝ𝑖 )2
𝑦𝑖 − 𝑦
SESIÓN 1: ANÁLISIS DE REGRESIÓN LINEAL

• Modelo de Regresión Lineal General • Linealidad


• Especificación y Supuestos Modelo del • Normalidad
Clásico de regresión lineal • Aplicación práctica
• Mínimos cuadrados ordinarios
• Regresión Lineal
• Post Estimación
• Violación de los supuesto (detección y
solución)
• Multicolinealidad
• Heterocedasticidad
• Autocorrelación
SESIÓN 1: ANÁLISIS DE REGRESIÓN LINEAL

BONDAD DE AJUSTE COEFICIENTE DE CORRELACIÓN: r


 Mide el grado de asociación lineal entre las
variables, por parejas.
COEFICIENTE DE DETERMINACIÓN: 𝑹𝟐
 𝑅 2 sirve para medir la bondad de ajuste de la σ 𝑥𝑖 𝑦𝑖
regresión para con los datos de las variables 𝑟=
𝑥𝑖 , 𝑦𝑖 : σ 𝑥𝑖2 (σ 𝑦𝑖2 )

𝑆𝐸𝐶 σ 𝑦෢𝑖2
𝑅2 = =
𝑆𝑇𝐶 σ 𝑦𝑖2  Puede tener signo positivo o negativo,
dependiendo de la asociación entre las
parejas de variables analizadas.
 Puede tomar valores entre -1 < r < 1
Donde 0 < 𝑅 2 < 1
 Tan solo para el modelo bivariable
 Indica que parte de la variación del modelo es
debida a la variación explicada.

+
𝑟= 𝑅2

SESIÓN 1: ANÁLISIS DE REGRESIÓN LINEAL

PRUEBAS DE HIPÓTESIS E INTERVALOS DE CONFIANZA

Hipótesis:
 𝐻0 : 𝛽1 = 0 → ℎ𝑖𝑝𝑜𝑡𝑒𝑠𝑖𝑠 𝑛𝑢𝑙𝑎
 𝐻1 : 𝛽1 ≠ 0 → ℎ𝑖𝑝𝑜𝑡𝑒𝑠𝑖𝑠 𝑎𝑙𝑡𝑒𝑟𝑛𝑎

Prueba “t” de Student Prueba “F” de Snedecor


 Prueba de significancia a nivel individual  Prueba de significancia conjunta

Rechaza Acepta Rechaza


𝐻0 𝐻0 𝐻0
Acepta Rechaza
𝐻0 𝐻0

−𝑡𝑐𝑟𝑖𝑡 0 𝑡𝑐𝑟𝑖𝑡
𝐹𝑐𝑟𝑖𝑡
Regla de decisión:
 Si 𝑡𝑐𝑎𝑙 > 𝑡𝑐𝑟𝑖𝑡 → 𝑅𝑒𝑐ℎ𝑎𝑧𝑎 𝐻0
 Si 𝑡𝑐𝑎𝑙 < 𝑡𝑐𝑟𝑖𝑡 → 𝐴𝑐𝑒𝑝𝑡𝑎 𝐻0
SESIÓN 1: ANÁLISIS DE REGRESIÓN LINEAL

POST ESTIMACIÓN

EFECTOS MARGINALES

 Como afecta la variable x sobre la variable y.


 Valor de los coeficientes de regresión.
 Debe ser interpretado bajo las unidades de medida.
SESIÓN 1: ANÁLISIS DE REGRESIÓN LINEAL

• Modelo de Regresión Lineal General • Linealidad


• Especificación y Supuestos Modelo del • Normalidad
Clásico de regresión lineal • Aplicación práctica
• Mínimos cuadrados ordinarios
• Regresión Lineal
• Post Estimación
• Violación de los supuesto (detección y
solución)
• Multicolinealidad
• Heterocedasticidad
• Autocorrelación
SESIÓN 1: ANÁLISIS DE REGRESIÓN LINEAL

PROBLEMAS EN LOS MODELOS DE REGRESIÓN

• Es justamente del incumplimiento de los últimos supuestos básicos, de donde provienen los
principales problemas de un modelo de regresión.

Homoscedasticidad Heterocedasticidad
Linealidad Multicolinealidad
Independencia Autocorrelación
SESIÓN 1: ANÁLISIS DE REGRESIÓN LINEAL

MULTICOLINEALIDAD
CONSECUENCIAS PRÁCTICAS

 Se refiere a la alta asociación lineal entre 1. Estimadores MCO aún son MELI
las variables explicativas de un modelo de presentan varianza y covarianzas
regresión grandes.

𝑦𝑖 = 𝛽1 + 𝛽2 𝑥21 + 𝛽3 𝑥3𝑖 + 𝜇𝑖 2. Intervalos de confianza tienden a


ser mucho más amplios.

 Es un fenómeno muestral (problema de 3. Razón t de uno o más


muestras pequeñas), no en la población. coeficientes tiende a cero
 Se dice que existe alto grado de
4. El 𝑅 2 y F muestran valores altos.
asociación lineal cuando r = 0.8.
5. Los estimadores MCO y ee se
hacen sensibles a pequeños
cambios en los datos.
SESIÓN 1: ANÁLISIS DE REGRESIÓN LINEAL

MULTICOLINEALIDAD

ANALIZANDO LA PRIMERA CONSECUENCIA


En un modelo de k variables explicativas
𝜎2
෢2 =
𝑣𝑎𝑟 𝛽 2
σ 𝑥2𝑖 2
(1 − 𝑟23 )
𝜎2
𝑣𝑎𝑟 𝛽෡𝑗 = 𝐹𝐼𝑉
σ 𝑥𝑗2
1
𝐹𝐼𝑉 = 2
(1 − 𝑟23 )

Donde FIV = factor inflador de varianza


SESIÓN 1: ANÁLISIS DE REGRESIÓN LINEAL

MULTICOLINEALIDAD

¿CÓMO DETECTAR EL PROBLEMA?


2) Análisis de estadísticos t y coeficientes de ajuste
1) Matriz de correlación
3) Test de Farrar – Glauber
𝑦𝑖 = 𝛽1 + 𝛽2 𝑥2𝑖 + 𝛽3 𝑥3𝑖 + 𝜇𝑖 Consta de tres enfoques complementarios:
 Test de ortogonalidad (𝑋 2 )
𝑟𝑥2 𝑥2 𝑟𝑥2 𝑥3 1 𝑟𝑥2 𝑥3
𝑅= 𝑟 = 𝐻0 : las variables explicativas son ortogonales entre sí
𝑥3 𝑥2 𝑟𝑥3 𝑥3 𝑟𝑥3 𝑥2 1
𝐻1 : las variables explicativas no son ortogonales entre sí.

- Si 𝑥2𝑖 esta altamente asociada a 𝑥3𝑖 𝑅 → 0 Test t


 Test F
- Si 𝑥2𝑖 esta perfectamente asociada a 𝑥3𝑖 𝑅 = 0 𝐻0 : 𝑟𝑚á𝑥 = 0
𝐻0 : 𝑅𝑚á𝑥
2
=0
- Si 𝑥2𝑖 esta poco asociada a 𝑥3𝑖 𝑅 → 1
𝐻1 : 𝑅𝑚á𝑥
2
≠0 𝐻1 : 𝑟𝑚á𝑥 ≠ 0
SESIÓN 1: ANÁLISIS DE REGRESIÓN LINEAL

MULTICOLINEALIDAD

¿CÓMO SE SOLUCIONA?
1. Ignorar el problema
2. Eliminación de variables colineales
3. Transformación de variables del modelo
SESIÓN 1: ANÁLISIS DE REGRESIÓN LINEAL

HETEROCEDASTICIDAD

𝑣𝑎𝑟 (𝜇/𝑥) = 𝜎 2 ≠ 𝑐𝑡𝑒

• Normalmente se presenta cuando se trabaja


con datos de corte transversal

CONSECUENCIAS
 No eficientes
 Las pruebas t y F pierden validez
SESIÓN 1: ANÁLISIS DE REGRESIÓN LINEAL

HETEROCEDASTICIDAD

¿CÓMO SE DETECTA?
 Prueba de Park
Si 𝑙𝑛𝑥𝑖 influye mucho en el modelo,
𝜎 sigue la siguiente forma funcional:
entonces existe heterocedasticidad, por lo
𝛽
𝜎𝑖2 = 𝜎 2 𝑥𝑖 𝑒 𝑣𝑖 cual hay que analizar la significancia de 𝛽.

𝑙𝑛 𝜎𝑖2 = 𝑙𝑛𝜎 2 + 𝛽 𝑙𝑛𝑥𝑖 + 𝑣𝑖 𝐻0 : Homoscedasticidad


𝐻1 :Heterocedasticidad
𝑙𝑛 𝜎𝑖2 = 𝛼 + 𝛽 𝑙𝑛𝑥𝑖 + 𝑣𝑖
El modelo tiene que ser estimado por
𝑙𝑛 𝜇෢𝑖2 = 𝛼 + 𝛽 𝑙𝑛𝑥𝑖 + 𝑣𝑖 MCO, se calculan sus errores, se elevan al
cuadro y al final se aplica ln.
SESIÓN 1: ANÁLISIS DE REGRESIÓN LINEAL

HETEROCEDASTICIDAD

¿CÓMO SE DETECTA?
 Prueba de Glejsen PASOS:
Permite analizar cual de las variables explicativas 1. MCO
(una por una ) y bajo forma funcional 2. Calcular sus errores (valor absoluto)
3. Regresionar el valor absoluto de los
errores con cada una de las formas
𝑦𝑖 = 𝛽1 + 𝛽2 𝑥2𝑖 + 𝜇𝑖 funcionales de la prueba
𝜇ෝ𝑖 = 𝛽1 + 𝛽2 𝑥𝑖 + 𝑣𝑖 4. Analizar la significancia de 𝛽2

= 𝛽1 + 𝛽2 𝑥𝑖 + 𝑣𝑖 𝐻0 : homoscedasticidad
1
= 𝛽1 + 𝛽2 𝑥 + 𝑣𝑖 Se aplica la prueba t.
𝑖
1
= 𝛽1 + 𝛽2 + 𝑣𝑖
𝑥𝑖
SESIÓN 1: ANÁLISIS DE REGRESIÓN LINEAL

HETEROCEDASTICIDAD
¿CÓMO SE DETECTA?
 Prueba de Goldfeld – Quandt
Y X
PASOS:
1. Ordenar las observaciones, según los valores de x, de
manera ascendente. 𝑛1 𝑆𝐶𝑅1
2. Omitir las c observaciones centrales. Las observaciones
restantes (n-c) son divididas en dos grupos. Elimina “c”
observaciones centrales
3. Al interior de cada grupo se estima con MCO y se captura
𝑆𝐶𝑅1 y 𝑆𝐶𝑅2.
4. Capturar el estadístico 𝜆 definido como: 𝑛2 𝑆𝐶𝑅2
𝜆 = (𝑆𝐶𝑅2 /gl)/(𝑆𝐶𝑅1 /𝑔𝑙)
𝐻0 : homoscedasticidad
SESIÓN 1: ANÁLISIS DE REGRESIÓN LINEAL

HETEROCEDASTICIDAD

¿CÓMO SE DETECTA?  Prueba de heteroscedasticidad de White


 Prueba de Breusch – Pagan – Godfrey
Prueba más generales que todas las anteriores.
La SCE fue obtenida de la regresión de la No requiere del cumplimiento de supuestos de las
varianza del residuo y la variable independiente. pruebas anteriores.
El residuo fue obtenido anteriormente de la
regresión original (MCO)
𝐻0 : homoscedasticidad
El estadístico a usarse es:

1
𝜃= 𝑆𝐶𝐸
2

𝐻0 : homoscedasticidad
SESIÓN 1: ANÁLISIS DE REGRESIÓN LINEAL

HETEROCEDASTICIDAD

MEDIDAS CORRECTIVAS
 Cuando se conoce 𝜎𝑖2
MÍNIMOS CUADRADOS PONDERADOS (MCP)
𝑦𝑖 = 𝛽1 + 𝛽2 𝑥2𝑖 + 𝜇𝑖
Como se conoce la varianza, entonces se divide a toda la ecuación entre esta:

𝑦𝑖 1 𝑥2𝑖 𝜇𝑖
= 𝛽1 + 𝛽2 +
𝜎𝑖2 𝜎𝑖2 𝜎𝑖2 𝜎𝑖2
𝜇𝑖
Y entonces la varianza es homocedástica.
𝜎𝑖2
SESIÓN 1: ANÁLISIS DE REGRESIÓN LINEAL

HETEROCEDASTICIDAD
MEDIDAS CORRECTIVAS
 Cuando no se conoce 𝜎𝑖2
Supuestos razonables sobre el patrón de
heterocedasticidad
1) La varianza del error es proporcional a 𝑥𝑖2 : 2) La varianza heterocedástica es proporcional
a 𝑥𝑖
𝐸 𝜇𝑖2 = 𝜎 2 𝑥𝑖2 = 𝜎𝑖2
𝜎𝑖2 = 𝜎 2 𝑥𝑖2
𝑦𝑖 1 𝑥𝑖 𝜇𝑖
= 𝛽1 + 𝛽2 + 𝑦𝑖 1 𝑥𝑖 𝜇𝑖
𝑥𝑖 𝑥𝑖 𝑥𝑖 𝑥𝑖 = 𝛽1 + 𝛽2 +
𝑥𝑖 𝑥𝑖 𝑥𝑖 𝑥𝑖
𝑦𝑖 1 𝜇𝑖
= 𝛽1 + 𝛽2 + 𝑦𝑖 1 𝜇𝑖
𝑥𝑖 𝑥𝑖 𝑥𝑖 = 𝛽1 + 𝛽2 𝑥𝑖 +
𝑥𝑖 𝑥𝑖 𝑥𝑖
SESIÓN 1: ANÁLISIS DE REGRESIÓN LINEAL

AUTOCORRELACIÓN ( Presente en series de tiempo).

CAUSAS
1) Inercia Si economía esta pasando por etapa de crecimiento
2) Sesgo de especificación  Caso de variables excluidas
 Caso de forma funcional incorrecto

3) Rezagos En modelos donde variable endógena aparece como variable explicativa sesgada
en el tiempo.

4) Manipulación de datos Manipulación de información estadística original, quitándole su comportamiento regular.

5) Transformación de datos Al tener: ∆𝑦𝑡 = 𝛽2 ∆ 𝑥2𝑡 + 𝛽3 ∆ 𝑥3𝑡 − 𝑣𝑡 , 𝑣𝑡 genera autocorrelación


6) No estacionariedad
Una serie de tiempo, 𝑦𝑡 , es estacionaria si:
 𝐸(𝜀𝑡 ) = 0
 Var(𝜀𝑡 ) = 𝜎 2
 Cov(𝜀𝑡 𝜀𝑡+𝑠 ) = 0, 𝑠 ≠ 0
SESIÓN 1: ANÁLISIS DE REGRESIÓN LINEAL

AUTOCORRELACIÓN
¿CÓMO SE DETECTA?
 Prueba de Durbin Watosn (d)
Zona Zona
∃ indecisión indecisión ∃
(+) (-)
autoc. autoc.
𝑑 =ሶ 2 1 − 𝜌ො , 𝜌ො: coeficiente de autocorrelación (+) ∄ (-)
−1 ≤ 𝜌ො ≤ 1
autoc.
(+)ni(-)
Si:
𝜌ො = 1 𝑑 =ሶ 0 (∃ autocorrelación (+) de 1er orden)
𝜌ො = −1 𝑑 =ሶ 4 (∃ autocorrelación (-) de 1er orden) 0 𝑑𝐿 𝑑𝑢 2 4-𝑑𝑢 4-𝑑𝐿 4
𝜌ො = 0 𝑑 =ሶ 0 (∄ autocorrelación ni (+) ni (-))
SESIÓN 1: ANÁLISIS DE REGRESIÓN LINEAL

AUTOCORRELACIÓN

Pasos
1) MCO y obtener los residuos
2) Variables explicativas fijas en el modelo
3) 𝑢𝑖 se genera mediante el esquema AR(1), distribución normal
4) No hay información faltante en los datos.

PRUEBA MODIFICADA
Cuando dcal cae en la zona de indecisión de usará esta prueba.
a) 𝐻0 ∶ 𝜌 = 0
Si el valor de dcal es menor de du, se rechaza la
𝐻1 ∶ 𝜌 > 0 Ho, por lo tanto existe autocorrelación positiva

b) 𝐻0 ∶ 𝜌 = 0 Si el valor de (4-dcal) < du se rechaza Ho, por lo


tanto existe autocorrelación negativa.
𝐻1 ∶ 𝜌 < 0
SESIÓN 1: ANÁLISIS DE REGRESIÓN LINEAL

AUTOCORRELACIÓN

¿CÓMO SE DETECTA?
 Prueba general de autocorrelación de Bruesh Godfrey
Permite:
- Regresores no estocásticos
- Esquemas autorregresivos de orden mayor

Pasos:
1) MCO, calcular los residuos
2) Realiza la regresión 𝜇ෝ𝑡 sobre 𝑥𝑡
3) Se calcula el 𝑅 2 . Si (n- 𝜌) es mayor que 𝑋𝜌2 se rechaza la Ho.
SESIÓN 1: ANÁLISIS DE REGRESIÓN LINEAL

AUTOCORRELACIÓN

CORRECCIÓN A AUTOCORRELACIÓN
 Cuando se conoce 𝜌  Cunando no se conoce 𝜌

Despejamos en un periodo al modelo original, y luego Mínimos cuadrados generalizados (MCG)


se le multiplica 𝜌, de esta manera te quedaría 𝜌 basado en el estadístico de Durbin Watson

𝜌𝑦𝑡−1 = 𝜌𝛽1 + 𝜌𝛽2 𝑥𝑡−1 + 𝜌𝜇𝑡−1


𝑑 =ሶ 2 1 − 𝜌ො
Restando este último al modelo original:
𝑑
1 − = 𝜌ො
2
𝑦𝑡 − 𝜌𝑦𝑡−1 = 𝛽1 − 𝜌𝛽1 + 𝛽2 𝑥2𝑡 − 𝜌𝛽2 𝑥𝑡−1 + 𝜇𝑡 − 𝜌𝜇𝑡−1

𝑦𝑡 − 𝜌𝑦𝑡−1 = 𝛽1 (1 − 𝜌) + 𝛽2 (𝑥𝑡 − 𝜌 𝑥𝑡−1 ) + 𝜇𝑡 − 𝜌𝜇𝑡−1

Estas son ecuaciones en diferencia.


SESIÓN 1: ANÁLISIS DE REGRESIÓN LINEAL

• Modelo de Regresión Lineal General • Linealidad


• Especificación y Supuestos Modelo del • Normalidad
Clásico de regresión lineal • Aplicación práctica
• Mínimos cuadrados ordinarios
• Regresión Lineal
• Post Estimación
• Violación de los supuesto (detección y
solución)
• Multicolinealidad
• Heterocedasticidad
• Autocorrelación
SESIÓN 1: ANÁLISIS DE REGRESIÓN LINEAL

Regresionando un modelo de
regresión lineal en STATA

(Usando la base de datos auto.dta)


1° Tener en cuenta las variables que se
van a regresionar, se recomienda analizar
la relación de las variables a través de un
gráfico.
Analicemos la relación entre le precio y el
kilometraje.

A medida que aumenta el kilometraje,


disminuye el precio. Por lo tanto se
observa una relación negativa entre estas
dos variables.
SESIÓN 1: ANÁLISIS DE REGRESIÓN LINEAL

Regresionando un modelo de
regresión lineal en STATA

2° Para regresionar el modelo se usa el comando “regress”


regress depvar [indepvars] [if] [in] [weight] [, options]
SESIÓN 1: ANÁLISIS DE REGRESIÓN LINEAL

ANÁLISIS DE MULTICOLINEALIDAD

Para realizar un análisis de colinealidad entre las variables explicativas tras un modelo de regresión se usa el
comando “estat vif”.
Por ejemplo, si regresionamos la variable precio según el kilometraje y el desplazamiento obtenemos:
SESIÓN 1: ANÁLISIS DE REGRESIÓN LINEAL

ANÁLISIS DE HETEROCEDASTICIDAD

Existe más de una manera de analizar la heterocedasticidad en STATA.


SESIÓN 1: ANÁLISIS DE REGRESIÓN LINEAL

ANÁLISIS DE HETEROCEDASTICIDAD

Existe más de una manera de analizar la


heterocedasticidad en STATA.

Permite testear asimetría kurtosis y


heterocedasticidad pero no acepta ponderaciones Permite usar el test de White pero no acepta ponderaciones
SESIÓN 1: ANÁLISIS DE REGRESIÓN LINEAL

ANÁLISIS DE AUTOCORRELACIÓN

En primer término es necesario generar una variable de paso del tiempo (t) y referir todas las otras variables a
ella (tsset t)
SESIÓN 1: ANÁLISIS DE REGRESIÓN LINEAL

ANÁLISIS DE AUTOCORRELACIÓN

También se puede usar los siguientes comandos

se emplea en
modelos
autorregresivos

Test de Breusch-
Godfrey para
autocorrelación
SESIÓN 1: ANÁLISIS DE REGRESIÓN LINEAL

A tener en Cuenta:

Banco de Preguntas (Obligatorio):


• Debe resolver de forma aprobatoria el banco de preguntas de cada clase
para pasar a la siguiente sesión.

Tarea (Obligatorio)
• Se debe obtener una nota satisfactoria en los trabajos prácticos de cada
sesión, a fin de pasar a la siguiente.

Foro (Obligatorio):
• En el foro del curso se comparten tips y experiencias acerca del curso. Realizar
como mínimo 5 preguntas o comentarios.

S-ar putea să vă placă și