Sunteți pe pagina 1din 36

EP-4047: ECONOMETRÍA

GRUPO “I”

JORGE A. ALARCÓN NOVOA


Contenido
Capítulo II. Modelo Lineal Bi-variado
2.1. Especificación
2.2. Estimación: MCO
2.3. Validación estadística (Ho, IC, Bondad)
2.4. Uso y aplicaciones
Wooldridge: Capítulo 2;
Gujarati & Porter: Cap. 4 (secciones 4.1 a 4.3) más Cap. 5.
…. Etapas del proceso metodológico

¿Cómo proceden los econometristas?


(1) Planteamiento de la teoría y de la hipótesis
(2) Especificación del modelo matemático –desde Teoría-
(3) Especificación del modelo econométrico (estocástico)
(4) Obtención de datos (usando muestras)
(5) Estimación de los parámetros del modelo econométrico
(6) Validación (Económica y Estadística)
(7) Utilización del modelo: predicción y política económica,
entre otros.
2.3- VALIDACIONES
VALIDACIÓN ESTADÍSTICA
Consiste en evaluar el modelo sobre la base de los siguientes criterios
(INFERENCIA ESTADISTICA): significación estadística (pruebas de hipótesis),
“bondad de ajuste”, y construcción de intervalos de confianza de los estimadores.
Pruebas de Hipótesis
Un modelo es estadísticamente válido si los estimadores de
los parámetros son estadísticamente significativos. Es decir
si la variable explicativa asociada al estimador (X)
contribuye significativamente a explicar las variaciones de
la variable dependiente (Y). Para ello se requiere el
planteamiento y prueba de las siguientes hipótesis:
“Significancia” INDIVIDUAL

Hipótesis Estadístico de Prueba Criterio de Decisión


Ho: o=0 tc = bo Se rechaza la Ho si es
Ha: o 0 S( bo ) que:
Ho implica que la línea de S(bo) = √Var(bo) tc  t(n-2)gl (t tabular)
regresión pasa por el origen
Ho: 1=0 tc = b1 Se rechaza la Ho si es
Ha: 1 0 S( b 1 ) que:
Ho implica que X no ayuda a S(b1) = √Var(b1) tc  t(n-2)gl (t tabular)
explicar las variaciones de Y.
A fin de probar la significación estadística de los estimadores de
los parámetros en la regresión, se requieren las varianzas de los
estimadores bo y b1 (función de 2u - ó simplemente 2).

𝑿𝟐𝒊 Woold. 52-58


𝟐 𝟏
𝑽 𝒃𝒐 = 𝝈𝟐𝝁 [ 𝟐] 𝑽 𝒃𝟏 = 𝝈𝝁 [ 𝟐 ]
𝒏 𝒙𝒊 𝒙𝒊
Puesto que se desconoce σ u2 (la varianza residual de la población),
2
entonces se usa s como estimación (insesgada) de σ u2
∑ e i
2
2 𝟐
s = 𝝈𝝁 =
n-k
donde k = número de parámetros estimados
∧ 2
e = estimación de los residuos [ó ûi =(Yi − Y i ) ]
Luego, las estimaciones insesgadas de las varianzas de bo y b1 son:

𝒆𝟐𝒊 𝑿𝟐𝒊 𝒆𝟐𝒊 𝟏


𝑺𝟐𝟎 = [ ] y 𝑺𝟐𝟏 = [ ]
(𝒏−𝒌) 𝒏 𝒙𝟐𝒊 (𝒏−𝒌) 𝒙𝟐𝒊

Xi representa la variable independiente (original)


xi representa la variable independiente en diferencia (menos la media).

De modo que so y s1 son los errores estándar de los estimadores.

Como ui tiene distribución normal, Yi, -por tanto bo y b1- también tienen
distribución normal. Entonces por eso podemos usar la distribución t con n-k
grados de libertad, para probar hipótesis y construir intervalos de confianza para
los parámetros 𝜷𝟎 y 𝜷𝟏 .
Cuadro 3. Extensión de cálculos en el caso de Maíz y Fertilizantes
Año Yi Xi -- ei e i2 Xi^2 xi^2 yi^2
(maíz) (Fertiliz) Ŷi
1 40 6 37.08 2.92 8.526 36 144 289
2 44 10 43.72 0.28 0.0784 100 64 169
3 46 12 47.04 -1.04 1.082 144 36 121
4 48 14 50.36 -2.36 5.57 196 16 81
5 52 16 53.68 -1.68 2.822 256 4 25
6 58 18 57.00 1.00 1.00 324 0 1
7 60 22 63.64 -3.64 13.24 484 16 9
8 68 24 66.96 1.04 1.08 576 36 121
9 74 26 70.28 3.72 13.838 676 64 289
10 80 32 80.24 -0.24 0.0576 1,024 196 529
 ei =  e2i = X i=
2
x i=
2
 y2i =
n = 10
0 47.306 3,816 576 1,634

𝒆𝟐 𝑿𝟐 47.3056 3,816
𝑺𝟐𝟎 = 𝒊
[ 𝒊
𝟐] = [ ]  3.92 y so = 1.98
(𝒏−𝒌) 𝒏 𝒙𝒊 10 - 2 10(576 )
𝒆𝟐 𝟏 47.3056
𝑺𝟐𝟏 = 𝒊
[ ] = ≈ 0.01 y s1 = 0.10
(𝒏−𝒌) 𝒙𝟐
𝒊 (10 - 2)[576]
Por tanto:
bo - o 27.12 - 0 b1 -  1 1.66
to = = ≈ 13.7 t1 = = ≈ 16.6
so 1.98 s1 0.1

Puesto que los valores calculados de to y t1 exceden a tt = 2.306 (8 gl y =0.05),


rechazamos ambas hipótesis nulas.
 Conclusión: ambos parámetros son significativamente diferentes de 0.
PROCEDIMIENTO GENERAL PRÁCTICO
(Estimación en Econometría + Inferencia Estadística)
(a) Colección y preparación de la data -- modelo
(b) Estimación de los parámetros del modelo
(c) Estimación de la variabilidad de los estimadores
(d) Establecimiento de Pruebas de Ho relevantes
- Paso 1 (Ho) - Paso 2 (DP-Tt) - Paso 3 (contraste)
(e) Interpretación económica de resultados.
(a) Colección y preparación de la data
Ejemplo 2.4. Relación entre Consumo total (Yi) e Ingreso disponible (Xi)

Yi Xi 𝒀𝒊 --- ei e i2 𝑿𝟐𝒊 𝒙𝟐𝒊 x i yi


Año (Cons) (Ing)
1 102 114 100.34 1.66 2.7556 12,996 961 775
2 106 118 103.78 2.22 4.9284 13,924 729 567
3 108 126 110.66 -2.66 7.0756 15,876 361 361
4 110 130 114.10 -4.10 16.8100 16,900 225 255
5 122 136 119.26 2.74 7.5076 18,496 81 45
6 124 140 122.70 1.30 1.690 19,600 25 15
7 128 148 129.58 -1.58 2.4964 21,904 9 3
8 130 156 136.46 -6.46 41.7316 24,336 121 33
9 142 160 139.90 2.10 4.4100 25,600 225 225
10 148 164 143.34 4.66 21.7156 26,896 361 399
11 150 170 148.50 1.50 2.2500 28,900 625 575
12 154 178 155.38 -1.38 1.9044 31,684 1,089 891
n = 12  ei = 0  e2i =  𝑿𝟐𝒊 =  𝒙𝟐𝒊 =  xiyi =
115.27 257,112 4812 4,144
(b) Estimación de los parámetros
𝒙𝒊 𝒚𝒊 n∑XiYi  ∑Xi ∑Yi
Usando la ecuación (2.2.c) 𝒃𝟏 = =
𝒙𝟐𝒊 n∑X i2  ( ∑X i )2
entonces tenemos:
𝒙𝒊 𝒚 𝒊
𝒃𝟏 = = (4,144 / 4,812) = 0.86 (mide la PMgC ó cambio en el consumo
𝒙𝟐𝒊
como consecuencia del cambio unitario en el Ingreso).

bo = Y  b1 X = 127 - 0.86(145) = 2.13 (ordenada en el origen, o valor de consumo


total cuando el ingreso disponible es 0).

 𝒀=2.13 + 0.86(X)-- (con la expresión de las variables de consumo e ingreso).


(c) Estimación de la variabilidad
∧ ∑e 2
𝟏𝟏𝟓.𝟐𝟖
s =  u=
2 2 i
= [(
𝟏𝟐−𝟐
)]= 11.53
n-k
𝒆𝟐𝒊 𝑿𝟐𝒊 𝟏𝟐𝟓𝟕,𝟏𝟏𝟐
𝑺𝟐𝟎 = (𝒏−𝒌) [𝒏 𝒙𝟐𝒊
]= (11.53) [𝟏𝟐(𝟒,𝟖𝟏𝟐)] = 51.34  so = 7.17
𝒆𝟐𝒊 𝟏 𝟏
𝑺𝟐𝟏 = [ ] = (11.53)[ ] = 0.0024  S1 = 0.05
(𝒏−𝒌) 𝒙𝟐𝒊 𝟒,𝟖𝟏𝟐
(d) Establecer y corroborar Pruebas de Hipótesis relevantes

Paso 1.

Ho: o=0
Ha: o 0
Rechazo de Ho implica que la línea de regresión NO pasa por el origen
Ho: 1=0
Ha: 1 0
Rechazo de Ho implica que X ayuda a explicar las variaciones de Y.
Paso 2.
Se usa la FD “t”  tt =2.228 (se desconocen las Var poblacionales
y los tamaños de muestra son menores de 30). Los GL son n-k=12-2=10,
y el nivel de significancia es 5% .

Paso 3.
Calculamos el t tabular:
bo _  o 2.13 0
____

to = = = 0.30
So 7.17
b1 _  1 0.86 _ 0
t1 = = = 17.2
S1 0.05
DECISIÓN:
- Puesto que to < tt (2.228)  bo no es estadísticamente diferente de 0.
- Puesto t1  tt (2.228)  b1 es estadísticamente diferente de 0 (Que más?).

(e) Interpretación económica de resultados

pp.20b- Cd yellow Ecnmt Aplic


Contenido
Capítulo II. Modelo Lineal Bi-variado
2.1. Especificación
2.2. Estimación: MCO
2.3. Validación estadística (Ho, IC, Bondad)
2.4. Uso y aplicaciones.
Intervalos de Confianza
Un intervalo de confianza para una variable aleatoria se define
como uno cuyos límites se relacionan con una probabilidad
(determinada) de contener (o incluir) al verdadero parámetro
(de regresión) que es estimado. Contexto en que se conoce
“”: nivel de significancia, ó la probabilidad de equivocación
(error tipo I).
En general un intervalo de confianza se puede expresar de la siguiente manera:
p.1 Yellow/
p.81b Cd azul
IC: Pr[𝜷– tα/2 S𝜷 ≤ β ≤ 𝜷+ tα/2 S𝜷] = 1– α

Se interpreta como que el intervalo [𝜷± tα/2 S𝜷] tiene una probabilidad (1– α) de
contener al verdadero parámetro β. Si α = 0.05 será un intervalo que tiene el 95%
de probabilidad (0.95) que el parámetro se encuentre en el intervalo dado.
IC: Pr[ bo – tα/2 S(bo) ≤ o ≤ bo + tα/2 S(bo)] = 1– α
Pr [ b1 – tα/2 S(b1) ≤ 1 ≤ b1 + tα/2 S(b1)] = 1– α
Los intervalos de confianza para el ejemplo del maíz con fertilización serán:

Pr [ 27.12 – (2.31)(1.98) ≤ o ≤ 27.12 + (2.31) (1.98)] = 1– 0.05


IC: Pr [ 23.16 ≤ o ≤ 31.08] = 0.95
El intervalo [23.16 y 31.04] tiene probabilidad de 95% de contener el verdadero o.

Pr [ 1.66 – (2.31)(0.1) ≤ 1 ≤ 1.66 + (2.31)(0.1)] = 1– 0.05


IC: Pr [ 1.46 ≤ 1 ≤ 1.86] = 0.95
El intervalo [1.46 y 1.86] tiene probabilidad del 95% de contener el verdadero 1.
pp. 100 Salvatore

Ejemplo 5. Establezca el IC –95%- para los estimadores del Ejemplo


sobre Consumo-Ingreso

a. IC(o): Pr [bo - 2.228So ≤ o ≤ bo + 2.228So] = 0.95


IC(o): Pr [2.30 - 2.228(7.17) ≤ o ≤ 2.30 + 2.228(7.17)] = 0.95
IC(o): Pr [ -13.67 ≤ o ≤ 18.27]

b. IC(1): Pr [b1 - 2.228S1 ≤ 1 ≤ b1 + 2.228S1] = 0.95


IC(1): Pr [0.86 - 2.228(0.05) ≤ 1 ≤ 0.86 + 2.228(0.05)] = 0.95
IC(1): Pr [ 0.75 ≤ 1 ≤ 0.97]
Ojo: o no es estadísticamente diferente de CERO, 1 si lo es.
REGLA PRÁCTICA PARA CÁLCULO DE INTERVALOS CONFIANZA

En general, un intervalo dos colas, al 95% de confianza, puede ser


rápidamente estimado sobre la base del conocimiento que la DP “t” se
aproxima a la DNS, a medida que crece el número de GL.

En concreto, para α=5% , tα/2 = 1.96 conforme n , aunque


tα/2 es siempre mayor que 1.96 para cualquier valor de n.

Entonces una REGLA PRÁCTICA para calcular un intervalo de confianza


(dos colas) de forma BIEN aproximada será:

IC ó Pr[ ĵ – 2 S(ĵ) ≤ j ≤ ĵ + 2 S(ĵ)] = 1– α

O sea calculamos ĵ y su error estándar y se obtiene (in so facto) el IC.


Pp 13- Blue
Bondad de Ajuste y Correlación
Cuanto más cerca de la línea de regresión caigan las
observaciones (es decir, cuanto más pequeños los residuos), tanto
mayor será la variación en Y “explicada” por la ecuación de
regresión estimada. A partir de la FRM, la variación total en Y es
igual a la “variación explicada” más la “variación residual”:
_ ∧ _ ∧ 2
(Yi − Y ) = (Y i − Y ) + (Yi − Y i )
2 2

SCT = SCE + SCR

SCT: variación total de Y (ó suma total de cuadrados)


SCE: variación explicada de Y (ó suma de cuadrados de la regresión)
SCR: variación residual de Y (ó suma de cuadrados de errores).
_ ∧ _ ∧ 2
(Yi − Y ) = ( Y i − Y ) + (Yi − Y i )
2 2

SCT = SCE + SCR


1 = (SCE/SCT) + (SCR/SCT)
El coeficiente de determinación, o r2, se define como la proporción
de la variación total de Y, que es “explicada” por la regresión de Y
sobre X:
r2 = (SCE/SCT) = 1 – (SCR/SCT) = R2 (en general)
La “bondad de ajuste” se mide a través del r2
desviaciones
𝒚𝟐𝒊 𝒆𝟐𝒊
0 r 1
𝟐 2
𝒓 = = 1-
𝒚𝟐𝒊 𝒚𝟐𝒊
𝟐
𝟐 𝟐
( 𝒙 𝒊) ( 𝒙𝒊 𝒚𝒊 )𝟐
𝒓 = 𝒃𝟏 =
( 𝒚𝒊 ) ( 𝒙𝟐𝒊 )( 𝒚𝟐𝒊 )
𝟐
El coeficiente de correlación está dado por r = R 2

( 𝒙 𝒊 𝒚𝒊 ) ( 𝒚𝒊 𝒚𝒊 )
𝒓= 𝒓=
( 𝒙𝟐𝒊 )( 𝒚𝟐𝒊 ) ( 𝒚𝟐𝒊 )( 𝒚𝟐𝒊 )

Propiedades del Coeficiente de Correlación:


(a) Es una medida de asociación lineal ó dependencia lineal solo; su uso en
relaciones NO lineales no tiene significado.
(b) r oscila en valor desde –1 (para correlación lineal negativa perfecta)
Hasta +1 (para correlación lineal positiva perfecta)
(c) Es simétrico por naturaleza: rxy = ryx, y no implica causalidad ni dependencia.
(d) Si X y Y son linealmente independientes  r =0.
Pero si r =0 no significa que X y Y sean totalmente independientes.
Ejemplo 6. El coeficiente de determinación para el ejemplo de maíz-fertilizante
se puede encontrar con ayuda del Cuadro 1.3

𝟐 𝒚𝟐𝒊 𝒆𝟐𝒊
𝒓 = =𝟏− = 1 – (47.31/1.634) = 1 – 0.029 = 0.971 ó 97.1%
𝒚𝟐𝒊 𝒚𝟐𝒊

Así, la ecuación de regresión (abonamiento) explica alrededor del 97% de


la variación total en el rendimiento de maíz.
El 3% restante se atribuye a factores incluidos en el término de error. Luego
r = r 2 = √0.9710 = 0.9854, ó 98.54%, y es positivo porque b1 es positivo.

Tabla 6.3 Salvatore- pp 90-91


Error Estándar de la Regresión (EER)
Es un estimador de , que es calculado por:
EER = S2 = i e 2

(n  k )
Estima la dispersión de perturbaciones en la regresión muestral
y –complementa+ e indirectam+ se usa para evaluar la bondad
de ajuste.
Cuanto mayor es S2, es peor el ajuste del modelo.
Es más fácil interpretar el EER que S2, pues tiene las mismas
unidades que las e.
Decisión práctica: Si EER  15% de la media VAR DEPENDIENTE
 buen ajuste del modelo.
2.4. USO y APLICACIÓN de RESULTADOS
Un modelo se valida empíricamente si es capaz de reproducir la
realidad con una proporción “aceptable” de error.
Un campo de validación empírica importante en Economía es la
capacidad de predicción. Un modelo es mejor que otro si es
que tiene menor error de pronóstico. Es posible validar una
predicción: (a) en forma puntual ó (b) mediante uso de un
intervalo de confianza para el parámetro estimado.
La Predicción se refiere a la estimación del valor pasado ó
futuro de una variable dependiente, dado el valor observado o
proyectado de la(s) variable(s) independiente(s). Cuando la
predicción se basa en un valor estimado o proyectado de la
variable independiente (no sobre uno observado), tenemos una
predicción “fuera de la muestra”.
Supongamos que se ha obtenido la siguiente regresión muestral:

Ŷi = 24.45 + 0.51 Xi (2.2.e)

Donde Ŷi es el estimador del verdadero valor E(Yi) del consumo


correspondiente a un nivel de ingreso (X).

Supóngase –además- que Xp =100 y se desea predecir un valor individual Yp


correspondiente al valor dado Xp; se procede entonces del siguiente modo:
Primero puede demostrarse que la regresión histórica (2.2.e) proporciona
la estimación puntual de esta predicción individual así

Ŷp = bo + b1Xp

Ŷp = 24.45 + 0.51 (100) (2.2.f)


= 75.3654

Donde Ŷp es el estimador puntual de Yp (y puede demostrarse que es un


predictor puntual MELI).
Puesto que Ŷp es solo un estimador, es probable que éste sea diferente de
su verdadero valor. La diferencia dará alguna idea sobre el error de
predicción o de pronóstico. Para evaluar este error, es necesario encontrar
la distribución muestral de Ŷp.
Un intervalo de confianza, en general, puede construirse utilizando:

𝒀𝒑 ± tt [𝑺𝒀𝒐]
El asunto es que podemos obtener intervalos de confianza para el valor promedio
predicho ó también para un valor individual predicho de Y. El IC es similar, la
diferencia estriba en el Error Estándar de la predicción que es distinta.
En ambos casos es posible demostrar que en la EQ (2.2.f) Ŷp ~ N(Yp, Var(Ŷp))
Caso Error Estándar
Predictor 1 (Xp - X ) 2
2
Sp = S 2
[   ... ] Guja secc 5.10
Promedio u
n ∑ (Xi - X ) 2

Predictor 1 ( Xp - X ) 2
2
Sp = S 2
[ 1   ... ]
Individual u
n ∑
( Xi - X ) 2

Donde S 2p es una estimación insesgada de la varianza del error de


predicción  2p (promedio ó individual), n es el número de
observaciones y Su2 es una estimación de la VAR(u).

S2 =
 ( Yi - Ŷi ) 2

=
ie 2

n-k n-k
Cuanto mayor sea n, menor serán  2p (ó S p2 ),  u2 (ó S2).
En resumen, para ambos casos, el valor de Yp se halla sustituyendo el valor
observado o proyectado de Xp en la ecuación de regresión estimada. Esto es,
Ŷp = bo + b1Xp

Entonces el Int. de Confianza al 95% para la predicción Yp está dado por


Ŷp ± t0.025 Sp
donde t expresa una distribución t student con n-k grados de libertad.
Ejemplo. En el caso de la función de Demanda agregada
Ŷp = 27.12 + 0.51 (Xp) n=10
_
X  170 ;  x i = 33,000
2

S2=( e2i)/(n-2) = 42.159

Si se proyecta para futuro (2021) una cantidad de ingreso, de Xp = 100, tenemos


que el IC para un valor individual será:
-
2 E-views
1
S p = 42.159[ 1  
2 ( 100 - 170 ) ] por
defecto,
10 33000 acá
S p2 = 42.159 (1.2484) = 52.635
,
Entonces, al 95%, para un valor individual Yp en el 2021:

75.36  (2.31)(7.255), es decir los extremos de IC son: 58.6 y 92.1 USD semana.
Además, si se proyecta para futuro (2021) una cantidad de ingreso, de Xp = 100,
tenemos que el IC para un valor esperado promedio será:
-
2
1
S p = 42.159[ 
2 ( 100 - 170 ) ]
10 33000
S p2 = 42.159 (0.2485) = 10.476
,
Entonces, al 95%, para un valor promedio 𝒀p = E(Y/Xo) en el 2021:

75.36  (2.31)(3.237), es decir los extremos del IC son: 67.9 y 82.8 USD x semana

S-ar putea să vă placă și