Sunteți pe pagina 1din 102

1

UNIVERSIDAD NACIONAL DEL ALTIPLANO


FACULTAD DE INGENIERIA ECONOMICA
Por Ing. William Gilmer Parillo Mamani
CURSO: ECONOMETRIA I
TEMA: MODELO LI NEAL GENERAL
2
1. INTRODUCCIN
A continuacin estudiaremos el modelo de regresin lineal
en notacin matricial.
La funcin de regresin poblacional (FRP), est
compuesta por la variable endgena (Y) y k variables
exgenas (X). Formalmente:
i ki k i i i i
X X X X Y + | + + | + | + | = ...
3 3 2 2 1 1 ,i=1,2,...n ..(1)
Vector Y
observado
(Variable
endgena)
Vector de
errores: trmino
de error
correspondiente a
la i-sima
observacin
Combinacin lineal de las
columnas de X (Exogenas):
= k pendientes k
| | ,.....
1
3
1. INTRODUCCIN
La inclusin de un intercepto en el modelo hace que
X
1
sea un vector de unos (X
1i
=1), reemplazando en la
ecuacin (1) se obtiene el siguiente conjunto de
ecuaciones:
i ki k i i i
X X X Y | | | | + + + + + = ...
3 3 2 2 1
4
En terminos matriciales:
1 1 31 3 21 2 1 1
... | | | | + + + + + =
k k
X X X Y
..... .......... .......... .......... .......... .......... ..........
...
2 2 32 3 22 2 1 2
| | | | + + + + + =
k k
X X X Y
n kn k n n n
X X X Y | | | | + + + + + = ...
3 3 2 2 1
1
.
2
1
nx
n
Y
Y
Y
(
(
(
(

=
nxk
n k n
k, ,
k, ,
X X
X X
X X
(
(
(
(

, , 2
2 2 2
1 1 2
... 1
... ... ... 1
... 1
... 1
1
2
1
.
kx
k
(
(
(
(

|
|
|
+
1
2
1
.
nx
n
(
(
(
(

y en forma compacta (FRP):


Y X | u
| + = X Y
.....(2)
5
2. LA ESTIMACIN MCO PARA EL MODELO
DE REGRESIN LINEAL GENERAL(FRM)
Para estimar los coeficientes del modelo de regresin y
el intercepto, expresamos un valor estimado de la
forma:
ki
X
k i
X
i
X
i
Y | | | |

...
3 3

2 2

1

+ + + + =
Recordemos que el residuo o trmino de error muestral
(e) es:
ki k i i i i
X X X Y e | | | |

...

3 3 2 2 1
=
i i i
Y Y e

=
Valor observado de Y
6
y, repitiendo este proceso para todas las observaciones
muestrales se obtiene:
i Ki K i i i
e X X X Y + + + + + = | | | |

...

3 3 2 2 1
n Kn K n n n
K K
K K
e X X X Y
e X X X Y
e X X X Y
+ + + + + =
+ + + + + =
+ + + + + =
| | | |
| | | |
| | | |

...

. . . . . .
. . . . . .

...


...

3 3 2 2 1
2 2 32 3 22 2 1 2
1 1 31 3 21 2 1 1
En forma Matricial
1
.
2
1
nx
n
Y
Y
Y
(
(
(
(

=
nxk
n k n
k, ,
k, ,
X X
X X
X X
(
(
(
(

, , 2
2 2 2
1 1 2
... 1
... ... ... 1
... 1
... 1
1
2
1

kx
k
(
(
(
(

|
|
|
+
1
2
1
.
nx
n
e
e
e
(
(
(
(

y en forma compacta:
Y X | e
e X e X X X Y
K K
+ = + + + + + = | | | | |

...

3 3 2 2 1
...(3)
7
La ecuacion (3) es la funcion de
regresion muestral (FRM):
e X Y + = |

...(3)
Donde:
k * n orden de as explicativ variables de Matriz
... 1
... ... ... 1
... 1
... 1
, , 2
2 2 2
1 1 2
=
(
(
(
(

=
n k n
k, ,
k, ,
X X
X X
X X
X
(
(
(
(

=
n
Y
Y
Y
Y
.
2
1
residuos de Vector
.
2
1
=
(
(
(
(

=
n
e
e
e
e
elementos k de es coeficient de Vector

2
1
=
(
(
(
(

=
k
|
|
|
|
...(3.1)
8
utilizaremos el criterio del mtodo de estimacin MCO
para obtener los estimadores: minimizar la suma de
cuadrados de los residuos (SRC = ). Se denota
matricialmente como =SRC:

2
i
e
e e
'
| | SRC e e e e
e
.
e
e
e e e e e
i n
n
n
= = + + + =
(
(
(
(

=
'

2 2 2
2
2
1
2
1
2 1
... . .....
Por la ecuacion (3) se t iene que:
)

X - Y ( )'

X - Y (

X - Y
| |
|
=
'
=
e e
e
e X Y + = |

9
Operando:
| | | |
| | | |

X X' '

Y X' '

X Y' - Y Y'
)

X - Y ( ) X' '

- Y' ( )

X - Y ( )'

X - Y (
+ =
'
= =
'
e e
e e
En la expresin anterior Y'X y X'Y son escalares y por tanto
son iguales(uno es el transpuesto del otro), por tanto la
expresion queda como:
| | |

X X' '

Y X' '

2 - Y Y' + =
'
e e
De esta manera, el problema de minimizacin respecto a
es el siguiente:
{ } |

| | |

X X' '

- Y X' '

2 - Y Y' =
'
e e Min
Asimismo, si se reemplazan los valores muestrales para X e Y
la SRC es una funcin del vector de coeficientes:
)

( f e e | =
'
|

10
Aplicando las condiciones de primer orden se tiene:
0 2 2 = | + =
| c
c

X ' X Y ' X

e ' e
| | |

X X' '

Y X' '

2 - Y Y' + = 'e e Min


Y X X X '

' = |
................................(4)
Operando obtenemos la forma compacta de las k
ecuaciones nomales del modelo:
De la ecuacion (4) se puede reexpresarse en terminos
de sumatorias:

| + +

| + |
i ki k i
Y X

... X

n
2 2 1

| + +

| +

|
i i ki i k i i
Y X X X

... X

2 2
2
2 2 2 1
.........................................................................................................................

| + +

| +

|
i ki ki k i ki ki
Y X X

... X X

2
2 2 1
11
Nota:
(
(
(
(

+ + +
+ + +
+ + +
=
(
(
(
(

(
(
(
(

= '
n k,n k, k,
n ,n , ,
n
n n k k, k,
n , ,
Y X Y X Y X
Y X Y X Y X
Y Y Y
Y
Y
Y
X X X
X X X
Y X
...
...... .... ... .
...
...
.
*
...
... ... ... ...
...
1 ... 1 1
) (
2 2 1 1
2 2 2 2 1 1 2
2 1
2
1
, 2 1
, 2 2 2 1 2
(
(
(
(
(
(

(
(
(
(
(
(

= '
k,n ,n ,n
k, , ,
k, , ,
k, , ,
k,n k k k,
n , , ,
,n , , ,
X X X
X X X
X X X
X X X
X X X X
X X X X
X X X X
X X
... 1
... ... ... ... ...
... 1
... 1
... 1
...
... ... ... ... ...
...
...
1 ... 1 1 1
) (
3 2
3 3 3 3 2
2 2 3 2 2
1 1 3 1 2
3 , 2 , 1
, 3 3 3 2 3 1 3
2 3 2 2 2 1 2
(
(
(
(
(
(

+ + + + + + + + + + + +
+ + + + + + + + + + + +
+ + + + + + + + + + + +
+ + + + + + + + + + + +
= '
2 2
2
2
1 3 32 2 31 1 2 22 2 21 1 2 1
3 2 32 1 31
2
3
2
32
2
31 2 3 22 32 21 31 3 32 31
2 2 22 1 21 3 2 32 22 31 21
2
2
2
22
2
21 2 22 21
2 1 3 32 31 2 22 21
... ... . . ...
... ... ... ... ...
. ... ... . ...
. ... . ... ...
... ... ... ... 1 ... 1 1
) (
kn k k n kn k k n kn k k kn k k
kn n k k n n n n
kn n k k n n n n
kn k k n n
X X X X X X X X X X X X X X X X X X
X X X X X X X X X X X X X X X X X X
X X X X X X X X X X X X X X X X X X
X X X X X X X X X
X X
(
(
(
(
(
(

= '

i ki
i i
i i
i
Y X
Y X
Y X
Y
Y X
.
) (
3
2
12
(
(
(
(
(
(
(
(
(
(

=
'




= = = =
= = = =
= = = =
= = =
n
i
ki
n
i
i ki
n
i
i ki
n
i
ki
n
i
ki i
n
i
i
n
i
i i
n
i
i
n
i
ki i
n
i
i i
n
i
i
n
i
i
n
i
ki
n
i
i
n
i
i
X X X X X X
X X X X X X
X X X X X X
X X X n
X X
1
2
1
3
1
2
1
1
3
1
2
3
1
2 3
1
3
1
2
1
3 2
1
2
2
1
2
1 1
3
1
2
...
... ... ... ... ...
...
...
...
) (
13
o en trminos matriciales,
(
(
(
(
(
(





2
3 2
3
2
3 2 3 3
2 3 2
2
2 2
3 2
...
... ... ... ... ...
...
...
...
ki i ki i ki ki
ki i i i i i
ki i i i i i
ki i i
X X X X X X
X X X X X X
X X X X X X
X X X n
(
(
(
(
(
(

k
|
|
|
|

3
2
1
(
(
(
(
(
(

i ki
i i
i i
i
Y X
Y X
Y X
Y
.
3
2
=
) ' (

) ' ( Y X X X = |
) ' ( ) ' (

1
Y X X X

= |
* Si la matriz inversa es invertible existe una
solucion unica
* Si la matriz inversa no es invertible el
sistema de ecuaciones normales tiene infinitas
soluciones, por tanto existe multicolinealidad
De (4):
................(5)
14
Tambien se puede verficar
que las variables explicativas
y el trmino de error son
ortogonales entre si:
Cov (X, )=0
Para tal fin debemos reordenar la expresin
compacta de las ecuaciones normales (4), utilizando
algunas propiedades del lgebra matricial:
(3) ecuacion la por

Si , 0 )

( ' | | X Y e X Y X = =
DEMOSTRACION
0

) ' ( ) ' ( = | X X Y X
15
Entonces:
0
0
..
0
0
..
'
2
1
=
(
(
(
(

=
(
(
(
(

'
'
'
=
e X
e X
e X
e X
k
................(6)
| | 0 ' ' ) ' ( ' ' ) ' ) ( ' )

( ' '
1 1
= = = ' = =

Y X Y X XY X X X X Y X Y X X X X Y X X Y X e X |
Observamos que el primer elemento de la matriz
anterior resulta:

=
=
n
i
i
e
1
0
0 = e
por lo que, los residuos de la regresin estimada por
MCO tienen media igual a cero, incluyendo un trmino
independiente en el modelo. los dems elementos de
la matriz muestran el supuesto de ortogonalidad entre
los errores y las variables independientes se cumple.
16
3. Propiedades de un Buen Estimador
Todo estimador debe cumplir con ciertas
condiciones que nos den cierta seguridad acerca de
su idoneidad. Si un estimador cumple con estas
condiciones podr utilizarse con relativa seguridad
de que los resultados obtenidos son equivalentes en
trminos estadsticos a los verdaderos parmetros
que siempre sern desconocidos.
Esta propiedades pueden agruparse en dos
categoras:
i) propiedades exactas (o de muestras pequeas)
ii) propiedades aproximadas (o de muestras
grandes o asintticas).
17
se refieren a resultados sobre los
cuales existe certeza y que pueden
analizarse incluso en un contexto
de muestras pequeas
propiedades
exactas
Se refiere a resultados que no se
pueden comprobar en muestras
pequeas y que deben analizarse
como aproximaciones. La nica
forma de lograr hacer este anlisis
es realizando el ejercicio de ir
aumentando el tamao de muestra
y observar como se va comportando
el estimador
propiedades
aproximadas
18
3.1 Propiedades de muestras peqeas
Primera propiedad: Insesgamiento
Definimos formalmente un estimador insesgado:
E ( ) =
|
|

Segunda propiedad: Eficiencia


El estimador debe tener la menor varianza posible
con el fin de lograr mayor precisin en sus
aproximaciones. Por lo tanto, un estimador
eficiente es aqul que cumple con la primera
propiedad y adems es el que posee la mnima
varianza entre todos los dems estimadores
insesgados posibles.
19
As, y como se demostr en la ilustracin del
teorema de Gauss-Markov, el estimador
MCO cumple con esta propiedad.
Grficamente:
20
3.2. Muestras Grandes: (Propiedades
Asintticas)
Primera propiedad: Consistencia
Un parmetro es consistente si se cumple que:
Indica que conforme aumente el tamao de la
muestra la media de la distribucin del
estimador se aproximar ms al verdadero
valor del parmetro. Es decir, si se cumple
esta propiedad resulta la media de tal
distribucin.
||
Si un estimador resulta sesgado utilizando un tamao muestral reducido, el
investigador puede eliminar dicho sesgo aumentando el nmero de observaciones
de la muestra. Por lo tanto, para garantizar que el estimador MCO sea insesgado
se debe utilizar muestras grandes .
21
Segunda propiedad: Insesgamiento asinttico
La idea detrs de esta propiedad es analizar si el sesgo
tiende a desaparecer en la medida que el tamao
muestral tiende a infinito. Tiene cierta relacin con la
propiedad anterior pero no son equivalentes. En este
caso se analiza el comportamiento del sesgo, mientras
que en la consistencia se analiza el punto hacia el cual
converge la distribucin del estimador.
Tercera propiedad: Eficiencia Asinttica
Este propiedad est referida al comportamiento de la
varianza de la distribucin asinttica del estimador.
La distribucin asinttica es aquella hacia la cual
converge la distribucin del estimador a medida que
crece el tamao muestral. La idea es analizar si la
varianza de esta distribucin es menor que cualquier
otra proveniente de estimadores alternativos
PROPIEDADES DEL ESTIMADOR MCO
22
a) Insesgamiento
) ' ( ) ' (

1
Y X X X

= |
Si:
) ( ' ) (
1
+ | =

X X X X
+ | =

' ) ' (
1
X X X
Tomando esperanzas tenemos:
)

(| E
) ( ' ) ' (
1
+ | =

E X X X
| = |)

( E
Se verifica que el estimador MCO, para el modelo
de regresin general, es insesgado.
X y e no estn correlacionadas.
..........(8)
..........(7)
23
b) Eficiencia (Matriz varianza-covarianza)
Por definicin:
)

(| Var ] ))'

))(

[( | | | | = E E E

] )'

)(

[( | | | | = E

Por (8) tenemos:
Por (7):
| | ' ) ' (

1
X X X

=
)

(| Var ] ) ' ( ' ' ) ' [(


1 1
= X X X X X X E
1 1
) ' ( ) ' ( ' ) ' (

= X X X E X X X

1
) ' )( ' (

= X X E
Segn los supuestos de Homocedasticidad ( ) y
ausencia de autocorrelacin ( ) entre los errores
verificamos que:
Por consiguiente, la expresin anterior resulta:


n
I E
2
) ' (

o =
n i u
i
,..., 3 , 2 , 1 ; ) var(
2
= =o
j i u u
j i
= = , 0 ) , cov(
1 2
) ' ( )

(

= X X I Var
n
o |
1 2
) ' ( )

o = | X X Var
..........(9)
Matriz de varianzas y covarianzas:
24
1 2
) ' ( )

o = | X X Var
)

var(
2
| o + +
u
)

var( ) ' ( ) ' ( ) var(


1 2
| + + | |

X X X X X X
)
, (
mayor es traza la
principal diagonal
a) A menor dispersin del error, la varianza del estimador
es menor:
b) A mayor dispersin de las X, la varianza del estimador
es menor, entonces ganamos mas precisin en la
estimacin del modelo (las predicciones del modelo sean
mas confiables):
k n
e e

=
'
2

o
OTROS RESULTADOS REFERIDOS AL ESTIMADOR
MATRICIAL DE MNIMOS CUADRADOS ORDINARIOS
25
1.El vector de residuos de Mnimos Cuadrados
es una transformacin lineal del vector de
errores del modelo terico.
| =

X Y e
Y X X X X I
Y X X X X Y
n
] ' ) ' ( [
' ) ' (
1
1

=
=
| + = X Y
Y M M e
x x
= =
La matriz Mx, matriz de proyeccin ortogonal de
la variable dependiente es el espacio definido
por los errores, que cumple las siguientes
propiedades:
- Simtrica e idempotente.
- Ortogonal a la matriz X.
26
2. Otra forma de expresar la Suma de
Cuadrados de los Residuos Mnimo-Cuadrticos.
e e'
)

)( ' '

' ( | | X Y X Y =
| | | |

' '

' '

' ' X X Y X X Y Y Y + =
| | |

' '

' '

2 ' X X Y X Y Y + =
Y X X X X X Y X Y Y ' ) ' ( ' '

' '

2 '
1
+ = | |
Y X Y X Y Y ' '

' '

2 ' | | + =
Y X Y Y e e ' '

' ' | =





..........(10)
MEDIDAS DE BONDAD DE AJUSTE
27
Despus de ajustar la regresin se puede
separar el valor de Y
i
para cada observacin en
dos componentes: y e
i
:
i
Y

i i i
e Y Y + =

) ( )

( ) (
i i i
e Var Y Var Y Var + =
Varianza de
la variable
endgena
Varianza del
componente
explicado
Varianza del
componente no
explicado, relacionado
al residuo
Definimos formalmente al coeficiente de determinacin:
) Y ( Var
) Y

( Var
R
i
i 2
=
..........(11)
..........(12)
Muestra la proporcin de la varianza explicada por la regresin
lineal.
28
MEDIDAS DE BONDAD DE AJUSTE
Otra forma de definir al R
2
:
STC = SEC +SRC
( )


= + =
+ = =
2 2 2
2 2
2
' 2
2
Y n Y Y Y n Y n Y Y
Y n Y Y Y Y Y STC
i
i i i
Donde:
..........(13)
Y X Y Y e e SRC ' '

' ' | = =
2 2

Y n X X Y n Y Y SEC
' '
=
'
= | |
( )
2 1
Y n Y X X X X X

' ' ' |' =



2

Y n Y X SEC
' '
= |
e Y e X Y + = + =

|
) ' ( ) ' (

1
Y X X X

= |
STC
SEC
Y n Y Y
Y n Y

R
2
2
2
=

'

'
=
2
2
Y n Y Y
e e
1
STC
SRC
1 R

'
'
= =
La suma total de cuadrados es:
..........(14)
29
MEDIDAS DE BONDAD DE AJUSTE
Si se incluye intercepto en el modelo El R2 estar acotado entre 0 y 1. si no se incluye el
intercepto el R2 puede ser negativo.
Casos:
- Si el investigador dispone de un modelo que incluya intercepto
y otro que no lo incluya, no es posible utilizar el R
2
para
comparar estos modelos.
- Cuando dos modelos estn especificados con igual nmero de
variables explicativas y tratan de explicar la misma variable
endgena pero no incluyen intercepto. Es factible utilizar al R
2
como una medida de comparacin, de esta manera se eligir
aqul que tenga un mayor R
2
.
- El R
2
tambin es util cuando comparamos dos modelos
anidados. La SRC disminuye conforme se incluya otra variable,
por lo tanto el R
2
mejora considerablemente.
- Si se estiman dos modelos que tratan de explicar dos variables
dependientes distintas, el R
2
no es una medida que tenga
mucho sentido comparar.
El |R2 (Mayor precisin), si el numero de
variables explicativas |. Pero existe perdidas
de grados de libertad (n-k).
30
MEDIDAS DE BONDAD DE AJUSTE
El indicador que incorpora un ajuste a estos beneficios y costos
es el estadstico conocido como R
2
ajustado o corregido.
Formalmente:
) R 1 (
) k n (
) 1 n (
1
) 1 n /( STC
) k n /( SRC
1
2
R
2

=
|X |R2 : Beneficio |X +(n-k) : Costo
COEFICIENTE DE CORRELACION PARCIAL (T.E.)
LOGARITMO DE MAXIMA
VEROSIMILUTD (Log Likelihood)
31
|
.
|

\
|
=
n
SRC n n n
LMV log
2
) 2 log(
2 2
t
AKAIKE
Akaike propone una correccin a los estadsticos
anteriores por el nmero de parmetros del modelo
(coeficientes de regresin). La expresin del estadstico
de Akaike(AIC) es:
|
.
|

\
|
= =
n n
k
I I
k
AIC
SCR
log
2 2 2
Sirve para comparar la bondad del ajuste
entre dos modelos.
CRITERIO PARA ELEGIR ENTRE DISTINTOS
MODELOS:
Es preferible aquel modelo que presente
un valor de AIC menor.
Akaike y y Hannan Quinn
El criterio de schwarz se define como:
|
.
|

\
|
+ = = =
n
n
n
K
I I
LnI K
Schwarz SC
SCR
log ) log(
2 *
Ambos criterios sirven para comparar la
bondad del ajuste entre dos modelos.
CRITERIO PARA ELEGIR ENTRE DISTINTOS
MODELOS:
Es preferible aquel modelo que presente un
valor de SC y H-Q menor.
El criterio de Hannan Quinn se define como:
I I
LnI Ln K
n HannanQuin Q H
2 ) ( * * 2
= =
RESUMEN
34
Fuente de
variacin
Suma de
cuadrados
Grados de
libertad
Total de la
regresin (STC)
n-1
Debido a la
regresin (SEC)
k-1
Debido a los
residuos (SRC)
n-k
2
Y n Y Y
'
Y ' X '

Y ' Y |
El resumen de las magnitudes involucradas en el clculo del
R2 se muestra en la tabla matricial de la descomposicin
de la varianza (tabla ANOVA) para el MLG:
2

Y n Y X
' '
|
La prdida de un gl para la STC proviene del hecho de que para el clculo de ella
debe estimarse la media de la variable dependiente. En la SEC los gl son k-1
porque el espacio en donde estn definidos los parmetros es k-dimensional y se
pierde un grado de libertad por el clculo de la media de la variable dependiente.
Por ltimo, los grados de libertad de la suma residual es la diferencia entre los
dos grados de libertas ya mencionados.
INTERPRETACION DE LA ECUACION DE
REGRESION MULTIPLE
35
Sea el modelo con 3 variables:
i i i i
e X X Y + + + =
3 3 2 2 1

| | |
Tomando esperanza condicional de Y:
i i i i i
X X X X Y E
3 3 2 2 1 3 2

) , ( | | | + + =
Es la media condicional o el valor esperado de Y
condicionado a los valores dados o fijos de las
variables X2 y X3. Lo que obtenemos es el valor
medio de Y, o la respuesta media de Y a valores
fijos de las variables X.
36
SIGNIFICADO DE LOS COEFICIENTES
DE REGRESION PARCIAL
2
2
3 2

) , (
| =
i
i i i
dX
X X Y dE
Mide el cambio en el valor de la media
de Y, por unidad de cambio
en X2, permaneciendo constante X3. o
es la pendiente de E(.) con respecto a
X2, manteniendo constante X3. Nos da
el efecto directo o neto de una unidad
de cambio en X2 sobre el valor de la
media de Y, sin considerar X3.
) , (
3 2 i i i
X X Y E
3
3
3 2

) , (
| =
i
i i i
dX
X X Y dE
Mide el cambio en el valor de la
media de Y, por unidad de
cambio en X3, permaneciendo
constante X2.
) , (
3 2 i i i
X X Y E
MODELO
LINEAL
GENERAL
MODELOS DE REGRESION
LINEAL Y
POLINOMIAL
Prof.: Ing. William Gilmer Parillo Mamani
Ejemplo: Con la siguiente informacin sobre gastos de
consumo personal per cpita , el ingreso disponible
personal per cpita en el Per:
38
N X
1
X
2
Y
1 220 1 200
2 260 2 220
3 310 3 280
4 260 4 240
5 300 5 290
6 320 6 310
7 310 7 300
8 180 8 200
Donde Y=es el gasto de consumo per cpita, X
1
= ingreso disponible y X
2
=
tiempo.
- Obtener la regresin por el mtodo de Mnimos cuadrados ordinarios:
- Estimar y la matriz covarianzas de los estimadores.
- Hallar las desviaciones estndar(o tpicas) de los estimadores.
- Calcular la suma total de cuadrados(STC).
- Calcular la suma de cuadrados de los residuos(SRC) usando la siguiente formula:
- Calcular la suma explicada de cuadrados(SEC).
- Calcular el coeficiente de determinacin y el coeficiente de determinacin ajustado,
interpretar resultados.
- Elabore el cuadro ANOVA.
- Realice la prueba de hiptesis mediante la prueba t calculada y F calculada.
- Utilizando la informacin en forma de desviaciones obtener los estimadores.
- Estmese la matriz de varianza de B
2
y B
3

t t t t
e X X Y + + + =
2 3 1 2 1
| | |
39
n X1 X2 Y X1^2 X2^2 X1*X2 X1*Y X2*Y Yest e e^2 Y-Yprom (Y-Yprom)^2 Y^2 Yest -Yprom (Yest-Yprom)^2
1 220 1 200 48400 1 220 44000 200 191.72371 8.27629 68.496926 -55 3025 40000 -63.27629 4003.888492
2 260 2 220 67600 4 520 57200 440 231.49644 -11.496 132.16814 -35 1225 48400 -23.50356 552.4173183
3 310 3 280 96100 9 930 86800 840 279.70564 0.29436 0.0866474 25 625 78400 24.70564 610.3686846
4 260 4 240 67600 16 1040 62400 960 243.55011 -3.5501 12.603278 -15 225 57600 -11.44989 131.0999918
5 300 5 290 90000 25 1500 87000 1450 283.32284 6.67716 44.584508 35 1225 84100 28.32284 802.1830845
6 320 6 310 102400 36 1920 99200 1860 306.22262 3.77738 14.268617 55 3025 96100 51.22262 2623.756569
7 310 7 300 96100 49 2170 93000 2100 303.81298 -3.813 14.53881 45 2025 90000 48.81298 2382.706937
8 180 8 200 32400 64 1440 36000 1600 200.16566 -0.1657 0.0274441 -55 3025 40000 -54.83434 3006.804553
Suma 2160 36 2040 600600 204 9740 565600 9450 2040 0.00 286.77437 0.00 14400.00 534600 0.00 14113.22563
Media 270 4.5 255

8 2160 36
Matriz XX= 2160 600600 9740
36 9740 204

2040
Matriz XY 565600
9450

4.73281763 -0.01540252 -0.099808324
Inversa -0.01540252 5.7503E-05 -2.73823E-05
-0.09980832 -2.7382E-05 0.023822563

0.09446878
B 0.84364732 Grados de libertad 5
6.02683461

271.4501593 -0.88340955 -5.72449
Var (u) = -0.883409547 0.00329806 -0.00157
-5.724493863 -0.00157051 1.36634

EJEMPLO: Estimar el siguiente modelo:
i i i i
u X X Y + + + =
2
3 2
1
| | |
n Yi Xi Xi
2
Xi
3
Xi
4
Yi
2
XiYi Xi
2
Y
1 70 80 6400 512000 40960000 4900 5600 448000
2 65 100 10000 1000000 100000000 4225 6500 650000
3 90 120 14400 1728000 207360000 8100 10800 1296000
4 95 140 19600 2744000 384160000 9025 13300 1862000
5 110 160 25600 4096000 655360000 12100 17600 2816000
6 115 180 32400 5832000 1049760000 13225 20700 3726000
7 120 200 40000 8000000 1600000000 14400 24000 4800000
8 130 220 48400 10648000 2342560000 16900 28600 6292000
9 165 240 57600 13824000 3317760000 27225 39600 9504000
10 160 260 67600 17576000 4569760000 25600 41600 10816000
Total 1120 1700 322000 65960000 14267680000 135700 208300 42210000

MODELO DE REGRESION POLINOMIAL
Existen aplicaciones con funciones de costo
y de produccin.
Para estimar este modelo
utilizamos la siguiente formula:
(
(
(

=
(
(
(

(
(
(




Y X
XY
Y
X X X
X X X
X X n
2
3
2
1
4 3 2
3 2
2

|
|
|
(
(
(

=
(
(
(

(
(
(

42210000
208300
1120

0 1426768000 65960000 322000


65960000 322000 1700
322000 1700 10
3
2
1
|
|
|
La determinante de la matriz (XX) es:
Det. (XX) = 118154937600000000 118127059200000000 = 27 878 400 000 000
La transpuesta de la matriz adjunta es:
La matriz inversa de XX es:
Por lo tanto reemplazamos en;
(XX) B = (XY), tenemos:
Alternativamente en el E-views se puede obtener:
INFERENCIA ESTADSTICA EN EL
MODELO LINEAL GENERAL
45
Debemos pensar en los propsitos de la modelacin
economtrica.
Para que estimamos un modelo?
Los propsitos principales de la modelacin
economtrica son:
a) Inferencia: Implica verificar si ciertas
restricciones que imponen las diferentes teoras
econmicas o nuestra intuicin son vlidas o no
para la muestra que utilizamos en la estimacin del
modelo. En la prctica verificamos si dentro del
perodo muestral (en series de tiempo) o al interior de
una muestra (corte transversal) cierta hiptesis inicial
se cumple o no. Es un anlisis ex-post.
46
b) Prediccin: Un modelo puede ser utilizado con el
propsito de estimar el valor de la variable
dependiente ms all de la muestra.
Por ejemplo, si hemos estimado la demanda de un
producto para el perodo 1940-1999 quizs nos
interese conocer cul ser el nivel de la demanda en
el ao 2000 y ms all. Ello nos permitir realizar una
mejor planificacin de las acciones a tomar como
empresa si es que nuestro principal giro es producir
precisamente dicho producto.
De la misma manera, el Estado o los hacedores de
poltica pueden estar interesados en hacer
proyecciones macroeconmicas que por ejemplo se
usan para la planificacin de las acciones de poltica
econmica
47
c) Simulacin de Polticas: Consiste en realizar
predicciones futuras de nuestra variable dependiente
permitiendo que los factores estructurales varen.
Qu pasara con el PIB en el Per si pasamos a un
rgimen mucho ms intervencionista que el actual?
Obviamente un cambio en las condiciones
estructurales afectar el comportamiento de los
agentes econmicos y, por tanto, la respuesta de
stos variar.
Si hacemos un ejercicio de simulacin de polticas debemos tener un elevado grado
de certidumbre con respecto a la idoneidad de nuestro modelo.
La crtica de Lucas precisamente cuestiona el
uso indiscriminado que se le daba a los
modelos macroeconomtricos estimados,
porque si varia los factores estructurales, el
modelo no dice nada.
PRINCIPIOS DE INFERENCIA
48
La inferencia estadstica busca obtener un estadstico
muestral que nos permita responder, con cierto
grado de certeza, si ciertas restricciones que impone
una teora son respaldadas por los datos de una
muestra en particular.
En general, las restricciones que se plantean estn
referidas a la poblacin o el proceso generador de
datos.
Si los datos son generados por dicha poblacin, a
partir de ellos podemos analizar si cumplen o no con
las caractersticas planteadas.
49
Del anlisis de los
datos muestrales
intentamos inferir
si la poblacin
presenta las
caractersticas que
nosotros
planteamos a
partir de nuestras
hiptesis.
Podemos decir que
nosotros
sospechamos que
ciertos datos
(nuestra muestra)
son consistentes con
determinada teora
econmica (que
impone ciertas
restricciones sobre la
poblacin).
Para ello
necesitamos
realizar
pruebas a fin
de contrastar
la hiptesis
que se
plantea que
pueden ser
refutadas o
no.
Ejemplo
50
a) Un investigador est estudiando cules son los
determinantes del consumo y para ello plantea la
siguiente ecuacin:
t t t
p
t t t
W r Y Y C | | | | | + + + + + =
4 3 2 1 0
Donde: Y
t
= Ingreso Corriente
Y
p
t
= Ingreso Permanente
r
t
= Tasa de inters real
W
t
= Riqueza
Se estn incluyendo una serie de factores que
responden a diversas teoras que se han esbozado
sobre el consumo.
51
b) El investigador busca identificar los principales
determinantes de la variable Ct. Para una data peruana
de 1940 a 1999.
c) Cmo en la prctica puede discernir entre una
teora y la otra? Supongamos que piensa preguntar si
las teoras del ingreso permanente y del ciclo de vida
son relevantes para el caso peruano.
d) Una teora implica imponer ciertas restricciones
sobre los datos.
Deber comprobarse empricamente su relevancia o no
de esta teora, esto se realiza mediante las pruebas de
hiptesis.
Al plantear hiptesis que se quiere refutar recibe el
nombre de hiptesis nula.
52
Cmo vamos a comprobar esta hiptesis?
Para realizar las pruebas de hiptesis se necesita identificar la
distribucin de probabilidad de las perturbaciones e
i
. Por tanto,
debemos hacer ciertos supuestos de cmo se distribuyen las
variables consideradas.
Por lo tanto, se va a buscar comprobar a travs de la prueba de
hiptesis si la diferencia observada entre el estimado y la media
supuesta de la distribucin (Ho) se debe a FA y FE:
- Si es a factores aleatorios, no se rechazar Ho (Se Acepta Ho)
- Si es a factores estructurales, no aceptar la Ho (Se rechaza Ho)
El ingreso permanente no es un factor determinante
del consumo para el Per durante el periodo 1940
1999 dado que el parmetro que lo multiplica es
igual a cero.
Por tanto, lo que vamos a poder comprobar a travs
de la inferencia es la validez de esta restriccin, lo
cual implicara la eliminacin de esta variable de la
ecuacin.
Ho: |
2
=0

H1: |
2
0
53
Situacin real
de
la poblacin
Decisin utilizando la informacin muestral
Acepto Ho Rechazo Ho

Ho cierta

No hay error
Prob()= 1-o
Error Tipo I
Prob(Error Tipo I) = o

Ho falsa

Error Tipo II
Prob(Error Tipo II) = |
No hay error
Prob()=1-|
Error Tipo I: Es la probabilidad de que rechacemos
una hiptesis que es cierta. En la metodologa
convencional, el usuario escoge el nivel de error tipo I,
generalmente es de un 5%, a esto se le llama nivel de
significacin estadstica (o) o error tipo I.
| | | | verdadera es Ho cuando Ho chazar P I tipo error P Re = = o
| | | | falso es Ho cuando Ho chazar No P II tipo error P Re = = |
NOTA:
Si cierta restriccin de una teora no es aceptada
no quiere decir que la teora est errada. Lo nico
que se podra afirmar es que para la muestra, no
son consistentes con dicha teora.
Para rechazar una teora hay que tener mucha
evidencia en contra (estimar un modelo para
distintas periodos y para otros pases). Si se
acumulara mucha evidencia en contra, surgira la
necesidad de la proposicin de una teora
alternativa la cual luego debera ser contrastada
empricamente con los datos de distintos pases
y/o muestras. De esta manera va avanzando el
proceso de conocimiento econmico.
54
LA METODOLOGA DE LAS PRUEBAS DE
HIPTESIS
55
Para realizar la inferencia estadstica se debe partir de
suponer una funcin de distribucin probabilstica
conocida. En este caso supondremos que los errores
se distribuyen de la siguiente manera:
Dado que los errores se distribuyen de esta manera,
ello implica que la variable dependiente
tambin sigue una distribucin normal.
Nuestro estimador de MCO se distribuir de la
siguiente forma:

Test de Normalidad
Uno de los problema ms frecuentes al trabajar con
variables es saber si tiene distribucin Normal. Pues no
se puede aplicar los Test estadsticos si la poblacin no es
normal, en ese caso se trabajara con pruebas no
paramtricas o se puede graficar las variables para tener
una idea de la forma y de esta manera poder hacer las
transformaciones del caso para que tengan una
distribucin normal.
Para analizar la normalidad, se considera tres
estadististicos entre las ms importantes:
Test de Jarque Bera.
Prueba de Normalidad (Quantile - Quantile).
El Diagrama de caja.
Test de Jarque Bera (1981)
Se basa en los coeficientes de asimetra y curtosis
aplicados a los residuos del modelo. Para ello plantea la
Hiptesis:
H0 : e
t
se aproxima a una distribucin Normal.
H1 : e
t
no se aproxima a una distribucin Normal.

Jarque - Bera se formula:

n: Tamao de muestra K: Es la kurtosis
S: Es la asimetra k: Nmero de regresores

Regla de Decisin:
Si el JB es menor 5.99 no se rechaza la hiptesis nula
( )
(

=
4
3
6
2
2
K
S
k n
JB
99147 . 5
2
) 2 %; 5 (
= < _ JB
Skewness=Sesgo=0 y kurtosis=3, entonces es
una variable normalmente distribuida.
Abrir con doble click Resid ir a View/ Descriptive Statistics
& Tests / Histogram and Stats
Prueba de Normalidad (Quantile - Quantile)
Para que exista normalidad en los residuos los puntos deber
estar a lo largo de la recta, pero si los puntos estn muy
dispersos y la mayora esta fuera de la recta no existe
normalidad.

* La instruccin en Eviews es doble click en Resid ir a View/
Graph y en sepecificacin seleccionar Quantile - Quantile en
opcnes seleccionar Theoretical
Como se puede apreciar los puntos estn sobre
la recta entonces podemos decir que la variable
Resid (Error) tiene una distribucin normal.
Diagrama de Caja
Si en el grfico la media esta en medio de la caja y los
bigotes de la caja tiene casi la misma distancia a la
caja se acepta la normalidad de la variable.
* Como sabemos este grfico se basa en la media, los
cuartiles y valores extremos. Donde la caja encierra el
rango intercuartil que encierra el 50% de los valores y
tiene una media dibujada dentro, adems el intercuartil
tiene como extremos el percentil 75 y el percentil 25.
Instruccin en Views es abrir Resid con doble click ir a
View/Graph/ Seleccionar la especificacin Boxplot.

Como se observa en el grfico la media esta en
la mitad de la caja y los bigotes tiene igual
distancia a la caja, entonces Resid tiene una
distribucin normal
Test Estadsticos sobre los Coeficientes
Eviews tiene tres pruebas sobre los coeficientes del modelo y estas son:
Pruebas de Restriccin de Coeficientes: Esta prueba se basa en la prueba
de Wald, que puede ser individual (H0: i = 0) o grupal (H0: 1 = 2 =
k =0)
En la ventana de la ecuacin(nuestro caso cagan) ir a View/Coefficient
Diagnostics/Wald Test-Coefficient RestrictionsE n la ventana de dialogo
se escriben las restricciones entre comas ejemplo: H0 : C(1)-2*C(2)
= 0

F ( q=1;T=70;0.95)
Como se observa en el
rectngulo de color
rojo que tiene una baja
probabilidad 0.02% de
no rechazar la
hiptesis nula.
Rechaza H0
q: Nmero de
restricciones.

| |
2
1
1 2
) ( ) ( ) ( _ ~
' ' '
=

q Rb R X X R S q Rb W
o Contraste de restricciones lineales: Esta Prueba utiliza el
estadstico W y el F para contrastar los residual del modelo sin
restringir (S) y los del mod.elo restringido (t).


o Pruebas de Variables Omitidas: Nos da una idea si una lista de
variable adicional podra mejorar el modelo.
Ubicamos en cuadro de la ecuacin (caso Cagan) nos dirigimos a
View/Coefficient Diagnostics /Omitted Variables Test-Likelihood Ratio.
En el cuadro de dialogo se escriben las variables a omitir (caso: inter)






) ; (
/
/ /
) /(
/ ) (
k T q
s s
s s t
F
k T
q
F
t

=
c c
c c c c
H0 : La variable inter es no
significativa para el modelo
(C(3)=0)
H1 : inter es una
variable
significativa para el
modelo (C(3) 0).
Con una probabilidad 0.07% se
rechaza la hiptesis nula de
no significancia para el
modelo,
o Pruebas de Variables Redundantes: Prueba si la exclusin
de una lista de variable podra mejor el ajuste del modelo.
* Ubicamos en cuadro de la ecuacin (caso Cagan) nos dirigimos
a View/Coefficient Diagnostics /RedundantVariables Test-
Likelihood Ratio
En el cuadro de dialogo se escriben las variables a omitir
(caso: LOGPBI)






H0 : La variable LogPBI es redundante para
el modelo.
H1 : La variable LogPBI es
redundante para el modelo .
Con una baja probabilidad de
0 % (menor =5%) no se
acepta la hiptesis nula.
Por lo que la variable LogPBI
no es redundante para el
modelo de Cagan
67
obs MI TAM PIBPC
1 128 37 1870
2 204 22 130
3 202 16 310
4 197 65 570
5 96 76 2050
6 209 26 200
7 170 45 670
8 240 29 300
9 241 11 120
10 55 55 290
11 75 87 1180
12 129 55 900
13 24 93 1730
14 165 31 1150
15 94 77 1160
16 96 80 1270
17 148 30 580
18 98 69 660
19 161 43 420
20 118 47 1080
21 269 17 290
22 189 35 270
23 126 58 560
24 12 81 4240
25 167 29 240
26 135 65 430
27 107 87 3020
28 72 63 1420
29 128 49 420
30 27 63 19830
31 152 84 420
32 224 23 530
obs MI TAM PIBPC
33 142 50 8640
34 104 62 350
35 287 31 230
36 41 66 1620
37 312 11 190
38 77 88 2090
39 142 22 900
40 262 22 230
41 215 12 140
42 246 9 330
43 191 31 1010
44 182 19 300
45 37 88 1730
46 103 35 780
47 67 85 1300
48 143 78 930
49 83 85 690
50 223 33 200
51 240 19 450
52 312 21 280
53 12 79 4430
54 52 83 270
55 79 43 1340
56 61 88 670
57 168 28 410
58 28 95 4370
59 121 41 1310
60 115 62 1470
61 186 45 300
62 47 85 3630
63 178 45 220
64 142 67 560
El modelo es:


Datos obtenidos de 64
pases.
Donde:
MI=Mortalidad infantil,
numero de muertes de
nios menores de 5 aos,
por cada 1 000 nacidos
vivos.
TAM=Tasa de alfabetismo
femenina (en %).
PIBPC= PIB per cpita en
1980 (en US$).
EJEMPLO: MI RESPECTO AL PIBPC Y TAM
68
Dependent Variable: MI
Method: Least Squares
Date: 11/30/11 Time: 06:45
Sample: 1 64
Included observations: 64
Variable Coefficient Std. Error t-Statistic Prob.
C 263.6416 11.59318 22.74109 0.0000
PIBPC -0.005647 0.002003 -2.818703 0.0065
TAM -2.231586 0.209947 -10.62927 0.0000
R-squared 0.707665 Mean dependent var 141.5000
Adjusted R-squared 0.698081 S.D. dependent var 75.97807
S.E. of regression 41.7478 Akaike info criterion 10.34691
Sum squared resid 106315.6 Schwarz criterion 10.44811
Log likelihood -328.1012 F-statistic 73.83254
Durbin-Watson stat 2.186159 Prob(F-statistic) 0.00000
-0.0056: Coeficiente de regresin parcial del PIBPC, Indica que conforme el PIBCP se
incrementa en un dlar en promedio, la mortalidad infantil disminuye en 0.0056
unidades, con TAM constante. O Si el PIBPC se incrementara 1000 dlares, en
promedio, el numero de muertes de nios menores de 5 aos se reducira a 5.6 por
cada 1000 nacimientos vivos, ceteris paribus.
-2.231: Si la tasa de alfabetizacin en las mujeres sube un punto porcentual, el
numero de muertes de nios menores de 5 aos disminuir, en promedio, 2.23 por
cada mil nacimientos vivos, manteniendo constante la influencia del PIBCP.
263.64: (interseccin). Interpretacin mecnica: Si los valores del PIBCP y TAM fuesen
cero, la MI promedio seria de aprox. 263 muertes por cada mil nacimientos vivos.
R2=0.71: Significa que casi 71% de la variacin en la MI se explica mediante el PIBPC
y la TAM.


PRUEBA DE HIPOTESIS SOBRE
COEFICIENTES DE REGRESION PARCIAL
69
Se puede utilizar la prueba t.
Manteniendo TAM constante, el PIBPC no tiene influencia (lineal) sobre la MI
o=Nivel de significancia=prob. De cometer un error tipo I=5%.
t
t
=valor critico t = t
(n-k),

o/2
= t
(64-3),

0.05/2
= t
61,

0.025
= 2.0=1.9996 (dos colas) Interpolar?
NOTA: El valor critico es 1.6702 para la prueba de una cola.



Regla de decisin:
0 . 2 8187 . 2
t
= > = = t t t
c
Se rechaza H
0
de que el PIBPC no tiene ningn
efecto sobre la MI. Manteniendo TAM constante,
el PIBPC tiene un efecto significativo (negativo)
sobre la MI.
70
La interpretacin de este valor p (i.e., el nivel exacto de
significancia), es que si la Ho fuese verdadera, la prob. De obtener
un valor t igual a 2.81187 o mayor (en trminos absolutos) es de
solo 0.0065 o 0.65%, que de hecho es mucho menor que o=5%.
Prueba de una sola cola:


Se rechaza la Ho, con base a la prueba t de una cola.
INTERVALOS DE CONFIANZA
71
El intervalo de 95% de confianza para |2 es:
O sea, el intervalo de -0.0096 a -0.0016 incluye al verdadero coeficiente |2, con
un coeficiente de confianza del 95%. Por tanto, si 100 muestras de tamao 64 se
seleccionan y 100 intervalos de confianza como el anterior se forman, entonces
se espera que 95 de ellos contengan el verdadero parametro de poblacin |2.
Puesto que el intervalo no incluye el valor de cero de la Ho, se rechaza la Ho.
Recordemos que la prueba t se basa en la suposicin de
que el termino de error e
i
sigue una distribucin normal.
72
0
2
4
6
8
10
-80 -40 0 40 80
Series: Residuals
Sample 1 64
Observations 64
Mean -1.91e-14
Median 0.709227
Maximum 96.80276
Minimum -84.26686
Std. Dev. 41.07980
Skewness 0.227575
Kurtosis 2.948855
Jarque-Bera 0.559405
Probability 0.756009
Si JB=0.5594, con un p=0.756.
El termino de error sigue la distribucin normal. El
valor de sesgamiento es: 0.2276 y el de la kurtosis es
2.9488.
PRUEBA DE SIGNIFICANCIA GLOBAL
73
Nivel de significancia=o=5%.
F
o,(K-1),(n-k)
= F
0.05,(3-1),(64-3)
= F
0.05,2,61
=3.15 aprox. Interpolar en
tablas?







Regla de decisin: El valor F excede a los valore criticos,
entonces se rechaza la Ho.


PIBPC y TAM conjuntamente no tienen efecto sobre la
MI. Los verdaderos coef. De pendiente son
simultneamente cero.
Sin embargo; Prob(F-statistic)=0.0000, implica el rechazo de la Ho
Ha: No todos los coeficientes de pendiente son simultneamente cero
ARCHIVOS DE TRABAJO (WORKFILES)
WORKFILE: Crea un nuevo archivo de trabajo con la estructura indicada. El archivo contendr
automticamente los objetos del sistema: C = vector de constantes y RESID = serie de residuos
WORKFILE [Nombre] [Frecuencia] [Perodo inicial] [Perodo final]
INDICACIONES:
[Frecuencia]=[A | S | Q | M | W | D | 7 |
U ]
Ejemplos:
WORKFILE Archivonuevo U 1 1000/ WORKFILE U 100
WORKFILE Otroarchivo Q 1990.1 1999.4
WORKFILE prueba1 m 90 2000.06
WORKFILE prueba2 d 1.2.1999 1.2.2000
INSTRUCCIN:
Nota: File/New/Workfile
Ejemplo:
Se desea
estimar una
funcin de
produccin:
Rango (Range): incluye todas las observaciones del archivo
Muestra(sample):Incluye todas ellas o solo una parte (para clculos)
Zona de
objetos
WORKFILE ejercicio a 1985 1996
SMPL
obs K L P
1985 2923424 1493.8 3267636
1986 3138054 1549.1 3664620
1987 3364006 1637.6 4106758
1988 4672090 1727.6 4592483
1989 6413699 1848.6 5250695
1990 8526639 1963.5 6074133
1991 10744840 2036.2 6887865
1992 12597039 2070.8 7848365
1993 14444432 2065.4 8168404
1994 16260040 2055.9 8392581
1995 17962362 2093.78 8972103
1996 19226538 2107.615 9420052
CREACIN DE SERIES DE DATOS
obs K L P
1985 2923424 1493.8 3267636
1986 3138054 1549.1 3664620
1987 3364006 1637.6 4106758
1988 4672090 1727.6 4592483
1989 6413699 1848.6 5250695
1990 8526639 1963.5 6074133
1991 10744840 2036.2 6887865
1992 12597039 2070.8 7848365
1993 14444432 2065.4 8168404
1994 16260040 2055.9 8392581
1995 17962362 2093.78 8972103
1996 19226538 2107.615 9420052
DATA [Nombre de serie1] [Nombre de serie2] [ ]
Ejemplo:
DATA K L P
INSTRUCCIN:
Nota: Quick/Empty Group
GENERACIN DE SERIES MEDIANTE EL USO
DE FORMULAS
Nota: Procs/Generate series
INSTRUCCIN:
GENR: Crea o reemplaza el valor de una serie de
datos dentro de la muestra activa de acuerdo con la
formula indicada en el lado derecho de la ecuacin.
GENR [Nombre de serie]= []
Ejemplo:

Genr serieajustada=(PBI/Deflactor)+@trend
Genr Y=@log(X)=Log(x)

Ejemplo:
genr lk=@log(K)
genr ll=@log(l)
GENERACIN DE SERIES MEDIANTE EL USO DE
FORMULAS: UTILIZANDO REZAGOS O ADELANTOS
Supongamos que se tiene la serie K y se desea calcular la tasa de
crecimiento discreta del K como una nueva serie de datos llamada
Tasa_K.
1
1
1
Pr

= =
t
K
t
K
evio Valor
Actual Valor
Tasa
K
t-1
= Primer rezago de la serie K u observacin previa o
valor anterior de la serie K
INSTRUCCIN:
GENR K1=K(-1)
GENR tasak=(k/k(-1))-1
GENR tasak=@PCH(K)
O alternativamente:
GENERACIN DE SERIES USANDO
FUNCIONES INCORPORADAS EN E VIEWS
Se desea disponer de una serie de datos que contenga nmero
reales extrados al azar a partir de una distribucin normal
estndar ().
INSTRUCCIN:
GENR RUIDO =NRND
Eviews esta recibiendo sobre la marcha una serie aleatoria normal
estndar y registrar posteriormente estos valores en la serie Ruido.
NRND = Normal Random
Primera diferencia de series
Genera una serie con valores enteros ascendentes
0,1,2
Tendencia = @trend
t t t
K L K K K ) 1 (
1
= = A

INSTRUCCIN:
GENR DK1=k-k(-1)=D(k)
t t
LK K =
1
L= Operador de rezago
GENERACIN DE SERIES USANDO
FUNCIONES INCORPORADAS EN E VIEWS
Diferencia de orden especfico de una serie
t
n
t
orden
t
K L K L K ) 1 ( ) 1 ( = = A
INSTRUCCIN:
GENR DK1=k-k(-1)
GENR DK1=D(k)=D(k,1)
GENR DK2=D(k,2)
GENERACIN DE SERIES USANDO
FUNCIONES INCORPORADAS EN E VIEWS
LOG(Nm). Logaritmo natural del argumento
EXP(Nm). Antilogaritmo natural del argumento
ABS(Nm). Valor absoluto del argumento
NRND
Serie de nmeros seudoaleatorios con distribucin normal
estndar
RND
Serie de nmeros seudoaleatorios con distribucin uniforme en el
intervalo [0,1]
D(serie) Primera diferencia de una serie de datos
D(serie, orden) Diferencia de orden especifico de una serie de datos
D(serie,n,s)
diferencia de orden n y diferencia estacional de orden s de la serie
X.
@Trend Tendencia
@trend(obs)
Tendencia centrada. Ejemplo genr T=@trend(1990), genera una
serie en el cual el cero corresponde a 1990.
@PCH(serie) Cambio porcentual de una periodo con respecto a otro periodo
@seas(periodo)
Variable estacional auxiliar.Ejm. Genr Marzo=@seas(3) genera
una serie que contiene 1 en Marzo y 0 en el resto.
GENERACIN DE SERIES USANDO
FUNCIONES INCORPORADAS EN E VIEWS

@min(serie) Devuelve el mnimo valor relativo de una serie de datos
@max(serie) Devuelve el mximo valor relativo de una serie de datos
@mean(serie) Media de una serie de datos
@Median(serie) Mediana de una serie de datos
@sum(serie) Suma de los valores de la serie
@sumsq(serie) Suma de cuadrados de los valores de una serie de datos
@stdev(serie) Desviacin estandar muestral de una serie de datos
@var(serie) Varianza poblacional de una serie de datos
@obs(serie) Nmero de observaciones con informacin
@Rows(serie)
Nmero de observaciones dentro del rango del archivo de
trabajo
@sin(Nm) Seno de un ngulo en radianes
@cos(Nm) Coseno de un ngulo en radianes
@tan(Nm) Tangente de un ngulo en radianes
@mod(N,M)
Devuelve el residuo de la divisin entera N/M, con el mismo
signo que el numero N.
COMENZANDO A TRABAJAR
I. Estadsticas bsicas
En todo anlisis univariado se debe examinar la forma que adopta el
grafico lineal.
En caso de series de corte transversal se debe ordenar primero las
observaciones.
INSTRUCCIN:
PLOT p l k
Quick/graph/line graph
0.0E+00
4.0E+06
8.0E+06
1.2E+07
1.6E+07
2.0E+07
85 86 87 88 89 90 91 92 93 94 95 96
P L K
Histogramas
0
1
2
3
4
5
5000000 10000000 15000000 20000000
Series: K
Sample 1985 1996
Observations 12
Mean 10022764
Median 9635740.
Maximum 19226538
Minimum 2923424.
Std. Dev. 6025567.
Skewness 0.192593
Kurtosis 1.567577
Jarque-Bera 1.100102
Probability 0.576920
0
1
2
3
4
5
6
1400 1600 1800 2000 2200
Series: L
Sample 1985 1996
Observations 12
Mean 1887.491
Median 1999.850
Maximum 2107.615
Minimum 1493.800
Std. Dev. 227.9436
Skewness -0.639606
Kurtosis 1.811312
Jarque-Bera 1.524682
Probability 0.466573
Ho: La serie esta
distribuido en
forma normal
Si el
estadstico
JB se
aproxima a
cero
entonces no
se rechaza la
Ho
II. Anlisis de regresin
INSTRUCCIN:
SCAT Variable Variable X Variable Y1 Variable Y2
Ejemplo: scat l k p
SCAT: Muestra una nube de puntos que relaciona la primera
variable ( eje de abscisas) con las siguientes ( en el eje de las
ordenadas)
0.0E+00
4.0E+06
8.0E+06
1.2E+07
1.6E+07
2.0E+07
1400 1600 1800 2000 2200
L
K
P
En el grafico
se puede ver
que existe
una relacin
positiva.
II. Anlisis de regresin: estimacin de la regresin
INSTRUCCIN:
LS P c L K
Ls(least squares): Estima los parmetros de una
ecuacin mediante el mtodo de MCO.
t
u K L P + + + =
2 1 0
| | |
Realizamos el contraste para verificar la igualdad
entre las productividades marginales
TEST DE WALD.
2 1
: | | = Ho
La prob. Es menor
al nivel de
significancia
elegido(0.05), se
rechaza Ho

Estimacin en trminos de logaritmos
t
u
e K AL P
t t
2 1
| |
=
Contraste parea verificar la existencia de
rendimientos constantes a escala
1 :
2 1
= + | | Ho
La prob. Es mayor al
nivel de significancia
elegido(0.05), no se
rechaza Ho. Por tanto
existe rendimientos
constantes a escala

MULTICOLINEALIDAD
91
La No Multicolinealidad significa: Que ninguna de las
variables explicativas puede escribirse como
combinacin lineal de las variables explicativas. (LAS
Xs SON LINEALMENTE INDEPENDIENTES).
Y
X
2
X
3
2
1
No hay colinealidad
1: variaciones de Y explicada por X2
2: Variaciones de Y explicada por X3
Y
X
2
X
3
4
3
5
Hay colinealidad alta
3 y 4: variaciones de Y explicada por X2
4 y 5: Variaciones de Y explicada por X3
4: No sabemos a priori que parte de 4
pertenece a X2 y que parte a X3
(representa la colinealidad)
92
MULTICOLINEALIDAD
Sea:
0
3 3 2 2
= +
i i
X X
En el modelo: i i i i
e X X Y + + + =
3 3 2 2 1

| | |
- Si esta relacin existe, entonces X
2
y X
3
son
colineales o linealmente dependientes.
- Si
2
=
3
=0, se dice que X
2
y X
3
son linealmente
independientes.
CASOS:
- Si X
2i
= -4X
3i
: X2 Y X3 son linealmente
dependientes (Colinealidad perfecta o existe
relacin lineal exacta entre X2 y X3).
- Si X
3i
= X
2i
2
: La relacion entre X2 Y X3 no es
lineal (No viola el supuesto de no colinealidad
entre X2 y X3).

Ejemplo (colinealidad perfecta).
93
Si:
i i
X X
2 3
2 =
En el modelo: i i i i
e X X Y + + + =
3 3 2 2 1

| | |
- Por tanto, hay una regresin de 2 variables (una
sola variable independiente) y no de 3. En o no
hay forma de estimar la influencia separada de
X2 y X3 sobre Y.

Donde:
Y=Gasto de consumo
X2=Ingreso.
X3=Riqueza del consumidor
Influencia independiente
segn teora econmica.
3 2 2 1
2 3 2 1
2 3 2 2 1

) 2 (

| | o o |
| | |
| | |
+ = + + =
+ + + =
+ + + =
i i i
i i i
i i i i
e X Y
e X Y
e X X Y
Influencia combinada de
X2 y X3 sobre Y.
CONSECUENCIAS DE LA MULTICOLINEALIDAD
94
- Varianzas y covarianzas grandes.
- Intervalos de confianza ms amplios.
- Estadsticos t poco significativos y un
R
2
alto.
- Sensibilidad de los estimadores y sus
errores estndar ante pequeos
cambios en la muestra.


95
Ejemplo (consecuencias de la
multicolinealidad).
Consideremos una regresin donde se pretende estimar el
consumo de una familia a partir de su ingreso y su riqueza.
Sobre la base de informacin hipottica se obtuvieron los
siguientes resultados:
) 0807 . 0 (
0424 . 0
) 8229 . 0 (
9415 . 0
) 7525 . 6 (
7747 . 24

3 2 i i i
X X Y + =
Variable Estadstico t
Intercepto 3.6690
X
2i
1.1442
X
3i
-0.5261
R-cuadrado 0.9635
Los resultados de la regresin muestran que el ingreso y la riqueza explican
conjuntamente alrededor del 96% de las variaciones en el consumo. Sin
embargo, ninguno de los coeficientes de las variables involucradas es
estadsticamente significativo. Ms an, no slo la variable riqueza no resulta
significativa sino que el signo del coeficiente asociado a esta variable es
contrario al esperado. Evidentemente, es de esperar que las variables
involucradas presenten un alto nivel de colinealidad, especficamente, se
debera esperar una relacin positiva entre el consumo y la riqueza.
96
Ejemplo (consecuencias de la multicolinealidad).
Variables independientes registran un alto grado de
colinealidad. r
x1x2
=0.9998
Al incluir en la muestra 10 observaciones adicionales, se registra un
drstico cambio en el SIGNO de los coeficientes involucrados.
Por otro lado, si bien los estadsticos t resultan poco significativos, en la
prueba de significacin conjunta se rechaza la hiptesis nula. Por
tanto, la presencia de un alto grado de multicolinealidad no permite
estimar de un modo preciso los coeficientes de regresin individuales
pero que, en conjunto, los regresores incluidos s explican
adecuadamente a la variable dependiente.
CMO DETECTAR LA
MULTICOLINEALIDAD?
97
- R
2
alto y t* bajos
- Altas correlaciones entre los regresores
(mayor a 0.8).
- Test de Farrar Glauber.


Para ver la matriz de correlaciones en Eviews 7 tenemos que el cuadros
Pros/Make Regressor Group en la nueva ventana ir Group Menbers, borra
la variable LogM hacer click en name y guardalo con el nombre Matrix.

Abrir el objeto Matrix con doble
click e ir View/Principal
Components Nos da la
matrix de correlaciones
En el cuadro de comandos
Digitar: Sym
mcorrel=@cor(matrix)

En el cuadro de comandos
Digitar: Scalar
det_cor=det(mcorrel)
Abrir el objeto det_cor con doble
click ver el valor de la
detreminante esn 0.61>0. No
existe correlacin el en modelo

Para ver un ejemplo con multicolinealidad crearemos un Workfile
generando variables que se muestra en el grfico del cuadro de
comandos

En el modelo
de Regresin
de la Gua
positiva
anterior se
puede observar
una alta
colinealidad
(un buen ajuste
entre R^2 y F),
pero la variable
X3_ no es
significativa
(tiene una
probabilidad
alta de 21.31%
mayor al 5%), lo
que nos da
indicios de
multicolinealida
d que
constatara con
la matriz de
correlaciones.
Para realizar el
grafico de las
correlaciones
seleccionemos
X1 X2 X3_ con
CTRL y
despus un
Click izquierdo
nos dirigiremos
a la Table en
men
View/Graph
seleccionaremo
s la opcin que
se muestra en
el grfico de
Graph Options

Test de Farrar-Glauber
H0 : Las Xi son ortogonales entre si
H1 : Las Xi no son ortogonales entre si (Existe multicolinealidad)


k: Nmero de variables explicativas
R: Matriz de correlaciones simples.

2
2 / ) 1 (
* )
6
5 2
( 1

~
(

+
=
k k
R Log
k
T FG _

S-ar putea să vă placă și