Documente Academic
Documente Profesional
Documente Cultură
Universidad de Concepcin
I.S.B.N. 956-8029-48-6
Impresin:
Talleres Direccin de Docencia
Edmundo Larenas 64-A
Barrio Universitario
Concepcin
Junio 2003
ii
ndice general
1. ALGEBRA MATRICIAL 1
1.1. Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2. Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.1. Tipos de Matrices . . . . . . . . . . . . . . . . . . . . . 3
1.2.2. Transposicin . . . . . . . . . . . . . . . . . . . . . . . 4
1.3. Operaciones de Matrices . . . . . . . . . . . . . . . . . . . . . 5
1.3.1. Igualdad de Matrices . . . . . . . . . . . . . . . . . . . 5
1.3.2. Adicin - Sustraccin . . . . . . . . . . . . . . . . . . . 5
1.3.3. Multiplicacin por Escalar . . . . . . . . . . . . . . . . 6
1.3.4. Multiplicacin de Matrices . . . . . . . . . . . . . . . . 7
1.3.5. Producto Kronecker . . . . . . . . . . . . . . . . . . . 10
1.3.6. Traza de una matriz . . . . . . . . . . . . . . . . . . . 12
1.4. Determinante de una Matriz . . . . . . . . . . . . . . . . . . . 13
1.4.1. Menor de una Matriz . . . . . . . . . . . . . . . . . . . 14
1.4.2. Cofactor de una Matriz . . . . . . . . . . . . . . . . . . 15
1.4.3. Matriz de Cofactores . . . . . . . . . . . . . . . . . . . 16
1.4.4. Matriz Adjunta . . . . . . . . . . . . . . . . . . . . . . 16
1.4.5. Mtodo de Cofactores para el Determinante . . . . . . 16
1.4.6. Propiedades del Determinante. . . . . . . . . . . . . . . 17
1.5. Rango de una Matriz . . . . . . . . . . . . . . . . . . . . . . . 18
1.6. Matriz Inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.6.1. Propiedades de la Matriz Inversa . . . . . . . . . . . . 21
1.7. Diferenciacin de Matrices . . . . . . . . . . . . . . . . . . . . 21
iii
iv NDICE GENERAL
vii
viii PREFACE
ALGEBRA MATRICIAL
1.1. Introduccin
El objetivo de este captulo es entregar algunas nociones de lgebra matri-
cial que son necesarias para la comprensin de los modelos y tcnicas de esti-
macin economtricas desarrollados a partir del captulo 3. Se comienza con
la definicin de matrices y con una clasificacin de stas, para posteriormente
estudiar las operaciones matriciales bsicas, entre las cuales se mencionan la
adicin, la multiplicacin, los determinantes y el Producto Kronecker. Otras
herramientas que sern discutidas son la obtencin de recprocos (inversos
multiplicativos) y sus respectivas propiedades, para finalizar con una breve
introduccin a la diferenciacin matricial.
Las matrices son convenientes porque permiten expresar en forma orde-
nada y compacta una variedad de tpicos relevantes desde la perspectiva
econmica. Por ejemplo, se puede representar en forma matricial la informa-
cin de mltiples series con numerosas observaciones de datos econmicos,
los cuales sirven para estimar diversos modelos tericos y contrastarlos con la
evidencia emprica. As mismo, modelos tericos con gran cantidad de rela-
ciones se expresan en forma sencilla al trabajar con matrices. Por ltimo, los
resultados de los diversos problemas de estimacin planteados son entrega-
dos en una forma ordenada y de fcil interpretacin. Estas ventajas sern
claras para el lector en la medida que profundice en el anlisis de los datos
econmicos.
Los tpicos presentados en este captulo no pretenden ser una revisin
completa del lgebra matricial, sino slo entregar los elementos necesarios
1
2 CAPTULO 1. ALGEBRA MATRICIAL
1.2. Matrices
Las matrices se definen como un ordenamiento o arreglo rectangular de
elementos dispuestos en filas y columnas. La cantidad de filas y columnas
que posea una matriz determinar el orden de sta. As una matriz A que
posea m filas y n columnas, tendr orden mn y la matriz se denotar como:
Amn . Su representacin grfica es
a11 a12 ... a1n
a21 a22 ... a2n
Amxn = .. .. . . .. ,
. . . .
am1 am2 ... amn
donde aij denota al elemento de la matriz que est en la interseccin de la
i-sima fila y la j-sima columna. Veamos el caso de una matriz A de orden
2 3, y de una matriz B de orden 2 2:
3 1 7 2 5
A23 = B22 = ,
0 5 4 6 4
donde 1 es el elemento a12 , y 4 es el elemento b22 .
En economa interesa muchas veces relacionar conjunto de datos. Por
ejemplo, los datos anuales del Producto Interno Bruto (en millones de
pesos de 1986) y el Saldo de la Balanza Comercial (al 31 de diciembre
de cada ao en millones de dlares) de la economa chilena entre los aos
1991 y 1996 se presentan a continuacin como la matriz X:
4,841,447 1,485, 1
5,435,881 722, 0
5,815,646 989, 8
X=
6,147,610 732, 0
6,800,952 1,369, 1
7,305,141 1,095, 0
1.2. MATRICES 3
En esta matriz se puede observar que el elemento a23 (3) es igual al ele-
mento a32 , as como el elemento a12 (4) es igual al elemento a21 . Tambin se
observa que los elementos de la diagonal principal son 5, 0 y 1, respectiva-
mente.
1.2.2. Transposicin
La transpuesta de una matriz A, denotado por A0 , se obtiene mediante
el intercambio de filas y columnas, es decir, las filas se convierten en columnas
y viceversa, manteniendo su orden.
Si consideramos la siguiente matriz A, al transponerla queda:
5 4 9 5 11 2
A33 = 11 0 3 A033 = 4 0 8
2 8 1 9 3 1
A0 = A
5 8 1 4 3 2 1 5 3
+ =
9 0 13 7 6 1 16 6 14
A+B=B+A
2. La suma (resta) de una matriz A, con la matriz nula (matriz que posee
todos los elementos iguales a cero), es la matriz A, es decir:
Amn + mn = Amn
[A + () B] + () C = A + () [B + () C]
(A + () B)0 = A0 + () B0
a11 a12 a1n
a21 a22 a2n
Amn = .. .. ... ..
. . .
am1 am2 amn
a11 a12 a1n
a21 a22 a2n
= .. .. ... ..
. . .
am1 am2 amn
a11 a1n b11 b1q c11 c1q
a21 a2n b21 b2q c21 c2q
.. ... .. .. . . . = .. ... .. ,
. . . . .. . .
am1 amn bn1 bnq cm1 ... cmq
5 1 + 4 (3) + (10) (2) 5 12 + 20 13
AB = = =
(8) 1 + 2 (3) + 15 (2) (8) 6 30 44
Matriz Idempotente
Por ejemplo:
6 10 6 10
AB =
3 5 3 5
6 6 + 10 (3) 6 10 + 10 (5)
=
(3) 6 + (5) (3) (3) 10 + (5) (5)
6 10
=
3 5
Esto quiere decir que al multiplicar esta matriz por si misma un nmero
de veces cualquiera siempre dar como resultado la matriz A. La matriz I es
otro ejemplo de matiz idempotente.
1.3. OPERACIONES DE MATRICES 9
A B 6= B A
Una conclusin que se puede sacar de esta propiedad, es que por lo general
el orden que posea la matriz obtenida de multiplicar AB es distinto al orden
de la matriz obtenida de multiplicar B A.
Adems, dado que esta operacin no es conmutativa, el orden de los
factores s altera el producto. Es necesario definir dos operaciones de multi-
plicacin de matrices. La multiplicacin por la derecha o postmultiplicacin
y la multiplicacin por la izquierda o premultiplicacin. En el caso de A B,
implica que A esta premultiplicando a B, o alternativamente, B est post-
multiplicando a A.
1
2 Xn
0 2 2 2
= [1 2 n ] .. = 1 + 2 + + n = u2i
. i=1
n
1 21 1 2 1 n
2 2 1 22 2 n
0
= .. [1 2 n ] = .. .. ... ..
. . . .
n n 1 n 2 2n
10 CAPTULO 1. ALGEBRA MATRICIAL
(A B) C = A (B C)
A (B + () C) = (A B) + () (A C)
(A B)0 = B0 A0
(A B C)0 = C0 B0 A0
( A)0 = A0 0 = A0 = A0
b11 b12 b1q b11 b12 b1q
b21 b22 b2q b21 b22 b2q
a11
... .. .. .. a1n .. .. . . . ..
. . . . . .
bp1 bp2 bpq bp1 bp2 bpq
b11 b12 b1q b11 b12 b1q
b21 b22 b2q b21 b22 b2q
a21 . .. . . .. a2n .. .. . . . ..
Cmpnq
= .. . . . . . .
bp1 bp2 bpq bp1 bp2 bpq
.. .. ..
. . .
b11 b12 b1q b11 b12 b1q
b21 b22 b2q b21 b22
b2q
a
m1 .. .. . . .. amn .. .. . . . ..
. . . . . . .
bp1 bp2 bpq bp1 bp2 bpq
tr(A) = 4 + 9 + 6 = 19
Esta funcin tiene las siguientes propiedades:
tr(A) = tr(A)
tr(AB) = tr(BA),
siempre que AB y BA estn definidos. Lo mismo es vlido para los productos
de las matrices A, B, C siempre que stos estn definidos:
tr(B) = tr(A1 B A)
X
n!
|A| = (1) a1i1 a2i2 . . . anin
Donde, se define como el nmero de permutaciones posibles entre los
elementos de la matriz. Para una matriz de 2x2 el determinante est definido
como:
a11 a12
A =
a21 a22
a a
|A| = 11 12 = (a11 a22 ) (a21 a12 )
a21 a22
14 CAPTULO 1. ALGEBRA MATRICIAL
|A| = (a11 a22 a33 + a12 a23 a31 + a13 a32 a21 )
(a31 a22 a13 + a11 a32 a23 + a33 a21 a12 )
a a
M21 = 12 13 = (a12 a33 ) (a32 a13 )
a32 a33
y se denota M21 , donde se ha construido una matriz nueva eliminando la
segunda fila y la primera columna de la matriz A. A esta nueva matriz se le
calcula su determinante. As, se pueden encontrar todos los menores de una
determinada matriz.
Ejemplo: Consideremos la siguiente matriz cuadrada A, de orden 3 3.
5 4 9
A33 = 11 0 3
2 8 1
a11 a12
A=
a21 a22
Si sumamos los elementos de la primera columna, el determinante de esta
matriz se obtiene como:
|A| = a11 (1)1+1 a22 + a21 (1)2+1 a12 = a11 a22 a21 a12
|A| = a12 (1)1+2 a21 + a22 (1)2+2 a11 = a11 a22 a12 a21
|B| = |A|
|A B| = |A| |B|
|A| = n |A|
An Bn = Bn An = In
Esto implica que B es la inversa de A y se denota como B = A1 . La
inversa es til en una serie de aplicaciones. Por ejemplo, es posible escribir
y resolver un sistema de ecuaciones en forma matricial, de forma bastante
sencilla. Supongamos que tenemos el siguiente sistema:
A1 A x = A1 b
I x = A1 b
x = A1 b,
Adj(A)
A1 =
|A|
Consideremos como ejemplo la matriz de los ejemplos anteriores:
5 4 9
A33 = 11 0 3
2 8 1
Si aplicamos la definicin para obtener la matriz inversa, debemos usar
la matriz adjunta y el determinante obtenidos anteriormente1 :
24 76 12
17 23 84
88 32 44 24/740 76/740 12/740
A1 = = 17/740 23/740 84/740
740
88/740 32/740 44/740
|Cji |
aij =
|A|
1
Ver Seccin 1.4.
1.7. DIFERENCIACIN DE MATRICES 21
1 1
A =A
1 0
(A0 ) = A1
(A B)1 = B1 A1
1
A = 1
|A|
m1 x1
m2 x2
mn1 = .. xn1 = ..
. .
mn xn
Para multiplicar estos vectores es necesario trasponer uno de ellos, por
ejemplo, se puede trasponer el vector m, obtenindose un escalar al multi-
plicar ambos vectores (es un polinomio). Es decir:
x1
x2
m0 x = (m1 m2 mn ) .. = m1 x1 + m2 x2 + . . . + mn xn
.
xn
m11 m12 m1n x1
m21 m22 m2n x2
Mnn = .. .. ... .. xn1 = ..
. . . .
mn1 mn2 mnn xn
1.7. DIFERENCIACIN DE MATRICES 23
(x0 Mx)
= 2Mx = 2M0 x
x
Ejemplo: Supongamos que se tiene una matriz cuadrada simtrica de
coeficientes M de orden 2, y un vector x de variables de orden 2 1:
m11 m12 x1
M22 = x21 =
m21 m22 x2
Al establecer la forma cuadrtica se tiene que:
0 m11 m12 x1
x Mx = [x1 x2 ]
m21 m22 x2
x1
= [x1 m11 + x2 m21 x1 m12 + x2 m22 ]
x2
= x21 m11 + 2x1 x2 m12 + x22 m22
(x0 Mx) (x21 m11 + 2x1 x2 m12 + x22 m22 ) 2x1 m11 + 2x2 m12
= =
x x 2x1 m12 + 2x2 m22
2m11 2m12 x1 m11 m12 x1
= =2
2m12 2m22 x2 m21 m22 x2
0
= 2Mx = 2M x
ESTADSTICA,
PROBABILIDAD E
INFERENCIA
25
26 CAPTULO 2. ESTADSTICA, PROBABILIDAD E INFERENCIA
1. f (x) 0
R
2. f (x) dx = 1
1. F () = 0
2. F () = 1
3. P (a x b) = F (b) F (a)
F (x)
4. f (x) = x
= F 0 (x) para el caso continuo.
1. 0 f (x, y) 1
PP
2. f (x, y) = 1 para el caso discreto. y
x y
RR
3. f (x, y) = 1 para el caso continuo.
xy
2.2. MOMENTOS DE LA DISTRIBUCIN 31
r
X
n
E (x b) = (xi b)r f (xi ) ,
i=1
en su versin discreta, y
Z
r
E (x b) = (x b)r f (x) ,
en su versin continua.
Por ejemplo, el r-simo momento de la variable aleatoria X respecto de
su origen (b = 0), denotado por r , es :
P
n
r = E (xr ) = xri f (xi ) si es una distribucin discreta
i=1
R
r = E (xr ) = xr f (x) dx si es una distribucin continua
P
n
mr = (xi )r f (xi ) si es una distribucin discreta
i=1
R
mr = (x )r f (x) dx si es una distribucin continua
X
n
V ar(x) = 2 = (xi )2 f (xi )
i=1
en forma discreta, o
Z
V ar(x) = 2 = (x )2 f (x) dx
en forma continua.
La raz cuadrada de la varianza se conoce como desviacin estndar o
tpica. p
= V ar (x)
La varianza de X en el ejemplo 1 es
X
2
V ar (X) = (xi )2 f (xi )
i=0
1 2 2 1 2 1 1
= (0 1) + (1 1) + (2 1) =
4 2 4 2
Cov (x, y)
xy = p p
V ar (x) V ar (y)
2. E(aj xi ) = aj E(xi ) = aj i
3. E(a0 +a1 x1 +a2 x2 +...+an xn ) = a0 +a1 E(x1 )+a2 E(x2 )+...+an E(xn )
4. E(x1 x2 xn ) = E(x1 ) E(x2 ) E(xn ) si y solo si los xi son
independientes entre si.
5. V ar(xi + aj ) = V ar(xi )
6. V ar(aj xi ) = a2j V ar(xi )
7. V ar(xi ) = E(x2i ) 2i
P
n P
n P
i
8. V ar(a0 +a1 x1 +a2 x2 +. . .+an xn ) = a2i V ar(xi )+2 ai aj cov(xi , xj )
i=1 i=1 j=1
i6=j
2
1 x
f (x/0, 1) = (x) = exp ,
2 2
y su funcin de distribucin acumulada es:
Z x 2
1 z
F (x/0, 1) = (x) = exp dz
2 2
3
Una versin formal del teorema del lmite central es como sigue: Si X es la media de
una muestra aleatoria X1 , X2 , ..., Xn de tamao n de una distribucin de media finita
x
y varianza positiva finita 2 , entonces la distribucin de W = / tiende a distribuirse
n
asintticamente N (0, 1).Ver Hogg y Tanis (1983).
36 CAPTULO 2. ESTADSTICA, PROBABILIDAD E INFERENCIA
0.3
0.2
0.1
0
-4 -2 2 4
0.18
0.16
0.14
0.12
0.1
0.08
0.06
0.04
0.02
0
2 4 6 8 10 12 14 16
X1
T =p ,
X2 /v
38 CAPTULO 2. ESTADSTICA, PROBABILIDAD E INFERENCIA
C = a + bY
Y = AK L
ln Y = ln A + ln K + ln L
Suponga que se desea verificar la existencia de rendimientos constantes
a escala en la funcin de produccin anterior. Para tal efecto, la prueba de
hiptesis de rendimientos constantes a escala implica probar que + = 1.
El procedimiento de prueba de hiptesis debe analizar si la suma de los
parmetros es estadsticamente distinto de uno o no.
La necesidad de realizar pruebas de hiptesis se justifica en el hecho que
los estimadores de los parmetros poblacionales son aleatorios en el sentido
que dependen de la informacin contenida en la muestra. Si la muestra cam-
bia, entonces el valor estimado tambin se modifica. En otras palabras, el
valor obtenido asume un valor especfico con alguna probabilidad asociada, y
no existe razn para descartar que tome otro valor cualquiera. Entonces, es
relevante verificar si los parmetros obtenidos son cercanos estadsticamente
a valores esperados por la teora econmica.
A continuacin se explicar las formas tpicas de obtencin de los esti-
madores de los parmetros poblacionales. En la siguiente seccin se analizar
la construccin de Pruebas de Hiptesis.
4
O bien un estimador MV es aquel valor de que tenga la mayor probabilidad de
generar la muestra observada.
42 CAPTULO 2. ESTADSTICA, PROBABILIDAD E INFERENCIA
ln L ()
=0
=
Ejemplo 1
Supongamos que se tiene una muestra aleatoria de una variable X dis-
tribuida normal con media y varianza 2 , y queremos encontrar el vector
de parmetros estimados para que, en este ejemplo, corresponde a los es-
timadores de y 2 . La funcin de verosimilitud queda definida por:
" #
2
Q n 1 (xi )2
L , = exp
i=1 2 2 2 2
Aplicando logaritmo natural y simplificando se tiene que:
( " #)
2
Pn 1 (xi )
ln L , 2 = ln exp
i=1 2 2 2 2
( )
2
Pn 1 (xi )
ln L , 2 = ln 1 ln 2 2
i=1 2 2 2
n 1 P n
ln L , 2 = ln 2 2 2 (xi )2
2 2 i=1
Luego obtenemos las primeras derivadas con respecto a y 2 .
ln L (, 2 ) 1 Pn 1 Pn
= 2 (2) (xi ) (1) = 2 (xi ) = 0
2 i=1 i=1
ln L (, 2 ) n 1 Pn
2 1 2 2
= 2 (xi ) (1) =0
2 2 2 2 i=1 2
P
n
(xi )2
n
= 2 + i=1 =0
2 2 ( 2 )2
5
Naturalmente se requiere que las condiciones de segundo orden se cumplan para que
la solucin efectivamente sea un mximo. En los ejemplos discutidos aqu, esto es as.
2.4. INFERENCIA Y ESTIMACIN 43
P
n
xi
i=1
=
n
P
n
(xi )2
i=1
2 =
n
Ejemplo 2
Q
n
L (p) = (p)yi (1 p)1yi
i=1
P
n P
n
yi (1yi )
L (p) = (p)i=1 (1 p)i=1
P
n P
n
ln L (p) = yi ln (p) + (1 yi ) ln (1 p)
i=1 i=1
ln L Pn 1 P n 1
= yi (1 yi ) =0
p i=1 p i=1 1 p
P
n Pn
yi yi
ln L i=1 Pn 1 i=1
= + =0
p p i=1 1 p 1 p
Pn
p yi
ln L Pn np i=1
= yi + =0
p i=1 1 p 1 p
ln L Pn P n
= (1 p) yi np + p yi = 0
p i=1 i=1
ln L Pn
= yi np = 0
p i=1
2 ln L
= n < 0
p2
La idea es que los parmetros se elijan de tal forma que esta sumatoria sea
el mnimo valor posible.
Ejemplo 3
El resultado es7 : P
Yi
=
n
Este nos dice que se utiliza la media muestral como estimador de la media
poblacional.
Dos aspectos son importantes de considerar. Primero, los estimadores
llevan un gorro con el fin de distinguirlos de los verdaderos parmetros
poblacionales. Esto adems, debe indicarnos que los estimadores son una
variable aleatoria, que depende de la muestra con la que se est trabajando.
Segundo, a diferencia del mtodo de Mxima Verosimilitud, el mtodo de
Mnimos Cuadrados no requiere supuestos sobre la distribucin de prob-
abilidad de la variable aleatoria, para obtener el parmetro estimado. Esto
slo se requerir en el momento de realizar pruebas de hiptesis.
i=1 yi Pn E (y )
E (p) = E = i
n i=1 n
2.4. INFERENCIA Y ESTIMACIN 47
0.3
0.2
0.1
0
-4 -2 2 4
Esta matriz nos entrega las mnimas varianzas de los estimadores mximo
verosmiles ubicados sobre la diagonal principal, y fuera de ella las covarianzas
de los mismos.
Ejemplo 4:
9
Esta matriz se denomina comnmente matriz informacin.
2.4. INFERENCIA Y ESTIMACIN 49
ln L (, 2 ) 1 P n
= (xi )
2 i=1
Pn
2 (xi )2
ln L (, ) n
= 2 + i=1
2 2 2 ( 2 )2
2 ln L (, 2 ) 1 P n n
= (1) =
2 2 i=1 2
Pn
2 2 (xi )2
ln L (, ) n i=1
2 = 2
2
( ) 2
2 ( ) ( 2 )3
Pn
2 2 2 2 (xi )
ln L (, ) ln L (, ) i=1
= =
( 2 ) ( 2 ) ( 2 )2
Note que
P
n
(xi ) = 0
i=1
50 CAPTULO 2. ESTADSTICA, PROBABILIDAD E INFERENCIA
P
n P
n
2 (xi )2
(xi ) i=1
i=1 n n
=
( 2 )3 ( 2 )3
n
=
( 2 )2
2
En resumen, la mnima varianza que puede obtener un estimador de es ,
n
2
2 ( 2 )
mientras que para el estimador de 2 es . Con respecto a la covarianza
n
entre los estimadores de y 2 se puede decir que el mnimo valor que puede
tomar es cero.
Ejemplo 5
P
n P
n
donde la var yi = var (yi ) .
i=1 i=1
1 P n
Entonces, var (p) = var (yi )
n2 i=1
1
var (p) = 2 n p (1 p)
n
p (1 p)
var (p) =
n
Q
n
L (yi | p) = (p)yi (1 p)1yi
i=1
P
n P
n
ln L (yi | p) = yi ln (p) + (1 yi ) ln (1 p)
i=1 i=1
2 ln L 1 P n 1 P
n
= yi 2 (1 yi )
p2 p2 i=1 (1 p) i=1
52 CAPTULO 2. ESTADSTICA, PROBABILIDAD E INFERENCIA
1 p (1 p)
2
=
ln L n
E 2
p
ECM = E( )( )0
h i
0
ECM = E ( )( )
h i
= E ( E() + E() )( E() + E() )0
n on o0
= E ( E()) + (E() ) ( E()) + (E() )
hn on oi
0 0
= E ( E()) + (E() ) ( E()) + (E() )
h i h i
= E ( E())( E())0 + E ( E())(E() )0
h i h i
+E (E() )( E())0 + E (E() )(E() )0
h i h i
= E ( E())( E())0 + E (E() )(E() )0
= var() + (sesgo())(sesgo())0
Zona de Zona de
Rechazo Rechazo
-1,96 -1,96
Zona de
Aceptacin
H0 : =
y su hiptesis alterna:
H1 : 6=
zc = r
2
n
Como se puede ver esta es una prueba de dos colas. Calculando nuestro
estadstico de prueba:
b b 0,84 0,5
zc = p = = 13. 44
2
s /n 0,00064
13
Llamaremos Test de Significancia a la prueba de hiptesis mediante la cual se intenta
probar si el valor del parmetro es igual a cero.
Captulo 3
MODELO DE REGRESIN
LNEAL GENERAL
3.1. Introduccin
En este captulo se presenta uno de los modelos ms utilizados para la
estimacin economtrica, conocido como el modelo de regresin lineal general.
En su versin sencilla, este modelo slo tiene dos variables, una explicada
y otra explicativa. En su forma general, este modelo puede incluir tantas
variables explicativas como sea necesario. Debido a que la mayora de los
problemas prcticos en Econometra incluyen ms de una variable explicativa,
se adoptar el enfoque general.
En la exposicin del tema se trabajar con un enfoque matricial, ya que
con este instrumental es posible tratar con mayor facilidad el problema de
estimacin de un modelo lineal con ms de dos variables. En la exposicin
del captulo, se recurrir al modelo simple cuando sea til para ejemplificar
o explicar algn punto de relevancia.
El modelo lineal general, tambin conocido como modelo clsico, es
el modelo bsico en econometra, por lo que todo el desarrollo de la teora
economtrica subsiguiente requiere un conocimiento cabal de ste. Su carac-
terstica fundamental es su simplicidad, como consecuencia de los supuestos
utilizados. Estos supuestos son un tanto restrictivos. Sin embargo, una vez
que se domina el modelo bsico, es posible levantar algunos supuestos y es-
tudiar su efecto sobre los estimadores. Los captulos posteriores discutirn
estos aspectos. Por el momento, nos concentraremos en el modelo clsico.
61
62 CAPTULO 3. MODELO DE REGRESIN LNEAL GENERAL
Pero, qu refleja esta ecuacin?. Primero que nada esta ecuacin refleja
lo que la teora econmica sugiere sobre algn modelo. En trminos generales
dice que los cambios en la variable Y se pueden explicar por un conjunto de
variables explicativas denotadas por 0 + 1 X1 +, ..., + k Xk , lo que es cono-
cido como la parte determinstica del modelo, y adems, existe una porcin
de los cambios en Y que no podemos explicar con este modelo o bien que no
sabemos cmo explicar. Este ltimo componente se conoce como componente
estocstico del modelo y se incluye en el vector .
Desde el punto de vista de la estimacin, uno generalmente cuenta con
informacin tanto de la variable dependiente como de las independientes,
y el problema que se enfrenta es determinar el valor del vector , es decir
estimar el valor de los coeficientes de las variables independientes. Estos
coeficientes reflejan la contribucin individual de cada variable explicativa a
la determinacin del nivel de la variable explicada.
La ecuacin 3.2 puede representar cualquier modelo econmico, como
una funcin de consumo o una funcin de produccin, etc. Lo que interesa
desde la perspectiva economtrica es estimar los parmetros (los 0 s) usando
una muestra de observaciones tanto de las variables explicativas como de la
variable explicada.
Por ejemplo, si se quiere conocer la Productividad Marginal del Trabajo,
es necesario estimar una funcin de produccin. Una de las funciones tpicas
usada en economa es la funcin Cobb-Douglas del tipo:
Y = AX1 X2
donde X1 representa el capital, X2 es el trabajo y A es una variable de posi-
cin. Los parmetros de inters asociados a los insumos son y . Aplicamos
logaritmo para linealizar la ecuacin. A partir de una serie de datos obtenidos
del Boletn mensual del Banco Central de Chile1 respecto del producto in-
terno bruto, del capital y del trabajo para el perodo comprendido por el
primer trimestre del ao 1987 y el cuarto trimestre de 1993 se obtienen los
siguientes resultados:
2 e igual a 1,5259. Con los valores medios de todas las variables es posible
obtener la Productividad Marginal para ambos factores productivos.
Retomando el modelo expresado en 3.2 el investigador est interesa-
do en obtener una solucin para el vector de parmetros que tenga las
propiedades deseadas de un estimador, como son insesgamiento y eficiencia2 .
Para lograr esta solucin, el modelo clsico asume una serie de supuestos
que tienen la caracterstica de simplificar apreciablemente la obtencin del
vector de estimadores y que adems aseguran que estos estimadores tengan
las propiedades deseadas.
Esto quiere decir que el vector contiene expresiones lineales para cada
uno de los parmetros. La linealidad debe cumplirse slo en los parmetros,
no es necesario que las variables explicativas sean lineales. Por ejemplo, el
2
modelo Yi = o + 1 Xi1 + 2 Xi1 + i cumple con la propiedad de linealidad
en los parmetros aunque X1 est al cuadrado.
E() = 0
1 E(1 ) 0
2 E( ) 0
2
E .. = .. = .. =0
. . .
n E(n ) 0
2
Ver Captulo 2
3.3. SUPUESTOS DEL MODELO CLSICO 65
Esto quiere decir que el valor promedio de i dado los valores de las
variables explicativas (Xki ) es cero. Lo cual implica que los valores positivos
y negativos de i se cancelan de tal manera que su efecto promedio sobre Yi
es cero.
Note que para cada observacin tenemos un conjunto de variables de la
forma:
(Yi , Xi1 , ..., Xik , i )
Yi = 0 + 1 X1i + i
3
P
n
i
Lo que no significa que para una muestra particular la n = 0, ya que en este caso
i
cada error tomar un valor definido cuya suma no necesariamente es cero.
4
Cabe mencionar que la heterocedasticidad es un fenmeno comn en muestras de corte
transversal mientras que la autocorrelacin lo es en series de tiempo.
66 CAPTULO 3. MODELO DE REGRESIN LNEAL GENERAL
Y = 0 + 1 X i1
Y2
Y1
Y0
X0 X1 X2 X
1 21 1 2 1 n
2 2 1 22 2 n
E ( ) = E
0
[1
2 n ]
= E
n n 1 n 2 2n
E(21 ) E(1 2 ) E(1 n )
E(2 1 ) E(22 ) E(2 n )
=
E(n 1 ) E(n 2 ) E(2n )
El supuesto de homocedasticidad significa que la varianza de los i es la
misma para toda observacin i, es decir:
E(2i ) = 2 i = 1, ..., n
donde 2 es un escalar constante para todo i.
h 0
i
5
Recuerde que V ar() = E (E())(E()) . Pero como E() = 0, obtenemos
0
E( )
3.3. SUPUESTOS DEL MODELO CLSICO 67
Y = 0 + 1Xi1
Y2
Y1
Y0
X0 X1 X2 X
E(i j ) = 0 i 6= j
2 0 0 1 0 0
0 2 0 0 1 0
E ( ) =
0
=
2
= 2 In
0 0 2 0 0 1
cov(Xij i ) = 0 j
Y = X + (3.4)
Donde es el vector de estimadores de los parmetros poblacionales y
es el trmino de error muestral (anlogo al trmino de error ). Usando una
muestra del Universo se puede estimar la ecuacin 3.4.
Para el caso de una sola variable explicativa, la Funcin de Regresin
Poblacional y la Funcin de Regresin Muestral (ambas hipotticas) se pre-
sentan en la figura 3.3. Al dibujar esta figura se asume que los coeficientes
estimados () difieren de los poblacionales (). Se puede apreciar que la Fun-
cin de Regresin Muestral subestima los verdaderos valores de la Funcin
de Regresin Poblacional o de la variable dependiente a la izquierda de X0 ,
mientras que a la derecha de este mismo punto los valores de la Funcin
de Regresin Poblacional son sobrestimados. Para un valor determinado de
70 CAPTULO 3. MODELO DE REGRESIN LNEAL GENERAL
Y
FRM=Y = + X i1
0 1
Yi
i
FRP=Y = 0 + 1Xi1
Subestima Sobreestima
i
Y
E(Yi)
Xi X
Y = X + (3.5)
E (Y/X) = X (3.6)
3.4. MNIMOS CUADRADOS ORDINARIOS 71
Las razones de este resultado son el hecho que los X son fijos (supuesto
4) y que es el vector de parmetros poblacionales y como tal no es una
variable aleatoria, adems la E() = 0 por el segundo supuesto del modelo
clsico.
Por su parte la funcin de regresin muestral es
Y = X + (3.7)
con
E (Y/X) = Y = X (3.8)
Como se plante en el captulo 2, el objetivo de MCO es obtener el
P
n
vector que minimice la suma de los errores al cuadrado 2i , lo que en
1
forma matricial se traduce en
1
X
n
2
MIN 2i = MIN 0 = MIN
( 1 2 ... n )
... (3.9)
1
n
= Y X
0 0 0
MIN (Y0 X0 )(Y X) = MIN (Y0 Y Y0 X X0 Y + X0 X)
(3.11)
0 0 0
tanto Y X como X Y tienen dimensin 11, por ello su valor traspuesto
0
no vara . En otras palabras Y0 X = X0 Y, quedando la expresin 3.11 de
la siguiente forma
0 0 0
MIN (Y0 Y 2 X Y + X0 X) (3.12)
72 CAPTULO 3. MODELO DE REGRESIN LNEAL GENERAL
2X0 Y + 2X0 X = 0
0
X0 X = X Y
C = a + bY ,
la cual seala que el consumo depende del ingreso disponible Y , pero que
no se gasta todo el ingreso en consumo sino una porcin b de ste, llamada
proporcin marginal a consumir, por otra parte existe un consumo autonmo,
que no depende del ingreso y que est representado por la constante a en la
ecuacin anterior. Debera ser claro para el lector que se est describiendo el
modelo terico que est dado por la teora econmica.
Lo que interesa es estimar el valor de a y b usando informacin de con-
sumo e ingreso de una economa (puede ser tambin de las familias), para
lo cual debemos transformar nuestro modelo terico determinstico en uno
estocstico, es decir:
C = a + bY + i
que representa la funcin de regresin poblacional y
C = a + bY + i
que es la funcin de regresin muestral
Usando una muestra de datos6 de las Cuentas Nacionales sobre Consumo
e Ingreso Disponible en Chile para el periodo comprendido entre los aos 1960
a 1997 presentada en el apndice A, podemos obtener estos estimadores.
6
Los datos originales estn expresados en millones de pesos de 1986. Para la estimacin
que se hace en este apartado, y en la subseccin siguiente referida al estimador de la
varianza del error; los datos han sido divididos por un milln para evitar resultados muy
grandes. Se sugiere al lector verificar estos resultados para asegurar una buena comprensin
del problema.
3.4. MNIMOS CUADRADOS ORDINARIOS 75
Ct = 0,3152 + 0,6134 Yt + t
n = 38
(a) Linealidad
0
Sabemos que = (X X)1 (X0 Y) = AY
donde A = (X0 X)1 X0 es fijo por el supuesto de que los valores de X son
fijos, lo que muestra que el estimador es lineal.
(b) Insesgamiento
= (X0 X)1 X0 (X + )
= (X0 X)1 X0 X + (X0 X)1 X0
= + (X0 X)1 X0 (3.20)
1
2
Xi1 Xi1 Xi2 Xi1 Xik
Xi2 Xi1 Xi2 2
Xi2 Xik
V ar() = 2 .. .. ... ..
. . .
2
Xik Xi1 Xik Xi2 Xik
V ar( 1 ) Cov( 1 , 2 ) Cov( 1 , k )
Cov( 2 , 1 ) V ar( 2 ) Cov( 2 , k )
= .. .. ... ..
. . .
Cov( k , 1 ) Cov( k , 2 ) V ar( k )
= AY
donde
A = (X0 X)1 X0 +C0
es decir el estimador es lineal, y C es una matriz (nxk) de constantes cualquiera.
Entonces:
= (X0 X)1 X0 + C0 Y
= (X0 X)1 X0 Y + C0 Y
reemplazando el modelo poblacional Y = X + en en la ecuacin anterior
para que la comparacin a realizar tenga sentido el nuevo estimador debe ser
insesgado, E( ) = . Aplicando esperanza a 3.23 se tiene
= (X0 X)1 X0 + C0
es decir,
Var( ) = E ( E( ))( E( ))0
= E ( ))( )0
= E ((X0 X)1 X0 + C0 )((X0 X)1 X0 + C0 )0
= E ((X0 X)1 X0 + C0 )(0 X(X0 X)1 +0 C)
= E((X0 X)1 X0 0 X(X0 X)1 +C0 0 X(X0 X)1
+(X0 X)1 X0 0 C + C0 0 C)
0
= (X0 X)1 X0 E(0 )X(X0 X)1 +C0 E(0 )X(X X)1
+(X0 X)1 X0 E(0 )C + C0 E(0 )C
1 1 1
= 2 (X0 X) X0 X (X0 X) + 2 C0 X (X0 X)
1
+ 2 (X0 X) X0 C + 2 C0 C
Con la informacin obtenida hasta aqu existe slo un aspecto que dificul-
ta la estimacin de la matriz de varianzas y covarianzas de los estimadores.
Esto es, no conocemos el valor de 2 . En la siguiente seccin construiremos
un estimador insesgado para la varianza del error.
Y = X + (3.25)
Y = X + (3.26)
= Y X (3.27)
= X + X
= M (3.28)
1. M0 = M
0 0
In X (X0 X)1 X0 = I0n (X0 )0 (X0 X)1 X0 = In X (X0 X)1 X0
2. M0 M = M
M0 M = MM
= In X (X0 X)1 X0 In X (X0 X)1 X0
= In X (X0 X)1 X0 X (X0 X)1 X0 +X (X0 X)1 X0 X (X0 X)1 X0
= In X (X0 X)1 X0 X (X0 X)1 X0 +X (X0 X)1 X0
= In X (X0 X)1 X0
Esto prueba que M es una matriz idempotente9 .
Retomando nuestro problema central, la ecuacin 3.28 expresada en forma
cuadrtica se puede escribir como:
0 = (M)0 (M)
0 = 0 M0 M
0 = 0 M
Xn X n
0 = mij i j
i=1 j=1
E(0 ) = E(0 M)
0
Xn X n
E( ) = mij E i j
i=1 j=1
0
X
n
E( ) = 2 mii
i=1
E(0 ) = 2 tr(M)
9
Donde In I0n = In .
3.4. MNIMOS CUADRADOS ORDINARIOS 83
entonces
0 0
0 = Y0 Y 2 X0 Y + X0 X(X0 X)1 X0 Y)
0 0
0 = Y0 Y 2 X0 Y + X0 Y
0
0 = Y0 Y X0 Y
Luego,
0 0
Y X0 Y Y
2 =
nk
Ejemplo 1: Estimacin de Varianzas para la Funcin de Consumo
Y0 Y =266,010
De esta forma tenemos:
0 0 93,4357
(X Y) = 0. 3152 0,6134 = 265,542
384,8900
n k = 38 2 = 36
Finalmente
266,010265,542
2 = = 0,013
36
con este estimador de la varianza del error podemos calcular
V ar() = 2 In (X0 X)1
0,1562 0,0371 0,00203 0,00049
V ar() = 0,013 =
0,0371 0,0106 0,00049 0,00014
as, la ecuacin de consumo queda dada por10 :
10
Tanto 0 como su desviacin estndar estn expresados en unidad de milln.
3.5. ESTIMADOR MXIMO VEROSMIL 85
Ct = 0,3152 + 0,6134 Yt + t
d.e. (0. 04506) (0. 0118)
i N(0, 2 )
Y
n
1 (yi xi )2
L(Yi /Xi , , 2 ) = p exp
i=
2 2 2 2
86 CAPTULO 3. MODELO DE REGRESIN LNEAL GENERAL
X
n
1 X
n
(yi xi )2
ln L(Yi /Xi , , 2 ) = ln(2 2 )
i=1
2 i=1
2 2
(Y X)0 (Y X) 0
2 = =
n n
que es un estimador sesgado y distinto al de MCO.
yi = Yi Y
xij = Xij Xj
Esta forma de presentar los datos tiene ciertas ventajas entre las cuales
se destacan:
si a = 1/n entonces
X 1 0
aXi = i Xi
n
3.6. ESTIMACIN EN DESVIACIONES DE MEDIA 89
y
P
Xi 1
Xi = = i0 Xi
n
P n
Xi 1 1
iXi = i = i i0 Xi = ii0 Xi
n n n
Esta expresin es til para expresar las matrices en desviaciones de me-
dias. Es decir:
X1
X2 1
.. = ii0 X
. n
Xn
y
X1 X1
X2 X2 1
x = .. = X iX = X ii0 X
. n
Xn Xn
1 0
x = I ii X = M0 X (3.31)
n
Donde M0 = I n1 ii0 . 11
Si retomamos el problema de estimacin tenemos una ecuacin para la
Funcin de Regresin Poblacional expresada en desviaciones de media. Sabe-
mos por la ecuacin 3.1 que la Funcin de Regresin Poblacional puede es-
cribirse
y = x +
y una Funcin de Regresin Muestral
y = x +
0
X0 X X Y = 0
X0 (Y X) = 0
X0 = 0
0
= 2x0 y + 2x0 x = 0
= (x0 x)1 x0 y
0 = Y X
y = x +
Si consideramos una sola variable explicativa el modelo se reduce a
yi = xi + i
es decir,
Yi Y = (Xi X) + i
Elevando al cuadrado y aplicando sumatoria tenemos
X X 2 X
(Yi Y )2 = (Xi X)2 + 2i (3.35)
ST C = SEC + SRC
P
Note que el producto de xi i = 0 (ver ec.3.33) .
El primer trmino se denomina Sumatoria Total de Cuadrados (STC) y
es una medida de la variabilidad de la variable dependiente respecto de su
media. Esto es lo que deseamos explicar. Esta variacin se descompone en:
P 2
(1) Un componente explicado por el modelo ( (Xi X)2 ), que conocemos
como Sumatoria Explicada de Cuadrados (SEC) y
P
(2) Un componente no explicado ( 2i ) llamado Sumatoria Residual de
Cuadrados (SRC ).
y = x +
M0 Y = M0 X + M0
entonces
0
ST C SRC Y0 Y nY 2 Y0 Y X0 Y
R2 = = (3.37)
ST C Y0 Y nY 2
0
X0 Y nY 2
R2 =
Y0 Y nY 2
Tambin es posible expresar su valor en trminos de desviaciones de me-
dias, para lo cual usamos una forma conveniente de expresar la sumatoria de
errores al cuadrado tal como:
0 0 0
0 0
= y x y x = y x y x
0 0
= y0 y x0 y y0 x + x x
0 0 1
= y0 y 2 x0 y + x0 x (x0 x) x0 y
0 0
= y0 y 2 x0 y + x y
0
= y0 y x0 y
= y0 y y0 x
P P
2 yi2 2i y0 y 0 y0 y y0 y + y0 x y0 x
R = P 2 = = = 0 (3.38)
yi y0 y y0 y yy
x0 y
R2 = (3.39)
y0 y
2i / (n k)
R2 = 1
yi2 / (n 1)
(n 1) 2i
= 1
(n k) yi2
(n 1)
= 1 1 R2
(n k)
Ct = 0,3152 + 0,6134 Yt + t
(0,04506) (0,0118)
n = 38
R2 = 0,9869
R2 = 0,9866
96 CAPTULO 3. MODELO DE REGRESIN LNEAL GENERAL
resultados apoyan el hecho que esta medida puede no ser muy confiable y se
hace necesario considerar como mejor medida el R2 . Puede observar que si
bien este ltimo tambin cae al omitir una variable, lo hace en menor medida
que el R2 .
3.8. Inferencia
En esta seccin se discutirn algunos conceptos relacionados con las prue-
bas de significancia individual, pruebas de significancia global, y prediccin
del modelo lineal general.
Si bien en las secciones anteriores hemos visto como se pueden estimar los
coeficientes de modelos tericos, no debemos perder de vista la naturaleza
estadstica de estos resultados.
Considere el ejemplo 1, donde se obtuvo un coeficiente estimado de 0.6137
para la Propensin Marginal al Consumo. Sin embargo el parmetro estima-
do es a su vez una variable aleatoria que puede asumir un rango posible de
valores con mayor o menor probabilidad. Por tanto es posible que el valor
del parmetro poblacional no sea 0.6137, sino 0.5 0.7. Es ms, a menos
que tengamos alguna forma de comprobarlo, no sabemos si el parmetro
podra ser cero. Para poder determinar la probabilidad de un evento de es-
ta naturaleza, debemos desarrollar la inferencia estadstica que, entre otras
cosas, nos permite establecer Pruebas de Hiptesis para dilucidar este tipo
de problemas.
V ar( 1 ) = 2 a11
V ar( i ) = 2 aii
3.8. INFERENCIA 99
N(0, 2 )
X
n
2 i
2 (n)
i
2
X
n X
n
2i 2i
i i
14
La ecuacin anterior nos queda
P
n
2i
i
2 (n k)
2
y recordando que
P
n
2i
i
2 =
nk
P
n
se puede despejar 2i = 2 (n k), luego podemos concluir que
i
P 2
2i 0 (n k)
= = 2 (n k) (3.40)
2 2 2
pi 2 i (3.41)
aii
pi 2 i
aii i i
s = qi = i t(nk)
(n k) 2 / 2 2 aii s
nk
i i
tc =
s
H0 : 2 = 0
H1 : 2 6= 0
2 2 0,6137 0
tc = = = 52,0085
S 2 0,0118
(0,5899 2 0,6375)
Podr observar que dentro del intervalo no se encuentra la posibilidad que
2 tome el valor cero. Este resultado coincide con lo interpretado en la prueba
t individual ya desarrollada. Por lo tanto, podr hacer uso del mtodo que
usted desee para probar la significancia de los parmetros. A veces el intervalo
de confianza puede ser preferido desde un punto de vista visual. En el ejemplo
anterior, la prueba no slo dice que 2 6= 0, sino adems aproximadamente
en qu rango se encuentra el valor verdadero con un 95 % de confianza. Se
observa que este valor debera estar entre 0.59 y 0.64, informacin que no
se obtiene directamente con la prueba puntual. En otras ocasiones, cuando
lo interesante es probar slo si la H0 es vlida o no, puede ser preferible la
prueba puntual.
H0 : 1 = 0
H1 : 1 6= 0
1 1 0,99234 0
tc = = = 6.058 2
S 1 0,1638
:
Las pruebas de hiptesis para 2 son:
H0 : 2 = 0
H1 : 2 6= 0
3 3 0,01299 0
tc = = = 4. 190 3
S 3 0,0031
Si tomamos el valor absoluto los valores del estadstico t encontrado para
cada uno de los parmetros y lo comparamos con el de tabla podremos com-
probar que en ambos casos el t calculado es ms grande que el t de tabla,
ubicndose en la zona de rechazo. Es decir, se rechaza la H0 y se acepta
la H1 , lo cual significa que con un 95 % de confianza se puede decir que el
valor de los parmetros poblacionales es distinto de cero. Interpretando este
resultado se valida el signo que posee el coeficiente estimado de 1 y 2 .
++ =1
3.8. INFERENCIA 105
t0 = t1 1 + t2 2 + ... + tk k
y
t0 t0
q N(0, 1)
2 0 0 1
t (X X) t
Nuevamente, debido a que no conocemos el valor de 2 , construmos una
variable aleatoria t, de la siguiente manera:
t0 t0
q
2 t0 (X0 X)1 t t0 t0
v =q t(nk)
u
u (n k) 22 2 t0 (X0 X)1 t
t
nk
1. E(AX + b) = AE(X) + b
2. V ar(AX + b) = Avar(X)A0
106 CAPTULO 3. MODELO DE REGRESIN LNEAL GENERAL
H0 : t0 = 1
H1 : t0 6= 1
Alternativa 1.
Para encontrar una distribucin til para esta prueba de hiptesis, re-
cuerde que el vector de estimadores presenta la siguiente distribucin:
1
N , 2 (X0 X)
E (AX) = A E (X)
Var (AX) = AVar (X) A0
Al igual que en el caso de una sola variable aleatoria, cada una de las
variables incluidas en el vector se pueden estandarizar. Sin embargo, en
108 CAPTULO 3. MODELO DE REGRESIN LNEAL GENERAL
0
0 1 0 1
1 R R R (X X) R R R
F = F(q,nk)
q 2
18
Para una demostracin ver Johnston (1992).
19
Ver seccin 2.3.4.
3.8. INFERENCIA 109
Alternativa 2.
yi = xi + i
Elevando esta expresin al cuadrado y aplicando sumatoria se tiene:
X 2X 2 X
yi2 = xi + 2i (3.44)
ST C = SEC + SRC
110 CAPTULO 3. MODELO DE REGRESIN LNEAL GENERAL
q N(0, 1)
2 (X0 X)1
H0 : = 0
0
tambin sabemos que 2 = nk
, entonces
Y = X +
De aqu se obtiene la sumatoria de cuadrados no restringida
X
0 = 2i = SRC
H0 : = Y = X +
(n k) (SRRC SRC)
v F(q, n k)
q SRC
Regularmente, en los resultados economtricos que se incorporan en los
programas estndar, se presenta un valor F calculado que esta sujeto a la
hiptesis nula que todos los coeficientes (excepto el intercepto) son iguales a
cero, es decir
H0 : = 0
Esto es lo que se conoce como una hiptesis de significancia global. Es
decir, lo que se quiere probar es si el modelo tiene algn poder explicativo.
Como el nmero de parmetros es k, el nmero de grados de libertad de la
prueba es k-1, ya que se descuenta el parmetro de posicin. La forma general
en que se calcula esta prueba es
SRRC SRC n k
F = v F(k1,nk)
SRC k1
Esta expresin tambin puede ser calculada usando el estimador del R2 .
Si recordamos que R2 = ST CSRC
ST C
, entonces
bajo la hiptesis nula SRRC = ST C, por lo tanto
ST C SRC n k
F = v F(k1,nk)
SRC k1
y recordando que ST C SRC = SEC se tiene
SEC nk
F = v F(k1,nk)
ST C SEC k 1
por ltimo se divide numerador y denominador por ST C
SEC
nk
F = ST C
v F(k1,nk)
1 SEC
ST C
k 1
se obtiene
R2 nk
F = vF(k1,nk)
1 R2 k1
3.8. INFERENCIA 113
3.8.4. Prediccin.
En muchas ocasiones el investigador est interesado en pronosticar el
comportamiento de las variables estudiadas. Por ejemplo, el Banco Central
o la autoridad pertinente debe preguntarse cunto variar la inversin total
si cambia la tasa de inters, o bien cunto ser el consumo agregado si el
PIB toma un valor determinado. Para saber este resultado basta, en este
ltimo caso, con reemplazar el valor hipottico del PIB dentro de la funcin
de consumo estimada y obtener una prediccin del consumo. En este caso,
lo que se desea conocer es el valor que tomar la variable dependiente para
distintos valores posibles que tome el vector de variables independientes.
Para dicho efecto, el vector de parmetros (que constitua la incgnita en la
estimacin) se asume fijo.
La exactitud de esta prediccin va a depender de varias cosas. Entre ellas,
del tipo de predictor que se requiera y del grado de variabilidad que presen-
ten las variables explicativas. Existen dos tipos de prediccin, la prediccin
individual que, como su nombre lo indica, predice un valor individual de
la variable dependiente y, existe adems, la prediccin media, en la cual se
predice el valor esperado de Y. En ambos casos la prediccin est sujeta al
valor asignado a las variables explicativas y a los valores de los parmetros
estimados.
La notacin utilizada en este apartado es la siguiente: denominaremos
como Y0 al valor que se quiere predecir y que est asociado al verdadero
modelo poblacional y X0 al vector fila de valores conocidos de las variables
explicativas que usaremos para predecir. El predictor est dado por el valor
Y0 = X0 .20
Prediccin Individual
En la prediccin individual se desea conocer el valor de Y para una ob-
servacin especfica, es decir
Y0 = X0 +0
epi0 =Y0 Y0
0
i
Var ep0 = E X0 0 X0 0
0
i 0 0
Var ep0 = E X0 0 X0 0
0
i (X0 X00
Var ep0 = E 0
0 0 0
X0 0 0 X0 +0 0 )
116 CAPTULO 3. MODELO DE REGRESIN LNEAL GENERAL
0
i
Var ep0 = X0 E X0 X0 E 00
0
0
E 0 X00 +E (0 00 )
1
Var epi0 = X0 2 (X0 X) X00 + 2
h i
1
Var epi0 = 2 X0 (X0 X) X00 +1
Y estandarizando
epi0
q vN (0, 1)
2 X0 (X0 X)1 X00 +1
q q
C0 t X0 (X X) X0 + 1 C0 C0 + t 2 2 X0 (X0 X)1 X00 + 1
2
2 0 1 0
Se tiene que:
0,3152
= X0 = 1 8200000
0,6137
0 1 0,15623 0,0371
(X X) =
0,0371 0,0106
C0 = X0 = 5343292 2 = 0,013
Haciendo los clculos necesarios y reemplazando en el intervalo de con-
fianza con un t de tabla de 2.021 para un 5 % de significancia y un tamao
muestral de 38 observaciones encontramos que:
5084310 C0 5602274
De esta forma, cuando el ingreso alcanza los 8200000 millones de pesos23 ,
el consumo se hallar entre 5084310 y 5602274 millones de pesos con una
probabilidad del 95 %.
M0 = X0 = 14,101
Calculando 2 para la funcin de importaciones como lo muestra la seccin
3.4.2. y siguiendo el mismo procedimiento del ejemplo anterior, podemos
reemplazar los valores obtenidos en el intervalo de confianza. De esta forma,
el intervalo de confianza para la prediccin individual queda como sigue:
p
M0 14,101 2,021 0,0051 (1 + 1,5156)
Prediccin Media
En el caso de la prediccin media interesa conocer la esperanza de la
variable dependiente, dado un nivel de las variables explicativas, es decir
E (Y /X0 ). El predictor sigue siendo Y = X En este caso, se define el error
de prediccin de la siguiente manera:
epm = Y0 E (Y/X0 )
epm = X0
y
V ar (epm ) = E (epm E (epm )) (epm E (epm ))0
V ar (epm ) = E (epm ) (epm )0
0
V ar (epm ) = E X0 X0
0
V ar (epm ) = E X0 X00
0
V ar (epm ) = X0 E X00
h i
1
V ar (epm ) = 2 X0 (X0 X) X00
o bien
epm
q
1 0
vN (0, 1)
2 0
X0 (X X) X0
Lo cual se puede transformar en una distribucin t de Student:
epm
q vtnk
2 X0 (X0 X)1 X00
Para los mismos valores dados en la prediccin individual ahora los de-
sarrollaremos para la prediccin media del consumo.
El intervalo de confianza relevante para esta prediccin es:
q q
C0 t 2 2 X0 (X0 X)1 X00 C0 C0 + t 2 2 X0 (X0 X)1 X00
26
Aplicando exponenciales al rango anterior.
Captulo 4
MINIMOS CUADRADOS
GENERALIZADOS
4.1. Introduccin
En el captulo anterior revisamos el modelo clsico de regresin. Este
modelo se basa en varios supuestos centrales. Entre estos supuestos se en-
cuentran aquellos relativos a la estructura del trmino de error. Bsicamente,
se asume que los errores de la regresin poblacional son homocedsticos y que
no presentan autocorrelacin.
Asumir que los trminos de error de las funciones de regresin pobla-
cional cumplen con estos supuestos puede ser poco adecuado. En la prctica,
la excepcin es encontrarse con trminos de error que cumplan con estos
supuestos. En este captulo nos concentraremos en los problemas de esti-
macin que surgen cuando se levantan estos supuestos sobre la matriz de
varianzas y covarianzas. Estudiaremos los dos principales problemas que se
encuentran en una estimacin: Heterocedasticidad y Autocorrelacin.
El primero se refiere a que las varianzas de los errores poblacionales no
poseen la misma varianza. Es decir, los elementos de la diagonal principal de
la matriz de covarianzas no son iguales.
El segundo problema se refiere a que los errores poblacionales dejan de
ser independientes entre observaciones. Esto queda representado cuando los
elementos fuera de la diagonal principal dejan de ser ceros.
El principal obstculo que presentan estos problemas se refleja en los
estimadores y en su condicin de estimadores MELI (mejores estimadores
121
122 CAPTULO 4. MINIMOS CUADRADOS GENERALIZADOS
tamaos: Por ejemplo, las firmas se clasifican como grandes, pequeas o me-
dianas, y los niveles de ingresos de las familias en altos, bajos o medios.
Si tomamos el caso de los ingresos, el problema de la heterocedasticidad
queda ejemplificado al estudiar los patrones de consumo de pan de familias
pertenecientes a diferentes estratos sociales. Es de esperar que el nivel de
consumo de pan dependa del nivel de ingreso de cada familia. No obstante,
tambin puede depender de variables no observables, como son los patrones
culturales. Recuerde que estas variables no observables caen en el trmino de
error de la regresin. Si las familias de bajos ingresos tienen patrones cultur-
ales distintos a las de altos ingresos, entonces probablemente la dimensin
y variabilidad del trmino de error ser distinto para familias de distintos
niveles de ingreso, representando un caso tpico de heterocedasticidad. En
este caso, el supuesto que la varianza del error es igual para todas las obser-
vaciones puede ser poco adecuado.
El segundo problema que puede explicar el no cumplimiento del supuesto
dado en 4.3 es que los trminos de error no sean independientes entre s.
Esto implica que los elementos fuera de la diagonal principal de la matriz de
varianzas y covarianzas de los errores sern distintos de cero. Esto se conoce
como Autocorrelacin, o tambin correlacin serial de errores. Cuando los
estimadores s cumplen con el supuesto de no autocorrelacin se supone que
el trmino de perturbacin perteneciente a una observacin no est influen-
ciado por el trmino de perturbacin perteneciente a otra. El problema de
autocorrelacin es comn en series de observaciones ordenadas en el tiempo.
Por ejemplo, es lgico pensar que si el consumo de una familia fue excesiva-
mente alto en un perodo, indicando con el trmino excesivo que est sobre
lo que la regresin predice que debera ser en promedio, dado el valor de las
variables independientes (ingreso por ejemplo), tambin lo sea en el siguiente
perodo. En este caso, lo que veremos en la estimacin es que los errores de
dos observaciones sucesivas tendern a tener el mismo signo y tamao. Es
decir, estaramos en presencia de autocorrelacin positiva.
De esta forma entonces, si relajamos el supuesto de homocedasticidad y
de no autocorrelacin, la matriz de covarianzas queda expresada como:
E (0 ) = 2 n (2)
Y = X + con E (0 ) = 2 n
Si recordamos las propiedades que posea el estimador de mnimos cuadra-
dos ordinarios, sabemos que ste era insesgado y tena mnima varianza. Si
continuamos usando el mtodo de mnimos cuadrados, obtendremos el mismo
vector de parmetros, es decir = (X0 X)1 X0 Y. Sin embargo, no sabemos
qu propiedades tienen estos estimadores, dado que no podemos aplicar el
teorema de Gauss Markov debido a que no se cumplen los supuestos clsicos.
Entonces, Cules son las propiedades de este estimador?
Podemos descomponer el vector de estimadores y aplicar esperanza tal
que1 :
1 1
= (X0 X) X0 Y = + (X0 X) X0
MCO
0 1 0
E MCO = E + (X X) X
1
E MCO = E () + (X0 X) X0 E ()
E MCO =
Su varianza es:
0
V ar MCO = E MCO MCO
0
0 1 0 0 1 0
V ar MCO = E (X X) X (X X) X
h i
1 1
V ar MCO = E (X0 X) X0 (0 ) X (X0 X)
1 1
V ar MCO = (X0 X) X0 E [(0 )] X (X0 X)
1 1
V ar MCO = 2 (X0 X) X0 n X (X0 X)
E (0 ) = 2 n
P1 Pn P0 = P1 In
n P0 = P1 In
1 1
n P0 (P0 ) = P1 (P0 )
1
n = P1 (P0 )
0
n = P1 P1
1
n = (P0 P)
1
n = P0 P
Este resultado ser til para obtener estimadores de mnima varianza.
En resumen, lo que se necesita para obtener estimadores eficientes a travs
de mnimos cuadrados ordinarios es que se cumpla E () = 0 y E (0 ) =
2 In . Sin embargo lo que tenemos ahora ya no es lo mismo, sino que tenemos
una matriz de covarianzas no escalar, que causa estimadores insesgados, pero
no eficientes. Para resolver el problema aplicamos el mtodo de Mnimos
Cuadrados Generalizados que consiste en encontrar una matriz Pnn tal
que:
PP0 = In P0 P = 1
n
Si suponemos que hemos encontrado la matriz P, la utilizamos para trans-
formar los datos originales. Para ello premultiplicamos la funcin de Regre-
sin Muestral por esta matriz:
Y = X +
Pnn Yn1 = Pnn Xnk k1 + Pnn n1
Y = X +
obteniendo nuevas variables Y , X y 2 , cuyo nico cambio ha sido el
amplificarse por constantes. Analizemos qu sucede con los supuestos clsicos
con esta nueva regresin. Primero observemos qu ocurre con la esperanza
de :
E ( ) = E (P) = PE () = 0
con la varianza se tiene:
E ( )0 = E (P) (P)0 = E [P0 P0 ]
E ( )0 = PE [0 ] P0 = P 2 n P0
E ( )0 = 2 P n P0
E ( )0 = 2 In
2
Note que las nuevas variables individuales son combinaciones lineales de todas las
variables individuales originales.
4.2. MNIMOS CUADRADOS GENERALIZADOS 127
1
MCG = (X0 X ) X0 Y
1
MCG = (PX)0 (PX) (PX)0 (PY)
1
MCG = (X0 P0 PX) X0 P0 PY
1 0 1
MCG = X0 1 X X Y
( )0 ( )
2 =
nk
Y = X MCG +
= Y X MCG
mo:
0
Y X MCG Y X MCG
2 =
nk
0
PY PXMCG PY PX MCG
2 =
nk
h i0 h i
P Y XMCG P Y XMCG
2 =
nk
0
0
Y X MCG P P Y XMCG
2 =
nk
0
1
Y X MCG Y XMCG
2 =
nk
4.4. Heterocedasticidad
Como definimos anteriormente, la heterocedasticidad ocurre cuando la
matriz de covarianza deja de tener una estructura escalar, es decir, cuando
los elementos de la diagonal principal no son todos iguales. La notacin de
esto sera:
V ar (i ) = 2i i = 1, ..., n
En forma explcita, la matriz sera:
21
z }| {
V ar ( ) Cov (1 , 2 ) Cov (1 , n )
1
2
z }|2 {
E (0 ) =
Cov (2 , 1 ) V ar (2 ) Cov (2 , n )
.. .. ... ..
. . .
2n
z }| {
Cov (n , 1 ) Cov (n , 2 ) V ar (n )
mientras que
n
22 2
2 k
2 n
k para la muestra 2 (4.8)
22 2 2
H0 : 21 = 22 = 2
21 n
k
21 2 2 n
F k, n k
22 n
2 2
k
22 2 2
21 n
2 F 2
k, n
2
k
2
2i
F (ni k, nj k)
2j
Prueba de White
Esta prueba de heterocedasticidad, a diferencia de las anteriores, es una
prueba en la cual no se precisa la forma particular que adopta la heterocedas-
ticidad. Las etapas para la deteccin son las siguientes:
H0 : 21 = 22 = 2
2
2 = 0,0563 0,0006X 2 + 3,25E 107 X 2 1,85 105 X 2 X +
2,86 105 X 2 S + 0,0501X 0,0020XS + 0,0003S + 0,0018S 2
R2 = 0,0087
n = 1268
A partir de esta informacin, se obtiene la siguiente variable aleatoria:
nR2 2p1
Luego,
1268 0,0087 = 10,9778
Finalmente, buscamos el estadstico 2 para (9-1) grados de libertad y un
5 % de confianza, el cual es igual a 15.5073 y dado que este valor se encuentra
en la zona de aceptacin, la Funcin de Mincer estimada es homocedstica.
PY = PX + P
Y = X +
Entonces podemos comprobar que este modelo cumple con los supuestos
clsicos ya que la varianza de es constante:
i 1
V ar (i ) = V ar = 2 V ar (i ) = 1
i i
Yi 1 XKi
= 0 + ... + j + . . . + K + i
Xji Xji Xji Xji
Y = X +
Calculando la varianza del error poblacional, nos encontramos con que
cumple el supuesto de la homocedasticidad, por lo que se pueden obtener
estimadores insesgados y de mnima varianza por Mnimos Cuadrados Ordi-
narios. La varianza queda:
2
i 1
V ar (i ) = E = 2 2 Xji2 = 2
Xji Xji
142 CAPTULO 4. MINIMOS CUADRADOS GENERALIZADOS
PY = PX + P
Y 1 X1i Xji XKi
p i = 0 p + 1 p + . . . + j p + . . . + K p +pi
Xji Xji Xji Xji Xji Xji
Y 1 X1i p XKi
p i = 0 p + 1 p + . . . + j Xji + . . . + K p +pi
Xji Xji Xji Xji Xji
Y = X +
4.5. Autocorrelacin
En este captulo hemos estudiado las diferentes formas que puede tomar
la matriz de varianzas y covarianzas de los errores. Primero presentamos el
caso general, en que la matriz de covarianzas es distinta a la varianza del er-
ror multiplicada por la matriz identidad. Luego resolvimos el caso particular
de heterocedasticidad, situacin que es tpica en datos de corte transversal.
Ahora analizaremos el caso en que las covarianzas entre los errores son dis-
tintas de cero. Esta situacin es comn en datos provenientes de Series de
Tiempo, donde la informacin tanto de la variable dependiente como de las
explicativas ha sido obtenida en perodos sucesivos de tiempo.
Existen muchos casos en los que podemos esperar que una variable ob-
servada en el presente est correlacionada o determinada por los valores de
otras variables o de s misma, pero de perodos anteriores al que se est ob-
servando. Esta situacin puede explicarse por rezagos en las respuestas de
los agentes econmicos ante cambios de las condiciones del entorno. En otras
4.5. AUTOCORRELACIN 145
t = t1 + t 1 < < 1
E (t ) = 0
V ar (t ) = 2
E(t , tj ) = Cov (t , tj ) = 0 j 6= 0 (4.10)
146 CAPTULO 4. MINIMOS CUADRADOS GENERALIZADOS
t = t1 + t
t1 = t2 + t1
t2 = t3 + t2
..
.
tj = tj1 + tj
..
.
y sucesivamente
t = t3 + t2 + t1 + t
simplificando:
t = 3 t3 + 2 t2 + t1 + t
por lo tanto, podemos generalizar la expresin como:
X
t = j tj ,
j=0
dado que el lm j tj = 0.
j
Comprobemos qu sucede con los supuestos clsicos. Para ello calculemos
la esperanza del error:
!
X X
j
E (t ) = E tj = j E (tj ) = 0
j=0 j=0
!2
2
X
V ar (t ) = E (t E (t )) = E j tj
j=0
V ar (t ) = E t + t1 + 2 t2 + . . . t + t1 + 2 t2 + . . .
V ar (t ) = E 2t +t t1 +2 t t2 +... + t1 t +2 2t1 +3 t1 t2 +...
V ar (t ) = E 2t + 2 E 2t1 + 4 E 2t2 + 6 E 2t3 + . . .
V ar (t ) = 2 + 2 2 + 4 2 + 6 2 + . . .
2 3
V ar (t ) = 2 1 + 2 + 4 + 6 + . . . = 2 1 + 2 + 2 + 2 + . . .
2 1
V ar (t ) =
1 2
Cov t , t1 = E (t E (t )) t1 E t1 = E t t1
Cov t , t1 = E t1 + t t1
Cov t , t1 = E 2t1 + t t1
Cov t , t1 = E 2t1 + E [t ] E t1
Cov t , t1 = 2
Cov t , t1 = 2
2
1
148 CAPTULO 4. MINIMOS CUADRADOS GENERALIZADOS
Cov t , t1 = 2
1 2
2
Cov t , t2 = 2
1 2
3
Cov t , t3 = 2
1 2
..
.
k
Cov t , tk = 2
1 2
1 2 k
1 k1
2
2 1 k2
E (0 ) = 2 n =
1 2 .. .. .. ... ..
. . . .
k k1
k2 1
Prueba de Durbin-Watson
La prueba de Durbin Watson nos permite verificar la no existencia de
autocorrelacin de primer orden. El estadstico viene definido por:
P
P
P
P
(et et1 )2 e2t 2 et et1 + e2t1
t=2 t=2 t=2 t=2
dw = P
= P
e2t e2t
t=1 t=1
P
P
si asumimos que e2t e2t1 entonces podemos escribir
t=2 t=2
P
P
2 e2t 2 et et1
t=2 t=2
dw = P
e2t
t=1
P
P
e2t et et1
= 2 t=2
P
2 t=2P
e2t e2t
t=1 t=1
P
et et1
= 2 2 t=2P
e2t
t=1
t = t1 + t
et = et1 + vt
dw = 2(1 ) (4.11)
150 CAPTULO 4. MINIMOS CUADRADOS GENERALIZADOS
Se puede demostrar que este estadstico va a estar acotado por los valores
0 y 4, donde los valores cercanos a 0 van a indicar autocorrelacin positiva,
cercanos a 4 autocorrelacin negativa y cercanos a 2 indicarn la no existencia
de autocorrelacin.
Para entender mejor la relacin entre este estadstico y el nivel de auto-
correlacin considere la ecuacin 4.11 para la cual tenemos los siguientes
resultados
AUTOCORRELACION AUTOCORRELACION
POSITIVA NEGATIVA
NO
AUTOCORRELACION
0 di ds 2 4 - di 4 - ds 4
ZONA DE ZONA DE
INDECISION INDECISION
Ct = 0,3152 + 0,6134Yt + t
d.s. = 0,04506 0,0118
R2 = 0,9869
R2 = 0,9866
dw = 1,22
n = 38
donde Ct es el nivel de consumo en el perodo t e, Yt es el ingreso real
disponible en el mismo perodo, tal como se present en su oportunidad en
el Captulo 3. Tambin se tiene que el estadstico dw es de 1.22 para una
muestra de tamao 38. Procederemos entonces a detectar la existencia de
autocorrelacin. Primero, buscamos en la tabla del estadstico Durbin - Wat-
son los lmites inferior y superior para un n = 38 y k variables explicativas,
en este caso, k = 1. De esta manera se tienen los siguientes lmites:
di = 1,427
ds = 1,535
152 CAPTULO 4. MINIMOS CUADRADOS GENERALIZADOS
di = 1,391
ds = 1,600
a. Si conocemos
b. Si no conocemos
et = et1 + t
dw = 1,22
Tambin sabemos que,
dw = 2(1 )
Luego,
dw 1,22
= 1 =1
2 2
= 0,39
Ct = 0 + 1 Yt + t
donde
Ct = Ct Ct1
Yt = Yt Yt1
Ct = 191606,8 + 0,6133Yt + t
d.s. = 41635 0,0169
R2 = 0,9740
R2 = 0,9733
n = 37
dw = 1,91
156 CAPTULO 4. MINIMOS CUADRADOS GENERALIZADOS
dw 1,29
= 1 =1
2 2
= 0,355
Mt = Mt Mt1
P IBt = P IBt P IBt1
T CRt = T CRt T CRt1
TOPICOS ADICIONALES
Por ltimo, las variables cualitativas o dummies son utilizadas para incor-
porar en la regresin distintos elementos de control de diferencias pobla-
cionales que no son continuos, tales como el gnero, analfabetismo, el estado
civil, entre otros. Existen muchas variables de este tipo que se consideran
relevantes en la explicacin del comportamiento de los individuos, y que
deben expresarse en trminos de la presencia o ausencia de un determinado
atributo.
159
160 CAPTULO 5. TOPICOS ADICIONALES
5.1. Multicolinealidad
En los estudios empricos es frecuente encontrar niveles de correlacin
entre las variables explicativas del modelo de regresin. La existencia de
algn grado de asociacin entre las variables explicativas del modelo tiene
efectos sobre la estimacin de los parmetros y de sus varianzas..
Retomemos el modelo lineal general, el cual se expresa como:
Y = X +
Multicolinealidad Perfecta
El problema principal que enfrentamos en el caso de multicolinealidad
perfecta es que la matriz X0 X es singular, es decir, su determinante es cero.
Por tanto, no es posible estimar la matriz de parmetros . Podemos describir
el caso de multicolinealidad perfecta de la siguiente forma:
Multicolinealidad Imperfecta
Existe adems, la llamada multicolinealidad imperfecta, que no es de-
tectable a simple vista, puesto que la matriz X0 X es invertible y se obtendr
un estimador para . En este caso podemos escribir la ecuacin 5.1 como:
Xc = X1 c1 +X2 c2 +... + Xk ck 0
c2 ck
X1 = X2 ... Xk +v1 (5.3)
c1 c1
162 CAPTULO 5. TOPICOS ADICIONALES
que es igual a una ecuacin de regresin entre X1 y las dems variables ex-
plicativas. Ntese adems que X1 ha sido escogida arbitrariamente. Llamare-
mos a la ecuacin 5.4 ecuacin auxiliar. Esto refleja que cualquier variable
del modelo puede escribirse como una combinacin lineal perfecta o imper-
fecta del resto de las variables. Por ende, es posible estimar un modelo de
regresin lineal considerando como variable dependiente cualquiera de las
variables explicativas del modelo y como variables explicativas a todas las
dems.
Para clarificar el impacto sobre los estimadores y las varianzas de la mul-
ticolinealidad, evaluemos la relacin entre las variables explicativas y la es-
timacin de los parmetros y de la varianza. Para ello tomemos el modelo
lineal con desviaciones de media
yt = 2 x2t + 3 x3t + t
1 r23
2
2 = R
r23 1
Yt = 1 + 2 X2t + . . . + k Xkt + t
estn altamente correlacionadas, no hay razn a priori para pensar que las
primeras diferencias lo estn. Sin embargo, el problema que puede surgir en
esta alternativa es el no cumplimiento de los supuestos del modelo clsico
por parte del trmino de error t . Adicionalmente, se pierde una observacin
y por consiguiente un grado de libertad, que puede ser muy perjudicial es-
pecialmente en el caso de muestras pequeas. Tambin, puede no ser un
mtodo adecuado para casos de datos de corte transversal, donde no hay un
ordenamiento temporal o lgico de las observaciones.
Simplificando logramos:
P P
x2i x3i x2i
2 = 2 + 3 P 2 + P 2 i
x2i x2i
168 CAPTULO 5. TOPICOS ADICIONALES
Regresin Restringida
Periodo 1
Regresin no Restringida
Periodo 1
Regresin no Restringida
Periodo 2
10 = 20
11 = 21
..
.
1k = 2k
SCRR SCRn
F = k F(k, nsk)
SCRn
N sk
donde:
SCRR : Suma de Cuadrados Residuales Restringidos (del total de la
muestra).
SCRn : Suma de Cuadrados Residuales no Restringida (suma de la SCR
obtenidas en la estimacin de cada grupo de la muestra).
N : Nmero de Observaciones.
k : Nmero de Parmetros.
s : Nmero de Sectores Agrupados o de Perodos Agrupados.
En resumen la prueba consiste en los siguientes pasos:
10 = 20
11 = 21
H0 : ..
.
1k = 2k
172 CAPTULO 5. TOPICOS ADICIONALES
Ct = 0,3152 + 0,6134Yt + t
d.s. = 0,04506 0,0118
tc = (6,8947) (52,2269)
SCRR = 4,69 1011
n = 38
5.2. PRUEBA DE CAMBIOS ESTRUCTURALES 173
Ct = 163415,8 + 0,6700Yt + t
tc = 1,1103 12,1752
11
SCR1 = 3,15 10
N1 = 23
Ct = 334518,3 + 0,6085Yt + t
tc = 4,2974 40,1299
SCR2 = 1,36 1011
N2 = 15
10 = 20
H0 :
11 = 21
9.000.000
8.000.000
7.000.000
6.000.000
5.000.000
ingreso
4.000.000
3.000.000
consumo
2.000.000
1.000.000
0
19
19
19
19
19
19
19
19
19
19
19
19
19
60
63
66
69
72
75
78
81
84
87
90
93
96
Figura 5.2: Relacin Consumo-Ingreso (1960-1997)
SCR1 = 314,3561
N1 = 534
SCR2 = 332,3691
N2 = 554
SCR3 = 101,8453
N3 = 180
10 = 20 = 30
11 = 21 = 31
H0 :
12 = 22 = 32
13 = 23 = 33
Yt = 1 + 2 X2t + . . . + k Xkt + t
y analicemos cada caso por separado:
Regresin para D = 1
1 + Regresin para D = 0
Yt = 1 + D + 2 X2t + . . . + k Xkt + t
D = 1 Yt = ( 1 + ) + 2 X2t + . . . + k Xkt + t
D = 0 Yt = 1 + 2 X2t + . . . + k Xkt + t
Regresin para D = 1
Pendiente = 2 +
Regresin para D = 0
Pendiente = 2
X2
Ct = 0 + 1 Yt + 2 D1 + 3 D1 Yt + t
obtenindose
Cabe sealar que los parmetros estimados para cada perodo son idn-
ticos a los obtenidos con la prueba de Chow previamente en la seccin 5.2.
Si calculamos el intercepto para el perodo 1960-1982 de los resultados con
variables mudas obtenemos 0 + 2 = 163415, 8. El coeficiente de pendiente
para el mismo perodo es 1 + 3 = 0, 6700. Ambas estimaciones son las
mismas que obtuvimos previamente para el primer perodo. Y los resulta-
dos obtenidos cuando D1 = 0, corresponden exactamente a los obtenidos
previamente para el segundo perodo (1983-1997). Cabe tener presente que
la estimacin anterior afecta tanto la pendiente como el intercepto, hecho
que es justamente el que se quiere evaluar para encontrar si hay evidencia
de cambio estructural. Si analizamos el estadstico t es sencillo darse cuenta
que la variable D1 no ha resultado significativa en ninguno de los casos. Por
lo tanto, no es posible explicar los cambios experimentados por el consumo
5.3. VARIABLES DICTOMICAS 181
2.500.000 1.400.000
1.200.000
2.000.000
1.000.000
1.500.000 800.000
1.000.000 600.000
400.000
500.000
200.000
0 0
19
19 :1
19 :4
19 :3
19 :2
19 :1
19 :4
19 :3
19 :2
19 :1
19 :4
19 :3
19 :2
19 :1
20 :4
90
90
91
92
93
93
94
95
96
96
97
98
99
99
00
:3
P.I.B. Importacin
ln(Mt ) = 1,4735 + 0,9404 ln(P IBt ) 0,0157T CRt1 0,0082D1 ln(P IBt )
d.s. = 2,2504 0,1407 0,0028 0,0021
t = 0,6548 6,6850 5,6841 3,9209
2
R = 0,9728
R2 = 0,9706
dw = 1,8136
F = 452,2442
Ejercicios Complementarios
183
184 APNDICE A. EJERCICIOS COMPLEMENTARIOS
H0 : 1 = 0
1 1
tc =
S 1
(0,1684 2 0,2832)
Es posible apreciar de los resultados que existe un 95 % de posibilidades
que 2 tome algn valor entre 0.1684 y 0.2832. Tal como se planteara al
comienzo de esta parte, el intervalo de confianza nos gua a la misma con-
clusin que la Prueba t Individual, ya que, se observa que 2 = 0 cae fuera
del intervalo. Adems, el intervalo de confianza nos indica entre qu valores
puede hallarse con mayor probabilidad el valor poblacional, informacin que
no es posible obtener a travs del Test de Significancia Individual.
H0 : 1 + 2 = 1
Podemos establecer t como
0
t= 1
1
A.1. ESTIMACIN DE FUNCIN DE PRECIOS Y DE PRODUCCIN187
H0 : t0 = 1
H1 : t0 6= 1
t0 t0 t0 t0
tc = p = q
VAR(t0 ) 2 t0 (X0 X)1 t
Por lo tanto requerimos de la siguiente informacin:
0,0079 1,46 105 0,000238 3,39 105
= 0,4916 VAR() = 0,000238 0,005556 0,000101
5
0,2258 3,39 10 0,000101 0,000860
t0 = 0,7174
nivel de precios. Por lo tanto, lo que esperamos hallar con esta prueba es el
rechazo de la hiptesis nula.
Las pruebas de hiptesis son las siguientes:
H0 : 1 = 2 = 0
Calculando el estadstico F :
R2 /(k 1) 0,5607/(3 1)
Fc = 2
= = 49,14
(1 R )/(n k) (1 0,5607)/(80 3)
Es posible concluir al comparar con el F de tabla (3,11), que este ltimo es
menor al calculado, lo cual indica que nos encontramos en la zona de rechazo.
As, es posible decir que la regresin encontrada para la Funcin de Precios
s explica el comportamiento que experimenta nuestra variable dependiente.
Siendo:
P0 = X0
0,0079
P0 = 1 4 3 0,4916 = 2,6517
0,2258
A.1. ESTIMACIN DE FUNCIN DE PRECIOS Y DE PRODUCCIN189
0,0529 0,8623 0,1228
(X0 X)1 = 0,8623 20,1295 0,3659 X0 (X0 X)1 X00 = 351,3135
0,1228 0,3659 3,1158
2 = 2,75974 104
(2,04054 P0 3,26286)
Reemplazando:
p
4
E(P0 /X0 ) 2,6517 1,96 2,75974 10 351,3135
1 1
tc =
S 1
Siendo la Prueba de Hiptesis como se presenta:
H0 : 1 = 0
H1 : 1 6= 0
Reemplazando se tiene:
0,0826 0
tc = = 0,488
0,1691
Efectivamente, al comparar el resultado obtenido en nuestra Prueba t con
el de tabla, aceptamos H0 al encontrarnos en la zona de aceptacin.
Anlogamente para 2 se tiene:
2 2
tc =
S 2
H0 : 2 = 0
H1 : 2 6= 0
1
Valor de tabla para un tamao muestral de 28 observaciones y un nivel de significancia
de 0.05.
192 APNDICE A. EJERCICIOS COMPLEMENTARIOS
Finalmente,
1,5259 0
tc = = 4,268
0,3575
Dado que tc > tt se tiene que 2 es un estimador significativo.
(0,2637 1 0,4289)
Efectivamente, es sencillo verificar que 1 tiene una alta probabilidad de
tomar el valor cero, lo que nos conduce a la misma conclusin que con la
Prueba t Individual.
Llevando a cabo el mismo procedimiento para 2 , el intervalo de confianza
se plantea como:
2 t/2 S 2 2 2 + t/2 S 2
Reemplazando se tiene,
0,7937 2 2,2581
Se observa que el valor cero queda fuera del intervalo de confianza, te-
niendo 2 altas probabilidades de ser significativo, conclusin que tambin
se deduce de la Prueba t Individual.
A.1. ESTIMACIN DE FUNCIN DE PRECIOS Y DE PRODUCCIN193
P IB = AK 1 L 2
H0 : t0 = 1
H1 : t0 6= 1
1,7945 2,7685 0,2510 0,5811
= 0,0826 VAR() = 0,2510 0,0286 0,0585
1,5259 0,5811 0,0585 0,1278
El estadstico t relevante para esta prueba es:
t0 t0
tc = p
var(t0 )
Siendo:
H0 : 1 = 2 = 0
El estadstico F es:
R2 /(k 1) 0,9347/(3 1)
Fc = 2
= = 178,924
(1 R )/(n k) (1 0,9347)/(28 3)
Efectivamente, ocurre que a pesar de que no todos los estimadores han
resultado significativos al ser evaluados individualmente, la regresin en con-
junto s resulta serlo. Es posible llegar a esta conclusin al verificar que el
F c es mayor al F de tabla (F t = 3,4), lo que ubica al estadstico en la zona
de rechazo. Esto es justamente lo que se busca, ya que si esta hiptesis es
rechazada nos indica con un 95 % de posibilidades que los parmetros no
sern iguales a cero simultneamente, pudiendo de esta manera explicar el
comportameinto del PIB a travs de los cambios que ellos experimenten.
K = 6000
L = 5200
q
1
[ 2 0 0
ln P IB0 ln P IB 0 t/2 X0 (X X) X0 + 1
Siendo:
[
ln P IB 0 = X0
1,7945
[
ln P IB 0 = 1 ln 6000 ln 5200 0,0826 = 11,980
1,5259
2 = 0,0014
1977,5 179,286 415,071
1
(X 0 X) = 179,286 20,429 41,786
415,071 41,786 91,286
Reemplazando y resolviendo para un 95 % de confianza se obtiene que:
p
ln P IB0 11,980 2,048 0,0014 [2,39336 + 1]
q
1
[
E(ln P IB0 /X0 ) ln P 2
IB 0 t/2 X0 (X0 X) X00
A.1. ESTIMACIN DE FUNCIN DE PRECIOS Y DE PRODUCCIN197
Para que los datos puedan ser ledos por E-Views es necesario im-
portarlos desde los archivos adjuntados, que se encuentran en formato
Excel. Para ello deber presionar el botn Procs en la Barra de Ttulo
de la ventana de Workfile. Luego se abrir un men donde se elegir
el submen Import, para concluir eligiendo la opcin Read Text-
Lotus-Excel.
Se abrir un nuevo men en el que se debe tener cuidado que las series
estn con la opcin columnas. Tambin se deber especificar la primera
celda que contiene datos. Para consumo.xls ser B2 y en el cuadro
principal escribir el nombre de las series separadas por un espacio (en
el orden en que aparecen en la base de datos), es decir, para nuestro
ejemplo, consumo seguido de un espacio seguido de ingreso. Una
vez llevado a cabo, aparecern en el Workfile junto al parmetro de la
constante y de los residuos las series de consumo e ingreso ordenados
en columnas.
Solo ahora que tenemos los datos es posible llevar a cabo la estimacin.
Para ello debe elegir dentro del men Quick de la barra principal la
opcin Estimate Equation.
A.2. INSTRUCCIONES PARA EL PROGRAMA E-VIEWS 199
205
206 BIBLIOGRAFA