Sunteți pe pagina 1din 10

ABSTRACT El estimador de Mnimos Cuadrados Ordinarios (MCO) es el procedimiento de estimacin ms bsico en econometra.

Este captulo trata de las propiedades finitas o pequeas muestras del estimador OLS, es decir, las propiedades estadsticas del estimador MCO que son vlidas para cualquier tamao de la muestra dada. Los materiales incluidos en este captulo son totalmente estndar. La exposicin aqu difiere de la mayora de los otros libros de texto en su nfasis sobre el papel desempeado por la suposicin de que los regresores son "estrictamente exgenos". En la seccin final, se aplica la teora finita de muestra para la estimacin de la funcin de costes utilizando datos de corte transversal sobre las empresas individuales. La pregunta planteada en Nerlove (1963) de estudio es de gran importancia prctica: si hay rendimientos crecientes a escala en el suministro de electricidad? En caso afirmativo, la microeconoma nos dice que la industria debe ser regulada. Adems de proporcionarle una experiencia prctica en la utilizacin de las tcnicas para poner a prueba hiptesis interesantes, papel Nerlove tiene una cuidadosa discusin de por qu el MCO es un procedimiento de estimacin apropiado en esta aplicacin particular. El modelo clsico de regresin lineal En esta seccin se presentan los supuestos que conforman el modelo clsico de regresin lineal. En el modelo, la variable en cuestin (llamada la variable dependiente, el regresando, o ms genricamente la variable del lado [lateral] izquierdo) se relaciona a otras variables (llamadas los regresores, las variables explicativas o las variables del lado derecho). Supongamos que observamos n valores para esas variables. Sea yi de i-sima observaciones de la variable dependiente en cuestin y que (xi1; xi2,,xik) sea la observacin isima de K regresores. La muestra o datos es una coleccin de las n observaciones. Los datos de la economa no pueden ser generados por experimentos (excepto en la economa experimental), por lo tanto, las variables dependientes e independientes tienen que ser tratadas como variables aleatorias, las variables

cuyo valor est sujeto a la casualidad. Un modelo es un conjunto de restricciones a la distribucin conjunta de las variables dependientes e independientes. Es decir, un modelo es un conjunto de distribuciones conjuntas que satisfacen un conjunto de supuestos. El modelo de regresin clsica es un conjunto de distribuciones conjuntas que satisfacen los supuestos 1.1-1.4 indicados a continuacin. La suposicin de linealidad La primera suposicin es que la relacin entre la variable dependiente y los regresores es lineal. Asuncin 1.1 (linealidad): Yi = 1xi1 + 2xi2 ++ Kxik + i

(i= 1, 2,, n),

(1.1.1)

donde s son parmetros desconocidos a estimar, y i es el error no observado a largo plazo con ciertas propiedades que se especifican a continuacin. La parte del lado derecho de la participacin de los regresores, 1xi1 + 2xi2 ++ Kxik , se llama la regresin o la funcin de regresin, y los coeficientes ('s) son llamados coeficientes de regresin. Ellos representan los efectos marginales y separados de los regresores. Por ejemplo, 2, representa el cambio en la variable dependiente cuando el segundo regresor aumenta en una unidad, mientras que otros regresores se mantienen constantes. En el lenguaje del clculo, esto puede ser expresado como yi / xi = 2. La linealidad implica que el efecto marginal no depende del nivel de regresores. El error representa la parte de la variable dependiente que queda sin explicar por los regresores. Ejemplo 1.1 (funcin de consumo): La funcin de consumo familiar simple de introduccin a la economa es CONi = 1 + 2YDi i

(1.1.2)

donde CON es el consumo y YD es la renta disponible. Si los datos son agregados anuales de series de tiempo, CONi y YDi son el consumo agregado y los ingresos disponibles para el ao i. Si los datos provienen de una encuesta de los hogares individuales, CONi es el consumo por el hogar i-simo en el corte transversal de las n muestra de hogares. La funcin de consumo se puede escribir como (1.1.1) mediante el establecimiento de yi = CONi, xi1 = 1 (una constante), y xi2 = YDi. El error i representa otras variables adems de la renta disponible que influyen en el consumo. Se incluyen aquellas variables-tales como los activos financieros-que pueden ser observables, pero el investigador decidi no incluir como regresores, as como las variables, tales como el "estado de nimo" del consumidor-que es difcil de medir. Cuando la ecuacin tiene slo un regresor no constante, como aqu, se llama el modelo de regresin simple. El supuesto de linealidad no es tan restrictivo como pudiera parecer, porque la variable dependiente y las variables explicativas pueden ser las transformaciones de las variables en cuestin. Consideremos: Ejemplo 1.2 (ecuacin de salarios): Una versin simplificada de la ecuacin de salarios habitualmente estimada en la economa del trabajo es log (SALARIOi) = 1 + 2Si + 3TENUREi + 4EXPi + i (1.1.3)

donde el SALARIO = la tasa de salario para el individuo, S = la educacin en aos, TENURE = aos en el trabajo actual, y EXPR = aos de experiencia laboral (es decir, el nmero total de aos sobre todos los puestos de trabajo ocupados actual o previamente por el individuo). La ecuacin de salarios se ajusta al formato genrico (1.1.1) con yi = log(SALARIOi). La ecuacin se dice que es en forma semi-logaritmica porque slo la variable dependiente es en logaritmo. La ecuacin se deriva de la siguiente relacin no lineal entre el nivel de la tasa de salario y los regresores: SALARIOi = exp (1) exp (2Si) exp (3TENUREi) exp (4EXPi) exp (i) (1.1.4) Al tomar los registros de ambos lados de (1.1.4) y observando que log [exp(x)] = x, se obtiene (1.1.3). Los coeficientes en la forma semi-log tienen la interpretacin de

las variaciones porcentuales, no cambios en los niveles. Por ejemplo, un valor de 0,05 de 2 implica que un ao adicional de educacin tiene el efecto de elevar la tasa de salario en un 5 por ciento. La diferencia en la interpretacin se produce debido a que la variable dependiente es la tasa de salario diario, no el salario en s, y el cambio en los registros es igual al porcentaje de cambio en los niveles. Algunas otras formas de no linealidades tambin pueden ser acomodadas. Supongamos, por ejemplo, que el efecto marginal de la educacin termina cuando el nivel de educacin es muy alto. Esto se puede capturar mediante la inclusin en la ecuacin de salarios del trmino al cuadrado S2 como un regresor adicional en la ecuacin de salarios. Si el coeficiente del trmino al cuadrado es 5, el efecto marginal de la educacin es 2 + 25 S (= log (SALARIO)/ S).

Si 5 es negativo, el efecto marginal de la educacin disminuye con el nivel de educacin. Existen, por supuesto, los casos genuinos de no linealidad. Por ejemplo, la relacin (1.1.4) no habra podido ser lineal si el trmino de error se hubiera introducido de forma aditiva en lugar de manera multiplicativa: SALARIOi = exp (1) exp (2Si) exp (3TENUREi) exp (4EXPi) + i La estimacin de las ecuaciones de regresin no lineal, como esta se discutir en Captulo 7. Matriz notacin Antes de establecer otros supuestos del modelo clsico, se introduce el vector y la matriz notacin. La notacin ser de utilidad para otros supuestos que indican precisin y tambin para derivar el estimador de MCO de . Definir K-dimensional (columna) vectores xi y como

X=[

=[

(1.1.5)

En los vectores y matrices de (1.1.6), existen filas, tantas como sean las observaciones, con las filas correspondientes a las observaciones. Por esta razn y y X a veces se llama el vector de datos y la matriz de datos. Puesto que el nmero de columnas de X es igual al nmero de filas de , X y son conformables y X es un vector de n x 1. Su i-simo elemento es xi. Por lo tanto, el supuesto 1.1 se puede escribir en forma compacta como

Supuesto de estricta exogeneidad El siguiente supuesto del modelo de regresin clsica es Asuncin 1.2 (estricta exogeneidad):

Aqu, la esperanza (media) est condicionada a las variables independientes para todas las observaciones. Este punto puede hacerse ms evidente si se escribe el supuesto sin necesidad de utilizar la matriz de datos como

Para indicar el supuesto de otra manera, tomar, para alguna observacin concreta i, la distribucin conjunta de las variables aleatorias n K + 1, f (i, x1,,xn), y considerar la distribucin condicional, f (i / x1,,xn). La media condicional E (i / x1,, xn) es, en general, una funcin no lineal de (x1,, xn). El supuesto de estricta exogeneidad dice que esta funcin es una constante de valor cero. Suponiendo que esta constante sea cero no es restrictiva si los regresores incluyen una constante, porque la ecuacin puede ser reescrita de modo que la

media condicional del trmino del error es cero. Para ver esto, supongamos que E (i / x) es y xi1 = 1. La ecuacin se puede escribir como

Si redefinimos 1 a ser 1 + y i a ser i , la media condicional del nuevo trmino del error es cero. En prcticamente todas las aplicaciones, los regresores son trminos constantes. Ejemplo 1.3 (continuacin del ejemplo 1.1): Para el modelo de regresin simple del ejemplo 1.1, el supuesto de estricta exogeneidad puede ser escrito como

Dado xi= (1, YDi), es posible que desee escribir el supuesto de estricta exogeneidad como Pero como una constante no proporciona ninguna informacin, la esperanza condicionada a es la misma que la esperanza condicional sobre Implicancias de la estricta exogeneidad El supuesto de estricta exogeneidad tiene varias implicaciones. La media no condicional del error es cero, es decir,

Esto es as por la Ley de Esperanzas totales de la teora de probabilidad bsica Si el momento de cruce E (xy) de dos variables aleatorias x e y es cero, entonces se dice que x es ortogonal a y (o y es ortogonal a x). En virtud de la estricta exogeneidad los regresores son ortogonales al trmino del error para todas las observaciones, es decir, La prueba es un buen ejemplo del uso de las propiedades de las esperanzas condicionales y es la siguiente.

PRUEBA. Como xjk es un elemento de X, la estricta exogeneidad implica

por la Ley de esperanzas iteradas de la teora de probabilidades. De ello se deduce a partir de esto que

El punto aqu es que la estricta exogeneidad requiere que los regresores sean ortogonales no slo al error de la misma observacin (es decir, E (xik i) =0 para todo k), sino tambin al error de las otras observaciones (es decir, E (xjk i) =0 para todo k y para j i). Debido a que la media del error es cero, las condiciones de ortogonalidad (1.1.9) son equivalentes a las condiciones de correlacin cero. Esto es debido a

En particular, para i = j, Cov (xik, i) =0. Por lo tanto, la estricta exogeneidad implica la exigencia (familiar para aquellos que han estudiado la econometra antes) de que los regresores se correlacionen simultneamente con el trmino de error. Estricta exogeneidad en modelos de series de tiempo Para los modelos de series de tiempo donde i es el tiempo, la implicacin (1.1.9) de estricta exogeneidad puede ser reformulada como: los regresores son ortogonales al pasado, actual, y error futuro (o equivalentemente, el trmino de error es ortogonal a la corriente el pasado, y los regresores futuros). Pero para la mayora de los modelos de series de tiempo, esta condicin (y con mayor motivo la estricta exogeneidad) no se cumple, por lo que la teora de la muestra finita sobre la base de una estricta exogeneidad a desarrollar en este apartado no suele ser aplicable en un contexto de series de tiempo. Sin embargo, como se muestra

en el siguiente captulo, el buen estimador posee propiedades de grandes muestras sin estricta exogeneidad. El ejemplo ms claro de un fallo de estricta exogeneidad es un modelo donde el regresor incluye la variable dependiente rezagada. Consideremos el modelo simple: Esto se conoce como el modelo autorregresivo de primer orden (AR (1)). (Vamos a estudiar este el modelo con ms detalle en el captulo 6.) Supongamos, en consonancia con el espritu del supuesto de estricta exogeneidad, que el regresor para la observacin i, yi-1, es ortogonal al trmino de error para i tal que E(yi-1 i) = 0. Entonces Por lo tanto, a menos que el error sea siempre cero, E(yi i) no es cero. Sin embargo yi es el regresor para la observacin i+1. As, el regresor no es ortogonal error pasado, que es una violacin de estricta exogeneidad. Otros supuestos del Modelo Las otras hiptesis que comprenden el modelo clsico de regresin son las siguientes. Supuesto 1.3 (no multicolinealidad): el rango de la matriz de datos nxK , X, es K con probabilidad 1. Supuesto 1.4 (error esfrico de la varianza): (homocedasticidad) (no hay correlacin entre las observaciones) Para entender el supuesto 1.3, recuerde, del lgebra matricial que el rango de una matriz es igual al nmero de columnas linealmente independientes de la matriz. La suposicin dice que ninguna de las columnas de K de la matriz de datos X puede expresarse como una combinacin lineal de las otras columnas de X. Es decir, X es de rango columna completa. Puesto que las columnas de K no puede ser

linealmente independientes si su dimensin es menor que K, la suposicin implica que n K, es decir, debe haber al menos tantas observaciones como regresores. Los regresores se dice que son (perfectamente) multicolineales si el supuesto no se cumple. Es fcil ver en aplicaciones especficas cuando los regresores son multicolineales y los problemas que surgen.

Ejemplo 1.4 (continuacin del Ejemplo 1,2): Si los individuos de la muestra nunca han cambiado de trabajo, entonces TENUREi = EXPRi para todo i, en violacin del supuesto de no multicolinealidad. Evidentemente no hay manera de distinguir el efecto TENENCIA del efecto EXPERIENCIA sobre la tasa de salario. Si sustituimos esta igualdad en la ecuacin de salarios para eliminar la TENENCIA, la ecuacin de salarios se convierte en Lo que demuestra que solo la suma 3 + 4, pero no 3 y 4 por separado, puede ser estimado. El supuesto de homocedasticidad (1.1.12) dice que la la condicin del segundo momento, que en general es una funcin no lineal de X, es una constante. Gracias a la estricta exogeneidad, esta condicin puede afirmar lo que es equivalente en trminos ms familiares. Considere la varianza condicional Var(i / x). Es igual a la misma constante porque

Del mismo modo, (1.1.13) es equivalente a la exigencia de que Es decir, en la distribucin conjunta de (i / j) condicionada a X, la covarianza es cero. En el contexto de modelos de series de tiempo, (01.01.13) afirma que no hay correlacin serial en el trmino de error. Puesto que (i, j) elementos de la matriz nxn es ij, el supuesto 1.4 puede ser escrito en forma compacta como

La discusin del prrafo anterior muestra que el supuesto tambin puede ser escrito como Sin embargo, (01.01.14) es la expresin preferida, porque la medida ms conveniente de la variabilidad es segundo momento (por ejemplo E(i2 / x)) ms que las varianzas. Este punto quedar ms claro cuando tratemos la teora de la gran muestra en el el captulo siguiente. El Supuesto 1.4 se llama a veces la suposicin del error esfrico de la varianza porque la matriz de nxn segundos momentos (que tambin son las varianzas y covarianzas) es proporcional a la matriz identidad. Este supuesto ser relajado ms adelante en este captulo. El modelo clsico de regresin para muestras aleatorias

S-ar putea să vă placă și