Sunteți pe pagina 1din 29

TEORIA ECONOMETRICA

(ECOCUA 1)

Econometría: proceso de números para extraer


inferencias
Cuando James Heckman y Daniel McFadden ganaron el
premio nobel 2000, es probable que estudiosos y
practicantes de Economía se hayan preguntado ¿Quiénes
son esos? Es probable incluso que se hayan preguntado
si en sus estudios de la carrera de Economía habrían
dejado de cursar alguna asignatura. En cierta forma, fue
algo aun peor que eso: en realidad lo que les había
pasado inadvertido es una metodología que hoy se ha
vuelto indispensable para todas las áreas de la
Economía.
Heckman y McFadden hicieron una contribución
fundamental en el campo de la Econometría que se
define como la aplicación de la teoría estadística a la
investigación económica. Como el Comité Nobel lo
reconoció al otorgarles el premio, la Econometría
actualmente provee la prueba estándar para un amplio
rango de temas de Microeconomía aplicada, la cual
estudia desde el gasto de consumo y de inversión por
parte de los hogares y de las firmas, respectivamente,
hasta la organización de las industrias, los mercados
laborales y los efectos de la política pública.
Suponga que estamos interesados en investigar las
relaciones entre salarios y experiencia laboral. Uno
puede iniciar por aplicar una encuesta a una muestra de

1
trabajadores de una empresa dada preguntando cuales
han sido sus niveles salariales y cuánto tiempo han
estado desempeñándose en diferentes puestos de tal
firma. Es probable que encontremos una fuerte
correlación entre niveles de remuneración y experiencia
laboral pero, para la perspectiva econométrica, la
respuesta pudiera no ser del todo de mucha utilidad.
Un problema que suscita insatisfacción es del sesgo por
variables omitidas. Suponga con cierta certeza que años
de escolaridad, género o raza fueran también
determinantes importantes de los salarios. Al no incluir
tales variables no solo estaremos omitiendo información
vital, sino llegando a una respuesta insuficiente. Peor
aún, conforme la teoría econométrica lo postula y
demuestra, la información faltante contamina la
correlación estimada entre las dos variables
examinadas.
Alternativamente, considere la causalidad inversa, es
decir, la idea de que los salarios también afectan a la
experiencia, así como viceversa. Quizás empleados que
perciben altas remuneraciones es más probable que
permanezcan más tiempo en la empresa y, de esta
manera, acumulan mayor experiencia. De ser así, las
conclusiones extraídas de la correlación estimada
pudieran ser engañosas. Uno de los remedios puede ser
trabajar con una variable “proxy” en sustitución del
predictor experiencia, eligiendo una variable que no sea
afectada por salarios: la edad, por ejemplo.
Luego viene la necesidad de tener precisión y
robustocidad, es decir, ¿Qué tan confiables son los
resultados obtenidos?¿Fue encuestada la cantidad

2
necesaria de trabajadores para poder inferir
conclusiones de los trabajadores de esa firma e incluso
de algunas otras?¿los trabajadores que contestaron la
encuesta comparten un código de conducta que pudiera
influenciar sus salarios?¿varían de manera distinta los
salarios de hombres y mujeres con la experiencia?¿la
respuesta de los trabajadores es confiable y precisa?
Para satisfacer a un macro o micro-economista, todas
esas preguntas tienen que ser resueltas mediante
herramientas econométricas.
La teoría econométrica también señala que se necesitan
diferentes métodos para evaluar diferentes tipos de
elección. Las herramientas que usted usaría para
analizar una relación estática entre dos variables
continuas tales como salarios y experiencia, pudieran
no ser correctamente aplicadas a la elección entre dos
opciones tales como la decisión de comprar o no
comprar un automóvil; o en casos de elección múltiple,
tales como planear que tantos hijos tener; o elegir
trabajar horas extras, tales como presupuestar para el
retiro; o para elegir en más de un nivel, tal como decidir
si aplicar para una universidad y entonces seleccionar
que institución atender.
Los ganadores del premio nobel de Economía 2000
resolvieron diversos enigmas metodológicos en
Econometría. Heckman confrontó el problema de
selección de muestras: por ejemplo, en términos de los
ejemplos dados, el efecto en los resultados si los
trabajadores que contestaron el cuestionario difiriera de
maneras importantes con aquellos que no lo tomaron. Si
uno pudiera conocer quienes respondieron enfatizando
determinados factores -quizás solo trabajadores con

3
altos salarios tuvieron tiempo de llenar el formato de la
encuesta-, los estimados pueden volverse más precisos.
McFadden desarrolló maneras de modelar varios tipos de
elecciones tales como cuantos hijos tener. Situaciones
como ésta que admiten diversas opciones involucran un
análisis estadístico complejo debido a que los factores
que inciden sobre la pareja para tener el primer hijo no
son los mismos que aquellos que llevan a la pareja a
tener tres o cuatro hijos(as).
Además de sus contribuciones genuinas en el campo de
la Econometría Heckman y McFadden aportaron varias
herramientas para analizar en una gama amplia de áreas
microeconómicas aplicadas. Heckman, por ejemplo,
estudio como las personas deciden cuanto tiempo
trabajar, así como el papel de la educación y de la
capacitación en tal decisión. Los intereses de trabajo
académico de McFadden incluyeron la economía del
transporte, energía, ambiente, salud, desarrollo y
producción industrial. Ciencias biológicas, médicas y
otras ciencias sociales también estuvieron en el focus de
ambos.
Lo cierto es que con el premio Nobel asignado a estos
pioneros tanto en teoría como en aplicación
econométrica, les llegó su tiempo. Al margen de
cualquier sesgo político o filosófico, la investigación
económica tiene que ganar legitimidad estadística. Y
legitimidad estadística es una condición necesaria
(aunque quizás no suficiente) para la credibilidad que la
ciencia económica aún carece fuera de su propio
dominio. El laborioso trabajo estadístico del pasado -y
quizás aún la antigua creencia de que estaba bien que

4
los economistas minaran datos hasta que encontraran
soporte virtualmente a cualquier conclusión-, ha
desparecido en gran medida de la Microeconomía, al
menos en buenas universidades.
De hecho, en estos días, los micro-economistas
aplicados frecuentemente ven con desconfianza el
trabajo de Micro-economistas, antes considerados la
quintaesencia intelectual de la investigación económica
y aun los apóstoles originales de la econometría; quienes
están desaprovechando la ventajas de los métodos
econométricos avanzados disponibles para el trabajo
académico.
En suma, la Econometría que una vez fue un dominio de
pronosticadores y de financieros, ahora da sustento a
múltiples áreas en nuestra disciplina. Incorporarla a
nuestra “cajita de herramientas” para el análisis
económico ya no es una opción sino una necesidad. Si
esta es ya tu convicción, la presente invitación a
estudiarla resultaría ociosa, pero de no serlo sirva para
como incentivo oportuno para tomar consciencia de la
necesidad.
Facultad de Economía UNAM, Agosto 2019.

5
Introducción

El presente curso advierte sobre como la aplicación


mecánica del análisis de regresión puede apartarnos de la
práctica correcta en Econometría, es decir, evaluar las
especificidades de los datos en el proceso de
especificación, antes de proceder a la estimación del
modelo. Además de las pruebas de hipótesis y los métodos
gráficos y el análisis de datos (análisis exploratorio de
datos, EDA) constituye una poderosa herramienta de
diagnóstico de análisis de regresión aplicada.

No se debe asumir a un modelo como el mejor modelo


guiándonos solamente por su aparente buena apariencia de
los primeros resultados obtenidos pues podrían estar
plagados de problemas que debilitan su poder explicativo y
predictivo. La mayoría de estos problemas en lo datos
estadísticos son comunes en el análisis multivariado y
pueden ser detectados mediante métodos gráficos que
revelen la distribución de uni y bi-variada

Los métodos gráficos del análisis de datos -uni y/o bi-


variado, más cuidadosas pruebas de diagnóstico,
constituyen una herramienta poderosa en la especificación
y eventual estimación del modelo.

6
1. Fundamentos de Análisis de datos

1.1 Especificación del Modelo e Investigación Económica


Aplicada

Modelización de datos no es sólo cuestión de estimación


de modelos o prueba de hipótesis, también involucra la
especificación del modelo. La literatura tradicional en
Estadística y Econometría tiende a enfatizar los primero,
pero la investigación económica se interesa más con la
tarea de encontrar un modelo apropiado que mejor
responda a las preguntas del investigador.

Un modelo estadístico o econométrico indaga las


relaciones entre variables en situaciones no
determinísticas en las cuales la regularidad de datos
(una relación promedio) va de la mano con variaciones
considerables en los residuales aleatorios. La
especificación de un modelo, por lo tanto, tiene, por un
lado, un componente estructural (sound) asi como un
componente error residual (noise), los cuales en conjunto
buscan capturar la variación en los datos. La
modelización de los datos, por lo tanto, requiere que
confiemos tanto en la teoría sustantiva (Teoría
Económica) como en la teoría estadística (Probabilidad).

La validez de la inferencia estadística (estimación y


prueba de hipótesis) depende de si los supuestos
subyacentes en los modelos que utilizamos para analizar
los datos, son razonablemente validos en la práctica.
Antes de hacer cualquier inferencia, por lo tanto, es
necesario constatar si los supuestos de nuestros
modelos son razonables, dado un determinado problema.

7
De hecho, hay una tensión potencial entre los roles que
pueden jugar los datos en el análisis econométrico:

- Validar ideas ante datos dentro del contorno de un


modelo dado y,

- Captar ideas a partir de los datos para mejorar o


desarrollar el modelo o elegir entre modelos rivales.

Las estrategias modelísticas difieren dependiendo de la


manera en que ellos manejan esa tensión.

Los enfoques modelísticos tradicionales resuelven esa


tensión negando que los datos jueguen un rol en la
especificación del modelo. De hecho esta teoría reina en
el proceso de especificación del modelo. Los datos
entran validar un modelo en aislamiento de sus rivales o
a estimar sus coeficientes. En la práctica, sin embargo,
la investigación económica aplicada general+ involucra
la realización de modificaciones ad hoc a un modelo a la
luz de los resultados iniciales de la estimación y
validación del propio modelo.

Los enfoques modernos para la modelización conceden


a los datos un mayor rol en la especificación del modelo:

- La especificación del modelo permite a los datos elegir


entre modelos rivales a través de prueba formal de
hipótesis. La selección del modelo tiene lugar mediante
las pruebas dentro de un modelo general que admite
interpretaciones diferentes dependiendo de la naturaleza
de las restricciones impuestas en él.

- El EDA busca obtener pistas a partir de los datos


mediante la observación cuidadosa a los patrones
(residuales) dentro de los datos. Su objetivo principal es

8
informarse a partir de los datos, más que validar ideas
contra los datos.

-El análisis de fragilidad investiga que tan sensibles son


los resultados de la estimación del modelo y la prueba de
hipótesis con respecto a cambios menores en la
especificación del modelo. La idea básica subyacente en
este enfoque moderno de modelaje es que no puede
depositarse mucha confianza en inferencias frágiles que
descansen en inferencias frágiles que puedan ser
revertidas por cambios menores en el modelo.

En el análisis de datos es útil distinguir entre variables


flujos y variables stock. Las primeras son medidas a
cierto punto en el tiempo, mientras que los datos son
medidos sobre un periodo de tiempo. Ambas variables
pueden tener presencia en el análisis transversal y el
análisis de series de tiempo. Los datos transversales
pueden realizar comparaciones a un determinado punto o
en un periodo de tiempo determinado, en tanto que
series de tiempo describe la evolución sobre el tiempo.
Este último tipo de datos son adecuados para el análisis
de la interacción dinámica entre variables pero están
expuestos a derivar en correlaciones espurias.

1.2 Modelización de un valor Promedio

La modelización de un promedio demanda formular


supuestos sobre la forma de la distribución de la
población. Es decir, un promedio por sí mismo nos dirá
muy poco al menos que tengamos una idea sobre la
forma de la distribución.

9
En el trabajo empírico, se utilizan tres tipos de promedio:
la media, la mediana y la moda . Si la distribución es
unimodal y simétrica, las tres medidas coinciden. Si,
además, la distribución tiene forma de campana con
colas delgadas, la masa de la distribución estará
concentrada alrededor de este valor típico.
Consecuente+, si el supuesto de normalidad es
razonable+ valido en la práctica, el promedio (media,
mediana y moda) nos proporciona un centro inequívoco
de la distribución. La clásica manera de modelización de
una media poblacional se basa en el supuesto que la
variable esta normalmente distribuida.

Las distribuciones sesgadas unimodales son más


difíciles de interpretar en sus promedios. Cada tipo de
promedio destaca un aspecto diferente de la
distribución: la moda da su máximo, la media da su punto
de equilibrio, y la mediana su valor medio. Pero ninguna
de estas medidas arroja un centro indubitable de la
distribución debido a su falta de simetría.

Para modelar un promedio asumimos que los datos


fluctúan aleatoria+ en torno a una media poblacional
constante. Las fluctuaciones aleatorias en torno a la
media son dadas por los términos error que
corresponden a las diferentes observaciones en una
muestra. Se asume que cada termino error tiene media
cero y varianza constante, y que los diversos términos
error son estadística+ independientes uno del otro (es
decir, los datos son generados mediante muestreo
aleatorio). Final+, asumimos que cada término error tiene
una distribución normal.

10
Dados los supuestos de una media constante con
homocedasticidad y errores estadística+ independientes,
la media muestral es el mejor estimador lineal insesgado
(BLUE). Insesgacidad implica que, bajo condiciones de
muestreo repetido, la media de distribución muestral de
la media muestral iguala a la media poblacional. El mejor
estimador es aquel que tiene el error estándard más
pequeño (más preciso) dentro de su clase de
estimadores (en este caso, estimadores lineales). Si,
además, prevalece el supuesto de normalidad, la media
muestral es el estimador de máxima verosimilitud (ML)
que es el estimador de varianza mínima entre todos los
estimadores. En general, si la distribución de la
población es normal, la media muestral es imbatible
como un estimador de la media poblacional.

A manera de ejemplo, hemos demostrado que si la


distribución de la población es normal, la media muestral
será más eficiente (precisa) que la mediana. De hecho, la
varianza de distribución muestral de la media muestral
será aproximada+ de 1.57 (=pi/2) veces más grande que
la de la media muestral.

El supuesto de normalidad planta las bases para la


inferencia estadística. Si la varianza de la población es
conocida, se pueden construir intervalos de confianza o
probar las hipótesis utilizando la distribución normal. Si
no, utilizamos la distribución t la cual nos demanda
estimar la desviación estándard de la población a partir
de la muestra. Los intervalos de confianza y la prueba de
hipótesis involucran juicios con respecto al valor del
parámetro del modelo en este caso, sobre la media
poblacional. Las diferencias entre un intervalo de

11
confianza y una prueba de hipótesis es que, en el
primero, pretendemos obtener una idea sobre el rango de
valores probables de una media poblacional
desconocida, mientras que en el segundo caso,
intentamos ver que tan probable es la muestra para un
valor dado (hipotetizado) de la media poblacional.

Nunca confundamos significancia estadística con


significancia o importancia sustantiva. La primera se
refiere al hecho que la decisión de si rechazar o aceptar
una hipótesis estadística siempre conlleva un grado de
riesgo o incertidumbre de rechazar una hipótesis cuando
de hecho (pero ignorándolo nosotros) es correcta . Lo
anterior indica que un resultado estadística+ muy
significativo es que hay un riesgo muy pequeño de
rechazar la hipótesis nula cuando de hecho es verdadera.
Sin embargo, un resultado que sea estadística+
significativo puede no ser significante en cualquier
sentido sustantivo. En la prueba de hipótesis lo que
importa es obtener resultados estadística+ significativos
concernientes a problemáticas de importancia
sustantiva.

1.3 Outliers, sesgos y transformación de datos

La media muestral es un estimador de mínimos


cuadrados. En general, los estimadores mínimos
cuadrados tienen propiedades deseables si el supuesto
de normalidad es satisfecho. Pero la propiedad de MCO
cuadrados también explica la falta de resistencia de la

12
media muestral a la presencia de outliers y de sesgos en
la muestra.

Para analizar la forma de la distribución (particularmente


sesgacidad y la pesadez de sus colas) podemos utilizar
tanto los estadísticos basados en la media como los
estadísticos de segundo orden: respectivamente, los
coeficientes de sesgacidad y kurtosis, por un lado, y el
sumario de cinco números y la graficación de cajas (así
como la definición de outliers), por el otro lado. Los
últimos, a diferencia de los primeros, son sumarios
resistentes que resultan ser más apropiados cuando el
análisis de datos esta de condiciones en gran medida
desconocidas.

Para cotejar si el supuesto de normalidad es


razonablemente válido en la práctica, se sugieren dos
procedimientos. El primero se basa en la comparación de
los estadísticos basados en la media y los estadísticos
ordinales, y ello supone dos pasos:

- Checar la sesgacidad de los datos mediante la


comparación de la media y la mediana de la muestra.

- Checar si los datos exhiben colas más gruesas que una


distribución normal, comparar las desviaciones estándar
falsas, una medida de varianza resistente basada en el
rango Inter.-cuartil (IQR); con la desviación estándar de
la muestra.

El segundo procedimiento involucra una prueba formal, la


prueba de sagacidad y curtosis; la cual verifica si los
datos han sido extraídos de una distribución normal
(para el cual el coeficiente de sesgacidad es igual a cero
y la kurtosis es igual a 3).

13
Si los datos fueran razonablemente simétricos pero
tienen colas más gruesas que las normales, la media
muestral no puede ser el mejor estimador debido a su
falta de resistencia y robustez. Robustez de un estimador
es la propiedad del estimador para desempeñarse mejor
que sus competidores, sobre un rango de condiciones
subyacentes. Mientras que la media muestral es superior
cuando los datos provienen de una distribución normal,
la mediana muestral es el estimador más robusto y, por
consiguiente preferible, cuando las condiciones
subyacentes son desconocidas.

Si los datos fueran unimodales pero sesgados, se


requiere de una transformación de datos para corregirlos
en su sesgacidad. Para hacer lo anterior nos apoyamos
en la escalera de transformación exponencial que nos
permite corregir para diferencias de dirección de la
sesgacidad (positiva o negativa) así como en su
fortaleza. Frecuentemente, pero no siempre, una
transformación deriva en datos transformados
simétricos y más normales en su forma. Si fuera el caso,
utilizaríamos el modelo clásico de inferencia sobre la
media poblacional utilizando la media poblacional como
estimador.

Después del análisis con datos transformados es


necesario trasladar los resultados a su origen. Si la
transformación fuera exitosa y, por consiguiente, los
datos transformados fueran aproximadamente
simétricos, la transformación inversa de la media
muestral (y su intervalo de confianza) nos proporcionaría
un punto (un intervalo) estimado de la mediana
poblacional de los datos originales, y no de su media

14
poblacional. Más aún, si el estimado se obtiene mediante
la aplicación del modelo clásico basado en la
superioridad de la media muestra como estimador
cuando el supuesto de normalidad se satisface, a los
datos transformados.

15
II. Regresión y Análisis de datos

II.1 Análisis de Datos y Regresión Simple

La regresión de Y en X constituye la línea o la curva de


medias condicionales de Y para los valores dados de X. La
regresión lineal simple asume que la media condicional de
Y es una función lineal de X.

El método más conocido para derivar la regresión muestral


se basa en el principio de Mínimos Cuadrados Ordinarios
(MCO). Dados los supuestos del modelo de regresión lineal
clásico, los estimadores mínimos cuadrados de los
coeficientes de la línea de regresión son BLUE (Best
Linear Unbiased Estimator). Si, además, el termino error
está normalmente distribuido, los estimadores MCO será
estimadores de mínima varianza.

La línea de regresión de MCO se sub-divide en dos


componentes: la variación explicada debido a la variación
en X y la variación redisual. La R 2 es una medida de
bondad de ajuste y constituye la proporción de la variación
explicada en la variación total de Y.

La inferencia en el análisis de regresión se basa en los


supuestos del modelo de regresión clásico normal –en
particular, de los supuestos de normalidad del término
error. El tratamiento de la estimación, los intervalos de
confianza y las pruebas de hipótesis, es muy similar a la
estimación de una media poblacional mediante el modelo
clásico.

La línea de regresión por MCO, como la media muestral,


constituye una poderosa herramienta de análisis sí los

16
supuestos de la regresión lineal normal clásica se
satisfacen en la práctica. Si no, la regresión lineal por
MCO pierde rápida+ superioridad. Por esta razón es
importante evaluar si los supuestos del modelo son válidos
en la práctica. La graficación de las regresiones –
regresión banda exploratoria, gráfico de dispersión con
línea de regresión y graficación de residuales-,
constituyen poderosos instrumentos para checar la validez
aproximada de los supuestos.

Una regresión a través del origen implica deshacerse del


intercepto del modelo. La primera prueba siempre será
comprobar si los datos admiten este tipo de restricciones
y mantener en mente que las R 2 del modelo con y sin
intercepto, no son comparables.

Puntos atípicos (outliers), palanca e influyentes, pueden


despistarnos cuando formulamos inferencias sobre la
población a partir de la regresión de una muestra. Los
puntos outliers son datos con excepcionalmente grandes
residuales, mientras que los puntos influyentes halan la
línea de regresión en su dirección. Los puntos palanca
indican si un dato yace más cerca del contorno de un
diagrama de dispersión.

Los estadísticos sombrero (hat) miden apalancamiento.


Los residuales estudiantizados nos ayudan a detectar la
presencia de, respectiva+, puntos influyentes y outliers.

La transformación de datos puede ayudarnos a obtener la


linealidad. En este sentido, la transformación logarítmica
es utilizada con mayor frecuencia. Dependiendo de si
procedemos a transformar X o Y, o ambas variables, hay
tres especificaciones posibles. Siempre es necesario

17
observar si la transformación de los datos afecta o no, la
forma de la distribución de las variables trasformadas.

II.2 Regresión parcial: interpretación de los coeficientes


de regresión múltiple.

1. El análisis de regresión múltiple escala el análisis de


regresión simple e involucra regresiones entre la variable
dependiente y cada una de las variables regresoras,
regresiones auxiliares entre regresores y regresiones
representando variables residuales de regresiones
previas.

2. El significado del coeficiente de regresión de una


variable explicativa en regresión múltiple es igual que el
de regresión parcial a que se arriba abstrayéndonos de la
influencia lineal de las otras variables explicativas
incluidas en el modelo, tanto de la variable dependiente
como de las variables explicadoras en cuestión. Este
procedimiento arroja una regresión parcial que nos
permite controlar la influencia de otras variables mientras
se investiga la relación entre la variable dependiente y la
variable explicativa en un contexto donde las otras cosas
“no son iguales o ni permanecen constantes”.

3. El coeficiente de correlación parcial es la raíz cuadrada


del coeficiente de determinación de la regresión parcial.
Es el coeficiente de correlación entre la variable
dependiente y el regresor añadido después de eliminar la
influencia de los otros regresores en el modelo.

18
4. Un gráfico de regresión parcial (o gráfico de la variable
añadida) es el diagrama de dispersión entre dos conjuntos
de residuales obtenidos mediante la remoción de la
influencia lineal de otros regresores tanto de la variable
dependiente como del regresor añadido. Un gráfico de
regresión parcial nos sirve para observar al coeficiente de
regresión múltiple por medio de un gráfico de dispersión
de dos dimensiones. Es un poderoso instrumento para
detectar desviaciones de los supuestos del modelo.

5. La extensión del principio de


MCO al modelo de regresión
múltiple es sencilla y exhibe
propiedades matemáticas
similares a aquellos de regresión
simple. La principal diferencia es
que ahora hay más de una
variable explicativa, y con datos
no experimentales, esas variables
despliegan un cierto grado de
multicolinealidad. La colinealidad
perfecta implica que existe una
relación lineal exacta entre los

19
regresores (incluyendo el termino
intercepto), en el que la regresión
lineal se desglosa. La
ortogagonalidad de los regresores
implica que no están
correlacionados entre sí, una
situación ideal para el ejercicio
de regresión, pero que rara vez se
cumple.
6. Debido a la presencia de
colinealidad, el coeficiente de un
determinado regresor en relación
a la variable dependiente depende
de los otros regresores incluidos
en el modelo. Consecuentemente,
el coeficiente pendiente varía con
la especificación del modelo
debido a la inclusión o a la

20
exclusión de otros regresores.
Sólo si todos los regresores son
ortogonales entre sí, la regresión
simple dará los mismos
coeficientes pendientes que la
regresión múltiple.
7. Una variable superflua en una regresión es aquella
añade nada a la variación explicada una vez que el efecto
de los otros regresores hayan sido tomados en cuenta.
Estricta+ hablando, su coeficiente pendiente en el análisis
de regresión múltiple será cero, pero pudiera ser no cero
en las regresiones segmentadas de los datos extraídos de
un modelo más amplio. Lastrar una variable superflua de
una regresión no altera el coeficiente pendiente de otros
regresores.

8. Dados los supuestos usuales del modelo clásico de


regresión lineal normal en conjunción con los supuestos
añadidos de que los regresores no están exacta+
colinealizados, los estimadores MCO se vuelven BLUE. Si
añadimos el supuesto de normalidad, los estimadores MCO
son también estimadores de ML (para funciones no
lineales) y, por lo tanto, tienen varianzas mínimas entre
todos los estimadores. Dados estos supuestos, la línea de
MCO es superior como estimador de la regresión
poblacional.

9. Los estadísticos t permiten no solo probar hipótesis


relativas a los valores individuales del coeficiente, sino

21
también a hipótesis que involucran combinaciones
lineales de coeficientes, a condición de que podamos re-
parametrizar al modelo.

10. Es un ejercicio útil investigar la sensibilidad de los


coeficientes de regresión entre especificaciones
colindantes plausibles para checar la fragilidad de las
inferencias que hacemos en base a cualquier
especificación con respecto que especificación incierta
de que variables incluir.

11. Una conclusión importante a esta altura es que es que


no debemos apresurarnos a asumir que el coeficiente
pendiente en una regresión múltiple mide el impacto
marginal de su regresor sobre la variable dependiente ,
ceteris paribus.
Con datos estadísticos no experimentales, “otras cosas
nunca son iguales” y, por consiguiente, nuestra estimación
y pruebas de hipótesis tienen lugar en un contexto donde
la covarianza de los regresores es natural al contexto de
análisis. La regresión solo nos permite eliminar la
influencia lineal de otros regresores cuando nos
concentramos en la relación bivariada entre Y un regresor
en particular, pero esto no significa lo mismo que
“manteniendo constantes los otros regresores”. Si, o no,
tal inferencia puede formularse, requiere una reflexión
cuidadosa, no un acto de fe o confianza ciega.

II.3 Selección del Modelo y mala especificación

22
La omisión de variables relevantes de un modelo sesgará
los estimados de todos los coeficientes en la ecuación. Su
impacto en los errores estándar de los coeficientes de
regresión es más ambiguo: los errores estándar teóricos
serán menores en el modelo más simple si las variables
omitidas son colineales con los regresores incluidos en el
modelo, pero los errores estándar estimados general+
serán menores en el modelo más grande si las variables
omitidas tuvieran un impacto considerable sobre la
variable dependiente y si el tamaño de la muestra no fuera
muy pequeña. Por consiguiente, a veces hay un
intercambio entre sesgo y precisión cuando se enfrenta
uno a variable omitidas.

La inclusión de variables irrelevantes no deviene en un


sesgo, pero afecta adversamente la precisión de todos los
estimados del modelo

Las pruebas de hipótesis convencionales (estadísticos t o


F) se basan en el supuesto de especificación correcta y,
por consiguiente, no nos ayudan a descubrir si variables
importantes han sido dejadas fuera en el modelo. Por lo
tanto, los resultados pueden verse bien, pero los
coeficientes estimados pueden estar seriamente
sesgados, Este hecho da racionalidad a las pruebas “hacia
abajo”, es decir modelación de lo general a lo específico.
Se busca probar que un modelo simple es más adecuado
es una representación adecuada de los datos, comienza
por estimar el modelo más general y continua en forma
descendente y observa si tu feeling se justifica. La mera
estimación del modelo simple no demostrará tu conjetura,
aun si el resultado se antojara bueno.

23
Antes de que las pruebas descendentes, siempre checa si
el modelo general satisface los supuestos del MCRL. De
ser negativo, las inferencias extraídas de las pruebas
descendentes pudieran no ser válidas. Siempre recuerda
las inferencias estadísticas son tan sanas como los
fundamentos en los que se fincan.

En la combinación de sumarios numéricos y gráficos de


diagnósticos (particularmente aquellos gráficos de
regresiones parciales) usa el análisis de residuales y
diagnósticos de influencia para sujetar a tu modelo
general a un escrutinio más estricto.

Las restricciones lineales sobre un modelo general puede


ser probada con una prueba F. las restricciones comunes
son: a) Exclusión de variables (cero restricciones); b)
Restricciones no cero (es decir, igualdad en los
parámetros); y c) Estabilidad paramétrica.

El uso de la prueba F para probar la estabilidad de los


parámetros es frecuentemente denominada Prueba Chow
que siempre provee una especificación alternativa de la
prueba F para aplicar en el caso de que una submuestra
tenga pocas observaciones a estimarse.

Las variables Dummy, tanto intercepto y pendientes,


pueden también utilizarse para modelar la inestabilidad
paramétrica. Si una dummy se incluyera por cada
coeficiente, entonces la prueba F sobre la hipótesis nula
consistente en que los coeficientes de las dummies son,
en su conjunto, equivalentes a cero, es equivalente a la
prueba de Chow. Las dummies nos permiten estimar una
ecuación particular cuyos resultados de regresión se
diferencian con respecto a diferentes submuestras.

24
Pruebas subsiguientes nos permiten checar si la
inestabilidad de los parámetros a lo largo de las
submuestras aplica también a los coeficientes.

Residuales estudiantisados no son otra cosa que


estadísticos t de variables dummy que, cada una a su vez,
recogen una observación especifica de la muestra, esta es
una aplicación especial del intercepto dummy.

“It is better to be vaguely right than


exactly wrong,” wrote Carveth Read
in Logic (1898)

25
III. Análisis de Datos Transversales

1. Heterocedasticidad constituye una varianza no constante


del error en la muestra. Su presencia arroja estimadores de
MCO ineficientes, pero permanecen insesgados. En otros
términos, son estimadores lineales insesgados, pero no los
mejores estimadores lineales insesgados (MELI). Más aún, las
fórmulas típicas para los errores estándar de los coeficientes
no aplican, por consiguiente, las inferencias estadísticas
basadas en la prueba t o en la prueba F, ya no son válidas.

2. Para detectar la heteroscedasticidad se utilizan


herramientas visuales, esto es, gráficos de residuales
primos, absolutos y cuadráticos contra los valores predichos
de la variable dependiente o contra cada uno de los
regresores.

3. Las pruebas de hetoterocedasticidad asumen dos


enfoques: a) el primero implica la agrupación de datos con
respecto a diferentes rangos de una de las variables
explicativas y se prueba sí la varianza condicional de la
variable dependiente o del término error, son las mismas
(pruebas de Bartlet y Goldfeld Quandt) y, b) el segundo
enfoque prueba si existe alguna relación sistemática entre el
termino error y cualquiera de las variables explicativas
(pruebas de White and Glejser).

4. La prueba de White es una prueba general de errores de


regresión en la especificación del modelo (RESET), y como tal
nos indica que algo anda mal pero no especifica que
exactamente es lo que falla: ¿errores heteroscedásticos,
variables omitidas o no linealidad de la curva de regresión?.

26
5. La heterocedasticidad puede ser detectada como un
síntoma de la mala especificación del modelo (ya sea de
forma funcional incorrecta o de variables omitidas) más que
tratarse de un problema genuino de los residuales en el
modelo verdadero. Por consiguiente, la re-especificación del
modelo es el primer curso de acción a tomar en una
situación de residuales heterocedasticos.

6. La transformación exponencial frecuentemente elimina el


problema de la heterocedasticidad. Una grafico de logaritmos
de los valores absolutos de los residuales contra el logaritmo
de los valores predichos de la variable dependiente nos
permite juzgar si es posible que la transformación resuelva el
problema de heterocedasticidad. El coeficiente de la
pendiente de la regresión correspondiente nos indica cual
transformación es la más apropiada.

7. Si estamos convencidos de enfrentar un caso de


heterocedastidad genuina entonces, el método de Mínimos
Cuadrados Ponderados permite derivar estimadores
eficientes del modelo de regresión con errores
heteroscedasticos y, de esa manera, formular inferencias
estadísticas válidas. Dos casos resultan comunes en este
contexto: regresiones con datos agrupados y situaciones
donde la varianza del error varía proporcionalmente con
alguno de los regresores.

8. Si el método de mínimos cuadrados ponderados no fuera


posible, entonces, los errores estándar insesgados, aunque
no los más eficientes, debieran calcularse utilizando la
prueba de White consistente con errores estándar.

8. Variables Categóricas, Frecuencias y Métricas

27
Las variables categóricas permiten clasificar nuestros
datos con respecto a algunos criterios cualitativos en un
conjunto de categorías mutuamente exclusivas. Una
variable cualitativa es dicotómica si contiene solamente
dos categorías exclusivas. No podemos medir una variable
cualitativa, pero si podemos contar cuantas observaciones
caen dentro de una categoría en particular. Esto nos
permite hacer cálculos cuantitativos con respecto a
frecuencias de variables cualitativas.

Para incluir variables cualitativas en el análisis de


regresión como variables explicatorias hacemos uso de
dummies. En general, usamos (C-1) dummies dicotómicas
para representar una variable categórica con C categorías.
Cada dummy asume un valor de 1 si la observación
pertenece a su categoría, y cero en caso contrario. La
categoría sin una variable dummy correspondiente es el
parámetro de referencia o categoría referencial que se
selecciona cunado todas las dummies son igual a cero.

Una tabla contingencia permite estudiar la asociación


entre dos (o más) variables categóricas. Esto se hace
investigando si las variables son independientemente
estadísticas entre sí. La prueba consiste en comparar
frecuencias observadas y, en el cual las frecuencias
esperadas se derivan con la ayuda de la distribución
binomial, asumiendo en forma aleatoria observaciones
muestreadas. La prueba relevante es la es la prueba ҳ2
contingencia de independencia. Una medida de asociación
es la V de Cramer que yace entre cero y 1.

28
Cuando se observan la relación entre una variable
dependiente cuantitativa Y y dos (o más) variables
categóricas, W y Z, tomamos en cuenta los efectos de la
asociaciones parciales y las interacciones. La asociación
parcial entre Y y W es la asociación entre ellas,
manteniendo a Z fija dentro de cierta categoría. Si tal
asociaciones parciales entre Y y W varia para diferentes
categorías de Z, decimos que hay una interacción entre W
y Z en los efectos de esta sobre Y.

El uso de variables dummy asociadas con dos o más


variables categóricas permite estudiar la asociación
parcial y los efectos de interacción en el contexto del
análisis de regresión múltiple. Dummies interactivas se
obtienen multiplicando las dummies correspondientes a
diferentes variables categóricas. Este procedimiento
permite probar formalmente si la interacción está
presente, o no, utilizando la prueba familiar t (o la prueba F
si queremos sacar más de un término de la regresión).

Una pendiente dummy no es más que una variable


interacción entre una variable dummy y una variable
cualitativa. Su pendiente mide el efecto interacción y su
estadístico t muestra si es significativa o no.

29

S-ar putea să vă placă și