Sunteți pe pagina 1din 9

TEMA 1.

AMPLIACIONES DE MBRL

2. MUESTRAS PEQUEÑAS
- Al presentar el MBR, decíamos que:
“debía disponerse de una información suficientemente amplia sobre el conjunto de
variables observables implicadas en el modelo. Como requisito mínimo para que pueda
determinarse una solución, se exige que el número de datos sea superior al número de
parámetros del modelo (n>k), a efectos operativos, se necesita un mínimo de alrededor
de quince datos para tener alguna garantía en el proceso de estimación de los modelos
más habituales de tres o cuatro parámetros”.

Que el tamaño de muestra “n” sea elevado. Es decir, que la “n” este entre valores en
relación con el número de variables. Esto se incumple cuando las muestras son pequeñas.
Para que sea correcto, tiene que ocurrir que 𝑛 > 𝑘

- La existencia de muestras pequeñas no supone un auténtico incumplimiento de una


hipótesis básica, a diferencia de lo que ocurre en los restantes casos considerados en
próximos apartados.
El problema es tener muestras pequeñas, sin embargo, aun así, se puede trabajar.
 Causas:
- Inexistencia de series largas (es frecuente en algunos estudios concretos)
Pasa porque no existen series suficientemente largas. Por ejemplo: Si queremos hacer un estudio en el
que relacionemos algunas variables con twitter, no van a existir suficientes datos porque twitter no
tiene más de 10 años.
 Consecuencias:

- La existencia de muestras pequeñas (por concretar, podemos pensar en inferiores a los


15 datos), produce estimaciones que, aunque insesgadas y eficientes relativamente a
cualquier otro método de estimación lineal (estimadores insesgados y eficientes),
presentan varianzas comparativamente elevadas respecto a las que se obtendrían con
tamaños muestrales superiores.
La dispersión o el error van a ser más elevados cuando trabajamos con pocos datos. Los
parámetros β tiene mucho error y la desviación típica es mayor.
𝛽 𝑖𝑛𝑠𝑒𝑠𝑔𝑎𝑑𝑜𝑠
𝑛 < 𝑘 (𝑛 < 15 𝑎ñ𝑜𝑠) { → 𝑉𝑎𝑟𝑖𝑎𝑛𝑧𝑎𝑠 𝑒𝑙𝑒𝑣𝑎𝑑𝑜𝑠
𝛽 𝑒𝑓𝑖𝑐𝑖𝑒𝑛𝑡𝑒𝑠

Por tanto, cuanto mayor sea la muestra, mayor será la desviación típica, y más alejada estará de la
media. Por tanto, menor también tendrá menor precisión.

- Los intervalos de predicción (intervalos de confianza) resultan demasiado amplios y los


contrastes de significación estadística no son conclusivos al respecto. En otras palabras,
cuando se trabaja con reducidos grados de libertad (por ejemplo, menos de diez), es
posible que algunos o todos los parámetros resulten no significativos, se ésta o no la
conclusión correcta.
Si se reduce el tamaño de la muestra aumenta la varianza y la desviación típica. Esto provoca que
aumente la dispersión porque estamos quitando precisión. Si aumento la varianza o la desviación
típica también aumento el intervalo de confianza, que es precisamente lo que no queremos que pase.

Cuando se reduce el tamaño de la muestra, entonces se reducen también los grados de libertad, lo
que significa que también aumenta la de “t de tablas”, por lo que los contrastes de significación no
son concluyentes.
∇𝑛 → ∇𝑔𝑙 → ∆𝑡𝑡𝑎𝑏𝑙𝑎𝑠 → 𝐶𝑜𝑛𝑡𝑟𝑎𝑠𝑡𝑒𝑠 𝑛𝑜 𝑐𝑜𝑛𝑐𝑙𝑢𝑦𝑒𝑛𝑡𝑒𝑠.

Por ejemplo: 𝒚 = 𝜷𝟎 + 𝜷𝟏 𝒙𝟏 + 𝜷𝟐 𝒙𝟐 + 𝝁

A) 𝑛 = 10; 𝐾 = 3 (𝑛𝑢𝑚𝑒𝑟𝑜 𝑑𝑒 𝛽) → 𝑔𝑙 = 𝑛 − 𝐾 = 7
Para A, la “t de tablas” va a ser igual a → 𝑡𝑡𝑎𝑏𝑙𝑎𝑠 (𝑛−𝑘;0,025) = 𝑡𝑡𝑎𝑏𝑙𝑎𝑠 (7 ; 0,025) = 2,365
B) 𝑛 = 20; 𝐾 = 3 (𝑛ú𝑚𝑒𝑟𝑜 𝑑𝑒 𝛽) → 𝑔𝑙 = 𝑛 − 𝐾 = 17
Para B, la “t de tablas” va a ser igual a → 𝑡𝑡𝑎𝑏𝑙𝑎𝑠 (𝑛−𝑘;0,025) = 𝑡𝑡𝑎𝑏𝑙𝑎𝑠 (17 ; 0,025) = 2,11
Si tenemos en cuenta que, cuando estudiábamos la significación del modelo, lo que queríamos
que se cumpliera era que:
|𝑡𝑐𝑜𝑛𝑡𝑟𝑎𝑠𝑡𝑒 | > |𝑡𝑡𝑎𝑏𝑙𝑎𝑠 |
Cuantos más grados de libertad tenga, es decir, cuanto más sea n, menor será el valor de la t de
tablas y, por tanto, mayor será la probabilidad de que se cumpla la condición anterior.

 Detección:7
Coger más o menos datos en función de las variables.
k = 2-3  n ≥ 15
k = 4-6  n ≥ 18

 Solución:
 Aumentar nº de observaciones. Desgraciadamente, el problema de las pequeñas muestras
es raro que pueda resolverse mediante una búsqueda estadística que permita aumentar su
tamaño, e incluso ello introduce problemas adicionales de heterogeneidad de datos. Como
consecuencia, a muestras pequeñas suelen corresponder modelos relativamente simples
(con pocas variables explicativas) y con errores de predicción en ocasiones no demasiado
satisfactorios.

Es decir: Aumentar la “n”. Aumentar el número de años observados.

 Principio de ‘parquedad’ o ‘parsimonia’ (disminuir nº variables). En este sentido, el


Principio de ‘parquedad’ o ‘parsimonia’ (disminuir nº variables), es consustancial con la
construcción de modelos, aunque solo fuera por razones de limitaciones en el número de
datos: debe buscarse el modelo que con el mínimo número de variables consiga un grado
de eficacia explicativa comparable con otros más complejos.

El principio de parsimonia lo que nos viene a decir es que si yo puedo trabajar con 5
variables no voy a trabajar con 10. Hay que SIMPLIFICAR. Por ejemplo:
𝑃𝐼𝐵 = 𝑓(𝑅𝐴, 𝑆𝑆, 𝑡𝑖, 𝑋𝐵𝑆, 𝑋𝐵); 𝐾 = 6 → (5 𝑣𝑎𝑏𝑙𝑒𝑠 𝑒𝑥𝑜𝑔𝑒𝑛𝑎𝑠)
𝑃𝐼𝐵 = 𝑓(𝑅𝐴, 𝑆𝑆, 𝑡𝑖, 𝑋𝐵𝑆, 𝑋𝐵); 𝐾 = 4 → (3 𝑣𝑎𝑙𝑏𝑒𝑠 𝑒𝑥𝑜𝑔𝑒𝑛𝑎𝑠)
3. ERRORES DE ESPECIFICACIÓN
 MBRL  Supone el comportamiento de una v. Endógena (y) que puede ser explicado
mediante una RELACION LINEAL de otras K variables exógenas más un término de error o
perturbación aleatoria (u) que recoge el efecto conjunto de otras variables no directamente
explicitadas en el modelo, cuyo efecto individual no resulta relevante.
 Una especificación errónea en el modelo, puede deberse fundamentalmente a tres causas:
(A) Omisión de Variables Relevantes o significativas (R2)
- Causas:
Se debe a que se omiten variables que son relevantes para el modelo
- Consecuencias:
 la omisión de variables relevantes produce estimadores sesgados e
inconsistentes (no representativos)

No son consistentes con lo que realmente está pasando o con el efecto global.
Los β no son eficientes. Parámetros Helios (Parámetros Lineales, insesgados
eficientes y consistentes) y Óptimos (Insesgados, eficientes y consistentes).
 Residuos superiores → El error es superior

El error es igual al valor real menos el valor estimado. Es decir, lo que yo me alejo del
conjunto de la población.
 Por acumulación de errores pueden aparecer problemas de autocorrelación. Es
decir, puede notar su efecto de una manera sistemática sobre los residuos del
modelo que pueden mostrar una cierta ley de evolución, sintomática de una
autocorrelación provocada por una mala especificación.
 Adicionalmente, la exclusión de variables relevantes puede conducir al modelo a
incumplir otras hipótesis básicas. Así puede aparentar un cambio de estructuras
por un simple cambio de nivel en alguna variable olvidada.
- La detección del problema se ve mediante el contraste de significación conjunta del

modelo: R2-adjusted ) → Ver si el modelo es significativo en su conjunto


- Soluciones:
Re-especificación nueva especificación de variables explicativas, considerando
alguna otra variable explicativa que pueda interesar más al modelo considerado. →
Volver al principio del modelo
(B) Inclusión de Variables No Relevantes (T-Student y Colinealidad)
- Causas: Se produce cuando se introducen en el modelo variables exógenas que no son
relevantes y que pueden, además, relacionarse entre ellas.
- Consecuencias:
 Los estimadores de las variables correctamente incluidas son insesgados y
consistentes. Sin embargo, las varianzas estimadas son también aquí superiores a
las que les corresponderían.
 Correlación entre exógenas.
 Contrastes no concluyentes.
 Se pueden presentar problemas de pérdida de grados de libertad, y
 problemas de multicolinealidad
- Detección del problema
 Mediante el contraste de significación individual t-student
 Y el contraste de colinealidad (que se verá posteriormente)
- Solución:
Aunque resultan más graves las consecuencias de omisión de variables relevantes, las
habituales restricciones propias de muestras pequeñas (entre otras razones) exigen del
económetra un adecuado equilibrio para no caer en la inclusión de variables no
significativas:

Eliminar variables no relevantes (y que estén muy correlacionadas)


Volver a especificar el modelo.

(C) Forma Funcional Mal Especificada.


- Causas:
 Relaciones no lineales entre variables.
Lo suyo es que la relación entre las exógenas y la endógena sea lineal
 Aunque teóricamente caben todo tipo de relaciones, la práctica econométrica se
reduce en su casi totalidad a modelos directamente lineales o, en todo caso, a
relaciones lineales entre los logaritmos o las tasas de cambio.
- Consecuencias:
 Una especificación funcional equivocada puede provocar sesgos en la estimación
y desajustes en la utilización de contrastes.
 Al menos en determinados casos, la aceptación de relaciones lineales en lugar de
otras más complejas, puede asemejarse al problema de omisión de variables
relevantes (al omitir ciertos elementos para linealizarlo).
- Detección:
Test de Ramsey para contrastar el cumplimiento de la hipótesis de:

 Forma funcional correcta


 Independencia entre regresores y perturbación aleatoria
 Homocedasticidad
- Solución:
 Por ejemplo, utilizar logaritmos (ln) si se trata de relaciones exponenciales.
 La transformación de variables sobrepasa el problema de la correcta especificación
del modelo, teniendo implicaciones importantes en el tratamiento de la
heteroscedasticidad e incluso sobre la hipótesis de normalidad

4. REGRESORES ESTOCÁSTICOS

Regresores → Variable explicativo

Estocastica → Aleatoria
 Incumplimiento:
- Nuestra cuarta hipótesis al plantear el modelo básico de regresión lineal era el carácter no
estocástico de las variables explicativas (es decir, de las variables que actúan como
regresores, ya que el regresando yi siempre es una variable aleatoria).

Regresando ( Varabiel éndogena → y ) es aleatoria porque “u” que es el error, le afecta.


 Causas:
- Existen diversas razones, incluso, por las que las variables explicativas de un modelo de
regresión deben ser consideradas necesariamente como estocásticas:
a) Cuando en el modelo intervienen variables endógenas desplazadas (yi–1), que por
definición tienen un comportamiento aleatorio. Así, en el modelo:

yi = bixi + b2 yi - 1 + ui

Donde yi es aleatoria por depender de la perturbación aleatoria ui:

y i - 1 = bixi - 1 + b2 yi - 2 + ui – 1
Si está relacionada la variable endógena desplazada, es regresor estocástico. NO tiene que ocurrir que
la endógena se relacione con el error.
 Justificación:
La existencia de variables desfasadas queda justificada con cierto carácter general por
alguna o varias de las siguientes causas:
 Desfases de información que hacen que las decisiones se tomen sobre los últimos datos
disponibles (no actuales) de las variables explicativas.
 Desfase del propio proceso en la toma de decisiones, que lleva a que, aun contando con
información actual, la decisión se adopte en fechas posteriores, por el tiempo consumido
en el proceso de estudio y puesta en marcha operativa de la decisión.
 Retardos en la ejecución de la decisión una vez adoptada esta.
 Efectos distribuidos en el tiempo de las medidas adoptadas en un momento dado, lo que
hace que la situación actual solo sea explicable en función de valores anteriores de otras
variables, adecuadamente ponderados.
 Incidencia en decisiones actuales de la evolución experimentada en periodos anteriores
por ciertas variables explicativas, evolución que se toma como indicativa de las
perspectivas de futuro.
 Incidencia de los cambios temporales de evolución en ciertos procesos de ajuste hacia
valores considerados como óptimos o deseados.

 Problemas y solución:
La existencia de endógenas desplazadas puede introducir complicaciones en la
estimación de parámetros y el la acumulación de errores (en el caso de que sea regresor
estocástico). Para poder introducir endógenas desplazadas como explicativas en el
modelo sin que suponga un problema de regresor estocástico, debe realizarse la “prueba
de dependencia”.

Prueba de Independencia → Hay que comprobar que la variable endógena desplazada no


sea significativa, es decir, que no haya relación entre la variable endógena desplazada con
el error. Para lo cual es necesario que la |𝑡𝑐 | < |𝑡_𝑡𝑎𝑏𝑙𝑎𝑠|

(1)𝐺𝐸𝑁𝑅 → 𝑢 = 𝑦 − 𝑦̂

(2) 𝑢𝑡 = 𝑓(𝑦𝑡−1 )

𝐺𝐶𝐹ℎ = 𝑓(𝑅𝐴)
|𝑡𝑐 | > |𝑡𝑡𝑎𝑏𝑙𝑎𝑠 | → Si se cumple, es regresor estocastico. No se incluye en el modelo
b) Variables Latentes.
- Asimismo, en el caso de que se admitan errores en las variables del modelo, como
consecuencia de una inadecuada medición de las mismas, tendremos un modelo
de regresión definido en términos de variables no observables

y* = X*b + u

cuando los datos disponibles son los incluidos en las matrices X e y tales que
los errores de medición vengan dados por XE e yE:

Como consecuencia, el modelo a estimar será, en definitiva:

y = Xb + (u +yE - bXE)

La matriz X deberá necesariamente tratarse como estocástica.

Una variable latente es una variable que no se incluye entre las variables estudiadas y que, sin embargo, tiene un
efecto importante sobre la relación que existe entre ellas. Es decir, puede enmascarar una relación entre las
exógenas y endógena o sugerir una falsa relación entre dos variables.

Ejemplo: 𝐺𝑝𝑢𝑏𝑙𝑖𝑐𝑜 = 𝑓(𝑅𝑁𝑒, 𝑇𝑖𝑐𝑠)

Tics → Tipos de intereses concretos: Tipo de créditos que por su alto montante son otorgados con participación
conjunta de varios datos acreedores.

𝐶 = 𝐶𝑝𝑢𝑏 + 𝐶𝑝𝑟𝑖𝑣𝑎𝑑𝑜 → 𝑦 = 𝑦 ∗ + 𝑦𝐸

𝑅 = 𝑅𝑁𝐶 + 𝑅𝐶 + ⋯ → 𝑋1 = 𝑋1∗ + 𝑋1𝐸

𝑇𝑖 = 𝑇𝑖𝑐𝑠 + 𝑜𝑡𝑟𝑜𝑠 𝑡𝑖𝑝𝑜𝑠 𝑑𝑒 𝑖𝑛𝑡𝑒𝑟𝑒𝑠𝑒𝑠 + ⋯ → 𝑋2 = 𝑋2∗ + 𝑋2𝐸

𝒚𝑬 , 𝑿𝟏𝑬 , 𝑿𝟐𝑬 → 𝑉𝑎𝑟𝑖𝑎𝑏𝑙𝑒𝑠 𝐿𝑎𝑡𝑒𝑛𝑡𝑒𝑠 → 𝑃𝑟𝑜𝑣𝑜𝑐𝑎𝑟á𝑛 𝑞𝑢𝑒 𝑒𝑙 𝑒𝑟𝑟𝑜𝑟 𝑠𝑒𝑎 𝑚𝑎𝑦𝑜𝑟.

Las variables lentes son variables que no se meten en el modelo pero que explicarían mucho de la endógena y
por eso aumentan mucho el error.
 Consecuencias:

Carácter insesgado de los estimadores pero dependientes

 Solución:

- Ante tal situación, la solución general es buscar otros estimadores


distintos de los del modelo básico de regresión, que gocen de mejores
propiedades. Una alternativa sería la utilización de VARIABLES
INSTRUMENTALES.

P.ej. Premultiplicar a la expresión del ^b por una nueva matriz de


variables (Z’) independientes de u:

Z’ y = Z’ Xb + Z’ u

INCONVENIENTE: Encontrar variable Z incorrelacionada con u,


pero, a la vez, altamente correlacionada con X.

S-ar putea să vă placă și