Sunteți pe pagina 1din 6

Tarea 13

Realizar la regresin numero 4 del ejercicio de los pollos. Realicen en modelo log-log

1) Detectar multicolinealidad en este modelo, usar al menos dos mtodos.

2) Solucionar la multicolinealidad eliminando la variable mas colineal. Se soluciona el


problema? Vuelva a a realizar metodos para detectar multicolinealidad y encuentre si se
soluciono el problema

3) Si el problema no se soluciono, elimine una variable, hasta que el modelo deje de terner
multicolinealidad

Subir un archivo word con las respuestas hasta el lunes 28 de noviembre

Escribir la tarea en plataforma hasta el Da Lunes, antes de clases

Estado de la entrega
Estado de la entrega No entregado
Estado de la calificacin Sin calificar
Fecha de entrega Monday, 28 de November de 2016, 08:30

Tarea 14
Realizar la regresin Ingresos Laborales en funcin de la escolaridad

1) Encontrar la regresin de PARK ln errores al cuadrado en funcin a la escolaridad

2) Determinar la existencia de heterocedasticidad en base a esta regresin. Explique

Presentar la tarea hasta el viernes 2 de diciembre

Tarea 15
En la regresin de los ingresos laborales en funcin a la escolaridad

a) Encontrar los estimadores MCO

b) Encontrar los estimadores MCP1 (Suponiendo que la varianza es proporcional al cuadrado


de la escolaridad)

c) Encontrar los estimadores MCP2 (Suponiendo que la varianza es proporcional a la


escolaridad)
d) Encontrar los estimadores MCP3 (Suponiendo que la varianza es proporcional al
valor esperado de los ingresos laborales)
Realizar un cuadro de comparacin con los resultados del modelo y subirlos hasta el da Lunes
antes de clases

Tarea 16
Usando los comandos usados en el archivo de texto Comandos autocorrelacin

Generar una variable denominada err3, la cual tenga un proceso autoregresivo de orden 2

Generar una variable denominada y3, la cual es igual a:

genr y3=2+0.1*x+err3

Encontrar la existencia de un proceso autoregresivo de orden 2 usando la prueba Breush


Godfrey

La tarea deben subirla en un archivo word hasta el da viernes

Tarea 17
Usando los datos del Archivo laboratorio 1 hoja 9
Realice la regresion log-log

Demanda de rosas en funcion al precio, ingreso y precio de los claveles

1) Existe autocorrelacin? Realice la prueba de Durbin-Watson

2) Existe autocorrelacin? Realice la prueba de Breusch-Godfrey


3) Solucione la autocorrelacion, Encuentre los estimadores de primeras diferencias

4) Solucione la autocorrelacion, Encuentre los estimadores del proceso Cockrane-


Orcutt
Subir esta tarea hasta el Lunes. Escribir los resultados en cuadros en plataforma

Tarea 18
En base al programa para generar ARMAS

Usando la metodologia BOX Jen kins, realice el pronostico para los siguientes procesos:

MA(1)

ARMA (1,1)

Presentar los cinco ultimos datos en un pronostico, hasta la clase del miercoles
MULTICOLINEALIDAD PERFECTA

Texto de Ren A. Fernndez Montt (CV)


Basado en Gujarati, Econometra

Naturaleza de la multicolinealidad: Originalmente el trmino de


multicolinealidad signific la existencia de una relacin perfecta o
exacta entre las variables explicativas de un modelo de regresin. En
la actualidad se incluye en la multicolinealidad el trmino de error
estocstico. Representndose de la sgte forma:

.1 x1 + 2 x2 + k xk + i = 0

La multicolinealidad as referida se refiere solamente a relaciones lineales entre


variables x. No elimina las relaciones no lineales existentes entre ellas.

Se supone que en un modelo clsico de regresin lineal no hay


multicolinealidad debido a que :

Si la multicolinealidad es perfecta los coeficientes de la regresin de


las variables x son indeterminados y sus errores estndar son infinitos.
Si la multicolinealidad es menos que perfecta los coef de regresin
poseen grandes errores estndar, lo que hace que los coef no pueden
ser estimados con gran precisin.

Fuentes de Multicolinealidad para Montgomery y Peck:


1. El mtodo de recoleccin de informacin empleado, es decir muestras
obtenidas en un rango limitado de valores.
2. Restricciones sobre el modelo o en la poblacin que es objeto de
muestreo.
3. Especificacin del modelo.
4. Un modelo sobredeterminado. Es decir que posee ms variables
explicativas que el N de observaciones.

Estimacin en presencia de Multicolinealidad perfecta:

Aqu los coef de regresin permanecen indeterminados y sus errores estndar


son infinitos. Si X3 y X2 son perfectamente colineales, no hay forma que X3 se
mantenga Cte., porque a medida que cambia X2 lo hace X3, esto hace que no
se pueda separar la influencia de las dos variables sobre Y.

En el caso de multicolinealidad perfecta, no se puede obtener una


solucin nica para los coeficientes de regresin individual, pero si se
pueden obtener para combinaciones lineales de estos. En el caso de
multicolinealidad perfecta, las varianzas y os errores estndar de 2 y
3 son infinitos.

Estimacin en presencia de Multicolinealidad alta pero


imperfecta:

Por lo general no existe una relacin perfecta entre las variables, pero si puede
haber una alta multicolinealidad, situacin en la cual es posible la estimacin
de los coef de regresin 2 y 3.

Consecuencias tericas de la Multicolinealidad:

Si se satisfacen los supuestos del modelo clsico, los estimadores MCO de los
coef de regresin son MELI, y an en caso de presentarse una alta
multicolinealidad, los estimadores seguirn siendo MELI.

Goldberger defini la micronumerosidad exacta como la contraparte de la


multicolinealidad exacta, definiendo que en el caso de un tamao de la muestra
cero es imposible hacer cualquier estimacin, y si el N de observaciones
excede el N de parmetros sucede exactamente lo mismo.

Primero: El insesgamiento es una propiedad de muestreo repetido, lo que no


nos dice nada respecto de las propiedades de los estimadores de una muestra
dada.
Segundo: La colinealidad no destruye la propiedad de varianza mnima. Los
estimadores lineales insesgados tienen varianza mnima, es decir son
eficientes. Por esto no significa que la varianza de un estimador MCO sea
necesariamente pequea.

Consecuencias de la Multicolinealidad:

1. Los estimadores MCO presentan varianzas y covarianzas grandes que


hacen difcil la estimacin precisas.

2. Los intervalos de confianza tienden a ser mucho ms amplios, lo que


hace ms posible aceptar una hiptesis nula de cero.

3. La razn t de uno o ms coef tienden a ser no significativas.

4. El R 2 puede ser muy alto.

5. Los estimadores MCO y sus errores estndar pueden ser sensibles a


pequeos cambios en la informacin.

Cuando la colinealidad es alta no son confiables las pruebas sobre los


regresores individuales, en tales casos la prueba F global es la que
mostrar si Y est relacionada con los regresores.

En situaciones de extrema multicolinealidad la eliminacin de la variable


altamente colineal trae como resultado que la otra var. se torne
estadsticamente significativa.

Deteccin de la Multicolinealidad:

Lo importante no es si existe o no colinealidad, sino los diferentes grados de


colinealidad que existen. La multicolinealidad es una caract de las muestras
no de la poblacin. Entre las distintas formas de detectar multicolinealidad
estn las sgts:

1. La presencia de un R2 elevado y razones t poco significativas.


La multicolinealidad se considera daina solo cuando la totalidad de
las influencias de las variables explicativas no se pueden separar.

2. Altas correlaciones entre parejas de regresores: Si el coef de


correlacin de orden cero es grande mayor que 0.8 la
multicolinealidad es un problema grave. Las correlaciones de orden
cero elevadas son una condicin suficiente pero no necesaria para
que exista la multicolinealidad, ya que esta tb se puede presentar con
coef de correlaciones bajos, es decir inferiores a 0.5.

Cuando los modelos tienen ms de dos variables explicativas los coef


de correlacin de orden cero no son una herramienta segura para det si
existe o no multicolinealidad, a diferencia si hay solo 2 var. explicativas
donde si lo son.

3. Regresiones auxiliares: Una forma de det cual var. est


correlacionada con las otras var. X es realizar una regresin de cada
Xi sobre las otras var. X y calcular el R2 correspondiente. Cada una
de estas regresiones se llama regresiones auxiliares. Para
determinar si la variable se deja o no en el modelo se debe comparar
el F calculado con el Fi crtico al nivel de significancia seleccionado.
As si el F calculado no excede al F crtico la variable no es colineal
con las dems X, y se mantiene en el modelo; en caso contrario se
saca del modelo ya que la var. sera colineal.

4. Valores propios e ndice de condicin:

Nmero de condicin = k = Mximo valor propio

Mnimo valor propio

Indice de condicin (IC) = k

S-ar putea să vă placă și