Sunteți pe pagina 1din 7

Taller No 1 - Econometra GUSTAVO ROPERO 1. Probabilidad: Es la posibilidad que existe entre varias posibilidades, que un hecho o condicin se produzcan.

Normalmente es un nmero, comprendido entre 0 y 1 que mide la frecuencia con la cual se obtiene un resultado en oportunidad de la realizacin de un experimento sobre el cual se conocen todos los resultados posibles gracias a las condiciones de estabilidad que el contexto supone de antemano . 2. Una variable aleatoria es una funcin que asigna un valor numrico a cada suceso elemental del espacio muestral. Es decir, una variable aleatoria es una variable cuyo valor numrico est determinado por el resultado del experimento aleatorio. una variable aleatoria es discreta si su recorrido es un conjunto discreto. Es decir si est formado por un nmero finito de elementos, o si sus elementos se pueden enumerar en secuencia de modo que haya un primer elemento, un segundo elemento, un tercer elemento, y as sucesivamente. Y que la suma de las probabilidades asociadas a los valores de uno. Una Variable aleatoria es continua si su recorrido no es un conjunto numerable. Intuitivamente esto significa que el conjunto de posibles valores de la variable abarca todo un intervalo de nmeros reales. Por ejemplo, la variable que asigna la estatura a una persona extrada de una determinada poblacin es una variable continua ya que, tericamente, todo valor entre, pongamos por caso, 0 y 2,50 m, es posible. 3. Distribucin de Probabilidad: La distribucin de probabilidad de una variable aleatoria es una funcin que asigna a cada suceso definido sobre la variable aleatoria la probabilidad de que dicho suceso ocurra. La distribucin de probabilidad est definida sobre el conjunto de todos los sucesos, cada uno de los sucesos es el rango de valores de la variable aleatoria. Es una distribucin que describe como se espera que varen los resultados.
4. Media de una Variable aleatoria: La media de una variable aleatoria puede

interpretarse como el valor esperado o medio que toma dicha variable o como el valor central de dicha distribucin.

5. La varianza de una variable aleatoria es una caracterstica numrica que

proporciona una idea de la dispersin de la variable aleatoria respecto de su esperanza. Decimos que es un parmetro de dispersin. La definicin es la siguiente:

6. Una funcin de probabilidad conjunta de las variables X e Y es una funcin

de las dos variables tal que, al sustituir la x por un valor de la variable X y la y por un valor de la variable Y, el valor de la funcin nos da la probabilidad de que X e Y tomen simultneamente esa pareja de valores anteriormente citados.

7. Variables aleatorias independientes: Dadas X e Y, variables aleatorias con funciones de densidad de probabilidad fx y fy , respectivamente, se dice que son independientes si

Donde f designa a la funcin de densidad conjunta de la variable bivariante (X,Y) . 8. La covarianza es una medida de dispersin conjunta de dos variables estadsticas. Slo hay que considerar aqu que la covariacin hay que entenderla en trminos de probabilidad y no de frecuencia: una covariacin positiva sera el que a valores altos de una de las variables le corresponden "con mayor probabilidad" valores altos de la otra y a valores bajos valores bajos. (Una covariacin negativa, inversamente). Se define, entonces el coeficiente de correlacin como:

r xy=
Indicador que viene a tener al mismo sentido que en las distribuciones de frecuencias y que igualmente est acotado entre -1 y 1. Si dos variables aleatorias son estocsticamente independientes su coeficiente de correlacin (y su covarianza es cero). La correlacin indica la fuerza y la direccin de una relacin lineal entre dos variables aleatorias. En esta medida existe una relacin simtrica en ambos sentidos de la variable Y depende de X y X depende de Y.

9. Modelo de Regresin Mltiple

Supuestos: Los estimadores son lineales en los parmetros, Si no se tiene linealidad se dice que tenemos un error de especificacin. Homocedasticidad o igualdad de varianzas o dispersin de los valores de los residuos y los pronsticos. Implica que la variacin de los residuos sea uniforme en todo el rango de valores de los pronsticos. No-colinealidad No existe correlacin entre las desviaciones y entre estas y la variable independiente.

Estimacin por mnimos cuadrados ordinarios: Sea un modelo en forma matricial Y = XB + U. Supongamos que el modelo ha sido estimado, obtenindose , vector de valores de la variable dependiente implicado por el modelo. La diferencia entre los valores observados y los valores estimados, e = Y Y = Y X B , la denominaremos vector de residuos. Ahora bien, nuestro problema consiste en minimizar la suma de los cuadrados residuales, es decir lo que tenemos que hacer es hallar los estimadores que hagan que esta suma sea lo ms pequea posible. Teorema de Gauss-Markov. Este teorema demuestra que el estimador MCO de b es el que tiene mnima varianza dentro de la familia de estimadores lineales e insesgados. Dicho teorema se basa en 10 supuestos, denominados, Supuestos de Gauss Mrkov; que sirven como hiptesis a la demostracin del mismo: 1. El modelo esta correctamente especificado. 2. Debe ser lineal en los parmetros. 3. El valor de la media condicional es cero. 4. Hay homocedasticidad. 5. No existe correlacin entre las perturbaciones. 6. La covarianza entre ui y xi es cero. 7. El nmero de observaciones es mayor que el de parmetros. 8. Existe variabilidad entre los x. 9. No hay multicolinealidad perfecta. 10. Las x son no estocsticas, es decir, son fijas en muestras repetidas.

10. Violacin de los supuestos del modelo Multicolinealidad en Econometra es una situacin en la que se presenta una fuerte correlacin entre variables explicativas del modelo. La correlacin ha de ser fuerte, ya que siempre existir correlacin entre dos variables explicativas en un modelo, es decir, la no correlacin de dos variables es un proceso idlico, que slo se podra encontrar en condiciones de laboratorio. El efecto de la multicolinealidad es el aumento de las varianzas de los estimadores de los coeficientes de regresin. Debido a esto y dado que para realizar el anlisis estructural se necesita la varianza de los estimadores y al ser un componente de esta la inversa de |X'X| la convierte muy elevada, y en consecuencia las estimaciones son poco precisas y afecta negativamente al anlisis estructural. Otro efecto es que tenemos unas estimaciones sensibles a la muestra. Puesto que la funcin objetivo (suma de cuadrados de residuos) es muy plana en el entorno del ptimo, de modo que pequeos cambios en los valores de y o de X pueden dar lugar a cambios importantes en las estimaciones. Un modelo de regresin lineal presenta heteroscedasticidad cuando la varianza de las perturbaciones no es constante a lo largo de las observaciones, esto implica el incumplimiento de una de las hiptesis bsicas sobre la que se asienta el modelo de regresin lineal. De ella se deriva que los datos con los que se trabaja son heterogneos, ya que provienen de distribucin de probabilidad con distinta varianza. Las consecuencias de ocurrir esta violacin son:

Error en el clculo del estimador de la matriz de varianzas y covarianzas de los estimadores de mnimos cuadrados. Prdida de eficiencia en el estimador mnimo cuadrtico.

La Autocorrelacion es aquella situacin que se presenta cuando el coeficiente de determinacin R2 que funciona como una medida de la bondad de ajuste es 1 es decir que existe un ajuste perfecto y que la variaciones de la variable dependiente son explicadas por los de la variable independiente.

1. C El coeficiente de correlacion es un parmetro de doble via, es decir Y depende de X y X depende de Y entonces si el valor del numerador de la estimacin del parmetro es positivo. El r2 tambien ser positivo. 2. A debido a que el teorema de Gauss Markov expone que dados los supuestos del modelo clsico de regresin lineal, los estimadores de minimos cuadrados dentro de los estimadores lineales insesgados tienen varianza minima, es decir son MELI 3. D porque el estimador de minimo cuadrado ordinario del estimador B es el estimador lineal e insesgado optimo, es decir el estimador eficientedentro de la clase de estimadores lineales e insesgados. 4. C supuestos de minmo cuadrado ordinario como que es lineal en parmetros, las variables explicativas toman valores fijos en muestreos repetidos, el valor medio de las perturbaciones es igual a cero y la varianza de los errores deben ser constantes osea debe existir homocedasticidad. 6. A para determinar el salario de una mujer hay que tener en cuenta las variables del sexo y aos de experiencia 7. C porque la estimacin de la varianza residual ser igual a la del modelo correcto debido a que los errores estn distribuidos normalmente. 8. D debido a que no se cumple con la hiptesis, es decir, la rechazan todas las ecuaciones anteriores. 9. B porque independientemente de que si la restriccin es cierta o no la suma de cuadrados del modelo restringido siempre es mayor que la del modelo no restringido al introducir una restriccin en la estimacin. 11. C porque al hallar estimadores por MCO la caracterstica MELI, depender del valor de las variables, si ambas son distintas de cero (0) el estimador ser MELI si o no 12. D porque tiene una distribucin normal 13. D por que cuando se cumplen todos los supuestos del modelo clsico habituales al hallazgo de que u es homocedastico, sugiere que si se aplica al modelo se producir estimadores MELI

14. W= 4(12) - 3(4) - 2(8)= 48 12 16 = 20 15. D porque el modelo clsico supone que en una correlacin serial el termino de perturbacin est relacionado con una observacin cualquiera (auto correlacin) 16. c porque la prueba de Durbin Watson mide la autocorrelacion entre las perturbaciones. 17. C porque los estimadores seguirn siendo lineales e insesgados, solo que tendrn varianza minima, es decir, sern MELI 19. A son bienes sustitutos ya que la cantidad demandada depende del precio del bien. 20. B considerando el modelo de regresin lineal, puesto que ni las variables ni los coeficientes estn elevados a cualquier potencia. Por lo tanto sigue siendo lineal. 21. D porque el error de tipo 1 es el error de rechazar una hiptesis cuando es cierta. En ese sentido la probabilidad de cometer un error de tipo 1 se conoce como el nivel de significancia. 22. c porque el error de tipo II es el error de aceptar una hiptesis cuando es falsa el nivel de confianza es una cantidad de probabilidad relacionada con el error de tipo II cuando se realiza una prueba de hiptesis. 23. A porque la prueba F permite medir la significancia del r2 es decir el grado de correlacion que existe entre las variables independientes para explicar los cambios en las variables dependientes, y si dos variables explican lo mismo existe (multicolinealidad) 24. B QD1=15.7+3.7 Pi, cuando la variable p es medida en pesos el coeficiente de la pendiente ser de 3700 25. la covarianza se incrementa en magnitud de la media muestral, pero presenta el signo opuesto, es decir que cuando la media sea positiva la covarianza ser negativa entre los estimadores de la pendiente y el intercepto. 26. B porque se presenta una distribucin simtrica continua dentro de la curva de Gauss. 27. D los estimadores MCO tienen varianza minima entre los estimadores lineales eso significa que son los mejores estimadores lineales insesgados

28. A ya que al estimador B tiene una varianza menor a la del parmetro B quiere decir que su margen de error es inferior, brindado una visin de B es un mejor estimador. 30. B porque cuando el coeficiente de asimetra es cero la distribucin es cero; cuando es negativo la distribucin es asimtrica negativa a la izquierda y cuando el coeficiente de asimetra es positivo, la distribucin es positiva a la derecha.

S-ar putea să vă placă și