Sunteți pe pagina 1din 19

UNIVERSIDAD NACIONAL DE SAN MARTN

CASTAEDA OCAMPO CARLOS ABLERTO CASTRO INGA BETSSY NAVARRO GMEZ NEIL ALEX REATEGUI PAREDES MAX ALFONSO TARAPOTO PERU

Problemas con las variables explicativas, Problemas con los parmetros, Variables omitidas, Consecuencias al omitir variables, lemas con las variables explicativas, Problemas con los parmetros, Variables omitidas, Consecuencias al omitir variables.

AGRADECIMIENTO

A Dios por, llevarme a su lado a lo largo de sta vida siempre llenndome de alegra y gozo

A nuestros padres por, el constante apoyo moral recibido en nuestra an formacin laboral

Contenido

VARIABLES EXPLICATIVAS (x)


Es una variable que creemos que explica o causa los resultados observados. Es la variable que explica los cambios en la variable respuesta (Y) Las variables explicativas conocidas tambin como variables independientes son aquellas que estn dentro de un modelo cuya variacin o significacin afecta a la variable dependiente dentro de dicho modelo. Uno de las cuestiones ms importantes a la hora de encontrar el modelo de ajuste ms adecuado para explicar la variabilidad de una caracterstica cuantitativa es la correcta especificacin del llamado modelo terico. En otras palabras, debemos seleccionar de entre todas las variables candidatas a ser explicativas de la variable dependiente un subconjunto que resulte suficientemente explicativo -lo que podemos medir, por ejemplo, mediante el coeficiente de determinacin- y tambin no demasiado complejo -es decir, con muchas variables explicativas. Los problemas que surgen con respecto a las variables explicativas para formular un modelo son: Seleccin de variables: Uno de las cuestiones ms importantes a la hora de encontrar el modelo de ajuste ms adecuado para explicar la variabilidad de una caracterstica cuantitativa es la correcta especificacin del llamado modelo terico. En otras palabras, debemos seleccionar de entre todas las variables candidatas a ser explicativas de la variable dependiente un subconjunto que resulte suficientemente explicativo En la prctica, no obstante, la seleccin del subconjunto de variables explicativas de los modelos de regresin se deja en manos de procedimientos ms o menos automticos. Los procedimientos ms usuales son los siguientes: Mtodo Backward: se comienza por considerar incluidas en el modelo terico a todas las variables disponibles y se van eliminando del modelo de una en una segn su capacidad explicativa. En concreto, la primera variable que se elimina es aquella que presenta un menor coeficiente de correlacin con la variable dependiente o lo que es equivalente, un menor valor del estadstico t y as sucesivamente hasta llegar a una situacin en la que la eliminacin de una variable ms suponga un descenso demasiado acusado en el coeficiente de determinacin.

Mtodo Forward: se comienza por un modelo que no contiene ninguna variable explicativa y se aade como primera de ellas a la que presente un mayor coeficiente de correlacin con la variable dependiente. En los pasos sucesivos se va incorporando al modelo aquella variable que presenta un mayor coeficiente de correlacin con la variable dependiente dadas las independientes ya incluidas en el modelo. El procedimiento se detiene cuando el incremento en el coeficiente de determinacin debido a la inclusin de una nueva variable explicativa en el modelo ya no es importante. Mtodo Stepwise: es uno de los ms empleados y consiste en una combinacin de los dos anteriores. En el primer paso se procede como en el mtodo forward pero a diferencia de ste en el que cuando una variable entra en el modelo ya no vuelve a salir, en el procedimiento stepwise es posible que la inclusin de una nueva variable haga que otra que ya estaba en el modelo resulte redundante y sea expulsada de l. El modelo de ajuste al que se llega partiendo del mismo conjunto de variables explicativas es distinto segn cul sea el mtodo de seleccin de variables elegido. La consecuencia de este hecho resulta obvia: ninguno de los llamados mtodos automticos garantiza encontrar el modelo ptimo -en el sentido, por ejemplo de maximizar el coeficiente de determinacin o cualquier otro criterio que nos parezca relevante. Variable Dependiente (Y) En efecto, consideremos los siguientes datos -lgicamente ficticios y preparados para mostrar el efecto que se desea- . Se trata de un conjunto de 40 observaciones de tres variables a las que llamaremos Y (la dependiente) y X1 y X2 (las explicativas). Si sobre estos datos aplicamos un procedimiento de tipo forward o de tipo stepwise el resultado ser el siguiente:

Es decir, el modelo ptimo segn los procedimientos forward o stepwise es el que no contiene ninguna variable explicativa. Esto es debido a que ninguna de las dos variables -cuando son consideradas de manera independiente- supera los criterios mnimos para ser incluida en el modelo -en concreto, que su coeficiente t lleve asociada una probabilidad crtica inferior a 0,05-. En efecto, los resultados para los modelos independientes son los siguientes:

Model o

Coeficientes no estandarizados B Error tp. 1 (Constante) 15,504 1,337 X1 ,026 ,018 a Variable dependiente: Y

Coeficientes estandarizados Beta ,221

Sig.

11,596 ,000 1,399 ,170

Model o 1

Coeficientes no Coeficientes estandarizados estandarizados B Error Beta tp. (Constante) 16,675 1,091

Sig.

15,28

,000

X2 ,746 a Variable dependiente: Y

1,543

,078

4 ,483

,632

Si por el contrario consideramos un procedimiento backward el resultado ser el siguiente:

Modelo

(Constante ) X2

Coeficientes no Coeficientes estandarizados estandarizados B Error Beta tp. 1,300 ,317 -63,555 1,230 ,015 -6,662 6,812

Sig.

4,097

,000

X1 ,792 a Variable dependiente: Y

,000 51,688 52,856 ,000

El coeficiente de determinacin para este modelo con dos variables explicativas es 0,987 y al coeficiente F asociado le corresponde una probabilidad crtica inferior a 0,001. Adicionalmente, a los estadsticos t asociados a cada una de las dos variables explicativas les corresponden probabilidades crticas muy reducidas. Hemos encontrado, por tanto, un buen modelo lineal para explicar el comportamiento de Y a partir del comportamiento de X1 y X2. El problema radica en que si hubiramos elegido de forma acrtica utilizar un procedimiento forward o stepwise, jams lo habramos encontrado. Existen otras opciones de seleccin de subconjuntos de variables -como por ejemplo el llamado mtodo fuwil o de seleccin de todos los posibles subconjuntos-. El inconveniente de este ltimo es la explosin combinatoria que se produce cuando el nmero de variables candidatas a ser explicativas crece.

PARAMETROS ESTADSTICOS
En estadstica, un parmetro es un nmero que resume la ingente cantidad de datos que pueden derivarse del estudio de una variable estadstica. El clculo de este nmero est bien definido, usualmente mediante una frmula aritmtica obtenida a partir de datos de la poblacin. Los parmetros estadsticos son una consecuencia inevitable del propsito esencial de la estadstica: crear un modelo de la realidad. El estudio de una gran cantidad de datos individuales de una poblacin puede ser farragoso e inoperativo, por lo que se hace necesario realizar un resumen que permita tener una idea global de la poblacin, compararla con otras, comprobar su ajuste a un modelo ideal, realizar estimaciones sobre datos desconocidos de la misma y, en definitiva, tomar decisiones. A estas tareas contribuyen de modo esencial los parmetros estadsticos.

Por ejemplo, suele ofrecerse como resumen de la juventud de una poblacin la media aritmtica de las edades de sus miembros, esto es, la suma de todas ellas, dividida por el total de individuos que componen tal poblacin. Propiedades deseables de un parmetro Segn Yule un parmetro estadstico es deseable que tenga las siguientes propiedades: Se define de manera objetiva, es decir, es posible calcularlo sin ambigedades, generalmente mediante una frmula matemtica. Por ejemplo, la media aritmtica se define como la suma de todos los datos, dividida por el nmero de datos. No hay ambigedad: si se realiza ese clculo, se obtiene la media; si se realiza otro clculo, se obtiene otra cosa. Sin embargo, la definicin de moda como el "valor ms frecuente", puede dar lugar a confusin cuando la mayor frecuencia la presentan varios valores distintos. No desperdicia, a priori, ninguna de las observaciones. Con carcter general, un parmetro ser ms representativo de una determinada poblacin, cuntos ms valores de la variable estn implicados en su clculo. Por ejemplo, para medir la dispersin puede calcularse el recorrido, que slo usa dos valores de la variable objeto de estudio, los extremos; o la desviacin tpica, en cuyo clculo intervienen todos los datos del eventual estudio. Es interpretable, significa algo. La mediana, por ejemplo, deja por debajo de su valor a la mitad de los datos, est justo en medio de todos ellos cuando estn ordenados. Esta es una interpretacin clara de su significado. Es sencillo de calcular y se presta con facilidad a manipulaciones algebraicas. Se ver ms abajo que una medida de la dispersin es la desviacin media. Sin embargo, al estar definida mediante un valor absoluto, funcin definida a trozos y no derivable, no es til para gran parte de los clculos en los que estuviera implicada, aunque su interpretacin sea muy clara. Es poco sensible a las fluctuaciones muestrales. Si pequeas variaciones en una muestra de datos estadsticos influyen en gran medida en un determinado parmetro, es porque tal parmetro no representa con fiabilidad a la poblacin. As pues es deseable que el valor de un parmetro con esta propiedad se mantenga estable ante las pequeas oscilaciones que con frecuencia pueden presentar las distintas muestras estadsticas. Esta propiedad es ms interesante en el caso de la estimacin de parmetros. Por otra parte, los parmetros que no varan con los cambios de origen y escala o cuya variacin est controlada algebraicamente, son apropiados en determinadas circunstancias como la tipificacin. Tipos de parmetros estadsticos. De centralizacin. De posicin De dispersin.

i.

Medidas de centralizacin: Nos indican en torno a qu valor (centro) se distribuyen los datos.

Las medidas de centralizacin son:

Media aritmtica; la media es el valor promedio de la distribucin. Mediana; la mediana es la puntacin de la escala que separa la mitad superior de la distribucin y la inferior, es decir divide la serie de datos en dos partes iguales. Moda; la moda es el valor que ms se repite en una distribucin.

ii.

Medidas de posicin: Las medidas de posicin dividen un conjunto de datos en grupos con el mismo nmero de individuos.Para calcular las medidas de posicin es necesario que los datos estn ordenados de menor a mayor.

Las medidas de posicin son: Cuartiles; los cuartiles dividen la serie de datos en cuatro partes iguales. Deciles; los deciles dividen la serie de datos en diez partes iguales. Percentiles; los percentiles dividen la serie de datos en cien partes iguales.

iii.

Medidas de dispersin:Las medidas de dispersin nos informan sobre cuanto se alejan del centro los valores de la distribucin.

Las medidas de dispersin son: Rango o recorrido; el rango es la diferencia entre el mayor y el menor de los datos de una distribucin estadstica. Desviacin media; la desviacin media es la media aritmtica de los valores absolutos de las desviaciones respecto a la media. Varianza; la varianza es la media aritmtica del cuadrado de las desviaciones respecto a la media. Desviacin tpica;la desviacin tpica es la raz cuadrada de la varianza.

PROBLEMAS CON LOS PARAMETROS Los problemas pueden deberse a: a. Cambio estructural La posibilidad de que los parmetros varen entre distintos sub perodos de tiempo o entre distintos grupos de individuos, dentro de la muestra considerada. Dado que uno de los supuestos del modelo de regresin, es la constancia de los parmetros en todo el periodo de medicin o para la totalidad de la muestra considerada, sera interesante contrastar la existencia de cambios en los coeficientes del modelo, es decir, de un cambio en la estructura del mismo.

b. Error de especificacin

La eleccin del conjunto de variables explicativas del modelo y los efectos que puede tener sobre la estimacin MCO de los parmetros una mala eleccin de las mismas, bien sea porque omitimos variables que son relevantes (omisin de variables relevantes) o porque incluimos variables que no lo son (inclusin de variables irrelevantes).

c. Multicolinealidad Problemas en la identificacin de los parmetros del modelo. Estos problemas pueden provenir, por un lado, de especificar el modelo de manera tal que no se pueden estimar de forma nica todos sus parmetros y, por otro, de que las caractersticas de la informacin muestral disponible, no permitan estimar con precisin los parmetros.

CONSECUENCIAS AL OMITIR VARIABLES

Conocer las consecuencias de los errores de especificacin es un cosa, pero averiguar si se han cometido tales errores es otra muy diferente, ya que en la especificacin no se espera deliberadamente cometer estos errores. Muy frecuentemente, los sesgos de la especificacin surgen en forma inadvertida, posiblemente de nuestra incapacidad de formular el modelo en la forma mas precisa posible debido a que la teora subyacente es dbil o a que no se tiene la clase de informacin adecuada para probar el modelo. Tal y como Davidson observa: Debido a la naturaleza no experimental de la economa, nunca estamos seguros de la forma en que se generaron los datos observados. En economa, la prueba de cualquier hiptesis resulta siempre que depende de suposiciones adicionales necesarias para especificar un modelo razonablemente escueto, quiz pueda estar o no estar justificado.

Las consecuencias de la omisin de variables relevantes son: a. Los estimadores de los parmetros asociados a las variables incluidas son sesgados. b. La matriz de varianzas y covarianzas de estos estimadores es menor que la que se obtendra en el modelo correcto. c. d. e. La varianza de las perturbaciones esta sobrestimada. Los contrastes de hiptesis basados en los estadsticos t y F no son vlidos. La inclusin de variables irrelevantes tiene las siguientes consecuencias:

f.Los estimadores de los parmetros asociados a las variables relevantes son insesgados, mientras que los de las variables irrelevantes tienen un valor esperado nulo.

g. La matriz de varianzas y covarianzas de los estimadores parmetros relevantes en el modelo sobre-especicado es mayor que la correspondiente en el modelo verdadero. h. La varianza del error es insesgada

i. Los contrastes de hiptesis basados en los estadsticos t y F estn sesgados hacia la no signicacin.

La pregunta practica no es por que se cometen tales errores, pues generalmente los hay, sino como detectarlos. Una vez que se encuentra que hay errores de especificacin, con frecuencia, los remedios surgen por si mismos. Si, por ejemplo, puede demostrarse que una variable ha sido inapropiadamente omitida de un modelo, el remedio obvio es incluir esa variable en el anlisis, suponiendo que, por su puesto, se tiene informacin disponible sobre esta.En esta seccin se analizan algunas pruebas que puedan ser utilizadas par detectar errores de especificacin. a. OMISION DE UNA VARIABLE

Supngase que el verdadero modelo es:

Pero por alguna razn se ajusta al siguiente modelo

Las consecuencias de omitir X3son las siguientes:

1. Si la variable excluidax3est correlacionada con la variable incluidax2,el coeficiente de relacin entre las dos variables es diferente de cero. sesgados e inconsistentes. son

2. Aun cuandox2 aunque

yx3no esten correlacionados

es an sesgado

sea ahora insesgado. esta incorrectamente estimada. es un estimador

3. La varianza de la perturbacin

4. La varianza medida convencionalmente de sesgado de la varianza del verdadero estimador

5. En consecuencia, es probable que el intervalo de confianza usual y los procedimientos de prueba de hiptesis conduzcan a conclusiones equivocadas sobre la significancia estadstica de los parmetros estimados. 6. Como otra consecuencia, los pronsticos basados en el modelo incorrecto y los intervalos (de confianza) del pronstico no son confiables

PRUEBAS PARA VARIABLES OMITIDAS Y PARA UNA FORMA FUNCIONAL INCORRECTA.

En la practica, nunca se esta seguro de que el modelo adoptado para pruebas empricas represente la verdad, toda la verdad y nada mas que la verdad. Con base en la teora o en la introspeccin y en el trabajo emprico previo, se desarrolla un modelo, el cual se cree que recoge la esencia del tema en estudio. Luego, el modelo se somete a una prueba emprica. Despus de obtener los resultados, se inicia el post mortem, teniendo en mente los criterios estudiados anteriormente de un buen modelo. Es en esta etapa cuando se viene a saber si el modelo seleccionado es adecuado. Al determinar la bondad de ajuste del modelo, se observan algunas caractersticas generales de los resultados, tales como , las razones t estimadas, los signos de los coeficientes estimados en relacin con sus expectativas previas, el estadstico Durban-Watson, etc. Si estos diagnsticos son razonablemente buenos, puede proclamarse que el modelo es una buena representacin de la realidad.

Sesgo en la especificacin del modelo. Variables omitidas Cuando se formula el modelo por lo general se escogen las variables y se define cul de ellas es la variable dependiente y cules son las variables explicativas. Sin embargo, es posible que en el proceso de seleccin se deje de lado las variables explicativas significativas de manera involuntaria. Por ello es necesario que a priori se incluya a todas las variables posibles que ayuden a explicar el comportamiento de la variable dependiente, adems por la naturaleza del modelo puede ser que existan variables explicativas que son imprescindibles. Por ejemplo en la funcin consumo, la variable ingreso y riqueza no se pueden dejar de lado al formular el modelo, otro ejemplo es en la produccin del maz se tiene que considerar necesariamente el

factor agua, tierra, etc. Como variables explicativas necesarias. La inclusin en el modelo de aquellas variables que han sido omitidas nos puede solucionar el problema de auto correlacin.

Sesgo en la especificacin: mala seleccin funcional del modelo. Elegir una mala relacin funcional del modelo favorece la presencia de autocorrelacin. Supongamos que el investigador en la fase de formulacin del modelo, estableci que la relacin funcional es lineal, sin embargo en la prctica era logartmica o exponencial, por lo tanto las observaciones de u1 estn sujetas a la autocorrelacin.

Por ejemplo en el modelo costo marginal = 1 + 2produccin + u1 la relacin funcional entre el costo marginal y la produccin del modelo es lineal, pero en la prctica debera ser logartmica tal como lo mostramos en el siguiente modelo. Ln(costo Marginal) = 1 + 2Lnproduccin + v1

Cabe precisar que las relaciones funcionales de un modelo, tiene que responder de alguna forma a lo que el investigador espera de acuerdo a la realidad. Es decir por ejemplo, en el caso de la funcin Consumo bajo la concepcin keynesiana, la relacin funcional es lineal porque sabemos que la gente cuando ven incrementando su salario, tambin incrementa su consumo pero no en la misma proporcin, entonces, de antemano el investigador establece que la relacin funcional es lineal. Sin embargo si se obtienen resultados diferentes pueden ser por problemas muestrales por lo que hay que preocuparse y revisar la informacin.

Presencia de ciclos econmicos y quiebres estructurales. El comportamiento cclico de las variables, o la presencia de quiebres estructurales hacen que se presente la autocorrelacin (quiebres estructurales presentados pro shocks externos, e internos, por cambios bruscos de poltica econmica, golpes de estado, o por fenmenos naturales).

PRUEBA ESTADSTICA

Cuando se analizan datos medidos por una variable cuantitativa continua, las pruebas estadsticas de estimacin y contraste frecuentemente empleadas se basan en suponer que se ha obtenido una muestra aleatoria de una distribucin de probabilidad de tipo normal o de Gauss.Pero en muchas ocasiones esta suposicin no resulta vlida, y en otras la sospecha de que no sea adecuada no resulta fcil de comprobar, por tratarse de muestras pequeas.

En estos casos disponemos de dos posibles mecanismos:

Los datos se pueden transformar de tal manera que sigan una distribucin normal.

O bien se puede acudir a pruebas estadsticas que no se basan en ninguna suposicin en cuanto a la distribucin de probabilidad a partir de la que fueron obtenidos los datos, y por ello se denominan pruebas no paramtricas (distribucin free), mientras que las pruebas que suponen una distribucin de probabilidad determinada para los datos se denominan pruebas paramtricas.

a.

PRUEBAS NO PARAMTRICAS:

Las pruebas estadsticas no paramtricas son las que, a pesar de basarse en determinadas suposiciones, no parten de la base de que los datos analizados adoptan una distribucin normal. Tcnica estadstica que no presupone ninguna distribucin de probabilidad terica de la distribucin de nuestros datos.

Se denominan pruebas no paramtricas aquellas que no presuponen una distribucin de probabilidad para los datos, por ello se conocen tambin como de distribucin libre (distribucin free).En la mayor parte de ellas los resultados estadsticos se derivan nicamente a partir de procedimientos de ordenacin y recuento, por lo que su base lgica es de fcil comprensin.

Cuando trabajamos con muestras pequeas (n < 10) en las que se desconoce si es vlido suponer la normalidad de los datos, conviene utilizar pruebas no paramtricas, al menos para corroborar los resultados obtenidos a partir de la utilizacin de la teora basada en la normal.En estos casos se emplea como parmetro de centralizacin la mediana, que es aquel punto para el que el valor de X est el 50% de las veces por debajo y el 50% por encima.

Las pruebas no paramtricas no requieren asumir normalidad de la poblacin y en su mayora se basan en el ordenamiento de los datos, la poblacin tiene que ser continua.El parmetro que se usa para hacer las pruebas estadsticas es la Mediana y no la Media.Son tcnicas estadsticas que no presuponen ningn modelo probabilstico terico.Son menos potentes que las tcnicas paramtricas, aunque tienen la ventaja que se pueden aplicar ms fcilmente.

b.

PRUEBAS PARAMTRICAS:

Las pruebas estadsticas paramtricas, como la de la t de Student o el anlisis de la varianza (ANOVA), se basan en que se supone una forma determinada de la distribucin de valores, generalmente la distribucin normal, en la poblacin de la que se obtiene la muestra experimental.

En contraposicin de la tcnicas no paramtricas, las tcnicas paramtricas si presuponen una distribucin terica de probabilidad subyacente para la distribucin de los datos.Son ms potentes que las no paramtricas.Dentro de las pruebas paramtricas, las ms habituales se basan en la distribucin de probabilidad normal, y al estimar los parmetros del modelo se supone que los datos constituyen una muestra aleatoria de esa distribucin, por lo que la eleccin del estimador y el clculo de la precisin de la estimacin, elementos bsicos para construir intervalos de confianza y contrastar hiptesis, dependen del modelo probabilstico supuesto.

Cuando un procedimiento estadstico es poco sensible a alteraciones en el modelo probabilstico supuesto, es decir que los resultados obtenidos son aproximadamente vlidos cuando ste vara, se dice que es un procedimiento robusto.

c.

ANLISIS DE LA VARIANZA (ANOVA)

ANOVA son siglas para el anlisis de la Variacin (ANalysis Of VAriance). Un ANOVA segrega diversas fuentes de la variacin vistas en resultados experimentales.

Conjunto de tcnicas estadsticas para conocer el modo en que el valor medio de una variable es afectado por diferentes tipos de clasificaciones de los datos.Con el anlisis de la varianza se pueden ajustar las estimaciones del efecto de un tratamiento segn otros factores como sexo, edad, gravedad, etc.

Es una tcnica estadstica que sirve para decidir/determinar si las diferencias que existen entre las medias de tres o ms grupos (niveles de clasificacin) son estadsticamente significativas.Las tcnicas de ANOVA se basan en la particin de la varianza para establecer si la varianza explicada por los grupos formados es suficientemente mayor que la varianza residual o no explicada.El anlisis de la varianza (ANOVA) es una tcnica estadstica de contraste de hiptesis.

Tradicionalmente estas tcnicas, conjuntamente con las tcnicas de regresin lineal mltiple, de las que prcticamente son una extensin natural, marcan el comienzo de las tcnicas multivariantes.Con estas tcnicas se manejan simultneamente ms de dos

variables, y la complejidad del aparato matemtico se incrementa proporcionalmente con el nmero de variables en juego. El anlisis de la varianza de un factor es el modelo ms simple: una nica variable nominal independiente, con tres o ms niveles, explica una variable dependiente continua.

Otra alternativa, que aparentemente es ms lgica e intuitiva, consiste en comparar, en todas las posibles combinaciones de dos en dos, las medias de todos los subgrupos formados.

En el ANOVA se comparan medias, no varianzas: medias de los subgrupos o estratos originados por los factores de clasificacin estudiados. Un ANOVA entonces prueba si la variacin asociada a una fuente explicada es grande concerniente a la variacin inexplicada. Si ese cociente (la estadstica de F) es tan grande que la probabilidad que ocurri por casualidad es baja (por ejemplo, P<=0.05), podemos concluir (en ese nivel de la probabilidad) que esa fuente de la variacin tena un efecto significativo. Condiciones generales de aplicacin.

Independencia de los errores i Los errores experimentales han de ser independientes Se consigue si los sujetos son asignados aleatoriamente. Es decir, se consigue esta condicin si los elementos de los diversos grupos han sido elegidos por muestreo aleatorio.

Normalidad Se supone que los errores experimentales se distribuyen normalmente. Lo que supone que cada una de las puntuaciones yi.i se distribuir normalmente. Para comprobarlo se puede aplicar un test de ajuste a la distribucin normal como et de Kolmogov-Smirnov.

Homogeneidad de varianzas (homoscedasticidad). La varianza de los subgrupos ha de ser homognea 21 = 22 = .....= 2k ya que estn debidas al error. Se comprobarn mediante los test de: Razn de varianzas (mx. /min), C de Cochran, Barlett-Box

d.

ANLISIS DE LA COVARIANZA (ANCOVA)

Mtodo de anlisis estadstico que es una extensin del anlisis de la varianza, que permite ajustar los estimadores del efecto de un tratamiento segn posibles covariables y factores. Es una tcnica estadstica que combina ANOVA (pues compara medias entre grupos) y anlisis de regresin (ajusta las comparaciones de las medias entres los grupos por variables continuas o covariables)

e.

ANLISIS DE REGRESIN

En un conjunto de datos sobre la variable dependiente y sobre una o ms variables independientes, consiste en determinar el modelo matemtico ms ajustado que describa y como una funcin de las x o para predecir y a partir de las x. Los tipos ms corrientes son el modelo lineal y el modelo logstico.

f.ANLISIS POR PROTOCOLO En un ensayo clnico, anlisis de los datos segn el tratamiento tomado, en contraposicin al anlisis por intencin de tratar, que se realiza segn el tratamiento asignado en el proceso de asignacin aleatoria. El anlisis por protocolo tiende a medir la eficacia de la intervencin, para cuya evaluacin conviene incluir slo a los pacientes que han estado realmente expuestos a los tratamientos planificados.

CORRECCIONES DEL PROBLEMA

El problema de colinealidad consiste, esencialmente, en que la muestra no contiene suficiente informacin para estimar todos los parmetros que se desean. Por ello, resolver el problema requiere aadir nueva informacin (muestral o extramuestral) o cambiar la especificacin. Algunas posibles soluciones en esta lnea son:

Aadir nuevas observaciones. Aumentar el tamao muestral puede reducir un problema de colinealidad de grado.

Restringir parmetros. Evidentemente, si la Teora Econmica o la experiencia emprica sugieren algunas restricciones sobre los parmetros del modelo msafectados por la colinealidad, imponerlas permitir reducir el problema. El riesgo que se corre es, obviamente, imponer restricciones que no son ciertas.

Suprimir variables. Si se suprimen variables que estn correladas con otras, la prdida de capacidad explicativa ser pequea y la colinealidad se reducir. Existe, sin embargo, el riesgo de eliminar variables que debieran mantenerse en el modelo yaque, como hemos visto, cuando hay colinealidad las varianzas de los parmetros estnhinchadas y los parmetros pueden ser formalmente no significativos.

Transformar las variables del modelo. Si la colinealidad se debe a que se estn relacionando series temporales con tendencia, puede ser conveniente transformar las variables para eliminar esta tendencia.

CONCLUSIONES

Las variables explicativas conocidas tambin como variables independientes son aquellas que estn dentro de un modelo cuya variacin o significacin afecta a la variable dependiente dentro de dicho modelo.

Conocer las consecuencias de los errores de especificacin es un cosa, pero averiguar si se han cometido tales errores es otra muy diferente, ya que en la especificacin no se espera deliberadamente cometer estos errores.

Cuando se analizan datos medidos por una variable cuantitativa continua, las pruebas estadsticas de estimacin y contraste frecuentemente empleadas se basan en suponer que se ha obtenido una muestra aleatoria de una distribucin de probabilidad de tipo normal o de Gauss.

Las pruebas estadsticas no paramtricas son las que, a pesar de basarse en determinadas suposiciones, no parten de la base de que los datos analizados adoptan una distribucin normal.

Las pruebas estadsticas paramtricas, como la de la t de Student o el anlisis de la varianza (ANOVA), se basan en que se supone una forma determinada de la distribucin de valores, generalmente la distribucin normal, en la poblacin de la que se obtiene la muestra experimental.

BIBLIOGRAFIA

CARO ANCHAY, Augusto. Universidad Inca Garcilaso de la Vega. Econometra I (I y II Parte) pg. 137 - 138. Facultad de Ciencias Administrativas y Ciencias Econmicas. G. S. Maaddala. Introduccin a la Econometra. Segunda Edicin. Prentice Hall Hispano Americana S.A. http://es.wikipedia.org/wiki/Modelos_de_regresi%C3%B3n_m %C3%BAltiple_postulados_y_no_postulados#El_problema_de_la_selecci.C3.B3 n_de_las_variables_explicativas.

http://books.google.com.pe/books? id=hZFzcAa0_BkC&pg=PT317&lpg=PT317&dq=ejercicios+con+variables+exp licativas&source=bl&ots=tn7Lx7rQaQ&sig=62Myf0l http://www.altoforo.com/material/24060-econometria-basica-gujarati-4taedicion.html http://economiau.freehostia.com/index.php?option=com_content&view=article &id=90&Itemid=84 http://es.wikipedia.org/wiki/Modelos_de_regresi%C3%B3n_m %C3%BAltiple_postulados_y_no_postulados#El_problema_de_la_selecci.C3.B3 n_de_las_variables_explicativas http://jjgibaja.wordpress.com/2007/10/23/seleccion-de-variables-explicativas-enla-regresion/ http://www.econometricos.com.ar/wp-content/uploads/2010/08/14-Econometria14-2010.pdf

S-ar putea să vă placă și