Sunteți pe pagina 1din 7

TIPOS DE VARIABLES

Variables independientes Son las que el investigador escoge para establecer agrupaciones en el estudio, clasificando intrnsecamente a los casos del mismo. Un tipo especial son las variables de control, que modifican al resto de las variables independientes y que de no tenerse en cuenta adecuadamente pueden alterar los resultados por medio de un sesgo. Es aquella caracterstica o propiedad que se supone ser la causa del fenmeno estudiado. En investigacin experimental se llama as a la variable que el investigador manipula. Variables dependientes Son las variables de respuesta que se observan en el estudio y que podran estar influidas por los valores de las variables independientes. Hayman la define como propiedad o caracterstica que se trata de cambiar mediante la manipulacin de la variable independiente. La variable dependiente es el factor que es observado y medido para determinar el efecto de la variable independiente.

Definicin de regresin lineal

La regresin estadstica o regresin a la media es la tendencia de una medicin extrema a presentarse ms cercana a la media en una segunda medicin. La regresin se utiliza para predecir una medida basndonos en el conocimiento de otra. Regresin lineal En estadstica la regresin lineal o ajuste lineal es un mtodo matemtico que modeliza la relacin entre una variable dependiente Y, las variables independientes Xi y un trmino aleatorio . Regresin lineal simple Slo se maneja una variable independiente, por lo que slo cuenta con dos parmetros. Son de la forma:

Dado el modelo de regresin simple, si se calcula la esperanza (valor esperado) del valor Y, se obtiene:

Obteniendo dos ecuaciones denominadas ecuaciones normales que generan la siguiente solucin para ambos parmetros

La interpretacin del parmetro beta 2 es que un incremento en Xi de una unidad, Yi incrementar en beta 2 Maneja varias variables independientes. Cuenta con varios parmetros. Se expresan de la forma:8

Regresin lineal simple Dadas dos variables (Y: variable dependiente; X: independiente) se trata de encontrar una funcin simple (lineal) de X que nos permita aproximar Y mediante: = a + bX (ordenada en el origen, constante) (pendiente de la recta) A la cantidad e=Y- se le denomina residuo o error residual. As, en el ejemplo de Pearson: = 85 cm + 0,5X Donde es la altura predicha del hijo y X la altura del padre: En media, el hijo gana 0,5 cm por cada cm del padre.

Coeficiente de correlacin lineal

En una distribucin bidimensional puede ocurrir que las dos variables guarden algn tipo de relacin entre s. Por ejemplo, si se analiza la estatura y el peso de los alumnos de una clase es muy posible que exista relacin entre ambas variables: mientras ms alto sea el alumno, mayor ser su peso. El coeficiente de correlacin lineal mide el grado de intensidad de esta posible relacin entre las variables. Este coeficiente se aplica cuando la relacin que puede existir entre las variables es lineal (es decir, si representramos en un grfico los pares de valores de las dos variables la nube de puntos se aproximara a una recta).

No obstante, puede que exista una relacin que no sea lineal, sino exponencial, parablica, etc. En estos casos, el coeficiente de correlacin lineal medira mal la intensidad de la relacin las variables, por lo que convendra utilizar otro tipo de coeficiente ms apropiado. Para ver, por tanto, si se puede utilizar el coeficiente de correlacin lineal, lo mejor es representar los pares de valores en un grfico y ver que forma describen. El coeficiente de correlacin lineal se calcula aplicando la siguiente frmula:

Es decir: Numerador: se denomina covarianza y se calcula de la siguiente manera: en cada par de valores (x,y) se multiplica la "x" menos su media, por la "y" menos su media. Se suma el resultado obtenido de todos los pares de valores y este resultado se divide por el tamao de la muestra. Denominador se calcula el producto de las varianzas de "x" y de "y", y a este producto se le calcula la raz cuadrada. Los valores que puede tomar el coeficiente de correlacin "r" son: -1 < r < 1 Si "r" > 0, la correlacin lineal es positiva (si sube el valor de una variable sube el de la otra). La correlacin es tanto ms fuerte cuanto ms se aproxime a 1. Por ejemplo: altura y peso: los alumnos ms altos suelen pesar ms. Si "r" < 0, la correlacin lineal es negativa (si sube el valor de una variable disminuye el de la otra). La correlacin negativa es tanto ms fuerte cuanto ms se aproxime a -1. Por ejemplo: peso y velocidad: los alumnos ms gordos suelen correr menos. Si "r" = 0, no existe correlacin lineal entre las variables. Aunque podra existir otro tipo de correlacin (parablica, exponencial, etc.) De todos modos, aunque el valor de "r" fuera prximo a 1 o -1, tampoco esto quiere decir obligatoriamente que existe una relacin de causa-efecto entre las dos variables, ya que este resultado podra haberse debido al puro azar.

Pasos en el anlisis de correlacin y utilizacin e interpretacin de las tcnicas de correlacin

Determinar cul es la variable dependiente. Y: Costo. Seleccionar una muestra de tamao n de ambas variables X e Y, con lo que se obtienen n pares de observaciones (x1 , y1) , (x2 , y2) (xn , yn). En nuestro ejemplo se tomo una muestra de 20 apartamentos. Se midieron todas las variables independientes para cada uno de ellos. Estos mtodos se emplean para conocer las relaciones y significacin entre series de datos Cuando, simultneamente, contemplamos dos variables continuas, aunque por extensin se pueden emplear para variables discretas cuantitativas, surgen preguntas y problemas especficos. Esencialmente, se emplearn estadsticos descriptivos y tcnicas de estimacin para contestar

esas preguntas, y tcnicas de contraste de hiptesis especficos para resolver dichos problemas. La mayora de estos mtodos estn encuadrados en las tcnicas regresin y correlacin. En este artculo comentaremos las tcnicas bivariantes lineales. Si se parte de un modelo en el cual una de las dos variables continuas es dependiente o respuesta (y) y la otra es independiente o explicativa (x), surgen nuevos estadsticos para describir los datos. La nube de puntos, o el diagrama de dispersin, resultante de la representacin grfica de los datos est "concentrada" en la recta de regresin de mejor ajuste obtenida por el mtodo de mnimos cuadrados. Una condicin previa, en las tcnicas lineales, es que la nube de puntos debe tender a la linealidad (en sentido rectilneo, se entiende). Los coeficientes de la regresin lineal, la ordenada en el origen (a) y la pendiente de la recta (b), son estadsticos muestrales. Se suelen presentar de la forma y = a + bx. La dispersin de los puntos alrededor de la recta de mejor ajuste es una caracterstica de los datos bidimensionales que merece cuantificarse. El estadstico correspondiente es la desviacin tpica de los residuos. Es posible obtener la distribucin de los residuos. Estos son las distancias en vertical de cada punto a la recta de regresin. Su medida es cero (esta propiedad es compartida por otras muchas rectas de ajuste, adems de por la de mejor ajuste, que es la nuestra), y su desviacin tpica es el estadstico de eleccin para describir la dispersin alrededor de la recta. Sus unidades son las de la variable dependiente (y). Es posible, que estudiando una variable bidimensional, no se desee establecer ninguna relacin de subordinacin de una variable con respecto a la otra. En este supuesto, se intenta cuantificar la asociacin entre las dos caractersticas. Entramos en las tcnicas de correlacin lineal. Es posible definir otro estadstico muestral a partir del las dos pendientes tericas de las dos posibles rectas de regresin (y) sobre(x) y de (x) sobre (y). Este estadstico es el coeficiente de correlacin r. Su cuadrado r2 es el coeficiente de determinacin y da una medida entre 0 y 1 de la cantidad de informacin compartida por dos caractersticas o variables continuas en los datos muestrales. La magnitud de la asociacin entre dos variables continuas est en relacin con la dispersin de la nube de puntos. Se puede establecer una relacin matemtica perfecta entre la desviacin tpica de los residuos y el coeficiente de determinacin. El hecho de que dos variables estn correlacionadas, e incluso que lo estn con valores muy cercanos a 1, no implica que exista una relacin de causalidad entre ellas. Se pueden producir correlaciones espurias (causales) entre dos variables, por estar ambas relacionadas con otra tercera variable continua y anterior en el tiempo. Los nuevos estadsticos generados en la regresin y correlacin lineal se emplean como estimadores de los correspondientes parmetros poblacionales. Para que los coeficientes de la regresin y correlacin sean estimadores adecuados (centrados y de mnima varianza) de sus correspondientes parmetros poblacionales, es necesario que se asuman ciertas condiciones en la poblacin de origen, referidas fundamentalmente a las distribuciones de los residuos

Se define la covarianza de la siguiente forma:

Sin embargo, esta frmula resulta complicada de aplicar. Podemos desarrollar el numerador y llegar a la siguiente frmula, mucho ms fcil para trabajar con ella:

Ahora ya si estamos en condiciones de definir el siguiente coeficiente. Coeficiente de correlacin lineal de Pearson. Se define este coeficiente como el cociente entre la covarianza y el producto de las desviaciones tpicas de ambas variables, es decir:

Este coeficiente tomar siempre valores comprendidos entre -1 y 1. Segn los valores que tome, podremos deducir que: Si r=1, existe dependencia funcional, todos los puntos del diagrama de dispersin estn situados en una lnea recta creciente. Si 0<r<1, la correlacin es positiva y ser ms fuerte segn se aproxime ms a 1.

Si r=0, no existe correlacin lineal, pero puede existir correlacin curvilnea.

Si -1<r<0, la correlacin es negativa y ser ms fuerte segn se aproxime ms a -1.

Si r=-1, existe dependencia funcional, todos los puntos del diagrama de dispersin estn situados en una lnea recta decreciente. Funciones y Correlacin ...correlacin es el que se refiere a la existencia de correlacin lineal la cual se presenta cuando los puntos del grafico de las variables objeto de anlisis se distribuyen alrededor de una recta. en ese sentido hablamos de correlacin lineal fuerte cuando la nube de puntos graficados se parece mucho a una recta y la correlacin lineal ser cada vez ms

dbil (o menos fuerte) cuando la nube de puntos vaya alejndose cada vez ms de la recta. la cuantificacin del grado de correlacin lineal entre dos variables se hace a travs del coeficiente de correlacin el cual se es denotado con la letra r, el cual nos permite ver si la correlacin lineal entre dos variables es fuerte o dbil y positiva o negativa. el valor de r adopta valores entre -1 y 1 (es decir -1 < r < 1), indicando los valores cercanos a -1 y 1 la existencia de una fuerte correlacin negativa y positiva respectivamente, mientras que los valores que se acerca a 0 indican una correlacin cada vez ms dbil y el valor de 0 para el coeficiente de correlacin indica la no existencia de correlacin (o correlacin nula entre las variables). Mientras el coeficiente de correlacin se aproxima a los valores 1 y -1 la aproximacin a una correlacin se considera buena. Cuando mas se aleja de 1 o de -1 y se acerca a cero se tiene menos confianza en la relacin lineal entre las variables por lo que una aproximacin lineal no ser apropiada. Sin embargo no significa que no existe relacin entre las variables, lo nico que podemos decir es que la relacin no es lineal. Sin embargo, es importante tener presente que la existencia de correlacin no implica causalidad en el sentido que la correlacin indica que existe una relacin entre las variables pero no nos indica que una variable cause a la otra. el concepto de causalidad es importante en economa pues es precisamente a travs de la causalidad que se puede inferir el comportamiento de una variable a partir del comportamiento de otra y nos permite la identificacin de las variables de control para la realizacin de polticas econmicas. por lo tanto, el objetivo del anlisis de causalidad es explicar el funcionamiento de un sistema a partir de las relaciones causales del mismo, considerando que para el establecimiento de tales relaciones se requiere de construcciones tericas, es decir, detrs de toda relacin causal debe haber una teora

S-ar putea să vă placă și