Sunteți pe pagina 1din 3

Anlisis de regresin

En trminos generales, el anlisis de Regresin trata sobre el estudio de la dependencia de un fenmeno econmico respecto de una o varias variables explicativas, con el objetivo de explorar o cuantificar la media o valor promedio poblacional de la primera a partir de un conjunto de valores Conocidos o fijos de la/s segunda/s. En un Anlisis de Regresin simple existe una variable respuesta o dependiente (y) que puede ser el nmero de especies, la abundancia o la presencia-ausencia de una sola especie y una variable explicativa o independiente (x). El propsito es obtener una funcin sencilla de la variable explicativa, que sea capaz de describir lo ms ajustadamente posible la variacin de la variable dependiente. Como los valores observados de la variable dependiente difieren generalmente de los que predice la funcin, sta posee un error. La funcin ms eficaz es aquella que describe la variable dependiente con el menor error posible o, dicho en otras palabras, con la menor diferencia entre los valores observados y predichos. La diferencia entre los valores observados y predichos (el error de la funcin) se denomina variacin residual o residuos. Para estimar los parmetros de la funcin se utiliza el ajuste por mnimos cuadrados. Es decir, se trata de encontrar la funcin en la cual la suma de los cuadrados de las diferencias entre los valores observados y esperados sea menor. Sin embargo, con este tipo de estrategia es necesario que los residuos o errores estn distribuidos normalmente y que varen de modo similar a lo largo de todo el rango de valores de la variable dependiente. Estas suposiciones pueden comprobarse examinando la distribucin de los residuos y su relacin con la variable dependiente. Cuando la variable dependiente es cuantitativa (por ejemplo, el nmero de especies) y la relacin entre ambas variables sigue una lnea recta, la funcin es del tipo y= c + bx, en donde c es el intercepto o valor del punto de corte de la lnea de regresin con el eje de la variable dependiente (una medida del nmero de especies existente cuando la variable ambiental tiene su mnimo valor) y b es la pendiente o coeficiente de regresin (la tasa de incremento del nmero de especies con cada unidad de la variable ambiental considerada). Si la relacin no es lineal pueden transformarse los valores de una o ambas variables para intentar linearizarla. Si no es posible convertir la relacin en lineal, puede comprobarse el grado de ajuste de una funcin polinomial ms compleja. La funcin polinomial ms sencilla es la cuadrtica (y= c + bx + bx2) que describe una parbola, pero puede usarse una funcin cbica u otra de un orden aun mayor capaz de conseguir un ajuste casi perfecto a los datos. Cuando la variable dependiente se expresa en datos cualitativos (presencia-ausencia de una especie) es aconsejable utilizar las regresiones logsticas (y= [ exp (c + bx)] / [ 1 + exp (c + bx)] ).

REGRESIN Estudiar y predecir el valor promedio de una variable sobre la base de valores fijos de otras variables. Existe una asimetra en el tratamiento que se les da a las variables. La variable dependiente es aleatoria o estocstica: su valor depende de una distribucin de probabilidades. Las variables independientes tienes valores fijos en muestras repetidas. CORRELACIN El objetivo es medir el grado de asociacin lineal entre dos variables. El tratamiento de las variables es simtrico: No se distinguen entre variable dependiente y variable explicativa. Se asume que las dos variables son simtricas.

Recta de regresin por el mtodo de mnimos cuadrados.


Una forma en que podemos medir el error de nuestra lnea de estimacin es sumando todas las diferencias, o errores, individuales entre los puntos observados y los puntos estimados. La suma de las diferencias individuales para calcular el error no es una forma confiable de juzgar la bondad de ajuste de una lnea de estimacin. El problema al aadir los errores individuales es el efecto de cancelacin de los valores positivos y negativos, por eso usamos valores absolutos en esta diferencia a modo de cancelar la anulacin de los signos positivos y negativos, pero ya que estamos buscando el menor error debemos buscar un mtodo que nos muestre la magnitud del error, decimos que la suma de los valores absolutos no pone nfasis en la magnitud del error. Parece razonable que mientras ms lejos este un punto de la lnea e estimacin, mas serio seria el error, preferiramos tener varios errores pequeos que uno grande. En efecto, deseamos encontrar una forma de penalizar errores absolutos grandes, de tal forma que podamos evitarlos. Puede lograr esto si cuadramos los errores individuales antes de sumarlos. Con estos se logran dos objetivos:

Como estamos buscando la lnea de estimacin que minimiza la suma de los cuadrados de los errores a esto llamamos mtodo de mnimos cuadrados. Si usamos el mtodo de mnimos cuadrados, podemos determinar si una lnea de estimacin tiene un mejor ajuste que otro. Pero para un conjunto de puntos de datos a travs de los cuales podramos trazar un numero infinito de lneas de estimacin, cmo podemos saber cuando hemos encontrado la mejor lnea de ajuste?

Los estadsticos han derivado dos ecuaciones que podemos utilizar para encontrar la pendiente y la interseccin Y de la lnea de regresin del mejor ajuste. La primera formula calcula la pendiente.

b = pendiente de la lnea de estimacin de mejor ajuste X = valores de la variable independiente Y = valores de la variable dependiente = media de los valores de la variable independiente = media de los valores de la variable dependiente n = numero de puntos de datos La segunda ecuacin calcula la interseccin en Y

a = interseccin en Y b = pendiente de la ecuacin anterior = media de los valores de la variable dependiente = media de los valores de la variable independiente

S-ar putea să vă placă și