Sunteți pe pagina 1din 4

ESCUELA SUPERIOR POLITÉCNICA DE

CHIMBORAZO

FACULTAD DE CIENCIAS PECUARIAS

CARRERA: INGENIERÍA EN INDUSTRIAS


PECUARIAS

SEMESTRE: CUARTO “A”

ASINATURA: SISTEMAS INFORMATICOS Y


BIOESTADÍSTICOS

NOMBRE: CHRISTIAN CARRERA

DOCENTE: ING. MANUEL ALMEIDA

TEMA: ANÁLISIS DE REGRESIÓN


ANÁLISIS DE REGRESIÓN

El análisis de regresión involucra el estudio la relación entre dos variables CUANTITATIVAS.

En general interesa:

 Investigar si existe una asociación entre las dos variables testeando la hipótesis de
independencia estadística.
 Estudiar la fuerza de la asociación, a través de una medida de asociación denominada
coeficiente de correlación.
 Estudiar la forma de la relación. Usando los datos propondremos un modelo para la
relación y a partir de ella será posible predecir el valor de una variable a partir de la
otra.

El Análisis de regresión:

a.- ¿Cuál es el tipo de dependencia entre las dos variables?

b.- ¿Pueden estimarse los valores de Y a partir de los de X? ¿Con qué precisión?

De modo general, diremos que existe regresión de los valores de una variable con respecto a
los de otra, cuando hay alguna línea, llamada línea de regresión que se ajusta más o menos
claramente a la nube de puntos.

Si existe regresión, a la ecuación que nos describe la relación entre las dos variables la
denominamos ecuación de regresión.
Por ejemplo: Y=a+bx

Y=a+bX+cX2

En general, la variable X se conoce como variable independiente, y la Y como variable


dependiente.

Tipos de regresión

Si las dos variables X e Y se relacionan según un modelo de línea recta, hablaremos de


Regresión Lineal Simple: Y=a+bx.

Cuando las variables X e Y se relacionan según una línea curva, hablaremos de Regresión no
lineal o curvilínea. Aquí podemos distinguir entre Regresión parabólica, Exponencial, Potencial,
etc.

COEFICIENTE DE REGRESIÓN

Los coeficientes de regresión representan los cambios medios en la variable de respuesta para
una unidad de cambio en la variable predictor mientras se mantienen constantes los otros
predictores en el modelo. Este control estadístico que proporciona la regresión es importante
porque aísla el plapel de una variable de todas las otras del modelo.
En la recta de regresión como ya veremos- b recibe el nombre de Coeficiente de regresión

Si b>0, entonces cuando X aumenta Y también lo hace


(relación directa).

Si b<0, entonces, cuando X aumenta Y disminuye


(relación inversa).

Si b=0 entonces, la ecuación de regresión no es el


modelo adecuado para describir la relación entre las
variables involucradas.

Una vez obtenido b se remplazaría en la ecuación lineal.

Y=a+bx

EL COEFICIENTE DE CORRELACIÓN LINEAL

Como solución al inconveniente planteado, para medir la asociación lineal entre dos variables
X e Y se utiliza una medida adimensional denominada coeficiente de correlación lineal.

El coeficiente de correlación lineal es el cociente entre la covarianza y el producto de las


desviaciones típicas de ambas variables.

El coeficiente de correlación lineal se expresa mediante la letra r.

Propiedades

1. El coeficiente de correlación no varía al hacerlo la escala de medición.

Es decir, si expresamos la altura en metros o en centímetros el coeficiente de correlación no


varía.

2. El signo del coeficiente de correlación es el mismo que el de la covarianza.

Si la covarianza es positiva, la correlación es directa.

Si la covarianza es negativa, la correlación es inversa.

Si la covarianza es nula, no existe correlación.

3. El coeficiente de correlación lineal es un número real comprendido entre −1 y 1.


−1 ≤ r ≤ 1

4. Si el coeficiente de correlación lineal toma valores cercanos a −1 la correlación es fuerte e


inversa, y será tanto más fuerte cuanto más se aproxime r a −1.

5. Si el coeficiente de correlación lineal toma valores cercanos a 1 la correlación es fuerte y


directa, y será tanto más fuerte cuanto más se aproxime r a 1.

6. Si el coeficiente de correlación lineal toma valores cercanos a 0, la correlación es débil.

7. Si r = 1 ó −1, los puntos de la nube están sobre la recta creciente o decreciente. Entre ambas
variables hay dependencia funcional.

Covarianza

La covarianza de una variable bidimensional es la media aritmética de los productos de las


desviaciones de cada una de las variables respecto a sus medias respectivas.

La covarianza se representa por sxy o σxy.

COEFICIENTE DE DETERMINACIÓN

El coeficiente de determinación no sólo mide la capacidad explicativa de un modelo sino que,


además, permite elegir entre varios modelos cuál es el más adecuado. Así si los modelos
tienen la misma variable dependiente y el mismo número de variables explicativas, será más
adecuado el que tenga un coeficiente de determinación mayor.

En un modelo de regresión lineal el coeficiente de determinación es adimensional y se calcula


de siguiente modo:

Donde la suma total es la varianza muestral de la variable endógena multiplicada por el


tamaño de la muestra; por lo tanto, mide las fluctuaciones de esta variable alrededor de su
media; y, la suma residual indica cuál es el nivel de error que se comete con el modelo
estimado al explicar la variable endógena.

El coeficiente de determinación siempre va a ser menor o igual que 1 (sería igual a 1 si el


modelo estimado puede explicar completamente la variable dependiente sin ningún error, lo
cual es muy improbable en la práctica) y si, además, el modelo tiene término independiente,
entonces el R2 es mayor o igual que cero.

S-ar putea să vă placă și