Sunteți pe pagina 1din 3

Nombre: José Esteban Sánchez.

APORTE
REGRESIÓN LINEAL SIMPLE Y LA REGRESIÓN LINEAL MÚLTIPLE

Uno de los aspectos más relevantes de la Estadística es el análisis de la relación o


dependencia entre variables. Frecuentemente resulta de interés conocer el efecto que
una o varias variables pueden causar sobre otra, e incluso predecir en mayor o menor
grado valores en una variable a partir de otra.
Con la regresión, aparte de medir el grado de asociación entre las dos variables,
podremos realizar predicciones de la variable dependiente.

La regresión lineal simple ajusta a la ecuación de la recta los valores de la variable


independiente.

El caso de modelo de regresión más sencillo es la construcción de una recta que


modelice la relación que hay entre la variable respuesta, YY, y la variable predictora XX.
El modelo tiene la forma
Y=β0+β1X+e,Y=β0+β1X+e,
Donde β0β0 y β1β1 se conocen como coeficientes de regresión y son, respectivamente,
la ordenada en el origen (punto de corte con el eje YY) y la pendiente de la recta del
modelo de regresión.
En la ecuación ee es el error aleatorio, representa la diferencia entre el valor ajustado
por la recta y el valor real. Refleja la ausencia de dependencia perfecta entre las
variables, la relación está sujeta a incertidumbre.
Por ejemplo, en el consumo de gasolina de un vehículo, YY, influyen la velocidad XX y
una serie de factores como el efecto conductor, el tipo de carretera, las condiciones
ambientales, etc. Todos estos elementos quedarían englobados en el error ee.
Los coeficientes de regresión se pueden interpretar como:

 β0β0 el valor medio de la variable dependiente cuando la predictora es cero.


 β1β1 el efecto medio (positivo o negativo) sobre la variable dependiente al
aumentar en una unidad el valor de la predictora XX.
 Una recta que tiene una pendiente con valor positivo describe una relación positiva,
mientras que una recta con una pendiente negativa describe una relación negativa.
Entonces tenemos básicamente que la pendiente (β1β1) nos da la apariencia del
modelo (su forma) y la ordenada en el origen (β0β0) nos dice dónde se sitúa el
modelo en el plano.

En esta expresión estamos admitiendo que todos los factores o causas que influyen en
la variable respuesta Y pueden dividirse en dos grupos: el primero contiene a una
variable explicativa X y el segundo incluye un conjunto amplio de factores no
controlados que englobaremos bajo el nombre de perturbación o erro aleatorio, ε, que
provoca que la dependencia entre las variables dependiente e independiente no sea
perfecta, sino que esté sujeta a incertidumbre.
Por ejemplo,
En el consumo de gasolina de un vehículo (Y ) influyen la velocidad (X) y una serie de
factores como el efecto conductor, el tipo de carretera, las condiciones ambientales,
etc., que quedarían englobados en el error.

El modelo de regresión lineal simple tiene la siguiente estructura


yi=β0+β1xi+ei

La regresión lineal múltiple


Es una técnica estadística destinada a analizar las causas de por qué pasan las cosas. A
partir de los análisis de regresión lineal múltiple podemos:
 identificar que variables independientes (causas) explican una variable dependiente
(resultado)
 comparar y comprobar modelos causales
 predecir valores de una variable, es decir, a partir de unas características predecir
de forma aproximada un comportamiento o estado
La regresión lineal múltiple es la gran técnica estadística para comprobar hipótesis y
relaciones causales. Ante de empezar, una serie de condiciones que se deben cumplir
para poder aplicar la regresión lineal múltiple:
 La variable dependiente (resultado) debe ser ordinal o escalar, es decir, que las
categorías de la variable tengan orden interno o jerarquía, p.ej. nivel de ingresos,
peso, número de hijos, justificación del aborto en una escala de 1-nunca a 10-
siempre.
 Las variables independientes (causas) deben ser ordinales o escalares o dummy
 Hay otras condiciones como: las variables independientes no puede estar altamente
correlacionadas entre sí, las relaciones entre las causas y el resultado deben ser
lineales, todas variables deben seguir la distribución normal y deben tener varianzas
iguales. Estas condiciones no son tan estrictas y hay maneras de tratar los datos si
se incumple. Sobre ello volveremos en futuras entradas

En la regresión lineal simple predecíamos la variable resultado YY a partir de los valores


de XX, usando la ecuación de una linea recta. Con los valores que habíamos ido
obteniendo de XX e YY calculábamos los parámetros de la ecuación ajustando el modelo
a los datos mediante el método de mínimos cuadrados. La regresión múltiple es una
extensión lógica de esto a situaciones en las que hay más de una variable predictora. La
nueva ecuación será
Yi=(β0+β1X1i+β2X2i+⋯+βnXni)+ei.Yi=(β0+β1X1i+β2X2i+⋯+βnXni)+ei.
Básicamente se trata de la misma ecuación que para la regresión simple excepto porque
hemos incluido predictores extra. Cada predictor tienen asociado su propio coeficiente
y predecimos la variable dependiente a partir de una combinación de todas las variables
más un residuo, eiei, la diferencia entre el valor ajustado y observado de YY en la i-ésima
observación.
Los coeficientes de regresión se pueden interpretar como:
 βiβi el efecto medio (positivo o negativo) sobre la variable dependiente al aumentar
en una unidad el valor de la predictora Xi,i=1,⋯,kXi,i=1,⋯,k.
 β0β0 el valor medio de la variable dependiente cuando las predictoras son cero.

Por tanto una regresión lineal es aquella donde tu ecuación solo tiene variables de
primer grado. Es decir que están elevados a la potencia "1". Ejemplo Y= α+βx, donde β
es lineal.

Por otro lado, la regresión múltiple puede tener variables elevadas a la potencia que sea,
como Y= Y= α+β^2x que significa que β está elevado al cuadrado. o Y= Log(α)+Log(β)x,
que es una función logarítmica, etc.

Referencias y bibliografía
Ali S. Hadi, S. C. &. (2006). Linear Models with R (4th edition.). John Wiley & Sons.
Retrieved
from http://samples.sainsburysebooks.co.uk/9780470055458_sample_381725.pdf
Ferrari, D., & Head, T. (2010). Regression in R. Part I: Simple Linear Regression. UCLA
Department of Statistics Statistical Consulting Center. Retrieved October 13, 2014,
from http://scc.stat.ucla.edu/page_attachments/0000/0139/reg_1.pdf
Field, A., Miles, J., & Field, Z. (2012). Discovering Statistics Using R (1st edition.). Sage
Publications Ltd.
J.Faraway, J. (2009). Linear Models with R (1st edition.). Taylor & Francis e-Library.
Retrieved
from http://home.ufam.edu.br/jcardoso/PPGMAT537/Linear%20Models%20with%20R
.pdf
Kabacoff, R. (2014). Creating a figure arrangement with fine control. Retrieved October
13, 2014, from http://www.statmethods.net/advgraphs/layout.html
Pérez, J. L. (2014). LA ESTADÍSTICA: UNA ORQUESTA HECHA INSTRUMENTO. Retrieved
October 13, 2014, from http://estadisticaorquestainstrumento.wordpress.com/

S-ar putea să vă placă și