Sunteți pe pagina 1din 8

Universidad de Antioquia

Facultad de Ciencias Económicas


Contadurı́a y Administración en Contadurı́a
Métodos Estadı́sticos
REGRESIÓN LINEAL
Prof. Sergio Luis Mercado Londoño
Domingo 30 de Junio de 2019

REGRESIÓN LINEAL SIMPLE

MODELO DE REGRESIÓN LINEAL SIMPLE

La relación matemática determinı́stica más simple entre dos variables x y y es una


relación lineal y = β0 + β1 x. El conjunto de pares (x, y) para los cuales y = β0 + β1 x
determina una lı́nea recta con pendiente β1 e intersección en y, β0 .
Más generalmente, la variable cuyo valor fija el experimentador será denotada por
x y se llamará variable independiente, pronosticadora o variable explicativa. Con x
fija, la segunda variable será aleatoria; esta variable aleatoria y su valor observado
se designan Y y y, respectivamente y se la conoce como variable dependiente o
de respuesta. Normalmente se realizarán observaciones para varios escenarios de la
variable. Sean x1 , x2 , . . . , xn los valores de la variable independiente para la que se
realizan las observaciones. Sean Yi y yi , respectivamente, la variable aleatoria y el valor
observado asociado con xi . Los datos bivariados disponibles se componen entonces de
los n pares (x1 , y1 ), (x1 , y1 ), . . . , (xn , yn ).
Existen parámetros β0 , β1 , tal que con cualquier valor fijo de la variable independiente
x, la variable dependiente está relacionada con x por la ecuación de modelo. La cantidad
 en la ecuación de modelo es una variable aleatoria, que se supone está normalmente
distribuida con E() = 0 y V () = σ 2 . La variable  se conoce como término de error
aleatorio o desviación aleatoria en el modelo.

Y = β0 + β1 x + 

ECUACIÓN DE REGRESIÓN LINEAL SIMPLE ESTIMADA


ŷ = b0 + b1 x
MÉTODO DE ESTIMACIÓN DE MÍNIMOS CUADRADOS PARA LA
ESTIMACIÓN DE LOS COEFICIENTES β0 y β1

SUMA DE CUADRADOS DEBIDA AL ERROR

n
X
SCE = (yi − ŷi )2
i=1
SUMA TOTAL DE CUADRADOS

n
X
ST C = (yi − y)2
i=1

SUMA TOTAL DE CUADRADOS DEBIDA A LA REGRESIÓN

n
X
SCR = (ŷi − y)2
i=1

COEFICIENTE DE DETERMINACIÓN

SCR
r2 =
ST C

INTERPRETACIÓN DEL COEFICIENTE DE DETERMINACIÓN

El coeficiente de determinación, se define como la proporción de la varianza total de


la variable explicada por la regresión. El coeficiente de determinación, también llamado R
cuadrado, refleja la bondad del ajuste de un modelo a la variable que pretender explicar.

Es importante saber que el resultado del coeficiente de determinación oscila entre 0 y


1. Cuanto más cerca de 1 se sitúe su valor, mayor será el ajuste del modelo a la variable
que estamos intentando explicar. De forma inversa, cuanto más cerca de cero, menos
ajustado estará el modelo y, por tanto, menos fiable será.

ERROR CUADRADO MEDIO (ECM) (ESTIMACIÓN DE σ 2 )


SCE
s2 = ECM =
n−2

ERROR ESTÁNDAR DE ESTIMACIÓN (ESTIMACIÓN DE σ)



r
SCE
s = ECM =
n−2
PRUEBA t
El modelo de regresión lineal simple es y = β0 + β1 x. Si x y y están relacionadas
linealmente, entonces β1 6= 0. El objetivo de la prueba t es determinar si se puede concluir
que β1 6= 0. Para probar la hipótesis siguiente acerca del parámetro β1 , se emplearán los
datos muestrales. La hipótesis es:

H0 : β1 = 0
Ha : β1 6= 0

Si se rechaza H0 , se concluirá que β1 6= 0 y que entre las dos variables existe una relación
estadı́sticamente significante.

ESTADÍSTICA DE PRUEBA t

b1
t=
sb 1

DESVIACIÓN ESTÁNDAR ESTIMADA DE b1 (sb1 )

s
sb1 = pP
(xi − x)2
PRUEBA F

FORMA GENERAL DE LA TABLA ANOVA PARA LA REGRESIÓN LINEAL


SIMPLE

REGRESIÓN LINEAL MÚLTIPLE

MODELO DE REGRESIÓN MÚLTIPLE

y = β0 + β1 x1 + β2 x2 + . . . + βp xp + 
ECUACIÓN DE REGRESIÓN ESTIMADA

ŷ = b0 + b1 x1 + b2 x2 + . . . + bp xp

INTERPRETACIÓN DE LOS COEFICIENTES DE REGRESIÓN bi , i = 1, 2, . . . , p.


En el análisis de regresión múltiple, cada uno de los coeficientes de regresión se
interpreta como sigue: bi representa la estimación del cambio en y debido a un cambio
en una unidad en xi mientras todas las demás variables independientes permanecen
constantes.
PRUEBA F

TABLA ANOVA PARA EL MODELO DE REGRESIÓN MÚLTIPLE CON p


VARIABLES INDEPENDIENTES
INTERPRETACIÓN DE LA PRUEBA F
Si en la prueba F se rechaza H0 , se concluye que existe una relación significativa entre
la variable dependiente y, y las variables independientes x1 , x2 , . . . , xp .

PRUEBA t

INTERPRETACIÓN DE LA PRUEBA t

Si en la prueba t se rechaza H0 , se concluye que el parámetro en la prueba es


estadı́sticamente significativo. Esto significa que la variable asociada al parámetro en
la prueba realmente es importante para explicar la variable dependiente y. En otras
palabras, decimos que existe una relación significativa entre la variable dependiente y
la correspondiente variable independiente.

S-ar putea să vă placă și