Sunteți pe pagina 1din 10

REGRESIN MLTIPLE

I.

INTRODUCCIN:
En la regresin mltiple vamos a utilizar ms de una variable explicativa; esto nos va a
ofrecer la ventaja de utilizar ms informacin en la construccin del modelo y,
consecuentemente, realizar estimaciones ms precisas.
Al tener ms de una variable explicativa (no se debe de emplear el trmino
independiente) surgirn algunas diferencias con el modelo de regresin lineal simple.
En definitiva, y al igual que en regresin lineal simple, vamos a considerar que los
valores de la variable dependiente Y han sido generados por una combinacin lineal de
los valores de una o ms variables explicativas y un trmino aleatorio.
Los coeficientes son elegidos de forma que la suma de cuadrados entre los valores
observados y los pronosticados sea mnima, es decir, que se va a minimizar la varianza
residual.

II.

FUNDAMENTO TEORICO:
Utilizamos regresin mltiple cuando estudiamos la posible relacin entre varias
variables independientes (predictores o explicativas) y otra variable dependiente
(criterio, explicada, respuesta).
Aplicaciones de la regresin mltiple:
Es cierto que la regresin mltiple se utiliza para la prediccin de respuestas a
partir de variables explicativas. Pero no es esta realmente la aplicacin que se le
suele dar en investigacin. Los usos que con mayor frecuencia encontraremos en
las publicaciones son los siguientes:
Identificacin de variables explicativas: Nos ayuda a crear un modelo
donde se seleccionen las variables que puedan influir en la respuesta,
descartando aquellas que no aporten informacin.
Deteccin de interacciones: Entre variables independientes que afectan a
la variable respuesta. Un ejemplo de interaccin clsico es el de estudiar
la respuesta de un paciente al alcohol y a un barbitrico, y observar que
cuando se ingieren ambos, el efecto es mucho mayor del esperado como
suma de los dos.
Identificacin de variables confurosas: Es un problema difcil es de su
deteccin, pero de inters en investigacin no experimental, ya que el
investigador

frecuentemente

independientes.

Requisitos y Limitaciones:

no

tiene

control

sobre

las

variables

Hay ciertos requerimientos necesarios para poder utilizar la tcnica de regresin


mltiple:
Linealidad: Se supone que la variable respuesta depende linealmente a las
variables explicativas. Si la respuesta no aparenta ser lineal, debemos
introducir

en

el

modelo

componentes

no

lineales

(como

incluir

transformaciones no lineales de las variables independientes en el modelo).


Otro tipo de respuesta no lineal es la interaccin. Para ello se ha de incluir
en el modelo trminos de interaccin que equivalen a introducir nuevas
variables explicativas que en realidad son el producto de dos o ms de las
independientes.
Normalidad y equidistribucin de los residuos: Se llaman residuos las
diferencias entre los valores calculados por el modelo y los realmente
observados en la variable dependiente. Para tener un buen modelo de
regresin no es suficiente con que los residuos sean pequeos. La validez
del modelo requiere que los mismos se distribuyan de modo normal y con
la misma dispersin para cada combinacin de valores de las variables
independientes.
Numero de variables independientes: Podemos estar tentados en incluir en
el modelo cualquier cosa que tengamos en una base de datos, con la
esperanza de cuantas ms variables incluyamos, ms posibilidades hay de
que suene la flauta. Si nos aborda esta tentacin, hemos de recordar que
corremos el riesgo de cometer error de tipo I. Otra razn es que si
esperamos ajustar unas pocas observaciones usando muchas variables,
muy probablemente consigamos una aproximacin muy artificial, y adems
muy sensible a los valores observados.
Colinealidad: Si dos variables independientes estn estrechamente
relacionadas (consumo de refrescos y temperatura ambiente por ejemplo) y
ambas son incluidas en un modelo, muy posiblemente ninguna de las dos
sea considerada significativa, aunque si hubisemos incluido slo una de
ellas, s.Hay diferentes tcnicas para detectar la colinealidad pero que
requieren profundizar en documentos ms sofisticados.
La regresin mltiple permite obtener dos importantes resultados:
1. Una ecuacin lineal estimada que predice la variable dependiente, Y, en
funcin de K variables independientes observadas, xi' donde
K.
yi = b0 + b1x1i + b2x2i + . . . bkxki + ui
Donde

1,.. n observaciones.

1, ...

2. La variacin marginal de la variable dependiente, Y, provocada por las


variaciones de las variables independientes, que se estima por medio de
los coeficientes, bj.
En la regresin mltiple, estos coeficientes dependen de que otras
variables se incluyan en el modelo. EI coeficiente bj indica la variacin de
Y, dada una variaci6n unitaria de X, descontando al mismo tiempo el efecto
simultaneo de las dems variables independientes.
En algunos problemas, ambos resultados son igual de importantes. Sin embargo,
normalmente predomina uno de ellos (por ejemplo, la predicci6n de las ventas de
las tiendas, y, en el ejemplo de la localizacin de las tiendas).
Ajuste por mnimos cuadrados:

Como en regresin simple, el criterio de mnimos cuadrados asigna a los


parmetros del modelo el valor que minimiza la suma de errores al cuadrado de
todas las observaciones.
La suma de errores al cuadrado es S:

Al igual que en regresin simple, la estrategia que seguimos para calcular el


mnimo de S es:
Derivar S con respecto a los parmetros,
Igualar a cero cada derivada,
Y resolver el sistema de ecuaciones que resulta (y en el que las incgnitas
vienen dadas por los k+1 parmetros que queremos estimar).

Interpretacin Geomtrica:
En el espacio formado por las variables, el mtodo de mnimos cuadrados
equivale a encontrar un vector en dicho espacio que est lo ms prximo
posible al vector de observaciones.

Interpretacin de B

Contraste
t

Intervalos de confianza

Descomposicin de variabilidad

Coef.
de
determinacin y coef. De determinacin corregido por g.l.
R2 x100 proporciona el porcentaje de variabilidad de Y que explica el modelo
de regresin ajustado.
El coef. de determinacin as definido presenta el inconveniente de que al
incluir nuevas variables en el modelo aumenta su valor, incluso cuando stas
no resultan significativas.
Este problema hace que R2 no sea un vlido como criterio para decidir qu
variables explicativas deben ser incluidas o excluidas en el modelo final.
Contraste de regresin F:
Este contraste, sirve en regresin mltiple para comprobar si el modelo explica
una parte significativa de la variabilidad de Y
Se puede demostrar que si 1 = 2 = . . . = k = 0 el cociente

Se

distribuye

segn

una
distribucin F

de Snedecor con (k, n-k-1) g.l.


Tabla ANOVA:

En dicha tabla se descompone la variabilidad de la respuesta en funcin de la


variabilidad explicada y no explicada por la regresin ajustada.
Tambin se obtiene el valor del estadstico de contraste F

Contraste de regresin F:

III.

DESARROLLO DEL TRABAJO:


Se pretenden estimar los gastos en alimentacin de una familia en base a la
informacin que proporcionan las variables regresoras 'ingresos mensuales y
'nmero de miembros de la familia'. Para ello se recoge una muestra aleatoria
simple de 15 familias, cuyos resultados se facilitan en la tabla adjunta.
(El gasto e ingreso se expresan en cien mil euros).

Aplicando el criterio de los mnimos cuadrados ordinarios MCO, la funcin que mejor se
ajusta a los datos es la que minimiza la varianza del error U, lo que conlleva a un
sistema de ecuaciones normales

Contraste
de
Hiptesis
individual
para
2
X
(tamao
familiar)
Nos planteamos si la variable 2 X (tamao) influye sobre la variable de respuesta Y
(gastos). En otras palabras, si el valor del parmetro en la poblacin es cero o no.

IV.
BIBLIOGRAFIA:

Torino H . Resumen del libro de Estadsticas de Berenson y Levine

Galdos Clculo y Estadstica III Edicin Unica. Grupo La Republica. Lima Per;2005.

S-ar putea să vă placă și