Sunteți pe pagina 1din 3

Nombre: Mariela Mónica Fernandez Pantoja Fecha: 11/5/18

Materia: Inteligencia de Mercados II Carrera: LCI


Elías, E. C. (2016). Análisis multivariante: Aplicaciones con SPSS. San Salvador :
UFG . Recuperado el 11 de Mayo de 2018 .

ANÁLISIS DE REGRESIÓN LINEAL MULTIPLE (RLM)

El método RLM consiste en explicar una variable dependiente, mediante un conjunto


de variables explicativas (llamadas independientes o covariables). Los fines del RLM
son determinar la estructura o la forma de la relación (la ecuación matemática que
relaciona las variables explicativas con la variable explicativa), si las Xi explican una
variación significativa de la variable a explicar (dependiente), la importancia de la
relación de asociación entre variables explicativas y la variable a explicar.

En la metodología tenemos:

1. Diseño de análisis: Todas las variables deben ser cuantitativas, y los supuestos que
maneja son; Linealidad, la relación entre X y Y es lineal; Ausencia de multicolinealidad,
no existe relación entra las Xi; Homocedasticidad, el termino residual debe seguir una
distribución normal con media igual a cero y con una varianza constante.

2. Estimación de los parámetros En la regresión lineal múltiple a diferencia de la simple


la obtención del vector de parámetros permitirá ajustaron plano a la nube de puntos,
un hiperplano en el caso de más de dos variables, la estimación por mínimos
cuadrados es el método más común de estimación, este procedimiento utiliza la
descomposición de la variación total de Y en dos fuentes de variación: la procedente
de las Xi y la variación del termino residual.

La estimación de los parámetros por mínimos cuadrados nos lleva al a minimización


de SCRES, donde:

X: Es la matriz que contiene los distintos valores de las variables explicativas.

Y: Es la matriz que contiene los distintos valores de la variable a explicar.

Para todo esto se necesita una base de requerimiento que son: El tamaño de la
muestra no debe ser inferior o igual al numero de variables explicativas P, para detectar
la multicolinealidad se debe analizar las correlaciones entre las Xi, y por último la
interpretación de resultados se deben tomar en cuenta los siguientes pasos:

1. Existencia y fortaleza de la relación, es la relación de X y Y dado por el coeficiente


de correlación múltiple (R square), que indica la proporción de la variación de Y que
viene explicada por la variación de las X1.

2. Interpretación de los coeficientes, indica la dirección de la relación entre la variable


Y y las X. El signo asociado permite establecer en que sentido varia la variable Y ante
una variación de la variable Xp correspondiente. un B >0 implica un incremento de la
variable a explicar Y en B unidades. Si B < 0 implica una disminución de la variable Y
en B.

3. Pruebas de significación

i. Prueba para determinar si cada variable por sí sola influye significativamente sobre
la variable a explicar.
La hipótesis planteada es esta:
Ho: bp 0, ∀ p = 1, …, P
H1: bp ≠ 0
La prueba utilizada es la prueba T, cuyo resultado se presenta en los cuadros del
SPSS.
ii. Prueba de significación global de la relación entre todas las Y y X
Ho: b = =… bp = 0.
H1: como mínimo b es diferente de cero.
Si el resultado de la prueba F indica que la relación entre los dos conjuntos de variables
es significativa, implicara que tenemos una probabilidad nula de equivocarnos si
rechazamos la hipótesis nula.
4. Selección del número óptimo de variables explicativas,

- El coeficiente de correlación múltiple Rsquare aumenta en la medida en que


adicionan variables a la ecuación; pero a partir de cierto punto, el incremento de R
Square para cada nueva variable que se añade es insignificante.
- Un buen modelo no debe presentar demasiadas variables ni debe olvidar las que
seas verdaderamente relevantes.

Existen 3 procedimientos:

1. Método forward selection

2. Método backward elimination

3. Método stepwise