Documente Academic
Documente Profesional
Documente Cultură
12.1
Introduo
No captulo anterior, estudou-se o modelo mais simples de relacionar uma varivel
dependente com apenas uma varivel independente. Existem inmeros fenmenos que
envolvem muitas variveis independentes. Neste captulo, estudar-se- ainda uma relao
linear entre as variveis independentes e a varivel dependente, como a mostrada a seguir:
Y o 1 x1 2 x2 ... m xm
(1)
Essa equao conhecida como modelo de regresso linear mltipla. Como antes, o parmetro
o conhecido como a interseo do plano ou coeficiente linear. Os outros parmetros so
conhecidos como coeficientes parciais de regresso, porque (no caso de duas variveis
independentes) 1 mede a variao esperada em Y por unidade de variao em x1, quando x2 for
constante, e 2 mede a variao esperada em Y por unidade de variao em x2, quando x1 for
constante. No caso geral, o parmetro j representa a variao esperada na resposta Y por unidade
de variao unitria em xj, quando todos os outros regressores (ou variveis independentes) xi (i
j) forem mantidos constantes.
No caso de ter apenas duas variveis independentes, a Equao (1) pode ser representada
graficamente pelo plano mostrado na Figura 12.1a ou atravs das curvas de nvel, mostradas na
Figura 12.1b. Pelo fato de no haver correlao entre as variveis independentes, as linhas na
Figura 12.1b so retas.
Modelos que sejam mais complexos na estrutura do que a Equao (1) podem
freqentemente ainda ser analisados por tcnicas de regresso linear mltipla. Por exemplo,
considere o modelo polinomial cbico com um regressor.
Y o 1x 2x 2 3x 3
(2)
Se se fizer x1 = x, x2 = x2, x3 = x3, ento a Equao (2) pode ser reduzida forma apresentada na
Equao (1), com trs regressores.
Modelos que incluem efeitos de interao podem ser analisados pelos mtodos de
regresso linear mltipla. Uma interao entre duas variveis pode ser representada por um termo
cruzado no modelo, tal como
Y o 1x 1 2x 2 12x 1x 2
(3)
Se se fizer x3 = x1x2 e 3 = 12, ento a Equao (3) pode ser escrita na forma da Equao (1). No
caso de se considerar o termo de interao, a superfcie gerada pelo modelo no linear e as
curvas de nvel so curvadas, conforme pode ser visto na Figura 12.2. Em geral, qualquer modelo
de regresso que seja linear nos parmetros (os s) um modelo de regresso linear,
independente da forma da superfcie que ele gere.
(4)
Yi o j x ij i
i = 1, 2, ..., n
j 1
(5)
S (Yi y i ) 2
(6)
S
o
S
j
o , 1 ,..., k
2 (Yi y i ) 0
(7)
i 1
n
o , 1 ,..., k
2 (Yi y i )x ij 0
j = 1, 2, ..., k
i 1
(8)
n o 1 x i 1 2 x i 2 ... k x ik y i
i 1
i 1
i 1
i 1
i 1
i 1
i 1
i 1
i 1
o x i 1 1 x i21 2 x i 1x i 2 ... k x i 1x ik x i 1y i
(9)
i 1
i 1
i 1
i 1
i 1
2
o x ik 1 x ik x i 1 2 x ik x i 2 ... k x ik
x ik y i
O sistema representado na Equao (9) pode ser resolvido por qualquer mtodo de
resoluo de equaes algbricas lineares. Existem m = k + 1 equaes, que podem ser expressas
na forma matricial:
y X
em que
y O
L
M
y P
M
P
y=
M
P
M
P
y Q
N
O
L
M
P
M
P
=
M
P
M
P
Q
N
(10)
1 x
L
M
1 x
X M
M
M
1 x
N
O
L
M
P
MP
M
P
M
P
Q
N
O
P
P
P
P
x Q
21
x12 x1k
x22 x2 k
n1
xn 2
11
(11)
nk
(12)
com y sendo um vetor (n x 1) das observaes, X sendo uma matriz (n x m) contendo os valores
das variveis independentes, sendo um vetor (m x 1) dos parmetros (ou coeficientes de
regresso) e sendo um vetor (n x 1) dos erros aleatrios.
Uma outra forma de representar a Equao (10)
(13)
X' X X' y
em que X a matriz transposta de X. Como o objetivo determinar os parmetros, a Equao
(13) deve ser resolvida, resultando em:
(14)
( X' X ) 1 X' y
-1
em que (XX) a matriz inversa de XX. Qualquer mtodo pode ser utilizado para fazer a
inverso da matriz. Uma vez determinados os parmetros, o modelo proposto toma a forma:
k
yi o j xij
(15)
y X
(16)
j 1
(17)
C
L
M
C
= M
M
M
C
N
10
C01 C0 k
C11 C1k
k0
Ck 1 Ckk
00
O
P
P
P
P
Q
(18)
que simtrica (C10 = C01, C20 = C02 e Ck0 = C0k) porque (XX)-1 simtrica, tendo-se
Var ( j ) 2 C jj
Covar ( , ) 2 C
i
ij
j = 0, 1, 2, ..., k
(19)
ij
(20)
Em geral, a matriz de covarincia de uma matriz simtrica (m x m), cujo jj-simo elemento
a varincia de e cujo i,j-simo elemento a covarincia entre e ; ou seja,
j
cov( ) = 2(XX)-1 = 2C
(21)
i 1
i 1
( y i Yi )2 = ei2 =ee
(22)
(23)
nm
nm
(24)
EXEMPLO 1: O gerente de uma fbrica que engarrafa refrigerantes est analisando as rotas de
servios nas mquinas, em seu sistema de distribuio. Ele est interessado em prever o tempo
requerido pelo operador para reabastecer as mquinas em um shopping center. Esse servio inclui
abastecer a mquina com refrigerantes e fazer alguns pequenos reparos necessrios. O engenheiro
industrial sugeriu como variveis importantes, o nmero de refrigerantes estocados e a distncia
percorrida pelo entregador. Para os 25 pontos experimentais apresentados na Tabela 12.2,
determine os parmetros do modelo de regresso linear mltipla.
O Statistica ser utilizado para resolver esse problema. Todo o procedimento adotado no
captulo anterior ser repetido aqui, com a diferena apenas de que agora se tem mais de uma
varivel independente.
Os parmetros estimados so dados na Tabela 12.3, em que se percebe a significncia
estatstica de todos os parmetros, embora o desvio-padro da interseo tenha sido grande. O
coeficiente de determinao foi alto.
Tabela 12.3 Resultado do Statistica para a Regresso Linear Mltipla do Exemplo 1.
Uma correlao parcial aquela existente entre uma varivel independente e uma
dependente, quando considerando a presena das outras. Por exemplo, o comprimento do cabelo
pode estar correlacionado altura das pessoas; no entanto, essa correlao poder diminuir e
mesmo desaparecer se a influncia do sexo for removida, uma vez que mulheres so geralmente
menores e so provveis de terem cabelos compridos.
Uma correlao semiparcial dada entre a varivel dependente no ajustada e a varivel
em questo, depois de controlar todas as outras variveis independentes na equao. Ela um
indicador melhor da relevncia prtica de um preditor, uma vez que ela relativa variabilidade
total na varivel dependente.
A tolerncia definida como 1- R2 para a varivel respectiva, estando todas as outras
variveis no modelo. R2 o coeficiente de determinao entre a varivel em questo e todas as
outras variveis na equao de regresso. A correlao parcial dada entre a varivel em questo
e a varivel dependente, depois de controlar todas as outras variveis independentes na equao.
A redundncia entre as variveis independentes pode ser analisada atravs da janela
Redundacy, mostrada na Tabela 12.7, cujas informaes j/a esto contidas na tabela anterior.
Tabela 12.7 Valores de Redundncia para os Dados do Exemplo 1.
Se H0: j = 0 no for rejeitada, ento isso indica que o regressor xj poder ser retirado do modelo.
A estatstica de teste para essa hiptese
to
(25)
2 C jj
rejeitada se |to| > t/2,n-m. Isso chamado de teste parcial ou marginal, porque o coeficiente de
regresso depende de todos os outros regressores xi (i j) que esto no modelo. O regressor
j
j t / 2 ,n m 2 C jj j j t / 2 ,n m 2 C jj
(26)
enquanto que para a resposta mdia, ele dado pela Equao (27).
(27)
(28)
regio que realmente englobada pelas observaes originais. Assim, a previso do valor de um
nova observao ou a estimao da resposta mdia nesse ponto uma extrapolao do modelo
original de regresso.
ei
(1 hii )
2
(29)
em que hii o i-simo elemento diagonal da matriz H, conhecida como matriz chapu.
Como
H = X(XX)-1X
= X(XX)-1X y = H y,
X
Y
(30)
.
conclui-se que a matriz H transforma os valores observados, y, em valores ajustados, Y
10
Di
( ( i ) ) X ' X ( ( i ) )
m 2
i = 1, 2, ..., n
(30)
11
12
Pela Tabela 12.8, v-se que o ponto 9 apresenta um valor da distncia Cook maior do que
um.
12.3 Modelos Polinomiais de Regresso
Polinmios podem ser usados como modelos de regresso e o mtodo de regresso linear
mltipla pode ser usado para determinao dos parmetros, fazendo uma mudana de varivel,
conforme mencionado anteriormente.
O Exemplo 1 ser resolvido agora supondo uma parbola como modelo de regresso.
(32)
Y o 1 x 11 x 2
Tabela 12.9 Janela do Statistica para o Modelo Polinomial
13
Observe que Mode est no modo Fixed non-linear. Uma vez selecionadas todas as
variveis, dependente e independentes, pressione OK, dando origem a seguinte tabela:
No caso de se ter apenas o termo quadrtico, seleciona-se apenas ele. Para outros
exemplos, pode-se selecionar qualquer outro termo.
As variveis existentes no modelo devem ser selecionadas da forma mostrada a seguir.
O resultado da estimao pode ser visualizado na tabela abaixo. Percebe-se que o termo
linear da Distncia e o termo quadrtico do Refrigerante no so significantes estatisticamente.
Tabela 12.10 Resultado da Estimao de Parmetros
14
Se se comparar o resultado da Tabela 12.4 com o da Tabela 12.11, vai-se perceber que o
coeficiente de determinao maior nesse ltimo caso e que a mdia quadrtica do erro menor
para esse novo modelo. Conclui-se assim, que o modelo com termos quadrticos melhor que o
anterior.
Tabela 12.11 Tabela da ANOVA
2
Figura 12.4 Grfico de R p contra p.
16
2
Um outro critrio est baseado em uma modificao de R p que considere o nmero de
2
variveis no modelo. Essa estatstica chamada de R p ajustado, definida como
R p2 1
n 1
( 1 R p2 )
n p
(34)
2
2
Note que R p pode decrescer medida que p aumenta, se a diminuio em (n - 1)(1 - R p ) no for
compensada pela perda de um grau de liberdade em n - p. O experimentalista geralmente
2
selecionaria o modelo de regresso que tivesse o valor mximo de R p . Entretanto, note que isso
equivalente ao modelo que minimiza MQE(p), uma vez que
R p2 1
n 1
( 1 R p2 )
n p
n 1 SQ E ( p )
n p SQT
n 1
MQ E ( p )
1
SQT
(35)
b) Seleo em Etapas
Regresso por etapas provavelmente a tcnica mais utilizada de seleo de variveis. O
procedimento constri iterativamente uma seqncia de modelos de regresso pela adio ou
remoo de variveis em cada etapa. O critrio para adicionar ou remover uma varivel em
qualquer etapa geralmente expresso em termos de um teste parcial F. Faa fentra ser o valor da
varivel aleatria F para adicionar uma varivel ao modelo e faa fsai ser o valor da varivel
aleatria F para remover uma varivel do modelo. Temos de ter fentra fsai e geralmente fentra = fsai.
A regresso em etapas comea formando um modelo com uma varivel, usando o
regressor que tenha a mais alta correlao com a varivel de resposta Y. Essa varivel ser
tambm o regressor produzindo a maior estatstica F. Por exemplo, suponha que nessa etapa, x1
seja selecionada. Na segunda etapa, as K - 1 variveis candidatas restantes so examinadas e a
varivel, para a qual a estatstica parcial F
SQR ( j | 1 , o )
Fj
(36)
MQE ( x j , x1 )
um mximo, adicionada equao, desde que fj > fentra. Na Equao (36), MQE(xj,x1) denota a
mdia quadrtica do erro para o modelo contendo x1 e xj. Suponha que esse procedimento indique
que x2 dever ser adicionada ao modelo. Agora, o algoritmo de regresso em etapas determina se
a varivel x1 adicionada na primeira etapa dever ser removida. Isso feito pelo clculo da
estatstica F.
SQR ( 1 | 2 , o )
F1
(37)
MQE ( x1 , x 2 )
Se o valor calculado f1 < fsai,.a varivel x1 ser removida; caso contrrio, ela ser retida e
tentaremos adicionar um regressor ao modelo contendo x1 e x2.
Em geral, em cada etapa, examina-se o conjunto dos candidatos restantes a regressores. O
regressor com a maior estatstica parcial F entra, desde que o valor observado de f exceda fentra.
Ento a estatstica parcial F para cada regressor no modelo calculado e o regressor com o menor
17
valor observado de F ser removido se o f observado < fsai. O procedimento continua at que
nenhum outro regressor possa ser adicionado ou removido ao modelo.
A regresso em etapas quase sempre feita usando um programa de computador. O
analista exerce controle sobre o procedimento quando da escolha de fentra e fsai. Alguns programas
computacionais de regresso em etapas requerem que os valores numricos sejam especificados
para fentra e fsai. Uma vez que o nmero de graus de liberdade para MQE depende do nmero de
variveis no modelo, que varia de etapa a etapa, um valor fixo de fentra e fsai causa uma variao
das taxas de erro tipo I e tipo II Alguns programas computacionais permitem ao analista
especificar os nveis do erro tipo I para fentra e fsai. Alguns programas computacionais permitem ao
analista especificar os nveis do erro tipo I para fentra e fsai. Entretanto, o nvel anunciado de
significncia no o nvel verdadeiro, porque a varivel selecionada aquela que maximiza (ou
minimiza) a estatstica parcial F naquele estgio. Algumas vezes, til experimentar diferentes
valores de fentra e fsai (ou diferentes taxas anunciadas do erro tipo I) em diferentes corridas, de
modo a ver se isso afeta substancialmente a escolha do modelo final.
c) Seleo Progressiva
O procedimento de seleo progressiva uma variao da regresso em etapas e est
baseado no princpio de que os regressores devem ser adicionados ao modelo um de cada vez at
que no haja mais candidatos a regressor que produzam aumento significativo na soma quadrtica
da regresso. Isto , variveis so adicionadas uma de cada vez desde que seu valor parcial de F
exceda fentra. A seleo progressiva uma simplificao da regresso em etapas que omite o teste
parcial F de remoo do modelo das variveis que foram adicionadas em etapas prvias. Essa
uma potencial fraqueza da seleo progressiva; isto , o procedimento no explora o efeito que a
adio de um regressor na etapa corrente tem nos regressores adicionados nas etapas anteriores.
d) Eliminao Regressiva
Esse algoritmo comea com todos os K candidatos a regressor no modelo. Ento o
regressor com menor estatstica parcial F removido, se essa estatstica F for insignificante; ou
seja, se f < fsai. A seguir, o modelo com K - 1 regressores ajustado e o prximo regressor para
potencial eliminao encontrado. O algoritmo termina quando nenhum regressor a mais pode
ser eliminado.
EXEMPLO 3: Resolva o Exemplo 1, utilizando a metodologia da seleo progressiva e da
eliminao regressiva, utilizando o Statistica.
SOLUO: Ao escolher a opo Multiple Regression e selecionar as variveis, a seguinte tela
aparecer:
18
a) Seleo Progressiva
Ao pressionar OK, uma nova janela surgir, que dever ser modificada de modo a se
obter:
Escolheu-se aqui fentra = 3 (recomenda-se, em torno de 2 a 3). Depois de dar OK, obtm-se
a tela:
19
Como nenhum regressor foi ainda adicionado, pressione a tecla Next e obtenha:
Todas as anlises anteriores podem ser feitas para o caso de s se ter um regressor no
modelo. De modo a completar a regresso pela seleo progressiva, pressione novamente Next e
obtenha:
20
Por essa janela, percebe-se que os dois regressores foram aceitos, pois eles foram
significativos estatisticamente, como pode ser comprovado pela janela Regression summary.
b) Eliminao Regressiva
Tudo se repete, com as diferenas anotadas na seguinte seqncia de janelas:
21
Comparando-se as duas metodologias, os dois resultados foram iguais, o que nem sempre
o caso.
12.4.2 Alguns Comentrios sobre a Seleo Final de Modelo
Tem-se ilustrado vrias abordagens diferentes para selecionar as variveis na regresso
linear mltipla. O modelo final obtido a partir de qualquer procedimento de construo de
modelo deve ser submetido a verificaes usuais de adequao, tais como anlise residual, teste
de falta de ajuste e exame dos efeitos de pontos de influncia. O analista pode considerar tambm
o aumento do conjunto original de variveis candidatas, atravs da introduo dos termos
cruzados, os termos polinomiais ou outras transformaes das variveis originais que possam
melhorar o modelo. A maior crtica aos mtodos de seleo de variveis, tal como a regresso em
etapas, que o analista pode concluir pela existncia de uma equao melhor de regresso.
Geralmente, esse no o caso, porque vrios modelos igualmente bons podem freqentemente
ser usados. Uma maneira de evitar esse problema usar vrias tcnicas diferentes de construo
do modelo e ver se diferentes modelos resultaram. Se o mesmo modelo for encontrado pelos trs
22
mtodos de seleo de variveis, tem-se uma boa indicao de que o modelo realmente seja a
melhor equao de regresso.
Se o nmero de candidatos a regressor no for grande, o mtodo de todas as regresses
possveis recomendado. Geralmente recomendamos usar os critrios de avaliao de mnimos
valores de MQE, em conjuno com esse procedimento. A abordagem de todas as regresses
possveis pode encontrar a melhor equao de regresso com relao a esses critrios, enquanto
os mtodos tipo etapas no oferecem tal segurana. Alm disso, o procedimento de todas as
regresses possveis no distorcido pelas dependncias entre os regressores como so os
mtodos tipo etapas.
12.5 Multicolinearidade
Em problemas de regresso mltipla, espera-se encontrar dependncias entre a varivel de
resposta Y e os regressores xj. Na maioria dos problemas de regresso, no entanto, encontra-se
que h tambm dependncias entre os regressores xj. Em situaes onde essas dependncias
forem fortes, dizemos que existe multicolinearidade. A multicolinearidade pode ter srios
efeitos nas estimativas dos coeficientes de regresso e na aplicabilidade geral do modelo
estimado.
Algumas indicaes da presena de multicolinearidade so:
1. Valores altos do coeficiente de correlao.
2. Grandes alteraes nas estimativas dos coeficientes de regresso, quando uma varivel
independente for adicionada ou retirada do modelo, ou quando uma observao for
alterada ou eliminada.
3. A rejeio da hiptese Ho: 1 = 2 = ... = k = 0 por meio da realizao do teste F, mas
nenhuma rejeio das hipteses Ho: i = 0, i = 1, 2, ..., k, por meio da realizao dos
testes t sobre os coeficientes individuais de regressso.
4. Obteno de estimativas para os coeficientes de regresso com sinais algbricos
contrrios queles que seriam esperados a partir de conhecimentos tericos
disponveis ou de experincias anteriores sobre o fenmeno estudado.
5. Obteno de intervalos de confiana com elevadas amplitudes para os coeficientes de
regresso, associados a variveis independentes importantes.
Os efeitos de multicolinearidade podem ser facilmente demonstrados. Os elementos da
diagonal da matriz C = (XX)-1 podem ser escritos como
C jj
1
( 1 R 2j )
j = 1, 2, ..., k
(38)
23
FIV ( j )
1
( 1 R 2j )
j = 1, 2, ..., k
(39)
k
j 1
das novas observaes requerer extrapolao alm da regio original do espao x onde os dados
foram coletados, geralmente ento esperaramos obter resultados pobres. Extrapolao requer
geralmente boas estimativas dos parmetros individuais do modelo.
Multicolinearidade aparece devido a vrias razes. Ela ocorrer quando o analista coletar
dados, tal que uma restrio linear se mantenha aproximadamente entre as colunas da matriz X.
Por exemplo, se quatro regressores forem os componentes de uma mistura, ento tal restrio
sempre existir porque a soma dos componentes sempre constante. Geralmente, essas restries
no se mantm exatamente e o analista pode no saber que elas existem.
A presena de multicolinearidade pode ser detectada de vrias maneiras. Duas das mais
fceis de se entender so:
1. Os fatores de inflao da varincia, definidos na Equao (39), so medidas muito
teis de multicolinearidade. Quanto maior for o fator de inflao da varincia, mais
severa ser a multicolinearidade. Alguns autores sugeriram que se qualquer fator de
inflao da varincia exceder 10, ento a multicolinearidade ser um problema.
Outros autores consideram esse valor muito liberal e sugerem que os fatores de
inflao da varincia no devem exceder 4 ou 5.
2. Se o teste F para significncia da regresso for significante, mas os testes para os
coeficientes individuais de regresso no forem significantes, ento a
multicolinearidade pode estar presente.
Vrias medidas tm sido propostas para resolver o problema de multicolinearidade.
Freqentemente, sugere-se aumentar os dados com novas observaes especificamente projetadas
para fragmentar as dependncias lineares aproximadas que existem correntemente. Entretanto,
isso algumas vezes impossvel por causa de razes econmicas ou por causa de restries
fsicas que relacionam o xj. Uma outra possibilidade remover certas variveis do modelo, porm
essa abordagem tem a desvantagem de descartar a informao contida nas variveis removidas.
Uma vez que multicolinearidade afeta principalmente a estabilidade dos coeficientes de
regresso, parece que til estimar esses parmetros por algum mtodo que seja menos sensvel
multicolinearidade do que o mtodo original dos mnimos quadrados. Vrios mtodos foram
sugeridos. Uma alternativa ao mtodo original dos mnimos quadrados, regresso corrigida
(ridge regression), pode ser til no combate multicolinearidade. Ele consiste em fazer uma
transformao dos parmetros estimados, atravs da adio de uma constante equao:
( X ' X I ) c X ' y
(40)
24
,
O valor da constante deve ser tal que a mdia quadrtica do erro do estimador corrigido,
c
seja menor do que a varincia do estimador de mnimos quadrados, . A escolha dessa constante
variaro dramaticamente. Para
no simples; medida que ela cresce, alguns dos parmetros
c
25