Sunteți pe pagina 1din 61

Prof.

Sérgio Ricardo de Brito Gadelha 1

SISTEMA DE EQUAÇÕES LINEARES

1. Definição

Um sistema de equações lineares pode ser definido como um conjunto de n


equações com n variáveis independentes entre si, na forma genérica, como:

na qual aij (i, j = 1, 2, 3, ..., n) são os coeficientes do sistema de equações, xi (i = 1, 2, 3, ...,


n) são as n incógnitas e bi (i = 1, 2, 3, ..., n) os termos independentes.

Observação: Dois sistemas de equações lineares são equivalentes se, e somente se, toda
solução de qualquer um dos sistemas também é solução do outro.

Uma solução de um sistema é uma seqüência de números ( α 1 , α 2 , α 3 ,.........., α n)


que satisfaz as equações simultâneamente.

2. Formulação Matricial
As equações lineares podem ser descritas na forma matricial como [A][x] =
[b], na qual:
Prof. Sérgio Ricardo de Brito Gadelha 2

para o qual:

Matrizes associadas a um sistema linear:

• Matriz Incompleta: é a matriz formada pelos coeficientes das incógnitas.

• Matriz Completa: é a matriz , que obtemos ao acrescentarmos à matriz incompleta uma


última coluna formada pelos termos independentes das equações do sistema.
 a1 1 a1 2 ..... a1n   a1 1 a1 2 ..... a1n b1 
a a2 2 ..... a2 n  a a2 2 ..... a2 n b2 
21 21
A=  B=  
 : : : :  : : : : :
   
 a m1 a m2 ..... a m n  a m1 a m2 ..... a m n bm 
Obs: Podemos dizer que um sistema satisfaz a seguinte equação matricial: A.X=B onde
Prof. Sérgio Ricardo de Brito Gadelha 3

 x1   b1 
 a1 1 a1 2 ..... a1n  x  b 
a a2 2 ..... a2n   2  2
21
A=  X= x3  B =  b3 
: : : :  :  :
 
 am1 am2 ..... am n    
 xn   b m
mxn nx1 = mx1

 a1 1x1 + a1 2 x2 + .....+ a1n xn   b1 


 a x + a x + .....+ a x  b 
21 1 22 2 2n n
  =  2
 :::::::::::::::::::::::::::::::::::::::::::: :
   
 a m1 x1 + a m2 x2 + .....+ a m nxn   bm 

Nesta representação, a solução direta pode ser obtida fazendo-se:

para a qual emprega-se os métodos de inversão de matrizes conforme visto na aula anterior
(ponto 54). O cálculo da matriz inversa pode ser feito através da propriedade da matriz
identidade:
Prof. Sérgio Ricardo de Brito Gadelha 4

Se os coeficientes da matriz inversa [A] são as incógnitas do problema,


-1

então o cálculo desses coeficientes resume-se a encontrar a solução do seguinte sistema de


equações:

Logo, o problema do cálculo de sistemas de equações lineares através do


produto da matriz inversa resulta num problema de cálculo de sistemas de equações
lineares. Há um método direto para a solução de sistemas de equações lineares denominado
método de eliminação gaussiana e outro método, iterativo, chamado método de Gauss-
Seidel. Além desses métodos, inúmeros outros apropriados para cada tipo de sistema de
equações lineares existem, mas que não trataremos neste texto.
Equivalentemente, temos também a seguinte definição

:
isto é, resolveremos sistemas lineares onde o número de equações é igual ao de incógnitas.
É comum também representar o sistema Ax = b pela sua matriz aumentada,
isto é, por:
Prof. Sérgio Ricardo de Brito Gadelha 5

2.1 - Classificação

→uma única solução →Possível e determinado.


Possibilidades →infinitas soluções →Possível e indeterminado.
→não tem solução →Impossível.

Observação:

Sistema possível é sinônimo de sistema compatível.


Sistema possível e indeterminado é sinônimo de sistema singular

Discutir um sistema é classificá-lo em possível e determinado, possível e


indeterminado ou impossível, em função de um parâmetro. Ou seja, devemos determinar
os valores do parâmetro para cada classificação possível. Considerando como parâmetro a
letra “k”, procedemos da seguinte forma:

a) Calculamos o determinante da matriz dos coeficientes Se D = 0 => S.P.I. ou


S.I.
Se D ≠ 0 => S.P.D.

b) Encontramos o valor de K para que o sistema seja possível e determinado.


a) Para determinarmos os valores de K que tornam o sistema possível e indeterminado ou
impossível, substituímos k na matriz ampliada e resolvemos através da forma em
escada.

OBS.: Se a matriz dos coeficientes não for quadrada, não podemos utilizar estes ítens de
desenvolvimento. Assim, um dos métodos para a discussão do sistema, é tentar resolve-lo
pelo método do escalonamento.

Exemplo 1: kx + y = 1 k 1
x + ky = -1 D= 1 k = k2 - 1
Prof. Sérgio Ricardo de Brito Gadelha 6

S.P.D. => K2 – 1 ≠ 0 ... k ≠ ± 1 ;


S.P.I ou S.I. => K2 – 1 = 0 ... K = ± 1

a) Se k=1 ... 1 1 1 ~ 1 1 1 => Sistema Impossível


1 1 1 0 0 -2

b) Se k = -1 => -1 1 1 ~ -1 1 1
1 -1 -1 0 0 0 => S.P.I. ... –x +y = 1 ... y = 1 + x

Resposta:
- Se k ≠ ± 1 = > S.P.D.
- Se k = 1 = > S.I.
- Se k = -1 => S.P.I. e S = {(x, 1 + x); x ∈ ℜ}

Exemplo 2:

ax + y + 2z = b a 1 2 Se –4a + 8 ≠ 0 ∴ a ≠ 2 =>
S.P.D.
2ax – y + 2z = 1 D = 2a -1 2 = -4a + 8
2x + y + 2z = 3 2 1 2

Se a = 2, temos : 2x + y + 2z = b 2x + y + 2z = b
4x – y + 2z = 1 ∼ 0 – 3y – 2z = 1 – 2b
2x + y + 2z = 3 0=3–b

Se b ≠ 3 => S.I. e se b = 3 => S.P.I. 2x +y + 2z = 3


-3y – 2z = -5 ∴ y = 5 – 2z e x = 2 – 2z
0= 0 3 3

Resposta:
Se a ≠ 2 => S.P.D.
Se a = 2 e b = 3 => S.P.I. e S = 2 – 2z , 5 – 2z , z ; Z∈ℜ
Se a = 2 e b ≠ 3 ⇒ S.I 3 3

Exemplos 3:

1º) Sendo ax = b, podemos ter:


a) Se a ≠ 0 ⇒ x = b/a; possível e determinado;
b) Se a = 0 e b = 0 ⇒ ax = 0 e, portanto, ∀ x será solução (indeterminado).
c) Se a = 0 e b ≠ 0 ⇒ 0 . x = b, ∃ x (impossível).

2o) 2x + y = 4
3x – y = 1
Prof. Sérgio Ricardo de Brito Gadelha 7

como o gráfico de cada equação representa uma seta no plano, a solução será a intersecção
entre elas, se existir. Neste caso, a solução é x=1 e y=2.

3o) 4x + 6y = 24 Retas paralelas, não se interceptam. Sistema impossível.


10x + 15 y = 15 Note que det. A = 0.

4o) 5x + 10y = 15 Retas coincidentes => infinitas soluções => sistema indeterminado.
x + 2y = 3 Note que det A = 0.

2.2 - Sistema homogêneo

É o sistema que possui todos os termos independentes NULOS. Todo sistema


homogêneo admite solução. Logo, se b1 = b2 = ... = bn = 0, o sistema é chamado de sistema
linear homogêneo. Neste caso, uma solução será sempre a n-upla (0, 0, ..., 0).

a11 x1 + a12 x2 + a13 x3 +  + a1n xn = 0


a x + a22 x2 + a23 x3 +  + a 2 n xn = 0


21 1

 31 x1
a + a32 x2 + a33 x3 +  + a3n xn = 0
      = 


an1 x1 + an 2 x2 + an3 x3 +  ann xn = 0

Possível e determinado : S = {(0, 0, ..., 0)} -> SOLUÇÃO TRIVIAL


Classificação Possível e indeterminado : possui infinitas soluções (além de S = {(0, 0, ..., 0)} ).

Ex.: 1) x + 2y + z = 0 S.P.D. 2) x+2y+ z = 0 D = 0 => S.P.I.


2x+5y+4z = 0 S = {(0,0,0)} 2x-y-4z = 0
x+4y+6z = 0 x+3y-2z = 0 S= {(2z, 0, z) }

Um sistema linear homogêneo é sempre possível . Resolver um sistema linear é obter o


valor do vetor x. Os métodos de resolução de equações lineares são classificados em dois
grupos:

• Métodos Diretos – permitem a solução de um sistema linear através da realização de


um número finito de operações sobre o sistema;

• Métodos Iterativos – permitem calcular uma seqüência de aproximações para os


valores de x até que uma precisão pré-estabelecida seja alcançada.
Prof. Sérgio Ricardo de Brito Gadelha 8

2.3 - Sistema Normal

Quando o número de equações for o mesmo do número de incógnitas e o


determinante da matriz incompleta associado ao sistema for diferente de zero, diremos que
um sistema é normal.

2.4 Sistemas Equivalentes

Dois sistemas são equivalentes quando possuem a mesma solução.

x+ y= 3 x+ y= 3
Exemplo  
 2 x + 3y = 8  x + 2y = 5
Estes sistemas são equivalentes pois ambos possuem como solução o par (1,
2).

Propriedades dos sistemas equivalentes

1) Trocando de posição as equações de um sistemas, obtemos um outro equivalente ao


primeiro.
2) Multiplicando uma ou mais equações de um sistemas por um número k ∈ ℜ*, obtemos
um sistema equivalente ao primeiro.
3) Adicionando a uma das equações de um sistema o produto de outra equação, desse
mesmo sistema, por um número k ∈ ℜ*,obtemos uma sistema equivalente ao primeiro.
Prof. Sérgio Ricardo de Brito Gadelha 9

Exemplo

 x + 2y = 4  x + 2y = 4  x + 2y = 4
 ⇒ ⇒ 
 x − y = 1 (x − )1  − x + y = − 1  3y = 3
↑ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _↑ _ _ _ _ _ _ _ _ _
E Q U E I SV A L E N T
2.5 Sistemas Escalonados

Dizemos que um sistema está escalonado se o número de coeficientes nulos antes do


primeiro coeficiente não nulo aumenta de equação para equação.
Procedimento para escalonar um sistema:

1. Colocamos como primeira equação aquela em que o coeficiente da primeira incógnita


seja diferente de zero e fazemos este coeficiente igual a 1.

2. Utilizamos as propriedades de sistemas equivalentes, anulamos todos os coeficientes da


primeira incógnita das demais equações.

3. Anulamos todos os coeficientes da segunda incógnita a partir da terceira equação.

4. Repetimos o processo com as demais incógnitas até que o sistema se torne escalonado.

3. Métodos Diretos

Os métodos diretos baseiam-se em manipulações da matriz aumentada.

3.1 Sistemas Triangulares


Prof. Sérgio Ricardo de Brito Gadelha 10

3.1.1 Sistema Triangular Superior

Uma matriz Anxn é chamada de triangular superior quando aij = 0; i > j.


Denomina-se sistema triangular superior a todo sistema Ax = b em que aij = 0 ∀j < i, ou
seja, um sistemas da forma:

Estes sistemas podem ser representados por uma matriz aumentada,

Tais sistemas são resolvidos por substituições retroativas (reversas), através de


equações da forma:
Prof. Sérgio Ricardo de Brito Gadelha 11

3.1.2 Sistema Triangular Inferior

Denomina-se sistema triangular inferior a todo sistema Ax = b onde aij = 0


∀j > i, ou seja, a sistemas da forma:

Tais sistemas são resolvidos por substituições progressivas através de


equações da forma:

3.2 Método da Eliminação Gaussiana

Considere o sistema de equações representado matricialmente por [A][x] =


[b]. O Método da Eliminação de Gauss consiste basicamente em transformar a matriz de A
num sistema triangular equivalente, através da aplicação repetida de dois tipos de
operações:

1. Permutação entre duas linhas;


2. Subtração de uma linha por outra multiplicada por uma constante.
Prof. Sérgio Ricardo de Brito Gadelha 12

Essas operações produzem sistemas equivalentes aos originais; enquanto a


operação 2 não altera o determinante da matriz de coeficientes, a operação 1 apenas inverte
o seu sinal. A análise de propagação de erros de arredondamento indica a conveniência de
todos os multiplicadores serem menores do que 1 em valor absoluto. A esse procedimento
dá-se o nome de pivoteamento.

3.1 Descrição do algoritmo com pivoteamento

Considere um sistema constituído de quatro equações e quatro incógnitas:

Seja [A] a matriz de coeficientes, [A]+ a matriz aumentada pelos termos


independentes e o sistema na forma matricial descrito por [A][x] = [b], no qual:

Os seguintes passos descrevem o procedimento para a triangularização da


matriz [A]:

1o Passo: Calcular p1 = máx{|a11|, |a21|, |a31|, |a41|}. Certamente p1 ≠ 0, pois caso contrário |
A| = 0 e o sistema não teria solução única. Caso p1 ≠ |a11|, permutar a 1a linha pela linha
que contém p1.

2º Passo: Definir um multiplicador para cada linha:


Prof. Sérgio Ricardo de Brito Gadelha 13

3º Passo: Subtrair o produto do multiplicador pela 1ª linha da 2ª, da 3ª e da 4ª linha:

• 2ª Linha

• 3ª Linha:
Prof. Sérgio Ricardo de Brito Gadelha 14

• 4ª Linha:

Após estes passos, a matriz aumentada fica da seguinte forma:

Repetindo os passos de 1 a 3 para a coluna 2:


Prof. Sérgio Ricardo de Brito Gadelha 15

1º Passo: Calcular p2 = máx {|a’22|,|a’32|,|a’42|}. Novamente p2 ≠ 0, senão |A| = 0. Caso p2


≠ |a21|, permutar a 2ª linha pela linha que contém p2.

2º Passo: Definir um multiplicador para cada linha:

3º Passo: Subtrair o produto do multiplicador pela 2ª linha da 3ª e da 4ª linha:

• 3ª Linha:

• 4ª Linha:

A matriz aumentada agora tem a forma:


Prof. Sérgio Ricardo de Brito Gadelha 16

Repetindo os passos 1 a 3 para as duas últimas linhas:

1º Passo: Calcular p3 = máx {|a”33|,|a”43|}. Novamente p3 ≠ 0, senão |A| = 0. Caso p3 ≠ |


a31|, permutar a 3ª linha pela 4ª linha.

2º Passo: Definir um multiplicador para a 4ª linha:

3º Passo: Subtrair o produto do multiplicador pela 3ª linha da 4ª linha:

• 4ª Linha:

A matriz aumentada toma a forma final:

Re-escrevendo a matriz [A]+ triangularizada sem as linhas nos expoentes dos coeficientes aij
e bj de modo a tornar mais clara as equações:
Prof. Sérgio Ricardo de Brito Gadelha 17

observando que os coeficientes aij e bj da matriz triangularizada acima não são os mesmos
coeficientes da matriz [A]+ original.

Resolvemos o sistema por recorrência através da fórmula:

O determinante da matriz de coeficientes [A] é calculado a partir do produto dos


coeficientes aii da diagonal principal:

Exemplo: Resolver o seguinte sistema de equações lineares pelo método de eliminação de


Gauss sem pivotamento adotando operações aritméticas com 4 (quatro) dígitos
significativos e arredondamento ponderado.

 − 0.4 2 x11 + 0.7 8 x42 + 0.2 7 x93 = 0



 0.4 4 x81 + 0.8 3 x22 + 0.1 9 x33 = 1
 0.4 2 x1 + 0.7 8 x4 − 0.2 0 7x = 0
 1 2 3

Na forma matricial tem-se

− 0.421 0.784 0.279   x1  0


 0.448 0.832 0.193   x 2  = 1

 0.421 0.784 − 0.207   x 3  0
Prof. Sérgio Ricardo de Brito Gadelha 18

1º). Geração da matriz expandida:

−0.421 0.784 0.279  0


 0.448 0.832 0.193  1 
 
 0.421
 0.784 −0.207  0

2º). Triangularização correspondente a primeira coluna (k = 1):

k=1

( −0.421 ) 0.784 0.279  0


 0.448 0.193  1 
 0.832  L 2 ←L 2 − 0.448 /( −0.421 )L1 ⇒L 2 ←L 2 +1.064 L1

 0.421 0.784 − 0.207  0
 L3 ←L 3 − 0.421 /( −0.421 ) L1 ⇒L3 ←L3 + L1

−0.421 0.784 0.279  0


 0 1.666 0.4899  1
 

 0 1.568 0.0720  0

3º). Triangularização correspondente a segunda coluna (k = 2):

k=2

− 0.421 0.784 0.279  0


 0 (1.666 ) 0.4899  1 
 

 0 1.568 0.0720  0 L 3 ←L 3 − (1.568 / 1.666 ) L 2 ⇒L 3 ←L3 − 0.9412 L 2

−0.421 0.784 0.279  0 


 0 1.666 0.4899  1 
 

 0 0 −0.3891  - 0.9412 

4º). Processo de retrosubstituição sucessiva:

Após a triangularização analisa-se o sistema de equações equivalente, gerado a


partir do processo de eliminação empregado:

− 0.421 x 1 + 0.784 x 2 + 0.279 x 3 = 0



0 x 1 + 1.666 x 2 + 0.4899 x 3 = 1
0 x + 0 x − 0.3891 x = - 0.9412
 1 2 3
Prof. Sérgio Ricardo de Brito Gadelha 19

Obs.: Note-se que o valor de x3 pode ser diretamente obtido a partir da equação 3, uma vez
que esta equação independe de x1 e x2. Posteriormente os valores de x2 e x1 são obtidos das
equações 2 e 1, respectivamente.

x3 = -0.9412/(-0.3891) x3 = 2.419

x2 = ( 1 – 0.4899x3 ) / 1.666 x2 = -0.1110

x1 = ( - 0.784x2 – 0.279 x3 ) /(-0.421) x1 = 1.396

Portanto, a solução do sistema correspondente ao exemplo 1 é:

S = { 1.396, -0.1110, 2.419}

O Método de Gauss com Pivotação Parcial

Exemplo: Resolver o seguinte sistema de equações lineares pelo método de eliminação de


Gauss com pivotamento parcial utilizando operações aritméticas com 4 (quatro) dígitos
significativos e arredondamento ponderado.

 − 0.4 2 x11 + 0.7 8 x42 + 0.2 7 x93 = 0



 0.4 4 x81 + 0.8 3 x2 2 + 0.1 9 x33 = 1
 0.4 2 x1 + 0.7 8 x4 − 0.2 0 x7 = 0
 1 2 3

Na forma matricial tem-se

− 0.421 0.784 0.279   x1  0


 0.448 0.832 0.193   x 2  = 1

 0.421 0.784 − 0.207   x 3  0

1º). Geração da matriz expandida:


Prof. Sérgio Ricardo de Brito Gadelha 20

−0.421 0.784 0.279  0


 0.448 0.832 0.193  1 
 

 0.421 0.784 −0.207  0

2º). Pivotação parcial, correspondente ao primeiro pivô (k=1):

(i). Busca do maior elemento em módulo da coluna k = 1:

k=1
i = 2
−0.421 0.784 0.279  0 (maior módulo da coluna k=1 está na linha i = 2).
(0.448 ) 0.832 0.193  1
 

 0.421 0.784 −0.207  0

(ii). troca de linhas:

− 0,421 0.784 0.279  0 L1 ← L 2


 ( 0.448) 0.832 0.193  1 L ← L
  2 1 (Troca da linha L1 com L2 e
 0.421 0.784 − 0.207  0
vice-versa)

(iii). Matriz pivotada:

(0.448 ) 0.832 0.193 1


− 0.421 0.784 0.279 0
 
 0.421
 0.784 − 0.207 0

3º). Processo de triangularização, correspondente ao primeiro pivô (k=1):

(0.448 ) 0.832 0.193 1


− 0.421 0.279 0
 0.784  L 2 ←L 2 − ( −0.421 / 0.448 )L 1 ⇒L 2 ←L 2 + 0.9397 L1

 0.421 0.784  L 3 ←L 3 − (0.421 / 0.448 )L 1 ⇒ L3 ←L3 − 0.9397 L1
− 0.207 0

(0.448 ) 0.832 0.193  


1
 0 1.566 0.4604  0.9397 
 

 0 0.0022 − 0.3884 - 0.9397 

Obs.: Note que as operações elementares aplicadas acima eliminam os elementos abaixo da
diagonal principal na primeira coluna. A operação de eliminação acontece sempre que
Prof. Sérgio Ricardo de Brito Gadelha 21

subtrai-se de cada linha, a linha do pivô multiplicada pelo elemento a ser eliminado divida
pelo elemento pivô.

4º). Pivotação Parcial, correspondente ao segundo pivô (k=2):

(i). Busca parcial do maior módulo da coluna k = 2 (busca a partir da segunda linha
e da segunda coluna, pois a primeira coluna já foi anulada)

K=2

 0.4 4 8 0.8 3 2 0.1 9 3  1  (maior módulo da coluna k=2 já está na linha


 0 (1.5 6 6) 0.4 6 0 4  0 .9 3 97 i = 2).
 
 0 0.0 0 2 2 − 0.3 8 8 4 - 0 .9 3 9 7
(ii). Não é necessário a troca de linhas, pois a matriz já está pivotada.

5º). Processo de triangularização, correspondente ao segundo pivô (k=2):

 0.4 4 8 0.8 3 2 0.1 9 3  1 


 0 (1.5 6 )6 0.4 6 0 4 0 .9 3 9 7
 
 0 0.0 0 2 2 − 0.3 8 8 4 - 0 .9 3 9 L7 3 ← L 3 − (0.0 0 2 /21.5 6 )6L 2 ⇒ L3 − 0.0 0 1 4 L0 25
0.448 0.832 0.193  1 
 0 1.566 0.4604  0.9397 
 

 0 0 − 0.3890  - 0.9410 

6º). Processo de retrosubstituição sucessiva:

Primeiramente analisa-se o sistema de equações equivalente, gerado a partir do


processo de eliminação empregado:


 0.448x1 + 0.832x 2 + 0.193x3 = 1

 0 x1 + 1.566x 2 + 0.4604x3 = 0.9397
 0 x + 0 x − 0.3890x = - 0.9410
 1 2 3

Obs.: Note-se que o valor de x3 pode ser diretamente obtido a partir da equação 3, e
posteriormente x2 e x1 a partir dos valores obtidos anteriormente.
Prof. Sérgio Ricardo de Brito Gadelha 22

x3 = -0.9410/ (-0.3890) x3 = 2.419

x2 = ( 0.9397 – 0.4606x3 ) / 1.566 x2 = -0.1113

x1 = ( 1 – 0.832 x2 – 0.193 x3 ) /0.448 x1 = 1.397

Portanto a solução do sistema dado no exemplo 2 é:

S = { 1.397, -0.1113, 2.419}

Os resíduos ( r = | b - A x | ):

r1 =| - 0.421x 1 + 0.784 x 2 + 0.279 x 3 − 0 | = 0.0005


r2 = | 0.448x 1 + 0.832x 2 + 0.193 x 3 −1 | = 0.0002
r3 = | 0.421x 1 + 0.784x 2 − 0.207 x 3 − 0 | = 0.0001

Obs.: Note que com o processo de pivotamento parcial:


• Eliminam-se os possíveis pivôs nulos, caso a matriz de coeficientes seja não
singular (determinante diferente de zero);
• Também consegue-se uma redução nos efeitos de erros de arredondamento
(diminuição da perda de significação), destacada na avaliação do erro exato.

O Método de Gauss com Pivotação Completa

Alternativamente, pode-se implementar o método de eliminação de Gauss usando a


pivotação total, que é computacionalmente mais eficiente, induzindo um menor erro de
arredondamento acumulado, de forma a se obter soluções computacionalmente mais
estáveis em relação às perturbações introduzidas por erros de arredondamento. No
pivotamento total, ou completo, procura-se o elemento de maior módulo dentre todos os
elementos disponíveis na matriz de coeficientes, promovendo trocas de linhas e/ou colunas
conforme a necessidade. Para avaliar as conseqüências destas trocas de linhas e colunas
deve-se interpretar os elementos da matriz expandida em termos das equações do sistema,
assim:

Troca de linhas implica apenas em trocar a ordem na apresentação das equações;


Troca de colunas implica na troca da ordem de apresentação das variáveis
(incógnitas) do sistema.
Prof. Sérgio Ricardo de Brito Gadelha 23

Exemplo 3: Resolver o seguinte sistema de equações lineares, usando a pivotação total e


operações aritméticas com 4 (quatro) dígitos significativos e arredondamento ponderado.

 − 0.4 2 x11 + 0.7 8 x42 + 0.2 7 x93 = 0



 0.4 4 x81 + 0.8 3 x22 + 0.1 9 x33 = 1
 0.4 2 x1 + 0.7 8 x4 − 0.2 0 x7 = 0
 1 2 3

Na forma matricial tem-se

− 0.421 0.784 0.279   x1  0


 0.448 0.832 0.193   x 2  = 1

 0.421 0.784 − 0.207   x 3  0

1º). Geração da matriz expandida:

−0.421 0.784 0.279 0


 0.448 0.832 0.193  1 
 

 0.421 0.784 −0.207  0

2º). Pivotação total, correspondente ao primeiro pivô (k=1):

(i). Busca do maior módulo dentre todos os elementos da matriz:

(o elemento de maior módulo está na coluna j = 2


e na linha i = 2).
Prof. Sérgio Ricardo de Brito Gadelha 24

j= 2
 − 0.421 0.784 0.279  0
i = 2  0.448 (0.832) 0.193  1
 0.421 0.784 − 0.207  0
1 2 3

Obs.: Observa-se que foi acoplada uma linha adicional na matriz de coeficientes para o
armazenamento da ordem de apresentação das variáveis envolvidas. Então, inicialmente
tem-se a ordem natural das variáveis x1, x2 e x3, cujos coeficientes multiplicadores são,
respectivamente, os elementos da primeira, segunda e terceira colunas.

(ii). Efetua-se a troca de linhas e colunas:

 − 0.421 0.784 0.279  0 L1 ← L 2


(Troca da linha L1 com a linha L2 e vice-versa, e
 0.448  ← L1dos elementos da coluna 1 com os elementos
0.832 0.193  1 L 2 troca
 da coluna 2 e vice-versa).
 0.421 0.784 − 0.207  0
1 2 3
C1 C2
↑ ↑
C2 C1

(iii). Matriz pivotada:

(0.832 ) 0.448 0.193  1


 0.784 −0.421 0.279  0
 

 0.784 0.421 −0.207  0

2 1 3

Obs.: Note no processo de pivotamento total, a ordem de apresentação das variáveis xi


envolvidas podem ser alteradas.

3º). Processo de triangularização, correspondente ao primeiro pivô (k=1):


Prof. Sérgio Ricardo de Brito Gadelha 25

 (0.832) 0.448 0.193  1


 0.784 − 0.421 0.279  0 L ← L − (0.784/ 0.832) L ⇒ L 2 ← L 2 − 0.9423L1
  2 2 1

 0.784 0.421 − 0.207  0 L 3 ← L 3 − (0.784/ 0.832)L1 ⇒ L3 ← L3 − 0.9423L1


2 1 3

(0.832 ) 0.448 0.193  1 


 0 − 0.8432 0.097  - 0.9423 
 
 0
 − 0.0012 
− 0.3839  - 0.9423 
2 1 3

4º). Pivotação total, correspondente ao segundo pivô (k=2):

(i). Busca do maior módulo dentre os elementos da matriz, a partir da segunda linha
e segunda coluna.

j= 2
 0.832 0.448 0.193  1  (Elemento de maior módulo localizado na coluna
i = 2  0 (− 0.8432) 0.0971  - 0.9423 j=2 e linha i=2).
 0 − 0.0012 − 0.3889 - 0.9423
2 1 3

(ii). Não há troca de linhas e colunas, a matriz já está naturalmente pivotada:

5º). Processo de triangularização, correspondente ao segundo pivô (k=2):

0.832 0.448 0.193  1


 0 (−0.8432 ) 0.0971  - 0.9423 
 

 0 − 0.0012 − 0.3889  - 0.9423 
 L 3 ← L 3 − (−0.0012 / − 0.8432 )L 2 ⇒ L 3 ← L3 − 0.001423 L 2

0.832 0.448 0.193  1 


 0 ( −0.8432 ) 0.0971  - 0.9423 
 

 0 0 −0.3890  - 0.9410 

2 1 3

6º). Retrosubstituição:
Prof. Sérgio Ricardo de Brito Gadelha 26

0.832 0.448 0.193  1 


 0 ( −0.8432 ) 0.0971  - 0.9423 
 

 0 0 −0.3890  - 0.9410 

2 1 3
Retornando a forma matricial (note a nova ordem das variáveis):

0.832 x 2 + 0.448 x1 + 0.193 x3 = 1



0 x 2 − 0.8432 x1 + 0.0971 x3 = − 0.9423
0 x + 0 x − 0.3890 x = - 0.9410
 2 1 3

x3 = -0.9410/ -0.3890 x3 = 2.419

x1 = ( -0.9423 – 0.0971x3 ) / -0.8432 x1 = 1.396

x2 = ( 1 – 0.448 x1 – 0.193 x3 ) /0.832 x2 = - 0.1106

S = {1.396,-0.1106, 2.419}

Os resíduos ( r = | b - A x | ) são:

r1 = | - 0.421x 1 + 0.784 x 2 + 0.279 x 3 − 0 | = 0.0005


r2 = | 0.448x 1 + 0.832x 2 + 0.193 x 3 −1 | = 0.0003
r3 = | 0.421x 1 + 0.784x 2 − 0.207 x 3 − 0 | = 0.0003

3.3 Método da Decomposição LU (CROUT)


Prof. Sérgio Ricardo de Brito Gadelha 27

As matrizes envolvidas têm a forma :

e
Prof. Sérgio Ricardo de Brito Gadelha 28

Vamos considerar a matriz aumentada [A|b],


Prof. Sérgio Ricardo de Brito Gadelha 29

Aplicando o algoritmo ao sistema, teremos :

A matriz aumentada, [A|b], é:

Os resultados obtidos são mostrados na tabela :

Exemplo: Resolver o sistema abaixo pelo Método de Crout, sem estratégia de pivotamento,
usando 4 dígitos significativos e arredondamento ponderado.

0.448 x1 + 0.832 x 2 + 0.193 x 3 = 1



0.421 x1 + 0.784 x 2 − 0.207 x 3 = 0
− 0.421 x + 0.784 x + 0.279 x = 0
 1 2 3
Prof. Sérgio Ricardo de Brito Gadelha 30

Armazenam-se os valores de b i em a i 4 e c i em u i 4 e a matriz decomposta L e


U na própria área de memória de A.

 a1 1 a1 2 a1 3  a1 4
 
 a2 1 a2 2 a2 3  a2 4
após a decomposição LU ⇒

 a3 1 a3 2 a3 3  a3 4
 l1 1 u1 2 u1 3  u1 4
 
 l2 1 l2 2 u2 2  u2 4
 l3 1 l3 2 l3 3  u3 4
1º). Geração da matriz expandida:

 0.448 0.832 0.193  1


 0.421 0.784 −0.207  0
 

−0.421 0.784 0.279  0

2º). Decomposição LU (Método de Crout), correspondente ao processo com o primeiro


pivô (k = 1):

Adota-se aqui a seguinte legenda:


- Representação em Negrito: para valores da matriz decomposta L e U.
- Representação normal: para valores da matriz expandida original A | b.

(i). Definição da primeira coluna k = 1 da matriz L - li1:(i=1,2,3).


Prof. Sérgio Ricardo de Brito Gadelha 31

 0.448 0.832 0.193 1


 0.421 0.784 - 0.207 0
 

− 0.421 0.784 0.279 0
C1

C1

(ii). Como não existe pivotamento, o pivô já está determinado:

(0.448) 0.832 0.193 1


 0.421 0.784 − 0.207 0
 

− 0.421 0.784 0.279 0

(iii). Definição da primeira linha k = 1 da matriz U - u1j: (j=2,3,4)

(0.448) 1.857 0.4308 2.232 L1 ← L1 / l11


 0.421 0.784 − 0.207  0 
 
 - 0.421 0.784 0.279  0 

5º). Decomposição LU, correspondente ao processo com o segundo pivô (k = 2):

(i). Definição da coluna k = 2 da matriz L - li2: (i = 2,3)


 0.448 1.857 0.4308 2.232 
 0.421 0.784 − 0.207  0 
 

- 0.421 0.784 0.279  0 

C2

C 2 − l i1u12

 0.448 1.857 0.4308 2.232 


 0.421 0.0022 − 0.207  0 
 

- 0.421 1.566 0.279  0  

(ii). Sem pivotamento.

(iii). Definição da linha k = 2 da matriz U - u2j: (j = 3,4)

 0.448 1.857 0.4308 2.232


 0.421 (0.0022) − 0.207  0  L ← ( L − l u ) / l
  2 2 21 1 j 22

- 0.421 1.566 0.279  0 


Prof. Sérgio Ricardo de Brito Gadelha 32

 0.448 1.857 0.4308  2.232 


 0.421 (0.0022) −176.5 − 427.1 
 
- 0.421
 1.566 0.279  0 

6º). Decomposição LU, correspondente ao processo com o terceiro pivô (k = 3):

(i). Definição da coluna k = 3 da matriz L - li3: (i = 3)

 0.448 1.857 0.4308 


 2.232
 0.421 0.0022 −176.5 − 427.1 
 

- 0.421 1.566 0.279  0 

C3

C 3 −l 31 u 31 −l 32 u 23

 0.448 1.857 0.4308  2.232 


 0.421 0.0022 −176.5 − 427.1 
 

- 0.421 1.566 276.9  0 

(ii) Não há pivotamento.

(iii). Definição da linha k = 3 da matriz U - u3j: (j = 4)

 0.448 1.857 0.4308  2.232 


 0.421 0.0022 - 176.5 - 427.1 
 

- 0.421 1.566 (276.9)  0   L3 ←( L3 − l 31 u14 − l 32 u 24 ) / l 33

 0.448 1.857 0.4308  2.232 


 0.421 0.0022 - 176.5 - 427.1 
 

- 0.421 1.566 276.9  2.419  

7º). Processo de retrosubstituição sucessiva:

Deve-se observar que o vetor de termos independentes b já foi transformado no


vetor c do sistema L.c = b, simultaneamente ao processo de decomposição.
Então, extraindo da decomposição LU a matriz triangular superior U, com diagonal
principal unitária, pode-se recuperar o sistema de equações equivalente U x = c, gerado a
partir do processo de decomposição LU empregado, da seguinte forma:
Prof. Sérgio Ricardo de Brito Gadelha 33

1x1 + 1.857 x 2 + 0.4308 x 3 = 2.232



0 x1 + 1x 2 − 176 .5 x3 = −427 .1
0 x + 0 x + 1x = 2.419
 1 2 3

Agora é só aplicar o processo de retrosubstituição sucessiva:

x3 = 2.419 x3 = 2.419
x2 = ( -427.1 + 176.5 x3 ) (-427.1+427.0) x2 = -0.1000

x1 = ( 2.232 - 1.857 x2 - 0.4308 x3 ) (2.232+0.1857-1.042) x1 = 1.376

A solução obtida é

S = { 1.376, -0.1000, 2.419}

Os resíduos ( r = | b - A x | ) de cada uma das equações do sistema linear proposto


são os seguintes:

r1 = | 0.448 x1 + 0.832 x 2 + 0.193 x 3 −1 | = 0.0001


r2 = | 0.421 x1 + 0.784 x 2 − 0.207 x 3 − 0 | = 0.0002
r3 = | - 0.421 x1 + 0.784 x 2 + 0.279 x 3 − 0 | = 0.0172

Neste caso, também pode ser calculado o erro exato, dado por
erro = | Xexato - Xaproximado |. A solução exata foi encontrada através do MATLAB, e foi obtida
com 16 dígitos significativos. Vamos avaliar o erro utilizando também a precisão de 4
dígitos significativos, que foi utilizada até aqui em todas as operações. Então:

Xexato1 = 1.396
Xexato2 = - 0.1111
Xexato3 = 2.419

E o erro exato obtido foi:

Erro1 = | 1.396 - 1.376 | = 0.0020


Erro2 = | -0.1111 - (-0.1000) | = 0.0111
Erro3 = | 2.419 - 2.419 | = 0.0000

Exemplo: Resolver o sistema anterior pelo Método de Crout, com pivotamento parcial,
usando 4 dígitos significativos e arredondamento ponderado.
Prof. Sérgio Ricardo de Brito Gadelha 34

0.448 x1 + 0.832 x 2 + 0.193 x 3 = 1



0.421 x1 + 0.784 x 2 − 0.207 x 3 = 0
− 0.421 x + 0.784 x + 0.279 x = 0
 1 2 3

1º). Geração da matriz expandida:

 0.448 0.832 0.193  1 


 0.421 0.784 −0.207  0
 

−0.421 0.784 0.279  0

2º). Decomposição LU (Método de Crout), correspondente ao processo com o primeiro


pivô (k = 1):

(i). Definição da primeira coluna k = 1 da matriz L - li1:(i=1,2,3).

 0.448 0.832 0.193 1 


 0.421 0.784 - 0.207 0
 
− 0.421
 0.784 0.279 0
C1

C1

(ii). Pivotação parcial, correspondente ao primeiro pivô (k=1):

A matriz já se encontra pivotada (vide Ex. 1):

(0.448) 0.832 0.193 1


 0.421 0.784 − 0.207 0
 

− 0.421 0.784 0.279 0

(iii). Definição da primeira linha k = 1 da matriz U - u1j: (j=2,3,4)

(0.448) 1.857 0.4308 2.232 L1 ← L1 / l11


 0.421 0.784 − 0.207  0 
 
 - 0.421 0.784 0.279  0 
Prof. Sérgio Ricardo de Brito Gadelha 35

5º). Decomposição LU, correspondente ao processo com o segundo pivô (k = 2):

(i). Definição da coluna k = 2 da matriz L - li2: (i = 2,3)

 0.448 1.857 0.4308 2.232 


 0.421 0.784 − 0.207  0 
 
- 0.421
 0.784 0.279  0 

C2

C 2 − l i1u12

 0.448 1.857 0.4308 2.232 


 0.421 0.0022 − 0.207  0 
 
- 0.421
 1.566 0.279  0  

(ii). Pivotação Parcial, correspondente ao segundo pivô (k=2):

(ii)-a). Busca parcial do maior módulo da coluna k = 2 (busca a partir da segunda


linha):

 0.448 1.857 0.4308 2.232 


 0.421 0.0022 − 0.207  0 
 

- 0.421 (1.566) 0.279  0 

(ii)-b) troca de linhas.

 0.448 1.857 0.4308 2.232 


- 0.421 (1.566) 0.279  0  L 2 ←L 3
 
 0.421
 0.0022 0.207  0  L3 ←L 2

(iii). Definição da linha k = 2 da matriz U - u2j: (j = 3,4)

 0.448 1.857 0.4308 2.232


 − 0.421 (1.566) 0.279  0  L ← ( L − l u ) / l
  2 2 21 1 j 22

 0.421 0.0022 − 0.207  0 

 0.448 1.857 0.4308  2.232 


− 0.421 (1.566) 0.2940 0.6001 
 
 0.421
 0.0022 − 0.207  0  

6º). Decomposição LU, correspondente ao processo com o terceiro pivô (k = 3):


Prof. Sérgio Ricardo de Brito Gadelha 36

(i). Definição da coluna k = 3 da matriz L - li3: (i = 3)


 0.448 1.857 0.4308  2.232 
− 0.421 1.566 0.2940 0.6001 
 
 0.421
 0.0022 − 0.207  0 

C3

C 3 − l 31 u13 − l 32 u 23

 0.448 1.857 0.4308  2.232 


− 0.421 1.566 0.2940 0.6001 
 

 0.421 0.0022 − 0.3890  0  

(ii) Não há pivotamento, pois é a última linha.

(iii). Definição da linha k = 3 da matriz U - u3j: (j = 4)

 0.448 1.857 0.4308  2.232 


− 0.421 1.566 0.2938 0.6001 
 

 0.421 0.0022 (−0.3890)  0 
 L3 ←( L3 − l 31 u14 − l 32 u 24 ) / l 33

 0.448 1.857 0.4308  2.232 


− 0.421 1.566 0.2940 0.6001 
 

 0.421 0.0022 − 0.3890  2.419 

7º). Processo de retrosubstituição sucessiva:

1x1 + 1.857 x 2 + 0.4308 x 3 = 2.232



0 x1 + 1x 2 + 0.2940 x3 = 0.6001
0 x + 0 x + 1x 3 = 2.419
 1 2

Agora é só aplicar o processo de retrosubstituição sucessiva:

x3 = 2.419 x3 = 2.419
x2 = ( 0.6001 - 0.2940 x3 ) (0.6001-0.7112) x2 = - 0.1111
x1 = ( 2.232 - 1.857 x2 - 0.4308 x3 ) (2.232+0.2063-1.042) x1 = 1.396

A solução arredondada obtida é :

S = { 1.396, -0.1111, 2.419}

Os resíduos ( r = | b - A x | ) de cada uma das equações do sistema linear proposto


são os seguintes:
Prof. Sérgio Ricardo de Brito Gadelha 37

r1 = | 0.448 x1 + 0.832 x 2 + 0.193 x 3 −1 | = 0.0002


r2 = | 0.421 x1 + 0.784 x 2 − 0.207 x 3 − 0 | = 0.0001
r3 = | - 0.421 x1 + 0.784 x 2 + 0.279 x 3 − 0 | = 0.0001

Cálculo do erro: erro = | Xexato - Xaproximado |.

Xexato1 = 1.396
Xexato2 = - 0.1111
Xexato3 = 2.419

E o erro exato obtido foi:

Erro1 = | 1.396 - 1.396 | = 0.0000


Erro2 = | -0.1111 - (-0.1111) | = 0.0000
Erro3 = | 2.419 - 2.419 | = 0.0000

3.4 Método de Gauss-Jordan


Consiste na transformação da matriz expandida em matriz diagonal
(normalizada com coeficientes unitários), que é equivalente a matriz identidade. Esta
transformação é obtida através da aplicação sucessiva de operações elementares sobre
linhas (ou sobre colunas), buscando a eliminação seletiva dos elementos não nulos externos
a diagonal principal. Também pode-se associar este método a um processo de pivotamento,
parcial ou total.

Ex. 3): Resolver o seguinte sistema de equações lineares usando o método de Gauss-Jordan
com pivotamento parcial:

 3x 1 + 15. x 2 + 4.7 5x 3 = 8

 4x 1 + 2x 2 + 3x 3 = 7
 2x + 5x + 3x = − 1 2
 1 2 3

adota-se também, operações aritméticas com 4 (quatro) dígitos significativos e


arredondamento ponderado.

Na forma matricial tem-se


Prof. Sérgio Ricardo de Brito Gadelha 38

3 15
. 4.75  x 1   8 
    
4 2 3  x 2  =  7 
2 5 3   x 3  − 12 

1º). Geração da matriz expandida:

3 15
. 4.75  8 
 
4 2 3  7 

2 5 3  - 12 

2º). Pivotação parcial, correspondente ao primeiro pivô (k = 1):

(i). Busca do maior módulo da coluna k = 1

k=1
3 15
. 4.75  8 
  (o elemento de maior módulo está na linha i = 2).
i=2 ( 4) 2 3  7 

2 5 3  - 12 

(ii). troca de linhas:

 3 15. 4.75  8  L 1 ← L 2

( 4) 2 3  7  L 2 ← L1 (Troca da linha L1 com a linha L2 e vice-versa)
 2 5 3  - 12

(iii). Matriz pivotada:

( 4) 2 3 7 

 
3 15
. 4.75  8 

2 5 3  - 12 

Obs.: Note que até aqui tem-se um processo idêntico a eliminação de Gauss.

3º). Processo de normalização do primeiro pivô (k=1):

 ( 4) 2 3  7  L1 ← L1 / 4
 
 3 15 . 4.75  8 
 2 5 3  - 12
Prof. Sérgio Ricardo de Brito Gadelha 39

1 0.5 0.75  1.75 


 
3 15
. 4.75  8 

2 5 3  - 12 

4º). Processo de diagonalização, correspondente ao primeiro pivô (k = 1):

1 0.5 0.75  1.75 


 
3 15
. 4.75  8  L2 ← L2 − 3L1

2 5 3  - 12  L3 ← L3 − 2 L1

1 0.5 0.75  1.75 


 
0 0 2.5  2.75 

0 4 15
.  - 15.5 

5º). Pivotação Parcial, correspondente ao segundo pivô (k=2):

(i). Busca parcial do maior módulo da coluna k = 2 (busca a partir da segunda linha
e segunda coluna, pois a primeira coluna já foi anulada)

k=2

(elemento de maior módulo da coluna k=2 está


 1 05. 0.7 5  1 .7 5 na linha i = 3).
 
 0 0 2. 5  2 .7  L2 ← L3
5
 0 (4) 15.  -1 5 .5 L3 ← L2

(ii). troca de linhas:

 1 05. 0.7 5  1 .7 5
 
 0 ( 4 ) 15
.  -1 5 .5
 (Troca da linha L2 com a linha L3 e vice-versa)

 0 0 2.5  2 .7 5

6º). Processo de normalização do segundo pivô (k=2):


Prof. Sérgio Ricardo de Brito Gadelha 40

 1 0.5 0.75  1.75 


 
 0 4 15 .  - 15.5 L2 ← L2 / 4
 0 0 2.5  2.75 

1 0.5 0.75  1.75 


 
0 1 0.375  - 3.875 

0 0 2.5  2.75  

7º). Processo de diagonalização, correspondente ao segundo pivô (k = 2):

1 0.5 0.75  1.75  L1 ← L1 − 0.5 L 2


 
0 1 0.375  - 3.875 
0 0 2.5  2.75  L3 ← L3 − 0 L 2

1 0 0.5625  3.6875 
 
0 1 0.375  - 3.875 

0 0 2.5  2.75  

9º). Processo de normalização do terceiro pivô (k = 3):

1 0 0.5625  3.6875 
 
0 1 0.375  - 3.875 

0 0 2.5  2.75   L3 ← L3 / 2.5

1 0 0.5625  3.688 
 
0 1 0.375  - 3.875 
0 0 1  1.1 

10º). Processo de diagonalização, correspondente ao terceiro pivô (k = 3):

 1 0 0.5625  3.688  L1 ← L1 − 0.5625L3


 
 0 1 0.375  - 3.875 L2 ← L2 − 0.375L3
 0 0 1  1.1 

1 0 0  3.069 
 
0 1 0  - 4.288 

0 0 1  1.1  

Analisando o sistema de equações equivalente, gerado a partir do processo de


eliminações sucessivas, tem-se o seguinte sistema:
Prof. Sérgio Ricardo de Brito Gadelha 41

 x1 + 0x 2 + 0x 3 = 3.069

 0x1 + x 2 + 0x 3 = − 4.288
 0x + 0x + x = 1.1
 1 2 3

Obs.: Note que cada equação representa explicitamente uma incógnita, ou seja, o vetor b de
termos independentes modificado guarda a própria solução do sistema. Assim,

x1 = 3.069
x2 = - 4.288
x1 = 1.100

A solução obtida é
S = {3.069,- 4.288,1.100}

3.5 Método da Inversão de Matrizes


Seja o sistema dado pela eq. A.x = b, onde A é a matriz de coeficientes, x é o vetor
de incógnitas e b é o vetor de termos independentes.
Multiplicando a equação (1) pela matriz inversa A-1 de A, obtida a partir de um
método qualquer, tem-se,

A-1.(A.x) = A-1.(b)

Utilizando a associatividade do produto matricial resulta:

(A-1.A).x = A-1.b
I.x = A-1.b
x = A-1.b

Portanto, pode-se obter o vetor de incógnitas x multiplicando a matriz inversa A-1


pelo vetor b.
Trata-se de um método eficiente quando dispomos da inversa da matriz A, caso
contrário temos o custo adicional da determinação da inversa.

Exemplo: Resolva o sistema de equações lineares indicado abaixo usando o método de


inversão de matrizes. Utilize o processo de pivotamento parcial para evitar pivôs nulos.

 3x 1 + 15. x 2 + 4.7 5x 3 = 8

 4x 1 + 2x 2 + 3x 3 = 7
 2x + 5x + 3x = − 1 2
 1 2 3
Prof. Sérgio Ricardo de Brito Gadelha 42

Adota-se também operações aritméticas com 4 (quatro) dígitos significativos e


arredondamento ponderado.

Na forma matricial tem-se

3 15
. 4.75  x 1   8 
    
4 2 3  x 2  =  7 
2 5 3   x 3  − 12 

1º). Geração da matriz inversa de A.

Adota-se um método prático clássico para se obter a matriz inversa:


(i). Primeiramente gera-se a matriz aumentada [ A | I ], composta pela matriz A e pela
matriz identidade I da mesma ordem de A:

3 15
. 4.75  1 0 0
 
4 2 3 0 1 0

2 5 3 0 0 1

(ii). Através de operações elementares sobre linhas (ou sobre colunas) transforma-se a
matriz A na matriz identidade I, e consequentemente a matriz identidade inicial transforma-
se na inversa A-1. Trata-se de um procedimento análogo ao utilizado no método de Gauss-
Jordan.
Este procedimento também pode ser associado a um processo de pivotação parcial,
para evitar pivôs nulos e diminuir a perda de significação.
Seguem-se os passos para obtenção de A-1:

a). Pivotação parcial, correspondente ao primeiro pivô (k=1):

(i). Busca do maior módulo da coluna k = 1

k=1
3 15
. 4.75  1 0 0
  (Elemento de maior módulo da coluna
i=2 ( 4) 2 3 0 1 0
 1 k=1 está na segunda linha)
2 5 3 0 0 

(ii). troca de linhas:

 3 15. 4.75  1 0 0 L1 ← L2
  (Troca da linha L1 com a linha L2 e
 (4) 2 3  0 1 0 L2 ← L1 vice-versa)
 2 5 3  0 0 1
Prof. Sérgio Ricardo de Brito Gadelha 43

(iii). Matriz pivotada:

4 2 3 0 1 0
 
3 15
. 4.75  1 0 0

2 5 3 0 0 1

b). Processo de normalização do primeiro pivô (k=1):

4 2 3  0 1 0 L1 ← L1 / 4
 
 3 15
. 4.75  1 0 0
2 5 3  0 0 1

1 0.5 0.75  0 0.25 0


 
3 15
. 4.75  1 0 0

2 5 3 0 0 1

c). Processo de diagonalização, correspondente ao primeiro pivô (k = 1):

1 0.5 0.75  0 0.25 0


 
3 15
. 4.75  1 0 0 L2 ← L2 − 3 L 1

2 5 3 0 0 1
 L3 ← L 3 − 2 L 1

1 0.5 0.75  0 0.25 0


 
0 0 2.5  1 − 0.75 0

0 4 15
. 0 − 0.5 1

Obs.: Note que existe uma completa analogia com o método de eliminação de Gauss-
Jordan.
d). Pivotação parcial, correspondente ao segundo pivô (k=2):

(i). Busca parcial do maior módulo da coluna k = 2 (busca a partir da segunda linha,
pois a primeira linha já foi utilizada no processo de eliminação).

k=2
1 0.5 0.75  0 0.25 0
  (o elemento de maior módulo da coluna
0 0 2.5  1 − 0.75 0 L 2 ← L 3
 − 0.5 1 k = 2 está na terceira linha).
0 ( 4) 15
. 0  L3 ← L2

(ii). troca de linhas:


Prof. Sérgio Ricardo de Brito Gadelha 44

1 0.5 0.75  0 0.25 0


 
0 ( 4) 15
. 0 − 0.5 1 (Troca da linha L2 com a linha L3 e vice-

0 0 2.5  1 − 0.75 0

versa)

Obs.: Note que a pivotação parcial eliminou um pivô nulo (processo possível em caso de
matrizes não singulares).

e). Processo de normalização do segundo pivô (k=2):

1 0.5 0.75  0 0.25 0


 0 4 1.5  0 − 0.5 1 L ← L / 4
  2 2

 0 0 2.5  1 − 0.75 0

1 0.5 0.75 0 0.25 0 


 
0 1 0.375  0 − 0.125 0.25 

0 0 2.5  1 − 0.75 0 

f). Processo de diagonalização, correspondente ao segundo pivô (k = 2):

1 0.5 0.75  0 0.25 0  L1 ← L1 − 0.5L2


 
0 1 0.375  0 − 0.125 0.25 

0 0 2.5 1 − 0.75 0  L 3 ← L 3 − 0L 2

1 0 0.5625 0 0.3125 - 0.125 


 
0 1 0.375 0 − 0.125 0.25 

0 0 2.5 1 − 0.75 0  

g). Processo de normalização do terceiro pivô (k = 3):

1 0 0.5625 0 0.3125 - 0.125 


0 1 0.375 0 − 0.125 0.25 
 

0 0 2.5 1 − 0.75 0   L 3 ← L 3 / 2 .5

1 0 0.5625  0 0.3125 - 0.125 


 
0 1 0.375  0 − 0.125 0.25 

0 0 1  0.4 − 0.3 0  

h). Processo de diagonalização, correspondente ao terceiro pivô (k = 3):


Prof. Sérgio Ricardo de Brito Gadelha 45

 1 0 0.5625  0 0.3125 - 0.125 L1 ← L1 − 0.5625L3


 
 0 1 0.375  0 − 0125
. 0.25  L2 ← L2 − 0.375L3
 0 0 1  0.4 − 0.3 0 

1 0 0  - 0.225 0.4812 - 0.125 


 
0 1 0  − 0.15 − 0.0125 0.25 

0 0 1  0.4 − 0.3 0  

- 0.225 0.4812 - 0.125 


-1  
Então, A =  − 0.15 − 0.0125 0.25 

 0.4 − 0.3 0  

Para obter o vetor solução x efetua-se o produto entre A-1 e b:

- 0.225 0.4812 - 0.125   8   3.069 


-1      
x=A .b=  − 0.15 − 0.0125 0.25  .  7  = − 4.288 

 0.4 − 0.3 0   − 12 
 
 1100
. 

Então, a solução do sistema é a seguinte:

x1 = 3.069
x2 = - 4.288
x3 = 1.100

S = {3.069,-4.288,1.100}

3.6 - Regra de Cramer para a solução de um sistema de


equações lineares com n equações e n incógnitas.

Consideremos um sistema de equações lineares com n equações e n incógnitas, na sua


forma genérica:

a11x1 + a12x2 + a13x3 + ... + a1nxn = b1


a21x1 + a22x2 + a23x3 + ... + a2nxn = b2
a31x1 + a32x2 + a33x3 + ... + a3nxn = b3
....................................................= ...
....................................................= ...
an1x1 + an2x2 + an3x3 + ... + annxn = bn

onde os coeficientes a11, a12, ..., ann são números reais ou complexos, os termos
independentes b1, b2, ... , bn , são números reais ou complexos e x1, x2, ... , xn são as
incógnitas do sistema nxn.
Prof. Sérgio Ricardo de Brito Gadelha 46

Seja D o determinante da matriz formada pelos coeficientes das incógnitas.

Seja D xi o determinante da matriz que se obtém do sistema dado, substituindo a coluna dos
coeficientes da incógnita xi ( i = 1, 2, 3, ... , n), pelos termos independentes b1, b2, ... , bn.

A regra de Cramer diz que:

Os valores das incógnitas de um sistema linear de n equações e n incógnitas são dados por
frações cujo denominador é o determinante D dos coeficientes das incógnitas e o
numerador é o determinante D xi, ou seja:

xi = Dxi / D

Exemplo: Resolva o seguinte sistema usando a regra de Cramer:


x + 3y - 2z = 3
2x - y + z = 12
4x + 3y - 5z = 6

Teremos:
Prof. Sérgio Ricardo de Brito Gadelha 47

Portanto, pela regra de Cramer, teremos:

x1 = D x1 / D = 120 / 24 = 5
x2 = D x2 / D = 48 / 24 = 2
x3 = D x3 / D = 96 / 24 = 4

Logo, o conjunto solução do sistema dado é S = { (5, 2, 4) }.

4. Métodos Iterativos

Vamos considerar os sistemas lineares do tipo

Ax = b

escritos na forma

Seja o sistema S da forma

a11 x1 + a12 x 2 + a13 x3 +  + a1n x n = b1


a x + a 22 x 2 + a 23 x3 +  + a2n xn = b2


21 1

a31 x1 + a32 x 2 + a33 x3 +  + a 3n x n = b3


      = 


a n1 x1 + an2 x2 + a n3 x3 +  a nn x n = bn

Supondo que S tenha sido reordenada de modo que todos os seus elementos da diagonal
sejam não-nulos. Como será assumido que aii é não nulo, pode-se escrever o sistema em
que a primeira incógnita fique isolada na primeira linha, a segunda incógnita, na segunda
linha e assim por diante, tem-se então o sistema com a seguinte forma:
Prof. Sérgio Ricardo de Brito Gadelha 48

 1  
 x1 =  b1 − ( a12 x2 + a13 x3 +  + a1n xn ) 
 a11  
 1  
x2 =  b2 − ( a21 x1 + a23 x3 +  + a2 n xn ) 
 a22  

 1  
 x3 =  b3 − ( a31 x1 + a32 x2 +  + a3n xn ) 
 a33  
     
 1  
xn =  bn − ( an1 x1 + an 2 x2 +  an ( n −1) xn −1 ) 

 ann  

4.1 Método Iterativo de Jacobi


A forma mais simples de se determinar a matriz H, a partir do sistema Ax =
b é a seguinte: Seja A a matriz do sistema, da forma

A=

Vamos supor que A foi reordenada de modo que todos os seus elementos da diagonal sejam
não-nulos:

Vamos então tirar o valor de cada xi na i-ésima equação (i = 1, 2, . . ., n). Como assumimos
que aii é não nulo, podemos escrever:

Se considerarmos o
lado esquerdo do
sistema como os
elementos de um
novo passo de
Prof. Sérgio Ricardo de Brito Gadelha 49

iteração (k+1) e os elementos do lado direito como elementos do passo anterior (k),
teremos:

e então:

representam os dois vetores que aproximam a solução do sistema, respectivamente na


iteração k+1 e k. K é um vetor constante da forma K = ( b1 / a11 b2 / a22 . . . bn / ann) e J é
a matriz que define o processo iterativo. Neste caso, esse processo é o chamado Método
Iterativo de Jacobi e, por isso, a matriz J é chamada de Matriz de Iteração de Jacobi e tem a
forma

J=

Em resumo, o método de Jacobi consiste na seguinte seqüência de passos:


Prof. Sérgio Ricardo de Brito Gadelha 50
Prof. Sérgio Ricardo de Brito Gadelha 51

Exemplo
Para o sistema :

 5x1 − 2x2 = 3

 2x1 + 4x2 = 6
separa-se as incógnitas x1 e x2 da seguinte forma:

 x1 = (3 + 2 x2 ) / 5

 x2 = (6 − 2x1) / 4
escolhe-se os índices da iteração k e k+1 onde k=0,1,2,3...M. onde M é o número
máximo de iterações consideradas.

 xk + 1 = (3 + 2 xk ) / 5
1 2
 k+ 1 k
 x 2 = (6 − 2 x1 ) / 4
Agora faz-se o seguinte:

1. Chama-se de x1(0) e x2(0) as aproximações iniciais, as quais são tomadas de forma


arbitrária (chute) .

Usando para o passo K=0 o chute inicial x1(0) =0 e x2(0)=0. .Assim a primeira aproximação
de x1=0 e x2=0 > se for utilizado X(0) o vetor cujos componentes são x1(0) e x2(0) tem-se
para K=0:

 x( 0)   0
X (0) =  1( 0)  =  
 x2   0
Prof. Sérgio Ricardo de Brito Gadelha 52

2. Aplica-se x1(0) do lado direito do sistema obtendo um novo valor para x11 e x21 tem-
se para K=1:

x11 = (3 + 2 × 0)/5 = 0,60 (1)  x1( 1)   0,60


portanto X =  ( 1)  =  
x12 = (6 − 2 × 0)/4 = 1,50  x2   1,50 

3. Usa-se estes valores x11 e x21 novamente no sistema obtendo os valores de x12 e x22.
Para K=2 tem-se:

x 12 = (3 + 2 ×1,5)/5 = 1,20 (2)  x1( 2)  1,20


portanto X =  ( 2)  =  
x 22 = (6 − 2 × 0 ,6)/4 = 1,20  x2  1,20

4. O próximo passo será encontrar x13 e x23. Para K=3 tem-se:

x 13 = (3 + 2 ×1,2)/5 = 1,08 (3)  x1( 3)  1,08 


portanto X =  ( 3)  =  
x 32 = (6 − 2 ×1,2)/4 = 0 ,90  x2   0,90

5. Para os demais x1k e x2k procede-se da mesma forma.


Prof. Sérgio Ricardo de Brito Gadelha 53

4.1.1 Convergência do Método de Jacobi


Prof. Sérgio Ricardo de Brito Gadelha 54

Logo, teremos a seguinte expressão.


Prof. Sérgio Ricardo de Brito Gadelha 55

4. 2 Método Iterativo de Gauss-Seidel

Em sistemas com muitas equações simultâneas e, particularmente, em


sistemas mal-condicionados, a propagação do erro de arredondamento pode destruir a
exatidão da solução.
Nestes casos podemos utilizar um método iterativo que, em geral, não seja
muito sensível à propagação de erros de arredondamento, desde que a solução seja
convergente. Entre os métodos iterativos de resolução de sistemas de equações, vamos
abordar o método iterativo de Gauss-Seidel, que é um dos métodos iterativos mais comuns
e simples para ser programado em computador. Como em todos os métodos iterativos, o
erro de arredondamento é pequeno, mas o método converge para a solução somente sob
certas condições e normalmente conduz a um número significativamente maior de
operações aritméticas em comparação aos métodos de resolução direta.
Prof. Sérgio Ricardo de Brito Gadelha 56

Seja o sistema de equações:

onde os termos da diagonal a11, a22, ..., ann são todos supostos não nulos; se necessário, as
equações devem ser reordenadas para que todos estes termos sejam não nulos. Encontramos
o valor de x1 a partir da primeira equação, x2 a partir da segunda e assim sucessivamente,
para obtermos:

A iteração é iniciada tomando-se um conjunto inicial de estimativas para


todos os xi(k), onde k é o número da iteração. Tomamos o valor inicial de x2, x3, ..., xn para
calcular o valor de x1 na primeira equação acima. Com o valor de x1 calculado mais os
valores iniciais de x3, x4, ..., xn calcula-se o novo valor de x2 na segunda equação e assim
sucessivamente até a n-ésima equação, quando então obtemos o valor de x n (e,
anteriormente, os valores de x1, x2, ..., xn-1) para a primeira iteração. Voltamos, então, para a
primeira equação e calculamos novamente x1 e sucessivamente todos os xi na segunda
Prof. Sérgio Ricardo de Brito Gadelha 57

iteração. Este procedimento prossegue até que haja convergência, isto é, até que todos os
valores de xi simultaneamente parem de variar. Deste modo, este método exigirá
provavelmente muitas iterações antes de obtermos uma exatidão razoável. Além disto, na
maioria das vezes pode não ocorrer convergência e os resultados se afastarem de um valor
constante e finito.
O problema da convergência deste método não é simples e é o principal
empecilho ao seu uso. Podemos empregar alguns critérios para se verificar quando é
necessário parar a iteração:

1. O número de iterações excedeu um valor máximo m pré-determinado;


2. As diferenças entre dois valores sucessivos de todos os xi são menores do que um valor
pré-determinado ε :

Podemos, também, explicar o método iterativo de Gauss-Siedel da seguinte


forma: substitui-se diretamente os valores que vão sendo calculados, isto é, depois do
cálculo de x1(1) substitui-se esse valor na avaliação de x2(1); em seguida, na avaliação de x3(1)
já pode-se usar esses valores que já foram atualizados, x1(1) e x2(1).. Atualiza-se os valores de
xik+1 obtidos durante o próprio passo k, da iteração. Isso significa que não se dá um passo
completo com os valores (k) do passo anterior, como no Método de Jacobi e sim, vamos
usando as modificações feitas imediatamente. Para um sistema de n variáveis o processo de
iteração pelo método de Gauss-Seidel pode ser representado da seguinte forma:

1
x1k +1 = [b 1 − ( a 12 x 2k + a 13 x3k + a 14 x 4k +  + a 1n x nk ) ]
a11
1
x 2k +1 = [b 2 − ( a 21 x1k +1 + a 23 x3k + a 24 x 4k +  + a 2n x nk ) ]
a 22
1
x3k +1 = [b 3 − ( a 31 x1k +1 + a 32 x 2k +1 + a 34 x 4k +  + a 3n x nk ) ]
a 33
...........................
1
x nk +1 = [b n − ( a n1 x1k +1 + a n2 x 2k +1 + a n3 x3k +1 +  + a 2(n -1) x nk−+11 ) ]
a nn

Exemplo 1: Tomando o mesmo exemplo utilizado no método iterativo de Jacobi

 5x1 − 2x2 = 3

 2x1 + 4x2 = 6
Prof. Sérgio Ricardo de Brito Gadelha 58

separa-se as variáveis x1 e x2 .

 x1 = (3 + 2x2 ) / 5

 x2 = (6 − 2 x1) / 4
escolhe-se os índices da iteração k e k+1:

 x k + 1 = (3 + 2 x k ) / 5
1 2
 k+ 1 k+ 1
 x 2 = (6 − 2 x1 ) / 4
Agora faz-se o seguinte:

1 Chama-se de x1(0) e x2(0) as aproximações iniciais, as quais são tomadas de forma


arbitrária (chute) .
Usando para o passo K=0 o chute inicial x1(0) =0 e x2(0)=0. .Assim a primeira aproximação
de x1=0 e x2=0 > se for utilizado X(0) o vetor cujos componentes são x1(0) e x2(0) tem-se
para K=0:
(0)  x1( 0)   0
X =  ( 0)  =  
 x2   0

2 Aplica-se x1(0) do lado direito do sistema obtendo um novo valor para x11 e x21 tem-se
para K=1:

x11 = (3 + 2 × 0)/5 = 0,600 (1)  x1( 1)  0,600


portanto X =  ( 1)  =  
x12 = (6 − 2 × 0 ,6)/4 = 1,200  x2  1,200 

3 Usa-se estes valores x11 e x21 novamente no sistema obtendo os valores de x12 e x22.
Para K=2 tem-se:

x12 = (3 + 2 ×1,2)/5 = 1,080 (2)  x1( 2)  1,080 


portanto X =  ( 2)  =  
x 22 = (6 − 2 ×1,08 )/4 = 0 ,960  x2  0 ,960

4. O próximo passo será encontrar x13 e x23. Para K=3 tem-se:


Prof. Sérgio Ricardo de Brito Gadelha 59

x13 = (3 + 2 ×1,08 )/5 = 0 ,984 (3)  x1( 3)  0 ,984


portanto X =  ( 3)  =  
x 32 = (6 − 2 × 0 ,984 )/4 = 1,008  x2  1,008

5. Para os demais x1k e x2k procede-se da mesma forma.

Exemplo 2: resolver o sistema abaixo pelo método de Gauss-Seidel usando como


aproximação inicial x(0) = [0 0 0]t e como critério de parada:
Prof. Sérgio Ricardo de Brito Gadelha 60

Teorema da convergência do método iterativo de Gauss-Seidel: A iteração do método


de Gauss-Seidel convergirá se, no determinante característico, cada termo da diagonal
principal for maior (em valor absoluto) do que a soma dos valores absolutos de todos os
outros termos na mesma linha ou coluna. Isto é, teremos garantido a convergência se,

O teorema não é muito útil a não ser que, de alguma maneira, possamos
reordenar as equações a fim de satisfazerem o teorema tão bem quanto possível e,
geralmente, isto não é tarefa simples. Pode ser necessário rearranjar de várias formas um
sistema de equações até encontrarmos, através do cálculo iterativo, um arranjo que se
aproxime das condições do teorema.

Bibliografia Recomendada

1. SIMON, Carl & Blume, L. Matemática para Economistas. Tradução: Claus Ivo Doering.
Porto Alegre: Bookman, 2004.
Prof. Sérgio Ricardo de Brito Gadelha 61

2. BRAGA, Márcio Bobik; KANNEBLEY JÚNIOR, Sérgio; ORELLANO, Verônica I.F.


Matemática para economistas. São Paulo: Atlas, 2003.
3. BOLDRINI, José Luiz. Álgebra linear: 591 problemas resolvidos. 442 problemas
suplementares. Ed. Harbra, 2004.
4. LIPSCHUTS, Algebra linear. Ed. PEARSON EDUCATION DO BRASIL LTDA, 2004.

Recomendo que vocês exercitem seus conhecimentos na lista de exercícios


referente ao “Ponto 49”.

Um forte abraço e até o nosso próximo encontro.

S-ar putea să vă placă și