Sunteți pe pagina 1din 210

Ioan ROSCA

CALCUL NUMERIC
Sisteme de ecuat ii nit dimensionale
P R E F A T A
In ultimul timp, au aparut nevoi enorme de modele matematice tot
mai sosticate si simulari pe calculator tot mai vaste si complexe.
In acest mod, doua activitat i nedespart ite modelarea matematica
si simularea pe calculator au cstigat un rol major n toate ramurile
stiint ei, tehnologiei si industriei.
Pentru ca aceste doua activitat i sa e statornicite pe un teren
ct mai solid, rigoarea matematica este indispensabila. Din acest
motiv doua stiint e nrudite analiza numerica si softul stiint ic
par etape esent iale n validarea modelelor matematice si simularile
pe calculator ce snt bazate pe acestea.
Prezentele note se adreseaz@a studen@tilor de la cursul de Calcul
Numeric.
Prin cont inut, aceaste note reecta nu att preferint ele autorului,
ci mai ales opt iunile sale privitoare la tematica unui curs de calcul
numeric pentru student ii Facultatii de matematica si informatica.
Cartea poate utilizata de un cerc larg de cititori, ind acesi-
bila acelora care poseda cunostint e fundamentale de matematica
( analiza, algebra, geometrie, etc. ).
Aceasta carte a fost procesata de autor folosind programul L
A
T
E
X
bine adaptat pentru prelucrarea textelor matematice.
Bucuresti 2011 Autorul
Cuprins
1 Sisteme de ecuat ii liniare 11
1 Elemente de analiza matriciala . . . . . . . . . . . . . . . . . 12
1.1 Principalele notat ii si dent ii . . . . . . . . . . . . . . 12
1.2 Norme vectoriale si norme matriceale . . . . . . . . . . 21
1.3 Matrici particulare . . . . . . . . . . . . . . . . . . . . 28
2 Metode directe . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.1 Principii generale . . . . . . . . . . . . . . . . . . . . . 40
2.2 Metoda Gauss . . . . . . . . . . . . . . . . . . . . . . 43
2.3 Metode de factorizare . . . . . . . . . . . . . . . . . . 53
3 Metode iterative . . . . . . . . . . . . . . . . . . . . . . . . . 76
3.1 Denirea si convergent a metodelor iterative . . . . . . 76
3.2 Metoda Jacobi . . . . . . . . . . . . . . . . . . . . . . 91
3.3 Metoda Gauss-Seidel . . . . . . . . . . . . . . . . . . . 95
3.4 Metode de relaxare . . . . . . . . . . . . . . . . . . . . 100
4 Vectori si valori proprii . . . . . . . . . . . . . . . . . . . . . . 117
4.1 Localizarea valorilor proprii si rezultate
de stabilitate . . . . . . . . . . . . . . . . . . . . . . . 119
4.2 Metode folosind polinomul caracteristic . . . . . . . . 124
4.3 Metoda puterilor sau metoda iterat iei vectoriale . . . 132
4.4 Metoda Jacobi . . . . . . . . . . . . . . . . . . . . . . 137
4.5 Metoda Givens-Householder . . . . . . . . . . . . . . . 148
5
6 CUPRINS
4.6 Metoda QR . . . . . . . . . . . . . . . . . . . . . . . . 163
2 Ecuat ii si sisteme neliniare 173
5 Ecuat ii neliniare . . . . . . . . . . . . . . . . . . . . . . . . . 174
5.1 Izolarea radacinilor . . . . . . . . . . . . . . . . . . . . 174
5.2 Metode de aproximare a rad acinilor . . . . . . . . . . 177
6 Sisteme neliniare . . . . . . . . . . . . . . . . . . . . . . . . . 189
6.1 Teoreme de existent a a solut iilor . . . . . . . . . . . . 189
6.2 Metode de contract ie . . . . . . . . . . . . . . . . . . . 192
6.3 Metode de tip Newton . . . . . . . . . . . . . . . . . . 199
CUPRINS 9
Rezolvarea numerica a sistemelor de ecuat ii cu un numar
nit de necunoscute, reale sau complexe, constituie una dintre
preocuparile cele mai importante, deoarece la o asemenea rezolvare
se reduc, de cele mai multe ori, aplicat iile tuturor domeniilor
matematicii.
Pentru sistemele liniare, desi teoretic lucrurile par destul de
simple, practica pune mereu noi probleme a caror rezolvare cere o
aprofundare a teoriei si o ingeniozitate deosebita.
Pentru sistemele neliniare, n general, nu exista metode directe de
rezolvare, ind necesare studiul metodelor aproximative. De cele
mai multe ori in rezolvarea sistemelor neliniare se utilizeaza un sir
de sisteme liniare.
10 CUPRINS
Capitolul 1
Sisteme de ecuat ii liniare
11
12 Capitolul 1. Sisteme de ecuatii liniare
1 Elemente de analiza matriciala
Analiza maticiala se ocupa de studiul rezovarii sistemelor algebrice liniare, de
forma Ax = b, si a determinarii vectorilor si valorilor proprii ale unei matrici
A. In general, presupunem cunoscute elementele de algebra si analiza care
intervin n considerat iile noastre, nsa amintim unele not iuni si rezultate,
mai mult pentru a preciza termenii si notat iile. La unele rezultate dam si
demonstrat iile.
1.1 Principalele notat ii si dent ii
Daca V este un K-spat iu vectorial n-dimensional (K = R sau K = C)
iar B = e
1
, . . . , e
n
este o baza pentru V , atunci orice element x V se
exprima n mod unic sub forma
v =
n

i=1
v
i
e
i
scalarii v
i
, pe care i notam uneori (v)
i
, ind componentele vectorului v n
baza B. Cnd o baza este xata, putem fara ambiguitate sa identicam
K spat iul vectorial V cu K
n
; iata pentru ce vom nota v = (v
i
)
n
i=1
sau
simplu (v
i
), un vector de componente v
i
. In notat ie matriceala, vectorul
v =

n
i=1
v
i
e
i
va mereu reprezentat prin vectorul coloana
v =
_
_
_
v
1
.
.
.
v
n
_
_
_
si vom nota cu v
T
respectiv v

urmatorii vectorii linie


v
T
= (v
1
, v
2
, . . . , v
n
), v

= ( v
1
, v
2
, . . . , v
n
)
unde, n general, cu este notat conjugatul complex al numarului . Vec-
torul linie v
T
este vectorul transpus al vectorului coloana v, iar vectorul
linie v

este vectorul adjunct al vectorului coloana v.


Aplicat ia (, ) : V V K denita prin
(u, v) = v
T
u = u
T
v =
n

i=1
u
i
v
i
daca K = R
1. Elemente de analiz a matricial a 13
(u, v) = v

u = u

v =
n

i=1
u
i
v
i
daca K = C
se numeste produs scalar euclidian daca K = R si hermitian daca K = C,
sau canonic daca nu precizam corpul scalarilor. Daca dorim sa punem n
evident a dimensiunea spat iului vom scrie (u, v) = (u, v)
n
.
Fie V un spat iu vectorial nzestrat cu produsul scalar canonic. Doi vectori
u si v din V snt ortogonali daca (u, v) = 0. Se spune ca v este ortogonal pe
o parte U din V si notam aceasta prin v U cnd vectorul v este ortogonal
pe toate elementele din U. In srsit, o mult ime de vectori v
1
, . . . , v
k
din
V se zice ortonormala daca
(v
i
, v
j
) =
ij
=
_
1 daca i = j
0 daca i ,= j
Fie V si W doua spat ii vectoriale peste acelasi corp K cu bazele (e
j
)
j=1,n
,
respectiv (f
i
)
i=1,m
. Relativ la aceste baze o aplicat ie liniara / : V W
este reprezentata printr-o matrice cu m linii si n coloane
A =
_
_
_
a
11
a
12
a
1n
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn
_
_
_
elementele a
ij
ale matricii A ind denite n mod unic prin relat iile
/e
j
=
m

i=1
a
ij
f
i
, 1 j n
Altfel spus, al j-lea vector coloana
_
_
_
a
1j
.
.
.
a
mj
_
_
_
al matricei A reprezinta vectorul /e
j
n baza (f
i
)
m
i=1
. Notam (a
i1
a
i2
. . . a
in
)
ceea de a i-ea linie a matricei A. O matrice cu m linii si n coloane se numeste
matrice de tip (m,n) si se noteaza /
m,n
(K) sau simplu /
m.n
, K-spat iul
vectorial format cu matricele de tipul (m, n) cu elemente din K. Un vector
coloana este deci o matrice de tipul (m, 1) iar un vector linie este o matrice
14 Capitolul 1. Sisteme de ecuatii liniare
de tipul (1, n). O matrice se zice reala sau complexa daca elementele sale
snt din R sau C. O matrice A cu elementele a
ij
se noteaza A = (a
ij
)
primul indice i ind mereu cel al liniei iar al doilea, j, ind cel al coloanei.
Fiind data o matrice A, se noteaza (A)
ij
elementul de pe linia i si coloana
j. Matricea nula si vectorul nul snt notate prin aceiasi litera 0.
Fiind data o matrice A /
m,n
(C) se noteaza cu A

/
n,m
(C) matricea
adjuncta a matricei A, denita n mod unic prin relat iile
(Au, v)
m
= (u, A

v)
n
u C
n
, v C
m
care implica (A

)
ij
= a
ji
. In acelasi mod, ind data matricea A /
m,n
(R)
se noteaza A
T
/
n,m
(R) matricea transpusa a lui A, denita n mod unic
prin relat ia
(Au, v)
m
= (u, A
T
v)
n
u R
n
, v R
m
care implica (A
T
)
ij
= a
ji
.
Observat ie. Se poate deni matricea transpusa a unei matrice complexe,
dar aceasta este o not iune mai put in interesanta, aplicat ia u, v

n
i=1
u
i
v
i
neind un produs scalar n C
n
.
La compunerea a doua aplicat ii liniare corespunde nmult irea matricilor.
Daca A = (a
ik
) este de tipul (m, l) iar B = (b
kj
) este de tipul (l, n), produsul
lor AB este o matrice de tipul (m, n) denita prin
(AB)
ij
=
l

k=1
a
ik
b
kj
.
Reamintim ca daca A si B snt matrici patrate atunci
(AB)
T
= B
T
A
T
, (AB)

= B

.
Fie A = (a
ij
) o matrice de tipul (m, n). Prin submatrice a lui A se nt elege
o matrice de forma
_
_
_
_
_
_
a
i
1
j
1
a
i
1
j
q
a
i
2
j
1
a
i
2
j
q
.
.
.
.
.
.
a
i
p
j
1
a
i
p
j
q
_
_
_
_
_
_
unde intregii i
k
si j
l
verica
1 i
1
< i
2
< < i
p
m, 1 j
1
< j
2
< < j
q
n,
1. Elemente de analiz a matricial a 15
adica submatricea de mai sus a fost obt inut a din elementele lui A ce se aa
la intersect ia coloanelor j
1
, . . . , j
q
cu liniile i
1
, . . . , i
p
.
Fie A = (a
ij
) o matrice reprezentnd o aplicat ie liniara din V n W si e
V = V
1
V
2
V
N
, W = W
1
W
2
W
M
descompuneri ale spat iilor V si W n sume directe de subspat ii V
J
si W
I
de
dimensiune n
J
si m
I
generate de vectorii din baza. La aceasta descompunere
a spat iilor V si W se asociaza descompunerea n blocuri a matricii A:
A =
_
_
_
_
_
_
A
11
A
12
A
1N
A
21
A
22
A
2N
.
.
.
.
.
.
.
.
.
A
M1
A
M2
A
MN
_
_
_
_
_
_
= (A
IJ
)
ecare matrice A
IJ
ind de tipul (m
I
, n
J
) si reprezinta o matrice asociata
unei aplicat ii liniare din V
J
in W
I
. Interesul unei asemenea descompuneri
pe blocuri este ca anumite operat ii denite asupra matricelor ramn formal
aceleasi, coecient ii a
ij
ind nlocuit i prin submatricele A
IJ
.
Astfel, e A = (A
IK
) si B = (B
KJ
) doua matrici, de tipul (m, l) respectiv
(l, n), descompuse n blocuri, descompunere ce corespunde indicelui K ind
aceiasi pentru ecare matrice. Atunci matricea AB admite descompunerea
n blocuri
AB = (C
IJ
), cu C
IJ
=

K
A
IK
B
KJ
si spunem ca s-a efectuat produsul pe blocuri a celor doua matrici. In
acelasi mod, e v un vector din spat iul V , si e v =

N
J=1
v
J
, v
J
V
J
descompunerea sa (unica) asociata descompunerii spat iului V n suma di-
recta. Vectorul Av W admite atunci
Av =
M

I=1
w
I
, cu w
I
=
N

J=1
A
IJ
v
J
ca descompunere unica asociata descompunerii spat iului W n suma directa.
Este echivalent cu a considera ca vectorii v si Av snt descompusi n blocuri
v =
_
_
_
_
_
_
v
1
v
2
.
.
.
v
N
_
_
_
_
_
_
, Av =
_
_
_
_
_
_
w
1
w
2
.
.
.
w
M
_
_
_
_
_
_
, w
I
=
N

J=1
A
IJ
v
J
16 Capitolul 1. Sisteme de ecuatii liniare
si ca s-a efectuat produsul pe blocuri a matricei A cu vectorul v.
O matrice de tipul (n, n) se numeste matrice patrata, sau matrice de
ordinul n, daca vrem sa precizam ntregul n. Se noteaza cu /
n
= /
n,n
sau /
n
(K) = /
n,n
(K) inelul matricelor patrate de ordinul n cu elemente
din corpul K. Fara o ment iune contrara, matricele considerate n conti-
nuare vor matrici patrate. Daca matricea A = (a
ij
) este o matrice pa-
trata, elementele a
ii
snt numite elemente diagonale iar elementele a
ij
i ,= j,
snt numite elemente nediagonale. Elementele a
ij
cu [i j[ = 1 se numesc
elemente codiagonale. Elementele (a
11
, a
22
, . . . , a
nn
), (a
21
, a
32
, . . . , a
n,n1
),
(a
12
, a
23
, . . . , a
n1,n
) poarta numele de diagonala principala, codiagonala in-
ferioara, respectiv codiagonala superioar a a matricei A. Matricea unitate
este matricea I = (
ij
) deci o matrice care are toate elementele nediagonale
nule, iar toate elementele diagonale egale cu 1.
O matrice A se zice inversabila daca exista o matrice notata A
1
si numita
matrice inversa a lui A, astfel ca A A
1
= A
1
A = I. In caz con-
trar, se zice ca A este singulara. ( Matricea A
1
daca exista este unica ).
Reamintim ca daca A si B snt matrici inversabile atunci
(AB)
1
= B
1
A
1
, (A
T
)
1
= (A
1
)
T
, (A

)
1
= (A
1
)

.
O matrice A = (a
ij
) este
- simetrica daca A este reala si A = A
T
,
- hermitiana daca A = A

,
- ortogonala daca A este reala si AA
T
= A
T
A = I,
- unitara daca AA

= A

A = I,
- normala daca AA

= A

A.
- diagonala daca a
ij
= 0 pentru i ,= j si notam acest fapt prin A =
diag(a
ii
) = diag(a
11
, a
22
, . . . , a
nn
).
- inferior triunghiulara daca a
ij
= 0 pentru orice j > i.
- strict inferior triunghiulara daca a
ij
= 0 pentru j i.
- superior triunghiulara daca a
ij
= 0 pentru orice j < i.
- strict superior triunghiulara daca a
ij
= 0 pentru orice j i.
1. Elemente de analiz a matricial a 17
- tridiagonala daca a
ij
= 0 pentru orice [i j[ > 1.
- superior Hessenberg daca a
ij
= 0 pentru i j + 2.
- inferior Hessenberg daca a
ij
= 0 pentru i j 2.
Urma unei matricii A = (a
ij
) este denita prin tr(A) =

n
i=1
a
ii
. Daca A
si B snt doua matrici patrate atunci
tr(AB) = tr(BA) si tr(A+B) = tr(A) +tr(B).
Determinantul unei matrici A este denit prin
det(A) =

S
n

a
1(1)
a
2(2)
a
n(n)
unde

este signatura permutarii . Daca A si B snt doua matrici patrate


atunci
det(A B) = det(B A) = det(A) det(B)
Determinantul unei matrici diagonale, inferior triunghiulare sau superior
triunghiulare este egal cu produsul elementelor de pe diagonala principala.
Fiind date doua spat ii vectoriale V si W de dimensiune nita ( dar nu
n mod necesar egale ). Rangul aplicat iei liniare / : V W este egal
cu dimensiunea subspat iului vectorial 1m(/) = /v W; v V . Daca
n spat iile V si W luam bazele fat a de care aplicat ia / este reprezentata
prin matricea A, rangul lui / este de asemenea egal cu cel mai mare ordin
al unei submatricii (patrate) inversabile a lui A. Iata pentru ce rangul lui
/ se numeste de asemenea rangul matricii A. Este usor de vericat ca
rangul unei matrici A este egal cu numarul de coloane liniar independente
ale matricei A. De asemenea, rangul matricei A este egal cu numarul de linii
liniar independente ale matricei A. Se noteaza rangul unei matrici A prin
rang(A), si deci rang(A) = dim(1m(/)).
Folosind not iunile introduse mai sus, avem urmatorul rezultat.
Propozit ia 1.1 Daca A /
n
(K) urmatoarele armat ii snt echivalente:
(1) Pentru orice b K
n
exista x K
n
astfel ca Ax = b.
(2) Pentru orice b K
n
exista un singur x K
n
astfel ca Ax = b.
(3) Din Ax = 0 rezulta x = 0.
18 Capitolul 1. Sisteme de ecuatii liniare
(4) Matricea A
1
exista.
(5) Rangul matricei A este n ( rang(A) = n).
(Demonstrat ia acestei propozit ii se gaseste n orice curs de algebra liniara.)
Valorile proprii
i
=
i
(A), 1 i n ale matricii A de ordinul n snt
n radacini reale sau complexe, distincte sau confundate, ale polinomului
caracteristic p
A
: Cp
A
() = det(AI) pentru matricea A.
Spectrul matricii A este submult imea (A) =

n
i=1

i
(A) din planul
complex C, cu alte cuvinte spectrul matricei A este format din mult imea
valorilor proprii ale matricei A.
Raza spectrala a unei matrici A este un numar real mai mare ca zero
denit prin (A) = max
1in
[
i
(A)[; 1 i n = max[[; (A). La
o valoare proprie pentru matricea A se asociaza ( cel put in ) un vector p
astfel ca p ,= 0 si Ap = p numit vector propriu al matricii A asociat
valorii propri . Daca (A), subspat iul vectorial ( de dimensiune mai
mare sau egal cu 1 ), E

= v V ; Av = v se numeste spat iu propriu


asociat valorii proprii (A). Daca A este o matrice patrata de ordinul
n atunci
tr(A) =
n

i=1

i
(A), det(A) =
n

i=1

i
(A).
Daca
i
=
i+1
= =
i+m1
= valoarea proprie este de multipli-
citate algebrica m. Numim multiplicitate geometrica a valorii propri
dimensiunea subspat iului propriu E

asociat lui (A). Cele doua numere


pot sa difere. Pentru matricea A =
_
0 1
0 0
_
valorile proprii snt
1
=
2
=
0 de multiplicitatea algebrica 2 n timp ce multiplicitatea geometrica este 1.
Matricea A

A este o matrice hermitiana si valorile ei proprii snt reale si


pozitive. Matricea A
T
A este o matrice simetrica iar valorile sale snt reale
si pozitive.
Matricele hermitiene care satisfac si condit ia (Ax, x) > 0 pentru orice
x C
n
0 se numesc pozitiv denite. Se verica imediat ca orice matrice
pozitiv denita A, deneste un produs scalar pe C
n
prin formula
(x, y)
A
= (Ax, y) (1.1)
Invers, orice produs scalar pe C
n
este de forma (1.1) unde A este o matrice
pozitiv denita. Pentru demonstrat ie sa notam cu (x, y)

un produs scalar
1. Elemente de analiz a matricial a 19
oarecare denit pe C
n
. Din reprezentarea elementelor x si y n baza canonica
formata din elementele e
i
= (
i1
,
i2
, . . . ,
in
) rezulta
(x, y)

= (
n

i=1
x
i
e
i
,
n

j=1
y
j
e
j
)

=
m

j=1
n

i=1
a
ji
x
i
y
j
= (Ax, y)
unde a
ij
= (e
j
, e
i
)

. Matricea A = (a
ij
) este hermitiana si strict pozitiva.
Intradevar, (A

)
ij
= a
ji
= (e
i
, e
j
)

= (e
j
, e
i
)

= a
ij
= (A)
ij
pentru orice
i, j 1, 2, . . . , n si (Ax, x) = (x, x)

> 0 x C
n
, x ,= 0.
Daca V este un K-spat iu vectorial n-dimensional, iar / : V V o
aplicat ie liniara, reprezentata printr-o matrice (patrata) A = (a
ij
) rela-
tiv la o baza e
1
, . . . , e
n
, atunci relativ la o alta baza f
1
, . . . , f
n
aceiasi
aplicat ie este reprezentata prin matricea B = P
1
AP unde P este o matrice
inversabila cu proprietatea ca al j-lea vector coloana este format cu compo-
nentele vectorului f
j
n baza e
1
, . . . , e
n
. Matricea P se numeste matrice
de trecere din baza e
1
, . . . , e
n
n baza f
1
, . . . , f
n
.
Alegerea bazei ca matricea de reprezentare a aplicat iei liniare sa aiba forma
cea mai simpla constituie una dintre problemele importante ale analizei ma-
triciale. Cazul cel mai favorabil este acela n care matricea de reprezentare
sa e diagonala. Notam ca n acest caz, elementele diagonale ale matricii de
reprezentare snt valorile proprii ale formei liniare.
Dintre formele particulare la care poate adusa o matrice patrata amintim
forma Jordan, forma Schur, forma Hensenberg. Matricea de ordinul m care
are pe diagonala principala, 1 pe codiagonala superioara si 0 n rest se
numeste bloc Jordan sau matrice Jordan. Deci o matrice Jordan are forma :
J
m
() =
_
_
_
_
_
_
_
_
1 0 0
1
.
.
.
.
.
.
1

_
_
_
_
_
_
_
_
m 1
si observam ca este valoare proprie pentru J
m
() de multiplicitate algebrica
m si multiplicitate geometrica 1.
In ceea ce priveste formele canonice avem urmatorul rezultat.
20 Capitolul 1. Sisteme de ecuatii liniare
Teorema 1.1 Fie A /
n
(K).
1) Exista o matrice nesingulara P pentru care P
1
AP sa aiba forma :
P
1
AP =
_
_
_
_
_
J
n
1
(
1
) 0
J
n
2
(
2
)
.
.
.
0 J
nr
(
r
)
_
_
_
_
_
unde n
1
+ n
r
= n iar
1
, . . . ,
r
snt valorile proprii ale matricei A.
2) Exista U o matrice unitara (UU

= U

U = I) astfel ca T = U
1
AU
sa e o matrice superior triunghiulara. In plus, elementele diagonale
ale matricei T snt valori proprii pentru matricea A.
3) Daca A este o matrice normala (AA

= A

A), atunci exista o matrice


unitara U astfel ca T = U
1
AU sa e o matrice diagonala.
4) Daca A este o matrice hermitiana (A

= A) atunci matricea A are n


valori proprii
1
, . . . ,
n
reale ( nu neaparat distincte ) si n vectori pro-
prii u
(1)
, . . . , u
(n)
ce formeaza o baza ortonormala pentru K
n
, iar ma-
tricea U = (u
(1)
, . . . , u
(n)
) este unitara si U

AU = diag (
1
, . . . ,
n
).
Se poate verica ca orice matrice reala poate adusa la o forma superior
triunghiulara pe blocuri cu ajutorul unei matrici ortogonale reale. In cazul
n care matricea este reala si simetrica atunci toate valorile proprii snt reale
si vectorii propri pot alesi reali. In plus, exista o matrice ortogonala Q
astfel ca Q
T
AQ = = diag (
1
, . . . ,
n
) iar coloanele matricei Q formeaza
o baza ortonormata a lui R
n
.
Numim valori singulare ale unei matrici A radicalul valorilor proprii
ale matricei hermitiene A

A (sau A
T
A daca matricea este reala). Utiliznd
valorile singulare ale unei matrici A avem urmatorul rezultat.
Teorema 1.2 Fie A /
m,n
(K) (K = R respectiv K = C).
1) Exista matricele unitare ( respectiv ortogonale ) U de ordinul n si V
1. Elemente de analiz a matricial a 21
de ordinul m astfel ca F = V

AU sa aiba forma
F =
_
_
_
_
_
_
_
_
_
_

1
0

2
.
.
.
0
r
0
.
.
.
_
_
_
_
_
_
_
_
_
_
(1.2)
unde
1
, . . . ,
r
snt valorile singulare ale lui A. Aceste numere snt
reale si pozitive, si pot aranjate astfel ca
1

2

r
> 0
unde r este rangul matricei A.
2) Daca m = n, exista doua matrici unitare (ortogonale daca A este reala)
de ordinul n astfel ca V

AU = diag(
1
, . . . ,
r
) unde
1
, . . . ,
n
, mai
mari sau egale cu zero, snt valorile singulare ale matricei A.
1.2 Norme vectoriale si norme matriceale
Cele mai des folosite norme pe K
n
, n practica, snt :
[[v[[
1
=
n

i=1
[v
i
[, [[v[[
2
= (
n

i=1
[v
i
[
2
)
1/2
= (v, v)
1/2
, [[v[[

= max
1in
[v
i
[.
Norma [[ [[
2
se numeste norma euclidiana. Este usor de aratat ca pentru
orice p [0, ) aplicat ia v|v|
p
= (

n
i=1
[v
i
[
p
)
1/p
este o norma pe K
n
si pentru orice v K
n
aplicat ia p
v
(p) = |v|
p
este descrescatoare si
lim
p
[[v[[
p
= [[v[[

.
Propozit ia 1.2 Intr-un K-spat iu vectorial nit dimensional, V, orice doua
norme snt echivalente.
Demonstrat ie. Sa aratam ca orice norma | | pe spat iul nit dimensional
V este echivalenta cu norma | |

. Fie S = v V ; [[v[[

= 1. Mult imea
S este compacta, deoarece este nchisa si marginita, corespunznd n K
n
frontierei cubului unitate. Avem 0 , S. Funct ia | | este continua pe S
deci si atinge marginile. Fie M
1
= sup
xS
|x| si M
2
= inf
xS
|x|. Avem
M
1
M
2
> 0 caci |x| = 0 x = 0 , S. Fie x V , x ,= 0. Obt inem
[[(x/[[x[[

)[[

= 1 deci (x/[[x[[

) S de unde rezulta M
2
|(x/[[x[[

)|
22 Capitolul 1. Sisteme de ecuatii liniare
M
1
deci M
2
[[x[[

[[x[[ M
1
[[x[[

. Ultima inegalitate, de mai sus, este


adevarata si pentru x = 0 deci este adevarata pentru orice x V , adica
norma | | este echivalenta cu norma | |

. Cum relat ia de echivalent a ntre


norme este o relat ie reexiva, simetrica si tranzitiva rezulta ca orice doua
norme snt echivalente. 2
O aplicat ie | | : /
n
(K)R care verica proprietat ile:
|A| 0 A /
n
si |A| = 0 A = 0
|A| = [[ |A|, pentru orice K, A /
n
,
[[A+B[[ [[A[[ +[[B[[, pentru orice A, B /
n
,
[[AB[[ [[A[[ [[B[[, pentru orice A, B /
n
.
se numeste norma matriciala.
Inelul /
n
(K) ind un K-spat iu vectorial de dimensiune n
2
, primele trei
proprietat i de mai sus snt cele care denesc o norma ntr-un spatiu nit
dimensional de dimensiune n
2
. Evident, ultima proprietate este specica
pentru matricile patrate.
Fiind data | | o norma vectoriala pe K
n
, aplicat ia | | : /
n
(K)R
denita prin
|A| = sup
vK
n
,v,=0
|Av|
|v|
= sup
|v|1
|Av| = sup
|v|=1
|Av|
este o norma matriciala, ce poarta numele de norma matriciala subordonat a
normei vectoriale date. Rezulta, din denit ia unei norme subordonate, ca
|Av| |A| |v| pentru orice v K
n
si ca |A| poate denit si prin
|A| = infM R; |Av| M|v|, v K
n

Cum sfera unitate n K


n
este compacta, exista (cel put in) un vector u astfel
ca u ,= 0 si |Au| = |A| |u| . Sa observam, de asemenea, ca pentru o
norma subordonata avem |I| = 1.
Aplicat ia | |
F
: /
n
R denita prin
|A|
F
= (

i,j
[a
ij
[
2
)
1/2
= tr(A

A)
1/2
1. Elemente de analiz a matricial a 23
este o norma matriciala, norma Frobenius. Aceasta norma este invarianta
pentru transformari unitare, iar daca n 2 aceasta norma matriciala nu
este subordonata nici unei norme vectoriale, deoarece |I|
F
=

n.
Aplicat iile | |
1
, | |

, | |
2
; /(K)R denite prin
|A|
1
= max
1jn
n

i=1
[a
ij
[, |A|

= max
1in
n

j=1
[a
ij
[, |A|
2
=
_
(A

A)
snt norme matriciale subordonate normelor vectoriale | |
1
, | |

, | |
2
.
Este usor de observat ca:
(1) Norma |A|
2
este egala cu maximum valoarilor singulare ale matricei
patrate A.
(2) Daca matricea A este hermitiana sau simetrica, avem |A|
2
= (A).
(3) Daca o matrice A este unitara ( ortogonala ) avem [[A[[
2
= 1.
(4) Normele | |
1
si | |

se calculeaza usor pornind de la cunoasterea


elementelor matricei A, nu acelasi lucru se poate spune despre norma
| |
2
.
Teorema 1.3 Fie A o matrice patrata oarecare.
1) Daca | | este o norma matriciala (subordonata sau nu), atunci
(A) [[A[[.
2) Daca > 0, exista cel put in o norma matriciala subordonata astfel ca
|A| (A) +
Demonstrat ie. Fie p un vector ce verica p ,= 0, Ap = p, [[ = (A) si
e q un vector astfel ca matricea pq
T
sa e nenula. Deoarece (A)|pq
T
| =
|pq
T
| = |Apq
T
| |A| [[pq
T
[[, de unde (A) |A|. Pentru A, matrice
data, exista o matrice inversabila U (conform Teoremei 1.1(2) ) astfel ca
U
1
AU sa e superior triunghiulara, de exemplu.
24 Capitolul 1. Sisteme de ecuatii liniare
U
1
AU =
_
_
_
_
_
_
_
_

1
t
12
t
13
t
1n

2
t
23
t
2n
.
.
.
.
.
.

n1
t
n1,n

n
_
_
_
_
_
_
_
_
unde scalarii
i
snt valorile proprii ale matricii A. Pentru orice scalar ,= 0
asociem matricea D

= diag(1, , . . . ,
n1
) astfel ca
(UD

)
1
A(UD

) =
_
_
_
_
_
_
_
_

1
t
12

2
t
13

n1
t
1n

2
t
23

n2
t
2n
.
.
.
.
.
.

n1
t
n1,n

n
_
_
_
_
_
_
_
_
Fiind dat > 0, alegem numarul astfel ca
n

j=i+1
[
ji
t
ij
[ , 1 i n 1
Aplicat ia | | : B /
n
|B| = |(UD

)
1
B(UD

)|

are pe de-o parte


proprietatea |A| (A) + (din alegerea lui si denit ia normei matriciale
| |

) si pe de alta parte este o norma matriciala. Sa vericam ca | | este


o norma matriciala subordonata normei vectoriale
v K
n
|v|

= [[(UD

)
1
v[[

.
Intr-adevar,
[[A[[ = sup
[[x[[

=1
[[Ax[[ = sup
[[x[[

=1
[[(UD

)
1
Ax[[

=
= sup
[[(UD

)
1
x[[

=1
[[(UD

)
1
Ax[[

= sup
[[y[[=1
[[(UD

)
1
A(UD

)y[[

=
= [[(UD

)
1
A(UD

)[[

= [[A[[.
2
Folosind Teorema 1.3 este usor de vazut ca daca A /
n
(K) atunci
(A) = inf
S
1
(A) = inf
S
2
(A) = inf
S
3
(A) (1.3)
1. Elemente de analiz a matricial a 25
unde o
1
este mult imea normelor matriciale pe /
n
(K), o
2
este mult imea
normelor maticiale pentru care matricea identitate I are norma 1, si o
3
este
mult imea normelor matriciale subordonate unei norme vectoriale.
Urmatorul criteriu de inversabilitate a matricelor de forma I B, folosind
raza spectrala, este des folosit in practica.
Propozit ia 1.3 Daca B /
n
(K) si (B) < 1 atunci matricea I B este
inversabila. Reciproca, n general, nu este adevarata.
Demonstrat ie. Presupunem, prin absurd, ca (B) < 1 dar I B este
singulara. Exista atunci u ,= 0 astfel ca (I B)u = 0, adica 1 ar valoare
proprie pentru matricea B, deci (B) 1, o contradict ie. Pentru matricea
B = diag (3, 2) avem (B) = 3 iar I B este inversabila deoarece det(I B)
este 2. 2
Intr-un spat iu vectorial V nzestrat cu o norma | | spunem ca un sir (v
k
)
de elemente din V converge la un element v V , sau ca v este limita sirului
(v
k
), daca lim
k
[[v
k
v[[ = 0 si scriem v = lim
k
v
k
. Daca spat iul este
de dimensiune nita, echivalent a normelor arata ca convergent a unui sir este
independenta de norma aleasa. Alegerea n particular a normei | |

arata
ca convergent a unui sir de vectori este echivalenta cu convergent a a n siruri
( n = dimensiunea spat iului) de scalari formate de componentele vectorilor.
Considernd /
m,n
(K) mult imea matricilor de tipul (m, n) ca un spat iu vec-
torial de dimensiune mn, vedem n acelasi mod ca convergent a unui sir de
matrici de tipul (m, n) este independenta de norma aleasa, si ca ea este
echivalenta cu convergent a a mn siruri de scalari, formate cu elementele
matricilor.
Rezultatul pe care l damn continuare este o condit ie necesara si sucienta
pentru ca sirul format cu puterile succesive ale unei matrici (patrate) sa
converga la matricea nula. Din aceeste condit ii decurge criteriul fundamental
de convergent a a metodelor iterative de rezolvare a sistemelor liniare.
Teorema 1.4 Daca B este o matrice patrata atunci urmatoarele armat ii
snt echivalente:
(1) lim
k
B
k
= 0;
(2) lim
k
B
k
v = 0 pentru orice vector v;
(3) (B) < 1;
26 Capitolul 1. Sisteme de ecuatii liniare
(4) |B| < 1 pentru cel put in o norma matriciala.
(5) seria I +B + este convergenta.
Demonstrat ie. (1)=(2). Fie | | o norma vectoriala si | | norma matri-
ciala subordonata. Fiind dat un vector v, inegalitatea |B
k
v| |B
k
| |v|
arata ca lim
k
B
k
v = 0.
(2)=(3). Daca (B) 1, putem gasi un vector p astfel ca p ,= 0, Bp = p,
[[ 1. Atunci sirul (B
k
p) nu converge catre 0, deoarece B
k
p =
k
p.
(3)=(4). Fie 0 < < 1 (B). Din Teorema 1.3 rezulta ca exista o norma
| | subordonata unei norme vectoriale astfel ca |B| (B) + . Deci
|B| < 1.
(4)=(1). Se aplica inegalitatea |B
k
| |B|
k
pentru norma matriciala n
care condit ia (4) este vericata.
(3)=(5). Fie S
k
= I +B+ +B
k
. Din (B) < 1 rezulta IB inversabila
si B
k
0, deci S
k
= (I B)
1
(I B
k+1
) converge la (I B)
1
, adica seria
I +B + este convergenta.
(5)=(1). Daca seria converge atunci B
k
0. 2
Folosind norma, putem da un criteriu simplu de inversabilitate a unei
matrici patrate.
Teorema 1.5
1) Daca [[ [[ este o norma matriciala pentru care |I| = 1 si B o matrice
vericnd |B| < 1, atunci matricea I B este inversabila si
|(I B)
1
| 1/(1 |B|).
2) Daca o matrice de forma I B este singulara, atunci in mod necesar
|B| 1 pentru orice norma matriciala.
Demonstrat ie. 1) Cum (B) |B| < 1 rezulta ca matricea I B este
inversabila si (I B)
1
= I +B(I B)
1
, de unde
|(I B)
1
| 1 +|B| |(I B)
1
|
ceea ce conduce la inegalitatea ceruta.
2) Daca matricea (I B) este singulara, exista u ,= 0 astfel ca (I B)u = 0,
adica 1 este valoare proprie pentru B, deci (B) 1. Cum pentru orice
norma matriciala avem |B| (B), rezulta ca |B| 1. 2
1. Elemente de analiz a matricial a 27
Condit ia |B| < 1 se poate verica usor n practica, pentru normele uzuale.
In legatura cu acest criteriu vom da si o condit ie pentru ca o matrice per-
turbata sa ramna inversabila.
Teorema 1.6 Daca exista matricea A
1
si o norma matriciala cu |I| = 1
pentru care [[A
1
[[ , [[A B[[ , < 1 atunci, matricea B este
inversabila si |B
1
| /(1 ).
Demonstrat ie. Daca matricea A
1
B este inversabila atunci si matricea
B = A(A
1
B) este inversabila si are inversa B
1
= (A
1
B)
1
A
1
. Existent a
inversei (A
1
B)
1
rezulta din teorema precedenta, pentru ca
A
1
B = I (I A
1
B)
si
[[I A
1
B[[ = [[A
1
(AB)[[ [[A
1
[[ [[AB[[ < 1
Tot de aici rezulta si majorarea |(A
1
B)
1
| 1/(1 ) deci
|B
1
[[ = [[(A
1
B)
1
A
1
[[ [[(A
1
B)
1
[[ [[A
1
[[ /(1 ).
2
Din teorema de mai sus se deduce ca mult imea matricilor inversabile din
/
n
(K) este deschisa n K-spat iul normat /
n
(K
n
) si ca aplicat ia AA
1
este continua. Se poate demonstra un rezultat mai general si anume.
Teorema 1.7 Fie n un numar natural, D o mult ime din K
n
si xA(x)
o aplicat ie a mult imii D n /
n
(K) continu a n punctul x
0
D ( D ind
considerata cu topologia indusa de K
n
). Daca A(x
0
) este inversabila, atunci
exista r > 0 si M > 0 astfel nct pentru orice x D cu |x x
0
| r,
matricea A(x) este inversabila si |A(x)
1
| M. Aplicat ia xA(x)
1
este
continua n punctul x
0
.
Demonstrat ie. Fie = [[A(x
0
)
1
[[ si 0 < < 1/. Aplicat ia xA(x)
ind continua n punctul x
0
, exista r > 0 astfel nct |A(x) A(x
0
)|
pentru orice x D cu [[x x
0
[[ r. Din Teorema 1.6 rezulta ca A(x)
este inversabila si |A(x)
1
| M, unde M = /(1 ). Continuitatea
aplicat iei xA(x)
1
rezulta din continuitatea aplicat iei xA(x) si din
|A(x)
1
A(x
0
)
1
| = |A(x)
1
[A(x
0
)A(x)]A(x
0
)
1
| M|A(x)A(x
0
)|.
28 Capitolul 1. Sisteme de ecuatii liniare
2
Rezultatul ce urmeaza serveste la studiul rapiditat ii convergent ei metodelor
iterative.
Teorema 1.8 Daca B este o matrice patrata, si | | este o norma matri-
ciala, atunci
lim
k
|B
k
|
1/k
= (B).
Demonstrat ie. Cum (B) [[B[[ (Teorema 1.3) si cum (B) = ((B
k
))
1/k
avem deja (B) [[B
k
[[
1/k
pentru orice k. Vom stabili pe de alta parte ca
pentru orice > 0 exista un ntreg N = N() astfel ca k N=|B
k
|
1/k

(B) + ceea ce demonstreaza relat ia ceruta. Fie deci > 0 dat. Ma-
tricea B

= B/((B) +) verica (B

) < 1 si utiliznd Teorema 1.4 rezulta


lim
k
B
k

= 0. Prin urmare, exista un intreg N = N() astfel ca


k N=[[B
k

[[ =
[[B
k
[[
((B) +)
k
1
ceea ce atrage relat ia ceruta. 2
1.3 Matrici particulare
Vom pune n evident a cteva proprietat i remarcabile pe care le au unele
matrici particulare, proprietat i ce vor des folosite n ceea ce urmeaza.
O matrice patrat a A se zice reductibila daca prin permutari de linii si
coloane poate adusa la forma
_
B
11
B
12
0 B
22
_
unde B
11
si B
22
snt matrici patrate. In caz contrar, matricea A se numeste
ireductibila.
Denit ia reductibilitat ii se exprima pe componente astfel: exista o submul-
t ime nevida J a multimii 1, . . . , n astfel ncit a
ij
= 0 pentru orice i J
si j , J. Daca o matrice A este reductibila atunci rezolvarea sistemului
Ax = b poate redus la rezolvarea a doua sisteme de dimensiune mai mica.
Aceasta proprietate este foarte importanta din punct de vedere practic. Din
faptul ca o matrice este ireductibila rezulta ca nu se poate reduce problema
Ax = b la rezolvarea a doua sisteme de ordin inferior.
Un criteriu de ireductibilitate este prezentat n cele ce urmeaza.
1. Elemente de analiz a matricial a 29
Teorema 1.9 Pentru ca o matrice patrata A de ordin n sa e ireductibil a
este necesar si sucient ca orice pereche de indicii (i, j) I I,unde I =
1, . . . , n sa e conexata n matrice, adica pentru orice astfel de pereche sa
existe un lant
a
ii
1
, a
i
1
i
2
, . . . , a
i
m
j
(1.4)
n care toate elementele sa e diferite de zero.
Demonstrat ie. Daca A este reductibila exista I
1
I I
1
,= I astfel ca
a
ij
= 0 pentru orice i I
1
, j , I
1
. Fie (i, j) cu i I
1
si j , I
1
. Nu exista un
lant de forma (1.4) cu un singur element. Pe de alta parte, daca exista un
indice i
1
pentru care a
ii
1
,= 0 atunci i
1
I
1
, de unde a
i
1
j
= 0, deci nu exista
nici lant uri de forma (1.4) formate din doua elemente. Continund astfel,
constatam ca nu exista nici un lant de forma (1.4). Invers, sa presupunem
ca matricea A este ireductibila, sa xam indicele i si sa notam I
1
mult imea
indicilor j care snt conexat i cu i. Mult imea I
1
nu este vida, pentru ca daca
ar vida, matricea A ar avea o linie nula, deci ar , evident, reductibila.
Sa presupunem ca exista indici k I I
1
si sa notam cu I
2
= I I
1
. Daca
ar exista un indice j I
1
si un indice k I
2
, pentru care a
jk
,= 0, atunci
am putea forma un lant care conexeaza perechea (i, j), deci s-ar contrazice
denit ia mult imii I
2
. Aceasta nseamna ca a
jk
= 0 pentru orice j I
1
si
k I
2
, deci ca matricea A este reductibila. Contradict ia la care am ajuns
ne arata ca mult imea I
1
coincide cu mult imea I, deci, n denitiv, ca orice
pereche de indici poate conexata n matrice. 2
Daca A = (a
ij
) si B = (b
ij
) snt doua matrici de acelasi ordin, n, spunem
ca A B (A > B) daca a
ij
b
ij
(a
ij
> b
ij
) pentru orice 1 i, j n. Daca
0 este matricea identic nula si daca A 0 ( A > 0) spunem ca matricea A
este o matrice nenegativa (pozitiva). Daca B = (b
ij
) este o matrice oarecare
vom nota cu [B[ matricea care are elementele [b
ij
[.
Teorema 1.10 Fie A /
n
(R) si presupunem ca A 0. Atunci (IA)
1
exista si este nenegativa daca si numai daca (A) < 1.
Demonstrat ie. Daca (A) < 1 atunci (I A)
1
exista si (I A)
1
=

i=0
A
i
si deoarece ecare termen al sumei este nenegativ rezulta (I A)
1

0. Reciproc, presupunem ca (I A)
1
0 si e o valoare proprie a lui
A cu vectorul propriu asociat x ,= 0. Atunci [[ [x[ A [x[, astfel ca
(I A)[x[ (1 [[)[x[. Prin urmare [x[ (1 [[)(I A)
1
[x[, din care
rezulta [[ < 1, deoarece x ,= 0 si (I A)
1
0, deci (A) < 1. 2
30 Capitolul 1. Sisteme de ecuatii liniare
Teorema 1.11 Daca A si B snt doua matrici de ordin n astfel ca
0 [B[ A atunci (B) (A).
Demonstrat ie. Fie = (A), e > 0 arbitrar, si e B
1
= ( + )
1
B,
A
1
= ( +)
1
A. Este clar ca (A
1
) < 1 si ca
[B
1
[
k
A
k
1
, k = 1, 2, . . .
Cum lim
k
A
k
1
= 0 rezulta lim
k
B
k
1
= 0, deci (B
1
) < 1 si prin urmare
(B) < +. Deoarece a fost arbitrar rezulta (B) adica (B) (A).
2
In studiul matricelor nenegative urmatorul rezultat, dat n 1907 de Perron
[69] pentru matrici pozitive si completat apoi n 1912 de Frobenius [26]
pentru matrici nenegative, este fundamental.
Teorema 1.12 (PerronFrobenius) Daca A /
n
(R) este o matrice
nenegativa ireductibila, atunci:
(i) Matricea A admite o valoare proprie reala pozitiv a egala cu raza sa
spectrala (A).
(ii) Pentru valoarea proprie (A) exista un vector propriu x > 0 ( x
i
> 0,
i = 1, . . . , n ).
(iii) Raza spectrala (A) creste daca unul din elementele matricei A creste.
(iv) (A) este o valoare proprie simpla pentru matricea A.
Un rezultat important privind matricele nenegative este dat de teorema
urmatoare.
Teorema 1.13 (SteinRosenberg) Daca B 0, B = L + U cu L strict
inferior triunghiulara si U superior triunghiulara, iar C = (IL)
1
U atunci
una si numai una din asert iunile urmatoare este adevarata.
1) (B) = (C) = 0;
2) 0 < (C) < (B) < 1;
3) 1 = (B) = (C);
4) 1 < (B) < (C).
1. Elemente de analiz a matricial a 31
Proprietatea de diagonal dominant a este des folosita pentru demonstrarea
existent ei inversei unei matrici si n convergent a unor metode iterative.
O matrice A /
n
(K) se zice:
diagonal dominanta daca [a
ii
[

j,=i
[a
ij
[ 1 i n.
strict diagonal dominanta daca [a
ii
[ >

j,=i
[a
ij
[ 1 i n.
diagonal dominanta ireductibila daca
(1) A este ireductibila;
(2) A este diagonal dominanta;
(3) exista i 1, . . . , n astfel ca [a
ii
[ >

j,=i
[a
ij
[.
Urmatoarele rezultate, grupate n propozit ia de mai jos, snt de un real folos
n analiza matriciala.
Propozit ia 1.4 Fie A /
n
(K) si 1 = 1, . . . , n.
1) Daca A este o matrice strict diagonal dominanta atunci A este
inversabila si a
ii
,= 0 i 1.
2) Daca matricea A este strict diagonal dominanta si a
ij
0 pentru orice
i ,= j atunci A
1
0 si pentru orice i 1 avem a
ii
> 0.
3) Daca A este diagonal dominanta ireductibila atunci A este inversabila
si a
ii
,= 0 pentru orice i 1.
4) Daca A este diagonal dominanta ireductibila iar D = diag(A) atunci
(B) < 1 pentru matricea B = I D
1
A.
5) Daca A este diagonal dominanta ireductibila iar a
ii
> 0 i 1 atunci
pentru toate valorile proprii ale matricei A avem Re > 0.
Demonstrat ie.
1) Daca matricea A nu este inversabila, exista un element x K
n
, x ,= 0,
pentru care Ax = 0. Fie x
i
, (i 1) componentele elementului x si i
0
1
astfel ca [x
i
0
[ = max
i7
[x
i
[. Din relat ia

n
j=i
a
i
0
j
x
j
= 0 rezulta
[a
i
0
i
0
[[x
i
0
[ = [

j,=i
0
a
i
0
j
x
j
[ [x
i
0
[[

j,=i
0
[a
i
0
j
[
32 Capitolul 1. Sisteme de ecuatii liniare
de unde , folosind faptul ca [x
i
0
[ , = 0 se obt ine
[a
i
0
i
0
[

j,=i
0
[a
i
0
j
[
ceea ce contrazice faptul ca matricea A este strict diagonal dominanta.
2) Fie s > max[a
ii
[ si B = s I A. Matricea B are elementele pozitive
(B 0). Intr-adevar, b
ij
= a
ij
0 i ,= j si b
ii
= s a
ii
> 0. Matricea
A este inversabila, deci
A
s
= I
B
s
este inversabila si
sA
1
=
_
I
B
s
_
1
= I +
B
s
+
B
2
s
2
+
Cum B 0 si s > 0 rezulta ca sA
1
0, deci A
1
0. Din
1 = (A A
1
)
ii
=
n

j=1
(A)
ij
(A
1
)
ji
= a
ii
(A
1
)
ii
+

j,=i
a
ij
(A
1
)
ji
Cum a
ij
0 j ,= i si (A
1
)
ji
0 rezulta a
ii
(A
1
)
ii
> 0. In plus, din
(A
1
)
ii
0 rezulta a
ii
> 0 si (A
1
)
ii
> 0.
3) Matricea A ind diagonal dominanta ireductibila avem

j,=i
[a
ij
[ [a
ii
[ i 1 (1.5)
si exista un indice i
0
1 pentru care

j,=i
0
[a
i
0
j
[ < [a
i
0
i
0
[ (1.6)
Daca matricea A nu este inversabila exista un element x K
n
, x ,= 0 pentru
care Ax = 0. Fie J mult imea indicilor j J pentru care [x
j
[ = max
iI
[x
i
[.
Observam ca [x
i
0
[ < [x
j
[ daca j J, pentru ca altfel s-ar contrazice ine-
galitatile (1.5). Intr-adevar, din

k
a
i
0
k
x
k
= 0 se deduce [a
i
0
i
0
[[x
i
0
[
[x
j
[

k,=i
0
[a
i
0
k
[ deci, daca x
i
0
= [x
j
[, atunci [a
i
0
i
0
[

k,=i
0
[a
i
0
k
[. Mult imea
J nu coincide deci cu I. Pentru j J si l , J avem a
jl
= 0, indca altfel se
contrazice ipoteza (1.5). Intr-adevar
[a
jj
[[x
j
[

k,=j
[a
jk
[[x
k
[
1. Elemente de analiz a matricial a 33
de unde
[a
jj
[

k,=j
[a
jk
[
[x
k
[
[x
j
[
<

k,=j
[a
jk
[.
Insa, aceasta nseamna ca matricea A este reductibila. Contradict ia ne arata
ca A este o matrice inversabila. Daca exita un i I astfel ca a
ii
= 0 atunci
a
ij
= 0 pentru orice j I deci matricea A nu este inversabila.
4) Matricea A ind diagonal dominanta ireductibila este inversabila si a
ii
,= 0
i I. Deci D
1
exista. Evident b
ii
= 0 si b
ij
= a
ij
/a
ii
i ,= j. Din
faptul ca A este diagonal dominanta ireductibila rezulta

j7
[b
ij
[ 1 i 1
si ca exista i 1 astfel ca

j7
[b
ij
[ < 1
ceea ce arata ca |B|

1. Folosind Teorema 1.3 obt inem (B) |B|


1. Vom arata acum ca (B) < 1. Presupunem ca exista valoare proprie
pentru B cu [[ = 1. Fie x ,= 0 un vector propriu pentru matricea B asociat
valorii proprii . Deci
n

j=1
b
ij
x
j
= x
i
i 1.
Vom arata ca [x
j
[ = |x|

j 1. Pentru un i 1 pentru care [x


i
[ = |x|

avem
n

j=1
[b
ij
[|x|

|x|

j=1
[b
ij
[[x
j
[
deoarece
|x|

= [x
i
[ = [[ [x
i
[ = [x
i
[ = [
n

j=1
b
ij
x
j
[
n

j=1
[b
ij
[ [x
j
[
si
n

j=1
[b
ij
[ 1 deci
n

j=1
[b
ij
[([x
j
[ |x|

) 0.
34 Capitolul 1. Sisteme de ecuatii liniare
Cum [x
j
[ |x|

0 atunci b
ij
,= 0 implica [x
j
[ = |x|

. Fie I
1
= i
1, [x
i
[ = |x|

. Daca I
1
,= 1 atunci I
2
= 1 I
1
,= . Pentru j I
2
exista
i I
1
astfel ca b
ij
,= 0 deoarece 1 = I
1
I
2
, I
1
I
2
= iar B este ireductibila.
Folosind observat iile de mai sus avem ca [x
j
[ = |x|

. Deci I
1
= 1, adica
[x
j
[ = |x|

j 1. Avem prin urmare |x|

= [x
i
[

n
j=1
[b
ij
[ |x|

deci

n
j=1
[b
ij
[ 1 pentru orice i 1 ceea ce contrazice faptul ca exista un
indice i 1 pentru care

n
j=1
[b
ij
[ < 1. Deci (B) < 1.
5) Din punctul 1) deja demonstrat, matricea A este nesingulara. Fie x un
vector propriu asociat valorii propri . Avem
x
i
=
n

j=1
a
ij
x
j
i I
e
( a
ii
)x
i
=

j,=i
a
ij
x
j
i I.
In relat ia de mai sus alegem i astfel ca [x
i
[ = |x|

= max
jI
[x
j
[ si
obt inem
[ a
ii
[

j,=i
[a
ij
[
ceea ce arata ca valorile proprii apart in reuniunii discurilor C
i
avnd centrele
n a
ii
si razele egale cu

j,=i
[a
ij
[. Cuma
ii
este strict pozitiv i I reuniunea
discurilor C
i
nu cont ine dect puncte avnd partea reala strict pozitiva, caci
daca nu se obt ine
a
ii
<

j,=i
[a
ij
[
n afara cazului n care = 0 unde avem posibil egalitate, dar aceasta este
exclus caci A este inversabila. 2
O matrice A /
n
(R) se zice diagonal dominanta n sens generalizat
( strict diagonal dominanta n sens generalizat ) daca exista o matrice diago-
nala E avnd elementele diagonale strict pozitive astfel ca matricea E
1
AE
sa e diagonal dominanta ( strict diagonal dominanta ).
Propozit ia 1.5 Daca A = (a
ii
) /
n
(R) este o matrice strict diagonal
dominanta n sens generalizat atunci A este nesingulara si a
ii
,= 0 pentru
orice 1 i n.
1. Elemente de analiz a matricial a 35
Demonstrat ie. Matricea A este strict diagonal dominanta n sens genera-
lizat daca exista matricea D = diag(x
1
, . . . , x
n
) cu x
i
> 0 cnd 1
i n astfel ca AD sa e strict diagonal dominanta. Matricea (AD) este
nesingulara si cum exista D
1
rezulta ca matricea A este nesingulara si
A
1
= D(AD)
1
. In plus
[(AD)
ii
[ >

j,=i
[(AD)
ij
[ 1 i n
deci
[a
ii
[x
i
>

j,=i
[a
ij
[x
j
1 i n
de unde rezulta a
ii
,= 0. 2
O matrice A /
n
(R) se zice monotona daca A este inversabila si
A
1
0.
Teorema 1.14 O matrice A /
n
(R) este monotona daca si numai daca
are loc urmatoarea incluziune
v R
n
; Av 0 v R
n
; v 0
Demonstrat ie. Daca matricea A este monotona si daca vectorul Av 0
deducem v = A
1
(Av) 0 adica incluziunea de mai sus are loc. Reciproc,
presupunem ca incluziunea este satisfacuta. Atunci
Av = 0 =A(v) 0 =v 0 =v = 0
ceea ce arata ca matricea A este inversabila. Pe de alta parte, coloana j
a matricei A
1
este vectorul b
j
= A
1
e
j
, unde e
j
= (
1j
, . . . ,
nj
)
T
. Cum
Ab
j
= e
j
este 0, rezulta b
j
0, ceea ce demonstreaza ca matricea A
1
este pozitiva (A
1
0). Deci matricea A este inversabila si A
1
0, adica
matricea A este monotona. 2
O matrice A /
n
(R) se zice M - matrice daca exista s > 0 si
B /
n
(R), B 0 astfel ca A = sI B si (B) s.
Propozit ia 1.6 Daca A /
n
(R) atunci:
1) A = (a
ij
) este o M- matrice nesingulara daca si numai daca a
ij
0
pentru i ,= j si A
1
0.
36 Capitolul 1. Sisteme de ecuatii liniare
2) A este o M-matrice nesingulara daca si numai daca a
ij
0 pentru
i ,= j si A este o matrice strict diagonal dominanta n sens generalizat.
Demonstrat ie. 1) Presupunem ca A este o M- matrice nesingulara. Atunci
A = sI B
cu s R, s > 0, B 0 si (B) < s. Pentru i ,= j avem a
ij
= (sI B)
ij
=
(B)
ij
= b
ij
0, deci a
ij
0 i ,= j. Sa aratam ca A
1
0. Cum
(s
1
B) < 1, folosind Teorema 1.5, avem ca s
1
A = Is
1
B este o matrice
inversabila. Seria
I +
B
s
+
B
2
s
2
+ (1.7)
converge si
sA
1
= (I
B
s
)
1
= I +
B
s
+
B
2
s
2
+
Cum B 0 si s > 0 avem A
1
0. Reciproc , presupunem a
ij
0
i, j, i ,= j si A
1
0. Putem scrie A = sI B cu B 0 si s > 0. Fie
S
k
= I +
B
s
+. . . +
B
k+1
s
k+1
Avem
_
I
B
s
_
S
k
= I
B
k+1
s
k+1
sau nca
sA
1
=
_
I
B
s
_
1
= S
k
+
_
I
B
s
_
1
B
k+1
s
k+1
.
Fiecare element a lui S
k
este un sir crescator marginit deci convergent. Seria
(1.6) converge ceea ce, utiliznd Teorema 1.4, implica (s
1
B) < 1.
2) Daca A este strict diagonal dominantan sens generalizat, exista o matrice
diagonala D cu elemente diagonale strict pozitive astfel ca AD sa e strict
diagonal dominanta. In plus (AD)
ij
0 pentru i ,= j, deoarece (AD)
ij
=
a
ij
x
j
. Folosind punctul 1) din Propozit ia 1.4 rezulta ca (AD)
ii
> 0 deci AD
este o M- matrice si la fel A este o M-matrice. Reciproc e A o M-matrice
nesingulara. Atunci avem a
ij
0 i ,= j si a
ii
> 0 iar din Propozit ia
1.4 punctul 2) rezulta A
1
0. Fie vectorul e denit prin e
T
= (1, . . . , 1)
si x = A
1
e. Este clar ca x > 0, caci daca x
i
= 0 avem 0 =

j
(A
1
)
ij
de
1. Elemente de analiz a matricial a 37
unde (A
1
)
ij
= 0 adica A
1
este singulara. Consideram matricea diagonala
D cu d
ii
= x
i
. Evident De = x si ADe = Ax = e > 0 ceea ce semnica
a
ii
x
i
+

j,=i
a
ij
x
j
> 0
dar a
ij
0 i ,= j deci [a
ij
[ = a
ij
si
[a
ii
[x
i
>

j,=i
[a
ij
[x
j
de unde rezulta ca matricea A este strict diagonal dominanta n sens
generalizat. 2
Matricea M(A) = (m
ij
) denita prin m
ii
= [a
ii
[ si m
ij
= [a
ij
[ i ,= j
se numeste matrice de comparare asociata matricii A = (a
ij
).
Se spune ca A este o H-matrice daca matricea de comparare M(A) este o
M-matrice.
Propozit ia 1.7 Daca A /
n
(R) atunci:
1) A este o H-matrice nesingulara daca si numai daca A este strict
diagonal dominanta n sens generalizat.
2) Daca A o matrice diagonal dominanta ireductibila atunci A este o
H-matrice.
Demonstrat ie. 1) Sa observam pentru nceput ca o matrice A este strict
diagonal dominanta n sens generalizat daca si numai daca M(A) este strict
diagonal dominantan sens generalizat. Acum, matricea A ind o H-matrice
rezulta ca M(A) este o M-matrice si conform denit iei unei M-matrici
rezulta ca exista s > 0 si B 0 astfel ca M(A) = sI B si (B) < s. De
aici obt inem (s
1
B) < 1 adica matricea I s
1
B este inversabila si cum
(I s
1
B)
1
= s((M(A))
1
rezulta M(A) inversabila. Utiliznd Propozit ia
1.6, din faptul ca M(A) este nesingulara si o M-matrice rezulta ca M(A)
este strict diagonal dominanta n sens generalizat deci A este strict diagonal
dominanta n sens generalizat. Reciproc, matricea A ind strict diagonal
dominanta n sens generalizat rezulta M(A) strict diagonal dominanta n
sens generalizat. Cum (M(A))
ij
0 pentru i ,= j utiliznd Propozit ia 1.6
rezulta ca M(A) este o matrice nesingulara, deci A este o H-matrice. Cum
pe de o parte A este nesingulara, ind strict diagonal dominanta n sens
generalizat rezulta ca A este o H-matrice nesingulara.
38 Capitolul 1. Sisteme de ecuatii liniare
2) Daca A este diagonal dominanta ireductibila atunci matricea de com-
parare M(A) este diagonal dominanta ireductibila si folosind Propozit ia 1.4
punctul 3) obt inem ca M(A) este o matrice inversabila si m
ii
= [a
ii
[ , = 0
pentru i 1, . . . , n. Daca D este matricea diagonala formata cu elementele
m
ii
= [a
ii
[, din cele de mai sus, rezulta ca D
1
exista. Fie B = ID
1
M(A).
Cum M(A)
ij
= [a
ij
[ pentru i ,= j si M(A)
ii
= [a
ii
[, folosind faptul ca M(A)
este diagonal dominanta obt inem B 0. In plus, din Propozit ia 1.4 punctul
4) avem (B) < 1. Cum D
1
M(A) = I B cu B 0 si (B) < 1 rezulta ca
D
1
M(A) este o M-matrice, de unde obt inem ca M(A) este o M-matrice,
deci A este o H-matrice. 2
Valorile proprii ale unei matrici hermitiene ( simetrice ) snt reale. Pentru
a da cteva caracterizari pentru valorile proprii ale unei matrici hermitiene
consideram aplicat ia R
A
: V 0C denita prin
R
A
(v) =
(Av, v)
(v, v)
=
v

Av
v

v
, v ,= 0
numita ctul Rayleigh al matricei A. Notam ca daca matricea A este hermi-
tiana, R
A
are valori reale. Remarcam n plus R
A
(v) = R
A
(v) pentru orice
C 0. In consecint a R
A
(v); v V = R
A
(v); v V, v

v = 1.
Teorema 1.15 Fie A o matrice hermitiana de ordinul n, cu valorile proprii

1

2

n
, iar vectorii propri asociat i p
1
, . . . , p
n
vericnd p

i
p
j
=

ij
. Pentru k = 1, . . . , n, notam V
k
subspat iul din V generat de vectorii p
i
,
1 i k si notam 1
k
mult imea subspat iilor k-dimensionale din V . Luam
V
0
= 0 si 1
0
= V
0
. Valorile proprii admit caracterizarile urmatoare,
pentru k = 1, 2, . . . , n
1)
k
= R
A
(p
k
)
2)
k
= max
vV
k
R
A
(v)
3)
k
= min
vV
k1
R
A
(v)
4)
k
= min
W1
k
max
vW
R
A
(v)
5)
k
= max
W1
k1
min
vW
R
A
(v)
Prin urmare
1. Elemente de analiz a matricial a 39
6) R
A
(v), v V = [
1
,
n
] R
Demonstrat ie. Fie U matricea unitara a caror coloane snt vectorii proprii
p
1
, . . . , p
n
astfel ca U

AU = diag(
1
, . . . ,
n
) = D, si e v un vector nenul
din V . Punnd v = Uw avem
R
A
(v) =
v

Av
v

v
=
w

AUw
w

Uw
=
w

Dw
w

w
= R
D
(w).
Un vector v V
k
ind de forma v =

k
i=1

1
p
i
, vectorul corespunzator w
are forma w = (
1
, . . . ,
k
, 0, . . . , 0)
T
ceea ce se vede imediat pornind de la
egalitatea v = Uw. Prin urmare
R
A
(
k

i=1

i
p
i
) =
_
k

i=1

i
[
i
[
2
_
/
_
k

i=1
[
i
[
2
_
ceea ce demonstreaza (1) si (2). In acelasi mod, orice vector v ortogonal
pe V
k1
ind de forma v =

n
i=k

i
p
i
vectorul corespunzator w are forma
w = (0, . . . , 0,
k
, . . . ,
n
)
T
ceea ce se vede imediat pornind de la egalitatea
v = Uw. Prin urmare
R
A
(
n

i=k

i
p
i
) = (
n

i=k

i
[
i
[
2
)/(
n

i=k
[
i
[
2
)
ceea ce demonstreaza (3). Din (2) avem

k
= max
vV
k
R
A
(v) inf
W1
k
max
vW
R
A
(v)
si ramne deci de demonstrat ca
k
max
vW
R
A
(v) pentru orice W
1
K
. Denim spat iul vectorial V

k1
= v V ; v V
k1
, care este de dimen-
siune (nk +1). Este sucient de demonstrat ca, daca W este un subspat iu
vectorial oarecare de dimensiune k din V , subspat iul W

V

k1
cont ine si
alt i vectori n afara lui zero, adica dim(W V

k1
) 1. In fapt, deducem
atunci din (3) ca
v (W V

k1
0)=
k
R
A
max
vW
R
A
(v).
Cum
dim(W V

k1
) = dim(W) +dim(V

k1
) dim(W +V

k1
)
40 Capitolul 1. Sisteme de ecuatii liniare
unde
W +V

k1
= z V ; z = w +v, w W, v V

k1

relat iile
dim(W) = k, dim(V

k1
) = n k + 1, dim(W +V

k1
) dim(V ) = n
arata ca dim(W +V

k1
) 1. Relat ia (5) se demonstreaza analog. In srsit
relat ia (6) decurge din inegalitat ile
1
R
A
(v)
n
pentru orice v
V 0 (consecint a a inegalitat ilor (2) si (3) ), din continuitatea restrict iei
aplicat iei R
A
la sfera unitate v V ; v

v = 1 a lui V , si din conexitatea


acestei sfere unitate. 2
Remarca 1.1
Din (3) si (2) rezulta:
1
= minR
A
(v); v V ,
n
= maxR
A
(v); v V
2 Metode directe
Vom prezenta n continuare cteva metode directe de rezolvare a sistemelor
liniare. Snt considerate metode directe de rezolvare acele metode care
ntr-un numar nit de operat ii duc la solut ia exacta a sistemului. Evident
se considera faptul ca operat iile se fac fara erori de calcul.
2.1 Principii generale n rezolvarea
sistemelor liniare
Problema pe care o vom considera, n acesta sect iune, este ceea a rezolvarii
numerice a unui sistem liniar Ax = b a carui matrice A este inversabila. Pen-
tru rezolvarea unui sistem liniar Ax = b de ordin superior lui 2 sau 3 trebuie
evitat calculul matricii A
1
, sau sa se utilizeze regula lui Cramer. Aceste
procedee necesita timp de calcul superior celui necesar utiliznd metodele
numerice pe care le vom studia.
a) Examinam mai nti calculul matricii inverse A
1
: rezolvam pentru aceasta
n sisteme liniare
Ax
j
= e
j
, 1 j n (2.1)
unde e
j
este al j-lea vector al bazei canonice iar x
j
al j-lea vector al matricei
A
1
. Acest procedeu consta deci n nlocuirea rezolvarii unui singur sistem
Ax = b cu cel a n sisteme Ax
j
= e
j
de acelasi ordin ! Trebuie n plus
2. Metode directe 41
nmult ita matricea inversa obt inuta A
1
prin vectorul b. La fel procedam
daca trebuie sa calculam solut iile la mai multe sisteme liniare
Ax
m
= b
m
, 1 m N
si chiar daca N este superior lui n (ordinul matricii A), este preferabil sa
nu se calculeze A
1
n acest mod, ci sa se descompuna Antr-un produs de
tipul A = L U unde L este o matrice inferior triunghiulara iar U este o
matrice superior triunghiulara.
Daca este nevoie sa se calculeze inversa A
1
pentru o matrice A, ca de
exemplu n cazul estimarii unor parametrii n problemele statistice, sau pen-
tru determinarea normei unei matrici, procedam ca n (2.1).
b) In ceea ce priveste regula lui Cramer, vom demonstra ca este imposibil
de utilizat n cazurile ce apar n practica. Trebuie sa se calculeze n + 1
determinant i de ordinul n; calculul ecarui determinant cere n general p
n
n!
nmult iri, cnd se calculeaza minorii, unde
p
n
=
n

j=2
1
(j 1)!
(2.2)
si lim
n
p
n
= e 1. Trebuie facut un numar comparabil de adunari. Solut ia
sistemului Ax = b prin regula lui Cramer cere deci 2p
n
(n + 1)! operat ii
aritmetice elementare.
Daca consideram n = 20 avem aproximativ 17 10
19
operat ii. Pentru un
calculator capabil sa efectueze cam 2 milioane de operat ii pe secunda aceasta
reprezinta mai mult de 2 milioane de ani de calcul neintrerupt.
c) In loc de a face apel la determinant i, metodele directe de rezolvare a
sistemelor liniare folosesc urmatorul principiu fundamental.
Daca matricea (presupusa regulata) a unui sistem liniar este
triunghiulara, rezolvarea sistemului este un proces imediat.
Sa presupunem ca avem de rezolvat pentru o matrice superior triunghiulara
U, sistemul Ux = b sau scris pe componente
u
11
x
1
+ u
12
x
2
+ + u
1,n1
x
n1
+ u
1n
x
n
= b
1
u
22
x
2
+ + u
2,n1
x
n1
+ u
2n
x
n
= b
2
.
.
.
u
n1,n1
x
n1
+ u
n1,n
x
n
= b
n1
u
n,n
x
n
= b
n
42 Capitolul 1. Sisteme de ecuatii liniare
matricea U ind nesingulara avem u
ii
,= 0
1
. Putem deci rezolva succesiv
ecare ecuat ie a sistemului ncepnd cu ultima
x
n
= b
n
/u
nn
x
n1
= (b
n1
u
n1,n
x
n
)/u
n1,n1
.
.
.
x
1
= (b
1
u
12
x
2
u
1,n1
x
n1
u
1,n
x
n
)/u
11
sau scris concentrat
x
i
= (b
i

j=i+1
u
ij
x
j
)/u
ii
, i = n, n 1, . . . , 1.
Obt inem astfel solut ia sistemului de mai sus efectund
n mpart iri
1 + 2 + + (n 1) =
n(n 1)
2
nmult iri
1 + 2 + + (n 1) =
n(n 1)
2
adunari
Pentru n = 20, de exemplu, este nevoie de 400 operat ii elementare.
Int elegem, n aceste condit ii, ca obiectivul metodelor numerice este de-a
triangulariza matricea sistemului ce trebuie rezolvat, adica de-a determina
o matrice M, de ordin n inversabila si usor de calculat, astfel ca matricea
MA sa e superior triunghiulara; si apoi sa rezolvam sistemul
MAx = Mb.
Pe de alta parte, remarcam ca ecare necunoscuta x
i
este, dupa rezolvarea
unui sistem superior triunghiular, o funct ie liniara de b
i
, b
i+1
, . . . , b
n
, ceea
ce arata ca
Inversa unei matrici superior (respectiv inferior) triunghiulare este o matrice
superior (respectiv inferior) triunghiulara. Aceasta arata ca inversarea unei
matrici triunghiulare nesingulare este un proces explicit care joaca un rol
important n aplicat iile numerice. Pentru a determina de exemplu, inversa
unei matrici inferior triunghiulare A = (a
ij
), cautam o matrice inferior
1
Determinantul unei matrici triunghiulare este egal cu produsul elementelor diagonale.
2. Metode directe 43
triunghiulara B = (b
ij
) procesnd linie pe linie.
i = 1 a
11
b
11
= 1
i = 2 a
21
b
11
+a
22
b
21
= 0, a
22
b
22
= 1
i = 3 a
31
b
11
+a
32
b
21
+a
33
b
31
= 0, a
32
b
22
+a
33
b
32
= 0, a
33
b
33
= 1
(2.3)
si asa mai departe. Putem rezolva succesiv, de sus n jos, ecuat iile (2.3) si
obt inem necunoscutele: b
11
, b
21
, b
22
, b
31
, b
32
, b
33
, etc. Expresia generala a lui
b
ij
este data de
b
ij
=
_

_
i1

k=j
a
ik
b
kj
_
/a
ii
j < i
1/a
ii
j = i
i = 1, 2, . . . , n
Remarca 2.1 Vom presupune n continuare ca matricea A a sistemului de
rezolvat este reala. In fapt, daca A este cu elemente complexe si daca b C
n
,
putem reducem totul la cazul real lund A = M + iN, M, N matrici reale
de ordinul n, b = p +iq, x = y +iz cu p, q, y, z R
n
. Sistemul Ax = b este
echivalent cu sistemul liniar real
_
M N
N M
_

_
y
z
_
=
_
p
q
_
de ordin 2n si este sucient, deci, de a rezolva sistemele liniare reale.
2.2 Metoda Gauss sau metoda eliminarii
Metoda Gauss este cea mai utilizata metoda directa de rezolvare a sistemelor
liniare.
Metoda Gauss de eliminare
Metoda Gauss este o metoda generala de rezolvare a sistemelor liniare
Ax = b, A matrice inversabila. Aceasta metoda comporta 3 etape:
(i) eliminarea succesiva a necunoscutelor, echivalenta cu determinarea
unei matrici inversabile M astfel ca matricea MA sa e superior
triunghiulara;
44 Capitolul 1. Sisteme de ecuatii liniare
(ii) calcularea vectorului Mb;
(iii) rezolvarea sistemului MAx = Mb unde matricea MA este superior
triunghiulara (prin metoda descrisa n paragraful anterior).
Observat ie. In practica, nu se calculeaza explicit matricea M ci doar ma-
tricea MA si vectorul Mb. Introducerea matricei M foloseste pentru como-
ditatea scrierii.
Vom descrie prima etapa de eliminare. Cel put in unul din elementele a
i1
,
1 i n din prima coloana a matricei A = (a
ij
) este diferit de zero, n caz
contrar matricea A este singulara.
Alegem unul din coecient ii nenuli din prima coloana a lui A ( vom ex-
amina mai trziu cum alegem efectiv acest element nenul, pentru moment
alegerea efectiva nu are important a ) pe care-l vom numi primul pivot al
eliminarii. Apoi, vom permuta linia pivotului cu prima linie, ceea ce
n scriere matriciala, revine la a nmult i matricea A la stnga cu o matrice
de permutare particulara.
Se verica usor ca permutarea liniei i cu linia k este echivalenta cunmult irea
la stnga printr-o matrice de permutare P

, unde este transpozit ia (i, k)


adica (j) = j, j ,= i, j ,= k si (i) = k, (k) = i, deci I
(i,k)
este de
forma (presupunem ca i < k pentru a xa ideile)
I
(i,k)
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1
.
.
.
1
0 1
1 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1
1 0
1
.
.
.
1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
i
k
Lund
P =
_
I daca a
11
este pivotul, si atunci det(P)=1
I
(1,i)
daca a
i1
, i ,= 1 este pivotul, si atunci det(P) = 1
2. Metode directe 45
si matricea
PA = (
ij
) (2.4)
astfel obt inuta are
11
,= 0 ( prin construct ie). Pentru ecare indice
i = 2, . . . , n, nmult im prima linie din (2.4) cu
m
i1
=

i1

11
si apoi o scadem din linia i si se obt ine
b
ij
=
ij
m
i1

1j
, 2 j n.
In scriere matriciala, aceasta revine la nmult irea matricei PA prin matricea
E = N
1
=
_
_
_
_
_
1
m
21
1
.
.
.
.
.
.
m
n1
1
_
_
_
_
_
astfel ca matricea B = EPA este de forma
B =
_
_
_
_
_

11

12

1n
0 b
22
b
2n
.
.
.
.
.
.
.
.
.
0 b
n2
b
nn
_
_
_
_
_
Cum det(E) = 1 avem det(B) = det(E)det(P)det(A) = det(A), ceea ce
arata ca matricea B este nca inversabila.
Prin urmare, cel put in unul dintre elementele b
i2
, 2 i n este diferit
de zero, si n mod natural a doua etapa de eliminare consta n efectuarea
acelorasi operat ii, dar numai pe matricea (b
ij
), 2 i, j n, lasnd prima
linie neschimbata si asa mai departe. Notnd
A = A
1
= (a
(1)
ij
), P = P
1
, P
1
A
1
= (
(1)
ij
), E = E
1
, B = A
2
= E
1
P
1
A
1
= (a
(2)
ij
)
obt inem din aproape n aproape ca rezultat a celei de-a (k 1)-etape de
eliminare 2 k n, o matrice A
k
= E
k1
P
k1
E
1
P
1
A care este de
46 Capitolul 1. Sisteme de ecuatii liniare
forma
A
k
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_

(1)
11

(1)
12

(1)
1,k1

(1)
1k

(1)
1n

(2)
22

(2)
2,k1

(2)
2,k

(2)
2n
.
.
.
.
.
.
.
.
.
.
.
.

(k1)
k1,k1

(k1)
k1,k

(k1)
k1,n
0 a
(k)
kk
a
(k)
kn
.
.
.
.
.
.
.
.
.
0 a
(k)
nk
a
(k)
nn
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
Etapa k de eliminare. Deoarece det(A
k
) = det(A), matricea A
k
este
inversabila, si deci, cel put in un element a
(k)
ik
, k i n este diferit de
zero. Alegem unul dintre elementele nenule a
(k)
ik
ca pivot si schimbam linia
k a matricei A
k
cu linia pivotului. In scriere matriciala, aceasta revine la
a nmult ii matricea A
k
la stnga cu o matrice P
k
care este e I e I
(k,i)
.
Elementul
(k)
kk
al matricii P
k
A
k
= (
(k)
ij
) este diferit de zero. Pentru i =
k+1, . . . , nnmult ind linia k a matricii P
k
A
k
cu m
ik
=
(k)
ik
/
(k)
kk
si scazind-o
din linia i obt inem ca elementul de pe pozit ia (i, k) n noua matrice este nul.
In plus
a
(k+1)
ij
=
(k)
ij
m
ik

(k)
kj
, j = k + 1, . . . , n
Operat ia de eliminare consta n nmult irea la stnga a matricii P
k
A
k
cu
matricea
E
k
= N
k
=
_
_
_
_
_
_
_
_
I
k1
1
m
k+1,k
1
.
.
.
.
.
.
m
nk
1
_
_
_
_
_
_
_
_
Dupa (n 1) etape, matricea
A
n
= E
n1
P
n1
E
1
P
1
A
este o matrice superior triunghiulara, deci am gasit o matrice
M = E
n1
P
n1
E
1
P
1
astfel ca MA sa e superior triunghiulara. Observam ca det(M) = (1)
s
unde s este egal cu numarul de permutari de linii pe care le-am facut n
timpul etapei de eliminare.
2. Metode directe 47
Teorema 2.1 Fie A o matrice patrata (inversabila sau nu). Exista cel put in
o matrice M inversabila astfel ca matricea MA sa e superior triunghiulara.
Demonstrat ie. Acest rezultat este demonstrat mai sus cnd matricea A este
inversabila. Matricea A este singulara daca si numai daca exista un k astfel
ca elementele a
(k)
ik
, k i n din matricea A
k
snt nule. Dar in acest caz
matricea A
k
este deja sub forma A
k+1
si este sucient sa luam P
k
= E
k
= I.
2
Tehnici de pivotare
Facemn cele ce urmeaza cteva precizari privind alegerea pivotului n ecare
etapa de eliminare. Natural, daca lanceputul etapei k de eliminare, elemen-
tul a
(k)
kk
al matricei A
k
este diferit de zero, nimic nu ne mpiedica, din punct
de vedere teoretic, sa-l alegem ca pivot ( deci P
k
= I). Dar din cauza erorilor
de rotunjire, acest mod de a proceda este, n anumite cazuri, nerecomandat.
Din acest punct de vedere exemplul urmator este instructiv. Presupunem ca
lucram n virgula otanta, cu o mantisa de trei cifre, si ntr-un sistem zeci-
mal (pentru a xa ideile si, n acelasi timp, pentru a usura calculele) altfel
zis, datele si rezultatele calculelor intermediare snt rotunjite la primele trei
cifre semnicative.
Consideram sistemul exact
[10
4
]u
1
+u
2
= 1,
u
1
+u
2
= 2,
a carui solut ie exacta este u
1
= 1.00010 . . . 1, u
2
= 0.99990 . . . 1.
Putem lua numarul a
11
= 10
4
ca pivot pentru ca el nu este nul, ceea ce va
conduce n procesul de eliminare la
[10
4
]u
1
+u
2
= 1,
9990u
2
= 9990,
pentru ca numerele (10
4
+ 1) = 9999 si (10
4
+ 2) = 9998 snt rotun-
jite la acelasi numar 9990. Solut ia asitan acest mod u
1
= 0, u
2
= 1
este foarte departe de solut ia exacta ! Din contra, daca ncepem prin per-
mutareacelor doua ecuat ii, adica alegem drept pivot a
21
= 1 sntem condusi
la calculele urmatoare
_
[1]u
1
+u
2
= 2,
10
4
u
1
+u
2
= 1,
_
u
1
+u
2
= 2,
0.999u
2
= 0.999
48 Capitolul 1. Sisteme de ecuatii liniare
pentru ca numerele (10
4
+ 1) = 0.9999 si (2 10
4
+ 1) = 0.9998 snt
rotunjite la acelasi numar 0.999. Solutiaobt inuta u
1
= 1, u
2
= 1 este
foarte satisfacatoare !
Acest exemplu arata ca erorile de rotunjire cu efect dezastruos provin din
mpart irea printr-un pivot prea mic. Astfel, n practica, utilizam una din
strategiile urmatoare, la nceputul etapei k, 1 k n 1, de eliminare
Pivotare part iala. Pivotul este unul dintre elementele a
(k)
ik
,
k i n, care verica
[a
(k)
ik
[ = max
kpn
[a
(k)
pk
[;
Pivotarea totala. Pivotul este unul dintre elementele a
(k)
ij
,
k i, j n, care verica
[a
(k)
ij
[ = max
kp, qn
[a
(k)
pq
[.
Daca pivotul ales prin aceasta strategie nu este pe coloana k, trebuie sa
efectuam si o permutare de coloane si o permutare de linii. Aceasta strate-
gie este asemanatoare, dar nu identica, cu procedura de eliminare pe care
noi am descris-o, pentru ca aceste operat ii snt echivalente cu multiplicarea
la dreapta a matricii A
k
cu o matrice de permutare. O strategie de pivotare
(part iala sau totala) este indispensabila daca dorim sa evitam erorile mari
de rotunjire cnd aplicam metoda GAUSS sistemelor liniare cu matrici ar-
bitrare. Din contra, n anumite cazuri particulare nu este necesar a se folosi
o strategie de pivotare.
Remarca 2.2 Daca matricea A este diagonal dominanta , adica
[a
ii
[

j,=i
[a
ij
[, i = 1, 2, . . . , n (2.5)
atunci n metoda Gauss nu este necesar a permutarea liniilor.
Demonstrat ie. Vom face demonstrat ia prin induct ie dupa k. Daca k = 2
atunci folosind formulele (2.5) obt inem
a
(2)
ii
= a
(1)
ii

a
(1)
i1
a
(1)
11
a
1i
= a
ii

a
i1
a
11
a
1i
2. Metode directe 49
si
a
(2)
ij
= a
(1)
ij

a
(1)
i1
a
(1)
11
a
1j
= a
ij

a
i1
a
11
a
1j
, j > 2, a
(2)
i1
= 0, i > 0
astfel

j=i
j2
[a
(2)
ij
[

j=i
j2
[a
ij
[ +
[a
i1
[
[a
11
[

j=i
j2
[a
1j
[
([a
ii
[ [a
i1
[) +
[a
i1
[
[a
11
[
([a
11
[ [a
1i
[) = [a
ii
[
[a
i1
[
[a
11
[
[a
1i
[ [a
(2)
ii
[
deoarece
[a
ii
[ [a
(2)
ii
[ +
[a
i1
[
[a
11
[
[a
1i
[
Daca presupunem ca (2.5) este adevarata pentru (k 1) folosind formulele
(2.5) pentru k obt inem:
n

j=1,j,=i
[a
(k)
ij
[ =
n

j=k,j,=i
[a
(k)
ij
[
n

j=k,j,=i
[a
(k1)
ij
[ +
n

j=k,j,=i
[a
(k1)
i,k1
[
[a
(k1)
k1,k1
[
[a
(k1)
k1,j
[
=
n

j=k,j,=i
[a
(k1)
ij
[ +
[a
(k1)
i,k1
[
[a
(k1)
k1,k1
[

j=k,j,=i
[a
(k1)
k1,j
[

j=k,j,=i
[a
(k1)
ij
[ +
[a
(k1)
i,k1
[
[a
(k1)
k1,k1
[
([a
(k1)
k1,k1
[ [a
k1)
k1,i
[)
[a
(k1)
ii
[ [a
(k1)
i,k1
[ +[a
(k1)
i,k1
[
[a
(k1)
i,k1
[
[a
(k1)
k1,k1
[
[a
(k1)
k1,i
[ [a
(k)
ii
[
2
Remarca 2.3 Daca A este o matrice simetrica si pozitiv denita, adica
A
T
= A si x
T
Ax > 0 pentru orice x ,= 0 (2.6)
atunci metoda Gauss funct ioneaza fara pivotare.
50 Capitolul 1. Sisteme de ecuatii liniare
Demonstrat ie. Vom demonstra, pentru nceput, ca daca a
ij
= a
ji
1 i, j n si daca eliminarea gaussiana funct ioneaza fara pivotare atunci
a
(k)
ij
= a
(k)
ji
k i, j n (2.7)
adica elementele transformate formeaza o matrice simetrica de ordin
(n + 1 k) pentru k = 2, . . . , n. Armat ia este adevarata pentru k = 1.
T innd seama de modul n care se denesc elementele a
(k+1)
ij
avem
a
(k+1)
ij
= a
(k)
ij
m
ik
a
(k)
kj
= a
(k)
ij

a
(k)
ik
a
(k)
kk
a
(k)
kj
Deci, daca relat iile (2.7) au loc pentru un anume k, atunci
a
(k+1)
ij
= a
(k)
ji

a
(k)
jk
a
(k)
kk
a
(k)
ki
= a
(k)
ji
m
jk
a
(k)
kj
= a
(k+1)
ji
si armat ia rezulta prin induct ie. Pentru matrici simetrice si pozitiv denite
eliminarea gaussiana poate facuta fara pivotare. Utiliznd criteriul lui
Sylvester rezulta ca o matrice simetrica este pozitiv denita daca si numai
daca
det(
k
) > 0 k = 1, 2, . . . , n
unde
k
snt matrici formate prin intersect ia primelor k linii si k coloane ale
matricei A. Cum det(
k
) = a
(1)
11
a
(2)
22
a
(k)
kk
, k = 1, 2, . . . , n rezulta ca acest
criteriu a lui Sylvester este echivalent cu a
(k)
kk
> 0, k = 1, 2, . . . , n. Deci,
daca efectuam eliminarea gaussiana fara schimbarea linilor si coloanelor lui
A, atunci tot i pivot ii snt pozitivi daca si numai daca A este pozitiv denita.
Sa remarcam din ultimul criteriu ca matricele reduse formate cu elementele
a
(k)
ij
, k i, j n snt pozitiv denite. In plus, utiliznd acelasi criteriu a
lui Sylvester rezulta ca pentru o matrice simetrica pozitiv denita A avem
[a
ij
[
2
a
ii
a
jj
si deci elementele maxime n modul pentru matricea A se
aa pe diagonala principala. Acest lucru rezulta n modul urmator. Daca
permutam aceleasi lini si aceleasi coloane ale unei matrici simetrice si pozitiv
denite rezulta tot o matrice simetrica si pozitiv denita. Acum, pentru
k = 2 si o permutare adecvata, criteriul lui Sylvester da
0 < det
_
a
ii
a
ij
a
ji
a
jj
_
= a
ii
a
jj
a
2
ij
de unde rezultatul cerut. 2
2. Metode directe 51
Numarul operat iilor elementare n metoda Gauss
Sa calculam numarul de operat ii elementare necesare n metoda Gauss.
(i) Eliminare Pentru a trece de la matricea A
k
la matricea A
k+1
,
1 k n 1 efectuam (n k) mpart iri, (n k + 1)(n k) adunari si
tot attea nmultiri, deci n total
_

_
n1

k=1
(n k + 1)(n k) =
n
3
n
3
adunari
n1

k=1
(n k + 1)(n k) =
n
3
n
3
nmult iri
n1

k=1
(n k) =
n(n 1)
2
mpart iri
(ii) Pentru trecerea de la vectorul E
k1
P
k1
. . . E
1
P
1
b la vectorul
E
k
P
k
E
1
P
1
b efectuam (nk) adunari si tot attea nmult iri, deci n total
_

_
(n 1) + (n 2) + + 1 =
n(n 1)
2
adunari
(n 1) + (n 2) + + 1 =
n(n 1)
2
nmult iri
(iii) Rezolvarea sistemului triunghiular necesita
_

_
n(n 1)
2
adunari
n(n 1)
2
inmult iri
n mpart iri
In nal t innd cont de toate operat iile, metoda Gauss necesita:
_

_
n(n 1)(n + 4)
3
adunari
n(n 1)(n + 4)
3
inmult iri
n(n + 1)
2
mpart iri
52 Capitolul 1. Sisteme de ecuatii liniare
Este instructiv sa comparam numarul de operat ii elementare n metoda
Gauss cu numarul de operat ii utiliznd regula lui Cramer. Regula lui Cramer
necesita determinarea a (n+1) determinant i si apoi n mpart iri. Dar calcu-
lul unui deteminant necesita ((n!) 1) adunari si (n 1)n! nmult iri, deci
utiliznd regula lui Cramer snt necesare
_

_
(n + 1)! (n + 1) adunari
(n 1)(n + 1)! nmult iri
n impart iri
Pentru n = 10 de exemplu, obt inem
_
900 operat ii pentru metoda Gauss,
400 000 000 operat ii pentru metoda Cramer
Fara comentarii !
Metoda Gauss-Jordan
Metoda Gauss este cea mai utilizata metoda pentru rezolvarea sistemelor
liniare a caror matrice nu au proprietat i particulare. O metoda asemanatoare
metodei Gauss este metoda Gauss-Jordan. In loc sa cautam o matrice M
astfel ca matricea MA sa e superior triunghiulara ( A ind matricea in-
versabila data), cautam o matrice M astfel ca matricea MA sa e diagonala.
Rezultatul etapei (k 1) de eliminare este atunci o matrice de forma
A
k
= E
k1
P
k1
E
1
P
1
A =
_
_
_
_
_
_
_
_
_
_
_
_
_
a
(1)
11
a
(k)
1k
a
(k)
1k
a
(2)
22
a
(k)
2k
a
(k)
2k
.
.
.
.
.
.
.
.
.
a
(k)
kk
a
(k)
kn
.
.
.
.
.
.
a
(k)
nk
a
(k)
nn
_
_
_
_
_
_
_
_
_
_
_
_
_
Ca si n metoda lui Gauss unul din elementele a
(k)
ik
, k i n este diferit de
zero (matricea A ind inversabila) pe care l alegem ca pivot, ceea ce revine
la o nmult ire la stnga matricea A
k
prin matricea de permutare P
k
astfel
2. Metode directe 53
ca
(k)
kk
(adica pivotul ales) al matricii (
k
ij
) = P
k
A
k
sa e diferit de zero.
Matricea E
k
este atunci de forma
E
k
= S
k
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1 m
1k
.
.
.
.
.
.
1 m
k1,k
1
m
k+1,k
1
.
.
.
.
.
.
m
k
n,k
1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
unde m
ik
=
(k)
ik
/
(k)
kk
astfel ca dupa (n 1) etape, matricea A
n
= MA cu
M = E
n1
P
n1
E
2
P
2
E
1
P
1
este diagonala.
Metoda Gauss-Jordan se utilizeaza pentru calculul inversei unei matrici date,
rezolvnd simultan n sisteme liniare
Ax
j
= e
j
, 1 j n
aplicnd pentru ecare al doilea membru e
j
transformarile (permutarea si
combinarea liniara a liniilor) reprezentate prin P
k
si E
k
. Obt inem
A
n
x
j
= Me
j
, 1 j n
si ecare asemenea sistem se rezolva imediat pentru ca matricea A
n
este
diagonala.
2.3 Metode utiliznd factorizarea matricilor
Am vazut ca mai multe sisteme cu aceiasi matrice pot tratate simultan
prin metoda Gauss. In multe situat i nu tot i termeni din membrul drept
snt disponibili de la nceput. Putem, de exemplu, dori sa rezolvam ecuat iile
Ax
1
= b
1
si Ax
2
= b
2
, unde b
2
este o funct ie de x
1
. Deci pare a necesar
sa repetam eliminarea de la nceput, cu un cost considerabil n numar de
operat ii. Vom arata ce putem face fara sa refacem operat ia de eliminare.
Factorizarea LU a unei matrici
Presupunem ca putem gasi o factorizare a matricii A, ca produs a doua
matrici una inferior triunghiulara si alta superior triunghiulara, adica A =
54 Capitolul 1. Sisteme de ecuatii liniare
L U. Atunci sistemul Ax = b este echivalent cu (L U)x = b, care se
descompune n doua sisteme
Ly = b si Ux = y.
Deci daca cunoastem L si U putem rezolva sistemul Ax = b cu 2
n(n 1)
2
adunari si nmult iri si 2n mpart iri sau prin n
2
operat ii comparate cu n
3
/3
operat ii cerute n eliminarea gaussiana.
In ce priveste factorizarea LU a unei matrici patrate A urmatoarea teorema
este fundamentala.
Teorema 2.2 (factorizarea LU a unei matrici) Fie A = (a
ij
) o ma-
trice patrata de ordin n astfel ca submatricile diagonale

k
=
_
_
_
a
11
a
1k
.
.
.
.
.
.
a
k1
a
kk
_
_
_, 1 k n
sa e inversabile. Atunci exista o matrice inferior triunghiulara L = (l
ij
) cu
l
ii
= 1, 1 i n si o matrice superior triunghiulara U astfel ca A = LU.
In plus, aceasta factorizare este unica.
Demonstrat ie. Vom demonstra pentru nceput unicitatea factorizarii LU.
Presupunem ca exista doua asemenea factorizari A = L
1
U
1
= L
2
U
2
.
Deducem
L
1
2
L
1
=
_
_
_
_
_
_
1
x 1
.
.
.
.
.
.
x x 1
_
_
_
_
_
_
=
_
_
_
_
_
_
x x x
x x
.
.
.
.
.
.
x
_
_
_
_
_
_
= U
2
U
1
1
.
Or aceasta egalitate nu este posibila dect daca L
2
L
1
1
= U
2
U
1
1
= I, de
unde L
1
= L
2
si U
1
= U
2
.
Pentru existent a factorizarii dam doua demonstrat ii.
Prima demonstrat ie se face prin induct ie dupa n. Pentru n = 1, descom-
punerea a
11
= 1 u
11
este unica. Presupunem ca teorema este adevarata
pentru n = k 1. Pentru n = k partit ionam
k
, L
k
, U
k
astfel

k
=
_

k1
b
c
T
a
kk
_
, L
k
=
_
L
k1
0
l
T
1
_
, U
k
=
_
U
k1
u
0 u
kk
_
2. Metode directe 55
unde b, c, l si u snt vectori coloana cu (k 1) componente. Daca formam
produsul L
k
U
k
si identicam cu
k
obt inem
L
k1
U
k1
=
k1
, L
k1
u = b, l
T
U
k1
= c
T
, l
T
u +u
kk
= a
kk
Din ipoteza de induct ie, matricele L
k1
si U
k1
snt unic determinate, si
deoarece det(L
k1
) det(U
k1
) = det(
k
) ,= 0, rezulta L
k1
si U
k1
nesin-
gulare. Rezulta ca u si l snt unic determinat i din sistemele triunghiulare
L
k1
u = b si U
T
k1
l = c. In sfrsit, u
kk
= a
kk
l
T
u. Deci L
k
si U
k
snt unic
determinate, care termina demonstrat ia.
A doua demonstrat ie. Pentru ca a
11
,= 0, putem alege P
1
= I. Pre-
supunem ca am putut alege P
1
= P
2
= = P
k1
= I astfel ca egalitatea
(E
k1
E
1
)A = A
k
se scrie
_
_
_
_
_
_
_
_
_
_
_
1
x 1
.
.
.
.
.
.
.
.
.
x x 1
.
.
.
.
.
.
.
.
.
x x 1
_
_
_
_
_
_
_
_
_
_
_

_
_
_
_
_
_
_
_
_
_
_
a
11
a
1k
x
.
.
.
k
.
.
.
a
k1
a
kk
x
.
.
.
x x
_
_
_
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
_
_
a
(1)
11
a
(1)
1k
x
.
.
.
.
.
.
a
(k)
kk
x
.
.
.
x x
_
_
_
_
_
_
_
_
_
_
Utiliznd regulile de nmult ire pe blocuri si t innd seama de forma particulara
a matricilor obt inem det(
k
) = a
(1)
11
a
(k)
kk
. Cum det(
k
) ,= 0, din ipoteza,
deducem ca elementul a
(k)
kk
este nenul. Il putem alege pivot ceea ce este
echivalent cu P
k
= I.
Existent a unei factorizari LU posednd proprietat ile anunt ate n enunt ul
teoremei se demonstreaza lunnd
A = (E
n1
E
2
E
1
)
1
(E
n1
E
2
E
1
A) = L U
2
56 Capitolul 1. Sisteme de ecuatii liniare
Remarca 2.4 Daca pentru un k, det(
k
) = 0, atunci nu exista, n general,
o descompunere LU pentru matricea A.
Intr-adevar, presupunem ca matricea
A =
_
0 1
1 1
_
are o descompunere LU, adica
LU =
_
l
11
0
l
21
l
22
_

_
u
11
u
12
0 u
22
_
=
_
l
11
u
11
l
11
u
12
l
21
u
11
l
21
u
12
+l
22
u
22
_
= A
Rezulta ca, sau l
11
= 0 sau u
11
= 0. Dar atunci, sau prima linie sau prima
coloana devine zero astfel ca A ,= LU.
Notam ca daca n acest exemplu liniile matricii A snt permutate atunci ma-
tricea devine triunghiulara, astfel descompunerea LU n mod evident exista.
Teorema 2.3 Eliminarea gaussiana si factorizarea LU snt echivalente.
Demonstrat ie. Presupunem, la nceput, ca matricea A are proprietatea ca
eliminarea gaussiana poate facuta fara permutari de lini si coloane. In
procesul de eliminare obt inem un sir de matrici A = A
1
, A
2
, . . . , A
n
, unde
A
k
este de forma
A
k
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
a
(1)
11
a
(1)
12
a
(1)
1,k1
a
(1)
1k
a
(1)
1n
0 a
(2)
22
a
(2)
2,k1
a
(2)
2k
a
(2)
2,n
.
.
.
.
.
.
.
.
.
.
.
.
a
(k1)
k1,k1
a
(k1)
k1,k
a
(k1)
k1,n
0 a
(k)
kk
a
(k)
kn
.
.
.
.
.
.
.
.
.
0 0 a
(k)
nk
a
(k)
nn
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
.
Sa consideram acum un element de pe pozit ia (i, j) n timpul eliminarii.
Daca a
ij
este pe diagonala sau deasupra diagonalei principale, adica i j
atunci
a
(n)
ij
= = a
(i+1)
ij
= a
(i)
ij
, i j
Daca, pe de alta parte, a
ij
este sub diagonala principala, atunci
a
(n)
ij
= = a
(j+1)
ij
= 0, i > j.
2. Metode directe 57
Deci elementul a
(k)
ij
se modica pentru k = 1, . . . , r = min(i 1, j) prin
relat iile
a
(k+1)
ij
= a
(k)
ij
m
ik
a
(k)
kj
Daca aceste relat ii snt adunate pentru k = 1, . . . , r obt inem
r

k=1
a
(k+1)
ij

r

k=1
a
(k)
ij
= a
(r+1)
ij
a
ij
=
r

k=1
m
ik
a
(k)
kj
Unitar, acestea pot scrise sub forma
a
ij
=
_

_
a
(i)
ij
+
i1

k=1
m
ik
a
(k)
kj
i j
0 +
j

k=1
m
ik
a
(k)
kj
i > j
sau, daca denim m
ii
= 1, i = 1, . . . , n
a
ij
=
p

k=1
m
ik
a
k
kj
, p = min(i, j)
Dar aceste ecuat ii snt echivalente cu ecuat ia matriciala A = LU unde
elementele nenule n L si U snt date de
(L)
ik
= m
ik
, i k, (U)
kj
= a
(k)
kj
, k j.
Concludem ca elementele matricei L snt multiplicatorii din eliminarea gaus-
siana iar U este matricea triunghiulara nala obt inuta prin eliminarea gaus-
siana. Deci pentru a obt ine matricea L trebuie sa pastram multiplicatorii
m
ik
. Aceasta poate usor facuta la un calculator. Deoarece m
ik
= a
(k)
ik
/a
(k)
kk
este determinat astfel ca a
(k+1)
ik
devine zero, putem rescrie m
ik
peste a
(k)
ik
. De
asemenea, elementele de pe diagonala principala a lui L nu trebuie memo-
rate. Deci nu este nevoie de memorie suplimentara si efectul eliminarii poate
reprezentat prin
_
_
_
_
_
_
_
_
a
11
a
1n
a
21
a
2n
.
.
.
.
.
.
a
n1,1
a
n1,n
a
n1
a
nn
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
u
11
u
12
u
1,n1
u
1n
l
21
u
22
u
2,n1
u
2n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
l
n1,1
l
n1,2
u
n1,n1
u
n1,n
l
n1
l
n2
l
n,n1
u
nn
_
_
_
_
_
_
_
_
58 Capitolul 1. Sisteme de ecuatii liniare
Mai mult, notam ca deoarece det(L
k
) = 1, avem
det(A
k
) = a
(1)
11
a
(k)
kk
, k = 1, . . . , n (2.8)
Scheme compacte
Prin urmare, eliminarea gaussiana poate continua fara inversarea linilor si
coloanelor daca si numai daca det(
k
) ,= 0, k = 1, . . . , n 1, care este
condit ia din Teorema 2.2.
Stim ca eliminarea gaussiana poate instabila fara pivotare part iala, astfel
liniile snt permutate n procesul de eliminare. Este important de notat ca
aceste schimbari de linii fac doar sa obt inem L si U astfel ca A
t
= LU, unde
matricea A
t
se obt ine din matricea A prin permutarea liniilor.
Acum, vom arata cum descompunerea LU se foloseste n practica pentru re-
zolvarea sistemului Ax = b. Efectuam eliminarea gaussiana n A cu pivotare
partiala, si salvam indicii pentru liniile pivot ntr-un vector (p
1
, p
2
, . . . , p
n1
).
Multiplicatorii m
ik
sint memorat i asa cum am aratat anterior, si notam ca si
acestia iau parte n permutarea liniilor. Dupa eliminare, aplicam schimbarea
liniilor lui b prin
k p
k
, k = 1, 2, . . . , n 1
care ne da un vector b
t
. In sfrsit, rezolvam doua sisteme triunghiulare
Ly = b
t
, Ux = y.
Observat ie.
Cel mai bun mod de-a determina determinantul unei matrici A este efectu-
area eliminarii gaussiene pentru A si apoi folosind (2.8) cu n = k. Remarcam
ca daca am efectuat schimbari de lini sau coloane trebuie nmult it rezultatul
cu (1)
s
unde s este egal cu numarul total de schimbari.
Factorizarea matricelor tridiagonale
indexmatrice banda Examinam, n sfrsit, cazul matricelor tridiagonale, care
admit o factorizare LU n particular simpla. Notam n trecere conservarea
structurii banda.
2. Metode directe 59
Teorema 2.4 Fie
A =
_
_
_
_
_
_
_
_
_
_
_
b
1
c
1
a
2
b
2
c
2
.
.
.
.
.
.
.
.
.
a
n1
b
n1
c
n1
a
n
b
n
_
_
_
_
_
_
_
_
_
_
_
o matrice tridiagonala. Denim sirul

0
= 1,
1
= b
1
,
k
= b
k

k1
a
k
c
k1

k2
, 2 k n.
Atunci
k
= det(
k
), unde
k
se obt ine din A lund primele k linii si
primele k coloane. Daca numerele
k
, 1 k n, snt toate diferite de zero,
factorizarea LU a matricei A are forma
A =
_
_
_
_
_
_
_
_
_
_
_
_
_
1
a
2

1
1
a
3

2
1
.
.
.
.
.
.
a
n

n2

n1
1
_
_
_
_
_
_
_
_
_
_
_
_
_

_
_
_
_
_
_
_
_
_
_
_
_
_
_
_

0
c
1

1
c
2

2
.
.
.
.
.
. c
n1

n1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
Demonstrat ie. Pentru nceput, se verica usor (prin recurent a) ca
k
=
det(
k
), dezvoltnd acest determinant n raport cu ultima sa linie. Daca

k
,= 0, 1 k n, Teorema 2.2 garanteaza existent a si unicitatea factorizarii
LU, si este sucient sa vericam ca factorizarea propusa convine efectiv. Dar
calculul elementelor matricei LU arata ca
(LU)
k,k+1
= c
k
, 1 k n 1
(LU)
11
=

1

0
= b
1
, (LU)
kk
=
a
k
c
k1

k2
+
k

k1
, 2 k n
(LU)
k,k1
= a
k
, 2 k n, (LU)
kl
= 0, [k l[ 2
ceea ce t innd seama de formulele de recurent a stabilite pentru determinarea

k
, termina demonstrat ia. 2
60 Capitolul 1. Sisteme de ecuatii liniare
Deducem din teorema de mai sus un procedeu simplu de rezolvare a unui
sistem liniar Av = d cnd matricea A este tridiagonala, cu condit ia naturala
ca determinant ii
k
, 1 k n, sa e tot i diferit i de zero. Pentru aceasta
este comod de a intercala matricea = diag(
i
/
i1
) n factorizarea LU a
matricei A, ceea ce conduce la factorizarea A = (L)(
1
U) de forma
_
_
_
_
_
_
_
_
c
1
/z
1
a
2
c
2
/z
2
.
.
.
.
.
.
a
n1
c
n1
/z
n1
a
n
c
n
/z
n
_
_
_
_
_
_
_
_

_
_
_
_
_
_
_
_
1 z
1
1 z
2
.
.
.
.
.
.
1 z
n1
1
_
_
_
_
_
_
_
_
cu z
1
=
c
1
b
1
, z
k
=

k1

k
, 2 k n. Atunci, solut ia sistemului liniar Av = d
se obt ine construind succesiv trei siruri (z
k
), (w
k
), (v
k
) prin
z
1
=
c
1
b
1
, z
k
=
c
k
b
k
a
k
z
k1
, k = 2, . . . , n
w
1
=
d
1
b
1
, w
k
=
z
k
c
k
(d
k
a
k
w
k1
) =
d
k
a
k
w
k1
b
k
a
k
z
k1
, k = 2, . . . , n
v
n
= w
n
, v
k
= w
k
z
k
w
k+1
, k = n 1, n 2, . . . , 2, 1
care este respectiv echivalentul cu relat iile de recurent a
0
= 1,
1
= b
1
,

k
= b
k

k1
a
k
c
k1

k2
, 2 k n, din teorema de mai sus, a solut iei
sistemului liniar Lw = d, si n sfrsit a solut iei sistemului
1
Uv = w.
Aceasta metoda cere: 3(n1) adunari, 3(n1) nmult iri, 2nmpart iri, deci
n total 8n6 operat ii elementare, ceea ce constituie o reducere considerabila
n raport cu numarul de operat ii (de ordinul
2
3
n
3
) necesare n metoda Gauss
pentru o matrice plina oarecare. 2
Metoda Cholesky
Factorizarea Cholesky a unei matrici A consta n scrierea matricei A sub
forma A = B B
T
unde B este o matrice inferior triunghiulara.
Teorema 2.5
Fie A o matrice reala si simetrica. Atunci A este pozitiv denita daca
si numai daca exista o matrice inferior triunghiulara nesingulara B astfel
ca
A = B B
T
(2.9)
2. Metode directe 61
In plus, daca elementele diagonale b
ii
ale matricei B snt alese pozitive atunci
descompunerea A = BB
T
este unica.
Demonstrat ie. a) Daca putem factoriza A ntr-un produs A = B B
T
cu
B nesingulara (ca este triunghiulara sau nu, nu intervine n aceasta parte a
demonstrat iei), atunci pentru orice vector x ,= 0
x
T
Ax = x
T
B B
T
x = (B
T
x)
T
(B
T
x) > 0
pentru ca B
T
x ,= 0. Matricea A este n mod necesar pozitiv denita.
b) Notam
k
submatricile (simetrice) cu elementele (a
ij
) 1 i, j k ale
matricei A = (a
ij
). Daca w = (w
1
, . . . , w
k
) este un vector arbitrar din R
k
,
putem scrie ca w
T

k
w= v
T
Av, cu v = (v
1
, . . . , v
n
),unde v
i
= w
i
pentru
1 i k si v
i
= 0 pentru k + 1 i n, ceea ce arata ca matricele
k
snt
pozitiv denite si deci inversabile. Prin aplicarea Teoremei 2.2 putem scrie
A = LU =
_
_
_
_
_
1
x 1
.
.
.
.
.
.
.
.
.
x x 1
_
_
_
_
_

_
_
_
_
_
u
11
x x
u
22
x
.
.
.
.
.
.
u
nn
_
_
_
_
_
si toate numerele u
ii
snt pozitive pentru ca

k
i=1
u
ii
= det(
k
) > 0,
1 k n. Daca intercalam matricea reala = diag(

u
ii
) n aceasta
factorizare obt inem A = L (
1
U) =
=
_
_
_
_
_

u
11
x

u
22
.
.
.
.
.
.
.
.
.
x x

u
nn
_
_
_
_
_

_
_
_
_
_

u
11
x x

u
22
x
.
.
.
.
.
.

u
nn
_
_
_
_
_
Punnd B = L si C =
1
U simetria matricii A atrage BC = C
T
B
T
sau
nca
C(B
T
)
1
=
_
_
_
_
_
1 x x
1 x
.
.
.
.
.
.
1
_
_
_
_
_
=
_
_
_
_
_
1
x 1
.
.
.
.
.
.
.
.
.
x x 1
_
_
_
_
_
= B
1
C
T
Dar aceasta egalitate de matrici nu este posibila dect daca C(B
T
)
1
=
B
1
C
T
= I, adica C = B
T
, ceea ce demonstreaza existent a (cel put in) a
unei factorizari Cholesky.
62 Capitolul 1. Sisteme de ecuatii liniare
c) Pentru demonstrarea unicitat ii, e A = B B
T
o descompunere Cholesky
pentru matricea A cu b
ii
> 0 (1 i n). Lund D = diag(b
11
, b
22
, , b
nn
),
avem A = B D
1
D B
T
= L U cu L = B D
1
si U = D B
T
.
Daca A = B
1
B
T
1
este o alta descompunere de acelasi tip, avem la fel
A = (B
1
D
1
1
) (D
1
B
T
1
) si din unicitatea descompunerii A = L U cu L
avnd 1 pe diagonala principala, trebuie n mod necesar ca BD
1
= B
1
D
1
1
si D B
T
= D
1
B
T
1
cu D
1
= diag(B
1
). Din D B
T
= D
1
B
T
1
obt inem
(b
ii
)
2
= ((B
1
)
ii
)
2
(1 i n) de unde D = D
1
pentru ca b
ii
si (B
1
)
ii
snt
presupuse > 0, de unde n nal B
1
= B. 2
Pentru rezolvarea sistemului Ax = b se procedeaza astfel : Se determina
matricea B astfel ca A = B B
T
si apoi se rezolva sistemele triunghiulare
By = b si B
T
x = y.
Elementele matricei B se determina n modul urmator. Punem, apriori
B =
_
_
_
_
_
b
11
b
12
b
22
.
.
.
.
.
.
.
.
.
b
n1
b
n2
b
nn
_
_
_
_
_
si determinam b
ij
astfel ca A = B B
T
, adica
a
ij
= (BB
T
)
ij
=
n

k=1
b
ik
b
jk
=
min(i,j)

k=1
b
ik
b
jk
(1 i, j n) (2.10)
pentru ca b
pq
= 0 daca 1 p < q n.
Cum matricea A este simetrica, este sucient sa vericam relat iile (2.10)
pentru i j, de exemplu. Coecient ii b
ij
trebuie, deci, sa satisfaca
a
ij
=
i

k=1
b
ik
b
jk
1 i j n (2.11)
Lund la nceput i = 1 obt inem
(j = 1) a
11
= b
2
11
de unde b
11
=

a
11
(j = 2) a
12
= b
11
b
21
de unde b
21
=
a
12
b
11
.
.
.
(j = n) a
1n
= b
11
b
n1
de unde b
n1
=
a
1n
b
11
2. Metode directe 63
ceea ce determina prima coloana a matricei B.
Pentru a determina coloana i a matricei B, dupa ce au fost calculate din
aproape n aproape primele (i 1) coloane scriem succesiv
(j = i) a
ii
=
i

k=1
b
2
ik
b
ii
=
_
a
ii

i1

k=1
b
2
ik
_
1/2
(j = i + 1) a
i,i+1
=
i

k=1
b
ik
b
i+1,k
b
i+1,i
= (a
i,i+1

i1

k=1
b
ik
b
i+1,k
)/b
ii
.
.
.
(j = n) a
i,n
=
i

k=1
b
ik
b
n,k
b
n,i
= (a
i,n

i1

k=1
b
ik
b
n,k
)/b
ii
sau ntr-o forma compacta
b
ii
=
_
a
ii

i1

k=1
b
2
ik
_
1/2
b
ji
=
_
a
ji

i1

k=1
b
jk
b
ik
_
/b
ii
j = i + 1, . . . , n
_

_
, i = 1, n.
Operat ii elementare n metoda Cholesky
Calculam, acum, numarul de operat ii elementare necesare pentru rezolvarea
sistemului Ax = b prin metoda Cholesky: i)A = BB
T
, ii) By = b,
iii) B
T
x = y.
i) Factorizarea. Calculul matricei B cu ajutorul formulelor de mai sus nece-
sita n radacini patrate,

n1
i=1
(n i) = n(n 1)/2 mpart iri,

n
i=2
(i 1)(n i + 1) = n(n 1)(n + 1)/6 adunari si tot attea nmult iri.
ii)-iii) Rezolvarea sistemelor By = b, B
T
x = y necesita n(n 1) adunari
n(n 1) nmult iri si 2n mpart iri.
64 Capitolul 1. Sisteme de ecuatii liniare
Metoda Cholesky necesita n nal
_

_
n
3
+ 6n
2
7n
6
adunari
n
3
+ 6n
2
7n
6
nmult iri
n
2
+ 3n
2
mpart iri
n extrageri de radacini patrate
Metode utiliznd factorizarea QR
Daca A este o matrice nesingulara de ordinul n, A = Q R, unde Q este o
matrice unitara (ortogonala) iar R superior triunghiulara, pentru rezolvarea
sistemului Ax = b se rezolva sistemele
Qy = b si Rx = y.
Cum matricea Q este ortogonala (unitara) rezulta ca y = Q
1
b = Q
T
b.
Ramne sa obt inem descompunerea QR a matricei A.
Factorizarea QR
Prin factorizarea QR a unei matrici A se nt elege scrierea matricei A ca un
produs de doua matrici Q si R unde Q este o matrice unitara daca A este
complexa, sau ortogonala daca A este reala, iar R este o matrice superior
triunghiulara.
Teorema 2.6 (factorizarea QR) Fie A /
m,n
(R), m n. Atunci
exista o matrice ortogonala Q /
m
(R) astfel ca
Q
T
A =
_
R
0
_
(2.12)
unde R /
n
(R) este o matrice superior triunghiulara cu elementele
diagonale nenegative.
Factorizarea (2.12) se numeste factorizare QR a matricei A iar matricea R
se numeste factor al matricei A.
Demonstrat ie. Vom demonstra aceasta teorema prin induct ie dupa m.
Notam ca n m. Pentru m = 1, A este un scalar si putem lua Q = 1
2. Metode directe 65
dupa cum A este pozitiva sau negativa. Fie acum m > 1 si e o partit ie a
lui A de forma
A = (a
1
, A
2
), a
1
R
m
Fie U = (y, U
1
) o matrice ortogonala cu
y =
_
a
1
/|a
1
|
2
, a
1
,= 0
e
1
, a
1
= 0
(Aici e
1
desemneaza prima coloana a matricei unitate I.) Deoarece U
T
1
y = 0
rezulta ca
U
T
A =
_
r
T
0 B
_
unde = |a
1
|
2
, r = A
T
2
y, B = U
T
1
A
2
/
m1,n1
(R). Din ipoteza de
induct ie exista o matrice ortogonala

Q astfel ca

Q
T
B =
_

R
0
_
.
Relat ia (2.12) va satisfacuta daca denim
Q = U
_
1 0
0

Q
_
, R =
_
r
T
0

R
_
2
Observat ie. Demonstrat ia teoremei de mai sus da o cale de a construi
Q si R daca putem construi matricea ortogonala U = (y, U
1
) dndu-se
prima coloana. Exista mai multe modalitat i de a efectua aceasta construct ie
folosind transformari ortogonale elementare.
Teorema 2.7 Fie A /
m,n
(R) avnd rangul n. Atunci factorul R al ma-
tricei A are elementele diagonale pozitive si este factorul Cholesky al matricei
A
T
A.
Demonstrat ie. Daca rang(A) = n atunci factorul Cholesky al matricei
A
T
A este unic. Din (2.12) rezulta ca
A
T
A = (R
T
, 0) Q
T
Q
_
R
0
_
= R
T
R
66 Capitolul 1. Sisteme de ecuatii liniare
care demonstreaza teorema. 2
Presupunem ca rang(A) = n si partit ionam Q astfel
Q = (Q
1
, Q
2
), Q
1
/
m,n
(R), Q
2
/
m,mn
(R) (2.13)
Atunci din (2.12) si nesingularitatea lui R avem
A = (Q
1
, Q
2
)
_
R
0
_
= Q
1
R, Q
1
= A R
1
(2.14)
Deci, putem exprima Q
1
n mod unic cu ajutorul lui A si R. Matricea Q
2
nu este, n general, unic determinata. Din (2.14) rezulta ca
Im(A) = Im(Q
1
), Im(A)
T
= Im(Q
2
)
care arata ca coloanele lui Q
1
si Q
2
formeaza baze ortonormale pentru Im(A)
si complementul sau ortogonal. Rezulta ca proiect ile ortogonale snt
P
Im(A)
= Q
1
Q
T
1
, P
Im(A)
T = Q
2
Q
T
2
2
Usor ne putem convinde ca daca A = Q
1
R este o factorizare data a
unei matrici A, orice descompunere A =

Q
1


R (fara restrict ia (

R)
ii
> 0,
1 i n) este data prin

Q
1
= Q
1
D

si

R = D R
unde D este o matrice diagonala unitara.
Ortogonalizarea Gram Schmidt
Coloanele matricei Q
1
n factorizarea A = Q
1
R pot obt inute prin ortogo-
nalizarea succesiva a coloanelor matricei A. Pentru a vedea aceasta, scriem
factorizarea n forma
(a
1
, a
2
, . . . , a
n
) = (q
1
, q
2
, . . . , q
n
)
_
_
_
_
_
_
r
11
r
12
r
1n
r
22
r
2n
.
.
.
.
.
.
r
nn
_
_
_
_
_
_
Egalnd coloanele obt inem
a
j
=
j

i=1
r
ij
q
i
, j = 1, 2, . . . , n
2. Metode directe 67
unde din ortogonalitatea lui q
i
r
ij
= q
T
i
a
j
, i = 1, 2, . . . , j 1 (2.15)
Daca rang(A) = n, atunci, din Teorema 2.7 r
jj
> 0 si putem determina q
j
q
j
= q
j
/r
jj
,

Q
j
= a
j

j1

i=1
r
ij
q
i
(2.16)
Aceasta arata ca q
j
este un vector unitar si r
jj
se determina din
r
jj
= ( q
T
j
q
j
)
1/2
Vectorul normalizat q
j
este proiect ia ortogonala a coloanei a
j
pe comple-
mentul ortogonal al spat iului sp[a
1
, a
2
, . . . , a
j1
]. Din (2.15), 2.16) sntem
condusi la algoritmul clasic Gram-Schmidt, care genereaza Q
1
si R coloana
cu coloana.
ALGORITM Dat A /
m,n
(R) cu rang(A) = n urmatorul algoritm cal-
culeaza pentru j = 1, 2, . . . , n coloanele q
j
ale lui Q
1
si elementele r
1j
, . . . , r
jj
ale matricei R n factorizarea A = Q
1
R
pentru j = 1, 2, . . . , n
pentru i = 1, . . . , j 1
r
ij
= q
T
i
a
j
q
j
:= a
j

j1

i=1
r
ij
q
i
r
jj
:= ( q
j
q
j
)
1/2
q
j
:= q
j
/r
jj
Observat ie
Descompunerea A = Q
1
R nu este altceva dect procedeul de ortonormalizare
Gram-Schmidt aplicat vectorilor coloana ai matricei A.
Remarcam de asemenea, ca procedeul descris mai sus nu este un procedeu
de calcul ecient, caci el este numeric instabil.
In practica se utilizeaza procedee bazate pe transformarile Householder si
Givens pentru factorizarea matricei A.
68 Capitolul 1. Sisteme de ecuatii liniare
Factorizarea QR prin transformari elementare
Asa cum am remarcat anterior, demonstrat ia factorizarii QR da un algoritm
de calcul pentru Q si R. Ramne numai sa aratam ca se poate construi o
matrice ortogonala (unitara )
U = (y, U
1
)
cnd prima sa coloana este data de
y = a/|a|
2
a ,= 0 . (2.17)
Pentru a = 0 putem lua U = I. Pentru a ,= 0 construct ia este echivalenta
cu rezolvarea urmatoarei probleme de baza.
Dndu-se un vector normal a R
m
sa se gaseasca o matrice ortogonal a
U astfel ca
U
T
a = e
1
, = |a|
2
. (2.18)
Din (2.18) rezulta ca prima coloana y n U satisface y
T
a = |a|
2
, si deci
y = a/|a|
2
.
Metoda Householder
Vom arata acum cum se poate utiliza transformarile Householder pentru
rezolvarea problemei de baza (2.18).
O matrice H(u) de forma
H(u) = I uu
T
, = 2/u
T
u
se numeste matrice Householder. Este usor de vericat ca
H
T
H = I, H
T
= H, H
2
= I
adica H(u) este o matrice simetrica ortogonala. Produsul unei matrici H(u)
cu un vector a poate calculat fara a forma explicit matricea H(u) ci numai
utiliznd vectori u si a, deoarece
H(u)a = a (u
T
a)u
2. Metode directe 69
-
6

1
P
P
P
P
P
P
P
P
P
P
P
P
P
P
Pq
u
W
a
H(u)a
Figura 2.1:
Vectorul H(u)a este reectarea vectorului a n hiperplanul W ortogonal pe
u, adica
W = w; (u, w) = 0
vezi Figura 2.1. Notam ca H(u)u = u si H(u)a spa, u.
Daca A = (a
1
, . . . , a
n
) /
m,n
(R) iar u R
m
, u ,= 0 atunci
H(u)A = (H(u)a
1
, . . . , H(u)a
n
), H(u)a
j
= a
j
(u
T
a
j
)u
deci pentru nmult irea unei matrici A la stnga cu o matrice H(u) nu este
necesar ca matricea H(u) sa e formata explicit, este sucient sa se cunoasca
vectorul nenul u. Pentru calculul H(u)A snt necesare 2mn operat ii ele-
mentare. Scriind produsul H(u)A sub forma
H(u)A = (I uu
T
)A = Au(A
T
u)
T
, = 2/u
T
u
se observa ca prin nmult irea la stnga a unei matrici A cu H(u) se altereaza
matricea A printr-o matrice de rang unu. Si acum o teorema des folosita n
aplicat ii.
Teorema 2.8 Pentru orice vector a si pentru orice vector unitar b neco-
liniar cu a ( a si b vectori liniar independent i ) exista vectorii u si u astfel
ca
H(u)a = |a|
2
b si H( u)a = |a|
2
b
70 Capitolul 1. Sisteme de ecuatii liniare
Demonstrat ie. T innd seama de denit ia matricei H(u) avem
H(u)a = a
2(a, u)
(u, u)
u
pentru orice vector nenul u si pentru orice vector a. Lund pe pozit ia lui u
vectorul a |a|
2
b obt inem pentru nceput ca a |a|
2
b este diferit de zero,
deoarece a si b snt vectori liniar independent i, deci
H(a |a|
2
b)a = a
2(a, a |a|
2
b)
(a |a|
2
b, a |a|
2
b)
(a |a|
2
b) = |a|
2
b
Intr-adevar, (a, a |a|
2
b) = |a|
2
(|a|
2
(a, b)) iar
(a |a|
2
b, a |a|
2
b) = |a|
2
2|a|
2
(a, b) +|a|
2
2
= 2|a|
2
(|a|
2
(a, b)).
Deci lund u = a |a|
2
b si u = a +|a|
2
b obt inem rezultatul dorit. 2
Observat ii.
1) Daca

n
i=2
[a
i
[ > 0, exista o matrice H astfel ca ultimele (n 1)-
componente ale lui Ha sa e nule. Din teorema anterioara cum vectorii
b = e
1
= (1, 0, . . . , 0)
T
si a = (a
1
, . . . , a
n
)
T
snt liniari independent i rezulta
ca
H(a |a|
2
e
1
)a = |a|
2
e
1
de unde rezultatul cerut.
2) Daca a = (
1
, . . . ,
m
)
T
este un vector necoliniar cu e
1
= (1, 0, . . . , 0)
lund
u = a e
1
, = |a|
2
(2.19)
obtinem H(u)a = e
1
.
Cum u
T
u = (ae
1
)
T
(ae
1
) =
2
2
1
+
2
= 2(
1
) astfel ca =
2/u
T
u = 1/((
1
)). Din motive de stabilitate alegem u = a+sgn(
1
)e
1
care da
= 1/(( +|
1
|)). (2.20)
Vom descrie acum cum se poate obt ine factorizarea QR a unei matrici A din
/
m,n
(R) de rang n utiliznd un sir de transformari Householder. Incepnd
cu A
(1)
= A calculam un sir de matrici (A
(k)
), k = 2, . . . , n + 1. Matricea
A
(k)
este deja superior triunghiulara n primele sale (k 1) coloane, adica
are forma
A
(k)
=
_
R
(k)
11
R
(k)
12
0 A
(k)
22
_
(2.21)
2. Metode directe 71
unde R
(k)
11
/
k1,k1
(R) este o matrice superior triunghiulara. Luam
A
(k+1)
= P
k
A
(k)
unde matricea ortogonala P
k
este aleasa astfel ca sa faca zerouri n prima
coloana a matricei A
(k)
22
. Daca luam
A
(k)
22
= ( a
(k)
k
, . . . , a
(k)
n
)
atunci
P
k
= diag(I
k1
,

H
k
) =
_
I
k1
0
0

H
k
_
unde

H
k
a
(k)
=
k
e
1
,
k
= r
kk
= | a
(k)
|
2
. (2.22)
Notam ca la acest pas numai matricea A
(k)
2
este transformata si ca (R
(k)
11
)
are primele (k 1) linii ca matricea nala R. Rezulta ca
P
n
P
n1
. . . P
2
P
1
A = A
(n+1)
=
_
R
0
_
si deci
Q = (P
n
. . . P
2
P
1
)
T
= P
T
1
P
T
2
. . . P
T
n
.
Cheia construct iei este gasirea matricei ortogonale

H
k
care satisface (2.22),
dar aceasta este tocmai problema standard (2.17) cu a = a
(k)
k
. Folosind
(2.19) si (2.20) pentru construirea matricei

H
k
ca matrice Householder obt inem
urmatorul algoritm.
ALGORITM ( factorizarea QR prin metoda Householder )
Se da o matrice A
(1)
= A M
m,n
(R) de rang n. Urmatorul algoritm
calculeaza R si matricea P
k
P
k
= diag(I
k1
,

H
k
),

H
k
= I
k
u
(k)
u
(k)T
, k = 1, . . . n
astfel ca Q = P
1
P
2
P
n
si Q
T
A =
_
R
0
_
pentru k = 1, 2, . . . , n
72 Capitolul 1. Sisteme de ecuatii liniare

k
:= | a
(k)
k
|
2
u
(k)
:= a
k
(k)
u
(k)
1
:= u
1
(k)
+sgn(a
(k)
kk

k

k
:= 1/(
k
(
k
+[a
(k)
kk
[))
r
kk
:= sgn(a
(k)
kk
)
k
pentru j = k + 1, . . . , n

kj
:= ( u
(k)T
a
(k)
j
)
k
_
r
kj
a
(k+1)
j
_
= a
(k)
j

kj
u
(k)
.
Acest algoritm necesita (mn
2

1
3
n
3
) operat ii elementare.
Observat ie
1) Notam ca vectorii u
(k)
, k = 1, . . . , n pot rescrisi pe elementele de
pe diagonala si de sub diagonala principala. Deci toate informat iile
asociate cu Q si R pot t inute n A si n doi vectori de lungime n
pentru r
11
. . . . r
nn
si (
1
, . . . , ).
2) In mod natural este mai economic de t inut matricea Q sub forma de
factori si sa se acceseze prin
k
si u
(k)
, k = 1, 2, . . . n, dect sa se
calculeze Q explicit. Daca Q este explicit ceruta ea poate asamblata
(acumulata ) lund Q
(1)
= I si calculnd Q = Q
(n+1)
prin
Q
(k+1)
= P
k
Q
(k)
, k = 1, . . . , n.
Aceasta acumulare necesita 2(m
2
n mn
2
+
1
3
n
3
) operat ii elementare
daca folosind faptul ca P
k
= diag(I
k1
,

H
k
). Similar putem acumula
Q
1
= Q
_
I
n
0
_
Q
2
= Q
_
0
I
mn
_
separat n mn
2

1
3
n
3
si (2m
2
n 3mn
2
+n
3
) operat ii elementare.
Metoda Givens
Putem utiliza un sir de rotat ii Givens pentru factorizarea QR a unei matrici
A. In doua dimensiuni matricea reprezentnd o rotat ie n sensul acelor de
ceasornic cu un unghi este
() =
_
c s
s c
_
, c = cos , s = sin.
2. Metode directe 73
In ndimensiuni, matricea reprezentnd o rotat ie n planul generat de vec-
torii unitari e
i
si e
j
, i < j este de forma
R
ij
() =
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1
.
.
.
1
c s
1
.
.
.
.
.
.
.
.
.
1
s c
1
.
.
.
1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
i
j
unde c = cos , iar s = sin. O matrice de forma
ij
() se numeste matrice
Givens. Se observa ca
ij
(), cnd ,= 2k este o alterare a matricei unitate
cu o matrice de rang doi, adica

ij
() = I +F
unde (F)
ii
= c 1, (F)
ij
= s, (F)
ji
= s, (F)
jj
= c 1 n rest zero. Cum
det
_
c 1 s
s c 1
_
= 2(1 c) ,= 0
daca c ,= 1, rezulta ca rangul lui F este doi.
Prin nmult irea unui vector a = (
1
, . . . ,
n
)
T
cu o matrice
ij
() se obt ine
un vector b = (
1
, . . . ,
n
)
T
ce are modicat fat a de a numai componentele de
pe pozit ia i si j, adica
k
=
k
, k ,= i, j si
i
= c
i
+s
j
,
j
= s
i
+c
j
.
Deci, pentru a nmult i o matrice de rotatii plane cu un vector snt necesare
doua adunari si patru nmult iri.
Inmult irea la stnga a unei matrici A /
m,n
(R) cu o rotat ie Givens
ij
()
va afecta numai liniile i si j ale matricei A, care se transforma n
a
ik
:= ca
ik
+sa
jk
, a
jk
:= sa
ik
+ca
jk
, 1 k n.
Produsul necesita 4n nmult iri si 2n adunari. Un algoritm analog se obt ine,
care va afecta numai coloanele i si j, prin nmult irea la dreapta a matricei
A cu
ij
().
74 Capitolul 1. Sisteme de ecuatii liniare
Teorema 2.9 Fie A M
m,n
(R), m n de rang n. Exista o matrice
Q M
m,n
(R), produs de rotat ii Givens, astfel ca
Q
T
A =
_
R
0
_
unde R M
n
(R) este o matrice superior triunghiulara cu elementele de pe
diagonala pozitive.
Demonstrat ie. Fie transformarea R
ij
() Cnd facem produsul B =
ij
A
numai liniile i si j snt modicate, ecare devenind o combinat ie liniara a
liniilor i si j
b
pk
= a
pk
p ,= i, j
b
ik
= ca
ik
+sa
jk
k = 1, 2 . . . , n
b
jk
= sa
ih
+ca
jk
Oricum ar A putem alege astfel ca matricea
ij
A sa aiba elementul de
pe pozit ia (j, i) nul.
Pornind de la matricea A putem construi
12
pentru a pune zero n pozit ia
(2, 1) a matricei
12
A, apoi
13
pentru a pune un zero pe pozit ia (3, 1). La
sfrsitul primelor m1 rotat ii obt inem

1,m

1,m1
. . .
13

12
A =
_
_
_
_
_
_
r
11
a
t
12
a
t
1n
0 a
t
22
a
t
2n
.
.
.
.
.
.
.
.
.
0 a
t
mn
a
t
mn
_
_
_
_
_
_
.
La ecare rotat ie s-a modicat numai prima linie si linia considerata, adica
se conserva zeroul deja creat. In continuare punem zerouri n coloana 2
ncepnd cu pozit ia (3, 2). etc. 2
Este esent ial sa notam ca matricea
ij
() nu este nevoie sa e formata ex-
plicit, dar trebuie sa se memoreze numerele c = cos si s = sin. Cnd
un numar mare de rotat ii este necesar sa e memorate este mai economic
sa memoram doar un singur numar. Pentru o stabilitate numerica mai
buna poate utilizata schema proiectata de Stewart n 1976. Ideea este
sa memoram c sau s si anume cel care este mai mic. Pentru a distinge ntre
cele doua cazuri vom memora un numar denit astfel
=
_

_
1, daca c = 0
sgn(c)s, daca [s[ [c[
sgn(s)c, daca [c[ [s[
.
2. Metode directe 75
Dndu-se , numerele c si s pot regasite pna la un factor comun 1 astfel
daca = 1, c = 0, s = 1
daca [[ < 1, s = , c = (1 s
2
)
1/2
daca [[ > 1, c = 1/, s = (1 c
2
)
1/2
.
Motivul pentru folosirea acestei scheme este ca formula (1 x
2
)
1/2
da o
proasta acuratet e cnd x este aproape de unitate.
Un algoritm folosind rotat iile Givens poate usor dezvoltat. Se pleaca de
la A
(1)
= A si se construieste
A
(k+1)
= P
k
A
(k)
k = 1, . . . n 1
unde ecare P
k
este construita ca produsul a (n k) relat ii Givens.
ALGORITM (factorizarea QR prin metoda Givens ) Data o matrice A
M
m,n
(R) de rang n se determina triangularizarea matricei A cu
Q
T
A =
_
R
0
_
,
pentru k = 1, 2, . . . , n
pentru j = k + 1, . . . , n
:= (a
2
kk
+a
2
jk
)
1/2
c := a
kk
/
s := a
jk
/
A :=
ij
() A
Algoritmul necesita 2(mn
2

1
3
n
3
) operat ii elementare.
Observat ie.
Folosind schema de memorare a lui Stewart pentru rotat ia
ij
() putem
memora informat iile ce denesc pe Qn partea cu zerouri a matricei A.
La fel ca la algoritmul Householder este avantajos sa t inem Q sub forma de
factori.
Rotat iile Givens pot folosite santroducem zerourilen matrice mai selectiv
dect este posibil cu transformarile Householder.
Flexibilitatea este importanta pentru rezolvarea sistemelor pentru care ma-
tricea este rara. Pentru probleme cu matrice plina metoda Givens necesita
de doua ori mai multe operat ii ca metoda Householder.
76 Capitolul 1. Sisteme de ecuatii liniare
3 Metode iterative
Prin metoda iterativa se nt elege o metoda care permite construirea,
plecnd de la o aproximat ie init iala, a unui sir de solut ii aproximative care
converg catre solut ia exacta a sistemului algebric liniar.
Doua mari tipuri de metode iterative se ntlnesc n practica. Metodele
stat ionare snt cele mai vechi, mai simplu de nt eles si implementat, dar nu
si cele mai eciente. Metodele nestat ionare snt de data mai recenta; analiza
lor este de obicei mai greu de nt eles, dar ele pot de mare ecient a.
Rata cu care o metoda iterativa converge depinde de spectrul matricei sis-
temului. De regula, metodele iterative folosesc o a doua matrice ce trans-
forma matricea init iala ntr-o matrice cu un spectru mai favorabil. Matricea
de transformare se numeste matrice de precondit ionare. O buna matrice de
precondit ionare creste viteza de convergent a a metodei iterative sucient sa
acopere extra costul construirii si aplicarii precondit ionarii.
3.1 Denirea si convergent a metodelor iterative
pentru sisteme algebrice liniare
Fiind data o matrice nesingulara A /
n
(K) si un vector b K
n
se doreste
calcularea solut iei x K
n
a sistemului liniar
Ax = b (3.1)
Presupunem ca am putut gasi ( de exemplu printr-un procedeu descris n
paragraful urmator ) o matrice B si un vector c astfel ca matricea I B sa
e inversabila si astfel ca solut ia unica a sistemului
x = Bx +c (3.2)
sa e egala cu solut ia unica a sistemului (3.1). Forma sistemului (3.2)
sugereaza denirea unei metode iterative de rezolvare a sistemului liniar
(3.1). Se da un vector init ial x
(0)
K
n
arbitrar, si se deneste sirul
(x
(m)
)
mN
din K
n
prin
x
(m+1)
= Bx
(m)
+c (3.3)
Metoda iterativa denita prin (3.3) nu este altceva dect metoda aproxima-
t iilor succesive, numita si metoda Picard, pentru gasirea unui punct x
pentru aplicat ia f : K
n
K
n
denita prin
f(x) = Bx +c, x K
n
.
3. Metode iterative 77
Denit ia 3.1 Metoda iterativa (3.3) se zice convergenta daca pentru orice
vector init ial x
(0)
K
n
avem lim
m
x
(m)
= x, unde x = A
1
b este solut ia
ecuat iei(3.2) sau echivalent a ecuat iei (3.1).
Rezultatele urmatoare dau criterii de convergent a pentru metodele iterative
de tipul (3.3).
Teorema 3.1 Daca A /
n
(K) atunci urmatoarele armat ii snt echiva-
lente.
1) Metoda iterativa (3.3) este convergenta.
2) Raza spectral a (B) [0, 1).
3) Exista o norma matriciala | | astfel ca |B| < 1.
4) Seria I +B +B
2
+ este convergent a.
Demonstrat ie. Notam cu
(m)
= x
(m)
x, pentru m N eroarea la iterat ia
m. Evident

(m)
= x
(m)
x = Bx
(m1)
+c (Bx +c) = B
(m1)
= B
m

(0)
(3.4)
unde
(0)
= x
(0)
x este eroarea init iala. Metoda (3.3) va convergenta
daca si numai daca B
m

(0)
0 cnd m 0 pentru orice
(0)
= x
(0)
x.
Echivalent a armat iilor 1), 2), 3) rezulta din Teorema 1.4. 2
Utiliznd teorema de mai sus putem da criterii suciente, usor de vericat,
ca o metoda iterativa de tipul (3.3) sa e convergenta.
Propozit ia 3.1 Daca B /
n
(K) satisface cel put in una din condit iile:
max
j

i
[b
ij
[ < 1, max
i

j
[b
ij
[ < 1,

i,j
[b
i,j
[
2
< 1
atunci metoda iterativa (3.3) este convergenta.
Demonstrat ie. Cum |B|
1
= max
j

i
[b
ij
[ < 1, |B|

= max
i

j
[b
ij
[ < 1
iar |B|
2
F
=

i,j
[b
i,j
[
2
< 1 rezulta ca (B) < 1 deci metoda iterativa (3.3)
este convergenta. 2
78 Capitolul 1. Sisteme de ecuatii liniare
Metoda iterativa modicata
Plecnd de la ecuat ia (3.2) putem sa construim si urmatoarea metoda ite-
rativa. Pentru x
(0)
K
n
arbitrar, se deneste sirul de vectori (x
(m)
)
mN
din K
n
prin
x
(m)
i
=
i1

j=1
b
ij
x
(m)
j
+
n

j=i
b
ij
x
(m1)
j
+c
i
, i 1, . . . , n (3.5)
Daca B = L + U unde L este o matrice strict inferior triunghiulara iar U
este o matrice superior triunghiulara atunci sirul construit prin (3.5) se poate
scrie matriceal sub forma
x
(m)
= (I L)
1
Ux
(m1)
+ (I L)
1
c (3.6)
In ce priveste convergent a metodei iterative denita prin (3.5) avem urma-
toarele rezultate.
Teorema 3.2 Daca B /
n
(K) si max
1in
(

n
j=1
[b
ij
[) < 1 atunci, pen-
tru orice x
(0)
K
n
sirul (x
(m)
)
mN
denit prin (3.5) converge la solut ia
ecuat iei (3.2).
Demonstrat ie. Daca condit ia din enunt este satisfacuta, atunci sistemul
(3.2) are solut ie unica x = (x
1
, . . . x
n
)
T
( deoarece |B|

< 1 si (I B)
1
exista ) deci
x
i
=
n

j=1
b
ij
x
i
+c
i
1 i n (3.7)
Scaznd (3.5) din (3.7), obt inem
x
i
x
(m)
i
=
i1

j=1
b
ij
(x
j
x
(m)
j
) +
n

j=i
b
ij
(x
j
x
(m1)
j
)
deci
[x
i
x
(m)
i
[
i1

j=1
[b
ij
[ [x
j
x
m
j
[ +
n

j=i
[b
ij
[ [x
j
x
(m1)
j
[, i I (3.8)
Din (3.8) obt inem
[x
i
x
(m)
i
[ p
i
|x x
(m)
|

+q
i
|x x
(m1)
|

(3.9)
3. Metode iterative 79
unde
p
i
=
i1

j=1
[b
ij
[ si q
i
=
n

j=i
[b
ij
[.
Fie s = s(m) valoarea indicelui i pentru care [x
s
x
(m)
s
[ = |x x
(m)
|

.
Lund i = s n inegalitatea (3.9) obt inem
|x x
(m)
|

p
s
|x x
(m)
|

+q
s
|x x
(m1)
|

sau
|x x
(m)
|


q
s
1 p
s
|x x
(m1)
|

deci
|x x
(m)
|

|x x
(m1)
|

(3.10)
unde = max
i
[q
i
/(1 p
i
)]. Vom arata ca |B|

< 1. Intr-adevar, cum


p
i
+q
i
=
n

j=1
[b
ij
[ |B|

< 1
rezulta ca q
i
|B|

p
i
si deci
q
i
1 p
i

|B|

p
i
1 p
i

|B|

p
i
|B|

1 p
i
= |B|

.
Prin urmare |B|

< 1 si din inegalitatea (3.10) rezulta


|x x
(m)
|


m
|x x
(0)
|

deci lim
m
x
(m)
= x. 2
Teorema 3.3 Daca B /
n
(K) si max
j

i
[b
ij
[ < 1 atunci, oricare ar
x
(0)
K
n
sirul (x
(m)
)
mN
) construit prin (3.5) converge la solut ia ecuat iei
(3.2).
Demonstrat ie. Cum |B|
1
= max
j

i
[b
ij
[ < 1 rezulta ca ecuat ia (3.2) are
solut ia unica x = (x
1
, . . . , x
n
)
T
. Deci x verica (3.7). Scaznd (3.5) din (3.7)
si trecnd la modul obt inem (3.8). Adunnd inegalitat ile din (3.8) rezulta
n

i=1
[x
i
x
(m)
i
[
n

i=1
(
i1

j=1
[b
ij
[ [x
j
x
(m)
j
) +
n

i=1
(
n

j=i
[b
ij
[ [x
j
x
(m1)
j
[)
80 Capitolul 1. Sisteme de ecuatii liniare
Schimbnd ordinea de sumare n sumele duble de mai sus obt inem
n

i=1
[x
i
x
(m)
i
[
n1

j=1
([x
j
x
(m)
j
[
n

i=j+1
[b
ij
[)+
n

j=1
([x
j
x
(m1)
j
[
j

i=1
[b
ij
[) (3.11)
Fie s
j
=

n
i=j+1
[b
ij
[, t
j
=

j
i=1
[b
ij
[, j = 1, 2, . . . , n 1 si s
0
= 0,
t
n
=
n

i=1
[b
in
[. Dar s
j
+ t
j
=
n

i=1
[b
ij
[ |B|
1
< 1 deci s
j
< 1 Inegalitatea
(3.11) ia forma
n

i=1
[x
i
x
(m)
i
[
n

j=1
s
j
[x
j
x
(m)
j
[ +
n

j=1
t
j
[x
j
x
(m1)
j
[
sau echivalent
n

j=1
(1 s
j
)[x
j
x
(m)
j
[
n

j=1
t
j
[x
j
x
(m1)
j
[
Deoarece
t
j
|B|
1
s
j
|B|
1
s
j
|B|
1
= |B|
1
(1 s
j
)
avem
n

j=1
(1 s
j
)[x
j
x
(m)
j
[ |B|
1
n

j=1
(1 s
j
)[x
j
x
(m1)
j
[
|B|
m
1

n

j=1
(1 s
j
)[x
j
x
(0)
j
[
Prin trecere la limita cu m si notnd ca |B|
1
< 1 obt inem
lim
m
n

j=1
(1 s
j
)[x
j
x
(m)
j
[ = 0
Cum 0 s
j
< 1 pentru orice j I obt inem lim
m
x
(m)
j
= x
j
, 1 j n de
unde x
(m)
x si demonstrat ia este completa. 2
Teorema 3.4 Daca B /
n
(K) si
n

i,j=1
[b
ij
[
2
< 1 atunci oricare ar
x
(0)
din K
n
sirul (x
(m)
)
mN
construit prin (3.5) converge la solut ia ecuat iei
(3.2).
3. Metode iterative 81
Demonstrat ie. Cum |B|
F
= (
n

i,j=1
[b
ij
[
2
)
1/2
< 1 sistemul (3.2) are solut ie
unica. Fie x = (x
1
, . . . , x
n
)
T
solut ia sistemului (3.2). Din (3.8) obt inem
[x
i
x
(m)
i
[
2

_
i1

j=1
[b
ij
[ [x
j
x
(m)
j
[ +
n

j=i
[b
ij
[ [x
j
x
(m1)
j
[
_
2
unde aplicnd inegalitatea Cauchy - Schwartz - Buniakowski rezulta
[x
i
x
(m)
i
[
2
s
i
_
i1

j=1
[x
j
x
(m)
j
[
2
+
n

j=i
[x
j
x
(m1)
j
[
2
_
, 1 i n (3.12)
unde s
i
=
n

j=1
[b
ij
[
2
pentru orice 1 i n.
Adunnd inegalitat ile (3.12) n raport cu i obt inem
n

i=1
[x
i
x
(m)
i
[
2

i=1
i1

j=1
s
i
[x
j
x
(m)
j
[
2
+
n

i=1
n

j=i
s
i
[x
j
x
(m1)
j
[
2
(3.13)
Schimbnd indicele de sumare n sumele duble de mai sus obt inem
n

j=1
[x
j
x
(m)
j
[
2

n1

j=1
(
n

i=j+1
s
i
)[x
j
x
(m)
j
[ +
n

j=1
(
j

i=1
s
i
)[x
j
x
(m1)
j
[
2
.
Lund S
j
=
n

i=j+1
s
i
, T
j
=
j

i=1
s
i
j 1, 2, . . . , n 1 si S
0
= 0, T
n
=
n

i=1
s
i
,
avem evident
S
j
+T
j
=
n

i=1
s
i
=
n

i=1
n

j=1
[b
ij
[
2
= |B|
2
F
< 1, 1 j n (3.14)
Folosind aceste notat ii, putem reprezenta inegalitatea (3.13) ca
n

j=1
[x
j
x
(m)
j
[
2

j=1
S
j
[x
j
x
(m)
j
[
2
+
n

j=1
T
j
[x
j
x
m1
j
[
2
sau
n

j=1
(1 S
j
)[x
j
x
(m)
j
[
2

j=1
T
j
[x
j
x
(m1)
j
[
2
82 Capitolul 1. Sisteme de ecuatii liniare
Pe baza formulei (3.14) obt inem
T
j
= |B|
2
F
S
j
|B|
2
F
|B|
2
F
S
j
= (1 S
j
)|B|
2
F
Prin urmare
n

j=1
(1 S
j
)[x
j
x
(m)
j
[
2
|B|
2
F
n

j=1
(1 S
j
)[x
j
x
(m1)
j
[
2
de unde
n

j=1
(1 S
j
)[x
j
x
(m)
j
[
2
|B|
2m
F

_
n

j=1
(1 S
j
)[x
j
x
(0)
j
[
2
_
.
Cum |B|
F
< 1, obt inem
lim
m
n

j=1
(1 S
j
)[x
j
x
(m)
j
[
2
= 0
si t innd seama ca 0 S
j
< 1, j 1, . . . , n rezulta lim
m
x
(m)
j
= x
j
j 1, . . . , n ceea ce arata ca x
(m)
x. 2
Rezultatele de convergent a de mai sus au fost demonstraten una din ipotezele
|B|

< 1, |B|
1
< 1 sau |B|
F
< 1, care implica (B) < 1. Apare ca na-
turala intrebarea: putem demonstra un rezultat de convergent a n ipoteza
(B) < 1. Pentru matricea
B =
_
_
_
0 2 2
1 0 1
2 2 0
_
_
_
avem (B) = 0 dar metoda iterativa (3.5) nu converge. Avemnsa urmatorul
rezultat:
Teorema 3.5 Daca ([B[) < 1 atunci sirul (x
(m)
)
mN
construit prin (3.5)
converge la solut ia ecuat iei (3.2).
Demonstrat ie. Utiliznd Teorema 1.11 avem (B) ([B[) < 1, deci
ecuat ia (3.2) are solut ie unica. Fie B = L+U cu L strict inferior triunghiu-
lara si U superior triunghiulara. Sirul construit prin (3.5) va convergent
pentru orice x
(0)
daca si numai daca ((I L)
1
U) < 1. Cum
(I L)
1
U [(I L)
1
U[ = [(I +L + +L
n1
)U[
3. Metode iterative 83
(I +[L[ + +[L[
n1
)[U[ = (I [L[)
1
[U[
deci folosind Teorema 1.12 avem
((I L)
1
U) ((I [L[)
1
[U[).
Dar [B[ = [L[ + [U[ si cum ([B[) < 1 folosind teorema Stein Rosenberg
(Teorema 1.13) rezulta
((I [L[)
1
[U[) < ([B[) < 1
deci ((IU)
1
U) < 1, de unde obt inem ca sirul construit prin (3.5) converge
la o solut ie a ecuat iei (3.2) si cum ecuat ia (3.2) are solut ie unica, rezulta ca
sirul construit prin (3.5) converge la unica solut ie a ecuat iei (3.2).
Procedee de descompunere (splitare) a unei matrici
Sa analizam acum cteva moduri de a asocia unui sistem de forma (3.1) un
sistem de forma (3.2) echivalent, adica orice solut ie a ecuat iei (3.1) sa e
solut ie pentru ecuat ia (3.2) si reciproc orice solut ie a ecuat iei (3.2) sa e
solut ie pentru ecuat ia (3.1).
O matrice A /
n
(K) poate descompusa (splitata) ntr-o innitate de
moduri de forma
A = M N (3.15)
deci sistemul (3.1) se poate scrie
Mx = Nx +b (3.16)
Daca matricea M este nesingulara, sistemul (3.16) se scrie
x = M
1
Nx +M
1
b (3.17)
care este evident de forma (3.2) cu B = M
1
N si c = M
1
b. Evident, daca
A = M N iar matricea M este nesingulara ecuat ia (3.1) este echivalenta
cu ecuat ia (3.2) cu B = M
1
N si c = M
1
b.
In studiul metodelor iterative de o deosebita important a se dovedeste a
splitarea de tipul (3.15) n care M este o matrice nesingulara si (M
1
N) <
1, precum si splitarea de tipul (3.15) unde M este o matrice nesingulara iar
M
1
0 si N 0.
84 Capitolul 1. Sisteme de ecuatii liniare
Lema 3.1 Daca A este o matrice simetrica si se considera descompunerea
A = M N cu M nesingulara, atunci
A(M
1
N)
T
A(M
1
N) = (I M
1
N)
T
(M
T
+N)(I M
1
N) (3.18)
Demonstrat ie.
Cum A = M N avem (M
1
N)
T
A(M
1
N) = (M
1
N)
T
N(I M
1
N)
deoarece
AM
1
N = (M N)M
1
N = N NM
1
N = N(I M
1
N).
Dar
(M
1
N)
T
N(I M
1
N) =
= (M
1
N)
T
N(I M
1
N) N(I M
1
N) +AM
1
N =
= (I (M
1
N)
T
)N(I M
1
N) +AM
1
N
deci
A(M
1
N)
T
A(M
1
N) = A(I M
1
N) +(I (M
1
N)
T
)N(I M
1
N).
Din A = M N obt inem A = M(I M
1
N) si cum A este o matrice
simetrica avem A = A
T
= (I (M
1
N)
T
)M
T
, deci
A(I M
1
N) = (I (M
1
N)
T
)M
T
(I M
1
N).
Am obt inut astfel
A(M
1
N)
T
A(M
1
N) = (I M
1
N)
T
(M
T
+N)(I M
1
N)
adica identitatea (3.18). 2
Teorema urmatoare este foarte des utilizata n stabilirea convergent ei
diferitelor metode iterative.
Teorema 3.6 (Householder, John) Fie A o matrice simetrica nesingu-
lara cu A = M N; M o matrice nesingulara. Daca matricea simetrica
Q de forma Q = M + M
T
A = M
T
+ N este pozitiv denita atunci
(M
1
N) < 1 daca si numai daca matricea A este pozitiv denita.
3. Metode iterative 85
Demonstrat ie. Matricea Q = M
T
+ N este, efectiv, o matrice simetrica
pentru ca
M
T
+N = (A
T
+N
T
) +N = A+N +N
T
= M +N
T
.
Daca A este pozitiv denita vom stabili inegalitatea [[M
1
N[[ < 1 unde [[ [[
este norma matriceala generata de | |
A
cu |v|
A
= (v
T
Av)
1/2
, care este
o norma vectoriala, deoarece A este o matrice simerica si pozitiv denita.
Cum
|M
1
N| = |I M
1
A| = sup|v M
1
Av|
A
; [[v[[
A
= 1
sntem condusi la evaluarea expresiei |v w|
A
, unde w = M
1
Av si
|v|
A
= 1. Dar
|v w|
2
A
= v
T
Av v
T
Aw w
T
Av +w
T
Aw =
= 1 w
T
M
T
w w
T
Mw +w
T
Aw = 1 w
T
(M
T
+N)w.
Prin urmare |v|
A
= 1 implica |v M
1
Av|
A
1 pentru ca, matricea
M
T
+N ind pozitiv denita (prin ipoteza),
v ,= 0, w = M
1
Av ,= 0=w
T
(M
T
+N)w > 0.
Funct ia v R
n
|vM
1
Av|
A
R ind continua ( compuneri de funct ii
continue ) pe compactul v R
n
; |v|
A
= 1 si atinge marginea superioara
pe acest compact, deci exista v
0
R
n
cu |v
0
|
A
= 1 astfel ca
sup|v M
1
Av|
A
; |v|
A
= 1 = |v
0
M
1
Av
0
|
A
< 1
deci |M
1
N|
A
< 1, ceea ce demonstreaza ca (M
1
N) < 1, utiliznd Teo-
rema 1.3. Reciproc, e x
(0)
R
n
. Consideram sirul denit prin
x
(m+1)
= M
1
Nx
(m)
m 0.
Din ipoteza facuta, (M
1
N) < 1, acest sir converge la zero. Cum avem
x
(m)
x
(m+1)
= (I M
1
N)x
(m)
,
folosind identitatea (3.18) din Lema 3.1 obt inem
(x
(m)
x
(m+1)
, (M
T
+N)(x
(m)
x
(m+1)
) =
86 Capitolul 1. Sisteme de ecuatii liniare
= (x
(m)
, (I M
1
N)
T
(M
T
+N)(I M
1
N)x
(m)
) =
= (x
(m)
, (A(M
1
N)
T
A(M
1
N))x
(m)
) =
= (x
(m)
, Ax
(m)
) (x
(m)
, (M
1
N)
T
A(M
1
N)x
(m)
=
(x
(m)
, Ax
(m)
) (x
(m+1)
, Ax
(m+1)
)
deci
(x
(m)
x
(m+1)
, (M
T
+N)(x
(m)
x
(m+1)
) = (x
(m)
, Ax
(m)
)(x
(m+1)
, Ax
(m+1)
)
(3.19)
Daca x
(m)
,= 0 atunci x
(m)
x
(m+1)
,= 0 ( in caz contrar am avea 0 =
x
(m)
x
(m+1)
= M
1
(M N)x
(m)
= M
1
Ax
(m)
deci x
(m)
= 0.) Cum
M
T
+N este pozitiv denit folosind (3.19) avem
(x
(m)
, Ax
(m)
) (x
(m+1)
, Ax
(m+1)
) > 0.
Daca A nu este pozitiv denita, exista x
(0)
nenul ce verica (x
(0)
, Ax
(0)
) 0.
Cu aceasta alegere a vectorului init ial obt inem un sir vericnd
(x
(m+1)
, Ax
(m+1)
) < (x
(m)
, Ax
(m)
) < < (x
(0)
, Ax
(0)
) 0
ceea ce contrazice faptul ca sirul (x
(m)
) converge la 0. 2
Teorema precedenta se generalizeaza la cazul nesimetric astfel:
Fie A o matrice nesingulara, A = MN cu M nesingulara astfel
ca matricea Q = M
T
A
T
A + N sa e pozitiv denita. Atunci
(M
1
N) < 1 daca si numai daca matricea A este pozitiv denita.
Demonstrat ia acestui rezultat se gaseste n [67] sau [75].
Denit ia 3.2
Spunem ca matricea A admite o splitare (descompunere) regulata daca
exista M si N astfel ca A = M N, M inversabila, M
1
0 si N 0.
Teorema 3.7 Fie A = (a
ij
), o matrice vericnd a
ij
0 i ,= j. Exista o
splitare regulata A = MN cu (M
1
N) < 1 daca si numai daca A este o
M-matrice nesingulara.
Demonstrat ie. Presupunem ca A admite o splitare regulata A = M N
cu (M
1
N) < 1. Atunci M
1
A = I M
1
N este inversabila, deoarece
(M
1
N) < 1, deci M
1
A este inversabila, de unde A este inversabila. Dar
A
1
= (M N)
1
= (I M
1
N)
1
M
1
3. Metode iterative 87
si
(I M
1
N)
1
= I +M
1
N + (M
1
N)
2
+
ceea ce arata ca (I M
1
N)
1
0, deoarece M
1
N 0. Deci A
1
0, si
cum prin ipoteza a
ij
0 i ,= j utiliznd Propozit ia 1.6(i) avem ca A este o
M-matrice. Reciproc, presupunnd ca A este o M-matrice nesingulara exista
s R, s > 0 si B 0 astfel ca A = sI B cu (B) < s. Este clar, acum, ca
A admite o splitare regulata. Intr-adevar, luam M = sI si N = B care au
proprietat ile: M inversabila, M
1
0, N 0 si (M
1
N) = s
1
(B) < 1.
2
Denit ia 3.3 Spunem ca matricea A admite o splitare slab regulata
daca exista M si N astfel ca A = M N, M nesingulara, M
1
0 si
M
1
N 0.
Este evident ca o splitare regulata este o splitare slab regulata. Mai mult
daca A = (a
ij
), a
ij
0 i ,= j admite o splitare slab regulata atunci A
admite o splitare regulata.
Teorema 3.8 Fie A = M N o splitare slab regulata ( adica M nesingu-
lara, M
1
0, si M
1
N 0 ). Armat iile urmatoare snt echivalente:
(i) A
1
0;
(ii) A
1
N 0;
(iii) (M
1
N) =
(A
1
N)
1 +(A
1
N)
< 1.
Demonstrat ie. Daca A = M N obt inem
M
1
N = (A+N)
1
N = (I +A
1
N)
1
A
1
N.
Lund B = A
1
N, M
1
N = (I +B)
1
B si e o valoare proprie pentru B,
Bx = x
(I +B)x = (1 +)x
deci
M
1
Nx = (I +B)
1
Bx =

1 +
x
88 Capitolul 1. Sisteme de ecuatii liniare
( = 1 atrage x = 0). Invers, daca este o valoare proprie pentru
(I +B)
1
B atunci
(I B)
1
By = y By = (I +B)y
( ,= 1 caci daca nu y = 0 ) , astfel
By =

1
y.
Presupunnd ca (i) are loc, avem
A
1
N = (M N)
1
N = (I M
1
N)
1
M
1
N.
Cum
A
1
M = (M N)
1
M = (I M
1
N)
1
0,
din Teorema 1.10 rezulta ca (M
1
N) < 1 ceea ce demonstreaza ca
A
1
N 0, adica (ii).
Presupunnd ca (ii) are loc, matricea B = A
1
N este 0 mpreuna cu
M
1
N. Considernd valorile propri pozitive pentru B = A
1
N, care stim
ca exista din teorema Perron Frobenius, /(1 +) este o funct ie crescatoare
pentru 0 si avem maximul sau pentru = (A
1
N) astfel ca
(M
1
N) =
(A
1
N)
1 +(A
1
N)
< 1.
Presupunnd, n sfrsit, ca (iii) are loc, am vazut ca aceasta atrage A
1
0,
deoarece
A
1
= (M N)
1
= (I M
1
N)
1
M
1
.
2
Corolarul 3.1 Fie A astfel ca A
1
0. Daca A = M
1
N
1
si A = M
2
N
2
snt doua splitari regulate cu N
2
N
1
atunci
(M
1
2
N
2
) (M
1
1
N
1
) < 1.
Demonstrat ie. Inegalitat ile de mai sus rezulta din teorema precedenta
( punctul (iii) ) si din faptul ca funct ia (1 + )
1
este crescatoare
pentru 0. 2
3. Metode iterative 89
Acest ultim rezultat este interesant deoarece el permite sa comparam vitezele
de convergent a a metodelor iterative bazate pe splitari diferite.
Indicam acum un alt mod n care se poate obt ine un sistem echivalent cu
sistemul (3.1).
Daca P = /
n
(K) si det(P) ,= 0 atunci sistemul (3.1) este echivalent cu
sistemul
x = x +P(b Ax) (3.20)
Sistemul (3.20) se mai poate scrie sub forma
P
1
x = (P
1
A)x +b (3.21)
Observam ca sistemul (3.21) este de forma (3.16) cu
M = P
1
, N = P
1
A.
Sistemul (3.20), respectiv (3.21) poate scris sub forma (3.2) lund B =
M
1
N = I PA si c = M
1
b = Pb.
De exemplu putem lua P = I unde ,= 0.
Compararea metodelor iterative
Cum alegem ntre mai multe metode iterative convergente pentru re-
zolvarea unui sistem liniar ? Pentru a xa ideile sa presupunem ca matricea
B are proprietatea B B
T
= B
T
B. Atunci
[[B
m

(0)
[[
2
[[B
m
[[
2
[[
(0)
[[
2
= ((B))
m
[[
(0)
[[
2
Aceasta inegalitate este ceea mai buna posibil, n sensul ca, pentru orice
ntreg m 0, exista un vector
0
(m) ,= 0, pentru care inegalitatea devine o
egalitate. In cazul matricilor cu proprietatea de mai sus, metoda ceea mai
rapida este cea pentru care raza spectrala (B) este cea mai mica posibil,
pentru ca
sup
[[x[[
2
=1
[[B
m
x[[
1/m
2
= (B), m 0.
In cazul general (matricea B oarecare, norma vectoriala oarecare) concluzia
este identica.
Asimptotic, vectorul eroare
(m)
= B
m

(0)
se comporta ca (B)
m
, cum
precizeaza rezultatul urmator.
90 Capitolul 1. Sisteme de ecuatii liniare
Teorema 3.9
(1) Fie [[ [[ o norma vectoriala, si e u astfel ca u = Bu + c. Consideram
metoda iterativa
u
m+1
= Bu
m
+c, m 0.
Atunci
lim
m
sup
[[u
0
u[[=1
[[u
m
u
0
[[
1/m
= (B).
(2) Fie [[ [[ o norma vectoriala oarecare si e u astfel ca
u = Bu +c =

Bu + c.
Considernd metodele iterative
u
m+1
=

B u
m
+ c, u
m+1
= Bu
m
+c, m 0
unde (B) < (

B), u
0
= u
0
atunci oricare ar > 0, exista un ntreg l()
astfel ca
m l= sup
[[u
0
u[[=1
_
| u
m
u|
|u
m
u|
_
1/m

(

B)
(B) +
.
Demonstrat ie. Fie [[ [[ o norma matriciala subordonata. Pentru un ntreg
m putem scrie
((B))
m
= (B
m
) [[B
m
[[ = sup
[[
0
[[=1
[[B
m

0
[[
astfel ca (B) sup
[[
0
[[=1
[[B
m

0
[[
1/m
= [[B
m
[[
1/m
si armat ia (1) rezulta
din Teorema 3.1. Din acelasi rezultat, ind dat > 0, exista un ntreg l()
astfel ca
k l= sup
[[
0
[[=1
[[B
m

0
[[
1/m
(B) +.
Prin urmare, pentru orice k l, exista un vector
0
=
0
(m) astfel ca
[[
0
[[ = 1 si [[

B
m

0
[[
1/m
= [[

B
m
[[
1/m
(

B)
si armat ia (2) este demonstrata. 2
Studiul metodelor iterative trebuie sa raspunda la urmatoarele doua prob-
leme.
3. Metode iterative 91
1) Fiind data o metoda cu matricea B sa se determine daca metoda este
convergenta, adica daca (B) < 1, sau echivalent daca exista o norma
matriciala astfel ca [[B[[ < 1.
2) Fiind date doua metode iterative convergente, sa se compare aceste
metode, metoda cea mai rapida este cea a carei matrice are raza spec-
trala cea mai mica.
3.2 Metoda Jacobi
Una din cele mai simplu de nt eles si implementat metode iterative este
metoda Jacobi.
Denirea metodei Jacobi
Presupunem ca matricea A este nesingulara si are elementele de pe diagonala
principala nenule (a
ii
,= 0, i I = 1, . . . , n). Descompunem matricea A
ca suma de trei matrici
A = D E F (3.22)
unde D = diag(a
11
, . . . , a
nn
), E este strict inferior triunghiulara ( e
ij
=
0, i j) iar F este strict superior triunghiulara ( f
ij
= 0, i j ).
Sistemul (3.22) poate scris sub forma
Dx = (E +F)x +b (3.23)
Deoarece elementele diagonale a
ii
ale matricii A snt nenule, putem deduce
urmatoarea metoda iterativa din (3.23)
a
ii
x
(m+1)
i
=
n

j,=i
a
ij
x
(m)
j
+b
i
, i I, m 0 (3.24)
unde x
(0)
snt estimarile init iale ale componentelor solut iei unice x a sis-
temului (3.23). Evident, putem scrie (3.24) sub forma
x
(m+1)
i
=

j,=i
a
ij
a
ii
x
(m)
j
+
b
i
a
ii
, i I, m 0 (3.25)
In notat ie matriciala, (3.24) devine
Dx
(m+1)
= (E +F)x
(m)
+b, m 0 (3.26)
92 Capitolul 1. Sisteme de ecuatii liniare
si deoarece D este o matrice nesingulara, analogul matricial pentru (3.25)
este
x
(m+1)
= D
1
(E +F)x
(m)
+D
1
b (3.27)
Aceasta metoda iterativa poarta numele de metoda JACOBI, iar matricea
J(A) = D
1
(E +F) = L +U (3.28)
unde L = D
1
E, U = D
1
F, este matricea Jacobi asociata matricei A.
Observam ca metoda Jacobi este de tipul (3.3) cu M = D si N = E +F iar
B = J(A) si c = D
1
b.
Convergent a metodei Jacobi
Vom da n continuare cteva rezultate de convergent a a metodei Jacobi.
Teorema 3.10 Urmatoarele armat ii snt echivalente:
i) Metoda Jacobi este convergenta.
ii) Raza spectrala (J(A)) < 1.
iii) Exista o norma matriciala || subordonat a unei norme vectoriale astfel
ca |J(A)| < 1.
Demonstrat ie. Rezulta imediat, folosind Teorema 3.1. 2
Teorema 3.11
a) Daca A este o matrice strict diagonal dominanta atunci metoda Jacobi
este convergenta.
b) Daca A este o matrice diagonal dominanta ireductibila atunci metoda
Jacobi este convergenta.
c) Daca A este o H - matrice nesingulara atunci metoda Jacobi converge
pentru orice matrice din (A) =

A; M(A) = M(

A).
Demonstrat ie. a) Daca A este o matrice strict diagonal dominanta atunci
a
ii
,= 0 i I = 1, . . . , n si matricea A este nesingulara. Fie B o ma-
trice ale caror elemente snt denite astfel b
ii
= 0 si b
ij
= a
ij
/a
ii
, i ,= j.
Observam ca matricea B este matricea Jacobi asociata matricii A. Cum
3. Metode iterative 93

j,=i
[a
ij
[ < [a
ii
[ i I rezulta ca
n

j=1
[b
ij
[ < 1, deci |B|

< 1 de unde
(B) |B|

< 1, adica (B) < 1. Am demonstrat astfel ca (J(A)) < 1 si


folosind Teorema 3.1 rezulta convergent a metodei Jacobi.
b) Daca A este diagonal dominanta ireductibila avem |B|

1 si cum
(B) |B|

avem (B) 1. Presupunem ca exista valoare proprie


pentru B cu [[ = 1. Fie x ,= 0 un vector propriu pentru matricea B. Deci
n

j=1
b
ij
x
j
= x
i
i I.
Vom arata ca [x
j
[ = |x|

j I. Pentru un i I pentru care [x


i
[ = |x|

avem
n

j=1
[b
ij
[|x|

|x|

j=1
[b
ij
[[x
j
[
deoarece
|x|

= [x
i
[ = [[ [x
i
[ = [x
i
[ = [
n

j=1
b
ij
x
j
[
n

j=1
[b
ij
[ [x
j
[
si
n

j=1
[b
ij
[ 1 deci
n

j=1
[b
ij
[([x
j
[ |x|

) 0. (3.29)
Cum [x
j
[ |x|

0 atunci b
ij
,= 0 implica [x
j
[ = |x|

. Fie I
1
mult imea
i I, [x
i
[ = |x|

. Daca I
1
,= I atunci I
2
= II
1
,= . Pentru j I
2
exista
i I
1
astfel ca b
ij
,= 0 deoarece I = I
1
I
2
, I
1
I
2
= iar B este ireductibila.
Folosind observat iile de mai sus avem ca [x
j
[ = |x|

. Deci I
1
= I, adica
[x
j
[ = |x|

j I. Avem prin urmare |x|

= [x
i
[

n
j=1
[b
ij
[ |x|

deci

n
j=1
[b
ij
[ 1 pentru orice i I ceea ce contrazice faptul ca exista un
indice i I pentru care

n
j=1
[b
ij
[ < 1. Deci (B) < 1.
c) Matricea A ind o H - matrice nesingulara, exista o matrice diagonala
U astfel ca U
1
AU sa e strict diagonal dominanta. Cum A = D E F
iar U
1
AU = U
1
DU U
1
EU U
1
FU avem J(A) = D
1
(E + F) =
I D
1
A si J(U
1
AU) = I (U
1
DU)
1
(U
1
AU) = I U
1
D
1
AU =
U
1
(I D
1
A)U = U
1
J(A)U, ceea ce demonstreaza ca J(A) si J(U
1
AU)
au aceleasi valori proprii, deci (J(A)) = (J(U
1
AU)) < 1, deoarece
94 Capitolul 1. Sisteme de ecuatii liniare
U
1
AU este strict diagonal dominanta. Am demonstrat astfel ca pentru
orice H- matrice nesingulara metoda Jacobi converge. Cum orice matrice

A (A) este o H - matrice rezulta ca metoda Jacobi pentru



A este con-
vergenta. 2
Observat ie. Pentru demonstrarea punctului b) din teorema de mai sus
putem folosi punctul c) stiind ca orice matrice diagonal dominanta si
ireductibila este o H - matrice.
Teorema 3.12 Fie A o matrice simetrica A = D E F astfel ca D sa
e pozitiv denita. Metoda Jacobi converge daca si numai daca A si 2DA
snt pozitiv denite.
Demonstrat ie. Presupunem ca A si 2D A snt matrici pozitiv denite.
Lund descompunerea A = M N cu M = D si N = E + F = E + E
T
avem ca matricea Q = M
T
+ N = 2D A este pozitiv denita. Utiliznd
teorema Householder-John (Teorema 3.6) rezulta ca (M
1
N) < 1, adica
metoda Jacobi converge.
Reciproc, presupunem ca metoda Jacobi converge, deci (M
1
N) < 1. Avem
(x, Ax) + (x, Qx) = 2(x, Dx) > 0 x ,= 0,
deoarece D este o matrice pozitiv denita. Deci, pentru orice x ,= 0 avem
(x, Ax) > 0 sau (x, Qx) > 0. Fie x un vector propriu pentru M
1
N asociat
valorii proprii . Folosind identitatea (3.18) din Lema 3.1 obt inem
(1 [[
2
)(x, Ax) = [1 [
2
(x, Qx) (3.30)
Intr-adevar, M
1
Nx = x si cum
A(M
1
N)
T
A(M
1
N) = (I M
1
N)
T
Q(I M
1
N)
avem
(x, Ax) (x, (M
1
N)
T
A(M
1
N)x) =
= (x, Ax) (M
1
Nx, AM
1
Nx) =
= (x, Ax) (x, Ax) = (1 [[
2
)(x, Ax)
si
(x, (I M
1
N)
T
Q(I M
1
N)x) =
= ((I M
1
N)x, Q(I M
1
N)x) =
3. Metode iterative 95
= ((1 )x, Q(1 )x) = [1 [
2
(x, Qx),
deci (3.30) are loc. Din ipoteza [[ < 1 rezulta 1 [[
2
si [1 [
2
strict
pozitive, deci (x, Ax) si (x, Qx) au acelasi semn, si cum cel put in unul din
cele doua numere este pozitiv, rezulta ca ambele numere snt pozitive. Ma-
tricea A ind simetrica, valorile sale propri snt reale. Fie x
(1)
, . . . , x
(n)
o baza ortogonala formata cu vectori proprii. Atunci (x
(j)
, Ax
(i)
) = 0 si
(x
(j)
, Ax
(j)
) > 0. Pentru x R
n
exista d
1
, . . . , d
n
astfel ca x =

n
j=1
d
j
x
(j)
.
Deci (x, Ax) =

n
j=1
d
2
j
(x
(j)
, Ax
(j)
) > 0, adica matricea A este pozitiv
denita. 2
3.3 Metoda Gauss-Seidel
Una din cele mai folosite metode iterative stat ionare este metoda
GaussSeidel.
Descrierea metodei Gauss-Seidel
Examinarea metodei iterative Jacobi (3.24) arata ca n general trebuie sa
avem salvate (pastrate) toate componentele vectorului x
(m)
pentru a putea
calcula componentele vectorului x
(m+1)
. Pare la prima vedere atractiv sa
folosim ultimile estimari x
(m+1)
i
ale componentei x
i
ale solut iei x n toate
calculele care urmeaza asa cum arata metoda iterativa
a
ii
x
(m+1)
i
=
i1

j=1
a
ij
x
(m+1)
j

n

j=i+1
a
ij
x
(m)
j
+b
i
i I, m 0 (3.31)
Aceasta metoda iterativa are avantajul ca nu necesita memorarea simultana
a doua componente x
(m)
i
n cursul calculelor asa cum este nevoie n metoda
Jacobi.

In scriere matriciala relat iile (3.31) devin
Dx
(m+1)
= Ex
(m+1)
+Fx
(m)
+b, m 0 (3.32)
Daca notam L = D
1
E, U = D
1
F si c = D
1
b atunci metoda (3.32) se
mai scrie
x
(m+1)
= Lx
(m+1)
+Ux
(m)
+c, m 0
Matricea G(A) = (D E)
1
F = (I L)
1
U se numeste matricea Gauss-
Seidel asociata matricii A. Metoda Gauss-Seidel este de tipul (3.5) n care
96 Capitolul 1. Sisteme de ecuatii liniare
b
ii
= 0 i I, mai mult B = L +U. Matricea G(A) este exact matricea B
din (3.5) si c = (D E)
1
b Metoda Gauss-Seidel este de tipul (3.15) lund
M = D E, N = F.
Convergent a metodei Gauss-Seidel
Teorema urmatoare da o caracterizare a convergent ei metodei GaussSeidel.
Teorema 3.13 Urmatoarele armat ii snt echivalente.
1) Metoda Gauss-Seidel este convergenta.
2) Raza spectral a (G(A)) [0, 1).
3) Exista o norma matriciala | | astfel ca |G(A)| < 1.
Demonstrat ie. Folosind Teorema 3.1 rezulta imediat echivalent a celor trei
armat ii. 2
Dam acum cteva condit ii suciente ca metoda Gauss-Seidel sa convearga.
Teorema 3.14
a) Daca A este o matrice strict diagonal dominanta atunci metoda Gauss
Seidel este convergenta.
b) Daca A este o matrice diagonal dominanta si ireductibila atunci metoda
Gauss-Seidel este convergenta.
c) Daca A este o H - matrice nesingulara metoda Gauss-Seidel converge
pentru orice matrice din (A) =

A; M(A) = M(

A).
Demonstrat ie. Consideram matricea B = L + U denita astfel b
ii
= 0 si
b
ij
= a
ij
/a
ii
. Se observa ca matricea B este matricea Jacobi asociata ma-
tricii A iar (I L)
1
U este matricea Gauss-Seidel asociata aceleiasi matrici.
Daca matricea A este strict diagonal dominanta sau diagonal dominanta si
ireductibila rezulta ([B[) < 1, adica ([J(A)[) < 1 si folosind Teorema 3.5
rezulta ca metoda Gauss-Seidel converge.
c) Daca A este o H - matrice atunci pentru orice

A (A) avem ([J(

A)[) <
1 si folosind Teorema 3.5 rezulta ca metoda Gauss-Seidel este convergenta.
2
3. Metode iterative 97
Teorema 3.15 Daca matricea A este simetrica si pozitiv denita atunci
metoda Gauss-Seidel converge.
Demonstrat ie. Fie A = D E F cu D diagonala, E strict inferior
triunghiulara, iar F strict superior triunghiulara. Cum A este o matrice
simetrica rezulta F = E
T
. Pentru metoda Gauss-Seidel M = D E si
N = F = E
T
, deci Q = M
T
+ N = (D E)
T
+ E
T
= D. Matricea A ind
pozitiv denita rezulta ca matricea D este pozitiv denita, deci utiliznd
teorema Householder-John (Teorema 3.6), rezulta ca metoda Gauss-Seidel
este convergenta. 2
Compararea metodelor Jacobi si Gauss-Seidel
Pentru matricea
A =
_
_
_
2 1 1
2 2 2
1 1 2
_
_
_
observam ca (J(A)) =

5/2 si (G(A)) = 1/2 deci metoda Jacobi nu este


convergenta, n timp ce metoda Gauss-Seidel este convergenta.
Pentru matricea
A =
_
_
_
1 2 2
1 1 1
2 2 1
_
_
_
avem (J(A)) = 0 iar (G(A)) = 2 deci metoda Jacobi converge, n timp ce
metoda Gauss-Seidel nu este convergenta.
Pentru matricea
A =
_
_
_
_
_
4 1 1 0
1 4 0 1
1 0 4 1
0 1 1 4
_
_
_
_
_
avem (J(A))
2
= (G(A)) < 1 deci metodele Jacobi si Gauss-Seidel snt
convergente iar metoda Gauss-Seidel este de doua ori mai rapida ca metoda
Jacobi.
98 Capitolul 1. Sisteme de ecuatii liniare
Teorema 3.16
Fie A astfel ca matricea Jacobi asociata J(A) sa e ne negativa, adica
J(A) 0. Atunci, metodele Jacobi si Gauss-Seidel snt amndoua conver-
gente sau amndoua divergente. Cnd cele doua metode snt convergente
metoda Gauss-Seidel converge mai repede.
Demonstrat ie. Cum J(A) 0 din teorema Stein-Rosenberg (Teorema
1.13) atunci una si numai una din urmatoarele relat ii este adevarata:
1. (J(A)) = (G(A)) = 0
2 0 < (G(A)) < (J(A)) < 1
3 1 = (J(A)) = (G(A))
4. 1 < (J(A)) < (G(A))
Intr-adevar, pentru A = D E F avem J(A) = L + U 0 unde L este
strict inferior triunghiulara iar U este superior triunghiulara cu L = D
1
E,
U = D
1
F, iar
G(A) = (D E)
1
F = (I D
1
E)
1
D
1
F = (I L)
1
U.
Utiliznd Teorema 3.1 rezulta ca cele doua metode snt e ambele conver-
gente, e ambele divergente. In cazul in care snt convergente, mai repede
converge metoda GaussSeidel. 2
Teorema 3.17 Fie A o matrice tridiagonala. Atunci razele spectrale ale
matricelor Jacobi si respectiv Gauss-Seidel ((J(A)) respectiv (G(A))) snt
legate prin relat ia
(G(A)) = [(J(A))]
2
.
Astfel cele doua metode snt convergente sau divergente simultan. Cnd
metodele snt convergente, metoda Gauss Seidel converge mai repede ca
metoda Jacobi.
Demonstrat ie. (i) Incepem cu un rezultat preliminar: Fie A() ( scalar
,= 0) o matrice tridiagonala de forma
A() =
_
_
_
_
_
_
_
_
_
_
_
_
b
1

1
c
1
a
2
b
2

1
c
2
.
.
.
.
.
.
.
.
.
a
n1
b
n1

1
c
n1
a
n
b
n
_
_
_
_
_
_
_
_
_
_
_
_
3. Metode iterative 99
Atunci det(A()) = det(A(1)) pentru orice ,= 0. Daca introducem ma-
tricea diagonala
Q() =
_
_
_
_
_
_
0

2
0
.
.
.
0
n
_
_
_
_
_
_
atunci se verica usor ca: A() = Q()A(1)Q()
1
ceea ce demonstreaza
relat ia ceruta.
(ii) Valorile proprii ale matricei Jacobi J(A) = D
1
(E + F) snt zerourile
polinomului caracteristic
p
J
() = det(D
1
(E +F) I)
care snt de asemenea zerourile polinomului
q
J
()
def
= det(D E F) = det(D)p
J
().
In acelasi mod, valorile proprii ale matricei Gauss-Seidel G(A) =
(D E)
1
F snt zerourile polinomului caracteristic
p
G
() = det((D E)
1
F I)
care snt de asemenea zerourile polinomului
q
G
()
def
= det(D E F) = det(E D)p
G
().
T innd seama de structura tridiagonala a matricei A, o aplicat ie a rezulta-
tului preliminar (cu = ,= 0) arata ca
q
G
(
2
) = det(
2
D
2
E F) = det(
2
D E F) =
n
q
J
()
pentru orice C 0. Aceasta relat ie ind adevarata si pentru = 0
prin continuitate. Din aceasta relat ie funct ionala, deducem implicat iile:
,= 0 si sp G(A) =
1/2
,
1/2
sp (J(A))
sp(J(A)) sp(J(A)) =
2
sp(G(A)).
notnd prin
1/2
una din cele doua radacini ale numarului complex , ceea
ce termina demonstrat ia. 2
Observat ie
Demonstrat ia de mai sus a stabilit o biject ie ntre valorile proprii neneule ale
matricei G(A) si perechea valorilor proprii opuse nenule ale matricei J(A).
100 Capitolul 1. Sisteme de ecuatii liniare
3.4 Metode de relaxare
Putemncerca sa marim viteza de convergenta a metodei (3.3) respectiv (3.5)
lund la ecare iterat ie o combinat ie liniara ntre x
(m)
si vectorul calculat
prin (3.3) respectiv (3.5), introducnd un factor de relaxare ,= 0.
Metoda Jacobi relaxata
Pornim de la metoda Jacobi (3.25) pentru a calcula vectorul auxiliar x
(m+1
),
apoi componentele vectorului x
(m+1)
snt determinate din
x
(m+1)
i
= x
(m+1)
i
+ (1 )x
(m)
i
unde ,= 0 este un parametru de relaxare. Obt inem
x
(m+1)
i
=

a
ii
_
b
i

j,=i
a
ij
x
(m)
j
_
+ (1 )x
(m)
(3.33)
care matricial se scrie
Dx
(m+1)
= b +(E +F)x
(m)
+ (1 )Dx
(m)
(3.34)
Constatam ca si aici A = M N unde M =
1

I, N =
1

D + (E + F).
Matricea J

(A) = (1)I +D
1
(E+F) = (1)I +J(A) este matricea
de iterat ie Jacobi relaxata asociata matricei A.
Convergent a metodei Jacobi relaxata
Vom particulariza acum rezultatele generale de convergent a la metoda Jacobi
relaxata.
Teorema 3.18 Fie A o matrice simetrica astfel ca D sa e pozitiv denita.
Metoda Jacobi relaxata converge daca si numai daca A si
2

D A snt
matrici pozitiv denite.
Demonstrat ie. Se face identic ca demonstrat ia Teoremei 3.12, lundu-se
Q = M +M
T
A =
2

D A
2
Cautam acum sa obt inem condit ii n care matricea
2

D A este pozitiv
denita.
3. Metode iterative 101
Propozit ia 3.2 Fie A o matrice simetrica A = D E F astfel ca D =
diag(a
11
, . . . , a
nn
) sa e pozitiv denita. Matricea (2/)D A este pozitiv
denita daca si numai daca 0 < < 2/(1
1
) unde
1
este ceea mai mica
valoare proprie a matricei J(A).
Demonstrat ie. Remarcam ca matricea J(A) = D
1
(E + E
T
) are valori
proprii reale deoarece J(A) este asemenea cu D
1/2
(E+E
T
)D
1/2
care este
simetrica. Valorile proprii ale matricei J(A) snt reale si
1

2

n
de unde
1
0 si
n
0 deoarece urma matricei este nula (adica tr(J(A)) =

1
+ . . . +
n
= 0). Matricea
2

D A este pozitiv denita daca matricea


D
1/2
((2/)D A)D
1/2
este pozitiv denita.
D
1/2
_
2

DA
_
D
1/2
=
2

I D
1/2
AD
1/2
= (
2

1)I +D
1/2
J(A)D
1/2
.
Dar matricea D
1/2
J(A)D
1/2
are aceleasi valori ca matricea J(A). Valorile
proprii ale matricei (2/)DA snt 2/ 1 +
i
si pentru ca acestea sa e
strict pozitive trebuie ca 0 < < 2/(1
1
). 2
Pentru o matrice nesimetrica avem:
Teorema 3.19 Daca A o H-matrice nesingulara, atunci metoda Jacobi re-
laxata converge pentru ce verica :
0 < <
2
1 +(J(A))
.
Demonstrat ie. Cum J

(A) = (1 )I +J(A) avem


(J

(A)) [1 [ +(J(A)) pentru > 0.


A ind o H-matrice nesingulara (J(A)) < 1 si membrul din dreapta este
inferior lui 1 daca
0 < <
2
1 +(J(A))
.
2
Ramne sa determinam care este cea mai buna valoare a lui , adica cea care
minimizeaza (J

(A)).
102 Capitolul 1. Sisteme de ecuatii liniare
-
6

(1
1
)
1
(1
n
)
1

opt
1
[

i
[
Figura 3.1:
Stim sa determinam
opt
n cazul n care matricea A = D E E
T
este
simetrica cu D pozitiv denita si unde metoda Jacobi converge. Valorile
proprii ale matricii J

(A) snt

i
= (1 ) +
i
= 1 (1
i
), i = 1, . . . , n
unde
i
sint valori propri ale matricii J(A).
Functia (J

(A)) = max
1in
[

i
[ este reprezentata de linia hasurata si

opt
este astfel ca
1 (1
1
) = 1 +(1
n
)
deci

opt
=
2
2 (
1
+
n
)
Pentru matricea
A =
_
_
_
_
_
4 1 1 0
1 4 0 1
1 0 4 1
0 1 1 4
_
_
_
_
_
matricea Jacobi asociata lui A este
3. Metode iterative 103
J(A) =
_
_
_
_
_
0 1/4 1/4 0
1/4 0 0 1/4
1/4 0 0 1/4
0 1/4 1/4 0
_
_
_
_
_
Polinomul caracteristic asociat matricii J(A) este dat de
det(I J(A)) =
2
(
2
1/4),
deci valorile propri snt 1/2, 0, 0, 1/2 iar raza spectrala (J(A)) este 1/2.
Pentru metoda Jacobi relaxata J

(A) = (1 )I + J(A) care are valorile


proprii

1
= 1 3/2,

2
=

3
= 1 ,

4
= 1 /2 iar raza spectrala
este
(J

(A)) = max[1
3
2
[, [1 [, [1

2
[ =
_

_
1

2
pentru 0 < < 1
3
2
1 pentru 1 <
Metoda Jacobi relaxata converge pentru 0 < < 4/3 iar
opt
= 1.
Daca A este o matrice de forma
A =
_
_
_
_
_
_
_
_
C I
I C I
.
.
.
.
.
.
. . .
I C I
I C
_
_
_
_
_
_
_
_
iar
C =
_
_
_
_
_
_
_
_
4 1
1 4 1
.
.
.
.
.
.
.
.
.
1 4 1
1 4
_
_
_
_
_
_
_
_
unde ordinul matricei A este n = N
2
iar ordinul matricei C este N atunci

ij
=
1
2
(cos(ih) + cos(jh)), (J(A)) = cos(h) = 1 O(h
2
), unde h =
1/(N + 1), ceea ce da o proasta viteza de convergent a. Metoda Jacobi
relaxata are, din pacate, acelasi ordin de convergent a, deoarece
1
= cos(h)),
104 Capitolul 1. Sisteme de ecuatii liniare

n
= cos(Nh) = cos(h) ceea ce da
opt
= 1, adica metoda Jacobi este
optimala n clasa metodelor Jacobi relaxate.
Valoarea optimala a parametrului nu este intotdeauna egala cu 1. Sa
consideram matricea
A =
_
_
a e e
e a e
e e a
_
_
cu e si a > 0. Matricea A este pozitiv denita daca a > e si este o H-matrice
daca a > 2e. Valorile proprii ale matricii J(A) snt e/a (valoare dubla) si
2e/a, deci (J(A)) = 2e/a si deci metoda Jacobi converge daca a > 2e,
ceea ce cadreaza bine cu teoria precedenta, deoarece n acest caz A este o
H-matrice. Putem verica usor ca n cazul e < a 2e, 2D A nu este
pozitiv denita.
Presupunem a > e. Valorile proprii ale matricei J

(A) snt 1 (
a e
a
) si
1(
a + 2e
a
) si se verica usor ca (J

(A)) < 1 daca 0 < <


2a
a + 2e
ceea ce
este condit ia gasita n Teoremele 3.3 si 3.12. Valoarea optimala a lui este

opt
=
2a
2a +e
si (J

opt
(A)) =
3e
2a +e
si deci (J

opt
(A)) < (J(A)), adica
metoda Jacobi relaxata pentru =
opt
converge mai repede ca metoda
Jacobi.
Metoda Gauss-Seidel de relaxare sau metoda SOR
Pornim cu metoda Gauss-Seidel (3.31) pentru a determina vectorul auxiliar
x
(m+1)
din
a
ii
x
i
(m+1)
=
i1

j=1
a
ij
x
(m+1)
j

n

j=i+1
a
ij
x
(m)
j
+b
i
i I, m 0 (3.35)
Componentele x
(m+1)
i
ale vectorului x
(m+1)
snt denite prin
x
(m+1)
i
= x
(m)
i
+( x
(m+1)
i
x
(m)
i
) = (1 )x
(m)
i
+ x
(m+1)
i
(3.36)
Aici se numeste factor de relaxare , si din (3.36) x
(m+1)
i
este o medie pon-
deratantre x
(m)
i
si x
(m+1)
i
, pondere depinznd numai de . Pentru 0 1
aceste ponderi snt pozitive. Daca < 1 avem o metoda de subrelaxare iar
pentru > 1 avem o metoda de suprarelaxare.
3. Metode iterative 105
Combinnd ecuat iile (3.35) si (3.36) se obt ine
a
ii
x
(m+1)
i
= a
ii
x
(m)
i
+
_

i1

j=1
a
ij
x
(m+1)
j

n

j=i+1
a
ij
x
(m)
j
+b
i
a
ii
x
(m)
i
_
(3.37)
n care vectorul auxiliar x
(m+1)
nu apare. Notam ca n aceasta metoda, la
fel ca n metoda Gauss-Seidel, este nevoie de un singur vector n timpul
calculului.
In notat ie matriciala putem scrie
(D E)x
(m+1)
= (1 )D +Fx
(m)
+b, m 0 (3.38)
si cum DE este o matrice nesingulara pentru orice alegere a lui , atunci
cu L = D
1
E, U = D
1
F, aceasta ia forma
x
(m+1)
= (I L)
1
[(1 )I +U]x
(m)
+(I L)
1
D
1
b (3.39)
Aceasta metoda poarta numele de metoda de relaxare punctuala sau metoda
SOR, iar matricea
G

(A) = (I L)
1
[(1 )I +U] (3.40)
matricea de relaxare punctuala asociata matricei A. Pentru = 1 se obt ine
metoda Gauss-Seidel si matricea Gauss-Seidel asociata. Metoda SOR este
de tipul (3.5) cu M =
1

D E, N =
1

D + F cu B = G

(A) si
c = (D E)
1
b.
Convergent a metodei Gauss-Seidel relaxata
Condit ii de convergent a a metodei Gauss - Seidel relasata snt studiate n
cele ce urmeaza.
Teorema 3.20 (condit ii necesare de convergent a) Raza spectrala
pentru matricea de relaxare G

(A) verica ntotdeauna inegalitatea


(G

(A)) [ 1[.
Daca metoda de relaxare converge, atunci (0, 2).
106 Capitolul 1. Sisteme de ecuatii liniare
Demonstrat ie. Se remarca faptul ca
n

i=1

i
(G

(A)) = det(G

(A)) =
det(
1

D +F)
det(
D

E)
= (1 )
n
,
t innd cont de structura particulara a matricelor D, E, F. Prin urmare
(G

(A))

i=1

i
(G

(A))

1/n
= [1 [,
cu egalitate daca si numai daca toate valorile propri au acelasi modul [1[.
Din (G

(A)) < 1 obt inem (0, 2). 2


Teorema 3.21 (Ostrowski-Reich) Fie A o matrice simetrica de forma
A = DEF cu D = diag(A) pozitiv denita. Metoda SOR (Gauss-Seidel
relaxata) converge pentru orice 0 < < 2 daca si numai daca A este pozitiv
denita.
Demonstrat ie. Descompunerea A = M N asociata metodei de relaxare
se scrie
A = M N =
_
D

E
_

_
1

D +F
_
astfel ca
Q = M
T
+N =
2

D
este pozitiv denit pentru orice (0, 2). Utiliznd teorema Householder
John (Teorema 3.6) obt inem ca metoda de relaxare converge pentru orice
(0, 2) daca si numai daca A este pozitiv denita. 2
Corolarul 3.2 Daca matricea A este simetrica si pozitiv denita atunci
metoda Gauss-Seidel relaxata converge pentru orice (0, 2).
Demonstrat ie. Daca A este o matrice simetrica si pozitiv denita atunci
matricea D = diag(A) este pozitiv denita, deci folosind teorema Ostrowski-
Reich (Teorema 3.21 ) rezulta ca metoda SOR este convergenta pentru orice
(0, 2). 2
Abandonnd ipoteza de simetrie avem urmatorul rezultat:
3. Metode iterative 107
Teorema 3.22 Daca A /
n
(K) este o H-matrice nesingulara si
0 < <
2
1 +([J(B)[)
=
2
1 +(J(M(A)))
atunci pentru orice matrice din
(A) = B /
n
(K) [b
ij
[ = [a
ij
[, 1 i, j n
metoda SOR converge.
Demonstrat ie. Pentru orice B (A) avem [J(B)[ = J(M(A)). Matricea
A ind o H-matrice atunci M(A) este o M-matrice si din Teorema 3.11
avem ([J(B)[) = (J(M(A)) < 1.
Fie B (A), B = D(L+U). Lund M

=
1

DL si N

=
1

D+U
avem G

(B) = M
1

. Consideram pentru > 0

=
1

[D[ [L[,

N

=
[1 [

[D[ +[U[

=

M

=
1 [1 [

[D[ [L[ [U[, G(



A

) =

M
1

Este clar ca

N

0 si [N

[

N

. In plus
[M
1

[ = [(
1

D L)
1
[ = [(I D
1
L)
1
[ [D
1
[ =
= [(I +D
1
L +. . . + (D
1
L)
n1
)[ [D
1
[
deoarece L
n
= 0 pentru ca L este strict inferior triunghiulara deci
[M
1

[ (I +[D
1
L[ +. . . +
n1
[D
1
L[
n1
) [D
1
[
sau nca
[M
1

[
_
[D[

[L[
_
1
=

M
1

deoarece [D
1
L[ = [D[
1
[L[. Aratam ca daca ([J(B)[) < 1 avem

A
1

0
pentru 0 < <
2
1 +([J(B)[)
. Dar

= [D[
_
1 [1 [

I [D[
1
([L[ +[U[)
_
= [D[
_
1 [1 [

I [J(B)[
_
.
108 Capitolul 1. Sisteme de ecuatii liniare
Daca 0 < < 1, atunci
1 [1 [

= 1 si deoarece ([J(B)[) < 1 rezulta


(

A

) < 1 deci

A
1

exista si n plus

A
1

= (I J(B))
1
[D[
1
= (I +[J(B)[ + ) [D[
1
deci

A
1

0. Daca > 1 atunci

= [D[
_
2

I [J(B)[
_
si rezultatul se obt ine daca

2
([J(B)[) < 1
ceea ce se scrie nca
<
2
1 +([J(B))
.
Cum

A
1

0 obt inem ca
(

M
1

) =
(

A
1

)
1 +(

A
1

)
< 1
deci (

M
1

) < 1. Din cele de mai sus rezulta


[G

(B)[ = [

M
1

[ [

M
1

[ [N



M
1

= G(

A

)
de unde folosind teorema Perron-Frobenius avem(G

(B)) (G(

A

)) < 1.
Remarcam ca majoranta

A

este aceiasi pentru orice matrice B (A). 2


Ramne o problema importanta, ceea a determinarii unui optimal pentru
metoda de relaxare Gauss-Seidel.
In ce priveste compararea metodelor Jacobi si Gauss-Seidel relaxata avem
urmatorul rezultat :
Teorema 3.23
Fie A o matrice tridiagonala, avnd toate valorile proprii ale matricei J(A)
reale. Atunci metoda Jacobi si metoda Gauss-Seidel relaxata pentru 0 < <
2, converg sau diverg simultan, cnd metodele converg funct ia (0, 2)
(G

(A)) are alura din gura 3.2 unde

opt
=
2
1 +
_
1 (J(A))
2
.
3. Metode iterative 109
-
6
6
(G

(A))
1
(G(A))
1

opt
2

0
1
Figura 3.2:
Demonstrat ie. (1) Incepem prin a gasi o relat ie ntre valorile proprii ale
matricei J(A) si G

(A). Valorile proprii ale matricei J(A) = D


1
(E + F)
snt zerourile polinomului caracteristic
p
J
() = det(D
1
(E +F) I)
care snt de asemenea zerourile polinomului
q
J
() = det(D E F) = det(D)p
J
().
In acelasi mod, valorile proprii ale matricei
G

(A) =
_
1

D E
_
1
_
1

D +F
_
snt zerourile polinomului
p

() = det
_
(
D

E)
1
(
1

D +F) I
_
sau a polinomului
q

() = det(
+ 1

D E F) = det
_
E
D

_
p

().
Structura tridiagonala a matricei A permite sa scriem
q

(
2
) = det(

2
+ 1

D
2
E F) =
110 Capitolul 1. Sisteme de ecuatii liniare
= det[bigl(

2
+ 1

D E F
_
=
n
q
J
_

2
+ 1

_
pentru orice C0. Prin urmare
,= 0, (G

(A)) [bigl
+ 1

1/2

,
+ 1

1/2

_
(J(A))
si
(J(A)) (J(A))=
+
(, ),

(, ) (G

(A))
unde

+
(, ) =
1
2
(
2

2
2 + 2) +

2
(
2

2
4 + 4)
1/2

(, ) =
1
2
(
2

2
2 + 2)

2
(
2

2
4 + 4)
1/2
snt patratele celor doua radacini ale ecuat iei de ordinul doi (n )

2
+ ( 1) = 0

2
+ 1

=
pentru ,= 0.
Notam ca relat ia funct ionala stabilita mai sus este adevarata si pentru = 0,
a doua implicat ie nu este valabila pentru = 1, dar acest caz a fost deja
considerat.
(ii) Avem prin urmare
(G

(A) = max
(J(A))
max([
+
(, [, [

(, )[).
In acest condit ii, cum am facut ipoteza ca toate valorile proprii ale matricei
J(A) snt reale, sntem condusi la studierea funct iei M : R
+
(0, 2) R
denita prin
M(, ) = max([
+
(, ), [

(, )[).
Este inutil sa se studieze funct ia M pentru , (0, 2), acest ultim caz ind
reglat de Teorema 3.20
(iii) Presupunem pentru nceput ca 0 < 1. Pentru = 0, am vazut deja
ca M(0, ) = [ 1[. Pentru 0 < < 1, trinomul
2

2
4 + 4 are
doua radacini reale
0
() si
1
() ce verica
1 <
0
() =
2
1 +

1
2
< 2 <
1
() = 2
1 +

1
2

2
.
3. Metode iterative 111
Daca
0
() < < 2, numerele complexe
+
(, ) si

(, ) snt complex
conjugate. Cum ele snt patratele radacinilor trinomului
2
+(1),
produsul radacinilor ind ( 1), se deduce ca
1 <
0
() < < 2 =M(, ) = [
+
(, )[ = [

(, ) = 1.
Presupunem n continuare 0 <
0
(). Se verica imediat ca
M(, ) =
+
(, ) =
2
(, )
unde am pus
2(, ) = + (
2

2
4 + 4)
1/2
.
Dar
M

(, ) = 2(, )

(, ) = 4(, )
_
(, ) 1
2(, )
_
pentru 0 < <
0
(). Cum 0 < < 1 si 0 < < 2 implica

2
=
1
2
(
2

2
2+2)+

2
(
2

2
4+4)
1/2
<
1
2
(
2
2+2)+

2
(2) = 1
lim
0
(, ) = 1, lim
,
0
()
(, ) =

2

0
() =
0
() 1
1/2
> 0
avem, pe de-o parte
_

_
2 = (
2

2
4 + 4)
1/2
> 0 pentru 0 < <
0
()
lim
,
0
()
(2 ) = 0, lim
0
(2 ) = 2.
si pe de alta parte
_

_
2( 1) < 0 pentru 0 < <
0
()
lim
,
0
()
2( 1) < 0, lim
0
2( 1) < 0
Cum funct ia > 0 M(, ), pentru > 0 xat, este strict crescatoare,
avem toate elementele necesare pentru a trasa familia de curbe M(, )
pentru 0 < < 1 si 0 < < 2. Vom nota n particular ca
(J(A)) < 1 (G

(A)) = M((J(A)), ) < 1


112 Capitolul 1. Sisteme de ecuatii liniare
-
6
6
6
6
M (, )
1
1 2

=0

2
>
1

0
(
1
)

0
(
2
)

0
6
Figura 3.3:
pentru 0 < < 2 si ca
(G

0
(A)) = inf
0<<2
(G

(A)) =
0
1
cu

0
=
opt
(J(A)) =
2
1 +
_
1 (J(A))
2
(iv) Presupunem n sfrsit 1. Atunci trinomul
2

2
4 + 4 este
mereu 0 si

+
(, ) =
1
2
(
2

2
2+2)+

2
(
2
4+4)
1/2

1
2
(
2
2+2)+

2
(2) = 1
pentru 0 < < 2 ceea ce n particular demonstreaza ca
(J(A)) 1 =(G

(A)) 1 pentru 0 < < 2.


Teorema 3.24 Fie A o matrice tridiagonala, simetrica si pozitiv denita.
Metodele Jacobi, Gauss-Seidel, Gauss-Seidel relaxat a pentru
0 < < 2 converg.
Funct ia (G

(A)) are pe (0, 2) alura indicata n Figura 3.2.


3. Metode iterative 113
Exista un parametru de relaxare optimal
0
; 1 <
0
< 2 ce este dat
prin

0
=
1
1 +
_
1 (J(A))
2
si
(G

0
(A)
) = inf
0<<2
(G

(A)) =
0
1 < (G(A)) < (J(A))
daca (J(A)) > 0; iar daca (J(A)) = 0 atunci
0
= 1, (G(A)) = 0,
(G

0
(A) = 0.
Cele trei raze spectrale snt legate ntre ele prin relat iile:
(G(A)) = (J(A))
2
,
(G

0
(A)) =
(J(A))
2
(1 +
_
1 (J(A))
2
))
=
(G(A))
(1 +
_
1 (G(A)))
2
Demonstrat ie. Deoarece matricea A este tridiagonala, din Teorema 3.17,
rezulta
(G(A)) = (J(A))
2
.
Cum matricea A este simetrica si pozitiv denita, din Teorema 3.15, rezulta
ca metoda Gauss-Seidel este convergenta si utiliznd relat ia de mai sus se
obt ine ca metoda Jacobi este convergenta. Din Corolarul 3.2, cum matricea
A este simetrica si pozitiv denita rezulta ca metoda Gauss-Seidel relaxata
converge pentru orice (0, 2).
Cum (J(A))
ij
= a
ij
/a
ii
rezulta ca matricea J(A) este simetrica, deci valo-
rile sale proprii snt reale. Din Teorema 3.23 rezulta ca exista un parametru
optimal

0
=
2
1 +
_
1 J(A)
2
,
astfel ca
(G

0
(A)) = inf
0<<2
(G

(A)) =
0
1 =
(J(A))
2
(1 +
_
1 (J(A))
2
)
2
2
Observat ie
Teoremele 3.17, 3.21, 3.23, 3.24 snt adevarate daca se presupune ca matricea
A este tridiagonala pe blocuri si se considera metodele Jacobi, Gauss-Seidel,
Gauss-Seidel relaxata pe blocuri. 2
114 Capitolul 1. Sisteme de ecuatii liniare
Metoda SSOR
In metoda SOR, chiar daca matricea A este simetrica , matricea G

(A) nu
este simetrica. Pentru a nlatura acest inconvenient s-a introdus metoda de
relaxare simetrica (SSOR) n care se parcurg variabilele n ordinea 1, 2, . . . , n
apoi n ordinea n, n1, . . . 2, 1. Daca A = DEF, unde D este o matrice
diagonala, E strict inferior triunghiulara iar F strict superior triunghiulara,
cei doi pasi, anunt at i mai sus, se scriu matriceal astfel:
(D E)x
m+1/2
= b + [(1 )D +F]x
(m)
(D F)x
m+1
= B + [(1 )D +E]x
(m+1/2)
.
Eliminnd x
m+1/2
n relat iile de mai sus obt inem:
x
(m+1)
= SG

(A)x
(m)
+c (3.41)
unde
SG

(A) = (D F)
1
[(1 )D +E](D E)
1
[(1 )D +F] =
= (I U)
1
((1 )I +L)(I L)
1
((1 )I +U)
cu notat ia standard L = D
1
E si U = D
1
F, iar c are forma
c = (2 )(D F)
1
D (D E)
1
b.
Propozit ia 3.3 Daca A M
n
(R) este o matrice simetrica a carei diago-
nala este pozitiv denita, atunci valorile proprii ale matricei SG

(A) snt
reale si pozitive .
Demonstrat ie. Deoarece L este strict inferior triunghiulara avem L
n
= 0
deci (I L)
1
este un polinomn L, ceea ce face ca (I L)
1
sa comute
cu (1 )I +L. Deci
SG

(A) = (I U)
1
(I L)
1
[(1 )I +L][(1 )I U].
Matricea (I U)G

(A)(I

U)
1
are forma
(I L)
1
[(1 )I +L)][(1 )I +U](I U)
1
= G() G()
T
unde am pus G() = (I L)
1
[(1 )I + L], are aceleasi valori proprii
ca SG

(A). Este nsa clar ca G() G()


T
este simetrica. 2
Putem demonstra pentru metoda SSOR teoreme de convergent a asemanatoare
cu cele obt inute pentru metoda SOR.
3. Metode iterative 115
Teorema 3.25 (condit ii necesare de convergent a ) . Raza spectrala pen-
tru matricea SG

(A) verica ntotdeauna inegalitatea


(SG

(A)) [ 1[
2
.
Daca metoda SSOR converge, atunci (0, 2) .
Demonstrat ie. Se remarca faptul ca
n

i=1

i
(SG

(A)) = det(SG

(A)) =
=
det((1 )I +L)
det(I L)

det((1 )I +U)
det(I U)
= (1 )
2n
t innd seama de structura particulara a matricei L si U. Prin urmare
(SG

(A)) [
n

i=1

i
SG

(A))[
1/n
= [1 [
2
cu egalitate daca si numai daca toate valorile proprii au acelasi modul [1[
2
.
Din (SG

(A)) < 1 obt inem (0, 2).


Teorema 3.26 Daca A este o matrice simetrica pozitiv denita atunci metoda
SSOR converge pentru orice 0 < < 2
Demonstrat ia este asemanatoare cu demonstratia Teoremei 3.21.
Teorema 3.27 Daca A /
n
(K) este o H- matrice nesingulara si
0 < <
2
1 +(J(M(A))
atunci metoda SSOR converge pentru B (A).
Demonstrat ia este asemanatoare cu demonstrat ia Teoremei 3.22.
Propozit ia 3.4 Fie A =
_
I F
F
T
I
_
.
Valoarea optimala a parametrului pentru metoda SSOR este = 1.
116 Capitolul 1. Sisteme de ecuatii liniare
Demonstrat ie. Cautam valorile proprii pentru
SG

(A) = (I U)
1
(I )L)
1
[(1 )I +U]
adica SG

(A)x = x ceea ce revine la


[(1 )I +L][(1 )I +U] x = (I L)(1 U)x.
Tinnd seama de forma lui A avem
((1 )
2
)x
1
= (1 +)Fx
2
((1 )
2
)x
2
(1 +)F
T
x
1
+
2
(1 )F
T
Fx
2
= 0
Eliminnd x
1
obt inem
((1 )
2
x
2
= (2 )
2
F
T
Fx
2
.
Daca este valoarea proprie pentru J(A) atunci
2
este valoarea proprie
pentru F
T
F deci (2
2
)
2

2
= ((1 )
2
)
2
sau nca

+ 1 = 0 cu = 2
2
1.
Valoarea lui care minimizeaza modulul radacinilor este 1. 2
Comentarii bibliograce
Utilizarea metodelor iterative pentru rezolvarea sistemelor de ecuat ii alge-
brice liniarencepe cu Gauss (1823). Gauss a avut de rezolvat sisteme mari
liniare pentru utilizarea metodei celor mai mici patrate.
Gauss, n metoda de rezolvare pe care o utilizeaza nu determina necunos-
cutele ntr-o ordine data a priori. Metodele dezvoltate de Gauss au fost
difuzate apoi n Germania de elevii sai. Jacobi le-a folosit la fel ca si elevul
sau Seidel. Totusi nu exista nici o ment iune n scrierile lui Gauss asupra a
ceea ce numim astazi metoda Gauss-Seidel. Seidel o ment ioneaza de fapt n
1874 dar nu sfatuieste utilizarea sa.
Metodele iterative pe blocuri au fost introduse n aceiasi epoca, Gerling
(1843), Seidel (1842,1874).
Metodele de relaxare utilizate de Southwell (1946) si scoala sa snt identice
cu cele ale lui Seidel; se corecteaza cu prioritate ecuat ia avnd reziduu cel
mai mare. Condit ii suciente de convergent a pentru metoda Gauss-Seidel
4. Vectori s i valori proprii 117
au fost date de Nekrasov (1885). Faptul ca aceasta metoda converge pentru
o matrice pozitiv denita se pare ca a fost demonstrat n 1887 si a fost re-
demonstrat de Von Mises si Geiringer (1929). Reciproca a fost demonstrata
de Reich (1949).
Metoda Gauss-Seidel relaxata (SOR) a fost studiata n paralel de Frankel
(1950) si Young (1950, 1954).
Pornind de la aceasta data exista numeroase studii asupra acestei metode
care a parut mult mai ecace ca metoda Jacobi si ca metoda Gauss-Seidel.
Aceste studii snt rezumate n cart ile lui Varga [98] si a lui Young [104].
Determinarea numerica a parametrului optimal se gaseste n Hageman si
Young [39].
Aitken (1950) a introdus o metoda Gauss-Seidel simetrica (SSOR cu = 1).
Metoda SSOR se gaseste n Sheldom (1955), iar metoda SSOR pe blocuri a
fost studiata de Erlich [20].
4 Vectori si valori proprii
Problema valorilor si vectorilor proprii pentru o matrice paatrata A /
n
(K)
este cea a determinarii scalarilor din Ksi a vectorilor nenuli x din K
n
astfel
ca
Ax = x (4.1)
Problema este clar neliniara, deoarece att ct si x snt necunoscute. In fapt,
este bine cunoscut, ca valorile proprii,, snt radacinile ecuat iei caracteristice
det(I A) p
A
() = 0 (4.2)
deci valorile proprii pot, n principiu, gasite ca zerouri pentru polinomul
caracteristic p
A
fara a recurge la vreun vector propriu. Daca este o valoare
proprie, data, atunci un vector propriu se obt ine ca o solut ie a sistemului
liniar omogen
(AI)x = 0.
Pe de alta parte, daca un vector propriu nenul, x, este cunoscut, atunci
valoarea proprie la care corespunde poate obt inuta ca
=
x

Ax
x

x
.
118 Capitolul 1. Sisteme de ecuatii liniare
De asemenea, putem folosi orice component a nenula a lui x pentru a obt ine
si anume
=
1
x
i
n

j=1
a
ij
x
j
.
Nu exista metode directe care sa conduca la solut ia exacta (n absent a ero-
rilor de rotunjire) ntr-un numar nit de operat ii algebrice. In fapt, existent a
unei asemenea metode ar antrena posibilitatea de a calcula radacinile unui
polinom de grad arbitrar, ntr-un numar nit de operat ii algebrice elementare,
ceea ce ar contrazice teorema lui Abel (ar sucient sa calculam valorile pro-
prii ale matricei companion asociata polinomului dat).
Metodele numerice care permit calcularea valorilor si vectorilor proprii se im-
part n doua categorii, si anume: cele care utilizeaza polinomul caracteristic
( rar utilizata azi ) si metode care nu utilizeaza polinomul caracteristic.
Metoda iterat iei vectoriale (metoda puterilor) permite evaluarea celei mai
mari sau a celei mai mici valori proprii mpreuna cu vectorul propriu asociat,
cu ajutorul unui proces iterativ aplicat unui vector init ial arbitrar. O mo-
dicare a acestei metode poate conduce, printr-o iterat ie aplicata simultan
mai multor vectori, la un anumit numar de valori proprii succesive, e cele
mai mari, e cele mai mici.
Pentru calcularea aproximat iilor valorilor proprii ale unei matrici A, o idee
curent exploatata consta n construirea unui sir de matrici P
k

k1
astfel
ca sirul de matrici P
1
k
AP
k

k1
sa convearga (ntr-un sens ce va
precizat, de fapt nu va vorba mereu de o convergent a veritabila) catre
o matrice cu valori proprii usor de calculat, adica diagonala, superior sau
inferior triunghiulara.
Aceasta idee sta la baza metodei Jacobi pentru o matrice simetrica (con-
form paragrafului 4.4), unde matricile P
k
snt produse de matrici ortogonale
elementare simplu de construit. Se poate arata ( Teorema 4.5) ca:
lim
k
P
1
k
AP
k
= diag (
i
)
unde numerele
i
snt valori proprii pentru matricea A. Cnd toate valorile
proprii snt distincte, se stabileste ca coloanele matricilor (P
k
) constituie
aproximat ii ale vectorilor proprii ale matricei A (Teorema 4.6).
Alte metode permit calcularea anumitor valori proprii select ionate. Acesta
este cazul metodei Givens-Householder pe care o studiemn paragraful
4.5 si care se aplica matricilor simetrice . Se pleaca cu reducerea unei
4. Vectori s i valori proprii 119
matrici simetrice la forma tridiagonala , apoi printr-un procedeu ingenios
dat de Givens se calculeaza cu o precizie arbitrara o valoare proprie de rang
dat.
Pentru o matrice oarecare, remarcabila metoda QR, a carui principiu este
descris n paragraful 4.6, releva aceeiasi idee. Utiliznd la ecare iterat ie a
metodei factorizarea QR a matricelor, construim un sir (P
k
)
k1
de matrici
astfel ca,
lim
k
(P
1
k
AP
k
)
ij
=
_
0 pentru j < i

i
pentru j = i
scalarii
i
ind valorile proprii pentru matricea A, fara sa putem spune
nimic despre convergent a sirurilor (P
1
k
AP
k
)
ij
cu i < j. Este vorba deci de
o pseudoconvergent a a sirului (P
1
k
AP
k
)
k1
.
4.1 Localizarea valorilor proprii si rezultate
de stabilitate
In localizarea valorilor proprii se utilizeaza teorema Gerschgorin din 1931 n
demonstrarea careia se foloseste urmatorul rezultat clasic.
Lema 4.1 Cele n rad acini ale polinomului
p = X
n
+p
1
X
n1
+ +p
n1
X +p
n
snt funct ii continue de coecient ii p
1
, . . . , p
n
.
Demonstrat ia acestui rezultat clasic se poate gasi n [75].
Teorema 4.1 (Gerschgorin, 1931) Fie A = (a
ij
) o matrice cu valorile
proprii
1
, . . . ,
n
si consideram
r
i
=

j,=i
[a
ij
[, c
j
=

i,=j
[a
ij
[.
Atunci:
(i) Toate valorile proprii snt cont inute n reuniunea discurilor R
i
,
i I, unde I = 1, . . . , n, denite prin
R
i
= z C ; [z a
ii
[ r
i

120 Capitolul 1. Sisteme de ecuatii liniare


(ii) Toate valorile proprii snt cont inute n reuniunea discurilor (C
j
)
jI
denite prin
C
j
= z C ; [z a
jj
[ c
j

(iii) Toate componentele conexe ale mult imilor



n
i=1
R
i
sau

n
j=1
C
j
cont in
exact attea valori proprii cte discuri (valorile proprii si discurile pro-
prii ind numarate cu ordinul lor de multiplicitate).
Demonstrat ie. (i) Daca este o valoare proprie pentru matricea A, exista
un vector propriu x ,= 0 astfel ca Ax = x sau nca
( a
ii
)x
i
=

j,=i
a
ij
x
j
, i I = 1, , n.
Alegnd un indice i astfel ca [x
i
[ = |x|

,= 0; aceasta atrage
[ a
ii
[

j,=i
[a
ij
[
[x
j
[
[x
i
[

j,=i
[a
ij
[ = r
i
.
Aceasta demonstreaza (i). Cum valorile proprii ale matricei A si A
T
snt
aceleasi (ii) rezulta din (i).
( iii) Consideram familia matricelor A(t) = D + tB unde D este o matrice
diagonala, D = diag(a
1,1
, , a
n,n
) iar B = A D. Fie R
i
(t) si C
j
(t) dis-
curile cu razele t r
i
si t c
j
si centrele a
i,i
respectiv a
j,j
. Avem A(0) = D
si (iii) este, evident, adevarata pentru aceasta matrice diagonala. Valo-
rile proprii (t) ale matricii A(t) snt radacinile polinomului caracteristic
P
A(t)
() = det(I A(t)). Cum radacinile unui polinom snt funct ii continue
de coecient ii polinomului (Lema 4.1), cnd t creste de la 0 la 1, numarul
ntreg de discuri si de valori proprii cont inute n ecare componenta conexa

iI
R
i
(t) sau

jI
C
j
(t) variaza continuu si snt constante cu except ia unui
numar nit de valori t = t
k
la care numarul de discuri cont inute ntr-o com-
ponenta conexa creste. Presupunem fara a pierde din generalitate ca primele
m discuri R
1
, . . . , R
m
formeaza o component a conexa. Cum cele n m dis-
curi, R
m+1
, . . . R
n
, cu razele r
m+1
, . . . r
n
snt izolate de discurile R
1
, . . . R
m
,
este la fel pentru discurile ce corespund razelor tr
i
si pentru t [0, 1]. Pentru
t = 0 valorile proprii ale lui A(0) snt a
11
, . . . , a
nn
, deci primele m apart in
domeniului

m
i=1
R
i
si celelalte (n m) snt n afara acestui domeniu. Cum
valorile proprii
i
(t) ale matricei A(t) descriu traiectorii continue (vezi Lema
4. Vectori s i valori proprii 121
4.1 ) cnd t variaza ntre 0 si 1, domeniul conex

m
i=1
R
i
cont ine primele m
valori proprii ale matricei A(t) pentru 0 t 1 si deci primele m valori
proprii ale matricei A (pentru t = 1) n virtutea continuitat ii traiectoriilor.
2
Remarca 4.1
a) Daca unul din discurile Greschgorin R
i
este izolat de celelalte, acest
disc cont ine exact o valoare proprie pentru matricea A.
b) Daca, ntr-o linie a
i
a matricei A, singurul element nenul este a
ii
atunci a
ii
este valoare proprie a matricei A.
Pentru a ilustra modul cum depind vectorii si valorile proprii ale matricei
A consideram, pentru nceput, doua exemple simple.
Exemplul 1 (Forsythe ). Fie A si A + E doua matrici Hessenberg supe-
rioare
A =
_
_
_
_
_
_
_
_
_
a
1 a
.
.
.
.
.
.
.
.
.
.
.
.
1 a
_
_
_
_
_
_
_
_
_
, A+E =
_
_
_
_
_
_
_
_
_
a
1 a
.
.
.
.
.
.
.
.
.
.
.
.
1 a
_
_
_
_
_
_
_
_
_
care nu difera dect prin elementul de pe pozit ia (1, n).
Ecuat ia caracteristica a matricei A se scrie ( a)
n
= 0 si deci = a este
singura valoare proprie de multiplicitate n. Ecuat ia caracteristica a matricei
A+E se scrie ( a)
n
(1)
n+1
(1)
n1
= 0, adica ( a)
n
= 0, deci
valorile proprii ale matriciiA+E snt

k
= a +
k

1/n
, k = 0, 1, . . . , n 1
unde este o radacina arbitrara a unitat ii (
n
= 1). Valorile proprii ale
matricei A+E snt distincte si situate pe cercul de centru a si raza
1/n
.
Presupunem, de exemplu, n = 10 si = 10
10
. Raza acestui cerc este 10
1
ceea ce indica faptul ca variat ia valorii proprii, n modul, este de 10
9
ori
mai mare ca perturbat ia unui singur element al matricei A care este cauza
acestei variat ii. Daca n = 100 si = 10
100
, raza cercului ramne tot 10
1
122 Capitolul 1. Sisteme de ecuatii liniare
dar variat ia valorii proprii, n modul, este de 10
99
ori mai mare ca perturbat ia
elementului a
1,n
.
Exemplul 2 (Givens ). Fie A matricea denita prin:
A =
_
_
_
_
_
1 + cos
2

sin
2

sin
2

1 cos
2

_
_
_
_
_
.
Valorile proprii pentru matricea reala si simetrica A snt
1
= 1,
2
= 1+
iar vectorii proprii ce corespund valorilor proprii
1
respectiv
2
snt
x
(1)
= (sin
1

, cos
1

)
T
, x
(2)
= (cos
1

, sin
1

)
T
.
Micile variat ii ale lui atrag mici variat ii ale lui
1
si
2
, dar vectorii proprii
nu tind spre o limita cnd 0, deci vectorii proprii nu snt funct ii continue
de elementele matricii A.
Vom examina acum n ce masura problema valorilor proprii este bine
pusa, adica vom cerceta daca valorile proprii ale unei matrici perturbate
A(), A() = A + C depind continuu de perturbarea C (unde C este o
matrice astfel ca |C| = |A|).
Teorema 4.2 Presupunem ca matricea A de ordinul n admite n vectori
liniar independent i. Fie C o matrice xata, astfel ca |C| = |A| si con-
sideram matricea perturbata
A() = A+C (4.3)
(i) Daca este o valoare proprie pentru matricea A exista o valoare proprie
() pentru matricea A() astfel ca
[() [ O() (4.4)
ii) In plus, daca este o valoare proprie simpla, avem
lim
0
()

=
y

Cx
y

x
(4.5)
unde x este un vector propriu la dreapta iar y un vector propriu la stnga
pentru matricea A ce corespund valorii proprii .
4. Vectori s i valori proprii 123
Pentru demonstrarea teoremei de mai sus se foloseste urmatorul rezultat.
Lema 4.2 Fie B si B() de ordinul n, de rang n 1, astfel ca
lim
0
B() = B.
Atunci pentru [[ sucient de mic, exista un vector x() n nucleul lui B()
(B()x() = 0) astfel ca |x()|

1 si x() x(0) cnd 0, unde x(0)


este un vector astfel ca Bx(0) = 0.
Demonstrat ie. Pentru ca B() B, pentru [[ sucient de mic, exista cel
put in un cuplu de indici (i, j) astfel ca submatricele patrate B
ij
a lui B si
B
ij
() a lui B() de ordinul n1 obt inute prin suprimarea liniei i si coloanei
j sa e nesingulare, si B
ij
() B
ij
cnd 0. Putem triangulariza B
ij
cu ajutorul metodei de eliminare Gauss ; pentru [[ sucient de mic, putem
utiliza aceiasi pivot i pentru triangularizarea matricei B
ij
(). Lund x
j
() = 1
rezolvam sistemul B()x() = 0 cu ajutorul descompunerii triunghiulare
obt inute. Continuitatea nmult irii si adunarii algebrice atrage x() x(0)
n aceste condit ii. 2
Demonstrarea Teoremei 4.2 (i) Fie P o matrice a carei coloane snt
vectori proprii la dreapta pentru matricea A, astfel ca
AP = P (4.6)
unde este matricea diag(
1
, . . . ,
n
),
i
ind valorile propri ale matricei
A, luate ntr-o anumita ordine. Din (4.5) si (4.3) avem
P
1
A()P = +P
1
CP = +E
lund
E = (e
ij
) = P
1
CP.
Valorile proprii () ale lui A(), care snt aceleasi cu ale matricei P
1
A()P,
snt cont inute n cercurile centrale n
i
si de raza r
i
() = O().
ii) Sa presupunem acum ca =
i
este o valoare proprie simpla. Discul
Greschgorin R
i
() al matricii P
1
A()P nu atinge nici un alt disc R
j
(),
pentru un [[ sucient de mic. Nu exista, deci, dect o singura valoare pro-
prie simpla () n R
i
(), la care corespunde un vector propriu unic x() al
matricei A(). Avem, deci:
(A+C)x() = ()x(), Ax = x (4.7)
124 Capitolul 1. Sisteme de ecuatii liniare
de unde deducem prin scadere
A[x() x] +Cx()) = [() ]x() +[x() x] (4.8)
Inmult ind relat ia de mai sus prin vectorul linie y

cu proprietatea y

A = y

obt inem dupa efectuarea calculelor


y

Cx() = [() ]y

x().
Pentru a demonstra relat ia de mai sus, ramne sa vericam ca:
a) y

x ,= 0 si ca b) putem alege x() si x astfel nct, x() x cnd 0.


a) Cum y ,= 0 este ortogonal pe ecare din ceilalt i n 1 vectori proprii ai
matriciei A, avem n mod necesar y

x ,= 0.
b) Din (4.4) si (4.8) si din faptul ca este o valoare proprie simpla, matricele
AI si A+C ()I snt exact de rang n 1, si putem suprima aceiasi
linie si aceeiasi coloana pentru a obt ine matrici nesingulare, cu condit ia ca
[[ sa e sucient de mic. Presupunem ca am suprimat coloana j si am luat
x
j
() = 1. Pentru a termina demonstrat ia punctului b) este sucient sa
luam B = AI si B() = A() ()I = A+C ()I n Lema 4.2. 2
4.2 Metode folosind polinomul caracteristic
Vom discuta metode de determinare a vectorilor si valorilor proprii utiliznd
polinomul caracteristic. In toate aceste metode se determina coecient ii poli-
nomului caracteristic, se determina valorile proprii, ca radacini a polinomului
caracteristic, iar apoi se determina vectorii proprii.
Se verica usor ca daca A /
n
(K), atunci P
A
() = det(I A) are forma
P
A
() =
n

n1
+
2

n2
+ + (1)
n

n
unde
1
=

n
=1
a

este suma tuturor elementelor diagonale ale lui A,

2
=

<

este suma tuturor minorilor diagonali de ordinul doi ai lui A,

3
=

<<

4. Vectori s i valori proprii 125


este suma tuturor minorilor diagomnali de ordinul trei ai matricei A, si asa
mai departe. In nal
n
= det(A).
Este usor de vazut ca numarul minorilor diagonali de ordinul k ai lui A
este C
k
n
= n(n 1) (n k + 1)/k! k = 1, 2, . . . , n. De aici obt inem ca
un calcul direct a coecientilor polinomului caracteristic este echivalent cu
evaluarea a C
1
n
+C
2
n
+. . . C
n
n
= 2
n
1 determinant i de diferite ordine, care, n
general vorbind, este o problema ce este greu de manevrat cnd n este mare.
Acesta este motivul pentru care s-au proiectat diferite metode de calcul a
coecient ilor polinomului caracteristic.
Metoda Danilevsky
Este usor de vazut ca daca C M
n
(K) are forma
C =
_
_
_
_
_
_
_
_
_
p
1
p
2
p
n
1 0 0
1
.
.
.
.
.
.
.
.
.
0
1 0
_
_
_
_
_
_
_
_
_
(4.9)
atunci polinomul caracteristic p
C
() are forma
p
C
() =
n
p
1

n1
p
n
. (4.10)
Daca este o valoare proprie pentru C atunci
x = (
n1
,
n2
, . . . , , 1)
T
este un vector propriu pentru matricea C. Daca S este o matrice nesingulara
iar C = S
1
AS atunci
p
C
() = det(I C) = det(S
1
(I A)S) = det(I A) = p
A
()
deci polinoamele caracteristice pentru A si C snt identice.
Metoda Danilevsky, de obt inere a polinomului caracteristic pentru o ma-
trice A, consta n determinarea unei matrici S nesingulare astfel ca matricea
C = S
1
AS sa e de forma (4.10), numita si forma canonica Frobenius
pentru A.
126 Capitolul 1. Sisteme de ecuatii liniare
Lema 4.3 Daca A = /
n
(K) si a
n,n1
,= 0 unde m
ij
=
ij
pentru i ,= n1
iar m
n1,j
= a
n,j
/a
n,n1
, j ,= n 1 si m
n1,n1
= 1/a
n
, n 1 atunci
D = M
1
n1
AM
n1
are forma
D =
_
_
_
_
_
_
b
1,1
.
.
. b
1,n2
b
1,n1
b
1,n
.
.
.
.
.
.
.
.
.
.
.
.
b
n1,1
b
n1,n2
b
n1,n1
b
n1,n
0 0 1 0
_
_
_
_
_
_
Demonstrat ie. Daca B = AM
n1
atunci b
ij
= a
ij
+ a
i,n1
m
n1,j
pentru
1 i n, j ,= n 1, b
i,n1
= a
i,n1
m
n1,n1
pentru 1 i n.
Pentru D = M
1
n1
B avem d
ij
= b
ij
pentru 1 i n 2
d
n1,j
=

k=1
a
nk
b
kj
pentru 1 j n, d
n,j
= 0 pentru j ,= n 1 si
d
n,n1
= 1. 2
Acum, daca d
n1,n2
,= 0, transformarii asemanatoare se efectueaza asupra
matricei D lund linia n 2 ca linie principala. Obt inem astfel matricea
D
t
= M
1
n2
M
1
n1
AM
n1
M
n2
ce are ultimele doua linii reduse. Aceasta
matrice este supusa acelorasi operat ii, obt innd n nal
D = M
1
1
M
1
n1
AM
n1
M
1
,
daca toate cele n 1 transformari intermediare snt posibile.
Presupunem ca n transformarea matricei A intr-o matrice Frobenius am
ajuns, dupa un numar de pasi, la o matrice de forma
D =
_
_
_
_
_
_
_
_
_
_
_
d
1,1
d
1,2
d
1,k
d
1,n1
d
1,n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
d
k,1
d
k,2
d
k,k
d
k,n1
d
k,n
0 0 1 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 1 0
_
_
_
_
_
_
_
_
_
_
_
si am gasit ca d
k,k1
= 0. Este imposibil de continuat transformarile prin
metoda Danilevsky. Pot aparea doua cazuri.
1. Presupunem ca exista d
k,l
,= 0 cu l < k 1. Atunci inversam coloana
k 1 cu coloana l si linia k 1 cu linia l. Matricea D
t
astfel obt inuta
este asemenea cu matricea D. Aplicam apoi metoda Danilevsky pentru
matricea D
t
.
4. Vectori s i valori proprii 127
2. Presupunem d
kl
= 0 ( 1 l k 1), atunci D este de forma
D =
_
D
1
L
0 D
2
_
.
In acest caz polinomul caracteristic are forma
p
D
() = det(I D) = det(I D
1
) det(I D
2
).
Aici, matricea D
2
este deja redusa la forma canonica Frobenius si deci polino-
mul det(I D
2
) este deja calculat. Ramine sa aplicam metoda Danilevsky
pentru matricea D
1
.
Daca C = S
1
AS iar y este vector propriu pentru C, asociat valorii proprii
, atunci x = Cy este un vector propriu pentru A asociat valorii proprii A.
Metoda Krylov
O alta metoda de determinare a polinomului caracteristic a fost data de
Krylov si se bazeaza pe teorema urmatoare.
Teorema 4.3 ( Cayley Hamilton) Daca A M
n
(K) iar polinomul
caracteristic este p
A
() =
n
p
1

n1
p
n
atunci p
A
(A) = 0, adica
A
n
p
1
A
n1
p
n1
Ap
n
I = 0. (4.11)
Demonstrat ie. Fie B() adjuncta matricei (I A) adica
(I A)B() = det(I A) I (4.12)
Fiecare element a lui B() este un polinom de grad cel mult n 1 n ,
deoarece este un minor de ordin n 1 a matricei I A. Putem scrie
B() = B
n1

n1
+B
n2

n2
+ +B
1
+B
0
(4.13)
unde B
i
M
n
(K). Folosind (4.13) n (4.12) obt inem
(I A)(B
n1

n1
+ +B
0
) = det(I A) I = (
n
p
1

n1
p
n
) I.
128 Capitolul 1. Sisteme de ecuatii liniare
Aceasta relat ie este o identitate n de unde
_

_
B
n1
= I
B
n2
AB
n1
= p
1
I
B
n1
AB
n2
= p
2
I
.
.
.
B
0
AB
1
= p
n1
I
AB
0
= p
n
I
Inmult ind aceste relat ii cu A
n
, A
n1
, . . . , I si adunnd obt inem
0 = A
n
p
1
A
n1
p
n1
Ap
n
I
adica (4.11) 2
Sa luam acum y
(0)
= (y
(0)
1
, . . . , y
n
(0))
T
un vector arbitrar. Inmult ind
A
n
p
1
A
n1
p
n
I = 0
cu y
(0)
obt inem y
(n)
p
1
y
n1
p
n1y
(1) p
n
y
(0)
= 0 unde
y
(k)
= A
k
y(0) = Ay
(k1)
.
Coecient ii polinomului caracteristic p
A
() snt solut ii ale sistemului liniar
(y
(n1)
, y
(n2)
, y
(1)
, y
(0)
)p = y
(n)
(4.14)
unde p = p
1
, , p
n
)
T
. Deci determinarea coecient ilor polinomului carac-
teristic prin metoda Krylov se reduce la rezolvarea sistemului (4.14). Daca
sistemul (4.14) are solut ie unica, atunci solut ia sa determina coecient ii poli-
nomului caracteristic. Daca sistemul (4.14) nu are solut ie unica, problema
este mai complicata. In acest caz este mai bine sa se schimbe vectorul init ial.
Metoda Leverrier
Pentru descrierea metodei Leverrier se utilizeaza urmatoarea lema.
Lema 4.4 (Newton) Daca P = x
n
+p
1
x
n1
+ +p
n
este un polinom de
gradul n, cu radacinile
1
, . . . ,
n
si daca s
k
=
k
1
+. . . +
k
n
pentru k ntreg,
atunci lund p
0
= 1 avem
kp
k
=

0jk1
p
j
s
kj
(4.15)
4. Vectori s i valori proprii 129
Demonstrat ie. Din
P() =
n

i=1
(
i
)
obt inem pentru [[ > max([
1
[, . . . , [
n
[)
P
t
(x)
P(x)
=
n

i=1
1

i
=
n

i=1
1


1
1
i
/
=
n

i=1

k=0

k
i

k+1
=

k=0
s
k

k+1
,
unde s
0
= n. Deci
n

i=1
(n i)p
i

ni1
=
_
n

j=0
p
j

nj
_

k=0
s
k

k1
_
adica
n

i=1
(n i)p
i

ni1
=

j,k0
p
j
s
k

njk1
.
Egalnd coecient ii celor doua polinoame n avem
(n i)p
i
=

j+k=i
p
j
s
k
=
i

j=0
p
j
s
ij
= p
i
s
0
+
i1

j=0
p
j
s
ij
de unde (4.15) 2
Pentru determinarea polinomului caracteristic prin metoda Leverrier se
procedeaza astfel:
1. Pentru matricea A se calculeaza A
2
, A
3
, . . . , A
n
.
2. Se calculeaza s
k
= tr(A
k
).
3. Se calculeaza p
1
, . . . , p
n
din relat iile
p
1
= s
1
p
2
=
1
2
(s
2
+p
1
s
1
)
.
.
.
p
n
=
1
n
(s
n
+p
1
s
n1
+ +p
n1
s
1
)
4. Polinomul caracteristic al lui A va P() =
n
+p
1

n1
+ +p
n
130 Capitolul 1. Sisteme de ecuatii liniare
Cunoscnd polinomul caracteristic snt posibile doua cazuri: 1) p
n
= 0, deci
0 este valoare proprie pentru A, adica A
1
nu exista;
2) p
n
,= 0. In acest caz teorema Cayley - Hamilton ne da
A
n
+p
1
A
n1
+ +p
n1
A+p
n
I = 0
deci A
1
=
1
p
n
(A
n1
+p
1
A
n2
+ +p
n1
I).
Fadeev a imaginat un algoritm care da simultan coecient ii polinomului
caracteristic precum si pe A
1
(daca exista).
Propozit ia 4.1 Fie A M
n
(K). Consideram sirul
A
1
, p
1
, B
1
, A
2
, p
2
, B
2
, . . . , A
n
, p
n
, B
n
construit prin recurent a astfel
A
1
= A, p
k
=
1
k
tr(A
k
), B
k
= A
k
+p
k
I, A
k+1
= AA
k
.
Atunci
1) Polinomul caracteristic al lui A este P() =
n
+p
1

n1
+ +p
n
2) B
n
= 0 si daca p
n
,= 0, avem A
1
=
1
p
n
B
n1
3) Daca este o valoare proprie a lui A, atunci orice coloan a a matricei
C

=
n1
I +
n1
B
1
+ +B
n2
+B
n1
este un vector propriu pentru A, asociat valorii proprii .
4) Daca este o valoare proprie simpla, matricea de la 3) este ,= 0.
Demonstrat ie. 1) Avem succesiv A
1
= A, A
2
= AB
1
= A(A
1
+ p
1
I) =
A
2
+p
1
A, A
3
= A(A
2
+p
2
I) = A
3
+p
1
A
2
+p
2
A deci
A
k
= A
k
+p
1
A
k1
+p
2
A
k2
+ +p
k1
A.
Fie s
k
= tr(A
k
). Vom avea
kp
k
= tr(A
k
) = s
k
+p
1
s
k1
+ +p
k1
s
1
.
4. Vectori s i valori proprii 131
Aceste relat ii snt (4.15), deci n acest caz se obt in coecient ii polinomului
caracteristic P.
2) Daca B
n
= A
n
+ p
n
I = A
n
+ p
1
A
n1
+ + p
n1
A + p
n
I atunci din
teorema Cayley - Hamilton B
n
= 0 iar aceasta da A
1
=
1
p
n
B
n1
.
3) Printr-un calcul direct se arata ca (AI)C

= 0.
4) Putem verica ca tr(C

) = P
t
() ,= 0 deci C

= 0. 2
Metoda coecient ilor nedeterminant i
Daca D() =
n
+p
1

n1
+ +p
n1
+p
n
lund succesiv = 0, 1, . . . , n1
atunci pentru coecient ii p
1
, . . . , p
n
se obt ine urmatorul sistem de ecuat ii
liniare
p
n
= D(0)
1
n
+p
1
1
n1
+ +p
n
= D(1)
2
n
+p
1
2
n1
+ +p
n
= D(2)
.
.
.
(n 1)
n
+p
1
(n 1)
n1
+ +p
n
= D(n 1)
de unde
p
1
+p
2
+ +p
n1
= D(1) D(0) 1
2
n1
p
1
+ 2
n2
p
2
+ + 2p
n1
= D(2) D(0) 2
n
.
.
.
(n 1)
n1
p
1
+ + (n 1)p
n1
= D(n 1) D(0) (n 1)
n
si
p
n
= D(0) = det(A).
Introducnd matricea
C
n
=
_

_
1 1 1
2
n1
2
n2
2
.
.
.
(n 1)
n1
(n 1)
n
2
)
n 1
_

_
si vectorii D =
_

_
D(1) D(0) 1
n
D(2) D(0) 2
n
.
.
.
D(n 1) D(0) (n 1)
n
_

_
, p =
_

_
p
1
p
2
.
.
.
p
n1
_

_
putem determina p din sistemul C
n
p = D. Deci, folosirea acestei metode se
132 Capitolul 1. Sisteme de ecuatii liniare
reduce la calcularea numerica a determinant ilor.
D(k) = det(kI A), k = 0, 1, , n 1
si gasirea solut iei sistemului C
n
p = D.
4.3 Metoda puterilor sau metoda iterat iei vectoriale
In cazul general al unei matrici A /
n
(R) metoda puterilor permite gasirea
valorii proprii dominante
1
si a unui vector propriu asociat, cu ajutorul
unei iterat ii simple. Acest algoritm nu este o metoda generala, dar este
folosit n foarte multe situat ii. De exemplu, acest algoritm da rezultate
satisfacatoare pentru matrici rare de dimensiune mare, unde alte metode, ce
vor descrise n paragrafele urmatoare, nu pot folosite datorita limitarii
memoriei calculatoarelor.
Presupunem ca forma canonica Jordan pentru matricea A /
n
(R) este
diagonala, adica matricea A este diagonalizabila. Fie
1
, . . . ,
n
valorile
proprii pentru A si e x
1
, . . . , x
n
vectorii proprii asociat i, care formeaza o
baza pentru C
n
. In plus presupunem ca
[
1
[ > [
2
[ [
3
[ [
n
[ 0 (4.16)
Desi cu totul special, acesta este cazul principal de interes pentru aplicarea
metodei puterilor. Notam ca ipotezele de mai sus implica ca
1
si x
1
snt
reali.
Fie z
(0)
o alegere init iala pentru un anumit multiplu a lui x
1
. Daca nu exista
nici o metoda rat ionala pentru alegerea lui z
(0)
, putem folosi un generator
de numere aleatoare pentru alegerea ecarei componente. Pentru metoda
puterilor, denim
z
(m)
= Az
(m1)
(4.17)
Daca vectorul init ial z
(0)
l scriem folosind baza x
1
, . . . , x
n
obt inem
z
(0)
= c
1
x
1
+ +c
n
x
n
de unde
z
(m)
=
n

j=1

m
j
c
j
x
j
=
m
1
_
c
1
x
1
+
n

j=2
_

1
_
m
c
j
x
j
_
(4.18)
sau nca
z
(m)
=
m
1
(c
1
x
1
+
(m)
).
4. Vectori s i valori proprii 133
Acum, deoarece [
j
/
1
[ < 1, j 2 direct ia vectorului z
(m)
tinde catre cea
a vectorului x
1
, adica z
(0)
nu este ortogonal pe x
1
. Cum z
(0)
a fost ales
arbitrar, acest lucru poate admis. Pentru m sucient de mare, putem
neglija
(m)
si scriem
z
(m)

m
1
c
1
x
1
si z
(m+1)

m+1
1
c
1
x
1
de unde
z
(m+1)

1
z
(m)
Alegnd doua componente nenule corespondente obt inem

1

z
(m+1)
i
z
(m)
i
(4.19)
Putem de asemenea sa evaluam pe
1
astfel. Se evalueaza ctul (Rayleigh)

m
=
z
(m)T
Az
(m)
z
(m)T
z
(m)
(4.20)
si se observa ca
m

1
cnd m+ . Se poate proceda si altfe. Se
alege, u, un vector arbitrar astfel ca u
T
x
1
,= 0. O alegere aleatoare a ecarei
componente a vectorului u este satisfacatoare. Apoi se calculeaza la ecare
pas

(m)
1
=
u
T
Az
(m1)
u
T
z
(m1)
(4.21)
si se demonstreaza ca
(m)
1

1
.
In practica, deoarece
(m)
1
deseori tinde la zero sau devine nemarginit, este
necesar sa se scaleze sirul z
(m)
. Putem, de exemplu, sa aducem la 1 cea mai
mare componenta (n valoare absoluta) a lui z
(m)
, aplicnd algoritmul
w
(1)
= Az
(0)
z
(1)
=
1

1
w
(1)
w
(2)
= Az
(1)
z
(2)
=
1

2
w
(2)

w
(m)
= Az
(m1)
z
(m)
=
1

m
w
(m)
(4.22)
134 Capitolul 1. Sisteme de ecuatii liniare
unde
k
este componenta lui w
(k)
de modul maxim.
Se poate arata ca z
(m)
aproximeaza
m
x
1
/[[x
1
[[

, unde
m
= 1, cnd
m+. Incepem prin a arata ca
z
(m)
=
m
A
m
z
(0)
[[A
m
z
(0)
[[

,
m
= 1, m 1 (4.23)
Cum w
(1)
= Az
(0)
avem

1
= [[w
(1)
[[

= [[Az
(0)
[[

, = 1.
Apoi
z
(1)
=
w
(1)

1
=
1
Az
(0)
[[Az
(0)
[[

,
1
=
1

.
Se obt ine (4.23) pentru cazul general, m > 1 folosind induct ia matematica.
Pentru cazul m = 2, ca un exemplu
w
(2)
= Az
(1)
=
1
A
2
z
(0)
[[Az
(0)
[[

2
=
1
|A
2
z
(0)
[[

[[A
2
z
(0)
[[

, = 1
z
(2)
=
w
(2)

2
=
1
A
2
z
(0)
[[Az
(0)
[[

/
[[A
2
z
(0)
[[

[[Az
(0)
[[

=
2
A
2
z
(0)
[[A
2
z
(0)
[[

cu
2
=
1
. Cazul general m este esent ial acelasi.
T innd seama de (4.23), (4.18) si de faptul ca (
j
/
1
)
m
0 cnd m+,
2 j n obt inem
z
(m)

_

1
[
1
[
_
m

m
c
1
x
1
[c
1
[[[x
1
[[

=
m
x
1
[[x
1
[[

Dar
m
= 1 este, n general, independent de m. Acesta este cazul cnd x
1
are o unica componenta maxima n valoare absoluta. In cazul n care x
1
are
mai multe componente avnd aceiasi valoare absoluta
m
poate sa varieze
cu m. Cum
z
(m)
=
1

1

m
A
m
z
(0)
rezulta ca

m
=
z
(m)T
Az
(m)
z
(m)T
z
(m)
4. Vectori s i valori proprii 135
converge la
1
.

Intr-adevar, putem presupune ca x
1
, . . . , x
n
formeaza o
baza ortogonala si atunci

m
=
z
(m)T
Az
(m)
z
(m)T
z
(m)
=
(A
m
z
(0)
)
T
A
m+1
z
(0)
(A
m
z
(0)
)
T
(A
m
z
(0)
)
=

n
j=1
c
2
j

2m+1
j
x
T
j
x
j

n
j=1
c
2
j

2m
j
x
T
j
x
j
=
=
1
c
2
1
+

n
j=2
(
j
/
1
)
2m+1
x
T
j
x
j
c
2
j
c
2
1
+

n
j=2
(
j
/
1
)
2m
c
2
j
x
T
j
x
j
de unde rezulta ca
m

1
t innd seama ca (
j
/
1
)
m
0 cnd m,
2 j n.
La fel se poate demonstra ca daca u
T
x
1
,= 0 atunci
(m)
1
denit prin

(m)
1
=
u
T
w
(m)
u
T
z
(m1)
converge la
1
.
Calculul valorilor proprii intermediare
Dupa ce
1
si x
1
au fost determinat i, este posibil de a calcula alte valori pro-
prii, procednd la fel, eliminndnsa
1
si x
1
din calcul. Incercam sanlocuim
matricea A printr-o matrice A
2
a caror valori proprii snt 0,
2
, . . . ,
n
uti-
liznd metoda deat iei. Versiunea cea mai simpla a acestei metode este cea
data de Hotelling (1933) aplicata cnd cunoastem valoarea proprie
1
si un
vector propriu x
1
a unei matrici simetrice A = A
1
. Se deneste A
2
prin
relat ia
x
T
1
x
1
= 1, A
2
= A
1

1
x
1
(x
1
)
T
adica punem
a
(2)
ij
= a
(1)
ij

1
(x
1
)
i
(x
1
)
j
.
Ortogonalitatea vectorilor proprii x
i
atrage
A
2
x
i
= A
1
x
i

1
x
1
(x
1
)
T
x
i
=
_
0 i = 1

i
x
i
i ,= 1
Valorile proprii ale matricei A
2
snt deci 0,
2
, . . . ,
n
si vectorii proprii
asociat i x
1
, x
2
, . . . , x
n
. Daca de exemplu
[
1
[ > [
2
[ > [
3
[ [
n
[
136 Capitolul 1. Sisteme de ecuatii liniare
putem calcula a doua valoare proprie
2
aplicnd pentru A
2
metoda
puterilor.
Deoarece aceasta metoda a deat iei nu prezinta o mare stabilitate numerica,
se recomanda utilizarea metodei deat iei folosind transformarile unitare.
Presupunem ca H
1
este o matrice regulata astfel ca
H
1
x
1
= k
1
e
1
, cu e
1
= (1, 0, . . . , 0)
T
si k
1
,= 0 (4.24)
Cum A
1
x
1
=
1
x
1
avem
H
1
A
1
(H
1
1
H
1
)x
1
=
1
H
1
x
1
si utiliznd 4.24 avem
H
1
A
1
H
1
e
1
=
1
e
1
ceea ce demonstreaza ca prima coloana a matricei H
1
A
1
H
1
1
trebuie sa e
egala cu
1
e
1
. Putem pune
A
2
= H
1
A
1
H
1
1
=
_
_
_

1
[ b
T
1
+
0 [ B
2
_
_
_
unde B
2
este o matrice patrata de ordin n 1 care are drept valori proprii
pe
2
, . . . ,
n
. Pentru a calcula a doua valoare proprie dominanta
2
, putem
aplica metoda puterilor matricei B
2
. Daca x
(2)
2
este un vector propriu pentru
matricea B
2
, putem scrie, x
(1)
2
= (, x
(2)
2
)
T
vectorul propriu pentru matrice
A
2
_
_
_

1
[ b
T
1
+
0 [ B
2
_
_
_
_
_
_

x
(2)
2
_
_
_ =
2
_
_
_

x
(2)
2
_
_
_ =
2
x
(1)
2
de unde
(
1

2
) +b
T
1
x
(2)
2
= 0
ceea ce permite calculul primei componente a vectorului x
(1)
2
.
Putem apoi obt ine vectorul propriu x
2
pentru matricea A si anume
x
2
= H
1
1
x
(1)
2
.
Procednd de o maniera analoaga, dupa ce am obt inut
2
si vectorul propriu
x
(2)
2
pentru matricea B
2
, daca determinam H
2
matrice nesingulara astfel ca
H
2
x
(2)
2
= k
2
e
1
4. Vectori s i valori proprii 137
avem
H
2
B
2
H
1
2
=
_
_
_

2
[ b
T
2

0 [ B
3
_
_
_
unde B
3
este o matrice de ordinul n 2 si are valorile proprii
3
, . . . ,
n
.
Cunoscnd un vector propriu x
(3)
3
pentru matrice B
3
putem determina un
vector propriu x
(2)
2
pentru matricea B
2
si apoi un vector propriu x
(1)
3
pentru
matricea A
2
= H
1
A
1
H
1
1
, de unde n nal un vector propriu x
3
pentru
A = A
1
.
4.4 Metoda Jacobi
Metoda Jacobi (1846) este metoda cea mai simpla pentru calculul tuturor
valorilor proprii si a tuturor vectorilor proprii pentru o matrice A simetrica
(n general plina).
Descrierea metodei Jacobi
Principiul metodei Jacobi consta n a construi un sir de matrici A
k

k1
pornind de la matricea A
1
= A, un sir de matrici ortogonale (U
k
)
k1
astfel
ca
A
k+1
= U
T
k
A
k
U
k
= (U
1
U
2
U
k
)
T
A
1
(U
1
U
2
U
k
) (4.25)
convergent, cnd k , catre o matrice diagonala = diag(
1
, . . . ,
n
) sau
catre o matrice diagonala
t
obt inuta din prin permutari de indici.
Coloanele matricilor ortogonale
P
k
= U
1
U
2
U
k
(4.26)
reprezinta, pentru k sucient de mare, o buna aproximare a vectorilor proprii
pentru matricea A.
In ecare transformare
A
k
A
k+1
= U
T
k
A
k
U
k
(4.27)
anulam doua elemente nediagonale ale matricei A
k
, anume a
pq
si a
qp
, aplicnd
exact principiul de la reducerea unei forme patratice cu ajutorul rotirii
axelor. Pentru simplicarea studiului unei asemenea transformari, punem
A
k
= A, U
k
= U, A
t
= U
T
A, A
tt
= A
t
U = U
T
AU = B.
138 Capitolul 1. Sisteme de ecuatii liniare
Matricea U ce intra n transformarea lui A n B este o matrice de rotat ii
elementare, de forma
U = R
p,q
() =
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1
.
.
.
1
cos sin
1 0
.
.
.
.
.
.
.
.
.
0 1
sin cos
1
.
.
.
1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
p
q

p q
(4.28)
Geometric, aceasta corespunde la o rotat ie de unghi n planul de coordo-
nate (x
p
, x
q
). Elementele matricei U = R
p,q
() snt deci denite prin
_

_
u
i,i
= 1 i ,= p, i ,= q
u
pp
= u
qq
= cos
u
pq
= sin
u
q,p
= sin
u
ij
= 0 n rest
. (4.29)
Pentru a vedea efectul transformarii A B = U
T
AU procedam n doua
etape.
Prima etapa A A
t
= U
T
A.
Aceasta transformare afecteaza numai liniile p si q ale matricei A, nlocuind
ecare linie printr-o combinat ie liniara a celor doua
_

_
a
t
pj
= a
pj
cos a
qj
sin
a
t
qj
= a
pj
sin +a
qj
cos , j = 1, 2, . . . n
a
t
ij
= a
ij
, pentru i ,= p, q
(4.30)
Etapa doua A
t
A
tt
= B = A
t
U = U
T
AU.
Aceasta transformare afecteaza numai coloanele p si q ale matricei A
t
fara
4. Vectori s i valori proprii 139
modicarea altor coloane.
_

_
a
tt
i,p
= b
i,p
= a
t
i,p
cos a
t
i,q
sin
a
tt
i,q
= b
i,q
= a
t
i,p
sin +a
t
i,q
cos , i = 1, 2, . . . n
a
tt
ij
= b
ij
= a
t
ij
, pentru j ,= p, q
. (4.31)
Vedem ca, n transformarea globala A B = U
T
AU, numai liniile si
coloanele p si q snt modicate, conform relat iilor urmatoare
_

_
b
ij
= a
ij
, i ,= p, q si j ,= p, q
b
pj
= a
pj
cos a
qj
sin, j ,= p, q
b
qj
= a
pj
sin +a
qj
cos , j ,= p, q
b
pp
= a
pp
cos
2
2a
pq
cos sin +a
qq
sin
2

b
qq
= a
pp
sin
2
+ 2a
pq
cos sin +a
qq
cos
2

b
pq
= b
qp
= (a
pp
a
qq
) cos sin +a
pq
(cos
2
sin
2
)
(4.32)
Teorema 4.4 In transformarea A B = U
T
AU, unde U este o matrice
de rotat ie Jacobi, denita prin (4.28) avem
|B|
2
F
=
n

i,j=1
b
2
ij
=
n

i,j=1
a
2
ij
= |A|
2
F
. (4.33)
In plus, daca a
pq
= a
qp
,= 0, putem alege unghiul astfel ca b
pq
= b
qp
= 0.
Este sucient pentru aceasta sa alegem [/4, /4] astfel ca
tg(2) =
2a
pq
a
pp
a
qq
(4.34)
(

In cazul n care a
pp
= a
qq
luam = /4 sau = /4 ). Avem atunci
n

i=1
b
2
i,i
=
n

i=1
a
2
i,i
+ 2a
2
pq
(4.35)
adica suma patratelor elementelor de pe diagonala principala creste cu de
doua ori patratul termenului ce se anuleaza prin transformare.
Demonstrat ie. Pentru demonstrarea relat iei (4.33) avem
|B|
2
F
= tr(B
T
B) = tr[(U
T
AU)
T
U
T
AU] = tr(U
T
A
T
UU
T
AU) =
= tr(U
T
A
T
AU) = tr(AUU
T
A
T
) = tr(AA
T
) = tr(A
T
A) = |A|
2
F
.
140 Capitolul 1. Sisteme de ecuatii liniare
ceea ce demonstreaza (4.33) fara a face apel la simetria matricei A. Pe de
alta parte este clar ca daca este ales ca (4.34) sa e satisfacuta, atunci
folosind ultima relat ie (4.32) obt inem b
pq
= b
qp
= 0. Sa demonstram, acum,
relat ia (4.35). Pentru ca b
ii
= a
ii
cnd i , = p, q avem
n

i=1
b
2
i,i

i=1
a
2
i,i
= b
p
pp
+b
2
qq
(a
2
pp
+a
2
qq
) (4.36)
Din (4.32) avem de asemenea b
pp
+b
qq
= a
pp
+a
qq
de unde
(b
pp
+b
qq
)
2
= (a
pp
+a
qq
)
2
(4.37)
si n acelasi fel
b
pp
b
qq
= (a
pp
a
qq
) cos 2 2a
pq
sin2
de unde
(b
pp
b
qq
)
2
= (a
pp
a
qq
)
2
cos
2
2 4(a
pp
a
qq
)a
pq
sin2 cos 2 +4a
2
pq
sin
2
2.
(4.38)
Alegnd astfel ca b
pq
= 0, adica 2a
pq
cos + (a
pp
a
qq
sin2 = 0, prin
ridicare la patrat obt inem
4a
2
pq
cos
2
2 + (a
pq
a
qq
)
2
sin
2
2 + 4a
pq
(a
pp
a
qq
) sin2 cos 2 = 0. (4.39)
Din (4.38) si (4.39), prin adunare, obt inem
(b
pp
b
qq
)
2
= (a
pp
a
qq
)
2
+ 4a
2
pq
(4.40)
iar adunnd (4.37) cu (4.40) rezulta
b
2
pp
+b
2
qq
= a
2
pp
+a
2
qq
+ 2a
2
pq
de unde obt inem (4.35) t innd seama de (4.36). 2
Notam ca determinarea unghiului de rotat ie cu ajutorul relat iei (4.34)
permite calcularea elementelor b
ij
ale matricei B, ca expresie, n funct ie de
elementele a
ij
ale matricei A. In fapt, daca
ctg (2) =
a
qq
a
pp
2a
pq
=
4. Vectori s i valori proprii 141
avem identitat ile trigonometrice urmatoare
t = tg =
sin
cos
=
s
c
, =
1 t
2
2t
, c
2
+s
2
= 1
de unde expresia lui t ca solut ie a ecuat iei t
2
+ 2t 1 = 0 adica
t =
_

2
+ 1 =
1

2
+ 1
. (4.41)
Din cele doua solut ii posibile o alegem pe ceea care nu antreneaza pierderi
de cifre semnicative la numitorul fract iei (4.41) adica
t =
_

_
1
+sgn()

2
+ 1
pentru ,= 0
1 pentru = 0
(4.42)
de unde expresiile algebrice pentru cos si sin n funct ie de elementele
matricei A
c = cos =
1

1 +t
2
, s = sin = t cos . (4.43)
Cum produsul celor doua radacini n t ale ecuat iei t
2
+2t 1 = 0 este 1,
este usor de vazut ca, alta alegere a lui t duce la valoari pentru cos si sin
n (4.43) care snt permutate pornind de la alegerea lui t denita de (4.42).
Cu cele doua alegeri obt inem ca b
pq
= b
qp
= 0. Din (4.42) se vede ca [t[ 1,
astfel ca n (4.43) c = cos
1

2
si deci [s[ = [ sin[
1

2
. Cum cos > 0,
unghiul de rotat ie satisface /4 < < /4.
In practica valorile , cos , sin nu pot determinate exact, dar trebuie sa
le alegem astfel ca:
(i) cos
2
+ sin
2
sa e ct mai aproape de 1, astfel ca matricea U
k
a
transformarii A
k
U
T
k
A
k
U
k
sa e aproape ortogonala si ca matricea
A
k+1
sa e aproape asemenea cu A
k
, . . . , A
1
.
(ii) (a
pp
a
qq
) cos sin +a
pq
(cos
2
sin
2
) sa e foarte aproape de zero
pentru a justica nlocuirea lui b
pq
prin zero pe care o efectuam n
practica.
142 Capitolul 1. Sisteme de ecuatii liniare
Daca scriem ( Wilkinson [102], p. 275 )
tg(2) =
2a
pq
a
pp
a
qq
=
x
y
(4.44)
cu x = 2a
pq
, y = [a
pp
a
qq
[ atunci pentru [[ /4 obt inem
2 cos
2
= [(x
2
+y
2
)
1/2
+y]/(x
2
+y
2
)
1/2
2 sin
2
= [(x
2
+y
2
)
1/2
y]/(x
2
+y
2
)
1/2
(4.45)
alegnd cos > 0 si sin cu semnul lui tg (2). Dar daca x este mic n raport
cu y, (4.45) da o valoare pentru sin care mannca precizia. Pentru un
calcul cu 10 zecimale n virgula xa si n virgula otanta, (4.45) da sin = 0,
cos = 1 pentru toate valorile lui x si y astfel ca [x[ < 10
5
[y[. In acest
caz chiar daca cerint a (i) este satisfacuta, cerint a (ii) nu este satisfacuta.
Opernd numai n virgula otanta, exista un mijloc de a conserva o precizie
satisfacatoare ( vezi Wilkinson [102], p. 131, p. 275 pentru o analiza na
a erorilor comise ). Notam de asemenea ca n locul formulelor (4.44) sau
(4.45) putem de asemenea utiliza n locul lui , a unei aproximat ii a lui
prin
T = tg

2
=
a
pq
2(a
pp
a
qq
)
(4.46)
cu [[ /4, semnul lui ind cel al membrului drept din (4.46) ceea ce
corespunde alegerii unui unghi astfel ca
tg

2
=
1
4
tg (2)
si deci din aproximarea

5
4

3
cnd 0.
Putem calcula sin si cos cu ajutorul identitat ilor trigonometrice sin =
2T
1 +T
2
, cos =
1 T
2
1 +T
2
si calculul este foarte simplu n virgula xa sau
virgula otanta pentru ca [T[ < 1. Aceasta alegere a lui n locul lui
pentru unghiul de rotat ie corespunde a nlocui, n rotat ie pe a
pq
prin a
pq
n locul lui 0, cu 0
1
4
(1 +

2) si unde este de fapt vecin lui zero


pentru ntr-o ntreaga vecinatate. Viteza de convergent a ramne compara-
bila pentru aceasta alegere a unghiului de rotat ie, cu viteza de convergent a,
corespunzatoare alegerii exacte a lui prin (4.44) sau (4.45).
4. Vectori s i valori proprii 143
Si acum algoritmul Jacobi . La ecare iterat ie, matricea U
k
este de forma
(4.28) si coecient ii snt determinat i astfel ca sa anuleze exact doi coecient i
simetrici nediagonali pentru matricea A
k
= (a
(k)
ij
). Distingem trei strategii
pentru alegerea pozit iei (p, q) si (q, p) n care elementele matricii B se vor
anula.
a) Metoda Jacobi clasica
Alegem (p, q) astfel ca
[a
(k)
pq
[ = max
i,=j
[a
(k)
ij
[ (4.47)
adica eliminam doi coecient i care snt cei mai mari n valoare absoluta.
b) Metoda Jacobi ciclica
Cum alegerea elementului nediagonal n valoare absoluta cere un numar de
N = n(n 1)/2 operat ii, ceea ce este considerabil n raport cu (aproxima-
tiv) 4n nmult iri necesare pentru o rotat ie Jacobi, anulam succesiv toate
elementele nediagonale prin baleaj ciclic , de exemplu alegnd cuplurile
(p, q) n ordinea
(1, 2), (1, 3) . . . (1, n); (2, 3) . . . (2, n); . . . ; (k, k + 1), . . . , (k, n); . . . ; (n 1, n).
(4.48)
Trebuie sa remarcam ca elementele care s-au anulat la o iterat ie data snt
n general nlocuite cu elemente nenule n timpul rotat iilor urmatoare. Este
deci n general necesar sa refacem de cteva ori baleajul ciclic, pna cnd toate
elementele nediagonale snt inferioare unei anumite valori a tolerant ei , sub
care un numar poate considerat zero.
c) Metoda Jacobi cu prag
Procedam ca la metoda Jacobi ciclica, dar anulam elementele nediagonale
care snt n modul superioare unui anumit prag , care se micsoreaza cu
ecare baleiaj, ceea ce prezinta avantajul de-a evita sa avem elemente nedi-
agonale prea diferite n valoare absoluta. Iata un exemplu n care poate
luat pragul 2
3
, 2
6
, 2
10
, 2
18
,...
144 Capitolul 1. Sisteme de ecuatii liniare
Convergent a metodei Jacobi
Vom studia convergent a metodei Jacobi n cazul cel mai simplu (cel al
metodei clasice ). Am putut deja remarca ca convergent a este posibila din
faptul ca suma elementelor matricilor A
k
ramne constanta n ecare etapa
suma elementelor diagonale creste cu de doua ori elementul care se anuleaza
( Teorema 4.4). Putem spera ca sirul matricilor (A
k
) va convergent catre
o matrice diagonala si ca aceasta matrice diagonala va exact matricea
diag(
1
, . . . ,
n
) sau o matrice diag(
(1)
, . . . ,
(n)
) unde o
n
este o
permutare a numerelor 1, . . . , n.
Teorema 4.5 Sirul A
k

k1
de matrici obt inute prin metoda Jacobi clasica
este convergent, si
lim
k
A
k
= diag(
(1)
, . . . ,
(n)
)
pentru o permutare convenabila o
n
.
In demonstrarea acestei teoreme un loc central l joaca lema urmatoare
demonstrata de Crouzeix [16] n 1976.
Lema 4.5 Fie X un spat iu metric compact si x
k

kN
un sir n X avnd un
numar nit de puncte de acumulare. Daca lim
k
d(x
k
, x
k+1
) = 0 atunci
sirul x
k
este convergent.
Demonstrat ie. Fie Y = y
1
, . . . , y
m
mult imea punctelor de acumulare ale
sirului x
k
. Atunci d(x
k
, Y ), distant a de la x
k
la mult imea Y , tinde la zero
cnd k . In fapt, n caz contrar, exista un > 0 astfel ca pentru orice
ntreg pozitiv N, exista un ntreg k
t
> N astfel ca distant a dist(x
k
, Y ) > .
Exista deci un subsir x
k
al sirului x
k
astfel ca
dist(x
k
, Y ) > .
Spat iul X ind compact, acest sir are un punct de acumulare y
t
cuprins n
Y , ceea ce este n contradict ie cu denit ia lui Y . Avem deci
lim
k
d(x
k
, Y ) = 0. (4.49)
Vom demonstra ca sirul x
k
converge catre un y
j
Y . Pentru aceasta, e
= inf
y
i
,=y
j
d(y
i
, y
j
) pentru y
i
, y
j
Y si e 0 < < /4. Prin ipoteza, exista
4. Vectori s i valori proprii 145

`
`
X
y
q
y
r
y
j(k)
/4
y
i
/4
Figura 4.1:
N() astfel ca pentru k > N(), d(x
k+1
, x
k
) < /4 si pe de alta parte, din
(4.49), d(x
k
, Y ) < /4 pentru k > N(). Vom demonstra n aceste condit ii
ca d(x
k
, y
j(k
) < pentru orice k
t
k. Intr-adevar, n caz contrar, ar exista
un indice l > k > N() astfel ca d(x
l
, y
j(k)
) . Dar pe de-o parte, condit ia
d(x
k+1
, x
k
) < /4 pentru orice k N() demonstreaza ca x
k
nu poate
sarii de la o bila B(y
j(k)
, /4) ntr-o bila B(y
i
, /4), centratan alt punct de
acumulare y
i
din mult imea Y , fara sa ocupe pozit iile intermediare ntre y
i
si
y
j(k)
; pe de alta parte condit ia d(x
k
, Y ) < /4 pentru orice k N() interzice
ca x
k
sa ocupe pozit ii intermediare, care sa e cu distant a superioara lui /4
de mult imea Y , pentru ca < /4 si dist(y
i
, y
j(k)
) din denit ia lui
. Aceasta arata ca pentru orice ntreg k
t
k > N(), x
k
ramne n bila
B(y
j(k)
, ) adica d(x
k
, y
j(k)
) < pentru k
t
k > N(). Aceasta stabileste
convergent a sirului x
k
catre punctul de acumulare y
j(k)
. Mult imea Y se
reduce la un singur punct si sirul x
k
este convergent. 2
Demonstrat ia Teoremei 4.5 . Pentru orice ntreg k 1 consideram
A
k
= (a
(k)
ij
) = D
k
+B
k
cu D
k
= diag(a
(k)
1,1
, . . . , a
(k)
n,n
)
146 Capitolul 1. Sisteme de ecuatii liniare
si demonstram mai nti ca lim
k
B
k
= 0. Numerele

k
=

j,=i
[a
(k)
ij
[
2
= |B
k
|
2
F
, k 1
verica pe de-o parte

k+1
=
k
2[a
(k)
pq
[
2
(4.50)
si pe de alta parte (din strategia adoptata n cazul metodei Jacobi clasice ),

k
n(n 1)[a
(k)
pq
[
2
(4.51)
pentru ca [a
(k)
pq
[ = max
i,=j
[a
(k)
ij
[. Combinnd (4.50) si (4.51) gasim

k+1
(1
2
n
2
n
)
k
. (4.52)
Relund aceasta majorare care nu depinde de a
(k)
pq
, din aproape n aproape,
obt inem

k+1
(1
2
n
2
n
)
k

1
(4.53)
si deci
k
0 cnd k . In plus, putem arata ca

k+r

_
1
1
r
_
r

k

1
e

k
unde 2r = n
2
n.
Aratam ca sirul (D
k
)
k
nu are dect un numar nit de valori de aderent a,
care snt n mod necesar de forma diag(
(1)
, . . . ,
(n)
), S
n
. Amintim
ca
1
, . . . ,
n
snt cele n valori proprii ale matricei A, presupuse aranjate, o
data pentru totdeauna, ntr-o ordine determinata dar arbitrara.
Cum (D
k
) este un sir marginit, deoarece |D
k
|
F
|A|
F
, putem extrage un
subsir (D
k
) convergent catre o matrice D. Avem de asemenea
lim
k

A
k
= D caci A
k
= D
k
+B
k
si lim
k

B
t
k
= 0,
si deci (considernd coecient ii polinomului caracteristic )
det(D I) = lim
k

det(A
k
I) C.
Cum
det(A
k
I) = det(AI) C
4. Vectori s i valori proprii 147
deoarece matricile A
k
si A snt asemenea, deducem ca matricele A si
D = lim
k

D
t
k
au acelasi polinom caracteristic si deci aceleasi valori pro-
prii, multiplicitat ile snt cuprinse. Cum D este matrice diagonala (acesta
este limita unui sir de matrici diagonale ), exista o permutare S
n
astfel
ca
D = diag(
(1)
, . . . ,
(n)
).
Aratam ca lim
k
(D
k+1
D
k
) = 0. Se verica ca
a
(k+1)
ii
a
k
ii
=
_

_
0 daca i ,= p, i ,= q
(tg
k
) a
(k)
pq
daca i = p
a
(k)
pq
tg
k
daca i = q
Cum [
k
[ /4 si [a
(k)
pq
[ |B
k
|
F
cu lim
k
B
k
= 0 concluzia se deduce.
In spat iul X al matricelor patrate simetrice de ordinul n si de norma | |
F
inferioara sau egala cu |A|
F
sirul (D
k
) este marginit, deoarece
|D
k
|
F
|A
k
|
F
= |A|
F
(conform Teoremei 4.4). Dupa Lema 4.5, sirul (D
k
) converge si limita
sa, care este una din valorile de aderent a, este n mod necesar de forma
diag(
(1)
, . . . ,
(n)
) cu o
n
. Cum A
k
= D
k
+ B
k
, se deduce ca sirul
(A
k
) este convergent, cu lim
k
D
k
= D 2
Trecem acum la convergent a vectorilor proprii. Reamintim relat iile
A
k+1
= U
T
k
A
k
U
k
= P
T
k
AP
k
unde P
k
= U
1
U
2
. . . U
k
.
Teorema 4.6
Presupunem ca toate valorile proprii ale matricei A snt distincte. Atunci
sirul (P
k
)
k1
de matrici construite n metoda Jacobi clasica converge catre o
matrice ortogonala ale carei coloane constituie o mult ime de vectori proprii
ai matricei A ortogonali doi cte doi.
Demonstrat ie. Lema 4.5 joaca un rol central n demonstrarea acestei teo-
reme.
(i) Aratam ca sirul (P
k
) nu are dect un numar nit de puncte de aderent a,
care snt n mod necesar de forma
(p
(1)
, p
(2)
, . . . , p
(n)
) o
n
148 Capitolul 1. Sisteme de ecuatii liniare
unde p
1
, p
2
, . . . , p
n
snt vectorii coloana ai matricii P ce intervine n relat ia
P
T
AP = diag(
1
, . . . ,
n
).
Fie (P
k
) un sir extras din sirul (P
k
) convergent catre o matrice (ortogonala)
P
t
. Din teorema precedenta, exista o permutare S
n
astfel ca
diag(
(1)
, . . . ,
(n)
) = lim
k

A
t
k
= lim
k

P
T
k
AP
k
= (P
t
)
T
AP
t
,
si asert iunea este demonstrata. Notam ca n ipoteza toate valorile proprii
snt distincte, a fost utilizata n mod esent ial pentru a conclude existent a
unui numar nit de puncte de acumulare.
(ii) Demonstram ca lim
k
(P
k+1
P
k
) = 0. Prin construct ie, unghiul
k
verica
tg 2
k
=
2a
(k)
pq
a
(k)
qq
a
(k)
pp
, [
k
[

4
.
Utiliznd teorema precedenta si (din nou ) faptul ca toate valorile proprii ale
matricei A snt distincte rezulta existent a unui ntreg l astfel ca
k l [a
(k)
qq
a
k
pp
[
1
2
min
i,=j
[
i

j
[ > 0.
Cum cuplurile (p, q) variaza cu ntregul k nu putem arma ca sirurile (a
(k)
pp
)
si (a
(k)
qq
) converg. Cum lim
k
a
(k)
pq
= 0, am stabilit ca lim
k

k
= 0, si
deci lim
k
U
k
= I, ( se t ine seama de expresia matricelor U
k
n funct ie de
unghiul
k
). Cum, n sfrsit, P
k+1
P
k
= P
k
(U
k+1
I), asert iunea decurge,
pentru ca sirul (P
k
) este marginit (norma | |
2
a unei matrici ortogonale
este 1 ). Dispunem de toate elementele necesare de a aplica lema, ceea ce
termina demonstrat ia. 2
Teorema 4.5 si Teorema 4.6 au fost demonstrate de Michel Crouzeix [16] n
1975.
4.5 Metoda Givens-Householder
Metoda Givens - Householder este o metoda, n particular, bine adaptata
la cautarea valorilor proprii select ionate ale unei matrici simetrice, de
exemplu toate valorile proprii situate ntr-un interval determinat anterior,
sau valorile proprii de un rang dat (presupunem valorile proprii ordonate
crescator ).
4. Vectori s i valori proprii 149

In plus aceasta metoda permite aproximarea ecarei valori proprii cu o pre-


cizie variabila. Aceasta metoda nu furnizeaza vectori proprii, care trebuie
determinat i separat cu o alta metoda, de exemplu cu metoda puterilor in-
versa.
Principiul metodei consta n a reduce mai nti matricea simetrica A la o
matrice simetrica tridiagonala asemenea, efectund un numar nit de trans-
formari ortogonale.
Pentru determinarea valorilor proprii ale unei matrici simetrice tridiagonale
se utilizeaza metoda Givens numita nca metoda bisect iei.
Forma tridiagonala a unei matrici simetrice
Forma tridiagonala a unei matrici simetrice se dovedeste a bine adaptata
pentru determinarea vectorilor si valorilor propri. In cele ce urmeaza vom
da doua metode de aducere a unei matrici simetrice la o forma tridiagonala.
Metoda Givens. Efectuam un sir nit de N = (n 1)(n 2)/2 rotat ii
pentru a reduce matricea simetrica A la o forma tridiagonala de forma

A =
_
_
_
_
_
_
_
_
_
_

1

1

1

2

2

2

3

3
.
.
.

n2

n1

n1

n1

n
_
_
_
_
_
_
_
_
_
_
. (4.54)
Determinam pentru aceasta un sir de matrici (U
k
), k = 1, . . . , N unde N =
(n 1)(n 2)/2 si formam, din aproape n aproape, matricele
A
0
= A, A
k
= U
T
k
A
k1
U
k
, k = 1, , N (4.55)
Matricea U
k
, care corespunde la o rotat ie bidimensionala, este aleasa astfel
ca primele k elemente codiagonale ale lui A sa e nule ( spunem ca a
ii
si a
i,i+1
, i = 1, . . . , n snt elemente codiagonale ale matriei A). Convenim
pentru aceasta de a plasa indicii celor N elemente necodiagonalentr-o ordine
ciclica denita prin :
(1, 3), (1, 4), . . . , (1, n); (2, 4), . . . , (2, n); . . . ; (n3, n1), (n3, n), (n2, n)
(4.56)
150 Capitolul 1. Sisteme de ecuatii liniare
Primele k elemente necodiagonale ale matricii A
k
snt elemente a caror indici
snt primele k din lista, elementul (i, j) din lista este pe pozit ia
k =
2n i 2
2
(i 1) + (j i 1).
Prima etapa consta n nlocuirea elementului a
(0)
13
al matriciei A
0
prin 0
efectund o rotat ie U
1
=
23
(
1
) obt innd matricea A
1
. In etapa a doua
nlocuim elementul a
(1)
14
al matricei A
1
prin 0 efectund o rotat ie U
2
=
24
(
2
)
obt innd matricea A
2
. La etapa k nlocuim elementul a
(k1)
i1,j
cu j i + 1
al matricei A
k1
prin 0 efectund o rotat ie U
k
=
i,j
(
k
) obt innd matricea
A
k
. Reamintim ca matricea de rotat ie
i,j
(
k
) are elementele
_

_
u
rr
= 1 r ,= i, j
u
ii
= u
jj
= cos
k
u
ij
= sin
k
u
ji
= sin
k
u
r,s
= 0 n rest .
(4.57)
La etapa k se alege unghiul
k
astfel: daca a
(k1)
i1,j
= 0 atunci
k
= 0, n caz
contrar alegem
k
asa nct
cos(
k
) =
a
(k1)
i1,i
_
(a
(k1)
i1,i
)
2
+ (a
(k1)
i1,j
)
2
sin(
k
) =
a
(k1)
i1,j
_
(a
(k1)
i1,i
)
2
+ (a
(k1)
i1,j
)
2
(4.58)
adica matricea U
k
se deneste astfel: U
k
= I daca a
(k1)
i1,j
= 0 si U
k
= (u
(k)
rs
)
n caz contrar, unde
u
(k)
ii
= u
(k)
jj
=
a
(k1)
i1,i
_
(a
(k1)
i1,i
)
2
+ (a
(k1)
i1,j
)
2
u
(k)
ij
= u
(k)
ji
=
a
(k1)
i1,j
_
(a
(k1)
i1,i
)
2
+ (a
(k1)
i1,j
)
2
u
(k)
rs
=
rs
, r, s ,= i, j.
4. Vectori s i valori proprii 151
Teorema 4.7 (Givens, 1954) Fie A o matrice simetrica si A
0
= A. Sirul
matricelor A
k
, k = 1, . . . , N = (n 2)(n 1)/2 construit n (4.55) are
urmatoarele proprietat i:
matricele A
k
snt simetrice,
primele k elemente necodiagonale n A
k
snt nule,
matricea

A = A
N
este tridiagonala.
Demonstrat ie. Simetria matricelor A
k
rezulta imediat t innd seama ca A
0
este o matrice simetrica, iar matricea U
k
este ortogonala, deci
A
T
k
= (U
T
k
A
k1
U
k
)
T
= U
T
k
A
T
k1
U
T
k
= U
T
k
A
k1
U
k
= A
k
.
Sa aratam ca daca A
k1
are primele k 1 elemente ne codiagonale nule
atunci elementele corespunzatoare din A
k
snt la fel.
In trecerea de la matricea A
k1
la matricea A
k
se modica doar elementele
de pe liniile si coloanele i si j conform relat iilor:
_

_
a
(k)
rs
= a
(k1)
rs
r ,= i, j si s ,= i, j
a
(k)
ri
= a
(k1)
ri
cos
k
a
(k1)
rj
sin
k
, r ,= i, j
a
(k)
rj
= a
(k1)
ri
sin
k
+a
(k1)
rj
sin
k
, r ,= i, j
a
(k)
ii
= a
(k1)
ii
cos
2

k
2a
(k1)
i,j
cos
k
sin
k
+a
(k1)
jj
sin
2

k
a
(k)
jj
= a
(k1)
ii
sin
2

k
+ 2a
(k1)
ij
cos
k
sin
k
+a
(k1)
jj
cos
2

k
a
(k)
ij
= (a
(k1)
ii
a
(k1)
jj
) sin
k
cos
k
+a
(k1)
ij
(cos
2

k
sin
2

k
)
a
(k)
ji
= a
(k)
ij
(4.59)
Putem acum verica ca daca primele k 1 elemente necodiagonale ale ma-
tricei A
k1
snt nule, (i 1, j) ind indicele elementului necodiagonal de
ordin k atunci primele k 1 elemente necodiagonale n matricea A
k
snt
nule. Intr-adevar, pe linia i 1 singurele elemente modicate snt a
(k1)
i1,i
si
a
(k1)
i1,j
. Primul este codiagonal si nu ne intereseaza pentru moment, iar din
(4.59) se vede ca a
(k)
i1,j
= 0 din alegerea lui
k
. Pe linia r pentru r < i 1
singurele elemente succeptibile de-a modicate snt a
(k1)
ri
si a
(k1)
ij
. Dar
t innd seama de (4.59) cnd r < i 1 obt inem a
(k)
ri
si a
(k)
rj
egale cu zero
deoarece primele k 1 elemente ne codiagonale ale matricii A
k1
snt nule.
Pe de alta parte elementul a
(k)
i1,j
este zero t innd seama de formulele (4.59) si
152 Capitolul 1. Sisteme de ecuatii liniare
de alegerea unghiului
k
. Prin recurent a obt inem ca matricele A
k
au primele
k elemente necodiagonale nule.
Matricea

A = A
N
= P
T
AP, unde P = U
1
U
N
, este tridiagonala. Aceasta
metoda, foarte simplu de aplicat cere 10N adunari, 20N nmult iri mpreuna
cu N = (n 2)(n 1)/2 extrageri de radacini patrate.
Metoda Householder. Fiind data matricea simetrica A se determina, din
aproape n aproape, (n 2) matrici ortogonale H
1
, H
2
, . . . , H
n2
astfel ca
matricele
A
k
= H
T
k1
A
k1
H
k1
= (H
1
. . . H
k1
)
T
A(H
1
. . . H
k1
, 1 k n 2
sa e de forma
A
k
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
x x
x x x
x x x
.
.
.
x x x
x x x x
x x x x
x x x x
.
.
.
.
.
.
.
.
.
.
.
.
x x x x
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
-linia k
coloana k
In nal, matricea

A = A
n1
= (H
1
H
n2
)
T
A(H
1
H
n2
) este tridi-
agonala pe o parte si asemenea cu matricea, A
1
= A pe de alta parte.
Matricea ortogonala P cautata ind de forma P = H
1
H
n2
, produsul
a n 2 matrici Householder. In prezenta metoda, ecare transformare
A
k
A
k+1
= H
T
k
A
k
H
k
se efectueaza cu ajutorul unei matrici de forma
H
k
=
_
I
k
0
0

H
k
_
, I
k
matricea unitate de ordinul k.
In aceste condit ii, proprietat ile pe blocuri ale matricelor arata ca matricea
4. Vectori s i valori proprii 153
H
T
k
A
k
H
k
este de forma
H
T
k
A
k
H
k
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
x x
x x x
x x x
.
.
.
x x x
x x x x
x x x x
x x x x
.
.
.
.
.
.
.
.
.
.
.
.
x x x x
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
unde a
k
este vector coloana n k dimensional avnd componentele a
(k)
ik
,
k + 1 i n ale matricei A
k
= (a
(k)
ij
), iar elementele a
(k)
ij
, 1 i, j k ale
matricei A
k
ramnnd neschimbate. Este sucient deci sa gasim matricea

H
k
astfel ca

H
T
k
a
k
R
nk
sa aiba toate componentele nule n afara de primul,
matricea

H
k
ind ortogonala si de asemenea ct mai simplu de construit.
Consideram acum matricea simetrica si ortogonala de forma
H(v) = I 2
vv
T
v
T
v
, v vector nenul .
Daca

n
i=k+2
[a
(k)
ij
[ > 0, exista, utiliznd Teorema 2.8, un vector v
k
R
nk
astfel ca vectorul H( v
k
)a
k
R
nk
sa aiba toate componentele nule n afara
de prima. Alegem

H
k
= H( v
k
). Natural, daca a
(k)
ik
= 0 pentru i = k+2, . . . , n
alegem

H
k
= I (reamintim ca am convenit sa consideram matricea unitate
ca o matrice Householder. Dispunem acum de toate elementele necesare
pentru descrierea trecerii de la matricea A
k
la matricea A
k+1
= H
T
k
A
k
H
k
.
Daca a
(k)
ik
= 0 pentru i = k + 2, . . . , n matricea A
k
este deja de forma A
k+1
si este sucient sa luam H
k
= I. In caz contrar, construim matricea H
k
cu
ajutorul matricei

H
k
= H( v
k
) cum am aratat mai sus. Putem considera
matricea H
k
ca ind o matrice Householder:
H
k
= H(v
k
) = I 2
v
k
v
T
k
v
T
k
v
k
vectorul v
k
R
n
avnd primele sale k componente nule, urmatoarele (nk)
componente ind cele ale vectorului v
k
R
nk
. Din aceste considerat ii si
154 Capitolul 1. Sisteme de ecuatii liniare
din Teorema 2.8 existenta doua alegeri posibile pentru vectorul v
k
si anume
v
k
= (0, . . . , 0, a
(k)
k+1,k
(
n

i=k+1
[a
(k)
ik
[
2
)
1/2
, a
(k)
k+2,k
, . . . , a
(k)
nk
)
T
alegerea efectiva a semnului din fat a sumei ind ceea a semnului elementului
a
(k)
k+1,k
(pentru a nu avea numitori prea mici . Odata vectorul v
k
deter-
minat, elementele a
(k+1)
ij
, k + 1 i, j n, ale matricei: A
k+1
= (a
(k+1)
ij
)
snt obt inute n felul urmator: calculam succesiv vectorii w
k
= (v
T
k
v)
1/2
v
k
,
q
k
= 2(I w
k
w
T
k
)A
k
w
k
de componente (w
(k)
i
) si (q
(k)
i
). Apoi matricea A
k+1
o luam de forma
A
k+1
= A
k
w
k
q
T
k
q
k
w
T
k
astfel ca
a
(k+1)
ij
= a
(k)
ij
w
(k)
i
q
(k)
j
q
(k)
i
w
(k)
j
k + 1 i, j .
In cele de mai sus am demonstrat teorema urmatoare:
Teorema 4.8 Fiind data o matrice simetrica A, exista o matrice P, for-
mata din produsele a (n2) matrici Householder, astfel ca matricea P
T
AP
sa e tridiagonala.
In ciuda faptului ca metodele Givens si Householder snt diferite din punct
de vedere algoritmic, este interesant de notat ca ele conduc essent ialmente
la aceiasi matrice tridiagonala. Avem urmatorul rezultat.
Teorema 4.9 Daca P
T
1
AP
1
=

A
1
si P
T
2
AP
2
=

A
2
unde matricele P
i
snt
ortogonale ( unitare ) si

A
i
snt matrici tridiagonale, si daca prima coloan a
a matricelor P
1
si P
2
este aceiasi, atunci
P
2
= P
1
D,

A
2
= D
T

A
1
D
unde D este o matrice diagonala a carei elemente snt n modul egale cu 1.
Demonstrat ie. Avem numai de demonstrat ca daca
AP = PH
si prima coloana a lui P este data, atunci P si H snt esent ialmente unic
determinate. Demonstrat ia este urmatoarea. Prima coloana n egalitatea de
mai sus da
Ap
1
= h
11
p
1
+h
21
p
2
4. Vectori s i valori proprii 155
si deoarece matricea P este ortogonala avem
h
11
= p
T
1
Ap
1
, h
21
p
2
= Ap
1
h
11
p
1
Prima ecuat ie de mai sus da h
11
iar a doua da
[h
21
[ = |Ap
1
h
11
p
1
|
2
astfel ca p
2
este unic determinat cu un factor (sa zicem) = 1. A doua
coloana din relat ia AP = PH da
Ap
2
= h
12
p
1
+h
22
p
2
+h
32
p
3
si deci
h
12
= p
T
1
Ap
2
, h
22
= p
T
2
Ap
2
, h
32
p
3
= Ap
2
h
12
p
1
h
22
p
2
.
Primele doua relat ii dau h
12
, h
22
iar a treia relat ie da
[h
32
[ = |Ap
2
h
12
p
1
h
22
p
2
|
2
.
Se poate usor verica ca [h
32
[ este independent de valoarea pe care o luam
pentru
2
, astfel p
3
este unic determinat modulo un factor
3
= 1. Con-
tinund n acest fel, P este unic determinat modulo un factor
D = diag(
1
,
2
, . . .) la stnga, iar nedeterminarea corespunzatoare a lui H
este cea din enunt . 2
Calculul valorilor proprii ale unei matrici simetrice tridiagonale
prin metoda bisect iei
Pentru determinarea valorilor proprii ale unei matrici B simetrice tridiago-
nale de forma
B =
_
_
_
_
_
_
_
_
_
_
_
b
1
c
1
c
1
b
2
c
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
c
n2
b
n1
c
n1
c
n1
b
n
_
_
_
_
_
_
_
_
_
_
_
(4.60)
se utilizeaza metoda bisect iei data de Givens. Observam ca daca unul din
elementele c
i
este nul, matricea B se descompune n doua sub-matrici tridia-
gonale de acelasi tip. Putem deci presupune, fara a restrnge generalitatea,
156 Capitolul 1. Sisteme de ecuatii liniare
ca c
i
,= 0, pentru 1 i n 1. Incepem prin a stabili ca radacinile
polinoamelor caracteristice pentru submatricele B
i
denite prin
B
i
=
_
_
_
_
_
_
_
_
_
_
_
b
1
c
1
c
1
b
2
c
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
c
i2
b
i1
c
i1
c
i1
b
i
_
_
_
_
_
_
_
_
_
_
_
1 i n
au proprietat i de separare remarcabile, ilustrate n teorema urmatoare.
Teorema 4.10 Polinoamele p
i
(), R denite pentru i = 0, 1, , n,
prin formulele de recurent a:
p
0
() = 1, p
1
() = b
1
,
p
i
() = (b
i
)p
i1
() c
2
i1
p
i2
(), 2 i n
(4.61)
au proprietat ile urmatoare:
1) Polinomul p
i
este polinomul caracteristic pentru matricea B
i
, 1
i n;
2) lim

p
i
() = + 1 i n;
3) Daca p
i
(
0
) = 0 atunci p
i1
(
0
) p
i+1
(
0
) < 0 pentru 1 i n 1;
4) Polinomul p
i
poseda i radacini reale distincte, care separa cele (i + 1)
radacini ale polinomului p
i+1
, 1 i n 1, cum indica Figura 4.2
Demonstrat ie. (1) Aceasta proprietate se verica dezvoltnd determinantul
matricii (B
i
I) n raport cu ultima linie (sau ultima coloana ).
(2) Prin recurent a p
i
() = (1)
i

i
+Q
i
() unde Q
i
este un polinom de grad
cel mult i 1, deci lim

p
i
() = +.
(3) Presupunem ca p
i
(
0
) pentru un i ntreg vericnd 1 i n 1. Din
relat ia de recurent a, deducem
p
i+1
(
0
) = c
2
i
p
i1
(
0
)
4. Vectori s i valori proprii 157
ceea ce atrage (presupunnd ca c
i
,= 0) : sau p
i1
(
0
) p
i+1
(
0
) < 0 sau
p
i1
(
0
) = p
i
(
0
) = p
i+1
(
0
). In a doua eventualitate, din relat ia de
recurent a (4.61) n ipoteza c
i
,= 0, 1 i n 1) se arata ca
p
i
(
0
) = p
i1
(
0
) = = p
1
(
0
) = p
0
(
0
) = 0
ceea ce este exclus pentru ca p
0
() = 1.
4) Demonstrat ia se face prin induct ie. Polinomul p
1
are pe b
1
ca radacina.
Dar avem p
2
(b
1
) = c
2
1
< 0. Cum p
2
() =
2
+ O() daca [[ ,
rezulta ca p
2
are n mod necesar o radacina la stnga lui b
1
(< b
1
) si o
radacina la dreapta lui b
1
(> b
1
), deci p
2
are doua radacini reale
(2)
1
,
(2)
2
.
Presupunem acum ca radacinile lui p
i2
() si p
i1
() snt distincte, si ca
radacinile lui p
i2
separa radacinile lui p
i1
, adica

(i1)
1
<
(i2)
1
<
(i1)
2
<
(i2)
2
< <
(i2)
i2
<
(i1)
i1
Din relat ia de recurent a (4.61), pentru k < i 1 obt inem
p
i
(
(i1)
k
) = c
2
i1
p
i2
(
(i1)
k
)
ceea ce atrage p
i
(
(i1)
k
) p
i2
(
(i1)
k
) < 0. Dar, din ipoteza de induct ie, p
i2
schimba semnul ntre
(i1)
k
si
(i1)
k1
pentru k = 2, . . . , i 1. Aceasta atrage
ca p
i
schimba de asemenea semnul ntre
(i1)
k1
si
(i1)
k
, ceea ce demonstreaza
ca p
i
are o radacina ntre ecare pereche de radacini adiacente ale lui p
i1
.
Pe de alta parte pentru i = 1, 2, , n avem
p
i
() + daca si (1)
i
daca +
ceea ce atrage ca p
i
are o radacina la stnga lui
(i1)
1
si o radacina la dreapta
lui
(i1)
i1
. Se vede deci ca radacinile
(i)
k
ale polinomului p
i
snt simple si
alterneaza cu cele ale polinomului p
i1
, adica

(i)
1
<
(i1)
1
<
(i1)
2
< <
(i)
i1
<
(i1)
i1
<
(i)
i
. (4.62)
Radacinile polinoamelor succesive p
i1
, p
i
, p
i+1
, snt dispuse can Figura 4.2.
2
Un sir de polinoame vericnd condit iile din teorema precedenta se numeste
sir Sturm . Metoda Givens se bazeaza pe o proprietate remarcabila a
unui asemenea sir, proprietate care permite un calcul imediat a numarului
radacinilor ce snt mai mici dect un R dat (< ), a ecarui polinom
din sir, cum arata rezultatul de mai jos.
158 Capitolul 1. Sisteme de ecuatii liniare
Figura 4.2:
Teorema 4.11 Fie i un ntreg vericnd 1 i n. Fiind dat un numar
R, punem
sgn p
i
() =
_
_
_
semnul p
i
() daca p
i
() ,= 0
semnul p
i1
() daca p
i
() = 0
Atunci numarul N(i; ) al schimbarilor de semne ntre elementele consecu-
tive ale mult imii ordonate
E(i; ) = +, sgn p
1
(), sgn p
2
(), , sgn p
i
()
este egal cu numarul de radacini ale polinomului p
i
care snt mai mici ca .
Demonstrat ie. Vericam pentru nceput ca expresia sgn p
i
() s-a denit
fara ambiguitate n toate cazurile, pentru ca p
i
() = 0 p
i1
() ,= 0 din
teorema precedenta. Deoarece
b
1
E(1; ) = +, + N(1; ) = 0
4. Vectori s i valori proprii 159
b
1
< E(1; ) = +, N(1; ) = 1
asert iunea este adevarata pentru i = 1.
Presupunem ca proprietatea este adevarata pentruntregii 1, 2, , i si aratam
ca ea este nca adevarata pentru ntregul (i + 1). Fie
(i)
1
, ,
(i)
i
si

(i+1)
1
, ,
(i+1)
i+1
radacinile, asezaten ordine crescatoare, pentru polinoamele
p
i
respectiv p
i+1
. Din denit ia N(i; ) avem

(i)
1
< <
(i)
N(i;)
<
(i)
N(i;)+1
< <
(i)
i
si prin urmare, din teorema precedenta, rezulta

(i)
N(i;)
<
(i+1)
N(i;)+1
<
(i)
N(i;)+1
.
Este sucient, acum, sa examinam diferitele cazuri posibile :
a)
(i)
N(i;)
<
(i+1)
N(i;)+1
atunci sgn (p
i+1
()) = sgn(p
i
()) deci
N(i + 1; ) = N(i; ).
b)
(i+1)
N(i;)+1
< <
(i)
N(i;)+1
atunci sgn (p
i+1
()) = sgn (p
i
()) deci
N(i + 1; ) = N(i; ) + 1.
c)
(i)
N(i;)+1
= atunci sgn (p
i
()) = sgn (p
i1
()) = sgn (p
i+1
())
deci
N(i + 1; ) = N(i; ) + 1.
(

In ultima implicat ie, s-a folosit n mod esent ial proprietatea (3) din teorema
precedenta ). 2
Observat ie. Daca M(i; ) este numarul de perechi consecutive de acelasi
semn (+, + sau , ) ce se aa n mult imea ordonata E(i; ); de exem-
plu, daca
E(10; ) = +, +, , +, , , +, , , , +
M(10; ) = 4 n timp ce N(10; ) = 6, atunci, se verica usor ca
M(i; ) +N(i; ) = i, pentru i = 1, 2, , n
astfel ca numarul M(i; ) este egal cu numarul de radacini a polinomului p
i
care snt . 2
Rezultatul din Teorema 4.11 permite sa aproximam sucient de bine valorile
proprii ale matricii B = B
n
si de asemenea sa calculam direct o valoare
160 Capitolul 1. Sisteme de ecuatii liniare
proprie de rang dat. Sa presupunem ca dorim o aproximarea a valorii
proprii
i
=
(n)
i
a matricii B, ntregul i ind xat (vom presupune ca mai
nainte ca valorile proprii snt distincte si snt aranjate n ordine crescatoare).
Incepem prin a determina un interval [
0
,
0
] n care sntem siguri ca se
gaseste aceasta valoare proprie; de exemplu, alegem
0
=
0
= |B|
1
sau
|B|

. Notam n continuare
0
mijlocul segmentului [
0
,
0
] apoi calculam
ntregul N(n;
0
) (cu notat iile din Teorema 4.11, amintim ca p
n
nu este
altceva dect polinomul caracteristic al matricii B).
Avem:
sau N(n;
0
) i si
i
[
0
,
0
],
sau N(n,
0
) < i si
i
[
0
,
0
],
astfel ca vom cunoaste un interval [
1
,
1
], de jumatatea lungimii precedente
n care se gaseste valoarea proprie
i
(
1
=
0
,
1
=
0
daca
i
[
0
,
0
]
sau
1
=
0
,
1
=
0
daca
i
[
0
,
0
]).
Determinam, din aproape n aproape, un sir descrescator de intervale I
0

I
1
I
k
astfel nct
i
[
k
,
k
] si
k

k
= 2
k
(
0

0
), k 0, astfel
ca putem efectiv ncadra a i-a valoare
i
cu o precizie ( teoretic ) arbitrara.
Observat ie.
Daca alegem de exemplu
0
= |B|

ca margine superioara pentru


i
avem

0
= max[b
1
[ +[c
1
[, . . . , [c
i1
[ +[b
i
[ +[c
i
[, . . . , [c
n1
[ +[b
n
[) (4.63)
si
0
=
0
. Teorema Gerschgorin dan general margini mai precise. Pentru
matricea tridiagonala simetrica B avem
b
ii
= b
i
, r
1
= [c
1
[, r
i
= [c
i1
[ +[c
i
[, i = 2, n 1, r
n
= [c
n1[
astfel ca valorile proprii
i
snt sigur n intervalul [
0
,
0
] denit prin

0
= min
1in
(c
i
r
i
),
0
= max
1in
(c
i
+r
i
).
Valoarea
0
este la fel ca n (4.63), dar marginea inferioara
0
este n general
mai buna. 2
Pentru a aplica metoda bisect iei trebuie calculate valorile p
1
(), , p
n
()
pentru a putea sa determinam N(n; ) (cu succesiv egal cu
0
,
1
, ).
4. Vectori s i valori proprii 161
Utilizam pentru aceasta formulele de recurent a (4.61) ceea ce necesita doar
2n nmult iri si 2n scaderi (Va o stngacie sa exprimam p
i
n raport cu
coecient ii sai ). Se vede ca metoda bisect iei este foarte usor de aplicat si
permite n plus calculul direct a valori proprii
i
daca dorim fara a calcula
pe celelalte.
Stabilitatea metodei bisect iei.
Daca am putea efectua calculele cu o precizie innita ( fara rotunjiri )
metoda bisect iei ar permite sa se determine orice valoare proprie a unei
matrici simetrice tridiagonale cu o precizie dorita. In practica, precizia pe
care o putem atinge este limitata de erorile de rotunjire, dar metoda este
oricum except ional de stabila, cum a aratat Wilkinson [102] ( pagina 303
si urmatoarele). Este bine de remarcat ca eroarea asupra valorii proprii de
ordinul i calculata n k etape de bisect ie este de ordin 2
k
, independent de
ordinul n al matricei B.
Pentru a calcula n valori proprii efectund k bisect ii, trebuie sa efectuam
2(2n)nk = 4kn
2
operat ii elementare, ceea ce arata ca timpul de calcul a
valorilor proprii este relativ mic n raport cu timpul de calcul necesar (2/3)n
3
sau (4/3)n
3
operat ii elementare ce corespund triangularizarii Householder
sau Givens. Pe de alta parte metoda bisect iei ramne ecace si cnd valorile
proprii snt apropriate una de alta (cf. Wilkinson [102]).
Calculul vectorilor proprii pentru o matrice
simetrica tridiagonala
Sa vedem acum cum calculam vectorii proprii pentru o matrice tridiago-
nala simetrica. Vectorul propriu x ce corespunde valorii proprii
k
satisface
sistemul omogen.
(b
1

k
)x
1
+c
1
x
2
= 0
c
1
x
1
+(b
2

k
)x
2
+c
2
x
3
= 0
c
2
x
2
+(b
3

k
)x
3
+c
3
x
4
= 0
.
.
.
c
n1
x
n1
+(b
n

k
)x
n
= 0
_

_
162 Capitolul 1. Sisteme de ecuatii liniare
si cum x
1
nu poate nul (astfel toate componentele x
i
ale lui x vor nule )
putem lua x
1
= 1. De unde x
2
=
(b
1

k
)
c
1
, si prin recurent a
x
j
= (1)
j1
p
j1
(
k
)/
_
j1

i=1
c
i
_
x
1
, j = 2, 3 . . . , n (4.64)
unde p
j
() snt minorii principali ai matricii B I.
Dispunem, deci, de expresii explicite pentru componentele vectoriilor pro-
prii, n funct ie de p
j
(). Cum valorile proprii ale lui B se determina stabil
utiliznd p
j
(), putem spera logic ca daca este cunoscuta cu o mare pre-
cizie formula (4.64) permite sa determinam vectorii proprii cu o foarte buna
aproximat ie.
Din pacate aceste formule snt numeric foarte instabile si conduc deseori la
un rezultat catastroc (vezi Wilkinson, 1965 pp. 317-321 pentru un foarte
bun exemplu ).
Exista o metoda foarte ecace de calcul a vectorilor proprii pornind de la
procesul iterat iei inverse a lui Wiehandt (Wilkinson 1965 p. 321, Schwartz
1973, p. 154 )
Presupunem ca B este o matrice tridiagonala simetrica, cu valorile pro-
prii
1
>
2
> >
n
distincte si cu vectorii proprii corespunzatori
v
1
, v
2
, , v
n
. Iterat ia inversa pleaca de la un vector x
(0)
normat si de la
o valoare ce aproximeaza
j
, obt inuta prin metoda bisect iei sau prin algo-
ritmul QR daca B este pozitiv denit.)
Formam sirul x
(k)
utiliznd iterat iile urmatoare
(B I)x
(k+1)
= x
(k)
pentru k = 0, 1, (4.65)
Fie (x
(0)
1
, , x
(0)
n
coordonatele lui x
(0)
, n raport cu sistemul de vectori
v
1
, , v
n
presupus ortonormat
x
(0)
=
n

i=1
x
(0)
i
v
i
(4.66)
Presupun de asemenea ca
x
(k)
=
n

i=1
x
(k)
i
v
i
(4.67)
4. Vectori s i valori proprii 163
Introducnd (4.66) si (4.67) n (4.65) obt inem
(B I)
_
n

i=1
x
(k+1)
i
v
i
_
=
n

i=1
x
(k)
i
v
i
adica
n

i=1
(
i
)x
(k+1)
i
v
i
=
n

i=1
x
(k)
i
v
i
de unde relat iile
x
(k+1)
i
=
x
(k)
i

i = 1, 2, . . . n, k = 0, 1, 2, . . .
folosind independent a liniara a vectorilor v
i
. Avem deci pentru vectorul x
(k)
obt inut dupa k iterat ii
x
(k)
=
n

i=1
1
(
i
)
k
x
(0)
i
v
i
. (4.68)
Presupunem ca este o buna, aproximat ie a valorii proprii
j
astfel ca
=
j
+ ( pentru foarte mic ) si [
i
[ > pentru i ,= j. Avem din
(4.68)
x
(k)
=
x
(0)
j

k
v
j
+
n

i=1,i,=j
x
(0)
i
(
i
)
k
v
i
=
1

k
[x
(0)
j
v
j
+
n

i=1,i,=j
x
(0)
i
_

_
k
v
i
].
Ceea ce arata ca daca x
(0)
j
,= 0, adica vectorul x
(0)
n-a fost ales ortogonal pe
vectorul cautat v
j
, iterat iile x
k
converg rapid catre vectorul propriu v
j
. 2
4.6 Metoda QR
Metoda QR (sau algoritmul QR), data de J.C.F. Francis (1961, 1962 ) si
V.N. Kublanovskaia (1961), este metoda cea mai folosita pentru calculul
mult imii valorilor proprii pentru o matrice oricare, n general nesimetrica.
Natural, aceasta metoda se aplica a fortiori si unei matrici simetrice, pentru
care aceasta metoda este mai put in ecace ca metoda Jacobi.
164 Capitolul 1. Sisteme de ecuatii liniare
Descrierea metodei QR
Fie A = A
1
o matrice patrata oarecare, scriem factorizarea sa QR, e A
1
=
Q
1
R
1
( Q
1
matrice ortogonala (unitara) daca A
1
este reala (complexa), iar
R
1
matrice superior triunghiulara), formam matricea A
2
= R
1
Q
1
; si scriem
factorizarea QR a matricei A
2
, e A
2
= Q
2
R
2
, apoi se formeaza matricea
A
3
= R
2
Q
2
si asa mai departe
A
1
A
2
_
factorizarea QR : A = A
1
= Q
1
R
1
,
luam : A
2
= R
1
Q
1
A
k
A
k+1
_
factorizarea QR : A
k
= Q
k
R
k
,
luam : A
k+1
= R
k
Q
k
Obt inem astfel un sir de matrici A
k
care snt toate asemenea cu matricea
A pentru ca
A
2
= R
1
Q
1
= Q
T
1
AQ
1
.
.
.
A
k+1
= R
k
Q
k
= Q
T
k
A
k
Q
k
= = (Q
1
Q
2
Q
k
)
T
A(Q
1
Q
k
)
Daca A este o matrice nesingulara descompunerea QR este mereu posibila
daca t inem seama de teorema urmatoare:
Teorema 4.12 Fie A o matrice nesingulara cu coecient i reali (respectiv
complecsi). Atunci putem scrie matricea A sub forma
A = Q R
unde Q este o matrice ortogonal a (respectiv unitara) iar R este o matrice
superior triunghiulara (r
ij
= 0, i > j) si regulata (r
ii
,= 0). In plus, putem
alege elementele diagonale ale matricei R sa e pozitive si n acest caz fac-
torizarea QR este unica
Pentru demonstrat ie se foloseste Teorema 2.6.
Convergent a metodei QR.
Utiliznd teorema de mai sus observam ca daca matricea A este nesingulara
atunci putem construi, n mod unic, sirul A
k
.
4. Vectori s i valori proprii 165
In ipoteze put in restrictive vom stabili, n teorema ce urmeaza, ca matricele
A
k
devin superior triunghiulare, n sensul ca lim
k
(A
k
)
ij
= 0 pen-
tru j < i, n timp ce elementele diagonale ale matricelor A
k
tind catre
valorile proprii ale matricei A. Dar atent ie ! nu putem spune nimic de-
spre convergent a eventuala a elementelor (A
k
)
ij
pentru i < j si deci despre
convergent a sirului A
k
. Aceasta observat ie este fara valoare practica n
masura n care obiectivul nostru, de a determina aproximari ale valorilor
proprii, este atins.
Teorema 4.13 Presupun ca matricea A este inversabila, si ca valorile sale
proprii snt toate n modul diferite. Exista (cel put in) o matrice inversabila
P astfel ca A = PP
1
, cu = diag(
1
,
n
), iar [
1
[ > [
2
[ > [
n
[
si presupun ca matricea P
1
admite o factorizare LU : P
1
= L U cu
(L)
ii
= 1 (i = 1, . . . , n). Atunci sirul matricilor (A
k
)
k1
este astfel ca
lim
k
(A
k
)
ii
=
i
1 i n, lim
k
(A
k
)
ij
= 0 1 j < i n.
Demonstrat ie. (1) Principiul demonstrat iei. Am observat deja ca
A
k+1
=

Q
T
k
A

Q
k
cu

Q
k
= Q
1
Q
k
.
Obiectivul este studierea comportamentului asimptotic al matricelor

Q
k
.
Pentru aceasta vom considera puterile succesive A
k
, k 1 ale matricei A,
pentru care o factorizare QR a fost deja data sub forma
A
k
=

Q
k

k
cu

k
= R
k
R
2
R
1
deoarece
A
k
= Q
1
(R
1
Q
1
)(R
1
. . . Q
1
)(R
1
Q
1
)R
1
= Q
1
Q
2
(R
2
Q
2
) (R
2
Q
2
)R
2
R
1
=
= = (Q
1
Q
2
. . . Q
k
)(R
k
R
2
R
1
).
Utiliznd factorizarea LU a matricei P
1
, vom obt ine o alta factorizare QR
a matricei A
k
si comparnd aceste doua factorizari vom obt ine o expresie a
matricei

Q
k
care va mai comoda pentru studiu.
(ii) Alta expresie a matricei

Q
k
. Considernd P = QR si P
1
= LU fac-
torizarile QR si LU ale matricelor P respectiv P
1
, ipoteza n care matricea
A este inversabila permite scrierea
A
k
= P
k
P
1
= QR(
k
L
k
)
k
U,
166 Capitolul 1. Sisteme de ecuatii liniare
unde am notat
k
matricea diag(
k
1
, . . . ,
k
n
). Interesul de a face sa
apara
k
L
k
este cunoasterea comportamentului sau asimptotic. Matricea
L ind inferior triunghiulara cu (L)
ii
= 1, 1 i n, avem
(
k
L
k
)
ij
=
_

_
0 daca i < j
1 daca i = j
(
i
/
j
)
k
(L)
ij
daca i > j
de unde lim
k
(
k
L
k
) = I grat ie ipotezei facute asupra modulelor valorilor
proprii ale matricei A (aceasta este singurul loc unde aceasta ipoteza este
utilizata ). Punnd

k
L
k
= I +F
k
, cu lim
k
F
k
= 0
putem scrie
R(
k
L
k
) = (I +RF
k
R
1
)R.
Pentru valorile sucient de mari ale ntregului k matricile I + RF
k
R
1
snt
inversabile, pentru ca lim
k
F
k
= 0, ele admit deci o unica factorizare
QR de tipul I + RF
k
R
1
=

Q
k


R
k
cu (

R)
ii
> 0 1 i n. Matricele

Q
k
ind ortogonale, sirul (

Q
k
) este marginit ( |

Q
k
|
2
= 1). Putem deci extrage
un subsir, e (

Q
k
) care converge la o matrice

Q de asemenea ortogonala.
Cum

R
k
=

Q
T
k
(I + RF
k
R
1
) deducem ca subsirul extras (R
k
) converge
catre o matrice R, la fel superior triunghiulara cu (R)
ii
0, 1 i n.
Trecnd la limita pentru sirul extras, obt inem I = Q R ceea ce impune
(R)
ii
> 0, 1 i n. Din unicitatea descompunerii QR (Teorema 4.12)
deducem Q = R = I. Acelasi rat ionament poate reprodus pentru toate
subsirurile sirurilor (Q
k
) si (R
k
), unicitatea limitelor arata ca cele doua siruri
snt n ntregime convergente:
lim
k
Q
k
= I, lim
k
R
k
= I.
Notam n trecere important a existent ei si unicitat ii factorizarilor QR cu
(R)
ii
> 0, care permite pe de-o parte sa denim fara ambiguitate matricele
Q
k
si R
k
si pe de alta parte, sa demonstram convergent a celor doua siruri.
In concluzie, am obt inut
A
k
= (QQ
k
)(R
k
R
k
U) =

Q
k

R
k
.
Dar matricea QQ
k
nd ortogonala, iar matricea R
k
R
k
U ind superior tri-
unghiulara (ca produs de matrici de acest tip ) prima expresie a matri-
cei A
k
nu este altceva dect factorizarea QR a acestei matrici . Utiliznd
4. Vectori s i valori proprii 167
observat ia Teorema 2.7 exista, pentru orice ntreg k, o matrice diagonala D
k
cu [(D
k
)
ii
[ = 1, 1 i n, astfel ca

Q
k
= QQ
k
D
k
.
(iii) Comportamentul asimptotic al matricilor A
k+1
=

Q
T
k
A

Q
k
.
Utiliznd expresiile gasite mai sus pentru matricele

Q
k
si egalitatea
A = QRR
1
Q
1
deducem
A
k+1
= D
T
k
Q
T
k
RR
1
Q
k
D
k
.
Deoarece lim
k
Q
k
= I, concludem ca
lim
k
(Q
T
k
RR
1
Q
k
) = RR
1
=
_
_
_
_
_
_

1
x x

2
x
.
.
.
.
.
.

n
_
_
_
_
_
_
ordinea valorilor proprii (n modul descrescatoare ) ind pastrata pentru ca
matricea R este superior triunghiulara. Punnd

D
k
= Q
T
k
RR
1
Q
k
,
obt inem (matricele D
k
ind diagonale )
(A
k+1
)
ij
= (D
k
)
ii
(D
k
)
jj
(

D
k
)
ij
de unde
(A
k+1
)
ii
= (

D
k
)
ii
, 1 i n
deoarece [(D
k
)
ii
[ = 1, 1 i n. Concluziile cautate decurg din relat ia
lim
n

D
k
= RR
1
stabilita mai sus. 2
Observat ii.
1) Daca matricea A este reala, ipoteza ca toate valorile sale proprii snt
de module diferite antreneaza ca toate valorile proprii snt reale.
2) Notam caracterul neasteptat al ipotezei privind existent a unei fac-
torizari LU a matricei P
1
( o condit ie sucienta pentru aceasta fac-
torizare a fost data n Teorema 2.2)
168 Capitolul 1. Sisteme de ecuatii liniare
3) Daca nu putem demonstra convergent a elementelor (A
k
)
ij
pentru
i < j, rezulta totusi din partea a doua a demonstrat iei ca modulele
lor converg catre modulele elementelor respective ale matricei RR
1
.
4) Daca mai multe valori proprii au acelasi modul (de exemplu valori
proprii multiple, sau valori proprii complexe a unei matrici reale ),
se arata posibilitatea unei factorizari LU, dar pe blocuri a matricei
P
1
, matricea A
k
devine numai triunghiulara pe blocuri, ecare
submatrice diagonala limita corespunznd la valori propri de acelasi
modul.
Un factor important n aplicarea metodei QR este structura matricei A.
Dupa Francis [23] (p. 270 ) si Wilkinson [102] (p. 524 ) algoritmul QR nu este
practic dect daca matricea A este o matrice Hessenberg superioara. Motivul
principal al acestei remarci este ca numarul de operat ii pentru a efectua
ecare pas QR este proport ional cu n
3
pentru o matrice plina, dar numai n
2
pentru o matrice Hessenberg. Este deci recomandabil sa se procedezen doua
etape, lanceput o reducere a matricei A la o matrice Hessenberg superioara,
apoi aplicnd algoritmul QR pentru matricea Hessenberg obt inuta.
Aceasta maniera de a proceda, pentru o matrice plina oarecare, este asema-
natoare cu cea pe care am utilizat-o la matricile simetrice oarecare, care
consta n a reduce matricea init iala la o matrice tridiagonala, apoi sa se
calculeze valorile proprii pentru matricea tridiagonala obt inuta. Interesul
reducerii matricei A la o forma Hessenberg este justicat prin faptul ca
transformarea QR pastreaza structura Hessenberg a unei matrici.
Forma Hessenberg a unei matrici
O matrice H este superior Hessenberg daca (H)
ij
= 0, 1 j i 2 si
inferior Hessenberg daca (H)
ij
= 0, i + 2 j n. Pentru a reduce o
matrice patrata A la forma superior Hessenberg vom da mai doua metode.
Metoda Givens. Reducerea la forma Hessenberg prin metoda Givens
consta n (n2) pasi majori. Inainte de pasul r matricea A
0
= A a fost deja
redusa la o forma Hessenberg cel put in n primele coloane, astfel ca situat ia
tipica pentru n = 6, r = 3 are forma
4. Vectori s i valori proprii 169
_
_
_
_
_
_
_
_
_
_
_
_
x x[ x x x x
x x[ x x x x
[
0 x[ x x x x
0 0 [ x x x x
0 0 [ x x x x
0 0 [ x x x x
_
_
_
_
_
_
_
_
_
_
_
_


(4.69)
In fapt putem spune ca minorul sau principal de ordinul r este deja sub
forma Hessenberg si aceasta parte nu mai este alterata n pasi urmatori.
Pasul r major consta din (nr1) pasi minori n care zerouri snt introduse
n pozit iile r + 2, r + 3, . . . , n ale coloanei r prin rotat ii n planul (r + 1, i).
In (4.69) am subliniat elementele care snt eliminate, liniile si coloanele care
snt afectate. Pasul r major poate descris ntr-un limbaj algoritmic astfel.
Pentru i de la r + 1 la n efectuam pasii (i) la (iv):
(i) Calculam x = (a
2
r+1,r
+a
2
i,r
)
1/2
.
(ii) Calculam cos = a
r+1,r
/x, sin = a
i,r
/x ( Daca x=0 luam cos = 1
si sin = 0 si omitem pasii (iii) si (iv)). Scriem x peste a
r+1,r
si zero
peste a
i,r
.
(iii) Pentru ecare j de la r + 1 la n: calculam a
r+1,j
cos + a
i,j
sin si
a
r+1,j
sin +a
i,j
cos si rescriem respectiv peste a
r+1,j
si a
i,j
.
(iv) Pentru ecare j de la 1 la n: calculama
j,r+1
cos +a
j,i
sin si a
j,r+1
sin+
a
j,i
cos si rescriem respectiv peste a
j,r+1
si a
j,i
.
In (iii) efectuam de fapt onmult ire la stnga iar n (iv) onmult ire la dreapta
prin rotat ia plana (r + 1, i). Numarul total de nmult iri este

4n(n r 1) +

4(n r 1)
2

= 2n
3
+
4
3
=
10
3
n
3
Notam ca nu avem spat iu sucient sa memoram cos si sin n pozit iile n
care am introdus zero, deoarece introducem zero numai n pozit ia (i, r). Un
mod economic de-a memora transformarea, consistent din punct de vedere
numeric, este urmatorul. Din cos si sin memoram numai unul si anume
170 Capitolul 1. Sisteme de ecuatii liniare
cel mai mic n modul, si folosim cele mai put in semnicative doua pozit ii
pentru a indica daca sau nu a fost memorat cos si semnul pe de alta parte.
Metoda Householder. Ca si-n cazul tridiagonalizorii unei matrici reale
simetrice (sau hermitiene), este posibil sa utilizam transformarii ortogonale
(unitare) elementare Householder pentru a reduce, printr-o succesiune de
n 2 transformari ortogonale
A
r
= P
T
r
A
r1
P
r
o matrice A = A
0
oarecare la o forma superioara Hessenberg.
Inainte de etapa r, (r = 1, . . . , n 2 ) matricea a fost redusa la o forma
reprezentata pentru n = 6, si r = 3, prin
A
r1
=
r
n r
_
_
_
_
_
_
_
_
_
_
_
_
x x x[ x x x
x x x[ x x x
0 x x[ x x x

0 0 [ x[ x x x
0 0 [ x[ x x x
0 0 [ x[ x x x
_
_
_
_
_
_
_
_
_
_
_
_
=
_
_
_
H
r1
[ C
r1

0 [b
r1
[ B
r1
_
_
_
Matricea H
r1
este o matrice superioara Hessenberg de ordinul r. Transfor-
marea efectuata la etapa r este denita prin
A
r1
A
r
= P
T
r
A
r1
P
r
unde matricea P
r
este de forma
P
r
=
r
n r
_
_
_
I [ 0

0 [ Q
r
_
_
_ =
_
_
_
I [ 0

0 [ I 2v
r
v
T
r
_
_
_
unde v
r
este un vector unitar de ordin (n r). Avem deci
A
r
= P
r
A
r1
P
r
=
_
_
_
H
r1
[ C
r1
Q
r
[
0 [ c
r
[ Q
r
B
r1
Q
r
_
_
_
cu c
r
= Q
r
b
r1
. Daca alegem vectorul v
r
astfel ca c
r
sa e nul cu except ia
primei sale componente, matricea principala de ordinul (r +1) a lui A
r
va
sub forma Hessenberg. Este mai comod de scris P
r
sub forma
P
r
= I 2w
r
w
T
r
4. Vectori s i valori proprii 171
unde w
r
este un vector unitar de ordinul n a caror prime r componente snt
nule. Avem deci
P
r
= I 2w
r
w
T
r
= I u
r
u
T
r
/2K
2
r
unde
_

_
u
ir
= 0 (i = 1, 2, . . . r)
u
r+1,r
= a
r+1,r
S
r
u
i,r
= a
(r1)
ir
(i = r + 2, . . . n)
S
r
=
_
n

r+1
[a
(r1)
ir
[
2
_
1/2
2K
r
= S
2
r
a
(r1)
r+1,r
S
r
(4.70)
In (4.70) a
(r1)
ij
este elementul de ordin (i, j) al matricei A
r1
. Noul element
a
(r)
r+1,r
de ordinul (r +1, r) va egal cu S
r
. Semnul reprezentat , asociat
lui S
r
este semnul lui a
(r1)
r+1,r
, deci avem
u
r+1,r
= a
(r1)
r+1,r
+sgn(a
(r1)
r+1,r
S
r
,
2K
2
r
= S
2
r
sgn(a
(r)
r+1,r
) S
r
.
Cum matricea A = A
0
nu este simetrica, A
r
nu snt nici ele si trebuie
sa consideram separat nmult irea prin P
r
la stnga si la dreapta. Pentru
inmult irea la stnga avem
P
r
A
r1
= (I u
r
u
T
r
/2K
2
r
)A
r1
= A
r1
u
r
(u
T
r
A
r1
)/2K
2
r
= F
r
.
si pentru nmult irea la dreapta
A
r
= P
r
A
r1
P
r
= F
r
P
r
= F
r
(I u
r
u
T
r
/2K
2
r
) = F
r
(F
r
u
r
)u
T
r
/2K
2
r
Cum primele r componente u
1,r
, . . . , u
r,r
a vectorului u
r
snt nule, deducem
din aceste relat ii ca nmult irea matricei A
r1
la stnga prin P
r
nu modica
n nici un fel primele r lini ale matricei A
r1
, n timp ce nmult irea matricei
rezultate F
r
la dreapta prin matricea P
r
lasa neschimbate primele r coloane
ale matricei F
r
.
Putem scrie
u
T
r
A
r1
= p
T
r
172 Capitolul 1. Sisteme de ecuatii liniare
unde p
T
r
este un n-vector a carui (r 1) componente snt nule. Avem deci
F
r
= A
r1
(u
r
/2K
2
r
)p
T
r
(4.71)
Nu trebuie sa calculam componenta r a vectorului p
r
deoarece aceasta inu-
ient eaza coloana r a matricei F
r
si noi stim deja ca primele r componente ale
acestei coloane snt cele ale lui H
r1
iar cele ce urmeaza formeaza vectorul c
r
.
Transformarea a fost astfel proiectata ca toate componentele lui c
r
snt nule
cu except ia primului element care este S
r
. Snt necesare numai (n r)
2
nmult iri pentru calculul celor (n r) componente relevante pentru p
r
si
(n r)
2
nmult iri n calculul lui F
r
din (4.71).
Pentru nmult irea la dreapta scriem
F
r
u
r
= q
r
(4.72)
si vectorul q
r
nu are nici o componenta nula. Deoarece primele r componente
ale lui u
r
snt zero, exista numai n(nr) nmult iri n coloana lui q
r
. In nal
avem
A
r
= F
r
q
r
(u
r
/2K
2
r
)
T
(4.73)
si aceasta necesita n(n r) nmult iri. Sa notam ca att n (4.71) ct si-n
(4.73) apare vectorul (u
r
/2K
2
r
) dar este necesar si vectorul u
r
dupa ce F
r
a
fost calculat. Aceasta dicultate dispare daca lucram cu w
r
dar atunci este
nevoie de calculat radacina patrata din 2K
2
r
.
Daca matrice nu este t inuta n memorie si o economie de transfer este nece-
sara, atunci urmatoarea formulare este probabil cea care convine mai mult.
Denim vectorii p
T
r
, q
r
, v
r
si scalarul
r
prin relat iile
p
T
r
= u
T
r
A
r1
, q
r
= A
r1
u
r
, v
r
= u
r
/2K
2
r
, p
T
r
v
r
=
r
Apoi calculam A
r
astfel
A
r
= A
r1
v
r
p
T
r
q
r
v
T
r
+ (p
T
r
v
r
)u
r
v
T
r
= A
r1
v
r
p
T
r
(q
r

r
u
r
)v
T
r
Numarul total de inmult iri pentru o reducere completa, folosind oricare din
variante, este esent ialmente

2(n r)
2
+

2n(n r)

=
2
3
n
3
+n
3
=
5
3
n
3
.
Capitolul 2
Ecuat ii si sisteme neliniare
Radacinile ecuat iei neliniare f(x) = 0 nu pot , n general, expri-
mate ntr-o forma concisa (chiar cnd este posibil, expresia este de-
seori asa de complicata ca nu este utilizata n mod practic ). Deci,
pentru a rezolva o ecuat ie neliniara sntem obligat i sa utilizam
metode aproximative. Aceste metode snt n mod uzual bazate
pe ideea de aproximat ie succesiva sau pe liniarizare. Asemenea
metode snt iterative , adica plecnd de la o aproximat ie sau mai
multe aproximat ii ale radacinii, se determina un sir x
0
, x
1
, x
2
, . . . ,
care sa convearga la radacina cautata. In anumite metode este su-
cient (pentru convergent a ) sa cunoastem un interval care cont ine
radacina, iar n alte metode se cere ca aproximat ia init iala sa e
sucient de aproape de radacina cautata. Convergent a primelor
metode este lenta, n schimb cele din a doua categorie converg
repede. Deci este preferabil sa se plece cu o metoda care con-
verge mai lent pentru a izola radacina, ca apoi sa se continue cu
o metoda rapid convergenmt a spre nal.
O situat ie aparte apare n determinarea radacinilor reale sau com-
plexe ale unei ecuat ii polinomiale.
Rezolvarea sistemelor de ecuat ii neliniare este, n general, o prob-
lema mult mai dicila. Deci multe din metodele pentru o singura
ecuat ie se pot extinde si la sisteme, ele presupun ca o buna aprox-
imare a solut iei sa se stie. Relativ put ine lucruri se cunosc despre
cum sa atacam problema rezolvarii unui sistem neliniar daca nu
avem apriori nici o informat ie privind plasarea radacinilor.
173
174 Capitolul 2. Ecuatii s i sisteme neliniare
5 Ecuat ii neliniare
Vom descrie si analiza cteva metode de rezolvare a unei ecuat ii neliniare
f(x) = 0 (5.1)
unde f este o funct ie reala de variabila reala. Orice valoare pentru care
funct ia f este zero, adica f() = 0, se numeste radacina a ecuat iei (5.1) sau
zerou al ecuat iei (5.1). Vom presupune ca ecuat ia (5.1) are numai zerouri
izolate, adica pentru ecare radacina a ecuat iei (5.1) exista o vecinatate
care nu cont ine alte radacini ale ecuat iei. Aproximarea radacinilor izolate
ale ecuat iei (5.1) n mod obisnuit consta n doi pasi si anume:
- izolarea radacinilor, adica stabilirea unui interval ct mai mic posibil
(a, b) ce cont ine numai o radacina a ecuat ie (5.1);
- mbunatat irea aproximarii radacinii, adica, de a creste gradul de
aproximare.
5.1 Izolarea radacinilor
Pentru izolarea radacinilor de un real folos este urmatorul rezultat:
Teorema 5.1 Daca o funct ie continua f are valori de semne contrare la
capetele intervalului [a, b], adica f(a)f(b) < 0 atunci n (a, b) exista cel put in
o radacina (a, b) a ecuat iei (5.1).
Radacina va unic denita daca derivata f
t
exista si are semn constant
pe intervalul (a, b), adica f
t
(x) > 0(sauf
t
(x) < 0 ) pentru orice x (a, b).
Procesul de izolare a radacinilor ncepe prin stabilirea semnelor funct iei f
la capetele intervalului [a, b] a domeniului sau de existent a, apoi se deter-
mina semnul funct iei f ntr-un numar de puncte intermediare
1
,
2
. . . ,
alegerea carora se ia n funct ie de particularitat ile funct iei. Daca obt inem ca
f(
k
) f(
k+1
) < 0 atunci n intervalul (
k
,
k+1
) ecuat ia are sigur o
radacina.
In mod practic radacinile se izoleaza printr-un proces de njumatat ire. Este
bune stiut ca ecuat ia algebrica
a
0
x
n
+a
1
x
n1
+ +a
n
= 0, (a
0
,= 0)
5. Ecuatii neliniare 175
are cel mult n radacini reale. Prin urmare, daca pentru o asemenea ecuat ie
obt inem n+1 schimbari de semn, atunci toate radacinile au putut izolate.
De exemplu, pentru ecuat ia
f(x) x
3
6x + 2 = 0 (5.2)
gasim ca radacinile se aa n intervalele (3, 1), (0, 1) si (1, 3).
Daca f este o funct ie continua derivabila si radacinile ecuat iei f
t
(x) = 0 pot
usor calculate, procesul de izolare a radacinilor poate regularizat, adica
este sucient sa calculam semnul funct iei f n zerourile derivatei sale si n
capetele intervalului [a,b].
De exemplu, pentru ecuat ia
f(x) x
4
4x 1 = 0 (5.3)
avem f
t
(x) = 4(x
3
1) si astfel f
t
(x) = 0 are numai o radacina reala, x = 1.
Cum lim
x
f(x) = +, (+), f(1) = 4 < 0 () si lim
x
f(x) =
+ (+), ecuat ia (5.3) are numai doua radacini reale ce se aa n (, 1)
respectiv (1, ).
Teorema 5.2 Daca este o radacina exacta iar x o radacina aproximativa
a ecuat iei f(x) = 0, amndoua situate n acelasi interval [, ] si [f
t
(x)[
m > 0 pentru x , atunci
[x [
[f(x[
m
(5.4)
Demonstrat ie. Aplicnd teorema de medie, avem
f(x) f() = (x )f
t
(c)
unde c este o valoare ntre x si , adica c (, ). Deoarece f() = 0 si
[f
t
(c)[ m obt inem (5.4). 2
Formula (5.4) poate da o evaluare grosiera astfel ca nu este mereu convenabil
sa e folosita. Din acest motiv n cele mai multe situat ii se ncearca sa se
micsoreze intervalul (, ) care cont ine radacina si aproximat ia x, astfel
ca pentru eroarea asoluta avem evaluarea [ x[ .
Ca o solut ie aproximativa pentru ecuat ia f(x) x
4
4x 1 = 0 avem
x = 1.22. Pentru a calcula eroarea absoluta avem
f(x) = 0.0047, si f(1.23) = 0.0588
176 Capitolul 2. Ecuatii s i sisteme neliniare
astfel ca radacina se aan intervalul (1.22, 1.23). Derivata f
t
(x) = 4(x
3
1)
este monoton crescatoare, de unde [f
t
(x) [f
t
(1.22)[ = 4.448, deci
[x [
0.0047
4.448
= 0.001.
Uneori, n practica, acuratet ea aproximat iei radacinei x este estimata
prin ct de bine satisface x ecuat ia f(x) = 0, adica daca [f(x)[ este mic,
atunci x este presupusa ca o aproximat ie buna a solut ie ; iar daca [f(x)[
este mare, atunci x se ia ca ind o proasta aproximat ie. Asa cum se vede n
Figura 5.1
- -
6 6


x x
a
b
Figura 5.1:
aceasta abordare este eronata. Nu trebuie sa uitam ca daca ecuat ia f(x) = 0
este nmult ita printr-un numar arbitrar N ,= 0, atunci obt inem o ecuat ie
echivalenta Nf(x) = 0, si numarul Nf(x) poate facut arbitrar de mare
sau mic printr-o alegere convenabila a factorului N.
Radacinile ecuat iei (5.1) pot determinate aproximativ ca abscisa punc-
tului de intersect ie a gracului funct iei y = f(x) cu axa Ox. Daca ecuat ia
(5.1) nu are radacini apropiate aceasta metoda poate utilizata pentru a
izola radacinile.
5. Ecuatii neliniare 177
Este uneori recomandat sa se nlocuiasca ecuat ia (5.1) cu o ecuat ie echiva-
lenta (doua ecuat ii snt echivalente daca au aceleasi radacini )
(x) = (x) (5.5)
unde funct iile si snt mai simple ca f. Apoi construim gracele funct iilor
si , iar radacinile snt abscisele punctelor de intersect ie a acestor grace.
5.2 Metode de aproximare a radacinilor
Vom prezenta cteva metode de aproximare a solut iilor ecuat iilor neliniare.
Metoda bisect iei
Una din metodele des utilizate pentru aproximarea radacinii unei ecuat ii
f(x) = 0 n intervalul (a, b) este metoda bisect iei (sau metoda njumatat irii).
Presupunem ca f este continua pe [a, b] si f(a) f(b) < 0. Pentru deter-
minarea unei radacini vom determina un sir de intervale (a
0
, b
0
) (a
1
, b
1
)
care cont in o radacina a ecuat iei f(x) = 0. Presupunem ca f(a
0
) < 0
si f(b
0
) > 0. Intervalele I
k
= (a
k
, b
k
), k = 1, 2, . . . snt determinate recursiv
astfel. Mijlocul intervalului I
k1
este m
k
= (a
k1
+ b
k1
)/2. Putem pre-
supune f(m
k
) ,= 0, deoarece altfel am gasit o radacina a ecuat iei. Calculam
f(m
k
) si luam
(a
k
, b
k
) =
_
(m
k
, b
k1
), daca f(m
k
) < 0
(a
k1
, m
k
), daca f(m
k
) > 0
(5.6)
Din construct ia lui (a
k
, b
k
) rezulta imediat ca f(a
k
) < 0 si f(b
k
) > 0 iar I
k
cont in o radacina a ecuat iei (5.1). Dupa n pasi avem o radacina n intervalul
(a
n
, b
n
), interval de lungime
b
n
a
n
= 2
1
(b
n1
a
n1
) = = 2
n
(b
0
a
0
).
Putem lua m
n+1
o estimare a radacinii si avem = m
n+1
d
n
, d
n
=
2
n1
(b
0
a
0
).
Metoda bisect iei aplicata ecuat iei (x/2)
2
sinx = 0 cu I
0
= (1, 5; 2) da sirul
de intervale
178 Capitolul 2. Ecuatii s i sisteme neliniare
k a
k1
b
k1
m
k
f(m
k
)
1 1,5 2 1,75 < 0
2 1,75 2 1,875 < 0
3 1,875 2 1,9375 > 0
4 1,875 1,9375 1,90625 < 0
5 1,90625 1,9375
Metoda bisect iei converge lent. La ecare pas cstigam o cifra binara. Cum
10
1
2
33
avem nevoie de 3.3 pasi pentru a cstiga o cifra zecimala. Pe de
alta parte rata de convergenta este complet independenta de funct ia f. Acest
lucru se ntmpla deoarece folosim efectiv numai semnele valorilor calculate
pentru funct ia f.
Metoda coardei
Presupunem din nou f(a) < 0 si f(b) > 0. In loc sa impartim intervalul [a, b]
n jumatate este mai natural sa-l impartim cu raportul f(a) : f(b). Apoi
sa luam
x
1
= a +h
1
(5.7)
unde
h
1
=
f(a)
f(a) +f(b)
(b a) =
f(a)
f(b) f(a)
(b a). (5.8)
Apoi, se aplica aceiasi procedura pentru intervalul [a, x
1
] sau [x
1
, b]. Geo-
metric, metoda coardei este echivalenta cu nlocuirea curbei y = f(x) prin
coarda care trece prin punctele A[a, f(a)] si B[b, f(b)] (vezi Figura 5.2)
Intr-adevar, ecuat ia coardei AB este
x a
b a
=
y f(a)
f(b) f(a)
.
Presupunnd x = x
1
si y = 0, obt inem
x
1
= a
f(a)
f(b) f(a)
(b a). (5.9)
Formula (5.9) este echivalenta cu formulele (5.7) si (5.8). Pentru a demonstra
convergent a procesului de aproximare sa presupunem ca f
tt
(x) are semn
constant pe [a, b]. Fie f
tt
(x) > 0 pentru a x b. Curba y = f(x) va
convexa si deci va situata sub coarda AB. Doua cazuri snt posibile:
1) f(a) > 0 ( vezi Figura 5.3a ) si 2) f(a) < 0 ( vezi Figura 5.3b).
5. Ecuatii neliniare 179
-
6

b
a
f(b)
f(a)
a +h
1
Figura 5.2:
In primul caz, punctul a este xat si aproximat iile succesive, x
0
= b
x
n+1
= x
n

f(x
n
)
f(x
n
) f(a)
(x
n
a) n = 0, 1, 2. (5.10)
formeaza un sir monoton descrescator
a < < x
n+1
< x
n
< < x
1
< x
0
.
In ultimul caz, b este xat si aproximat iile succesive x
0
= a
x
n+1
= x
n

f(x
0
)
f(b) f(x
n
)
(b x
n
) (5.11)
formeaza un sir monoton crescator si
x
0
< x
1
< x
2
< < x
n+1
< < < b.
Din cele de mai sus concluzionam ca: 1) capatul x coincide cu cel
pentru care semnul funct iei f, coincide cu semnul derivatei a doua f
tt
(x);
2) aproximat iile succesive x
n
se aa de acea parte a radacinilor unde sem-
nul funct iei f(x) este opus cu semnul derivatei f
tt
(x). In ecare caz x
n+1
este mai aproape de ca x
n
. Sa presupunem ca
= lim
n
x
n
, a < < b
180 Capitolul 2. Ecuatii s i sisteme neliniare
- -
6 6
f(a)
a
b
f(b)
x
1
x
2

a
b
f(a)
f(b)
x
1
x
2

a
b
Figura 5.3:
(limita exista deoarece sirul este monotom si marginit). Trecnd la limita n
(5.10), avem pentru primul caz
=
f()
f() f(a)
( a)
deci f() = 0. Deoarece am presupus ca ecuat ia f(x) = 0 are numai o solut ie
n intervalul (a, b), rezulta ca = , la fel se arata ca n cazul al doilea = .
Pentru a estima acuratet ea aproximat iei putem folosi formula (5.4), adica
[x
n
[
[f(x
n
)[
m
unde [f
t
(x)[ m pentru a x b.
Putem da o alta formula care permite estimarea erorii absolute a aproxima-
t iei x
n
daca doua valori succesive x
n1
si x
n
snt cunoscute. Presupunem ca
derivata f
t
este continua pe intervalul [a, b] care cont ine toate aproximat iile
5. Ecuatii neliniare 181
si pastreaza semnul; notam ca
0 < m
1
[f
t
(x)[ M
1
< +. (5.12)
Sa presupunem ca aproximat ia succesiva x
n
pentru solut ia exacta este
generata de formula (5.10):
x
n
= x
n1

f(x
n1
)
f(x
n1
) f(a)
(x
n1
a), n = 1, 2, . . .
Considernd ca este radacina, adica f() = 0, obt inem
f() f(x
n1
) =
f(x
n1
) f(a)
x
n1
a
(x
n
x
n1
).
Folosind o formula de tip Lagrange gasim
( x
n1
)f
t
(
n1
) = (x
n
x
n1
)f
t
(x
n1
)
unde
n1
(x
n1
, ) si x
n1
(a, x
n1
). Deci
[ x
n
[ =
[f
t
(x
n1
f
t
(
n1
)[
[f
t
(
n1
)[
[x
n
x
n1
[.
Deoarece f
t
(x) are semn constant pe intervalul [a, b] iar x
n1
[a, b] si

n1
[a, b], obt inem
[f
t
(x
n1
) f
t
(
n1
)[ M
1
m
1
.
Obt inem deci
[ x
n
[
M
1
m
1
m
1
[x
n
x
n1
[. (5.13)
Daca intervalul [a, b] este sucient de ngust, ca M
1
2m
1
, atunci avem
[ x
n
[ [x
n
x
n1
[.
Deci, n acest caz de ndata ce [x
n
x
n1
[ < avem [ x
n
[ < .
182 Capitolul 2. Ecuatii s i sisteme neliniare
Regula falsi
O varianta a metodei secantei este regula falsi unde se alege secanta care
trece prin (x
n
, f(x
n
)) si (x
t
n
, f(x
n
) unde n
t
este cel mai mare indice, n
t
< n,
pentru care f(x
n
)f(x
n
) < 0. Aproximat iile init iale x
0
si x
1
trebuie, desigur,
alese astfel ca f(x
0
) f(x
1
) < 0. Avantajul regulii falsi este acela ca, la fel
ca la metoda bisect iei, ea este mereu convergenta pentru funct ia f.
Regula falsi este o buna metoda de start, dar nu trebuie folosita aproape
de radacina. Poate folosita ca parte ntr-o metoda hibrida metoda care
are bune proprietat i de convergent a aproape de radacina.
Metoda Newton
Ideea metodei Newton pentru aproximarea radacinii a unei ecuat ii,consta
n construirea unui sir care sa convearga la . Pornind cu o aproximat ie
init iala x
0
se construieste sirul x
0
, x
1
. . . . unde x
n+1
se determina astfel.
Funct ia f este aproximata prin tangenta sa n punctul (x
n
, f(x
n
)), iar x
n+1
se ia abscisa punctului de intersect ie a tangentei cu axa Ox. Cum ecuat ia
tangentei la grac n (x
n
, f(x
n
) este
y f(x
n
) = f
t
(x
n
)(x x
n
)
pentru obt inerea aproximat iei x
n+1
se rezolva ecuat ia
f(x
n
) +f
t
(x
n
)(x
n+1
x
n
) = 0.
Metoda Newton este denita de formulele
x
n+1
= x
n
+h
n
, h
n
= f(x
n
)/f
t
(x
n
) (5.14)
sau
x
n+1
= x
n
f(x
n
)/f
t
(x
n
) (5.15)
Iterat iile pot oprite cnd [h
n
[ devine sucient de mic. De exemplu, pentru
funct ia f(x) = sinx (x/2)
2
se doreste determinarea radacinii pozitive cu
cinci zecimale exacte. Luam x
0
= 1.5
n x
n
f(x
n
) f
t
(x
n
) h
n
x
n

0 1.5 0.434995 - 0.67926 0.64039 - 0.43375


1 2.14039 -0.303197 -1.60948 -0.18838 0.20664
2 1.95201 -0.024372 -1.34805 - 0.01808 0.01826
3 1.93393 - 0.0002333 - 1.32217 - 0.00018 0.00018
4 1.93375 0.000005 -1.32191 <
1
2
10
5
<
1
2
10
5
5. Ecuatii neliniare 183
Solut ia cautata este 1.93375. Numai patru iterat ii au fost necesare, chiar
daca aproximarea init iala a fost proasta. Vedem ca [h
n
[ descreste din ce n
ce mai repede pna ce erorile de rotunjire ncep sa domine.
In ce priveste convergent a metodei Newton avem urmatorul rezultat.
Teorema 5.3 Daca f(a) f(b) < 0 iar f
t
(x) si f
tt
(x) pastreaza semne con-
stante n [a, b], atunci pentru x
0
[a, b] ce satisface f(x
0
) f
tt
(x
0
) > 0 sirul
x
n
construit folosind (5.14) converge la unica solut ie a ecuat iei f(x) = 0.
Demonstrat ie. Sa presupunem f(a) < 0, f(b) > 0, f
t
(x) > 0, si
f
tt
(x) > 0 pentru x [a, b] ( alte cazuri se trateaza analog ). Din inegalitatea
f(x
0
)f
tt
(x
0
) > 0 rezulta f(x
0
) > 0 (putem lua, de exemplu x
0
= b).
Prin induct ie matematica vom arata x
n
> si f(x
n
) > 0. Intr-adevar,
pentru nceput x
0
> si f(x
0
) > 0. Fie x
n
> . Lund = x
n
+ ( x
n
) si
folosind formula Taylor obt inem
0 = f() = f(x
n
) +f
t
(x
n
)( x
n
) +
1
2
f
tt
(x
n
)( x
n
)
2
(5.16)
unde < c
n
< x
n
. Deoarece f
tt
(x) > 0, avem
f(x
n
) +f
t
(x
n
)( x
n
) < 0
si deci
x
n+1
= x
n
f(x
n
)/f
t
(x
n
) >
ceea ce era de demonstrat. Lund n considerare semnele pentru f(x
n
) si
f
t
(x
n
) obt inem x
n+1
< x
n
n = 0, 1, . . ., adica sirul x
0
, x
1
, . . . este un sir
monoton marginit. Fie = lim
n
. Trecnd la limita n (5.14) obt inem
=
f()
f
t
()
de unde f() = 0 si cum f are o singura solut ie n (a, b) obt inem = . 2
Folosind aceasta teorema, cnd aplicam metoda Newton, vom folosi urmatoarea
regula.
Pentru punctul initial x
0
alegem acel capat al intervalului (a, b) pentru
care f si f
tt
au acelasi semn.
184 Capitolul 2. Ecuatii s i sisteme neliniare
La fel se poate arata ca daca: (1) funct ia f este denita si continua pe R;
(2) f(a) f(b) < 0; (3) f
t
(x) ,= 0 pentru a x b; (4) f
tt
(x) exista peste
tot si are semn constant, atunci orice valoare c [a, b] poate luata ca
aproximat ie init iala x
0
.
Pentru estimarea erorii aproximat iei x
n
, putem folosi formula (5.4), adica
[ x
n
[
f(x
n
)
m
1
(5.17)
unde m
1
este cea mai mica valoare pentru [f
t
(x)[ pe intervalul [a, b].
Sa obt inem o alta evaluare a acuratet ei aproximat iei x
n
. Aplicnd formula
Taylor avem,
f(x
n
) = f(x
n1
) +f
t
(x
n1
)(x
n
x
n1
+
1
2
f
tt
(
n1
)(x
n
x
n1
)
2
(5.18)
unde
n1
(x
n1
, x
n
). Cum f(x
n1
) + f
t
(x
n1
)(x
n
x
n1
) = 0 rezulta
din (5.18), ca
[f(x
n
)[
1
2
M
2
(x
n
x
n1
)
2
unde M
2
este cea mai mare valoare pentru [f
tt
(x)[ pe intervalul [a, b]. Prin
urmare, utiliznd (5.17) obt inem
[ x
n
[
M
2
2m
1
(x
n
x
n1
)
2
(5.19)
Daca metoda Newton converge, atunci x
n
x
n1
0 cnd n si deci
pentru n N avem
[ x
n
[ [x
n
x
n1
[
ceea ce nseamna ca se stabilizeazaprimele zecimale ale aproximat iei x
n1
si x
n
.
Sa remarcam ca n general o coincident a pna la , a doua aproximat ii
succesive x
n1
si x
n
nu garanteaza ca x
n
si coincid cu aceiasi acuratet e
( vezi Figura 5.4 ).
Sa obt inem o formula ce leaga valorile erorilor absolute a doua aproximat ii
succesive x
n
si x
n+1
. Din
0 = f() = f(x
n
) +f
t
(x
n
)( x
n
) +
1
2
f
tt
(x
n
)( x
n
)
2
,
5. Ecuatii neliniare 185
-
6
x
n
x
n1
Figura 5.4:
obt inem
= x
n

f(x
n
)
f
t
(x
n
)

1
2
f
tt
(c
n
)
f
t
(x
n
)
( x
n
)
2
unde c
n
este ntre x
n
si , si folosind (5.14) obt inem
x
n+1
=
1
2

f
tt
(c
n
)
f
t
(x
n
)
( x
n
)
2
si prin urmare
[ x
n+1
[
M
2
2m
1
( x
n
)
2
. (5.20)
Formula (5.20) asigura rapida convergent a a metodei Newton daca aproximat ia
init iala x
0
este astfel ca
M
2
2m
1
[ x
0
[ q < 1.
In particular, daca =
M
2
2m
1
1 si [ x
n
[ 10
m
atunci din (5.20)
obt inem [ x
n+1
[ 10
2m
.
186 Capitolul 2. Ecuatii s i sisteme neliniare
Metoda Newton modicata
Daca derivata f
t
(x) variaza put in n intervalul [a, b] atunci n formula 5.15
putem lua f
t
(x
n
) f
t
(x
0
). Vom obt ine astfel pentru radacina a ecuat iei
f(x) = 0 sirul de aproximat ii
x
n+1
= x
n

f(x
n
)
f
t
(x
0
)
. (5.21)

In aceasta metoda, geometric vorbind, se nlocuiesc tangentele n punctele


[x
n
, f(x
n
)] prin dreptele paralele cu tangenta la curba y = f(x) ntr-un
punct xat [x
0
, f(x
0
)]. Aceasta metoda este folositoare cnd calculul derivatei
f
t
(x
n
) este complicat.
-
6

x
3
x
2
x
1
x
0
A
0
A
1
A
2
A
3
Figura 5.5:
Metode combinate
Presupunem ca f(a) f(b) < 0 iar f
t
(x) si f
tt
(x) pastreaza semn con-
stant pe intervalul [a, b]. Combinnd metoda secantei cu metoda Newton,
obt inem o metoda n care la ecare pas gasim un minorant si un majorant al
aproximat iilor solut iei exacte a ecuat iei f(x) = 0. O consecint a a acestui
fapt este ca cifrele comune din x
n
si x
n
vor apart ine solut iei exacte . Exista
patru situat ii teoretic posibile:
1)f
t
(x) > 0, f
tt
(x) > 0 2) f
t
(x) > 0, f
tt
(x) < 0
5. Ecuatii neliniare 187
-
6
A
B
x
0
= a x
1
x
2
x
2
x
1
x
0
= b
Figura 5.6:
3) f
t
(x) < 0, f
tt
(x) > 0 4) f
t
(x) < 0, f
tt
(x) < 0
Vom restrnge analiza noastra la primul caz. Cazurile ramase se analizeaza
la fel. Trebuie, totusi, sa notam ca aceste cazuri pot reduse la primul
caz daca nlocuim ecuat ia f(x) = 0 cu ecuat iile echivalente f(x) = 0 sau
f(z) = 0, unde z = x.
Deci presupunem f
t
(x) > 0 si f
tt
(x) > 0 pentru a x b. Luam x
0
= a si
x
0
= b, si consideram
x
n+1
= x
n

f(x
n
)
f( x
n
) f(x
n
)
( x
n
x
n
) (5.22)
x
n+1
= x
n

f( x
n
)
f
t
( x
n
)
(5.23)
(La ecare pas metoda coardei este aplicata n intervalul [x
n
, x
n
]. Din cele
ce au fost demonstrate anterior rezulta ca
x
n
< < x
n
si 0 < x
n
< x
n
x
n
.
Daca eroarea absoluta a radacinii aproximative x
n
este specicata anticipat
si este egala cu , atunci procesul de aproximare se termina cnd x
n
x
n
< .
La terminarea procesului de aproximare, cea mai buna aproximare pentru
radacina va sa luam valoarea

=
1
2
(x
n
+ x
n
).
188 Capitolul 2. Ecuatii s i sisteme neliniare
Ca un exemplu, sa calculam radacina pozitiva a ecuat iei
f(x) x
5
x 0.2 = 0
cu o eroare absoluta de 0.0005.
Deoarece f(1) < 0 si f(1.1) > 0, radacina se aa n intervalul (1, 1.1). Avem
f
t
(x) = 5x
4
1 si f
tt
(x) = 20x
3
. In intervalul ales, f
t
(x) > 0, f
tt
(x) > 0 care
nseamna ca semnul derivatelor se conserva. Sa aplicam metoda combinata
lund x
0
= 1 si x
0
= 1.1. Deoarece
f(1) = 0.2, f(1.1) = 0.3105, f
t
(1.1) = 6.3205
obt inem
x
1
1.039, x
1
1.051.
Cum x
1
x
1
= 0.012 nu s-a atins acuratet ea ceruta. Obt inemn continuare
x
2
1.04469 x
2
1.04487.
Aici, x
2
x
2
= 0.00018, care arata ca acuratetea ceruta este atinsa. Putem
lua

=
1
2
(1.04469 + 1.04487) = 1.04478 1.045
cu eroarea absoluta mai mica ca
1
2
0.00018 + 0.00022 0.00031 <
1
2
10
3
.
6. Sisteme neliniare 189
6 Sisteme neliniare
Universul matematic al sistemelor neliniare este mult mai complex dect cel
al sistemelor liniare. Daca pentru sistemele liniare avem rezultate clare de
existent a si unicitate a solut iilor, pentru sistemele neliniare asemenea rezul-
tate snt greu de obt inut. In cele ce urmeaza se urmaresc trei aspecte. Primul
aspect priveste existent a solut iilor, al doilea aspect priveste aproximarea
solut iilor, iar al treilea aspect priveste metodele explicite pentru aproximarea
solut iilor.
6.1 Teoreme de existent a a solut iilor
In studiul sistemelor neliniare de forma
f(x) = 0 (6.1)
unde f : D R
m
R
m
se ncearca nlocuirea sistemului (6.1) printr-un
sistem de forma
x = g(x) (6.2)
unde g : D R
m
R
m
astfel ca orice solut ie a sistemului (6.1) sa e solut ie
a sistemului (6.2). Evident, exista multe moduri n care se poate asocia unui
sistem (6.1) un sistem (6.2), dar problema centrala (principala ) este sa
alegem acel sistem pentru care solut iile sa poata usor determinate. Un
rezultat central privind existent a solut iilor (6.2), adica existent a punctului
x pentru aplicat ia g este dat de teorema urmatoare.
Teorema 6.1 (Brouwer) Daca K este o mult ime convexa, compacta nevida
a unui spat iu nit dimensional iar F : K K este o aplicat ie continua,
atunci aplicat ia F are cel put in un punct x, adica exista cel put in un ele-
ment x K astfel ca F(x) = x.
Aceasta teorema a primit numeroase demonstrat ii (vezi de exemplu [25],
[54], [61]).
Ca un corolar al teoremei lui Brouwer avem urmatorul rezultat, des utilizat
n demonstrarea existent ei solut iilor sistemelor de forma (6.1).
Teorema 6.2 Daca : R
m
R
m
este o aplicat ie continu a si exista > 0
astfel nct
((y), y) 0, y S

= z R
m
; |z| = (6.3)
atunci ecuat ia (x) = 0 are cel put in o solut ie n B

= z R
m
; |z| .
190 Capitolul 2. Ecuatii s i sisteme neliniare
Demonstrat ie. Presupunem, prin absurd ca (x) ,= 0 pentru orice x B

.
Aplicat ia : B

R
m
denita prin
(x) =
(x)
|(x)|
(6.4)
este continua (deoarece este continua si (x) ,= 0 pentru x B

) si
: B

(deoarece |(x)| = ). Cum B

este o mult ime convexa


convexa, compacta, nevida din R
m
iar : B

este continua, din


teorema Brouwer, exista x B

astfel ca (x) = x. Din (x) = x si


|(x)| = rezulta x S

si |(x)|x = (x). Din ultima egalitate


obt inem |(x)|(x, x) = ((x), x) de unde ((x), x) = |(x)| < 0,
ceea ce este n contradict ie cu (6.3). Contradict ia provine din faptul ca am
presupus ca (x) ,= 0 pentru orice x B

, deci exista x B

astfel ca
(x) = 0. 2
Utiliznd Teorema 6.2, vom da cteva teoreme de existent a a solut iilor
sistemelor neliniare.
Denit ia 6.1 O aplicat ie f : R
m
R
m
se zice coerciva daca
lim
|x|
(f(x), x)
|x|
= + (6.5)
Teorema 6.3 Daca f : R
m
R
m
este o aplicat ie continua si coerciva
atunci pentru orice y R
m
ecuat ia
f(x) = y (6.6)
are cel put in o solut ie n R
m
.
Demonstrat ie. Aplicat ia f ind coerciva exista un r > 0, sucient de mare,
astfel ca
(f(x) y, x) > 0 x S
r
= z R
m
, |z| = r.
Consideram funct ia : R
m
R
m
denita prin (x) = f(x) y pentru
orice x R
m
. Cum este continua si ((x), x) > 0 x S
r
, folosind
Teorema 6.2 rezulta ca ecuat ia (x) = 0 are cel put in o solut ie n bila B
r
=
z R
m
; |z| r, deci exista x B
r
R
m
astfel ca f(x) y = 0. 2
Denit ia 6.2 O aplicat ie f : R
m
R
m
se zice uniform monotona n R
m
daca exista c > 0 astfel nct
(f(x) f(y), x y) c|x y|
2
, x, y R
m
(6.7)
6. Sisteme neliniare 191
Teorema 6.4 Daca f : R
m
R
m
este o aplicat ie continua si uniform
monotona pe R
m
, atunci pentru orice b R
m
ecuat ia
f(x) = b (6.8)
are solut ie si solut ia este unica.
Demonstrat ie. Daca x si y ar solut ii ale ecuat iei (6.8) atunci f(x) = f(y)
si utiliznd (6.7) obt inem 0 c|x y|
2
, de unde rezulta x = y, adica
unicitatea solut iei. Pentru a demonstra existent a solut iei ecuat iei (6.8)
vom arata ca f este coerciva. Cum pentru orice x R
m
avem
c|x|
2
(f(x) f(0), x) = (f(x), x) (f(0), x) (f(x), x) +|f(0)| |x|
de unde
(f(x), x)
|x|
c|x| |f(0)| x ,= 0,
deci lim
|x|
(f(x), x)/|x| = . Cum f este continua si coerciva, utiliznd
Teorema 6.3, obt inem ca pentru orice b R
m
ecuat ia (6.8) are solut ie.
Un alt rezultat de existent a este dat n teorema urmatoare.
Teorema 6.5 Daca : R
m
R
m
este o aplicat ie continua si exista c < 1
astfel ca
((x) (y), x y) c|x y|
2
, x, y R
m
(6.9)
atunci pentru orice b R
m
si orice [0, 1] ecuat ia
y = (y) +b (6.10)
are solut ie si solut ia este unica.
Demonstrat ie. Aplicat ia f : R
m
R
m
denita prin
f(x) = x (x) x R
m
(6.11)
verica
(f(x) f(y), x y) (1 c)|x y|
2
x, y R
m
.
Cum f este continua si 1 c > 0 utiliznd Teorema 6.4 obt inem ca pentru
orice b R
m
ecuat ia f(x) = b are solut ie si solut ia este unica, deci ecuat ia
x (x) = b are solut ie si solut ia este unica. 2
192 Capitolul 2. Ecuatii s i sisteme neliniare
6.2 Metode de contract ie
In studiul sistemelor de forma (6.2) se utilizeaza principiul contract iei. In
cele ce urmeaza vom utiliza o forma pe componente a acestui principiu.
Daca v = (v
1
, . . . , v
m
) R
m
, vom nota prin [v[ vectorul ([v
1
[, , [v
m
[), iar
daca A = (a
ij
) este o matrice care are elementele numere reale, vom nota cu
[A[ matricea care are elementele [a
ij
[. Este usor de vazut ca
[v +w[ [v[ +[w[
[A+B[ [A[ +[B[
[Av[ [A[ [v[
[AB[ [A[ [B[
In plus, [v[ = 0 daca si numai daca v = 0, iar [A[ = 0 daca si numai daca
A = 0.
Teorema 6.6 Daca g : R
m
R
m
verica
[g(x
t
) g(x
tt
)[ K
0
[x
t
x
tt
[, x
t
, x
tt
R
m
(6.12)
unde K
0
M
m
(R) verica
K
0
0 si (K
0
) < 1 (6.13)
atunci pentru orice x
(0)
R
m
sirul x
(n)

nN
denit recurent prin
x
(n+1)
= g(x
(n)
), n 0 (6.14)
este convergent si limita sa x este unica solut ie a ecuat iei g(x) = x. In plus
pentru orice n = 1, 2,
[x
(n)
x[ K
0
(IK
0
)
1
[x
(n)
x
(n1)
[ K
n
0
(IK
0
)
1
[x
(1)
x
(0)
[ (6.15)
Demonstrat ie. Deoarece K
0
0 si (K
0
) < 1, matricea I K
0
este
inversabila, nenegativa si pentru j 1
I +K
0
+ +K
j1
0
= (I K
0
)
1
(I K
j
0
) (I K
0
)
1
. (6.16)
Cum [x
(2)
x
(1)
[ = [g(x
(1)
) g(x
(0)
)[ K
0
[x
(1)
x
(0)
[ avem succesiv
inegalitat ile:
[x
(k+1)
x
(k)
[ K
0
[x
(k)
x
(k1)
[ K
k
0
[x
(1)
x
(0)
[, k 0 (6.17)
6. Sisteme neliniare 193
Din (6.16) si (6.17), pentru orice ntreg pozitiv j si orice n natural, avem
succesiv
[x
(n+j)
x
(n)
[ (K
n+j1
0
+ +K
n
0
) [x
(1)
x
(0)
[
K
n
0
(I +K
0
+ +K
j1
0
) [x
(1)
x
(0)
[ =
= K
n
0
(I K
0
)
1
(I K
j
0
)[x
(1)
x
0
[.
(6.18)
Pentru j xat, deoarece (K
0
) < 1, avem lim
n
K
n
0
= 0 si din (6.18) obt inem
[x
(n+j)
x
(n)
[ 0, adica x
(n)

nN
este un sir Cauchy, deci are limita.
Daca notam cu x limita sirului x
(n)

nN
, datorita continuitat ii aplicat iei
g, x verica ecuat ia x = g(x). Daca x ar alta solut ie atunci am avea
[ x x[ = [g( x) g(

x)[ K
0
[ x x[ de unde (I K
0
) [ x x[ 0. Cum
(I K
0
)
1
0 obt inem [ x x[ 0, deci x = x. Din (6.17) deducem, la fel
ca pentru (6.18)
[x
(n+j)
x
(n)
[ K
0
(I K
0
)
1
(I K
j
0
) [x
(n)
x
(n1)[
[ (6.19)
Pastrnd pe n xat si trecnd la limita cu j obt inem
[ x x
(n)
[ K
0
(I K
0
)
1
[x
(n)
x
(n1)
[
si apoi utiliznd (6.17) obt inem si a doua inegalitate n (6.15). 2
Daca funct ia g este denita pe o submult ime din R
m
avem urmatorul rezul-
tat demonstrat de Urabe [95]
Teorema 6.7 Fie g : D R
m
R
m
ce verica
[g(x
t
) g(x
tt
)[ K
0
[x
t
x
tt
[, x
t
, x
tt
D, (6.20)
unde matricea patrata K
0
satisface (6.13). Daca exista x
(0)
D astfel ca
S =
_
h R
m
; [h x
(1)
[ K
0
(I K
0
)
1
[x
(1)
x
(0)
[
_
D (6.21)
unde x
(1)
= g(x
(0)
), atunci sirul x
(n)

nN
poate obt inut n S prin
x
(n)
= g(x
(n1)
), n = 1, 2, . . . (6.22)
si, cnd n , converge la x, care este unica solut ie n D a ecuat iei
x = g(x).
194 Capitolul 2. Ecuatii s i sisteme neliniare
Demonstrat ie. Vom demonstra prin induct ie ca sirul x
(n)

nN
poate
obt inut n S prin procesul iterativ (6.22). Cum x
(1)
S prin (6.21) sa
presupunem ca x
(1)
, , x
(n1)
au fost obt inut i n S. Atunci x
(n)
este obt inut
prin x
(n)
= g(x
n1
), deoarece x
(n1)
S D. Este sucient sa demonstram
ca x
(n)
S. Din (6.20) avem
[x
(2)
x
(1)
[ = [g(x
(1)
) g(x
(0)
)[ K
0
[x
(1)
x
(0)
[
si ntr-un mod similar avem succesiv:
[x
(3)
x
(2)
[ K
0
[x
(2)
x
(1)
[ K
2
0
[x
(1)
x
(0)
[
[x
(n)
x
(n1)
[ K
0
[x
(n1)
x
(n2)
[ K
n1
0
[x
(1)
x
(0)
[.
Din aceste inegalitat i avem
[x
(n)
x
(1)
[ [x
(n)
x
(n1)
[ +[x
n1
x
(n2)
[ + +[x
(2)
x
(1)
[
(K
n1
0
+K
n2
0
+ +K
0
)
[x
(1)
x
(0)
[
K
0
(I K
0
)
1
[x
(1)
x
(0)
[
si din denit ia lui S, aceasta nseamna ca x
(n)
S. Utiliznd rat ionamentul
din demonstrarea Teoremei 6.6, obt inem ca sirul x
(n)

nN
este convergent
si limita sa x este evident n S. Deci ecuat ia x = g(x) are o solut ie n D si
aceasta solut ie este unica.
Starea de convergent a numerica
Cnd un proces iterativ de tipul (6.14) se efectueaza practic, utiliznd un
calculator, n locul sirului x
(n)
se obt inem un sir x
(n)
denit succesiv
prin
x
(n)
= g( x
(n1)
), n = 1, 2, (6.23)
unde x
(0)
= x
(0)
iar g(x) nseamna valoarea lui g(x) obt inuta practic. Da-
torita erorilor de calcul (rotunjire, trunchiere, aproximare ), g(x) va diferi
n general de g(x). Deci sirul numeric x
(n)
obt inut n urma calculelor va
diferi de sirul matematic x
(n)
denit de (6.14). Se poate ntmpla ca sirul
x
(n)
sa convearga fara ca sirul x
(n)
sa convearga. Mai mult, sirul x
(n)

6. Sisteme neliniare 195


poate sa aiba un numar innit de valori, si atunci este divergent, sau poarte
sa aiba un numar nit de valori si atunci dupa un anumit n
0
avem
x
(n+m)
= x
(n)
adica de la o anumita valoare n
0
sirul x
(n)
devine periodic.
Pentru orice x, ce apare n calcule, sa presupunem ca g(x) se evalueaza cu
g(x) cu eroarea relativa , adica
[ g(x) g(x)[ [g(x)[ (6.24)
unde este o matrice diagonala, cu elementele de pe diagonala principala
pozitive (
i
> 0). Practic relat iile (6.24) nseamna
[ g
i
(x) g
i
(x)[
i
[g
i
(x)[ (6.25)
pentru toate componentele g
i
(x) si g
i
(x) ale lui g(x) si respectiv g(x).
Vom presupune n cele ce urmeaza ca
0 <
i
pentru orice i. (6.26)
Natural, putem presupune ca
0 < < 1 (6.27)
pentru orice x ce apare n calcule. Este evident atunci ca
0 I (6.28)
Pentru sirul numeric obt inut practic n urma calculelor avem urmatorul
rezultat.
Teorema 6.8 Fie g : D R
m
R
m
o funct ie avnd proprietat ile din
Teorema 6.7. Presupunem ca este sucient de mic astfel ca
((1 )K
0
) < 1. (6.29)
Daca exista x
(0)
D astfel ca
= h; [h x
(1)
[
1
+
2
D (6.30)
196 Capitolul 2. Ecuatii s i sisteme neliniare
unde
x
(1)
= g(x
(0)
) (6.31)

1
= K
0
(I K
0
)
1
[ x
(1)
x
(0)
[ + (I K
0
)
1
(I )
1
[ x
(1)
[ (6.32)

2
= (I L
0
)
1
(
1
+[ x
(1)
[) (6.33)
si
L
0
= (I +)K
0
(6.34)
atunci ecuat ia x = g(x) are o solut ie unica x n D si un sir numeric x
(n)
,
n = 1, 2, . . . poate obt inut n prin procesul numeric iterativ (6.23). Sirul
x
(n)
, n = 1, 2, . . . obt inut, oscileaza lund un numar nit de valori dupa
un anumit n
0
si pentru x
(n)
n asemenea stare de oscilat ie se obt ine
[ x
(n)
x[ (I L
0
)
1
[ x[. (6.35)
Demonstrarea acestui rezultat se poate gasi n [80], [97].
Evaluarea erorii din (6.35) poate mbunatat ita daca nlocuim condit ia
(6.20) printr-o condit ie de forma
[g(x
t
) g(x
tt
)[ K(x
t
, x
tt
) [x
t
x
tt
[ x
t
, x
tt
D
unde
0 K(x
t
, x
tt
) K
0
, (K
0
) < 1.
Pentru un studiu aprofundat asupra acestei chestiuni cititorul poate consulta
[80], [97] .
Oprirea procesului iterativ
In practica, cnd calculele snt efectuate cu un calculator, nu este convenabil
sa oprim un proces iterativ folosind starea de convergent a numerica, deoarece
n acest caz ar trebui memorat i tot i termenii calculat i anterior ceea ce ar cere
multa memorie. Din acest motiv in practica se folosesc criterii mai simple.
Deseoari se folosesc criterii de forma
| x
(n+1)
x
(n)
| < (6.36)
unde este un numar pozitiv dat, sau un criteriu de forma
[ x
(n+1)
x
(n)
[ [ x
(n)
[ (6.37)
6. Sisteme neliniare 197
unde este o matrice pozitiva data.
In cele ce urmeaza vom analiza ce condit ii trebuie sa ndeplineasca pentru
ca criteriile de mai sus sa funct ioneze si vom evalua eroarea pe care o facem
oprind procesul cu un criteriu de forma (6.37).
Teorema 6.9 Presupunem ca ipotezele Teoremei 6.8 snt toate satisfacute
si ca n plus este sucient de mic ca
((I L
0
)
1
) < 1. (6.38)
Putem opri procesul iterativ (6.23) cu un criteriu de forma (6.37) daca ma-
tricea se alege astfel ca
2
0
(I
0
)
1
(6.39)
unde
0
= (I L
0
)
1
.
Demonstrat ie. Presupunem ca x
(n1)
este n stare de convergent a nu-
merica. Atunci x
(n)
este de asemenea n starea de convergent a numerica
si folosind (6.35) avem
[ x
(n)
x[, [ x
(n1)
x[
0
[ x[
de unde rezulta
[ x
(n)
x
n1
[ 2
0
[ x[. (6.40)
Cum [ x[ [ x x
(n1)
[+[ x
(n1)
[
0
[ x[+[ x
(n1)
[ avem (I
0
)[ x[ [ x
(n1)
[,
de unde
[ x[ (I
0
)
1
[ x
(n1)
[ (6.41)
Din (6.40) si (6.41) obt inem
[ x
(n)
x
(n1)
[ 2
0
(I
0
)
1
[ x
(n1)
[ (6.42)
Din (6.39) si (6.42) obt inem [ x
(n)
x
(n1)
[ [ x
(n1)
[ care arata ca inegali-
tatea (6.37) este adevarata pentru x
(n1)
n starea de convergent a numerica.
Deoarece starea de convergenta numerica este atinsa dupa un numar nit
de iterat ii, din Teorema 6.8, rezulta ca (6.37) este sigur ndeplinita dupa un
numar nit de iterat ii. 2
Urmatoarea teorema da o estimare a erorii pentru x
(n)
cnd procesul iterativ
este oprit cu un criteriu de forma (6.37).
198 Capitolul 2. Ecuatii s i sisteme neliniare
Teorema 6.10 Presupunem ca ipotezele Teoremei 6.8 snt toate satisfacute
si ca inegalitatea (6.37) este ndeplinita pentru un anumit x
(n)
din sirul
numeric x
(k)

kN
. Daca elementele matricei 0 snt astfel ca
(L
0
+) < 1 (6.43)
atunci pentru x
(n)
satisfacnd (6.37) are loc evaluarea
[ x
(n)
x[ L
0
[I (L
0
+)]
1
+ (I )[I (L
0
+)]
1
[ x[ (6.44)
Demonstrat ie. Se arata fara dicultate ca
[ x
(n1)
x[ (L
0
+)[ x
(n1)
x[ + ( +)[ x[. (6.45)
[ x
(n)
x[ L
0
[ x
(n1)
x[ +[ x[. (6.46)
Intr-adevar, din (6.37) avem succesiv.
[x
(n1)
x[ [ x
(n1)
x
(n)
[ +[ x
(n)
x[ =
= [ x
(n+1)
x
(n)
[ +[

f( x
(n1)
f( x)[
[ x
(n1)
[ +[

f( x
(n1)
f( x
(n1)
[ +[f( x
(n1)
) f( x)[
[ x
(n1)
[ +[f( x
(n1)
)[ +K
0
[ x
(x1)
x[
[ x
(n1)
x[ +[f( x
(n1)
) f( x)[ + ( +)[ x +K
0
[ x
(n1)
x[
( +)[ x[ + ( +K
0
+K
0
)[ x
(n1)
x[
De unde t innd seama ca L
0
= (I + )K
0
obt inem (6.45). Pentru a arata
(6.46) avem succesiv:
[ x
(n)
x[ = [

f( x
(n1)
) f( x)[
[

f( x
(n1)
) f( x
(n1)
[ +[f( x
(n1)
) f( x)[
[f( x
(n1)
[ +K
0
[ x
(n1)
x[
[f( x
(n1)
) f( x)[ +[ x[ +K
0
[ x
(n1)
x[
(K
0
+K
0
)[ x
(n1)
x +[ x[
de unde (6.45). Cum (L
0
+) < 1 din (6.44) obt inem
[ x
(n1)
x[ [I (L
0
+)]
1
( +) [ x[
si folosind aceasta relat ie n (6.46) avem
[ x
(n)
x[ L
0
[I (L
0
+)]
1
( +) + [ x[
6. Sisteme neliniare 199
sau
[ x
(n)
x[ L
0
[I (L
0
+)
1
+ (I )[I (L
0
+)]
1
[ x[
si cu aceasta teorema este demonstrata. 2
Observat ie . Daca elementele matricii snt toate sucient de mici astfel
ca produsele elementelor lui L
0
cu sa e neglijabile n comparat ie cu ele-
mentele diagonale ale lui , atunci din (6.44), se constata usor ca urmatoarea
inegalitate are loc aproximativ
[ x
(n)
x[ (I L
0
)
1
[ x[ (6.47)
deoarece n acest caz L
0
[I (L
0
+)]
1
0 si
I (L
0
+) = (I L
0
)[I (I L
0
)
1
] (I L
0
)(I ).
Inegalitatea (6.47) este asemenea cu inegalitatea (6.35), ceea ce nseamna ca
x
(n)
are aceiasi precizie ca x
(n)
n stare de convergent a numerica.
Lund n considerare Teorema 6.9 se desprinde urmatoarea concluzie pentru
alegerea matricei 0.
Este recomandat sa se aleaga astfel ca elementele lui sa e mai mari n
comparat ie cu elementele diagonale ale lui dar produsul elementelor lui
si a celor din L
0
sa e mai mici n comparat ie cu elementele diagonale ale
matricei . Daca matricea poate aleasa n acest fel atunci prin oprirea
procesului iterativ folosiind criteriul (6.37) se obt ine o solut ie aproximativa
avnd aceiasi precizie ca x
(n)
n starea de convergent a numerica.
Evident, asemenea alegere a matricei este totdeauna posibila cnd ele-
mentele lui K
0
snt toate sucient de mici.
6.3 Metode de tip Newton
Un sistem de forma
f(x) = 0 (6.48)
unde f(x) = [f
1
(x), , f
m
(x)]
T
este un vector cu m componente, se poate
scrie ntr-o varietate de moduri sub forma
x = g(x). (6.49)
200 Capitolul 2. Ecuatii s i sisteme neliniare
Vom examina n cele ce urmeaza alegerea
g(x) = x H(x)f(x) (6.50)
unde H(x) este o matrice de ordinul m avnd componentele h
ij
(x). Ecuat iile
(6.48) si (6.49) vor avea aceleasi solut ii daca H(x) este nesingulara (deoarece
n acest caz H(x)f(x) = 0 implica f(x) = 0).
Consideram matricea
J(x) =
_
f
i
(x)
x
j
_
(6.51)
a carui determinant este jacobianul funct iilor f
1
, . . . , f
m
.
Alegnd n 6.50 matricea H(x) de forma
H(x) J
1
(x), (6.52)
cu presuunerea evidenta ca det(J(x) ,= 0 pentru xntr-o vecinatate a solut iilor
a ecuat iei (6.48), se obt ine metoda Newton.
Cea mai simpla alegere pentru H(x) este
H(x) = H (6.53)
unde H este o matrice constanta nesingulara. Metoda astfel obt inuta este
metoda Newton modicat a.
Metodele iterative obt inute prin alegerea lui g de forma (6.50) le vom numi
metode generalizate de tip Newton.
Sa analizam, pentru nceput, metodele iterativem obt inute cu alegerea lui g
de forma (6.50) cu matricea H(x) de forma (6.52) respectiv (6.53).
Presupunem ca f este denita pe o mult ime deschisa G R
m
si ca
derivatele de primul ordin snt continue si marginite pe G. Spunem ca G
este o solut ie nesingulara a ecuat iei (6.48) daca f() = 0 si J() este un
izomorsm a lui R
m
, ceea ce revine la faptul ca det(J() ,= 0.
Teorema 6.11 Presupunem ca aplicat ia x J(x) este lipschitziana n bila
B(, ) G, adica exista o constanta K > 0 astfel ca
|J(x
t
) J(x
tt
)| K|x
t
x
tt
|, x
t
, x
tt
B(, ),
unde este o solut ie nesingulara a ecuat iei (6.48). Atunci
6. Sisteme neliniare 201
i) Exista un numar
1
, vericnd 0 <
1
astfel ca pentru toate
aproximarile init iale x
(0)
B(,
1
, sirul x
(n)
construit prin
x
(n+1)
= x
(n)
J
1
(x
(n)
) f(x
(n)
) (6.54)
este din B(,
1
), converge la patratic, adica exista C > 0 astfel ca
|x
(n+1)
| C|x
(n)
|
2
(6.55)
ii) Exista un numar
2
, vericnd 0 <
2
astfel nct pentru toate
aproximat iile init iale x
(0)
B(,
2
), sirul x
(n)
construit prin
x
(n+1)
= x
(n)
J
1
(x
(0)
) f(x
(n)
) (6.56)
este din B(,
2
), converge la liniar, adica exista C > 0 astfel ca
|x
(n+1
| C|x
(n)
|. (6.57)
Demonstrat ie. Incepem prin a arata ca exista 0 <
1
astfel nct
|J
1
(x)| 2M, x B(,
1
) (6.58)
unde M = |J
1
()|. Evident,
J(x) = J()[I +J
1
()(J(x) J(x))].
Cum
|J
1
()(J(x) J())| M|J(x) J()| MK|x | x B(, ),
lund
1
= min,
1
2MK
obt inem
|J
1
()(J(x) J()|
1
2
< 1, x B(,
1
)
Operatorul I +J
1
()(J(x) J()) este inversabil si
|[I +J
(1)
()(J(x) J()]
1
| 2 x B(,
1
)
unde am utilizat Teorema 1.5. Din cele de mai sus avem
|J
1
(x)| |J
1
()| |[I +J
1
()(J(x) J())]
1
| 2M x B(,
1
).
202 Capitolul 2. Ecuatii s i sisteme neliniare
Fie x
(0)
B(,
1
). Aratam prin induct ie dupa n ca x
(n)
B(,
1
), pen-
tru orice n 0. Presupunem ca x
(n)
B(,
1
). Cum x
(n+1)
= x
(n)
+
J
1
(x
(n)
)(f(x)
(n)
) avem x
(n+1)
= x
(n)
+J
1
(x
(n)
)(f() f(x
(n)
),
sau nca
x
(n+1)
= J
1
(x
(n)
)[f() f(x
(n)
) J(x
(n)
)( x
(n)
] =
= J
1
(x
(n)
)[
_
1
0
J(x
(n)
+t( x
(n)
)dt J(x
(n)
] ( x
(n)
)
de unde
|x
(n+1)
| MK|x
(n)
|
2
.
Cum x
(n)
B(,
1
) si MK
1

1
2
obt inem |x
(n+1)
|
1
2
|x
(n)
|.
Prin urmare x
(n+1)
B(,
1
) iar sirul x
(n)
converge catre . In plus avem
(6.55) cu C = MK.
2). Fie x
(0)
B(,
1
). Pentru sirul x
(n)
construit prin (6.56) avem
x
(n+1)
= x
(n)
+J
1
(x
(n)
)(f() f(x
(n)
) =
= J
1
(x
(0)
)[f() f(x
(n)
) +J(x
(0)
)(x
n
)] =
= J
1
(x
(0)
[
_
1
0
J(x
(n)
+t( x
(n)
))( x
(n)
dt +J(x
(0)
)(x
(n)
)]
Cum |x
(0)
x
(n)
t( x
(n)
| |x
(0)
| + (1 t)| x
(n)
| si lund x
(0)
,
x
(n)
B(,
2
) cu 0 <
2
< min
1
,
1
3MK
obt inem
|x
(n+1)
| 3MK
2
|x
(n)
| = C|x
(n)
n|
unde 0 < C < 1. Rezulta ca x
(n)
2
Condit ia Lipschitz locala este satisfacuta cnd f este de doua ori continuu
diferent iala. Avem urmatorul rezultat.
Teorema 6.12 Presupunem ca f este denita pe o mult ime deschisa G
R
m
si ca derivatele de primul si al doilea ordin snt continue si marginite
pe G. Fie o solut ie nesingulara.
i) Pentru orice 0 < q < 1 exista
1
> 0 astfel ca B(,
1
) G si pentru
orice x
(0)
B(,
1
) sirul x
(n)
denit prin (6.54) converge catre ,
eroarea ind evaluata prin
|x
(n)
|
1

|f(x
(n)
|
M
2
|x
(n)
x
(n1)
| (apriori)
6. Sisteme neliniare 203
si prin
|x
(n)
|
1

|f(x
(n)
|
M
2
|x
(n)
x
(n1)
|
2
(aposteori),
unde M si snt doua constante.
ii) Pentru orice 0 < q < 1 exista
2
> 0 astfel ca B(,
2
) G si pentru
orice x
(0)
B(,
2
) sirul x
(n)
denit prin (6.56) converge catre si
snt satisfacute inegalitat ile
|x
(n)
| q
n
|x
(0)
|, n = 0, 1,
si
|x
(n)
|
1

|f(x
(n)
|
1

|x
(n+1)
x
(n)
|, n = 0, 1,
In practica, nu se calculeaza matricile inverse din formulele (6.54) sau
(6.56), ci se rezolva sistemul liniar
Ay = f(x
(n)
)
unde A = J(x
(n)
) respectiv A = J(x
(0)
) si se obt ine x
(n+1)
din
y = x
(n+1)
x
(n)
.
Calculul matricei derivate J(x) se poate evita nlocuind derivatele part iale
prin diferent iale divizate. Se obt ine astfel o noua metoda Newton, numita
uneori si metoda Newton discretizata.
In general pentru metodele generalizate de tip Newton avem urmatorul
rezultat.
Teorema 6.13 Fie D o mult ime compacta convexa din R
m
. Presupunem
ca snt ndeplinite urmatoarele ipoteze:
H
1
) funct ia f este diferent iabila n raport cu x iar matricea Jacobi J(x) a
lui f satisface
[J(x
t
) J(x
tt
)[ M [x
t
x
tt
[, x
t
, x
tt
D (6.59)
unde M este un tensor de ordinul trei avnd componentele nenegative.
204 Capitolul 2. Ecuatii s i sisteme neliniare
H
2
) matricea H satisface condit ia Lipschitz
[H(x
t
) H(x
tt
)[ C [x
t
x
tt
[, x
t
, x
tt
D (6.60)
unde C este un tensor de ordinul trei cu componente nenegative.
H
3
) exista K
0
0 cu (K
0
) < 1 astfel ca
K(x
t
, x
tt
) K
0
x
t
, x
tt
D (6.61)
unde
K(x
t
, x
tt
) [I H(x
t
)J(x
t
)[ +[H(x
t
)[ M[x
t
x
tt
[ +C[f(x
tt
)[ (6.62)
H
4
) exista x
(0)
D astfel ca
S = x R
m
; [x x
(0)
[ K
0
(I K
0
)
1
[x
(1)
x
(0)
[ D
unde
x
(1)
= g(x
(0)
) = x
(0)
H(x
(0)
) f(x
(0)
).
Atunci sirul x
(n)
R
m
construit iterativ prin
x
(n+1)
= x
(n)
H(x
n
) f(x
(n)
), n 0 (6.63)
se poate obt ine n S si limita sa x este unica solut ie n D a ecuat iei
f(x) = 0
Relat ia (6.59) trebuie nteleasa n urmatorul fel:
[J
ij
(x
t
) J
ij
(x
tt
)[
m

k=1
M
ijk
[x
t
k
x
tt
k
[ (6.64)
unde J
ij
(x) snt elementele lui J(x), M
ijk
snt componentele tensorului de
ordinul trei M, iar x
t
k
si x
tt
k
snt componentele vectorului x
t
respectiv x
tt
.
Inegalitatea (6.60) trebuie nt eleasa n acelasi mod.
Demonstrat ie. Pentru orice x
t
, x
tt
din D, utiliznd ipoteza H
1
) avem
f(x
tt
) f(x
t
) =
_
1
0
J(x
t
+(x
tt
x
t
)) (x
tt
x
t
)d,
[J(x
t
+(x
tt
x
t
)) J(x
t
)[ M [x
t
x
tt
[ 0 1.
(6.65)
6. Sisteme neliniare 205
Daca punem
f(x
tt
) f(x
t
) = J(x
t
)(x
tt
x
t
) +(x
tt
, x
t
) (6.66)
atunci
[(x
tt
, x
t
)[ M [x
tt
x
t
[ [x
tt
x
t
[ x
t
, x
tt
D. (6.67)
Atunci pentru g denita prin (6.50), avem
g(x
t
) g(x
tt
) = x
t
x
tt
[H(x
t
)f(x
t
) H(x
tt
)f(x
tt
)] =
= x
t
x
tt
H(x
t
)[f(x
t
) f(x
tt
)] (H(x
t
) H(x
tt
)) f(x
tt
)
= x
t
x
tt
H(x
t
)J(x
t
)(x
t
x
tt
) +H(x
t
)(x
t
, x
tt
)
(H(x
t
) H(x
tt
)) f(x
tt
),
din care folosind (6.67) si (6.60) rezulta
[f(x
t
) g(x
tt
)[ K(x
t
, x
tt
) [x
t
x
tt
[ x
t
, x
tt
D. (6.68)
Folosind (6.68), H
3
) si H
4
), utiliznd Teorema 6.7 se obt ine ca metodele
generalizate de tip Newton snt convergente. 2
Pentru metoda Newton, deoarece H(x) = J
1
(x), este usor de vazut ca
ipoteza H
2
) rezulta din H
1
) daca det J(x) nu se anuleazaza n D, cu alte
cuvinte ipoteza H
2
) poate nlocuita cu ipoteza
det J(x) ,= 0 pentru orice x D (6.69)
Daca notam
(x) = I H(x)J(x), (6.70)
din ipoteza H
4
) avem 0 [(x)[ K
0
din care rezulta [
(n)
(x)[ K
n
0
.
Cum lim
n
K
n
0
= 0, rezulta lim
n

n
(x) = 0 adica ((x)) < 1, de unde
det(H(x)J(x)) ,= 0, care implica det H(x), det J(x) ,= 0 pentru orice x D.
Din aceasta este clar ca ecuat ia (6.48) este echivalenta cu ecuat ia (6.49).
Analiza erorilor n metodele de tip Newton
Pentru g(x) dat de (6.50), e g(x) valoarea lui g(x) obt inuta pe un calcula-
tor. Pentru g(x), sa presupunem ca (6.24) este adevarata n D cu matricea
diagonala 0 si elementele diagonale
i
ale lui snt asa de mici ca (6.29)
este satisfacuta. Fie x
0
D un punct pentru care (6.30) este vericata.
Atunci asa cum arata Teorema 6.8, obt inem un sir x
(n)
prin procedeul
x
(n+1)
= g( x
(n)
)
206 Capitolul 2. Ecuatii s i sisteme neliniare
sir care, n fapt, este obt inut din procedeul practic de tip Newton pe un
calculator.
Din Teorema 6.8 sirul x
(n)
oscileaza lund un numar nit de valori, dar
n acest caz, pentru un x
(n)
ntr-o stare de convergent a, evaluarea data de
Teorema 6.8 poate precizata.
Teorema 6.14 Fie x unica solut ie a ecuat iei (6.48) n D. Fie x
(n)
o solut ie
a ecuat iei ntr-o stare de convergent a obt inuta cu metoda Newton general-
izata. Atunci [ x
(n)
x[

[ x[ unde

este o matrice avnd proprietat ile:

0 si

= I (I +)[K +N

[ x[
1

unde [(x)[ K si [H(x) M N pentru x D.


Pentru o analiza a criteriilor de opriren metodele generalizate de tip Newton
se poate consulta Rosca [80] sau Urabe [97].
Bibliograe
[1] ARMINJON, Paul, Analyse numerique matricielle, Les Presses de
lUniversite de Montreal, 1978.
[2] ATKINSON, Kendall E., An Introduction to Numerical Analysis, John
Wiley & Sons, New York, Chichester, Brisbane, Toronto, Singapore,
1978.
[3] AUTONNE, L., Ann. Univ. Lyon II,38 (1915), 177.
[4] BATHE, Klaus-Jurgen & Edward L. WILSON, Numerical Methods in
Finite Element Analysis, Prentice-Hall, Inc. 1976.
[5] BELLMAN, Richard, Introduction to matrix analysis, Mc Graw Hill,
1966.
[6] BEREZIN, Ivan Semenoviq & Nikola Petrovik IDKOV,
Metody vyqisleni, Gostehizdat Moskva, 1959
[7] BERMAN, Abraham and Robert J. PLEMMONS, Non negative matri-
ces in mathematical sciences, Academic Press, 1979.
[8] BERNSTEIN, S.N. Demonstration du theoreme de Weierstrass fondee
sur le calcul de probabilites, Comman. Soc. Math. Kharkov 13 (1912),
12.
[9] de BOOR, Carl , A Practical Guide to Splines, Springer-Verlag, Berlin
1979.
[10] BURDEN, Richard L. and Douglas J. FAIRES, Numerical Analysis,
PWS - KENT Publishing Company, Boston, ???
207
208 BIBLIOGRAFIE
[11] QEBYXEV, P. L., Teor mehanizmov, izvestnyh pod nazvaniem
parallelogramov (1953),2351 n Polnoe sobranie soqneni,
Moskva - Leningrad, 1947.
[12] CIARLET, Philipe G., Introduction `a lanalyse numerique matricielle
et `a loptimisation, Masson, Paris 1982.
[13] CIARLET, Philipe G., B. MIRA, J-M. THOMAS, Exercieces danalyse
numerique matricielle et doptimisation avec solutions, Masson Paris,
Milan, Barcelone, Bonn 1991.
[14] COHEN, Alan M., Numerical Analysis, McGrawHill Book London,
1973.
[15] CONTE, S. & Carl de BOOR, Elementary Numerical Analysis 3
th
Edi-
tion, Mc GrawHill Book Company, New York, 1980.
[16] CROUZEIX, Michel et Alain L. MIGNOT, Analyse numerique des equa-
tions dierentielles, Masson, Paris 1989.
[17] CUCULESCU, Ion, Analiza numerica, Editura tehnica, Bucuresti 1967.
[18] DAVIS, Philip J. & Philip RABINOWITZ, Numerical Integration,
Blaisdell Publishing Company, 1967.
[19] DAUTRAY, Robert and Jacques-Louis LIONS, Analyse mathematique
et calcul numerique pour les sciences et les techniques, Masson, Paris
Milan Barcelone Mexico, 1988.
[20] ERLICH, Louis W., The block symmetric successive overrelaxation
method, J. SIAM, 12, 4 (1964), 807826.
[21] EUVRARD, Daniel, Resolution numerique des equations aux derivees
partielles, Masson, Paris, 1994.
[22] FORSYTHE, George E. & Cleve B. MOLER, Computer Solution of
Linear Algebraic Systems, Prentice-Hall, Englewood Clis, N.J. 1967.
[23] FRANCIS, J. G. F., The QR transformation, I, Computer J. 4 (1961),
265-271.
[24] FRANCIS, J. G. F., The QR transformation, II, Computer J. 4 (1962),
332 345.
BIBLIOGRAFIE 209
[25] FRANKLIN, Joel, Methods of Mathematical Economics, Springer
Verlag, 1980.
[26] FROBENIUS, G., Uber Matrizen aus nicht negativen Elementen, S.B.
Preuss. Akad. Wiss. Berlin (1912), 456477.
[27] GASTINEL, Noel, Linear Numerical Analysis, Hermann, Paris Aca-
demic Press, New York 1970.
[28] GENTLEMEN, W. Morven, Least squares computations by Givens
transformations without square roots, J. Inst. Maths & its applics, 12
(1973), 326336.
[29] GIVENS, W., Computation of plane unitary rotations transforming a
general matrix to triangular form, J. SIAM , 6, 1 (1958), 2650.
[30] GODLEWSKI, Edwige and Pierre-Arnaud RAVIART, Numerical
Appoximation of Hyperbolic Systems of Conservation Laws, Springer
Verlag, 1996.
[31] GOLOMB, Michael, Lectures on Theory of Approximation, Argonne
National Laboratory, Applied Math. Div., 1962
[32] GOLUB, Gene H. & Gerald A. MEURAT, Resolution numeriquea des
grandes systemes lineaires, Editions EYROLLES, Paris, 1983.
[33] GOLUB, Gene H. & W. KAHN, Calculating the singular values and
pseudo inverse of a matrix, J. SIAM Numer. Anal. Ser. B, 2, 12 (1965),
205224.
[34] GOLUB, Gene H. & Charles F. Van LOAN, Matrix Computations, The
John Hopkins University Press, Baltimore, Maryland, 1983
[35] GOLUB, Gene H. and F. T. LUK, Singular value decomposition: appli-
cations and computations, ARO Report 77-1 Transactions of the 22
nd
conference of Army mathematicians, (1977), 577 605.
[36] GOLUB, Gene H., F.T. LUK and M. L. OVERTON, A block Lanczos
method for computing the singular values and coresponding singular
vectors of a matrix. TOMS, 7. 2 (1981), 149169.
[37] GONQAROV, V. L., Teor interpolirovani i priblieni
funkci, Gostehizdat Moskva - Leningrad, 1954
210 BIBLIOGRAFIE
[38] GRIGORE, Gheorghe, Lect ii de analiza numerica, Universitatea
Bucuresti, 1990.
[39] HAGEMAN, Louis A. & David M. YOUNG, Applied Iterative Methods,
Academic Press 1981.
[40] HOUSEHOLDER, Alston S., Unitary triangularization of a symmetric
matrix, J. ACM, 5 (1958), 339342.
[41] HOUSEHOLDER, Alston S., The theory of matrices in numerical
analysis, Blaisdell Publishing Company, 1964
[42] ICHIM, Ion., si Gheorghe MARINESCU Metode de aproximarea
numerica, Editura Academiei Romane, 1986.
[43] ILIOI, Constantin, Probleme de optimizare si algoritmi de aproximare
a solut iilor, Editura Academiei Romane, 1980.
[44] IONESCU, Dumitru V., Cuadraturi numerice, Editura Tehnica
Bucuresti, 1957.
[45] IONESCU, Dumitru V., Diferent e divizate, Editura Academiei Romane,
1978.
[46] ISSACSON Eugene & Herbert Bishop KELLER, Analysis of Numerical
Methods, John Wiley & Sons, Inc. 1966.
[47] JOLY, Patrick, Resolution numerique des grandes systemes lineaires,
Cours de D.E.A. 1990-1991.
[48] JOLY, Partick, Bases informatiques de la methode des elements nis,
D.E.A. dAnalyse Numerique 1991-1992.
[49] JORDAN, Camille, J. Math. pure appl. II, 19 (1874), 3554.
[50] KARLIN, S. and W. J. STUDDENT, Tchebyche Systems: With
Applications in Analysis and Statistics, Interscience, New York, 1966.
[51] KREN, M. G., Lproblema v abstraktom linnom normirovan-
nom prostranstve, 171 - 199 n volumul N. I. Ahiezer i M.
G. Kren, O nekotoryh voprosah teorii momentov, DNTVU,
Harkov, 1938
BIBLIOGRAFIE 211
[52] KUBLANOVSKAIA, V. N., On some algorithms for the solution of
complete eigenvalue problem, Zh. vych. mat. 1 (1961), 555-570.
[53] KUHN, H. Arhiv der Mathematik, 15 (1964), 316317.
[54] KURATOWSKI, Kazimierz, Introducere n teoria mult imilor si n
topologie (traducere din limba polona), Editura tehnica, Bucuresti,
1969.
[55] LAURENT, PierreJean, Approximation et optimisation, Hermann,
Paris, 1972
[56] LEBESGUE, Henri, Sur lapproximation des functions, Bulletin des
Sciences mathematiqnes, 22 (1898), 278287.
[57] LERCH, M., Sur un point de la theorie des functions generatrice dAbel,
Acta Mathematica, 27 (1903), 339352.
[58] MARINESCU, Gheorghe, Analiza numerica, Editura Academiei
Romane, 1974.
[59] MARUSTER, Stefan, Metode numerice n rezolvarea ecuat iilor
neliniare, Editura Tehnica, Bucuresti, 1981.
[60] MICULA, Gheorghe, Funct ii spline si aplicat ii, Editura Tehnica,
Bucuresti, 1978.
[61] MILNOR, John, Analytic proofs of the hairy ball theorem and the
Brouwer xed point theorem, The American Mathematical Monthly, 85
(1978), 521 524.
[62] MITTAGLEFFER, G., Sur la representation analytique des fonctions
dune variable reelle, Randiconti circ. math. Palermo, 14 (1900), 217
224.
[63] M

UNTH , C. H.

Uber den Approximationssatz von Weierstrass. H.A.
Schwarz Festschrift, Math. Abh., Berlin (1914), 303312.
[64] NATANSON, Izidor Pavlovik Konstruktivna teor funk-
ci, Gostehizdat, Moskva Leningrad, 1949
[65] NICOLESCU, Miron, Sur la meilleure approximation dune fonction
donnee, Bul. Fac. st. Cernaut i, 12, (1938), 120 128.
212 BIBLIOGRAFIE
[66] NICOLESCU, Miron, Soloman MARCUS, Nicolae DINCULEANU,
Analiz a matematica, Editura Didactica si Pedagogica, Bucuresti, 1971.
[67] ORTEGA James M., & Robert J. PLEMMONS, Extention of the
Ostrowski-Reich theorem for SOR iterations, Linear algebra and its
applications, 28 (1979), 177191.
[68] P

AVALOIU, Ion, Interpolation dans des espaces lineaires normes et


applications, Mathematica, Cluj, 12(35) (1970), 149159.
[69] PERRON, O., Zur Theorie der Uber Matrizen, Math. Ann. 64 (1907),
248263.
[70] PICARD, Emile, Sur la repesentation approchee des functions, C. R.
Acad. Sci. Paris 112 (1891), 183186.
[71] PRENTER, Patricia M., Splines and Variational Methods, Wiley, New
York, 1975
[72] RALSTON, Anthony, A rst course in numerical analysis, Mc Graw
Hill, Inc., New York, 1965
[73] RAVIART, Pierre-Arnaud et J. M. THOMAS, Introduction a lanalyse
numeriques des equations aux derivees partielles, Masson, Paris 1983
[74] RIVLIN, T., An Introduction to the Approximation of Functions,
Blaisdell Publ. Waltham, M.A., 1969
[75] ROSCA, Ioan, Numerical and Non Numerical Computing Techniques,
Curs Internat ional UNESCO, Bucuresti 1978.
[76] ROSCA, Ioan., Analiza Numerica Matriceala, Bucuresti 1997.
[77] ROSCA, Ioan, Elemente de analiza neliniara, Bucuresti 1995.
[78] ROSCA Ioan, Clase de functii speciale, Bucuresti 1996.
[79] ROSCA, Ioan, Metode numerice pentru ecuat ii cu derivate part iale,
Bucuresti, 1999.
[80] ROSCA, Ioan, Studiul convergent ei numerice a unor metode iterative,
CCUB, 1974.
BIBLIOGRAFIE 213
[81] ROSCA, Ioan and Mircea SOFONEA, A contractive method in the
study of nonlinear operators in Hilbert spaces, Studii si cercetari mate-
matice, 46, 2(1994), 291 301.
[82] ROSCA, Ioan and Mircea SOFONEA, Error estimates of an iterative
methods for a quasistatic elastic-viscoplastic problem, Applications of
Mathematics, 39, 6(1994), 401414.
[83] RUNGE, C., Zur theorie der eindeutingen analytishen Funkionen, Acta
Math., 6, 229-245, 1885
[84] RUNGE, C.,

Uber die Darstellung wielk urlicher Funktionen, Acta Math.
7, 387-392 1885
[85] SCHUMAKER, Larry L., Spline Functions: Basic Theory, Krieger
Publishing Company Malabar, Florida, 1993.
[86] SINGER, Ivan,Cea mai buna aproximare n spat ii vectoriale normate
prin elemente din subspat ii vectoriale, Editura Academiei Romane,
Bucuresti, 1967.
[87] STANCU, D.D, Quadrature formules with multiple gaussian nodes,
Siam. Numer. Anal. (1965), 129143.
[88] STEWART, G. W., Introduction to matrix computations, Academic
Press, 1973
[89] STONE, M.H., The generalized Weierstrass approximation theorem,
Math. Magazine, 21 (1948), 167-184 & 237-254.
[90] STRANG, Gilbert, Linear algebra and its applications, Academic Press,
1976
[91] STROUD, A. H., A Fifth Degree Integration Formula for the
nsimplex. SIAM J. Numer. Anal., 6 (1969), 9098.
[92] STROUD, A. H., Aproximate calculation of multiple integrals, Prentice
Hall, Englewood Clis, 1971.
[93] STROUD, A. H. and D. SECREST, Approximate calculation of multiple
integrals, Prentice Hall, Englewwood Clis, N. J., 1972
214 BIBLIOGRAFIE
[94] TANNEHILL, John C., Dale A. ANDERSON and Richard H.
PLETCHER, Computational Fluid Mechanics and Heat Transfer,
Taylor & Francis, 1997.
[95] URABE, Minoru, Convergence of numerical iteration in solution of
equations, J. Sci. Hiroshima Univ. ser. A, 19 (1956), 479-489.
[96] URABE, Minoru, Error estimation in numerical solution of equations
by iterations process, J. Sci. Hiroshima Univ. ser. AI, 26(1962), 79-91.
[97] URABE, Minoru, Componentwise error analysis of iterative methods
practiced on a otingpoint system, Memoirs of the Faculty of Science,
Kyushu University ser. A, 27(1973), 23 64.
[98] VARGA, Richard S. Matrix iterative analysis, Pretince Hall, Englewood
Clis, N.J. 1962.
[99] VOLTERRA, Vito, Sue principio di Dirichlet, Rencliconti del circ. mat.
di Palermo, 11(1897), 8386.
[100] WEIERSTRASS, Karl,

Uber die analytiche Darstellbarkeit rogenan-
nter willk urlicher Funktionen einer reelen Veranderlichen. Sitz.-Ber.
Akad. d. Wiss. Berlin (1885), 633639 & 789805.
[101] WENDROFF, B., Theoretical numerical analysis, Academic Press,
New York, 1966.
[102] WILKINSON, James Hardy The Algebraic Eigenvalue Problem,
Clarendon Press, Oxford, 1972
[103] WILKINSON, J. H., Some recent advances in numerical linear alge-
bra in: The state of the art in numerical analysis, (editor D. Jacobs),
Academic Press, 1977
[104] YOUNG, David M., Iterative solution of Large Linear Systems,
Academic Press, New York, 1971.
[105] YOUNG, David M., On the accelerated SSOR method for solving large
linear systems, Advances in Math. 23 (1977), 215271.
[106] YOUNG, David M. and Robert Tod GREGORY A survey of Numer-
ical Mathematics, 2 vol., Addison-Wesley, Reading, Mass. 1975

S-ar putea să vă placă și