Sunteți pe pagina 1din 210

Ioan ROSCA

CALCUL NUMERIC
Sisteme de ecuatii finit dimensionale

PREFATA
In ultimul timp, au aparut nevoi enorme de modele matematice tot
mai sofisticate si simulari pe calculator tot mai vaste si complexe.
In acest mod, doua activitati nedespartite modelarea matematica
si simularea pe calculator au cstigat un rol major n toate ramurile
stiintei, tehnologiei si industriei.
Pentru ca aceste doua activitati sa fie statornicite pe un teren
ct mai solid, rigoarea matematica este indispensabila. Din acest
motiv doua stiinte nrudite analiza numeric
a si softul stiintific
par etape esentiale n validarea modelelor matematice si simul
arile
pe calculator ce snt bazate pe acestea.
Prezentele note se adreseaz@a studen@tilor de la cursul de Calcul
Numeric.
Prin continut, aceaste note reflecta nu att preferintele autorului,
ci mai ales optiunile sale privitoare la tematica unui curs de calcul
numeric pentru studentii Facultatii de matematica si informatica.
Cartea poate fi utilizata de un cerc larg de cititori, fiind acesibila acelora care poseda cunostinte fundamentale de matematica
( analiza, algebra, geometrie, etc. ).
Aceasta carte a fost procesata de autor folosind programul LATEX
bine adaptat pentru prelucrarea textelor matematice.

Bucuresti 2011

Autorul

Cuprins
1 Sisteme de ecuatii liniare
1

11

Elemente de analiza matriciala . . . . . . . . . . . . . . . . .

12

1.1

Principalele notatii si defintii . . . . . . . . . . . . . .

12

1.2

Norme vectoriale si norme matriceale . . . . . . . . . .

21

1.3

Matrici particulare . . . . . . . . . . . . . . . . . . . .

28

Metode directe . . . . . . . . . . . . . . . . . . . . . . . . . .

40

2.1

Principii generale . . . . . . . . . . . . . . . . . . . . .

40

2.2

Metoda Gauss . . . . . . . . . . . . . . . . . . . . . .

43

2.3

Metode de factorizare . . . . . . . . . . . . . . . . . .

53

Metode iterative . . . . . . . . . . . . . . . . . . . . . . . . .

76

3.1

Definirea si convergenta metodelor iterative . . . . . .

76

3.2

Metoda Jacobi . . . . . . . . . . . . . . . . . . . . . .

91

3.3

Metoda Gauss-Seidel . . . . . . . . . . . . . . . . . . .

95

3.4

Metode de relaxare . . . . . . . . . . . . . . . . . . . . 100

Vectori si valori proprii . . . . . . . . . . . . . . . . . . . . . . 117


4.1

Localizarea valorilor proprii si rezultate


de stabilitate . . . . . . . . . . . . . . . . . . . . . . . 119

4.2

Metode folosind polinomul caracteristic . . . . . . . . 124

4.3

Metoda puterilor sau metoda iteratiei vectoriale . . . 132

4.4

Metoda Jacobi . . . . . . . . . . . . . . . . . . . . . . 137

4.5

Metoda Givens-Householder . . . . . . . . . . . . . . . 148


5

CUPRINS
4.6

Metoda QR . . . . . . . . . . . . . . . . . . . . . . . . 163

2 Ecuatii si sisteme neliniare


5

173

Ecuatii neliniare . . . . . . . . . . . . . . . . . . . . . . . . . 174


5.1

Izolarea radacinilor . . . . . . . . . . . . . . . . . . . . 174

5.2

Metode de aproximare a rad


acinilor . . . . . . . . . . 177

Sisteme neliniare . . . . . . . . . . . . . . . . . . . . . . . . . 189


6.1

Teoreme de existent
a a solutiilor . . . . . . . . . . . . 189

6.2

Metode de contractie . . . . . . . . . . . . . . . . . . . 192

6.3

Metode de tip Newton . . . . . . . . . . . . . . . . . . 199

CUPRINS
Rezolvarea numerica a sistemelor de ecuatii cu un num
ar
finit de necunoscute, reale sau complexe, constituie una dintre
preocuparile cele mai importante, deoarece la o asemenea rezolvare
se reduc, de cele mai multe ori, aplicatiile tuturor domeniilor
matematicii.
Pentru sistemele liniare, desi teoretic lucrurile par destul de
simple, practica pune mereu noi probleme a caror rezolvare cere o
aprofundare a teoriei si o ingeniozitate deosebita.
Pentru sistemele neliniare, n general, nu exista metode directe de
rezolvare, fiind necesare studiul metodelor aproximative. De cele
mai multe ori in rezolvarea sistemelor neliniare se utilizeaza un sir
de sisteme liniare.

10

CUPRINS

Capitolul 1
Sisteme de ecuatii liniare

11

12

Capitolul 1. Sisteme de ecuat


ii liniare

Elemente de analiz
a matricial
a

Analiza maticiala se ocupa de studiul rezov


arii sistemelor algebrice liniare, de
forma Ax = b, si a determinarii vectorilor si valorilor proprii ale unei matrici
A. In general, presupunem cunoscute elementele de algebra si analiza care
intervin n consideratiile noastre, ns
a amintim unele notiuni si rezultate,
mai mult pentru a preciza termenii si notatiile. La unele rezultate dam si
demonstratiile.

1.1

Principalele notatii si defintii

Daca V este un K-spatiu vectorial n-dimensional (K = R sau K = C)


iar B = {e1 , . . . , en } este o baza pentru V , atunci orice element x V se
exprima n mod unic sub forma
v=

n
X

vi ei

i=1

scalarii vi , pe care i notam uneori (v)i , fiind componentele vectorului v n


baza B. Cnd o baza este fixata, putem far
a ambiguitate sa identific
am
n
n
K spatiul vectorial V cu K ; iata pentru ce vom nota v = (vi )i=1 sau
simplu (vi ), un vector de componente vi . In notatie matriceala, vectorul
P
v = ni=1 vi ei va fi mereu reprezentat prin vectorul coloan
a

v1
..
v= .
vn
si vom nota cu v T respectiv v urm
atorii vectorii linie
v T = (v1 , v2 , . . . , vn ),

v = (
v1 , v2 , . . . , vn )

unde, n general, cu
este notat conjugatul complex al num
arului . Vectorul linie v T este vectorul transpus al vectorului coloana v, iar vectorul
linie v este vectorul adjunct al vectorului coloana v.
Aplicatia (, ) : V V K definita prin
(u, v) = v T u = uT v =

n
X
i=1

ui vi

daca K = R

matriciala

1. Elemente de analiza
(u, v) = v u = u v =

n
X

ui vi

13
dac
aK=C

i=1

se numeste produs scalar euclidian daca K = R si hermitian daca K = C,


sau canonic daca nu precizam corpul scalarilor. Daca dorim sa punem n
evidenta dimensiunea spatiului vom scrie (u, v) = (u, v)n .
Fie V un spatiu vectorial nzestrat cu produsul scalar canonic. Doi vectori
u si v din V snt ortogonali dac
a (u, v) = 0. Se spune ca v este ortogonal pe
o parte U din V si notam aceasta prin v U cnd vectorul v este ortogonal
pe toate elementele din U . In sfirsit, o multime de vectori {v1 , . . . , vk } din
V se zice ortonormal
a daca
(

(vi , vj ) = ij =

1 daca i = j
0 daca i 6= j

Fie V si W doua spatii vectoriale peste acelasi corp K cu bazele (ej )j=1,n ,
respectiv (fi )i=1,m . Relativ la aceste baze o aplicatie liniara A : V W
este reprezentata printr-o matrice cu m linii si n coloane

a11 a12 a1n


..
..
..
A= .
.
.
am1 am2 amn
elementele aij ale matricii A fiind definite n mod unic prin relatiile
Aej =

m
X

aij fi ,

1jn

i=1

Altfel spus, al j-lea vector coloana

a1j
..
.
amj
al matricei A reprezinta vectorul Aej n baza (fi )m
am (ai1 ai2 . . . ain )
i=1 . Not
ceea de a i-ea linie a matricei A. O matrice cu m linii si n coloane se numeste
matrice de tip (m,n) si se noteaza Mm,n (K) sau simplu Mm.n , K-spatiul
vectorial format cu matricele de tipul (m, n) cu elemente din K. Un vector
coloana este deci o matrice de tipul (m, 1) iar un vector linie este o matrice

14

Capitolul 1. Sisteme de ecuat


ii liniare

de tipul (1, n). O matrice se zice real


a sau complex
a dac
a elementele sale
snt din R sau C. O matrice A cu elementele aij se noteaza A = (aij )
primul indice i fiind mereu cel al liniei iar al doilea, j, fiind cel al coloanei.
Fiind data o matrice A, se noteaza (A)ij elementul de pe linia i si coloana
j. Matricea nul
a si vectorul nul snt notate prin aceiasi litera 0.
Fiind data o matrice A Mm,n (C) se noteaza cu A Mn,m (C) matricea
adjunct
a a matricei A, definita n mod unic prin relatiile
(Au, v)m = (u, A v)n

u Cn , v Cm

care implica (A )ij = aji . In acelasi mod, fiind data matricea A Mm,n (R)
se noteaza AT Mn,m (R) matricea transpus
a a lui A, definita n mod unic
prin relatia
(Au, v)m = (u, AT v)n u Rn , v Rm
care implica (AT )ij = aji .
Observatie. Se poate defini matricea transpusa a unei matrice complexe,
P
dar aceasta este o notiune mai putin interesant
a, aplicatia u, v ni=1 ui vi
nefiind un produs scalar n Cn .
La compunerea a doua aplicatii liniare corespunde nmultirea matricilor.
Daca A = (aik ) este de tipul (m, l) iar B = (bkj ) este de tipul (l, n), produsul
lor AB este o matrice de tipul (m, n) definita prin
(AB)ij =

l
X

aik bkj .

k=1

Reamintim ca daca A si B snt matrici patrate atunci


(AB)T = B T AT ,

(AB) = B A .

Fie A = (aij ) o matrice de tipul (m, n). Prin submatrice a lui A se ntelege
o matrice de forma

ai1 j1 ai1 jq

ai2 j1 ai2 jq
.
..
.

.
.
aip j1 aip jq
unde intregii ik si jl verifica
1 i1 < i2 < < ip m,

1 j1 < j2 < < jq n,

matriciala

1. Elemente de analiza

15

adica submatricea de mai sus a fost obtinut


a din elementele lui A ce se afla
la intersectia coloanelor j1 , . . . , jq cu liniile i1 , . . . , ip .
Fie A = (aij ) o matrice reprezentnd o aplicatie liniara din V n W si fie
V = V1 V2 VN ,

W = W1 W2 WM

descompuneri ale spatiilor V si W n sume directe de subspatii VJ si WI de


dimensiune nJ si mI generate de vectorii din baza. La aceasta descompunere
a spatiilor V si W se asociaza descompunerea n blocuri a matricii A:

A=

A11
A21
..
.

A12
A22
..
.

A1N
A2N
..
.

= (AIJ )

AM 1 AM 2 AM N
fiecare matrice AIJ fiind de tipul (mI , nJ ) si reprezint
a o matrice asociata
unei aplicatii liniare din VJ in WI . Interesul unei asemenea descompuneri
pe blocuri este ca anumite operatii definite asupra matricelor ramn formal
aceleasi, coeficientii aij fiind nlocuiti prin submatricele AIJ .
Astfel, fie A = (AIK ) si B = (BKJ ) doua matrici, de tipul (m, l) respectiv
(l, n), descompuse n blocuri, descompunere ce corespunde indicelui K fiind
aceiasi pentru fiecare matrice. Atunci matricea AB admite descompunerea
n blocuri
X
AB = (CIJ ), cu CIJ =
AIK BKJ
K

si spunem ca s-a efectuat produsul pe blocuri a celor doua matrici. In


P
acelasi mod, fie v un vector din spatiul V , si fie v = N
J=1 vJ , vJ VJ
descompunerea sa (unica) asociata descompunerii spatiului V n suma directa. Vectorul Av W admite atunci
Av =

M
X

wI ,

cu wI =

I=1

N
X

AIJ vJ

J=1

ca descompunere unica asociata descompunerii spatiului W n suma directa.


Este echivalent cu a considera ca vectorii v si Av snt descompusi n blocuri

v=

v1
v2
..
.
vN

Av =

w1
w2
..
.
wM

wI =

N
X
J=1

AIJ vJ

16

Capitolul 1. Sisteme de ecuat


ii liniare

si ca s-a efectuat produsul pe blocuri a matricei A cu vectorul v.


O matrice de tipul (n, n) se numeste matrice p
atrat
a, sau matrice de
ordinul n, daca vrem sa precizam ntregul n. Se noteaza cu Mn = Mn,n
sau Mn (K) = Mn,n (K) inelul matricelor p
atrate de ordinul n cu elemente
din corpul K. Fara o mentiune contrar
a, matricele considerate n continuare vor fi matrici patrate. Daca matricea A = (aij ) este o matrice patrata, elementele aii snt numite elemente diagonale iar elementele aij i 6= j,
snt numite elemente nediagonale. Elementele aij cu |i j| = 1 se numesc
elemente codiagonale. Elementele (a11 , a22 , . . . , ann ), (a21 , a32 , . . . , an,n1 ),
(a12 , a23 , . . . , an1,n ) poarta numele de diagonala principal
a, codiagonala inferioar
a, respectiv codiagonala superioar
a a matricei A. Matricea unitate
este matricea I = (ij ) deci o matrice care are toate elementele nediagonale
nule, iar toate elementele diagonale egale cu 1.
O matrice A se zice inversabil
a daca exista o matrice notata A1 si numit
a
matrice invers
a a lui A, astfel ca A A1 = A1 A = I. In caz contrar, se zice ca A este singular
a. ( Matricea A1 daca exista este unica ).
Reamintim ca daca A si B snt matrici inversabile atunci
(AB)1 = B 1 A1 ,

(AT )1 = (A1 )T ,

(A )1 = (A1 ) .

O matrice A = (aij ) este


- simetric
a daca A este reala si A = AT ,
- hermitian
a daca A = A ,
- ortogonal
a daca A este reala si AAT = AT A = I,
- unitar
a daca AA = A A = I,
- normal
a daca AA = A A.
- diagonal
a daca aij = 0 pentru i 6= j si notam acest fapt prin A =
diag(aii ) = diag(a11 , a22 , . . . , ann ).
- inferior triunghiular
a daca aij = 0 pentru orice j > i.
- strict inferior triunghiular
a dac
a aij = 0 pentru j i.
- superior triunghiular
a dac
a aij = 0 pentru orice j < i.
- strict superior triunghiular
a daca aij = 0 pentru orice j i.

matriciala

1. Elemente de analiza

17

- tridiagonal
a daca aij = 0 pentru orice |i j| > 1.
- superior Hessenberg dac
a aij = 0 pentru i j + 2.
- inferior Hessenberg daca aij = 0 pentru i j 2.
Urma unei matricii A = (aij ) este definita prin tr(A) =
si B snt doua matrici patrate atunci

Pn

i=1 aii .

Daca A

tr(AB) = tr(BA) si tr(A + B) = tr(A) + tr(B).


Determinantul unei matrici A este definit prin
det(A) =

a1(1) a2(2) an(n)

Sn

unde este signatura permut


arii . Daca A si B snt doua matrici patrate
atunci
det(A B) = det(B A) = det(A) det(B)
Determinantul unei matrici diagonale, inferior triunghiulare sau superior
triunghiulare este egal cu produsul elementelor de pe diagonala principala.
Fiind date doua spatii vectoriale V si W de dimensiune finita ( dar nu
n mod necesar egale ). Rangul aplicatiei liniare A : V W este egal
cu dimensiunea subspatiului vectorial Im(A) = {Av W ; v V }. Daca
n spatiile V si W luam bazele fata de care aplicatia A este reprezentat
a
prin matricea A, rangul lui A este de asemenea egal cu cel mai mare ordin
al unei submatricii (patrate) inversabile a lui A. Iata pentru ce rangul lui
A se numeste de asemenea rangul matricii A. Este usor de verificat ca
rangul unei matrici A este egal cu num
arul de coloane liniar independente
ale matricei A. De asemenea, rangul matricei A este egal cu num
arul de linii
liniar independente ale matricei A. Se noteaza rangul unei matrici A prin
rang(A), si deci rang(A) = dim(Im(A)).
Folosind notiunile introduse mai sus, avem urmatorul rezultat.
Propozitia 1.1 Dac
a A Mn (K) urm
atoarele afirmatii snt echivalente:
(1) Pentru orice b Kn exist
a x Kn astfel ca Ax = b.
(2) Pentru orice b Kn exist
a un singur x Kn astfel ca Ax = b.
(3) Din Ax = 0 rezult
a x = 0.

18

Capitolul 1. Sisteme de ecuat


ii liniare

(4) Matricea A1 exist


a.
(5) Rangul matricei A este n ( rang(A) = n).
(Demonstratia acestei propozitii se gaseste n orice curs de algebra liniara.)
Valorile proprii i = i (A), 1 i n ale matricii A de ordinul n snt
n radacini reale sau complexe, distincte sau confundate, ale polinomului
caracteristic pA : CpA () = det(A I) pentru matricea A.
S

Spectrul matricii A este submultimea (A) = ni=1 {i (A)} din planul


complex C, cu alte cuvinte spectrul matricei A este format din multimea
valorilor proprii ale matricei A.
Raza spectral
a a unei matrici A este un num
ar real mai mare ca zero
definit prin (A) = max1in {|i (A)|; 1 i n} = max{||; (A)}. La
o valoare proprie pentru matricea A se asociaza ( cel putin ) un vector p
astfel ca p 6= 0 si Ap = p numit vector propriu al matricii A asociat
valorii propri . Daca (A), subspatiul vectorial ( de dimensiune mai
mare sau egal cu 1 ), E = {v V ; Av = v} se numeste spatiu propriu
asociat valorii proprii (A). Daca A este o matrice patrat
a de ordinul
n atunci
n
n
tr(A) =

i (A),

det(A) =

i=1

i (A).

i=1

Daca i = i+1 = = i+m1 = valoarea proprie este de multiplicitate algebric


a m. Numim multiplicitate geometric
a a valorii propri
dimensiunea subspatiului propriu Easociat!lui (A). Cele doua numere
0 1
pot sa difere. Pentru matricea A =
valorile proprii snt 1 = 2 =
0 0
0 de multiplicitatea algebrica 2 n timp ce multiplicitatea geometrica este 1.
Matricea A A este o matrice hermitiana si valorile ei proprii snt reale si
pozitive. Matricea AT A este o matrice simetrica iar valorile sale snt reale
si pozitive.
Matricele hermitiene care satisfac si conditia (Ax, x) > 0 pentru orice
x Cn \ {0} se numesc pozitiv definite. Se verific
a imediat ca orice matrice
pozitiv definita A, defineste un produs scalar pe Cn prin formula
(x, y)A = (Ax, y)

(1.1)

Invers, orice produs scalar pe Cn este de forma (1.1) unde A este o matrice
pozitiv definita. Pentru demonstratie sa notam cu (x, y) un produs scalar

matriciala

1. Elemente de analiza

19

oarecare definit pe Cn . Din reprezentarea elementelor x si y n baza canonica


formata din elementele ei = (i1 , i2 , . . . , in ) rezulta
n
X

(x, y) = (

xi ei ,

i=1

n
X

yj ej ) =

j=1

m X
n
X

aji xi yj = (Ax, y)

j=1 i=1

unde aij = (ej , ei ) . Matricea A = (aij ) este hermitiana si strict pozitiva.


Intradevar, (A )ij = aji = (ei , ej ) = (ej , ei ) = aij = (A)ij pentru orice
i, j {1, 2, . . . , n} si (Ax, x) = (x, x) > 0 x Cn , x 6= 0.
Daca V este un K-spatiu vectorial n-dimensional, iar A : V V o
aplicatie liniara, reprezentat
a printr-o matrice (patrat
a) A = (aij ) relativ la o baza {e1 , . . . , en }, atunci relativ la o alta baza {f1 , . . . , fn } aceiasi
aplicatie este reprezentata prin matricea B = P 1 AP unde P este o matrice
inversabila cu proprietatea ca al j-lea vector coloana este format cu componentele vectorului fj n baza {e1 , . . . , en }. Matricea P se numeste matrice
de trecere din baza {e1 , . . . , en } n baza {f1 , . . . , fn }.
Alegerea bazei ca matricea de reprezentare a aplicatiei liniare sa aiba forma
cea mai simpla constituie una dintre problemele importante ale analizei matriciale. Cazul cel mai favorabil este acela n care matricea de reprezentare
sa fie diagonala. Notam ca n acest caz, elementele diagonale ale matricii de
reprezentare snt valorile proprii ale formei liniare.
Dintre formele particulare la care poate fi adusa o matrice patrata amintim
forma Jordan, forma Schur, forma Hensenberg. Matricea de ordinul m care
are pe diagonala principala, 1 pe codiagonala superioara si 0 n rest se
numeste bloc Jordan sau matrice Jordan. Deci o matrice Jordan are forma :

Jm () =

0
1
..
.

..

m1

si observam ca este valoare proprie pentru Jm () de multiplicitate algebrica


m si multiplicitate geometrica 1.
In ceea ce priveste formele canonice avem urmatorul rezultat.

20

Capitolul 1. Sisteme de ecuat


ii liniare

Teorema 1.1 Fie A Mn (K).


1) Exist
a o matrice nesingular
a P pentru care P 1 AP s
a aib
a forma :

Jn1 (1 )

P 1 AP =
0

0
Jn2 (2 )

..

Jnr (r )

unde n1 + nr = n iar 1 , . . . , r snt valorile proprii ale matricei A.


2) Exist
a U o matrice unitar
a (U U = U U = I) astfel ca T = U 1 AU
s
a fie o matrice superior triunghiular
a. In plus, elementele diagonale
ale matricei T snt valori proprii pentru matricea A.
3) Dac
a A este o matrice normal
a (AA = A A), atunci exist
a o matrice
1
unitar
a U astfel ca T = U AU s
a fie o matrice diagonal
a.
4) Dac
a A este o matrice hermitian
a (A = A) atunci matricea A are n
valori proprii 1 , . . . , n reale ( nu neap
arat distincte ) si n vectori proprii u(1) , . . . , u(n) ce formeaz
a o baz
a ortonormal
a pentru Kn , iar ma(1)
(n)

tricea U = (u , . . . , u ) este unitar


a si U AU = diag (1 , . . . , n ).

Se poate verifica ca orice matrice reala poate fi adusa la o forma superior


triunghiulara pe blocuri cu ajutorul unei matrici ortogonale reale. In cazul
n care matricea este reala si simetrica atunci toate valorile proprii snt reale
si vectorii propri pot fi alesi reali. In plus, exista o matrice ortogonala Q
astfel ca QT AQ = = diag (1 , . . . , n ) iar coloanele matricei Q formeaza
o baza ortonormata a lui Rn .
Numim valori singulare ale unei matrici A radicalul valorilor proprii
ale matricei hermitiene A A (sau AT A daca matricea este reala). Utiliznd
valorile singulare ale unei matrici A avem urmatorul rezultat.
Teorema 1.2 Fie A Mm,n (K) (K = R respectiv K = C).
1) Exist
a matricele unitare ( respectiv ortogonale ) U de ordinul n si V

matriciala

1. Elemente de analiza

21

de ordinul m astfel ca F = V AU s
a aib
a forma

F =
0

0
2

..

.
r

0
..

(1.2)

unde 1 , . . . , r snt valorile singulare ale lui A. Aceste numere snt


reale si pozitive, si pot fi aranjate astfel ca 1 2 r > 0
unde r este rangul matricei A.
2) Dac
a m = n, exist
a dou
a matrici unitare (ortogonale dac
a A este real
a)
de ordinul n astfel ca V AU = diag(1 , . . . , r ) unde 1 , . . . , n , mai
mari sau egale cu zero, snt valorile singulare ale matricei A.

1.2

Norme vectoriale si norme matriceale

Cele mai des folosite norme pe Kn , n practica, snt :


||v||1 =

n
X
i=1

|vi |,

n
X

||v||2 = (

i=1

|vi |2 )1/2 = (v, v)1/2 ,

||v|| = max |vi |.


1in

Norma || ||2 se numeste norma euclidiana. Este usor de aratat ca pentru


P
orice p [0, ) aplicatia vkvkp = ( ni=1 |vi |p )1/p este o norma pe Kn
si pentru orice v Kn aplicatia pv (p) = kvkp este descrescatoare si
lim ||v||p = ||v|| .
p
Propozitia 1.2 Intr-un K-spatiu vectorial finit dimensional, V, orice dou
a
norme snt echivalente.
Demonstratie. Sa aratam ca orice norma k k pe spatiul finit dimensional
V este echivalenta cu norma k k . Fie S = {v V ; ||v|| = 1}. Multimea
S este compacta, deoarece este nchis
a si marginit
a, corespunznd n Kn
frontierei cubului unitate. Avem 0 6 S. Functia k k este continu
a pe S
deci si atinge marginile. Fie M1 = supxS kxk si M2 = inf xS kxk. Avem
M1 M2 > 0 caci kxk = 0 x = 0 6 S. Fie x V , x 6= 0. Obtinem
||(x/||x|| )|| = 1 deci (x/||x|| ) S de unde rezulta M2 k(x/||x|| )k

22

Capitolul 1. Sisteme de ecuat


ii liniare

M1 deci M2 ||x|| ||x|| M1 ||x|| . Ultima inegalitate, de mai sus, este


adevarata si pentru x = 0 deci este adevarat
a pentru orice x V , adica
norma k k este echivalenta cu norma k k . Cum relatia de echivalenta ntre
norme este o relatie reflexiva, simetrica si tranzitiva rezulta ca orice doua
norme snt echivalente.
2
O aplicatie k k : Mn (K)R care verific
a proprietatile:
kAk 0 A Mn si kAk = 0 A = 0
kAk = || kAk, pentru orice K, A Mn ,
||A + B|| ||A|| + ||B||, pentru orice A, B Mn ,
||AB|| ||A|| ||B||, pentru orice A, B Mn .
se numeste norma matriciala.
Inelul Mn (K) fiind un K-spatiu vectorial de dimensiune n2 , primele trei
proprietati de mai sus snt cele care definesc o norma ntr-un spatiu finit
dimensional de dimensiune n2 . Evident, ultima proprietate este specifica
pentru matricile patrate.
Fiind data k k o norma vectorial
a pe Kn , aplicatia k k : Mn (K)R
definita prin
kAk =

kAvk
= sup kAvk = sup kAvk
vKn ,v6=0 kvk
kvk1
kvk=1
sup

este o norma matriciala, ce poarta numele de norm


a matricial
a subordonat
a
normei vectoriale date. Rezulta, din definitia unei norme subordonate, ca
kAvk kAk kvk pentru orice v Kn si ca kAk poate fi definit si prin
kAk = inf{M R; kAvk M kvk, v Kn }
Cum sfera unitate n Kn este compacta, exista (cel putin) un vector u astfel
ca u 6= 0 si kAuk = kAk kuk . Sa observam, de asemenea, ca pentru o
norma subordonata avem kIk = 1.
Aplicatia k kF : Mn R definit
a prin
X

kAkF = (

i,j

|aij |2 )1/2 = {tr(A A)}1/2

matriciala

1. Elemente de analiza

23

este o norma matriciala, norma Frobenius. Aceasta norma este invariant


a
pentru transformari unitare, iar daca n 2 aceasta norma matriciala nu

este subordonata nici unei norme vectoriale, deoarece kIkF = n.


Aplicatiile k k1 , k k , k k2 ; M(K)R definite prin
kAk1 = max

1jn

n
X

|aij |,

i=1

kAk = max

1in

n
X

|aij |,

kAk2 =

(A A)

j=1

snt norme matriciale subordonate normelor vectoriale k k1 , k k , k k2 .


Este usor de observat ca:
(1) Norma kAk2 este egala cu maximum valoarilor singulare ale matricei
patrate A.
(2) Daca matricea A este hermitiana sau simetrica, avem kAk2 = (A).
(3) Daca o matrice A este unitara ( ortogonala ) avem ||A||2 = 1.
(4) Normele k k1 si k k se calculeaza usor pornind de la cunoasterea
elementelor matricei A, nu acelasi lucru se poate spune despre norma
k k2 .
Teorema 1.3 Fie A o matrice p
atrat
a oarecare.
1) Dac
a k k este o norm
a matricial
a (subordonat
a sau nu), atunci
(A) ||A||.
2) Dac
a > 0, exist
a cel putin o norm
a matricial
a subordonat
a astfel ca
kAk (A) +
Demonstratie. Fie p un vector ce verific
a p 6= 0, Ap = p, || = (A) si
T
fie q un vector astfel ca matricea pq sa fie nenul
a. Deoarece (A)kpq T k =
T
T
T
kpq k = kApq k kAk ||pq ||, de unde (A) kAk. Pentru A, matrice
data, exista o matrice inversabil
a U (conform Teoremei 1.1(2) ) astfel ca
U 1 AU sa fie superior triunghiulara, de exemplu.

24

Capitolul 1. Sisteme de ecuat


ii liniare

1 t12 t13

2 t23

1
..

U AU =
.

n1

t1n
t2n
..
.

tn1,n

n
unde scalarii i snt valorile proprii ale matricii A. Pentru orice scalar 6= 0
asociem matricea D = diag(1, , . . . , n1 ) astfel ca

1 t12 2 t13

2 t23

1
..
(U D ) A(U D ) =
.

n1

n1 t1n
n2 t2n
..
.

tn1,n

n
Fiind dat > 0, alegem num
arul astfel ca
n
X

| ji tij | ,

1in1

j=i+1

Aplicatia k k : B Mn kBk = k(U D )1 B(U D )k are pe de-o parte


proprietatea kAk (A) + (din alegerea lui si definitia normei matriciale
k k ) si pe de alta parte este o norma matriciala. Sa verific
am ca k k este
o norma matriciala subordonata normei vectoriale
v Kn kvk = ||(U D )1 v|| .
Intr-adevar,
||A|| = sup ||Ax|| = sup ||(U D )1 Ax|| =
||x|| =1

sup
||(U D )1 x|| =1

||x|| =1

||(U D )1 Ax|| =

sup ||(U D )1 A(U D )y|| =

||y|| =1

= ||(U D )1 A(U D )|| = ||A||.


2
Folosind Teorema 1.3 este usor de vazut ca daca A Mn (K) atunci
(A) = inf (A) = inf (A) = inf (A)
S1

S2

S3

(1.3)

matriciala

1. Elemente de analiza

25

unde S1 este multimea normelor matriciale pe Mn (K), S2 este multimea


normelor maticiale pentru care matricea identitate I are norma 1, si S3 este
multimea normelor matriciale subordonate unei norme vectoriale.
Urmatorul criteriu de inversabilitate a matricelor de forma I B, folosind
raza spectrala, este des folosit in practica.
Propozitia 1.3 Dac
a B Mn (K) si (B) < 1 atunci matricea I B este
inversabil
a. Reciproca, n general, nu este adev
arat
a.
Demonstratie. Presupunem, prin absurd, ca (B) < 1 dar I B este
singulara. Exista atunci u 6= 0 astfel ca (I B)u = 0, adic
a 1 ar fi valoare
proprie pentru matricea B, deci (B) 1, o contradictie. Pentru matricea
B = diag (3, 2) avem (B) = 3 iar I B este inversabil
a deoarece det(I B)
este 2.
2
Intr-un spatiu vectorial V nzestrat cu o norma k k spunem ca un sir (vk )
de elemente din V converge la un element v V , sau ca v este limita sirului
(vk ), daca limk ||vk v|| = 0 si scriem v = lim vk . Daca spatiul este
k
de dimensiune finita, echivalenta normelor arata ca convergenta unui sir este
independenta de norma aleasa. Alegerea n particular a normei k k arat
a
ca convergenta unui sir de vectori este echivalent
a cu convergenta a n siruri
( n = dimensiunea spatiului) de scalari formate de componentele vectorilor.
Considernd Mm,n (K) multimea matricilor de tipul (m, n) ca un spatiu vectorial de dimensiune mn, vedem n acelasi mod ca convergenta unui sir de
matrici de tipul (m, n) este independent
a de norma aleasa, si ca ea este
echivalenta cu convergenta a mn siruri de scalari, formate cu elementele
matricilor.
Rezultatul pe care l dam n continuare este o conditie necesara si suficient
a
pentru ca sirul format cu puterile succesive ale unei matrici (patrate) sa
converga la matricea nula. Din aceeste conditii decurge criteriul fundamental
de convergenta a metodelor iterative de rezolvare a sistemelor liniare.
Teorema 1.4 Dac
a B este o matrice p
atrat
a atunci urm
atoarele afirmatii
snt echivalente:
(1) lim B k = 0;
k
(2) lim B k v = 0 pentru orice vector v;
k
(3) (B) < 1;

26

Capitolul 1. Sisteme de ecuat


ii liniare

(4) kBk < 1 pentru cel putin o norm


a matricial
a.
(5) seria I + B + este convergent
a.
Demonstratie. (1)=(2). Fie k k o norma vectorial
a si k k norma matriciala subordonata. Fiind dat un vector v, inegalitatea kB k vk kB k k kvk
arata ca lim B k v = 0.
k
(2)=(3). Daca (B) 1, putem gasi un vector p astfel ca p 6= 0, Bp = p,
|| 1. Atunci sirul (B k p) nu converge catre 0, deoarece B k p = k p.
(3)=(4). Fie 0 < < 1 (B). Din Teorema 1.3 rezulta ca exista o norma
k k subordonata unei norme vectoriale astfel ca kBk (B) + . Deci
kBk < 1.
(4)=(1). Se aplica inegalitatea kB k k kBkk pentru norma matriciala n
care conditia (4) este verificat
a.
(3)=(5). Fie Sk = I + B + + B k . Din (B) < 1 rezulta I B inversabil
a
si B k 0, deci Sk = (I B)1 (I B k+1 ) converge la (I B)1 , adic
a seria
I + B + este convergenta.
(5)=(1). Daca seria converge atunci B k 0.

Folosind norma, putem da un criteriu simplu de inversabilitate a unei


matrici patrate.
Teorema 1.5
1) Dac
a || || este o norm
a matricial
a pentru care kIk = 1 si B o matrice
verificnd kBk < 1, atunci matricea I B este inversabil
a si
k(I B)1 k 1/(1 kBk).
2) Dac
a o matrice de forma I B este singular
a, atunci in mod necesar
kBk 1 pentru orice norma matricial
a.
Demonstratie. 1) Cum (B) kBk < 1 rezulta ca matricea I B este
inversabila si (I B)1 = I + B(I B)1 , de unde
k(I B)1 k 1 + kBk k(I B)1 k
ceea ce conduce la inegalitatea ceruta.
2) Daca matricea (I B) este singulara, exista u 6= 0 astfel ca (I B)u = 0,
adica 1 este valoare proprie pentru B, deci (B) 1. Cum pentru orice
norma matriciala avem kBk (B), rezulta ca kBk 1.
2

matriciala

1. Elemente de analiza

27

Conditia kBk < 1 se poate verifica usor n practica, pentru normele uzuale.
In legatura cu acest criteriu vom da si o conditie pentru ca o matrice perturbata sa ramna inversabila.
Teorema 1.6 Dac
a exist
a matricea A1 si o norm
a matricial
a cu kIk = 1
1
pentru care ||A || , ||A B|| , < 1 atunci, matricea B este
inversabil
a si kB 1 k /(1 ).
Demonstratie. Daca matricea A1 B este inversabil
a atunci si matricea
1
1
1
B = A(A B) este inversabil
a si are inversa B = (A B)1 A1 . Existenta
1
1
inversei (A B) rezulta din teorema precedent
a, pentru ca
A1 B =

I (I A1 B)

si
||I A1 B|| = ||A1 (A B)|| ||A1 || ||A B|| < 1
Tot de aici rezulta si majorarea k(A1 B)1 k 1/(1 ) deci
kB 1 || = ||(A1 B)1 A1 || ||(A1 B)1 || ||A1 || /(1 ).
2
Din teorema de mai sus se deduce ca multimea matricilor inversabile din
Mn (K) este deschisa n K-spatiul normat Mn (Kn ) si ca aplicatia AA1
este continua. Se poate demonstra un rezultat mai general si anume.
Teorema 1.7 Fie n un num
ar natural, D o multime din Kn si xA(x)
o aplicatie a multimii D n Mn (K) continu
a n punctul x0 D ( D fiind
considerat
a cu topologia indus
a de Kn ). Dac
a A(x0 ) este inversabil
a, atunci
exist
a r > 0 si M > 0 astfel nct pentru orice x D cu kx x0 k r,
matricea A(x) este inversabil
a si kA(x)1 k M. Aplicatia xA(x)1 este
continu
a n punctul x0 .
Demonstratie. Fie = ||A(x0 )1 || si 0 < < 1/. Aplicatia xA(x)
fiind continua n punctul x0 , exista r > 0 astfel nct kA(x) A(x0 )k
pentru orice x D cu ||x x0 || r. Din Teorema 1.6 rezulta ca A(x)
este inversabila si kA(x)1 k M , unde M = /(1 ). Continuitatea
aplicatiei xA(x)1 rezulta din continuitatea aplicatiei xA(x) si din
kA(x)1 A(x0 )1 k = kA(x)1 [A(x0 )A(x)]A(x0 )1 k M kA(x)A(x0 )k.

28

Capitolul 1. Sisteme de ecuat


ii liniare
2

Rezultatul ce urmeaza serveste la studiul rapidit


atii convergentei metodelor
iterative.
Teorema 1.8 Dac
a B este o matrice p
atrat
a, si k k este o norma matricial
a, atunci
lim kB k k1/k = (B).
k
Demonstratie. Cum (B) ||B|| (Teorema 1.3) si cum (B) = ((B k ))1/k
avem deja (B) ||B k ||1/k pentru orice k. Vom stabili pe de alta parte ca
pentru orice > 0 exista un ntreg N = N () astfel ca k N =kB k k1/k
(B) + ceea ce demonstreaza relatia ceruta. Fie deci > 0 dat. Matricea B = B/((B) + ) verific
a (B ) < 1 si utiliznd Teorema 1.4 rezulta
lim Bk = 0. Prin urmare, exista un intreg N = N () astfel ca
k
k N =||Bk || =

||B k ||
1
((B) + )k

ceea ce atrage relatia ceruta.

1.3

Matrici particulare

Vom pune n evidenta cteva proprietati remarcabile pe care le au unele


matrici particulare, proprietati ce vor fi des folosite n ceea ce urmeaza.
O matrice p
atrat
a A se zice reductibil
a dac
a prin permut
ari de linii si
coloane poate fi adus
a la forma

B11 B12
0 B22

unde B11 si B22 snt matrici p


atrate. In caz contrar, matricea A se numeste
ireductibil
a.
Definitia reductibilitatii se exprima pe componente astfel: exista o submultime nevida J a multimii {1, . . . , n} astfel ncit aij = 0 pentru orice i J
si j 6 J. Daca o matrice A este reductibila atunci rezolvarea sistemului
Ax = b poate fi redus la rezolvarea a doua sisteme de dimensiune mai mica.
Aceasta proprietate este foarte important
a din punct de vedere practic. Din
faptul ca o matrice este ireductibila rezulta ca nu se poate reduce problema
Ax = b la rezolvarea a doua sisteme de ordin inferior.
Un criteriu de ireductibilitate este prezentat n cele ce urmeaza.

matriciala

1. Elemente de analiza

29

Teorema 1.9 Pentru ca o matrice p


atrat
a A de ordin n s
a fie ireductibil
a
este necesar si suficient ca orice pereche de indicii (i, j) I I,unde I =
{1, . . . , n} s
a fie conexat
a n matrice, adic
a pentru orice astfel de pereche s
a
existe un lant
aii1 , ai1 i2 , . . . , aim j
(1.4)
n care toate elementele s
a fie diferite de zero.
Demonstratie. Daca A este reductibila exista I1 I I1 6= I astfel ca
aij = 0 pentru orice i I1 , j 6 I1 . Fie (i, j) cu i I1 si j 6 I1 . Nu exista un
lant de forma (1.4) cu un singur element. Pe de alta parte, daca exista un
indice i1 pentru care aii1 6= 0 atunci i1 I1 , de unde ai1 j = 0, deci nu exista
nici lanturi de forma (1.4) formate din doua elemente. Continund astfel,
constatam ca nu exista nici un lant de forma (1.4). Invers, sa presupunem
ca matricea A este ireductibila, sa fixam indicele i si sa notam I1 multimea
indicilor j care snt conexati cu i. Multimea I1 nu este vida, pentru ca daca
ar fi vida, matricea A ar avea o linie nul
a, deci ar fi, evident, reductibila.
Sa presupunem ca exista indici k I \ I1 si sa notam cu I2 = I \ I1 . Daca
ar exista un indice j I1 si un indice k I2 , pentru care ajk 6= 0, atunci
am putea forma un lant care conexeaza perechea (i, j), deci s-ar contrazice
definitia multimii I2 . Aceasta nseamn
a ca ajk = 0 pentru orice j I1 si
k I2 , deci ca matricea A este reductibila. Contradictia la care am ajuns
ne arata ca multimea I1 coincide cu multimea I, deci, n definitiv, ca orice
pereche de indici poate fi conexata n matrice.
2
Dac
a A = (aij ) si B = (bij ) snt dou
a matrici de acelasi ordin, n, spunem
c
a A B (A > B) dac
a aij bij (aij > bij ) pentru orice 1 i, j n. Dac
a
0 este matricea identic nul
a si dac
a A 0 ( A > 0) spunem c
a matricea A
este o matrice nenegativ
a (pozitiv
a). Dac
a B = (bij ) este o matrice oarecare
vom nota cu |B| matricea care are elementele |bij |.
Teorema 1.10 Fie A Mn (R) si presupunem ca A 0. Atunci (I A)1
exist
a si este nenegativ
a dac
a si numai dac
a (A) < 1.
Demonstratie. Daca (A) < 1 atunci (I A)1 exist
a si (I A)1 =

X
i=0

Ai si deoarece fiecare termen al sumei este nenegativ rezulta (I A)1

0. Reciproc, presupunem ca (I A)1 0 si fie o valoare proprie a lui


A cu vectorul propriu asociat x 6= 0. Atunci || |x| A |x|, astfel ca
(I A)|x| (1 ||)|x|. Prin urmare |x| (1 ||)(I A)1 |x|, din care
rezulta || < 1, deoarece x 6= 0 si (I A)1 0, deci (A) < 1.
2

30

Capitolul 1. Sisteme de ecuat


ii liniare

Teorema 1.11 Dac


a A si B snt dou
a matrici de ordin n astfel ca
0 |B| A atunci (B) (A).
Demonstratie. Fie = (A), fie > 0 arbitrar, si fie B1 = ( + )1 B,
A1 = ( + )1 A. Este clar ca (A1 ) < 1 si ca
|B1 |k Ak1 ,

k = 1, 2, . . .

Cum limk Ak1 = 0 rezulta limk B1k = 0, deci (B1 ) < 1 si prin urmare
(B) < +. Deoarece a fost arbitrar rezulta (B) adic
a (B) (A).
2
In studiul matricelor nenegative urmatorul rezultat, dat n 1907 de Perron
[69] pentru matrici pozitive si completat apoi n 1912 de Frobenius [26]
pentru matrici nenegative, este fundamental.
Teorema 1.12 (PerronFrobenius) Dac
a A Mn (R) este o matrice
nenegativ
a ireductibil
a, atunci:
(i) Matricea A admite o valoare proprie real
a pozitiv
a egal
a cu raza sa
spectral
a (A).
(ii) Pentru valoarea proprie (A) exist
a un vector propriu x > 0 ( xi > 0,
i = 1, . . . , n ).
(iii) Raza spectral
a (A) creste dac
a unul din elementele matricei A creste.
(iv) (A) este o valoare proprie simpl
a pentru matricea A.
Un rezultat important privind matricele nenegative este dat de teorema
urmatoare.
Teorema 1.13 (SteinRosenberg) Dac
a B 0, B = L + U cu L strict
inferior triunghiular
a si U superior triunghiular
a, iar C = (IL)1 U atunci
una si numai una din asertiunile urm
atoare este adev
arat
a.
1) (B) = (C) = 0;
2) 0 < (C) < (B) < 1;
3) 1 = (B) = (C);
4) 1 < (B) < (C).

matriciala

1. Elemente de analiza

31

Proprietatea de diagonal dominant


a este des folosita pentru demonstrarea
existentei inversei unei matrici si n convergenta unor metode iterative.
O matrice A Mn (K) se zice:
diagonal dominant
a dac
a |aii |

P
j6=i

|aij |

strict diagonal dominant


a dac
a |aii | >

1 i n.

P
j6=i

|aij |

1 i n.

diagonal dominant
a ireductibil
a dac
a
(1) A este ireductibil
a;
(2) A este diagonal dominant
a;
P
(3) exist
a i {1, . . . , n} astfel ca |aii | >
|aij |.
j6=i

Urmatoarele rezultate, grupate n propozitia de mai jos, snt de un real folos


n analiza matriciala.
Propozitia 1.4 Fie A Mn (K) si I = {1, . . . , n}.
1) Dac
a A este o matrice strict diagonal dominant
a atunci A este
inversabil
a si aii 6= 0 i I.
2) Dac
a matricea A este strict diagonal dominant
a si aij 0 pentru orice
i 6= j atunci A1 0 si pentru orice i I avem aii > 0.
3) Dac
a A este diagonal dominant
a ireductibil
a atunci A este inversabil
a
si aii 6= 0 pentru orice i I.
4) Dac
a A este diagonal dominant
a ireductibil
a iar D = diag(A) atunci
(B) < 1 pentru matricea B = I D1 A.
5) Dac
a A este diagonal dominant
a ireductibil
a iar aii > 0 i I atunci
pentru toate valorile proprii ale matricei A avem Re > 0.
Demonstratie.
1) Daca matricea A nu este inversabil
a, exista un element x Kn , x 6= 0,
pentru care Ax = 0. Fie xi , (i I) componentele elementului x si i0 I
P
astfel ca |xi0 | = maxiI |xi |. Din relatia nj=i ai0 j xj = 0 rezulta
|ai0 i0 ||xi0 | = |

X
j6=i0

ai0 j xj | |xi0 ||

X
j6=i0

|ai0 j |

32

Capitolul 1. Sisteme de ecuat


ii liniare

de unde , folosind faptul ca |xi0 | =


6 0 se obtine
|ai0 i0 |

|ai0 j |

j6=i0

ceea ce contrazice faptul ca matricea A este strict diagonal dominant


a.
2) Fie s > max{|aii |} si B = s I A. Matricea B are elementele pozitive
(B 0). Intr-adevar, bij = aij 0 i 6= j si bii = s aii > 0. Matricea
A este inversabila, deci
A
B
=I
s
s
este inversabila si

sA1 = I

B B2
B 1
= I + + 2 +
s
s
s

Cum B 0 si s > 0 rezulta ca sA1 0, deci A1 0. Din


1 = (A A1 )ii =

n
X

(A)ij (A1 )ji = aii (A1 )ii +

j=1

aij (A1 )ji

j6=i

Cum aij 0 j 6= i si (A1 )ji 0 rezulta aii (A1 )ii > 0. In plus, din
(A1 )ii 0 rezulta aii > 0 si (A1 )ii > 0.
3) Matricea A fiind diagonal dominant
a ireductibila avem
X

|aij | |aii | i I

(1.5)

j6=i

si exista un indice i0 I pentru care


X

|ai0 j | < |ai0 i0 |

(1.6)

j6=i0

Daca matricea A nu este inversabil


a exista un element x Kn , x 6= 0 pentru
care Ax = 0. Fie J multimea indicilor j J pentru care |xj | = maxiI |xi |.
Observam ca |xi0 | < |xj | dac
a j J, pentru ca altfel s-ar contrazice ineP
galitatile (1.5). Intr-adevar, din k ai0 k xk = 0 se deduce |ai0 i0 ||xi0 |
P
P
|xj | k6=i0 |ai0 k | deci, daca xi0 = |xj |, atunci |ai0 i0 | k6=i0 |ai0 k |. Multimea
J nu coincide deci cu I. Pentru j J si l 6 J avem ajl = 0, fiindca altfel se
contrazice ipoteza (1.5). Intr-adev
ar
|ajj ||xj |

X
k6=j

|ajk ||xk |

matriciala

1. Elemente de analiza
de unde
|ajj |

|ajk |

k6=j

33

|xk | X
<
|ajk |.
|xj | k6=j

Insa, aceasta nseamna ca matricea A este reductibila. Contradictia ne arata


ca A este o matrice inversabil
a. Daca exita un i I astfel ca aii = 0 atunci
aij = 0 pentru orice j I deci matricea A nu este inversabil
a.
4) Matricea A fiind diagonal dominant
a ireductibila este inversabil
a si aii 6= 0
i I. Deci D1 exista. Evident bii = 0 si bij = aij /aii i 6= j. Din
faptul ca A este diagonal dominant
a ireductibila rezulta
X

|bij | 1 i I

jI

si ca exista i I astfel ca

|bij | < 1

jI

ceea ce arata ca kBk 1. Folosind Teorema 1.3 obtinem (B) kBk


1. Vom arata acum ca (B) < 1. Presupunem ca exista valoare proprie
pentru B cu || = 1. Fie x 6= 0 un vector propriu pentru matricea B asociat
valorii proprii . Deci
n
X

bij xj = xi i I.

j=1

Vom arata ca |xj | = kxk j I. Pentru un i I pentru care |xi | = kxk


avem
n
X

|bij |kxk kxk

j=1

n
X

|bij ||xj |

j=1

deoarece
kxk = |xi | = || |xi | = |xi | = |

n
X

bij xj |

j=1

si

n
X

|bij | 1 deci

j=1
n
X
j=1

|bij |(|xj | kxk ) 0.

n
X
j=1

|bij | |xj |

34

Capitolul 1. Sisteme de ecuat


ii liniare

Cum |xj | kxk 0 atunci bij 6= 0 implica |xj | = kxk . Fie I1 = {i


I, |xi | = kxk }. Daca I1 6= I atunci I2 = I \ I1 6= . Pentru j I2 exist
a
i I1 astfel ca bij 6= 0 deoarece I = I1 I2 , I1 I2 = iar B este ireductibila.
Folosind observatiile de mai sus avem ca |xj | = kxk . Deci I1 = I, adica
P
|xj | = kxk j I. Avem prin urmare kxk = |xi | nj=1 |bij | kxk
P
deci nj=1 |bij | 1 pentru orice i I ceea ce contrazice faptul ca exista un
P
indice i I pentru care nj=1 |bij | < 1. Deci (B) < 1.
5) Din punctul 1) deja demonstrat, matricea A este nesingulara. Fie x un
vector propriu asociat valorii propri . Avem
xi =

n
X

aij xj

i I

j=1

fie
( aii )xi =

aij xj

i I.

j6=i

In relatia de mai sus alegem i astfel ca |xi | = kxk = maxjI {|xj |} si


obtinem
X
| aii |
|aij |
j6=i

ceea ce arata ca valorile proprii apartin reuniunii discurilor Ci avnd centrele


P
n aii si razele egale cu j6=i |aij |. Cum aii este strict pozitiv i I reuniunea
discurilor Ci nu contine dect puncte avnd partea reala strict pozitiva, caci
daca nu se obtine
X
aii <
|aij |
j6=i

n afara cazului n care = 0 unde avem posibil egalitate, dar aceasta este
exclus caci A este inversabila.
2
O matrice A Mn (R) se zice diagonal dominant
a n sens generalizat
( strict diagonal dominant
a n sens generalizat ) daca exista o matrice diagonala E avnd elementele diagonale strict pozitive astfel ca matricea E 1 AE
sa fie diagonal dominanta ( strict diagonal dominant
a ).
Propozitia 1.5 Dac
a A = (aii ) Mn (R) este o matrice strict diagonal
dominant
a n sens generalizat atunci A este nesingular
a si aii 6= 0 pentru
orice 1 i n.

matriciala

1. Elemente de analiza

35

Demonstratie. Matricea A este strict diagonal dominant


a n sens generalizat daca exista matricea D = diag(x1 , . . . , xn ) cu xi > 0 cnd 1
i n astfel ca AD sa fie strict diagonal dominant
a. Matricea (AD) este
1
nesingulara si cum exista D
rezult
a ca matricea A este nesingulara si
A1 = D(AD)1 . In plus
|(AD)ii | >

|(AD)ij | 1 i n

j6=i

deci
|aii |xi >

|aij |xj

1in

j6=i

de unde rezulta aii 6= 0.

O matrice A Mn (R) se zice monoton


a dac
a A este inversabil
a si
A1 0.
Teorema 1.14 O matrice A Mn (R) este monoton
a dac
a si numai dac
a
are loc urm
atoarea incluziune
{v Rn ; Av 0} {v Rn ; v 0}
Demonstratie. Daca matricea A este monotona si daca vectorul Av 0
deducem v = A1 (Av) 0 adic
a incluziunea de mai sus are loc. Reciproc,
presupunem ca incluziunea este satisfacut
a. Atunci
Av = 0 = A(v) 0 = v 0 = v = 0
ceea ce arata ca matricea A este inversabil
a. Pe de alta parte, coloana j
a matricei A1 este vectorul bj = A1 ej , unde ej = (1j , . . . , nj )T . Cum
Abj = ej este 0, rezulta bj 0, ceea ce demonstreaza ca matricea A1
este pozitiva (A1 0). Deci matricea A este inversabil
a si A1 0, adica
matricea A este monotona.
2
O matrice A Mn (R) se zice M - matrice daca exista s > 0 si
B Mn (R), B 0 astfel ca A = sI B si (B) s.
Propozitia 1.6 Dac
a A Mn (R) atunci:
1) A = (aij ) este o M - matrice nesingular
a dac
a si numai dac
a aij 0
pentru i 6= j si A1 0.

36

Capitolul 1. Sisteme de ecuat


ii liniare
2) A este o M -matrice nesingular
a dac
a si numai dac
a aij 0 pentru
i 6= j si A este o matrice strict diagonal dominant
a n sens generalizat.

Demonstratie. 1) Presupunem ca A este o M - matrice nesingulara. Atunci


A = sI B
cu s R, s > 0, B 0 si (B) < s. Pentru i 6= j avem aij = (sI B)ij =
(B)ij = bij 0, deci aij 0 i 6= j. S
a arat
am ca A1 0. Cum
1
1
(s B) < 1, folosind Teorema 1.5, avem ca s A = I s1 B este o matrice
inversabila. Seria
B B2
I + + 2 +
(1.7)
s
s
converge si
sA1 = (I

B 1
B B2
) = I + + 2 +
s
s
s

Cum B 0 si s > 0 avem A1 0. Reciproc , presupunem aij 0


i, j, i 6= j si A1 0. Putem scrie A = sI B cu B 0 si s > 0. Fie
Sk = I +
Avem

I
sau nca

sA1 = I

B
B k+1
+ . . . + k+1
s
s

B
B k+1
Sk = I k+1
s
s

B 1
B 1 B k+1
= Sk + I
.
s
s
sk+1

Fiecare element a lui Sk este un sir crescator marginit deci convergent. Seria
(1.6) converge ceea ce, utiliznd Teorema 1.4, implica (s1 B) < 1.
2) Daca A este strict diagonal dominant
a n sens generalizat, exista o matrice
diagonala D cu elemente diagonale strict pozitive astfel ca AD s
a fie strict
diagonal dominanta. In plus (AD)ij 0 pentru i 6= j, deoarece (AD)ij =
aij xj . Folosind punctul 1) din Propozitia 1.4 rezulta ca (AD)ii > 0 deci AD
este o M - matrice si la fel A este o M -matrice. Reciproc fie A o M -matrice
nesingulara. Atunci avem aij 0 i 6= j si aii > 0 iar din Propozitia
1.4 punctul 2) rezulta A1 0. Fie vectorul e definit prin eT = (1, . . . , 1)
P
si x = A1 e. Este clar ca x > 0, caci daca xi = 0 avem 0 = j (A1 )ij de

matriciala

1. Elemente de analiza

37

unde (A1 )ij = 0 adica A1 este singulara. Consideram matricea diagonala


D cu dii = xi . Evident De = x si ADe = Ax = e > 0 ceea ce semnifica
aii xi +

aij xj > 0

j6=i

dar aij 0 i 6= j deci |aij | = aij si


|aii |xi >

|aij |xj

j6=i

de unde rezulta ca matricea A este strict diagonal dominant


a n sens
generalizat.
2
Matricea M (A) = (mij ) definita prin mii = |aii | si mij = |aij | i 6= j
se numeste matrice de comparare asociata matricii A = (aij ).
Se spune ca A este o H-matrice daca matricea de comparare M (A) este o
M -matrice.
Propozitia 1.7 Dac
a A Mn (R) atunci:
1) A este o H-matrice nesingular
a dac
a si numai dac
a A este strict
diagonal dominant
a n sens generalizat.
2) Dac
a A o matrice diagonal dominant
a ireductibil
a atunci A este o
H-matrice.
Demonstratie. 1) Sa observam pentru nceput ca o matrice A este strict
diagonal dominanta n sens generalizat daca si numai daca M (A) este strict
diagonal dominanta n sens generalizat. Acum, matricea A fiind o H-matrice
rezulta ca M (A) este o M -matrice si conform definitiei unei M -matrici
rezulta ca exista s > 0 si B 0 astfel ca M (A) = sI B si (B) < s. De
aici obtinem (s1 B) < 1 adica matricea I s1 B este inversabil
a si cum
(I s1 B)1 = s((M (A))1 rezult
a M (A) inversabil
a. Utiliznd Propozitia
1.6, din faptul ca M (A) este nesingulara si o M -matrice rezulta ca M (A)
este strict diagonal dominant
a n sens generalizat deci A este strict diagonal
dominanta n sens generalizat. Reciproc, matricea A fiind strict diagonal
dominanta n sens generalizat rezulta M (A) strict diagonal dominant
a n
sens generalizat. Cum (M (A))ij 0 pentru i 6= j utiliznd Propozitia 1.6
rezulta ca M (A) este o matrice nesingulara, deci A este o H-matrice. Cum
pe de o parte A este nesingulara, fiind strict diagonal dominant
a n sens
generalizat rezulta ca A este o H-matrice nesingulara.

38

Capitolul 1. Sisteme de ecuat


ii liniare

2) Daca A este diagonal dominant


a ireductibila atunci matricea de comparare M (A) este diagonal dominant
a ireductibila si folosind Propozitia 1.4
punctul 3) obtinem ca M (A) este o matrice inversabil
a si mii = |aii | =
6 0
pentru i {1, . . . , n}. Daca D este matricea diagonala formata cu elementele
mii = |aii |, din cele de mai sus, rezulta ca D1 exista. Fie B = ID1 M (A).
Cum M (A)ij = |aij | pentru i 6= j si M (A)ii = |aii |, folosind faptul ca M (A)
este diagonal dominanta obtinem B 0. In plus, din Propozitia 1.4 punctul
4) avem (B) < 1. Cum D1 M (A) = I B cu B 0 si (B) < 1 rezulta ca
D1 M (A) este o M -matrice, de unde obtinem ca M (A) este o M -matrice,
deci A este o H-matrice.
2
Valorile proprii ale unei matrici hermitiene ( simetrice ) snt reale. Pentru
a da cteva caracterizari pentru valorile proprii ale unei matrici hermitiene
consideram aplicatia RA : V \ {0}C definita prin
RA (v) =

(Av, v)
v Av
= ,
(v, v)
v v

v 6= 0

numita ctul Rayleigh al matricei A. Notam ca daca matricea A este hermitiana, RA are valori reale. Remarcam n plus RA (v) = RA (v) pentru orice
C \ {0}. In consecinta {RA (v); v V } = {RA (v); v V, v v = 1}.
a de ordinul n, cu valorile proprii
Teorema 1.15 Fie A o matrice hermitian
1 2 n , iar vectorii propri asociati p1 , . . . , pn verificnd pi pj =
ij . Pentru k = 1, . . . , n, not
am Vk subspatiul din V generat de vectorii pi ,
1 i k si not
am Vk multimea subspatiilor k-dimensionale din V . Lu
am
V0 = {0} si V0 = {V0 }. Valorile proprii admit caracteriz
arile urm
atoare,
pentru k = 1, 2, . . . , n
1) k = RA (pk )
2) k = max RA (v)
vVk

3) k = min RA (v)
vVk1

4) k = min max RA (v)


W Vk vW

5) k = max min RA (v)


W Vk1 vW

Prin urmare

matriciala

1. Elemente de analiza

39

6) {RA (v), v V } = [1 , n ] R
Demonstratie. Fie U matricea unitara a caror coloane snt vectorii proprii
p1 , . . . , pn astfel ca U AU = diag(1 , . . . , n ) = D, si fie v un vector nenul
din V . Punnd v = U w avem
w U AU w
w Dw
v Av
=
=
= RD (w).
v v
w U U w
w w

RA (v) =

Un vector v Vk fiind de forma v = ki=1 1 pi , vectorul corespunzator w


are forma w = (1 , . . . , k , 0, . . . , 0)T ceea ce se vede imediat pornind de la
egalitatea v = U w. Prin urmare
k
X

RA (

i p i ) =

i=1

k
X

k
X

i |i |2 /

i=1

|i |2

i=1

ceea ce demonstreaza (1) si (2). In acelasi mod, orice vector v ortogonal


P
pe Vk1 fiind de forma v = ni=k i pi vectorul corespunzator w are forma
w = (0, . . . , 0, k , . . . , n )T ceea ce se vede imediat pornind de la egalitatea
v = U w. Prin urmare
n
X

RA (

n
X

i pi ) = (

i=k

n
X

i |i |2 )/(

i=k

|i |2 )

i=k

ceea ce demonstreaza (3). Din (2) avem


k = max RA (v) inf max RA (v)
vVk

W Vk vW

si ramne deci de demonstrat ca k maxvW RA (v) pentru orice W


= {v V ; v V
VK . Definim spatiul vectorial Vk1
k1 }, care este de dimensiune (n k + 1). Este suficient de demonstrat ca, daca W este un subspatiu
T
vectorial oarecare de dimensiune k din V , subspatiul W Vk1
contine si
) 1. In fapt, deducem
alti vectori n afara lui zero, adica dim(W Vk1
atunci din (3) ca

v (W Vk1
{0})=k RA max RA (v).
vW

Cum

dim(W Vk1
) = dim(W ) + dim(Vk1
) dim(W + Vk1
)

40

Capitolul 1. Sisteme de ecuat


ii liniare

unde

W + Vk1
= {z V ; z = w + v, w W, v Vk1
}

relatiile
dim(W ) = k,

dim(Vk1
) = n k + 1,

dim(W + Vk1
) dim(V ) = n

) 1. Relat
arata ca dim(W + Vk1
ia (5) se demonstreaza analog. In sfirsit
relatia (6) decurge din inegalitatile 1 RA (v) n pentru orice v
V \ {0} (consecinta a inegalitatilor (2) si (3) ), din continuitatea restrictiei
aplicatiei RA la sfera unitate {v V ; v v = 1} a lui V , si din conexitatea
acestei sfere unitate.
2

Remarca 1.1
Din (3) si (2) rezult
a: 1 = min{RA (v); v V },

n = max{RA (v); v V }

Metode directe

Vom prezenta n continuare cteva metode directe de rezolvare a sistemelor


liniare. Snt considerate metode directe de rezolvare acele metode care
ntr-un numar finit de operatii duc la solutia exacta a sistemului. Evident
se considera faptul ca operatiile se fac far
a erori de calcul.

2.1

Principii generale n rezolvarea


sistemelor liniare

Problema pe care o vom considera, n acesta sectiune, este ceea a rezolvarii


numerice a unui sistem liniar Ax = b a carui matrice A este inversabil
a. Pentru rezolvarea unui sistem liniar Ax = b de ordin superior lui 2 sau 3 trebuie
evitat calculul matricii A1 , sau sa se utilizeze regula lui Cramer. Aceste
procedee necesita timp de calcul superior celui necesar utiliznd metodele
numerice pe care le vom studia.
a) Examinam mai nti calculul matricii inverse A1 : rezolvam pentru aceasta
n sisteme liniare
Axj = ej ,
1jn
(2.1)
unde ej este al j-lea vector al bazei canonice iar xj al j-lea vector al matricei
A1 . Acest procedeu consta deci n nlocuirea rezolvarii unui singur sistem
Ax = b cu cel a n sisteme Axj = ej de acelasi ordin ! Trebuie n plus

2. Metode directe

41

nmultita matricea inversa obtinut


a A1 prin vectorul b. La fel procedam
daca trebuie sa calculam solutiile la mai multe sisteme liniare
Axm = bm ,

1mN

si chiar daca N este superior lui n (ordinul matricii A), este preferabil sa
nu se calculeze A1 n acest mod, ci sa se descompuna A ntr-un produs de
tipul A = L U unde L este o matrice inferior triunghiulara iar U este o
matrice superior triunghiulara.
Daca este nevoie sa se calculeze inversa A1 pentru o matrice A, ca de
exemplu n cazul estimarii unor parametrii n problemele statistice, sau pentru determinarea normei unei matrici, procedam ca n (2.1).
b) In ceea ce priveste regula lui Cramer, vom demonstra ca este imposibil
de utilizat n cazurile ce apar n practica. Trebuie sa se calculeze n + 1
determinanti de ordinul n; calculul fiecarui determinant cere n general pn n!
nmultiri, cnd se calculeaza minorii, unde
pn =

n
X

1
(j 1)!
j=2

(2.2)

si lim pn = e 1. Trebuie facut un num


ar comparabil de adunari. Solutia
n
sistemului Ax = b prin regula lui Cramer cere deci 2pn (n + 1)! operatii
aritmetice elementare.
Daca consideram n = 20 avem aproximativ 17 1019 operatii. Pentru un
calculator capabil sa efectueze cam 2 milioane de operatii pe secunda aceasta
reprezinta mai mult de 2 milioane de ani de calcul neintrerupt.
c) In loc de a face apel la determinanti, metodele directe de rezolvare a
sistemelor liniare folosesc urmatorul principiu fundamental.
Daca matricea (presupusa regulata) a unui sistem liniar este
triunghiular
a, rezolvarea sistemului este un proces imediat.
Sa presupunem ca avem de rezolvat pentru o matrice superior triunghiulara
U , sistemul U x = b sau scris pe componente
u11 x1 + u12 x2 + + u1,n1 xn1
u22 x2 + + u2,n1 xn1

+
+

u1n xn
u2n xn
..
.

= b1
= b2

un1,n1 xn1 + un1,n xn = bn1


un,n xn = bn

42

Capitolul 1. Sisteme de ecuat


ii liniare

matricea U fiind nesingulara avem uii 6= 0 1 . Putem deci rezolva succesiv


fiecare ecuatie a sistemului ncepnd cu ultima
xn
= bn /unn
xn1 = (bn1 un1,n xn )/un1,n1
..
.
x1

= (b1 u12 x2 u1,n1 xn1 u1,n xn )/u11

sau scris concentrat


xi = (bi

n
X

uij xj )/uii ,

i = n, n 1, . . . , 1.

j=i+1

Obtinem astfel solutia sistemului de mai sus efectund


n mpartiri
n(n 1)
nmultiri
2
n(n 1)
1 + 2 + + (n 1) =
adun
ari
2
1 + 2 + + (n 1) =

Pentru n = 20, de exemplu, este nevoie de 400 operatii elementare.


Intelegem, n aceste conditii, ca obiectivul metodelor numerice este de-a
triangulariza matricea sistemului ce trebuie rezolvat, adica de-a determina
o matrice M , de ordin n inversabil
a si usor de calculat, astfel ca matricea
M A sa fie superior triunghiulara; si apoi sa rezolvam sistemul
M Ax = M b.
Pe de alta parte, remarcam ca fiecare necunoscuta xi este, dupa rezolvarea
unui sistem superior triunghiular, o functie liniara de bi , bi+1 , . . . , bn , ceea
ce arata ca
Inversa unei matrici superior (respectiv inferior) triunghiulare este o matrice
superior (respectiv inferior) triunghiular
a. Aceasta arata ca inversarea unei
matrici triunghiulare nesingulare este un proces explicit care joaca un rol
important n aplicatiile numerice. Pentru a determina de exemplu, inversa
unei matrici inferior triunghiulare A = (aij ), cautam o matrice inferior
1

Determinantul unei matrici triunghiulare este egal cu produsul elementelor diagonale.

2. Metode directe

43

triunghiulara B = (bij ) procesnd linie pe linie.


i = 1 a11 b11 = 1
i = 2 a21 b11 + a22 b21 = 0, a22 b22 = 1
i = 3 a31 b11 + a32 b21 + a33 b31 = 0, a32 b22 + a33 b32 = 0, a33 b33 = 1
(2.3)
si asa mai departe. Putem rezolva succesiv, de sus n jos, ecuatiile (2.3) si
obtinem necunoscutele: b11 , b21 , b22 , b31 , b32 , b33 , etc. Expresia generala a lui
bij este data de

i1
X

a
b
/aii
ik
kj

bij =

j<i
i = 1, 2, . . . , n

k=j

1/aii

j=i

Remarca 2.1 Vom presupune n continuare c


a matricea A a sistemului de
rezolvat este real
a. In fapt, dac
a A este cu elemente complexe si dac
a b Cn ,
putem reducem totul la cazul real lund A = M + iN, M, N matrici reale
de ordinul n, b = p + iq, x = y + iz cu p, q, y, z Rn . Sistemul Ax = b este
echivalent cu sistemul liniar real

M
N

N
M

y
z

p
q

de ordin 2n si este suficient, deci, de a rezolva sistemele liniare reale.

2.2

Metoda Gauss sau metoda elimin


arii

Metoda Gauss este cea mai utilizata metoda directa de rezolvare a sistemelor
liniare.
Metoda Gauss de eliminare
Metoda Gauss este o metoda generala de rezolvare a sistemelor liniare
Ax = b, A matrice inversabila. Aceasta metoda comporta 3 etape:
(i) eliminarea succesiva a necunoscutelor, echivalent
a cu determinarea
unei matrici inversabile M astfel ca matricea M A sa fie superior
triunghiulara;

44

Capitolul 1. Sisteme de ecuat


ii liniare

(ii) calcularea vectorului M b;


(iii) rezolvarea sistemului M Ax = M b unde matricea M A este superior
triunghiulara (prin metoda descrisa n paragraful anterior).
Observatie. In practica, nu se calculeaza explicit matricea M ci doar matricea M A si vectorul M b. Introducerea matricei M foloseste pentru comoditatea scrierii.
Vom descrie prima etapa de eliminare. Cel putin unul din elementele ai1 ,
1 i n din prima coloana a matricei A = (aij ) este diferit de zero, n caz
contrar matricea A este singulara.
Alegem unul din coeficientii nenuli din prima coloana a lui A ( vom examina mai trziu cum alegem efectiv acest element nenul, pentru moment
alegerea efectiva nu are important
a ) pe care-l vom numi primul pivot al
eliminarii. Apoi, vom permuta linia pivotului cu prima linie, ceea ce
n scriere matriciala, revine la a nmulti matricea A la stnga cu o matrice
de permutare particulara.
Se verifica usor ca permutarea liniei i cu linia k este echivalent
a cu nmultirea
la stnga printr-o matrice de permutare P , unde este transpozitia (i, k)
adica (j) = j, j 6= i, j 6= k si (i) = k, (k) = i, deci I(i,k) este de
forma (presupunem ca i < k pentru a fixa ideile)

I(i,k) =

..

.
1
0

1
1 0 0
.. .. . .
. .
. .. ..
. .
0 0 1
1

0
1

..

.
1

Lund
(

P =

I
daca a11 este pivotul, si atunci det(P)=1
I(1,i) daca ai1 , i 6= 1 este pivotul, si atunci det(P ) = 1

2. Metode directe

45

si matricea
P A = (ij )

(2.4)

astfel obtinuta are 11 6= 0 ( prin constructie). Pentru fiecare indice


i = 2, . . . , n, nmultim prima linie din (2.4) cu
mi1 =

i1
11

si apoi o scadem din linia i si se obtine


bij = ij mi1 1j ,

2 j n.

In scriere matriciala, aceasta revine la nmultirea matricei P A prin matricea

1
m21

E = N1 = ..
.

..

mn1

astfel ca matricea B = EP A este de forma

11
0

B = ..
.
0

12
b22
..
.

1n
b2n

..
.

bn2

bnn

Cum det(E) = 1 avem det(B) = det(E)det(P )det(A) = det(A), ceea ce


arata ca matricea B este nca inversabil
a.
Prin urmare, cel putin unul dintre elementele bi2 , 2 i n este diferit
de zero, si n mod natural a doua etapa de eliminare consta n efectuarea
acelorasi operatii, dar numai pe matricea (bij ), 2 i, j n, lasnd prima
linie neschimbata si asa mai departe. Notnd
(1)

(1)

(2)

A = A1 = (aij ), P = P1 , P1 A1 = (ij ), E = E1 , B = A2 = E1 P1 A1 = (aij )


obtinem din aproape n aproape ca rezultat a celei de-a (k 1)-etape de
eliminare 2 k n, o matrice Ak = Ek1 Pk1 E1 P1 A care este de

46
forma

Capitolul 1. Sisteme de ecuat


ii liniare

(1)
11

Ak =

(1)

(2)

(1)

1,k1

(1)

1k

(1)

(2)

..
.

2,k1
..
.
(k1)
k1,k1

(2)

2,k
..
.
(k1)
k1,k

(2)

0
..
.

(k)
akk

(k)

akn
..
.

ank

ann

12

22

1n

2n

..

.
(k1)
k1,n

(k)

..
.

(k)

Etapa k de eliminare. Deoarece det(Ak ) = det(A), matricea Ak este


(k)
inversabila, si deci, cel putin un element aik , k i n este diferit de
(k)
zero. Alegem unul dintre elementele nenule aik ca pivot si schimb
am linia
k a matricei Ak cu linia pivotului. In scriere matriciala, aceasta revine la
a nmultii matricea Ak la stnga cu o matrice Pk care este fie I fie I(k,i) .
(k)

(k)

Elementul kk al matricii Pk Ak = (ij ) este diferit de zero. Pentru i =


(k)

(k)

k +1, . . . , n nmultind linia k a matricii Pk Ak cu mik = ik /kk si scazind-o


din linia i obtinem ca elementul de pe pozitia (i, k) n noua matrice este nul.
In plus
(k+1)
(k)
(k)
aij
= ij mik kj , j = k + 1, . . . , n
Operatia de eliminare consta n nmultirea la stnga a matricii Pk Ak cu
matricea

Ik1

m
1

k+1,k
Ek = Nk =

..

..
.

.
mnk

Dupa (n 1) etape, matricea


An = En1 Pn1 E1 P1 A
este o matrice superior triunghiulara, deci am gasit o matrice
M = En1 Pn1 E1 P1
astfel ca M A sa fie superior triunghiulara. Observam ca det(M ) = (1)s
unde s este egal cu numarul de permut
ari de linii pe care le-am facut n
timpul etapei de eliminare.

2. Metode directe

47

Teorema 2.1 Fie A o matrice p


atrat
a (inversabil
a sau nu). Exist
a cel putin
o matrice M inversabil
a astfel ca matricea M A s
a fie superior triunghiular
a.
Demonstratie. Acest rezultat este demonstrat mai sus cnd matricea A este
inversabila. Matricea A este singulara daca si numai daca exista un k astfel
(k)
ca elementele aik , k i n din matricea Ak snt nule. Dar in acest caz
matricea Ak este deja sub forma Ak+1 si este suficient sa luam Pk = Ek = I.
2
Tehnici de pivotare
Facem n cele ce urmeaza cteva precizari privind alegerea pivotului n fiecare
etapa de eliminare. Natural, daca la nceputul etapei k de eliminare, elemen(k)
tul akk al matricei Ak este diferit de zero, nimic nu ne mpiedic
a, din punct
de vedere teoretic, sa-l alegem ca pivot ( deci Pk = I). Dar din cauza erorilor
de rotunjire, acest mod de a proceda este, n anumite cazuri, nerecomandat.
Din acest punct de vedere exemplul urmator este instructiv. Presupunem ca
lucram n virgula flotanta, cu o mantisa de trei cifre, si ntr-un sistem zecimal (pentru a fixa ideile si, n acelasi timp, pentru a usura calculele) altfel
zis, datele si rezultatele calculelor intermediare snt rotunjite la primele trei
cifre semnificative.
Consideram sistemul exact
[104 ]u1 +u2 = 1,
u1 +u2 = 2,
a carui solutie exacta este u1 = 1.00010 . . . ' 1,
u2 = 0.99990 . . . ' 1.
4
Putem lua numarul a11 = 10 ca pivot pentru ca el nu este nul, ceea ce va
conduce n procesul de eliminare la
[104 ]u1

+u2 = 1,
9990u2 = 9990,

pentru ca numerele (104 + 1) = 9999 si (104 + 2) = 9998 snt rotunjite la acelasi numar 9990. Solutia asit
an acest mod u1 = 0, u2 = 1
este foarte departe de solutia exacta ! Din contr
a, daca ncepem prin permutareacelor doua ecuatii, adica alegem drept pivot a21 = 1 sntem condusi
la calculele urmatoare
(

[1]u1 +u2 = 2,
104 u1 +u2 = 1,

u1

+u2 = 2,
0.999u2 = 0.999

48

Capitolul 1. Sisteme de ecuat


ii liniare

pentru ca numerele (104 + 1) = 0.9999 si (2 104 + 1) = 0.9998 snt


rotunjite la acelasi numar 0.999. Solutiaobtinut
a u1 = 1, u2 = 1 este
foarte satisfacatoare !
Acest exemplu arata ca erorile de rotunjire cu efect dezastruos provin din
mpartirea printr-un pivot prea mic. Astfel, n practica, utilizam una din
strategiile urmatoare, la nceputul etapei k, 1 k n 1, de eliminare
(k)

Pivotare partial
a.
Pivotul este unul dintre elementele aik ,
k i n, care verifica
(k)

(k)

|aik | = max |apk |;


kpn

(k)

Pivotarea total
a.
Pivotul este unul dintre elementele aij ,
k i, j n, care verifica
(k)

|aij | = max |a(k)


pq |.
kp, qn

Daca pivotul ales prin aceasta strategie nu este pe coloana k, trebuie sa


efectuam si o permutare de coloane si o permutare de linii. Aceasta strategie este asemanatoare, dar nu identic
a, cu procedura de eliminare pe care
noi am descris-o, pentru ca aceste operatii snt echivalente cu multiplicarea
la dreapta a matricii Ak cu o matrice de permutare. O strategie de pivotare
(partiala sau totala) este indispensabila daca dorim sa evitam erorile mari
de rotunjire cnd aplicam metoda GAUSS sistemelor liniare cu matrici arbitrare. Din contra, n anumite cazuri particulare nu este necesar a se folosi
o strategie de pivotare.
Remarca 2.2 Dac
a matricea A este diagonal dominant
a , adic
a
|aii |

|aij |,

i = 1, 2, . . . , n

(2.5)

j6=i

atunci n metoda Gauss nu este necesar


a permutarea liniilor.
Demonstratie. Vom face demonstratia prin inductie dupa k. Daca k = 2
atunci folosind formulele (2.5) obtinem
(2)

(1)

aii = aii

(1)

ai1

a
(1) 1i
a11

= aii

ai1
a1i
a11

2. Metode directe

49

si
(2)
aij

(1)

(1)
aij

ai1

astfel

a
(1) 1j
a11

= aij

(2)

|aij |

j6=i
j2

ai1
a1j ,
a11

|aij | +

j6=i
j2

(|aii | |ai1 |) +

(2)

j > 2,

ai1 = 0, i > 0

|ai1 | X
|a1j |
|a11 | j6=i
j2

|ai1 |
|ai1 |
(2)
(|a11 | |a1i |) = |aii |
|a1i | |aii |
|a11 |
|a11 |

deoarece
(2)

|aii | |aii | +

|ai1 |
|a1i |
|a11 |

Daca presupunem ca (2.5) este adevarat


a pentru (k 1) folosind formulele
(2.5) pentru k obtinem:
n
X

(k)
|aij |

n
X

j=1,j6=i

(k)
|aij |

j=k,j6=i
n
X

(k1)
|aij |

j=k,j6=i
(k1)

(k1)
|aij |

j=k,j6=i

n
X

|ai,k1 |
(k1)
|ak1,k1 |

n
X

(k1)

|ai,k1 |

(k1)
j=k,j6=i |ak1,k1 |

n
X

(k1)

|ak1,j |

(k1)

|ak1,j |

j=k,j6=i

(k1)

n
X

(k1)
|aij |

j=k,j6=i

|ai,k1 |
(k1)
|ak1,k1 |

(k1)

k1)

(|ak1,k1 | |ak1,i |)
(k1)

(k1)
|aii
|

(k1)
|ai,k1 |

(k1)
|ai,k1 |

|ai,k1 |
(k1)
|ak1,k1 |

(k1)

(k)

|ak1,i | |aii |
2

Remarca 2.3 Dac


a A este o matrice simetric
a si pozitiv definit
a, adic
a
AT = A si xT Ax > 0 pentru orice x 6= 0
atunci metoda Gauss functioneaz
a f
ar
a pivotare.

(2.6)

50

Capitolul 1. Sisteme de ecuat


ii liniare

Demonstratie. Vom demonstra, pentru nceput, ca daca aij = aji


1 i, j n si daca eliminarea gaussiana functioneaz
a far
a pivotare atunci
(k)

(k)

aij = aji

k i, j n

(2.7)

adica elementele transformate formeaza o matrice simetrica de ordin


(n + 1 k) pentru k = 2, . . . , n. Afirmatia este adevarat
a pentru k = 1.
(k+1)
T
innd seama de modul n care se definesc elementele aij
avem
(k+1)

aij

(k)

(k)

(k)

= aij mik akj = aij

(k)

aik

(k)
akk

(k)

akj

Deci, daca relatiile (2.7) au loc pentru un anume k, atunci


(k)

(k+1)
aij

(k)
aji

ajk

(k)
akk

(k)

(k)

(k)

(k+1)

aki = aji mjk akj = aji

si afirmatia rezulta prin inductie. Pentru matrici simetrice si pozitiv definite


eliminarea gaussiana poate fi facut
a far
a pivotare. Utiliznd criteriul lui
Sylvester rezulta ca o matrice simetrica este pozitiv definita daca si numai
daca
det(k ) > 0 k = 1, 2, . . . , n
unde k snt matrici formate prin intersectia primelor k linii si k coloane ale
(1)
(2)
(k)
matricei A. Cum det(k ) = a11 a22 akk , k = 1, 2, . . . , n rezulta ca acest
(k)
criteriu a lui Sylvester este echivalent cu akk > 0, k = 1, 2, . . . , n. Deci,
daca efectuam eliminarea gaussiana far
a schimbarea linilor si coloanelor lui
A, atunci toti pivotii snt pozitivi daca si numai daca A este pozitiv definita.
Sa remarcam din ultimul criteriu ca matricele reduse formate cu elementele
(k)
aij , k i, j n snt pozitiv definite. In plus, utiliznd acelasi criteriu a
lui Sylvester rezulta ca pentru o matrice simetrica pozitiv definita A avem
|aij |2 aii ajj si deci elementele maxime n modul pentru matricea A se
afla pe diagonala principala. Acest lucru rezulta n modul urmator. Daca
permutam aceleasi lini si aceleasi coloane ale unei matrici simetrice si pozitiv
definite rezulta tot o matrice simetrica si pozitiv definita. Acum, pentru
k = 2 si o permutare adecvata, criteriul lui Sylvester da

0 < det
de unde rezultatul cerut.

aii aij
aji ajj

= aii ajj a2ij


2

2. Metode directe

51

Num
arul operatiilor elementare n metoda Gauss
Sa calculam numarul de operatii elementare necesare n metoda Gauss.
(i) Eliminare Pentru a trece de la matricea Ak la matricea Ak+1 ,
1 k n 1 efectuam (n k) mp
artiri, (n k + 1)(n k) adunari si
tot attea nmultiri, deci n total

n1
X

(n k + 1)(n k) =

k=1
n1
X

(n k + 1)(n k) =

k=1

n1

n(n 1)

(n k) =

n3 n
3

adunari

n3 n
3

nmultiri
mp
artiri

k=1

(ii) Pentru trecerea de la vectorul Ek1 Pk1 . . . E1 P1 b la vectorul


Ek Pk E1 P1 b efectuam (n k) adunari si tot attea nmultiri, deci n total

n(n 1)

adun
ari
(n 1) + (n 2) + + 1 =

n(n 1)

(n 1) + (n 2) + + 1 =
nmultiri

(iii) Rezolvarea sistemului triunghiular necesita

n(n 1)

adunari

n(n 1)
2

inmultiri

mp
artiri

In final tinnd cont de toate operatiile, metoda Gauss necesita:

n(n 1)(n + 4)

n(n 1)(n + 4)

n(n + 1)

adun
ari
inmultiri
mp
artiri

52

Capitolul 1. Sisteme de ecuat


ii liniare

Este instructiv sa comparam num


arul de operatii elementare n metoda
Gauss cu numarul de operatii utiliznd regula lui Cramer. Regula lui Cramer
necesita determinarea a (n + 1) determinanti si apoi n mp
artiri. Dar calculul unui deteminant necesita ((n!) 1) adunari si (n 1)n! nmultiri, deci
utiliznd regula lui Cramer snt necesare

(n + 1)! (n + 1) adunari

(n 1)(n + 1)! nmultiri


n impartiri

Pentru n = 10 de exemplu, obtinem


(

900
400 000 000

operatii pentru metoda Gauss,


operatii pentru metoda Cramer

Fara comentarii !
Metoda Gauss-Jordan
Metoda Gauss este cea mai utilizata metoda pentru rezolvarea sistemelor
liniare a caror matrice nu au proprietati particulare. O metoda aseman
atoare
metodei Gauss este metoda Gauss-Jordan. In loc sa caut
am o matrice M
astfel ca matricea M A sa fie superior triunghiulara ( A fiind matricea inversabila data), cautam o matrice M astfel ca matricea M A sa fie diagonala.
Rezultatul etapei (k 1) de eliminare este atunci o matrice de forma

Ak = Ek1 Pk1 E1 P1 A =

(1)

a11

(k)

(2)

a22

(k)

a1k a1k
(k)
(k)
a2k a2k
..
..
..
.
.
.
(k)
(k)
akk akn
..
..
.
.
(k)

ank
(k)

(k)

ann

Ca si n metoda lui Gauss unul din elementele aik , k i n este diferit de


zero (matricea A fiind inversabil
a) pe care l alegem ca pivot, ceea ce revine
la o nmultire la stnga matricea Ak prin matricea de permutare Pk astfel

2. Metode directe

53

(k)

k ) = P A s
ca kk (adica pivotul ales) al matricii (ij
k k a fie diferit de zero.
Matricea Ek este atunci de forma

Ek = Sk =

(k)

1
..

m1k
..
.

1 mk1,k
1
mk+1,k 1
..
..
.
.
k
mn,k
1

(k)

unde mik = ik /kk astfel ca dupa (n 1) etape, matricea An = M A cu


M = En1 Pn1 E2 P2 E1 P1 este diagonala.
Metoda Gauss-Jordan se utilizeaza pentru calculul inversei unei matrici date,
rezolvnd simultan n sisteme liniare
Axj = ej ,

1jn

aplicnd pentru fiecare al doilea membru ej transform


arile (permutarea si
combinarea liniara a liniilor) reprezentate prin Pk si Ek . Obtinem
An xj = M ej ,

1jn

si fiecare asemenea sistem se rezolva imediat pentru ca matricea An este


diagonala.

2.3

Metode utiliznd factorizarea matricilor

Am vazut ca mai multe sisteme cu aceiasi matrice pot fi tratate simultan


prin metoda Gauss. In multe situati nu toti termeni din membrul drept
snt disponibili de la nceput. Putem, de exemplu, dori sa rezolvam ecuatiile
Ax1 = b1 si Ax2 = b2 , unde b2 este o functie de x1 . Deci pare a fi necesar
sa repetam eliminarea de la nceput, cu un cost considerabil n num
ar de
operatii. Vom arata ce putem face far
a sa refacem operatia de eliminare.
Factorizarea LU a unei matrici
Presupunem ca putem gasi o factorizare a matricii A, ca produs a doua
matrici una inferior triunghiulara si alta superior triunghiulara, adica A =

54

Capitolul 1. Sisteme de ecuat


ii liniare

L U. Atunci sistemul Ax = b este echivalent cu (L U )x = b, care se


descompune n doua sisteme
Ly = b si U x = y.
n(n 1)
2
adunari si nmultiri si 2n mp
artiri sau prin n2 operatii comparate cu n3 /3
operatii cerute n eliminarea gaussiana.

Deci daca cunoastem L si U putem rezolva sistemul Ax = b cu 2

In ce priveste factorizarea LU a unei matrici patrate A urmatoarea teorema


este fundamentala.
Teorema 2.2 (factorizarea LU a unei matrici) Fie A = (aij ) o matrice p
atrat
a de ordin n astfel ca submatricile diagonale

a11 a1k
..
.. ,
4k = .
.
ak1 akk

1kn

s
a fie inversabile. Atunci exist
a o matrice inferior triunghiular
a L = (lij ) cu
lii = 1, 1 i n si o matrice superior triunghiular
a U astfel ca A = LU .
In plus, aceast
a factorizare este unic
a.
Demonstratie. Vom demonstra pentru nceput unicitatea factorizarii LU.
Presupunem ca exista doua asemenea factorizari A = L1 U1 = L2 U2 .
Deducem

L1
2 L1 =

1
x 1
..
.

x x x

x x

1
=
..
..
..

= U2 U1 .
.
. .

x x 1
x

1
Or aceasta egalitate nu este posibila dect daca L2 L1
1 = U2 U1 = I, de
unde L1 = L2 si U1 = U2 .

Pentru existenta factorizarii dam doua demonstratii.


Prima demonstratie se face prin inductie dupa n. Pentru n = 1, descompunerea a11 = 1 u11 este unica. Presupunem ca teorema este adevarat
a
pentru n = k 1. Pentru n = k partition
am 4k , Lk , Uk astfel

4k =

4k1
cT

b
akk

Lk =

Lk1
lT

0
1

Uk =

Uk1
0

u
ukk

2. Metode directe

55

unde b, c, l si u snt vectori coloana cu (k 1) componente. Daca formam


produsul Lk Uk si identificam cu 4k obtinem
Lk1 Uk1 = 4k1 ,

lT Uk1 = cT ,

Lk1 u = b,

lT u + ukk = akk

Din ipoteza de inductie, matricele Lk1 si Uk1 snt unic determinate, si


deoarece det(Lk1 ) det(Uk1 ) = det(4k ) 6= 0, rezulta Lk1 si Uk1 nesingulare. Rezulta ca u si l snt unic determinati din sistemele triunghiulare
T
Lk1 u = b si Uk1
l = c. In sfrsit, ukk = akk lT u. Deci Lk si Uk snt unic
determinate, care termina demonstratia.
A doua demonstratie. Pentru ca a11 6= 0, putem alege P1 = I. Presupunem ca am putut alege P1 = P2 = = Pk1 = I astfel ca egalitatea
(Ek1 E1 )A = Ak se scrie

1
x 1
.. .. . .
.
. .
x x 1
.. ..
..
.
. .
x x 1

(1)

a11

a11



.
..

ak1

..
.

a1k x

..
4k
.
akk

=
x

(1)

a1k x

..

..

.
.

(k)
akk x

..

Utiliznd regulile de nmultire pe blocuri si tinnd seama de forma particulara


(k)
(1)
a matricilor obtinem det(4k ) = a11 akk . Cum det(4k ) 6= 0, din ipoteza,
(k)
deducem ca elementul akk este nenul. Il putem alege pivot ceea ce este
echivalent cu Pk = I.
Existenta unei factorizari LU posednd proprietatile anuntate n enuntul
teoremei se demonstreaza lunnd
A = (En1 E2 E1 )1 (En1 E2 E1 A) = L U
2

56

Capitolul 1. Sisteme de ecuat


ii liniare

Remarca 2.4 Dac


a pentru un k, det(4k ) = 0, atunci nu exist
a, n general,
o descompunere LU pentru matricea A.
Intr-adevar, presupunem ca matricea

A=

0 1
1 1

are o descompunere LU , adica

LU =

l11
l21

0
l22

u11
0

u12
u22

l11 u11
l21 u11

l11 u12
l21 u12 + l22 u22

=A

Rezulta ca, sau l11 = 0 sau u11 = 0. Dar atunci, sau prima linie sau prima
coloana devine zero astfel ca A 6= LU .
Notam ca daca n acest exemplu liniile matricii A snt permutate atunci matricea devine triunghiulara, astfel descompunerea LU n mod evident exista.
Teorema 2.3 Eliminarea gaussian
a si factorizarea LU snt echivalente.
Demonstratie. Presupunem, la nceput, ca matricea A are proprietatea ca
eliminarea gaussiana poate fi facut
a far
a permut
ari de lini si coloane. In
procesul de eliminare obtinem un sir de matrici A = A1 , A2 , . . . , An , unde
Ak este de forma

Ak =

a11

(1)

a12

(1)

(1)

a1k

a22

..
.

a2,k1
..
.

(2)

a1n

(2)

a1,k1

(1)

a2k
..
.

a2,n
..
.

(k1)

(k1)

ann

(2)

ak1,k1 ak1,k

(k)

0
..
.

akk
..
.

ank

(k)

(1)

(k1)
ak1,n .
(k)
akn

..

(2)

(k)

Sa consideram acum un element de pe pozitia (i, j) n timpul eliminarii.


Daca aij este pe diagonala sau deasupra diagonalei principale, adica i j
atunci
(n)
(i+1)
(i)
aij = = aij
= aij , i j
Daca, pe de alta parte, aij este sub diagonala principala, atunci
(n)

(j+1)

aij = = aij

= 0,

i > j.

2. Metode directe

57

(k)

Deci elementul aij se modifica pentru k = 1, . . . , r = min(i 1, j) prin


relatiile
(k+1)
(k)
(k)
aij
= aij mik akj
Daca aceste relatii snt adunate pentru k = 1, . . . , r obtinem
r
X
(k+1)

aij

k=1

r
X
(k)

aij =

(r+1)
aij

aij =

k=1

r
X

(k)

mik akj

k=1

Unitar, acestea pot fi scrise sub forma

(i)

aij

aij =

sau, daca definim mii = 1,


aij =

i1
X

(k)

ij

(k)

i>j

mik akj

k=1

j
X

mik akj

k=1

i = 1, . . . , n
p
X

mik akkj ,

p = min(i, j)

k=1

Dar aceste ecuatii snt echivalente cu ecuatia matriciala A = LU unde


elementele nenule n L si U snt date de
(L)ik = mik , i k,

(k)

(U )kj = akj , k j.

Concludem ca elementele matricei L snt multiplicatorii din eliminarea gaussiana iar U este matricea triunghiulara finala obtinut
a prin eliminarea gaussiana. Deci pentru a obtine matricea L trebuie sa pastr
am multiplicatorii
(k) (k)
mik . Aceasta poate fi usor facut
a la un calculator. Deoarece mik = aik /akk
(k+1)
(k)
este determinat astfel ca aik
devine zero, putem rescrie mik peste aik . De
asemenea, elementele de pe diagonala principala a lui L nu trebuie memorate. Deci nu este nevoie de memorie suplimentar
a si efectul eliminarii poate
fi reprezentat prin

a11
a21
..
.

a1n
a2n
..
.

an1

ann

an1,1

u11
l21
..
.

ln1,1
an1,n

ln1

u12
u22
..
.

..
.

u1,n1
u2,n1
..
.

ln1,2 un1,n1
ln2

ln,n1

u1n
u2n
..
.

un1,n

unn

58

Capitolul 1. Sisteme de ecuat


ii liniare

Mai mult, notam ca deoarece det(Lk ) = 1, avem


(1)

(k)

det(Ak ) = a11 akk ,

k = 1, . . . , n

(2.8)

Scheme compacte
Prin urmare, eliminarea gaussiana poate continua far
a inversarea linilor si
coloanelor daca si numai daca det(k ) 6= 0, k = 1, . . . , n 1, care este
conditia din Teorema 2.2.
Stim ca eliminarea gaussiana poate fi instabila fara pivotare partial
a, astfel
liniile snt permutate n procesul de eliminare. Este important de notat ca
aceste schimbari de linii fac doar sa obtinem L si U astfel ca A0 = LU , unde
matricea A0 se obtine din matricea A prin permutarea liniilor.
Acum, vom arata cum descompunerea LU se foloseste n practica pentru rezolvarea sistemului Ax = b. Efectuam eliminarea gaussian
a n A cu pivotare
partiala, si salvam indicii pentru liniile pivot ntr-un vector (p1 , p2 , . . . , pn1 ).
Multiplicatorii mik sint memorati asa cum am aratat anterior, si notam ca si
acestia iau parte n permutarea liniilor. Dupa eliminare, aplicam schimbarea
liniilor lui b prin
k pk , k = 1, 2, . . . , n 1
care ne da un vector b0 . In sfrsit, rezolvam doua sisteme triunghiulare
Ly = b0 , U x = y.
Observatie.
Cel mai bun mod de-a determina determinantul unei matrici A este efectuarea eliminarii gaussiene pentru A si apoi folosind (2.8) cu n = k. Remarcam
ca daca am efectuat schimbari de lini sau coloane trebuie nmultit rezultatul
cu (1)s unde s este egal cu num
arul total de schimb
ari.

Factorizarea matricelor tridiagonale


indexmatrice banda Examinam, n sfrsit, cazul matricelor tridiagonale, care
admit o factorizare LU n particular simpla. Notam n trecere conservarea
structurii band
a.

2. Metode directe

59

Teorema 2.4 Fie

b1 c1
a2 b2

A=

..

cn1

c2
.

..

..

an1 bn1
an
bn

o matrice tridiagonal
a. Definim sirul
0 = 1, 1 = b1 , k = bk k1 ak ck1 k2 , 2 k n.
Atunci k = det(k ), unde k se obtine din A lund primele k linii si
primele k coloane. Dac
a numerele k , 1 k n, snt toate diferite de zero,
factorizarea LU a matricei A are forma

A=

1
0
a2
1

1
1
a3
2

1
..

..

.
n2
an
n1

1
0

c1
2
1

c2
3
2

..

..

cn1

n1

Demonstratie. Pentru nceput, se verific


a usor (prin recurent
a) ca k =
det(k ), dezvoltnd acest determinant n raport cu ultima sa linie. Daca
k 6= 0, 1 k n, Teorema 2.2 garanteaz
a existenta si unicitatea factorizarii
LU , si este suficient sa verificam ca factorizarea propusa convine efectiv. Dar
calculul elementelor matricei LU arat
a ca
(LU )k,k+1 = ck ,
(LU )11 =

1
= b1 ,
0

(LU )kk =

(LU )k,k1 = ak , 2 k n,

1k n1
ak ck1 k2 + k
, 2kn
k1
(LU )kl = 0, |k l| 2

ceea ce tinnd seama de formulele de recurent


a stabilite pentru determinarea
k , termina demonstratia.
2

60

Capitolul 1. Sisteme de ecuat


ii liniare

Deducem din teorema de mai sus un procedeu simplu de rezolvare a unui


sistem liniar Av = d cnd matricea A este tridiagonala, cu conditia naturala
ca determinantii k , 1 k n, sa fie toti diferiti de zero. Pentru aceasta
este comod de a intercala matricea = diag(i /i1 ) n factorizarea LU a
matricei A, ceea ce conduce la factorizarea A = (L)(1 U ) de forma

c1 /z1
a
c2 /z2
2

..

..

an1 cn1 /zn1


an
cn /zn

1 z1

z2
..
.

..

.
1

zn1

c1
k1
, zk =
, 2 k n. Atunci, solutia sistemului liniar Av = d
b1
k
se obtine construind succesiv trei siruri (zk ), (wk ), (vk ) prin
cu z1 =

z1 =

c1
,
b1

zk =

ck
, k = 2, . . . , n
bk ak zk1

zk
dk ak wk1
d1
, wk = (dk ak wk1 ) =
, k = 2, . . . , n
b1
ck
bk ak zk1
vn = wn , vk = wk zk wk+1 , k = n 1, n 2, . . . , 2, 1

w1 =

care este respectiv echivalentul cu relatiile de recurent


a 0 = 1, 1 = b1 ,
k = bk k1 ak ck1 k2 , 2 k n, din teorema de mai sus, a solutiei
sistemului liniar Lw = d, si n sfrsit a solutiei sistemului 1 U v = w.
Aceasta metoda cere: 3(n 1) adunari, 3(n 1) nmultiri, 2n mp
artiri, deci
n total 8n6 operatii elementare, ceea ce constituie o reducere considerabila
n raport cu numarul de operatii (de ordinul 23 n3 ) necesare n metoda Gauss
pentru o matrice plina oarecare.
2
Metoda Cholesky
Factorizarea Cholesky a unei matrici A consta n scrierea matricei A sub
forma A = B B T unde B este o matrice inferior triunghiulara.
Teorema 2.5
Fie A o matrice real
a si simetric
a. Atunci A este pozitiv definit
a dac
a
si numai dac
a exist
a o matrice inferior triunghiular
a nesingular
a B astfel
ca
A = B BT
(2.9)

2. Metode directe

61

In plus, dac
a elementele diagonale bii ale matricei B snt alese pozitive atunci
descompunerea A = BB T este unic
a.
Demonstratie. a) Daca putem factoriza A ntr-un produs A = B B T cu
B nesingulara (ca este triunghiulara sau nu, nu intervine n aceasta parte a
demonstratiei), atunci pentru orice vector x 6= 0
xT Ax = xT B B T x = (B T x)T (B T x) > 0
pentru ca B T x 6= 0. Matricea A este n mod necesar pozitiv definita.
b) Notam 4k submatricile (simetrice) cu elementele (aij ) 1 i, j k ale
matricei A = (aij ). Daca w = (w1 , . . . , wk ) este un vector arbitrar din Rk ,
putem scrie ca wT 4k w= v T Av, cu v = (v1 , . . . , vn ),unde vi = wi pentru
1 i k si vi = 0 pentru k + 1 i n, ceea ce arata ca matricele 4k snt
pozitiv definite si deci inversabile. Prin aplicarea Teoremei 2.2 putem scrie

1
x

A = LU = ..
.
x


1

.. . .


.
.
x 1

u11

x
u22

..
.

x
x
..
.

unn
Q

si toate numerele uii snt pozitive pentru ca ki=1 uii = det(4k ) > 0,

1 k n. Daca intercalam matricea reala = diag( uii ) n aceasta


factorizare obtinem A = L (1 U ) =

u11
u11
x

x

u22
u22
x

= .

..
.
.
.
..
..
..
..

.

unn
unn
x
x

Punnd B = L si C = 1 U simetria matricii A atrage BC = C T B T sau


nca

C(B T )1

1 x x
1

x
1


=
.=.
..

. .. ..
1
x

.. . .
= B 1 C T

.
.
x 1

Dar aceasta egalitate de matrici nu este posibila dect daca C(B T )1 =


B 1 C T = I, adica C = B T , ceea ce demonstreaza existenta (cel putin) a
unei factorizari Cholesky.

62

Capitolul 1. Sisteme de ecuat


ii liniare

c) Pentru demonstrarea unicitatii, fie A = B B T o descompunere Cholesky


pentru matricea A cu bii > 0 (1 i n). Lund D = diag(b11 , b22 , , bnn ),
avem A = B D1 D B T = L U cu L = B D1 si U = D B T .
Daca A = B1 B1T este o alta descompunere de acelasi tip, avem la fel
A = (B1 D11 ) (D1 B1T ) si din unicitatea descompunerii A = L U cu L
avnd 1 pe diagonala principala, trebuie n mod necesar ca B D1 = B1 D11
si D B T = D1 B1T cu D1 = diag(B1 ). Din D B T = D1 B1T obtinem
(bii )2 = ((B1 )ii )2 (1 i n) de unde D = D1 pentru ca bii si (B1 )ii snt
presupuse > 0, de unde n final B1 = B.
2
Pentru rezolvarea sistemului Ax = b se procedeaza astfel : Se determina
matricea B astfel ca A = B B T si apoi se rezolva sistemele triunghiulare
By = b si B T x = y.
Elementele matricei B se determina n modul urmator. Punem, apriori

b11
b12

B = ..
.

b22
..
.

bn1

bn2

..

.
bnn

si determinam bij astfel ca A = B B T , adica


T

aij = (BB )ij =

n
X

min(i,j)

bik bjk =

k=1

bik bjk

(1 i, j n)

(2.10)

k=1

pentru ca bpq = 0 daca 1 p < q n.


Cum matricea A este simetrica, este suficient sa verific
am relatiile (2.10)
pentru i j, de exemplu. Coeficientii bij trebuie, deci, sa satisfaca
aij =

i
X

bik bjk

1ijn

(2.11)

k=1

Lund la nceput i = 1 obtinem


(j = 1) a11 = b211
(j = 2) a12 = b11 b21
..
.
(j = n) a1n = b11 bn1

de unde
de unde

b11 = a11
a12
b21 =
b11

de unde

bn1 =

a1n
b11

2. Metode directe

63

ceea ce determina prima coloana a matricei B.


Pentru a determina coloana i a matricei B, dupa ce au fost calculate din
aproape n aproape primele (i 1) coloane scriem succesiv

(j = i) aii =

i
X

b2ik

bii = aii

k=1

i
X

(j = i + 1) ai,i+1 =

i
X

b2ik

k=1

bik bi+1,k bi+1,i = (ai,i+1

k=1

(j = n) ai,n =

i1
X

bn,i = (ai,n

k=1

i1
X

bik bi+1,k )/bii

k=1

..
.

bik bn,k

1/2

i1
X

bik bn,k )/bii

k=1

sau ntr-o forma compacta

bii = aii

i1
X

b2ik

1/2

k=1

bji = aji

i1
X
k=1

bjk bik /bii

j = i + 1, . . . , n

, i = 1, n.

Operatii elementare n metoda Cholesky


Calculam, acum, numarul de operatii elementare necesare pentru rezolvarea
sistemului Ax = b prin metoda Cholesky: i)A = BB T , ii) By = b,
iii) B T x = y.
i) Factorizarea. Calculul matricei B cu ajutorul formulelor de mai sus necePn1
sita n radacini patrate,
mp
artiri,
i=1 (n i) = n(n 1)/2
Pn
(i

1)(n

i
+
1)
=
n(n

1)(n
+
1)/6
adun
a
ri

s
i
tot
at
tea

nmult
iri.
i=2
ii)-iii) Rezolvarea sistemelor By = b, B T x = y necesit
a n(n 1) adunari
n(n 1) nmultiri si 2n mpartiri.

64

Capitolul 1. Sisteme de ecuat


ii liniare

Metoda Cholesky necesita n final


3
n + 6n2 7n

n3 + 6n2 7n

n2 + 3n

adunari
nmultiri
mp
artiri
extrageri de rad
acini patrate

Metode utiliznd factorizarea QR


Daca A este o matrice nesingulara de ordinul n, A = Q R, unde Q este o
matrice unitara (ortogonala) iar R superior triunghiulara, pentru rezolvarea
sistemului Ax = b se rezolva sistemele
Qy = b si Rx = y.
Cum matricea Q este ortogonala (unitara) rezulta ca y = Q1 b = QT b.
Ramne sa obtinem descompunerea QR a matricei A.
Factorizarea QR
Prin factorizarea QR a unei matrici A se ntelege scrierea matricei A ca un
produs de doua matrici Q si R unde Q este o matrice unitara daca A este
complexa, sau ortogonala daca A este reala, iar R este o matrice superior
triunghiulara.
Teorema 2.6 (factorizarea QR) Fie A Mm,n (R), m n. Atunci
exist
a o matrice ortogonal
a Q Mm (R) astfel ca

Q A=

R
0

(2.12)

unde R Mn (R) este o matrice superior triunghiular


a cu elementele
diagonale nenegative.
Factorizarea (2.12) se numeste factorizare QR a matricei A iar matricea R
se numeste factor al matricei A.
Demonstratie. Vom demonstra aceasta teorema prin inductie dupa m.
Notam ca n m. Pentru m = 1, A este un scalar si putem lua Q = 1

2. Metode directe

65

dupa cum A este pozitiva sau negativa. Fie acum m > 1 si fie o partitie a
lui A de forma
A = (a1 , A2 ), a1 Rm
Fie U = (y, U1 ) o matrice ortogonala cu
(

y=

a1 /ka1 k2 , a1 6= 0
e1 ,
a1 = 0

(Aici e1 desemneaza prima coloana a matricei unitate I.) Deoarece U1T y = 0


rezulta ca
!

rT
T
U A=
0 B
unde = ka1 k2 , r = AT2 y, B = U1T A2 Mm1,n1 (R). Din ipoteza de
astfel ca
inductie exista o matrice ortogonala Q

Q B=

R
0

Relatia (2.12) va fi satisfacut


a daca definim

Q=U

1 0

0 Q

R=

rT

0 R

2
Observatie. Demonstratia teoremei de mai sus da o cale de a construi
Q si R daca putem construi matricea ortogonala U = (y, U1 ) dndu-se
prima coloana. Exista mai multe modalitati de a efectua aceasta constructie
folosind transformari ortogonale elementare.
Teorema 2.7 Fie A Mm,n (R) avnd rangul n. Atunci factorul R al matricei A are elementele diagonale pozitive si este factorul Cholesky al matricei
AT A.
Demonstratie. Daca rang(A) = n atunci factorul Cholesky al matricei
AT A este unic. Din (2.12) rezulta ca

A A = (R , 0) Q Q

R
0

= RT R

66

Capitolul 1. Sisteme de ecuat


ii liniare

care demonstreaza teorema.

Presupunem ca rang(A) = n si partition


am Q astfel
Q = (Q1 , Q2 ),

Q1 Mm,n (R), Q2 Mm,mn (R)

(2.13)

Atunci din (2.12) si nesingularitatea lui R avem

A = (Q1 , Q2 )

R
0

= Q1 R,

Q1 = A R1

(2.14)

Deci, putem exprima Q1 n mod unic cu ajutorul lui A si R. Matricea Q2


nu este, n general, unic determinata. Din (2.14) rezulta ca
Im(A) = Im(Q1 ),

Im(A)T = Im(Q2 )

care arata ca coloanele lui Q1 si Q2 formeaza baze ortonormale pentru Im(A)


si complementul sau ortogonal. Rezulta ca proiectile ortogonale snt
PIm(A) = Q1 QT1 ,

PIm(A)T = Q2 QT2
2

Usor ne putem convinde ca daca A = Q1 R este o factorizare data a


(f
ii > 0,
unei matrici A, orice descompunere A = Q1 R
ar
a restrictia (R)
1 i n) este data prin
Q1 = Q1 D

=DR
si R

unde D este o matrice diagonala unitara.


Ortogonalizarea Gram Schmidt
Coloanele matricei Q1 n factorizarea A = Q1 R pot fi obtinute prin ortogonalizarea succesiva a coloanelor matricei A. Pentru a vedea aceasta, scriem
factorizarea n forma

r11 r12 r1n

r22 r2n

(a1 , a2 , . . . , an ) = (q1 , q2 , . . . , qn )
..
..

.
.

rnn
Egalnd coloanele obtinem
aj =

j
X
i=1

rij qi ,

j = 1, 2, . . . , n

2. Metode directe

67

unde din ortogonalitatea lui qi


rij = qiT aj ,

i = 1, 2, . . . , j 1

(2.15)

Daca rang(A) = n, atunci, din Teorema 2.7 rjj > 0 si putem determina qj
qj = qj /rjj ,

j = aj
Q

j1
X

rij qi

(2.16)

i=1

Aceasta arata ca qj este un vector unitar si rjj se determina din


rjj = (
qjT qj )1/2
Vectorul normalizat qj este proiectia ortogonala a coloanei aj pe complementul ortogonal al spatiului sp[a1 , a2 , . . . , aj1 ]. Din (2.15), 2.16) sntem
condusi la algoritmul clasic Gram-Schmidt, care genereaza Q1 si R coloana
cu coloana.
ALGORITM Dat A Mm,n (R) cu rang(A) = n urm
atorul algoritm calculeaza pentru j = 1, 2, . . . , n coloanele qj ale lui Q1 si elementele r1j , . . . , rjj
ale matricei R n factorizarea A = Q1 R
pentru j = 1, 2, . . . , n
pentru i = 1, . . . , j 1
rij = qiT aj
qj := aj

j1
X

rij qi

i=1

rjj := (
qj qj )1/2
qj := qj /rjj
Observatie
Descompunerea A = Q1 R nu este altceva dect procedeul de ortonormalizare
Gram-Schmidt aplicat vectorilor coloana ai matricei A.
Remarcam de asemenea, ca procedeul descris mai sus nu este un procedeu
de calcul eficient, caci el este numeric instabil.
In practica se utilizeaza procedee bazate pe transformarile Householder si
Givens pentru factorizarea matricei A.

68

Capitolul 1. Sisteme de ecuat


ii liniare

Factorizarea QR prin transform


ari elementare
Asa cum am remarcat anterior, demonstratia factorizarii QR da un algoritm
de calcul pentru Q si R. Ramne numai sa arat
am ca se poate construi o
matrice ortogonala (unitara )
U = (y, U1 )
cnd prima sa coloana este data de
y = a/kak2 a 6= 0 .

(2.17)

Pentru a = 0 putem lua U = I. Pentru a 6= 0 constructia este echivalent


a
cu rezolvarea urmatoarei probleme de baza.
Dndu-se un vector normal a Rm s
a se g
aseasc
a o matrice ortogonal
a
U astfel ca
U T a = e1 ,

= kak2 .

(2.18)

Din (2.18) rezulta ca prima coloana y n U satisface y T a = kak2 , si deci


y = a/kak2 .
Metoda Householder
Vom arata acum cum se poate utiliza transformarile Householder pentru
rezolvarea problemei de baza (2.18).
O matrice H(u) de forma
H(u) = I uuT ,

= 2/uT u

se numeste matrice Householder. Este usor de verificat ca


H T H = I,

H T = H,

H2 = I

adica H(u) este o matrice simetrica ortogonala. Produsul unei matrici H(u)
cu un vector a poate fi calculat far
a a forma explicit matricea H(u) ci numai
utiliznd vectori u si a, deoarece
H(u)a = a (uT a)u

2. Metode directe

69

u6
a
1

PP
PP

PP

-W
PP

PP

H(u)a

PP

PP
q
P

Figura 2.1:
Vectorul H(u)a este reflectarea vectorului a n hiperplanul W ortogonal pe
u, adica
W = {w; (u, w) = 0}
vezi Figura 2.1. Notam ca H(u)u = u si H(u)a sp{a, u}.
Daca A = (a1 , . . . , an ) Mm,n (R) iar u Rm , u 6= 0 atunci
H(u)A = (H(u)a1 , . . . , H(u)an ),

H(u)aj = aj (uT aj )u

deci pentru nmultirea unei matrici A la stnga cu o matrice H(u) nu este


necesar ca matricea H(u) sa fie formata explicit, este suficient sa se cunoasca
vectorul nenul u. Pentru calculul H(u)A snt necesare 2mn operatii elementare. Scriind produsul H(u)A sub forma
H(u)A = (I uuT )A = A u(AT u)T ,

= 2/uT u

se observa ca prin nmultirea la stnga a unei matrici A cu H(u) se altereaza


matricea A printr-o matrice de rang unu. Si acum o teorema des folosita n
aplicatii.
Teorema 2.8 Pentru orice vector a si pentru orice vector unitar b necoliniar cu a ( a si b vectori liniar independenti ) exist
a vectorii u si u
astfel
ca
H(u)a = kak2 b si H(
u)a = kak2 b

70

Capitolul 1. Sisteme de ecuat


ii liniare

Demonstratie. T
innd seama de definitia matricei H(u) avem
H(u)a = a

2(a, u)
u
(u, u)

pentru orice vector nenul u si pentru orice vector a. Lund pe pozitia lui u
vectorul a kak2 b obtinem pentru nceput ca a kak2 b este diferit de zero,
deoarece a si b snt vectori liniar independenti, deci
H(a kak2 b)a = a

2(a, a kak2 b)
(a kak2 b) = kak2 b
(a kak2 b, a kak2 b)

Intr-adevar, (a, a kak2 b) = kak2 (kak2 (a, b)) iar


(a kak2 b, a kak2 b) = kak2 2kak2 (a, b) + kak22 = 2kak2 (kak2 (a, b)).
Deci lund u = a kak2 b si u
= a + kak2 b obtinem rezultatul dorit.

Observatii.

1) Daca ni=2 |ai | > 0, exista o matrice H astfel ca ultimele (n 1)componente ale lui Ha sa fie nule. Din teorema anterioar
a cum vectorii
b = e1 = (1, 0, . . . , 0)T si a = (a1 , . . . , an )T snt liniari independenti rezulta
ca
H(a kak2 e1 )a = kak2 e1
de unde rezultatul cerut.
2) Daca a = (1 , . . . , m )T este un vector necoliniar cu e1 = (1, 0, . . . , 0)
lund
u = a e1 , = kak2
(2.19)
obtinem H(u)a = e1 .
Cum uT u = (a e1 )T (a e1 ) = 2 21 + 2 = 2( 1 ) astfel ca =
2/uT u = 1/((1 )). Din motive de stabilitate alegem u = a+sgn(1 )e1
care da
= 1/(( + k1 k)).
(2.20)
Vom descrie acum cum se poate obtine factorizarea QR a unei matrici A din
Mm,n (R) de rang n utiliznd un sir de transformari Householder. Incepnd
cu A(1) = A calculam un sir de matrici (A(k) ), k = 2, . . . , n + 1. Matricea
A(k) este deja superior triunghiulara n primele sale (k 1) coloane, adica
are forma
(k)
!
(k)
R11 R12
(k)
A =
(2.21)
(k)
A22
0

2. Metode directe

71

(k)

unde R11 Mk1,k1 (R) este o matrice superior triunghiulara. Luam


A(k+1) = Pk A(k)
unde matricea ortogonala Pk este aleasa astfel ca sa faca zerouri n prima
(k)
coloana a matricei A22 . Daca luam
(k)

(k)

A22 = (
ak , . . . , a
(k)
n )
atunci

k) =
Pk = diag(Ik1 , H

Ik1 0
k
0
H

unde
ka
H
(k) = k e1 ,

k = rkk = k
a(k) k2 .

(2.22)

(k)

(k)

Notam ca la acest pas numai matricea A2 este transformata si ca (R11 )


are primele (k 1) linii ca matricea finala R. Rezulta ca

(n+1)

Pn Pn1 . . . P2 P1 A = A

R
0

si deci
Q = (Pn . . . P2 P1 )T = P1T P2T . . . PnT .
k care satisface (2.22),
Cheia constructiei este gasirea matricei ortogonale H
(k)
dar aceasta este tocmai problema standard (2.17) cu a = a
k . Folosind
k ca matrice Householder obtinem
(2.19) si (2.20) pentru construirea matricei H
urmatorul algoritm.
ALGORITM ( factorizarea QR prin metoda Householder )
Se da o matrice A(1) = A Mm,n (R) de rang n. Urmatorul algoritm
calculeaza R si matricea Pk
k ),
Pk = diag(Ik1 , H

Hk = I k u
(k) u
(k)T , k = 1, . . . n

astfel ca Q = P1 P2 Pn si QT A =
pentru k = 1, 2, . . . , n

R
0

72

Capitolul 1. Sisteme de ecuat


ii liniare
k
u
(k)
(k)
u
1
k
rkk

(k)

:= k
ak k2
:= ak (k)
(k)
:= u1 (k) + sgn(akk k
(k)
:= 1/(k (k + |akk |))
(k)
:= sgn(akk )k
pentru j = k + 1, . . . , n

kj
rkj
(k+1)
aj

(k)

:= (
u(k)T a
j ) k
(k)

= aj kj u
(k) .

Acest algoritm necesita (mn2 31 n3 ) operatii elementare.


Observatie
1) Notam ca vectorii u
(k) , k = 1, . . . , n pot fi rescrisi pe elementele de
pe diagonala si de sub diagonala principala. Deci toate informatiile
asociate cu Q si R pot fi tinute n A si n doi vectori de lungime n
pentru r11 . . . . rnn si (1 , . . . , ).
2) In mod natural este mai economic de tinut matricea Q sub forma de
factori si sa se acceseze prin k si u
(k) , k = 1, 2, . . . n, dect sa se
calculeze Q explicit. Daca Q este explicit ceruta ea poate fi asamblat
a
(1)
(n+1)
(acumulata ) lund Q = I si calculnd Q = Q
prin
Q(k+1) = Pk Q(k) ,

k = 1, . . . , n.

Aceasta acumulare necesita 2(m2 n mn2 + 13 n3 ) operatii elementare


k ). Similar putem acumula
daca folosind faptul ca Pk = diag(Ik1 , H

Q1 = Q

In
0

Q2 = Q

0
Imn

separat n mn2 31 n3 si (2m2 n 3mn2 + n3 ) operatii elementare.


Metoda Givens
Putem utiliza un sir de rotatii Givens pentru factorizarea QR a unei matrici
A. In doua dimensiuni matricea reprezentnd o rotatie n sensul acelor de
ceasornic cu un unghi este

R() =

c s
s c

c = cos , s = sin .

2. Metode directe

73

In ndimensiuni, matricea reprezentnd o rotatie n planul generat de vectorii unitari ei si ej , i < j este de forma

Rij () =

1
..

.
1
c
..
.

..

..
.

1
.
1

c
1
..

.
1

unde c = cos , iar s = sin . O matrice de forma Rij () se numeste matrice


Givens. Se observa ca Rij (), cnd 6= 2k este o alterare a matricei unitate
cu o matrice de rang doi, adica
Rij () = I + F
unde (F )ii = c 1, (F )ij = s, (F )ji = s, (F )jj = c 1 n rest zero. Cum

det

c1
s
s c 1

= 2(1 c) 6= 0

daca c 6= 1, rezulta ca rangul lui F este doi.


Prin nmultirea unui vector a = (1 , . . . , n )T cu o matrice Rij () se obtine
un vector b = (1 , . . . , n )T ce are modificat fat
a de a numai componentele de
pe pozitia i si j, adica k = k , k 6= i, j si i = ci + sj , j = si + cj .
Deci, pentru a nmulti o matrice de rotatii plane cu un vector snt necesare
doua adunari si patru nmultiri.
Inmultirea la stnga a unei matrici A Mm,n (R) cu o rotatie Givens Rij ()
va afecta numai liniile i si j ale matricei A, care se transforma n
aik := caik + sajk , ajk := saik + cajk ,

1 k n.

Produsul necesita 4n nmultiri si 2n adun


ari. Un algoritm analog se obtine,
care va afecta numai coloanele i si j, prin nmultirea la dreapta a matricei
A cu Rij ().

74

Capitolul 1. Sisteme de ecuat


ii liniare

Teorema 2.9 Fie A Mm,n (R), m n de rang n. Exist


a o matrice
Q Mm,n (R), produs de rotatii Givens, astfel ca

Q A=

R
0

unde R Mn (R) este o matrice superior triunghiular


a cu elementele de pe
diagonal
a pozitive.
Demonstratie. Fie transformarea Rij () Cnd facem produsul B = Rij A
numai liniile i si j snt modificate, fiecare devenind o combinatie liniara a
liniilor i si j
bpk = apk p 6= i, j
bik = caik + sajk
k = 1, 2 . . . , n
bjk = saih + cajk
Oricum ar fi A putem alege astfel ca matricea Rij A sa aiba elementul de
pe pozitia (j, i) nul.
Pornind de la matricea A putem construi R12 pentru a pune zero n pozitia
(2, 1) a matricei R12 A, apoi R13 pentru a pune un zero pe pozitia (3, 1). La
sfrsitul primelor m 1 rotatii obtinem

R1,m R1,m1 . . . R13 R12 A =

r11
0
..
.

a012
a022
..
.

a0mn a0mn

a01n
a02n
..
.

La fiecare rotatie s-a modificat numai prima linie si linia considerata, adica
se conserva zeroul deja creat. In continuare punem zerouri n coloana 2
ncepnd cu pozitia (3, 2). etc.
2
Este esential sa notam ca matricea Rij () nu este nevoie sa fie formata explicit, dar trebuie sa se memoreze numerele c = cos si s = sin . Cnd
un numar mare de rotatii este necesar sa fie memorate este mai economic
sa memoram doar un singur num
ar. Pentru o stabilitate numeric
a mai
buna poate fi utilizata schema proiectata de Stewart n 1976. Ideea este
sa memoram c sau s si anume cel care este mai mic. Pentru a distinge ntre
cele doua cazuri vom memora un num
ar definit astfel

1,

sgn(c)s,

sgn(s)c,

dac
ac=0
dac
a |s| |c| .
dac
a |c| |s|

2. Metode directe

75

Dndu-se , numerele c si s pot fi regasite pn


a la un factor comun 1 astfel
daca = 1, c = 0, s = 1
daca || < 1, s = , c = (1 s2 )1/2
daca || > 1, c = 1/, s = (1 c2 )1/2 .
Motivul pentru folosirea acestei scheme este ca formula (1 x2 )1/2 da o
proasta acuratete cnd x este aproape de unitate.
Un algoritm folosind rotatiile Givens poate fi usor dezvoltat. Se pleaca de
la A(1) = A si se construieste
A(k+1) = Pk A(k) k = 1, . . . n 1
unde fiecare Pk este construita ca produsul a (n k) relatii Givens.
ALGORITM (factorizarea QR prin metoda Givens ) Data o matrice A
Mm,n (R) de rang n se determina triangularizarea matricei A cu

QT A =

R
0

pentru k = 1, 2, . . . , n
pentru j = k + 1, . . . , n

c
s
A

:= (a2kk + a2jk )1/2


:= akk /
:= ajk /
:= Rij () A

Algoritmul necesita 2(mn2 31 n3 ) operatii elementare.


Observatie.
Folosind schema de memorare a lui Stewart pentru rotatia Rij () putem
memora informatiile ce definesc pe Q n partea cu zerouri a matricei A.
La fel ca la algoritmul Householder este avantajos sa tinem Q sub forma de
factori.
Rotatiile Givens pot fi folosite sa ntroducem zerourile n matrice mai selectiv
dect este posibil cu transformarile Householder.
Flexibilitatea este importanta pentru rezolvarea sistemelor pentru care matricea este rara. Pentru probleme cu matrice plina metoda Givens necesita
de doua ori mai multe operatii ca metoda Householder.

76

Capitolul 1. Sisteme de ecuat


ii liniare

Metode iterative

Prin metod
a iterativ
a se ntelege o metoda care permite construirea,
plecnd de la o aproximatie initial
a, a unui sir de solutii aproximative care
converg catre solutia exacta a sistemului algebric liniar.
Doua mari tipuri de metode iterative se ntlnesc n practica. Metodele
stationare snt cele mai vechi, mai simplu de nteles si implementat, dar nu
si cele mai eficiente. Metodele nestationare snt de data mai recent
a; analiza
lor este de obicei mai greu de nteles, dar ele pot fi de mare eficient
a.
Rata cu care o metoda iterativa converge depinde de spectrul matricei sistemului. De regula, metodele iterative folosesc o a doua matrice ce transforma matricea initiala ntr-o matrice cu un spectru mai favorabil. Matricea
de transformare se numeste matrice de preconditionare. O buna matrice de
preconditionare creste viteza de convergent
a a metodei iterative suficient sa
acopere extra costul construirii si aplicarii precondition
arii.

3.1

Definirea si convergenta metodelor iterative


pentru sisteme algebrice liniare

Fiind data o matrice nesingulara A Mn (K) si un vector b Kn se doreste


calcularea solutiei x Kn a sistemului liniar
Ax = b

(3.1)

Presupunem ca am putut gasi ( de exemplu printr-un procedeu descris n


paragraful urmator ) o matrice B si un vector c astfel ca matricea I B sa
fie inversabila si astfel ca solutia unica a sistemului
x = Bx + c

(3.2)

sa fie egala cu solutia unica a sistemului (3.1). Forma sistemului (3.2)


sugereaza definirea unei metode iterative de rezolvare a sistemului liniar
(3.1). Se da un vector initial x(0) Kn arbitrar, si se defineste sirul
(x(m) )mN din Kn prin
x(m+1) = Bx(m) + c

(3.3)

Metoda iterativa definita prin (3.3) nu este altceva dect metoda aproximatiilor succesive, numita si metoda Picard, pentru gasirea unui punct fix
pentru aplicatia f : Kn Kn definit
a prin
f (x) = B x + c,

x Kn .

3. Metode iterative

77

Definitia 3.1 Metoda iterativ


a (3.3) se zice convergent
a dac
a pentru orice
vector initial x(0) Kn avem limm x(m) = x, unde x = A1 b este solutia
ecuatiei(3.2) sau echivalent a ecuatiei (3.1).
Rezultatele urmatoare dau criterii de convergent
a pentru metodele iterative
de tipul (3.3).
Teorema 3.1 Dac
a A Mn (K) atunci urm
atoarele afirmatii snt echivalente.
1) Metoda iterativ
a (3.3) este convergent
a.
2) Raza spectral
a (B) [0, 1).
3) Exist
a o norm
a matricial
a k k astfel ca kBk < 1.
4) Seria I + B + B 2 + este convergent
a.
Demonstratie. Notam cu (m) = x(m) x, pentru m N eroarea la iteratia
m. Evident
(m) = x(m) x = Bx(m1) + c (Bx + c) = B(m1) = B m (0)

(3.4)

unde (0) = x(0) x este eroarea initial


a. Metoda (3.3) va fi convergent
a
daca si numai daca B m (0) 0 cnd m 0 pentru orice (0) = x(0) x.
Echivalenta afirmatiilor 1), 2), 3) rezulta din Teorema 1.4.
2
Utiliznd teorema de mai sus putem da criterii suficiente, usor de verificat,
ca o metoda iterativa de tipul (3.3) sa fie convergent
a.
Propozitia 3.1 Dac
a B Mn (K) satisface cel putin una din conditiile:
max
j

X
i

|bij | < 1,

max
i

|bij | < 1,

|bi,j |2 < 1

i,j

atunci metoda iterativ


a (3.3) este convergent
a.
P

Demonstratie. Cum kBk1 = maxj i |bij | < 1, kBk = maxi j |bij | < 1
P
iar kBk2F = i,j |bi,j |2 < 1 rezulta ca (B) < 1 deci metoda iterativa (3.3)
este convergenta.
2

78

Capitolul 1. Sisteme de ecuat


ii liniare

Metod
a iterativ
a modificat
a
Plecnd de la ecuatia (3.2) putem sa construim si urmatoarea metoda iterativa. Pentru x(0) Kn arbitrar, se defineste sirul de vectori (x(m) )mN
din Kn prin
(m)

xi

i1
X

(m)

bij xj

j=1

n
X

(m1)

bij xj

+ ci ,

i {1, . . . , n}

(3.5)

j=i

Daca B = L + U unde L este o matrice strict inferior triunghiulara iar U


este o matrice superior triunghiulara atunci sirul construit prin (3.5) se poate
scrie matriceal sub forma
x(m) = (I L)1 U x(m1) + (I L)1 c

(3.6)

In ce priveste convergenta metodei iterative definita prin (3.5) avem urmatoarele rezultate.
P

Teorema 3.2 Dac


a B Mn (K) si max1in ( nj=1 |bij |) < 1 atunci, pentru orice x(0) Kn sirul (x(m) )mN definit prin (3.5) converge la solutia
ecuatiei (3.2).
Demonstratie. Daca conditia din enunt este satisfacut
a, atunci sistemul
T
(3.2) are solutie unica x = (x1 , . . . xn ) ( deoarece kBk < 1 si (I B)1
exista ) deci
xi =

n
X

bij xi + ci

1in

(3.7)

j=1

Scaznd (3.5) din (3.7), obtinem


(m)

xi xi

i1
X

(m)

bij (xj xj

)+

j=1

n
X

(m1)

bij (xj xj

j=i

deci
(m)

|xi xi

i1
X

|bij | |xj xm
j |+

j=1

n
X

(m1)

|bij | |xj xj

|, i I

(3.8)

j=i

Din (3.8) obtinem


(m)

|xi xi

| pi kx x(m) k + qi kx x(m1) k

(3.9)

3. Metode iterative
unde
pi =

79

i1
X

|bij |

si qi =

j=1

n
X

|bij |.

j=i
(m)

Fie s = s(m) valoarea indicelui i pentru care |xs xs | = kx x(m) k .


Lund i = s n inegalitatea (3.9) obtinem
kx x(m) k ps kx x(m) k + qs kx x(m1) k
sau
kx x(m) k

qs
kx x(m1) k
1 ps

deci
kx x(m) k kx x(m1) k

(3.10)

unde = max[qi /(1 pi )]. Vom arata ca kBk < 1. Intr-adev


ar, cum
i

pi + qi =

n
X

|bij | kBk < 1

j=1

rezulta ca qi kBk pi si deci


kBk pi
kBk pi kBk
qi

= kBk .
1 pi
1 pi
1 pi
Prin urmare kBk < 1 si din inegalitatea (3.10) rezulta
kx x(m) k m kx x(0) k
deci lim x(m) = x.

Teorema 3.3 Dac


a B Mn (K) si maxj i |bij | < 1 atunci, oricare ar fi
(0)
n
(m)
x K sirul (x )mN ) construit prin (3.5) converge la solutia ecuatiei
(3.2).
P

Demonstratie. Cum kBk1 = maxj i |bij | < 1 rezulta ca ecuatia (3.2) are
solutia unica x = (x1 , . . . , xn )T . Deci x verifica (3.7). Scaznd (3.5) din (3.7)
si trecnd la modul obtinem (3.8). Adunnd inegalitatile din (3.8) rezulta
n
X
i=1

(m)

|xi xi

n X
i1
X

i=1 j=1

(m)

|bij | |xj xj

)+

n X
n
X

i=1 j=i

(m1)

|bij | |xj xj

|)

80

Capitolul 1. Sisteme de ecuat


ii liniare

Schimbnd ordinea de sumare n sumele duble de mai sus obtinem


n
X

(m)

|xi xi

i=1

(m)

(|xj xj

n
X

|bij |)+

i=j+1

Pn

i=j+1 |bij |,

tj =

|bin |. Dar sj + tj =

i=1

(m1)

(|xj xj

j=1

Pj

i=1 |bij |,

n
X

n
X

j
X

|bij |) (3.11)

i=1

j = 1, 2, . . . , n 1 si s0 = 0,

|bij | kBk1 < 1 deci sj < 1 Inegalitatea

i=1

(3.11) ia forma
n
X

n
X

j=1

Fie sj =
tn =

n1
X

(m)

|xi xi

i=1

n
X

(m)

sj |xj xj

|+

j=1

n
X

(m1)

tj |xj xj

j=1

sau echivalent
n
X

(m)

(1 sj )|xj xj

j=1

n
X

(m1)

tj |xj xj

j=1

Deoarece
tj kBk1 sj kBk1 sj kBk1 = kBk1 (1 sj )
avem
n
X

(m)

(1 sj )|xj xj

| kBk1

j=1

n
X

(m1)

(1 sj )|xj xj

j=1

kBkm
1

n
X

(0)

(1 sj )|xj xj |

j=1

Prin trecere la limita cu m si notnd ca kBk1 < 1 obtinem


lim

n
X

(m)

(1 sj )|xj xj

|=0

j=1
(m)

Cum 0 sj < 1 pentru orice j I obtinem lim xj


unde

x(m) x

si demonstratia este completa.

Teorema 3.4 Dac


a B Mn (K) si

n
X

= xj , 1 j n de
2

|bij |2 < 1 atunci oricare ar fi

i,j=1

x(0) din Kn sirul (x(m) )mN construit prin (3.5) converge la solutia ecuatiei
(3.2).

3. Metode iterative

81

Demonstratie. Cum kBkF = (

n
X

|bij |2 )1/2 < 1 sistemul (3.2) are solutie

i,j=1

unica. Fie x = (x1 , . . . , xn )T solutia sistemului (3.2). Din (3.8) obtinem


|xi

(m)
xi |2

i1
nX

|bij | |xj

(m)
xj |

n
X

j=1

(m1)

|bij | |xj xj

o2

j=i

unde aplicnd inegalitatea Cauchy - Schwartz - Buniakowski rezulta


(m) 2

| si

|xi xi

i1
nX

(m) 2

| +

|xj xj

j=1

unde si =

n
X

n
X

(m1) 2

|xj xj

, 1 i n (3.12)

j=i

|bij |2 pentru orice 1 i n.

j=1

Adunnd inegalitatile (3.12) n raport cu i obtinem


n
X

(m) 2

|xi xi

n X
i1
X

i=1

(m) 2

si |xj xj

| +

i=1 j=1

n X
n
X

(m1) 2

si |xj xj

(3.13)

i=1 j=i

Schimbnd indicele de sumare n sumele duble de mai sus obtinem


n
X

(m)
xj |2

|xj

j=1

n1
X

n
X

si )|xj

(m)
xj |

n
X

si , Tj =

j
X

(m1) 2

si )|xj xj

si j {1, 2, . . . , n 1} si S0 = 0, Tn =

i=1

i=j+1

| .

j=1 i=1

j=1 i=j+1

Lund Sj =

j
n X
X

n
X

si ,

i=1

avem evident
Sj + Tj =

n
X

si =

i=1

n X
n
X

|bij |2 = kBk2F < 1,

1jn

i=1 j=1

Folosind aceste notatii, putem reprezenta inegalitatea (3.13) ca


n
X

(m)
xj |2

|xj

j=1

sau

n
X

Sj |xj

(m)
xj |2

j=1
n
X

Tj |xj xm1
|2
j

j=1

(m) 2

(1 Sj )|xj xj

j=1

n
X

n
X
j=1

(m1) 2

Tj |xj xj

(3.14)

82

Capitolul 1. Sisteme de ecuat


ii liniare

Pe baza formulei (3.14) obtinem


Tj = kBk2F Sj kBk2F kBk2F Sj = (1 Sj )kBk2F
Prin urmare
n
X

(1 Sj )|xj

(m)
xj |2

j=1

kBk2F

n
X

(m1) 2

(1 Sj )|xj xj

j=1

de unde
n
X

(m) 2

(1 Sj )|xj xj

| kBk2m
F

j=1

n
X

(0)

(1 Sj )|xj xj |2 .

j=1

Cum kBkF < 1, obtinem


lim

n
X

(m) 2

(1 Sj )|xj xj

| =0

j=1
(m)

si tinnd seama ca 0 Sj < 1, j {1, . . . , n} rezulta limm xj


j {1, . . . , n} ceea ce arata ca x(m) x.

= xj
2

Rezultatele de convergenta de mai sus au fost demonstrate n una din ipotezele


kBk < 1, kBk1 < 1 sau kBkF < 1, care implica (B) < 1. Apare ca naturala intrebarea: putem demonstra un rezultat de convergent
a n ipoteza
(B) < 1. Pentru matricea

0 2
2

0 1
B = 1
2 2
0
avem (B) = 0 dar metoda iterativa (3.5) nu converge. Avem ns
a urmatorul
rezultat:
Teorema 3.5 Dac
a (|B|) < 1 atunci sirul (x(m) )mN construit prin (3.5)
converge la solutia ecuatiei (3.2).
Demonstratie. Utiliznd Teorema 1.11 avem (B) (|B|) < 1, deci
ecuatia (3.2) are solutie unica. Fie B = L + U cu L strict inferior triunghiulara si U superior triunghiulara. Sirul construit prin (3.5) va fi convergent
pentru orice x(0) daca si numai daca ((I L)1 U ) < 1. Cum
(I L)1 U |(I L)1 U | = |(I + L + + Ln1 )U |

3. Metode iterative

83

(I + |L| + + |L|n1 )|U | = (I |L|)1 |U |


deci folosind Teorema 1.12 avem
((I L)1 U ) ((I |L|)1 |U |).
Dar |B| = |L| + |U | si cum (|B|) < 1 folosind teorema Stein Rosenberg
(Teorema 1.13) rezulta
((I |L|)1 |U |) < (|B|) < 1
deci ((IU )1 U ) < 1, de unde obtinem ca sirul construit prin (3.5) converge
la o solutie a ecuatiei (3.2) si cum ecuatia (3.2) are solutie unica, rezulta ca
sirul construit prin (3.5) converge la unica solutie a ecuatiei (3.2).
Procedee de descompunere (splitare) a unei matrici
Sa analizam acum cteva moduri de a asocia unui sistem de forma (3.1) un
sistem de forma (3.2) echivalent, adica orice solutie a ecuatiei (3.1) sa fie
solutie pentru ecuatia (3.2) si reciproc orice solutie a ecuatiei (3.2) sa fie
solutie pentru ecuatia (3.1).
O matrice A Mn (K) poate fi descompusa (splitata) ntr-o infinitate de
moduri de forma
A=M N
(3.15)
deci sistemul (3.1) se poate scrie
Mx = Nx + b

(3.16)

Daca matricea M este nesingulara, sistemul (3.16) se scrie


x = M 1 N x + M 1 b

(3.17)

care este evident de forma (3.2) cu B = M 1 N si c = M 1 b. Evident, daca


A = M N iar matricea M este nesingulara ecuatia (3.1) este echivalent
a
cu ecuatia (3.2) cu B = M 1 N si c = M 1 b.
In studiul metodelor iterative de o deosebita important
a se dovedeste a fi
splitarea de tipul (3.15) n care M este o matrice nesingulara si (M 1 N ) <
1, precum si splitarea de tipul (3.15) unde M este o matrice nesingulara iar
M 1 0 si N 0.

84

Capitolul 1. Sisteme de ecuat


ii liniare

Lema 3.1 Dac


a A este o matrice simetric
a si se consider
a descompunerea
A = M N cu M nesingular
a, atunci
A (M 1 N )T A(M 1 N ) = (I M 1 N )T (M T + N )(I M 1 N )

(3.18)

Demonstratie.
Cum A = M N avem (M 1 N )T A(M 1 N ) = (M 1 N )T N (I M 1 N )
deoarece
AM 1 N = (M N )M 1 N = N N M 1 N = N (I M 1 N ).
Dar
(M 1 N )T N (I M 1 N ) =
= (M 1 N )T N (I M 1 N ) N (I M 1 N ) + AM 1 N =
= (I (M 1 N )T )N (I M 1 N ) + AM 1 N
deci
A (M 1 N )T A(M 1 N ) = A(I M 1 N ) + (I (M 1 N )T )N (I M 1 N ).
Din A = M N obtinem A = M (I M 1 N ) si cum A este o matrice
simetrica avem A = AT = (I (M 1 N )T )M T , deci
A(I M 1 N ) = (I (M 1 N )T )M T (I M 1 N ).
Am obtinut astfel
A (M 1 N )T A(M 1 N ) = (I M 1 N )T (M T + N )(I M 1 N )
adica identitatea (3.18).

Teorema urmatoare este foarte des utilizata n stabilirea convergentei


diferitelor metode iterative.
Teorema 3.6 (Householder, John) Fie A o matrice simetric
a nesingular
a cu A = M N ; M o matrice nesingular
a. Dac
a matricea simetric
a
Q de forma Q = M + M T A = M T + N este pozitiv definit
a atunci
(M 1 N ) < 1 dac
a si numai dac
a matricea A este pozitiv definit
a.

3. Metode iterative

85

Demonstratie. Matricea Q = M T + N este, efectiv, o matrice simetrica


pentru ca
M T + N = (AT + N T ) + N = A + N + N T = M + N T .
Daca A este pozitiv definita vom stabili inegalitatea ||M 1 N || < 1 unde || ||
este norma matriceala generata de k kA cu kvkA = (v T Av)1/2 , care este
o norma vectoriala, deoarece A este o matrice simerica si pozitiv definita.
Cum
kM 1 N k = kI M 1 Ak = sup{kv M 1 AvkA ; ||v||A = 1}
sntem condusi la evaluarea expresiei kv wkA , unde w = M 1 Av si
kvkA = 1. Dar
kv wk2A = v T Av v T Aw wT Av + wT Aw =
=

1 wT M T w wT M w + wT Aw = 1 wT (M T + N )w.

Prin urmare kvkA = 1 implica kv M 1 AvkA 1 pentru ca, matricea


M T + N fiind pozitiv definita (prin ipoteza),
v 6= 0, w = M 1 Av 6= 0=wT (M T + N )w > 0.
Functia v Rn kv M 1 AvkA R fiind continu
a ( compuneri de functii
continue ) pe compactul {v Rn ; kvkA = 1} si atinge marginea superioara
pe acest compact, deci exista v0 Rn cu kv0 kA = 1 astfel ca
sup{kv M 1 AvkA ; kvkA = 1} = kv0 M 1 Av0 kA < 1
deci kM 1 N kA < 1, ceea ce demonstreaza ca (M 1 N ) < 1, utiliznd Teorema 1.3. Reciproc, fie x(0) Rn . Consideram sirul definit prin
x(m+1) = M 1 N x(m)

m 0.

Din ipoteza facuta, (M 1 N ) < 1, acest sir converge la zero. Cum avem
x(m) x(m+1) = (I M 1 N )x(m) ,
folosind identitatea (3.18) din Lema 3.1 obtinem
(x(m) x(m+1) , (M T + N )(x(m) x(m+1) ) =

86

Capitolul 1. Sisteme de ecuat


ii liniare
= (x(m) , (I M 1 N )T (M T + N )(I M 1 N )x(m) ) =
= (x(m) , (A (M 1 N )T A(M 1 N ))x(m) ) =
= (x(m) , Ax(m) ) (x(m) , (M 1 N )T A(M 1 N )x(m) =
(x(m) , Ax(m) ) (x(m+1) , Ax(m+1) )

deci
(x(m) x(m+1) , (M T +N )(x(m) x(m+1) ) = (x(m) , Ax(m) )(x(m+1) , Ax(m+1) )
(3.19)
Daca x(m) 6= 0 atunci x(m) x(m+1) 6= 0 ( in caz contrar am avea 0 =
x(m) x(m+1) = M 1 (M N )x(m) = M 1 Ax(m) deci x(m) = 0.) Cum
M T + N este pozitiv definit folosind (3.19) avem
(x(m) , Ax(m) ) (x(m+1) , Ax(m+1) ) > 0.
Daca A nu este pozitiv definita, exista x(0) nenul ce verific
a (x(0) , Ax(0) ) 0.
Cu aceasta alegere a vectorului initial obtinem un sir verificnd
(x(m+1) , Ax(m+1) ) < (x(m) , Ax(m) ) < < (x(0) , Ax(0) ) 0
ceea ce contrazice faptul ca sirul (x(m) ) converge la 0.

Teorema precedenta se generalizeaza la cazul nesimetric astfel:


Fie A o matrice nesingular
a, A = M N cu M nesingular
a astfel
ca matricea Q = M T AT A + N s
a fie pozitiv definit
a. Atunci
(M 1 N ) < 1 dac
a si numai dac
a matricea A este pozitiv definit
a.
Demonstratia acestui rezultat se gaseste n [67] sau [75].
Definitia 3.2
Spunem c
a matricea A admite o splitare (descompunere) regulat
a dac
a
exist
a M si N astfel ca A = M N , M inversabil
a, M 1 0 si N 0.
Teorema 3.7 Fie A = (aij ), o matrice verificnd aij 0 i 6= j. Exist
ao
splitare regulat
a A = M N cu (M 1 N ) < 1 dac
a si numai dac
a A este o
M -matrice nesingular
a.
Demonstratie. Presupunem ca A admite o splitare regulata A = M N
cu (M 1 N ) < 1. Atunci M 1 A = I M 1 N este inversabil
a, deoarece
1
1
(M N ) < 1, deci M A este inversabil
a, de unde A este inversabil
a. Dar
A1 = (M N )1 = (I M 1 N )1 M 1

3. Metode iterative

87

si
(I M 1 N )1 = I + M 1 N + (M 1 N )2 +
ceea ce arata ca (I M 1 N )1 0, deoarece M 1 N 0. Deci A1 0, si
cum prin ipoteza aij 0 i 6= j utiliznd Propozitia 1.6(i) avem ca A este o
M -matrice. Reciproc, presupunnd ca A este o M -matrice nesingulara exista
s R, s > 0 si B 0 astfel ca A = sI B cu (B) < s. Este clar, acum, ca
A admite o splitare regulata. Intr-adev
ar, luam M = sI si N = B care au
proprietatile: M inversabila, M 1 0, N 0 si (M 1 N ) = s1 (B) < 1.
2
Definitia 3.3 Spunem c
a matricea A admite o splitare slab regulat
a
dac
a exist
a M si N astfel ca A = M N , M nesingular
a, M 1 0 si
M 1 N 0.
Este evident ca o splitare regulata este o splitare slab regulata. Mai mult
daca A = (aij ), aij 0 i 6= j admite o splitare slab regulata atunci A
admite o splitare regulata.
Teorema 3.8 Fie A = M N o splitare slab regulat
a ( adic
a M nesingular
a, M 1 0, si M 1 N 0 ). Afirmatiile urm
atoare snt echivalente:
(i) A1 0;
(ii) A1 N 0;
(iii) (M 1 N ) =

(A1 N )
< 1.
1 + (A1 N )

Demonstratie. Daca A = M N obtinem


M 1 N = (A + N )1 N = (I + A1 N )1 A1 N.
Lund B = A1 N , M 1 N = (I + B)1 B si fie o valoare proprie pentru B,
Bx = x
(I + B)x = (1 + )x
deci
M 1 N x = (I + B)1 Bx =

x
1+

88

Capitolul 1. Sisteme de ecuat


ii liniare

( = 1 atrage x = 0). Invers, daca este o valoare proprie pentru


(I + B)1 B atunci
(I B)1 By = y

By = (I + B)y

( 6= 1 caci daca nu y = 0 ) , astfel


By =

y.
1

Presupunnd ca (i) are loc, avem


A1 N = (M N )1 N = (I M 1 N )1 M 1 N.
Cum
A1 M = (M N )1 M = (I M 1 N )1 0,
din Teorema 1.10 rezulta ca (M 1 N ) < 1 ceea ce demonstreaza ca
A1 N 0, adica (ii).
Presupunnd ca (ii) are loc, matricea B = A1 N este 0 mpreun
a cu
M 1 N . Considernd valorile propri pozitive pentru B = A1 N , care stim
ca exista din teorema Perron Frobenius, /(1 + ) este o functie crescatoare
pentru 0 si avem maximul sau pentru = (A1 N ) astfel ca
(M 1 N ) =

(A1 N )
< 1.
1 + (A1 N )

Presupunnd, n sfrsit, ca (iii) are loc, am vazut ca aceasta atrage A1 0,


deoarece
A1 = (M N )1 = (I M 1 N )1 M 1 .
2
Corolarul 3.1 Fie A astfel ca A1 0. Dac
a A = M1 N1 si A = M2 N2
snt dou
a split
ari regulate cu N2 N1 atunci
(M21 N2 ) (M11 N1 ) < 1.
Demonstratie. Inegalitatile de mai sus rezulta din teorema precedent
a
1
( punctul (iii) ) si din faptul ca functia (1 + ) este crescatoare
pentru 0.
2

3. Metode iterative

89

Acest ultim rezultat este interesant deoarece el permite sa comparam vitezele


de convergenta a metodelor iterative bazate pe splitari diferite.
Indicam acum un alt mod n care se poate obtine un sistem echivalent cu
sistemul (3.1).
Daca P = Mn (K) si det(P ) 6= 0 atunci sistemul (3.1) este echivalent cu
sistemul
x = x + P (b Ax)
(3.20)
Sistemul (3.20) se mai poate scrie sub forma
P 1 x = (P 1 A)x + b

(3.21)

Observam ca sistemul (3.21) este de forma (3.16) cu


M = P 1 ,

N = P 1 A.

Sistemul (3.20), respectiv (3.21) poate fi scris sub forma (3.2) lund B =
M 1 N = I P A si c = M 1 b = P b.
De exemplu putem lua P = I unde 6= 0.
Compararea metodelor iterative
Cum alegem ntre mai multe metode iterative convergente pentru rezolvarea unui sistem liniar ? Pentru a fixa ideile sa presupunem ca matricea
B are proprietatea B B T = B T B. Atunci
||B m (0) ||2 ||B m ||2 ||(0) ||2 = ((B))m ||(0) ||2
Aceasta inegalitate este ceea mai buna posibil, n sensul ca, pentru orice
ntreg m 0, exista un vector 0 (m) 6= 0, pentru care inegalitatea devine o
egalitate. In cazul matricilor cu proprietatea de mai sus, metoda ceea mai
rapida este cea pentru care raza spectrala (B) este cea mai mica posibil,
pentru ca
1/m
sup ||B m x||2 = (B),
m 0.
||x||2 =1

In cazul general (matricea B oarecare, norma vectoriala oarecare) concluzia


este identica.
Asimptotic, vectorul eroare (m) = B m (0) se comport
a ca (B)m , cum
precizeaza rezultatul urmator.

90

Capitolul 1. Sisteme de ecuat


ii liniare

Teorema 3.9
(1) Fie || || o norm
a vectorial
a, si fie u astfel ca u = Bu + c. Consider
am
metoda iterativ
a
um+1 = Bum + c,
m 0.
Atunci
lim {

sup

m ||u u||=1
0

||um u0 ||1/m } = (B).

(2) Fie || || o norma vectorial


a oarecare si fie u astfel ca
+ c.
u = Bu + c = Bu
Considernd metodele iterative
u
u
m+1 = B
m + c,

um+1 = Bum + c, m 0

unde (B) < (B),


u0 = u
0 atunci oricare ar fi > 0, exist
a un ntreg l()
astfel ca
n k

um uk o1/m
(B)
m l= sup

.
(B) +
||u0 u||=1 kum uk
Demonstratie. Fie || || o norma matriciala subordonata. Pentru un ntreg
m putem scrie
((B))m = (B m ) ||B m || = sup ||B m 0 ||
||0 ||=1

astfel ca (B) sup||0 ||=1 ||B m 0 ||1/m = ||B m ||1/m si afirmatia (1) rezulta
din Teorema 3.1. Din acelasi rezultat, fiind dat > 0, exista un ntreg l()
astfel ca
k l= sup ||B m 0 ||1/m (B) + .
||0 ||=1

Prin urmare, pentru orice k l, exista un vector 0 = 0 (m) astfel ca


m 0 ||1/m = ||B
m ||1/m (B)

||0 || = 1 si ||B
si afirmatia (2) este demonstrata.

Studiul metodelor iterative trebuie sa raspund


a la urmatoarele doua probleme.

3. Metode iterative

91

1) Fiind data o metoda cu matricea B sa se determine daca metoda este


convergenta, adica daca (B) < 1, sau echivalent daca exista o norma
matriciala astfel ca ||B|| < 1.
2) Fiind date doua metode iterative convergente, sa se compare aceste
metode, metoda cea mai rapida este cea a carei matrice are raza spectrala cea mai mica.

3.2

Metoda Jacobi

Una din cele mai simplu de nteles si implementat metode iterative este
metoda Jacobi.
Definirea metodei Jacobi
Presupunem ca matricea A este nesingulara si are elementele de pe diagonala
principala nenule (aii 6= 0, i I = {1, . . . , n}). Descompunem matricea A
ca suma de trei matrici
A=DEF
(3.22)
unde D = diag(a11 , . . . , ann ), E este strict inferior triunghiulara ( eij =
0, i j) iar F este strict superior triunghiulara ( fij = 0, i j ).
Sistemul (3.22) poate fi scris sub forma
Dx = (E + F )x + b

(3.23)

Deoarece elementele diagonale aii ale matricii A snt nenule, putem deduce
urmatoarea metoda iterativa din (3.23)
(m+1)

aii xi

n
X

(m)

aij xj

+ bi ,

i I, m 0

(3.24)

j6=i

unde x(0) snt estimarile initiale ale componentelor solutiei unice x a sistemului (3.23). Evident, putem scrie (3.24) sub forma
(m+1)

xi

X aij (m)
j6=i

aii

xj

bi
,
aii

i I, m 0

(3.25)

In notatie matriciala, (3.24) devine


Dx(m+1) = (E + F )x(m) + b,

m0

(3.26)

92

Capitolul 1. Sisteme de ecuat


ii liniare

si deoarece D este o matrice nesingulara, analogul matricial pentru (3.25)


este
x(m+1) = D1 (E + F )x(m) + D1 b
(3.27)
Aceasta metoda iterativa poarta numele de metoda JACOBI, iar matricea
J(A) = D1 (E + F ) = L + U

(3.28)

unde L = D1 E, U = D1 F , este matricea Jacobi asociata matricei A.


Observam ca metoda Jacobi este de tipul (3.3) cu M = D si N = E + F iar
B = J(A) si c = D1 b.
Convergenta metodei Jacobi
Vom da n continuare cteva rezultate de convergent
a a metodei Jacobi.
Teorema 3.10 Urm
atoarele afirmatii snt echivalente:
i) Metoda Jacobi este convergent
a.
ii) Raza spectral
a (J(A)) < 1.
iii) Exist
a o norm
a matricial
a kk subordonat
a unei norme vectoriale astfel
ca kJ(A)k < 1.
Demonstratie. Rezulta imediat, folosind Teorema 3.1.

Teorema 3.11
a) Dac
a A este o matrice strict diagonal dominant
a atunci metoda Jacobi
este convergent
a.
b) Dac
a A este o matrice diagonal dominant
a ireductibil
a atunci metoda
Jacobi este convergent
a.
c) Daca A este o H - matrice nesingular
a atunci metoda Jacobi converge
M (A) = M (A)}.

pentru orice matrice din (A) = {A;


Demonstratie. a) Daca A este o matrice strict diagonal dominant
a atunci
aii 6= 0 i I = {1, . . . , n} si matricea A este nesingulara. Fie B o matrice ale caror elemente snt definite astfel bii = 0 si bij = aij /aii , i 6= j.
Observam ca matricea B este matricea Jacobi asociata matricii A. Cum

3. Metode iterative

93

a ca
j6=i |aij | < |aii | i I rezult

n
X

|bij | < 1, deci kBk < 1 de unde

j=1

(B) kBk < 1, adica (B) < 1. Am demonstrat astfel ca (J(A)) < 1 si
folosind Teorema 3.1 rezulta convergenta metodei Jacobi.
b) Daca A este diagonal dominant
a ireductibila avem kBk 1 si cum
(B) kBk avem (B) 1. Presupunem ca exista valoare proprie
pentru B cu || = 1. Fie x 6= 0 un vector propriu pentru matricea B. Deci
n
X

bij xj = xi i I.

j=1

Vom arata ca |xj | = kxk j I. Pentru un i I pentru care |xi | = kxk


avem
n
n
X

|bij |kxk kxk

j=1

|bij ||xj |

j=1

deoarece
kxk = |xi | = || |xi | = |xi | = |

n
X

bij xj |

j=1

si

n
X
j=1

n
X

|bij | |xj |

j=1

|bij | 1 deci
n
X

|bij |(|xj | kxk ) 0.

(3.29)

j=1

Cum |xj | kxk 0 atunci bij 6= 0 implica |xj | = kxk . Fie I1 multimea
{i I, |xi | = kxk }. Daca I1 6= I atunci I2 = I\I1 6= . Pentru j I2 exist
a
i I1 astfel ca bij 6= 0 deoarece I = I1 I2 , I1 I2 = iar B este ireductibila.
Folosind observatiile de mai sus avem ca |xj | = kxk . Deci I1 = I, adica
P
|xj | = kxk j I. Avem prin urmare kxk = |xi | nj=1 |bij | kxk
Pn
deci j=1 |bij | 1 pentru orice i I ceea ce contrazice faptul ca exista un
P
indice i I pentru care nj=1 |bij | < 1. Deci (B) < 1.
c) Matricea A fiind o H - matrice nesingulara, exista o matrice diagonala
U astfel ca U 1 AU sa fie strict diagonal dominant
a. Cum A = D E F
1
1
1
1
iar U AU = U DU U EU U F U avem J(A) = D1 (E + F ) =
I D1 A si J(U 1 AU ) = I (U 1 DU )1 (U 1 AU ) = I U 1 D1 AU =
U 1 (I D1 A)U = U 1 J(A)U , ceea ce demonstreaza ca J(A) si J(U 1 AU )
au aceleasi valori proprii, deci (J(A)) = (J(U 1 AU )) < 1, deoarece

94

Capitolul 1. Sisteme de ecuat


ii liniare

U 1 AU este strict diagonal dominant


a. Am demonstrat astfel ca pentru
orice H- matrice nesingulara metoda Jacobi converge. Cum orice matrice
A (A) este o H - matrice rezulta ca metoda Jacobi pentru A este convergenta.
2
Observatie. Pentru demonstrarea punctului b) din teorema de mai sus
putem folosi punctul c) stiind ca orice matrice diagonal dominant
a si
ireductibila este o H - matrice.
Teorema 3.12 Fie A o matrice simetric
a A = D E F astfel ca D s
a
fie pozitiv definit
a. Metoda Jacobi converge dac
a si numai dac
a A si 2D A
snt pozitiv definite.
Demonstratie. Presupunem ca A si 2D A snt matrici pozitiv definite.
Lund descompunerea A = M N cu M = D si N = E + F = E + E T
avem ca matricea Q = M T + N = 2D A este pozitiv definita. Utiliznd
teorema Householder-John (Teorema 3.6) rezulta ca (M 1 N ) < 1, adica
metoda Jacobi converge.
Reciproc, presupunem ca metoda Jacobi converge, deci (M 1 N ) < 1. Avem
(x, Ax) + (x, Qx) = 2(x, Dx) > 0

x 6= 0,

deoarece D este o matrice pozitiv definita. Deci, pentru orice x 6= 0 avem


(x, Ax) > 0 sau (x, Qx) > 0. Fie x un vector propriu pentru M 1 N asociat
valorii proprii . Folosind identitatea (3.18) din Lema 3.1 obtinem
(1 ||2 )(x, Ax) = |1 |2 (x, Qx)
Intr-adevar, M 1 N x = x si cum
A (M 1 N )T A(M 1 N ) = (I M 1 N )T Q(I M 1 N )
avem
(x, Ax) (x, (M 1 N )T A(M 1 N )x ) =
= (x, Ax) (M 1 N x, AM 1 N x) =
= (x, Ax) (x, Ax) = (1 ||2 )(x, Ax)
si
(x, (I M 1 N )T Q(I M 1 N )x) =
= ((I M 1 N )x, Q(I M 1 N )x) =

(3.30)

3. Metode iterative

95

= ((1 )x, Q(1 )x) = |1 |2 (x, Qx),


deci (3.30) are loc. Din ipoteza || < 1 rezulta 1 ||2 si |1 |2 strict
pozitive, deci (x, Ax) si (x, Qx) au acelasi semn, si cum cel putin unul din
cele doua numere este pozitiv, rezulta ca ambele numere snt pozitive. Matricea A fiind simetrica, valorile sale propri snt reale. Fie x(1) , . . . , x(n)
o baza ortogonala formata cu vectori proprii. Atunci (x(j) , Ax(i) ) = 0 si
P
(x(j) , Ax(j) ) > 0. Pentru x Rn exista d1 , . . . , dn astfel ca x = nj=1 dj x(j) .
Pn
2 (j)
(j)
Deci (x, Ax) =
a matricea A este pozitiv
j=1 dj (x , Ax ) > 0, adic
definita.
2

3.3

Metoda Gauss-Seidel

Una din cele mai folosite metode iterative stationare este metoda
GaussSeidel.
Descrierea metodei Gauss-Seidel
Examinarea metodei iterative Jacobi (3.24) arata ca n general trebuie sa
avem salvate (pastrate) toate componentele vectorului x(m) pentru a putea
calcula componentele vectorului x(m+1) . Pare la prima vedere atractiv sa
(m+1)
folosim ultimile estimari xi
ale componentei xi ale solutiei x n toate
calculele care urmeaza asa cum arata metoda iterativa
(m+1)

aii xi

i1
X
j=1

(m+1)

aij xj

n
X

(m)

aij xj

+ bi i I, m 0

(3.31)

j=i+1

Aceasta metoda iterativa are avantajul ca nu necesita memorarea simultan


a
(m)
a doua componente xi n cursul calculelor asa cum este nevoie n metoda
Jacobi. In scriere matriciala relatiile (3.31) devin
Dx(m+1) = Ex(m+1) + F x(m) + b, m 0

(3.32)

Daca notam L = D1 E, U = D1 F si c = D1 b atunci metoda (3.32) se


mai scrie
x(m+1) = Lx(m+1) + U x(m) + c, m 0
Matricea G(A) = (D E)1 F = (I L)1 U se numeste matricea GaussSeidel asociata matricii A. Metoda Gauss-Seidel este de tipul (3.5) n care

96

Capitolul 1. Sisteme de ecuat


ii liniare

bii = 0 i I, mai mult B = L + U . Matricea G(A) este exact matricea B


din (3.5) si c = (D E)1 b Metoda Gauss-Seidel este de tipul (3.15) lund
M = D E, N = F.
Convergenta metodei Gauss-Seidel
Teorema urmatoare da o caracterizare a convergentei metodei GaussSeidel.
Teorema 3.13 Urm
atoarele afirmatii snt echivalente.
1) Metoda Gauss-Seidel este convergent
a.
2) Raza spectral
a (G(A)) [0, 1).
3) Exist
a o norm
a matricial
a k k astfel ca kG(A)k < 1.
Demonstratie. Folosind Teorema 3.1 rezulta imediat echivalenta celor trei
afirmatii.
2
Dam acum cteva conditii suficiente ca metoda Gauss-Seidel sa convearg
a.
Teorema 3.14
a) Dac
a A este o matrice strict diagonal dominant
a atunci metoda Gauss
Seidel este convergent
a.
b) Dac
a A este o matrice diagonal dominant
a si ireductibil
a atunci metoda
Gauss-Seidel este convergent
a.
c) Dac
a A este o H - matrice nesingular
a metoda Gauss-Seidel converge
M (A) = M (A)}.

pentru orice matrice din (A) = {A;


Demonstratie. Consideram matricea B = L + U definita astfel bii = 0 si
bij = aij /aii . Se observa ca matricea B este matricea Jacobi asociata matricii A iar (I L)1 U este matricea Gauss-Seidel asociata aceleiasi matrici.
Daca matricea A este strict diagonal dominant
a sau diagonal dominant
a si
ireductibila rezulta (|B|) < 1, adica (|J(A)|) < 1 si folosind Teorema 3.5
rezulta ca metoda Gauss-Seidel converge.
<
c) Daca A este o H - matrice atunci pentru orice A (A) avem (|J(A)|)
1 si folosind Teorema 3.5 rezulta ca metoda Gauss-Seidel este convergent
a.
2

3. Metode iterative

97

Teorema 3.15 Dac


a matricea A este simetric
a si pozitiv definit
a atunci
metoda Gauss-Seidel converge.
Demonstratie. Fie A = D E F cu D diagonala, E strict inferior
triunghiulara, iar F strict superior triunghiulara. Cum A este o matrice
simetrica rezulta F = E T . Pentru metoda Gauss-Seidel M = D E si
N = F = E T , deci Q = M T + N = (D E)T + E T = D. Matricea A fiind
pozitiv definita rezulta ca matricea D este pozitiv definita, deci utiliznd
teorema Householder-John (Teorema 3.6), rezulta ca metoda Gauss-Seidel
este convergenta.
2
Compararea metodelor Jacobi si Gauss-Seidel
Pentru matricea

2 1 1

2 2
A= 2
1 1 2

observam ca (J(A)) = 5/2 si (G(A)) = 1/2 deci metoda Jacobi nu este


convergenta, n timp ce metoda Gauss-Seidel este convergent
a.
Pentru matricea

1 2 2

1
A= 1 1
2 2
1

avem (J(A)) = 0 iar (G(A)) = 2 deci metoda Jacobi converge, n timp ce


metoda Gauss-Seidel nu este convergent
a.
Pentru matricea

A=

4 1 1
0
1
4
0 1

1
0
4 1
0 1 1
4

avem (J(A))2 = (G(A)) < 1 deci metodele Jacobi si Gauss-Seidel snt


convergente iar metoda Gauss-Seidel este de doua ori mai rapida ca metoda
Jacobi.

98

Capitolul 1. Sisteme de ecuat


ii liniare

Teorema 3.16
Fie A astfel ca matricea Jacobi asociat
a J(A) s
a fie ne negativ
a, adic
a
J(A) 0. Atunci, metodele Jacobi si Gauss-Seidel snt amndou
a convergente sau amndou
a divergente. Cnd cele dou
a metode snt convergente
metoda Gauss-Seidel converge mai repede.
Demonstratie. Cum J(A) 0 din teorema Stein-Rosenberg (Teorema
1.13) atunci una si numai una din urmatoarele relatii este adevarat
a:
1.
2
3
4.

(J(A)) = (G(A)) = 0
0 < (G(A)) < (J(A)) < 1
1 = (J(A)) = (G(A))
1 < (J(A)) < (G(A))

Intr-adevar, pentru A = D E F avem J(A) = L + U 0 unde L este


strict inferior triunghiulara iar U este superior triunghiulara cu L = D1 E,
U = D1 F , iar
G(A) = (D E)1 F = (I D1 E)1 D1 F = (I L)1 U.
Utiliznd Teorema 3.1 rezulta ca cele doua metode snt fie ambele convergente, fie ambele divergente. In cazul in care snt convergente, mai repede
converge metoda GaussSeidel.
2
Teorema 3.17 Fie A o matrice tridiagonal
a. Atunci razele spectrale ale
matricelor Jacobi si respectiv Gauss-Seidel ((J(A)) respectiv (G(A))) snt
legate prin relatia
(G(A)) = [(J(A))]2 .
Astfel cele doua metode snt convergente sau divergente simultan. Cnd
metodele snt convergente, metoda Gauss Seidel converge mai repede ca
metoda Jacobi.
Demonstratie. (i) Incepem cu un rezultat preliminar: Fie A() ( scalar
6= 0) o matrice tridiagonala de forma

A() =

1
cn1

b1 1 c1
a2
b2
1 c2

..

..

..

an1 bn1
an

bn

3. Metode iterative

99

Atunci det(A()) = det(A(1)) pentru orice 6=


tricea diagonala

Q() =
..

0. Daca introducem ma

atunci se verifica usor ca: A() = Q()A(1){Q()}1 ceea ce demonstreaza


relatia ceruta.
(ii) Valorile proprii ale matricei Jacobi J(A) = D1 (E + F ) snt zerourile
polinomului caracteristic
pJ () = det(D1 (E + F ) I)
care snt de asemenea zerourile polinomului
def

qJ () = det(D E F ) = det(D)pJ ().


In acelasi mod, valorile proprii ale matricei Gauss-Seidel G(A) =
(D E)1 F snt zerourile polinomului caracteristic
pG () = det((D E)1 F I)
care snt de asemenea zerourile polinomului
def

qG () = det(D E F ) = det(E D)pG ().


T
innd seama de structura tridiagonala a matricei A, o aplicatie a rezultatului preliminar (cu = 6= 0) arata ca
qG (2 ) = det(2 D 2 E F ) = det(2 D E F ) = n qJ ()
pentru orice C \ {0}. Aceast
a relatie fiind adevarat
a si pentru = 0
prin continuitate. Din aceasta relatie functional
a, deducem implicatiile:
6= 0 si sp {G(A)} = { 1/2 , 1/2 } sp (J(A))
{ sp(J(A)) sp(J(A))} = 2 sp(G(A)).
notnd prin 1/2 una din cele doua rad
acini ale num
arului complex , ceea
ce termina demonstratia.
2
Observatie
Demonstratia de mai sus a stabilit o bijectie ntre valorile proprii neneule ale
matricei G(A) si perechea valorilor proprii opuse nenule ale matricei J(A).

100

3.4

Capitolul 1. Sisteme de ecuat


ii liniare

Metode de relaxare

Putem ncerca sa marim viteza de convergent


a a metodei (3.3) respectiv (3.5)
lund la fiecare iteratie o combinatie liniara ntre x(m) si vectorul calculat
prin (3.3) respectiv (3.5), introducnd un factor de relaxare 6= 0.
Metoda Jacobi relaxat
a
Pornim de la metoda Jacobi (3.25) pentru a calcula vectorul auxiliar x(m+1 ),
apoi componentele vectorului x(m+1) snt determinate din
(m+1)

xi

(m+1)

=
xi

(m)

+ (1 )xi

unde 6= 0 este un parametru de relaxare. Obtinem

(m+1)
(m)
bi
aij xj
+ (1 )x(m)
xi
=
aii
j6=i

(3.33)

care matricial se scrie


Dx(m+1) = b + (E + F )x(m) + (1 )Dx(m)

(3.34)

1
1
I, N =
D + (E + F ).

1
Matricea J (A) = (1 )I + D (E + F ) = (1 )I + J(A) este matricea
de iteratie Jacobi relaxata asociata matricei A.
Constatam ca si aici A = M N unde M =

Convergenta metodei Jacobi relaxat


a
Vom particulariza acum rezultatele generale de convergent
a la metoda Jacobi
relaxata.
Teorema 3.18 Fie A o matrice simetric
a astfel ca D s
a fie pozitiv definit
a.
2
Metoda Jacobi relaxat
a converge dac
a si numai dac
a A si D A snt

matrici pozitiv definite.


Demonstratie. Se face identic ca demonstratia Teoremei 3.12, lundu-se
Q = M + MT A =

2
DA

2
2
Cautam acum sa obtinem conditii n care matricea D A este pozitiv

definita.

3. Metode iterative

101

Propozitia 3.2 Fie A o matrice simetric


a A = D E F astfel ca D =
diag(a11 , . . . , ann ) s
a fie pozitiv definit
a. Matricea (2/)D A este pozitiv
definit
a dac
a si numai dac
a 0 < < 2/(1 1 ) unde 1 este ceea mai mic
a
valoare proprie a matricei J(A).
Demonstratie. Remarcam ca matricea J(A) = D1 (E + E T ) are valori
proprii reale deoarece J(A) este asemenea cu D1/2 (E + E T )D1/2 care este
simetrica. Valorile proprii ale matricei J(A) snt reale si 1 2 n
de unde 1 0 si n 0 deoarece urma matricei este nul
a (adica tr(J(A)) =
2
1 + . . . + n = 0). Matricea D A este pozitiv definita daca matricea

D1/2 ((2/)D A)D1/2 este pozitiv definita.


D1/2

D A D1/2 =

2
2
I D1/2 AD1/2 = ( 1)I + D1/2 J(A)D1/2 .

Dar matricea D1/2 J(A)D1/2 are aceleasi valori ca matricea J(A). Valorile
proprii ale matricei (2/)D A snt 2/ 1 + i si pentru ca acestea sa fie
strict pozitive trebuie ca 0 < < 2/(1 1 ).
2
Pentru o matrice nesimetrica avem:
Teorema 3.19 Dac
a A o H-matrice nesingular
a, atunci metoda Jacobi relaxat
a converge pentru ce verific
a:
0<<

2
.
1 + (J(A))

Demonstratie. Cum J (A) = (1 )I + J(A) avem


(J (A)) |1 | + (J(A))

pentru > 0.

A fiind o H-matrice nesingulara (J(A)) < 1 si membrul din dreapta este


inferior lui 1 daca
2
.
0<<
1 + (J(A))
2
Ramne sa determinam care este cea mai buna valoare a lui , adica cea care
minimizeaza (J (A)).

102

Capitolul 1. Sisteme de ecuat


ii liniare
|i |

(1 1 )

opt

(1 n )

Figura 3.1:
Stim sa determinam opt n cazul n care matricea A = D E E T este
simetrica cu D pozitiv definita si unde metoda Jacobi converge. Valorile
proprii ale matricii J (A) snt
i = (1 ) + i = 1 (1 i ),

i = 1, . . . , n

unde i sint valori propri ale matricii J(A).


Functia (J (A)) = max |i | este reprezentat
a de linia hasurat
a si
1in

opt este astfel ca


1 (1 1 ) = 1 + (1 n )
deci
opt =
Pentru matricea

A=

2
2 (1 + n )

4 1 1
0
1
4
0 1

1
0
4 1
0 1 1
4

matricea Jacobi asociata lui A este

3. Metode iterative

103

J(A) =

0 1/4 1/4 0
1/4 0
0 1/4

1/4 0
0 1/4
0 1/4 1/4 0

Polinomul caracteristic asociat matricii J(A) este dat de


det(I J(A)) = 2 (2 1/4),
deci valorile propri snt {1/2, 0, 0, 1/2} iar raza spectrala (J(A)) este 1/2.
Pentru metoda Jacobi relaxata J (A) = (1 )I + J(A) care are valorile
proprii 1 = 1 3/2, 2 = 3 = 1 , 4 = 1 /2 iar raza spectrala
este

(J (A)) = max{|1 |, |1 |, |1 |} =

2
2

pentru 0 < < 1

3
1 pentru 1 <
2

Metoda Jacobi relaxata converge pentru 0 < < 4/3 iar opt = 1.
Daca A este o matrice de forma

C I
I C I

..
..
A=
.
.

iar

...
C
I

4 1
1 4 1

..
..
C=
.
.

..

.
4
1

unde ordinul matricei A este n = N 2 iar ordinul matricei C este N atunci


ij = 21 (cos(ih) + cos(jh)), (J(A)) = cos(h) = 1 O(h2 ), unde h =
1/(N + 1), ceea ce da o proasta viteza de convergent
a. Metoda Jacobi
relaxata are, din pacate, acelasi ordin de convergent
a, deoarece 1 = cos(h)),

104

Capitolul 1. Sisteme de ecuat


ii liniare

n = cos(N h) = cos(h) ceea ce da opt = 1, adica metoda Jacobi este


optimala n clasa metodelor Jacobi relaxate.
Valoarea optimala a parametrului
consideram matricea

A= e
e

nu este intotdeauna egala cu 1. Sa


e
a
e

e
e
a

cu e si a > 0. Matricea A este pozitiv definita daca a > e si este o H-matrice


daca a > 2e. Valorile proprii ale matricii J(A) snt e/a (valoare dubla) si
2e/a, deci (J(A)) = 2e/a si deci metoda Jacobi converge daca a > 2e,
ceea ce cadreaza bine cu teoria precedent
a, deoarece n acest caz A este o
H-matrice. Putem verifica usor ca n cazul e < a 2e, 2D A nu este
pozitiv definita.
ae
) si
Presupunem a > e. Valorile proprii ale matricei J (A) snt 1 (
a
a + 2e
2a
1(
) si se verifica usor ca (J (A)) < 1 daca 0 < <
ceea ce
a
a + 2e
este conditia gasita n Teoremele 3.3 si 3.12. Valoarea optimala a lui este
2a
3e
opt =
si (Jopt (A)) =
si deci (Jopt (A)) < (J(A)), adica
2a + e
2a + e
metoda Jacobi relaxata pentru = opt converge mai repede ca metoda
Jacobi.
Metoda Gauss-Seidel de relaxare sau metoda SOR
Pornim cu metoda Gauss-Seidel (3.31) pentru a determina vectorul auxiliar
x
(m+1) din
aii xi (m+1) =

i1
X

(m+1)

aij x
j

j=1
(m+1)

Componentele xi
(m+1)

xi

(m)

= xi

n
X

(m)

aij xj

+ bi i I, m 0

(3.35)

j=i+1

ale vectorului x(m+1) snt definite prin


(m+1)

+ (
xi

(m)

xi

(m)

) = (1 )xi

(m+1)

+
xi

(m+1)

(3.36)

Aici se numeste factor de relaxare , si din (3.36) xi


este o medie pon(m)
(m+1)
derata ntre xi si x
i
, pondere depinznd numai de . Pentru 0 1
aceste ponderi snt pozitive. Daca < 1 avem o metoda de subrelaxare iar
pentru > 1 avem o metoda de suprarelaxare.

3. Metode iterative

105

Combinnd ecuatiile (3.35) si (3.36) se obtine


(m+1)

aii xi

(m)

= aii xi

i1
X

(m+1)

aij xj

j=1

n
X

(m)

aij xj

(m)

+bi aii xi

(3.37)

j=i+1

n care vectorul auxiliar x


(m+1) nu apare. Notam ca n aceasta metoda, la
fel ca n metoda Gauss-Seidel, este nevoie de un singur vector n timpul
calculului.
In notatie matriciala putem scrie
(D E)x(m+1) = {(1 )D + F }x(m) + b, m 0

(3.38)

si cum D E este o matrice nesingulara pentru orice alegere a lui , atunci


cu L = D1 E, U = D1 F, aceasta ia forma
x(m+1) = (I L)1 [(1 )I + U ]x(m) + (I L)1 D1 b

(3.39)

Aceasta metoda poarta numele de metoda de relaxare punctual


a sau metoda
SOR, iar matricea
G (A) = (I L)1 [(1 )I + U ]

(3.40)

matricea de relaxare punctual


a asociata matricei A. Pentru = 1 se obtine
metoda Gauss-Seidel si matricea Gauss-Seidel asociata. Metoda SOR este
1
1
D + F cu B = G (A) si
de tipul (3.5) cu M = D E, N =

1
c = (D E) b.
Convergenta metodei Gauss-Seidel relaxat
a
Conditii de convergenta a metodei Gauss - Seidel relasata snt studiate n
cele ce urmeaza.
Teorema 3.20 (conditii necesare de convergent
a) Raza spectral
a
pentru matricea de relaxare G (A) verifica ntotdeauna inegalitatea
(G (A)) | 1|.
Dac
a metoda de relaxare converge, atunci (0, 2).

106

Capitolul 1. Sisteme de ecuat


ii liniare

Demonstratie. Se remarca faptul ca


n
Y

1
D + F)

= (1 )n ,
D
det( E)

det(
i (G (A)) = det(G (A)) =

i=1

tinnd cont de structura particulara a matricelor D, E, F. Prin urmare


n
Y

(G (A))

1/n

i (G (A))

= |1 |,

i=1

cu egalitate daca si numai daca toate valorile propri au acelasi modul |1|.
Din (G (A)) < 1 obtinem (0, 2).
2
Teorema 3.21 (Ostrowski-Reich) Fie A o matrice simetric
a de forma
A = D E F cu D = diag(A) pozitiv definit
a. Metoda SOR (Gauss-Seidel
relaxat
a) converge pentru orice 0 < < 2 dac
a si numai dac
a A este pozitiv
definit
a.
Demonstratie. Descompunerea A = M N asociata metodei de relaxare
se scrie
D
1

A=M N =
E
D+F

astfel ca
2
Q = MT + N =
D

este pozitiv definit pentru orice (0, 2). Utiliznd teorema Householder
John (Teorema 3.6) obtinem ca metoda de relaxare converge pentru orice
(0, 2) daca si numai daca A este pozitiv definita.
2
Corolarul 3.2 Dac
a matricea A este simetric
a si pozitiv definit
a atunci
metoda Gauss-Seidel relaxat
a converge pentru orice (0, 2).
Demonstratie. Daca A este o matrice simetrica si pozitiv definita atunci
matricea D = diag(A) este pozitiv definita, deci folosind teorema OstrowskiReich (Teorema 3.21 ) rezulta ca metoda SOR este convergent
a pentru orice
(0, 2).
2
Abandonnd ipoteza de simetrie avem urmatorul rezultat:

3. Metode iterative

107

Teorema 3.22 Dac


a A Mn (K) este o H-matrice nesingular
a si
0<<

2
2
=
1 + (|J(B)|)
1 + (J(M (A)))

atunci pentru orice matrice din


(A) = {B Mn (K) |bij | = |aij |,

1 i, j n}

metoda SOR converge.


Demonstratie. Pentru orice B (A) avem |J(B)| = J(M (A)). Matricea
A fiind o H-matrice atunci M (A) este o M -matrice si din Teorema 3.11
avem (|J(B)|) = (J(M (A)) < 1.
1
1
Fie B (A), B = D (L + U ). Lund M = D L si N =
D+U

avem G (B) = M1 N . Consider


am pentru > 0
|1 |
1
|D| + |U |
M = |D| |L|, N =

N
= 1 |1 | |D| |L| |U |,
A = M

1 N

G(A ) = M

0 si |N | N
. In plus
Este clar ca N
1
|M1 | = |( D L)1 | = |(I D1 L)1 | |D1 | =

= |(I + D1 L + . . . + (D1 L)n1 )| |D1 |


deoarece Ln = 0 pentru ca L este strict inferior triunghiulara deci
|M1 | (I + |D1 L| + . . . + n1 |D1 L|n1 ) |D1 |
sau nca
|M1 |

|D|

|L|

1
=M

deoarece |D1 L| = |D|1 |L|. Arat


am ca daca (|J(B)|) < 1 avem A1
0
2
. Dar
pentru 0 < <
1 + (|J(B)|)
1 |1 |

1 |1 |

A = |D|
I |D|1 (|L| + |U |) = |D|
I |J(B)| .

108

Capitolul 1. Sisteme de ecuat


ii liniare

1 |1 |
Daca 0 < < 1, atunci
= 1 si deoarece (|J(B)|) < 1 rezulta

1
(A ) < 1 deci A exista si n plus

1
1
A1
= (I + |J(B)| + ) |D|1
= (I J(B)) |D|

deci A1
a > 1 atunci
0. Dac
2

A = |D|
I |J(B)|

si rezultatul se obtine daca

(|J(B)|) < 1
2
ceea ce se scrie nca
<

2
.
1 + (|J(B))

Cum A1
inem ca
N 0 obt
1 N
) =
(M

(A1
N )
<1

1 + (A1
N )

1 N
) < 1. Din cele de mai sus rezulta
deci (M
1 N
| |M
1 | |N M
1 N
= G(A )
|G (B)| = |M
de unde folosind teorema Perron-Frobenius avem (G (B)) (G(A )) < 1.
Remarcam ca majoranta A este aceiasi pentru orice matrice B (A). 2
Ramne o problema important
a, ceea a determinarii unui optimal pentru
metoda de relaxare Gauss-Seidel.
In ce priveste compararea metodelor Jacobi si Gauss-Seidel relaxata avem
urmatorul rezultat :
Teorema 3.23
Fie A o matrice tridiagonal
a, avnd toate valorile proprii ale matricei J(A)
reale. Atunci metoda Jacobi si metoda Gauss-Seidel relaxat
a pentru 0 < <
2, converg sau diverg simultan, cnd metodele converg functia (0, 2)
(G (A)) are alura din figura 3.2 unde
opt =

1+

1 (J(A))2

3. Metode iterative

109

6 (G (A))

1
(G(A))
6

0 1
-

opt

Figura 3.2:
Demonstratie. (1) Incepem prin a gasi o relatie ntre valorile proprii ale
matricei J(A) si G (A). Valorile proprii ale matricei J(A) = D1 (E + F )
snt zerourile polinomului caracteristic
pJ () = det(D1 (E + F ) I)
care snt de asemenea zerourile polinomului
qJ () = det(D E F ) = det(D)pJ ().
In acelasi mod, valorile proprii ale matricei

G (A) =

1
DE

1
D+F

snt zerourile polinomului


h D

p () = det (

E)1 (

i
1
D + F ) I

sau a polinomului
q () = det(

+1
D
D E F ) = det E
p ().

Structura tridiagonala a matricei A permite sa scriem


q (2 ) = det(

2 + 1
D 2 E F ) =

110

Capitolul 1. Sisteme de ecuat


ii liniare

2 + 1
2 + 1
D E F = n qJ

pentru orice C\{0}. Prin urmare

= det|bigl(

6= 0, (G (A)) |bigl{

+ 1 + 1o
,
(J(A))
1/2
1/2

si
{ (J(A)) (J(A))}={+ (, ), (, )} (G (A))}
unde

1
2 2
+ (, ) = (2 2 2 + 2) +
( 4 + 4)1/2
2
2
1
2 2
(, ) = (2 2 2 + 2)
( 4 + 4)1/2
2
2
snt patratele celor doua radacini ale ecuatiei de ordinul doi (n )
2 + ( 1) = 0

2 + 1
=

pentru 6= 0.
Notam ca relatia functionala stabilita mai sus este adevarat
a si pentru = 0,
a doua implicatie nu este valabil
a pentru = 1, dar acest caz a fost deja
considerat.
(ii) Avem prin urmare
(G (A) =

max {max(|+ (, |, | (, )|)}.

(J(A))

In acest conditii, cum am facut ipoteza ca toate valorile proprii ale matricei
J(A) snt reale, sntem condusi la studierea functiei M : R+ (0, 2) R
definita prin
M (, ) = max(|+ (, ), | (, )|).
Este inutil sa se studieze functia M pentru 6 (0, 2), acest ultim caz fiind
reglat de Teorema 3.20
(iii) Presupunem pentru nceput ca 0 < 1. Pentru = 0, am vazut deja
ca M (0, ) = | 1|. Pentru 0 < < 1, trinomul 2 2 4 + 4 are
doua radacini reale 0 () si 1 () ce verific
a

1 + 1 2
2

< 2 < 1 () = 2
.
1 < 0 () =
2
1 + 1 2

3. Metode iterative

111

Daca 0 () < < 2, numerele complexe + (, ) si (, ) snt complex


conjugate. Cum ele snt patratele rad
acinilor trinomului 2 + ( 1),
produsul radacinilor fiind ( 1), se deduce ca
1 < 0 () < < 2 = M (, ) = |+ (, )| = | (, ) = 1.
Presupunem n continuare 0 < 0 (). Se verific
a imediat ca
M (, ) = + (, ) = 2 (, )
unde am pus
2(, ) = + (2 2 4 + 4)1/2 .
Dar
n (, ) 1 o
M

(, ) = 2(, ) (, ) = 4(, )

2(, )

pentru 0 < < 0 (). Cum 0 < < 1 si 0 < < 2 implica
2 2
1

1
( 4+4)1/2 < ( 2 2+2)+ (2) = 1
2 = (2 2 2+2)+
2
2
2
2

lim (, ) = 1,
lim (, ) = 0 () = {0 () 1}1/2 > 0
&0
2
%0 ()
avem, pe de-o parte

2 2
1/2 > 0 pentru 0 < < ()

2 = ( 4 + 4)

lim (2 ) = 0,

%0 ()

lim (2 ) = 2.

&0

si pe de alta parte

2( 1) < 0

pentru 0 < < 0 ()

lim {2( 1)} < 0,

%0 ()

lim {2( 1)} < 0

&0

Cum functia > 0 M (, ), pentru > 0 fixat, este strict crescatoare,


avem toate elementele necesare pentru a trasa familia de curbe M (, )
pentru 0 < < 1 si 0 < < 2. Vom nota n particular ca
(J(A)) < 1 (G (A)) = M ((J(A)), ) < 1

112

Capitolul 1. Sisteme de ecuat


ii liniare
6M (, )

2 >1

6
6

=0

6
-

1 0 (1 ) 6 0
0 (2 )

Figura 3.3:
pentru 0 < < 2 si ca
(G0 (A)) = inf (G (A)) = 0 1
0<<2

cu
0 = opt (J(A)) =

1+

2
1 (J(A))2

(iv) Presupunem n sfrsit 1. Atunci trinomul 2 2 4 + 4 este


mereu 0 si

1
( 2 4+4)1/2 ( 2 2+2)+ (2) = 1
+ (, ) = (2 2 2+2)+
2
2
2
2
pentru 0 < < 2 ceea ce n particular demonstreaza ca
(J(A)) 1 = (G (A)) 1 pentru 0 < < 2.
Teorema 3.24 Fie A o matrice tridiagonal
a, simetric
a si pozitiv definit
a.
Metodele Jacobi, Gauss-Seidel, Gauss-Seidel relaxat
a pentru
0 < < 2 converg.
Functia (G (A)) are pe (0, 2) alura indicat
a n Figura 3.2.

3. Metode iterative

113

Exist
a un parametru de relaxare optimal 0 ; 1 < 0 < 2 ce este dat
prin
1
p
0 =
1 + 1 (J(A))2
si
(G0 (A) ) = inf (G (A)) = 0 1 < (G(A)) < (J(A))
0<<2

dac
a (J(A)) > 0; iar dac
a (J(A)) = 0 atunci 0 = 1, (G(A)) = 0,
(G0 (A) = 0.
Cele trei raze spectrale snt legate ntre ele prin relatiile:
(G(A)) = (J(A))2 ,
(G0 (A)) =

(J(A))2

(1 +

1 (J(A))2 ))

(G(A))

(1 +

1 (G(A)))2

Demonstratie. Deoarece matricea A este tridiagonala, din Teorema 3.17,


rezulta
(G(A)) = (J(A))2 .
Cum matricea A este simetrica si pozitiv definita, din Teorema 3.15, rezulta
ca metoda Gauss-Seidel este convergent
a si utiliznd relatia de mai sus se
obtine ca metoda Jacobi este convergent
a. Din Corolarul 3.2, cum matricea
A este simetrica si pozitiv definita rezulta ca metoda Gauss-Seidel relaxata
converge pentru orice (0, 2).
Cum (J(A))ij = aij /aii rezulta ca matricea J(A) este simetrica, deci valorile sale proprii snt reale. Din Teorema 3.23 rezulta ca exista un parametru
optimal
2
p
,
0 =
1 + 1 J(A)2
astfel ca
(G0 (A)) = inf (G (A)) = 0 1 =
0<<2

(J(A))2

(1 +

1 (J(A))2 )2
2

Observatie
Teoremele 3.17, 3.21, 3.23, 3.24 snt adevarate daca se presupune ca matricea
A este tridiagonala pe blocuri si se considera metodele Jacobi, Gauss-Seidel,
Gauss-Seidel relaxata pe blocuri.
2

114

Capitolul 1. Sisteme de ecuat


ii liniare

Metoda SSOR
In metoda SOR, chiar daca matricea A este simetrica , matricea G (A) nu
este simetrica. Pentru a nlatura acest inconvenient s-a introdus metoda de
relaxare simetrica (SSOR) n care se parcurg variabilele n ordinea 1, 2, . . . , n
apoi n ordinea n, n 1, . . . 2, 1. Daca A = D E F , unde D este o matrice
diagonala, E strict inferior triunghiulara iar F strict superior triunghiulara,
cei doi pasi, anuntati mai sus, se scriu matriceal astfel:
(D E)xm+1/2 = b + [(1 )D + F ]x(m)
(D F )xm+1 = B + [(1 )D + E]x(m+1/2) .
Eliminnd xm+1/2 n relatiile de mai sus obtinem:
x(m+1) = SG (A)x(m) + c

(3.41)

unde
SG (A) = (D F )1 [(1 )D + E](D E)1 [(1 )D + F ] =
= (I U )1 ((1 )I + L)(I L)1 ((1 )I + U )
cu notatia standard L = D1 E si U = D1 F , iar c are forma
c = (2 )(D F )1 D (D E)1 b.
Propozitia 3.3 Dac
a A Mn (R) este o matrice simetric
a a c
arei diagonal
a este pozitiv definit
a, atunci valorile proprii ale matricei SG (A) snt
reale si pozitive .
Demonstratie. Deoarece L este strict inferior triunghiulara avem Ln = 0
deci (I L)1 este un polinom n L, ceea ce face ca (I L)1 sa comute
cu (1 )I + L. Deci
SG (A) = (I U )1 (I L)1 [(1 )I + L][(1 )I U ].
Matricea (I U )G (A)(I U )1 are forma
(I L)1 [(1 )I + L)][(1 )I + U ](I U )1 = G() G()T
unde am pus G() = (I L)1 [(1 )I + L], are aceleasi valori proprii
ca SG (A). Este nsa clar ca G() G()T este simetrica.
2
Putem demonstra pentru metoda SSOR teoreme de convergent
a aseman
atoare
cu cele obtinute pentru metoda SOR.

3. Metode iterative

115

Teorema 3.25 (conditii necesare de convergent


a ) . Raza spectral
a pentru matricea SG (A) verific
a ntotdeauna inegalitatea
(SG (A)) | 1|2 .
Dac
a metoda SSOR converge, atunci (0, 2) .
Demonstratie. Se remarca faptul ca
n
Y

i (SG (A)) = det(SG (A)) =

i=1

det((1 )I + L) det((1 )I + U )

= (1 )2n
det(I L)
det(I U )

tinnd seama de structura particulara a matricei L si U . Prin urmare


(SG (A)) |

n
Y

i SG (A))|1/n = |1 |2

i=1

cu egalitate daca si numai daca toate valorile proprii au acelasi modul |1|2 .
Din (SG (A)) < 1 obtinem (0, 2).
Teorema 3.26 Dac
a A este o matrice simetric
a pozitiv definit
a atunci metoda
SSOR converge pentru orice 0 < < 2
Demonstratia este asemanatoare cu demonstratia Teoremei 3.21.
Teorema 3.27 Dac
a A Mn (K) este o H- matrice nesingular
a si
0<<

2
1 + (J(M (A))

atunci metoda SSOR converge pentru B (A).


Demonstratia este asemanatoare cu demonstratia Teoremei 3.22.

I
F
.
FT I
Valoarea optimal
a a parametrului pentru metoda SSOR este = 1.

Propozitia 3.4 Fie A =

116

Capitolul 1. Sisteme de ecuat


ii liniare

Demonstratie. Cautam valorile proprii pentru


SG (A) = (I U )1 (I )L)1 [(1 )I + U ]
adica SG (A)x = x ceea ce revine la
[(1 )I + L][(1 )I + U ] x = (I L)(1 U )x.
Tinnd seama de forma lui A avem
((1 )2 )x1 = (1 + )F x2
((1 )2 )x2 (1 + )F T x1 + 2 (1 )F T F x2 = 0
Eliminnd x1 obtinem
((1 )2 x2 = (2 )2 F T F x2 .
Daca este valoarea proprie pentru J(A) atunci 2 este valoarea proprie
pentru F T F deci (2 2 )2 2 = ((1 )2 )2 sau nc
a

+ 1 = 0 cu = 2 2 1.
Valoarea lui care minimizeaza modulul rad
acinilor este 1.

Comentarii bibliografice
Utilizarea metodelor iterative pentru rezolvarea sistemelor de ecuatii algebrice liniare ncepe cu Gauss (1823). Gauss a avut de rezolvat sisteme mari
liniare pentru utilizarea metodei celor mai mici patrate.
Gauss, n metoda de rezolvare pe care o utilizeaza nu determina necunoscutele ntr-o ordine data a priori. Metodele dezvoltate de Gauss au fost
difuzate apoi n Germania de elevii sai. Jacobi le-a folosit la fel ca si elevul
sau Seidel. Totusi nu exista nici o mentiune n scrierile lui Gauss asupra a
ceea ce numim astazi metoda Gauss-Seidel. Seidel o mentioneaz
a de fapt n
1874 dar nu sfatuieste utilizarea sa.
Metodele iterative pe blocuri au fost introduse n aceiasi epoca, Gerling
(1843), Seidel (1842,1874).
Metodele de relaxare utilizate de Southwell (1946) si scoala sa snt identice
cu cele ale lui Seidel; se corecteaza cu prioritate ecuatia avnd reziduu cel
mai mare. Conditii suficiente de convergent
a pentru metoda Gauss-Seidel

4. Vectori si valori proprii

117

au fost date de Nekrasov (1885). Faptul ca aceasta metoda converge pentru


o matrice pozitiv definita se pare ca a fost demonstrat n 1887 si a fost redemonstrat de Von Mises si Geiringer (1929). Reciproca a fost demonstrata
de Reich (1949).
Metoda Gauss-Seidel relaxata (SOR) a fost studiata n paralel de Frankel
(1950) si Young (1950, 1954).
Pornind de la aceasta data exista numeroase studii asupra acestei metode
care a parut mult mai eficace ca metoda Jacobi si ca metoda Gauss-Seidel.
Aceste studii snt rezumate n cartile lui Varga [98] si a lui Young [104].
Determinarea numerica a parametrului optimal se gaseste n Hageman si
Young [39].
Aitken (1950) a introdus o metoda Gauss-Seidel simetrica (SSOR cu = 1).
Metoda SSOR se gaseste n Sheldom (1955), iar metoda SSOR pe blocuri a
fost studiata de Erlich [20].

Vectori si valori proprii

Problema valorilor si vectorilor proprii pentru o matrice paatrat


a A Mn (K)
este cea a determinarii scalarilor din K si a vectorilor nenuli x din Kn astfel
ca
Ax = x
(4.1)
Problema este clar neliniara, deoarece att ct si x snt necunoscute. In fapt,
este bine cunoscut, ca valorile proprii,, snt rad
acinile ecuatiei caracteristice
det(I A) pA () = 0

(4.2)

deci valorile proprii pot, n principiu, fi gasite ca zerouri pentru polinomul


caracteristic pA fara a recurge la vreun vector propriu. Daca este o valoare
proprie, data, atunci un vector propriu se obtine ca o solutie a sistemului
liniar omogen
(A I)x = 0.
Pe de alta parte, daca un vector propriu nenul, x, este cunoscut, atunci
valoarea proprie la care corespunde poate fi obtinut
a ca
=

x Ax
.
x x

118

Capitolul 1. Sisteme de ecuat


ii liniare

De asemenea, putem folosi orice component


a nenul
a a lui x pentru a obtine
si anume
n
1 X
=
aij xj .
xi j=1
Nu exista metode directe care sa conduca la solutia exacta (n absenta erorilor de rotunjire) ntr-un num
ar finit de operatii algebrice. In fapt, existenta
unei asemenea metode ar antrena posibilitatea de a calcula rad
acinile unui
polinom de grad arbitrar, ntr-un num
ar finit de operatii algebrice elementare,
ceea ce ar contrazice teorema lui Abel (ar fi suficient sa calculam valorile proprii ale matricei companion asociata polinomului dat).
Metodele numerice care permit calcularea valorilor si vectorilor proprii se impart n doua categorii, si anume: cele care utilizeaza polinomul caracteristic
( rar utilizata azi ) si metode care nu utilizeaza polinomul caracteristic.
Metoda iteratiei vectoriale (metoda puterilor) permite evaluarea celei mai
mari sau a celei mai mici valori proprii mpreun
a cu vectorul propriu asociat,
cu ajutorul unui proces iterativ aplicat unui vector initial arbitrar. O modificare a acestei metode poate conduce, printr-o iteratie aplicata simultan
mai multor vectori, la un anumit num
ar de valori proprii succesive, fie cele
mai mari, fie cele mai mici.
Pentru calcularea aproximatiilor valorilor proprii ale unei matrici A, o idee
curent exploatata consta n construirea unui sir de matrici {Pk }k1 astfel
ca sirul de matrici {Pk1 APk }k1 s
a convearg
a (ntr-un sens ce va fi
precizat, de fapt nu va fi vorba mereu de o convergent
a veritabil
a) catre
o matrice cu valori proprii usor de calculat, adica diagonala, superior sau
inferior triunghiulara.
Aceasta idee sta la baza metodei Jacobi pentru o matrice simetric
a (conform paragrafului 4.4), unde matricile Pk snt produse de matrici ortogonale
elementare simplu de construit. Se poate arata ( Teorema 4.5) ca:
lim Pk1 APk = diag (i )

unde numerele i snt valori proprii pentru matricea A. Cnd toate valorile
proprii snt distincte, se stabileste ca coloanele matricilor (Pk ) constituie
aproximatii ale vectorilor proprii ale matricei A (Teorema 4.6).
Alte metode permit calcularea anumitor valori proprii selectionate. Acesta
este cazul metodei Givens-Householder pe care o studiem n paragraful
4.5 si care se aplica matricilor simetrice . Se pleaca cu reducerea unei

4. Vectori si valori proprii

119

matrici simetrice la forma tridiagonala , apoi printr-un procedeu ingenios


dat de Givens se calculeaza cu o precizie arbitrara o valoare proprie de rang
dat.
Pentru o matrice oarecare, remarcabila metod
a QR, a carui principiu este
descris n paragraful 4.6, releva aceeiasi idee. Utiliznd la fiecare iteratie a
metodei factorizarea QR a matricelor, construim un sir (Pk )k1 de matrici
astfel ca,
(
0 pentru j < i
1
lim (P APk )ij =
i pentru j = i
k k
scalarii i fiind valorile proprii pentru matricea A, far
a sa putem spune
1
nimic despre convergenta sirurilor (Pk APk )ij cu i < j. Este vorba deci de
o pseudoconvergenta a sirului (Pk1 APk )k1 .

4.1

Localizarea valorilor proprii si rezultate


de stabilitate

In localizarea valorilor proprii se utilizeaza teorema Gerschgorin din 1931 n


demonstrarea careia se foloseste urmatorul rezultat clasic.
Lema 4.1 Cele n r
ad
acini ale polinomului
p = X n + p1 X n1 + + pn1 X + pn
snt functii continue de coeficientii p1 , . . . , pn .
Demonstratia acestui rezultat clasic se poate gasi n [75].
Teorema 4.1 (Gerschgorin, 1931) Fie A = (aij ) o matrice cu valorile
proprii {1 , . . . , n } si consider
am
ri =

X
j6=i

|aij |, cj =

|aij |.

i6=j

Atunci:
(i) Toate valorile proprii snt continute n reuniunea discurilor Ri ,
i I, unde I = {1, . . . , n}, definite prin
Ri = {z C ; |z aii | ri }

120

Capitolul 1. Sisteme de ecuat


ii liniare

(ii) Toate valorile proprii snt continute n reuniunea discurilor (Cj )jI
definite prin
Cj = {z C ; |z ajj | cj }
S

(iii) Toate componentele conexe ale multimilor ni=1 Ri sau nj=1 Cj contin
exact attea valori proprii cte discuri (valorile proprii si discurile proprii fiind num
arate cu ordinul lor de multiplicitate).
Demonstratie. (i) Daca este o valoare proprie pentru matricea A, exista
un vector propriu x 6= 0 astfel ca Ax = x sau nc
a
( aii )xi =

aij xj , i I = {1, , n}.

j6=i

Alegnd un indice i astfel ca |xi | = kxk 6= 0; aceasta atrage


| aii |

X
j6=i

|aij |

|xj | X

|aij | = ri .
|xi |
j6=i

Aceasta demonstreaza (i). Cum valorile proprii ale matricei A si AT snt


aceleasi (ii) rezulta din (i).
( iii) Consideram familia matricelor A(t) = D + tB unde D este o matrice
diagonala, D = diag(a1,1 , , an,n ) iar B = A D. Fie Ri (t) si Cj (t) discurile cu razele t ri si t cj si centrele ai,i respectiv aj,j . Avem A(0) = D
si (iii) este, evident, adevarat
a pentru aceasta matrice diagonala. Valorile proprii (t) ale matricii A(t) snt rad
acinile polinomului caracteristic
PA(t) () = det(I A(t)). Cum rad
acinile unui polinom snt functii continue
de coeficientii polinomului (Lema 4.1), cnd t creste de la 0 la 1, num
arul
ntreg de discuri si de valori proprii continute n fiecare component
a conexa
S
S
R
(t)
sau
C
(t)
variaz
a
continuu

s
i
s
nt
constante
cu
except
ia unui
i
j
iI
jI
numar finit de valori t = tk la care num
arul de discuri continute ntr-o componenta conexa creste. Presupunem far
a a pierde din generalitate ca primele
m discuri R1 , . . . , Rm formeaza o component
a conexa. Cum cele n m discuri, Rm+1 , . . . Rn , cu razele rm+1 , . . . rn snt izolate de discurile R1 , . . . Rm ,
este la fel pentru discurile ce corespund razelor tri si pentru t [0, 1]. Pentru
t = 0 valorile proprii ale lui A(0) snt a11 , . . . , ann , deci primele m apartin
S
si celelalte (n m) snt n afara acestui domeniu. Cum
domeniului m
i=1 Ri
valorile proprii i (t) ale matricei A(t) descriu traiectorii continue (vezi Lema

4. Vectori si valori proprii

121
S

4.1 ) cnd t variaza ntre 0 si 1, domeniul conex m


ine primele m
i=1 Ri cont
valori proprii ale matricei A(t) pentru 0 t 1 si deci primele m valori
proprii ale matricei A (pentru t = 1) n virtutea continuit
atii traiectoriilor.
2
Remarca 4.1
a) Dac
a unul din discurile Greschgorin Ri este izolat de celelalte, acest
disc contine exact o valoare proprie pentru matricea A.
b) Dac
a, ntr-o linie ai a matricei A, singurul element nenul este aii
atunci aii este valoare proprie a matricei A.

Pentru a ilustra modul cum depind vectorii si valorile proprii ale matricei
A consideram, pentru nceput, doua exemple simple.
Exemplul 1 (Forsythe ). Fie A si A + E dou
a matrici Hessenberg superioare

a
1 a

..

.
A=

..
..

.
.

..
1

a
1 a

..

.
A+E =

..

..

..
1

care nu difera dect prin elementul de pe pozitia (1, n).


Ecuatia caracteristica a matricei A se scrie ( a)n = 0 si deci = a este
singura valoare proprie de multiplicitate n. Ecuatia caracteristica a matricei
A + E se scrie ( a)n (1)n+1 (1)n1 = 0, adica ( a)n = 0, deci
valorile proprii ale matriciiA + E snt
k = a + k 1/n , k = 0, 1, . . . , n 1
unde este o radacina arbitrara a unitatii ( n = 1). Valorile proprii ale
matricei A + E snt distincte si situate pe cercul de centru a si raza 1/n .
Presupunem, de exemplu, n = 10 si = 1010 . Raza acestui cerc este 101
ceea ce indica faptul ca variatia valorii proprii, n modul, este de 109 ori
mai mare ca perturbatia unui singur element al matricei A care este cauza
acestei variatii. Daca n = 100 si = 10100 , raza cercului ramne tot 101

122

Capitolul 1. Sisteme de ecuat


ii liniare

dar variatia valorii proprii, n modul, este de 1099 ori mai mare ca perturbatia
elementului a1,n .
Exemplul 2 (Givens ). Fie A matricea definita prin:

2
1
+

cos

A=

sin

sin

1 cos

.
2

Valorile proprii pentru matricea reala si simetrica A snt 1 = 1, 2 = 1+


iar vectorii proprii ce corespund valorilor proprii 1 respectiv 2 snt
1
1
x(1) = (sin , cos )T ,

1
1
x(2) = ( cos , sin )T .

Micile variatii ale lui atrag mici variatii ale lui 1 si 2 , dar vectorii proprii
nu tind spre o limita cnd 0, deci vectorii proprii nu snt functii continue
de elementele matricii A.

Vom examina acum n ce masur


a problema valorilor proprii este bine
pusa, adica vom cerceta daca valorile proprii ale unei matrici perturbate
A(), A() = A + C depind continuu de perturbarea C (unde C este o
matrice astfel ca kCk = kAk).
Teorema 4.2 Presupunem c
a matricea A de ordinul n admite n vectori
liniar independenti. Fie C o matrice fixat
a, astfel ca kCk = kAk si consider
am matricea perturbat
a
A() = A + C

(4.3)

(i) Dac
a este o valoare proprie pentru matricea A exist
a o valoare proprie
() pentru matricea A() astfel ca
|() | O()

(4.4)

ii) In plus, dac


a este o valoare proprie simpl
a, avem
()
y Cx
=
0

y x
lim

(4.5)

unde x este un vector propriu la dreapta iar y un vector propriu la stnga


pentru matricea A ce corespund valorii proprii .

4. Vectori si valori proprii

123

Pentru demonstrarea teoremei de mai sus se foloseste urmatorul rezultat.


Lema 4.2 Fie B si B() de ordinul n, de rang n 1, astfel ca
lim B() = B.

Atunci pentru || suficient de mic, exist


a un vector x() n nucleul lui B()
(B()x() = 0) astfel ca kx()k 1 si x() x(0) cnd 0, unde x(0)
este un vector astfel ca Bx(0) = 0.
Demonstratie. Pentru ca B() B, pentru || suficient de mic, exista cel
putin un cuplu de indici (i, j) astfel ca submatricele patrate Bij a lui B si
Bij () a lui B() de ordinul n 1 obtinute prin suprimarea liniei i si coloanei
j sa fie nesingulare, si Bij () Bij cnd 0. Putem triangulariza Bij
cu ajutorul metodei de eliminare Gauss ; pentru || suficient de mic, putem
utiliza aceiasi pivoti pentru triangularizarea matricei Bij (). Lund xj () = 1
rezolvam sistemul B()x() = 0 cu ajutorul descompunerii triunghiulare
obtinute. Continuitatea nmultirii si adunarii algebrice atrage x() x(0)
n aceste conditii.
2
Demonstrarea Teoremei 4.2 (i) Fie P o matrice a carei coloane snt
vectori proprii la dreapta pentru matricea A, astfel ca
AP = P

(4.6)

unde este matricea diag(1 , . . . , n ), i fiind valorile propri ale matricei


A, luate ntr-o anumita ordine. Din (4.5) si (4.3) avem
P 1 A()P = + P 1 CP = + E
lund
E = (eij ) = P 1 CP.
Valorile proprii () ale lui A(), care snt aceleasi cu ale matricei P 1 A()P ,
snt continute n cercurile centrale n i si de raza ri () = O().
ii) Sa presupunem acum ca = i este o valoare proprie simpla. Discul
Greschgorin Ri () al matricii P 1 A()P nu atinge nici un alt disc Rj (),
pentru un || suficient de mic. Nu exista, deci, dect o singura valoare proprie simpla () n Ri (), la care corespunde un vector propriu unic x() al
matricei A(). Avem, deci:
(A + C)x() = ()x(), Ax = x

(4.7)

124

Capitolul 1. Sisteme de ecuat


ii liniare

de unde deducem prin scadere


A[x() x] + Cx()) = [() ]x() + [x() x]

(4.8)

Inmultind relatia de mai sus prin vectorul linie y cu proprietatea y A = y


obtinem dupa efectuarea calculelor
y Cx() = [() ]y x().
Pentru a demonstra relatia de mai sus, ramne sa verific
am ca:
a) y x 6= 0 si ca b) putem alege x() si x astfel nct, x() x cnd 0.
a) Cum y 6= 0 este ortogonal pe fiecare din ceilalti n 1 vectori proprii ai
matriciei A, avem n mod necesar y x 6= 0.
b) Din (4.4) si (4.8) si din faptul ca este o valoare proprie simpla, matricele
A I si A + C ()I snt exact de rang n 1, si putem suprima aceiasi
linie si aceeiasi coloana pentru a obtine matrici nesingulare, cu conditia ca
|| sa fie suficient de mic. Presupunem ca am suprimat coloana j si am luat
xj () = 1. Pentru a termina demonstratia punctului b) este suficient sa
luam B = A I si B() = A() ()I = A + C ()I n Lema 4.2. 2

4.2

Metode folosind polinomul caracteristic

Vom discuta metode de determinare a vectorilor si valorilor proprii utiliznd


polinomul caracteristic. In toate aceste metode se determina coeficientii polinomului caracteristic, se determina valorile proprii, ca rad
acini a polinomului
caracteristic, iar apoi se determina vectorii proprii.
Se verifica usor ca daca A Mn (K), atunci PA () = det(I A) are forma
PA () = n 1 n1 + 2 n2 + + (1)n n
unde 1 =

Pn

=1 a

este suma tuturor elementelor diagonale ale lui A,

X a
2 =

a
<

a
a

este suma tuturor minorilor diagonali de ordinul doi ai lui A,

X a
3 =
a

<< a

a a
a a
a a

4. Vectori si valori proprii

125

este suma tuturor minorilor diagomnali de ordinul trei ai matricei A, si asa


mai departe. In final n = det(A).
Este usor de vazut ca numarul minorilor diagonali de ordinul k ai lui A
este Cnk = n(n 1) (n k + 1)/k! k = 1, 2, . . . , n. De aici obtinem ca
un calcul direct a coeficientilor polinomului caracteristic este echivalent cu
evaluarea a Cn1 +Cn2 +. . . Cnn = 2n 1 determinanti de diferite ordine, care, n
general vorbind, este o problema ce este greu de manevrat cnd n este mare.
Acesta este motivul pentru care s-au proiectat diferite metode de calcul a
coeficientilor polinomului caracteristic.
Metoda Danilevsky
Este usor de vazut ca daca C Mn (K) are forma

p1 p2
1 0

..

.
1
C=

pn
0
..
.
..
1

. 0
0

(4.9)

atunci polinomul caracteristic pC () are forma


pC () = n p1 n1 pn .

(4.10)

Daca este o valoare proprie pentru C atunci


x = (n1 , n2 , . . . , , 1)T
este un vector propriu pentru matricea C. Daca S este o matrice nesingulara
iar C = S 1 AS atunci
pC () = det(I C) = det(S 1 (I A)S) = det(I A) = pA ()
deci polinoamele caracteristice pentru A si C snt identice.
Metoda Danilevsky, de obtinere a polinomului caracteristic pentru o matrice A, consta n determinarea unei matrici S nesingulare astfel ca matricea
C = S 1 AS sa fie de forma (4.10), numit
a si forma canonica Frobenius
pentru A.

126

Capitolul 1. Sisteme de ecuat


ii liniare

Lema 4.3 Dac


a A = Mn (K) si an,n1 6= 0 unde mij = ij pentru i 6= n 1
iar mn1,j = an,j /an,n1 , j 6= n 1 si mn1,n1 = 1/an , n 1 atunci
1
D = Mn1
AMn1 are forma

D=

b1,1
..
.
bn1,1
0

..
.

b1,n2
..
.
bn1,n2
0

b1,n1
..
.
bn1,n1
1

b1,n
..
.
bn1,n
0

Demonstratie. Daca B = AMn1 atunci bij = aij + ai,n1 mn1,j pentru


1 i n, j 6= n 1, bi,n1 = ai,n1 mn1,n1 pentru 1 i n.
1
Pentru D = Mn1
B avem dij = bij pentru 1 i n 2
P
dn1,j = k=1 ank bkj pentru 1 j n, dn,j = 0 pentru j 6= n 1 si
dn,n1 = 1.
2

Acum, daca dn1,n2 6= 0, transformarii aseman


atoare se efectueaza asupra
matricei D lund linia n 2 ca linie principala. Obtinem astfel matricea
1
1
D0 = Mn2
Mn1
AMn1 Mn2 ce are ultimele doua linii reduse. Aceasta
matrice este supusa acelorasi operatii, obtinnd n final
1
D = M11 Mn1
AMn1 M1 ,

daca toate cele n 1 transformari intermediare snt posibile.


Presupunem ca n transformarea matricei A intr-o matrice Frobenius am
ajuns, dupa un numar de pasi, la o matrice de forma

d1,1 d1,2
d1,k
d1,n1 d1,n
.
.
.
..
..
..
..
..
.
.

d
d
dk,k dk,n1 dk,n

D = k,1 k,2
0
0
1
0
0

..
..
..
..
..
.
.
.
.
.
0
0 0
1
0

si am gasit ca dk,k1 = 0. Este imposibil de continuat transformarile prin


metoda Danilevsky. Pot aparea doua cazuri.
1. Presupunem ca exista dk,l 6= 0 cu l < k 1. Atunci invers
am coloana
k 1 cu coloana l si linia k 1 cu linia l. Matricea D0 astfel obtinut
a
este asemenea cu matricea D. Aplicam apoi metoda Danilevsky pentru
matricea D0 .

4. Vectori si valori proprii

127

2. Presupunem dkl = 0 ( 1 l k 1), atunci D este de forma

D=

D1 L
0
D2

In acest caz polinomul caracteristic are forma


pD () = det(I D) = det(I D1 ) det(I D2 ).
Aici, matricea D2 este deja redusa la forma canonica Frobenius si deci polinomul det(I D2 ) este deja calculat. Ramine sa aplicam metoda Danilevsky
pentru matricea D1 .
Daca C = S 1 AS iar y este vector propriu pentru C, asociat valorii proprii
, atunci x = Cy este un vector propriu pentru A asociat valorii proprii A.
Metoda Krylov
O alta metoda de determinare a polinomului caracteristic a fost data de
Krylov si se bazeaza pe teorema urmatoare.
Teorema 4.3 ( Cayley Hamilton) Dac
a A Mn (K) iar polinomul
caracteristic este pA () = n p1 n1 pn atunci pA (A) = 0, adic
a
An p1 An1 pn1 A pn I = 0.

(4.11)

Demonstratie. Fie B() adjuncta matricei (I A) adica


(I A)B() = det(I A) I

(4.12)

Fiecare element a lui B() este un polinom de grad cel mult n 1 n ,


deoarece este un minor de ordin n 1 a matricei I A. Putem scrie
B() = Bn1 n1 + Bn2 n2 + + B1 + B0

(4.13)

unde Bi Mn (K). Folosind (4.13) n (4.12) obtinem


(I A)(Bn1 n1 + +B0 ) = det(I A)I = (n p1 n1 pn )I.

128

Capitolul 1. Sisteme de ecuat


ii liniare

Aceasta relatie este o identitate n de unde

Bn1

AB
n2
n1

=
=
=
..
.

Bn1 ABn2

I
p1 I
p2 I

B0 AB1 = pn1 I
AB0 =
pn I

Inmultind aceste relatii cu An , An1 , . . . , I si adunnd obtinem


0 = An p1 An1 pn1 A pn I
adica (4.11)

Sa luam acum y (0) =

(0)
(y1 , . . . , yn (0))T

un vector arbitrar. Inmultind

An p1 An1 pn I = 0
cu y (0) obtinem y (n) p1 y n1 pn1y(1) pn y (0) = 0 unde
y (k) = Ak y(0) = Ay (k1) .
Coeficientii polinomului caracteristic pA () snt solutii ale sistemului liniar
(y (n1) , y (n2) , y (1) , y (0) )p = y (n)

(4.14)

unde p = p1 , , pn )T . Deci determinarea coeficientilor polinomului caracteristic prin metoda Krylov se reduce la rezolvarea sistemului (4.14). Daca
sistemul (4.14) are solutie unica, atunci solutia sa determina coeficientii polinomului caracteristic. Daca sistemul (4.14) nu are solutie unica, problema
este mai complicata. In acest caz este mai bine sa se schimbe vectorul initial.
Metoda Leverrier
Pentru descrierea metodei Leverrier se utilizeaza urmatoarea lema.
Lema 4.4 (Newton) Dac
a P = xn + p1 xn1 + + pn este un polinom de
gradul n, cu r
ad
acinile 1 , . . . , n si dac
a sk = k1 + . . . + kn pentru k ntreg,
atunci lund p0 = 1 avem
kpk =

X
0jk1

pj skj

(4.15)

4. Vectori si valori proprii

129

Demonstratie. Din
P () =

n
Y

( i )

i=1

obtinem pentru || > max(|1 |, . . . , |n |)

n
n
n X

X
X
X
1
1
ki
sk
P 0 (x) X
1
=
=

=
=
,
k+1
P (x)
i
1 i / i=1 k=0
k+1
i=1
i=1
k=0

unde s0 = n. Deci
n
X

ni1

(n i)pi

n
X

i=1

adica

pj

nj

j=0
n
X

(n i)pi ni1 =

i=1

sk k1

k=0

pj sk njk1 .

j,k0

Egalnd coeficientii celor doua polinoame n avem


(n i)pi =

pj sk =

j+k=i

i
X

pj sij = pi s0 +

j=0

i1
X

pj sij

j=0

de unde (4.15)

Pentru determinarea polinomului caracteristic prin metoda Leverrier se


procedeaza astfel:
1. Pentru matricea A se calculeaza A2 , A3 , . . . , An .
2. Se calculeaza sk = tr(Ak ).
3. Se calculeaza p1 , . . . , pn din relatiile
p1 = s1
1
p2 = (s2 + p1 s1 )
2
..
.
1
pn = (sn + p1 sn1 + + pn1 s1 )
n
4. Polinomul caracteristic al lui A va fi P () = n + p1 n1 + + pn

130

Capitolul 1. Sisteme de ecuat


ii liniare

Cunoscnd polinomul caracteristic snt posibile doua cazuri: 1) pn = 0, deci


0 este valoare proprie pentru A, adica A1 nu exista;
2) pn 6= 0. In acest caz teorema Cayley - Hamilton ne da
An + p1 An1 + + pn1 A + pn I = 0
1
(An1 + p1 An2 + + pn1 I).
pn
Fadeev a imaginat un algoritm care da simultan coeficientii polinomului
caracteristic precum si pe A1 (daca exista).
deci A1 =

Propozitia 4.1 Fie A Mn (K). Consider


am sirul
A1 , p1 , B1 , A2 , p2 , B2 , . . . , An , pn , Bn
construit prin recurent
a astfel
1
A1 = A, pk = tr(Ak ), Bk = Ak + pk I, Ak+1 = AAk .
k
Atunci
1) Polinomul caracteristic al lui A este P () = n + p1 n1 + + pn
2) Bn = 0 si dac
a pn 6= 0, avem A1 =

1
Bn1
pn

3) Dac
a este o valoare proprie a lui A, atunci orice coloan
a a matricei
C = n1 I + n1 B1 + + Bn2 + Bn1
este un vector propriu pentru A, asociat valorii proprii .
4) Dac
a este o valoare proprie simpl
a, matricea de la 3) este 6= 0.
Demonstratie. 1) Avem succesiv A1 = A, A2 = AB1 = A(A1 + p1 I) =
A2 + p1 A, A3 = A(A2 + p2 I) = A3 + p1 A2 + p2 A deci
Ak = Ak + p1 Ak1 + p2 Ak2 + + pk1 A.
Fie sk = tr(Ak ). Vom avea
kpk = tr(Ak ) = sk + p1 sk1 + + pk1 s1 .

4. Vectori si valori proprii

131

Aceste relatii snt (4.15), deci n acest caz se obtin coeficientii polinomului
caracteristic P .
2) Daca Bn = An + pn I = An + p1 An1 + + pn1 A + pn I atunci din
1
teorema Cayley - Hamilton Bn = 0 iar aceasta da A1 = Bn1 .
pn
3) Printr-un calcul direct se arata ca (A I)C = 0.
4) Putem verifica ca tr(C ) = P 0 () 6= 0 deci C = 0.
2
Metoda coeficientilor nedeterminanti
Daca D() = n +p1 n1 + +pn1 +pn lund succesiv = 0, 1, . . . , n1
atunci pentru coeficientii p1 , . . . , pn se obtine urmatorul sistem de ecuatii
liniare
pn = D(0)
n
n1
1 + p1 1
+ + pn = D(1)
2n + p1 2n1 + + pn = D(2)
..
.
(n 1)n + p1 (n 1)n1 + + pn = D(n 1)
de unde
p1 + p2 + + pn1 = D(1) D(0) 1
2n1 p1 + 2n2 p2 + + 2pn1 = D(2) D(0) 2n
..
.
(n 1)n1 p1 + + (n 1)pn1 = D(n 1) D(0) (n 1)n
si
pn = D(0) = det(A).
Introducnd matricea

Cn =

1
2n1
..
.

1
2n2

1
2

(n 1)n1 (n 1)n2 ) n 1

si vectorii D =

D(1) D(0) 1n
D(2) D(0) 2n
..
.

p=

p1
p2
..
.

D(n 1) D(0) (n 1)n


pn1
putem determina p din sistemul Cn p = D. Deci, folosirea acestei metode se

132

Capitolul 1. Sisteme de ecuat


ii liniare

reduce la calcularea numerica a determinantilor.


D(k) = det(kI A),

k = 0, 1, , n 1

si gasirea solutiei sistemului Cn p = D.

4.3

Metoda puterilor sau metoda iteratiei vectoriale

In cazul general al unei matrici A Mn (R) metoda puterilor permite gasirea


valorii proprii dominante 1 si a unui vector propriu asociat, cu ajutorul
unei iteratii simple. Acest algoritm nu este o metoda generala, dar este
folosit n foarte multe situatii. De exemplu, acest algoritm da rezultate
satisfacatoare pentru matrici rare de dimensiune mare, unde alte metode, ce
vor fi descrise n paragrafele urmatoare, nu pot fi folosite datorita limitarii
memoriei calculatoarelor.
Presupunem ca forma canonica Jordan pentru matricea A Mn (R) este
diagonala, adica matricea A este diagonalizabila. Fie 1 , . . . , n valorile
proprii pentru A si fie x1 , . . . , xn vectorii proprii asociati, care formeaza o
baza pentru Cn . In plus presupunem ca
|1 | > |2 | |3 | |n | 0

(4.16)

Desi cu totul special, acesta este cazul principal de interes pentru aplicarea
metodei puterilor. Notam ca ipotezele de mai sus implica ca 1 si x1 snt
reali.
Fie z (0) o alegere initiala pentru un anumit multiplu a lui x1 . Daca nu exista
nici o metoda rationala pentru alegerea lui z (0) , putem folosi un generator
de numere aleatoare pentru alegerea fiecarei componente. Pentru metoda
puterilor, definim
z (m) = Az (m1)
(4.17)
Daca vectorul initial z (0) l scriem folosind baza {x1 , . . . , xn } obtinem
z (0) = c1 x1 + + cn xn
de unde
z (m) =

n
X
j=1

m
m
j cj xj = 1 c1 x1 +

n
X
j m
j=2

sau nca
(m)
z (m) = m
).
1 (c1 x1 +

cj xj

(4.18)

4. Vectori si valori proprii

133

Acum, deoarece |j /1 | < 1, j 2 directia vectorului z (m) tinde catre cea


a vectorului x1 , adica z (0) nu este ortogonal pe x1 . Cum z (0) a fost ales
arbitrar, acest lucru poate fi admis. Pentru m suficient de mare, putem
neglija (m) si scriem
z (m) m
1 c1 x1

si z (m+1) m+1
c1 x1
1

de unde
z (m+1) 1 z (m)
Alegnd doua componente nenule corespondente obtinem
(m+1)

zi

(4.19)

(m)

zi

Putem de asemenea sa evalu


am pe 1 astfel. Se evalueaz
a ctul (Rayleigh)
m =

z (m)T Az (m)
z (m)T z (m)

(4.20)

si se observa ca m 1 cnd m + . Se poate proceda si altfe. Se


alege, u, un vector arbitrar astfel ca uT x1 6= 0. O alegere aleatoare a fiecarei
componente a vectorului u este satisfac
atoare. Apoi se calculeaza la fiecare
pas
uT Az (m1)
(m)
(4.21)
1 = T (m1)
u z
(m)

si se demonstreaza ca 1 1 .
(m)

In practica, deoarece 1 deseori tinde la zero sau devine nemarginit, este


necesar sa se scaleze sirul z (m) . Putem, de exemplu, sa aducem la 1 cea mai
mare componenta (n valoare absoluta) a lui z (m) , aplicnd algoritmul
w(1) = Az (0)

z (1) =

1 (1)
w
1

w(2) = Az (1)

z (2) =

1 (2)
w
2

w(m) = Az (m1)

z (m) =

1 (m)
w
m

(4.22)

134

Capitolul 1. Sisteme de ecuat


ii liniare

unde k este componenta lui w(k) de modul maxim.


Se poate arata ca {z (m) } aproximeaz
a
m x1 /||x1 || , unde
m = 1, cnd
m + . Incepem prin a arata ca
z (m) = m

Am z (0)
,
||Am z (0) ||

m = 1, m 1

(4.23)

Cum w(1) = Az (0) avem


1 = ||w(1) || = ||Az (0) || ,

= 1.

Apoi
z (1) =

Az (0)
w(1)
= 1
,
1
||Az (0) ||

1 =

1
.

Se obtine (4.23) pentru cazul general, m > 1 folosind inductia matematica.


Pentru cazul m = 2, ca un exemplu
w(2) = Az (1) = 1
2 = 1
z (2) =

A2 z (0)
||Az (0) ||

kA2 z (0) ||
,
||A2 z (0) ||

= 1

w(2)
A2 z (0)
||A2 z (0) ||
A2 z (0)
= 1
/
=

2
2
||Az (0) || ||Az (0) ||
||A2 z (0) ||

cu 2 = 1 . Cazul general m este esential acelasi.


T
innd seama de (4.23), (4.18) si de faptul ca (j /1 )m 0 cnd m + ,
2 j n obtinem

(m)

1
|1 |

x1
m c1 x1
=
m
|c1 |||x1 ||
||x1 ||

Dar
m = 1 este, n general, independent de m. Acesta este cazul cnd x1
are o unica componenta maxima n valoare absoluta. In cazul n care x1 are
mai multe componente avnd aceiasi valoare absoluta
m poate sa varieze
cu m. Cum
1
z (m) =
Am z (0)
1 m
rezulta ca
z (m)T Az (m)
m = (m)T (m)
z
z

4. Vectori si valori proprii

135

converge la 1 . Intr-adevar, putem presupune ca {x1 , . . . , xn } formeaza o


baza ortogonala si atunci
P

n
2 2m+1 xT x
z (m)T Az (m)
(Am z (0) )T Am+1 z (0)
j=1 cj j
j j
= (m)T (m) =
=
=
P
n
2
2m
T
(0)
(0)
m
T
m
z
z
(A z ) (A z )
j=1 cj j xj xj

= 1

c21 +

Pn

c21 +

2m+1 T
xj xj c2j
j=2 (j /1 )
Pn
2m c2 xT x
j=2 (j /1 )
j j j

de unde rezulta ca m 1 tinnd seama ca (j /1 )m 0 cnd m,


2 j n.
(m)

La fel se poate demonstra ca daca uT x1 6= 0 atunci 1


(m)

definit prin

uT w(m)
uT z (m1)

converge la 1 .
Calculul valorilor proprii intermediare
Dupa ce 1 si x1 au fost determinati, este posibil de a calcula alte valori proprii, procednd la fel, eliminnd ns
a 1 si x1 din calcul. Incercam sa nlocuim
matricea A printr-o matrice A2 a caror valori proprii snt 0, 2 , . . . , n utiliznd metoda deflatiei. Versiunea cea mai simpla a acestei metode este cea
data de Hotelling (1933) aplicata cnd cunoastem valoarea proprie 1 si un
vector propriu x1 a unei matrici simetrice A = A1 . Se defineste A2 prin
relatia
xT1 x1 = 1, A2 = A1 1 x1 (x1 )T
adica punem
(2)

(1)

aij = aij 1 (x1 )i (x1 )j .


Ortogonalitatea vectorilor proprii xi atrage
(
T

A2 xi = A1 xi 1 x1 (x1 ) xi =

0
i=1
i xi i =
6 1

Valorile proprii ale matricei A2 snt deci 0, 2 , . . . , n si vectorii proprii


asociati x1 , x2 , . . . , xn . Daca de exemplu
|1 | > |2 | > |3 | |n |

136

Capitolul 1. Sisteme de ecuat


ii liniare

putem calcula a doua valoare proprie 2 aplicnd pentru A2 metoda


puterilor.
Deoarece aceasta metoda a deflatiei nu prezint
a o mare stabilitate numeric
a,
se recomanda utilizarea metodei deflatiei folosind transformarile unitare.
Presupunem ca H1 este o matrice regulata astfel ca
H1 x1 = k1 e1 ,

cu e1 = (1, 0, . . . , 0)T

si k1 6= 0

(4.24)

Cum A1 x1 = 1 x1 avem
H1 A1 (H11 H1 )x1 = 1 H1 x1
si utiliznd 4.24 avem
H1 A1 H 1 e1 = 1 e1
ceea ce demonstreaza ca prima coloana a matricei H1 A1 H11 trebuie sa fie
egala cu 1 e1 . Putem pune

A2 = H1 A1 H11

1 | bT1

= +
0
| B2

unde B2 este o matrice patrat


a de ordin n 1 care are drept valori proprii
pe 2 , . . . , n . Pentru a calcula a doua valoare proprie dominant
a 2 , putem
(2)
aplica metoda puterilor matricei B2 . Daca x2 este un vector propriu pentru
(2)
(1)
matricea B2 , putem scrie, x2 = (, x2 )T vectorul propriu pentru matrice
A2

1 | bT1
(1)

+
= 2
= 2 x2
(2)
(2)
0
| B2
x2
x2
de unde

(2)

(1 2 ) + bT1 x2 = 0
(1)

ceea ce permite calculul primei componente a vectorului x2 .


Putem apoi obtine vectorul propriu x2 pentru matricea A si anume
(1)

x2 = H11 x2 .
Procednd de o maniera analoaga, dupa ce am obtinut 2 si vectorul propriu
(2)
x2 pentru matricea B2 , daca determinam H2 matrice nesingulara astfel ca
(2)

H2 x2 = k2 e1

4. Vectori si valori proprii


avem

137

H2 B2 H21

2 | bT2

=
0 | B3

unde B3 este o matrice de ordinul n 2 si are valorile proprii 3 , . . . , n .


(3)
Cunoscnd un vector propriu x3 pentru matrice B3 putem determina un
(2)
(1)
vector propriu x2 pentru matricea B2 si apoi un vector propriu x3 pentru
matricea A2 = H1 A1 H11 , de unde n final un vector propriu x3 pentru
A = A1 .

4.4

Metoda Jacobi

Metoda Jacobi (1846) este metoda cea mai simpla pentru calculul tuturor
valorilor proprii si a tuturor vectorilor proprii pentru o matrice A simetric
a
(n general plina).
Descrierea metodei Jacobi
Principiul metodei Jacobi consta n a construi un sir de matrici {Ak }k1
pornind de la matricea A1 = A, un sir de matrici ortogonale (Uk )k1 astfel
ca
Ak+1 = UkT Ak Uk = (U1 U2 Uk )T A1 (U1 U2 Uk )
(4.25)
convergent, cnd k , catre o matrice diagonala = diag(1 , . . . , n ) sau
catre o matrice diagonala 0 obtinut
a din prin permut
ari de indici.
Coloanele matricilor ortogonale
Pk = U1 U2 Uk

(4.26)

reprezinta, pentru k suficient de mare, o buna aproximare a vectorilor proprii


pentru matricea A.
In fiecare transformare
Ak Ak+1 = UkT Ak Uk

(4.27)

anul
am dou
a elemente nediagonale ale matricei Ak , anume apq si aqp , aplicnd
exact principiul de la reducerea unei forme patratice cu ajutorul rotirii
axelor. Pentru simplificarea studiului unei asemenea transformari, punem
Ak = A, Uk = U, A0 = U T A, A00 = A0 U = U T AU = B.

138

Capitolul 1. Sisteme de ecuat


ii liniare

Matricea U ce intra n transformarea lui A n B este o matrice de rotatii


elementare, de forma

U = Rp,q () =

1
..

.
1
cos

1
.. . .
.
.
0

sin

sin
0
..
.
1

cos
1
..

.
1

(4.28)
Geometric, aceasta corespunde la o rotatie de unghi n planul de coordonate (xp , xq ). Elementele matricei U = Rp,q () snt deci definite prin

ui,i

upp

pq

u
q,p

uij

= 1 i 6= p, i 6= q
= uqq = cos
= sin
.
= sin
= 0 n rest

(4.29)

Pentru a vedea efectul transformarii A B = U T AU procedam n doua


etape.
Prima etap
a A A0 = U T A.
Aceasta transformare afecteaza numai liniile p si q ale matricei A, nlocuind
fiecare linie printr-o combinatie liniara a celor doua

apj

a0qj
a0ij

= apj cos aqj sin


= apj sin + aqj cos ,
= aij , pentru i 6= p, q

j = 1, 2, . . . n

(4.30)

Etapa doua A0 A00 = B = A0 U = U T AU.


Aceasta transformare afecteaza numai coloanele p si q ale matricei A0 f
ar
a

4. Vectori si valori proprii

139

modificarea altor coloane.

00

ai,p

a00i,q
a00ij

= bi,p = a0i,p cos a0i,q sin


= bi,q = a0i,p sin + a0i,q cos ,
= bij = a0ij , pentru j 6= p, q

i = {1, 2, . . . n} .

(4.31)

Vedem ca, n transformarea globala A B = U T AU , numai liniile si


coloanele p si q snt modificate, conform relatiilor urmatoare

bij

bpj

b
qj

bpp

bqq

bpq

= aij , i 6= p, q si j 6= p, q
= apj cos aqj sin , j 6= p, q
= apj sin + aqj cos , j 6= p, q
= app cos2 2apq cos sin + aqq sin2
= app sin2 + 2apq cos sin + aqq cos2
= bqp = (app aqq ) cos sin + apq (cos2 sin2 )

(4.32)

Teorema 4.4 In transformarea A B = U T AU , unde U este o matrice


de rotatie Jacobi, definit
a prin (4.28) avem
kBk2F

n
X

b2ij

i,j=1

n
X

a2ij = kAk2F .

(4.33)

i,j=1

In plus, dac
a apq = aqp 6= 0, putem alege unghiul astfel ca bpq = bqp = 0.
Este suficient pentru aceasta s
a alegem [/4, /4] astfel ca
tg(2) =

2apq
app aqq

(4.34)

cazul n care app = aqq lu


( In
am = /4 sau = /4 ). Avem atunci
n
X
i=1

b2i,i

n
X

a2i,i + 2a2pq

(4.35)

i=1

adic
a suma p
atratelor elementelor de pe diagonala principal
a creste cu de
dou
a ori p
atratul termenului ce se anuleaz
a prin transformare.
Demonstratie. Pentru demonstrarea relatiei (4.33) avem
kBk2F

= tr(B T B) = tr[(U T AU )T U T AU ] = tr(U T AT U U T AU ) =


= tr(U T AT AU ) = tr(AU U T AT ) = tr(AAT ) = tr(AT A) = kAk2F .

140

Capitolul 1. Sisteme de ecuat


ii liniare

ceea ce demonstreaza (4.33) far


a a face apel la simetria matricei A. Pe de
alta parte este clar ca daca este ales ca (4.34) sa fie satisfacut
a, atunci
folosind ultima relatie (4.32) obtinem bpq = bqp = 0. Sa demonstram, acum,
relatia (4.35). Pentru ca bii = aii cnd i =
6 p, q avem
n
X
i=1

b2i,i

n
X

a2i,i = bppp + b2qq (a2pp + a2qq )

(4.36)

i=1

Din (4.32) avem de asemenea bpp + bqq = app + aqq de unde


(bpp + bqq )2 = (app + aqq )2

(4.37)

si n acelasi fel
bpp bqq = (app aqq ) cos 2 2apq sin 2
de unde
(bpp bqq )2 = (app aqq )2 cos2 2 4(app aqq )apq sin 2 cos 2 + 4a2pq sin2 2.
(4.38)
Alegnd astfel ca bpq = 0, adica 2apq cos + (app aqq sin 2 = 0, prin
ridicare la patrat obtinem
4a2pq cos2 2 + (apq aqq )2 sin2 2 + 4apq (app aqq ) sin 2 cos 2 = 0. (4.39)
Din (4.38) si (4.39), prin adunare, obtinem
(bpp bqq )2 = (app aqq )2 + 4a2pq

(4.40)

iar adunnd (4.37) cu (4.40) rezulta


b2pp + b2qq = a2pp + a2qq + 2a2pq
de unde obtinem (4.35) tinnd seama de (4.36).

Notam ca determinarea unghiului de rotatie cu ajutorul relatiei (4.34)


permite calcularea elementelor bij ale matricei B, ca expresie, n functie de
elementele aij ale matricei A. In fapt, daca
ctg (2) =

aqq app
=
2apq

4. Vectori si valori proprii

141

avem identitatile trigonometrice urmatoare


t = tg =

sin
s
= ,
cos
c

1 t2
,
2t

c2 + s2 = 1

de unde expresia lui t ca solutie a ecuatiei t2 + 2t 1 = 0 adica


t =

2 + 1 =

.
2 + 1

(4.41)

Din cele doua solutii posibile o alegem pe ceea care nu antreneaz


a pierderi
de cifre semnificative la numitorul fractiei (4.41) adica

t=

+ sgn() 2 + 1

pentru 6= 0
(4.42)
pentru = 0

de unde expresiile algebrice pentru cos si sin n functie de elementele


matricei A
1
c = cos =
, s = sin = t cos .
(4.43)
1 + t2
Cum produsul celor doua radacini n t ale ecuatiei t2 + 2t 1 = 0 este 1,
este usor de vazut ca, alta alegere a lui t duce la valoari pentru cos si sin
n (4.43) care snt permutate pornind de la alegerea lui t definit
a de (4.42).
Cu cele doua alegeri obtinem ca bpq = bqp = 0. Din (4.42) se vede ca |t| 1,
1
1
astfel ca n (4.43) c = cos si deci |s| = | sin | . Cum cos > 0,
2
2
unghiul de rotatie satisface /4 < < /4.
In practica valorile , cos , sin nu pot fi determinate exact, dar trebuie sa
le alegem astfel ca:
(i) cos2 + sin2 sa fie ct mai aproape de 1, astfel ca matricea Uk a
transformarii Ak UkT Ak Uk sa fie aproape ortogonala si ca matricea
Ak+1 sa fie aproape asemenea cu Ak , . . . , A1 .
(ii) (app aqq ) cos sin + apq (cos2 sin2 ) sa fie foarte aproape de zero
pentru a justifica nlocuirea lui bpq prin zero pe care o efectuam n
practica.

142

Capitolul 1. Sisteme de ecuat


ii liniare

Daca scriem ( Wilkinson [102], p. 275 )


tg(2) =

2apq
x
=
app aqq
y

(4.44)

cu x = 2apq , y = |app aqq | atunci pentru || /4 obtinem


2 cos2 = [(x2 + y 2 )1/2 + y]/(x2 + y 2 )1/2
(4.45)
2

2 sin =

[(x2

y 2 )1/2

y]/(x2

y 2 )1/2

alegnd cos > 0 si sin cu semnul lui tg (2). Dar daca x este mic n raport
cu y, (4.45) da o valoare pentru sin care m
annc
a precizia. Pentru un
calcul cu 10 zecimale n virgula fixa si n virgula flotant
a, (4.45) da sin = 0,
cos = 1 pentru toate valorile lui x si y astfel ca |x| < 105 |y|. In acest
caz chiar daca cerinta (i) este satisfacut
a, cerinta (ii) nu este satisfacut
a.
Opernd numai n virgula flotant
a, exista un mijloc de a conserva o precizie
satisfacatoare ( vezi Wilkinson [102], p. 131, p. 275 pentru o analiza fina
a erorilor comise ). Notam de asemenea ca n locul formulelor (4.44) sau
(4.45) putem de asemenea utiliza n locul lui , a unei aproximatii a lui
prin
apq

(4.46)
T = tg =
2
2(app aqq )
cu || /4, semnul lui fiind cel al membrului drept din (4.46) ceea ce
corespunde alegerii unui unghi astfel ca
tg

= tg (2)
2
4

si deci din aproximarea


5
' 3
4

cnd

0.

Putem calcula sin si cos cu ajutorul identit


atilor trigonometrice sin =
2T
1 T2
, cos =
si calculul este foarte simplu n virgula fixa sau
1 + T2
1 + T2
virgula flotanta pentru ca |T | < 1. Aceasta alegere a lui n locul lui
pentru unghiul de rotatie corespunde a nlocui, n rotatie pe apq prin apq

1
n locul lui 0, cu 0 (1 + 2) si unde este de fapt vecin lui zero
4
pentru ntr-o ntreaga vecinatate. Viteza de convergent
a ramne comparabila pentru aceasta alegere a unghiului de rotatie, cu viteza de convergent
a,
corespunzatoare alegerii exacte a lui prin (4.44) sau (4.45).

4. Vectori si valori proprii

143

Si acum algoritmul Jacobi . La fiecare iteratie, matricea Uk este de forma


(4.28) si coeficientii snt determinati astfel ca sa anuleze exact doi coeficienti
(k)
simetrici nediagonali pentru matricea Ak = (aij ). Distingem trei strategii
pentru alegerea pozitiei (p, q) si (q, p) n care elementele matricii B se vor
anula.
a) Metoda Jacobi clasic
a
Alegem (p, q) astfel ca
(k)

|a(k)
pq | = max |aij |
i6=j

(4.47)

adica eliminam doi coeficienti care snt cei mai mari n valoare absoluta.

b) Metoda Jacobi ciclic


a
Cum alegerea elementului nediagonal n valoare absoluta cere un num
ar de
N = n(n 1)/2 operatii, ceea ce este considerabil n raport cu (aproximativ) 4n nmultiri necesare pentru o rotatie Jacobi, anul
am succesiv toate
elementele nediagonale prin baleaj ciclic , de exemplu alegnd cuplurile
(p, q) n ordinea

(1, 2), (1, 3) . . . (1, n); (2, 3) . . . (2, n); . . . ; (k, k + 1), . . . , (k, n); . . . ; (n 1, n).
(4.48)
Trebuie sa remarcam ca elementele care s-au anulat la o iteratie data snt
n general nlocuite cu elemente nenule n timpul rotatiilor urmatoare. Este
deci n general necesar sa refacem de cteva ori baleajul ciclic, pn
a cnd toate
elementele nediagonale snt inferioare unei anumite valori a tolerantei , sub
care un numar poate fi considerat zero.
c) Metoda Jacobi cu prag
Procedam ca la metoda Jacobi ciclica, dar anul
am elementele nediagonale
care snt n modul superioare unui anumit prag , care se micsoreaz
a cu
fiecare baleiaj, ceea ce prezint
a avantajul de-a evita sa avem elemente nediagonale prea diferite n valoare absoluta. Iata un exemplu n care poate fi
luat pragul 23 , 26 , 210 , 218 ,...

144

Capitolul 1. Sisteme de ecuat


ii liniare

Convergenta metodei Jacobi


Vom studia convergenta metodei Jacobi n cazul cel mai simplu (cel al
metodei clasice ). Am putut deja remarca ca convergenta este posibila din
faptul ca suma elementelor matricilor Ak ramne constant
a n fiecare etapa
suma elementelor diagonale creste cu de doua ori elementul care se anuleaz
a
( Teorema 4.4). Putem spera ca sirul matricilor (Ak ) va fi convergent catre
o matrice diagonala si ca aceasta matrice diagonala va fi exact matricea
diag(1 , . . . , n ) sau o matrice diag((1) , . . . , (n) ) unde Sn este o
permutare a numerelor {1, . . . , n}.
Teorema 4.5 S
irul {Ak }k1 de matrici obtinute prin metoda Jacobi clasic
a
este convergent, si
lim Ak = diag((1) , . . . , (n) )

pentru o permutare convenabil


a Sn .
In demonstrarea acestei teoreme un loc central l joaca lema urmatoare
demonstrata de Crouzeix [16] n 1976.
Lema 4.5 Fie X un spatiu metric compact si {xk }kN un sir n X avnd un
num
ar finit de puncte de acumulare. Dac
a limk d(xk , xk+1 ) = 0 atunci
sirul {xk } este convergent.
Demonstratie. Fie Y = {y1 , . . . , ym } multimea punctelor de acumulare ale
sirului {xk }. Atunci d(xk , Y ), distanta de la xk la multimea Y , tinde la zero
cnd k . In fapt, n caz contrar, exista un > 0 astfel ca pentru orice
ntreg pozitiv N , exista un ntreg k 0 > N astfel ca distanta dist(xk0 , Y ) > .
Exista deci un subsir {xk0 } al sirului {xk } astfel ca
dist(xk0 , Y ) > .
Spatiul X fiind compact, acest sir are un punct de acumulare y 0 cuprins n
Y , ceea ce este n contradictie cu definitia lui Y . Avem deci
lim d(xk , Y ) = 0.

(4.49)

Vom demonstra ca sirul {xk } converge catre un yj Y . Pentru aceasta, fie


= inf yi 6=yj d(yi , yj ) pentru yi , yj Y si fie 0 < < /4. Prin ipoteza, exista

4. Vectori si valori proprii

145

/4

yr
`

yq

yi
/4

yj(k)
X

Figura 4.1:

N () astfel ca pentru k > N (), d(xk+1 , xk ) < /4 si pe de alta parte, din


(4.49), d(xk , Y ) < /4 pentru k > N (). Vom demonstra n aceste conditii
ca d(xk0 , yj(k ) < pentru orice k 0 k. Intr-adev
ar, n caz contrar, ar exista
un indice l > k > N () astfel ca d(xl , yj(k) ) . Dar pe de-o parte, conditia
d(xk+1 , xk ) < /4 pentru orice k N () demonstreaza ca xk nu poate
sarii de la o bila B(yj(k) , /4) ntr-o bila B(yi , /4), centrat
a n alt punct de
acumulare yi din multimea Y , far
a sa ocupe pozitiile intermediare ntre yi si
yj(k) ; pe de alta parte conditia d(xk , Y ) < /4 pentru orice k N () interzice
ca xk sa ocupe pozitii intermediare, care sa fie cu distanta superioara lui /4
de multimea Y , pentru ca < /4 si dist(yi , yj(k) ) din definitia lui
. Aceasta arata ca pentru orice ntreg k 0 k > N (), xk0 r
amne n bila
0
B(yj(k) , ) adica d(xk0 , yj(k) ) < pentru k k > N (). Aceasta stabileste
convergenta sirului {xk } catre punctul de acumulare yj(k) . Multimea Y se
reduce la un singur punct si sirul {xk } este convergent.
2
Demonstratia Teoremei 4.5 . Pentru orice ntreg k 1 consideram
(k)

(k)

Ak = (aij ) = Dk + Bk cu Dk = diag(a1,1 , . . . , a(k)


n,n )

146

Capitolul 1. Sisteme de ecuat


ii liniare

si demonstram mai nti ca limk Bk = 0. Numerele


k =

(k)

|aij |2 = kBk k2F , k 1

j6=i

verifica pe de-o parte


2
k+1 = k 2|a(k)
pq |

(4.50)

si pe de alta parte (din strategia adoptata n cazul metodei Jacobi clasice ),


2
k n(n 1)|a(k)
pq |
(k)

(4.51)

(k)

pentru ca |apq | = maxi6=j |aij |. Combinnd (4.50) si (4.51) gasim


k+1 (1

n2

2
)k .
n

(4.52)

(k)

Relund aceasta majorare care nu depinde de apq , din aproape n aproape,


obtinem
2
) k 1
(4.53)
k+1 (1 2
n n
si deci k 0 cnd k . In plus, putem arata ca

k+r 1

1 r
1
k k
r
e

unde 2r = n2 n.
Aratam ca sirul (Dk )k nu are dect un num
ar finit de valori de aderent
a,
care snt n mod necesar de forma diag((1) , . . . , (n) ), Sn . Amintim
ca 1 , . . . , n snt cele n valori proprii ale matricei A, presupuse aranjate, o
data pentru totdeauna, ntr-o ordine determinata dar arbitrara.
Cum (Dk ) este un sir marginit, deoarece kDk kF kAkF , putem extrage un
subsir (Dk0 ) convergent catre o matrice D. Avem de asemenea
lim Ak0 = D caci Ak0 = Dk0 + Bk0 si lim
Bk0 = 0,
0

k0

si deci (considernd coeficientii polinomului caracteristic )


det(D I) = lim
det(Ak0 I) C.
0
k

Cum
det(Ak0 I) = det(A I) C

4. Vectori si valori proprii

147

deoarece matricile Ak0 si A snt asemenea, deducem ca matricele A si


D = limk0 Dk0 au acelasi polinom caracteristic si deci aceleasi valori proprii, multiplicitatile snt cuprinse. Cum D este matrice diagonala (acesta
este limita unui sir de matrici diagonale ), exista o permutare Sn astfel
ca
D = diag((1) , . . . , (n) ).
Aratam ca limk (Dk+1 Dk ) = 0. Se verific
a ca
(k+1)
aii

akii

(tg k )
(k)
apq tg k

(k)
apq

daca i 6= p, i 6= q
dac
ai=p
dac
ai=q

(k)

Cum |k | /4 si |apq | kBk kF cu limk Bk = 0 concluzia se deduce.


In spatiul X al matricelor patrate simetrice de ordinul n si de norma k kF
inferioara sau egala cu kAkF sirul (Dk ) este marginit, deoarece
kDk kF kAk kF = kAkF
(conform Teoremei 4.4). Dupa Lema 4.5, sirul (Dk ) converge si limita
sa, care este una din valorile de aderent
a, este n mod necesar de forma
diag((1) , . . . , (n) ) cu Sn . Cum Ak = Dk + Bk , se deduce ca sirul
(Ak ) este convergent, cu limk Dk = D
2
Trecem acum la convergenta vectorilor proprii. Reamintim relatiile
Ak+1 = UkT Ak Uk = PkT APk unde Pk = U1 U2 . . . Uk .
Teorema 4.6
Presupunem c
a toate valorile proprii ale matricei A snt distincte. Atunci
sirul (Pk )k1 de matrici construite n metoda Jacobi clasic
a converge c
atre o
matrice ortogonal
a ale c
arei coloane constituie o multime de vectori proprii
ai matricei A ortogonali doi cte doi.
Demonstratie. Lema 4.5 joaca un rol central n demonstrarea acestei teoreme.
(i) Aratam ca sirul (Pk ) nu are dect un num
ar finit de puncte de aderent
a,
care snt n mod necesar de forma
(p(1) , p(2) , . . . , p(n) ) Sn

148

Capitolul 1. Sisteme de ecuat


ii liniare

unde p1 , p2 , . . . , pn snt vectorii coloana ai matricii P ce intervine n relatia


P T AP = diag(1 , . . . , n ).
Fie (Pk0 ) un sir extras din sirul (Pk ) convergent catre o matrice (ortogonala)
P 0 . Din teorema precedenta, exista o permutare Sn astfel ca
diag((1) , . . . , (n) ) = lim
A0k = lim
PkT0 APk0 = (P 0 )T AP 0 ,
0
0
k

si asertiunea este demonstrata. Notam ca n ipoteza toate valorile proprii


snt distincte, a fost utilizata n mod esential pentru a conclude existenta
unui numar finit de puncte de acumulare.
(ii) Demonstram ca limk (Pk+1 Pk ) = 0. Prin constructie, unghiul k
verifica
(k)
2apq

tg 2k = (k)
, |k | .
(k)
4
aqq app
Utiliznd teorema precedenta si (din nou ) faptul ca toate valorile proprii ale
matricei A snt distincte rezulta existenta unui ntreg l astfel ca
k
k l |a(k)
qq app |

1
min |i j | > 0.
2 i6=j
(k)

Cum cuplurile (p, q) variaza cu ntregul k nu putem afirma ca sirurile (app )


(k)
(k)
si (aqq ) converg. Cum limk apq = 0, am stabilit ca limk k = 0, si
deci limk Uk = I, ( se tine seama de expresia matricelor Uk n functie de
unghiul k ). Cum, n sfrsit, Pk+1 Pk = Pk (Uk+1 I), asertiunea decurge,
pentru ca sirul (Pk ) este marginit (norma k k2 a unei matrici ortogonale
este 1 ). Dispunem de toate elementele necesare de a aplica lema, ceea ce
termina demonstratia.
2
Teorema 4.5 si Teorema 4.6 au fost demonstrate de Michel Crouzeix [16] n
1975.

4.5

Metoda Givens-Householder

Metoda Givens - Householder este o metoda, n particular, bine adaptata


la cautarea valorilor proprii selectionate ale unei matrici simetrice, de
exemplu toate valorile proprii situate ntr-un interval determinat anterior,
sau valorile proprii de un rang dat (presupunem valorile proprii ordonate
crescator ).

4. Vectori si valori proprii

149

In plus aceasta metoda permite aproximarea fiecarei valori proprii cu o precizie variabila. Aceasta metoda nu furnizeaza vectori proprii, care trebuie
determinati separat cu o alta metoda, de exemplu cu metoda puterilor inversa.
Principiul metodei consta n a reduce mai nti matricea simetrica A la o
matrice simetrica tridiagonala asemenea, efectund un num
ar finit de transformari ortogonale.
Pentru determinarea valorilor proprii ale unei matrici simetrice tridiagonale
se utilizeaza metoda Givens numit
a nc
a metoda bisectiei.
Forma tridiagonal
a a unei matrici simetrice
Forma tridiagonala a unei matrici simetrice se dovedeste a fi bine adaptata
pentru determinarea vectorilor si valorilor propri. In cele ce urmeaza vom
da doua metode de aducere a unei matrici simetrice la o forma tridiagonala.
Metoda Givens. Efectuam un sir finit de N = (n 1)(n 2)/2 rotatii
pentru a reduce matricea simetrica A la o forma tridiagonala de forma

1 1

1 2 2

2 3 3

A =
..

n1

(4.54)

n2 n1
n1 n

Determinam pentru aceasta un sir de matrici (Uk ), k = 1, . . . , N unde N =


(n 1)(n 2)/2 si formam, din aproape n aproape, matricele
A0 = A, Ak = UkT Ak1 Uk ,

k = 1, , N

(4.55)

Matricea Uk , care corespunde la o rotatie bidimensionala, este aleasa astfel


ca primele k elemente codiagonale ale lui A s
a fie nule ( spunem ca aii
si ai,i+1 , i = 1, . . . , n snt elemente codiagonale ale matriei A). Convenim
pentru aceasta de a plasa indicii celor N elemente necodiagonale ntr-o ordine
ciclica definita prin :
(1, 3), (1, 4), . . . , (1, n); (2, 4), . . . , (2, n); . . . ; (n 3, n 1), (n 3, n), (n 2, n)
(4.56)

150

Capitolul 1. Sisteme de ecuat


ii liniare

Primele k elemente necodiagonale ale matricii Ak snt elemente a caror indici


snt primele k din lista, elementul (i, j) din lista este pe pozitia
k=

2n i 2
(i 1) + (j i 1).
2
(0)

Prima etapa consta n nlocuirea elementului a13 al matriciei A0 prin 0


efectund o rotatie U1 = R23 (1 ) obtinnd matricea A1 . In etapa a doua
(1)
nlocuim elementul a14 al matricei A1 prin 0 efectund o rotatie U2 = R24 (2 )
(k1)
obtinnd matricea A2 . La etapa k nlocuim elementul ai1,j cu j i + 1
al matricei Ak1 prin 0 efectund o rotatie Uk = Ri,j (k ) obtinnd matricea
Ak . Reamintim ca matricea de rotatie Ri,j (k ) are elementele

urr = 1

uii = ujj = cos k

r 6= i, j

u = sin

(4.57)

ij
k

u
=

sin
k
ji

ur,s = 0

n rest .
(k1)

La etapa k se alege unghiul k astfel: daca ai1,j = 0 atunci k = 0, n caz


contrar alegem k asa nct
(k1)

ai1,i

cos(k ) = q
(k1)
(k1)
(ai1,i )2 + (ai1,j )2
(k1)

sin(k ) = q

ai1,j
(k1)

(4.58)

(k1)

(ai1,i )2 + (ai1,j )2
(k1)

(k)

adica matricea Uk se defineste astfel: Uk = I dac


a ai1,j = 0 si Uk = (urs )
n caz contrar, unde
(k1)

ai1,i
(k)
(k)
uii = ujj = q
(k1)
(k1)
(ai1,i )2 + (ai1,j )2
(k1)

(k)
uij

(k)
uji

ai1,j

=q

(k1)

(k1)

(ai1,i )2 + (ai1,j )2

u(k)
rs = rs , r, s 6= i, j.

4. Vectori si valori proprii

151

Teorema 4.7 (Givens, 1954) Fie A o matrice simetric


a si A0 = A. S
irul
matricelor {Ak }, k = 1, . . . , N = (n 2)(n 1)/2 construit n (4.55) are
urm
atoarele propriet
ati:
matricele Ak snt simetrice,
primele k elemente necodiagonale n Ak snt nule,
matricea A = AN este tridiagonal
a.
Demonstratie. Simetria matricelor Ak rezult
a imediat tinnd seama ca A0
este o matrice simetrica, iar matricea Uk este ortogonala, deci
ATk = (UkT Ak1 Uk )T = UkT ATk1 UkT = UkT Ak1 Uk = Ak .
Sa aratam ca daca Ak1 are primele k 1 elemente ne codiagonale nule
atunci elementele corespunzatoare din Ak snt la fel.
In trecerea de la matricea Ak1 la matricea Ak se modifica doar elementele
de pe liniile si coloanele i si j conform relatiilor:

(k)
(k1)

ars = ars
r 6= i, j si s 6= i, j

(k)
(k1)
(k1)

ari = ari
cos k arj
sin k , r 6= i, j

(k)
(k1)
(k1)

sin k + arj
sin k , r =
6 i, j

arj = ari
(k)

(k1)

=a

cos2 2a

(k1)

(k1)

cos sin + a

sin2

k
k
k
k
ii
ii
i,j
jj

(k)
(k1)
(k1)
(k1)

2
2

ajj = aii
sin k + 2aij
cos k sin k + ajj
cos k

(k)
(k1)
(k1)
(k1)
2

aij = (aii
ajj ) sin k cos k + aij (cos k sin2 k )

(k)
(k)

(4.59)

aji = aij

Putem acum verifica ca daca primele k 1 elemente necodiagonale ale matricei Ak1 snt nule, (i 1, j) fiind indicele elementului necodiagonal de
ordin k atunci primele k 1 elemente necodiagonale n matricea Ak snt
(k1)
nule. Intr-adevar, pe linia i 1 singurele elemente modificate snt ai1,i si
(k1)

ai1,j . Primul este codiagonal si nu ne intereseaz


a pentru moment, iar din
(k)

(4.59) se vede ca ai1,j = 0 din alegerea lui k . Pe linia r pentru r < i 1


(k1)

singurele elemente succeptibile de-a fi modificate snt ari


(k)
ari

(k)
arj

(k1)

si aij

. Dar

tinnd seama de (4.59) cnd r < i 1 obtinem


si
egale cu zero
deoarece primele k 1 elemente ne codiagonale ale matricii Ak1 snt nule.
(k)
Pe de alta parte elementul ai1,j este zero tinnd seama de formulele (4.59) si

152

Capitolul 1. Sisteme de ecuat


ii liniare

de alegerea unghiului k . Prin recurent


a obtinem ca matricele Ak au primele
k elemente necodiagonale nule.
Matricea A = AN = P T AP , unde P = U1 UN , este tridiagonala. Aceasta
metoda, foarte simplu de aplicat cere 10N adun
ari, 20N nmultiri mpreun
a
cu N = (n 2)(n 1)/2 extrageri de rad
acini patrate.
Metoda Householder. Fiind data matricea simetrica A se determina, din
aproape n aproape, (n 2) matrici ortogonale H1 , H2 , . . . , Hn2 astfel ca
matricele
T
Ak = Hk1
Ak1 Hk1 = (H1 . . . Hk1 )T A(H1 . . . Hk1 , 1 k n 2

sa fie de forma

x x
x x x

x x
x

..

x x x
x
x
x
..
.

Ak =

x x
x x
x x
..
..
.
.
x x x x

x
x
x
..
.

-linia k

coloana k
In final, matricea A = An1 = (H1 Hn2 )T A(H1 Hn2 ) este tridiagonala pe o parte si asemenea cu matricea, A1 = A pe de alta parte.
Matricea ortogonala P cautat
a fiind de forma P = H1 Hn2 , produsul
a n 2 matrici Householder. In prezenta metoda, fiecare transformare
Ak Ak+1 = HkT Ak Hk se efectueaza cu ajutorul unei matrici de forma

Hk =

Ik 0
0 Hk

, Ik matricea unitate de ordinul k.

In aceste conditii, proprietatile pe blocuri ale matricelor arata ca matricea

4. Vectori si valori proprii

153

HkT Ak Hk este de forma

x x
x x x

x x x

..

HkT Ak Hk

x x
x
x
x
..
.

x
x
x
x
..
.

x x
x x
x x
..
..
.
.
x x x x

(k)

unde ak este vector coloana n k dimensional avnd componentele aik ,


(k)
(k)
k + 1 i n ale matricei Ak = (aij ), iar elementele aij , 1 i, j k ale
k
matricei Ak ramnnd neschimbate. Este suficient deci sa gasim matricea H
T ak Rnk sa aiba toate componentele nule n afara de primul,
astfel ca H
k
k fiind ortogonala si de asemenea ct mai simplu de construit.
matricea H
Consideram acum matricea simetrica si ortogonala de forma
H(v) = I 2
P

vv T
, v vector nenul .
vT v

(k)

Daca ni=k+2 |aij | > 0, exista, utiliznd Teorema 2.8, un vector vk Rnk
astfel ca vectorul H(
vk )ak Rnk s
a aiba toate componentele nule n afara
(k)

de prima. Alegem Hk = H(
vk ). Natural, daca aik = 0 pentru i = k+2, . . . , n
k = I (reamintim ca am convenit sa consideram matricea unitate
alegem H
ca o matrice Householder. Dispunem acum de toate elementele necesare
pentru descrierea trecerii de la matricea Ak la matricea Ak+1 = HkT Ak Hk .
(k)
Daca aik = 0 pentru i = k + 2, . . . , n matricea Ak este deja de forma Ak+1
si este suficient sa luam Hk = I. In caz contrar, construim matricea Hk cu
k = H(
ajutorul matricei H
vk ) cum am aratat mai sus. Putem considera
matricea Hk ca fiind o matrice Householder:
Hk = H(vk ) = I 2

vk vkT
vkT vk

vectorul vk Rn avnd primele sale k componente nule, urmatoarele (n k)


componente fiind cele ale vectorului vk Rnk . Din aceste consideratii si

154

Capitolul 1. Sisteme de ecuat


ii liniare

din Teorema 2.8 existenta doua alegeri posibile pentru vectorul vk si anume
(k)

vk = (0, . . . , 0, ak+1,k (

n
X

(k)

(k)

(k)

|aik |2 )1/2 , ak+2,k , . . . , ank )T

i=k+1

alegerea efectiv
a a semnului din fata sumei fiind ceea a semnului elementului
(k)
ak+1,k (pentru a nu avea numitori prea mici . Odata vectorul vk deter(k+1)

(k+1)

minat, elementele aij , k + 1 i, j n, ale matricei: Ak+1 = (aij )


snt obtinute n felul urmator: calculam succesiv vectorii wk = (vkT v)1/2 vk ,
(k)
(k)
qk = 2(I wk wkT )Ak wk de componente (wi ) si (qi ). Apoi matricea Ak+1
o luam de forma
Ak+1 = Ak wk qkT qk wkT
astfel ca

(k+1)

aij

(k)

(k) (k)

= aij wi qj

(k)

(k)

qi wj

k + 1 i, j .

In cele de mai sus am demonstrat teorema urmatoare:


Teorema 4.8 Fiind dat
a o matrice simetric
a A, exist
a o matrice P , format
a din produsele a (n 2) matrici Householder, astfel ca matricea P T AP
s
a fie tridiagonal
a.
In ciuda faptului ca metodele Givens si Householder snt diferite din punct
de vedere algoritmic, este interesant de notat ca ele conduc essentialmente
la aceiasi matrice tridiagonala. Avem urmatorul rezultat.
Teorema 4.9 Dac
a P1T AP1 = A1 si P2T AP2 = A2 unde matricele Pi snt
ortogonale ( unitare ) si Ai snt matrici tridiagonale, si dac
a prima coloan
a
a matricelor P1 si P2 este aceiasi, atunci
P2 = P1 D,

A2 = DT A1 D

unde D este o matrice diagonal


a a c
arei elemente snt n modul egale cu 1.
Demonstratie. Avem numai de demonstrat ca daca
AP = P H
si prima coloana a lui P este data, atunci P si H snt esentialmente unic
determinate. Demonstratia este urmatoarea. Prima coloana n egalitatea de
mai sus da
Ap1 = h11 p1 + h21 p2

4. Vectori si valori proprii

155

si deoarece matricea P este ortogonala avem


h11 = pT1 Ap1 ,

h21 p2 = Ap1 h11 p1

Prima ecuatie de mai sus da h11 iar a doua da


|h21 | = kAp1 h11 p1 k2
astfel ca p2 este unic determinat cu un factor (sa zicem) = 1. A doua
coloana din relatia AP = P H d
a
Ap2 = h12 p1 + h22 p2 + h32 p3
si deci
h12 = pT1 Ap2 ,

h22 = pT2 Ap2 ,

h32 p3 = Ap2 h12 p1 h22 p2 .

Primele doua relatii dau h12 , h22 iar a treia relatie da


|h32 | = kAp2 h12 p1 h22 p2 k2 .
Se poate usor verifica ca |h32 | este independent de valoarea pe care o luam
pentru 2 , astfel p3 este unic determinat modulo un factor 3 = 1. Continund n acest fel, P este unic determinat modulo un factor
D = diag(1 , 2 , . . .) la stnga, iar nedeterminarea corespunzatoare a lui H
este cea din enunt.
2
Calculul valorilor proprii ale unei matrici simetrice tridiagonale
prin metoda bisectiei
Pentru determinarea valorilor proprii ale unei matrici B simetrice tridiagonale de forma

b1 c1
c b
2
1

..

B=

c2
..
..

..

..

..

cn1

(4.60)

cn2 bn1
cn1 bn

se utilizeaza metoda bisectiei data de Givens. Observam ca daca unul din


elementele ci este nul, matricea B se descompune n doua sub-matrici tridiagonale de acelasi tip. Putem deci presupune, far
a a restrnge generalitatea,

156

Capitolul 1. Sisteme de ecuat


ii liniare

ca ci 6= 0, pentru 1 i n 1. Incepem prin a stabili ca rad


acinile
polinoamelor caracteristice pentru submatricele Bi definite prin

b1 c1
c b
2
1

..

Bi =

c2
..

..

..

..

..

ci1

1in

ci2 bi1
ci1 bi

au proprietati de separare remarcabile, ilustrate n teorema urmatoare.


Teorema 4.10 Polinoamele pi (), R definite pentru i = 0, 1, , n,
prin formulele de recurent
a:
p0 () = 1,

p1 () = b1 ,

pi () = (bi )pi1 () c2i1 pi2 (),

(4.61)
2in

au propriet
atile urm
atoare:
1) Polinomul pi este polinomul caracteristic pentru matricea Bi , 1
i n;
2)

lim pi () = +

1 i n;

3) Dac
a pi (0 ) = 0 atunci pi1 (0 ) pi+1 (0 ) < 0 pentru 1 i n 1;
4) Polinomul pi posed
a i r
ad
acini reale distincte, care separ
a cele (i + 1)
r
ad
acini ale polinomului pi+1 , 1 i n 1, cum indic
a Figura 4.2
Demonstratie. (1) Aceasta proprietate se verific
a dezvoltnd determinantul
matricii (Bi I) n raport cu ultima linie (sau ultima coloana ).
(2) Prin recurenta pi () = (1)i i + Qi () unde Qi este un polinom de grad
cel mult i 1, deci lim pi () = +.
(3) Presupunem ca pi (0 ) pentru un i ntreg verificnd 1 i n 1. Din
relatia de recurenta, deducem
pi+1 (0 ) = c2i pi1 (0 )

4. Vectori si valori proprii

157

ceea ce atrage (presupunnd ca ci 6= 0) : sau pi1 (0 ) pi+1 (0 ) < 0 sau


pi1 (0 ) = pi (0 ) = pi+1 (0 ). In a doua eventualitate, din relatia de
recurenta (4.61) n ipoteza ci 6= 0, 1 i n 1) se arata ca
pi (0 ) = pi1 (0 ) = = p1 (0 ) = p0 (0 ) = 0
ceea ce este exclus pentru ca p0 () = 1.
4) Demonstratia se face prin inductie. Polinomul p1 are pe b1 ca rad
acin
a.
2
2
Dar avem p2 (b1 ) = c1 < 0. Cum p2 () = + O() dac
a || ,
rezulta ca p2 are n mod necesar o rad
acin
a la stnga lui b1 (< b1 ) si o
(2)
(2)
radacina la dreapta lui b1 (> b1 ), deci p2 are doua rad
acini reale 1 , 2 .
Presupunem acum ca radacinile lui pi2 () si pi1 () snt distincte, si ca
radacinile lui pi2 separa rad
acinile lui pi1 , adica
(i1)

(i2)

< 1

(i1)

< 2

(i2)

< 2

(i2)

(i1)

< < i2 < i1

Din relatia de recurenta (4.61), pentru k < i 1 obtinem


(i1)

pi (k
(i1)

(i1)

) = c2i1 pi2 (k

(i1)

ceea ce atrage pi (k
) pi2 (k
) < 0. Dar, din ipoteza de inductie, pi2
(i1)
(i1)
schimba semnul ntre k
si k1 pentru k = 2, . . . , i 1. Aceasta atrage
(i1)

(i1)

ca pi schimba de asemenea semnul ntre k1 si k


, ceea ce demonstreaza
ca pi are o radacina ntre fiecare pereche de rad
acini adiacente ale lui pi1 .
Pe de alta parte pentru i = 1, 2, , n avem
pi () + dac
a si (1)i dac
a +
(i1)

si o rad
acin
a la dreapta
ceea ce atrage ca pi are o radacin
a la stnga lui 1
(i1)
(i)
lui i1 . Se vede deci ca rad
acinile k ale polinomului pi snt simple si
alterneaz
a cu cele ale polinomului pi1 , adica
(i)

(i1)

1 < 1

(i1)

< 2

(i)

(i1)

(i)

< < i1 < i1 < i .

(4.62)

Radacinile polinoamelor succesive pi1 , pi , pi+1 , snt dispuse ca n Figura 4.2.


2
Un sir de polinoame verificnd conditiile din teorema precedent
a se numeste
sir Sturm . Metoda Givens se bazeaza pe o proprietate remarcabila a
unui asemenea sir, proprietate care permite un calcul imediat a num
arului
radacinilor ce snt mai mici dect un R dat (< ), a fiecarui polinom
din sir, cum arata rezultatul de mai jos.

158

Capitolul 1. Sisteme de ecuat


ii liniare

Figura 4.2:
Teorema 4.11 Fie i un ntreg verificnd 1 i n. Fiind dat un num
ar
R, punem
sgn pi () =

semnul pi ()

semnul pi1 ()

dac
a pi () 6= 0
dac
a pi () = 0

Atunci num
arul N (i; ) al schimb
arilor de semne ntre elementele consecutive ale multimii ordonate
E(i; ) = {+, sgn p1 (), sgn p2 (), , sgn pi ()}
este egal cu num
arul de r
ad
acini ale polinomului pi care snt mai mici ca .
Demonstratie. Verificam pentru nceput ca expresia sgn pi () s-a definit
far
a ambiguitate n toate cazurile, pentru ca pi () = 0 pi1 () 6= 0 din
teorema precedenta. Deoarece
b1 E(1; ) = {+, +} N(1; ) = 0

4. Vectori si valori proprii

159

b1 < E(1; ) = {+, } N(1; ) = 1


asertiunea este adevarata pentru i = 1.
Presupunem ca proprietatea este adevarat
a pentru ntregii 1, 2, , i si arat
am
(i)
(i)
ca ea este nca adevarata pentru ntregul (i + 1). Fie 1 , , i si
(i+1)
(i+1)
1
, , i+1 radacinile, asezate n ordine crescatoare, pentru polinoamele
pi respectiv pi+1 . Din definitia N (i; ) avem
(i)

(i)

(i)

(i)

1 < < N (i;) < N (i;)+1 < < i


si prin urmare, din teorema precedent
a, rezulta
(i)

(i+1)

(i)

N (i;) < N (i;)+1 < N (i;)+1 .


Este suficient, acum, sa examinam diferitele cazuri posibile :
(i)

(i+1)

a) N (i;) < N (i;)+1 atunci sgn (pi+1 ()) = sgn(pi ()) deci
N (i + 1; ) = N (i; ).
(i+1)

(i)

b) N (i;)+1 < < N (i;)+1 atunci sgn (pi+1 ()) = sgn (pi ()) deci
N (i + 1; ) = N (i; ) + 1.
(i)

c) N (i;)+1 = atunci sgn (pi ()) = sgn (pi1 ()) = sgn (pi+1 ())
deci
N (i + 1; ) = N (i; ) + 1.
( In ultima implicatie, s-a folosit n mod esential proprietatea (3) din teorema
precedenta ).
2
Observatie. Daca M (i; ) este num
arul de perechi consecutive de acelasi
semn ({+, +} sau {, }) ce se afla n multimea ordonata E(i; ); de exemplu, daca
E(10; ) = {+, +, , +, , , +, , , , +}
M (10; ) = 4 n timp ce N (10; ) = 6, atunci, se verific
a usor ca
M (i; ) + N (i; ) = i, pentru i = 1, 2, , n
astfel ca numarul M (i; ) este egal cu num
arul de rad
acini a polinomului pi
care snt .
2
Rezultatul din Teorema 4.11 permite sa aproxim
am suficient de bine valorile
proprii ale matricii B = Bn si de asemenea sa calculam direct o valoare

160

Capitolul 1. Sisteme de ecuat


ii liniare

proprie de rang dat.


Sa presupunem ca dorim o aproximarea a valorii
(n)
proprii i = i a matricii B, ntregul i fiind fixat (vom presupune ca mai
nainte ca valorile proprii snt distincte si snt aranjate n ordine crescatoare).
Incepem prin a determina un interval [0 , 0 ] n care sntem siguri ca se
gaseste aceasta valoare proprie; de exemplu, alegem 0 = 0 = kBk1 sau
kBk . Notam n continuare 0 mijlocul segmentului [0 , 0 ] apoi calculam
ntregul N (n; 0 ) (cu notatiile din Teorema 4.11, amintim ca pn nu este
altceva dect polinomul caracteristic al matricii B).
Avem:
sau N (n; 0 ) i si i [0 , 0 ],
sau N (n, 0 ) < i si i [0 , 0 ],
astfel ca vom cunoaste un interval [1 , 1 ], de jumatatea lungimii precedente
n care se gaseste valoarea proprie i ( 1 = 0 , 1 = 0 daca i [0 , 0 ]
sau 1 = 0 , 1 = 0 daca i [0 , 0 ]).
Determinam, din aproape n aproape, un sir descrescator de intervale I0
I1 Ik astfel nct i [k , k ] si k k = 2k (0 0 ), k 0, astfel
ca putem efectiv ncadra a i-a valoare i cu o precizie ( teoretic ) arbitrara.
Observatie.
Daca alegem de exemplu 0 = kBk ca margine superioara pentru i avem
0 = max{|b1 | + |c1 |, . . . , |ci1 | + |bi | + |ci |, . . . , |cn1 | + |bn |)}

(4.63)

si 0 = 0 . Teorema Gerschgorin da n general margini mai precise. Pentru


matricea tridiagonala simetrica B avem
bii = bi , r1 = |c1 |, ri = |ci1 | + |ci |, i = 2, n 1, rn = |cn1|
astfel ca valorile proprii i snt sigur n intervalul [0 , 0 ] definit prin
0 = min (ci ri ),
1in

0 = max (ci + ri ).
1in

Valoarea 0 este la fel ca n (4.63), dar marginea inferioara 0 este n general


mai buna.
2
Pentru a aplica metoda bisectiei trebuie calculate valorile p1 (), , pn ()
pentru a putea sa determinam N (n; ) (cu succesiv egal cu 0 , 1 , ).

4. Vectori si valori proprii

161

Utilizam pentru aceasta formulele de recurent


a (4.61) ceea ce necesita doar
2n nmultiri si 2n scaderi (Va fi o stng
acie sa exprimam pi n raport cu
coeficientii sai ). Se vede ca metoda bisectiei este foarte usor de aplicat si
permite n plus calculul direct a valori proprii i dac
a dorim far
a a calcula
pe celelalte.
Stabilitatea metodei bisectiei.
Daca am putea efectua calculele cu o precizie infinita ( far
a rotunjiri )
metoda bisectiei ar permite sa se determine orice valoare proprie a unei
matrici simetrice tridiagonale cu o precizie dorita. In practica, precizia pe
care o putem atinge este limitata de erorile de rotunjire, dar metoda este
oricum exceptional de stabila, cum a aratat Wilkinson [102] ( pagina 303
si urmatoarele). Este bine de remarcat ca eroarea asupra valorii proprii de
ordinul i calculata n k etape de bisectie este de ordin 2k , independent de
ordinul n al matricei B.
Pentru a calcula n valori proprii efectund k bisectii, trebuie sa efectuam
2(2n)nk = 4kn2 operatii elementare, ceea ce arata ca timpul de calcul a
valorilor proprii este relativ mic n raport cu timpul de calcul necesar (2/3)n3
sau (4/3)n3 operatii elementare ce corespund triangularizarii Householder
sau Givens. Pe de alta parte metoda bisectiei ramne eficace si cnd valorile
proprii snt apropriate una de alta (cf. Wilkinson [102]).

Calculul vectorilor proprii pentru o matrice


simetric
a tridiagonal
a
Sa vedem acum cum calculam vectorii proprii pentru o matrice tridiagonala simetrica. Vectorul propriu x ce corespunde valorii proprii k satisface
sistemul omogen.

(b1 k )x1
+c1 x2
c1 x1 +(b2 k )x2 +c2 x3
c2 x2 +(b3 k )x3 +c3 x4
..
.
cn1 xn1

=0
=0
=0

+(bn k )xn = 0

162

Capitolul 1. Sisteme de ecuat


ii liniare

si cum x1 nu poate fi nul (astfel toate componentele xi ale lui x vor fi nule )
(b1 k )
putem lua x1 = 1. De unde x2 =
, si prin recurent
a
c1
j1

xj = (1)

j1
Y

pj1 (k )/

ci x1 , j = 2, 3 . . . , n

(4.64)

i=1

unde pj () snt minorii principali ai matricii B I.


Dispunem, deci, de expresii explicite pentru componentele vectoriilor proprii, n functie de pj (). Cum valorile proprii ale lui B se determina stabil
utiliznd pj (), putem spera logic ca daca este cunoscuta cu o mare precizie formula (4.64) permite sa determinam vectorii proprii cu o foarte buna
aproximatie.
Din pacate aceste formule snt numeric foarte instabile si conduc deseori la
un rezultat catastrofic (vezi Wilkinson, 1965 pp. 317-321 pentru un foarte
bun exemplu ).
Exista o metoda foarte eficace de calcul a vectorilor proprii pornind de la
procesul iteratiei inverse a lui Wiehandt (Wilkinson 1965 p. 321, Schwartz
1973, p. 154 )
Presupunem ca B este o matrice tridiagonala simetrica, cu valorile proprii 1 > 2 > > n distincte si cu vectorii proprii corespunzatori
v1 , v2 , , vn . Iteratia inversa pleaca de la un vector x(0) normat si de la
o valoare ce aproximeaza j , obtinut
a prin metoda bisectiei sau prin algoritmul QR daca B este pozitiv definit.)
Formam sirul x(k) utiliznd iteratiile urmatoare
(B I)x(k+1) = x(k) pentru k = 0, 1,
(0)

(4.65)

(0)

Fie (x1 , , xn coordonatele lui x(0) , n raport cu sistemul de vectori


v1 , , vn presupus ortonormat
x(0) =

n
X
(0)

xi vi

(4.66)

i=1

Presupun de asemenea ca
x(k) =

n
X
(k)

xi vi

i=1

(4.67)

4. Vectori si valori proprii

163

Introducnd (4.66) si (4.67) n (4.65) obtinem


n
X

(B I)

(k+1)

xi

vi =

i=1

adica

n
X

n
X
(k)

xi vi

i=1

(k+1)

(i )xi

i=1

vi =

n
X
(k)

xi vi

i=1

de unde relatiile
(k+1)

xi

(k)

xi
i

i = 1, 2, . . . n, k = 0, 1, 2, . . .

folosind independenta liniara a vectorilor vi . Avem deci pentru vectorul x(k)


obtinut dupa k iteratii
x

(k)

n
X
i=1

1
(0)
x vi .
(i )k i

(4.68)

Presupunem ca este o buna, aproximatie a valorii proprii j astfel ca


= j + ( pentru foarte mic ) si | i | > pentru i 6= j. Avem din
(4.68)
(0)

(k)

(0)
n
n
k
X
X
xj
xi
1 (0)
(0)
vi ].
v
=
[x
v
+
x
= k vj +
i
j
i

(i )k
k j
i
i=1,i6=j
i=1,i6=j
(0)

Ceea ce arata ca daca xj 6= 0, adica vectorul x(0) n-a fost ales ortogonal pe
vectorul cautat vj , iteratiile xk converg rapid catre vectorul propriu vj . 2

4.6

Metoda QR

Metoda QR (sau algoritmul QR), data de J.C.F. Francis (1961, 1962 ) si


V.N. Kublanovskaia (1961), este metoda cea mai folosita pentru calculul
multimii valorilor proprii pentru o matrice oricare, n general nesimetrica.
Natural, aceasta metoda se aplica a fortiori si unei matrici simetrice, pentru
care aceasta metoda este mai putin eficace ca metoda Jacobi.

164

Capitolul 1. Sisteme de ecuat


ii liniare

Descrierea metodei QR
Fie A = A1 o matrice patrata oarecare, scriem factorizarea sa QR, fie A1 =
Q1 R1 ( Q1 matrice ortogonala (unitara) daca A1 este reala (complexa), iar
R1 matrice superior triunghiulara), formam matricea A2 = R1 Q1 ; si scriem
factorizarea QR a matricei A2 , fie A2 = Q2 R2 , apoi se formeaza matricea
A3 = R2 Q2 si asa mai departe
(

A1 A2

factorizarea QR : A = A1 = Q1 R1 ,
lu
am :
A2 = R1 Q1
(

Ak Ak+1

factorizarea QR : Ak = Qk Rk ,
luam :
Ak+1 = Rk Qk

Obtinem astfel un sir de matrici Ak care snt toate asemenea cu matricea


A pentru ca
A2

= R1 Q1
..
.

= QT1 AQ1

Ak+1 = Rk Qk = QTk Ak Qk = = (Q1 Q2 Qk )T A(Q1 Qk )


Daca A este o matrice nesingulara descompunerea QR este mereu posibila
daca tinem seama de teorema urmatoare:
Teorema 4.12 Fie A o matrice nesingular
a cu coeficienti reali (respectiv
complecsi). Atunci putem scrie matricea A sub forma
A=QR
unde Q este o matrice ortogonal
a (respectiv unitar
a) iar R este o matrice
superior triunghiular
a (rij = 0, i > j) si regulat
a (rii 6= 0). In plus, putem
alege elementele diagonale ale matricei R s
a fie pozitive si n acest caz factorizarea QR este unic
a
Pentru demonstratie se foloseste Teorema 2.6.
Convergenta metodei QR.
Utiliznd teorema de mai sus observam ca daca matricea A este nesingulara
atunci putem construi, n mod unic, sirul {Ak }.

4. Vectori si valori proprii

165

In ipoteze putin restrictive vom stabili, n teorema ce urmeaza, ca matricele


Ak devin superior triunghiulare, n sensul ca limk (Ak )ij = 0 pentru j < i, n timp ce elementele diagonale ale matricelor Ak tind catre
valorile proprii ale matricei A. Dar atentie ! nu putem spune nimic despre convergenta eventuala a elementelor (Ak )ij pentru i < j si deci despre
convergenta sirului {Ak }. Aceasta observatie este far
a valoare practica n
masura n care obiectivul nostru, de a determina aproxim
ari ale valorilor
proprii, este atins.
Teorema 4.13 Presupun c
a matricea A este inversabil
a, si c
a valorile sale
proprii snt toate n modul diferite. Exist
a (cel putin) o matrice inversabil
a
P astfel ca A = P P 1 , cu = diag(1 , n ), iar |1 | > |2 | > |n |
si presupun c
a matricea P 1 admite o factorizare LU : P 1 = L U cu
(L)ii = 1 (i = 1, . . . , n). Atunci sirul matricilor (Ak )k1 este astfel ca
lim (Ak )ii = i 1 i n,

lim (Ak )ij = 0 1 j < i n.

Demonstratie. (1) Principiul demonstratiei. Am observat deja ca


Tk AQk
Ak+1 = Q

cu

k = Q1 Qk .
Q

k.
Obiectivul este studierea comportamentului asimptotic al matricelor Q
k
Pentru aceasta vom considera puterile succesive A , k 1 ale matricei A,
pentru care o factorizare QR a fost deja data sub forma
k cu R
k = Rk R2 R1
kR
Ak = Q
deoarece
Ak = Q1 (R1 Q1 )(R1 . . . Q1 )(R1 Q1 )R1 = Q1 Q2 (R2 Q2 ) (R2 Q2 )R2 R1 =
= = (Q1 Q2 . . . Qk )(Rk R2 R1 ).
Utiliznd factorizarea LU a matricei P 1 , vom obtine o alta factorizare QR
a matricei Ak si comparnd aceste doua factorizari vom obtine o expresie a
k care va fi mai comoda pentru studiu.
matricei Q
k . Considernd P = QR si P 1 = LU fac(ii) Alt
a expresie a matricei Q
torizarile QR si LU ale matricelor P respectiv P 1 , ipoteza n care matricea
A este inversabila permite scrierea
Ak = P k P 1 = QR(k Lk )k U,

166

Capitolul 1. Sisteme de ecuat


ii liniare

k
unde am notat k matricea diag(k
a
1 , . . . , n ). Interesul de a face s
k
k
apara L este cunoasterea comportamentului sau asimptotic. Matricea
L fiind inferior triunghiulara cu (L)ii = 1, 1 i n, avem

(k Lk )ij =

( / )k (L)
i
j
ij

daca i < j
daca i = j
daca i > j

de unde lim (k Lk ) = I gratie ipotezei facute asupra modulelor valorilor


k

proprii ale matricei A (aceasta este singurul loc unde aceasta ipoteza este
utilizata ). Punnd
k Lk = I + Fk , cu lim Fk = 0
k

putem scrie
R(k Lk ) = (I + RFk R1 )R.
Pentru valorile suficient de mari ale ntregului k matricile I + RFk R1 snt
inversabile, pentru ca limk Fk = 0, ele admit deci o unica factorizare
k R
k cu (R)
ii > 0 1 i n. Matricele Q
k
QR de tipul I + RFk R1 = Q

fiind ortogonale, sirul (Qk ) este marginit ( kQk k2 = 1). Putem deci extrage
k0 ) care converge la o matrice Q
de asemenea ortogonala.
un subsir, fie (Q
k0 = Q
T0 (I + RFk0 R1 ) deducem ca subsirul extras (Rk0 ) converge
Cum R
k
catre o matrice R, la fel superior triunghiulara cu (R)ii 0, 1 i n.
Trecnd la limita pentru sirul extras, obtinem I = Q R ceea ce impune
(R)ii > 0, 1 i n. Din unicitatea descompunerii QR (Teorema 4.12)
deducem Q = R = I. Acelasi rationament poate fi reprodus pentru toate
subsirurile sirurilor (Qk ) si (Rk ), unicitatea limitelor arata ca cele doua siruri
snt n ntregime convergente:
lim Qk = I,

lim Rk = I.

Notam n trecere importanta existentei si unicitatii factorizarilor QR cu


(R)ii > 0, care permite pe de-o parte sa definim far
a ambiguitate matricele
Qk si Rk si pe de alta parte, sa demonstram convergenta celor doua siruri.
In concluzie, am obtinut
k .
kR
Ak = (QQk )(Rk Rk U ) = Q
Dar matricea QQk find ortogonala, iar matricea Rk Rk U fiind superior triunghiulara (ca produs de matrici de acest tip ) prima expresie a matricei Ak nu este altceva dect factorizarea QR a acestei matrici . Utiliznd

4. Vectori si valori proprii

167

observatia Teorema 2.7 exista, pentru orice ntreg k, o matrice diagonala Dk


k = QQk Dk .
cu |(Dk )ii | = 1, 1 i n, astfel ca Q
T AQ
k.
(iii) Comportamentul asimptotic al matricilor Ak+1 = Q
k

k si egalitatea
Utiliznd expresiile gasite mai sus pentru matricele Q
A = QRR1 Q1
deducem

Ak+1 = DkT Qk RR1 Qk Dk .


Deoarece limk Qk = I, concludem ca

T
lim (Qk RR1 Qk )
k

= RR

1 x

=
..

x
x
..
.

n
ordinea valorilor proprii (n modul descrescatoare ) fiind pastrat
a pentru ca
matricea R este superior triunghiulara. Punnd
k = QTk RR1 Qk ,
D
obtinem (matricele Dk fiind diagonale )
(Ak+1 )ij = (Dk )ii (Dk )jj (Dk )ij
de unde
(Ak+1 )ii = (Dk )ii , 1 i n
deoarece |(Dk )ii | = 1, 1 i n. Concluziile cautate decurg din relatia
limn Dk = RR1 stabilita mai sus.
2
Observatii.
1) Daca matricea A este reala, ipoteza ca toate valorile sale proprii snt
de module diferite antreneaz
a ca toate valorile proprii snt reale.
2) Notam caracterul neasteptat al ipotezei privind existenta unei factorizari LU a matricei P 1 ( o conditie suficient
a pentru aceasta factorizare a fost data n Teorema 2.2)

168

Capitolul 1. Sisteme de ecuat


ii liniare

3) Daca nu putem demonstra convergenta elementelor (Ak )ij pentru


i < j, rezulta totusi din partea a doua a demonstratiei ca modulele
lor converg catre modulele elementelor respective ale matricei RR1 .
4) Daca mai multe valori proprii au acelasi modul (de exemplu valori
proprii multiple, sau valori proprii complexe a unei matrici reale ),
se arata posibilitatea unei factorizari LU , dar pe blocuri a matricei
P 1 , matricea Ak devine numai triunghiulara pe blocuri, fiecare
submatrice diagonala limit
a corespunznd la valori propri de acelasi
modul.
Un factor important n aplicarea metodei QR este structura matricei A.
Dupa Francis [23] (p. 270 ) si Wilkinson [102] (p. 524 ) algoritmul QR nu este
practic dect daca matricea A este o matrice Hessenberg superioara. Motivul
principal al acestei remarci este ca num
arul de operatii pentru a efectua
3
fiecare pas QR este proportional cu n pentru o matrice plina, dar numai n2
pentru o matrice Hessenberg. Este deci recomandabil sa se procedeze n doua
etape, la nceput o reducere a matricei A la o matrice Hessenberg superioara,
apoi aplicnd algoritmul QR pentru matricea Hessenberg obtinut
a.
Aceasta maniera de a proceda, pentru o matrice plina oarecare, este asemanatoare cu cea pe care am utilizat-o la matricile simetrice oarecare, care
consta n a reduce matricea initial
a la o matrice tridiagonala, apoi sa se
calculeze valorile proprii pentru matricea tridiagonala obtinut
a. Interesul
reducerii matricei A la o forma Hessenberg este justificat prin faptul ca
transformarea QR pastreaza structura Hessenberg a unei matrici.

Forma Hessenberg a unei matrici


O matrice H este superior Hessenberg daca (H)ij = 0, 1 j i 2 si
inferior Hessenberg daca (H)ij = 0, i + 2 j n. Pentru a reduce o
matrice patrata A la forma superior Hessenberg vom da mai doua metode.
Metoda Givens. Reducerea la forma Hessenberg prin metoda Givens
consta n (n 2) pasi majori. Inainte de pasul r matricea A0 = A a fost deja
redusa la o forma Hessenberg cel putin n primele coloane, astfel ca situatia
tipica pentru n = 6, r = 3 are forma

4. Vectori si valori proprii

x
x

0
0
0
0

x| x x
x| x x
|
x| x x
0| x x
0| x x
0| x x

169

x x

x x

x x

x x

x x
x x

(4.69)

In fapt putem spune ca minorul sau principal de ordinul r este deja sub
forma Hessenberg si aceasta parte nu mai este alterata n pasi urmatori.
Pasul r major consta din (nr 1) pasi minori n care zerouri snt introduse
n pozitiile r + 2, r + 3, . . . , n ale coloanei r prin rotatii n planul (r + 1, i).
In (4.69) am subliniat elementele care snt eliminate, liniile si coloanele care
snt afectate. Pasul r major poate fi descris ntr-un limbaj algoritmic astfel.
Pentru i de la r + 1 la n efectuam pasii (i) la (iv):
(i) Calculam x = (a2r+1,r + a2i,r )1/2 .
(ii) Calculam cos = ar+1,r /x, sin = ai,r /x ( Daca x=0 luam cos = 1
si sin = 0 si omitem pasii (iii) si (iv)). Scriem x peste ar+1,r si zero
peste ai,r .
(iii) Pentru fiecare j de la r + 1 la n: calculam ar+1,j cos + ai,j sin si
ar+1,j sin + ai,j cos si rescriem respectiv peste ar+1,j si ai,j .
(iv) Pentru fiecare j de la 1 la n: calculam aj,r+1 cos +aj,i sin si aj,r+1 sin +
aj,i cos si rescriem respectiv peste aj,r+1 si aj,i .
In (iii) efectuam de fapt o nmultire la stnga iar n (iv) o nmultire la dreapta
prin rotatia plana (r + 1, i). Numarul total de nmultiri este
X

4n(n r 1) +

10
4
4(n r 1)2
= 2n3 + = n3
3
3

Notam ca nu avem spatiu suficient sa memoram cos si sin n pozitiile n


care am introdus zero, deoarece introducem zero numai n pozitia (i, r). Un
mod economic de-a memora transformarea, consistent din punct de vedere
numeric, este urmatorul. Din cos si sin memoram numai unul si anume

170

Capitolul 1. Sisteme de ecuat


ii liniare

cel mai mic n modul, si folosim cele mai putin semnificative doua pozitii
pentru a indica daca sau nu a fost memorat cos si semnul pe de alta parte.
Metoda Householder. Ca si-n cazul tridiagonalizorii unei matrici reale
simetrice (sau hermitiene), este posibil sa utilizam transformarii ortogonale
(unitare) elementare Householder pentru a reduce, printr-o succesiune de
n 2 transformari ortogonale
Ar = PrT Ar1 Pr
o matrice A = A0 oarecare la o forma superioara Hessenberg.
Inainte de etapa r, (r = 1, . . . , n 2 ) matricea a fost redusa la o forma
reprezentata pentru n = 6, si r = 3, prin

Ar1 =

nr

x
x
0

0
0
0

x
x
x

0|
0|
0|

x|
x|
x|

x|
x|
x|

x
x
x

x
x
x

x
x
x

x
x
x

x
x
x

x
x
x

H
|
C
r1
r1

0
|b
|
B
r1
r1

Matricea Hr1 este o matrice superioara Hessenberg de ordinul r. Transformarea efectuata la etapa r este definita prin
Ar1 Ar = PrT Ar1 Pr
unde matricea Pr este de forma
r{

I | 0
I | 0

Pr =
=

T
n r{
0 | Qr
0 | I 2vr vr
unde vr este un vector unitar de ordin (n r). Avem deci

Hr1 | Cr1 Qr

Ar = Pr Ar1 Pr = |

0 | cr | Qr Br1 Qr
cu cr = Qr br1 . Daca alegem vectorul vr astfel ca cr sa fie nul cu exceptia
primei sale componente, matricea principala de ordinul (r + 1) a lui Ar va fi
sub forma Hessenberg. Este mai comod de scris Pr sub forma
Pr = I 2wr wrT

4. Vectori si valori proprii

171

unde wr este un vector unitar de ordinul n a caror prime r componente snt


nule. Avem deci
Pr = I 2wr wrT = I ur uTr /2Kr2
unde

uir = 0 (i = 1, 2, . . . r)

ur+1,r = ar+1,r Sr

ui,r = a(r1) (i = r + 2, . . . n)
ir
n
X
1/2

(r1)

Sr =
|air |2

r+1

2K = S 2 a(r1) S
r

(r1)

In (4.70) aij
(r)
ar+1,r

(4.70)

r+1,r r

este elementul de ordin (i, j) al matricei Ar1 . Noul element

de ordinul (r + 1, r) va fi egal cu Sr . Semnul reprezentat , asociat


(r1)

lui Sr este semnul lui ar+1,r , deci avem


(r1)

(r1)

ur+1,r = ar+1,r + sgn(ar+1,r Sr ,


(r)

2Kr2 = Sr2 sgn(ar+1,r ) Sr .


Cum matricea A = A0 nu este simetrica, Ar nu snt nici ele si trebuie
sa consideram separat nmultirea prin Pr la stnga si la dreapta. Pentru
inmultirea la stnga avem
Pr Ar1 = (I ur uTr /2Kr2 )Ar1 = Ar1 ur (uTr Ar1 )/2Kr2 = Fr .
si pentru nmultirea la dreapta

Ar = Pr Ar1 Pr = Fr Pr = Fr (I ur uTr /2Kr2 ) = Fr (Fr ur )uTr /2Kr2


Cum primele r componente u1,r , . . . , ur,r a vectorului ur snt nule, deducem
din aceste relatii ca nmultirea matricei Ar1 la stnga prin Pr nu modifica
n nici un fel primele r lini ale matricei Ar1 , n timp ce nmultirea matricei
rezultate Fr la dreapta prin matricea Pr las
a neschimbate primele r coloane
ale matricei Fr .
Putem scrie
uTr Ar1 = pTr

172

Capitolul 1. Sisteme de ecuat


ii liniare

unde pTr este un n-vector a carui (r 1) componente snt nule. Avem deci
Fr = Ar1 (ur /2Kr2 )pTr

(4.71)

Nu trebuie sa calculam componenta r a vectorului pr deoarece aceasta influienteaza coloana r a matricei Fr si noi stim deja ca primele r componente ale
acestei coloane snt cele ale lui Hr1 iar cele ce urmeaza formeaza vectorul cr .
Transformarea a fost astfel proiectata ca toate componentele lui cr snt nule
cu exceptia primului element care este Sr . Snt necesare numai (n r)2
nmultiri pentru calculul celor (n r) componente relevante pentru pr si
(n r)2 nmultiri n calculul lui Fr din (4.71).
Pentru nmultirea la dreapta scriem
Fr ur = qr

(4.72)

si vectorul qr nu are nici o component


a nul
a. Deoarece primele r componente
ale lui ur snt zero, exista numai n(n r) nmultiri n coloana lui qr . In final
avem
Ar = Fr qr (ur /2Kr2 )T
(4.73)
si aceasta necesita n(n r) nmultiri. Sa notam ca att n (4.71) ct si-n
(4.73) apare vectorul (ur /2Kr2 ) dar este necesar si vectorul ur dupa ce Fr a
fost calculat. Aceasta dificultate dispare daca lucram cu wr dar atunci este
nevoie de calculat radacina patrat
a din 2Kr2 .
Daca matrice nu este tinuta n memorie si o economie de transfer este necesara, atunci urmatoarea formulare este probabil cea care convine mai mult.
Definim vectorii pTr , qr , vr si scalarul r prin relatiile
pTr = uTr Ar1 , qr = Ar1 ur , vr = ur /2Kr2 , pTr vr = r
Apoi calculam Ar astfel
Ar = Ar1 vr pTr qr vrT + (pTr vr )ur vrT = Ar1 vr pTr (qr r ur )vrT
Numarul total de inmultiri pentru o reducere completa, folosind oricare din
variante, este esentialmente
X

2(n r)2 +

5
2
2n(n r)
= n3 + n3 = n3 .
3
3

Capitolul 2
Ecuatii si sisteme neliniare
Radacinile ecuatiei neliniare f (x) = 0 nu pot fi, n general, exprimate ntr-o forma concisa (chiar cnd este posibil, expresia este deseori asa de complicata ca nu este utilizata n mod practic ). Deci,
pentru a rezolva o ecuatie neliniara sntem obligati sa utilizam
metode aproximative. Aceste metode snt n mod uzual bazate
pe ideea de aproximatie succesiva sau pe liniarizare. Asemenea
metode snt iterative , adica plecnd de la o aproximatie sau mai
multe aproximatii ale rad
acinii, se determina un sir x0 , x1 , x2 , . . . ,
care sa convearga la rad
acina cautat
a. In anumite metode este suficient (pentru convergent
a ) sa cunoastem un interval care contine
radacina, iar n alte metode se cere ca aproximatia initial
a sa fie
suficient de aproape de rad
acina cautat
a. Convergenta primelor
metode este lenta, n schimb cele din a doua categorie converg
repede. Deci este preferabil sa se plece cu o metoda care converge mai lent pentru a izola rad
acina, ca apoi sa se continue cu
o metoda rapid convergenmt
a spre final.
O situatie aparte apare n determinarea rad
acinilor reale sau complexe ale unei ecuatii polinomiale.
Rezolvarea sistemelor de ecuatii neliniare este, n general, o problema mult mai dificila. Deci multe din metodele pentru o singura
ecuatie se pot extinde si la sisteme, ele presupun ca o buna aproximare a solutiei sa se stie. Relativ putine lucruri se cunosc despre
cum sa atacam problema rezolvarii unui sistem neliniar daca nu
avem apriori nici o informatie privind plasarea radacinilor.

173

174

Capitolul 2. Ecuat
ii si sisteme neliniare

Ecuatii neliniare

Vom descrie si analiza cteva metode de rezolvare a unei ecuatii neliniare


f (x) = 0

(5.1)

unde f este o functie reala de variabil


a reala. Orice valoare pentru care
functia f este zero, adica f () = 0, se numeste r
ad
acin
a a ecuatiei (5.1) sau
zerou al ecuatiei (5.1). Vom presupune ca ecuatia (5.1) are numai zerouri
izolate, adica pentru fiecare rad
acin
a a ecuatiei (5.1) exista o vecin
atate
care nu contine alte radacini ale ecuatiei. Aproximarea rad
acinilor izolate
ale ecuatiei (5.1) n mod obisnuit consta n doi pasi si anume:
- izolarea r
ad
acinilor, adica stabilirea unui interval ct mai mic posibil
(a, b) ce contine numai o rad
acin
a a ecuatie (5.1);
- mbun
at
atirea aproxim
arii r
ad
acinii, adica, de a creste gradul de
aproximare.

5.1

Izolarea r
ad
acinilor

Pentru izolarea radacinilor de un real folos este urmatorul rezultat:


Teorema 5.1 Dac
a o functie continu
a f are valori de semne contrare la
capetele intervalului [a, b], adic
a f (a)f (b) < 0 atunci n (a, b) exist
a cel putin
o r
ad
acin
a (a, b) a ecuatiei (5.1).
Radacina va fi unic definita daca derivata f 0 exista si are semn constant
pe intervalul (a, b), adica f 0 (x) > 0(sauf 0 (x) < 0 ) pentru orice x (a, b).
Procesul de izolare a radacinilor ncepe prin stabilirea semnelor functiei f
la capetele intervalului [a, b] a domeniului sau de existent
a, apoi se determina semnul functiei f ntr-un num
ar de puncte intermediare 1 , 2 . . . ,
alegerea carora se ia n functie de particularitatile functiei. Daca obtinem ca
f (k ) f (k+1 ) < 0 atunci n intervalul (k , k+1 ) ecuatia are sigur o
radacina.
In mod practic radacinile se izoleaza printr-un proces de njum
at
atire. Este
bune stiut ca ecuatia algebrica
a0 xn + a1 xn1 + + an = 0, (a0 6= 0)

5. Ecuat
ii neliniare

175

are cel mult n radacini reale. Prin urmare, daca pentru o asemenea ecuatie
obtinem n + 1 schimbari de semn, atunci toate rad
acinile au putut fi izolate.
De exemplu, pentru ecuatia
f (x) x3 6x + 2 = 0

(5.2)

gasim ca radacinile se afla n intervalele (3, 1), (0, 1) si (1, 3).


Daca f este o functie continua derivabil
a si rad
acinile ecuatiei f 0 (x) = 0 pot
fi usor calculate, procesul de izolare a rad
acinilor poate fi regularizat, adica
este suficient sa calculam semnul functiei f n zerourile derivatei sale si n
capetele intervalului [a,b].
De exemplu, pentru ecuatia
f (x) x4 4x 1 = 0

(5.3)

avem f 0 (x) = 4(x3 1) si astfel f 0 (x) = 0 are numai o rad


acin
a reala, x = 1.
Cum limx f (x) = +, (+), f (1) = 4 < 0 () si limx f (x) =
+ (+), ecuatia (5.3) are numai doua rad
acini reale ce se afla n (, 1)
respectiv (1, ).
ad
acin
a aproximativ
a
Teorema 5.2 Dac
a este o r
ad
acin
a exact
a iar x o r
a ecuatiei f (x) = 0, amndou
a situate n acelasi interval [, ] si |f 0 (x)|
m > 0 pentru x , atunci
|x |

|f (x|
m

(5.4)

Demonstratie. Aplicnd teorema de medie, avem


f (x) f () = (x )f 0 (c)
unde c este o valoare ntre x si , adica c (, ). Deoarece f () = 0 si
|f 0 (c)| m obtinem (5.4).
2
Formula (5.4) poate da o evaluare grosiera astfel ca nu este mereu convenabil
sa fie folosita. Din acest motiv n cele mai multe situatii se ncearc
a sa se
micsoreze intervalul (, ) care contine rad
acina si aproximatia x, astfel
ca pentru eroarea asoluta avem evaluarea | x| .
Ca o solutie aproximativa pentru ecuatia f (x) x4 4x 1 = 0 avem
x = 1.22. Pentru a calcula eroarea absoluta avem
f (x) = 0.0047, si f (1.23) = 0.0588

176

Capitolul 2. Ecuat
ii si sisteme neliniare

astfel ca radacina se afla n intervalul (1.22, 1.23). Derivata f 0 (x) = 4(x3 1)


este monoton crescatoare, de unde |f 0 (x) |f 0 (1.22)| = 4.448, deci
|x |

0.0047
= 0.001.
4.448

Uneori, n practica, acuratetea aproximatiei rad


acinei x este estimata
prin ct de bine satisface x ecuatia f (x) = 0, adica daca |f (x)| este mic,
atunci x este presupusa ca o aproximatie buna a solutie ; iar daca |f (x)|
este mare, atunci x se ia ca fiind o proasta aproximatie. Asa cum se vede n
Figura 5.1

b
Figura 5.1:

aceasta abordare este eronata. Nu trebuie sa uitam ca daca ecuatia f (x) = 0


este nmultita printr-un numar arbitrar N 6= 0, atunci obtinem o ecuatie
echivalenta N f (x) = 0, si num
arul N f (x) poate fi facut arbitrar de mare
sau mic printr-o alegere convenabil
a a factorului N .
Radacinile ecuatiei (5.1) pot fi determinate aproximativ ca abscisa punctului de intersectie a graficului functiei y = f (x) cu axa Ox. Dac
a ecuatia
(5.1) nu are radacini apropiate aceasta metoda poate fi utilizata pentru a
izola radacinile.

5. Ecuat
ii neliniare

177

Este uneori recomandat sa se nlocuiasca ecuatia (5.1) cu o ecuatie echivalenta (doua ecuatii snt echivalente daca au aceleasi rad
acini )
(x) = (x)

(5.5)

unde functiile si snt mai simple ca f . Apoi construim graficele functiilor


si , iar radacinile snt abscisele punctelor de intersectie a acestor grafice.

5.2

Metode de aproximare a r
ad
acinilor

Vom prezenta cteva metode de aproximare a solutiilor ecuatiilor neliniare.


Metoda bisectiei
Una din metodele des utilizate pentru aproximarea rad
acinii unei ecuatii
f (x) = 0 n intervalul (a, b) este metoda bisectiei (sau metoda njum
at
atirii).
Presupunem ca f este continu
a pe [a, b] si f (a) f (b) < 0. Pentru determinarea unei radacini vom determina un sir de intervale (a0 , b0 ) (a1 , b1 )
care contin o radacina a ecuatiei f (x) = 0. Presupunem ca f (a0 ) < 0
si f (b0 ) > 0. Intervalele Ik = (ak , bk ), k = 1, 2, . . . snt determinate recursiv
astfel. Mijlocul intervalului Ik1 este mk = (ak1 + bk1 )/2. Putem presupune f (mk ) 6= 0, deoarece altfel am gasit o rad
acin
a a ecuatiei. Calculam
f (mk ) si luam
(

(ak , bk ) =

(mk , bk1 ),
(ak1 , mk ),

dac
a f (mk ) < 0
dac
a f (mk ) > 0

(5.6)

Din constructia lui (ak , bk ) rezulta imediat ca f (ak ) < 0 si f (bk ) > 0 iar Ik
contin o radacina a ecuatiei (5.1). Dupa n pasi avem o rad
acin
a n intervalul
(an , bn ), interval de lungime
bn an = 21 (bn1 an1 ) = = 2n (b0 a0 ).
Putem lua mn+1 o estimare a rad
acinii si avem = mn+1 dn , dn =
2n1 (b0 a0 ).
Metoda bisectiei aplicata ecuatiei (x/2)2 sin x = 0 cu I0 = (1, 5; 2) da sirul
de intervale

178

Capitolul 2. Ecuat
ii si sisteme neliniare
k
1
2
3
4
5

ak1
1,5
1,75
1,875
1,875
1,90625

bk1
2
2
2
1,9375
1,9375

mk
1,75
1,875
1,9375
1,90625

f (mk )
<0
<0
>0
<0

Metoda bisectiei converge lent. La fiecare pas cstig


am o cifra binara. Cum
101 ' 233 avem nevoie de 3.3 pasi pentru a cstiga o cifra zecimala. Pe de
alta parte rata de convergenta este complet independent
a de functia f . Acest
lucru se ntmpla deoarece folosim efectiv numai semnele valorilor calculate
pentru functia f.
Metoda coardei
Presupunem din nou f (a) < 0 si f (b) > 0. In loc sa impartim intervalul [a, b]
n jumatate este mai natural sa-l impartim cu raportul f (a) : f (b). Apoi
sa luam
x1 = a + h1
(5.7)
unde
h1 =

f (a)
f (a)
(b a) =
(b a).
f (a) + f (b)
f (b) f (a)

(5.8)

Apoi, se aplica aceiasi procedura pentru intervalul [a, x1 ] sau [x1 , b]. Geometric, metoda coardei este echivalent
a cu nlocuirea curbei y = f (x) prin
coarda care trece prin punctele A[a, f (a)] si B[b, f (b)] (vezi Figura 5.2)
Intr-adevar, ecuatia coardei AB este
y f (a)
xa
=
.
ba
f (b) f (a)
Presupunnd x = x1 si y = 0, obtinem
x1 = a

f (a)
(b a).
f (b) f (a)

(5.9)

Formula (5.9) este echivalenta cu formulele (5.7) si (5.8). Pentru a demonstra


convergenta procesului de aproximare sa presupunem ca f 00 (x) are semn
constant pe [a, b]. Fie f 00 (x) > 0 pentru a x b. Curba y = f (x) va fi
convexa si deci va fi situata sub coarda AB. Doua cazuri snt posibile:
1) f (a) > 0 ( vezi Figura 5.3a ) si 2) f (a) < 0 ( vezi Figura 5.3b).

5. Ecuat
ii neliniare

179

f (b)

a + h1

f (a)

Figura 5.2:
In primul caz, punctul a este fixat si aproximatiile succesive, x0 = b
xn+1 = xn

f (xn )
(xn a) n = 0, 1, 2.
f (xn ) f (a)

(5.10)

formeaza un sir monoton descrescator


a < < xn+1 < xn < < x1 < x0 .
In ultimul caz, b este fixat si aproximatiile succesive x0 = a
xn+1 = xn

f (x0 )
(b xn )
f (b) f (xn )

(5.11)

formeaza un sir monoton crescator si


x0 < x1 < x2 < < xn+1 < < < b.
Din cele de mai sus concluzionam ca: 1) capatul fix coincide cu cel
pentru care semnul functiei f , coincide cu semnul derivatei a doua f 00 (x);
2) aproximatiile succesive xn se afla de acea parte a rad
acinilor unde semnul functiei f (x) este opus cu semnul derivatei f 00 (x). In fiecare caz xn+1
este mai aproape de ca xn . Sa presupunem ca
= lim xn ,
n

a<<b

180

Capitolul 2. Ecuat
ii si sisteme neliniare

f (a)
f (b)

x2
a

x1 b

a x1

x2

f (a)

f (b)
a

b
Figura 5.3:

(limita exista deoarece sirul este monotom si marginit). Trecnd la limita n


(5.10), avem pentru primul caz
=

f ()
( a)
f () f (a)

deci f () = 0. Deoarece am presupus ca ecuatia f (x) = 0 are numai o solutie


n intervalul (a, b), rezulta ca = , la fel se arata ca n cazul al doilea = .
Pentru a estima acuratetea aproximatiei putem folosi formula (5.4), adica
|xn |

|f (xn )|
m

unde |f 0 (x)| m pentru a x b.

Putem da o alta formula care permite estimarea erorii absolute a aproximatiei xn daca doua valori succesive xn1 si xn snt cunoscute. Presupunem ca
derivata f 0 este continua pe intervalul [a, b] care contine toate aproximatiile

5. Ecuat
ii neliniare

181

si pastreaza semnul; notam ca


0 < m1 |f 0 (x)| M1 < +.

(5.12)

Sa presupunem ca aproximatia succesiva xn pentru solutia exacta este


generata de formula (5.10):
xn = xn1

f (xn1 )
(xn1 a), n = 1, 2, . . .
f (xn1 ) f (a)

Considernd ca este radacina, adica f () = 0, obtinem


f () f (xn1 ) =

f (xn1 ) f (a)
(xn xn1 ).
xn1 a

Folosind o formula de tip Lagrange gasim


( xn1 )f 0 (n1 ) = (xn xn1 )f 0 (xn1 )
unde n1 (xn1 , ) si xn1 (a, xn1 ). Deci
| xn | =

|f 0 (xn1 f 0 (n1 )|
|xn xn1 |.
|f 0 (n1 )|

Deoarece f 0 (x) are semn constant pe intervalul [a, b] iar xn1 [a, b] si
n1 [a, b], obtinem
|f 0 (xn1 ) f 0 (n1 )| M1 m1 .
Obtinem deci
| xn |

M1 m1
|xn xn1 |.
m1

(5.13)

Daca intervalul [a, b] este suficient de ngust, ca M1 2m1 , atunci avem


| xn | |xn xn1 |.
Deci, n acest caz de ndata ce |xn xn1 | < avem | xn | < .

182

Capitolul 2. Ecuat
ii si sisteme neliniare

Regula falsi
O varianta a metodei secantei este regula falsi unde se alege secanta care
trece prin (xn , f (xn )) si (x0n , f (xn0 ) unde n0 este cel mai mare indice, n0 < n,
pentru care f (xn )f (xn0 ) < 0. Aproximatiile initiale x0 si x1 trebuie, desigur,
alese astfel ca f (x0 ) f (x1 ) < 0. Avantajul regulii falsi este acela ca, la fel
ca la metoda bisectiei, ea este mereu convergent
a pentru functia f .
Regula falsi este o buna metoda de start, dar nu trebuie folosita aproape
de radacina. Poate fi folosita ca parte ntr-o metoda hibrida metoda care
are bune proprietati de convergent
a aproape de rad
acin
a.
Metoda Newton
Ideea metodei Newton pentru aproximarea rad
acinii a unei ecuatii,const
a
n construirea unui sir care sa convearg
a la . Pornind cu o aproximatie
initiala x0 se construieste sirul x0 , x1 . . . . unde xn+1 se determina astfel.
Functia f este aproximata prin tangenta sa n punctul (xn , f (xn )), iar xn+1
se ia abscisa punctului de intersectie a tangentei cu axa Ox. Cum ecuatia
tangentei la grafic n (xn , f (xn ) este
y f (xn ) = f 0 (xn )(x xn )
pentru obtinerea aproximatiei xn+1 se rezolva ecuatia
f (xn ) + f 0 (xn )(xn+1 xn ) = 0.
Metoda Newton este definita de formulele
xn+1 = xn + hn ,

hn = f (xn )/f 0 (xn )

(5.14)

sau
xn+1 = xn f (xn )/f 0 (xn )

(5.15)

Iteratiile pot fi oprite cnd |hn | devine suficient de mic. De exemplu, pentru
functia f (x) = sin x (x/2)2 se doreste determinarea rad
acinii pozitive cu
cinci zecimale exacte. Luam x0 = 1.5
n
0
1
2
3
4

xn
1.5
2.14039
1.95201
1.93393
1.93375

f (xn )
0.434995
-0.303197
-0.024372
- 0.0002333
0.000005

f 0 (xn )
- 0.67926
-1.60948
-1.34805
- 1.32217
-1.32191

hn
0.64039
-0.18838
- 0.01808
- 0.00018
< 12 105

xn
- 0.43375
0.20664
0.01826
0.00018
< 12 105

5. Ecuat
ii neliniare

183

Solutia cautata este 1.93375. Numai patru iteratii au fost necesare, chiar
daca aproximarea initiala a fost proasta. Vedem ca |hn | descreste din ce n
ce mai repede pna ce erorile de rotunjire ncep sa domine.
In ce priveste convergenta metodei Newton avem urmatorul rezultat.
Teorema 5.3 Dac
a f (a) f (b) < 0 iar f 0 (x) si f 00 (x) p
astreaz
a semne constante n [a, b], atunci pentru x0 [a, b] ce satisface f (x0 ) f 00 (x0 ) > 0 sirul
{xn } construit folosind (5.14) converge la unica solutie a ecuatiei f (x) = 0.
Demonstratie. Sa presupunem f (a) < 0, f (b) > 0, f 0 (x) > 0, si
f 00 (x) > 0 pentru x [a, b] ( alte cazuri se trateaza analog ). Din inegalitatea
f (x0 )f 00 (x0 ) > 0 rezulta f (x0 ) > 0 (putem lua, de exemplu x0 = b).
Prin inductie matematica vom arata xn > si f (xn ) > 0. Intr-adev
ar,
pentru nceput x0 > si f (x0 ) > 0. Fie xn > . Lund = xn + ( xn ) si
folosind formula Taylor obtinem
1
0 = f () = f (xn ) + f 0 (xn )( xn ) + f 00 (xn )( xn )2
2

(5.16)

unde < cn < xn . Deoarece f 00 (x) > 0, avem


f (xn ) + f 0 (xn )( xn ) < 0
si deci
xn+1 = xn f (xn )/f 0 (xn ) >
ceea ce era de demonstrat. Lund n considerare semnele pentru f (xn ) si
f 0 (xn ) obtinem xn+1 < xn n = 0, 1, . . ., adica sirul x0 , x1 , . . . este un sir
monoton marginit. Fie = limn . Trecnd la limita n (5.14) obtinem
=

f ()
f 0 ()

de unde f () = 0 si cum f are o singura solutie n (a, b) obtinem = . 2


Folosind aceasta teorema, cnd aplicam metoda Newton, vom folosi urmatoarea
regula.
Pentru punctul initial x0 alegem acel cap
at al intervalului (a, b) pentru
care f si f 00 au acelasi semn.

184

Capitolul 2. Ecuat
ii si sisteme neliniare

La fel se poate arata ca daca: (1) functia f este definita si continu


a pe R;
(2) f (a) f (b) < 0; (3) f 0 (x) 6= 0 pentru a x b; (4) f 00 (x) exista peste
tot si are semn constant, atunci orice valoare c [a, b] poate fi luata ca
aproximatie initiala x0 .
Pentru estimarea erorii aproximatiei xn , putem folosi formula (5.4), adica
| xn |

f (xn )
m1

(5.17)

unde m1 este cea mai mica valoare pentru |f 0 (x)| pe intervalul [a, b].
Sa obtinem o alta evaluare a acuratetei aproxim
atiei xn . Aplicnd formula
Taylor avem,
1
f (xn ) = f (xn1 ) + f 0 (xn1 )(xn xn1 + f 00 (n1 )(xn xn1 )2
2

(5.18)

unde n1 (xn1 , xn ). Cum f (xn1 ) + f 0 (xn1 )(xn xn1 ) = 0 rezulta


din (5.18), ca
1
|f (xn )| M2 (xn xn1 )2
2
unde M2 este cea mai mare valoare pentru |f 00 (x)| pe intervalul [a, b]. Prin
urmare, utiliznd (5.17) obtinem
| xn |

M2
(xn xn1 )2
2m1

(5.19)

Daca metoda Newton converge, atunci xn xn1 0 cnd n si deci


pentru n N avem
| xn | |xn xn1 |
ceea ce nseamna ca se stabilizeazaprimele zecimale ale aproximatiei xn1
si xn .
Sa remarcam ca n general o coincident
a pn
a la , a doua aproximatii
succesive xn1 si xn nu garanteaz
a ca xn si coincid cu aceiasi acuratete
( vezi Figura 5.4 ).
Sa obtinem o formula ce leaga valorile erorilor absolute a doua aproximatii
succesive xn si xn+1 . Din
1
0 = f () = f (xn ) + f 0 (xn )( xn ) + f 00 (xn )( xn )2 ,
2

5. Ecuat
ii neliniare

185

xn

xn1

Figura 5.4:
obtinem
= xn

1 f 00 (cn )
f (xn )

( xn )2
f 0 (xn ) 2 f 0 (xn )

unde cn este ntre xn si , si folosind (5.14) obtinem


1 f 00 (cn )
xn+1 = 0
( xn )2
2 f (xn )
si prin urmare
| xn+1 |

M2
( xn )2 .
2m1

(5.20)

Formula (5.20) asigura rapida convergent


a a metodei Newton daca aproximatia
initiala x0 este astfel ca
M2
| x0 | q < 1.
2m1
M2
1 si | xn | 10m atunci din (5.20)
2m1
obtinem | xn+1 | 102m .

In particular, daca =

186

Capitolul 2. Ecuat
ii si sisteme neliniare

Metoda Newton modificat


a
Daca derivata f 0 (x) variaza putin n intervalul [a, b] atunci n formula 5.15
putem lua f 0 (xn ) ' f 0 (x0 ). Vom obtine astfel pentru rad
acina a ecuatiei
f (x) = 0 sirul de aproximatii
xn+1 = xn

f (xn )
.
f 0 (x0 )

(5.21)

In aceasta metoda, geometric vorbind, se nlocuiesc tangentele n punctele


[xn , f (xn )] prin dreptele paralele cu tangenta la curba y = f (x) ntr-un
punct fixat [x0 , f (x0 )]. Aceasta metoda este folositoare cnd calculul derivatei
f 0 (xn ) este complicat.
6

A0

A1
A3

A2

x3 x2 x1

x0

Figura 5.5:

Metode combinate
Presupunem ca f (a) f (b) < 0 iar f 0 (x) si f 00 (x) pastreaz
a semn constant pe intervalul [a, b]. Combinnd metoda secantei cu metoda Newton,
obtinem o metoda n care la fiecare pas gasim un minorant si un majorant al
aproximatiilor solutiei exacte a ecuatiei f (x) = 0. O consecinta a acestui
fapt este ca cifrele comune din xn si x
n vor apartine solutiei exacte . Exista
patru situatii teoretic posibile:
1)f 0 (x) > 0, f 00 (x) > 0

2) f 0 (x) > 0, f 00 (x) < 0

5. Ecuat
ii neliniare

187

x0 = a

x1

x2
x2

x1

x0 = b

A
Figura 5.6:
3) f 0 (x) < 0, f 00 (x) > 0

4) f 0 (x) < 0, f 00 (x) < 0

Vom restrnge analiza noastra la primul caz. Cazurile ramase se analizeaza


la fel. Trebuie, totusi, sa notam ca aceste cazuri pot fi reduse la primul
caz daca nlocuim ecuatia f (x) = 0 cu ecuatiile echivalente f (x) = 0 sau
f (z) = 0, unde z = x.
Deci presupunem f 0 (x) > 0 si f 00 (x) > 0 pentru a x b. Luam x0 = a si
x
0 = b, si consideram
xn+1 = xn

f (xn )
(
xn xn )
f (
xn ) f (xn )

(5.22)

f (
xn )
f 0 (
xn )

(5.23)

x
n+1 = x
n

(La fiecare pas metoda coardei este aplicata n intervalul [xn , x


n ]. Din cele
ce au fost demonstrate anterior rezulta ca
xn < < x
n

si 0 < xn < x
n xn .

Daca eroarea absoluta a radacinii aproximative xn este specificata anticipat


si este egala cu , atunci procesul de aproximare se termina cnd x
n xn < .
La terminarea procesului de aproximare, cea mai buna aproximare pentru
radacina va fi sa luam valoarea
1
n ).
= (xn + x
2

188

Capitolul 2. Ecuat
ii si sisteme neliniare

Ca un exemplu, sa calculam radacina pozitiva a ecuatiei


f (x) x5 x 0.2 = 0
cu o eroare absoluta de 0.0005.
Deoarece f (1) < 0 si f (1.1) > 0, rad
acina se afla n intervalul (1, 1.1). Avem
0
4
00
3
f (x) = 5x 1 si f (x) = 20x . In intervalul ales, f 0 (x) > 0, f 00 (x) > 0 care
nseamna ca semnul derivatelor se conserva. Sa aplicam metoda combinat
a
lund x0 = 1 si x
0 = 1.1. Deoarece
f (1) = 0.2,

f (1.1) = 0.3105,

f 0 (1.1) = 6.3205

obtinem
x1 1.039,

x
1 1.051.

Cum x
1 x1 = 0.012 nu s-a atins acuratetea ceruta. Obtinem n continuare
x2 1.04469 x
2 1.04487.
Aici, x
2 x2 = 0.00018, care arata ca acuratetea ceruta este atinsa. Putem
lua
1
= (1.04469 + 1.04487) = 1.04478 1.045
2
cu eroarea absoluta mai mica ca
1
1
0.00018 + 0.00022 0.00031 < 103 .
2
2

6. Sisteme neliniare

189

Sisteme neliniare

Universul matematic al sistemelor neliniare este mult mai complex dect cel
al sistemelor liniare. Daca pentru sistemele liniare avem rezultate clare de
existenta si unicitate a solutiilor, pentru sistemele neliniare asemenea rezultate snt greu de obtinut. In cele ce urmeaza se urmaresc trei aspecte. Primul
aspect priveste existenta solutiilor, al doilea aspect priveste aproximarea
solutiilor, iar al treilea aspect priveste metodele explicite pentru aproximarea
solutiilor.

6.1

Teoreme de existent
a a solutiilor

In studiul sistemelor neliniare de forma


f (x) = 0

(6.1)

unde f : D Rm Rm se ncearc
a nlocuirea sistemului (6.1) printr-un
sistem de forma
x = g(x)
(6.2)
unde g : D Rm Rm astfel ca orice solutie a sistemului (6.1) sa fie solutie
a sistemului (6.2). Evident, exista multe moduri n care se poate asocia unui
sistem (6.1) un sistem (6.2), dar problema central
a (principala ) este sa
alegem acel sistem pentru care solutiile sa poata fi usor determinate. Un
rezultat central privind existenta solutiilor (6.2), adica existenta punctului
fix pentru aplicatia g este dat de teorema urmatoare.
Teorema 6.1 (Brouwer) Dac
a K este o multime convex
a, compact
a nevid
a
a unui spatiu finit dimensional iar F : K K este o aplicatie continu
a,
atunci aplicatia F are cel putin un punct fix, adic
a exist
a cel putin un element x K astfel ca F (x) = x.
Aceasta teorema a primit numeroase demonstratii (vezi de exemplu [25],
[54], [61]).
Ca un corolar al teoremei lui Brouwer avem urmatorul rezultat, des utilizat
n demonstrarea existentei solutiilor sistemelor de forma (6.1).
Teorema 6.2 Dac
a : Rm Rm este o aplicatie continu
a si exist
a>0
astfel nct
((y), y) 0, y S = {z Rm ; kzk = }

(6.3)

atunci ecuatia (x) = 0 are cel putin o solutie n B = {z Rm ; kzk }.

190

Capitolul 2. Ecuat
ii si sisteme neliniare

Demonstratie. Presupunem, prin absurd ca (x) 6= 0 pentru orice x B .


Aplicatia : B Rm definita prin
(x) =

(x)
k(x)k

(6.4)

este continua (deoarece este continu


a si (x) 6= 0 pentru x B ) si
: B S B (deoarece k(x)k = ). Cum B este o multime convex
a
convexa, compacta, nevida din Rm iar : B B este continu
a, din
teorema Brouwer, exista x B astfel ca (x) = x. Din (x) = x si
k(x)k = rezulta x S si k(x)kx = (x). Din ultima egalitate
obtinem k(x)k(x, x) = ((x), x) de unde ((x), x) = k(x)k < 0,
ceea ce este n contradictie cu (6.3). Contradictia provine din faptul ca am
presupus ca (x) 6= 0 pentru orice x B , deci exista x B astfel ca
(x) = 0.
2
Utiliznd Teorema 6.2, vom da cteva teoreme de existent
a a solutiilor
sistemelor neliniare.
Definitia 6.1 O aplicatie f : Rm Rm se zice coerciv
a dac
a
(f (x), x)
= +
kxk
kxk
lim

(6.5)

Teorema 6.3 Dac


a f : Rm Rm este o aplicatie continu
a si coerciv
a
atunci pentru orice y Rm ecuatia
f (x) = y

(6.6)

are cel putin o solutie n Rm .


Demonstratie. Aplicatia f fiind coerciva exista un r > 0, suficient de mare,
astfel ca
(f (x) y, x) > 0 x Sr = {z Rm , kzk = r}.
Consideram functia : Rm Rm definit
a prin (x) = f (x) y pentru
orice x Rm . Cum este continu
a si ((x), x) > 0 x Sr , folosind
Teorema 6.2 rezulta ca ecuatia (x) = 0 are cel putin o solutie n bila Br =
{z Rm ; kzk r}, deci exista x Br Rm astfel ca f (x) y = 0.
2
Definitia 6.2 O aplicatie f : Rm Rm se zice uniform monoton
a n Rm
dac
a exist
a c > 0 astfel nct
(f (x) f (y), x y) ckx yk2 , x, y Rm

(6.7)

6. Sisteme neliniare

191

Teorema 6.4 Dac


a f : Rm Rm este o aplicatie continu
a si uniform
m
monoton
a pe R , atunci pentru orice b Rm ecuatia
f (x) = b

(6.8)

are solutie si solutia este unic


a.
Demonstratie. Daca x si y ar fi solutii ale ecuatiei (6.8) atunci f (x) = f (y)
si utiliznd (6.7) obtinem 0 ckx yk2 , de unde rezulta x = y, adica
unicitatea solutiei. Pentru a demonstra existenta solutiei ecuatiei (6.8)
vom arata ca f este coerciva. Cum pentru orice x Rm avem
ckxk2 (f (x) f (0), x) = (f (x), x) (f (0), x) (f (x), x) + kf (0)k kxk
de unde

(f (x), x)
ckxk kf (0)k x 6= 0,
kxk

deci limkxk (f (x), x)/kxk = . Cum f este continu


a si coerciva, utiliznd
m
Teorema 6.3, obtinem ca pentru orice b R ecuatia (6.8) are solutie.
Un alt rezultat de existenta este dat n teorema urmatoare.
Teorema 6.5 Dac
a : Rm Rm este o aplicatie continu
a si exist
ac<1
astfel ca
((x) (y), x y) ckx yk2 , x, y Rm
(6.9)
atunci pentru orice b Rm si orice [0, 1] ecuatia
y = (y) + b

(6.10)

are solutie si solutia este unic


a.
Demonstratie. Aplicatia f : Rm Rm definita prin
f (x) = x (x) x Rm

(6.11)

verifica
(f (x) f (y), x y) (1 c)kx yk2 x, y Rm .
Cum f este continua si 1 c > 0 utiliznd Teorema 6.4 obtinem ca pentru
orice b Rm ecuatia f (x) = b are solutie si solutia este unica, deci ecuatia
x (x) = b are solutie si solutia este unica.
2

192

6.2

Capitolul 2. Ecuat
ii si sisteme neliniare

Metode de contractie

In studiul sistemelor de forma (6.2) se utilizeaza principiul contractiei. In


cele ce urmeaza vom utiliza o forma pe componente a acestui principiu.
Daca v = (v1 , . . . , vm ) Rm , vom nota prin |v| vectorul (|v1 |, , |vm |), iar
daca A = (aij ) este o matrice care are elementele numere reale, vom nota cu
|A| matricea care are elementele |aij |. Este usor de vazut ca
|v + w|
|A + B|
|Av|
|AB|

|v| + |w|
|A| + |B|
|A| |v|
|A| |B|

In plus, |v| = 0 daca si numai daca v = 0, iar |A| = 0 daca si numai daca
A = 0.
Teorema 6.6 Dac
a g : Rm Rm verific
a
|g(x0 ) g(x00 )| K0 |x0 x00 |, x0 , x00 Rm

(6.12)

unde K0 Mm (R) verific


a
K0 0 si (K0 ) < 1

(6.13)

atunci pentru orice x(0) Rm sirul {x(n) }nN definit recurent prin
x(n+1) = g(x(n) ), n 0

(6.14)

este convergent si limita sa x


este unica solutie a ecuatiei g(x) = x. In plus
pentru orice n = 1, 2,
|x(n) x
| K0 (IK0 )1 |x(n) x(n1) | K0n (IK0 )1 |x(1) x(0) | (6.15)
Demonstratie. Deoarece K0 0 si (K0 ) < 1, matricea I K0 este
inversabila, nenegativa si pentru j 1
I + K0 + + K0j1 = (I K0 )1 (I K0j ) (I K0 )1 .

(6.16)

Cum |x(2) x(1) | = |g(x(1) ) g(x(0) )| K0 |x(1) x(0) | avem succesiv


inegalitatile:
|x(k+1) x(k) | K0 |x(k) x(k1) | K0k |x(1) x(0) |, k 0 (6.17)

6. Sisteme neliniare

193

Din (6.16) si (6.17), pentru orice ntreg pozitiv j si orice n natural, avem
succesiv
|x(n+j) x(n) | (K0n+j1 + + K0n ) |x(1) x(0) |
K0n (I + K0 + + K0j1 ) |x(1) x(0) | =

(6.18)

= K0n (I K0 )1 (I K0j )|x(1) x0 |.


Pentru j fixat, deoarece (K0 ) < 1, avem limn K0n = 0 si din (6.18) obtinem
|x(n+j) x(n) | 0, adica {x(n) }nN este un sir Cauchy, deci are limita.
Daca notam cu x
limita sirului {x(n) }nN , datorita continuit
atii aplicatiei
g, x
verifica ecuatia x = g(x). Daca x
ar fi alta solutie atunci am avea
K0 |
|
xx
| = |g(
x) g(x)|
xx
| de unde (I K0 ) |
xx
| 0. Cum
1
(I K0 ) 0 obtinem |
xx
| 0, deci x
=x
. Din (6.17) deducem, la fel
ca pentru (6.18)
|x(n+j) x(n) | K0 (I K0 )1 (I K0j ) |x(n) x(n1)| |

(6.19)

Pastrnd pe n fixat si trecnd la limita cu j obtinem


|
x x(n) | K0 (I K0 )1 |x(n) x(n1) |
si apoi utiliznd (6.17) obtinem si a doua inegalitate n (6.15).

Daca functia g este definita pe o submultime din Rm avem urmatorul rezultat demonstrat de Urabe [95]
Teorema 6.7 Fie g : D Rm Rm ce verific
a
|g(x0 ) g(x00 )| K0 |x0 x00 |, x0 , x00 D,

(6.20)

unde matricea p
atrat
a K0 satisface (6.13). Dac
a exist
a x(0) D astfel ca
n

S = h Rm ; |h x(1) | K0 (I K0 )1 |x(1) x(0) | D

(6.21)

unde x(1) = g(x(0) ), atunci sirul {x(n) }nN poate fi obtinut n S prin
x(n) = g(x(n1) ),

n = 1, 2, . . .

(6.22)

si, cnd n , converge la x


, care este unic
a solutie n D a ecuatiei
x = g(x).

194

Capitolul 2. Ecuat
ii si sisteme neliniare

Demonstratie. Vom demonstra prin inductie ca sirul {x(n) }nN poate fi


obtinut n S prin procesul iterativ (6.22). Cum x(1) S prin (6.21) sa
presupunem ca x(1) , , x(n1) au fost obtinuti n S. Atunci x(n) este obtinut
prin x(n) = g(xn1 ), deoarece x(n1) S D. Este suficient sa demonstram
ca x(n) S. Din (6.20) avem
|x(2) x(1) | = |g(x(1) ) g(x(0) )| K0 |x(1) x(0) |
si ntr-un mod similar avem succesiv:
|x(3) x(2) |

K0 |x(2) x(1) | K02 |x(1) x(0) |

|x(n) x(n1) | K0 |x(n1) x(n2) | K0n1 |x(1) x(0) |.


Din aceste inegalitati avem
|x(n) x(1) |

|x(1) x(0) |

|x(n) x(n1) | + |xn1 x(n2) | + + |x(2) x(1) |


(K0n1 + K0n2 + + K0 )
K0 (I K0 )1 |x(1) x(0) |

si din definitia lui S, aceasta nseamn


a ca x(n) S. Utiliznd rationamentul
din demonstrarea Teoremei 6.6, obtinem ca sirul {x(n) }nN este convergent
si limita sa x
este evident n S. Deci ecuatia x = g(x) are o solutie n D si
aceasta solutie este unica.
Starea de convergent
a numeric
a
Cnd un proces iterativ de tipul (6.14) se efectueaza practic, utiliznd un
calculator, n locul sirului {x(n) } se obtinem un sir {
x(n) } definit succesiv
prin
x
(n) = g(
x(n1) ), n = 1, 2,
(6.23)
unde x
(0) = x(0) iar g(x) nseamn
a valoarea lui g(x) obtinut
a practic. Datorita erorilor de calcul (rotunjire, trunchiere, aproximare ), g(x) va diferi
n general de g(x). Deci sirul numeric {
x(n) } obtinut n urma calculelor va
diferi de sirul matematic {x(n) } definit de (6.14). Se poate ntmpla ca sirul
{x(n) } sa convearga fara ca sirul {
x(n) } sa convearg
a. Mai mult, sirul {
x(n) }

6. Sisteme neliniare

195

poate sa aiba un numar infinit de valori, si atunci este divergent, sau poarte
sa aiba un numar finit de valori si atunci dupa un anumit n0 avem
x
(n+m) = x
(n)
adica de la o anumita valoare n0 sirul {
x(n) } devine periodic.
Pentru orice x, ce apare n calcule, sa presupunem ca g(x) se evalueaz
a cu
g(x) cu eroarea relativa , adica
|
g (x) g(x)| |g(x)|

(6.24)

unde este o matrice diagonala, cu elementele de pe diagonala principala


pozitive (i > 0). Practic relatiile (6.24) nseamn
a
|
gi (x) gi (x)| i |gi (x)|

(6.25)

pentru toate componentele gi (x) si gi (x) ale lui g(x) si respectiv g(x).
Vom presupune n cele ce urmeaza ca
0 < i pentru orice i.

(6.26)

Natural, putem presupune ca


0 < < 1

(6.27)

pentru orice x ce apare n calcule. Este evident atunci ca


0 I

(6.28)

Pentru sirul numeric obtinut practic n urma calculelor avem urmatorul


rezultat.
Teorema 6.8 Fie g : D Rm Rm o functie avnd propriet
atile din
Teorema 6.7. Presupunem c
a este suficient de mic astfel ca
((1 )K0 ) < 1.

(6.29)

Dac
a exist
a x(0) D astfel ca
= {h; |h x
(1) | 1 + 2 } D

(6.30)

196

Capitolul 2. Ecuat
ii si sisteme neliniare

unde

x
(1) = g(x(0) )

1 = K0 (I K0 )1 |
x(1) x(0) | + (I K0 )1 (I )1 |
x(1) |

(6.31)
(6.32)

2 = (I L0 )1 (1 + |
x(1) |)

(6.33)

L0 = (I + )K0

(6.34)

si
atunci ecuatia x = g(x) are o solutie unic
ax
n D si un sir numeric {
x(n) },
n = 1, 2, . . . poate fi obtinut n prin procesul numeric iterativ (6.23). S
irul
(n)
{
x }, n = 1, 2, . . .} obtinut, oscileaz
a lund un num
ar finit de valori dup
a
un anumit n0 si pentru x
(n) n asemenea stare de oscilatie se obtine
|
x(n) x
| (I L0 )1 |
x|.

(6.35)

Demonstrarea acestui rezultat se poate gasi n [80], [97].


Evaluarea erorii din (6.35) poate fi mbun
at
atit
a daca nlocuim conditia
(6.20) printr-o conditie de forma
|g(x0 ) g(x00 )| K(x0 , x00 ) |x0 x00 | x0 , x00 D
unde
0 K(x0 , x00 ) K0 , (K0 ) < 1.
Pentru un studiu aprofundat asupra acestei chestiuni cititorul poate consulta
[80], [97] .
Oprirea procesului iterativ
In practica, cnd calculele snt efectuate cu un calculator, nu este convenabil
sa oprim un proces iterativ folosind starea de convergent
a numeric
a, deoarece
n acest caz ar trebui memorati toti termenii calculati anterior ceea ce ar cere
multa memorie. Din acest motiv in practica se folosesc criterii mai simple.
Deseoari se folosesc criterii de forma
k
x(n+1) x
(n) k <

(6.36)

unde este un numar pozitiv dat, sau un criteriu de forma


|
x(n+1) x
(n) | |
x(n) |

(6.37)

6. Sisteme neliniare

197

unde este o matrice pozitiva data.


In cele ce urmeaza vom analiza ce conditii trebuie sa ndeplineasc
a pentru
ca criteriile de mai sus sa functioneze si vom evalua eroarea pe care o facem
oprind procesul cu un criteriu de forma (6.37).
Teorema 6.9 Presupunem c
a ipotezele Teoremei 6.8 snt toate satisf
acute
si c
a n plus este suficient de mic ca
((I L0 )1 ) < 1.

(6.38)

Putem opri procesul iterativ (6.23) cu un criteriu de forma (6.37) dac


a matricea se alege astfel ca
20 (I 0 )1

(6.39)

unde 0 = (I L0 )1 .
Demonstratie. Presupunem ca x
(n1) este n stare de convergent
a nu(n)
merica. Atunci x

este de asemenea n starea de convergent


a numeric
a
si folosind (6.35) avem
|
x(n) x
|, |
x(n1) x
| 0 |
x|
de unde rezulta
|
x(n) x
n1 | 20 |
x|.

(6.40)

Cum |
x| |
xx
(n1) |+|
x(n1) | 0 |
x|+|
x(n1) | avem (I0 )|
x| |
x(n1) |,
de unde
|
x| (I 0 )1 |
x(n1) |
(6.41)
Din (6.40) si (6.41) obtinem
|
x(n) x
(n1) | 20 (I 0 )1 |
x(n1) |

(6.42)

Din (6.39) si (6.42) obtinem |


x(n) x
(n1) | |
x(n1) | care arata ca inegali(n1)
tatea (6.37) este adevarata pentru x

n starea de convergent
a numeric
a.
Deoarece starea de convergent
a numeric
a este atinsa dupa un num
ar finit
de iteratii, din Teorema 6.8, rezulta ca (6.37) este sigur ndeplinit
a dupa un
numar finit de iteratii.
2
Urmatoarea teorema da o estimare a erorii pentru x
(n) cnd procesul iterativ
este oprit cu un criteriu de forma (6.37).

198

Capitolul 2. Ecuat
ii si sisteme neliniare

Teorema 6.10 Presupunem c


a ipotezele Teoremei 6.8 snt toate satisf
acute
si c
a inegalitatea (6.37) este ndeplinit
a pentru un anumit x
(n) din sirul
numeric {
x(k) }kN . Dac
a elementele matricei 0 snt astfel ca
(L0 + ) < 1

(6.43)

atunci pentru x
(n) satisf
acnd (6.37) are loc evaluarea
|
x(n) x
| {L0 [I (L0 + )]1 + (I )[I (L0 + )]1 } |
x| (6.44)
Demonstratie. Se arata far
a dificultate ca
|
x(n1) x
| (L0 + )|
x(n1) x
| + ( + )|
x|.

(6.45)

|
x(n) x
| L0 |
x(n1) x
| + |
x|.

(6.46)

Intr-adevar, din (6.37) avem succesiv.


|x(n1) x
| |
x(n1) x
(n) | + |
x(n) x
| =
(n+1)
(n)
(n1)
= |
x
x
| + |f(
x
f (
x)|
|
x(n1) | + |f(
x(n1) f (
x(n1) | + |f (
x(n1) ) f (
x)|
(n1)
(n1)
(x1)
|
x
| + |f (
x
)| + K0 |
x
x
|
|
x(n1) x
| + |f (
x(n1) ) f (
x)| + ( + )|
x + K0 |
x(n1) x
|
(n1)
( + )|
x| + ( + K0 + K0 )|
x
x
|
De unde tinnd seama ca L0 = (I + )K0 obtinem (6.45). Pentru a arata
(6.46) avem succesiv:
|
x(n) x
| = |f(
x(n1) ) f (
x)|
(n1)
(n1)

|f (
x
) f (
x
| + |f (
x(n1) ) f (
x)|
(n1)
(n1)
|f (
x
| + K0 |
x
x
|
|f (
x(n1) ) f (
x)| + |
x| + K0 |
x(n1) x
|
(n1)
(K0 + K0 )|
x
x
+ |
x|
de unde (6.45). Cum (L0 + ) < 1 din (6.44) obtinem
|
x(n1) x
| [I (L0 + )]1 ( + ) |
x|
si folosind aceasta relatie n (6.46) avem
|
x(n) x
| {L0 [I (L0 + )]1 ( + ) + } |
x|

6. Sisteme neliniare

199

sau
|
x(n) x
| {L0 [I (L0 + )1 + (I )[I (L0 + )]1 }|
x|
si cu aceasta teorema este demonstrata.

Observatie . Daca elementele matricii snt toate suficient de mici astfel


ca produsele elementelor lui L0 cu s
a fie neglijabile n comparatie cu elementele diagonale ale lui , atunci din (6.44), se constata usor ca urmatoarea
inegalitate are loc aproximativ
|
x(n) x
| (I L0 )1 |
x|

(6.47)

deoarece n acest caz L0 [I (L0 + )]1 ' 0 si


I (L0 + ) = (I L0 )[I (I L0 )1 ] ' (I L0 )(I ).
Inegalitatea (6.47) este asemenea cu inegalitatea (6.35), ceea ce nseamn
a ca
(n)
(n)
x
are aceiasi precizie ca x
n stare de convergent
a numeric
a.
Lund n considerare Teorema 6.9 se desprinde urmatoarea concluzie pentru
alegerea matricei 0.
Este recomandat s
a se aleag
a astfel ca elementele lui s
a fie mai mari n
comparatie cu elementele diagonale ale lui dar produsul elementelor lui
si a celor din L0 s
a fie mai mici n comparatie cu elementele diagonale ale
matricei . Dac
a matricea poate fi aleas
a n acest fel atunci prin oprirea
procesului iterativ folosiind criteriul (6.37) se obtine o solutie aproximativ
a
avnd aceiasi precizie ca x
(n) n starea de convergent
a numeric
a.
Evident, asemenea alegere a matricei este totdeauna posibila cnd elementele lui K0 snt toate suficient de mici.

6.3

Metode de tip Newton

Un sistem de forma
f (x) = 0

(6.48)

unde f (x) = [f1 (x), , fm (x)]T este un vector cu m componente, se poate


scrie ntr-o varietate de moduri sub forma
x = g(x).

(6.49)

200

Capitolul 2. Ecuat
ii si sisteme neliniare

Vom examina n cele ce urmeaza alegerea


g(x) = x H(x)f (x)

(6.50)

unde H(x) este o matrice de ordinul m avnd componentele hij (x). Ecuatiile
(6.48) si (6.49) vor avea aceleasi solutii daca H(x) este nesingulara (deoarece
n acest caz H(x)f (x) = 0 implica f (x) = 0).
Consideram matricea

J(x) =

fi (x)
xj

(6.51)

a carui determinant este jacobianul functiilor f1 , . . . , fm .


Alegnd n 6.50 matricea H(x) de forma
H(x) J 1 (x),

(6.52)

cu presuunerea evidenta ca det(J(x) 6= 0 pentru x ntr-o vecin


atate a solutiilor
a ecuatiei (6.48), se obtine metoda Newton.
Cea mai simpla alegere pentru H(x) este
H(x) = H

(6.53)

unde H este o matrice constant


a nesingulara. Metoda astfel obtinut
a este
metoda Newton modificat
a.
Metodele iterative obtinute prin alegerea lui g de forma (6.50) le vom numi
metode generalizate de tip Newton.
Sa analizam, pentru nceput, metodele iterativem obtinute cu alegerea lui g
de forma (6.50) cu matricea H(x) de forma (6.52) respectiv (6.53).
Presupunem ca f este definita pe o multime deschis
a G Rm si ca
derivatele de primul ordin snt continue si marginite pe G. Spunem ca G
este o solutie nesingular
a a ecuatiei (6.48) daca f () = 0 si J() este un
izomorfism a lui Rm , ceea ce revine la faptul ca det(J() 6= 0.
Teorema 6.11 Presupunem c
a aplicatia x J(x) este lipschitzian
a n bila
B(, ) G, adic
a exist
a o constant
a K > 0 astfel ca
kJ(x0 ) J(x00 )k Kkx0 x00 k, x0 , x00 B(, ),
unde este o solutie nesingular
a a ecuatiei (6.48). Atunci

6. Sisteme neliniare

201

i) Exist
a un num
ar 1 , verificnd 0 < 1 astfel ca pentru toate
aproxim
arile initiale x(0) B(, 1 , sirul {x(n) } construit prin
x(n+1) = x(n) J 1 (x(n) ) f (x(n) )

(6.54)

este din B(, 1 ), converge la p


atratic, adic
a exist
a C > 0 astfel ca
kx(n+1) k Ckx(n) k2

(6.55)

ii) Exist
a un num
ar 2 , verificnd 0 < 2 astfel nct pentru toate
aproximatiile initiale x(0) B(, 2 ), sirul {x(n) } construit prin
x(n+1) = x(n) J 1 (x(0) ) f (x(n) )

(6.56)

este din B(, 2 ), converge la liniar, adic


a exist
a C > 0 astfel ca
kx(n+1 k Ckx(n) k.

(6.57)

Demonstratie. Incepem prin a arata ca exista 0 < 1 astfel nct


kJ 1 (x)k 2M, x B(, 1 )

(6.58)

unde M = kJ 1 ()k. Evident,


J(x) = J()[I + J 1 ()(J(x) J(x))].
Cum
kJ 1 ()(J(x) J())k M kJ(x) J()k M Kkx k x B(, ),
lund 1 = min{,

1
} obtinem
2M K

kJ 1 ()(J(x) J()k

1
< 1, x B(, 1 )
2

Operatorul I + J 1 ()(J(x) J()) este inversabil si


k[I + J (1) ()(J(x) J()]1 k 2 x B(, 1 )
unde am utilizat Teorema 1.5. Din cele de mai sus avem
kJ 1 (x)k kJ 1 ()k k[I + J 1 ()(J(x) J())]1 k 2M x B(, 1 ).

202

Capitolul 2. Ecuat
ii si sisteme neliniare

Fie x(0) B(, 1 ). Aratam prin inductie dupa n c


a x(n) B(, 1 ), pen(n)
tru orice n 0. Presupunem ca x
B(, 1 ). Cum x(n+1) = x(n) +
1
(n)
(n)
(n+1)
J (x )(f (x) ) avem x
= x(n) + J 1 (x(n) )(f () f (x(n) ),
sau nca
x(n+1) = J 1 (x(n) )[f () f (x(n) ) J(x(n) )( x(n) ] =
=

Z 1

J 1 (x(n) )[

J(x(n) + t( x(n) )dt J(x(n) ] ( x(n) )

de unde
kx(n+1) k M Kkx(n) k2 .
Cum x(n) B(, 1 ) si M K1 21 obtinem kx(n+1) k 21 kx(n) k.
Prin urmare x(n+1) B(, 1 ) iar sirul {x(n) } converge catre . In plus avem
(6.55) cu C = M K.
2). Fie x(0) B(, 1 ). Pentru sirul {x(n) } construit prin (6.56) avem
x(n+1) = x(n) + J 1 (x(n) )(f () f (x(n) ) =
= J 1 (x(0) )[f () f (x(n) ) + J(x(0) )(xn )] =
R1

= J 1 (x(0) [

J(x(n) + t( x(n) ))( x(n) dt + J(x(0) )(x(n) )]

Cum kx(0) x(n) t( x(n) k kx(0) k + (1 t)k x(n) k si lund x(0) ,


x(n) B(, 2 ) cu 0 < 2 < min{1 , 3M1 K } obtinem
kx(n+1) k 3M K2 kx(n) k = Ckx(n) nk
unde 0 < C < 1. Rezulta ca x(n)

Conditia Lipschitz locala este satisfacut


a cnd f este de doua ori continuu
diferentiala. Avem urmatorul rezultat.
Teorema 6.12 Presupunem c
a f este definit
a pe o multime deschis
aG
Rm si c
a derivatele de primul si al doilea ordin snt continue si m
arginite
pe G. Fie o solutie nesingular
a.
i) Pentru orice 0 < q < 1 exist
a 1 > 0 astfel ca B(, 1 ) G si pentru
orice x(0) B(, 1 ) sirul {x(n) } definit prin (6.54) converge c
atre ,
eroarea fiind evaluat
a prin
kx(n) k

1
M (n)
kf (x(n) k
kx x(n1) k

(apriori)

6. Sisteme neliniare

203

si prin
kx(n) k

1
M (n)
kf (x(n) k
kx x(n1) k2

(aposteori),

unde M si snt dou


a constante.
ii) Pentru orice 0 < q < 1 exist
a 2 > 0 astfel ca B(, 2 ) G si pentru
(0)
(n)
orice x B(, 2 ) sirul {x } definit prin (6.56) converge c
atre si
snt satisf
acute inegalit
atile
kx(n) k q n kx(0) k,

n = 0, 1,

si
kx(n) k

1
1
kf (x(n) k kx(n+1) x(n) k, n = 0, 1,

In practica, nu se calculeaza matricile inverse din formulele (6.54) sau


(6.56), ci se rezolva sistemul liniar
Ay = f (x(n) )
unde A = J(x(n) ) respectiv A = J(x(0) ) si se obtine x(n+1) din
y = x(n+1) x(n) .
Calculul matricei derivate J(x) se poate evita nlocuind derivatele partiale
prin diferentiale divizate. Se obtine astfel o noua metoda Newton, numit
a
uneori si metoda Newton discretizata.
In general pentru metodele generalizate de tip Newton avem urmatorul
rezultat.
Teorema 6.13 Fie D o multime compact
a convex
a din Rm . Presupunem
c
a snt ndeplinite urm
atoarele ipoteze:
H1 ) functia f este diferentiabil
a n raport cu x iar matricea Jacobi J(x) a
lui f satisface
|J(x0 ) J(x00 )| M |x0 x00 |, x0 , x00 D

(6.59)

unde M este un tensor de ordinul trei avnd componentele nenegative.

204

Capitolul 2. Ecuat
ii si sisteme neliniare

H2 ) matricea H satisface conditia Lipschitz


|H(x0 ) H(x00 )| C |x0 x00 |,

x0 , x00 D

(6.60)

unde C este un tensor de ordinul trei cu componente nenegative.


H3 ) exist
a K0 0 cu (K0 ) < 1 astfel ca
K(x0 , x00 ) K0 x0 , x00 D

(6.61)

unde
K(x0 , x00 ) |I H(x0 )J(x0 )| + |H(x0 )| M |x0 x00 | + C|f (x00 )| (6.62)
H4 ) exist
a x(0) D astfel ca
S = {x Rm ; |x x(0) | K0 (I K0 )1 |x(1) x(0) |} D
unde

x(1) = g(x(0) ) = x(0) H(x(0) ) f (x(0) ).

Atunci sirul {x(n) } Rm construit iterativ prin


x(n+1) = x(n) H(xn ) f (x(n) ),

n0

(6.63)

se poate obtine n S si limita sa x


este unica solutie n D a ecuatiei
f (x) = 0
Relatia (6.59) trebuie nteleas
a n urmatorul fel:
|Jij (x0 ) Jij (x00 )|

m
X

Mijk |x0k x00k |

(6.64)

k=1

unde Jij (x) snt elementele lui J(x), Mijk snt componentele tensorului de
ordinul trei M , iar x0k si x00k snt componentele vectorului x0 respectiv x00 .
Inegalitatea (6.60) trebuie nteleas
a n acelasi mod.
Demonstratie. Pentru orice x0 , x00 din D, utiliznd ipoteza H1 ) avem
f (x00 ) f (x0 ) =
|J(x0

(x00

Z 1
0

x0 ))

J(x0 + (x00 x0 )) (x00 x0 )d,


(6.65)

J(x0 )|

|x0

x00 |

0 1.

6. Sisteme neliniare

205

Daca punem
f (x00 ) f (x0 ) = J(x0 )(x00 x0 ) + (x00 , x0 )

(6.66)

|(x00 , x0 )| M |x00 x0 | |x00 x0 | x0 , x00 D.

(6.67)

atunci
Atunci pentru g definita prin (6.50), avem
g(x0 ) g(x00 ) = x0 x00 [H(x0 )f (x0 ) H(x00 )f (x00 )] =
= x0 x00 H(x0 )[f (x0 ) f (x00 )] (H(x0 ) H(x00 )) f (x00 )
= x0 x00 H(x0 )J(x0 )(x0 x00 ) + H(x0 )(x0 , x00 )
(H(x0 ) H(x00 )) f (x00 ),
din care folosind (6.67) si (6.60) rezulta
|f (x0 ) g(x00 )| K(x0 , x00 ) |x0 x00 | x0 , x00 D.

(6.68)

Folosind (6.68), H3 ) si H4 ), utiliznd Teorema 6.7 se obtine ca metodele


generalizate de tip Newton snt convergente.
2
Pentru metoda Newton, deoarece H(x) = J 1 (x), este usor de vazut ca
ipoteza H2 ) rezulta din H1 ) daca det J(x) nu se anuleaz
az
a n D, cu alte
cuvinte ipoteza H2 ) poate fi nlocuita cu ipoteza
det J(x) 6= 0 pentru orice x D

(6.69)

(x) = I H(x)J(x),

(6.70)

Daca notam
din ipoteza H4 ) avem 0 |(x)| K0 din care rezulta | (n) (x)| K0n .
Cum limn K0n = 0, rezulta lim n (x) = 0 adica ((x)) < 1, de unde
n
det(H(x)J(x)) 6= 0, care implica det H(x), det J(x) 6= 0 pentru orice x D.
Din aceasta este clar ca ecuatia (6.48) este echivalent
a cu ecuatia (6.49).
Analiza erorilor n metodele de tip Newton
Pentru g(x) dat de (6.50), fie g(x) valoarea lui g(x) obtinut
a pe un calculator. Pentru g(x), sa presupunem ca (6.24) este adevarat
a n D cu matricea
diagonala 0 si elementele diagonale i ale lui snt asa de mici ca (6.29)
este satisfacuta. Fie x0 D un punct pentru care (6.30) este verificat
a.
(n)
Atunci asa cum arata Teorema 6.8, obtinem un sir {
x } prin procedeul
x
(n+1) = g(
x(n) )

206

Capitolul 2. Ecuat
ii si sisteme neliniare

sir care, n fapt, este obtinut din procedeul practic de tip Newton pe un
calculator.
Din Teorema 6.8 sirul {
x(n) } oscileaza lund un num
ar finit de valori, dar
(n)
n acest caz, pentru un x
ntr-o stare de convergent
a, evaluarea data de
Teorema 6.8 poate fi precizata.
Teorema 6.14 Fie x
unica solutie a ecuatiei (6.48) n D. Fie x
(n) o solutie
a ecuatiei ntr-o stare de convergent
a obtinut
a cu metoda Newton general x| unde este o matrice avnd propriet
izat
a. Atunci |
x(n) x
| |
atile:
0

si = {I (I + )[K + N |
x|}1

unde |(x)| K si |H(x) M N pentru x D.


Pentru o analiza a criteriilor de oprire n metodele generalizate de tip Newton
se poate consulta Rosca [80] sau Urabe [97].

Bibliografie
[1] ARMINJON, Paul, Analyse numerique matricielle, Les Presses de
lUniversite de Montreal, 1978.
[2] ATKINSON, Kendall E., An Introduction to Numerical Analysis, John
Wiley & Sons, New York, Chichester, Brisbane, Toronto, Singapore,
1978.
[3] AUTONNE, L., Ann. Univ. Lyon II,38 (1915), 177.
[4] BATHE, Klaus-Jurgen & Edward L. WILSON, Numerical Methods in
Finite Element Analysis, Prentice-Hall, Inc. 1976.
[5] BELLMAN, Richard, Introduction to matrix analysis, Mc Graw Hill,
1966.
[6] BEREZIN, Ivan Semenoviq & Nikola Petrovik IDKOV,
Metody vyqisleni, Gostehizdat Moskva, 1959
[7] BERMAN, Abraham and Robert J. PLEMMONS, Non negative matrices in mathematical sciences, Academic Press, 1979.
[8] BERNSTEIN, S.N. Demonstration du theoreme de Weierstrass fondee
sur le calcul de probabilites, Comman. Soc. Math. Kharkov 13 (1912),
12.
[9] de BOOR, Carl , A Practical Guide to Splines, Springer-Verlag, Berlin
1979.
[10] BURDEN, Richard L. and Douglas J. FAIRES, Numerical Analysis,
PWS - KENT Publishing Company, Boston, ???
207

208

BIBLIOGRAFIE

[11] QEBYXEV, P. L., Teor mehanizmov, izvestnyh pod nazvaniem


parallelogramov (1953),2351 n Polnoe sobranie soqneni,
Moskva - Leningrad, 1947.
[12] CIARLET, Philipe G., Introduction `
a lanalyse numerique matricielle
et `
a loptimisation, Masson, Paris 1982.
[13] CIARLET, Philipe G., B. MIRA, J-M. THOMAS, Exercieces danalyse
numerique matricielle et doptimisation avec solutions, Masson Paris,
Milan, Barcelone, Bonn 1991.
[14] COHEN, Alan M., Numerical Analysis, McGrawHill Book London,
1973.
[15] CONTE, S. & Carl de BOOR, Elementary Numerical Analysis 3th Edition, Mc GrawHill Book Company, New York, 1980.
[16] CROUZEIX, Michel et Alain L. MIGNOT, Analyse numerique des equations differentielles, Masson, Paris 1989.
[17] CUCULESCU, Ion, Analiz
a numeric
a, Editura tehnica, Bucuresti 1967.
[18] DAVIS, Philip J. & Philip RABINOWITZ, Numerical Integration,
Blaisdell Publishing Company, 1967.
[19] DAUTRAY, Robert and Jacques-Louis LIONS, Analyse mathematique
et calcul numerique pour les sciences et les techniques, Masson, Paris
Milan Barcelone Mexico, 1988.
[20] ERLICH, Louis W., The block symmetric successive overrelaxation
method, J. SIAM, 12, 4 (1964), 807826.
[21] EUVRARD, Daniel, Resolution numerique des equations aux derivees
partielles, Masson, Paris, 1994.
[22] FORSYTHE, George E. & Cleve B. MOLER, Computer Solution of
Linear Algebraic Systems, Prentice-Hall, Englewood Cliffs, N.J. 1967.
[23] FRANCIS, J. G. F., The QR transformation, I, Computer J. 4 (1961),
265-271.
[24] FRANCIS, J. G. F., The QR transformation, II, Computer J. 4 (1962),
332 345.

BIBLIOGRAFIE

209

[25] FRANKLIN, Joel, Methods of Mathematical Economics, Springer


Verlag, 1980.
[26] FROBENIUS, G., Uber Matrizen aus nicht negativen Elementen, S.B.
Preuss. Akad. Wiss. Berlin (1912), 456477.
[27] GASTINEL, Noel, Linear Numerical Analysis, Hermann, Paris Academic Press, New York 1970.
[28] GENTLEMEN, W. Morven, Least squares computations by Givens
transformations without square roots, J. Inst. Maths & its applics, 12
(1973), 326336.
[29] GIVENS, W., Computation of plane unitary rotations transforming a
general matrix to triangular form, J. SIAM , 6, 1 (1958), 2650.
[30] GODLEWSKI, Edwige and Pierre-Arnaud RAVIART, Numerical
Appoximation of Hyperbolic Systems of Conservation Laws, Springer
Verlag, 1996.
[31] GOLOMB, Michael, Lectures on Theory of Approximation, Argonne
National Laboratory, Applied Math. Div., 1962
[32] GOLUB, Gene H. & Gerald A. MEURAT, Resolution numeriquea des
grandes systemes lineaires, Editions EYROLLES, Paris, 1983.
[33] GOLUB, Gene H. & W. KAHN, Calculating the singular values and
pseudo inverse of a matrix, J. SIAM Numer. Anal. Ser. B, 2, 12 (1965),
205224.
[34] GOLUB, Gene H. & Charles F. Van LOAN, Matrix Computations, The
John Hopkins University Press, Baltimore, Maryland, 1983
[35] GOLUB, Gene H. and F. T. LUK, Singular value decomposition: applications and computations, ARO Report 77-1 Transactions of the 22nd
conference of Army mathematicians, (1977), 577 605.
[36] GOLUB, Gene H., F.T. LUK and M. L. OVERTON, A block Lanczos
method for computing the singular values and coresponding singular
vectors of a matrix. TOMS, 7. 2 (1981), 149169.
[37] GONQAROV, V. L., Teor interpolirovani i priblieni
funkci, Gostehizdat Moskva - Leningrad, 1954

210

BIBLIOGRAFIE

[38] GRIGORE, Gheorghe, Lectii de analiz


a numeric
a, Universitatea
Bucuresti, 1990.
[39] HAGEMAN, Louis A. & David M. YOUNG, Applied Iterative Methods,
Academic Press 1981.
[40] HOUSEHOLDER, Alston S., Unitary triangularization of a symmetric
matrix, J. ACM, 5 (1958), 339342.
[41] HOUSEHOLDER, Alston S., The theory of matrices in numerical
analysis, Blaisdell Publishing Company, 1964
[42] ICHIM, Ion., si Gheorghe MARINESCU Metode de aproximarea
numeric
a, Editura Academiei Romane, 1986.
[43] ILIOI, Constantin, Probleme de optimizare si algoritmi de aproximare
a solutiilor, Editura Academiei Romane, 1980.
[44] IONESCU, Dumitru V., Cuadraturi numerice, Editura Tehnic
a
Bucuresti, 1957.
[45] IONESCU, Dumitru V., Diferente divizate, Editura Academiei Romane,
1978.
[46] ISSACSON Eugene & Herbert Bishop KELLER, Analysis of Numerical
Methods, John Wiley & Sons, Inc. 1966.
[47] JOLY, Patrick, Resolution numerique des grandes systemes lineaires,
Cours de D.E.A. 1990-1991.
[48] JOLY, Partick, Bases informatiques de la methode des elements finis,
D.E.A. dAnalyse Numerique 1991-1992.
[49] JORDAN, Camille, J. Math. pure appl. II, 19 (1874), 3554.
[50] KARLIN, S. and W. J. STUDDENT, Tchebycheff Systems: With
Applications in Analysis and Statistics, Interscience, New York, 1966.
[51] KREN, M. G., Lproblema v abstraktom linnom normirovannom prostranstve, 171 - 199 n volumul N. I. Ahiezer i M.
G. Kren, O nekotoryh voprosah teorii momentov, DNTVU,
Harkov, 1938

BIBLIOGRAFIE

211

[52] KUBLANOVSKAIA, V. N., On some algorithms for the solution of


complete eigenvalue problem, Zh. vych. mat. 1 (1961), 555-570.
[53] KUHN, H. Arhiv der Mathematik, 15 (1964), 316317.
[54] KURATOWSKI, Kazimierz, Introducere n teoria multimilor si n
topologie (traducere din limba polona), Editura tehnica, Bucuresti,
1969.
[55] LAURENT, PierreJean, Approximation et optimisation, Hermann,
Paris, 1972
[56] LEBESGUE, Henri, Sur lapproximation des functions, Bulletin des
Sciences mathematiqnes, 22 (1898), 278287.
[57] LERCH, M., Sur un point de la theorie des functions generatrice dAbel,
Acta Mathematica, 27 (1903), 339352.
[58] MARINESCU, Gheorghe, Analiz
a numeric
a, Editura Academiei
Romane, 1974.
[59] MARUSTER, Stefan, Metode numerice n rezolvarea ecuatiilor
neliniare, Editura Tehnic
a, Bucuresti, 1981.
[60] MICULA, Gheorghe, Functii spline si aplicatii, Editura Tehnic
a,
Bucuresti, 1978.
[61] MILNOR, John, Analytic proofs of the hairy ball theorem and the
Brouwer fixed point theorem, The American Mathematical Monthly, 85
(1978), 521 524.
[62] MITTAGLEFFER, G., Sur la representation analytique des fonctions
dune variable reelle, Randiconti circ. math. Palermo, 14 (1900), 217
224.

[63] MUNTH
, C. H. Uber
den Approximationssatz von Weierstrass. H.A.
Schwarz Festschrift, Math. Abh., Berlin (1914), 303312.
[64] NATANSON, Izidor Pavlovik Konstruktivna teor funkci, Gostehizdat, Moskva Leningrad, 1949
[65] NICOLESCU, Miron, Sur la meilleure approximation dune fonction
donnee, Bul. Fac. st. Cern
auti, 12, (1938), 120 128.

212

BIBLIOGRAFIE

[66] NICOLESCU, Miron, Soloman MARCUS, Nicolae DINCULEANU,


Analiz
a matematic
a, Editura Didactica si Pedagogic
a, Bucuresti, 1971.
[67] ORTEGA James M., & Robert J. PLEMMONS, Extention of the
Ostrowski-Reich theorem for SOR iterations, Linear algebra and its
applications, 28 (1979), 177191.

[68] PAVALOIU,
Ion, Interpolation dans des espaces lineaires normes et
applications, Mathematica, Cluj, 12(35) (1970), 149159.
[69] PERRON, O., Zur Theorie der Uber Matrizen, Math. Ann. 64 (1907),
248263.
[70] PICARD, Emile, Sur la repesentation approchee des functions, C. R.
Acad. Sci. Paris 112 (1891), 183186.
[71] PRENTER, Patricia M., Splines and Variational Methods, Wiley, New
York, 1975
[72] RALSTON, Anthony, A first course in numerical analysis, Mc Graw
Hill, Inc., New York, 1965
[73] RAVIART, Pierre-Arnaud et J. M. THOMAS, Introduction a lanalyse
numeriques des equations aux derivees partielles, Masson, Paris 1983
[74] RIVLIN, T., An Introduction to the Approximation of Functions,
Blaisdell Publ. Waltham, M.A., 1969
[75] ROSCA, Ioan, Numerical and Non Numerical Computing Techniques,
Curs International UNESCO, Bucuresti 1978.
[76] ROSCA, Ioan., Analiz
a Numeric
a Matriceal
a, Bucuresti 1997.
[77] ROS
CA, Ioan, Elemente de analiz
a neliniar
a, Bucuresti 1995.
[78] ROS
CA Ioan, Clase de functii speciale, Bucuresti 1996.
[79] ROS
CA, Ioan, Metode numerice pentru ecuatii cu derivate partiale,
Bucuresti, 1999.
[80] ROSCA, Ioan, Studiul convergentei numerice a unor metode iterative,
CCUB, 1974.

BIBLIOGRAFIE

213

[81] ROS
CA, Ioan and Mircea SOFONEA, A contractive method in the
study of nonlinear operators in Hilbert spaces, Studii si cercetari matematice, 46, 2(1994), 291 301.
[82] ROS
CA, Ioan and Mircea SOFONEA, Error estimates of an iterative
methods for a quasistatic elastic-viscoplastic problem, Applications of
Mathematics, 39, 6(1994), 401414.
[83] RUNGE, C., Zur theorie der eindeutingen analytishen Funkionen, Acta
Math., 6, 229-245, 1885

[84] RUNGE, C., Uber


die Darstellung wielk
urlicher Funktionen, Acta Math.
7, 387-392 1885
[85] SCHUMAKER, Larry L., Spline Functions: Basic Theory, Krieger
Publishing Company Malabar, Florida, 1993.
[86] SINGER, Ivan,Cea mai buna aproximare n spatii vectoriale normate
prin elemente din subspatii vectoriale, Editura Academiei Romane,
Bucuresti, 1967.
[87] STANCU, D.D, Quadrature formules with multiple gaussian nodes,
Siam. Numer. Anal. (1965), 129143.
[88] STEWART, G. W., Introduction to matrix computations, Academic
Press, 1973
[89] STONE, M.H., The generalized Weierstrass approximation theorem,
Math. Magazine, 21 (1948), 167-184 & 237-254.
[90] STRANG, Gilbert, Linear algebra and its applications, Academic Press,
1976
[91] STROUD, A. H., A Fifth Degree Integration Formula for the
nsimplex. SIAM J. Numer. Anal., 6 (1969), 9098.
[92] STROUD, A. H., Aproximate calculation of multiple integrals, Prentice
Hall, Englewood Cliffs, 1971.
[93] STROUD, A. H. and D. SECREST, Approximate calculation of multiple
integrals, Prentice Hall, Englewwood Cliffs, N. J., 1972

214

BIBLIOGRAFIE

[94] TANNEHILL, John C., Dale A. ANDERSON and Richard H.


PLETCHER, Computational Fluid Mechanics and Heat Transfer,
Taylor & Francis, 1997.
[95] URABE, Minoru, Convergence of numerical iteration in solution of
equations, J. Sci. Hiroshima Univ. ser. A, 19 (1956), 479-489.
[96] URABE, Minoru, Error estimation in numerical solution of equations
by iterations process, J. Sci. Hiroshima Univ. ser. AI, 26(1962), 79-91.
[97] URABE, Minoru, Componentwise error analysis of iterative methods
practiced on a flotingpoint system, Memoirs of the Faculty of Science,
Kyushu University ser. A, 27(1973), 23 64.
[98] VARGA, Richard S. Matrix iterative analysis, Pretince Hall, Englewood
Cliffs, N.J. 1962.
[99] VOLTERRA, Vito, Sue principio di Dirichlet, Rencliconti del circ. mat.
di Palermo, 11(1897), 8386.

[100] WEIERSTRASS, Karl, Uber


die analytiche Darstellbarkeit rogenannter willk
urlicher Funktionen einer reelen Ver
anderlichen. Sitz.-Ber.
Akad. d. Wiss. Berlin (1885), 633639 & 789805.
[101] WENDROFF, B., Theoretical numerical analysis, Academic Press,
New York, 1966.
[102] WILKINSON, James Hardy The Algebraic Eigenvalue Problem,
Clarendon Press, Oxford, 1972
[103] WILKINSON, J. H., Some recent advances in numerical linear algebra in: The state of the art in numerical analysis, (editor D. Jacobs),
Academic Press, 1977
[104] YOUNG, David M., Iterative solution of Large Linear Systems,
Academic Press, New York, 1971.
[105] YOUNG, David M., On the accelerated SSOR method for solving large
linear systems, Advances in Math. 23 (1977), 215271.
[106] YOUNG, David M. and Robert Tod GREGORY A survey of Numerical Mathematics, 2 vol., Addison-Wesley, Reading, Mass. 1975

S-ar putea să vă placă și