Documente Academic
Documente Profesional
Documente Cultură
CALCUL NUMERIC
Sisteme de ecuatii finit dimensionale
PREFATA
In ultimul timp, au aparut nevoi enorme de modele matematice tot
mai sofisticate si simulari pe calculator tot mai vaste si complexe.
In acest mod, doua activitati nedespartite modelarea matematica
si simularea pe calculator au cstigat un rol major n toate ramurile
stiintei, tehnologiei si industriei.
Pentru ca aceste doua activitati sa fie statornicite pe un teren
ct mai solid, rigoarea matematica este indispensabila. Din acest
motiv doua stiinte nrudite analiza numeric
a si softul stiintific
par etape esentiale n validarea modelelor matematice si simul
arile
pe calculator ce snt bazate pe acestea.
Prezentele note se adreseaz@a studen@tilor de la cursul de Calcul
Numeric.
Prin continut, aceaste note reflecta nu att preferintele autorului,
ci mai ales optiunile sale privitoare la tematica unui curs de calcul
numeric pentru studentii Facultatii de matematica si informatica.
Cartea poate fi utilizata de un cerc larg de cititori, fiind acesibila acelora care poseda cunostinte fundamentale de matematica
( analiza, algebra, geometrie, etc. ).
Aceasta carte a fost procesata de autor folosind programul LATEX
bine adaptat pentru prelucrarea textelor matematice.
Bucuresti 2011
Autorul
Cuprins
1 Sisteme de ecuatii liniare
1
11
12
1.1
12
1.2
21
1.3
Matrici particulare . . . . . . . . . . . . . . . . . . . .
28
Metode directe . . . . . . . . . . . . . . . . . . . . . . . . . .
40
2.1
Principii generale . . . . . . . . . . . . . . . . . . . . .
40
2.2
Metoda Gauss . . . . . . . . . . . . . . . . . . . . . .
43
2.3
Metode de factorizare . . . . . . . . . . . . . . . . . .
53
Metode iterative . . . . . . . . . . . . . . . . . . . . . . . . .
76
3.1
76
3.2
Metoda Jacobi . . . . . . . . . . . . . . . . . . . . . .
91
3.3
Metoda Gauss-Seidel . . . . . . . . . . . . . . . . . . .
95
3.4
4.2
4.3
4.4
4.5
CUPRINS
4.6
Metoda QR . . . . . . . . . . . . . . . . . . . . . . . . 163
173
5.2
Teoreme de existent
a a solutiilor . . . . . . . . . . . . 189
6.2
6.3
CUPRINS
Rezolvarea numerica a sistemelor de ecuatii cu un num
ar
finit de necunoscute, reale sau complexe, constituie una dintre
preocuparile cele mai importante, deoarece la o asemenea rezolvare
se reduc, de cele mai multe ori, aplicatiile tuturor domeniilor
matematicii.
Pentru sistemele liniare, desi teoretic lucrurile par destul de
simple, practica pune mereu noi probleme a caror rezolvare cere o
aprofundare a teoriei si o ingeniozitate deosebita.
Pentru sistemele neliniare, n general, nu exista metode directe de
rezolvare, fiind necesare studiul metodelor aproximative. De cele
mai multe ori in rezolvarea sistemelor neliniare se utilizeaza un sir
de sisteme liniare.
10
CUPRINS
Capitolul 1
Sisteme de ecuatii liniare
11
12
Elemente de analiz
a matricial
a
1.1
n
X
vi ei
i=1
v1
..
v= .
vn
si vom nota cu v T respectiv v urm
atorii vectorii linie
v T = (v1 , v2 , . . . , vn ),
v = (
v1 , v2 , . . . , vn )
unde, n general, cu
este notat conjugatul complex al num
arului . Vectorul linie v T este vectorul transpus al vectorului coloana v, iar vectorul
linie v este vectorul adjunct al vectorului coloana v.
Aplicatia (, ) : V V K definita prin
(u, v) = v T u = uT v =
n
X
i=1
ui vi
daca K = R
matriciala
1. Elemente de analiza
(u, v) = v u = u v =
n
X
ui vi
13
dac
aK=C
i=1
(vi , vj ) = ij =
1 daca i = j
0 daca i 6= j
Fie V si W doua spatii vectoriale peste acelasi corp K cu bazele (ej )j=1,n ,
respectiv (fi )i=1,m . Relativ la aceste baze o aplicatie liniara A : V W
este reprezentata printr-o matrice cu m linii si n coloane
m
X
aij fi ,
1jn
i=1
a1j
..
.
amj
al matricei A reprezinta vectorul Aej n baza (fi )m
am (ai1 ai2 . . . ain )
i=1 . Not
ceea de a i-ea linie a matricei A. O matrice cu m linii si n coloane se numeste
matrice de tip (m,n) si se noteaza Mm,n (K) sau simplu Mm.n , K-spatiul
vectorial format cu matricele de tipul (m, n) cu elemente din K. Un vector
coloana este deci o matrice de tipul (m, 1) iar un vector linie este o matrice
14
u Cn , v Cm
care implica (A )ij = aji . In acelasi mod, fiind data matricea A Mm,n (R)
se noteaza AT Mn,m (R) matricea transpus
a a lui A, definita n mod unic
prin relatia
(Au, v)m = (u, AT v)n u Rn , v Rm
care implica (AT )ij = aji .
Observatie. Se poate defini matricea transpusa a unei matrice complexe,
P
dar aceasta este o notiune mai putin interesant
a, aplicatia u, v ni=1 ui vi
nefiind un produs scalar n Cn .
La compunerea a doua aplicatii liniare corespunde nmultirea matricilor.
Daca A = (aik ) este de tipul (m, l) iar B = (bkj ) este de tipul (l, n), produsul
lor AB este o matrice de tipul (m, n) definita prin
(AB)ij =
l
X
aik bkj .
k=1
(AB) = B A .
Fie A = (aij ) o matrice de tipul (m, n). Prin submatrice a lui A se ntelege
o matrice de forma
ai1 j1 ai1 jq
ai2 j1 ai2 jq
.
..
.
.
.
aip j1 aip jq
unde intregii ik si jl verifica
1 i1 < i2 < < ip m,
matriciala
1. Elemente de analiza
15
W = W1 W2 WM
A=
A11
A21
..
.
A12
A22
..
.
A1N
A2N
..
.
= (AIJ )
AM 1 AM 2 AM N
fiecare matrice AIJ fiind de tipul (mI , nJ ) si reprezint
a o matrice asociata
unei aplicatii liniare din VJ in WI . Interesul unei asemenea descompuneri
pe blocuri este ca anumite operatii definite asupra matricelor ramn formal
aceleasi, coeficientii aij fiind nlocuiti prin submatricele AIJ .
Astfel, fie A = (AIK ) si B = (BKJ ) doua matrici, de tipul (m, l) respectiv
(l, n), descompuse n blocuri, descompunere ce corespunde indicelui K fiind
aceiasi pentru fiecare matrice. Atunci matricea AB admite descompunerea
n blocuri
X
AB = (CIJ ), cu CIJ =
AIK BKJ
K
M
X
wI ,
cu wI =
I=1
N
X
AIJ vJ
J=1
v=
v1
v2
..
.
vN
Av =
w1
w2
..
.
wM
wI =
N
X
J=1
AIJ vJ
16
(AT )1 = (A1 )T ,
(A )1 = (A1 ) .
matriciala
1. Elemente de analiza
17
- tridiagonal
a daca aij = 0 pentru orice |i j| > 1.
- superior Hessenberg dac
a aij = 0 pentru i j + 2.
- inferior Hessenberg daca aij = 0 pentru i j 2.
Urma unei matricii A = (aij ) este definita prin tr(A) =
si B snt doua matrici patrate atunci
Pn
i=1 aii .
Daca A
Sn
18
i (A),
det(A) =
i=1
i (A).
i=1
(1.1)
Invers, orice produs scalar pe Cn este de forma (1.1) unde A este o matrice
pozitiv definita. Pentru demonstratie sa notam cu (x, y) un produs scalar
matriciala
1. Elemente de analiza
19
(x, y) = (
xi ei ,
i=1
n
X
yj ej ) =
j=1
m X
n
X
aji xi yj = (Ax, y)
j=1 i=1
Jm () =
0
1
..
.
..
m1
20
Jn1 (1 )
P 1 AP =
0
0
Jn2 (2 )
..
Jnr (r )
matriciala
1. Elemente de analiza
21
de ordinul m astfel ca F = V AU s
a aib
a forma
F =
0
0
2
..
.
r
0
..
(1.2)
1.2
n
X
i=1
|vi |,
n
X
||v||2 = (
i=1
22
kAvk
= sup kAvk = sup kAvk
vKn ,v6=0 kvk
kvk1
kvk=1
sup
kAkF = (
i,j
matriciala
1. Elemente de analiza
23
1jn
n
X
|aij |,
i=1
kAk = max
1in
n
X
|aij |,
kAk2 =
(A A)
j=1
24
1 t12 t13
2 t23
1
..
U AU =
.
n1
t1n
t2n
..
.
tn1,n
n
unde scalarii i snt valorile proprii ale matricii A. Pentru orice scalar 6= 0
asociem matricea D = diag(1, , . . . , n1 ) astfel ca
1 t12 2 t13
2 t23
1
..
(U D ) A(U D ) =
.
n1
n1 t1n
n2 t2n
..
.
tn1,n
n
Fiind dat > 0, alegem num
arul astfel ca
n
X
| ji tij | ,
1in1
j=i+1
sup
||(U D )1 x|| =1
||x|| =1
||(U D )1 Ax|| =
||y|| =1
S2
S3
(1.3)
matriciala
1. Elemente de analiza
25
26
matriciala
1. Elemente de analiza
27
Conditia kBk < 1 se poate verifica usor n practica, pentru normele uzuale.
In legatura cu acest criteriu vom da si o conditie pentru ca o matrice perturbata sa ramna inversabila.
Teorema 1.6 Dac
a exist
a matricea A1 si o norm
a matricial
a cu kIk = 1
1
pentru care ||A || , ||A B|| , < 1 atunci, matricea B este
inversabil
a si kB 1 k /(1 ).
Demonstratie. Daca matricea A1 B este inversabil
a atunci si matricea
1
1
1
B = A(A B) este inversabil
a si are inversa B = (A B)1 A1 . Existenta
1
1
inversei (A B) rezulta din teorema precedent
a, pentru ca
A1 B =
I (I A1 B)
si
||I A1 B|| = ||A1 (A B)|| ||A1 || ||A B|| < 1
Tot de aici rezulta si majorarea k(A1 B)1 k 1/(1 ) deci
kB 1 || = ||(A1 B)1 A1 || ||(A1 B)1 || ||A1 || /(1 ).
2
Din teorema de mai sus se deduce ca multimea matricilor inversabile din
Mn (K) este deschisa n K-spatiul normat Mn (Kn ) si ca aplicatia AA1
este continua. Se poate demonstra un rezultat mai general si anume.
Teorema 1.7 Fie n un num
ar natural, D o multime din Kn si xA(x)
o aplicatie a multimii D n Mn (K) continu
a n punctul x0 D ( D fiind
considerat
a cu topologia indus
a de Kn ). Dac
a A(x0 ) este inversabil
a, atunci
exist
a r > 0 si M > 0 astfel nct pentru orice x D cu kx x0 k r,
matricea A(x) este inversabil
a si kA(x)1 k M. Aplicatia xA(x)1 este
continu
a n punctul x0 .
Demonstratie. Fie = ||A(x0 )1 || si 0 < < 1/. Aplicatia xA(x)
fiind continua n punctul x0 , exista r > 0 astfel nct kA(x) A(x0 )k
pentru orice x D cu ||x x0 || r. Din Teorema 1.6 rezulta ca A(x)
este inversabila si kA(x)1 k M , unde M = /(1 ). Continuitatea
aplicatiei xA(x)1 rezulta din continuitatea aplicatiei xA(x) si din
kA(x)1 A(x0 )1 k = kA(x)1 [A(x0 )A(x)]A(x0 )1 k M kA(x)A(x0 )k.
28
||B k ||
1
((B) + )k
1.3
Matrici particulare
B11 B12
0 B22
matriciala
1. Elemente de analiza
29
X
i=0
30
k = 1, 2, . . .
Cum limk Ak1 = 0 rezulta limk B1k = 0, deci (B1 ) < 1 si prin urmare
(B) < +. Deoarece a fost arbitrar rezulta (B) adic
a (B) (A).
2
In studiul matricelor nenegative urmatorul rezultat, dat n 1907 de Perron
[69] pentru matrici pozitive si completat apoi n 1912 de Frobenius [26]
pentru matrici nenegative, este fundamental.
Teorema 1.12 (PerronFrobenius) Dac
a A Mn (R) este o matrice
nenegativ
a ireductibil
a, atunci:
(i) Matricea A admite o valoare proprie real
a pozitiv
a egal
a cu raza sa
spectral
a (A).
(ii) Pentru valoarea proprie (A) exist
a un vector propriu x > 0 ( xi > 0,
i = 1, . . . , n ).
(iii) Raza spectral
a (A) creste dac
a unul din elementele matricei A creste.
(iv) (A) este o valoare proprie simpl
a pentru matricea A.
Un rezultat important privind matricele nenegative este dat de teorema
urmatoare.
Teorema 1.13 (SteinRosenberg) Dac
a B 0, B = L + U cu L strict
inferior triunghiular
a si U superior triunghiular
a, iar C = (IL)1 U atunci
una si numai una din asertiunile urm
atoare este adev
arat
a.
1) (B) = (C) = 0;
2) 0 < (C) < (B) < 1;
3) 1 = (B) = (C);
4) 1 < (B) < (C).
matriciala
1. Elemente de analiza
31
P
j6=i
|aij |
1 i n.
P
j6=i
|aij |
1 i n.
diagonal dominant
a ireductibil
a dac
a
(1) A este ireductibil
a;
(2) A este diagonal dominant
a;
P
(3) exist
a i {1, . . . , n} astfel ca |aii | >
|aij |.
j6=i
X
j6=i0
ai0 j xj | |xi0 ||
X
j6=i0
|ai0 j |
32
|ai0 j |
j6=i0
sA1 = I
B B2
B 1
= I + + 2 +
s
s
s
n
X
j=1
j6=i
Cum aij 0 j 6= i si (A1 )ji 0 rezulta aii (A1 )ii > 0. In plus, din
(A1 )ii 0 rezulta aii > 0 si (A1 )ii > 0.
3) Matricea A fiind diagonal dominant
a ireductibila avem
X
|aij | |aii | i I
(1.5)
j6=i
(1.6)
j6=i0
X
k6=j
|ajk ||xk |
matriciala
1. Elemente de analiza
de unde
|ajj |
|ajk |
k6=j
33
|xk | X
<
|ajk |.
|xj | k6=j
|bij | 1 i I
jI
si ca exista i I astfel ca
|bij | < 1
jI
bij xj = xi i I.
j=1
j=1
n
X
|bij ||xj |
j=1
deoarece
kxk = |xi | = || |xi | = |xi | = |
n
X
bij xj |
j=1
si
n
X
|bij | 1 deci
j=1
n
X
j=1
n
X
j=1
|bij | |xj |
34
n
X
aij xj
i I
j=1
fie
( aii )xi =
aij xj
i I.
j6=i
n afara cazului n care = 0 unde avem posibil egalitate, dar aceasta este
exclus caci A este inversabila.
2
O matrice A Mn (R) se zice diagonal dominant
a n sens generalizat
( strict diagonal dominant
a n sens generalizat ) daca exista o matrice diagonala E avnd elementele diagonale strict pozitive astfel ca matricea E 1 AE
sa fie diagonal dominanta ( strict diagonal dominant
a ).
Propozitia 1.5 Dac
a A = (aii ) Mn (R) este o matrice strict diagonal
dominant
a n sens generalizat atunci A este nesingular
a si aii 6= 0 pentru
orice 1 i n.
matriciala
1. Elemente de analiza
35
|(AD)ij | 1 i n
j6=i
deci
|aii |xi >
|aij |xj
1in
j6=i
36
B 1
B B2
) = I + + 2 +
s
s
s
I
sau nca
sA1 = I
B
B k+1
+ . . . + k+1
s
s
B
B k+1
Sk = I k+1
s
s
B 1
B 1 B k+1
= Sk + I
.
s
s
sk+1
Fiecare element a lui Sk este un sir crescator marginit deci convergent. Seria
(1.6) converge ceea ce, utiliznd Teorema 1.4, implica (s1 B) < 1.
2) Daca A este strict diagonal dominant
a n sens generalizat, exista o matrice
diagonala D cu elemente diagonale strict pozitive astfel ca AD s
a fie strict
diagonal dominanta. In plus (AD)ij 0 pentru i 6= j, deoarece (AD)ij =
aij xj . Folosind punctul 1) din Propozitia 1.4 rezulta ca (AD)ii > 0 deci AD
este o M - matrice si la fel A este o M -matrice. Reciproc fie A o M -matrice
nesingulara. Atunci avem aij 0 i 6= j si aii > 0 iar din Propozitia
1.4 punctul 2) rezulta A1 0. Fie vectorul e definit prin eT = (1, . . . , 1)
P
si x = A1 e. Este clar ca x > 0, caci daca xi = 0 avem 0 = j (A1 )ij de
matriciala
1. Elemente de analiza
37
aij xj > 0
j6=i
|aij |xj
j6=i
38
(Av, v)
v Av
= ,
(v, v)
v v
v 6= 0
numita ctul Rayleigh al matricei A. Notam ca daca matricea A este hermitiana, RA are valori reale. Remarcam n plus RA (v) = RA (v) pentru orice
C \ {0}. In consecinta {RA (v); v V } = {RA (v); v V, v v = 1}.
a de ordinul n, cu valorile proprii
Teorema 1.15 Fie A o matrice hermitian
1 2 n , iar vectorii propri asociati p1 , . . . , pn verificnd pi pj =
ij . Pentru k = 1, . . . , n, not
am Vk subspatiul din V generat de vectorii pi ,
1 i k si not
am Vk multimea subspatiilor k-dimensionale din V . Lu
am
V0 = {0} si V0 = {V0 }. Valorile proprii admit caracteriz
arile urm
atoare,
pentru k = 1, 2, . . . , n
1) k = RA (pk )
2) k = max RA (v)
vVk
3) k = min RA (v)
vVk1
Prin urmare
matriciala
1. Elemente de analiza
39
6) {RA (v), v V } = [1 , n ] R
Demonstratie. Fie U matricea unitara a caror coloane snt vectorii proprii
p1 , . . . , pn astfel ca U AU = diag(1 , . . . , n ) = D, si fie v un vector nenul
din V . Punnd v = U w avem
w U AU w
w Dw
v Av
=
=
= RD (w).
v v
w U U w
w w
RA (v) =
RA (
i p i ) =
i=1
k
X
k
X
i |i |2 /
i=1
|i |2
i=1
RA (
n
X
i pi ) = (
i=k
n
X
i |i |2 )/(
i=k
|i |2 )
i=k
W Vk vW
v (W Vk1
{0})=k RA max RA (v).
vW
Cum
dim(W Vk1
) = dim(W ) + dim(Vk1
) dim(W + Vk1
)
40
unde
W + Vk1
= {z V ; z = w + v, w W, v Vk1
}
relatiile
dim(W ) = k,
dim(Vk1
) = n k + 1,
dim(W + Vk1
) dim(V ) = n
) 1. Relat
arata ca dim(W + Vk1
ia (5) se demonstreaza analog. In sfirsit
relatia (6) decurge din inegalitatile 1 RA (v) n pentru orice v
V \ {0} (consecinta a inegalitatilor (2) si (3) ), din continuitatea restrictiei
aplicatiei RA la sfera unitate {v V ; v v = 1} a lui V , si din conexitatea
acestei sfere unitate.
2
Remarca 1.1
Din (3) si (2) rezult
a: 1 = min{RA (v); v V },
n = max{RA (v); v V }
Metode directe
2.1
2. Metode directe
41
1mN
si chiar daca N este superior lui n (ordinul matricii A), este preferabil sa
nu se calculeze A1 n acest mod, ci sa se descompuna A ntr-un produs de
tipul A = L U unde L este o matrice inferior triunghiulara iar U este o
matrice superior triunghiulara.
Daca este nevoie sa se calculeze inversa A1 pentru o matrice A, ca de
exemplu n cazul estimarii unor parametrii n problemele statistice, sau pentru determinarea normei unei matrici, procedam ca n (2.1).
b) In ceea ce priveste regula lui Cramer, vom demonstra ca este imposibil
de utilizat n cazurile ce apar n practica. Trebuie sa se calculeze n + 1
determinanti de ordinul n; calculul fiecarui determinant cere n general pn n!
nmultiri, cnd se calculeaza minorii, unde
pn =
n
X
1
(j 1)!
j=2
(2.2)
+
+
u1n xn
u2n xn
..
.
= b1
= b2
42
n
X
uij xj )/uii ,
i = n, n 1, . . . , 1.
j=i+1
2. Metode directe
43
i1
X
a
b
/aii
ik
kj
bij =
j<i
i = 1, 2, . . . , n
k=j
1/aii
j=i
M
N
N
M
y
z
p
q
2.2
Metoda Gauss este cea mai utilizata metoda directa de rezolvare a sistemelor
liniare.
Metoda Gauss de eliminare
Metoda Gauss este o metoda generala de rezolvare a sistemelor liniare
Ax = b, A matrice inversabila. Aceasta metoda comporta 3 etape:
(i) eliminarea succesiva a necunoscutelor, echivalent
a cu determinarea
unei matrici inversabile M astfel ca matricea M A sa fie superior
triunghiulara;
44
I(i,k) =
..
.
1
0
1
1 0 0
.. .. . .
. .
. .. ..
. .
0 0 1
1
0
1
..
.
1
Lund
(
P =
I
daca a11 este pivotul, si atunci det(P)=1
I(1,i) daca ai1 , i 6= 1 este pivotul, si atunci det(P ) = 1
2. Metode directe
45
si matricea
P A = (ij )
(2.4)
i1
11
2 j n.
1
m21
E = N1 = ..
.
..
mn1
11
0
B = ..
.
0
12
b22
..
.
1n
b2n
..
.
bn2
bnn
(1)
(2)
46
forma
(1)
11
Ak =
(1)
(2)
(1)
1,k1
(1)
1k
(1)
(2)
..
.
2,k1
..
.
(k1)
k1,k1
(2)
2,k
..
.
(k1)
k1,k
(2)
0
..
.
(k)
akk
(k)
akn
..
.
ank
ann
12
22
1n
2n
..
.
(k1)
k1,n
(k)
..
.
(k)
(k)
(k)
Ik1
m
1
k+1,k
Ek = Nk =
..
..
.
.
mnk
2. Metode directe
47
+u2 = 1,
9990u2 = 9990,
pentru ca numerele (104 + 1) = 9999 si (104 + 2) = 9998 snt rotunjite la acelasi numar 9990. Solutia asit
an acest mod u1 = 0, u2 = 1
este foarte departe de solutia exacta ! Din contr
a, daca ncepem prin permutareacelor doua ecuatii, adica alegem drept pivot a21 = 1 sntem condusi
la calculele urmatoare
(
[1]u1 +u2 = 2,
104 u1 +u2 = 1,
u1
+u2 = 2,
0.999u2 = 0.999
48
Pivotare partial
a.
Pivotul este unul dintre elementele aik ,
k i n, care verifica
(k)
(k)
(k)
Pivotarea total
a.
Pivotul este unul dintre elementele aij ,
k i, j n, care verifica
(k)
|aij |,
i = 1, 2, . . . , n
(2.5)
j6=i
(1)
aii = aii
(1)
ai1
a
(1) 1i
a11
= aii
ai1
a1i
a11
2. Metode directe
49
si
(2)
aij
(1)
(1)
aij
ai1
astfel
a
(1) 1j
a11
= aij
(2)
|aij |
j6=i
j2
ai1
a1j ,
a11
|aij | +
j6=i
j2
(|aii | |ai1 |) +
(2)
j > 2,
ai1 = 0, i > 0
|ai1 | X
|a1j |
|a11 | j6=i
j2
|ai1 |
|ai1 |
(2)
(|a11 | |a1i |) = |aii |
|a1i | |aii |
|a11 |
|a11 |
deoarece
(2)
|aii | |aii | +
|ai1 |
|a1i |
|a11 |
(k)
|aij |
n
X
j=1,j6=i
(k)
|aij |
j=k,j6=i
n
X
(k1)
|aij |
j=k,j6=i
(k1)
(k1)
|aij |
j=k,j6=i
n
X
|ai,k1 |
(k1)
|ak1,k1 |
n
X
(k1)
|ai,k1 |
(k1)
j=k,j6=i |ak1,k1 |
n
X
(k1)
|ak1,j |
(k1)
|ak1,j |
j=k,j6=i
(k1)
n
X
(k1)
|aij |
j=k,j6=i
|ai,k1 |
(k1)
|ak1,k1 |
(k1)
k1)
(|ak1,k1 | |ak1,i |)
(k1)
(k1)
|aii
|
(k1)
|ai,k1 |
(k1)
|ai,k1 |
|ai,k1 |
(k1)
|ak1,k1 |
(k1)
(k)
|ak1,i | |aii |
2
(2.6)
50
(k)
aij = aji
k i, j n
(2.7)
aij
(k)
(k)
(k)
(k)
aik
(k)
akk
(k)
akj
(k+1)
aij
(k)
aji
ajk
(k)
akk
(k)
(k)
(k)
(k+1)
0 < det
de unde rezultatul cerut.
aii aij
aji ajj
2. Metode directe
51
Num
arul operatiilor elementare n metoda Gauss
Sa calculam numarul de operatii elementare necesare n metoda Gauss.
(i) Eliminare Pentru a trece de la matricea Ak la matricea Ak+1 ,
1 k n 1 efectuam (n k) mp
artiri, (n k + 1)(n k) adunari si
tot attea nmultiri, deci n total
n1
X
(n k + 1)(n k) =
k=1
n1
X
(n k + 1)(n k) =
k=1
n1
n(n 1)
(n k) =
n3 n
3
adunari
n3 n
3
nmultiri
mp
artiri
k=1
n(n 1)
adun
ari
(n 1) + (n 2) + + 1 =
n(n 1)
(n 1) + (n 2) + + 1 =
nmultiri
n(n 1)
adunari
n(n 1)
2
inmultiri
mp
artiri
n(n 1)(n + 4)
n(n 1)(n + 4)
n(n + 1)
adun
ari
inmultiri
mp
artiri
52
(n + 1)! (n + 1) adunari
900
400 000 000
Fara comentarii !
Metoda Gauss-Jordan
Metoda Gauss este cea mai utilizata metoda pentru rezolvarea sistemelor
liniare a caror matrice nu au proprietati particulare. O metoda aseman
atoare
metodei Gauss este metoda Gauss-Jordan. In loc sa caut
am o matrice M
astfel ca matricea M A sa fie superior triunghiulara ( A fiind matricea inversabila data), cautam o matrice M astfel ca matricea M A sa fie diagonala.
Rezultatul etapei (k 1) de eliminare este atunci o matrice de forma
Ak = Ek1 Pk1 E1 P1 A =
(1)
a11
(k)
(2)
a22
(k)
a1k a1k
(k)
(k)
a2k a2k
..
..
..
.
.
.
(k)
(k)
akk akn
..
..
.
.
(k)
ank
(k)
(k)
ann
2. Metode directe
53
(k)
k ) = P A s
ca kk (adica pivotul ales) al matricii (ij
k k a fie diferit de zero.
Matricea Ek este atunci de forma
Ek = Sk =
(k)
1
..
m1k
..
.
1 mk1,k
1
mk+1,k 1
..
..
.
.
k
mn,k
1
(k)
1jn
1jn
2.3
54
a11 a1k
..
.. ,
4k = .
.
ak1 akk
1kn
s
a fie inversabile. Atunci exist
a o matrice inferior triunghiular
a L = (lij ) cu
lii = 1, 1 i n si o matrice superior triunghiular
a U astfel ca A = LU .
In plus, aceast
a factorizare este unic
a.
Demonstratie. Vom demonstra pentru nceput unicitatea factorizarii LU.
Presupunem ca exista doua asemenea factorizari A = L1 U1 = L2 U2 .
Deducem
L1
2 L1 =
1
x 1
..
.
x x x
x x
1
=
..
..
..
= U2 U1 .
.
. .
x x 1
x
1
Or aceasta egalitate nu este posibila dect daca L2 L1
1 = U2 U1 = I, de
unde L1 = L2 si U1 = U2 .
4k =
4k1
cT
b
akk
Lk =
Lk1
lT
0
1
Uk =
Uk1
0
u
ukk
2. Metode directe
55
lT Uk1 = cT ,
Lk1 u = b,
lT u + ukk = akk
1
x 1
.. .. . .
.
. .
x x 1
.. ..
..
.
. .
x x 1
(1)
a11
a11
.
..
ak1
..
.
a1k x
..
4k
.
akk
=
x
(1)
a1k x
..
..
.
.
(k)
akk x
..
56
A=
0 1
1 1
LU =
l11
l21
0
l22
u11
0
u12
u22
l11 u11
l21 u11
l11 u12
l21 u12 + l22 u22
=A
Rezulta ca, sau l11 = 0 sau u11 = 0. Dar atunci, sau prima linie sau prima
coloana devine zero astfel ca A 6= LU .
Notam ca daca n acest exemplu liniile matricii A snt permutate atunci matricea devine triunghiulara, astfel descompunerea LU n mod evident exista.
Teorema 2.3 Eliminarea gaussian
a si factorizarea LU snt echivalente.
Demonstratie. Presupunem, la nceput, ca matricea A are proprietatea ca
eliminarea gaussiana poate fi facut
a far
a permut
ari de lini si coloane. In
procesul de eliminare obtinem un sir de matrici A = A1 , A2 , . . . , An , unde
Ak este de forma
Ak =
a11
(1)
a12
(1)
(1)
a1k
a22
..
.
a2,k1
..
.
(2)
a1n
(2)
a1,k1
(1)
a2k
..
.
a2,n
..
.
(k1)
(k1)
ann
(2)
ak1,k1 ak1,k
(k)
0
..
.
akk
..
.
ank
(k)
(1)
(k1)
ak1,n .
(k)
akn
..
(2)
(k)
(j+1)
aij = = aij
= 0,
i > j.
2. Metode directe
57
(k)
aij
k=1
r
X
(k)
aij =
(r+1)
aij
aij =
k=1
r
X
(k)
mik akj
k=1
(i)
aij
aij =
i1
X
(k)
ij
(k)
i>j
mik akj
k=1
j
X
mik akj
k=1
i = 1, . . . , n
p
X
mik akkj ,
p = min(i, j)
k=1
(k)
(U )kj = akj , k j.
Concludem ca elementele matricei L snt multiplicatorii din eliminarea gaussiana iar U este matricea triunghiulara finala obtinut
a prin eliminarea gaussiana. Deci pentru a obtine matricea L trebuie sa pastr
am multiplicatorii
(k) (k)
mik . Aceasta poate fi usor facut
a la un calculator. Deoarece mik = aik /akk
(k+1)
(k)
este determinat astfel ca aik
devine zero, putem rescrie mik peste aik . De
asemenea, elementele de pe diagonala principala a lui L nu trebuie memorate. Deci nu este nevoie de memorie suplimentar
a si efectul eliminarii poate
fi reprezentat prin
a11
a21
..
.
a1n
a2n
..
.
an1
ann
an1,1
u11
l21
..
.
ln1,1
an1,n
ln1
u12
u22
..
.
..
.
u1,n1
u2,n1
..
.
ln1,2 un1,n1
ln2
ln,n1
u1n
u2n
..
.
un1,n
unn
58
(k)
k = 1, . . . , n
(2.8)
Scheme compacte
Prin urmare, eliminarea gaussiana poate continua far
a inversarea linilor si
coloanelor daca si numai daca det(k ) 6= 0, k = 1, . . . , n 1, care este
conditia din Teorema 2.2.
Stim ca eliminarea gaussiana poate fi instabila fara pivotare partial
a, astfel
liniile snt permutate n procesul de eliminare. Este important de notat ca
aceste schimbari de linii fac doar sa obtinem L si U astfel ca A0 = LU , unde
matricea A0 se obtine din matricea A prin permutarea liniilor.
Acum, vom arata cum descompunerea LU se foloseste n practica pentru rezolvarea sistemului Ax = b. Efectuam eliminarea gaussian
a n A cu pivotare
partiala, si salvam indicii pentru liniile pivot ntr-un vector (p1 , p2 , . . . , pn1 ).
Multiplicatorii mik sint memorati asa cum am aratat anterior, si notam ca si
acestia iau parte n permutarea liniilor. Dupa eliminare, aplicam schimbarea
liniilor lui b prin
k pk , k = 1, 2, . . . , n 1
care ne da un vector b0 . In sfrsit, rezolvam doua sisteme triunghiulare
Ly = b0 , U x = y.
Observatie.
Cel mai bun mod de-a determina determinantul unei matrici A este efectuarea eliminarii gaussiene pentru A si apoi folosind (2.8) cu n = k. Remarcam
ca daca am efectuat schimbari de lini sau coloane trebuie nmultit rezultatul
cu (1)s unde s este egal cu num
arul total de schimb
ari.
2. Metode directe
59
b1 c1
a2 b2
A=
..
cn1
c2
.
..
..
an1 bn1
an
bn
o matrice tridiagonal
a. Definim sirul
0 = 1, 1 = b1 , k = bk k1 ak ck1 k2 , 2 k n.
Atunci k = det(k ), unde k se obtine din A lund primele k linii si
primele k coloane. Dac
a numerele k , 1 k n, snt toate diferite de zero,
factorizarea LU a matricei A are forma
A=
1
0
a2
1
1
1
a3
2
1
..
..
.
n2
an
n1
1
0
c1
2
1
c2
3
2
..
..
cn1
n1
1
= b1 ,
0
(LU )kk =
(LU )k,k1 = ak , 2 k n,
1k n1
ak ck1 k2 + k
, 2kn
k1
(LU )kl = 0, |k l| 2
60
c1 /z1
a
c2 /z2
2
..
..
1 z1
z2
..
.
..
.
1
zn1
c1
k1
, zk =
, 2 k n. Atunci, solutia sistemului liniar Av = d
b1
k
se obtine construind succesiv trei siruri (zk ), (wk ), (vk ) prin
cu z1 =
z1 =
c1
,
b1
zk =
ck
, k = 2, . . . , n
bk ak zk1
zk
dk ak wk1
d1
, wk = (dk ak wk1 ) =
, k = 2, . . . , n
b1
ck
bk ak zk1
vn = wn , vk = wk zk wk+1 , k = n 1, n 2, . . . , 2, 1
w1 =
2. Metode directe
61
In plus, dac
a elementele diagonale bii ale matricei B snt alese pozitive atunci
descompunerea A = BB T este unic
a.
Demonstratie. a) Daca putem factoriza A ntr-un produs A = B B T cu
B nesingulara (ca este triunghiulara sau nu, nu intervine n aceasta parte a
demonstratiei), atunci pentru orice vector x 6= 0
xT Ax = xT B B T x = (B T x)T (B T x) > 0
pentru ca B T x 6= 0. Matricea A este n mod necesar pozitiv definita.
b) Notam 4k submatricile (simetrice) cu elementele (aij ) 1 i, j k ale
matricei A = (aij ). Daca w = (w1 , . . . , wk ) este un vector arbitrar din Rk ,
putem scrie ca wT 4k w= v T Av, cu v = (v1 , . . . , vn ),unde vi = wi pentru
1 i k si vi = 0 pentru k + 1 i n, ceea ce arata ca matricele 4k snt
pozitiv definite si deci inversabile. Prin aplicarea Teoremei 2.2 putem scrie
1
x
A = LU = ..
.
x
1
.. . .
.
.
x 1
u11
x
u22
..
.
x
x
..
.
unn
Q
si toate numerele uii snt pozitive pentru ca ki=1 uii = det(4k ) > 0,
u11
u11
x
x
u22
u22
x
= .
..
.
.
.
..
..
..
..
.
unn
unn
x
x
C(B T )1
1 x x
1
x
1
=
.=.
..
. .. ..
1
x
.. . .
= B 1 C T
.
.
x 1
62
b11
b12
B = ..
.
b22
..
.
bn1
bn2
..
.
bnn
n
X
min(i,j)
bik bjk =
k=1
bik bjk
(1 i, j n)
(2.10)
k=1
i
X
bik bjk
1ijn
(2.11)
k=1
de unde
de unde
b11 = a11
a12
b21 =
b11
de unde
bn1 =
a1n
b11
2. Metode directe
63
(j = i) aii =
i
X
b2ik
bii = aii
k=1
i
X
(j = i + 1) ai,i+1 =
i
X
b2ik
k=1
k=1
(j = n) ai,n =
i1
X
bn,i = (ai,n
k=1
i1
X
k=1
..
.
bik bn,k
1/2
i1
X
k=1
bii = aii
i1
X
b2ik
1/2
k=1
bji = aji
i1
X
k=1
j = i + 1, . . . , n
, i = 1, n.
1)(n
i
+
1)
=
n(n
1)(n
+
1)/6
adun
a
ri
s
i
tot
at
tea
nmult
iri.
i=2
ii)-iii) Rezolvarea sistemelor By = b, B T x = y necesit
a n(n 1) adunari
n(n 1) nmultiri si 2n mpartiri.
64
n3 + 6n2 7n
n2 + 3n
adunari
nmultiri
mp
artiri
extrageri de rad
acini patrate
Q A=
R
0
(2.12)
2. Metode directe
65
dupa cum A este pozitiva sau negativa. Fie acum m > 1 si fie o partitie a
lui A de forma
A = (a1 , A2 ), a1 Rm
Fie U = (y, U1 ) o matrice ortogonala cu
(
y=
a1 /ka1 k2 , a1 6= 0
e1 ,
a1 = 0
rT
T
U A=
0 B
unde = ka1 k2 , r = AT2 y, B = U1T A2 Mm1,n1 (R). Din ipoteza de
astfel ca
inductie exista o matrice ortogonala Q
Q B=
R
0
Q=U
1 0
0 Q
R=
rT
0 R
2
Observatie. Demonstratia teoremei de mai sus da o cale de a construi
Q si R daca putem construi matricea ortogonala U = (y, U1 ) dndu-se
prima coloana. Exista mai multe modalitati de a efectua aceasta constructie
folosind transformari ortogonale elementare.
Teorema 2.7 Fie A Mm,n (R) avnd rangul n. Atunci factorul R al matricei A are elementele diagonale pozitive si este factorul Cholesky al matricei
AT A.
Demonstratie. Daca rang(A) = n atunci factorul Cholesky al matricei
AT A este unic. Din (2.12) rezulta ca
A A = (R , 0) Q Q
R
0
= RT R
66
(2.13)
A = (Q1 , Q2 )
R
0
= Q1 R,
Q1 = A R1
(2.14)
Im(A)T = Im(Q2 )
PIm(A)T = Q2 QT2
2
=DR
si R
r22 r2n
(a1 , a2 , . . . , an ) = (q1 , q2 , . . . , qn )
..
..
.
.
rnn
Egalnd coloanele obtinem
aj =
j
X
i=1
rij qi ,
j = 1, 2, . . . , n
2. Metode directe
67
i = 1, 2, . . . , j 1
(2.15)
Daca rang(A) = n, atunci, din Teorema 2.7 rjj > 0 si putem determina qj
qj = qj /rjj ,
j = aj
Q
j1
X
rij qi
(2.16)
i=1
j1
X
rij qi
i=1
rjj := (
qj qj )1/2
qj := qj /rjj
Observatie
Descompunerea A = Q1 R nu este altceva dect procedeul de ortonormalizare
Gram-Schmidt aplicat vectorilor coloana ai matricei A.
Remarcam de asemenea, ca procedeul descris mai sus nu este un procedeu
de calcul eficient, caci el este numeric instabil.
In practica se utilizeaza procedee bazate pe transformarile Householder si
Givens pentru factorizarea matricei A.
68
(2.17)
= kak2 .
(2.18)
= 2/uT u
H T = H,
H2 = I
adica H(u) este o matrice simetrica ortogonala. Produsul unei matrici H(u)
cu un vector a poate fi calculat far
a a forma explicit matricea H(u) ci numai
utiliznd vectori u si a, deoarece
H(u)a = a (uT a)u
2. Metode directe
69
u6
a
1
PP
PP
PP
-W
PP
PP
H(u)a
PP
PP
q
P
Figura 2.1:
Vectorul H(u)a este reflectarea vectorului a n hiperplanul W ortogonal pe
u, adica
W = {w; (u, w) = 0}
vezi Figura 2.1. Notam ca H(u)u = u si H(u)a sp{a, u}.
Daca A = (a1 , . . . , an ) Mm,n (R) iar u Rm , u 6= 0 atunci
H(u)A = (H(u)a1 , . . . , H(u)an ),
H(u)aj = aj (uT aj )u
= 2/uT u
70
Demonstratie. T
innd seama de definitia matricei H(u) avem
H(u)a = a
2(a, u)
u
(u, u)
pentru orice vector nenul u si pentru orice vector a. Lund pe pozitia lui u
vectorul a kak2 b obtinem pentru nceput ca a kak2 b este diferit de zero,
deoarece a si b snt vectori liniar independenti, deci
H(a kak2 b)a = a
2(a, a kak2 b)
(a kak2 b) = kak2 b
(a kak2 b, a kak2 b)
Observatii.
1) Daca ni=2 |ai | > 0, exista o matrice H astfel ca ultimele (n 1)componente ale lui Ha sa fie nule. Din teorema anterioar
a cum vectorii
b = e1 = (1, 0, . . . , 0)T si a = (a1 , . . . , an )T snt liniari independenti rezulta
ca
H(a kak2 e1 )a = kak2 e1
de unde rezultatul cerut.
2) Daca a = (1 , . . . , m )T este un vector necoliniar cu e1 = (1, 0, . . . , 0)
lund
u = a e1 , = kak2
(2.19)
obtinem H(u)a = e1 .
Cum uT u = (a e1 )T (a e1 ) = 2 21 + 2 = 2( 1 ) astfel ca =
2/uT u = 1/((1 )). Din motive de stabilitate alegem u = a+sgn(1 )e1
care da
= 1/(( + k1 k)).
(2.20)
Vom descrie acum cum se poate obtine factorizarea QR a unei matrici A din
Mm,n (R) de rang n utiliznd un sir de transformari Householder. Incepnd
cu A(1) = A calculam un sir de matrici (A(k) ), k = 2, . . . , n + 1. Matricea
A(k) este deja superior triunghiulara n primele sale (k 1) coloane, adica
are forma
(k)
!
(k)
R11 R12
(k)
A =
(2.21)
(k)
A22
0
2. Metode directe
71
(k)
(k)
A22 = (
ak , . . . , a
(k)
n )
atunci
k) =
Pk = diag(Ik1 , H
Ik1 0
k
0
H
unde
ka
H
(k) = k e1 ,
k = rkk = k
a(k) k2 .
(2.22)
(k)
(k)
(n+1)
Pn Pn1 . . . P2 P1 A = A
R
0
si deci
Q = (Pn . . . P2 P1 )T = P1T P2T . . . PnT .
k care satisface (2.22),
Cheia constructiei este gasirea matricei ortogonale H
(k)
dar aceasta este tocmai problema standard (2.17) cu a = a
k . Folosind
k ca matrice Householder obtinem
(2.19) si (2.20) pentru construirea matricei H
urmatorul algoritm.
ALGORITM ( factorizarea QR prin metoda Householder )
Se da o matrice A(1) = A Mm,n (R) de rang n. Urmatorul algoritm
calculeaza R si matricea Pk
k ),
Pk = diag(Ik1 , H
Hk = I k u
(k) u
(k)T , k = 1, . . . n
astfel ca Q = P1 P2 Pn si QT A =
pentru k = 1, 2, . . . , n
R
0
72
(k)
:= k
ak k2
:= ak (k)
(k)
:= u1 (k) + sgn(akk k
(k)
:= 1/(k (k + |akk |))
(k)
:= sgn(akk )k
pentru j = k + 1, . . . , n
kj
rkj
(k+1)
aj
(k)
:= (
u(k)T a
j ) k
(k)
= aj kj u
(k) .
k = 1, . . . , n.
Q1 = Q
In
0
Q2 = Q
0
Imn
R() =
c s
s c
c = cos , s = sin .
2. Metode directe
73
In ndimensiuni, matricea reprezentnd o rotatie n planul generat de vectorii unitari ei si ej , i < j este de forma
Rij () =
1
..
.
1
c
..
.
..
..
.
1
.
1
c
1
..
.
1
det
c1
s
s c 1
= 2(1 c) 6= 0
1 k n.
74
Q A=
R
0
r11
0
..
.
a012
a022
..
.
a0mn a0mn
a01n
a02n
..
.
La fiecare rotatie s-a modificat numai prima linie si linia considerata, adica
se conserva zeroul deja creat. In continuare punem zerouri n coloana 2
ncepnd cu pozitia (3, 2). etc.
2
Este esential sa notam ca matricea Rij () nu este nevoie sa fie formata explicit, dar trebuie sa se memoreze numerele c = cos si s = sin . Cnd
un numar mare de rotatii este necesar sa fie memorate este mai economic
sa memoram doar un singur num
ar. Pentru o stabilitate numeric
a mai
buna poate fi utilizata schema proiectata de Stewart n 1976. Ideea este
sa memoram c sau s si anume cel care este mai mic. Pentru a distinge ntre
cele doua cazuri vom memora un num
ar definit astfel
1,
sgn(c)s,
sgn(s)c,
dac
ac=0
dac
a |s| |c| .
dac
a |c| |s|
2. Metode directe
75
QT A =
R
0
pentru k = 1, 2, . . . , n
pentru j = k + 1, . . . , n
c
s
A
76
Metode iterative
Prin metod
a iterativ
a se ntelege o metoda care permite construirea,
plecnd de la o aproximatie initial
a, a unui sir de solutii aproximative care
converg catre solutia exacta a sistemului algebric liniar.
Doua mari tipuri de metode iterative se ntlnesc n practica. Metodele
stationare snt cele mai vechi, mai simplu de nteles si implementat, dar nu
si cele mai eficiente. Metodele nestationare snt de data mai recent
a; analiza
lor este de obicei mai greu de nteles, dar ele pot fi de mare eficient
a.
Rata cu care o metoda iterativa converge depinde de spectrul matricei sistemului. De regula, metodele iterative folosesc o a doua matrice ce transforma matricea initiala ntr-o matrice cu un spectru mai favorabil. Matricea
de transformare se numeste matrice de preconditionare. O buna matrice de
preconditionare creste viteza de convergent
a a metodei iterative suficient sa
acopere extra costul construirii si aplicarii precondition
arii.
3.1
(3.1)
(3.2)
(3.3)
Metoda iterativa definita prin (3.3) nu este altceva dect metoda aproximatiilor succesive, numita si metoda Picard, pentru gasirea unui punct fix
pentru aplicatia f : Kn Kn definit
a prin
f (x) = B x + c,
x Kn .
3. Metode iterative
77
(3.4)
X
i
|bij | < 1,
max
i
|bij | < 1,
|bi,j |2 < 1
i,j
Demonstratie. Cum kBk1 = maxj i |bij | < 1, kBk = maxi j |bij | < 1
P
iar kBk2F = i,j |bi,j |2 < 1 rezulta ca (B) < 1 deci metoda iterativa (3.3)
este convergenta.
2
78
Metod
a iterativ
a modificat
a
Plecnd de la ecuatia (3.2) putem sa construim si urmatoarea metoda iterativa. Pentru x(0) Kn arbitrar, se defineste sirul de vectori (x(m) )mN
din Kn prin
(m)
xi
i1
X
(m)
bij xj
j=1
n
X
(m1)
bij xj
+ ci ,
i {1, . . . , n}
(3.5)
j=i
(3.6)
In ce priveste convergenta metodei iterative definita prin (3.5) avem urmatoarele rezultate.
P
n
X
bij xi + ci
1in
(3.7)
j=1
xi xi
i1
X
(m)
bij (xj xj
)+
j=1
n
X
(m1)
bij (xj xj
j=i
deci
(m)
|xi xi
i1
X
|bij | |xj xm
j |+
j=1
n
X
(m1)
|bij | |xj xj
|, i I
(3.8)
j=i
|xi xi
| pi kx x(m) k + qi kx x(m1) k
(3.9)
3. Metode iterative
unde
pi =
79
i1
X
|bij |
si qi =
j=1
n
X
|bij |.
j=i
(m)
qs
kx x(m1) k
1 ps
deci
kx x(m) k kx x(m1) k
(3.10)
pi + qi =
n
X
j=1
= kBk .
1 pi
1 pi
1 pi
Prin urmare kBk < 1 si din inegalitatea (3.10) rezulta
kx x(m) k m kx x(0) k
deci lim x(m) = x.
Demonstratie. Cum kBk1 = maxj i |bij | < 1 rezulta ca ecuatia (3.2) are
solutia unica x = (x1 , . . . , xn )T . Deci x verifica (3.7). Scaznd (3.5) din (3.7)
si trecnd la modul obtinem (3.8). Adunnd inegalitatile din (3.8) rezulta
n
X
i=1
(m)
|xi xi
n X
i1
X
i=1 j=1
(m)
|bij | |xj xj
)+
n X
n
X
i=1 j=i
(m1)
|bij | |xj xj
|)
80
(m)
|xi xi
i=1
(m)
(|xj xj
n
X
|bij |)+
i=j+1
Pn
i=j+1 |bij |,
tj =
|bin |. Dar sj + tj =
i=1
(m1)
(|xj xj
j=1
Pj
i=1 |bij |,
n
X
n
X
j
X
|bij |) (3.11)
i=1
j = 1, 2, . . . , n 1 si s0 = 0,
i=1
(3.11) ia forma
n
X
n
X
j=1
Fie sj =
tn =
n1
X
(m)
|xi xi
i=1
n
X
(m)
sj |xj xj
|+
j=1
n
X
(m1)
tj |xj xj
j=1
sau echivalent
n
X
(m)
(1 sj )|xj xj
j=1
n
X
(m1)
tj |xj xj
j=1
Deoarece
tj kBk1 sj kBk1 sj kBk1 = kBk1 (1 sj )
avem
n
X
(m)
(1 sj )|xj xj
| kBk1
j=1
n
X
(m1)
(1 sj )|xj xj
j=1
kBkm
1
n
X
(0)
(1 sj )|xj xj |
j=1
n
X
(m)
(1 sj )|xj xj
|=0
j=1
(m)
x(m) x
n
X
= xj , 1 j n de
2
i,j=1
x(0) din Kn sirul (x(m) )mN construit prin (3.5) converge la solutia ecuatiei
(3.2).
3. Metode iterative
81
n
X
i,j=1
(m)
xi |2
i1
nX
|bij | |xj
(m)
xj |
n
X
j=1
(m1)
|bij | |xj xj
o2
j=i
| si
|xi xi
i1
nX
(m) 2
| +
|xj xj
j=1
unde si =
n
X
n
X
(m1) 2
|xj xj
, 1 i n (3.12)
j=i
j=1
(m) 2
|xi xi
n X
i1
X
i=1
(m) 2
si |xj xj
| +
i=1 j=1
n X
n
X
(m1) 2
si |xj xj
(3.13)
i=1 j=i
(m)
xj |2
|xj
j=1
n1
X
n
X
si )|xj
(m)
xj |
n
X
si , Tj =
j
X
(m1) 2
si )|xj xj
si j {1, 2, . . . , n 1} si S0 = 0, Tn =
i=1
i=j+1
| .
j=1 i=1
j=1 i=j+1
Lund Sj =
j
n X
X
n
X
si ,
i=1
avem evident
Sj + Tj =
n
X
si =
i=1
n X
n
X
1jn
i=1 j=1
(m)
xj |2
|xj
j=1
sau
n
X
Sj |xj
(m)
xj |2
j=1
n
X
Tj |xj xm1
|2
j
j=1
(m) 2
(1 Sj )|xj xj
j=1
n
X
n
X
j=1
(m1) 2
Tj |xj xj
(3.14)
82
(1 Sj )|xj
(m)
xj |2
j=1
kBk2F
n
X
(m1) 2
(1 Sj )|xj xj
j=1
de unde
n
X
(m) 2
(1 Sj )|xj xj
| kBk2m
F
j=1
n
X
(0)
(1 Sj )|xj xj |2 .
j=1
n
X
(m) 2
(1 Sj )|xj xj
| =0
j=1
(m)
= xj
2
0 2
2
0 1
B = 1
2 2
0
avem (B) = 0 dar metoda iterativa (3.5) nu converge. Avem ns
a urmatorul
rezultat:
Teorema 3.5 Dac
a (|B|) < 1 atunci sirul (x(m) )mN construit prin (3.5)
converge la solutia ecuatiei (3.2).
Demonstratie. Utiliznd Teorema 1.11 avem (B) (|B|) < 1, deci
ecuatia (3.2) are solutie unica. Fie B = L + U cu L strict inferior triunghiulara si U superior triunghiulara. Sirul construit prin (3.5) va fi convergent
pentru orice x(0) daca si numai daca ((I L)1 U ) < 1. Cum
(I L)1 U |(I L)1 U | = |(I + L + + Ln1 )U |
3. Metode iterative
83
(3.16)
(3.17)
84
(3.18)
Demonstratie.
Cum A = M N avem (M 1 N )T A(M 1 N ) = (M 1 N )T N (I M 1 N )
deoarece
AM 1 N = (M N )M 1 N = N N M 1 N = N (I M 1 N ).
Dar
(M 1 N )T N (I M 1 N ) =
= (M 1 N )T N (I M 1 N ) N (I M 1 N ) + AM 1 N =
= (I (M 1 N )T )N (I M 1 N ) + AM 1 N
deci
A (M 1 N )T A(M 1 N ) = A(I M 1 N ) + (I (M 1 N )T )N (I M 1 N ).
Din A = M N obtinem A = M (I M 1 N ) si cum A este o matrice
simetrica avem A = AT = (I (M 1 N )T )M T , deci
A(I M 1 N ) = (I (M 1 N )T )M T (I M 1 N ).
Am obtinut astfel
A (M 1 N )T A(M 1 N ) = (I M 1 N )T (M T + N )(I M 1 N )
adica identitatea (3.18).
3. Metode iterative
85
1 wT M T w wT M w + wT Aw = 1 wT (M T + N )w.
m 0.
Din ipoteza facuta, (M 1 N ) < 1, acest sir converge la zero. Cum avem
x(m) x(m+1) = (I M 1 N )x(m) ,
folosind identitatea (3.18) din Lema 3.1 obtinem
(x(m) x(m+1) , (M T + N )(x(m) x(m+1) ) =
86
deci
(x(m) x(m+1) , (M T +N )(x(m) x(m+1) ) = (x(m) , Ax(m) )(x(m+1) , Ax(m+1) )
(3.19)
Daca x(m) 6= 0 atunci x(m) x(m+1) 6= 0 ( in caz contrar am avea 0 =
x(m) x(m+1) = M 1 (M N )x(m) = M 1 Ax(m) deci x(m) = 0.) Cum
M T + N este pozitiv definit folosind (3.19) avem
(x(m) , Ax(m) ) (x(m+1) , Ax(m+1) ) > 0.
Daca A nu este pozitiv definita, exista x(0) nenul ce verific
a (x(0) , Ax(0) ) 0.
Cu aceasta alegere a vectorului initial obtinem un sir verificnd
(x(m+1) , Ax(m+1) ) < (x(m) , Ax(m) ) < < (x(0) , Ax(0) ) 0
ceea ce contrazice faptul ca sirul (x(m) ) converge la 0.
3. Metode iterative
87
si
(I M 1 N )1 = I + M 1 N + (M 1 N )2 +
ceea ce arata ca (I M 1 N )1 0, deoarece M 1 N 0. Deci A1 0, si
cum prin ipoteza aij 0 i 6= j utiliznd Propozitia 1.6(i) avem ca A este o
M -matrice. Reciproc, presupunnd ca A este o M -matrice nesingulara exista
s R, s > 0 si B 0 astfel ca A = sI B cu (B) < s. Este clar, acum, ca
A admite o splitare regulata. Intr-adev
ar, luam M = sI si N = B care au
proprietatile: M inversabila, M 1 0, N 0 si (M 1 N ) = s1 (B) < 1.
2
Definitia 3.3 Spunem c
a matricea A admite o splitare slab regulat
a
dac
a exist
a M si N astfel ca A = M N , M nesingular
a, M 1 0 si
M 1 N 0.
Este evident ca o splitare regulata este o splitare slab regulata. Mai mult
daca A = (aij ), aij 0 i 6= j admite o splitare slab regulata atunci A
admite o splitare regulata.
Teorema 3.8 Fie A = M N o splitare slab regulat
a ( adic
a M nesingular
a, M 1 0, si M 1 N 0 ). Afirmatiile urm
atoare snt echivalente:
(i) A1 0;
(ii) A1 N 0;
(iii) (M 1 N ) =
(A1 N )
< 1.
1 + (A1 N )
x
1+
88
By = (I + B)y
y.
1
(A1 N )
< 1.
1 + (A1 N )
3. Metode iterative
89
(3.21)
N = P 1 A.
Sistemul (3.20), respectiv (3.21) poate fi scris sub forma (3.2) lund B =
M 1 N = I P A si c = M 1 b = P b.
De exemplu putem lua P = I unde 6= 0.
Compararea metodelor iterative
Cum alegem ntre mai multe metode iterative convergente pentru rezolvarea unui sistem liniar ? Pentru a fixa ideile sa presupunem ca matricea
B are proprietatea B B T = B T B. Atunci
||B m (0) ||2 ||B m ||2 ||(0) ||2 = ((B))m ||(0) ||2
Aceasta inegalitate este ceea mai buna posibil, n sensul ca, pentru orice
ntreg m 0, exista un vector 0 (m) 6= 0, pentru care inegalitatea devine o
egalitate. In cazul matricilor cu proprietatea de mai sus, metoda ceea mai
rapida este cea pentru care raza spectrala (B) este cea mai mica posibil,
pentru ca
1/m
sup ||B m x||2 = (B),
m 0.
||x||2 =1
90
Teorema 3.9
(1) Fie || || o norm
a vectorial
a, si fie u astfel ca u = Bu + c. Consider
am
metoda iterativ
a
um+1 = Bum + c,
m 0.
Atunci
lim {
sup
m ||u u||=1
0
um+1 = Bum + c, m 0
um uk o1/m
(B)
m l= sup
.
(B) +
||u0 u||=1 kum uk
Demonstratie. Fie || || o norma matriciala subordonata. Pentru un ntreg
m putem scrie
((B))m = (B m ) ||B m || = sup ||B m 0 ||
||0 ||=1
astfel ca (B) sup||0 ||=1 ||B m 0 ||1/m = ||B m ||1/m si afirmatia (1) rezulta
din Teorema 3.1. Din acelasi rezultat, fiind dat > 0, exista un ntreg l()
astfel ca
k l= sup ||B m 0 ||1/m (B) + .
||0 ||=1
||0 || = 1 si ||B
si afirmatia (2) este demonstrata.
3. Metode iterative
91
3.2
Metoda Jacobi
Una din cele mai simplu de nteles si implementat metode iterative este
metoda Jacobi.
Definirea metodei Jacobi
Presupunem ca matricea A este nesingulara si are elementele de pe diagonala
principala nenule (aii 6= 0, i I = {1, . . . , n}). Descompunem matricea A
ca suma de trei matrici
A=DEF
(3.22)
unde D = diag(a11 , . . . , ann ), E este strict inferior triunghiulara ( eij =
0, i j) iar F este strict superior triunghiulara ( fij = 0, i j ).
Sistemul (3.22) poate fi scris sub forma
Dx = (E + F )x + b
(3.23)
Deoarece elementele diagonale aii ale matricii A snt nenule, putem deduce
urmatoarea metoda iterativa din (3.23)
(m+1)
aii xi
n
X
(m)
aij xj
+ bi ,
i I, m 0
(3.24)
j6=i
unde x(0) snt estimarile initiale ale componentelor solutiei unice x a sistemului (3.23). Evident, putem scrie (3.24) sub forma
(m+1)
xi
X aij (m)
j6=i
aii
xj
bi
,
aii
i I, m 0
(3.25)
m0
(3.26)
92
(3.28)
Teorema 3.11
a) Dac
a A este o matrice strict diagonal dominant
a atunci metoda Jacobi
este convergent
a.
b) Dac
a A este o matrice diagonal dominant
a ireductibil
a atunci metoda
Jacobi este convergent
a.
c) Daca A este o H - matrice nesingular
a atunci metoda Jacobi converge
M (A) = M (A)}.
3. Metode iterative
93
a ca
j6=i |aij | < |aii | i I rezult
n
X
j=1
(B) kBk < 1, adica (B) < 1. Am demonstrat astfel ca (J(A)) < 1 si
folosind Teorema 3.1 rezulta convergenta metodei Jacobi.
b) Daca A este diagonal dominant
a ireductibila avem kBk 1 si cum
(B) kBk avem (B) 1. Presupunem ca exista valoare proprie
pentru B cu || = 1. Fie x 6= 0 un vector propriu pentru matricea B. Deci
n
X
bij xj = xi i I.
j=1
j=1
|bij ||xj |
j=1
deoarece
kxk = |xi | = || |xi | = |xi | = |
n
X
bij xj |
j=1
si
n
X
j=1
n
X
|bij | |xj |
j=1
|bij | 1 deci
n
X
(3.29)
j=1
Cum |xj | kxk 0 atunci bij 6= 0 implica |xj | = kxk . Fie I1 multimea
{i I, |xi | = kxk }. Daca I1 6= I atunci I2 = I\I1 6= . Pentru j I2 exist
a
i I1 astfel ca bij 6= 0 deoarece I = I1 I2 , I1 I2 = iar B este ireductibila.
Folosind observatiile de mai sus avem ca |xj | = kxk . Deci I1 = I, adica
P
|xj | = kxk j I. Avem prin urmare kxk = |xi | nj=1 |bij | kxk
Pn
deci j=1 |bij | 1 pentru orice i I ceea ce contrazice faptul ca exista un
P
indice i I pentru care nj=1 |bij | < 1. Deci (B) < 1.
c) Matricea A fiind o H - matrice nesingulara, exista o matrice diagonala
U astfel ca U 1 AU sa fie strict diagonal dominant
a. Cum A = D E F
1
1
1
1
iar U AU = U DU U EU U F U avem J(A) = D1 (E + F ) =
I D1 A si J(U 1 AU ) = I (U 1 DU )1 (U 1 AU ) = I U 1 D1 AU =
U 1 (I D1 A)U = U 1 J(A)U , ceea ce demonstreaza ca J(A) si J(U 1 AU )
au aceleasi valori proprii, deci (J(A)) = (J(U 1 AU )) < 1, deoarece
94
x 6= 0,
(3.30)
3. Metode iterative
95
3.3
Metoda Gauss-Seidel
Una din cele mai folosite metode iterative stationare este metoda
GaussSeidel.
Descrierea metodei Gauss-Seidel
Examinarea metodei iterative Jacobi (3.24) arata ca n general trebuie sa
avem salvate (pastrate) toate componentele vectorului x(m) pentru a putea
calcula componentele vectorului x(m+1) . Pare la prima vedere atractiv sa
(m+1)
folosim ultimile estimari xi
ale componentei xi ale solutiei x n toate
calculele care urmeaza asa cum arata metoda iterativa
(m+1)
aii xi
i1
X
j=1
(m+1)
aij xj
n
X
(m)
aij xj
+ bi i I, m 0
(3.31)
j=i+1
(3.32)
96
3. Metode iterative
97
2 1 1
2 2
A= 2
1 1 2
1 2 2
1
A= 1 1
2 2
1
A=
4 1 1
0
1
4
0 1
1
0
4 1
0 1 1
4
98
Teorema 3.16
Fie A astfel ca matricea Jacobi asociat
a J(A) s
a fie ne negativ
a, adic
a
J(A) 0. Atunci, metodele Jacobi si Gauss-Seidel snt amndou
a convergente sau amndou
a divergente. Cnd cele dou
a metode snt convergente
metoda Gauss-Seidel converge mai repede.
Demonstratie. Cum J(A) 0 din teorema Stein-Rosenberg (Teorema
1.13) atunci una si numai una din urmatoarele relatii este adevarat
a:
1.
2
3
4.
(J(A)) = (G(A)) = 0
0 < (G(A)) < (J(A)) < 1
1 = (J(A)) = (G(A))
1 < (J(A)) < (G(A))
A() =
1
cn1
b1 1 c1
a2
b2
1 c2
..
..
..
an1 bn1
an
bn
3. Metode iterative
99
Q() =
..
0. Daca introducem ma
100
3.4
Metode de relaxare
xi
(m+1)
=
xi
(m)
+ (1 )xi
(m+1)
(m)
bi
aij xj
+ (1 )x(m)
xi
=
aii
j6=i
(3.33)
(3.34)
1
1
I, N =
D + (E + F ).
1
Matricea J (A) = (1 )I + D (E + F ) = (1 )I + J(A) este matricea
de iteratie Jacobi relaxata asociata matricei A.
Constatam ca si aici A = M N unde M =
2
DA
2
2
Cautam acum sa obtinem conditii n care matricea D A este pozitiv
definita.
3. Metode iterative
101
D A D1/2 =
2
2
I D1/2 AD1/2 = ( 1)I + D1/2 J(A)D1/2 .
Dar matricea D1/2 J(A)D1/2 are aceleasi valori ca matricea J(A). Valorile
proprii ale matricei (2/)D A snt 2/ 1 + i si pentru ca acestea sa fie
strict pozitive trebuie ca 0 < < 2/(1 1 ).
2
Pentru o matrice nesimetrica avem:
Teorema 3.19 Dac
a A o H-matrice nesingular
a, atunci metoda Jacobi relaxat
a converge pentru ce verific
a:
0<<
2
.
1 + (J(A))
pentru > 0.
102
(1 1 )
opt
(1 n )
Figura 3.1:
Stim sa determinam opt n cazul n care matricea A = D E E T este
simetrica cu D pozitiv definita si unde metoda Jacobi converge. Valorile
proprii ale matricii J (A) snt
i = (1 ) + i = 1 (1 i ),
i = 1, . . . , n
A=
2
2 (1 + n )
4 1 1
0
1
4
0 1
1
0
4 1
0 1 1
4
3. Metode iterative
103
J(A) =
0 1/4 1/4 0
1/4 0
0 1/4
1/4 0
0 1/4
0 1/4 1/4 0
(J (A)) = max{|1 |, |1 |, |1 |} =
2
2
3
1 pentru 1 <
2
Metoda Jacobi relaxata converge pentru 0 < < 4/3 iar opt = 1.
Daca A este o matrice de forma
C I
I C I
..
..
A=
.
.
iar
...
C
I
4 1
1 4 1
..
..
C=
.
.
..
.
4
1
104
A= e
e
e
e
a
i1
X
(m+1)
aij x
j
j=1
(m+1)
Componentele xi
(m+1)
xi
(m)
= xi
n
X
(m)
aij xj
+ bi i I, m 0
(3.35)
j=i+1
+ (
xi
(m)
xi
(m)
) = (1 )xi
(m+1)
+
xi
(m+1)
(3.36)
3. Metode iterative
105
aii xi
(m)
= aii xi
i1
X
(m+1)
aij xj
j=1
n
X
(m)
aij xj
(m)
+bi aii xi
(3.37)
j=i+1
(3.38)
(3.39)
(3.40)
1
c = (D E) b.
Convergenta metodei Gauss-Seidel relaxat
a
Conditii de convergenta a metodei Gauss - Seidel relasata snt studiate n
cele ce urmeaza.
Teorema 3.20 (conditii necesare de convergent
a) Raza spectral
a
pentru matricea de relaxare G (A) verifica ntotdeauna inegalitatea
(G (A)) | 1|.
Dac
a metoda de relaxare converge, atunci (0, 2).
106
1
D + F)
= (1 )n ,
D
det( E)
det(
i (G (A)) = det(G (A)) =
i=1
(G (A))
1/n
i (G (A))
= |1 |,
i=1
cu egalitate daca si numai daca toate valorile propri au acelasi modul |1|.
Din (G (A)) < 1 obtinem (0, 2).
2
Teorema 3.21 (Ostrowski-Reich) Fie A o matrice simetric
a de forma
A = D E F cu D = diag(A) pozitiv definit
a. Metoda SOR (Gauss-Seidel
relaxat
a) converge pentru orice 0 < < 2 dac
a si numai dac
a A este pozitiv
definit
a.
Demonstratie. Descompunerea A = M N asociata metodei de relaxare
se scrie
D
1
A=M N =
E
D+F
astfel ca
2
Q = MT + N =
D
este pozitiv definit pentru orice (0, 2). Utiliznd teorema Householder
John (Teorema 3.6) obtinem ca metoda de relaxare converge pentru orice
(0, 2) daca si numai daca A este pozitiv definita.
2
Corolarul 3.2 Dac
a matricea A este simetric
a si pozitiv definit
a atunci
metoda Gauss-Seidel relaxat
a converge pentru orice (0, 2).
Demonstratie. Daca A este o matrice simetrica si pozitiv definita atunci
matricea D = diag(A) este pozitiv definita, deci folosind teorema OstrowskiReich (Teorema 3.21 ) rezulta ca metoda SOR este convergent
a pentru orice
(0, 2).
2
Abandonnd ipoteza de simetrie avem urmatorul rezultat:
3. Metode iterative
107
2
2
=
1 + (|J(B)|)
1 + (J(M (A)))
1 i, j n}
N
= 1 |1 | |D| |L| |U |,
A = M
1 N
G(A ) = M
0 si |N | N
. In plus
Este clar ca N
1
|M1 | = |( D L)1 | = |(I D1 L)1 | |D1 | =
|D|
|L|
1
=M
1 |1 |
A = |D|
I |D|1 (|L| + |U |) = |D|
I |J(B)| .
108
1 |1 |
Daca 0 < < 1, atunci
= 1 si deoarece (|J(B)|) < 1 rezulta
1
(A ) < 1 deci A exista si n plus
1
1
A1
= (I + |J(B)| + ) |D|1
= (I J(B)) |D|
deci A1
a > 1 atunci
0. Dac
2
A = |D|
I |J(B)|
(|J(B)|) < 1
2
ceea ce se scrie nca
<
2
.
1 + (|J(B))
Cum A1
inem ca
N 0 obt
1 N
) =
(M
(A1
N )
<1
1 + (A1
N )
1 N
) < 1. Din cele de mai sus rezulta
deci (M
1 N
| |M
1 | |N M
1 N
= G(A )
|G (B)| = |M
de unde folosind teorema Perron-Frobenius avem (G (B)) (G(A )) < 1.
Remarcam ca majoranta A este aceiasi pentru orice matrice B (A). 2
Ramne o problema important
a, ceea a determinarii unui optimal pentru
metoda de relaxare Gauss-Seidel.
In ce priveste compararea metodelor Jacobi si Gauss-Seidel relaxata avem
urmatorul rezultat :
Teorema 3.23
Fie A o matrice tridiagonal
a, avnd toate valorile proprii ale matricei J(A)
reale. Atunci metoda Jacobi si metoda Gauss-Seidel relaxat
a pentru 0 < <
2, converg sau diverg simultan, cnd metodele converg functia (0, 2)
(G (A)) are alura din figura 3.2 unde
opt =
1+
1 (J(A))2
3. Metode iterative
109
6 (G (A))
1
(G(A))
6
0 1
-
opt
Figura 3.2:
Demonstratie. (1) Incepem prin a gasi o relatie ntre valorile proprii ale
matricei J(A) si G (A). Valorile proprii ale matricei J(A) = D1 (E + F )
snt zerourile polinomului caracteristic
pJ () = det(D1 (E + F ) I)
care snt de asemenea zerourile polinomului
qJ () = det(D E F ) = det(D)pJ ().
In acelasi mod, valorile proprii ale matricei
G (A) =
1
DE
1
D+F
p () = det (
E)1 (
i
1
D + F ) I
sau a polinomului
q () = det(
+1
D
D E F ) = det E
p ().
2 + 1
D 2 E F ) =
110
2 + 1
2 + 1
D E F = n qJ
= det|bigl(
6= 0, (G (A)) |bigl{
+ 1 + 1o
,
(J(A))
1/2
1/2
si
{ (J(A)) (J(A))}={+ (, ), (, )} (G (A))}
unde
1
2 2
+ (, ) = (2 2 2 + 2) +
( 4 + 4)1/2
2
2
1
2 2
(, ) = (2 2 2 + 2)
( 4 + 4)1/2
2
2
snt patratele celor doua radacini ale ecuatiei de ordinul doi (n )
2 + ( 1) = 0
2 + 1
=
pentru 6= 0.
Notam ca relatia functionala stabilita mai sus este adevarat
a si pentru = 0,
a doua implicatie nu este valabil
a pentru = 1, dar acest caz a fost deja
considerat.
(ii) Avem prin urmare
(G (A) =
(J(A))
In acest conditii, cum am facut ipoteza ca toate valorile proprii ale matricei
J(A) snt reale, sntem condusi la studierea functiei M : R+ (0, 2) R
definita prin
M (, ) = max(|+ (, ), | (, )|).
Este inutil sa se studieze functia M pentru 6 (0, 2), acest ultim caz fiind
reglat de Teorema 3.20
(iii) Presupunem pentru nceput ca 0 < 1. Pentru = 0, am vazut deja
ca M (0, ) = | 1|. Pentru 0 < < 1, trinomul 2 2 4 + 4 are
doua radacini reale 0 () si 1 () ce verific
a
1 + 1 2
2
< 2 < 1 () = 2
.
1 < 0 () =
2
1 + 1 2
3. Metode iterative
111
(, ) = 2(, ) (, ) = 4(, )
2(, )
pentru 0 < < 0 (). Cum 0 < < 1 si 0 < < 2 implica
2 2
1
1
( 4+4)1/2 < ( 2 2+2)+ (2) = 1
2 = (2 2 2+2)+
2
2
2
2
lim (, ) = 1,
lim (, ) = 0 () = {0 () 1}1/2 > 0
&0
2
%0 ()
avem, pe de-o parte
2 2
1/2 > 0 pentru 0 < < ()
2 = ( 4 + 4)
lim (2 ) = 0,
%0 ()
lim (2 ) = 2.
&0
si pe de alta parte
2( 1) < 0
%0 ()
&0
112
2 >1
6
6
=0
6
-
1 0 (1 ) 6 0
0 (2 )
Figura 3.3:
pentru 0 < < 2 si ca
(G0 (A)) = inf (G (A)) = 0 1
0<<2
cu
0 = opt (J(A)) =
1+
2
1 (J(A))2
1
( 2 4+4)1/2 ( 2 2+2)+ (2) = 1
+ (, ) = (2 2 2+2)+
2
2
2
2
pentru 0 < < 2 ceea ce n particular demonstreaza ca
(J(A)) 1 = (G (A)) 1 pentru 0 < < 2.
Teorema 3.24 Fie A o matrice tridiagonal
a, simetric
a si pozitiv definit
a.
Metodele Jacobi, Gauss-Seidel, Gauss-Seidel relaxat
a pentru
0 < < 2 converg.
Functia (G (A)) are pe (0, 2) alura indicat
a n Figura 3.2.
3. Metode iterative
113
Exist
a un parametru de relaxare optimal 0 ; 1 < 0 < 2 ce este dat
prin
1
p
0 =
1 + 1 (J(A))2
si
(G0 (A) ) = inf (G (A)) = 0 1 < (G(A)) < (J(A))
0<<2
dac
a (J(A)) > 0; iar dac
a (J(A)) = 0 atunci 0 = 1, (G(A)) = 0,
(G0 (A) = 0.
Cele trei raze spectrale snt legate ntre ele prin relatiile:
(G(A)) = (J(A))2 ,
(G0 (A)) =
(J(A))2
(1 +
1 (J(A))2 ))
(G(A))
(1 +
1 (G(A)))2
(J(A))2
(1 +
1 (J(A))2 )2
2
Observatie
Teoremele 3.17, 3.21, 3.23, 3.24 snt adevarate daca se presupune ca matricea
A este tridiagonala pe blocuri si se considera metodele Jacobi, Gauss-Seidel,
Gauss-Seidel relaxata pe blocuri.
2
114
Metoda SSOR
In metoda SOR, chiar daca matricea A este simetrica , matricea G (A) nu
este simetrica. Pentru a nlatura acest inconvenient s-a introdus metoda de
relaxare simetrica (SSOR) n care se parcurg variabilele n ordinea 1, 2, . . . , n
apoi n ordinea n, n 1, . . . 2, 1. Daca A = D E F , unde D este o matrice
diagonala, E strict inferior triunghiulara iar F strict superior triunghiulara,
cei doi pasi, anuntati mai sus, se scriu matriceal astfel:
(D E)xm+1/2 = b + [(1 )D + F ]x(m)
(D F )xm+1 = B + [(1 )D + E]x(m+1/2) .
Eliminnd xm+1/2 n relatiile de mai sus obtinem:
x(m+1) = SG (A)x(m) + c
(3.41)
unde
SG (A) = (D F )1 [(1 )D + E](D E)1 [(1 )D + F ] =
= (I U )1 ((1 )I + L)(I L)1 ((1 )I + U )
cu notatia standard L = D1 E si U = D1 F , iar c are forma
c = (2 )(D F )1 D (D E)1 b.
Propozitia 3.3 Dac
a A Mn (R) este o matrice simetric
a a c
arei diagonal
a este pozitiv definit
a, atunci valorile proprii ale matricei SG (A) snt
reale si pozitive .
Demonstratie. Deoarece L este strict inferior triunghiulara avem Ln = 0
deci (I L)1 este un polinom n L, ceea ce face ca (I L)1 sa comute
cu (1 )I + L. Deci
SG (A) = (I U )1 (I L)1 [(1 )I + L][(1 )I U ].
Matricea (I U )G (A)(I U )1 are forma
(I L)1 [(1 )I + L)][(1 )I + U ](I U )1 = G() G()T
unde am pus G() = (I L)1 [(1 )I + L], are aceleasi valori proprii
ca SG (A). Este nsa clar ca G() G()T este simetrica.
2
Putem demonstra pentru metoda SSOR teoreme de convergent
a aseman
atoare
cu cele obtinute pentru metoda SOR.
3. Metode iterative
115
i=1
det((1 )I + L) det((1 )I + U )
= (1 )2n
det(I L)
det(I U )
n
Y
i SG (A))|1/n = |1 |2
i=1
cu egalitate daca si numai daca toate valorile proprii au acelasi modul |1|2 .
Din (SG (A)) < 1 obtinem (0, 2).
Teorema 3.26 Dac
a A este o matrice simetric
a pozitiv definit
a atunci metoda
SSOR converge pentru orice 0 < < 2
Demonstratia este asemanatoare cu demonstratia Teoremei 3.21.
Teorema 3.27 Dac
a A Mn (K) este o H- matrice nesingular
a si
0<<
2
1 + (J(M (A))
I
F
.
FT I
Valoarea optimal
a a parametrului pentru metoda SSOR este = 1.
116
+ 1 = 0 cu = 2 2 1.
Valoarea lui care minimizeaza modulul rad
acinilor este 1.
Comentarii bibliografice
Utilizarea metodelor iterative pentru rezolvarea sistemelor de ecuatii algebrice liniare ncepe cu Gauss (1823). Gauss a avut de rezolvat sisteme mari
liniare pentru utilizarea metodei celor mai mici patrate.
Gauss, n metoda de rezolvare pe care o utilizeaza nu determina necunoscutele ntr-o ordine data a priori. Metodele dezvoltate de Gauss au fost
difuzate apoi n Germania de elevii sai. Jacobi le-a folosit la fel ca si elevul
sau Seidel. Totusi nu exista nici o mentiune n scrierile lui Gauss asupra a
ceea ce numim astazi metoda Gauss-Seidel. Seidel o mentioneaz
a de fapt n
1874 dar nu sfatuieste utilizarea sa.
Metodele iterative pe blocuri au fost introduse n aceiasi epoca, Gerling
(1843), Seidel (1842,1874).
Metodele de relaxare utilizate de Southwell (1946) si scoala sa snt identice
cu cele ale lui Seidel; se corecteaza cu prioritate ecuatia avnd reziduu cel
mai mare. Conditii suficiente de convergent
a pentru metoda Gauss-Seidel
117
(4.2)
x Ax
.
x x
118
unde numerele i snt valori proprii pentru matricea A. Cnd toate valorile
proprii snt distincte, se stabileste ca coloanele matricilor (Pk ) constituie
aproximatii ale vectorilor proprii ale matricei A (Teorema 4.6).
Alte metode permit calcularea anumitor valori proprii selectionate. Acesta
este cazul metodei Givens-Householder pe care o studiem n paragraful
4.5 si care se aplica matricilor simetrice . Se pleaca cu reducerea unei
119
4.1
X
j6=i
|aij |, cj =
|aij |.
i6=j
Atunci:
(i) Toate valorile proprii snt continute n reuniunea discurilor Ri ,
i I, unde I = {1, . . . , n}, definite prin
Ri = {z C ; |z aii | ri }
120
(ii) Toate valorile proprii snt continute n reuniunea discurilor (Cj )jI
definite prin
Cj = {z C ; |z ajj | cj }
S
(iii) Toate componentele conexe ale multimilor ni=1 Ri sau nj=1 Cj contin
exact attea valori proprii cte discuri (valorile proprii si discurile proprii fiind num
arate cu ordinul lor de multiplicitate).
Demonstratie. (i) Daca este o valoare proprie pentru matricea A, exista
un vector propriu x 6= 0 astfel ca Ax = x sau nc
a
( aii )xi =
j6=i
X
j6=i
|aij |
|xj | X
|aij | = ri .
|xi |
j6=i
s
i
s
nt
constante
cu
except
ia unui
i
j
iI
jI
numar finit de valori t = tk la care num
arul de discuri continute ntr-o componenta conexa creste. Presupunem far
a a pierde din generalitate ca primele
m discuri R1 , . . . , Rm formeaza o component
a conexa. Cum cele n m discuri, Rm+1 , . . . Rn , cu razele rm+1 , . . . rn snt izolate de discurile R1 , . . . Rm ,
este la fel pentru discurile ce corespund razelor tri si pentru t [0, 1]. Pentru
t = 0 valorile proprii ale lui A(0) snt a11 , . . . , ann , deci primele m apartin
S
si celelalte (n m) snt n afara acestui domeniu. Cum
domeniului m
i=1 Ri
valorile proprii i (t) ale matricei A(t) descriu traiectorii continue (vezi Lema
121
S
Pentru a ilustra modul cum depind vectorii si valorile proprii ale matricei
A consideram, pentru nceput, doua exemple simple.
Exemplul 1 (Forsythe ). Fie A si A + E dou
a matrici Hessenberg superioare
a
1 a
..
.
A=
..
..
.
.
..
1
a
1 a
..
.
A+E =
..
..
..
1
122
dar variatia valorii proprii, n modul, este de 1099 ori mai mare ca perturbatia
elementului a1,n .
Exemplul 2 (Givens ). Fie A matricea definita prin:
2
1
+
cos
A=
sin
sin
1 cos
.
2
1
1
x(2) = ( cos , sin )T .
Micile variatii ale lui atrag mici variatii ale lui 1 si 2 , dar vectorii proprii
nu tind spre o limita cnd 0, deci vectorii proprii nu snt functii continue
de elementele matricii A.
(4.3)
(i) Dac
a este o valoare proprie pentru matricea A exist
a o valoare proprie
() pentru matricea A() astfel ca
|() | O()
(4.4)
y x
lim
(4.5)
123
(4.6)
(4.7)
124
(4.8)
4.2
Pn
=1 a
X a
2 =
a
<
a
a
X a
3 =
a
<< a
a a
a a
a a
125
p1 p2
1 0
..
.
1
C=
pn
0
..
.
..
1
. 0
0
(4.9)
(4.10)
126
D=
b1,1
..
.
bn1,1
0
..
.
b1,n2
..
.
bn1,n2
0
b1,n1
..
.
bn1,n1
1
b1,n
..
.
bn1,n
0
d1,1 d1,2
d1,k
d1,n1 d1,n
.
.
.
..
..
..
..
..
.
.
d
d
dk,k dk,n1 dk,n
D = k,1 k,2
0
0
1
0
0
..
..
..
..
..
.
.
.
.
.
0
0 0
1
0
127
D=
D1 L
0
D2
(4.11)
(4.12)
(4.13)
128
Bn1
AB
n2
n1
=
=
=
..
.
Bn1 ABn2
I
p1 I
p2 I
B0 AB1 = pn1 I
AB0 =
pn I
(0)
(y1 , . . . , yn (0))T
An p1 An1 pn I = 0
cu y (0) obtinem y (n) p1 y n1 pn1y(1) pn y (0) = 0 unde
y (k) = Ak y(0) = Ay (k1) .
Coeficientii polinomului caracteristic pA () snt solutii ale sistemului liniar
(y (n1) , y (n2) , y (1) , y (0) )p = y (n)
(4.14)
unde p = p1 , , pn )T . Deci determinarea coeficientilor polinomului caracteristic prin metoda Krylov se reduce la rezolvarea sistemului (4.14). Daca
sistemul (4.14) are solutie unica, atunci solutia sa determina coeficientii polinomului caracteristic. Daca sistemul (4.14) nu are solutie unica, problema
este mai complicata. In acest caz este mai bine sa se schimbe vectorul initial.
Metoda Leverrier
Pentru descrierea metodei Leverrier se utilizeaza urmatoarea lema.
Lema 4.4 (Newton) Dac
a P = xn + p1 xn1 + + pn este un polinom de
gradul n, cu r
ad
acinile 1 , . . . , n si dac
a sk = k1 + . . . + kn pentru k ntreg,
atunci lund p0 = 1 avem
kpk =
X
0jk1
pj skj
(4.15)
129
Demonstratie. Din
P () =
n
Y
( i )
i=1
n
n
n X
X
X
X
1
1
ki
sk
P 0 (x) X
1
=
=
=
=
,
k+1
P (x)
i
1 i / i=1 k=0
k+1
i=1
i=1
k=0
unde s0 = n. Deci
n
X
ni1
(n i)pi
n
X
i=1
adica
pj
nj
j=0
n
X
(n i)pi ni1 =
i=1
sk k1
k=0
pj sk njk1 .
j,k0
pj sk =
j+k=i
i
X
pj sij = pi s0 +
j=0
i1
X
pj sij
j=0
de unde (4.15)
130
1
Bn1
pn
3) Dac
a este o valoare proprie a lui A, atunci orice coloan
a a matricei
C = n1 I + n1 B1 + + Bn2 + Bn1
este un vector propriu pentru A, asociat valorii proprii .
4) Dac
a este o valoare proprie simpl
a, matricea de la 3) este 6= 0.
Demonstratie. 1) Avem succesiv A1 = A, A2 = AB1 = A(A1 + p1 I) =
A2 + p1 A, A3 = A(A2 + p2 I) = A3 + p1 A2 + p2 A deci
Ak = Ak + p1 Ak1 + p2 Ak2 + + pk1 A.
Fie sk = tr(Ak ). Vom avea
kpk = tr(Ak ) = sk + p1 sk1 + + pk1 s1 .
131
Aceste relatii snt (4.15), deci n acest caz se obtin coeficientii polinomului
caracteristic P .
2) Daca Bn = An + pn I = An + p1 An1 + + pn1 A + pn I atunci din
1
teorema Cayley - Hamilton Bn = 0 iar aceasta da A1 = Bn1 .
pn
3) Printr-un calcul direct se arata ca (A I)C = 0.
4) Putem verifica ca tr(C ) = P 0 () 6= 0 deci C = 0.
2
Metoda coeficientilor nedeterminanti
Daca D() = n +p1 n1 + +pn1 +pn lund succesiv = 0, 1, . . . , n1
atunci pentru coeficientii p1 , . . . , pn se obtine urmatorul sistem de ecuatii
liniare
pn = D(0)
n
n1
1 + p1 1
+ + pn = D(1)
2n + p1 2n1 + + pn = D(2)
..
.
(n 1)n + p1 (n 1)n1 + + pn = D(n 1)
de unde
p1 + p2 + + pn1 = D(1) D(0) 1
2n1 p1 + 2n2 p2 + + 2pn1 = D(2) D(0) 2n
..
.
(n 1)n1 p1 + + (n 1)pn1 = D(n 1) D(0) (n 1)n
si
pn = D(0) = det(A).
Introducnd matricea
Cn =
1
2n1
..
.
1
2n2
1
2
(n 1)n1 (n 1)n2 ) n 1
si vectorii D =
D(1) D(0) 1n
D(2) D(0) 2n
..
.
p=
p1
p2
..
.
132
k = 0, 1, , n 1
4.3
(4.16)
Desi cu totul special, acesta este cazul principal de interes pentru aplicarea
metodei puterilor. Notam ca ipotezele de mai sus implica ca 1 si x1 snt
reali.
Fie z (0) o alegere initiala pentru un anumit multiplu a lui x1 . Daca nu exista
nici o metoda rationala pentru alegerea lui z (0) , putem folosi un generator
de numere aleatoare pentru alegerea fiecarei componente. Pentru metoda
puterilor, definim
z (m) = Az (m1)
(4.17)
Daca vectorul initial z (0) l scriem folosind baza {x1 , . . . , xn } obtinem
z (0) = c1 x1 + + cn xn
de unde
z (m) =
n
X
j=1
m
m
j cj xj = 1 c1 x1 +
n
X
j m
j=2
sau nca
(m)
z (m) = m
).
1 (c1 x1 +
cj xj
(4.18)
133
si z (m+1) m+1
c1 x1
1
de unde
z (m+1) 1 z (m)
Alegnd doua componente nenule corespondente obtinem
(m+1)
zi
(4.19)
(m)
zi
z (m)T Az (m)
z (m)T z (m)
(4.20)
si se demonstreaza ca 1 1 .
(m)
z (1) =
1 (1)
w
1
w(2) = Az (1)
z (2) =
1 (2)
w
2
w(m) = Az (m1)
z (m) =
1 (m)
w
m
(4.22)
134
Am z (0)
,
||Am z (0) ||
m = 1, m 1
(4.23)
= 1.
Apoi
z (1) =
Az (0)
w(1)
= 1
,
1
||Az (0) ||
1 =
1
.
A2 z (0)
||Az (0) ||
kA2 z (0) ||
,
||A2 z (0) ||
= 1
w(2)
A2 z (0)
||A2 z (0) ||
A2 z (0)
= 1
/
=
2
2
||Az (0) || ||Az (0) ||
||A2 z (0) ||
(m)
1
|1 |
x1
m c1 x1
=
m
|c1 |||x1 ||
||x1 ||
Dar
m = 1 este, n general, independent de m. Acesta este cazul cnd x1
are o unica componenta maxima n valoare absoluta. In cazul n care x1 are
mai multe componente avnd aceiasi valoare absoluta
m poate sa varieze
cu m. Cum
1
z (m) =
Am z (0)
1 m
rezulta ca
z (m)T Az (m)
m = (m)T (m)
z
z
135
n
2 2m+1 xT x
z (m)T Az (m)
(Am z (0) )T Am+1 z (0)
j=1 cj j
j j
= (m)T (m) =
=
=
P
n
2
2m
T
(0)
(0)
m
T
m
z
z
(A z ) (A z )
j=1 cj j xj xj
= 1
c21 +
Pn
c21 +
2m+1 T
xj xj c2j
j=2 (j /1 )
Pn
2m c2 xT x
j=2 (j /1 )
j j j
definit prin
uT w(m)
uT z (m1)
converge la 1 .
Calculul valorilor proprii intermediare
Dupa ce 1 si x1 au fost determinati, este posibil de a calcula alte valori proprii, procednd la fel, eliminnd ns
a 1 si x1 din calcul. Incercam sa nlocuim
matricea A printr-o matrice A2 a caror valori proprii snt 0, 2 , . . . , n utiliznd metoda deflatiei. Versiunea cea mai simpla a acestei metode este cea
data de Hotelling (1933) aplicata cnd cunoastem valoarea proprie 1 si un
vector propriu x1 a unei matrici simetrice A = A1 . Se defineste A2 prin
relatia
xT1 x1 = 1, A2 = A1 1 x1 (x1 )T
adica punem
(2)
(1)
A2 xi = A1 xi 1 x1 (x1 ) xi =
0
i=1
i xi i =
6 1
136
cu e1 = (1, 0, . . . , 0)T
si k1 6= 0
(4.24)
Cum A1 x1 = 1 x1 avem
H1 A1 (H11 H1 )x1 = 1 H1 x1
si utiliznd 4.24 avem
H1 A1 H 1 e1 = 1 e1
ceea ce demonstreaza ca prima coloana a matricei H1 A1 H11 trebuie sa fie
egala cu 1 e1 . Putem pune
A2 = H1 A1 H11
1 | bT1
= +
0
| B2
1 | bT1
(1)
+
= 2
= 2 x2
(2)
(2)
0
| B2
x2
x2
de unde
(2)
(1 2 ) + bT1 x2 = 0
(1)
x2 = H11 x2 .
Procednd de o maniera analoaga, dupa ce am obtinut 2 si vectorul propriu
(2)
x2 pentru matricea B2 , daca determinam H2 matrice nesingulara astfel ca
(2)
H2 x2 = k2 e1
137
H2 B2 H21
2 | bT2
=
0 | B3
4.4
Metoda Jacobi
Metoda Jacobi (1846) este metoda cea mai simpla pentru calculul tuturor
valorilor proprii si a tuturor vectorilor proprii pentru o matrice A simetric
a
(n general plina).
Descrierea metodei Jacobi
Principiul metodei Jacobi consta n a construi un sir de matrici {Ak }k1
pornind de la matricea A1 = A, un sir de matrici ortogonale (Uk )k1 astfel
ca
Ak+1 = UkT Ak Uk = (U1 U2 Uk )T A1 (U1 U2 Uk )
(4.25)
convergent, cnd k , catre o matrice diagonala = diag(1 , . . . , n ) sau
catre o matrice diagonala 0 obtinut
a din prin permut
ari de indici.
Coloanele matricilor ortogonale
Pk = U1 U2 Uk
(4.26)
(4.27)
anul
am dou
a elemente nediagonale ale matricei Ak , anume apq si aqp , aplicnd
exact principiul de la reducerea unei forme patratice cu ajutorul rotirii
axelor. Pentru simplificarea studiului unei asemenea transformari, punem
Ak = A, Uk = U, A0 = U T A, A00 = A0 U = U T AU = B.
138
U = Rp,q () =
1
..
.
1
cos
1
.. . .
.
.
0
sin
sin
0
..
.
1
cos
1
..
.
1
(4.28)
Geometric, aceasta corespunde la o rotatie de unghi n planul de coordonate (xp , xq ). Elementele matricei U = Rp,q () snt deci definite prin
ui,i
upp
pq
u
q,p
uij
= 1 i 6= p, i 6= q
= uqq = cos
= sin
.
= sin
= 0 n rest
(4.29)
apj
a0qj
a0ij
j = 1, 2, . . . n
(4.30)
139
00
ai,p
a00i,q
a00ij
i = {1, 2, . . . n} .
(4.31)
bij
bpj
b
qj
bpp
bqq
bpq
= aij , i 6= p, q si j 6= p, q
= apj cos aqj sin , j 6= p, q
= apj sin + aqj cos , j 6= p, q
= app cos2 2apq cos sin + aqq sin2
= app sin2 + 2apq cos sin + aqq cos2
= bqp = (app aqq ) cos sin + apq (cos2 sin2 )
(4.32)
n
X
b2ij
i,j=1
n
X
a2ij = kAk2F .
(4.33)
i,j=1
In plus, dac
a apq = aqp 6= 0, putem alege unghiul astfel ca bpq = bqp = 0.
Este suficient pentru aceasta s
a alegem [/4, /4] astfel ca
tg(2) =
2apq
app aqq
(4.34)
b2i,i
n
X
a2i,i + 2a2pq
(4.35)
i=1
adic
a suma p
atratelor elementelor de pe diagonala principal
a creste cu de
dou
a ori p
atratul termenului ce se anuleaz
a prin transformare.
Demonstratie. Pentru demonstrarea relatiei (4.33) avem
kBk2F
140
b2i,i
n
X
(4.36)
i=1
(4.37)
si n acelasi fel
bpp bqq = (app aqq ) cos 2 2apq sin 2
de unde
(bpp bqq )2 = (app aqq )2 cos2 2 4(app aqq )apq sin 2 cos 2 + 4a2pq sin2 2.
(4.38)
Alegnd astfel ca bpq = 0, adica 2apq cos + (app aqq sin 2 = 0, prin
ridicare la patrat obtinem
4a2pq cos2 2 + (apq aqq )2 sin2 2 + 4apq (app aqq ) sin 2 cos 2 = 0. (4.39)
Din (4.38) si (4.39), prin adunare, obtinem
(bpp bqq )2 = (app aqq )2 + 4a2pq
(4.40)
aqq app
=
2apq
141
sin
s
= ,
cos
c
1 t2
,
2t
c2 + s2 = 1
2 + 1 =
.
2 + 1
(4.41)
t=
+ sgn() 2 + 1
pentru 6= 0
(4.42)
pentru = 0
142
2apq
x
=
app aqq
y
(4.44)
2 sin =
[(x2
y 2 )1/2
y]/(x2
y 2 )1/2
alegnd cos > 0 si sin cu semnul lui tg (2). Dar daca x este mic n raport
cu y, (4.45) da o valoare pentru sin care m
annc
a precizia. Pentru un
calcul cu 10 zecimale n virgula fixa si n virgula flotant
a, (4.45) da sin = 0,
cos = 1 pentru toate valorile lui x si y astfel ca |x| < 105 |y|. In acest
caz chiar daca cerinta (i) este satisfacut
a, cerinta (ii) nu este satisfacut
a.
Opernd numai n virgula flotant
a, exista un mijloc de a conserva o precizie
satisfacatoare ( vezi Wilkinson [102], p. 131, p. 275 pentru o analiza fina
a erorilor comise ). Notam de asemenea ca n locul formulelor (4.44) sau
(4.45) putem de asemenea utiliza n locul lui , a unei aproximatii a lui
prin
apq
(4.46)
T = tg =
2
2(app aqq )
cu || /4, semnul lui fiind cel al membrului drept din (4.46) ceea ce
corespunde alegerii unui unghi astfel ca
tg
= tg (2)
2
4
cnd
0.
1
n locul lui 0, cu 0 (1 + 2) si unde este de fapt vecin lui zero
4
pentru ntr-o ntreaga vecinatate. Viteza de convergent
a ramne comparabila pentru aceasta alegere a unghiului de rotatie, cu viteza de convergent
a,
corespunzatoare alegerii exacte a lui prin (4.44) sau (4.45).
143
|a(k)
pq | = max |aij |
i6=j
(4.47)
adica eliminam doi coeficienti care snt cei mai mari n valoare absoluta.
(1, 2), (1, 3) . . . (1, n); (2, 3) . . . (2, n); . . . ; (k, k + 1), . . . , (k, n); . . . ; (n 1, n).
(4.48)
Trebuie sa remarcam ca elementele care s-au anulat la o iteratie data snt
n general nlocuite cu elemente nenule n timpul rotatiilor urmatoare. Este
deci n general necesar sa refacem de cteva ori baleajul ciclic, pn
a cnd toate
elementele nediagonale snt inferioare unei anumite valori a tolerantei , sub
care un numar poate fi considerat zero.
c) Metoda Jacobi cu prag
Procedam ca la metoda Jacobi ciclica, dar anul
am elementele nediagonale
care snt n modul superioare unui anumit prag , care se micsoreaz
a cu
fiecare baleiaj, ceea ce prezint
a avantajul de-a evita sa avem elemente nediagonale prea diferite n valoare absoluta. Iata un exemplu n care poate fi
luat pragul 23 , 26 , 210 , 218 ,...
144
(4.49)
145
/4
yr
`
yq
yi
/4
yj(k)
X
Figura 4.1:
(k)
146
(k)
j6=i
(4.50)
(4.51)
(k)
n2
2
)k .
n
(4.52)
(k)
k+r 1
1 r
1
k k
r
e
unde 2r = n2 n.
Aratam ca sirul (Dk )k nu are dect un num
ar finit de valori de aderent
a,
care snt n mod necesar de forma diag((1) , . . . , (n) ), Sn . Amintim
ca 1 , . . . , n snt cele n valori proprii ale matricei A, presupuse aranjate, o
data pentru totdeauna, ntr-o ordine determinata dar arbitrara.
Cum (Dk ) este un sir marginit, deoarece kDk kF kAkF , putem extrage un
subsir (Dk0 ) convergent catre o matrice D. Avem de asemenea
lim Ak0 = D caci Ak0 = Dk0 + Bk0 si lim
Bk0 = 0,
0
k0
Cum
det(Ak0 I) = det(A I) C
147
akii
(tg k )
(k)
apq tg k
(k)
apq
daca i 6= p, i 6= q
dac
ai=p
dac
ai=q
(k)
148
tg 2k = (k)
, |k | .
(k)
4
aqq app
Utiliznd teorema precedenta si (din nou ) faptul ca toate valorile proprii ale
matricei A snt distincte rezulta existenta unui ntreg l astfel ca
k
k l |a(k)
qq app |
1
min |i j | > 0.
2 i6=j
(k)
4.5
Metoda Givens-Householder
149
In plus aceasta metoda permite aproximarea fiecarei valori proprii cu o precizie variabila. Aceasta metoda nu furnizeaza vectori proprii, care trebuie
determinati separat cu o alta metoda, de exemplu cu metoda puterilor inversa.
Principiul metodei consta n a reduce mai nti matricea simetrica A la o
matrice simetrica tridiagonala asemenea, efectund un num
ar finit de transformari ortogonale.
Pentru determinarea valorilor proprii ale unei matrici simetrice tridiagonale
se utilizeaza metoda Givens numit
a nc
a metoda bisectiei.
Forma tridiagonal
a a unei matrici simetrice
Forma tridiagonala a unei matrici simetrice se dovedeste a fi bine adaptata
pentru determinarea vectorilor si valorilor propri. In cele ce urmeaza vom
da doua metode de aducere a unei matrici simetrice la o forma tridiagonala.
Metoda Givens. Efectuam un sir finit de N = (n 1)(n 2)/2 rotatii
pentru a reduce matricea simetrica A la o forma tridiagonala de forma
1 1
1 2 2
2 3 3
A =
..
n1
(4.54)
n2 n1
n1 n
k = 1, , N
(4.55)
150
2n i 2
(i 1) + (j i 1).
2
(0)
urr = 1
r 6= i, j
u = sin
(4.57)
ij
k
u
=
sin
k
ji
ur,s = 0
n rest .
(k1)
ai1,i
cos(k ) = q
(k1)
(k1)
(ai1,i )2 + (ai1,j )2
(k1)
sin(k ) = q
ai1,j
(k1)
(4.58)
(k1)
(ai1,i )2 + (ai1,j )2
(k1)
(k)
ai1,i
(k)
(k)
uii = ujj = q
(k1)
(k1)
(ai1,i )2 + (ai1,j )2
(k1)
(k)
uij
(k)
uji
ai1,j
=q
(k1)
(k1)
(ai1,i )2 + (ai1,j )2
u(k)
rs = rs , r, s 6= i, j.
151
(k)
(k1)
ars = ars
r 6= i, j si s 6= i, j
(k)
(k1)
(k1)
ari = ari
cos k arj
sin k , r 6= i, j
(k)
(k1)
(k1)
sin k + arj
sin k , r =
6 i, j
arj = ari
(k)
(k1)
=a
cos2 2a
(k1)
(k1)
cos sin + a
sin2
k
k
k
k
ii
ii
i,j
jj
(k)
(k1)
(k1)
(k1)
2
2
ajj = aii
sin k + 2aij
cos k sin k + ajj
cos k
(k)
(k1)
(k1)
(k1)
2
aij = (aii
ajj ) sin k cos k + aij (cos k sin2 k )
(k)
(k)
(4.59)
aji = aij
Putem acum verifica ca daca primele k 1 elemente necodiagonale ale matricei Ak1 snt nule, (i 1, j) fiind indicele elementului necodiagonal de
ordin k atunci primele k 1 elemente necodiagonale n matricea Ak snt
(k1)
nule. Intr-adevar, pe linia i 1 singurele elemente modificate snt ai1,i si
(k1)
(k)
arj
(k1)
si aij
. Dar
152
sa fie de forma
x x
x x x
x x
x
..
x x x
x
x
x
..
.
Ak =
x x
x x
x x
..
..
.
.
x x x x
x
x
x
..
.
-linia k
coloana k
In final, matricea A = An1 = (H1 Hn2 )T A(H1 Hn2 ) este tridiagonala pe o parte si asemenea cu matricea, A1 = A pe de alta parte.
Matricea ortogonala P cautat
a fiind de forma P = H1 Hn2 , produsul
a n 2 matrici Householder. In prezenta metoda, fiecare transformare
Ak Ak+1 = HkT Ak Hk se efectueaza cu ajutorul unei matrici de forma
Hk =
Ik 0
0 Hk
153
x x
x x x
x x x
..
HkT Ak Hk
x x
x
x
x
..
.
x
x
x
x
..
.
x x
x x
x x
..
..
.
.
x x x x
(k)
vv T
, v vector nenul .
vT v
(k)
Daca ni=k+2 |aij | > 0, exista, utiliznd Teorema 2.8, un vector vk Rnk
astfel ca vectorul H(
vk )ak Rnk s
a aiba toate componentele nule n afara
(k)
de prima. Alegem Hk = H(
vk ). Natural, daca aik = 0 pentru i = k+2, . . . , n
k = I (reamintim ca am convenit sa consideram matricea unitate
alegem H
ca o matrice Householder. Dispunem acum de toate elementele necesare
pentru descrierea trecerii de la matricea Ak la matricea Ak+1 = HkT Ak Hk .
(k)
Daca aik = 0 pentru i = k + 2, . . . , n matricea Ak este deja de forma Ak+1
si este suficient sa luam Hk = I. In caz contrar, construim matricea Hk cu
k = H(
ajutorul matricei H
vk ) cum am aratat mai sus. Putem considera
matricea Hk ca fiind o matrice Householder:
Hk = H(vk ) = I 2
vk vkT
vkT vk
154
din Teorema 2.8 existenta doua alegeri posibile pentru vectorul vk si anume
(k)
vk = (0, . . . , 0, ak+1,k (
n
X
(k)
(k)
(k)
i=k+1
alegerea efectiv
a a semnului din fata sumei fiind ceea a semnului elementului
(k)
ak+1,k (pentru a nu avea numitori prea mici . Odata vectorul vk deter(k+1)
(k+1)
(k+1)
aij
(k)
(k) (k)
= aij wi qj
(k)
(k)
qi wj
k + 1 i, j .
A2 = DT A1 D
155
b1 c1
c b
2
1
..
B=
c2
..
..
..
..
..
cn1
(4.60)
cn2 bn1
cn1 bn
156
b1 c1
c b
2
1
..
Bi =
c2
..
..
..
..
..
ci1
1in
ci2 bi1
ci1 bi
p1 () = b1 ,
(4.61)
2in
au propriet
atile urm
atoare:
1) Polinomul pi este polinomul caracteristic pentru matricea Bi , 1
i n;
2)
lim pi () = +
1 i n;
3) Dac
a pi (0 ) = 0 atunci pi1 (0 ) pi+1 (0 ) < 0 pentru 1 i n 1;
4) Polinomul pi posed
a i r
ad
acini reale distincte, care separ
a cele (i + 1)
r
ad
acini ale polinomului pi+1 , 1 i n 1, cum indic
a Figura 4.2
Demonstratie. (1) Aceasta proprietate se verific
a dezvoltnd determinantul
matricii (Bi I) n raport cu ultima linie (sau ultima coloana ).
(2) Prin recurenta pi () = (1)i i + Qi () unde Qi este un polinom de grad
cel mult i 1, deci lim pi () = +.
(3) Presupunem ca pi (0 ) pentru un i ntreg verificnd 1 i n 1. Din
relatia de recurenta, deducem
pi+1 (0 ) = c2i pi1 (0 )
157
(i2)
< 1
(i1)
< 2
(i2)
< 2
(i2)
(i1)
pi (k
(i1)
(i1)
) = c2i1 pi2 (k
(i1)
ceea ce atrage pi (k
) pi2 (k
) < 0. Dar, din ipoteza de inductie, pi2
(i1)
(i1)
schimba semnul ntre k
si k1 pentru k = 2, . . . , i 1. Aceasta atrage
(i1)
(i1)
si o rad
acin
a la dreapta
ceea ce atrage ca pi are o radacin
a la stnga lui 1
(i1)
(i)
lui i1 . Se vede deci ca rad
acinile k ale polinomului pi snt simple si
alterneaz
a cu cele ale polinomului pi1 , adica
(i)
(i1)
1 < 1
(i1)
< 2
(i)
(i1)
(i)
(4.62)
158
Figura 4.2:
Teorema 4.11 Fie i un ntreg verificnd 1 i n. Fiind dat un num
ar
R, punem
sgn pi () =
semnul pi ()
semnul pi1 ()
dac
a pi () 6= 0
dac
a pi () = 0
Atunci num
arul N (i; ) al schimb
arilor de semne ntre elementele consecutive ale multimii ordonate
E(i; ) = {+, sgn p1 (), sgn p2 (), , sgn pi ()}
este egal cu num
arul de r
ad
acini ale polinomului pi care snt mai mici ca .
Demonstratie. Verificam pentru nceput ca expresia sgn pi () s-a definit
far
a ambiguitate n toate cazurile, pentru ca pi () = 0 pi1 () 6= 0 din
teorema precedenta. Deoarece
b1 E(1; ) = {+, +} N(1; ) = 0
159
(i)
(i)
(i)
(i+1)
(i)
(i+1)
a) N (i;) < N (i;)+1 atunci sgn (pi+1 ()) = sgn(pi ()) deci
N (i + 1; ) = N (i; ).
(i+1)
(i)
b) N (i;)+1 < < N (i;)+1 atunci sgn (pi+1 ()) = sgn (pi ()) deci
N (i + 1; ) = N (i; ) + 1.
(i)
c) N (i;)+1 = atunci sgn (pi ()) = sgn (pi1 ()) = sgn (pi+1 ())
deci
N (i + 1; ) = N (i; ) + 1.
( In ultima implicatie, s-a folosit n mod esential proprietatea (3) din teorema
precedenta ).
2
Observatie. Daca M (i; ) este num
arul de perechi consecutive de acelasi
semn ({+, +} sau {, }) ce se afla n multimea ordonata E(i; ); de exemplu, daca
E(10; ) = {+, +, , +, , , +, , , , +}
M (10; ) = 4 n timp ce N (10; ) = 6, atunci, se verific
a usor ca
M (i; ) + N (i; ) = i, pentru i = 1, 2, , n
astfel ca numarul M (i; ) este egal cu num
arul de rad
acini a polinomului pi
care snt .
2
Rezultatul din Teorema 4.11 permite sa aproxim
am suficient de bine valorile
proprii ale matricii B = Bn si de asemenea sa calculam direct o valoare
160
(4.63)
0 = max (ci + ri ).
1in
161
(b1 k )x1
+c1 x2
c1 x1 +(b2 k )x2 +c2 x3
c2 x2 +(b3 k )x3 +c3 x4
..
.
cn1 xn1
=0
=0
=0
+(bn k )xn = 0
162
si cum x1 nu poate fi nul (astfel toate componentele xi ale lui x vor fi nule )
(b1 k )
putem lua x1 = 1. De unde x2 =
, si prin recurent
a
c1
j1
xj = (1)
j1
Y
pj1 (k )/
ci x1 , j = 2, 3 . . . , n
(4.64)
i=1
(4.65)
(0)
n
X
(0)
xi vi
(4.66)
i=1
Presupun de asemenea ca
x(k) =
n
X
(k)
xi vi
i=1
(4.67)
163
(B I)
(k+1)
xi
vi =
i=1
adica
n
X
n
X
(k)
xi vi
i=1
(k+1)
(i )xi
i=1
vi =
n
X
(k)
xi vi
i=1
de unde relatiile
(k+1)
xi
(k)
xi
i
i = 1, 2, . . . n, k = 0, 1, 2, . . .
(k)
n
X
i=1
1
(0)
x vi .
(i )k i
(4.68)
(k)
(0)
n
n
k
X
X
xj
xi
1 (0)
(0)
vi ].
v
=
[x
v
+
x
= k vj +
i
j
i
(i )k
k j
i
i=1,i6=j
i=1,i6=j
(0)
Ceea ce arata ca daca xj 6= 0, adica vectorul x(0) n-a fost ales ortogonal pe
vectorul cautat vj , iteratiile xk converg rapid catre vectorul propriu vj . 2
4.6
Metoda QR
164
Descrierea metodei QR
Fie A = A1 o matrice patrata oarecare, scriem factorizarea sa QR, fie A1 =
Q1 R1 ( Q1 matrice ortogonala (unitara) daca A1 este reala (complexa), iar
R1 matrice superior triunghiulara), formam matricea A2 = R1 Q1 ; si scriem
factorizarea QR a matricei A2 , fie A2 = Q2 R2 , apoi se formeaza matricea
A3 = R2 Q2 si asa mai departe
(
A1 A2
factorizarea QR : A = A1 = Q1 R1 ,
lu
am :
A2 = R1 Q1
(
Ak Ak+1
factorizarea QR : Ak = Qk Rk ,
luam :
Ak+1 = Rk Qk
= R1 Q1
..
.
= QT1 AQ1
165
cu
k = Q1 Qk .
Q
k.
Obiectivul este studierea comportamentului asimptotic al matricelor Q
k
Pentru aceasta vom considera puterile succesive A , k 1 ale matricei A,
pentru care o factorizare QR a fost deja data sub forma
k cu R
k = Rk R2 R1
kR
Ak = Q
deoarece
Ak = Q1 (R1 Q1 )(R1 . . . Q1 )(R1 Q1 )R1 = Q1 Q2 (R2 Q2 ) (R2 Q2 )R2 R1 =
= = (Q1 Q2 . . . Qk )(Rk R2 R1 ).
Utiliznd factorizarea LU a matricei P 1 , vom obtine o alta factorizare QR
a matricei Ak si comparnd aceste doua factorizari vom obtine o expresie a
k care va fi mai comoda pentru studiu.
matricei Q
k . Considernd P = QR si P 1 = LU fac(ii) Alt
a expresie a matricei Q
torizarile QR si LU ale matricelor P respectiv P 1 , ipoteza n care matricea
A este inversabila permite scrierea
Ak = P k P 1 = QR(k Lk )k U,
166
k
unde am notat k matricea diag(k
a
1 , . . . , n ). Interesul de a face s
k
k
apara L este cunoasterea comportamentului sau asimptotic. Matricea
L fiind inferior triunghiulara cu (L)ii = 1, 1 i n, avem
(k Lk )ij =
( / )k (L)
i
j
ij
daca i < j
daca i = j
daca i > j
proprii ale matricei A (aceasta este singurul loc unde aceasta ipoteza este
utilizata ). Punnd
k Lk = I + Fk , cu lim Fk = 0
k
putem scrie
R(k Lk ) = (I + RFk R1 )R.
Pentru valorile suficient de mari ale ntregului k matricile I + RFk R1 snt
inversabile, pentru ca limk Fk = 0, ele admit deci o unica factorizare
k R
k cu (R)
ii > 0 1 i n. Matricele Q
k
QR de tipul I + RFk R1 = Q
fiind ortogonale, sirul (Qk ) este marginit ( kQk k2 = 1). Putem deci extrage
k0 ) care converge la o matrice Q
de asemenea ortogonala.
un subsir, fie (Q
k0 = Q
T0 (I + RFk0 R1 ) deducem ca subsirul extras (Rk0 ) converge
Cum R
k
catre o matrice R, la fel superior triunghiulara cu (R)ii 0, 1 i n.
Trecnd la limita pentru sirul extras, obtinem I = Q R ceea ce impune
(R)ii > 0, 1 i n. Din unicitatea descompunerii QR (Teorema 4.12)
deducem Q = R = I. Acelasi rationament poate fi reprodus pentru toate
subsirurile sirurilor (Qk ) si (Rk ), unicitatea limitelor arata ca cele doua siruri
snt n ntregime convergente:
lim Qk = I,
lim Rk = I.
167
k si egalitatea
Utiliznd expresiile gasite mai sus pentru matricele Q
A = QRR1 Q1
deducem
T
lim (Qk RR1 Qk )
k
= RR
1 x
=
..
x
x
..
.
n
ordinea valorilor proprii (n modul descrescatoare ) fiind pastrat
a pentru ca
matricea R este superior triunghiulara. Punnd
k = QTk RR1 Qk ,
D
obtinem (matricele Dk fiind diagonale )
(Ak+1 )ij = (Dk )ii (Dk )jj (Dk )ij
de unde
(Ak+1 )ii = (Dk )ii , 1 i n
deoarece |(Dk )ii | = 1, 1 i n. Concluziile cautate decurg din relatia
limn Dk = RR1 stabilita mai sus.
2
Observatii.
1) Daca matricea A este reala, ipoteza ca toate valorile sale proprii snt
de module diferite antreneaz
a ca toate valorile proprii snt reale.
2) Notam caracterul neasteptat al ipotezei privind existenta unei factorizari LU a matricei P 1 ( o conditie suficient
a pentru aceasta factorizare a fost data n Teorema 2.2)
168
x
x
0
0
0
0
x| x x
x| x x
|
x| x x
0| x x
0| x x
0| x x
169
x x
x x
x x
x x
x x
x x
(4.69)
In fapt putem spune ca minorul sau principal de ordinul r este deja sub
forma Hessenberg si aceasta parte nu mai este alterata n pasi urmatori.
Pasul r major consta din (nr 1) pasi minori n care zerouri snt introduse
n pozitiile r + 2, r + 3, . . . , n ale coloanei r prin rotatii n planul (r + 1, i).
In (4.69) am subliniat elementele care snt eliminate, liniile si coloanele care
snt afectate. Pasul r major poate fi descris ntr-un limbaj algoritmic astfel.
Pentru i de la r + 1 la n efectuam pasii (i) la (iv):
(i) Calculam x = (a2r+1,r + a2i,r )1/2 .
(ii) Calculam cos = ar+1,r /x, sin = ai,r /x ( Daca x=0 luam cos = 1
si sin = 0 si omitem pasii (iii) si (iv)). Scriem x peste ar+1,r si zero
peste ai,r .
(iii) Pentru fiecare j de la r + 1 la n: calculam ar+1,j cos + ai,j sin si
ar+1,j sin + ai,j cos si rescriem respectiv peste ar+1,j si ai,j .
(iv) Pentru fiecare j de la 1 la n: calculam aj,r+1 cos +aj,i sin si aj,r+1 sin +
aj,i cos si rescriem respectiv peste aj,r+1 si aj,i .
In (iii) efectuam de fapt o nmultire la stnga iar n (iv) o nmultire la dreapta
prin rotatia plana (r + 1, i). Numarul total de nmultiri este
X
4n(n r 1) +
10
4
4(n r 1)2
= 2n3 + = n3
3
3
170
cel mai mic n modul, si folosim cele mai putin semnificative doua pozitii
pentru a indica daca sau nu a fost memorat cos si semnul pe de alta parte.
Metoda Householder. Ca si-n cazul tridiagonalizorii unei matrici reale
simetrice (sau hermitiene), este posibil sa utilizam transformarii ortogonale
(unitare) elementare Householder pentru a reduce, printr-o succesiune de
n 2 transformari ortogonale
Ar = PrT Ar1 Pr
o matrice A = A0 oarecare la o forma superioara Hessenberg.
Inainte de etapa r, (r = 1, . . . , n 2 ) matricea a fost redusa la o forma
reprezentata pentru n = 6, si r = 3, prin
Ar1 =
nr
x
x
0
0
0
0
x
x
x
0|
0|
0|
x|
x|
x|
x|
x|
x|
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
H
|
C
r1
r1
0
|b
|
B
r1
r1
Matricea Hr1 este o matrice superioara Hessenberg de ordinul r. Transformarea efectuata la etapa r este definita prin
Ar1 Ar = PrT Ar1 Pr
unde matricea Pr este de forma
r{
I | 0
I | 0
Pr =
=
T
n r{
0 | Qr
0 | I 2vr vr
unde vr este un vector unitar de ordin (n r). Avem deci
Hr1 | Cr1 Qr
Ar = Pr Ar1 Pr = |
0 | cr | Qr Br1 Qr
cu cr = Qr br1 . Daca alegem vectorul vr astfel ca cr sa fie nul cu exceptia
primei sale componente, matricea principala de ordinul (r + 1) a lui Ar va fi
sub forma Hessenberg. Este mai comod de scris Pr sub forma
Pr = I 2wr wrT
171
uir = 0 (i = 1, 2, . . . r)
ur+1,r = ar+1,r Sr
ui,r = a(r1) (i = r + 2, . . . n)
ir
n
X
1/2
(r1)
Sr =
|air |2
r+1
2K = S 2 a(r1) S
r
(r1)
In (4.70) aij
(r)
ar+1,r
(4.70)
r+1,r r
(r1)
172
unde pTr este un n-vector a carui (r 1) componente snt nule. Avem deci
Fr = Ar1 (ur /2Kr2 )pTr
(4.71)
Nu trebuie sa calculam componenta r a vectorului pr deoarece aceasta influienteaza coloana r a matricei Fr si noi stim deja ca primele r componente ale
acestei coloane snt cele ale lui Hr1 iar cele ce urmeaza formeaza vectorul cr .
Transformarea a fost astfel proiectata ca toate componentele lui cr snt nule
cu exceptia primului element care este Sr . Snt necesare numai (n r)2
nmultiri pentru calculul celor (n r) componente relevante pentru pr si
(n r)2 nmultiri n calculul lui Fr din (4.71).
Pentru nmultirea la dreapta scriem
Fr ur = qr
(4.72)
2(n r)2 +
5
2
2n(n r)
= n3 + n3 = n3 .
3
3
Capitolul 2
Ecuatii si sisteme neliniare
Radacinile ecuatiei neliniare f (x) = 0 nu pot fi, n general, exprimate ntr-o forma concisa (chiar cnd este posibil, expresia este deseori asa de complicata ca nu este utilizata n mod practic ). Deci,
pentru a rezolva o ecuatie neliniara sntem obligati sa utilizam
metode aproximative. Aceste metode snt n mod uzual bazate
pe ideea de aproximatie succesiva sau pe liniarizare. Asemenea
metode snt iterative , adica plecnd de la o aproximatie sau mai
multe aproximatii ale rad
acinii, se determina un sir x0 , x1 , x2 , . . . ,
care sa convearga la rad
acina cautat
a. In anumite metode este suficient (pentru convergent
a ) sa cunoastem un interval care contine
radacina, iar n alte metode se cere ca aproximatia initial
a sa fie
suficient de aproape de rad
acina cautat
a. Convergenta primelor
metode este lenta, n schimb cele din a doua categorie converg
repede. Deci este preferabil sa se plece cu o metoda care converge mai lent pentru a izola rad
acina, ca apoi sa se continue cu
o metoda rapid convergenmt
a spre final.
O situatie aparte apare n determinarea rad
acinilor reale sau complexe ale unei ecuatii polinomiale.
Rezolvarea sistemelor de ecuatii neliniare este, n general, o problema mult mai dificila. Deci multe din metodele pentru o singura
ecuatie se pot extinde si la sisteme, ele presupun ca o buna aproximare a solutiei sa se stie. Relativ putine lucruri se cunosc despre
cum sa atacam problema rezolvarii unui sistem neliniar daca nu
avem apriori nici o informatie privind plasarea radacinilor.
173
174
Capitolul 2. Ecuat
ii si sisteme neliniare
Ecuatii neliniare
(5.1)
5.1
Izolarea r
ad
acinilor
5. Ecuat
ii neliniare
175
are cel mult n radacini reale. Prin urmare, daca pentru o asemenea ecuatie
obtinem n + 1 schimbari de semn, atunci toate rad
acinile au putut fi izolate.
De exemplu, pentru ecuatia
f (x) x3 6x + 2 = 0
(5.2)
(5.3)
|f (x|
m
(5.4)
176
Capitolul 2. Ecuat
ii si sisteme neliniare
0.0047
= 0.001.
4.448
b
Figura 5.1:
5. Ecuat
ii neliniare
177
Este uneori recomandat sa se nlocuiasca ecuatia (5.1) cu o ecuatie echivalenta (doua ecuatii snt echivalente daca au aceleasi rad
acini )
(x) = (x)
(5.5)
5.2
Metode de aproximare a r
ad
acinilor
(ak , bk ) =
(mk , bk1 ),
(ak1 , mk ),
dac
a f (mk ) < 0
dac
a f (mk ) > 0
(5.6)
Din constructia lui (ak , bk ) rezulta imediat ca f (ak ) < 0 si f (bk ) > 0 iar Ik
contin o radacina a ecuatiei (5.1). Dupa n pasi avem o rad
acin
a n intervalul
(an , bn ), interval de lungime
bn an = 21 (bn1 an1 ) = = 2n (b0 a0 ).
Putem lua mn+1 o estimare a rad
acinii si avem = mn+1 dn , dn =
2n1 (b0 a0 ).
Metoda bisectiei aplicata ecuatiei (x/2)2 sin x = 0 cu I0 = (1, 5; 2) da sirul
de intervale
178
Capitolul 2. Ecuat
ii si sisteme neliniare
k
1
2
3
4
5
ak1
1,5
1,75
1,875
1,875
1,90625
bk1
2
2
2
1,9375
1,9375
mk
1,75
1,875
1,9375
1,90625
f (mk )
<0
<0
>0
<0
f (a)
f (a)
(b a) =
(b a).
f (a) + f (b)
f (b) f (a)
(5.8)
Apoi, se aplica aceiasi procedura pentru intervalul [a, x1 ] sau [x1 , b]. Geometric, metoda coardei este echivalent
a cu nlocuirea curbei y = f (x) prin
coarda care trece prin punctele A[a, f (a)] si B[b, f (b)] (vezi Figura 5.2)
Intr-adevar, ecuatia coardei AB este
y f (a)
xa
=
.
ba
f (b) f (a)
Presupunnd x = x1 si y = 0, obtinem
x1 = a
f (a)
(b a).
f (b) f (a)
(5.9)
5. Ecuat
ii neliniare
179
f (b)
a + h1
f (a)
Figura 5.2:
In primul caz, punctul a este fixat si aproximatiile succesive, x0 = b
xn+1 = xn
f (xn )
(xn a) n = 0, 1, 2.
f (xn ) f (a)
(5.10)
f (x0 )
(b xn )
f (b) f (xn )
(5.11)
a<<b
180
Capitolul 2. Ecuat
ii si sisteme neliniare
f (a)
f (b)
x2
a
x1 b
a x1
x2
f (a)
f (b)
a
b
Figura 5.3:
f ()
( a)
f () f (a)
|f (xn )|
m
Putem da o alta formula care permite estimarea erorii absolute a aproximatiei xn daca doua valori succesive xn1 si xn snt cunoscute. Presupunem ca
derivata f 0 este continua pe intervalul [a, b] care contine toate aproximatiile
5. Ecuat
ii neliniare
181
(5.12)
f (xn1 )
(xn1 a), n = 1, 2, . . .
f (xn1 ) f (a)
f (xn1 ) f (a)
(xn xn1 ).
xn1 a
|f 0 (xn1 f 0 (n1 )|
|xn xn1 |.
|f 0 (n1 )|
Deoarece f 0 (x) are semn constant pe intervalul [a, b] iar xn1 [a, b] si
n1 [a, b], obtinem
|f 0 (xn1 ) f 0 (n1 )| M1 m1 .
Obtinem deci
| xn |
M1 m1
|xn xn1 |.
m1
(5.13)
182
Capitolul 2. Ecuat
ii si sisteme neliniare
Regula falsi
O varianta a metodei secantei este regula falsi unde se alege secanta care
trece prin (xn , f (xn )) si (x0n , f (xn0 ) unde n0 este cel mai mare indice, n0 < n,
pentru care f (xn )f (xn0 ) < 0. Aproximatiile initiale x0 si x1 trebuie, desigur,
alese astfel ca f (x0 ) f (x1 ) < 0. Avantajul regulii falsi este acela ca, la fel
ca la metoda bisectiei, ea este mereu convergent
a pentru functia f .
Regula falsi este o buna metoda de start, dar nu trebuie folosita aproape
de radacina. Poate fi folosita ca parte ntr-o metoda hibrida metoda care
are bune proprietati de convergent
a aproape de rad
acin
a.
Metoda Newton
Ideea metodei Newton pentru aproximarea rad
acinii a unei ecuatii,const
a
n construirea unui sir care sa convearg
a la . Pornind cu o aproximatie
initiala x0 se construieste sirul x0 , x1 . . . . unde xn+1 se determina astfel.
Functia f este aproximata prin tangenta sa n punctul (xn , f (xn )), iar xn+1
se ia abscisa punctului de intersectie a tangentei cu axa Ox. Cum ecuatia
tangentei la grafic n (xn , f (xn ) este
y f (xn ) = f 0 (xn )(x xn )
pentru obtinerea aproximatiei xn+1 se rezolva ecuatia
f (xn ) + f 0 (xn )(xn+1 xn ) = 0.
Metoda Newton este definita de formulele
xn+1 = xn + hn ,
(5.14)
sau
xn+1 = xn f (xn )/f 0 (xn )
(5.15)
Iteratiile pot fi oprite cnd |hn | devine suficient de mic. De exemplu, pentru
functia f (x) = sin x (x/2)2 se doreste determinarea rad
acinii pozitive cu
cinci zecimale exacte. Luam x0 = 1.5
n
0
1
2
3
4
xn
1.5
2.14039
1.95201
1.93393
1.93375
f (xn )
0.434995
-0.303197
-0.024372
- 0.0002333
0.000005
f 0 (xn )
- 0.67926
-1.60948
-1.34805
- 1.32217
-1.32191
hn
0.64039
-0.18838
- 0.01808
- 0.00018
< 12 105
xn
- 0.43375
0.20664
0.01826
0.00018
< 12 105
5. Ecuat
ii neliniare
183
Solutia cautata este 1.93375. Numai patru iteratii au fost necesare, chiar
daca aproximarea initiala a fost proasta. Vedem ca |hn | descreste din ce n
ce mai repede pna ce erorile de rotunjire ncep sa domine.
In ce priveste convergenta metodei Newton avem urmatorul rezultat.
Teorema 5.3 Dac
a f (a) f (b) < 0 iar f 0 (x) si f 00 (x) p
astreaz
a semne constante n [a, b], atunci pentru x0 [a, b] ce satisface f (x0 ) f 00 (x0 ) > 0 sirul
{xn } construit folosind (5.14) converge la unica solutie a ecuatiei f (x) = 0.
Demonstratie. Sa presupunem f (a) < 0, f (b) > 0, f 0 (x) > 0, si
f 00 (x) > 0 pentru x [a, b] ( alte cazuri se trateaza analog ). Din inegalitatea
f (x0 )f 00 (x0 ) > 0 rezulta f (x0 ) > 0 (putem lua, de exemplu x0 = b).
Prin inductie matematica vom arata xn > si f (xn ) > 0. Intr-adev
ar,
pentru nceput x0 > si f (x0 ) > 0. Fie xn > . Lund = xn + ( xn ) si
folosind formula Taylor obtinem
1
0 = f () = f (xn ) + f 0 (xn )( xn ) + f 00 (xn )( xn )2
2
(5.16)
f ()
f 0 ()
184
Capitolul 2. Ecuat
ii si sisteme neliniare
f (xn )
m1
(5.17)
unde m1 este cea mai mica valoare pentru |f 0 (x)| pe intervalul [a, b].
Sa obtinem o alta evaluare a acuratetei aproxim
atiei xn . Aplicnd formula
Taylor avem,
1
f (xn ) = f (xn1 ) + f 0 (xn1 )(xn xn1 + f 00 (n1 )(xn xn1 )2
2
(5.18)
M2
(xn xn1 )2
2m1
(5.19)
5. Ecuat
ii neliniare
185
xn
xn1
Figura 5.4:
obtinem
= xn
1 f 00 (cn )
f (xn )
( xn )2
f 0 (xn ) 2 f 0 (xn )
M2
( xn )2 .
2m1
(5.20)
In particular, daca =
186
Capitolul 2. Ecuat
ii si sisteme neliniare
f (xn )
.
f 0 (x0 )
(5.21)
A0
A1
A3
A2
x3 x2 x1
x0
Figura 5.5:
Metode combinate
Presupunem ca f (a) f (b) < 0 iar f 0 (x) si f 00 (x) pastreaz
a semn constant pe intervalul [a, b]. Combinnd metoda secantei cu metoda Newton,
obtinem o metoda n care la fiecare pas gasim un minorant si un majorant al
aproximatiilor solutiei exacte a ecuatiei f (x) = 0. O consecinta a acestui
fapt este ca cifrele comune din xn si x
n vor apartine solutiei exacte . Exista
patru situatii teoretic posibile:
1)f 0 (x) > 0, f 00 (x) > 0
5. Ecuat
ii neliniare
187
x0 = a
x1
x2
x2
x1
x0 = b
A
Figura 5.6:
3) f 0 (x) < 0, f 00 (x) > 0
f (xn )
(
xn xn )
f (
xn ) f (xn )
(5.22)
f (
xn )
f 0 (
xn )
(5.23)
x
n+1 = x
n
si 0 < xn < x
n xn .
188
Capitolul 2. Ecuat
ii si sisteme neliniare
f (1.1) = 0.3105,
f 0 (1.1) = 6.3205
obtinem
x1 1.039,
x
1 1.051.
Cum x
1 x1 = 0.012 nu s-a atins acuratetea ceruta. Obtinem n continuare
x2 1.04469 x
2 1.04487.
Aici, x
2 x2 = 0.00018, care arata ca acuratetea ceruta este atinsa. Putem
lua
1
= (1.04469 + 1.04487) = 1.04478 1.045
2
cu eroarea absoluta mai mica ca
1
1
0.00018 + 0.00022 0.00031 < 103 .
2
2
6. Sisteme neliniare
189
Sisteme neliniare
Universul matematic al sistemelor neliniare este mult mai complex dect cel
al sistemelor liniare. Daca pentru sistemele liniare avem rezultate clare de
existenta si unicitate a solutiilor, pentru sistemele neliniare asemenea rezultate snt greu de obtinut. In cele ce urmeaza se urmaresc trei aspecte. Primul
aspect priveste existenta solutiilor, al doilea aspect priveste aproximarea
solutiilor, iar al treilea aspect priveste metodele explicite pentru aproximarea
solutiilor.
6.1
Teoreme de existent
a a solutiilor
(6.1)
unde f : D Rm Rm se ncearc
a nlocuirea sistemului (6.1) printr-un
sistem de forma
x = g(x)
(6.2)
unde g : D Rm Rm astfel ca orice solutie a sistemului (6.1) sa fie solutie
a sistemului (6.2). Evident, exista multe moduri n care se poate asocia unui
sistem (6.1) un sistem (6.2), dar problema central
a (principala ) este sa
alegem acel sistem pentru care solutiile sa poata fi usor determinate. Un
rezultat central privind existenta solutiilor (6.2), adica existenta punctului
fix pentru aplicatia g este dat de teorema urmatoare.
Teorema 6.1 (Brouwer) Dac
a K este o multime convex
a, compact
a nevid
a
a unui spatiu finit dimensional iar F : K K este o aplicatie continu
a,
atunci aplicatia F are cel putin un punct fix, adic
a exist
a cel putin un element x K astfel ca F (x) = x.
Aceasta teorema a primit numeroase demonstratii (vezi de exemplu [25],
[54], [61]).
Ca un corolar al teoremei lui Brouwer avem urmatorul rezultat, des utilizat
n demonstrarea existentei solutiilor sistemelor de forma (6.1).
Teorema 6.2 Dac
a : Rm Rm este o aplicatie continu
a si exist
a>0
astfel nct
((y), y) 0, y S = {z Rm ; kzk = }
(6.3)
190
Capitolul 2. Ecuat
ii si sisteme neliniare
(x)
k(x)k
(6.4)
(6.5)
(6.6)
(6.7)
6. Sisteme neliniare
191
(6.8)
(f (x), x)
ckxk kf (0)k x 6= 0,
kxk
(6.10)
(6.11)
verifica
(f (x) f (y), x y) (1 c)kx yk2 x, y Rm .
Cum f este continua si 1 c > 0 utiliznd Teorema 6.4 obtinem ca pentru
orice b Rm ecuatia f (x) = b are solutie si solutia este unica, deci ecuatia
x (x) = b are solutie si solutia este unica.
2
192
6.2
Capitolul 2. Ecuat
ii si sisteme neliniare
Metode de contractie
|v| + |w|
|A| + |B|
|A| |v|
|A| |B|
In plus, |v| = 0 daca si numai daca v = 0, iar |A| = 0 daca si numai daca
A = 0.
Teorema 6.6 Dac
a g : Rm Rm verific
a
|g(x0 ) g(x00 )| K0 |x0 x00 |, x0 , x00 Rm
(6.12)
(6.13)
atunci pentru orice x(0) Rm sirul {x(n) }nN definit recurent prin
x(n+1) = g(x(n) ), n 0
(6.14)
(6.16)
6. Sisteme neliniare
193
Din (6.16) si (6.17), pentru orice ntreg pozitiv j si orice n natural, avem
succesiv
|x(n+j) x(n) | (K0n+j1 + + K0n ) |x(1) x(0) |
K0n (I + K0 + + K0j1 ) |x(1) x(0) | =
(6.18)
(6.19)
Daca functia g este definita pe o submultime din Rm avem urmatorul rezultat demonstrat de Urabe [95]
Teorema 6.7 Fie g : D Rm Rm ce verific
a
|g(x0 ) g(x00 )| K0 |x0 x00 |, x0 , x00 D,
(6.20)
unde matricea p
atrat
a K0 satisface (6.13). Dac
a exist
a x(0) D astfel ca
n
(6.21)
unde x(1) = g(x(0) ), atunci sirul {x(n) }nN poate fi obtinut n S prin
x(n) = g(x(n1) ),
n = 1, 2, . . .
(6.22)
194
Capitolul 2. Ecuat
ii si sisteme neliniare
|x(1) x(0) |
6. Sisteme neliniare
195
poate sa aiba un numar infinit de valori, si atunci este divergent, sau poarte
sa aiba un numar finit de valori si atunci dupa un anumit n0 avem
x
(n+m) = x
(n)
adica de la o anumita valoare n0 sirul {
x(n) } devine periodic.
Pentru orice x, ce apare n calcule, sa presupunem ca g(x) se evalueaz
a cu
g(x) cu eroarea relativa , adica
|
g (x) g(x)| |g(x)|
(6.24)
(6.25)
pentru toate componentele gi (x) si gi (x) ale lui g(x) si respectiv g(x).
Vom presupune n cele ce urmeaza ca
0 < i pentru orice i.
(6.26)
(6.27)
(6.28)
(6.29)
Dac
a exist
a x(0) D astfel ca
= {h; |h x
(1) | 1 + 2 } D
(6.30)
196
Capitolul 2. Ecuat
ii si sisteme neliniare
unde
x
(1) = g(x(0) )
1 = K0 (I K0 )1 |
x(1) x(0) | + (I K0 )1 (I )1 |
x(1) |
(6.31)
(6.32)
2 = (I L0 )1 (1 + |
x(1) |)
(6.33)
L0 = (I + )K0
(6.34)
si
atunci ecuatia x = g(x) are o solutie unic
ax
n D si un sir numeric {
x(n) },
n = 1, 2, . . . poate fi obtinut n prin procesul numeric iterativ (6.23). S
irul
(n)
{
x }, n = 1, 2, . . .} obtinut, oscileaz
a lund un num
ar finit de valori dup
a
un anumit n0 si pentru x
(n) n asemenea stare de oscilatie se obtine
|
x(n) x
| (I L0 )1 |
x|.
(6.35)
(6.36)
(6.37)
6. Sisteme neliniare
197
(6.38)
(6.39)
unde 0 = (I L0 )1 .
Demonstratie. Presupunem ca x
(n1) este n stare de convergent
a nu(n)
merica. Atunci x
(6.40)
Cum |
x| |
xx
(n1) |+|
x(n1) | 0 |
x|+|
x(n1) | avem (I0 )|
x| |
x(n1) |,
de unde
|
x| (I 0 )1 |
x(n1) |
(6.41)
Din (6.40) si (6.41) obtinem
|
x(n) x
(n1) | 20 (I 0 )1 |
x(n1) |
(6.42)
n starea de convergent
a numeric
a.
Deoarece starea de convergent
a numeric
a este atinsa dupa un num
ar finit
de iteratii, din Teorema 6.8, rezulta ca (6.37) este sigur ndeplinit
a dupa un
numar finit de iteratii.
2
Urmatoarea teorema da o estimare a erorii pentru x
(n) cnd procesul iterativ
este oprit cu un criteriu de forma (6.37).
198
Capitolul 2. Ecuat
ii si sisteme neliniare
(6.43)
atunci pentru x
(n) satisf
acnd (6.37) are loc evaluarea
|
x(n) x
| {L0 [I (L0 + )]1 + (I )[I (L0 + )]1 } |
x| (6.44)
Demonstratie. Se arata far
a dificultate ca
|
x(n1) x
| (L0 + )|
x(n1) x
| + ( + )|
x|.
(6.45)
|
x(n) x
| L0 |
x(n1) x
| + |
x|.
(6.46)
|f (
x
) f (
x
| + |f (
x(n1) ) f (
x)|
(n1)
(n1)
|f (
x
| + K0 |
x
x
|
|f (
x(n1) ) f (
x)| + |
x| + K0 |
x(n1) x
|
(n1)
(K0 + K0 )|
x
x
+ |
x|
de unde (6.45). Cum (L0 + ) < 1 din (6.44) obtinem
|
x(n1) x
| [I (L0 + )]1 ( + ) |
x|
si folosind aceasta relatie n (6.46) avem
|
x(n) x
| {L0 [I (L0 + )]1 ( + ) + } |
x|
6. Sisteme neliniare
199
sau
|
x(n) x
| {L0 [I (L0 + )1 + (I )[I (L0 + )]1 }|
x|
si cu aceasta teorema este demonstrata.
(6.47)
6.3
Un sistem de forma
f (x) = 0
(6.48)
(6.49)
200
Capitolul 2. Ecuat
ii si sisteme neliniare
(6.50)
unde H(x) este o matrice de ordinul m avnd componentele hij (x). Ecuatiile
(6.48) si (6.49) vor avea aceleasi solutii daca H(x) este nesingulara (deoarece
n acest caz H(x)f (x) = 0 implica f (x) = 0).
Consideram matricea
J(x) =
fi (x)
xj
(6.51)
(6.52)
(6.53)
6. Sisteme neliniare
201
i) Exist
a un num
ar 1 , verificnd 0 < 1 astfel ca pentru toate
aproxim
arile initiale x(0) B(, 1 , sirul {x(n) } construit prin
x(n+1) = x(n) J 1 (x(n) ) f (x(n) )
(6.54)
(6.55)
ii) Exist
a un num
ar 2 , verificnd 0 < 2 astfel nct pentru toate
aproximatiile initiale x(0) B(, 2 ), sirul {x(n) } construit prin
x(n+1) = x(n) J 1 (x(0) ) f (x(n) )
(6.56)
(6.57)
(6.58)
1
} obtinem
2M K
kJ 1 ()(J(x) J()k
1
< 1, x B(, 1 )
2
202
Capitolul 2. Ecuat
ii si sisteme neliniare
Z 1
J 1 (x(n) )[
de unde
kx(n+1) k M Kkx(n) k2 .
Cum x(n) B(, 1 ) si M K1 21 obtinem kx(n+1) k 21 kx(n) k.
Prin urmare x(n+1) B(, 1 ) iar sirul {x(n) } converge catre . In plus avem
(6.55) cu C = M K.
2). Fie x(0) B(, 1 ). Pentru sirul {x(n) } construit prin (6.56) avem
x(n+1) = x(n) + J 1 (x(n) )(f () f (x(n) ) =
= J 1 (x(0) )[f () f (x(n) ) + J(x(0) )(xn )] =
R1
= J 1 (x(0) [
1
M (n)
kf (x(n) k
kx x(n1) k
(apriori)
6. Sisteme neliniare
203
si prin
kx(n) k
1
M (n)
kf (x(n) k
kx x(n1) k2
(aposteori),
n = 0, 1,
si
kx(n) k
1
1
kf (x(n) k kx(n+1) x(n) k, n = 0, 1,
(6.59)
204
Capitolul 2. Ecuat
ii si sisteme neliniare
x0 , x00 D
(6.60)
(6.61)
unde
K(x0 , x00 ) |I H(x0 )J(x0 )| + |H(x0 )| M |x0 x00 | + C|f (x00 )| (6.62)
H4 ) exist
a x(0) D astfel ca
S = {x Rm ; |x x(0) | K0 (I K0 )1 |x(1) x(0) |} D
unde
n0
(6.63)
m
X
(6.64)
k=1
unde Jij (x) snt elementele lui J(x), Mijk snt componentele tensorului de
ordinul trei M , iar x0k si x00k snt componentele vectorului x0 respectiv x00 .
Inegalitatea (6.60) trebuie nteleas
a n acelasi mod.
Demonstratie. Pentru orice x0 , x00 din D, utiliznd ipoteza H1 ) avem
f (x00 ) f (x0 ) =
|J(x0
(x00
Z 1
0
x0 ))
J(x0 )|
|x0
x00 |
0 1.
6. Sisteme neliniare
205
Daca punem
f (x00 ) f (x0 ) = J(x0 )(x00 x0 ) + (x00 , x0 )
(6.66)
(6.67)
atunci
Atunci pentru g definita prin (6.50), avem
g(x0 ) g(x00 ) = x0 x00 [H(x0 )f (x0 ) H(x00 )f (x00 )] =
= x0 x00 H(x0 )[f (x0 ) f (x00 )] (H(x0 ) H(x00 )) f (x00 )
= x0 x00 H(x0 )J(x0 )(x0 x00 ) + H(x0 )(x0 , x00 )
(H(x0 ) H(x00 )) f (x00 ),
din care folosind (6.67) si (6.60) rezulta
|f (x0 ) g(x00 )| K(x0 , x00 ) |x0 x00 | x0 , x00 D.
(6.68)
(6.69)
(x) = I H(x)J(x),
(6.70)
Daca notam
din ipoteza H4 ) avem 0 |(x)| K0 din care rezulta | (n) (x)| K0n .
Cum limn K0n = 0, rezulta lim n (x) = 0 adica ((x)) < 1, de unde
n
det(H(x)J(x)) 6= 0, care implica det H(x), det J(x) 6= 0 pentru orice x D.
Din aceasta este clar ca ecuatia (6.48) este echivalent
a cu ecuatia (6.49).
Analiza erorilor n metodele de tip Newton
Pentru g(x) dat de (6.50), fie g(x) valoarea lui g(x) obtinut
a pe un calculator. Pentru g(x), sa presupunem ca (6.24) este adevarat
a n D cu matricea
diagonala 0 si elementele diagonale i ale lui snt asa de mici ca (6.29)
este satisfacuta. Fie x0 D un punct pentru care (6.30) este verificat
a.
(n)
Atunci asa cum arata Teorema 6.8, obtinem un sir {
x } prin procedeul
x
(n+1) = g(
x(n) )
206
Capitolul 2. Ecuat
ii si sisteme neliniare
sir care, n fapt, este obtinut din procedeul practic de tip Newton pe un
calculator.
Din Teorema 6.8 sirul {
x(n) } oscileaza lund un num
ar finit de valori, dar
(n)
n acest caz, pentru un x
ntr-o stare de convergent
a, evaluarea data de
Teorema 6.8 poate fi precizata.
Teorema 6.14 Fie x
unica solutie a ecuatiei (6.48) n D. Fie x
(n) o solutie
a ecuatiei ntr-o stare de convergent
a obtinut
a cu metoda Newton general x| unde este o matrice avnd propriet
izat
a. Atunci |
x(n) x
| |
atile:
0
si = {I (I + )[K + N |
x|}1
Bibliografie
[1] ARMINJON, Paul, Analyse numerique matricielle, Les Presses de
lUniversite de Montreal, 1978.
[2] ATKINSON, Kendall E., An Introduction to Numerical Analysis, John
Wiley & Sons, New York, Chichester, Brisbane, Toronto, Singapore,
1978.
[3] AUTONNE, L., Ann. Univ. Lyon II,38 (1915), 177.
[4] BATHE, Klaus-Jurgen & Edward L. WILSON, Numerical Methods in
Finite Element Analysis, Prentice-Hall, Inc. 1976.
[5] BELLMAN, Richard, Introduction to matrix analysis, Mc Graw Hill,
1966.
[6] BEREZIN, Ivan Semenoviq & Nikola Petrovik IDKOV,
Metody vyqisleni, Gostehizdat Moskva, 1959
[7] BERMAN, Abraham and Robert J. PLEMMONS, Non negative matrices in mathematical sciences, Academic Press, 1979.
[8] BERNSTEIN, S.N. Demonstration du theoreme de Weierstrass fondee
sur le calcul de probabilites, Comman. Soc. Math. Kharkov 13 (1912),
12.
[9] de BOOR, Carl , A Practical Guide to Splines, Springer-Verlag, Berlin
1979.
[10] BURDEN, Richard L. and Douglas J. FAIRES, Numerical Analysis,
PWS - KENT Publishing Company, Boston, ???
207
208
BIBLIOGRAFIE
BIBLIOGRAFIE
209
210
BIBLIOGRAFIE
BIBLIOGRAFIE
211
[63] MUNTH
, C. H. Uber
den Approximationssatz von Weierstrass. H.A.
Schwarz Festschrift, Math. Abh., Berlin (1914), 303312.
[64] NATANSON, Izidor Pavlovik Konstruktivna teor funkci, Gostehizdat, Moskva Leningrad, 1949
[65] NICOLESCU, Miron, Sur la meilleure approximation dune fonction
donnee, Bul. Fac. st. Cern
auti, 12, (1938), 120 128.
212
BIBLIOGRAFIE
[68] PAVALOIU,
Ion, Interpolation dans des espaces lineaires normes et
applications, Mathematica, Cluj, 12(35) (1970), 149159.
[69] PERRON, O., Zur Theorie der Uber Matrizen, Math. Ann. 64 (1907),
248263.
[70] PICARD, Emile, Sur la repesentation approchee des functions, C. R.
Acad. Sci. Paris 112 (1891), 183186.
[71] PRENTER, Patricia M., Splines and Variational Methods, Wiley, New
York, 1975
[72] RALSTON, Anthony, A first course in numerical analysis, Mc Graw
Hill, Inc., New York, 1965
[73] RAVIART, Pierre-Arnaud et J. M. THOMAS, Introduction a lanalyse
numeriques des equations aux derivees partielles, Masson, Paris 1983
[74] RIVLIN, T., An Introduction to the Approximation of Functions,
Blaisdell Publ. Waltham, M.A., 1969
[75] ROSCA, Ioan, Numerical and Non Numerical Computing Techniques,
Curs International UNESCO, Bucuresti 1978.
[76] ROSCA, Ioan., Analiz
a Numeric
a Matriceal
a, Bucuresti 1997.
[77] ROS
CA, Ioan, Elemente de analiz
a neliniar
a, Bucuresti 1995.
[78] ROS
CA Ioan, Clase de functii speciale, Bucuresti 1996.
[79] ROS
CA, Ioan, Metode numerice pentru ecuatii cu derivate partiale,
Bucuresti, 1999.
[80] ROSCA, Ioan, Studiul convergentei numerice a unor metode iterative,
CCUB, 1974.
BIBLIOGRAFIE
213
[81] ROS
CA, Ioan and Mircea SOFONEA, A contractive method in the
study of nonlinear operators in Hilbert spaces, Studii si cercetari matematice, 46, 2(1994), 291 301.
[82] ROS
CA, Ioan and Mircea SOFONEA, Error estimates of an iterative
methods for a quasistatic elastic-viscoplastic problem, Applications of
Mathematics, 39, 6(1994), 401414.
[83] RUNGE, C., Zur theorie der eindeutingen analytishen Funkionen, Acta
Math., 6, 229-245, 1885
214
BIBLIOGRAFIE