Sunteți pe pagina 1din 26

CALCUL NUMERIC

anul II
specializarea: Fizic a Informatic a
semestrul II
Iasi2003
Cuprins
1 Sisteme de ecuatii liniare 1
1.1 Preliminarii . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Eliminarea Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3 Factorizarea LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.4 Metode iterative . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2 Calculul valorilor si vectorilor proprii 9
2.1 Preliminarii . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2 Metoda lui Jacobi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
3 Rezolvarea numeric a a ecuatiilor neliniare 13
3.1 Introducere . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.2 Metoda njum at at irii intervalului . . . . . . . . . . . . . . . . . . . . . . . . 14
3.3 Metoda tangentei . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.4 Metoda secantei . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
4 Aproximarea functiilor 17
4.1 Introducere . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
4.2 Polinomul de interpolare Lagrange . . . . . . . . . . . . . . . . . . . . . . . 18
4.3 Funct ii spline . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
Bibliograe 21
i
1
Sisteme de ecuat ii liniare
Atunci c and un program
ruleaz a f ar a greseal a devine
inutil
Murphy
1.1 Preliminarii

In acest capitol c ateva din cele mai utilizate metode pentru rezolvarea sistemelor de
ecuat ii liniare de tipul:
_

_
a
11
x
1
+ a
12
x
2
+ . . . + a
1n
x
n
= b
1
a
21
x
1
+ a
22
x
2
+ . . . + a
2n
x
n
= b
2
.
.
. . . .
.
.
. . . .
.
.
.
. . .
.
.
. . . .
.
.
.
a
n1
x
1
+ a
n2
x
2
+ . . . + a
nn
x
n
= b
n

Ax = b (1.1)
unde s-a notat cu A matricea sistemului, cu x vectorul necunoscutelor si cu b vectorul
matrice sistem
format din termenii liberi ai sistemului (elementele matricii A si a vectorului b sunt nu-
termen liber
mere reale):
A =
_
_
_
_
_
_
_
_
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
. . . .
.
.
.
.
.
.
a
n1
a
n2
. . . a
nn
_
_
_
_
_
_
_
_
, x =
_
_
_
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
_
_
_
si b =
_
_
_
_
_
_
_
_
b
1
b
2
.
.
.
b
n
_
_
_
_
_
_
_
_
(1.2)
1
2 1. SISTEME DE ECUAT II LINIARE
Se stie c a sistemul (1.1) are solut ie unic a dac a si numai dac a matricea A este nesingular a,
adic a:
matrice
nesingular a
det A = 0 (1.3)
1.2 Eliminarea Gauss
Metoda elimin arii Gauss permite rescrierea matricii sistemului sub form a triunghiu-
lar a astfel nc at, n nal se obt ine solut ia aproximativ a a sistemului de ecuat ii liniare
printr-o substitut ie iterativ a a necunoscutelor.
Algoritmul eliminarii Gauss
Vom nota cu

A matricea extins a a unui sistem de ecuat ii liniare format a din matri-
cea sistemului A completat a cu nc a o coloan a a termenilor liberi b. (ec. (1.2)). F ar a a
restr ange generalitatea vom aplica algoritmul elimin arii Gauss pentru un sistem de 3
ecuat ii cu 3 necunoscute:
eliminare Gauss

A =
_
_
_
_
_
a
11
a
12
a
13
b
1
a
21
a
22
a
23
b
2
a
31
a
32
a
33
b
3
_
_
_
_
_
|
1
a
11

(a
21
)
+

(a
31
)
+

_
_
_
_
_
1 a
(1)
12
a
(1)
13
b
(1)
1
0 a
(1)
22
a
(1)
23
b
(1)
2
0 a
(1)
32
a
(1)
33
b
(1)
3
_
_
_
_
_
|
1
a
(1)
22

(a
(1)
32
)
+
(1.4)

_
_
_
_
_
1 a
(1)
12
a
(1)
13
b
(1)
1
0 1 a
(2)
23
b
(2)
2
0 0 a
(2)
33
b
(2)
3
_
_
_
_
_
|
1
a
(2)
33
(1.5)

_
_
_
_
1 a
(1)
12
a
(1)
13
b
(1)
1
0 1 a
(2)
23
b
(2)
2
0 0 1 b
(3)
3
_
_
_
_
. (1.6)

In relat iile de mai sus s-a considerat c a toate elementele de pe diagonala principal a sunt
diferite de zero. Dac a acest lucru nu se nt ampl a se realizeaz a operat ia de pivotare p an a
se obt in coecient i nenuli pe diagonala principal a. Asupra operat iei de pivotare vom
reveni n sect iunea urm atoare.
1.2. ELIMINAREA GAUSS 3

In cazul unui sistem de n ecuat ii liniare cu n necunoscute formulele de calcul pentru


pasul ecare element al matricii extinse sunt:
matrice extins a
pentru linia pivot:
_

_
a
(k)
kk
= 1
a
(k)
kj
= a
(k1)
kj
/a
(k1)
kk
, j = k + 1, n
b
(k)
k
= b
(k1)
k
/a
(k1)
kk
(1.7)
pentru liniile de sub linia pivot:
_

_
a
(k)
ik
= 0
a
(k)
ij
= a
(k1)
ij
a
(k1)
ik
a
(k1)
kj
, i, j = k + 1, n
b
(k)
i
= b
(k1)
i
a
(k1)
ik
b
(k)
k
(1.8)
Dup a realizarea elimin arii Gauss se obt ine un sistem de ecuat ii liniare cu o matrice sis-
tem triunghiular a (elementele de sub diagonala principal a sunt egale cu 0) si calculul
necunoscutelor se realizeaz a printr-o operat ie de substitut ie invers a:
substitut ie invers a
_

_
x
n
= b
(n)
n
x
k
= b
(k)
k

n

i=k+1
a
(k)
ki
x
i
, k = n 1, 1
(1.9)
Este de remarcat faptul c a determinantul matricii sistemului poate calculat foarte
usor:
det A = a
11
a
(1)
22
a
(n1)
nn
(1.10)
Tehnici de pivotare

In cursul efectu arii operat iilor din eliminarea Gauss la ecare pas k se mparte linia
pivot la elementul diagonal a
(k1)
kk
. Este posibil ca acest element s a e 0 si trebuie ca s a
se realizeze o rearanjare a elementelor din matricea sistemului astfel nc at s a se evite o
asemenea situat ie. Aceast a operat ie se numeste pivotare. Mai mult, dac a este necesar s a
pivotare
se realizeze pivotarea este bine ca noul element pivot s a e cel mai mare pentru c a erorile
de rotunjire la mp art ire sunt mai mici. De obicei se utilizeaz a metoda pivot arii partiale pe
coloane astfel nc at la pasul k se caut a elementul maxim al matricii A
(k1)
situat pe coloana
k si liniile l k (pe si sub diagonala principal a) si se schimb a liniile l si k ntre ele.
4 1. SISTEME DE ECUAT II LINIARE
1.3 Factorizarea LU

In metoda factoriz arii LU matricea sistemului A se scrie sub forma unui produs de
factorizare
dou a matrici:
A = L U (1.11)
unde L este o matrice triunghiular a inferioar a:
matrice
triunghiular a
L =
_
_
_
_
_
_
_
_
1 0 . . . 0 0

21
1 . . . 0 0
.
.
. . . .
.
.
.
0 0

n1

n2
. . .
n,n1
1
_
_
_
_
_
_
_
_
(1.12)
si U este o matrice triunghiular a superioar a:
U =
_
_
_
_
_
_
_
_

11

12
. . .
1,n1

1n
0
22
.
.
.
2,n1

2n
0
.
.
.
.
.
.
.
.
.
.
.
.
0 . . . . . . 0
nn
_
_
_
_
_
_
_
_
(1.13)
Cu aceste notat ii sistemul de ecuat ii liniare devine (1.1) este echivalent cu rezolvarea
a dou a sisteme de ecuat ii cu matrici triunghiulare:
L y = b (1.14)
U x = y (1.15)
S-au dezvoltat mai multe metode de factorizare LU: Khaletski, Choleski, Crout, etc.

In cele ce urmeaz a va discutat a metoda Crout.


Factorizarea LU. Metoda Crout

In metoda Crout se efectueaz a operat ia de nmult ire ntre matricile L (ec. (1.12)) si U
(ec. (1.13)) si elementele matricii produs sunt identicate cu elementele matricii sistemu-
lui A. Se obt in astfel formulele pentru calculul matricilor L si U:

ij
= a
ij

i1

k=1

ik

kj
, i = 1, j (1.16)

ij
=
1

jj
_
a
ij

i1

k=1

ik

kj
_
, i = j + 1, n (1.17)
1.4. METODE ITERATIVE 5

In metoda Crout elementele celor dou a matrici triunghiulare sunt memorate drept noi
elemente ale matricii A:
A
f inal
=
_
_
_
_
_
_
_
_

11
. . . . . .
1n

21
.
.
.

2n
.
.
.
.
.
.
.
.
.

n1
. . .
n,n1

nn
_
_
_
_
_
_
_
_
(1.18)
Determinantul matricii sistem A este egal cu produsul elementelor de pe diagonala
principal a a matricii A
f inal
:
det A =
n

j=1

jj
(1.19)
Pentru aarea valorilor necunoscute trebuie s a se rezolve cele dou a sisteme de ecuat ii
triunghiulare (1.14) si (1.15) prin metoda substitut iei:
_

_
y
1
= b
1
y
i
= b
i

i1

j=1

ij
y
j
, i = 2, n
(1.20)
si:
_

_
x
n
=
y
n

nn
x
i
=
1

ii
_
y
i

j=i+1

ij
x
j
_
, i = n 1, 1
(1.21)
1.4 Metode iterative

In calculul numeric se caut a de obicei o metod a de tip iterativ n care se pleac a de


metod a iterativ a
la o aproximare de ordin zero a solut iei problemei si prin transform ari (care nu schimb a
natura sau valoarea solut iei) s a se obt in a un sir de solut ii care s a convearg a c atre solut ia
exact a.
Metoda iterativa Jacobi

In cazul metodei Jacobi sistemul de n ecuat ii liniare cu n necunoscute (1.1) se rescrie


sub forma
1
:
sistem redus
1
Acest sistem se mai numeste si sistem redus
6 1. SISTEME DE ECUAT II LINIARE
_

_
x
1
= t
1
+ s
12
x
2
+ . . . + s
1n
x
n
x
2
= s
21
x
1
+ t
2
+ . . . + s
1n
x
n
.
.
. . . . . . . . . . . . .
x
2
= s
n1
x
1
+ s
n2
x
2
+ . . . + t
n
(1.22)
sau rescris matriceal:
x = S x +t (1.23)
unde matricea S si vectorul t se calculeaz a astfel:
_

_
s
ii
= 0, i = 1, n
s
ij
= a
ij
/a
ii
, j = 1, n, j = i
t
i
= b
i
/a
ii
(1.24)
Drept aproximat ie de ordin 0 pentru solut ia sistemului se alege, de obicei, coloana
termenilor liberi:
x
(0)
= t (1.25)
si conform (1.23) se calculeaz a termenii din sirul aproximat iilor succesive:
x
(k)
= S x
(k1)
+t (1.26)
Dac a acest sir este convergent, atunci limita s-a este solut ia sistemului (1.1).

In practic a, metoda lui Jacobi urmeaz a urm atorul algoritm de calcul:


_

(k)
i
=
n

j=1
s
ij
x
(k1)
j
+ t
i
x
(k)
i
= x
(k1)
i
+
(k)
i
, i = 1, n
(1.27)
Procedeul iterativ se continu a p an a c and eroarea relativ a maxim a a componentelor solut iei
devine mai mic a dec at o eroare maxim a admis a:
max
i

(k)
i
/x
(k)
i

(1.28)
Singura problem a care a r amas de rezolvat este g asirea unor criterii pentru convergent a
sirului de solut ii aproximative x
(k)
. Exist a c ateva cazuri cu n care se pot da condit ii
suciente pentru convergent a c atre solut ia exact a. Astfel dac a este valabil a una din
1.4. METODE ITERATIVE 7
urm atoarele relat ii:
n

j=1

s
ij

< 1, i = 1, n (1.29)
n

i=1

s
ij

< 1, j = 1, n (1.30)
atunci procesul iterativ converge indiferent de alegerea aproximat iei init iale. Totusi,
metoda Jacobi este convergent a chiar dac a nu sunt ndeplinite condit iile de mai sus si,
uneori, este sucient ca matricea sistemului s a e dominant diagonal a:
|a
ii
| > max
j=i

a
ij

, i = 1, n (1.31)
Metoda Gauss-Seidel
Metoda Gauss-Seidel difer a fat a de metoda iterativ a Jacobi doar prin faptul c a suma
care intr a n calculul valorilor pentru
(k)
i
(ec. (1.27)) este rescris a prin folosirea valorilor
x
(k)
j
cunoscute deja la momentul calculului din iterat ia anterioar a.
_

(k)
i
=
i1

j=1
s
ij
x
(k)
j
+
n

j=i
s
ij
x
(k1)
j
+ t
i
x
(k)
i
= x
(k1)
i
+
(k)
i
, i = 1, n
(1.32)
Unul din avantajele metodei Gauss-Seidel este si acela c a aceast a metod a converge
ntotdeauna pentru un sistem normal
2
, indiferent de alegerea aproximat iei init iale. Mai
sistem normal
mult, orice sistem nmult it la st anga cu A
T
:
A
T
A x = A
T
b (1.33)
devine un sistem normal.
2
Un sistem liniar Ax = b se numeste normal dac a matricea coecient ilor A este simetric a si pozitiv
denit a:
A = A
T
x A x > 0 x din spat iul vectorial respectiv
.
2
Calculul valorilor si vectorilor proprii
Dac a un program funct ioneaz a
de la prima compilare s-a gresit
ntr-un num ar par de locuri
Programator anonim
2.1 Preliminarii

In zic a apar foarte des probleme de vectori proprii si valori proprii. Cel mai cunoscut
exemplu este rezolvarea ecuat iei lui Schr odinger:
H = E (2.1)
unde H este hamiltonianul sistemului, E este energia iar funct ia de und a care descrie
starea respectiv a. Problema se poate generaliza astfel nc at se deneste not iunea de vector
propriu al unui operator liniar A ca ind un vector x nenul care prin act iunea operatorului
vector propriu
A se transform a ntr-un vector proport ional cu x:
Ax = x (2.2)

In acest caz scalarul se numeste valoare proprie corespunz atoare vectorului propriu x.
valoare proprie
Pentru cazul unui spat iu vectorial n-dimensional cu scalari reali (sau din mult imea nu-
merelor complexe) operatorul A poate structurat ca o matrice n n si ecuat ia (2.2)
9
10 2. CALCULUL VALORILOR S I VECTORILOR PROPRII
poate rescris a sub forma:
(A I) x = 0 (2.3)
care este un sistem omogen de n ecuat ii cu n necunoscute. Un astfel de sistem admite
sistem omogen
solut ii nebanale dac a si numai dac a determinantul sistemului este egal cu zero, adic a:
det(A I) =

a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
. . . .
.
.
.
.
.
.
a
n1
a
n2
. . . a
2n

= 0 (2.4)
Ecuat ia (2.4) este o ecuat ie algebric a n de grad n si are n r ad acini complexe. Pentru
ecare valoare proprie
j
sistemul (2.3) admite solut ia x
(j)
. Tot i vectorii proprii pot
organizat i ca o matrice X (numit a matrice modal a):
matrice modal a
X =
_
_
_
_
_
_
_
_
x
(1)
1
x
(2)
1
. . . x
(n)
1
x
(1)
2
x
(2)
2
. . . x
(n)
2
.
.
. . . .
.
.
.
.
.
.
x
(1)
n
x
(2)
n
. . . x
(n)
n
_
_
_
_
_
_
_
_
(2.5)
astfel nc at vectorii proprii sunt coloane ale acestei matrici si ecuat ia (2.4) se rescrie:
A X = X (2.6)
cu:
=
_
_
_
_
_
_
_
_

1
0 . . . 0
0
2
. . . 0
.
.
. . . .
.
.
.
.
.
.
0 0 . . .
n
_
_
_
_
_
_
_
_
(2.7)
Dac a matricea X este nesingular a (det X = 0) atunci exist a X
1
si relat ia (2.6) devine:
X
1
A X = (2.8)
Se observ a c a matricea valorilor proprii se obt ine din matricea A printr-o transformare
similar a
1
.

In plus, dou a matrici similare admit aceleasi valori proprii.
transformare
similar a
1
Dou a matrici A si B se numesc similare dac a exist a o matrice nesingular a S astfel nc at:
B = A
1
A S.
2.2. METODA LUI JACOBI 11
Toate metodele pentru aarea valorilor proprii si vectorilor proprii folosesc trans-
form arile similare pentru a realiza diagonalizarea matricilor iar elementele de pe diago-
nala principal a sunt chiar valorile proprii.
2.2 Metoda lui Jacobi
Metoda lui Jacobi se foloseste pentru diagonalizarea matricilor simetrice (A
T
= A) si
foloseste transform ari similare prin utilizarea unor matrici ortogonale
2
matrice ortogonal a
R
T
A R = (2.9)
Transform arile similare cu matrici ortogonale se numesc transform ari de similitudine. Matricile
transform ari de
similitudine
ortogonale care se folosesc n metoda Jacobi generalizeaz a matricile de rotat ie si au forma:
matrice de rotat ie
R(i, j) =
_
_
_
_
_
_
_
_
_
_
col. i col. j
1
.
.
. . . .
.
.
. 0
. . . cos . . . sin . . .
.
.
.
.
.
.
.
.
.
. . . sin . . . cos . . .
0
.
.
. . . .
.
.
. 1
_
_
_
_
_
_
_
_
_
_
| linia i
| linia j
(2.10)
Se realizeaz a transformarea de similitudine:
A

= R
T
(i, j)AR(i, j) (2.11)
si se impune ca elementele extradiagonale ale matricii A

s a se anuleze.

In acest fel se
obt ine:
_

_
a

ik
= a

ki
= a
ik
cos + a
jk
sin , k = 1, n
a

jk
= a

kj
= a
ik
sin + a
jk
cos , k = i, j
a

ii
= a
ii
cos
2
+ 2a
ji
sin cos + a
jj
sin
2

jj
= a
ii
sin
2
2a
ji
sin cos + a
jj
cos
2

ij
= a

ji
= a
ji
_
cos
2
sin
2

_
+
_
a
jj
a
ii
_
sin cos
(2.12)
2
o matrice ortogonal a R este o matrice inversabil a denit a de relat ia:
R R
T
= R
T
R = I R
1
= R
T
12 2. CALCULUL VALORILOR S I VECTORILOR PROPRII
si impun and ca elementele a

ij
= a

ji s a se anuleze rezult a valoarea unghiului de rotat ie


:
tan =
_
_
a
ii
a
jj
2a
ji

_
a
ii
a
jj
2a
ji
_
2
+ 1
_
_
1
(2.13)
de unde se calculeaz a:
cos =
1
_
1 + tan
2

, sin = cos tan (2.14)


La ecare pas de calcul n algoritmul Jacobi se efectueaz a transform arile de similitudine
prin nmult irea cu matricea R
l
= R(i
l
, j
l
) astfel nc at s a anuleze elementele extradiago-
nale de la intersect ia liniilor si coloanelor i
l
, j
l
. Denim astfel matricile ortogonale:
X
l
= R
0
R
1
R
l
, l = 0, 1, 2, . . . (2.15)
Sirul transform arilor ortogonale va :
A
0
= A, A
1
= X
T
1
A X
1
, . . . , A
l
= X
T
l
A X
l
, . . . (2.16)
Conform relat iei de recurent a:
X
l
= X
l1
R
l
(i, j) (2.17)
se obt ine:
_
_
_
x

ki
= x
ki
cos + x
kj
sin , k = 1, n
x

kj
= x
ki
sin + x
kj
cos
(2.18)
Sirul iterat iilor este ntrerupt c and valoarea absolut a a elementelor extradiagonale ale
matricii A
l
sunt mai mici dec at > 0 ales:
max
i=j

ij

(2.19)
3
Rezolvarea numerica a ecuat iilor neliniare
Nu conteaz a c at de mult lucrezi
la un program. Profu va veni
exact c and joci Tetris
Un student sup arat
3.1 Introducere

In multe probleme de zic a se poate ajunge la o etap a de rezolvare n care se cere


rezolvarea unei ecuat ii neliniare (numit a uneori si ecuatie transcendent a) pentru care nu
ecuat ie
transcendent a
exist a o solut ie analitic a. Vom nota cu x
0
solut ia exact a pentru care are loc:
f (x
0
) = 0 (3.1)
unde f (x) este o funct ie analitic a cunoscut a de o variabil a real a f : [a, b] R. Solut ia
calculat a numeric este o solut ie aproximativ a (notat a cu x
a
) si trebuie s a e cuprins a n
solut ie
aproximativ a
intervalul de denit ie a funct iei f , deci x
a
[a, b] si:
f (x
a
) 0 (3.2)
Se poate considera c a solut ia aproximativ a x
a
este o bun a aproximat ie a solut iei exacte x
0
dac a:
|x
a
x
0
| < (3.3)
13
14 3. REZOLVAREA NUMERIC

A A ECUAT IILOR NELINIARE
cu > 0 o valoare real a care este considerat a eroarea maxim a admisibil a pentru calculul
solut iei aproximative
1
. Deoarece nu se cunoaste valoarea exact a x
0
pentru solut ia ecuat iei
n locul relat iei (3.3) se foloseste alt criteriu si se consider a c a x
a
este solut ie aproximativ a
dac a:
| f (x
a
)| < (3.4)
Problema existent ei si unicit at ii solut iei x
0
este o problem a care se poate discuta de
la caz la caz dup a forma analitic a a funct iei f (x) si intervalul de denit ie [a, b]. De cele
mai multe ori funct ia f (x) este o funct ie continu a pe intervalul [a, b] si se poate enunt a
un criteriu de sucient a pentru existent a solut iei pe acest interval dar nu si de necesitate
sau unicitate. Exist a cel put in o r ad acin a x
0
[a, b] dac a f (a) f (b) < 0 si f este continu a
pe acelasi interval (altfel spus: exist a o r ad acin a pe intervalul de denit ie dac a funct ia
este continu a si si schimb a semnul pe acest interval). Reprezentarea grac a a funct iei
f (x) permite o determinare rapid a existent ei solut iilor si a num arului acestora.

In cele ce
urmeaz a se v-a considera n toate metodele c a x
0
exist a si este unica solut ie pe [a, b].
3.2 Metoda njumatat irii intervalului
Metoda njum at at irii intervalului se mai numeste si metoda bisectiei a lui Boltzano.
Deoarece f (a) f (b) < 0 atunci se calculeaz a punctul aat la jum atatea intervalului [a, b]:
metoda Bolzano
c =
a + b
2
(3.5)
si se analizeaz a urm atoarele cazuri:
dac a f (a) si f (c) au semne opuse atunci x
0
se a a n intervalul [a, c];
dac a f (b) si f (c) au semne opuse atunci x
0
se a a n intervalul [c, b];
dac a f (c) = 0 atunci x
0
= c.
Se observ a c a prin njum at at iri succesive se poate ajunge la o valoare aproximativ a x
a
= c
a r ad acinii ecuat iei (3.1) atunci c and are loc relat ia (3.4). De obicei metoda lui Bolzano
este utilizat a doar pentru obt inerea aproximat ii de ordin zero pentru alte metode mai
rapide si mai exacte.
1
De multe ori eroarea este aleas a funct ie de erorile de m asur a pentru datele experimentale culese,
dac a x si y = f (x) reprezint a m arimi zice experimentale sau care rezult a din calcule bazate pe m asur atori
experimentale.
3.3. METODA TANGENTEI 15
3.3 Metoda tangentei
Metoda tangentei este denumit a si metoda Newton-Raphson. Aceast a metod a poate
Metoda Newton-
Raphson
aplicat a n cazul c and atunci c and se cunosc derivatele funct iei f (x) pe intervalul [a, b]
si, n plus, f

(x) si f

(x) sunt funct ii continue care si p astreaz a semnul pe acest interval.


Se alege o aproximat ie de ordin 0 pentru r ad acina ecuat iei (3.1) pe care o not am chiar
cu x
0
. Se caut a punctul de intersect ie a tangentei la gracul funct iei f (x) n punctul de
coordonate (x
0
, f (x
0
)) si se calculeaz a punctul x
1
n care aceast a tangent a intersecteaz a
axa Ox:
x
0
= x
0

f (x
0
f

(x
0
)
(3.6)
care este o nou a aproximat ie pentru r ad acina ecuat iei si duc and acumtangenta n (x
1
, f (x
1
))
se g aseste o nou a aproximat ie x
2
, etc. Astfel se obt ine un sir de numere care se poate de-
monstra c a, n condit iile date, are limit a egal a cu valoarea exact a a ecuat iei (3.1).
Funct ia g(x) denit a prin formula:
g(x) = x
f (x)
f

(x)
(3.7)
se numeste functia de iteratie Newton-Raphson si s-a constatat c a cea mai bun a alegere pen-
funct ie de iterat ie
tru x
0
(n sensul c a sunt necesare mai put ini pasi de calcul) satisface condit ia:
f (x
0
) f

(x
0
) > 0 (3.8)
3.4 Metoda secantei
Atunci c and se aplic a metoda Newton-Raphson trebuie cunoscut a prima derivat a
f

(x) a funct iei f (x) ceea ce poate destul de dicil de obt inut pentru o funct ie f destul
de complicat a (mai mult formula analitic a a derivatei poate cont ine multe operat ii alge-
brice care s a introduc a erori numerice mari). O solut ie de a sc apa de aceast a complicat ie
este de a alege dou a valori init iale x
0
si x
1
si se caut a punctul x
2
la intersect ia dreptei ce
trece prin punctele de coordonate (x
1
, f (x
1
)) si (x
0
, f (x
0
)) cu axa Ox. Se va obt ine n nal
o formul a de iterat ie:
x
k+1
= x
k

f (x
k
)
f (x
k
)f (x
k1
)
x
k
x
k1
= x
k

f (x
k
)(x
k
x
k1
)
f (x
k
) f (x
k1
)
(3.9)
16 3. REZOLVAREA NUMERIC

A A ECUAT IILOR NELINIARE
Se observ a c a metoda secantei sem an a mult cu metoda tangentei n care se nlocuieste
derivata f

(x) cu
f (x
k
)f (x
k1
)
x
k
x
k1
care este acelasi lucru atunci c and x
k1
x
k
.
4
Aproximarea funct iilor
Dac a n sf arsit am scris codul
surs a, e nu poate compilat n
memoria calculatorului, e nu
mai este spat iu pe disc
Un student nervos
4.1 Introducere

In aproape toate lucr arile experimentale de zic a se pune problema m asur arii sau
determin arii prin calcul a unor m arimi zice ntr-un num ar nit de puncte. Pentru sim-
plitate vom considera c a se cunosc dou a siruri de numere reale x
i
si y
i
cu i = 1, n ntre
care exist a o dependent a funct ional a, adic a exist a o funct ie de variabil a o variabil a real a
pentru care are loc:
y
i
f (x
i
) (4.1)
Condit iile experimentale, de obicei, nu permit cunoasterea funct iei f : [a, b] R n
mod analitic nc at s a se cunoasc a valoarea n orice punct x
c
din intervalul de denit ie.
Din acest motiv, pe baza m asur atorilor experimentale, si prin alegerea convenabil a a
tipului de funct ie f (clas a de continuitate, derivabilitate, model teoretic, etc.) se poate
determina valoarea y
c
f (x
c
) n orice punct din [a, b].
17
18 4. APROXIMAREA FUNCT IILOR
Dac a datele experimentale x
i
si y
i
sunt considerate ca ind exacte (nu sunt afectate de
erori) atunci punctele de coordonate (x
i
, y
i
) apart in gracului funct iei f si procedeul de
a g asi valoarea y
c
poart a numele de interpolare dac a x
i
, x
c
[a, b] i = 1, n sau extrapolare
interpolare
dac a x
c
nu este cuprins n intervalul [a, b].
extrapolare
De cele mai multe ori, ns a, datele experimentale sunt afectate de erori.

In acest caz
gracul funct iei f nu trece obligatoriu prin punctele experimentale f ar a a dep asi inter-
valul de eroare corespunz atoare ec arui punct. Acest procedeu se numeste regresie sau
regresie
ajustare numeric a. Cel mai cunoscut exemplu de regresie numeric a este dreapta de regresie
cunoscut a si ca metoda celor mai mici p atrate pentru o dependent a liniar a ntre x
i
si y
i
.
4.2 Polinomul de interpolare Lagrange

In cazul interpol arii cu un polinom funct ia f (x) este o funct ie polinomial a de grad m
astfel nc at:
P
m
(x
i
) = y
i
, i = 1, n (4.2)
Problema interpol arii polinomiale se rezum a la calculul coecient ilor ec arui termen de
grad j = 1, m a c aror sum a formeaz a polinomul de interpolare. Totusi, n interpolarea
Lagrange se evit a calculul efectiv al acestor coecient i. Pentru aceasta se scrie polinomul
de interpolare de grad m = n 1 ca o sum a de produse de factori de monoame de tipul:
p
i
(x) = C
i
j=i
(x x
i
) (4.3)
unde C
i
sunt constante care se determin a din condit ia ca p
i
(x
i
) = 1 de unde rezult a:
p
i
(x) =

j=i
(x x
j
)

j=i
(x
i
x
j
)
(4.4)
Pe baza acestor termeni se construieste polinomul de interpolare Lagrange:
P
n1
(x) =
n

i=1
p
i
(x)y
i
=
n

i=1

j=i
(x x
j
)

j=i
(x
i
x
j
)
y
i
(4.5)
Se remarc a faptul c a polinomul Lagrange satisface relat iile:
P
n1
(x
i
) = y
i
, i = 1, n (4.6)
4.3. FUNCT II SPLINE 19

In acelasi timp se poate demonstra, prin reducere la absurd, c a polinomul de interpolare


Lagrange este unic.
Atunci c and se cere valoarea y
c
calculat a prin interpolare polinomial a Lagrange se
calculeaz a valoarea P
n1
(x
c
) conform relat iei (4.5).
4.3 Funct ii spline
Funct iile spline sunt funct ii care au anumite propriet at i de continuitate si derivabili-
tate astfel nc at, asa cum se si numesc
1
, curba care trece prin punctele de denit ie este o
curb a neted a (are o variat ie minim a a pantei).
Funct iile spline de ordin m sunt polinoame de grad m pe orice interval [x
i
, x
i+1
] (si
sunt notate de obicei S
i
(x)). Aceste funct ii spline sunt de clas a C
m1
si derivata de ordin
m este discontinu a n nodurile x
i
. Dac a S
i
(x) sunt polinoame de gradul trei atunci funct ia
denit a de:
S
i
(x) = A
i
x
3
+ B
i
x
2
+ C
i
x + D
i
, x [x
i
, x
i+1
], i = 1, n 1 (4.7)
se numeste funct ie spline cubic a. Coecient ii A
i
, B
i
, C
i
, D
i
se pot determina din condit iile
spline cubic
de continuitate si de interpolare n punctele diviziunii:
S(x
i
) = y
i
, i = 1, n (4.8)
Impun and si condit iile de continuitate pentru derivatele funct iilor spline cubice se deter-
min a:
_

_
A
i
=

D
i+1

D
i
6h
i
B
i
=

D
i
x
i+1

D
i+1
x
i
2h
i
C
i
=

D
i+1
x
2
i

D
i
x
2
i+1
2h
i
+
y
i+1
y
i
h
i
A
i
h
2
i
D
i
=

D
i
x
3
i+1

D
i+1
x
3
i
6h
i
+
y
i
x
i+1
y
i+1
x
i
h
i

B
i
h
2
i
3
(4.9)
unde h
i
= x
i+1
x
i
, i = 1, n 1 si

D
i
derivata de ordin doi calculat a n punctul x
i
.
Derivatele de ordin 2 se calculeaz a prin impunerea condit iei de continuitate a primei
derivate pentru S
i
(x) n capetele intervalului:
S

i1
(x
i
) = S

i
(x
i
) (4.10)
1
Termenul spline provine din englez a si desemneaz a un set de instrumente care permit trasarea unei
curbe netede printr-o serie de puncte date.
20 4. APROXIMAREA FUNCT IILOR
si se obt ine un sistem de ecuat ii liniare n

D
i
:
_

_
b
1

D
1
+ c
1

D
2
= d
1
a
i

D
i1
+ b
i

D
i
+ c
i

D
i+1
= d
i
, i = 2, n 1
a
n

D
n1
+ b
n

D
n
= d
n
(4.11)
unde coecient ii a
i
, b
i
, c
i
, d
i
sunt dat i de relat iile:
_

_
a
1
= 0 b
1
= 2h
1
c
1
= h
1
d
1
= 6
_
y
2
y
1
h
1
y

1
_
a
i
= h
i1
b
i
= 2(h
i1
+ h
i
) c
i
= h
i
d
i
= 6
_
y
i+1
y
i
h
i

y
i
y
i1
h
i1
_
a
n
= h
n1
b
n
= 2h
n1
c
n
= 0 d
n
= 6
_
y

y
n
y
n1
h
n1
_
(4.12)
Se observ a c a pentru calculul coecient ilor d
1
si d
n
trebuie s a se cunoasc a derivatele y

1
si
y

n
n extremit at ile intervalului de tabelare. De cele mai multe ori nu exist a informat ii cu
privire la aceste derivate si se foloseste interpolarea Lagrange de unde:
y

1
=
y
2
y
1
x
2
x
1
+
y
3
y
2
x
3
x
2
+
y
3
y
1
x
3
x
1
(4.13)
y

n
=
y
n1
y
n2
x
n1
x
n2
+
y
n
y
n1
x
n
x
n1
+
y
n
y
n2
x
n
x
n2
(4.14)

In algoritmul de interpolare cu funct ii spline trebuie s a se ae valorile derivatelor de


ordin 2 din sistemul de ecuat ii (4.11) pe baza coecient ilor din relat iile (4.12) si mai apoi
coecient ii interpolantului spline conform (4.9).
Bibliograe
[1] Titus Adrian BEU. Calcul numeric n C. Microinformatica, Cluj, 2000.
[2] Adrian BRADU. ANALIZA NUMERIC

A Exercitii si Probleme. Editura Universit at ii
Al. I. Cuza, Iasi, 2001.
[3] S. D. CONTE and Carl de BOOR. ELEMENTARY NUMERICAL ANALYSIS An Algo-
rithmic Approach. International Series in Pure and Applied Mathematics. McGraw-
Hill Book Company, New York, third edition, 1980.
[4] Nicholas J. HIGHAM. Accuracy and Stability of Numerical Algorithms. SIAM, Phila-
delphia, 1996.
[5] Alexandru LUPAS. METODE NUMERICE. Editura Constant, Sibiu, 2001.
[6] John H. MATHEWS and Kurtis D. FINK. Numerical Methods Using MATLAB. Pren-
tice Hall Inc., London, third edition, 1999.
[7] J.C. NASH. COMPACT NUMERICAL METHODS FOR COMPUTERS linear algebra
and function minimisation. Adam Hilger, New York, second edition, 1990.
[8] John C. NASH and Mary M. NASH. Scientic Computing with PCs. Nash Information
Services Inc., Ottawa, CANADA, 1993.
[9] William H. PRESS, Saul A. TEUKOLSKY, William T. VETTERLING, and Brian P.
FLANNERY. Numerical Recipes in C The Art of Scientic Computing. CAMBRIDGE
UNIVERSITY PRESS, Cambridge, New York, second edition, 1997.
21
22 BIBLIOGRAFIE
[10] L. F. SHAMPINE, Jr. R. C. ALLEN, and S. PRUESS. FUNDAMENTALS OF NUME-
RICAL COMPUTING. JOHN WILEY & SONS, INC., New York, 1997.
[11] William J. THOMPSON. COMPUTING FOR SCIENTISTS AND ENGINEERS A Wor-
kbook of Analysis, Numerics, and Applications. JOHN WILEY & SONS, INC., New
York, 1992.