Sunteți pe pagina 1din 31

METODE NUMERICE

Domeniul metodelor numerice este de mare însemnătate teoretică şi practică, el fiind la intersecţia matematicii cu tehnica de calcul. Aparent un domeniu care ţine exclusiv de matematică, metodele numerice au o deosebită aplicabilitate în domeniul informaticii şi o legătură directă cu cel economic. Matematica aplicată, din care face parte şi analiza numerică, s-a dezvoltat în ultimele decenii ca urmare a utilizării pe scară largă a sistemelor electronice de calcul în rezolvarea problemelor impuse de practică. Cu ajutorul algoritmilor numerici şi al calculatorului sunt determinate rapid soluţiile unor probleme care altfel, ar necesita un număr mare de calcule dacă ar fi abordate cu metode clasice. Pentru obţinerea unor rezultate de calitate trebuie acordată o atenţie deosebită condiţiilor de convergenţă a algoritmilor şi studiului erorilor care apar în cazul utilizării metodelor aproximative de calcul.

  • I. METODE ITERATIVE PENTRU REZOLVAREA NUMERICĂ A SISTEMELOR DE ECUAŢII LINIARE

    • - Metoda eliminării (Gauss)

    • - Metoda eliminării complete Gauss- Jordan

II.

METODE NUMERICE DE REZOLVARE A ECUAŢIILOR NELINIARE

Metode elementare de rezolvare a ecuaţiilor neliniare

  • - Metoda bisecţiei

  • - Metoda coardei şi metoda secantei

  • - Metoda tangentei (Newton-Raphson)

Metode iterative pentru rezolvarea numerică a ecuaţiilor neliniare

  • - Teoria generală a metodelor iterative

  • - Metoda contracţiei (aproximaţiilor succesive)

Ecuaţii algebrice

  • - Localizarea rădăcinilor unei ecuaţii algebrice

  • - Şirul lui Rolle

  • - Şirul lui Sturm

III.

METODE NUMERICE DE APROXIMARE A FUNCŢIILOR

Aproximarea funcţiilor

Aproximarea prin interpolare

  • - Polinoame de interpolare. Metode de stabilire a acestora

  • - Polinomul de interpolare Taylor

  • - Calculul cu diferenţe finite

  • - Polinomul de interpolare Newton

  • - Polinomul de interpolare Lagrange

Aproximarea prin ajustare cu metoda celor mai mici pătrate

  • I. METODE ITERATIVE PENTRU REZOLVAREA NUMERICĂ A SISTEMELOR DE ECUAŢII LINIARE

Există mai multe metode (reguli) pentru rezolvarea sistemelor de ecuaţii liniare, unele dintre acestea (metoda reducerii, metoda substituţiei, regula lui Cramer) fiind cunoscute. Aceste metode sunt dificil de aplicat în cazul sistemelor de dimensiuni mari. O metodă mai eficientă este cea a eliminării complete sau Gauss-Jordan, prezentată în continuare.

Metoda eliminării complete (Gauss - Jordan)

Fie sistemul de ecuaţii liniare cu n necunoscute:

 

11

x

1

a

21

x

1

+

a

12

x

2

+

.....

+

a

1

n

x

n

+

a

22

x

2

+

....

+

a

2

n

x

n

a

=

b

=

b

.............................................

 

a

n

1

x

1

+

a

n

2

x

n

+

......

+

a

nn

x

n

=

1

2

b

n

(1.1)

unde

a

ij

R

,,

i

j

{

1,

......

,

n}

,

x

i

R b

,

i

,∀ ∈1,

R

i

n

Sistemul (1.1) se poate scrie şi sub forma:

Se fac notaţiile:

n

j = 1

a

ij

x

j

=

b

i

,

i{1,

....

,n}

A

=

(

a

ij

)

i

,

j

1,

n

,

b =

(

b

1,

.....

,

b

n

)

T

,

(1.1’)

X

=

(x

1,

.......

, x

n

)

T

Atunci (1.1) se scrie sub formă matriceală, astfel:

AX = b

(1.2)

Se numeşte soluţie a sistemului

(1.1) sau

(1.2) orice vector

coordonate verifică (1.1) sau (1.2).

x R ale cărui

n

Presupunem că

A 0

. Atunci (1.1) este sistem compatibil cu soluţie unică.

Fiecare coloană „i” a matricei

A

se poate

considera ca un

vector

a

i

R

n

unde

a

i

=

(a

1

i

,a

2

i

,

.....

,

a

ni

)

T

. Atunci A se poate scrie ca o matrice cu o linie ale cărei elemente sunt

chiar

a ,a

1

2

,

.........,a

n

adică:

A =

(

a

1,

a

2

,

....

,

a

n

)

.

În acest fel sistemul AX = b devine :

(

a

1,

a

2

,

.........

a

n

)

 

  

x

1

x

2

...

x

n

 

 

=

b

sau

x a

1

1

+

x a

2

2

+.......+

x a

n

n

=

b

(*)

Deoarece

A 0

vectorii

a ,a

1

2

,

.....

,a

n

formează o bază a lui

R

n

, iar relaţia (*) are

următoarea semnificaţie: vectorul x are drept componente coordonatele lui b în baza formată

de vectorii

a ,a

1

2

,

.......

,a

n

.

Metoda eliminării complete constă în determinarea soluţiei unui sistem de forma (1.1),

determinând coordonatele lui b în baza {

} plecând de la baza unitară din

 

Calculele se organizează astfel:

a ,

1

.....a

n

Baza

 

 

b

 

a

1

a

2

...

a

n

e

1

a

11

 

a

12

 

...

a

1 n

b

1

 

e

a

 

a

...

a

b

 

 

2

:

 

21

...

 

22

...

...

2 n

.

:

2

 

e

n

a

n

1

a

n

2

...

a

nn

b

n

 

a

1

1

 

a

12

 

a

1

n

 

b

*

b

1

 
   

...

1

=

e

2

   

a

11

 

a

11

   

a

11

 

0

 

*

*

 

11

b

 

b

 
 

:

 

a

22

 

...

a

2

n

b

*

2

=

a

2

a

21

1

e

n

 

:

:

*

...

:

*

 

:

a

11

 

0

a

n

2

...

a

nn

   

*

   

b

n

 

-

- - - -

- - - -

- -- - -

--

-

- - - -

- - - -

- - -

- - - -

 

1

 

0

 

0

   

0

a

1

 

...

 

x

1

a

2

0

1

...

0

x

0

2

 

:

:

:

...

:

:

a

n

0

0

...

1

x

0

n

R

n

.

II.

METODE NUMERICE DE REZOLVARE A ECUAŢIILOR NELINIARE

Metode elementare de rezolvare a ecuaţiilor neliniare

Se numeşte ecuaţie algebrică de grad n în raport cu funcţia u(x), o ecuaţie de forma:

f

(

x

)

=

a u

0

n

(

x

)

+

a u

1

n

1

(

x

)

+

...

+

a

n

1

u

(

x

)

+

a

n

=

0

,

a

0

0

(2.1)

între a i şi u(x) efectuându-se numai operaţii algebrice: adunare, scădere, înmulţire, ridicare la

putere. Orice ecuaţie care nu este algebrică se numeşte transcendentă (ecuaţiile

trigonometrice, exponenţiale, logaritmice etc.).

În acest capitol, ne ocupăm de rezolvarea ecuaţiilor neliniare de forma:

f (x) = 0 , f : I R R

(2.2)

unde f este o funcţie continuă, algebrică sau transcendentă.

Calculul exact al unei rădăcini nu este întotdeauna posibil, nici chiar pentru ecuaţiile

algebrice (de grad 5), iar în cazul ecuaţiilor transcendente nu există nici o astfel de metodă.

Pentru rezolvarea ecuaţiei de mai sus este necesar mai întâi să separăm rădăcinile

ecuaţiei, adică să determinăm intervalele în care se află rădăcinile ecuaţiei (lucru complicat

dacă rădăcinile sunt apropiate).

Aceasta se poate face (de la caz la caz), cu ajutorul şirului lui Rolle, a schemei lui

Horner, prin metoda grafică (reprezentând grafic funcţia) etc.

Odată efectuată separarea rădăcinilor, să presupunem că ecuaţia (2.2) are o rădăcină

simplă ξ în intervalul [a,b], graficul funcţiei f s-ar putea prezenta de exemplu sub forma din

Figura 2.1:

II. METODE NUMERICE DE REZOLVARE A ECUAŢIILOR NELINIARE Metode elementare de rezolvare a ecuaţiilor neliniare Se

Figura 2.1

Dorim să obţinem valoarea aproximativă a acestei rădăcini, adică o valoare suficient

de apropiată de valoarea exactă, cu o eroare ε. Adică vom determina ~ x astfel încât:

| ~ x ξ |< ε

,

ε>0

Metodele de aproximare prezentate în acest capitol sunt metode iterative, adică conduc

la obţinerea rădăcinilor printr-un şir de aproximaţii succesive. Se obţine un şir:

x

0,

,

x

1

,

...

,

x

n

,

...

, care, în ipoteza convergenţei, tinde către soluţia exactă ξ.

Procedeul de calcul se opreşte, dacă |

x

n

ξ |< ε

. Atunci

x

n

se consideră a fi valoarea

aproximativă a rădăcinii ξ a ecuaţiei:

f (x) = 0 .

În continuare vom prezenta în rezumat câteva metode clasice (simple) de obţinere a

rădăcinilor aproximative.

Metoda bisecţiei (a înjumătăţirii sau a dihotomiei)

Fie ecuaţia

f (x) = 0 ,

f : I R

R

, f - funcţie continuă şi

f (a) f (b)

< 0 . Aşa

cum arată şi numele, această metodă constă în înjumătăţirea succesivă a intervalului [a,b].

Dacă

f (

a + b

2

)

=

0

, atunci

a

+

b

2

= ξ

este chiar rădăcina căutată.

Dacă nu, se alege acea jumătate a intervalului la capetele căreia funcţia f are semne

opuse, prin urmare rădăcina căutată se află în acel interval pe care îl notăm [

a ,b

1

1

]

, care se

împarte din nou la doi, etc.

Procesul continuă până când se obţine un interval de lungime mai mică decât ε dat

(Figura 2.2).

Obţinem deci şirul de intervale: [ ,

a b

]

[

= a

0

,

b

0

],

[

a

1

,

b

1

]

,

[

a

2

,

b

2

]

,…, [

a

n

,

b

n

]

,…

cu proprietăţile:

f

(

a

n

)

f

(

b

n

) < 0

şi [

a

0

,

b

0

]

[

a

1

,

b

1

]

[

a

2

,

b

2

]

...

[

a

n

,

b

n

]

...

.

În plus:

b

n

a

n

=

b

a

2

n

,

n N

*

(2.3)

Se obţin două şiruri: {a n }- crescător (sau constant) şi {b n }- descrescător (sau constant).

Mai putem construi un al treilea şir: {

x

n

}

definit astfel:

x

n

=

a

n

+

b

n

2

,

n N

(2.4)

Atunci avem:

a ≤ x ≤ b , (∀)n ∈ N n n n
a
≤ x ≤ b
,
(∀)n ∈ N
n
n
n

Figura 2.2

(2.5)

Datorită relaţiilor (2.3) şi (2.5) cele trei şiruri sunt convergente către aceeaşi limită şi

anume soluţia ξ a ecuaţiei

f (x) = 0 din intervalul [a,b]:

Avem:

lim a

n

n →∞

=

lim x

n

←∞

n

=

limb

n

→∞

n

= ξ

|

x

n

ξ

|

1

2

|

b

n

a

n

|

=

b

a

2

n

+ 1

, nN.

Procedeul se opreşte atunci când: |

b

n

a

n

|< ε

| (dat)

sau/şi când |

f

(

x

n

) < ε

.

Această metodă este foarte simplă, dar convergenţa ei este lentă (este nevoie de un

număr mare de iteraţii pentru a afla soluţia cu precizia dorită) şi în plus, dacă două rădăcini

sunt foarte apropiate, una poate fi sărită prin acest procedeu.

De obicei nu se parcurg foarte multe iteraţii şi valoarea obţinută se foloseşte drept

aproximaţie iniţială pentru alte metode mai performante, cum ar fi metoda lui Newton sau

metoda contracţiei (metoda bisecţiei având avantajul că este întotdeauna convergentă).

Metoda coardei şi metoda secantei

Metoda coardei este una din cele mai vechi metode numerice de rezolvare a ecuaţiilor

(în special algebrice). Ideea metodei, aşa cum arată şi numele, este înlocuirea graficului

funcţiei f pe fiecare interval în discuţie, cu coarda care uneşte punctele de capăt ale graficului.

Metoda coardei şi metoda secantei Metoda coardei este una din cele mai vechi metode numerice de

Figura 2.3

Să presupunem că funcţia f are graficul din figura alăturată. Punctul C de abscisă ξ

reprezintă

 

valoarea

 

exactă

a

rădăcinii

 

ecuaţiei

 

f (x) = 0

pe

intervalul

[

x

0

,

x

1

]

(avem

f

(

x

0

)

f

(

x

1

)

<

0

).

Vom înlocui graficul funcţiei pe intervalul [

x

0

,

x

1

]

cu coarda care uneşte punctele

(

A x

0

,

f

(

x

0

))

şi

B

(

x

1

,

f

(

x

1

))

, iar abscisa punctului de intersecţie al acestei coarde cu axa Ox o

vom nota cu

 

x

2

. Atunci:

 
 

=

f

(

x

0

)

 
 

x

2

x

0

f

(

x

1

)

f

(

x

0

)

(

x

1

x

0

)

(2.6)

 

=

x

9

f

(

x

1

)

x

1

f

(

x

0

)

 

x

2

f

(

x

1

)

f

(

x

0

)

(2.6’)

 

Se observă că

 

f

(

x

0

)

f

(

x

2

)

<

0

, prin urmare putem repeta procedeul, folosind acum

în locul intervalului [

x

0

,

x

1

]

, intervalul [

x

0

,

x

2

]

, unde se află rădăcina ξ.

 

Coarda AD intersectează axa Ox într-un punct de abscisă x 3 , unde:

x

  • 3 =

x

0

f

(

x

2

)

x

2

f

(

x

0

)

f

(

x

2

)

f

(

x

0

)

Procedeul poate continua şi se obţine formula generală:

x

n

=

x

0

f

(

x

n

)

x

n

f

(

x

0

)

f

(

x

n

)

f

(

x

0

)

,

n N

*

(2.6”)

Avem întotdeauna:

f

(

x

0

)

f

(

x

n

)

<

0

,

n N

*

.

În felul acesta se obţine un şir {

x

n

}

care tinde către rădăcina exactă ξ. Procedeul se

poate opri, de exemplu, atunci când diferenţa (în modul) a doi termeni consecutivi devine mai

mică ca un ε dat:

|

x

n

+

1

x

n

|

< ε

. În acest caz: ξ≈ x n+1 .

Să observăm că punctul

x

  • 0 se utilizează pe parcursul întregului proces de calcul, prin

urmare convergenţa metodei este legată de alegerea optimă a acestui punct.

O metodă înrudită cu metoda coardei este metoda secantei. Deosebirea esenţială faţă

de metoda coardei constă în aceea că, după calculul lui

x , punctele

2

x

0

şi

x

1

se înlocuiesc

cu

x

1

şi

x

2

, apoi procedeul se repetă (Figura 2.4).

Nu este necesar să fie satisfăcută condiţia:

f

(

x

0

)

f

(

x

1

)

<

0

.

Formula de calcul se poate obţine ca mai înainte şi anume:

x

2

=

x

1

f

(

x

1

)

f

(

x

1

)

f

(

x

0

)

(

x

1

x

0

)

(formulă similară cu (2.6), căci dacă se fac calculele, se obţine tot (2.6’)).

Procedeul poate continua şi se obţine formula generală : x n = x 0 f (

Figura 2.4

Mai departe, urmând procedeul indicat, obţinem:

x

3

=

x

2

f

(

x

2

)

f

(

x

2

)

f

(

x

1

)

(

x

2

x

1

)

şi formula generală:

x

n

+

1

=

x

n

f

(

x

n

)

f

(

x

n

)

f

(

x

n

1

)

(

x

n

x

n

1

) ,

n N

*

sau

x

n

+

1

=

x

n

1

f

(

x

n

)

x

n

f

(

x

n

1

)

f

(

x

n

)

f

(

x

n

1

)

,

n N

*

(2.7)

(2.7’)

Principiul metodei secantei este acelaşi cu al metodei coardei şi anume înlocuirea

graficului funcţiei f pe diferite intervale prin secante (segmente de dreaptă). (figura 2.4)

Se poate arăta că şirul iterativ {

  • x n

}

(2.7) sau (2.7’), obţinut mai sus este convergent

către soluţia ξ a ecuaţiei f (x) = 0 , x [a,b] (dacă

x

0

,

x

1

[

a b

,

]

şirul {

x

n

}

dat de (2.7) sau

(2.7’) rămâne în [a,b]).

Observaţie.

În formula (2.7), raportul

x

n

x

n

1

1

=

f

(

x

n

)

f

(

x

n

1

)

m

n

reprezintă inversul pantei secantei

care trece prin punctele de coordonate (

x

n1

,

f

(

x

n1

))

şi (

x

n

,

f

(

x

n

))

. Acest număr se modifică

la fiecare pas. Dacă însă luăm m

n =

m

(constant), egal de exemplu cu panta secantei care trece

prin primele două puncte, atunci se obţine un algoritm mai simplu denumit metoda secantei

(sau a coardei) simplificate (coardele sunt paralele) (Figura 2.5).

Atunci:

x

n

+

1

= x

n

1

m

f

(

x

n

)

, m 0

Mai departe, urmând procedeul indicat, obţinem: x 3 = x 2 − f ( x 2

Figura 2.5

Metoda tangentei (metoda Newton – Raphson)

Această metodă este cunoscută şi ca metoda Newton - Raphson. Aşa cum arată şi

numele, metoda tangentei construieşte un şir iterativ {

  • x n

}

, obţinut prin intersecţia tangentelor

duse la graficul curbei f în punctele de abscisă

x

0

,

x

1

,

x

2

,

...

(punctele A 0 , A 1 , A 2 ,….) cu axa

Ox (Figura 2.6).

Presupunem: f (a) f (b) < 0 ,

f C

1

[

a b

,

]

,

f

'

(

x

)

0

, x [a,b] .

Ecuaţia tangentei la curba y = f (x) în punctul (

x

0

,

f

(

x

0

))

este:

y f

(

x

0

)

=

f

'

(

x

0

)(

x x

0

)

Dacă notăm abscisa punctului de intersecţie a tangentei cu axa Ox prin

x , rezultă:

1

x

1

= x

0

f

f

'

(

x

0

(

x

0

)

)

x

n

+

1

= x

n

f

f

(

x

n

'

(

x

n

)

)

Repetând procedeul obţinem:

,

nN

(2.8)

Şirul iterativ de mai sus poartă numele de şirul lui Newton.

Metoda tangentei (metoda Newton – Raphson) Această metodă este cunoscută şi ca metoda Newton - Raphson

Figura 2.6

Se observă că punctul

x

0

a fost ales astfel încât:

f

(

x

0

)

f

''

(

x

0

)

>

0

. Trebuie atunci să

presupunem că:

f C

2

[

a b

,

]

,

f

''

(

x

)

0

pe [a,b].

Metode iterative pentru rezolvarea numerică a ecuaţiilor neliniare Metoda contracţiei (aproximaţiilor succesive)

În prima parte a acestui paragraf vom prezenta un rezultat mai general, care să poată fi

folosit şi în cazul sistemelor neliniare.

Fie ecuaţia vectorială:

f (x) = 0 , unde

f : D R

n

R

n

f =

(

f

1

,

f

2

,

...

,

f

n

)

,

x = (x , x

1

2

,

...

,

x

n

) R

n

(2.9 )

Dacă n 2 , această ecuaţie vectorială reprezintă un sistem de ecuaţii neliniare;

dacă n = 1 ea reprezintă o singură ecuaţie.

Ideea metodelor iterative este înlocuirea ecuaţiei (2.9) prin forma echivalentă:

x = F(x),

F : D R

n

R

n

(2.10)

şi apoi formarea şirului iterativ:

x

n

+

1

= F

(

x

n

) , n N , plecând de la o aproximaţie iniţială

x

0

a soluţiei ecuaţiei (2.9).

În cazul în care şirul {

  • x n

}

astfel format, converge, limita lui va fi chiar soluţia ξ a

ecuaţiei (2.9).

Definiţia 2.1.

Fie X un

spaţiu metric

şi

d : X × X R

o

distanţă în X.

O aplicaţie

F : X X

pentru care () α (0,1)

astfel

încât

d(F(x), F( y)) α d(x, y) ,

()x, y X se numeşte

contracţie.

Teorema 2.1. (de punct fix pentru contracţii)

Fie X un spaţiu metric complet şi fie F : X X o contracţie. Atunci, ()x X ,

0

dacă formăm şirul

x

n

+

1

= F

(

x

n

) , n N , acesta este convergent, limita lui ξ fiind un punct fix

pentru contracţia F , adică F(ξ) = ξ . Acest punct fix este unic.

Conform celor spuse anterior, limita efectivă a şirului este în general dificil de aflat,

aşa că vom aproxima soluţia exactă a ecuaţiei prin termenul

x

n

,

din şirul iterativ obţinut

anterior, cu condiţia ca:

d

( ,ξ) < ε

x

n

, ε > 0

dat.

(2.11)

Valoarea

d

(

x

n

,ξ)

reprezintă eroarea de metodă (de trunchiere) a metodei contracţiei

(a aproximaţiilor succesive).

Observaţie. Teorema de faţă are şi un caracter constructiv întrucât ne permite, cu

ajutorul unei contracţii F, formarea unui şir iterativ, care ne conduce la soluţie. Aceasta poartă

numele de metoda contracţiei, metoda aproximaţiilor succesive sau metoda iterativă de

punct fix.

Corolar.

În ipotezele teoremei precedente, avem următoarele relaţii:

d

(

x

n

,

ξ

)

α

1

α

d

(

x

n

,

x

n

1

)

d

(

x

n

,

)

ξ

α

n

1

α

d

(

x

0

,

x

1

)

(2.12)

(2.13)

Relaţia (2.12) ne furnizează cel mai uzual criteriu de oprire (cât de mare trebuie să-l

luăm pe n) pentru metoda contracţiei.

Impunem condiţia:

d

(

x

n

,

)

ξ

α

1

α

d

(

x

n

,

x

n

1

)

< ε

(2.12)

ε > 0

dat.

La fiecare pas, se evaluează

d

(

x

n

,

x

n1

)

şi procedeul

se opreşte atunci

când este

verificată inegalitatea precedentă.

Observaţie.

Dacă notăm:

α

1

α

= k

,

obţinem :

d

(

x

n

,

)

ξ

k

d

(

x

n

,

x

n

1

)

< ε

.

Metoda

este

convergentă

dacă

0 < α <1 ,

dar ea este eficientă (are convergenţă

rapidă), doar dacă: k < 1, adică:

α

1

α

< 1

, de unde:

α <

1

2

.

Dacă

1

2

α < 1

, atunci k 1, şi convergenţa este lentă.

Să considerăm acum cazul particular al unei singure ecuaţii:

f (x) = 0 , pusă sub forma: x = F(x) , F: R R , FC 1 (R).

Lemă.

Fie ξ o soluţie a ecuaţiei precedente ( ξ [a,b] ). Dacă într-o vecinătate a

' punctului ξ, | F ( x ≤ α < ) | 1 , atunci aplicaţia
'
punctului ξ, |
F
(
x ≤ α <
)
|
1
, atunci aplicaţia F este o contracţie (în vecinătatea respectivă).
Observaţii
'
1.
De foarte multe ori se ia:
α =
sup
|
F
(
x
)
|
.
x∈ [ a , b
]
'
2.
Dacă în vecinătatea punctului ξ,
F
(
x
)
>
0
, atunci
şirul
{
x
}
este monoton
n
'
crescător sau descrescător (şirul este convergent dacă 0
< F
(
x
)
<
1
şi divergent dacă
'
'
F
(
x
)
>
1
,
iar dacă
F
(
x
)
<
0
,
şirul
{
x
}
este
oscilant în jurul lui ξ (convergent pentru
n
'
'
− < F x <
1
(
)
0
şi divergent dacă
F
(
x < − ).
)
1
3.
Putem să scriem funcţia F în mai multe moduri, dar nu în toate cazurile ea este

contracţie, deci nu întotdeauna se obţin şiruri iterative convergente.

ECUAŢII ALGEBRICE

Localizarea rădăcinilor unei ecuaţii algebrice

Un caz special de ecuaţii neliniare este acela al ecuaţiilor algebrice, când funcţia f este

un polinom cu coeficienţi reali:

P n
P
n

(

x

)

=

a

0

x

n

+

a x

1

n

1

+

...

+

a

n

1

x

+

a

n

=

0

(2.14)

În acest caz se pot aplica toate metodele descrise până acum, dar se cunosc şi metode

specifice, legate în special de determinarea rădăcinilor complexe.

Există un algoritm special, denumit schema lui Horner, utilizat pentru calculul valorii

polinoamelor şi ale derivatelor lor în diverse puncte. Acest algoritm se foloseşte în metodele

precedente pentru calculul lui

f

(

x

n

)

sau

f

'

(

x

n

)

(în cazul metodei lui Newton).

Astfel, dorim să calculăm valoarea

P

n

(

x

0

) , unde: P (x)

n

este dat de (2.14).

Calculul lui

P n
P
n

(

x

0

) , prin înlocuirea directă a lui x cu

x

0

este ineficace, deoarece sunt

necesare

n(n

+1) înmulţiri şi n adunări.
2

Putem reduce foarte mult numărul înmulţirilor, dacă scriem polinomul

P n
P
n

sub formă

de cuib” (procedeul grupărilor):

P n
P
n

(

x

)

=

((

...

(((

a

0

x + a

1

)

x + a

2

)

x + a

3

)

x +

...

)

x + a

n

1

)

x + a

n

(2.15)

În acest caz sunt necesare numai n înmulţiri şi n adunări (câştigul este important în

special când n este mare şi când dorim să calculăm valoarea polinomului

P în multe puncte).

n

Putem scrie algoritmul de calcul al acestui procedeu, introducând următoarele

notaţii:

b

b

0

=

a

0

1

b

2

=

=

a

0

x

0

+

a

1

(

a

0

x

0

+

a

=

b x

0

0

+

1

)

x

0

+

a

2

a

1

=

b x

1

0

+

a

2

.......................................................

b

n

=

b

n

1

x

0

+

a

n

sau

b

k

= b

k

x

1 0

+ a

k

; k = 1,n ;

b

0

= a

0

 

(2.16)

 
 

Atunci observăm că:

 

P (x

n

0

) = b

n

 

(2.17)

Pe de altă parte, avem egalitatea:

 

P

(

x

)

=

(

x

x

)

Q

(

x

)

+

P

(

x

) .

   

n

 

0

 

n

1

n

0

   

n

1

n

2

Dacă notăm coeficienţii câtului cu b i , deci:

Q

n

1

(

x

)

=

aplicând schema lui Horner cunoscută din algebră, obţinem:

b x

0

 

+

b x

1

 

+

...

+

b

n

1

 

a 0

a 1

 

a 2

 

a

n-1

 

a n

 

x

0

b 0

b 1

 

b 2

 

b n-1

 

b n

 

b

0

=

a

0

 

unde:

 

1

b

2

=

=

b x

0

0

b x

1

0

b

+

a

1

+

a

2

......................

b

n

=

b

n

</