Sunteți pe pagina 1din 35

CAPITOLUL IV

ELEMENTE DE PROGRAMARE NELINIARA




1.Introducere

Caracteristic unei probleme de programare liniar este faptul c toate funciile implicate n
ea funcia obiectiv i restricii sunt liniare. Dei ipotezele de liniaritate au loc n numeroase
situaii practice tot att de frecvent ale nu sunt ndeplinite. De fapt, muli economiti teoreticieni au
constatat c un anume grad de neliniaritate este regula i nu excepia n problemele de planificare
economic.
Exist deci o puternic motivaie economic pentru studiul problemelor de programare
neliniar a cror form canonic de prezentare este:


=
=
=
0 ... , 0 , 0
: tate nenegativi de r conditiilo a si
,..., 2 , 1 0 ) ,..., , (
: lor restrictii ea satisfacer cu
) ,..., , (
: obiectiv functia a minimizeaz care
) ,..., , ( determine se Sa
) (
2 1
2 1
2 1
* *
2
*
1
*
n
n i
n
n
x x x
m i x x x g
x x x f z
x x x x
P

=

0
,..., 2 , 1 0 ) (
) ( min
x
m i x g
R x x f
i
n

Dac n cazul liniar ( f si g
i
sunt funcii liniare) exist (cel puin) o metod general de
rezolvare de exemplu metoda simplex n cazul neliniar nu exist o asemenea metod. Totui
progrese substaniale au fost fcute n unele cazuri speciale prin impunerea unor condiii asupra
funciilor f si g
i
.Aria acestor cazuri speciale este destul de mare astfel c nu ne vom putea opri
dect asupra unora mai relevante.

2. Neliniaritatea n modelarea proceselor economice. Cteva exemple

S considerm problema firmei al crei obiectiv este determinarea unui program de
producie astfel nct:

necesarul de resurse pentru susinerea programului s se ncadreze n disponibile date;
profitul total, rezultat din vnzarea bunurilor produse s fie maxim.

n multe situaii practice, preurile i costurile unitare de fabricaie pot fi considerate constante
astfel c i profiturile unitare vor fi la fel. n consecin, n aceste cazuri funcia obiectiv, care
reprezint profitul total, va fi liniar:
n n n
x P x P x P x x x f + + + = ... ) ,..., , (
2 2 1 1 2 1

(x
j
reprezint cantitatea produs i vndut din bunul j;P
j
este profitul unitar corespunztor
bunului j )
Nu ntotdeauna tot ceeace se produce dintr-un bun se poate i vinde la un anumit pre. Apare aa
numita problem a elasticitii preului: cantitatea de marf vndut se afl ntr-o relaie invers cu
preul cerut aa cum arat curba pre cerere (fig. 2.1a)

c
cost unitar de
producie
p(x)
x
pre
cerere
cantitate produs
i vndut
x
P(x)
profit













p(x) este preul care permite firmei s vnd x uniti de produs

a) b)
Figura 2.1

Dac c este costul unitar de producie, cost pe care l presupunem pentru simplificarea expunerii
fix, atunci profitul firmei, rezultat din producerea i vnzarea cantitii x este dat de funcia
neliniar (vezi fig. 2.1b):
P(x) = x.p(x) c(x)

Dac fiecare din produsele firmei are o asemenea funcie profit, notat P
j
(x
j
), profitul total va fi
exprimat prin funcia neliniar:

=
=
n
j
j j n
x P x x x f
1
2 1
) ( ) ,..., , (
O alt surs de neliniariti n funcia obiectiv o constituie variaia costului marginal - pentru
producerea a nc unei uniti dintr-un produs - n funcie de nivelul produciei. Acest cost marginal
poate s scad n unele situaii (ca urmare a trecerii la producia de serie, al acumulrii experienei i
al perfecionrii procesului de producie) iar n altele poate s creasc (ore suplimentare,utilizarea n
regim de urgen a unor capaciti de producie mai costisitoare pentru satisfacerea unor cereri
imediate)

Neliniaritatea poate apare i n restricii ntr-o manier asemntoare. De exemplu, dac
exist o restricie bugetar asupra costului produciei, relaia corespunztoare va fi cu siguran
neliniar n cazul n care costul marginal al produciei este variabil.

Pentru restriciile privitoare la alte tipuri de resurse, neliniaritatea apare ori de cte ori
consumurile nu sunt direct proporionale cu nivelele de producie.

Exemplul 2.1 n problema transporturilor se urmrete determinarea unui program pentru
transportul unui produs de la diferite surse la diveri consumatori, cunoscndu-se cantitile
disponibile i cererile, astfel nct costul total al transportului s fie minim. n programarea liniar,
costul transportului unei uniti de produs de la o anumit surs la o anumit destinaie a fost
considerat constant, independent de cantitatea transportat. De multe ori se ntmpl ca la cantiti
mari s se acorde la transport anumite reduceri; n aceste situaii, costul marginal al transportului
unei uniti suplimentare tinde s scad i ca o consecin costul C(x) al transportrii cantitii x este
dat de o funcie neliniar. S analizm datele din fig. 2.2 a) i b).



cost marginal cost

39
84
186

132


6.5


5

4

3






6 15 27 45 cantitate
transportat
6 15 27 45


a) b)
Figura 2.2


Fie x cantitatea transportat i C(x) costul transportrii cantitii x.

dac 0 x 6 costul unitar de transport este de 6.5 u.m. deci
C
1
(x) = 6.5x u.m.;
dac 6 x 15 , 6 uniti vor fi transportate cu costul 6.5 u.m. per unitate iar
urmtoarele cu numai 5 u.m. per unitate astfel c :
C
2
(x) = 6.5 6 + 5.(x - 6) = 9 + 5.x
dac 15 x 27 , 15 uniti vor fi transportate cu costul C
2
(15) = 84 iar urmtoarele cu
numai 4 u.m. per unitate. Costul total va fi :
C
3
(x) = 84 + 4.(x 15) = 24 + 4.x
dac 27 < x 45 , 27 uniti vor fi transportate cu costul C
3
(27) = 132 iar urmtoarele cu
3 u.m. per unitate de unde costul total:

C
4
(x) = 132 + 3.(x 27) = 51 + 3.x

Prin urmare, costul C(x) al transportrii a x uniti este dat de funcia:

< +
< +
< +

=
45 27 . 3 51
27 15 . 4 24
15 6 . 5 9
6 0 5 . 6
) (
x x
x x
x x
x x
x C

care este neliniar dar liniar pe poriuni. Din fig. 4.2b) rezult c pantele poriunilor liniare ale
graficului funciei C(x) sunt chiar costurile marginale evideniate n fig 4.2a).
Dac fiecare cuplu (surs i , destinaie j ) are o funcie cost similar, aa nct costul
transportului a x
ij
uniti de la i la j este dat de funcia neliniar C
ij
(x
ij
) atunci costul total este
reprezentat de funcia de asemenea neliniar;

=
j i
ij ij n
x C x x x f
,
2 1
) ( ) ,..., , (
Aceste consideraii nu modific restriciile problemei de transport care rmn liniare:

suma cantitilor livrate de sursa i nu


depete disponibilul su;
=
= =
n
j
i ij
m i a x
1
,..., 2 , 1
suma cantitilor primite de consumatorul j
acoper cererea sa.
= =

=
n j b x
j
m
i
ij
,..., 2 , 1
1

Exemplul 2.2 La terminalul unei conducte petroliere situat ntr-un port sosesc vasele A,B,C
pentru a fi ncrcate. Vasul A trebuie ncrcat cu 15 mii tone n maximum 48 de ore, vasul B trebuie
ncrcat cu 20 mii tone n maximum 60 de ore iar vasul C trebuie ncrcat cu 45 mii tone n
maximum 70 de ore. (timpii de staionare pentru ncrcare se numesc timpi de stalii i sunt
prevzui n contractul de transport; orice depire a acestor timpi (contrastalii) se penalizeaz,
penalizarea depinznd de tipul navei etc) Terminalul dispune de pompe i conducte care nsumeaz
o capacitate de ncrcare de 1200 tone pe or. Se pune problema de a stabili ce debit trebuie afectat
fiecrei nave astfel nct ele s fie ncrcate n cel mai scurt timp.

Dac se noteaz cu y
1
, y
2
, y
3
deditele repartizate vaselor A,B,C i cu x
1
, x
2
, x
3
numrul de
ore necesar ncrcrii lor se obine uor urmtorul program neliniar:

=

+ +
= = =
+ + =
3 , 2 , 1 0 ,
70 , 60 , 48
1200
45000 20000 15000
(min)
3 2 1
3 2 1
3 3 2 2 1 1
3 2 1
j y x
x x x
y y y
y x y x y x
x x x f
j j

Eliminnd y
1
, y
2
, y
3
rezult modelul mai simplu:



+ +
+ + =
0 , 0 , 0
70 , 60 , 48
1200
45000 20000 15000
(min)
3 2 1
3 2 1
3 2 1
3 2 1
x x x
x x x
x x x
x x x f


3. Dificulti cauzate de neliniaritate

Considerm problema de optimizare:

=

0
)) ( ),..., ( ), ( ( ) ( , 0 ) (
, ) ( min
) (
2 1
x
x g x g x g x g x g
R x x f
P
m
n

a crei mulime de soluii admisibile o notm cu A:

A = { } 0 ; 0 ) ( ,..., 0 ) ( , 0 ) ( 0 ) (
2 1
x x g x g x g x g R x
m
n


(P) se rescrie:
S se determine x
*
A cu proprietatea: { } A = x x f x f ), ( min ) (
*


Este cunoscut faptul c dac (P) este un program liniar (adic f i g
1
,g
2
,,g
m
sunt funcii liniare)
atunci mulimea A este convex i mai mult chiar poliedral (intersecie finit de semispaii).Aceste
proprieti ale mulimii A plus faptul c funcia obiectiv este i ea liniar ne asigur c:

o soluie optim dac exist este un punct de minim global adic:
f(x
*)
f(x) () x A

cel puin o soluie este un vrf al mulimii A

Cum numrul vrfurilor mulimii poliedrale A este finit urmeaz c, pentru programul liniar (P),
problema determinrii unei soluii optime x
*
din mulimea, n general infinit, a tuturor soluiilor
admisibile se reduce la gsirea lui x
*
n mulimea finit a vrfurilor acestei mulimi.
Metoda simplex realizeaz n mod sistematic aceast cutare oferind ntr-un numr finit de pai
(iteraii) soluia optim x
*
.

Neliniaritatea obiectivului sau a unora dintre restricii face ca unele din proprietile relevate
mai sus s dispar fapt care duce la complicarea sarcinii de determinare a optimului.

1) De la bun nceput vom sublinia faptul c n programarea neliniar cu cteva excepii
metodele de rezolvare obin teoretic soluia optim ca limit a unui ir de soluii. Astfel, un
proces concret de optimizare neliniar este finit nu datorit structurii problemei ci prin voina
utilizatorului care limiteaz numrul pailor n funcie de o serie ntreag de factori cum ar fi :
complexitatea calcului, timpul disponibil, performanele echipamentului de calcul etc.

2) este posibil ca funcia obiectiv din (P) s aibe mai multe minime locale pe mulimea
soluiilor admisibile A . Pentru exemplificare considerm problema:

f = 4
f = 6
A
B(2,0)
A(0,2)


+
+ =
0 , 0
4
3 2 ) , ( min
) (
2 1
2
2
2
1
2 1 2 1
x x
x x
x x x x f
P





Figura 3.1

Mulimea soluiilor admisibile A este vizualizat n fig.3.1. Evident, A nu este o mulime convex.
Punctul A(0,2) ofer obiectivului valoarea 6 care este cea mai mic valoare a funciei f pe soluiile
admisibile situate n imediata apropiere de A! Totui A nu este soluia optim a problemei (P)
deoarece n B(2,0) f are valoarea 4 < 6. Ca i A, B minimizeaz funcia obiectiv pe soluiile
admisibile vecine cu B dar, spre deosebire de A, B minimizeaz obiectivul pe ntreaga mulime A
i n consecin reprezint soluia optim a problemei (P). Spunem c A i B sunt puncte de minim
local ale funciei obiectiv f, B fiind chiar un punct de minim global.

Posibilitatea existenei mai multor minime locale ale funciei obiectiv reprezint o serioas
dificultate n rezolvarea unui program neliniar. ntr-adevr, prin nsi formulare, ntr-o asemenea
problem se cere determinarea minimului global al obiectivului. Or, toate metodele de optimizare
neliniar cunoscute, nu reuesc s determine dect cel mult un minim local, neexistnd garania c
acesta coincide cu minimul global cutat.
Dup cum vom vedea, dac A este convex iar funcia obiectiv este convex i se
minimizeaz atunci aceasta are cel mult un minim local care dac exist este automat global !
Din fericire, marea majoritate a aplicaiilor economice au proprietile de mai sus, fapt care
constituie un serios avantaj.

3) Chiar dac restriciile din (P) sunt liniare dar obiectivul ramne neliniar ns convex,
soluia optim, dei se afl pe frontiera lui A nu este neaprat vrf. Considerm urmtorul exemplu:


min f = f(x
*
) = 3/2

x
*
= (5/2 , 7/2)
x
1
x
2
A

x
punctul de minim
liber al funcei f

= (7/2 , 4)

+
+

+
+ =
0 ,
4
6 2
1
6
) 4 ( 2 ) ( ) , ( min
2 1
2 1 2
1
2 1
2 1
2 1
2
2
2
2 2
7
1 2 1
x x
x x
x x
x x
x x
x x x x x f



Figura 3.2

Curbele de nivel ale funciei obiectiv patratice f sunt elipse centrate n x

= (7/2 , 4) care
reprezint i punctul de minim nerestricionat al lui f. Se poate arta, prin mijloace algebrice
elementare c f are pe A un minim global x
*
= (5/2 , 7/2) care nu este vrf al lui A .

4) este posibil ca soluia optim s fie situat n interiorul mulimii A . Pentru exemplificare
s atam restriciilor din problema precedent funcia

2
2
2
1 2 1
) 3 ( 2 ) 2 ( ) , ( + = x x x x f

al crei minim liber este punctul x

= (2 , 3). Deoarece x

A ( i mai precis x

Int (A ) ) acest
punct reprezint soluia optim x
*
.


4. Clase de probleme neliniare

1) Problemele de optimizare fr restricii au forma general:
S se determine x
*
R
n
care minimizeaz valoarea funciei
) ,..., , (
2 1 n
x x x f z =
minimul fiind luat dupa toi x R
n
n care funcia f este definit.

2) Probleme de optimizare cu restricii liniare i funcie obiectiv neliniar. n aceast
clas un loc deosebit l ocup problemele de programare patratic n care funcia obiectiv este un
polinom de gradul doi n variabilele sale:

=
+ + =
n j i
j i ij
n
i
i i n
x x c x c c x x x f
1 1
0 2 1
) ,..., , (
Importana problemelor de programare patratic este motivat prin:

faptul c modeleaz cu suficient acuratee multe situaii practice;
se rezolv prin metode derivate din metoda simplex ntr-un numr finit de pai;
rezolvarea multor probleme cu restricii liniare i funcie obiectiv neliniar se poate
reduce la rezolvarea unei secvene de probleme de programare patratic ale cror funcii obiectiv
aproximeaz din ce n ce mai bine obiectivul neliniar original.

3) Problemele de programare convex se caracterizeaz prin:

funcie obiectiv convex dac aceasta se minimizeaz (echivalent: funcie obiectiv
concav dac aceasta se maximizeaz);
restriciile inegaliti sunt de forma 0 ) ( x g
i
n care g
i
este o funcie convex
(echivalent cu g 0 ) ( x g
i
i
funcie concav);
eventualele restricii egaliti sunt liniare, cerin motivat prin aceea c funciile liniare
sunt singurele funcii simultan convexe i concave.

Problemele convexe au urmtoarele proprieti fundamentale:

mulimea soluiilor admisibile este convex;
funcia obiectiv admite cel mult un optim (minim sau maxim) local; automat acesta va fi
un optim global i va reprezenta optimul problemei;
dac optimul liber (nerestricionat) al funciei obiectiv nu este o soluie admisibil
atunci optimul restricionat se gsete cu necesitate pe frontiera mulimii A .

Importana acestei clase de probleme este covritoare. ntr-adevr:

programarea convex include programarea liniar ;
n acest domeniu a fost depus cel mai mare efort de cercetare i s-au obinut cele mai
puternice rezultate teoretice (cum ar fi teoria dualitii neliniare, condiiile de optimalitate Kuhn
Tucker) i practice (metode i algoritmi de optimizare);
ntregul formalism matematic al teoriei economice moderne se bazeaz pe ipotezele de
convexitate.

4)Problemele de programare separabil se caracterizeaz prin faptul c funcia obiectiv f
ca i funciile g
I
din restricii sunt separabile n sensul urmtoarei definiii:
Funcia se numete separabil dac ea se poate scrie ca o sum de funcii,
fiecare de cte o singur variabil:
) ,..., , (
2 1 n
x x x f
) ( ... ) ( ) ( ) ,..., , (
2 2 1 1 2 1 n n n
x f x f x f x x x f + + + =
Separabilitatea este important prin aceea c uureaz optimizarea. De exemplu, optimizarea unei
funcii separabile fr restricii se reduce la optimizarea independent a termenilor!

5) Problemele de programare neconvex reunesc toate problemele care nu satisfac
ipotezele de convexitate. Ele sunt grele n primul rnd din cauza faptului c au mai multe minime
locale. Dup cum s-a mai spus, metodele actuale pot determina un asemenea optim dar nu
garanteaz c optimul gsit este cel global. Din fericire, exist cteve tipuri de probleme neconvexe,
utile n practic, care pot fi rezolvate fr dificulti deosebite prin metode speciale. rintre aceste
tipuri, se numr problemele de programare fracionar. Iat un exemplu:


=
+
+
=
0
) ,..., , ( ) ( min
2 1
0
0
x
b Ax
R x x x x
d dx
c cx
x f
n
n


unde se presupune c pe A ={x R 0
0
> + d dx
n
||Ax b , x 0}.
O asemenea problem se reduce la un program liniar uzual punnd:

0 0
2 1
1
,
1
) ,..., , (
d dx
t x
d dx
y y y y
n
+
=
+
= = astfel c
t
y
x = .

Rezult programul liniar echivalent n n + 1 variabile y = (y
1
,y
2
,,y
n
) i t:


= +

+
0 , 0
1
0
min
0
0
t y
t d dy
bt Ay
t c cy



5. Mulimi i funcii convexe

Reamintim c o mulime C R
n
se numete convex dac o dat cu dou puncte conine i
segmentul care le unete. Formal:
C este convex C y x C y x
def
+ ) 1 ( ] 1 , 0 [ ) ( , , ) (
.

Fie C o mulime convex i f o funcie numeric definit n toate punctele mulimii C. Spunem c f
este convex dac:
] 1 , 0 [ ) ( , , ) ( C y x avem:
) ( ) ( ) 1 ( ) ) 1 (( y f x f y x f + +
Vom zice c f este concav dac funcia opus f este convex. Aceasta revine la:
) ( ) ( ) 1 ( ) ) 1 (( y f x f y x f + +

Funcia f se numete strict convex (strict concav) dac inegalitile de mai sus sunt stricte
i . y x C y x cu , ) ( ) 1 , 0 ( ) (

Exemple de funcii convexe

1) Pentru funciile de o singur variabil, convexitatea se traduce prin faptul c graficul
ine apa. Dac I este un interval deschis (deci o mulime convex din R) i f este o funcie
definit pe I i care este de dou ori derivabil pe I atunci f este convex I x x f ) ( 0 ) ( .

2) Orice funcie liniar de n variabile

b x a x a x a x x x f
n n n
+ + + + = ... ) ,..., , (
2 2 1 1 2 1

este simultan convex i concav.

3) Dac f i g sunt funcii convexe cu acelai domeniu convex de definiie i 0 , 0
atunci combinaia f + g este deasemenea o funcie convex.

4)S considerm funcia patratic n n variabile:

=
+ =
n j i
j i ij
n
j
j j n
x x c x p x x x f
1 1
2 1
) ,..., , (
definit n ntreg R
n
. Dac punem:

< = =
= =
=
(
(
(
(

= =
n j i c c c
n i c c
n j i c C
x
x
x
x p p p p
ij ji ij
ii ii
ij
n
n
1 ,
,..., 1 , 2
cu , , 1 , ] [ , ], ,..., , [
2
1
2 1
M

f se scrie condensat:
Cx x px x f
T
2
1
) ( + =

Notm c prin construcie, matricea C este simetric.

Cercetm n ce condiii f este o funcie convex. Deoarece partea liniar este convex,
chestiunea se reduce la a vedea n ce condiii funcia pur patratic este convex. Un
calcul direct arat c satisface identitatea:
Cx x x
T
= ) (
R R y x y x y x y x
n
+ = + ) ( , , ) ( ) ( ) 1 ( ) ( ) ( ) 1 ( ) ) 1 ((
Acum, dac [0,1], identitatea precedent echivaleaz convexitatea funciei cu condiia:
n T
R z Cz z ) ( 0
cerin care, dup cum este cunoscut din algebra liniar, definete matricea C ca matrice pozitiv
semidefinit.
Cu acelai raionament conchidem c este strict convex dac i numai dac matricea C este
pozitiv definit adic:
n T
R z Cz z ) ( 0 i 0 0 = = z Cz z
T
Recapitulnd obinem:

Funcia patratic Cx x px x f
T
2
1
) ( + = este convex (strict convex) dac i numai dac
matricea simetric C este pozitiv semidefinit (pozitiv definit).

Reamintim c matricea simetric n j i c C
ij
= , 1 , ] [ este pozitiv semidefinit (pozitiv definit)
dac i numai dac toi minorii care se sprijin pe diagonala principal, adic:






nn n n
n
n
c c c
c c c
c c c
c c
c c
c
L
M M M M
L
L
L
2 1
2 22 21
1 12 11
22 21
12 11
11
; ; ;

sunt 0 (respectiv > 0).

6) Mai general, fie f o funcie definit i avnd derivate pariale de ordinul doi n orice
punct al unei mulimi convexe deschise C din R
n
. Atunci f este convex dac i numai dac matricea
hessian
(
(

= ) ( ) (
2
x
x x
f
x H
j i


este pozitiv semidefinit, n fiecare punct x C. Dac este pozitiv definit n orice punct din
C, funcia f este strict convex.ntr-adevr s fixm un x C i un z R
) (x H
n
oarecare.Considerm
funcia de o singur variabil:
) ( ) ( tz x f t g + =

definit pentru toi t R cu proprietatea c x + tz C (aceti t exist cu siguran i deoarece C este
o mulime deschis, ei formeaz un interval deschis n R ce conine 0). Evident, funcia f este
convex dac i numai dac funcia g este convex, indiferent de alegerea lui x C i a lui z
R
n
.Ca i f, g este de dou ori derivabil i
z tz x H z t g
T
+ = ) ( ) (

Atunci, f este convex () x C, () z R
n
i () t R cu x + tz C,
, H(x) este pozitiv semidefinit () x C etc. 0 ) ( ) ( + = z tz x H z t g
T

n continuare, vom justifica unele proprieti ale programelor convexe anunate deja n
seciunea precedent.

Propoziie Fie funcii convexe definite n toate punctele unei mulimi convexe
C R
m
g g g ,..., ,
2 1
n
. Atunci mulimea:

A = } 0 ) ( ,..., 0 ) ( , 0 ) (
2 1
x g x g x g C x
m
{

este convex.

Demonstraie Deoarece :
A = } 0 ) (
1
x g C x { } 0 ) ( x g C x
m
{
i o intersecie de mulimi convexe este nc o mulime convex, va fi suficient s artm c dac g
este o funcie convex pe C atunci mulimea :
A = } 0 ) ( x g C x {
este convex. Fie x,y A i [0,1]; atunci g(x) 0 , g(y) 0 astfel c:


0 ) ( ) ( ) 1 ( ) ) 1 (( + + y g x g y x g

Prin urmare (1-)x + y A .

Consecin Mulimea soluiilor admisibile ale unui program convex este o mulime
convex.

Teorem Considerm problema de optimizare convex: min{ f ( x )|x A } n care A este
mulimea convex a soluiilor admisibile iar f este o funcie convex pe A . Dac f are n x
*
A un
minim local atunci x
*
este un punct de minim global al funciei f pe ntreg A .

Demonstraie Prin ipotez, f ( x
*
) f ( x ) oricare ar fi x A , suficient de aproape de x
*
.
Presupunem prin absurd c x
*
nu este un minim global al funciei f : exist atunci x
**
A astfel
nct f ( x
**
) < f ( x
*
). S considerm acum un punct interior variabil pe segmentul
[x
*
, x
**
] :
) 1 , 0 ( ) 1 (
* * *
+ = x x z

Deoarece A este convex, toate aceste puncte sunt n A . Funcia f fiind convex avem:

) ( ) ( ) ( ) 1 (
) ( ) ( ) 1 ( ) ) 1 (( ) (
* * *
* * * * * *
x f x f x f
x f x f x x f z f
= + <
< + + =


Pentru suficient de mic, z se va afla n imediata apropiere a lui x
*
i deci, conform ipotezei, f( z )
f( x
*
), n contradicie cu cele artate mai sus. Contradicie ! Deci x
*
este un minim global al
funciei f.


6. Optimizare fr restricii

6.1 Introducere Fie f o funcie numeric de n variabile pe care, pentru simplitate, o
presupunem definit i cu derivate pariale cel puin de ordinul doi n fiecare punct din R
n
.
Considerm problema de optimizare fr restricii:

(P) S se determine x
*
R
n
cu proprietatea: } ) ( {inf ) (
* n
R x x f x f =

n legtur cu aceast problem, analiza matematic clasic furnizeaz urmtorul rezultat
fundamental:

Teorem Dac x
*
este un punct de extrem local al funciei f, atunci f(x
*
) = 0, unde
(

=
n
x
f
x
f
x
f
x f ,..., , ) (
2 1
(6.1)

este gradientul funciei f. Reciproc, dac x
*
R
n
este un punct n care condiia (1) are loc i n plus
matricea hessian H(x
*
) este pozitiv definit, unde

n j i
x x
f
x H
j i

(
(

= , 1 ) (
2


atunci x
*
este un punct de minim local al funciei f.

Prin urmare, soluia optim a problemei (P) trebuie cutat printre soluiile sistemului de n
ecuaii n n variabile, n general neliniar:

0 ,..., 0 , 0 0 ) (
2 1
=

=
n
x
f
x
f
x
f
x f (6.2)

ns rezolvarea sistemului (6.2), cel puin n sensul uzual al termenului, este practic imposibil de
fcut n cvasitotalitatea cazurilor practice. Chiar i n cazul fericit n care, prin mijloace analitice
adic cu formule am putea gsi o soluie a sistemului (6.2) nu avem nici o garanie c aceasta
este soluia optim a problemei (P): ea ar putea fi foarte bine un punct de maxim local sau un punct
a sau, n cel mai bun caz, un minim local diferit de cel global! Astfel apare necesitatea considerrii
altor metode de abordare a problemei (P).

6.2 Principiul metodelor de optimizare fr restricii Ideea comun a tuturor metodelor
de minimizare nerestricionat (liber) este urmtoarea:

Se genereaz un ir de puncte x
0
, x
1
, x
2
din R
n
, numite n continuare aproximaii.
Punctul iniial x
0
este dat, alegerea sa fiind fcut de utilizator n funcie de specificul problemei
(P). O dat obinut aproximaia x
k
, noua aproximaie x
k+1
se determin astfel:

Se alege o direcie de deplasare s
k
precum i un pas al deplasrii
k
; s
k
este un
vector nenul din R
n
de regul 1 =
k
s ;
k
este un scalar pozitiv.

Se pune:
(6.3)
k
k
k k
s x x + =
+1


n principiu, vectorul s
k
este astfel ales nct
s
k
x
k
k
k
k k
s x x + =
+1

prin deplasarea din x
k
n direcia s
k
, s se
obin cel puin n prima faz a deplasrii
o descretere a valorii funciei de minimizat f.
O dat stabilit direcia de deplasare s
k
, pasul

k
se alege astfel nct:

) ( ) (
1 k k
x f x f <
+

Figura 6.1
Prin urmare:

... ) ( ) ( ) (
2 1 0
> > > x f x f x f

Mai precis
k
se gsete prin minimizarea funciei de o singur variabil:

(6.4) 0 ) ( ) ( + = s x f g
k k

Pentru a obine o metod efectiv de minimizare este necesar s se precizeze:

modul de alegere a direciei de deplasare s
k
, k = 0,1,2,;
modul de alegere a pasului
k
altfel spus, modul n care se execut minimizarea funciei
unidimensionale g() din (6.4);
procedeul de oprire a procesului iterativ.

Decisiv n diferenierea metodelor concrete att n ceea ce fundamentul teoretic ct i
performanele numerice este prima chestiune, legat de alegerea direciei de deplasare.

Este foarte important de reinut c dac funcia de minimizat nu are proprieti adiionale
bune, cum ar fi aceea de a fi convex, rezultatul aplicrii acestor metode se materializeaz n cel
mai bun caz, ntr-un minim local de regul cel mai apropiat de punctul iniial x
0
. n practic,
pentru a obine toate minimele locale i n particular minimul global, se procedeaz la repetarea
minimizrii din mai multe puncte iniiale, judicios alese.

Marea majoritate a metodelor de minimizare nerestricionat presupun difereniabilitatea
funciei obiectiv ; exist totui i scheme de minimizare pentru funcii nedifereniabile!

6.3 Gradientul unei funcii. Proprieti n ipotezele i notaiile precedente, o
hipersuprafa de nivel a funciei f este mulimea punctelor care satisfac o
ecuaie de forma: f( x ) = C, unde C este o constant. n cazul a dou (respectiv trei) variabile vom
vorbi despre curbe (respectiv,suprafee) de nivel. Astfel pentru funciile:
n
n
R x x x x = ) ,..., , (
2 1

2
2
2
1 2 1 2 1 2 1 2 1
2 4 ) , ( ) ; 3 2 ) , ( ) x x x x x x f b x x x x f a + + + = + =
2
2
2
1 2 1 2 1
4 16 2 ) , ( ) x x x x x x f c + + =

curbele de nivel sunt: a) drepte paralele; b) cercuri concentrice; c) elipse concentrice (vezi fig.
6.2)

Gradientul funciei f este vectorul:
(

=
n
x
f
x
f
x
f
x f ,..., , ) (
2 1


Acesta are urmtoarele proprieti:

n orice punct de extrem local x
*
al funciei f avem f(x
*
) = 0; reciproca nu este n general
adevrat.
Fie
n
R x un punct n care 0 ) ( x f .Atunci ) (x f s = este direcia de deplasare din
x corespunztoare celei mai rapide descreteri afunciei f. Analog, ) (x f este direcia celei mai
rapide creteri.
ntr-adevr, s considerm o direcie oarecare i funcia :
0 , ) ,..., , (
2 1
= s R s s s s
n
n

0 ) ( ) ( + = s x f g

care indic variaia funciei f pe direcia de deplasare s din x .




f = 4
f = -1

f = -5
b)
a) f = -13
f = -17

f = -4
f =0
f = 3
f = 6
c)

Figura 6.2

Dup cum se tie, variaia (adic creterea sau descreterea) potenial sau incipient a
funciei f pe direcia s plecnd din x , este dat de derivata ) 0 ( g .
n general:
) ( ) ( ) (
1
s x f s s x
x
f
s g
n
i i
i
+ = +

=

=

astfel c:
) ( ) 0 ( x f s g =
Din inegalitatea Cauchy Buniakovski Schwarz:

) ( ) 0 ( ) ( ) ( ) ( x f s g x f s x f s x f s


x
) (x f
) ( ) ( x f x f =

rezult c ) are cea mai mic valoare pentru 0 ( g
) (x f s = i cea mai mare pentru s = ) (x f .

Dac 0 ) ( x f , atunci acest vector
este perpendicular pe hipersuprafaa de nivel
) ( ) ( x f x f = ce trece prin x 9vezi fig. 4.8

Figura 6.3

Exemplul 6.1 Considerm funcia patratic:
2
2
2
1 2 1
) 4 ( 16 ) , ( + = x x x x f
Curbele sale de nivel sunt elipse cu centrul n punctul care reprezint i punctulde minim
global al funciei.Gradientul lui f:
) 4 , 0 (
*
= x
] 8 2 , 32 [ ) , (
2 1 2 1
= x x x x f

n punctul x = (1,1) este nenul: ) (x f = (32,-6). Cea mai rapid descretere a funciei f plecnd din
x are loc pe direcia ) (x f s = = (-32,6) vezi fig. 6.4

Atenie: pe direcia celei mai rapide descreteri, funcia nu descrete nencetat! Pentru ilustrare, n
exemplul de mai sus, s considerm un punct variabil pe direcia celei mai rapide descreteri din
x = (1,1):
0 ) 6 1 , 32 1 ( ) 6 , 32 ( ) 1 , 1 ( ) ( ) ( + = = = x f x x

Pe aceast direcie, comportarea funciei f este descris de funcia:

25 1060 16420 ) 3 6 ( ) 32 1 ( 16 )) ( ( ) (
2 2 2
+ = + = = x f g

a crei variaie este artat n fig.6.5

Curba de nivel
) ( ) ( x f x f = =25
x
2
- ) (x f
x
*
x
) ( ) ( x f x x =


7.893
25

0
=0.032













x
1


Figura 6.4 Figura 6.5

Se observ c atunci cnd crete de la 0 la 0.032 (= punctul n care g() are valoarea minim),
funcia g i deci i funcia f scad de la valoarea 25 la valoarea 7.893 dup care ncep din nou s
creasc!

6.4 Criterii de oprire ale procesului iterativ de minimizare 1) Deoarece ntr-un punct de
minim local avem f(x
*
) = 0, procesul de minimizare se poate opri n momentul n care:
n i x
x
f
a
k
i
,..., 2 , 1 ) ( ) = <


sau:
x
x
f
b
k
i
n
i
<
(

=
2
1
) ( )

unde este un numr pozitiv foarte mic, ca de exemplu = 10
-5
.

3) De multe ori este preferabil s oprim procesul iterativ n momentul n care variaia
funciei obiectiv n dou aproximaii succesive nu depete o toleran dat:

x f x f
k k
<
+
) ( ) (
1


3) Se poate ntmpla ca, din cauza unei nefericite alegeri a aproximaiei iniiale x
0
sau a
structurii funciei de minimizat, procesul iterativ, dei convergent, s fie foarte lent. n asemenea
situaii, timpul de calcul poate atinge valori nepermis de mari. Vom evita acest inconvenient
limitnd din start numrul iteraiilor posibil de efectuat.

6.5 Minimizarea unei funcii de o singur variabil n seciunea introductiv am vzut c
toate metodele de minimizare nerestricionat a unei funcii f de mai multe variabile necesit
minimizarea unei funcii g() de o singur variabil.Deoarece minimizarea unidimensional se
efectueaz la fiecare iteraie a procesului de minimizare multidimensional este clar c eficacitatea
procesului multidimensional depinde de calitile procesului unidimensional.

n continuare vom presupune c n prealabil am localizat un punct de minim x
*
al funciei g
ntr-un interval (a,b) suficient de mic.

n general, metodele de minimizare unidimensional se bazeaz pe una din urmtoarele idei:

Se aproximeaz funcia g pe intervalul (a,b) printr-un polinom de interpolare de grad doi
sau trei al crui punct de minim din (a,b) se determin uor pe baza unei formule. Punctul de minim
astfel calculat se consider a fi o bun aproximare a punctului de minim x
*
cutat.
Construcia polinomului de interpolare se poate face folosind:

numai evaluri ale funciei g (n cteva puncte);
evaluri att ale funciei g ct i ale derivatei sale.

De exemplu:
putem construi un polinom de interpolare de gradul trei utiliznd valorile funciei
g i ale derivatei sale n punctele a i b ce mrginesc punctul de minim cutat. g
putem construi un polinom de interpolare de gradul doi utiliznd valorile funciei
g n a i b precum i ntr-un al treilea punct c (a,b) de obicei se ia ) (
2
1
b a c + = .

Se micoreaz progresiv intervalul (a,b) la un interval ) , ( b a care de asemenea conine pe
x
*
i a crui lungime este inferioar unei tolerane date:

0 cu > < a b numr foarte mic.

Atunci orice punct x din ) , b a ( aproximeaz x
*
cu tolerana n sensul c:
x x <
*

Micorarea intervalului (a,b) se face cu ajutorul evalurii funciei g i/sau ale derivatei sale ntr-un
numr de puncte din interiorul lui (a,b). Cele mai cunoscute metode de acest fel sunt metoda
biseciei succesive, metoda seciunii de aur i metoda Fibonacci.

n figura 6.6 este prezentat schema logic a metodei biseciei succesive ; justificarea metodei
rezult imediat din situaiile ilustrate n figurile 6.7a) i 6.7b).

Pentru a nelege modul de aciune al metodelor bazate exclusiv pe evaluarea funciei de
minimizat n diferite puncte sunt necesare cteva pregtiri.



START
Iniializare: b b a a = = ;
) (
2
1
b a x + =
Calculeaz ) (x g
x g < ) (
0 ) ( < x g x a = :
x b = :
a b <
STOP
x x
*

Figura 6.7 a)
b x x a
*

b x x a
*




































Figura 6.7 b)
Figura 6.6



Deoarece n intervalul de localizare (a,b) am presupus c f are un unic punct de minim x*


(vezi fig. 6.8) urmeaz c oricare ar fi x
1
< x
2
din (a,b) :

) ( ) (
2 1
x f x f > dac
*
2 1
x x x < <
i
) ( ) (
2 1
x f x f < dac
2 1
*
x x x < <

Alegem dou puncte x
S
i x
D
n (a,b)
astfel nct x
S
< x
D
pe care le vom
numi puncte interioare. Dac
) ( ) (
D S
x f x f ,atunci cu necesitate
x
*
se va afla n intervalul (a,x
D
).

b x
*
a
Figura 6.8

Dac din contr, , atunci cu siguran x ) ( ) (
D S
x f x f >
*
va fi n (x
S
,b).Cele dou situaii sunt
ilustrate n figurile 6.9a) i 6.9b).











b a x
*
x
D
x
S a x
*
b
x
D
x
S


Figura 6.9a) Figura 6.9b)

Observm c noul interval mai mic conine cu necesitate unul din punctele interioare alese. Dac n
noul interval mai mic alegem nc un punct interior putem repeta consideraiile precedente.

Metodele de minimizare unidimensional bazate pe evaluri multiple se difereniaz prin
modul de alegere a celor dou puncte interioare x
S
i x
D
.

Vom descrie n continuare metoda seciunii de aur. Fie 618034 . 0
2
1 5
=

= r .
START. Iniializm:

extremitile intervalului curent ) , ( b a care conine punctul de minim x
*
cutat:
b b a a
punctele interioare:

a b h h r a x h r a x
D S
= + : unde
2


Evalum funcia f n x
S
i x
D
.

Coninutul unei iteraii:

Pasul 1. Se compar . Dac: ) ( cu ) (
D S
x f x f

se merge la pasul 2. ) ( ) (
D S
x f x f

se merge la pasul 3. ) ( ) (
D S
x f x f >

Pasul 2. ( x
*
se afl n intervalul ) ,
D
x a ( i tot aici se gsete i x
S
)
Actualizm:
a b h x b
D
;

Dac h < se merge la pasul 4. Altminteri, actualizm:

h r a x x x
S S D
+
2
;

Evalum f n (noul) x
S
. Ne ntoarcem la pasul 1 n cadrul unei noi iteraii.

Pasul 3. ( x
*
se afl n intervalul ) , ( b x
S
i tot aici se gsete i x
D
)
Actualizm:
a b h x a
S
;

Dac h < se merge la pasul 4. Altminteri, actualizm:

h r a x x x
D D S
+ ;

Evalum f n (noul) x
D
. Ne ntoarcem la pasul 1 n cadrul unei noi iteraii.

Pasul 4.
2
*
b a
x
+
.

6.6 Schema logic de principiu a metodelor de optimizare nerestricionat

Consideraiile precedente conduc la schema logic de principiu din fig. 6.10. Elementele eseniale
ale blocurilor P (alegerea Pasului deplasrii) i O (Oprirea procesului iterativ) au fost deja discutate
n seciunile 6.4 i 6.5.n ceea ce privete blocul D (alegerea Direciei de deplasare) acesta difer de
la metod la metod. Cea mai simpl metod de minimizare nerestricionat, datorat lui Cauchy va
fi prezentat n continuare.


6.7 Metoda gradientului (Cauchy)

La fiecare iteraie a algoritmului din fig.6.10 direcia de deplasare este dat de relaia:
s f x
k k
= ( )
cu condiia ca f x
k
( ) 0.
) Aceast opiune se bazeaz pe faptul c este direcia celei mai rapide descreteri din x f x
k
(
k
.

Caracteristic acestei metode este faptul c dou direcii de deplasare consecutive sunt
perpendiculare! ntr-adevr, dat direcia s
k
, lungimea pasului
k
al deplasrii se afl, aa cum s-a
mai spus, minimiznd funcia unidimensional:
0 , ) ( ) ( + =
k k
s x f g
Prin urmare 0 ) ( =
k
g .Am vzut c: - a se revedea seciunea 6.3! aa
nct:
) ( ) (
k k k
s x f s g + =
0 0 ) ( 0 ) ( 0 ) (
1 1
= = = + =
+ + k k k k k
k
k k
k
s s x f s s x f s g
Pentru funciile sferice de forma:
) ,..., , ( ) ,..., , (
2 1
2
0
1 1
2
0 2 1 n
n
i
n
i
i i i n
c c c c x cx c x x c c x x x f = + + = + + =

= =




BLOCUL O
Sunt verificate criteriile de
oprire ale procesului de calcul?

NU
k = 0
BLOCUL D: Se determin direcia s
k
de
deplasare din aproximaia curent x
k

Se introduc datele problemei de
minimizare: funcia f, aproxima-
ia x
0
de start,parametrii criteriilor
de oprire(nr. maxim de iteraii,
precizia calculului
BLOCUL P Se alege pasul deplasrii
k

prin minimizarea funciei unidimensionale
g() = f(x
k
+ s
k
) , 0
Se calculeaz noua aproximaie:
x
k+1
= x
k
+
k
s
k
k = k + 1
Se cerceteaz dac ultima aproximaie
calculat poate constitui o aproximare
acceptabil pentru soluia problemei
de minimizare
DA
STOP
START














































Figura 6.10




metoda gradientului ofer punctul de minim (global) ntr-o singur iteraie, indiferent de
aproximaia iniial x
0
(vezi fig. 6.11a) Pentru orice alt funcie irul de aproximaii:
x
0
, x
1
, x
2
,. pentru care f(x
0
) > f(x
1
) > f(x
2
) >
conduce n general la un optim local.

Principalul neajuns al metodei gradientului const n faptul c paii succesivi sunt
perpendiculari fapt care, n cazul anumitor funcii, conduce la o convergen foarte lent. Mai
precis, dac hipersuprafeele de nivel au o oarecare excentricitate zig zagul procesului iterativ
amendeaz convergena,deoarece n acest caz direcia gradientului este mult diferit de direcia
ctre minim (vezi fig. 6.11b)
Exist scheme de minimizare mult mai eficiente dintre care cea mai puternic pare a fi
metoda Davidon Fletcher Powell [3]. n principiu,aceste metode garanteaz obinerea
minimului unei funcii patratice de n variabile n cel mult n pai.

Exemplu numeric Vom efectua cteva iteraii pentru cutarea minimului funciei:
2
2 2 1
2
1 2 2 1
2 2 ) , ( x x x x x x x f + + =
cu metoda gradientului. Punctul de plecare x
0
= (1,1)

Gradientul funciei:
| |
2 1 2 1
2 1
4 2 1 , 2 2 , x x x x
x
f
x
f
f + =
(

=
Iteraia 1
f(x
0
) = [0,1]
s
0
= -f(x
0
) = [0,-1]
x()= x
0
+ s
0
= [1,1] + [0,-1] = [1,1 - ] , > 0
g() = f(x()) = 2
2
- are un minim n
0
=
x
1
= x(1/4) = [1,3/4]

Iteraia 2
f(x
1
) = [1/2,0]
s
1
= -f(x
1
) = [-1/2,0]
x()= x
1
+ s
1
= [1,3/4] + [-1/2,0] = [1 - /2,3/4] , > 0
x
*
x
2
x
1
x
0
g() = f(x()) =
8
1
4
1
2
4
1
are un minim n
1
=
x
2
= x(1/2) = [3/4,3/4]

Iteraia 3
f(x
2
) = [0,1/2]
s
2
= -f(x
2
) = [0,-1/2]
Figura 6.12
x()= x
2
+ s
2
= [3/4,3/4] + [0,-1/2] = [
2
1
4
3
4
3
, ] , > 0
g() = f(x()) =
16
3
4
1
2
2
1
are un minim n
2
= 1/4
x
3
= x(1/4) = [3/4,5/8]

La iteraia 4 se obine [5/8,5/8] .a.m.d. Funcia dat este convex (exerciiu!) avnd un minim n x
*
= [1/2,1/2]. n figura 6.12 se poate constata apropierea n zig zag a punctelor x
0
, x
1
, x
3
de
x
*
.


x
0
x
1
x
2
x
*
Curbe de nivel
direcia celei mai rapide
descreteri
x
*
x
1
x
0

a) Cazul funciilor sferice b) Cazul funciilor nesferice
Figura 6.11


7. Optimizarea neliniar fr restricii. Cazul convex

Relum problema de optimizare general sub forma:

(P) S se determine x
*
A R
n
cu proprietatea: f(x
*
) = inf {f(x) , x A}

unde A ,numit i mulimea soluiilor admisibile ale problemei (P) este definit de o mulime de
restricii:
g
i
(x) 0 i M = {1,2,...,m}

Pentru simplificarea expunerii, eventualele condiii de nenegativitate x
j
0 au fost incluse n blocul
restriciilor sub forma: -x
j
0.
Presupunem c funciile f i g
1
, g
2
,..., g
m
sunt definite n ntreg spaiul R
n
, sunt convexe i
difereniabile i cel puin una dintre ele este neliniar, altminteri (P) ar fi un program liniar.Astfel,
(P) este o problem de programare convex.
Reamintim c n acest context:

A este o mulime convex i nchis;
orice minim local al funciei f pe mulimea A este un minim global.
(vezi seciunea 5)

Metodele de optimizare cu restricii se mpart n trei categorii:

1) Metode bazate pe adaptarea schemei generale de optimizare nerestricionat la cazul
prezenei restriciilor; aceste metode poart numele generic de metode de gradient.

2) Metode bazate pe utilizarea funciilor de penalizare : rezolvarea problemei (P) se reduce
la o suit (teoretic infinit) de optimizri nerestricionate.

3) Metode bazate pe plane de seciune; n principiu,aceste metode "aproximeaz" A printr-
o mulime poliedral adic printr-o mulime ce poate fi descris printr-un sistem de inegaliti
liniare; rezolvarea problemei (P) se reduce la o secven (infinit) de optimizri liniare efectuate
cu ajutorul algoritmului simplex.



7.1 Principiul metodelor de gradient

Aplicarea schemei generale de minimizare nerestricionat trebuie s in seama de urmtoarele
aspecte:

x
0

A
x
*

x
k+1

-f(x
k
)
g(x
k
)
x
k

g(x) = 0
Figura 7.1
de regul soluia optim x
*
a problemei (P) se gsete pe frontiera lui A , adic satisface
cu egalitate cel puin una din restriciile g
i
(x) 0, i M.
chiar dac se pleac de la un punct iniial x
0
situat n interiorul lui A ( g
i
(x) < 0,i M)
se ajunge relativ repede la un punct x
k
situat chiar pe frontier altfel spus care satisface cu egalitate
o parte din restriiile problemei (P):
g
i
(x
k
) = 0 , i I M

ntr-o atare situaie, direcia celei mai rapide descreteri -f(x
k
) s-ar putea s nu mai fie admisibil
adic:
x x f x
k k
( ) ( ) = A ( ) > 0
(vezi fig. 7.1)

Introducem urmtoarea terminologie:

o direcie s (s R
n
, s 0) se va numi admisibil relativ la punctul curent x
k+1
dac o
deplasare suficient de mic din x
k
pe direcia s ne menine n A ;
direcia s se va numi utilizabil dac deplasarea din x
k
pe direcia s duce la scderea
valorii funciei obiectiv.

Se poate arta c o direcie s este admisibil i utilizabil relativ la punctul curent x
k
dac i numai
dac s satisface condiiile:
(7.1)
s g x i
s f x
i
k
k
<
<

( )
( )
0
0
I

O dat stabilit direcia de deplasare s
k
din x
k
- direcie care verific condiiile (7.1) - pasul
k
se
alege astfel nct noua aproximaie :

x
k+1
= x
k
+
k
s
k



s aibe proprietile:
(y)

x
k+1
A ( g
i
(x
k+1
) 0 , i M) i f(x
k+1
) < f(x
k
)


Cu acest amendament - legat de modul de alegere a
direciei de deplasare - schema general de
minimizare nerestricionat funcioneaz i n cazul
prezenei restriciilor.
M
y
Figura 7.2


7.2 Principiul metodelor bazate pe funcii de penalizare

n esen, aceste metode ncorporeaz restriciile problemei (P0 n funcia obiectiv prin intermediul
unei funcii care penalizeaz nerespectarea lor.
Pentru ilustrare s considerm funcia:
( ) y
y
M y
M =

>

>>
0 0
0
0
daca
daca
unde
al crei grafic este dat n fig 7.2. Considerm problema de minimizare fr restricii:




( ' )
( ) ( ) ( ( ))
P
F x f x g x
x R
i
i M
n
inf = +




Evident:
(y)
( ) y
y
y y
=

>

0 0
0
2
daca
daca

y
Figura 7.3
F x
f x x
M x
( )
( )
=

daca
daca
A
A


n consecin,orice procedeu de minimizare a funciei F se va orienta ctre punctele mulimii A i
deci va minimiza funcia original f. Dificultatea major rezid n faptul c funcia de penalizare
are o discontinuitate n 0 care atrage dup sine discontinuitatea funciei F pe frontiera lui A ! Cum
de regul punctul de optim x
*
se afl pe frontier, metodele de minimizare bazate pe gradient nu
sunt aplicabile deoarece gradientul funciei F nu este definit pe frontiera lui A .

Totui ideea de a aduga un termen la expresia funciei f care s penalizeze o eventual
"ieire" din A i de a minimiza "liber" funcia rezultat poate fi salvat utiliznd n locul funciei o
funcie mai puin "rigid" care s aibe proprietile de regularitate (continuitate, difereniabilitate)
reclamate de utilizarea metodelor de gradient. Un exemplu ar putea fi funcia:

cu ajutorul creia construim problema de minimizare fr restricii

( ' )
( ) ( ) ( ( ))
P
F x f x g x
x R
i
i M
n
inf = +




Acum,penalizarea pentru ieirea n afara mulimii A nu mai este "infinit" astfel c soluia
optim a problemei (P') ar putea s nu fie n A , altfel spus ar putea nclca unele restricii.Pentru a
diminua aceste nclcri amplificm efectul penalizrii nmulind termenul de penalizare cu o
constant r > 0 suficient de mare. (P') devine:

( )
( ) ( ) ( ( ))

= +


P
F x f x r g x
x R
i
i M
n
inf


Introducerea multiplicatorului r mrete excentricitatea hipersuprafeelor de nivel ale
funciei F; or, este tiut c excentricitatea pronunat influeneaz negativ viteza de convergen a
tuturor algoritmilor de minimizare nerestricionat.

Dificultile semnalate au condus la urmtoarea schem de lucru. n locul rezolvrii unei singure
probleme de minimizare fr restricii se va rezolva o secven de asemenea probleme. Concret, se
ncepe rezolvarea problemei (P'') cu o constant r
0
nu prea mare; fie x
0
soluia optim. Dac x
0
A
se reia (P'') cu un multiplicator r
1
> r
0
utiliznd x
0
ca aproximaie iniial. Fie x
1
noua soluie
optim. Dac nici x
1
A schimbm r
1
cu r
2
> r
1
etc. Se poate arta c dac r
k
atunci irul x
0
, x
1

, x
2
...converge ctre soluia optim a problemei cu restricii (P).

S observm c soluiile intermediare x
0
, x
1
, x
2
... nu sunt admisibile i din acest punct de
vedere metoda descris seamn cu algoritmul simplex dual din programarea liniar. Acest fapt
poate fi un serios dezavantaj deoarece dac pentru anumite restricii nu sunt permise nici cele mai
mici nclcri atunci nici o soluie intermediar nu poate fi reinut n caz de oprire a procesului
iterativ.

8 Condiiile de optimalitate Kuhn - Tucker n programarea convex

8.1 Formularea condiiilor

Considerm un program convex (P) pe care l presupunem adus la urmtoarea form zis
canonic:

S se determine x
*
R
n
cu proprietatea:
f(x
*
) = min f(x)
(P) minimul fiind luat dup toi x R
n
care satisfac restriciile:
g
i
(x) 0 i = 1,...,m
i condiiile de nenegativitate:
x 0 x
j
0 j = 1,...,n

Pentru simplitatea expunerii vom presupune c funciile convexe f i g
1
, g
2
,..., g
m
sunt definite i
difereniabile n ntreg spaiul R
n
.

Asociem fiecrei restricii g
i
(x) 0 o variabil nenegativ u
i
i construim funcia:
L(x, u) = L(
1
x x u u f x u g x
n m i i
i
m
,..., ; ,..., ) ( ) ( )
1
1
= +
=

Funcia L se numete lagrangianul problemei (P) iar u
1
, ... ,u
m
se numesc multiplicatori
Lagrange. Se observ imediat c pentru xR
n
fixat L este o funcie liniar n u
1
,..., u
m
iar pentru u
0 fixat n R
m
, L este o funcie convex i difereniabil.
Vom presupune ndeplinit urmtoarea condiie, numit condiia de regularitate Slater:
Exist x R
n
cu proprietatea c g x i m
i
( ) ,..., < = 0 1 i x j
j
> = 0 1,...,n altfel spus,
mulimea soluiilor admisibile A = { xR
n
g
i
(x) 0 , x 0} are interiorul relativ nevid.
Cu aceste pregtiri putem enuna urmtoarea:
Teorem (Kuhn - Tucker) Condiia necesar i suficient ca x
*
R
n
s fie o soluie optim
a problemei (P) este s existe u
*
R
m
astfel nct cuplul (x
*
,u
*
) s verifice relaiile:

L
x
j
j
0 1 ( ) x
L
x
j
j
j

= 0 1 ( )

L
u
i
i
0 2 ( ) u
L
u
i
i
i

= 0 2 ( )
i = 1,...,m
j = 1,...,n
x
j
0 (3) u
i
0 (3')

Condiiile ncadrate sunt cunoscute sub numele de condiiile de optimalitate Kuhn - Tucker.
Dei este un rezultat de factur pur teoretic, teorema de mai sus este la baza multor
algoritmi eficieni de rezolvare a programelor neliniare convexe cum sunt, de exemplu, cei utilizai
n programarea patratic.

Observaie : Condiia de regularitate Slater intervine n probarea suficienei condiiilor de
optimalitate K- T. Ea nu mai este necesar n cazul n care restriciile programului (P) sunt liniare.

Exemplul 8.1 Considerm programul neliniar patratic:
( )
max
,
P
x x x
x x
x x
x x
2
3
3 2 6
0 0
1 2
2
1 2
1 2
1 2
+
+

f(x) =f
min

f(x) = -1
f(x) = 0
x
*
1
x
1

a crui form canonic este:
( )
(min)
,
P
f x x
x x
x x
x x
= +
+

2
3 0
3 2 6 0
0 0
1 2
2
1 2
1 2
1 2


Figura 8.1

Fig. 8.1 confirm faptul c (P) este un program convex: mulimea soluiilor admisibile este
convex, chiar poliedral fiind definit prin inecuaii liniare iar curbele de nivel f(x) = c(onstant)
sunt parabole cu axa de simetrie comun x = 1. Desenul sugereaz c soluia optim x
*
satisface cu
egalitate restricia x
1
+ x
2
3 i cu inegalitate strict cealalt restricie i condiiile de
nenegativitate.Aceste concluzii "calitative" i condiiile de optimalitate K - T ne vor permite s
determinm punctul x
*
.
Asociem celor dou restricii variabilele nenegative u
1
i u
2
i construim lagrangianul:
L = -2x
1
- x
2
+ x
1
2
+ u
1
(x
1
+ x
2
- 3) + u
2
(3x
1
- 2x
2
- 6)
Scriem condiiile de optimalitate K - T:

L
x
x u u
L
x
u u
1
1 1 2
2
1 2
0 2 2 3 0 1
0 1 2 0
+ + +
+
( . )
( . )
1
12

x
L
x
x x u u
x
L
x
x u u
1
1
1 1 1 2
2
2
2 1 2
0 2 2 3 0 1
0 1 2 0 12

= + + + =
= + =
( )
( )
( .!' )
( . ' )

L
u
x x
L
u
x x
1
1 2
2
1 2
0 3 0
0 3 2 6 0 2 2
+

( . )
( . )
2 1

u
L
u
u x x
u
L
u
u x x
1
1
1 1 2
2
2
2 1 2
0 3
0 3 2 6 0 2
0 2 1
2

= + =
= =
( ) (
( )
. ' )
( . ' )

x x
1 2
0 3 , ( ) ' ) u u
1 2
0 3 , (

Reamintim interpretarea acestor condiii: este soluia optim a programului (P) dac
i numai dac exist astfel nct cuplul ( , s satisfac relaiile mai sus scrise.
x x x

= ( ,
1 2

) ) u u u

= ( ,
1 2
x u

Deoarece la optim avem: x
1
> 0 , x
2
> 0 i 3x
1
- 2x
2
< 6 din relaiile (1.1') , (1.2') i (2.2') obinem:
-2 + 2x
1
+u
1
+ 3u
2
= 0 , -1 + u
1
- 2u
2
= 0 i u
2
= 0 care mpreun cu x
1
+ x
2
= 3 constituie un
sistem de patru ecuaii cu patru variabile x
1
, x
2
, u
1
, u
2
. Rezult uor:
x u

= ( , ) , ( ,
1
2
5
2
10 = ) de unde (min) . f =
13
4

8.2 Condiiile Kuhn - Tucker n programarea liniar

Evident, orice program liniar este un program convex i ca urmare teorema de optimalitate
Kuhn - Tucker funcioneaz i pentru programele liniare. Dup cum vom vedea , n acest caz
teorema amintit se suprapune peste un rezultat fundamental al dualitii liniare.

S considerm un program liniar n form canonic de maximizare (n notaiile uzuale):
( )
,...,
,...,
(max)
P
a x b i m
x j n
f c x
ij j
j
n
i
j
j j
j
n
=
=
=
=
=

1
1
1
0 1
Ax b
x
f c

0
(max) x

Rescriem (P) n forma canonic n care am studiat programele convexe i asociem celor m restricii
variabilele u
1
, u
2
,..., u
m
:

a x b u i m
x
f c x
ij j
j
n
i i
j
j j
j
n
=
=
=

1
1
0 1
0
,...,
(min)
Ax b u u u
x
f cx
m
=

0
0
1
( ,..., )
(min)


Lagrangianul problemei (P) are expresia:
L x x u u c x u a x b u b u a c x
n m j j
j
n
i
i
m
ij j
j
n
i i i
i
m
i ij j j
i
m
j
n
( ,..., ; ,..., ) ( ) ( )
1 1
1 1 1 1 1 1
= + = +
= = = = = =


L x u cx u Ax b ub uA c x ( , ) ( ) ( ) = + = +

Condiiile de optimalitate K - T:

L
x
u a c
j
i ij
i
m
j j

=
0 0
1
( ) 1 x
L
x
u a c x
j
j
i ij
i
m
j j j

= =
=
0 0
1
( ) 1 ( )

L
u
a x b
i
ij j i
j
n
i

=
0 0
1
( ) 2 u
L
u
u a x b
i
i
i ij j
j
n
i i

= =
=
0 0
1
( ) 2 ( )
x
j
0 3 ( ) u
i
0 3 ( ' )

se interpreteaz astfel:

x x x x R
n
n
= ( , ,..., )
1 2
u u u u R
m
m
= ( , ,..., )
1 2

=
0
0
este o soluie optim a programului (P) dac i numai dac exist
astfel nct cuplul s verifice relaiile mai sus scrise. ( , x u


Observm c relaiile (2
i
) i = 1,...,m i (3) definesc x
*
ca soluie admisibil a problemei (P) n timp
ce relaiile (1
j
) j = 1,...,n i (3') definesc u
*
ca soluie admisibil a problemei duale:

( )
,...,
,...,
(min)
Q
u a c j n
u i m
g u b
i ij
i
m
j
i
i i
i
m
=
=
=
=
=

1
1
1
0 1
uA c
u
g ub

0
(min)

Obinem urmtoarea reformulare a relaiilor K - T:

Condiia necesar i suficient ca soluia admisibil a problemei (P) s
fie o soluie optim este s existe o soluie admisibil a problemei duale (Q)
astfel nct cuplul (x
x x x x
n

= ( , ,..., )
1 2
u u u u
m

= ( , ,..., )
1 2
*
,u
*
) s verifice relaiile:

( ) ,..., ( )
( ) ,..., ( )
u a c x j n uA c x
u a x b i m u Ax b
i ij j j
i
m
i ij j i
j
n
= = =
= =

=
=
0 1
0 1
1
1


Am regsit teorema ecarturilor complementare din teoria dualitii liniare.


8.3 Condiiile de optimalitate Kuhn - Tucker n programarea patratic

Considerm problema de programare patratic:
( )
(min)
P
f px x C
Ax b
x
T
= +

1
2
0
x

n care:
p p p p x
x
x
x
C
c c c
c c c
c c c
n
n
n
n
n n nn
= =

(
(
(
(
=

(
(
(
(
[ , ,..., ]
1 2
1
2
11 12 1
21 22 2
1 2
M
L
L
L L L L
L
= matrice simetric

A
a a a
a a a
a a a
b
b
b
b
n
n
m m mn m
=

(
(
(
(
=

(
(
(
(
11 12 1
21 22 2
1 2
1
2
L
L
L L L L
L
M


Vom presupune c matricea C este pozitiv semidefinit ; tim atunci c funcia patratic f este
convex i ca urmare, programul (P) este convex.
Asociem blocului de restricii Ax - b b vectorul (linie) de multiplicatori Lagrange
u = [u
1
,u
2
,...,u
m
] i construim lagrangianul problemei (P):

L x u px x Cx u Ax b
T
( , ) ( ) = + +
1
2


n scriere matricial, condiiile de optimalitate K - T pentru programul (P) arat astfel:

+ +
x
T
L p x C uA 0 0 ( ) 1 ( ) ( ) ( = + + = )
x
T
L x p x C uA x 0 0 1

u
L Ax b 0 0 ( ) 2 u L u Ax b
u
= = ( ) ( ) ( 0 0 ) 2
x 0 (3) u 0 (3')

Transformm inegalitile (1) i (2) n egaliti introducnd vectorii de variabile de abatere:
v v v v p x C uA
n
def
T
= = + + [ , ,..., ]
1 2
0 y
y
y
y
b Ax
m
def
=

(
(
(
(
=
1
2
0
M
i
Atunci:
x C uA v p
T
+ = i Ax+y = b
Se vede uor c:
( ' ) ,...,
( ' ) ,...,
1 0 0
2 0 0
1
1
= = =
= = =
v x v x j n
u y u y i m
j j
i i


Cu aceste pregtiri putem formula urmtoarea interpretare a relaiilor K - T:


Condiia necesar i suficient pentru ca x
*
R
n
s rezolve programul patratic (P) este s
existe astfel nct s verifice relaiile: u R v R y R
m n
, ,
m
)
j
0
0
( , , , x u v y


x C uA v p
Ax y b
T
+ =
+ =

(4)
c x a u v p j n
a x y b i m
kj k
k
n
ij i j j
i
m
ik k
k
n
i i
= =
=
+ = =
+ = =

1 1
1
1
1
,...,
,...,
x 0 , u 0 , v 0 , y 0 x
k
0 , u
i
0 , v
j
0 , y
i
0
vx = 0 ; uy = 0 (5) v
j
x
j
= 0 j = 1,...,n ; u
i
y
i
= 0 i = 1,...,m
Se observ c (4) este un sistem liniar cu m + n ecuaii i 2m + 2n variabile. n concluzie:

Rezolvarea programului patratic (P) s-a redus la determinarea unei soluii admisibile (adic
nenegative) a sistemului liniar (4) care s verifice relaiile de complementaritate (5).

n principiu, aceasta se poate face cu ajutorul algoritmului simplex n felul urmtor:

se nmulesc cu -1 acele egaliti din (4) ai cror termeni liberi sunt < 0;

dac, dup efectuarea operaiei precedente, matricea sistemului (4) nu conine o
submatrice unitate de ordinul m + n, ea se completeaz cu coloanele care lipsesc adugnd - acolo
unde este cazul - variabile artificiale nenegative.Astfel, sistemul (4) devine:

x C uA v z p
Ax y z b
T
+ + =
+ + =

1
2

unde:
z z z z z p
n j
1
1
1
2
1 1 1
0 0 = = ( , ,..., ) cu daca 0 z
z
z
z
z b
m
i i
2
1
2
2
2
2
2
0 0 =

(
(
(
(
(
=
M
cu daca i
se rezolv programul liniar:
x C uA v z p
Ax y z b
x u v y z z
w z z
T
j
j
n
i
i
m
+ + =
+ + =

= +

= =


1
2
1 2
1
1
2
1
0 0 0 0 0 , , , , ,
(min)

cu ajutorul algoritmului simplex, modificat cu urmtoarea regul suplimentar care se refer la
criteriul de intrare n baz:

La fiecare iteraie, noua variabil bazic va fi astfel aleas nct:
variabilele v
j
i x
j
s nu fie simultan bazice j=1,...,n;
variabilele u
i
i y
i
s nu fie simultan bazice i=1,...,m.

La start se va pleca cu soluia:

x = 0 , u = 0
v
p p
p z p
j
j j
j j j
=

< =

daca
daca
0
0 0
1
, y
b b
b z
i
i i
i i
=

< =

daca
daca
0
0 0
2
b
i
x


Deoarece x = 0 , u = 0 ,relaiile de complementaritate (5) sunt verificate. Regula suplimentar ne
asigur c la fiecare iteraie:
v
j
= 0 sau x
j
= 0 deci v
j
x
j
= 0 j = 1,...,n
u
i
= 0 sau y
i
= 0 deci u
i
y
i
= 0 i = 1,...,m
Se poate arta c dac programul (P) este compatibil atunci ntr-un numr finit de iteraii se ajunge
la o soluie n care (min)w = 0 toate variabilele artificiale introduse au valoarea zero. Este clar
atunci c s-a obinut o soluie admisibil a sistemului (4) care satisface relaiile de
complementaritate (5). Componenta x
*
a acestei soluii constituie soluia optim a programului
patratic (P).

Observaie Consideraiile de mai sus constituie o descriere de principiu a algoritmului lui
Wolfe pentru rezolvarea programelor patratice convexe.

Exemplu numeric Vom arta cum se aplic efectiv condiiile de optimalitate K - T i
algoritmul simplex la rezolvarea programului patratic:
( )
(min)
,
P
f x x x x x
x x
x x
= + +
+

15 30 4 2 4
2 30
0 0
1 2 1 2 1
2
2
2
1 2
1 2

Scriem matricial funcia obiectiv:
f x x
x
x
x x
x
x
( , ) , ,
1 2
1
2
1
2
1 2
1
2
15 30
4 4
4 8
=

(
+

(
[ ] [ ]
Matricea simetric este chiar pozitiv definit astfel c f este o funcie strict convex.
Lagrangianul problemei:
C =

(
4 4
4 8
L x x x x x x x x u x x ( , ) (
1 2 1 2 1 2 1
2
2
2
1 2
15 33 4 2 4 2 30 = + + + + )
Condiiile de optimalitate K - T:

L
x
x x u
L
x
x x u
1
2 1
2
1 2
15 4 4 0
30 4 8 2 0
= + +
= + +
x
L
x
x x x u
x
L
x
x x x u
1
1
1 2 1
2
2
2 1 2
0 15 4 4
0 30 4 8 2
0
0

= + + =
= + + =
( )
( )

L
u
x x = +
1 2
2 30 0 u
L
u
u x x

= + = 0 2 30
1 2
( ) 0
x
1
, x
2
0 u 0

Punem:
v
L
x
x x u
v
L
x
x x
y
L
u
x x
1
1
2 1
2
2
1 2
1 2
15 4 4
30 4 8 2
30 2
= = + +
= = + +
= =
u


Condiiile K - T n forma (4) - (5):
4 4 15
4 8 2 30
2 3
4
0 0 0 0 0 0
0 0 0
1 2 1
1 2 2
1 2
1 2 1 2
1 1 2 2
x x u v
x x u v
x x y
x x u v v y
x v x v u y
+ =
+ + =
+ + =


= = =



( )
, , , , ,
( )
0
5
)
=
5
0
0
30

tim c dac este o soluie admisibil a sistemului (4) care satisface relaiile (5)
atunci x
( , , , x u v y

*
este o soluie optim a problemei date.

Introducem variabilele artificiale z
1
i z
2
n primele dou egaliti i rezolvm programul liniar:
(min)w z z
x x u v z
x x u v z
x x y
= +
+ + =
+ + + =
+ +

1 2
1 2 1 1
1 2 2 2
1 2
4 4 1
4 8 2 3
2 3
Toate variabilele nenegative

cu ajutorul algoritmului simplex, plecnd de la soluia de baz iniial:
x x u v v z z y
1 2 1 2 1 2
0 15 30 = = = = = = = =
care satisface vizibil condiia (5).

0 0 0 0 0 0 1 1
CB VB VVB x
1
x
2
u v
1
v
2
y z
1
z
2

1 z
1
15 4 -4 1 -1 0 0 1 0 ITERAIA 1 Poate intra x
2

1 z
2
30 -4 8 2 0 -1 0 0 1 deoarece v
2
= 0
0 y 30 1 2 0 0 0 1 0 0
w 45 0 4 3 -1 -1 * * *
1 z
1
30 2 0 2 -1 -1/2 0 1 1/2 ITERAIA 2 Poate intra x
1

0 x
2
15/4 -1/2 1 1/4 0 -1/8 0 0 1/8 deoarece v
1
= 0
0 y 45/2 2 0 -1/2 0 1/4 1 0 -1/4
w 30 2 * 2 -1 -1/2 * * -1/2
1 z
1
15/2 0 0 5/2 -1 -3/4 -1 1 3/4 ITERAIA 3 Poate intra u
0 x
2
75/8 0 1 1/8 0 -1/16 1/4 0 1/16 deoarece y = 0
0 x
1
45/4 1 0 -1/4 0 1/8 1/2 0 -1/8
w 15/2 * * 5/2 -1 -3/4 -1 * -1/4
0 u 3
0 x
2
9 Nu mai este cazul!
0 x
1
12
w 0

Prin urmare,o soluie a condiiilor de optimalitate K - T este x
*
= (12,9) i u
*
= 3.n concluzie
x x
1 2
12 9

= =
este o soluie optim a programului patratic dat de altfel i singura avnd n vedere faptul c funcia
obiectiv f este strict convex.


9. ntrebri i probleme

1. Se d o funcie numeric f definit n toate punctele unei mulimi C R
n
.
a) Ce nseamn c mulimea C este convex? Presupunnd C convex, ce nseamn c
funcia f este convex (strict convex)?
b) Ce nseamn c punctul x
*
C este un punct de minim local al funciei f? Dar c x
*
este
un punct de minim global al funciei f pe C?
c) Artai c dac C este o mulime convex iar f este o funcie strict convex atunci f nu
poate avea dect cel mult un punct de minim global pe C.

2. a) Se consider funcia patratic (x) = x
T
Cx , x R
n
unde C este o matrice simetric de ordinul
n. S se arate c pentru orice x,y R
n
i orice R are loc identitatea:

((1 - )x + y) = (1 - )(x) + (y) - (1 - )(x - y)

b) Scriei funcia patratic:
f x x x x x x x x x x x x x x x ( , , )
1 2 3 1 2 3
1
2
1
2
1 2 1 3 2
2
2 3 3
2
2 = + + + + + +
n formatul matricial f x px x Cx x
x
x
x
R
T
( ) , = + =

(
(
(

1
2
1
2
3
3
i cercetai dac f este o funcie convex
(strict convex)

3. Descriei principiul metodelor de minimizare fr restricii

4.Elaborai programe de calculator pentru metodele de minimizare unidimensional prezentate n
seciunea 6.5

5. Se d funcia patratic f x x x x x x x x ( , )
1 2 1 2
1
2
1
2
1 2 2
2
2 2 = + + .
a) Scriei f n formatul matricial f x px x Cx x
x
x
R
T
( ) , = + =

(

1
2
1
2
2
i artai c f este o
funcie strict convex.
b) Calculai gradientul f i determinai minimul liber x* al funciei f.
c) Determinai direcia celei mai rapide descreteri a funciei f din x
0
= (0,0) i prima
aproximaie x
1
din metoda gradientului.
d) Efectuai nc dou iteraii din metoda gradientului pentru minimizarea nerestricionat a
funciei f. Comparai x
3
cu x
*
obinut la b).

6. n procesul de minimizare nerestricionat a unei funcii numerice de trei variabile ,efectuat cu
metoda gradientului,printre direciile de deplasare s-au numrat i vectorii s = (1,1,-3), s'
= (2,-1,1). Este posibil ca cele dou direcii s fi fost obinute n dou iteraii consecutive?

7. Se consider programul convex:

( )
(min)
( , )
,
P
f x x x x x
g x x x x
x x
= + +
= +

3 9
5 0
0 0
1 2 1
2
1 2 2
2
1 2 1
2
2
2
1 2
x

i punctul x = ( , ) 1 2 aflat pe frontiera mulimii soluiilor admisibile (deoarece g x ( ) = 0 )
a) Calculai gradienii funciilor f i g n x .
b) Ce condiii trebuie s satisfac un vector s = (s
1
,s
2
) R
2
pentru a fi o direcie admisibil
i utilizabil din x ? Care din urmtorii vectori s
1
= (-1,1) , s
2
= (1,1) , s
3
= (1,-1) satisfac aceste
condiii?

8. Se d programul neliniar patratic:

( )
(min) ( ) ( )
.
P
f x x
x x
x x
x x
x x
x x
= +
+
+

+

1
2
2
2
1 2
1 2
1 2
1 2
1 2
4 3
3 2 12
2 2 3
2 4
2 3 6
0 0


a) Vizualizai mulimea soluiilor admisibile;
b) Ce form au curbele de nivel ale funciei obiectiv? Stabilii punctul de minim liber x

al
funciei f;
c) Scriei condiiile de optimalitate Kuhn - Tucker;
d) Stabilii cu aproximaie poziia soluiei optime x
*
a programului (P) i folosind condiiile
K - T determinai efectiv x
*
.

9. Se d programul neliniar;
( )
(max)
,
P
f x x
x x
x x
x x
=
+

1
2
2
1 2
2
1 2
1 2
5
2 1
0 0


a) Reprezentai grafic mulimea soluiilor admisibile i curbele de nivel f(x) = 1 , f(x) = 4 ale
funciei obiectiv;
b)Aducei programul (P) la forma canonic i scriei condiiile de optimalitate K - T;
c)Determinai soluia optim x
*
a programului (P) tiind c ea satisface cu egalitate numai
prima restricie a acestuia.

10. n modelarea unui proces de stocare cu dou produse i spaiu de depozitare limitat s-a ajuns la
urmtorul program neliniar:
( )
(min) ( , )
,
P
f x x x
a
x
x
a
x
x x I
x x
1 2 1
1
2
1
2
2
2
2
1 2
1 2
0 0
= + + +
+



unde a
1
, a
2
, I > 0 sunt constante.
a) S se arate c f este o funcie convex pe domeniul {(x
1
,x
2
) R
2
x
1
> 0 , x
2
> 0};
(se va observa c f este separabil i se va cercete convexitatea componentelor)
b) Scriei condiiile de optimalitate K - T pentru programul convex (P);
c) Determinai soluia optim a programului (P). Discuie.

11. S se rezolve programul patratic:

( )
(min) ( , )
,
P
f x x x x x x x x
x x
x x
x x
1 2 1 2 1
2
1 2
1
2
2
2
1 2
1 2
1 2
3
3 2 6
0 0
= + +
+
+


folosind condiiile de optimalitate K - T i algoritmul simplex (vezi seciunea 8.2)

S-ar putea să vă placă și