Sunteți pe pagina 1din 6

1

1. INTRODUCERE

1.1. GENERALITĂŢI

Din totdeauna, optimizarea a fost o expresie a dorinţei omului de a atinge


perfecţiunea. În acest sens, s-au elaborat diverse modele matematice pentru
găsirea soluţiilor optime ale anumitor activităţi. Cu toate că multe dintre
modelele matematice folosite în operaţiile de optimizare au fost elaborate cu
mult timp în urmă, totuşi calculele numerice voluminoase au întârziat aplicarea
lor. Odată cu dezvoltarea mijloacelor moderne de calcul, s-a trecut, pe scară
largă, la aplicarea metodelor de optimizare în toate domeniile de activitate.
Astăzi nu se mai concepe realizarea unui anumit produs, indiferent de natura lui,
fără a fi luat în considerare procesul de optimizare a acestuia.
Problemele de optimizare sunt probleme de valori extreme, cu sau fără
condiţii suplimentare. În cazul în care procesul de optimizat este fără restricţii,
variabilele sistemului pot lua orice valoare. Dacă însă problema de optimizat
impune anumite relaţii de legătură între variabile, atunci acestea sunt constrânse
să ia numai anumite valori, în interiorul domeniului de admisibilitate. Aceste
relaţii de legătură formează restricţiile modelului matematic. De exemplu, în
economie soluţiile negative nu sunt admise, ceea ce înseamnă că variabilele
sistemului pot lua numai valori pozitive. Într-o anumintă activitate industrială se
cere, de exemplu, realizarea unui număr finit de produse, în cazul unor capacităţi
de producţie existente, adică valorile variabilelor procesului sunt limitate
superior. La proiectarea unui anumit produs se impun de asemenea relaţii de
legătură între variabile, astfel încât să fie respectate condiţiile impuse prin tema
de proiect, şi exemplele pot continua. Pe lângă restricţiile impuse variabilelor
sistemului, se are în vedere şi aşa numitul criteriu de optimizare, care poate fi de
natură economică sau tehnică.
Metodele de optimizare au devenit indispensabile în luarea unei decizii
corecte asupra soluţiei ce urmează a fi adoptată la realizarea unui produs. Dacă
până la apariţia unui aparat matematic elevat deciziile puteau fi arbitrare sau
empirice, odată cu apariţia metodelor de optimizare decizia a devenit obiectivă,
fundamentată ştiinţific.
Având în vedere cele de mai sus, se poate spune că metodele de optimizare
oferă procedeul de selecţie din multitudinea de soluţii admisibile a soluţiei
optime, soluţie care satisface condiţiile impuse şi conduce la obţinerea celui mai
bun rezultat.
2

1.2. ELABORAREA MODELULUI MATEMATIC

În general, o anumită situaţie economică sau tehnică este privită ca un proces


compus din activităţi diferite. Pentru fiecare activitate există însă mai multe
variante, iar realizarea lor depinde de restricţiile impuse de capacităţile existente.
De asemenea, optimizarea unor procese trebuie realizată în raport cu un anumit
criteriu de optimizare (beneficiu maxim, cost minim, gabarit minim, randament
maxim, forţă de acţionare minimă, unghiuri de transmitere maxime etc.). Aceste
criterii vor conduce la stabilirea unei relaţii de legătură între parametrii
sistemului, adică la realizarea aşa numitei funcţii obiectiv, care este un indicator
al eficienţei procesului analizat. Construirea funcţiei obiectiv constă în
exprimarea criteriului de optimizare ales într-o formă analitică, ca de exemplu:
f ( X )  f ( x1 , x2 , ..., xn ) , (1.2.1)
unde x1 , x 2 , ..., xn sunt variabilele sistemului.
Între variabilele sistemului pot apare şi o serie de relaţii de forma:
g j ( x1 , x 2 , ..., x n )  0, j  l  1, m;
h j ( x1 , x 2 , ..., x n )  0, j  1, l ,
(1.2.2)

care se numesc restricţii şi care fac ca domeniul de existenţă a optimului să fie


limitat.
Relaţiile 1.2.1 şi 1.2.2 reprezintă modelul matematic al problemei de
optimizat.
În căutarea optimului este însă important cum variază funcţia obiectiv, în
raport cu variabilele procesului de optimizat, şi nu valoarea absolută a funcţiei.
În acest sens, la construirea funcţiei obiectiv se pot elimina termenii constanţi
din sume (în raport cu variabilele procesului), iar termenii rămaşi se pot împărţi
cu unii dintre factorii constanţi. Efectuând aceste operaţii asupra funcţiei
obiectiv, aceasta devine mult mai simplă, fără ca acurateţea cu care se determină
poziţia optimului să fie micşorată.
Optimul unei funcţii obiectiv poate fi un punct de maxim sau de minim. De
cele mai multe ori însă, funcţiile obiectiv prezintă mai multe puncte de extrem,
după cum se vede în figura 1.2.1 (s-a considerat o funcţie de o singură
variabilă).
Din analiza figurii 1.2.1, se observă ca în domeniul [ A, B] funcţia are două
puncte de minim 1 şi  3 , precum şi două puncte de maxim  2 şi  4 . Aceste
puncte se numesc puncte de minim şi de maxim locale. Punctul de minim
minimorum 1 poartă numele de minim global al funcţiei date pe intervalul
[ A, B ] , iar punctul  2 de maxim global. De aceea, în cadrul procesului de
optimizare se întâlnesc atât metode care determină minimul local, cât şi metode
3

care determină direct minimul global.


1

y
y  f (x )

1
O A 2 3 4 B x

Fig. 1.2.1. Punerea în evidenţă a minimelor şi maximelor unei funcţii

Pentru o problemă de optimizare constituită din funcţia obiectiv (1.2.1) şi


restricţiile (1.2.2), aflarea soluţiei optime constă în determinarea unui set de
valori pentru variabilele sistemului, astfel încât acestea să conducă la stabilirea
minimului sau maximului funcţiei obiectiv şi să satisfacă în acelaşi timp şi
relaţiile de restricţii.
După cum s-a menţionat, metodele de optimizare pot determinarea valoarea
maximă sau minimă a funcţiei obiectiv. În lucrare se vor prezenta algoritmi
pentru stabilirea minimului funcţiei. Pentru determinarea maximului funcţiei
f ( X ) se va folosi relaţia: max( f ( X ))   min( f ( X )) .

1.3. CONDIŢII PRIVIND EXISTENŢA ŞI UNICITATEA


SOLUŢIEI OPTIME

După cum s-a mai amintit, punctul de optim determinat (minim sau maxim)
poate fi local sau global. Dacă se ţine seama de faptul că, de cele mai multe ori,
prezintă interes punctul de optim global, trebuie procedat la găsirea acestuia. În
acest sens, utilizatorul programelor de optimizare poate porni la căutarea soluţiei
optime din diferite puncte (în domeniul stabilit), iar dacă rezultatul este acelaşi
înseamnă că s-a găsit punctul căutat. Dacă se consideră ecuaţiile modelului
matematic al procesului de optimizare, se pot determina condiţiile necesare şi
suficiente de existenţă a punctului de optim. În continuare se vor stabili aceste
condiţii pentru optimul fără restricţii şi cu restricţii.
1. Fie f (X ) funcţia obiectiv a procesului de optimizare fără restricţii, unde
X  ( x1 , x2 , ..., xn ) . Dacă punctul X este punct de extrem pentru f ( X ) , atunci
gradientul funcţiei se anulează în acest punct, adică
 f ( X ) =0, (1.3.1)
unde
4
T
 
 f ( X ) =  f ( X ) , f ( X ) , ..., f ( X )  . (1.3.2)
 x1 x 2 x n 

Condiţia (1.3.1) este numai condiţie necesară şi nu dă informaţii despre


natura punctului de extrem, adică dacă punctul este de minim sau de maxim. De
exemplu, gradientul funcţiei reprezentată grafic în figura 1.2.1 se anulează în
punctele 1 ,  2 ,  3 şi  4 . Toate punctele prezentate sunt puncte staţionare (în
care derivata funcţiei este egală cu zero), dar pentru ca unul dintre ele să fie
punct de minim trebuie ca derivata de ordinul doi să fie pozitivă în acel punct, şi
astfel s-a îndeplinit şi condiţia de suficienţă. În cazul funcţiilor dependente de n
variabile, condiţia de suficienţă ca punctul extrem să fie punct de minim este ca
matricea derivatelor parţiale de ordinul doi (matricea hessiană)
2 f (X ) 2 f (X ) 2 f (X )

x12 x1x 2 x1x n
2 f (X ) 2 f (X ) 2 f (X )
H ( X )  x x 
2 1 x 22 x 2 x n , (1.3.3)
   
2 f (X ) 2 f (X ) 2 f (X )

x n x1 x n x 2 x n2

să fie pozitiv definită.


Matricea hessiană este pozitiv definită dacă toate soluţiile  i ale ecuaţiei
det( H   i )  0 (1.3.4)
sunt pozitive.
Dacă gradientul funcţiei este egal cu zero, iar matricea hessiană este pozitiv
definită pentru un X dat, atunci punctul X este cel puţin un punct de minim
local. Punctul X este punct de minim global dacă matricea hessiană este pozitiv
definită pentru orice valoare a variabilei X , în domeniul de definiţie dat.
2. Se presupune o problemă de optimizare, în care poziţia punctului de optim
este condiţionată de cel puţin o restricţie (v. Fig.1.3.1). Dacă iniţial se porneşte
din punctul P0 , se pune problema determinării unui nou punct pentru care
funcţia f ( X ) are o valoare mai mică decât cea corespunzătoare punctului P0 .
Pentru aceasta este necesară determinarea direcţiei vectorului S în care valoarea
funcţiei obiectiv se micşorează, fără însă a se depăşi limitele impuse de restricţia
g ( X ) . Direcţia lui S pentru care are loc minimizarea funcţiei obiectiv se
numeşte direcţie utilizabilă [1]. Astfel, pentru funcţia de două variabile, a cărei
reprezentare grafică este prezentată în figura 1.3.1, tangenta la curba de valoare
constantă a funcţiei obiectiv, în punctul P0 , va limita toate direcţiile utilizabile
posibile. Semiplanul pentru care direcţiile lui S conduc la reducerea valorii
funcţiei obiectiv delimitează aşa numitul sector utilizabil (semiplanul
5

nehaşurat). În acest sector, produsul scalar al oricărui vector S cu gradientul


funcţiei obiectiv va fi negativ sau egal cu zero, adică:
S   f (X )  0 . (1.3.5)
Tangenta la curba de valoare constantă a restricţiei g ( x) în punctul P0 va
delimita aşa numitul sector admisibil. În acest sector, produsul scalar al oricărui
vector S cu gradientul restricţiei g ( X ) va fi negativ sau egal cu zero, adică:
S   g( X )  0 . (1.3.6)

x2
f
sector admisibil

sector admisibil
P0 utilizabil
g S
f =C 0
sector utilizabil

f g =D 0
P1
C1 < C 0
D 0 <0
g g=0
f =C1

x1

Fig.1.3.1. Punerea în evidenţă a sectoarelor utilizabil, admisibil


şi admisibil-utilizabil

Pentru ca vectorul direcţie S să conducă la determinarea punctului de optim,


trebuie ca acesta să se găsească într-un sector numit sector admisibil utilizabil,
obţinut prin intersecţia celor două sectoare admisibil şi utilizabil.
Din figura 1.3.1, se observă că direcţia optimă a lui S este cea cuprinsă între
cele două tangente la funcţia obiectiv şi la restricţie în punctul P0 , tangente ce
delimitează sectorul admisibil utilizabil (sectorul nehaşurat).
În caz general, când se impun m condiţii de restricţii, vectorul S trebuie să
se găsească într-un con convex, astfel că este necesar să fie îndeplinite condiţiile
S   f (X )  0 . (1.3.7)
S   g j ( X )  0, j  1, m . (1.3.8)
6

În punctul P1 , care reprezintă punctul de optim pentru exemplul considerat,


gradientul funcţiei obiectiv şi gradientul funcţiei restricţie au acelaşi suport, dar
sensuri diferite. În acest punct, vectorul S este tangent atât la linia de valoare
constantă a funcţiei obiectiv, cât şi la linia de valoare constantă a funcţiei
restricţie, ceea ce matematic se transpune prin relaţia
 f ( X )   g ( X )  0 . (1.3.9)
Pentru ca punctul P1 să fie punct de minim, este necesar ca funcţia restricţie
g(X ) să ia valoarea zero în punctul respectiv, adică
g( X )  0 , (1.3.10)
iar multiplicatorul lagrangean  să îndeplinească condiţia
  0. (1.3.11)
În cazul în care punctul este de maxim, inegalitatea (1.3.11) se înlocuieşte cu
  0. (1.3.12)
În caz general, condiţiile necesare de minim sunt:
m
f ( X )    j g j ( X )  0;
j 1
g j  o; (1.3.13)
 j g j ( X )  0;
 j  0.

KUHN şi TUCKER au arătat că aceste condiţii devin şi suficiente atunci


când funcţiile f şi g j , j  1, m , sunt funcţii convexe.

S-ar putea să vă placă și