Sunteți pe pagina 1din 9

1.

Formularea problemelor de optimizare staționară


- presupun extremizarea unei fcț scalare, dependente de una sau mai multe variabile și pot fi probleme ”de maxim”
sau ”de minim”

- orice problemă de maxim poate fi transofrmată în una de minim prin inversarea semnului funcției

- să se determine min f ( x)  f(x1 , x 2 ...xn ), x  X  R n , f  R cu respectarea unor restricții de tip egalitate sau
inegalitate de forma:

hi ( x)  0, i  1...l , l  n
g j ( x)  0, j  1...m

f = funcție obiectiv

X = domeniul maxim pe care fcț este definită în mod natural

2. Formularea unei probleme de programare matematică


- PPM sunt problemele în care intervine minimizarea unei fcț, iar în procesele tehnologice aceste probleme se referă
la regimurile staționare de funcționare (adică când nu intervine variabila timp) și mai sunt numite probleme de
optimizare staționară

- la fel ca la 1.

3. Formularea unei probleme de control optimal


- se pot formula următoarele probleme de control optimal:

a. PROBLEMĂ DE CONSUM MINIM DE ENERGIE: să se determine comanda i(t) și starea  (t) care determină o
deplasare unghiulară impusă  t într-un timp precizat, t a.î. să se asigure minimul energiei disipate pentru  (0) și 
(t) fixați

b. PROBLEMĂ DE TIMP MINIM: să se determine i(t) și  (t) care minimizează durata t a transferului din starea inițială
t

 (0) în starea finală  (t), pentru  t și wt impuși (indicele de calitate este de forma t   d , iar minimizarea sa se
0
face cu respectarea unor condiții izoparametrice)

c. PROBLEMĂ DE EFICIENȚĂ MAXIMĂ: să se determine i(t) și  (t) a.î. să se realizeze o deplasare unghiulară  t
maximă pentru t,  (t) și  (0) precizați și wt impus

4. Formularea unei probleme liniar pătratice discrete

 x(0)  x '
(1) xk 1  Axk  Buk , 
 xk  x(kT )
S  0

k
1 T 1 f 1 T
(2) I  x  k f  S  x  k f   [ xk  Q  xk  ukT  P  uk ], Q  0
2 2 k  k0 P  0

1 T 1
- se pp că xkf  1  H k  xk  Q  xk  ukT  P  uk  k 1 ( A  xk  B  uk )
2 2

 H
 u  0  uk   P  B  k 1
1 T

 k

 H      Q  x  AT  
k 1

 xk
k k k

M
- condiție de capăt:  kf  k  Rk  xk
k f

Rk  Q  AT  Rk 1  ( I  N  Rk 1 )1  A
uk   P 1  BT  Rk 1 ( I  N  Rk 1 )1  A  xk

5. Formularea unei probleme de optimizare dinamică


- dacă problemele care presupun minimizarea unei funcții sunt ”de optimizare staționară”, problemele care
presupun minimizarea unei funcționale sunt ”de optimizare dinamică” întrucât se aplică sistemelor dinamice, cu o
anumită evoluție în timp

- se mai numesc probleme de conducere, sau de control optimal, iar dpdv matematic sunt probleme variaționale

- formularea matematică este: să se determine funcția vectorială (având derivatele de ordin 1 continue)
tf

x(t )  R , t [t0 , t f ] care minimizează funcționala I   L( x(t ), x '(t ), t )dt


n

t0

L = fcț scalară suficient de netedă (de obicei are derivatele de ordin 2 continue în raport cu toate argumentele)

x(t) poate să fie precizat, sau nu, la cele 2 capete

6. Metoda gradientului optimal

x k 1  x k   k  r k

Direcția de deplasare: r k  f ( xk )


k =pasul optim pe direcția de deplasare  r k (se determină printr-o procedura de extremizare unidimensională)

- dacă f(x) poate fi aproximată cu o funcție pătratică, poate fi utilizată formula de calcul aproximativ


f ( x k , h k
*   
k 
rk , rk
h , H (x ) h   *  k
k k

 r , Hk rk
h  r
k k

7. În ce constau metodele de explorare?
-se stabilesc puncte în domeniul inițial în care se calculează valoarea funcției obiectiv, apoi se alege pct în care fcț are
valoarea cea mai mică (astfel se stabilește un subdomeniu în interiorul căruia se va afla minimul fcț)

-subdomeniul reprezintă domeniul de incertitudine în care se află minimul

Pot fi:

-explorare exhaustivă

-explorare aleatoare

8. Precizați 3 criterii de stop


- în cadrul metodelor iterative de căutare trebuie introdus un criteriu de oprire a calculelor sau de convergență.
Alegerea criteriului de stop este în funcție de particularitățile problemei și este dictată de o serie de considerații.
Criteriile de stop pot fi:

A. absolute – se bazează pe variația argumentului sau a fcț

x k  x k 1  
f ( x k )  f ( x k 1 )  

B. relative – sunt preferate în locul celor absolute

x k  x k 1

xk
f ( x k )  f ( x k 1 )

f ( xk )

C. d. x '  0 sau f(x’)-> 0, criteriile relative nu sunt utilizabile și se folosesc:

x k  x k 1

1  xk
f ( x k )  f ( x k 1 )

1  f ( xk )

Folosirea exclusivă a unui criteriu bazat pe variația arg sau a fcț poate duce la rezultate eronate. Din acest motiv, se
recomanda folosirea combinată a ambelor criterii, în cadrul aceluiași program

9. Ce reprezintă pasul optim (+interpretarea geometrică)?


- reprezintă o deplasare pe o anumită direcție până se atinge minimul în acel sens

- determinarea pasului crește volumul de calcule la fiecare iterație și poartă numele de ”căutare liniară exactă” și
constă în a stabili min f ( x k    h k )
- interpretarea geometrică:
- după calcule, se va obține:

f ( x k ), hk
*  
hk , H ( x k ) h k

10. Principiul metodelor bazate pe direcții conjugate


- fie x0 pct de start al algoritmului și x* punctul de final minim

x*  x0  x s
x s  R n  vector _ necunoscut

- x s poate fi exprimat într-o bază oarecare, în funcție de cele n componente ale sale. Dacă alegem o bază
convenabilă și facem deplasarea din x0 în lungul axelor acestei baze, este posibil ca în n pași să ajungem în x*

- determinarea acestei baze se poate face cu ajutorul direcțiilor conjugate

-atingerea minimului în n pași se face doar la funcțiile pătratice

Observație: 2 vectory, x și y din Rn s.n. conjugați (sau Q-conjugați/Q-ortogonali) dacă x, Qy  0, Q  Rnxn

11. Principiul optimalității


- orice segment final al unui proces de conducere optimal constituie el însuși un proces de conducere optimal

- segmentul din traiectoria optimală situat între starea intermediară x ( ) și starea finală x(t f ) este el însuși o
traiectorie optimală, pt un proces ce pleacă din starea x ( )

12. Enunțați metoda de bază pentru probleme de optimizare staționară cu restricții


egalitate
-programarea matematică
13. Elementele secundare care pot interveni într-o problemă de optimizare dinamică
- elementele secundare apar numai în anumite probleme de optimizare și sunt reductibile la elementele de bază
(cele de bază sunt: sis dinamic, condițiile inițiale și finale, mulțimea mărimilor de intrare și de stare admisibile,
criteriul de optimizare)

14. Hamiltonianul și condiția necesară de extrem în cazul continuu


- hamiltonianul este operatorul corespunzător energiei totale a unui sistem – sumă de operatori a energiei cinetice și
potențiale a unui sistem, scris sub forma generală H = T + V

- Hamiltonianul + ec canonice

H ( x, u ,  , t )  L ( x, u , t )   T f ( x , u , t )
 H
 0
 u

 H   '

 x
- indicele:
tf

I   L( x, u, t )dt
t0

- sistemul:

 x '  f ( x, u, t ), x  R n

 x(t0 )  x
0


t0 , t f , x  FIXATE
f

15. Hamiltonianul și condiția necesară de extrem în cazul discret


- hamiltonianul este operatorul corespunzător energiei totale a unui sistem – sumă de operatori a energiei cinetice și
potențiale a unui sistem, scris sub forma generală H = T + V

- Hamiltonianul + ec canonice

H (k )  TL( x(k ), u (k ), k )   T (k  1)[ x(k )  Tf ( x(k ), u (k ), k )]


 H (k )
 u (k )  0


 H (k )   (k )
 x(k )

- indicele:

kf 1
I  T  L( x(k ), u (k ), k )
k k 0
- sistemul:

 x(k  1)  x(k )  Tf ( x(k ), u(k ), k )



 x(k0 )  x
0

16. Formula iterativă în cazul metodelor de căutare


- în cazul met de căutare se pornește de la o inițializare oarecare x0 și se stabilește un șir de iterații xk a.î.
lim k  x k  x *

-formula: f(x 0 )  f(x1 )  ...  f(x k )  ...  f(x*)

17. Newton-Raphson + categorii de ameliorări


- metode de ordinul 3 – apelează și la calculul derivatelor de ordinul 2

- rapiditate mare a convergenței

- gradientul:  f(x k 1 )  f ( xk )  H ( xk )( xk 1  xk )
H k p k  r k , pk = DIRECȚIE NEWTON

A1. Din orice pct s-ar porni, se ajunge în pct staționar dintr-un singur pas

A2. Convergență pătratică, fff rapidă

D1. Convergența asigurată doar dacă H(x)>0

D2. Volum mai mare de calculi datorate calculului matricei Hessian și a inversei acesteia

Ameliorări:

- MODIFICĂRI ALE METODEI N-R

- METODE DE TIP REGIUNE DE ÎNCREDERE

- METODE COMBINATE

- METODE CVASI-NEWTON

18. Avantaje & dezavantaje la grad optimal


A1. Direcțiile succesive de deplasare sunt ortogonale

A2. Poate fi utilizată formula de calcul aproximativ

D1. Mod de deplasare zig-zagat

D2. Pașii de deplasare sunt f mici, de aceea propierea este f lentă

D3. Minimul se atinge după un nr infinit de pași

D4. Convergența liniară determină descreșterea în progresie geometrică


19. Condiții terminale într-o problemă de optimizare dinamică cu starea fixată
CONDIȚII INIȚIALE:

t0:

- fixat la o val inițială în T

- liber în T

Starea inițială x 0  x(t0 )  X

- fixată într-un punct al spațiului X

- liberă pe o submulțime X 0  X

- complet liberă în X

CONIDȚII FINALE:

momentul final tf > t0

- fixat la o val dată mai mică decât infinit

-liber în T

Starea finală x f  x(t f )  X

- fixată într-un pct al spațiului X

- liberă pe o submulțime X f  X

- complet liberă în X

20. Esența metodelor de eliminare


- fcț obiectiv trebuie să satisfacă unimodalitatea

- domeniul se împarte în 2 părți printr-o dreaptă de separare

- se testează fcț în cele 2 subdomenii nou create și se elimină subdomeniul care nu prezintă interes

- domeniul rămas se împarte la rândul lui și tot așa până se ajunge la un domeniu suficient de mic, care să satisfacă
precizia impusă

21. Metodele cvasi newton - merg pe ideea de a aproxima matricea Hessian sau inversa acesteia a.î. să se
asigure condiția de pozitivitate și în acest caz, nu se calculează derivatele de ordin 2 ale fcț obiectiv

22. Clasificarea metodelor de optimizare staționară


- probleme fără restricții – extrem liber

- probleme cu restricții – extrem legat


- problemă de programare liniară

- problemă de programare neliniară

> convexă

> PĂTRATICĂ

> geometrică

23. Adecvată pt soluționarea problemelor cu restricții inegalitate este METODA KUHN-TUCKER

24. Formularea problemei liniar pătratice cu timp final finit:


 x  R n
x(t )  A(t ) x(t )  B(t )u (t ), 
u  R
m

S  0

tf
1 T 1
I   x (t f ) S  x(t f )    [ x (t )Q (t ) x(t)  u (t ) P (t )u (t )]dt , Q(t )  0
T T

2 2 t0  P(t )  0

t0 , t f  fixati
 0
 x (t0 )  x  fixata
0

 x(t )  libera
 f

- determinați comanda optimală în circuit închis u *(t )  u *( x(t )) care transferă sistemul din condițiile inițiale în
cele finale precizate, minimizând astfel criteriul i

25. Avantajele și dezavantajele programării dinamice


A1. La fiecare moemnt, comanda se determină operativ, în fcț de starea curentă ținând cont de întreaga evoluție
viitoare, predictată de sistem

A2. Oferă direct soluția pr de sinteză optimală, în circuit închis

A3. Ecuațiile stabilite oferă atât cond necesare, cât și suficiente de optim

A4. Poate fi extinsă, fără dificultăți și la alte tipuri de probleme

D1. O dată cu creșterea ordinului n al sistemului, crește enorm volumul de calcule (creștere exponențială) –
”blestemul dimenisonalității”

D2. Obținerea soluțiilor analitice este f dificilă, chiar și în cazuri simple  de aceea se utilizează cel mai des pt cazul
discret

26. Pt fcț pătratice de gradul 2 se folosește metoda de căutare bazată pe pasul optim (gradient optimal?)
27. Condiții necesare și suficiente de extrem în cadrul problemelor de optimizare
staționară, fără restricții
NECESARE:

f ( x) : R n  R continuu derivabilă, în raport cu toate argumentele

f ( x*)  0 (condiția de minim local)

SUFICIENTE:

f ( x) : R n  R cu derivatele de ordin 2 continue

f ( x*)  0
x* este pct de minim local dacă 
 H ( x*)  0

28. Rezolvarea problemelor de opt staționară cu restricții egalitate se face cu teorema multiplicatorilor Lagrange.

29. Forma unui indice Mayer:


tf

I   um1 (t )dt
t0

- la aceste probleme se introduce o nouă variabilă de stare și una de comandă

30. Forma unui indice Bolza:


tf

I   [ L( x(t ), u (t ), t )  um1 (t )]dt


t0

S-ar putea să vă placă și