Sunteți pe pagina 1din 10

UNIVERSITATEA POLITEHNICA BUCURESTI

FACULTATEA DE TRANSPORTURI

Elemente de control optimal


Cercetri operaionale

Masterand:Netcu Mariana Daniela


Master:Logistica Transporturilor

2014-2015
1

Elemente de control optimal

Studiul sistemelor optimale se face pornind de la urmtoarele elemente fundamentale:


1. Dinamica procesului este cunoscut, fiind exprimat sub forma unei ecuaii
de stare

(1.1)
presupus n cele mai multe cazuri a fi liniar.
2. Se limiteaz atenia la cazul determinist, adic se admite c sistemul nu este
supus unor perturbaii stohastice (iar msurarea vectorului de stare nu este alterat de
zgomote).
3. Vectorul de stare x i/sau comanda u sunt supuse unor restricii diverse de
exemplu, componentele lui u trebuie s se ncadreze ntre anumite limite (restricii de
tip inegalitate), sau se pot impune anumite valori iniiale i finale pentru x (restricii de
tip egalitate), sau se impun chiar restricii privind durate tf a conducerii procesului
respectiv.
4. Se alege un indice de performan J, dependent n general de x i de u i
cresctor cumulativ cu timpul, adic de forma:

(1.2)
n raport cu care se realizeaz optimizarea.
5. Nu se face nici o presupunere cu privire la structura dispozitivului de conducere
optimal (spre diferenta de cazul proiectrii prin ncercri).
Cu acestea, problema comenzii optimale se formuleaz concis astfel:
S se gseasc comanda optim uopt (numit i strategia de conducere
optimal) care optimizeaz indicele de performan J, n condiiile unor restricii
impuse.
n cadrul problemelor de optimizare se disting dou categorii:
1. Probleme de optimizare static.
2. Probleme de optimizare dinamic.
Optimizarea static se ntalnete atunci cnd se cere conducerea optimal a unui proces
a crui stare normal este regimul staionar.
2

Optimizarea static a proceselor poate fi realizat n dou moduri:


-

ca optimizare n circuit deschis, utilizabil atunci cnd modelul matematic


al unui proces este bine cunoscut (inclusiv valorile parametrilor), iar
efectele perturbaiilor sunt neglijabile.

ca optimizare n circuit nchis, pentru procesele n care parametrii sunt


insuficient cunoscui i/sau variaz cu timpul, iar perturbaiile de tip
aleator au o puternic influen asupra strii sistemului; aceast metod se
bazeaz pe experimentare.

Problema optimizrii dinamice este caracterizat de vectori de stare i de comand


variabili n timp.
Metode de optimizare dinamic se realizeaz prin :
-optimizarea prin metode variaionale(metoda multiplicatorilor lui Lagrange i metoda
ecuaiei matriciale Riccati);
- programare dinamic a lui Bellman;
- principiul maximului al lui Pontriaghin.

PRINCIPIUL MAXIMULUI
Exist o clas larg de probleme de tip variaional n optimizarea sistemelor
dinamice, probleme care nu pot fi soluionate prin metoda calculului variaional
ecuaii de tip Euler-Lagrange.
Ele ar putea fi abordate sub forma discret a programrii dinamice, dar, aceast
metod reprezint n fond o tehnic numeric care furnizeaz o informaie srac
asupra naturii fizice a problemei de optimizare n ansamblu. Iar aplicarea variantei
continue a principiului optimalitii se izbete de dificulti de calcul de ndat ce
sistemul nu este liniar, criteriul nu este de tip cuadratic, iar comanda sufer restricii de
tip inegalitate.
Principiul optimului, elaborat de Pontriaghin, Boltianskii i Gamkrelidze, este
similar calculului variaional i este strns legat de programarea dinamic fiind
dealtfel posibil obinerea principiului optimalitii din principiul maximului printr-o
schimbare de variabile.
Principiul maximului se bazeaz pe urmtoarele elemente:
1. Sistemul este descris de ecuaia de stare(1.3) sau forma compact (1.1).

(1.3)

2. Timpul iniial t0 i cel final tf sunt date.


3. Unele componente ale vectorului de stare au valori date la t0 i tf.
4. Indicele de performan este de forma funcionalei

(1.4)
5. Comanda u(t) este supus restriciilor de tip inegalitate.
6. Se caut strategia optim (comanda optimal)
sistemul din starea initial

n starea final

care va transfera
de asemenea manier

nct s optimizeze criteriul J dat de (1.4), respectnd restriciile impuse


comenzii.
Coeficienii de pondere i din (1.4) pot fi privii ca fiind componentele unui
vector de ponderare numit i vector obiectiv:

(1.5)
astfel nct criteriul (1.4) se poate exprima sub forma unui produs scalar

(1.6)
(Far a impieta asupra generalitii, putem considera c este normalizat, adic
).
Expresia (1.6) are semnificaia geometric a proieciei vectorului

pe

vectorul ; aadar optimizarea criteriului J (1.6) se traduce ca ncercarea de a optimiza


proiecia lui

pe direcia vectorului obiectiv.

Vom considera mai nti cazul:


a) tf este fixat, dar

este liber.

Vom presupune c strategia optim


optimal

a fost gsit i c traiectoria

corespunztoare se cunoate. Vom studia modificarea dJ a criteriului de

performan cauzat de o variaie

de la strategia optim. O astfel de situaie,

pentru un caz bidimensional, este ilustrat n figura 1.

Figura 1. Abaterea de la strategia optim i abaterea rezultant de la traiectoria


optimal

ntruct comanda optim este de tip bang-bang, adic avnd valori extreme
ntre care se face comutaia (teoretic) instantanee (n fig. 1 b se arat o astfel de
comutaie), este firesc a presupune c mica abatere de la strategia optim, adic
va reprezenta doar o modificare redus a momentului comutaiei valorii
comenzii. Aadar, variaia

va consta din unul sau mai multe impulsuri de lime

finite dar foarte mic (un astfel de impuls este ilustrat n fig. 1 c). Se poate formula
diferena dintre principiul maximului i metoda calculului variaional astfel: dac
vectorul m-dimensional u(t) este supus restriciei

(1.6)

unde {U} este domeniul comenzilor admisibile n spaiul m-dimensional, atunci


metoda calculului variaional caut soluia optim

n interiorul lui {U}, n timp ce

principiul maximului caut soluia optim pe frontiera lui {U}.


Introducem conceptul de vector adjunct de stare p(t) ale crui componente sunt
definite astfel:

(1.7)1
(1.7)2
n cazul sistemelor liniare, avnd ecuaia de stare

, relaia

(1.7)1 ia forma:

(1.8)
care definete aa-numitul sistem adjunct al sistemului cu ecuaia de stare de tipul
.
Vectorul de stare x i vectorul adjunct de stare p introduce un numr total de 2n
variabile, care trebuie s satisfac ecuaiile difereniale ordinare de ordinul unu (1.8) i
(1.7)1; n plus, ele trebuie s satisfac cele 2n condiii terminale specificate, n maniera
sparte n dou puncte:
i

Analizm variaia componentei xi a vectorului x cauzat de variaia mai sus


menionat u a lui u. Conform cu (1.8) avem:

(1.9)
Multiplicnd ambii membri ai relaiei (1.9) cu pi, nsumnd relaia astfel
obinut pentru toate cele n componente ale lui x i, n final, integrnd ntre t0 i tf se
obine:

(1.10)
6

Membrul stng al relaiei (1.10) poate fi integrat prin pri:

(1.11)
ntruct, firete, avem:
(1.12)
i innd cont de (1.7)2, vom avea:

(1.13)
Dar memebrul drept din (1.13) reprezint variaia cu semn schimbat a
criteriului J, adic:

(1.14)
Din (1.7)1, (1.9), (1.11), (1.13) i (1.14) rezult:

(1.15)
reprezint o diferen mic (de ordinul

Factorul

unu) astfel c el poate fi dezvoltat n serie Taylor:

(1.16)
unde R este suma termenilor de ordin superior lui 1. Introducnd (1.16) n (1.15) se
obine:

(1.17)
Se consider doar funciile fi care sunt liniare n raport cu x i depind de u n mod
aditiv, adic cele pentru care (1.1) ia forma:
(1.18)

Pentru aceast clas de funcii vom avea:

(1.19)
astfel c cea de-a doua integral din (1.15) va fi nul i relaia (1.15) se reduce la:

(1.20)
unde

(1.21)
reprezint aa-numita funcie de stare a lui Pontriaghin denumire justificat prin
aceea c H depinde exclusiv de vectorul de stare x(t) i ntlnit uneori i sub
denumirea de Hamiltonian (dat fiind similaritatea sa cu expresia hamiltonianului
din mecanica clasic).
Relaia (1.20) se interpreteaz astfel: Dac se poate dovedi c o variaie u
arbitrar face ca integrala din (1.20) s fie pozitiv (negativ), aceasta va implica faptul
c dJ s fie negativ (pozitiv) pentru aceste deviatii i u0 va corespunde atunci la un
maxim (minim) al lui J.
Dar integrala din (1.20) va fi pozitiv (negativ) dac integrandul va fi pozitiv
(negativ) pe ntregul interval

, adic dac

(1.22)
sau

(1.23)
Aadar, principiul maximului se formuleaz astfel:
O condiie necesar i suficient pentru a avea un maxim (minim) al criteriului de
performan J dat de (1.4) este aceea ca: comanda optim u0 s minimizeze
(maximizeze) funcia de stare H a lui Pontrianghin pe tot intervalul

Concluzii

Metoda programrii dinamice a lui Bellman se aplic n cazul proceselor


discrete. Avantajul esenial al metodei programrii dinamice este adus de principiul
optimalitii i metoda scufundrii, care permit reducerea procesului de decizie n N
pai la un proces secvenial de N procese de decizie cu un singur pas.
Principiul lui Pontriaghin se utilizeaz n cazul problemelor care nu pot fi
soluionate prin metoda calculului variaional de exemplu ecuaii de tip
Euler-Lagrange. Ele ar putea fi abordate sub forma discret a programrii dinamice,
dar, aceast metod reprezint n fond o tehnic numeric care furnizeaz o informaie
srac asupra naturii fizice a problemei de optimizare n ansamblu. Principiul
optimului, elaborat de Pontriaghin, Boltianskii i Gamkrelidze, este similar calculului
variaional i este strns legat de programarea dinamic.
Diferena dintre principiul maximului i metoda calculului variaional const n
faptul c : n timp ce metoda calculului variaional caut soluia optim

interiorul lui {U}, principiul maximului caut soluia optim pe frontiera lui {U}, unde
{U} este domeniul comenzilor admisibile

n concluzie, n aceast lucrare am prezentat metode de rezolvare a problemei


comenzii optimale: S se gseasc comanda optim uopt (numit i strategia de
conducere optimal) care optimizeaz indicele de performan J, n condiiile unor
restricii impuse; n cazul proceselor dinamice n timp.

Bibliobrafie

[1] D. Mihoc, M. Ceaparu, S. St. Iliescu, I. Borangiu, Teoria si elementele sistemelor


de reglare automata, Editura Didactica si Pedagogica, Bucuresti, 1980
[2] Prof. Dr. V. Prepeli, T. Vasilache, M. Doroftei, Control Theory
1980
[3] Dr. Robert C. Nelson, Flight Stability and Automatic Control, McGraw-Hill,
Inc., 1989
[4] Frank L. Lewis, Vassilis L. Syrmos, Optimal Control, Second Edition, John
Wiley Sons, New York, 1995
[5] Lawrence C. Evans, An Introduction to Mathematical Optimal Control Theory
Version 0.2

10

S-ar putea să vă placă și