Sunteți pe pagina 1din 25

Introducere în metode de optimizare

a dispozitivelor electromagnetice

autor: ing. Laurentiu Duca


coordonator: prof.dr.ing. Daniel Ioan
Cuprins
• Introducere
- Formularea problemei de optimizare
• Metode de optimizare
- Optimizarea cu roiuri de particule
- Algoritmi genetici
- Căutarea tabu
- Călirea simulată
- Optimizare tip dezvoltarea bacteriilor
• Probleme de optimizare
- Problema de benchmark TEAM22
- Problema inversă NDET din testarea electromagnetică
nedistructivă
2
Formularea problemei de optimizare

• găsirea minimului (sau maximului) unei funcții


f : Ω ⊂ ℝ n → ℝ, denumită funcție obiectiv

• dacă Ω = ℝ n, problema este fără restricții


altfel problema este cu restricții

• se doreste găsirea punctului de minim global


xmin = argmin f(x), x ∈ Ω pentru care f este minimă
• evitarea punctelor de minim local
3
Metode de optimizare
pro și contra
• metode deterministe
- în cazul problemelor de optimizare complexe găsesc
întotdeauna un extrem local, dependent de inițializare

• metode stocastice (nedeterministe)


- folosite când metodele deterministe nu fac față
- nu necesită evaluarea derivatelor funcției de optimizat
(sunt de ordinul 0)
- nu garantează găsirea unui optim global dar au o
probabilitate mult mai mare de găsire a acestuia

4
Optimizarea cu roiuri de particule (PSO)

• varianta clasică
- metodă stocastică iterativă inventată de Kenedy in
1995, inspirată din comportamentul stolurilor de
păsări și bancurilor de pești

- fiecare particulă i este determinată de viteză si poziție


vi(t+1) = w· vi(t) + cp·rp·(pi(t) – xi(t) ) +cg·rg·(g(t) –xi(t) )
xi(t+1) = xi(t) + vi(t+1)

5
Standard PSO (SPSO)
• trei standarde: 2006, 2007, 2011
• dimensiunea roiului:
𝑆 = 10 + 2 𝐷 (2006, 2007), 40 (2011)
• g(t) este înlocuit cu li(t) – cea mai bună poziție din grupul
de vecini ai particulei i
• w = 0.721, c = 1.193
• 2011: xi’ punct aleator în hipersfera Hi(Gi, ||Gi-xi||)
Gi = xi + c(pi+li-2xi)/3
vi(t+1) = w·vi(t) + xi’(t) - xi(t)
xi(t+1) = w·vi(t) + xi’(t)
6
PSO cuantic (QPSO)
• model inspirat din fizica cuantică

• xi(t+1) = pli(t) ± β·|m(t)-xi(t)|·ln(1/u)


1 𝑆
• 𝑚(𝑡) = 𝑖=1 𝑝𝑖 (𝑡)
𝑆
• pli(t) =φ·pi(t)+(1-φ)·g(t)

• β - coeficientul de contracție-expansiune prin care poate fi


ajustată viteza de convergență a algoritmului
• QPSO aduce imbunătățiri pt. setul de fcț. standard de test
(fcț. sferă, Rosenbrock, Rastrigrin, Griewank, De Jong)

7
PSO discret (DPSO)

• spatiu discret (binar)  rotunjirea valorilor reale


obținute

• Pan in 2008 prezintă un algoritm DPSO hibrid, înrudit


cu algoritmii genetici:
xi(t+1) = pGB⊕CR(pPB ⊕CR(xiM(t),pi(t)),g)
xiM(t)=pv ⊕M(xi(t))

8
Algoritmi genetici (G.A.)
• fac parte din clasa algoritmilor evolutioniști (E.A.) care
generează soluții pentru problemele de optimizare
folosind tehnici inspirate din evoluția naturală

• o populație de soluții candidat (denumită indivizi)


pentru o problemă de optimizare evoluează catre
soluții mai bune

• reprezentarea genetică a unui individ se face prin șiruri


binare concatenate
ex: (10, 9, 6) este 101010010110
9
G.A. - structura algoritmului
1. t = 0
2. inițializează P(t)
3. evaluează P(t)
4. cât timp (not (condiție_de_stop)) repetă
4.1. t = t + 1
4.2. selectează P(t) din P(t − 1)
4.3. alterează P(t)
4.4. evaluează P(t)

10
G.A. (3)
• operatia de încrucișare:
- indivizii părinți vor produce indivizi noi – copii, in
generația următoare
- selecția indivizilor: metodă elitistă
- probabilitatea de selecție a individului i :
𝑝𝑖 = 𝑓 / 𝑛𝑘=1 𝑓𝑘
𝑖
𝑖
- probabilitate cumulată de selecție: 𝑞𝑖 = 𝑗=1 𝑝𝑗
- încrucișare într-un punct (sau două puncte)

11
G.A. (4)
• operatia de mutație
- acționează asupra biților în mod individual
- probabilitatea de mutație pm (< 0.1, ex: 0.01)

• dupa selecție, încrucișare si mutație, noua populație este


gata pentru a fi reevaluată

• G.A. sunt destul de buni în a găsi o soluție globală, dar


sunt destul de ineficienți în a găsi punctul de optim
absolut  se combină cu tehnici de cautare locală
12
Căutarea tabu (TS)

• inventată de F.Glover in 1986, ulterior formalizată si


imbunătățită

• metodă de căutare locală cu metaeuristici

• evită împotmolirea în zone de minim local prin folosirea


listei tabu ce conține memorii/reguli pe termen scurt,
mediu si lung
- termen scurt: lista soluțiilor vizitate recent

13
Căutarea tabu (2)
- termen mediu: soluții care conțin valori nedorite
pentru anumite variabile
- reguli pe termen lung: mută căutarea în noi regiuni

• o soluție poate fi scoasă din lista tabu dacă are un criteriu


de aspirare adecvat

• TS este deseori combinată cu alte metaeuristici, precum


GA, în metode hibride

14
Călirea simulată (SA)
• algoritm metaeuristic-probabilistic pentru probleme de
optimizare globală, inventat în 1983

• tranzitia s  s’: funcția probabilitate de acceptare


1, 𝑒 ′ <𝑒
𝑃(𝑒, 𝑒 ′ , 𝑇) = −(𝑒 ′ −𝑒)/𝑇
𝑒𝑥𝑝 , 𝑒′ ≥ 𝑒
• descreștere înceată a probabilității de acceptare a
soluțiilor mai slabe

• soluția finală va fi găsită printr-o parcurgere succesivă de


vecini
15
Călirea simulată (2)
s ← s0; e ← E(s)
sbest ← s; ebest ← e
k←0
while k < kmax && e > emax
T ← temperatura(k/kmax)
snou ← vecin(s)
enou ← E(snou)
if P(e, enou, T) > random(0,1)
s ← snou; e ← enou
if enou < ebest
sbest ← snou; ebest ← enou
k←k+1
return sbest
16
Optimizare tip dezvoltarea
bacteriilor(BFO)
• metoda inventată în 2002 de K. Passino ce simuleaza
strategia de întindere și căutare a hranei a grupului de
bacterii E.coli

• trei mecanisme principale: chemotaxie, reproducere și


eliminare-dispersie
• chemotaxie:
- mișcare de înotare pe masură ce bacteria se
apropie de nutrienți
- salturi aleatoare pe masură ce bacteriile se
îndepartează de o sursă de hrană insuficientă
17
BFO (2)
• pasul j+1 chemotactic:
∆(𝑖)
𝜃𝑖 𝑗 + 1, 𝑘, 𝑙 = 𝜃𝑖 𝑗, 𝑘, 𝑙 + 𝐶(𝑖)
∆𝑇 (𝑖)∆(𝑖)
• pasul k de reproducere, sănătatea bacteriei i:
𝑁𝑐
𝐽ℎ𝑒𝑎𝑙𝑡ℎ
𝑖 = 𝑗=1 𝐽(𝜃𝑖 𝑗, 𝑘, 𝑙 )

• procesul de eliminare-dispersie se face cu


probabilitatea Ped pentru fiecare bacterie

18
BFO (3)
• C(i) mare  bacteriile ajung în vecinătatea pct. de optim
mai repede
• C(i) mic  căutare locală mai fină

• CBFO: combină 2 alg. BFO


- primul cu C(i) mare
- al doilea cu C(i) mic, preia rezultatele primului

19
Problema de benchmark TEAM22
• constă în optimizarea unui dispozitiv SMES
• configurație SMES care are doi solenoizi prin care
trec curenți de sensuri opuse

• obiective:
- energia magnetică
stocată sa fie 180 MJ
- câmpul de dispersie
(la 10 m) să fie minim
- câmpul magnetic să
satisfacă condiția ce
garantează
supraconductibilitatea
20
TEAM22 (2)
• restricții: R1
[m]
R2
[m]
h1/2
[m]
h2/2
[m]
d1
[m]
d2
[m]
J1
[MA/m2
J2
[MA/m2
] ]
min 1.0 1.8 0.1 0.1 0.1 0.1 10.0 -30.0
max 4.0 5.0 1.8 1.8 0.8 0.8 30.0 -10.0

• condiția ce asigură faptul că bobinele nu îsi pierd


supraconductibilitatea: |J| = (−6.4|B|+54.0) A/mm2
• funcția obiectiv:
𝐵2𝑠𝑡𝑟𝑎𝑦 |𝐸−𝐸𝑟𝑒𝑓 |
𝐹= +
𝐵2𝑛𝑜𝑟𝑚 𝐸𝑟𝑒𝑓
22
𝑖=1 |𝐵𝑠𝑡𝑟𝑎𝑦,𝑖 |
• 𝐵2𝑠𝑡𝑟𝑎𝑦 =
22
𝐸𝑟𝑒𝑓 = 180 MJ, 𝐵𝑛𝑜𝑟𝑚 = 2.0 · 10−4 T
21
Problema inversă NDET din testarea
electromagnetică nedistructivă

• problema considerată este


o versiune a JSAEM benchmark #2

• specimen: o placă din material conductor, de formă


paralelipipedică 40x40x1.25mm3 si conductivitate
=106S/m, ce conține un defect

• scanare 2D cu frecvența de 150kHz și la o distanță de


0.5mm de placă cu o bobină standard (dint=1.2mm,
dext=3.2mm, h=0.8mm) cu 140 de spire
22
NDET (2)
• defect: c=[ix1,ix2,iy1,iy2,iz,s], cu ix1,ix2, iy1, iy2 indicii primei
și ultimei celule pe Ox, Oy; iz adâncimea defectului;
σc =s% din σ (conductivitatea plăcii)

• problema inversă abordată constă în determinarea


parametrilor defectului din placa de material conductor,
pornind de la semnalul măsurat de bobină

23
NDET (3)
• problema inversă este formulată ca o problemă de
optimizare în care funcția obiectiv este:
𝑁𝑠𝑐 2
𝑡𝑟𝑢𝑒
𝑓(𝑐) = (∆Z𝑖 c − ∆Z𝑖 (𝑐))
𝑖=1

c conține parametrii defectului estimat,


∆Zi(c) și ∆Zitrue sunt variația impedanței bobinei în punctul de
scanare i pentru cazul simulat (estimat) si cazul real,
Nsc este numarul punctelor de scanare

24
Concluzii
• referatul contine o prezentare a principalelor metode de
optimizare stocastice ce vor fi utilizate în optimizarea
dispozitivelor electromagnetice

• pentru probleme complexe de optimizare, algoritmii


necesită un numar mare de iterații

• în perioada urmatoare voi lucra la implementarea


paralela a acestor algoritmi pt. optimizarea dispozitivelor
electromagnetice de interes
25

S-ar putea să vă placă și