Sunteți pe pagina 1din 16

CAPITOLUL 4

4.STUDIU DE CAZ
In acest capitol vom incerca sa evidentiem comportamentul retelelor neuronale
artificiale pentru diferite cazuri in care acestea sunt utilizate precum si utilitatea lor in
rezolvarea anumitor probleme de conducere.
Pentru a ilustra comportarea unei structuri de reglare ce utilizeaza retele neuronale ,
vom considera urmatoarea schema de reglare:
In cadrul acestei scheme, modelul neuronal, se obine prin instruirea off-line a
unei reele neuronale multistrat.
Acesta retea neuronala prezinta urmtoarea structur :
stratul 1: neuroni !i funcia de activare tan-sigmoid"
stratul #: neuroni !i funcia de activare tan-sigmoid"
stratul $: 1 neuron !i funcia de activare liniar"
%n timpul instruirii, eroarea e
i
&eroare aparuta ca diferenta intre iesirea
modelului si iesirea procesului', este propagat (napoi prin reeaua neuronal, (n
vederea a)ustri parametrilor acesteia. Procedura de instruire se consider terminat
c*nd diferena dintre +
p
!i +
i
tinde la zero pentru toi vectorii lotului de instruire. Pentru
a obine performane mari (n timpul reglrii, modelul neuronal rezultat trebuie s
conin informaii bogate cu privire la dinamica procesului pentru toate datele posibile
din timpul funcionrii structurii de reglare.
z
-1
am considerat ca fiind elementul de intarziere.
,pre deosebire de modelul neuronal care se instruieste off-line, regulatorul
neuronal adaptiv se instruie!te on-line !i utilizeaz eroarea de a)ustare a parametrilor
e
ap
, eroare obinut prin propagarea (napoi a erorii de reglare e
r
, prin reeaua neuronal
-.. Ponderile regulatorului neuronal adaptiv, (n unele situaii, se vor stabiliza la
/0
valori bine determinate dup ce procesul de reglare a parcurs o perioad suficient de
timp, perioad necesar etragerii de 1cuno!tine2 cu privire la legea de reglare.
,tabilizarea parametrilor la valori bine determinate mai depinde !i de condiia ca
parametrii procesului s ram*n nemodificai (n timpul funcionrii structurii de
reglare. Pentru regulatorul neuronal adaptiv s-a utilizat o reea neuronal multistrat
care are o structur echivalent cu cea a reelei neuronale utilizat la implementarea
modelului neuronal al procesului.
3 alta componente a schemei de reglare o reprezinta modelul de referin, care are
rolul de a impune un anumit profil mrimii prescrise !i de a limita efortul de comand
dezvoltat (ntr-un timp mic a elementelor de eecuie. %n general dac valoarea
prescris mrimii de ie!ire variaz brusc, atunci e
r
variaz tot brusc !i pentru a readuce
e
r
la zero (ntr-un timp mic este necesar, (n multe situaii, s se dispun de un efort de
comand mare. 4e asemenea folosind un model de referin (ntr-o bucl de reglare i se
poate imprtima procesului o anumit dinamic, dat de modelul de referin.
In cazul nostru, am considerat ca model de referinta functia de transfer unitate,
adica intre intarea sistemului si iesire are loc un transfer direct. -ai bine zis, intre
valoarea impus !i mrimea cu care se compar ie!irea sistemului &+
d
5+
mr
', este o
legatura directa.
,e poate observa faptul c nu s-au impus restricii cu privire la natura
procesului sau restricii cu privire la tipurile de neliniariti pe care poate s le conin
instalaia de automatizat. -etoda este general !i dac cele doua reele neuronale au
capacitatea de a modela procesul respectiv !i de a sintetiza legea de reglare , atunci
reu!ita reglrii este garantat (n ma)oritatea cazurilor.
Pentru a ilustra comportarea structurii de reglare din figura prezentata mai sus,
vom considera sistemul dinamic neliniar descris de urmtoarea ecuaie cu diferene
1' - u&6
+ 1 . 0 /
' 1 & 1' - &6 +
+&6'
1' - &6
#
0./+ - 1' - &6
7
# $
+
+

=
k y
.
Pentru a realiza reglarea acestui sistem dinamic neliniar, vom utiliza schema de
reglare prezentata la inceputul capitolului, ale carei elemente vor fi reprezentate sub
urmatoarea forma:
8ontrolerul neuronal il consideram ca fiind o retea neuronala multistrat &cu trei
straturi', aceste straturi avand fiecare urmatorul numar de neuroni:
stratul 1: $ neuroni !i funcia de activare tan-sigmoid"
stratul #: 9 neuroni !i funcia de activare tan-sigmoid"
stratul $: 1 neuron !i funcia de activare liniar"
%n cele ce urmeaz se vor prezenta performanele acestei structuri de reglare in mai
multe situatii.
In primul caz considerat, vom lua modelul neuronal ca fiind reprezentat printr-o
retea neuronala multistrat identica cu cea a regulatorului neuronal, adica:
/1
stratul 1: $ neuroni !i funcia de activare tan-sigmoid"
stratul #: 9 neuroni !i funcia de activare tan-sigmoid"
stratul $: 1 neuron !i funcia de activare liniar"
Pentru aceasta situatie, vom realiza o reglare a retelei multistrat in vederea validarii
modelului neuronal. Acest lucru are loc in momentul in care eroarea dintre iesirea
modelului si iesirea procesului are valoarea zero. Acest lucru insa se intampla in cazul
ideal. .oi am considerat drept criteriu de validare al modelului, valoarea de 0.001 a
sumei patratice a erorii.
:ig1.;ectorul de intrare si vectorul de iesire intre punctele statice de functionare&-/./'
Pentru inceput, am considerat un numar relativ mic de epoci de instruire al retelei
si anume #00.
Pasul de instruire am considerat ca fiind #0, pragul impus erorii am considerat ca
fiind 0.001 iar rata de invatare am stabilit ca fiind 0.00#.
4upa cum se poate observa si in figura de mai )os, dupa doar #00 de epoci de
instruire, suma patratica a erorii a cunoscut o scadere in urma instruirii retelei, de la
//0/1./ la ##/.<0/.
/#
:igura # &,uma patratic a erorii'
Asadar, un numar prea mic de epoci de instruire, in cazul nostru #00, nu realizeaza
nici pe departe o micsorare semnificativa a sumei patratice a erorii, tinand cont ca tinta
nostra impusa este ca aceasta &eroarea', sa aiba valoarea de 0.001, adica sa fie
aproimativ egala cu 0.

:ig. #a' validare model
/$

#b' validare reziduri
4aca luam in considerare diferenta dintre iesirea dorita si cea impusa, asa cum se
vede in figura # , suntem nevoiti sa reinstruim reteaua neuronala, cu aceeasi strctura,
insa pe un interval mult mai mare de epoci. Pentru aceasta vom considera intervalul de
instruire de dimensiune /0 000 de epoci.
4upa o prima reinstruire pe acest interval, observam ca suma patratica a erorii
cunoste o scadere destul de mare, de la o valoare de ##/.<0/ pana la 1=.9009, insa nu
se apropie nici de acesta data de valoarea dorita. >volutia erorii in urma acestei
reinstruiri este urmatoarea:


:ig.$ &>volutia erorii dupa prima reinstruire'
/7

:ig. $a &-odelul dupa prima reinstruire'

:ig $b &?eziduul dupa prima reinstruire'
4eoarece nu am atins pragul impus erorii, vom continua instruirea retelei pe un
interval mai mare de epoci. Acest interval nu poate fi determinat insa intr-un mod
matematic, pe baza unei relatii.
//


:ig7. >volutia sumei patratice a erorii dupa 1< reinstruiri
4esi s-au realizat 1< instruiri ale retelei, suma patratica a erorii nu cunoaste o
scadere importanta si isi mentine o caracteristica liniara cu o foarte mica tendinta de
scadere. Acest lucru ne arat ca instruirea retelei se va face pe un interval mare de
epoci.

/<
:ig 7a. -odelul
4eoarece eroarea nu atinge pragul impus, caracteristica modelului nu o
aproimeaza pe cea a procesului. Pentru a realiza aceasta aproimare este nevoie ca
reteaua sa se instruiasca in continuare.
:ig 7b. ?eziduul
,e observa din grafice ca modelul este departe de a fi validat, chiar daca numarul
pasilor de reinstruire a crescut foarte mult.
Putem spune asadar ca tipul de retea aleasa, cu numarul de $, 9 respectiv 1 de
neuroni pe straturi, realizeaza o a)ustare a parametrilor pentru validarea modelului
foarte greu. Acest lucru nu este benefic reglarii si pentru a elimina acest lucru vom
considera in continuare ca reprezentare a modelului neuronal, o alta retea multistrat, cu
alta configuratie.
Pentru aceasta vom considera in continuare o retea la care vom modifica numarul
de neuroni pe straturi.
-odificarea va consta in marirea acestui numar.
Aceasta retea va avea urmatoarea configuratie:

stratul 1: 9 neuroni !i funcia de activare tan-sigmoid"
stratul #: 1/ neuroni !i funcia de activare tan-sigmoid"
stratul $: 1 neuron !i funcia de activare liniar"
/9
Pentru reteaua considerata, cu numarul de neuroni pe straturi modificat, vom pastra
acelasi lot de date, ce are pentru care sistemul se reprezinta prin figura /.


:ig1.;ectorul de intrare si vectorul de iesire intre punctele statice de functionare&-/./'
4upa o instruire a acestei retele pe un numar mic de epoci, si anume #00, am
obtinut urmatoarea caracteristica a sumei patratice a erorii.
:ig <. ,uma patratic a erorii
/=
4esi numarul de epoci este mic, reteaua incepe a)ustarea ponderilor si doar dupa
100 de epoci de invatare, timp in care suma patratica a eroarii cunoaste variatii mari,
eroarea incepe sa aiba o caracteristica liniara descrescatoare.
:ig.<a- -odelul &dupa #00 epoci de instruire'
:ig. <b-?eziduul &dupa #00 epoci de instruire'
/@
;om reinstrui in continuare reteaua pe un interval de /0 000 de epoci , ca si in
cazul anterior, pentru a observa daca noua structura de retea cu un numar mai mare de
neuroni pe strat reuseste sa realizeze o a)ustare a ponderilor astfel incat suma patratica
a erorii sa se apropie de pragul impus, intr-un interval mai mic de timp.
:ig.9 ,uma patratica a erorii dupa /0000 de epoci de instruire
4upa o prima re-instruire, eroarea isi pastreaza dinamica descrescatoare cunoscand
o ameliorare puternica, dar spre sfarsitul intervalului de instruire cunoaste o oscilatie a
dinamicii.
:ig.9a -odelul
<0
4upa doar o prima etapa de reinstruire, reteaua neuronala nu poate sa a)usteze
ponderile astfel incat sa se anuleze eroarea, deci modelul nu urmeaza caracteristica
procesului.
:ig.9b ?eziduul
Asadar, vom continua cu un nou set de pasi de instruire, deoarece eroarea nu se
afla aproape de pragul impus. In figurile de mai )os putem observa evolutia erorii pe
parcursul a trei etape de reinstruire.
:ig.= ,uma patratic a erorii dupa a doua etap de instruire
<1


:ig.@ ,uma patratic a erorii dup a treia instruire
Putem observa ca desi reteaua se instruieste, aceasta o face intr-un mod in care
caracteristica are o traiectorie puternic oscilanta. Acest lucru ne face sa oprim
instruirea si sa incercm o a)ustare a ratei de invatare.

:ig. 10 -odelul dupa a trei reinstruire

<#
:ig.11 ?eziduul
Asadar, reteaua aleasa, cu un numar mai mare de neuroni pe straturi, reuseste o
a)ustare a ponderilor intr-un timp mult mai scurt, ceea ce conduce la o suma patratica a
eroarii mica intre iesirile modelului neuronal si iasirea procesului.
4upa trei etape de reinstruire, putem observa faptul ca modelul neuronal tinde
sa aiba aceeasi caracteristica, cu a procesului, insa suma patratica a erorii cunoaste o
perturbare puternica.
4esi eroarea scade de la /<$@.07 la 1.10@9 in doar trei etape de reinstruire, din
cauza dinamicii eplozive suntem nevoiti sa oprim instruirea si sa incercam
micsorarea ratei de invatare a neuronilor.
.

:ig.1# >volutia sumei patratice a erorii dupa micsorarea ratei de instruire
<$
4upa cum se poate vedea in figurile 11, respective 10, daca reteaua nu este
instruita suficient, reglarea nu se realizeaza cu succes. 4e precizat si faptul ca, desi
figurile modelului si a reziduului par a putea fi validate, la o privire mai atenta se
observa ca aceast reprezentre grosier nu este potrivit pentru a trage niste concluzii
referitoare la gradul de instruire al retelei si la faptul dac modelul poate fi validat sau
nu. Pentru observarea corect a evolutiei parametrilor, vom realiza un AzoomB pe o
anumita poriune din grafic, pentru a putea spune cu eactitate gradul de instruire al
reelei. Pentru aceasta va trebui mai intai s instruim reeaua cu noii parametri
modificai, !i anume, pasul e afi!are la /000 si rata de invaare mic!orata la 0.0001.

:ig1$. >volutia sumei patratice a erorii dupa micsorarea ratei de instruire
3data cu micsorarea ratei de instruire, caracteristica sumei patratice a erorii cunoaste o
caracteristica liniara descrescatoare.
<7
Asadar cu cat ne apropiem de pragul impus sumei patratice a erorii, cu atat iesirea
dorita aproimeaza iesirea procesului, urmand ca in final, cand pragul este atins ca
cele doua sa coincida.
Instruind reteaua si mai mult si aducand suma patratica a erorii in )urul valorii
de 0.00$, putem observa ca modelul neuronal aproimeza destul de bine procesul.
:ig1/. ?eziduul modelului la valoarea de 0.00$$ a erorii

:ig 1<. ;alidare model pentru valoarea de 0.00$$$7 a sumei patratice a erorii
</
0 20 40 60 80 100 120 140
-6
-4
-2
0
2
4
6

S-ar putea să vă placă și