Sunteți pe pagina 1din 2

1.

Teorie
1.Tehnicideidentificarerecursiva,metodedegradientsiCMMP.
2.ProiectareacomenziiRSTcuobiectiveindependenteinurmariresi
reglare.
3.Calcululmetodelordeconducerecazulmonovariabil(liniarsineliniar)
1.Tehnicideidentificarerecursiva.MedotedegradientsiCMMP.
2.ComandaRSTrobusta(aicivoiasirobustetestabilitate,robusteteneliniaritatesi
robusteteperformanta)
Calcululmetodelordeconducerecazulmultivariabil
1.Metodedeidentificarerecursive.gradient+CMMP
2.RSTcucom.indep.
3.Modelemonovariabile
1.Tehnicideidentificarerecursiva,algoritmuldeadaptare
parametrica,metodedegradient,CMMP.
2.ComandaRSTadaptiva.
3.Calcululmodelelordeconducerelanivelsupervizor:cazul
multivariabillinear,nelinear
4.PIDversiuneaRST.limitarialePID.
5.Conexiunirobustetestabilitate,robusteteneliniaritatesirobusteteperformante.
6.Metodedegradientpentruproblemadeoptimizariiparametrice.Algoritmulgeneralsicalculul
directieidedeplasare
4.ComandaRSTcuobiectiveindependenteinurmariresireglare.
5.Modeledeconducereidentificareexperimentala(clasamodelelormonosimultivariabile)
4.TehnicideidentificaredetipgradientsiCMMP
5.ComandaRSTcuobiectiveindependenteinreglaresiurmarire
6.Alg.generalptoptimizareaparametrilorprinmetoderecursive.Converegentaalgoritmului.
Aplicatie:organigramapentruproblemaCauchy(metgradientdeordin1)

2.Exercitii

4.Seda:F(y)=y1^2+y2^22*y110*y2+10
initialy1=0,y2=0
alfa=0.2(constant)
Secer:primiidoipasidinalgCauchy
solutiaoptimaladeconducere
4.f(y)=y1^2+y2^22*y110*y2+10.alfaconstant=0.2siinitializarea0.
Secere:
primiidoipasidinalgoritmulCauchy
solutiaoptimaladeconducere
4.Calculatiprimiidoipasidecautaredupaalgoritmulde
optimizareparametricadetipgradientCauchy.Secunosc:functia
criteriuF(y)=y1^2+y2^24*y120*y2+100.Punctulde
starty1^0=0.0,y2^0=0.0silungimeapasuluideavansconstanta
alfa=0.2.Careestedeciziaoptimadeconducere(solutiade
optimizare)?

6.SeconsiderafunctiaI(y)=y1^2+y2^2+y16*y2+100.
Sasecalculezeprimii3pasicualgoritmulCauchycuinitializarea
y10=0,y20=0,alfa=0,1constant.

S-ar putea să vă placă și