Sunteți pe pagina 1din 241

See discussions, stats, and author profiles for this publication at: https://www.researchgate.

net/publication/280924099

Modelare- Simulare. Noţiuni teoretice şi aplicaţii,

Book · January 2014

CITATIONS READS

0 34

2 authors:

Trandafir Romica Iuliana Iatan


Technical University of Civil Engineering of Bucharest Technical University of Civil Engineering of Bucharest
58 PUBLICATIONS   25 CITATIONS    61 PUBLICATIONS   89 CITATIONS   

SEE PROFILE SEE PROFILE

Some of the authors of this publication are also working on these related projects:

Danube FloodRisk View project

All content following this page was uploaded by Trandafir Romica on 14 August 2020.

The user has requested enhancement of the downloaded file.


MODELARE SIMULARE

CUPRINS

Partea I. Modelare şi Simulare ................................................................................................. 7


1. Noţiuni de bază .................................................................................................................. 7
1.1. Exemple simple de modele matematice ................................................................ 10
1.1.1. Problema de transport ........................................................................................... 10
1.1.2. Evoluţia timpilor la proba olimpică de 200m ....................................................... 11
1.2. Validarea modelului ............................................................................................... 15
2. Calculul probabilităţilor (scurtă trecere în revistă) ........................................................... 17
2.1. Noţiuni de bază ............................................................................................................ 17
2.2. Variabile aleatoare ................................................................................................. 20
2.3. Funcţia de repartiţie ............................................................................................... 21
2.4. Densitatea de repartiţie .......................................................................................... 23
2.5. Valoarea medie ....................................................................................................... 25
2.6. Dispersia. Abaterea medie patratică .................................................................... 27
3. Câteva exemple de repartiţii utilizate în inginerie ............................................................. 29
3.1. Repartiţii discrete ........................................................................................................ 29
3.1.1. Variabila aleatoare uniformă discretă............................................................... 29
3.1.2. Repartiţia binomială ............................................................................................. 29
3.1.3. Repartiţia geometrică ........................................................................................... 29
3.1.4. Repartiţia Poisson ................................................................................................. 30
3.2. Repartiţii continue.................................................................................................. 30
3.2.1. Variabila aleatoare uniformă .................................................................................. 30
3.2.2. Repartiţia normală ................................................................................................ 32
3.2.3. Repartiţia lognormală ........................................................................................... 33
3.2.4. Repartiţia exponenţială de parametru  .............................................................. 33
3.2.5. Repartiţia gamma ................................................................................................. 33
3.2.6. Repartiţia beta ...................................................................................................... 34
3.2.7. Repartiţia  2 ........................................................................................................ 34
3.2.8. Repartiţia Student ................................................................................................. 35
3.2.9. Repartiţia Fisher-Snedecor ................................................................................... 35
3.2.10. Repartiţii de tip Gumbel (pentru valori extreme) ............................................. 36

1
MODELARE SIMULARE

4. Statistică descriptivă ........................................................................................................ 37


4.1. Vocabular ................................................................................................................ 37
4.2. Reprezentarea datelor ............................................................................................ 38
4.2.1. Tabele ................................................................................................................... 38
4.2.2. Reprezentarea grafică a repartiţiilor de frecvenţe ................................................ 39
5. Elemente de teoria estimaţiei .......................................................................................... 41
5.1. Estimatori ................................................................................................................ 41
5.2. Metoda verosimilității maxime ............................................................................. 42
5.2.1. Estimatorul verosimilității maxime ........................................................................ 42
5.2.2. Estimator de verosimilitate maximă pentru parametrul repartiţiei Poisson ........... 43
5.2.3. Estimator de verosimilitate maximă pentru parametrul repartiţiei exponenţiale ... 44
5.2.4. Estimator de verosimilitate maximă pentru parametrii repartiţiei normale, N ,  
.......................................................................................................................................... 45
6. Verificarea ipotezelor statistice ....................................................................................... 47
6.1. Ipoteze statistice ...................................................................................................... 47
6.2. Etapele verificării ipotezelor statistice ................................................................. 48
7. Prelucrarea datelor experimentale ..................................................................................... 49
7.1. Identificarea valorilor afectate de erori aberante şi eliminarea lor ....................... 49
7.1.1. Testul Chauvenet .................................................................................................... 49
7.1.2. Testul Young .......................................................................................................... 50
7.2. Verificarea normalităţii unei mulţimi de date ..................................................... 51
7.2.1. Metode simple ...................................................................................................... 51
7.2.2. Testul Massey ....................................................................................................... 52
7.3. Concordanţa dintre o distribuţie empirică şi una teoretică .................................... 52
7.3.1.Testul de concordanţă  2 (hi pătrat datorat lui K. Pearson)................................... 53
7.3.2. Testul Kolmogorov ................................................................................................ 57
7.4. Procedee de obţinere de numere uniforme ............................................................... 58
7.4.1. Câteva exemple de generatoare de numere aleatoare ............................................. 59
7.4.1.1. Metoda mijlocului pătratului (middle square method) .................................... 59
7.4.1.2. Metode congruenţiale liniare ........................................................................... 59
7.4.1.3. Metoda de amestecare a lui Marsaglia ............................................................ 60
7.5. Generări de variabile aleatoare neuniforme ........................................................ 60
7.5.1. Metode generale ................................................................................................... 62
7.5.1.1. Metoda inversă ................................................................................................ 62
7.5.1.2. Generarea variabilelor aleatoare de tip Gumbel cu metoda inversă ................ 63
7.5.1.3. Metoda amestecării (Mixture method) ............................................................ 64
7.5.1.4. Generarea variabilelor aleatoare Pearson de tip XI ......................................... 65
7.5.2. Metoda respingerii................................................................................................ 66
7.5.2.1. Sistem de respingere........................................................................................ 66
7.5.3. Generarea variabilei aleatoare normală N(m, ) ................................................ 67
7.5.4. Generarea variabilei aleatoare normală prin metoda polară ................................. 68

2
MODELARE SIMULARE
7.5.5. Generarea unor variabile aleatoare înrudite cu variabila aleatoare normală ........ 70
7.5.5.1. Generarea variabilei aleatoare  2 ................................................................... 70
7.5.5.2. Generarea variabilei aleatoare t (de tip Student) ............................................ 70
7.5.5.3. Generarea variabilei aleatoare F 1 2 (Snedecor-Fisher) cu  1 , 2 grade de
libertate ......................................................................................................................... 71
7.5.5.4. Generare variabilei aleatoare lognormală........................................................ 71
7.6. Generarea unor variabile aleatoare discrete ....................................................... 72
7.6.1. Variabila geometrică ............................................................................................ 72
7.6.2. Generarea variabilei aleatoare Poisson................................................................. 72
8. Ajustarea datelor ............................................................................................................. 73
8.1. Dreapta de regresie – punerea problemei ................................................................. 73
8.2. Funcţia de regresie ...................................................................................................... 74
8.3. Prezentare generală a pachetului de programe CurveExpert ................................ 76
9. Metoda Monte Carlo ....................................................................................................... 79
9.1. Proces stochastic (aleator) .......................................................................................... 79
9.2. Formularea problemei ................................................................................................ 81
9.3. Tipuri de probleme ce se pot rezolva cu metoda Monte Carlo ............................... 82
9.3.1. Calculul integralelor ............................................................................................... 82
9.3.2. Metoda Monte Carlo brută ..................................................................................... 82
10. Simularea numerică a fiabilităţii unui sistem ............................................................ 88
10.1. Estimarea fiabilităţii utilizând media timpului rămas de funcţionare ................. 90
10.1.1. Algoritm pentru simularea numerică a fiabilităţii unui sistem ............................. 92
10.1.2. Simularea fiabilităţii unui sistem serie ................................................................. 93
10.1.2.1. Cazul când toate componentele au aceeaşi probabilitate de funcţionare ...... 93
10.1.2.2. Cazul când fiecare componentă are propria probabilitate de funcţionare ..... 93
10.1.3. Simularea fiabilităţii unui sistem paralel .............................................................. 94
11. Reţele Petri ......................................................................................................................... 96
11.1. Generalităţi ................................................................................................................ 96
11.1.1. Reguli de evoluţie................................................................................................. 97
11.1.2. Tipuri de reţele Petri ............................................................................................. 97
11.2. Modelarea cu ajutorul reţelelor Petri .................................................................... 100
11.3. Prezentare generală VisualSimNet ........................................................................ 102
12. Serii de timp ............................................................................................................... 104
12.1. Noţiuni introductive. Definiţii ............................................................................. 104
12.2. Filtre liniare .......................................................................................................... 104
12.3. Analiza vizuală a seriilor de timp ....................................................................... 105
12.4. Metodologia de modelare Box-Jenkins .............................................................. 107
12.4.1. Modele liniare staţionare .................................................................................... 108
12.4.2. Funcţia de generare a autocovarianţei unui proces liniar ............................... 109
12.4.3. Staţionaritatea şi inversabilitatea unui proces liniar ........................................... 110

3
MODELARE SIMULARE
12.5. Procese autoregresive AR(p) ............................................................................... 110
12.5.1. Condiţia de staţionaritate .................................................................................... 111
12.5.2. Funcţia de autocorelaţie ..................................................................................... 111
12.5.3. Ecuaţiile Yule-Walker ........................................................................................ 112
12.5.4. Funcţia de autocorelaţie parţială ........................................................................ 112
12.5.5. Estimarea funcţiei de autocorelaţie .................................................................... 113
12.5.6. Cazuri particulare ............................................................................................... 113
12.6. Procese de medie alunecătoare MA(q) ............................................................... 114
12.6.1. Condiţia de staţionaritate .................................................................................... 114
12.6.2. Funcţia de autocorelaţie ..................................................................................... 115
12.6.3. Cazuri particulare ............................................................................................... 115
12.7. Procese autoregresive şi de medie alunecatoare ARMA(p,q) .......................... 116
12.7.1. Staţionaritate şi inversabilitate ....................................................................... 116
12.7.2. Funcţiile de autocorelaţie şi autocorelaţie partială ......................................... 117
12.7.3. Caz particular ARMA(1,1) ............................................................................. 117
12.8. Proprietăţile proceselor AR(p), MA(q), ARMA(p,q)........................................ 118
12.9. Procese autoregresive integrate şi de medie alunecătoare ARIMA(p,d,q) ..... 118
13. Predicţia seriilor de timp folosind reţele neurale și sisteme fuzzy ........................... 120
13.1. Modele de regresie statistică ................................................................................... 120
13.1.1. Noţiuni de bază în modelarea fuzzy ................................................................... 120
13.1.2. Model de regresie liniară multiplă ..................................................................... 133
13.2. Regresie folosind reţele neurale ............................................................................. 134
13.2.1. Modelul neural clasic de regresie neliniară ........................................................ 134
13.2.2. Modelul neural propus pentru regresie neliniară ................................................ 136
13.2.2.1. Ecuaţiile de bază ale FGNN ........................................................................ 139
13.2.2.2. Algoritmul de iniţializare on- line ............................................................... 140
13.2.2.3. Algoritmul de instruire ................................................................................ 141
13.2.3. Evaluare experimentală ...................................................................................... 143
Partea a II-a. Aplicaţii de laborator ..................................................................................... 146
L1. Lecţia de laborarator 1. Introducere în Matlab ............................................................. 146
L1.1. Aplicaţii în calcule matematice fundamentale ..................................................... 146
L1.2. Calcul numeric în Matlab cu aplicaţii în Algebră ............................................... 148
L1.3. Rezolvarea în Matlab a ecuaţiilor şi sistemelor de ecuaţii diferenţiale ............. 150
L1.4. Noţiunea de fişier în Matlab .................................................................................. 150
L1.5. Grafică în Matlab ................................................................................................... 151
L2. Lecţia de laborarator 2. Aplicaţii ale testelor Chauvenet şi Young ............................. 156
L2.1. Testul Chauvenet .................................................................................................... 156
L2.2. Testul lui Young ...................................................................................................... 161

4
MODELARE SIMULARE

L3. Lecţia de Laborarator 3. Aplicaţii ale testelor Massey şi  ...................................... 164


2

L3.1. Testul Massey .......................................................................................................... 164

L3.2.Testul  .................................................................................................................. 168


2

L3.3. Testul lui Kolmogorov ............................................................................................ 172


L4. Lecţia de laborarator 4. Crearea de algoritmi proprii pentru generarea variabilelor
aleatoare discrete ................................................................................................................... 176
L4.1. Metoda inversa de simulare a unei variabile aleatoare discrete ........................ 176
L4.2. Simularea unei variabile discrete cu repartiție Bernoulli ................................... 178
L4.3. Simularea unei variabile discrete cu repartiţie binomială .................................. 179
L4.4. Simularea unei variabile discrete cu repartiţie Poisson ...................................... 181
L4.5. Simularea unei variabile discrete cu repartiţie geometrică ................................ 182
L4.6. Simularea unei variabile discrete cu repartiţie hipergeometrică ....................... 184
L5. Lecţia de laborarator 5. Crearea de algoritmi proprii pentru generarea variabilelor
aleatoare continue ................................................................................................................. 186
L5.1. Simularea variabilei aleatoare normală ............................................................... 186

L5.2. Simularea variabilei aleatoare  2 ....................................................................... 187


L5.3. Simularea unei variabile aleatoare Student ......................................................... 188
L5.4. Simularea unei variabile aleatoare Snedecor ....................................................... 189
L5.5. Simularea unei variabile log-normale................................................................... 190
L5.6. Simularea unei variabile cu repartiţie exponenţială ........................................... 190
L5.7. Simularea variabilei aleatoare de tip Weibull ..................................................... 191
L5.8. Simularea variabilei aleatoare gamma ................................................................. 192
L6. Lecţia de laborarator 6. Validarea generatorilor ........................................................... 194
L6.1. Validarea algoritmului pentru simularea unei variabile aleatoare cu repartiţie
normală ............................................................................................................................. 197
L6.2. Validarea algoritmului pentru simularea unei variabile aleatoare cu repartiţie
exponenţială ...................................................................................................................... 200
L6.3. Validarea algoritmului pentru simularea variabilei aleatoare geometrice ....... 202
L7. Lecţia de laborator 7. Ajustarea matematică a datelor experimentale ......................... 204
L8. Lecţia de laborator 8. Elemente de fiabilitate .................................................................218
L9. Lecţia de laborator 9. Serii de timp ................................................................................ 224
L10. Lecţia de laborator 10. Modelarea cu ajutorul reţelelor Petri .................................... 230

5
MODELARE SIMULARE

Partea a III-a. Evaluarea cunoştinţelor la disciplina Modelare Simulare ......................... 234


1. Întrebări ........................................................................................................................ 234
2. Probleme propuse ......................................................................................................... 236
Bibliografie ............................................................................................................................ 238

6
MODELARE SIMULARE

PARTEA I. MODELARE ŞI SIMULARE

1. NOŢIUNI DE BAZĂ

Definiţia 1.1. Un sistem este un ansamblu organizat de componente (subsisteme)


interdependente, capabil să răspundă, sub acţiunea a diverşi stimuli, unui anumit scop, cu
anumite performanţe.
Definiţia 1.2. Sistemul de producţie reprezintă ansamblul se posturi de lucru, maşini –
unelte, operatori umani, personal de întreţinere.
Definiţia 1.3. Proces de producţie desemnează totalitatea fenomenelor (deplasări,
transformări, asamblări, activităţi umane etc) ce au loc în sistemul de producţie în scopul
obţinerii produselor finite.
Clasificarea sistemelor
- deschise/închise
- liniare/neliniare
- mari/complexe
- deteministe/nedeterministe (stochastice, fuzzy)
- discrete/continue
- hibride
- instruibile.
Definiţia 1.4. Un model este reprezentarea simplificată a unui sistem real. Prin
modelare, fenomenului natural complex i se reproduce comportarea esenţială cu mai puţine
variabile şi care sunt legate între ele mai simplu.
Un model este o abstracţie şi o simplificare a unei probleme reale, încorporând ideal
elementele esenţiale şi relaţiile din problema reală. Rezolvarea unui model înseamnă
obţinerea concluziilor logice care rezultă, concluzii ce constituie un ghid efectiv în luarea
deciziei dacă modelul este proiectat şi rezolvat corect.
Tipuri de modele
- fizice
- matematice (reprezintă obiectul de studiu al acestei lucrări)
- procedurale.

7
MODELARE SIMULARE
În continure, prin simulare desemnăm o tehnică de realizare a experimentelor cu
calculatorul, care implică utilizarea unor modele matematice şi logice şi care descriu
comportarea unui sistem real (sau a unor componente ale acestuia) pe o perioadă de timp.
Etapele realizării unui model de simulare
- stabilirea obiectivelor (definirea problemei);
- colecţionarea şi analiza primară a datelor;
- formularea modelului de simulare;
- estimarea variabilelor de intrare;
- estimarea caracteristicilor operative;
- descrierea algoritmului şi scrierea programului;
- validarea modelului;
- planificarea experimentelor;
- simularea;
- analiza rezultatelor.
Stabilirea obiectivelor
- criterii-tehnico-economice
- experienţă
- încredere client
- oportunitate
- volum de muncă
- profit
- stabilitate soluţii
Formularea problemei
Un manager vrea să aleagă acel curs al activităţii sale, care va fi cel mai performant în
atingerea scopului firmei sale.
În judecarea eficienţei diferitelor decizii posibile, trebuie să se folosească anumite
criterii pentru măsurarea performanţei activităţii în discuţie.
Este indicat să se urmărească etapele:
1. stabilirea criteriului de eficienţă,
2. selectarea unei mulţími de direcţii posibile de urmat,
3. determinarea unui model care să fie folosit şi a valorilor parametrilor
procesului,
4. determinarea alternativei care optimizează criteriul de la punctul 1.

8
MODELARE SIMULARE
Problemele lumii reale tind să fie deosebit de complexe. În orice situaţíe empirică există
nenumăraţi factori inerenţi. Orice curs potenţial al acţiunii iniţiază un lanţ de cauză.
Mintea umană nu poate considera toate aspectele empirice ale problemei. Anumite
atribute ale problemei trebuie ignorate ca să se poată lua o decizie. Decidentul trebuie să
identifice factorii cei mai relevanţi pentru problemă.
Abstractizarea şi simplificarea sunt factori necesari în rezolvarea oricarei probleme
umane.
Stabilirea obiectivelor
- obiectivul trebuie să fie realizat
- să se conştientizeze caracterul probabilistic
Construirea modelului
După selectarea factorilor relevanţi de către decidenţi, aceştia sunt combinaţi în mod
logic, astfel încât să formeze un model al problemei actuale.
Modelul, fiind o reprezentare simplificată a unei situaţii empirice, reduce complexitatea
şi păstrează comportarea esenţială a fenomenului natural, având un numar redus de factori,
care sunt legaţi între ei prin relaţii simplificate.
Avantajele unui model simplu:
- economie de timp şi idei,
- poate fi înţeles mai uşor şi repede de către decident.
Obiectivul decidentului nu este să construiască un model cât mai apropiat posibil de
realitate, deoarece un astfel de model ar lua mult timp pentru concepere.
După ce modelul a fost construit se pot obţine concluziile prin intermediul acţiunilor
logice. Decidentul îşi bazează acţiunile sau deciziile pe aceste concluzii.
Concepte de bază în modelare
Primul pas în construirea unui model este stabilirea factorilor şi variabilelor pe care
decidentul le consideră importante. Aceștia sunt: variabile de decizie, variabile exogene,
restricţii, măsuri ale performanţei, variabile intermediare.
Definiţia 1.5. Variabile de decizie sunt acele variabile pe care le controleză decidentul
și reprezintă alegerile alternative pentru decident.
Definiţia 1.6. Variabile exogene sunt importante în problema de decizie, dar sunt
controlate de factori externi sferei decidentului.
Definiţia 1.7. Resticţiile sunt legate de capacitatea de producţie, resurse, limitări
legislative, politica firmei, etc.

9
MODELARE SIMULARE
Definiţia 1.8. Măsuri ale performanţei reprezintă expresii cantitative ale obiectivului,
scopul ce trebuie atins în acea activitate.
Definiţia 1.9. Variabile intermediare sunt necesare pentru includerea tuturor factorilor
importanţi în problema de decizie:
 leagă factorii de cost şi de câştig,
 leagă variabilele de decizie şi exogene de măsuri ale performanţei.

Exemple simple de modele matematice

1.1.1. Problema de transport

Se consideră că există n depozite, Di, cu capacităţi ai , 1  i  n şi m centre de consum,

Cj, cu necesităţi b j , 1  j  m . Fie ci j costul unitar de transport de la depozitul Di la centrul

de consum C j .

Să se determine un plan de transport pentru un produs omogen astfel încât cheltuielile


totale de transport să fie minime şi să fie satisfăcute toate cererile.
Modelarea problemei
Notăm cu: xi j - cantitatea transportată de la depozitul Di la centrul de consum C j ;

n m
Ipoteză simplificatoare a
i 1
i  
j 1
b j = relaţie de echilibru, adică

 
disponibilul = necesarul, sau
oferta = cererea

10
MODELARE SIMULARE
Funcţia obiectiv este dată de cheltuielile totale de transport, anume
n m
f x    xij cij
i 1 j 1

Restricţiile problemei
m

j 1
xij  ai , 1  i  n , cantitatea care pleacă de la depozitul Di nu poate depăşi capacitatea

depozitului,
n


i 1
xij  b j , 1  j  m , cantitatea transportată la centrul de consum Cj nu poate depăşi

necesarul acestui centru,


xij  0 , 1  i  n;1  j  m, cantitatea transportată de la un depozit la un centru de

consum este nenegativă.


S-a obţinut următorul model matematic
 n m

 min   cij xij functia obiectiv


m i 1 j 1


 xij  ai 1  i  n
 j 1
n
 xij  b j 1  j  m
 i 1
 xij  0 1  i  n; 1  j  m conditia de nenegativi tate

Acesta este un model liniar, determinist.

1.1.2. Evoluţia timpilor la proba olimpică de 200m

Prin acest exemplu se încearcă să se justifice etapa de verificare/validare a modelului


obţinut.
La proba olimpică de atletism de 200m atât la bărbaţi cât şi la femei, timpii înregistraţi au
fost mai buni de la o ediţie la alta. Se pune problema
- dacă există o limită sub care nu se poate coborî?
- dacă timpii înregistraţi la femei vor fi mereu inferiori celor înregistraţi la băieţi?
Timpii la proba de 200m bărbaţi începand cu 1900, iar pentru femei începând cu1948 sunt
daţi în tabelele de mai jos [10].

11
MODELARE SIMULARE
Medaliaţii cu aur la 200m bărbaţi
Anul Nume Tara Timpul în secunde
1900 W. Tewksbury USA 22.2
1904 A. Hahn USA 21.6
1908 R. Kerr Canada 22.6
1912 R.Craig USA 21.7
1920 A. Woodring USA 22.0
1924 J. Scolz USA 21.6
1928 P. Wiliams Canada 21.8
1932 E. Tolan USA 21.2
1936 J. Owens USA 20.7
1948 M. Patten USA 21.1
1952 A. Stansfield USA 20.7
1956 R. Marrow USA 20.6
1960 L. Berruti Italia 20.5
1964 H. Carr USA 20.3
1968 T. Smith USA 19,83
1972 V. Borsov URSS 20.00
1976 D. Quarrie Jamaica 20.23
1980 P. Mennea Italia 20.19
1984 C. Lewis USA 19.80
1988 J. DeLoch USA 19.75
1992 M. Marsh USA 20.01
1996 M. Johnson USA 19.32
2000 K. Kenteris Grecia 20.08
Medaliatele cu aur la 200m femei

Anul Nume Tara Timpul în secunde


1948 F. Blankers-Koen Olanda 24.4
1952 M. Jackson Australia 23.7
1956 B. Cuthbert Australia 23.4
1960 W. Rudolph USA 24.0
1964 E. McGuire USA 23.0
1968 I. Szewinska Polonia 22.5
1972 R. Stecher Germania de Est 22.5
1976 B. Eckert Germania de Est 22.37
1980 B. Wockel Germania de Est 22.03
1984 V. Brisco-Hooks USA 21.81
1988 F. Griffith-Joiner USA 21.34
1992 G. Torrence USA 21.81
1996 M-J. Perec Franta 21.12
2000 M. Jones Italia 20.48

12
MODELARE SIMULARE
În figurile de mai jos sunt reprezentate modele ale comportării evoluţiei timpilor de
parcurgere a distanţei de 200 m atât pentru femei cât și pentru barbaţi.

Timpii castigatorilor Olimpiadei la proba 200m


(model liniar)
30.00

25.00

20.00
timpii in sec

Timpii olimpici la 200m barbati


15.00

Timpii olimpici la 200m femei

10.00 Linear (Timpii olimpici la 200m


barbati)

Linear (Timpii olimpici la 200m


femei)
5.00

0.00

00 908 920 928 936 952 960 968 976 984 992 000 008 016 024 032 040 048 056 064 072
19 1 1 1 1 1 1 1 1 1 1 2 2 2 2 2 2 2 2 2 2
anul

Timpii olimpici la 200m


(model logaritmic)

40.00
35.00
timpii in sec

30.00
25.00 Timpii pentru barbati
20.00
15.00 Timpii pentru femei
10.00
5.00 Log. (Timpii pentru
0.00 femei)
00 20 36 60 76 92 08 24 40 56 72 Log. (Timpii pentru
19 19 19 19 19 19 20 20 20 20 20 barbati)
anul

13
MODELARE SIMULARE

Timpii olimpici la 200m


(model polinomial de grad 4)

40.00

20.00

0.00
00

08

20

28

36

52

60

68

76

84

92

00

08

16

24

32

40

48

56

64

72
19

19

19

19

19

19

19

19

19

19

19

20

20

20

20

20

20

20

20

20

20
-20.00

-40.00
timpii in sec

Timpii pentru barbati


Timpii pentru femei
-60.00
Poly. (Timpii pentru femei)
Poly. (Timpii pentru barbati)
-80.00

-100.00

-120.00

-140.00

-160.00
anul

Datele acestea constituie ceea ce se numeşte o serie de timp. Începând din 1968
măsurătorile s-au putut face la sutime de secundă. Dacă 200m sunt alergaţi în 20 secunde,
viteza atletului este de 10m/s şi atunci în 0.01 secunde se parcurg 10 cm. La fotografie se
poate vedea diferenţa la sosire. Nu este realist să credem că ar putea să fie observată distanţa
parcursă într-o miime de secundă.
Răspunsul la cele două întrebări se poate da făcând predicţie asupra tendinţei datelor.
Dacă folosim Excel şi aproximăm cu o dreapă datele observăm ca dreptele se intersectează şi
după aceea timpii fetelor ar fi mai mici decât cei ai bărbaţilor. Modelul linear nu este însă
acceptabil pe o perioadă mai mare de timp deoarece după un număr de ani, distanţa ar fi
parcursă în 0 secunde! Atunci se caută alte modele care să reprezinte mai bine comportarea
acestui fenomen.
Colecţionarea şi analiza primară a datelor
- familiarizarea executantului cu sistemul ce urmează a fi modelat,
- identificarea variabilelor de stare şi a parametrilor relevanţi,
- identificarea factorilor perturbatori, a criteriilor de periodicitate,
- a nu se neglija informaţiile obţinute pe parcursul stabilirii obiectivului.
Formularea modelului de simulare
SISTEM
Variabile (parametri, Variabile
de intrare dependenţă) de ieşire

14
MODELARE SIMULARE
Estimarea variabilelor de intrare
- achiziţia datelor,
- prelucrarea statistică primară,
- determinarea modurilor de variaţie în timp.
Estimarea caracteristicilor operative
- determinarea expresiilor matematice, relaţiilor procedurale între variabilele de
intrare, parametrii şi variabilele de ieşire,
- expresia matematică se determină, în general, prin analiza de regresie.

Validarea modelului

A nu se confunda cu corectitudinea, cu care transpunerea software descrie modelul


original!
Validare prin simularea - unor situaţii anterioare
- unor situaţii cu consecinţe previzibile.
Planificarea experimentelor
 Necesitate rezultată din caracterul probabilistic al modelului
 Urmăreşte determinarea indicatorilor statistici principali ai rezultatelor simulării.
Modalităţi de realizare a programului de simulare
- într-un mediu (limbaj) de programare,
- prin transpunere în modele abstracte şi utilizarea de software specializat,
- cu utilizarea de software de simulare dedicat.
Simularea
În funcţie de scop poate fi:
 Simulare pentru obţinere date;
 Simulare pentru prezentare concluzii.
Analiza rezultatelor
 Prelucrări statistice ale rezultatelor simulării
 Analiza de credibilitate (bun simţ, asa cum se vede și din exemplu cu timpii
olimpici la proba de 200m)
 Estimare consecinţe (economice, sociale etc.)

15
MODELARE SIMULARE
Activităţi ulterioare
 Stabilirea procedurilor de actualizare a modelului
 Verificarea concordanţei cu realitatea
 Diseminarea rezultatelor

16
MODELARE SIMULARE

2. CALCULUL PROBABILITĂŢILOR (SCURTĂ TRECERE ÎN REVISTĂ)

2.1. Noţiuni de bază

Definiţia 2.1. Prin experienţă în teoria probabilităţilor se înţelege orice, act care poate fi
repetat în condiţii date. Nu se poate preciza rezultatul exact al unei experienţe! Vom considera
în cele ce urmează doar experienţe, care au un număr finit de rezultate.
Definiţia 2.2. Toate situaţiile legate de experienţa şi despre care putem spune cu
certitudine că s-au produs sau nu, după efectuarea experienţei poartă numele de evenimente.
Definiţia 2.3. Evenimentul sigur este un eveniment care se realizează cu certitudine la
fiecare efectuare a experienţei. Îl notăm cu  .
Definiţia 2.4. Evenimentul imposibil, notat cu  , nu se produce la nici o efectuare a
experienţei.
Definiţia 2.5. Întotdeauna unui eveniment A îi corespunde un eveniment contrar, CA=B,
a cărui producere înseamnă prin definiţie nerealizarea primului.
Exemplul 2.6. Evenimentul sigur şi evenimentul imposibil sunt contrare.
Definiţia 2.7. Evenimentele A şi B sunt compatibile dacă se pot produce simultan, adică
există rezultate care favorizează atât pe A cât şi pe B.
Definiţia 2.8. Evenimentele A şi B se numesc incompatibile dacă nu se pot produce
simultan, adică nu există rezultate care favorizează atât pe A cât şi pe B.
Definiţia 2.9. Fiind date două evenimente A şi B, numim reuniunea lor A  B ,
evenimentul a cărui producere constă în producerea a cel puţin unul din cele două evenimente
A şi B.
Definiţia 2.10. Intersecţia a două evenimente A şi B constă în producerea simultană a
evenimentelor A şi B.
Spaţiul de selecţie al unei experienţe este o mulţime de elemente astfel încât orice
eveniment rezultat în urma unei experienţe corespunde unui singur element al acestei mulţimi.
Definiţia 2.11. Câmpul de evenimente este format din părţi ale unei mulţimi date  .
Definiţia 2.12. Fie  mulţime dată şi K o familie de părţi ale lui  . K se numeşte
câmp complet aditiv dacă sunt verificate axiomele:
1. X  K , CX  K

2. X   K , dacă X   K,   I , I cel mult numărabilă (I o submulţime a lui N)


 I

Observaţia 2.13.  ,   K dacă familia K este câmp complet aditiv.

17
MODELARE SIMULARE
Definiţia 2.14. Definiţia probabilităţii în axiomatica lui A.N. Kolmogorov (devenită
clasică). Fie funcţia de mulţime P : K  R , cu proprietăţile:
i) X  K  P(X)  0
ii) I mulţime de indici cel mult numărabilă, X   K , pentru    I şi

X   X    ,  ,   I ,     P  X     P X  
 I  I
iii) P  1 .
Definiţia 2.15. Tripletul , K, P se numeşte câmp de probabilitate complet aditiv.
Definiţia 2.16. Fie o experienţă şi un eveniment A corespunzător acestei experienţe. Dacă
se repetă experienţă de n ori în condiţii identice şi evenimentul A se produce de α ori, iar

contrarul sau de n   ori, atunci numărul f n  se numeşte frecvenţă relativă a
n
evenimentului A.
Exemplul 2.17. Se construieşte un baraj căruia i se dă o înălţime suficientă pentru a
suporta nivelul creşterilor apelor înregistrat în ultimii 75 de ani. Presupunâd că nu există
variaţii de climat de-a lungul perioadei avute în vedere, care este probabilitatea ca barajul să
fie corespunzător de-a lungul următorilor 25 de ani de la data construirii lui?

Rezolvare
 este mulţimea celor 75+25=100 de ani luaţi în considerare. Anul cu cea mai mare creştere
a apelor poate fi considerat ca unul dintr-o mulţime de ani echiprobabili. Barajul este
corespunzător dacă anul luat în considerare este unul din cei 75. Probabilitatea cerută este
75
 0.75 sau cu o probabilitate de 75% barajul va fi corespunzător pe următoarea perioadă
100
de 25 de ani.
Observaţia 2.18. P   0 .
Propoziţia 2.19.
a) P A  B  P A  PB  P A  B
b) P A  B  P A  P A  B
c) P AB  P A  PB  2P A  B , unde AB   A  B  B  A
Definiţia 2.20. Probabilitate condiţionată. Fie , K, P un câmp de probabilitate
complet aditiv şi A, B  K . Se numeşte probabilitatea evenimentului A condiţionată de

18
MODELARE SIMULARE
P A  B 
evenimentul B şi se notează PB (A) sau PA B  , raportul:  PB ( A) , dacă
P( B)
P( B)  0 .
Propoziţia 2.21. , K, PB  este un câmp de probabilitate complet aditiv dacă P( B)  0 .

Evenimentele A şi B sunt independente dacă P A  B  P( A)  P( B) .


Definiţia 2.22. Probabilitate totală. Fie , K, P un câmp de probabilitate complet
aditiv şi A1 , ..., An o desfacere a lui  , adică Ai  Aj   , pentru i  j , i, j  1, 2,..., n şi

X  K . Atunci: P( X )   P Ai PX Ai  se numeşte formula probabilităţii


n n

 A   , iar
i 1
i
i 1

totale.

Exemplul 2.23. Se consideră 6 familii care au copii astfel:


- 2 familii au 4 băieţi şi 2 fete
- 3 familii au câte 8 băieţi şi 2 fete
- 1 familie are 2 băieţi şi 6 fete.
Se alege la întâmplare un copil pentru a merge în tabără şi se cere probabilitatea ca să fie fată
(este vorba de rezervarea de locuri de cazare).

Rezolvare
Notăm:
 X evenimentul ca să fie aleasă o fată.
 A1 evenimentul ca fata să fie de la una din cele 2 familii cu 2 fete şi 4 băieţi.
 A2 evenimentul ca fata să fie de la una din cele 3 familii cu 2 fete şi 8 băieţi.
 A3 evenimentul ca fata să fie de la familia cu 6 fete şi 2 băieţi.
Atunci:
2 1 3 1 1
P( A1 )   ; P( A2 )   ; P( A3 )  ;
6 3 6 2 6

PX A1  
2 2 fete
(s-a ales o fata de la una din primele 2 familii )
6 6 copii

PX A2   ; PX A3   .
2 6
10 8
Atunci:
P( X )  P( A1 )  P( X A1 )  P( A2 )  P( X A2 )  P( A3 )  P( X A3 ) 

1 1 1 1 1 3 121
       .
3 3 2 5 6 4 360

19
MODELARE SIMULARE

Teorema 2.24 (Formula lui Bayes). Fie A1 , ..., An , evenimente care realizează o desfacere
a spaţiului total  şi care reprezintă cauzele producerii unui eveniment necunoscut X.
Presupunem că se cunosc probabilităţile apriorice: P Ai , i  1, n şi PA  X , i  1, n .
i

În urma efectuării experienţei se obţine evenimentul X şi trebuie determinate probabilităţile:


PX  Ai , i  1, n , numite probabilităţi aposteriori. Formula lui Bayes precizează cum se
calculează aceste probabilităţi:
P Ai PX Ai  P Ai PX Ai  (2.1)
PAi X   
 P A PX A 
n
P( X )
k k
k 1

Exemplul 2.25. În condiţiile problemei precedente să se determine probabilitatea ca fata


să provină din familia cu 2 băieţi şi 6 fete.

Rezolvare
Cu notaţiile din problema precedentă avem:
2 1 3 1 1
P( A1 )   ; P( A2 )   ; P( A3 )  ;
6 3 6 2 6

PX A1   ; PX A2   ; PX A3   .


2 2 6
6 10 8
Atunci formula lui Bayes dă:
1 3
P A3 PX A3  6  4 45
PA3 X    
P X  121 121
360

2.2. Variabile aleatoare

O variabilă a cărei valoare este un număr determinat de evenimentul rezultat în urma unei
experienţe este numită variabilă aleatoare. Altfel spus, orice măsură a unei mărimi ale cărei
valori depind de hazard este o variabilă aleatoare. Aşadar, variabila aleatoare este o aplicaţie
X :  R .
Exemplul 2.26. O familie de intelectuali dintr-o companie poate avea 0, 1, 2, 3 sau 4
copii. Numărul de copii este o variabilă aleatoare, care poate lua valorile conform cu tabelul
Număr de copii 0 1 2 3 4
1 3 1 1 1
Probabilitatea asociată
4 8 8 8 8

20
MODELARE SIMULARE
O variabilă aleatoare poate să fie discretă şi atunci nu ia decât anumite valori, ca în
exemplul de mai sus, sau continuă, putând lua toate valorile posibile între nişte limite date.

2.3. Funcţia de repartiţie

Definiţia 2.27. Se numeşte lege de probabilitate sau de repartiţie sau de distribuţie a


variabilei aleatoare X, funcţia definită de x  P X ()  x  , pentru x aparţinând domeniului
de definiţie.
Legea de probabilitate a unei variabile aleatoare se poate pune sub forma unei formule
matematice P X ()  x   p( x) . În cazul discret o numim funcţia de frecvenţă.
Exemplul 2.28. Pe   1, 2, 3, 4, 5 să se determine legea de probabilitate P, astfel încât

P1, 2, 3  P4, 5 ; P1, 2  P2, 3 ; P2  P5 ; P1, 3  P4, 5 .

Rezolvare
Notăm pi  P
i  ; se obţine sistemul

 p1  p2  p3  p4  p5  1
p  p  p  p
 1 2 2 3

 p2  p5
 p1  p3  p4  p5

a cărui soluţie este legea de probabilitate cerută:


1 1 1
p1  , p2  0 , p3  , p4  , p5  0 .
4 4 2
Definiţia 2.29. Se numeşte funcţie de repartiţie (de distribuţie) sau cumulativă a unei
variabile aleatoare X, funcţia definită prin
F ( x)  P X ()  x  .
Dacă X este o variabilă aleatoare discretă, care poate să ia valorile x1 , x2 , ..., xn cu

probabilităţile p1 , p2 , ..., pn atunci mulţimea ale cărei elemente sunt perechile ordonate

x , p  defineşte repartiţia variabilei aleatoare X.


i i

Exemplul 2.30. Funcţie de repartiţie pentru cazul discret


Variabila aleatoare X = numărul de copii al unei familii de intelectuali din exemplul
precedent are repartiţia dată de tabloul:
0 1 2 3 4
X : 1 3 1 1 1
 
4 8 8 8 8

21
MODELARE SIMULARE
numit şi tablou de repartiţie.
Funcţia de repartiţie a variabilei aleatoare X este:
0 daca x  0
1
 daca x  0,1
4
5 daca x  1, 2

F ( x)   8
daca x  2, 3
3

4
7 daca x  3, 4
8
1 daca x  4

Deci, dacă X este o variabila aleatoare discretă, F ( x)   P( X  xi ) este numită şi funcţia de
xi  x

repartiţie empirică.
F(x)

1
7
8
3
4
5
8
1   reprezinta
4

0 1 2 3 4 x

Propoziţia 2.31. Proprietăţi ale funcţiei de repartiţie:


1) Px1  X  x2   F x2   F x1 
2) Px1  X  x2   F x2   F x1   P X  x1 
3) Px1  X  x2   F x2   F x1   P X  x1   P X  x2 
4) Px1  X  x2   F x2   F x1   P X  x2 
5) F x1   F x2  , x1  x2 , (F este crescătoare)

6) xlim F ( x)  0 , lim F ( x)  1 , 0  F ( x) , F este nedescrescătoare


 x

7) lim F ( x)  F x0  este continuă la stânga.


x x0
x x0

22
MODELARE SIMULARE

2.4. Densitatea de repartiţie

Definiţia 2.32. Dacă există o funcţie nenegativă  ( y) astfel încât


x

F ( x)    ( y )dy


pentru orice x, atunci funcţia  se numeşte densitate de repartiţie sau densitate de


probabilitate.
Dacă F admite o densitate de probabilitate, atunci
F ( x  x)  F ( x) P( x  X  x  x) (2.2)
 ( x)  F ( x)  lim  lim
x0
x x0
x
Propoziţia 2.33. Proprietăţi ale densităţii de probabilitate:
1)  ( x)  0 ,  x  R
x2

2) pentru  x1 , x2  Px1  X  x2     ( x)dx


x1

3)   ( x)dx  1 .


Exemplul 2.34. Să presupunem că densitatea de repartiţie este dată de


 ( x)  Ae x ,
definită pentru x>0 şi   0 . Cât este A în acest caz? Care este funcţia de repartiţie
corespunzătoare?
Din proprietatea 3) avem
   1 
  x
  ( x)dx  1  A  e dx  1  A  e  x   1 
    0
A     ( x)  e  x

x x
x
F ( x)    ( y)dy    e  y dy  e  y  1  e x
  0
pentru x>0. Atunci
0 pentru x  0
F ( x)  
1  e pentru x  0
  x

Exemplul 2.35. Să se determine a  R astfel încât

23
MODELARE SIMULARE

0 daca x  0

F ( x)  a  x 2 daca 0  x  1
1 daca x  1

să fie funcţie de repartiţie şi în acest caz să i se determine densitatea de probabilitate
corespunzătoare.
F(x) trebuie să fie continuă, deoarece F ( x)   ( x). Pe de alta parte a  12  1 şi astfel a  1 .
Atunci
0 daca x  0

F ( x)   x 2 daca 0  x  1
1 daca x  1

Densitatea de probabilitate în acest caz este
 0 daca x  0

 ( x)  2  x daca 0  x  1
 0 daca x  1

Graficele celor două funcţii:

F(x) ρ(x)

1
2

0 1 x 0 1 x

Funcţia de repartiţie Densitatea de repartiţie

24
MODELARE SIMULARE

2.5. Valoarea medie

Definiţia 2.36. Valoarea medie a unei variabile aleatoare X este dată de:

a) M X    xi pi cazul variabilei aleatoare discrete


n

i 1


b) M X    x ( x)dx cazul variabilei aleatoare continue.


Propoziţia 2.37.
1) M aX  b  aM X   b
2) M X  Y   M X   M Y 
3) M X  Y   M X  M Y  dacă X şi Y sunt independente.

Exemplul 2.38. Variabila aleatoare geometrică


Se numeşte probă Bernoulli sau experienţă Bernoulli o experienţă în care sunt posibile
numai 2 tipuri de rezultate numite succese (A) cu probabilitatea P(A)=p şi eşecuri (B), cu
probabilitatea q  P( B)  1  p .
Definiţia 2.39. Într-un şir de probe Bernoulli notăm cu X variabila aleatoare, care
reprezintă numărul de eşecuri înregistrate până la apariţia primului succes. X se numeşte
variabilă aleatoare geometrică.
Această variabilă poate caracteriza de exemplu, numărul pieselor corespunzătoare găsite
ca urmare a controlării unei mulţimi de piese până la apariţia primului rebut, numărul nou-
născuţilor băieţi la o maternitate până la apariţia unei feţite, etc.
Funcţia de frecvenţă pentru variabila aleatoare X este
f ( x)  P( Χ  x)  pq x , x  0,1,2,... (numărul de eşecuri), (2.3)

iar funcţia sa de repartiţie este


x 1
1  qx
F ( x)  P( Χ  x)   pqi  p(1  q  q 2  ...  q x 1 )  F ( x)  p
i 0 p

F ( x)  1  q x , (2.4)

0  F x   1 .
Se poate calcula media acestei variabile aleatoare
  
M X    i  f (i)   i  p  qi  p  i  qi .
i 0 i 0 i 0

25
MODELARE SIMULARE
Dar,

1 1
q
i 0
i
 
1 q p
şi derivând această relaţie avem

1
i  q
i 0
i 1

1  q 2
.

Înmulţind această relaţie cu q se obţine



q q
i  q
i 0
i
 2 
1  q  p 2
.

Aşadar,

M X   p
q q
2
 .
p p
Exemplul 2.40. Variabila aleatoare exponenţială negativă, Exp ( ) ,   0 , are densitatea
de probabilitate

  e  x
 x0 (2.5)
 ( x)  

0 x  0.
Cum am arătat într-un exemplu anterior, funcţia sa de repartiţie este
0 x0 (2.6)
F ( x)     x
1  e x  0.
Valoarea medie a variabilei aleatoare Exp ( ) ,   0 este
  
M X    x   ( x)dx    x  e  x dx    x  e  x dx 

 
 0 0
    e  x 
   x  e  x   e  x dx  
1
 .
 0 0   0 

Aşadar,

M X  
1
.

26
MODELARE SIMULARE

2.6. Dispersia. Abaterea medie patratică

Definiţia 2.41. Se numeşte dispersia lui X valoarea medie


 
M  X  M X    X2  DX  .
2

Avem:

DX    xi  m f ( xi )
n
2

i 1

sau

DX    x  m  ( x)dx .
2



Abaterea medie patratică se defineşte ca fiind


 X  DX  .
Dispersia se mai numeşte şi varianţă.
Propozitia 2.42.
1. Fie X, Y două variabile aleatoare independente. Atunci:
DX  Y   DX   DY 
2. Dacă c este o constantă Dc  0
3. Fie X o variabilă aleatoare şi c o constantă. Atunci:

DX  c  DX ,


Dc  X   c  DX .
 2

Această translaţie este importantă atunci când variabila aleatoare ia valori negative şi în
analiza care se întreprinde, datele trebuie să fie pozitive.
4. Fie X 1 , X 2 , ..., X n , n variabile aleatoare independente şi identic repartizate (i.i.d.)

având M X i   mi şi DX i   d . Atunci

DX  d
D  X i  
n
 .
 i1  n n

Exemplul 2.43. Calculul dispersiei variabilei aleatoare exponenţială negativă.


Fie
lx
X ~   ( x)    e  ,   0 , x  0

  
DX   M  X  M X 2  M X 2  2 X  M X   M X 2  
   
DX   M X 2  2M X  M X   M X 2  M X 2  M X 2.

27
MODELARE SIMULARE
Dar,
  

M X 2    x 2  ( x)dx   x 2  e x dx    x 2 e x  dx 
0 0 0

    2 
   x 2e x  2 x  e x dx     x  e x  dx 
 0 0  0
2     x      x  2    x 2  2
  xe   e dx    e dx  2 e x  2
 0 0  0  0 

Aşadar,

DX  
2 1 1 1
   X  .
2
 2

2

28
MODELARE SIMULARE

3. CÂTEVA EXEMPLE DE REPARTIŢII UTILIZATE ÎN INGINERIE

3.1. Repartiţii discrete

3.1.1. Variabila aleatoare uniformă discretă

Definiţia 3.1. O variabilă aleatoare discretă urmează repartiţia uniformă dacă este dată de
următorul tablou de distribuţie
 x1 x2 . . . xn 
V : 1 1 1  . (3.1)
 . . .
n n n
Observaţia 3.2. Dacă V *  0, 1, 2, ,..., M  1 atunci tabloul de variaţie al variabilei V*
este
 0 1 . . . M  1
V*:  1 1 1 . (3.2)
 . . . 
M M M 

3.1.2. Repartiţia binomială

are tabloul de repartiţie


 
0 1 2  n
 x   
X :  x x n x     (3.3)
 Cn p q   n n(n  1) 2 n2 n
q n  p  q n1  p q  p 
 2 
şi tinde la repartiţia normală, pentru n tinzând la infinit. Pentru această variabilă media şi
dispersia sunt date de relaţiile:
M X   n  p , DX   n  p  q , q  1  p  . (3.4)

3.1.3. Repartiţia geometrică

O variabilă aleatoare cu repatiţia geometrică are tabloul de repartiţie


0 1 2  n 
X :  , p  q 1 . (3.5)
p pq pq 2
 p  q n 
Am arătat că funcţia de repartiţie a acestei variabile aleatoare este
x 1
F ( x )  P X  x    p  q i  1  q x
i 0

29
MODELARE SIMULARE
şi media

M X  
q (3.6)
.
p
Se poate calcula dispersia şi se obţine

DX  
q (3.7)
.
p2

3.1.4. Repartiţia Poisson

este repartiţia evenimentelor rare, de exemplu, numărul de sosiri la un sistem de aşteptare pe


unitatea de timp. Se poate demonstra că intervalele de timp dintre două sosiri consecutive
constituie o variabilă aleatoare de tip exponenţial de parametru λ.
Tabloul de variaţie este:
   
 0 1 2  n   i 
   
X :  sau X :  i  0,1, 2, ... (3.8)
 0  1 2 n   i  
 e e  e   e    e 
 0! 1! 2! n!   i! 
Media şi disperia variabilei aleatoare de tip Poisson sunt
M X    , DX    . (3.9)

3.2. Repartiţii continue

3.2.1. Variabila aleatoare uniformă

Definiţia 3.3. Variabila aleatoare X este uniform repartizată pe [a,b] (sau uniform
rectangulară) dacă are densitatea de repartiţie
 1 (3.10)
 daca x  a, b
f x    b  a

0 altfel .
Funcţia de repartiţie este
 0 daca x  a (3.11)
x  a
F ( x)   daca x  a, b
b  a
 1 daca x  1.

Dacă se ţine seama de definiţiile funcţiilor f x  şi F x  , avem:

30
MODELARE SIMULARE

t x xa
pentru x  a, b .
x x

F x   f t dt  
1

 a ba
dt  
ba 0 ba

Propoziţia 3.4. Fie U o variabilă aleatoare uniform repartizată pe (0,1), U ~ U 0, 1 .


Atunci V  a  (b  a)U ~ Ua, b este uniform repartizată pe (a, b).
Demonstraţie
0 daca x  a
 x  a  x  a
PV  x   Pa  (b  a)U  x   PU   daca x  a, b ,
 b  a  b  a
1 daca x  1

deoarece
 xa
0 daca 0
ba
 x  a   x  a xa
P U   daca 0  1
 b  a  b  a ba
1 xa
daca  1.
 ba
Consecinţa 3.5. Prin transformarea liniară a unei variabile uniforme obţinem tot o
variabilă uniformă.
Propoziţia 3.6. Dacă V ~ Ua, b este uniformă repartizată pe (a, b) şi [c, d ]  [a, b]
atunci V | [c, d ] ~  Uc, d  .

Demonstraţie
Fie f densitatea de repartiţie a lui V,
 1
 daca v  a, b
f v    b  a

0 altfel .

d c
Atunci Pv  c , d     , ţinând sema că situaţiile favorabile au măsură (d-c) iar
ba
toate cazurile posibile au măsură (b-a).
Pentru acesată variabila aleatoare media este
ab
M X  
(3.12)
2
şi dispersia

DX  
(3.13)
1
b  a 2 .
12

31
MODELARE SIMULARE

Cazul bidimensional. Dacă x  R 2 este uniform repartizată pe a, b c, d  atunci
densitatea de probabilitate o să fie
 1
 , xI
f ( x)   (b  a)(d  c)

0 , x  I .
Repartiţiile marginale
X 1 ~  F1
X 2 ~ F2
X : ( X 1 , X 2 ) ~ F
Observaţia 3.7. Dacă variabilele aleatoare X 1 , X 2 sunt independente statistic atunci:
F ( x1, x2 )  F1 ( x1 )  F2 ( x2 )
F1 ( x1 )  F ( x1, )  lim F ( x1, x2 ) , iar f1 ( x1 ) este densitatea de repartiţie marginală;
x 2 

F2 ( x2 )  F (, x2 )  lim F ( x1 , x2 ) , iar f 2 ( x2 ) este densitatea de repartiţie marginală.


x1

Funcţia de repartiţie pentru X   X 1 , X 2  , vector uniform repartizat pe [a, b]  [c, d ] este


dată de relaţia de mai jos
0 , x1  b , x2  c

 ( x  a)( x2  c)
F x1 , x2    1 , ( x1 , x2 )  a, b c, d 
 (b  a)(d  c)

1 , x1  b , x2  c

3.2.2. Repartiţia normală

Variabila aleatoare este repartizată N( , ) dacă are densitatea de repartiţie


 1 x 
2
(3.14)
x  R ,   M X  ,   DX 
1   
 ( x)  e 2  

 2
şi funcţia de repartiţie
x t   2 (3.15)
1 
F ( x) 
 2
e

2 2
dt .

Propoziţia 3.8. Dacă Z ~ N(0,1) şi X      Z atunci X ~ N( , ) şi invers, dacă


X 
X ~ N( , ) atunci Z  ~  N0,1 .

32
MODELARE SIMULARE
3.2.3. Repartiţia lognormală

Variabila aleatoare X este repartizată lognormal dacă Y = lnX este o variabilă aleatoare
normală. Densitatea de repartiţie a variabilei aleatoare X este
2

1
1  ln x  Y
 

 (3.16)
 ( x)  e 2 Y 

x   Y 2
unde
Y  M Y  ,  Y2  DY  (3.17)

Legătura cu normala este dată de relaţiile:

 
 Y2 (3.18)
Y 
  X ; Var[ X ]  M [ X ] e Y  1 .
2
M[X ]  e 2 2

3.2.4. Repartiţia exponenţială de parametru 

Variabila aleatoare X este repartizată exponenţial de parametru  , notată X ~ Exp ( ) ,


dacă are densitatea de repartiţie dată de

e  x
 x  0,   0 (3.19)
f ( x)  

0 x0
iar funcţia de repartiţie
0 x0 (3.20)
F ( x)     x
1  e x  0,   0
Media variabilei aleatoare este

M X  
1 (3.21)

iar dispersia

DX  
1 (3.22)
.
 2

Definiţia 3.9. Pentru   1 variabila aleatoare este numită variabila aleatoare


exponenţială standard.

3.2.5. Repartiţia gamma

O variabilă aleatoare care are densitatea de repartiţie dată de relaţia

33
MODELARE SIMULARE

  x 1e   x (3.23)
 x  0 ,   0,   0
 ( x)   ( )

0 x0

se spune că este repartizată gamma de parametri ( ,  ) , unde ( )   x 1e x dx este funcţia
0

lui Euler de speţa a două. Media acestei variabile aleatoare este



M X  
(3.24)

iar dispersia

DX  
(3.25)
.


3.2.6. Repartiţia beta

Variabila aleatoare a cărei densitate de repartiţia este dată de


 1 (3.26)
 x a 1 (1  x)b 1 0  x  1
 ( x )   B ( a, b)

0 in rest

(a)  (b)
este repartizată beta de parametri (a, b), unde B(a, b)  este funcţia lui Euler de
 ( a  b)
speta întâi. Pentru această variabilă aleatoare media este

M X  
a (3.27)
,
ab
iar dispersia
a b
DX  
(3.28)
.
a  b a  b  1
2

3.2.7. Repartiţia  2

O variabilă aleatoare este repartizată  2 cu  grade de libertate, 2 , dacă are densitatea
de repartiţie

 1 1 
x (3.29)
 x 2
e 2
pentru 0  x
 
 ( x)   2 2   
 2

0 in rest

Media unei variabile aleatoare repartizată 2 este

34
MODELARE SIMULARE

M X    , (3.30)

iar dispersia
DX   2 . (3.31)

Propoziţia 3.10. Dacă   N * , atunci variabila aleatoare X, de tip 2 poate fi obţinută ca
o sumă de pătrate de variabile aleatoare normale standard,

X ~  2 , X   Zi2 , Zi ~  N(0,1) .
i 1

3.2.8. Repartiţia Student

Spunem că variabila aleatoare t este repartizată Student cu  grade de libertate dacă are
densitatea de repartiţie
  1  (3.32)
 
 2 
 1 , x  R .
1 1
 ( x) 
      
  x 2
2

 2  1  
  
Media acestei variabile aleatoare este
M t   0 , (3.33)

iar dispersia este



Dt  
(3.34)
.
 2
Propoziţia 3.11. Variabila aleatoare Student cu  grade de libertate se poate obţine cu
ajutorul unei variabile aleatoare normale standard şi al unei variabile aleatoare  2 , conform

, Z ~ N(0,1) si 2 variabila  2 cu  grade de libertate.


Z
cu relaţia t 
 2

3.2.9. Repartiţia Fisher-Snedecor

O variabilă aleatoare X este repartizată Fisher–Snedecor cu  1 ,  2  grade de libertate


dacă are densitatea de repartiţie

35
MODELARE SIMULARE

1  1   2   1  2 (3.35)
  1 
  2
 ( x)   1   2  x 2 11  1 
x 
2
,  x  0 .
 
  2    1      2   2 
2  2
Această repartiţie este importantă prin aplicaţiile care le are testul F bazat pe această
repartiţie.
Propoziţia 3.12. Legătura variabilei aleatoare F 1 , 2 Fisher-Snedecor cu  1 ,  2  grade de

libertate cu variabilele aleatoare 21 şi 22 este dată de relaţia

 2  (3.36)
2

F 1 , 2  . 1

 1 2 2

3.2.10. Repartiţii de tip Gumbel (pentru valori extreme)

În statistica extremelor intervin variabile aleatoare ale căror funcţii de repartiţie au fost
studiate de Gumbel.
 Repartiţia valorilor maxime
- de tip Gumbel sau dublu exponenţială:
  ( xu )
F ( x;  , u)  e  e , x  R ,  , u  0
k
v
 
- de tip Frechet: F ( x; v, k )  e  x  , x  0 , v , k  0
 Repartiţia valorilor minime
k
 x
 
- de tip Weibull: F ( x; v, k )  e  v  , x  0 , v  0 , k  0 .
Cu schimbările de variabile:
 y
 y  ( x  u ) repartiţia Gumbel devine F ( y)  e  e , repartiţia dublu
exponenţială standard,
 x  y
 y  k ln  repartiţia Frechet devine F ( y)  e  e , repartiţia dublu exponenţială
v
standard,
v  y
 y  k ln  repartiţia Weibull devine F ( y)  e  e , repartiţia dublu exponenţială
 x
standard, fapt ce permite tratarea unitară a repartiţiilor valorilor extreme.

36
MODELARE SIMULARE

4. STATISTICĂ DESCRIPTIVĂ

4.1. Vocabular

Definiţia 4.1. Noţiunea fundamentală în statistică este populaţia, care desemnează o


mulţime, grup, colectivitate.
Exemple de populaţii: populaţia somerilor, a automobilelor Dacia, bacterii, precipitaţii
atmosferice etc. Elementele populaţiei se numesc indivizi. Trăsătura comună a tuturor
indivizilor unei populaţii se numeşte caracteristică şi poate fi cantitativă sau calitativă.
Definiţia 4.2. Volumul populaţiei (eşantionului, selecţiei) reprezintă numărul indivizilor
populaţiei (eşantionului, selecţiei) respective.
Exemplul 4.3. Locuitorii unui oraş au înălţime, greutate, vârstă, număr de persoane de
întreţinut, venit etc. Fiecare dintre acestea constitue o caracteristică de tip cantitativ.
Aceiaşi indivizi au caracteristici de tip calitativ cum ar fi: sex, culoarea ochilor, localitatea
naşterii, origine socială, apartenenţă politică etc.
Definiţia 4.4. O caracteristică cantitativă poartă numele de variabilă, iar cea calitativă
atribut.
O variabilă poate fi discretă, luând un număr discret de valori sau continuă şi atunci este
posibil să ia orice valoare dintr-un interval.
Definiţia 4.5. Statistica este o ramură a matematicilor aplicate care se ocupă cu studiul
proprietăţilor populaţiilor.

Colectarea informaţiei

Pentru a prelucra informaţia, ea trebuie colectată. Pentru aceasta se face o anchetă, al cărei
obiectiv trebuie bine stabilit înainte de demararea acţiunii.
Datele sunt culese prin observaţii directe sau indirecte (datele sunt culese din alte
rapoarte). Pentru culegerea datelor se întocmesc chestionarele, care trebuie să prevadă toate
situaţiile încât să nu fie întrebări fără răspuns.

Moduri de colectare a informaţiei

 ancheta exhaustivă (recensământ)


 prin sondaj – numai anumiţi indivizi selectaţi sunt chestionaţi.
Ei formează o selecţie care trebuie să fie reprezentativă. Reprezentativitatea selecţiei se
asigură când structura selecţiei este identică cu structura populaţiei din care s-a făcut selecţia.

37
MODELARE SIMULARE

4.2. Reprezentarea datelor

4.2.1. Tabele

Definiţia 4.6. Tabel statistic este forma de prezentare a rezultatelor prelucrării statistice
prin care se caracterizează populaţia.
Tabelul este un ansamblu de judecăţi despre subiect (populaţia şi grupele ei) şi despre
predicat (caracteristicile statistice). Se disting:
 tabele simple- reprezintă populaţia negrupată
 tabele pe grupe-reprezintă populaţia desparţită în grupe omogene după o singură
caracteristică. Mărimea intervalului este dată de formula lui H. A. Sturges:
w x  xmin (4.1)
h  max ,
1  3.322  lg n 1  3.322  lg n
unde w este aplitudinea.
 tabele combinate- reprezintă populaţia desparţită în grupe după două sau mai multe
caracteristici
 tabele cu dublă intrare în care se reprezintă frecvenţele bidimensionale.
Exemplul 4.7. Numărul de copii al familiilor profesorilor din liceul L
Numărul de apariţii
Numărul de copii Frecvenţă relativa Frecvenţă cumulată
(de familii)
0 42 0.42 0.42
1 18 0.18 0.60
2 33 0.33 0.93
3 5 0.05 0.98
≥4 2 0.02 1
Total 100

Exemplul 4.8. Tablou cu dublă intrare. Situaţia şcolară la sfârşitul anului universitar.
Medie
An studii
m<5 5m<7 7 m <9 9 m 10
I 4 5 10 6
II 5 4 11 5
III 7 3 9 6
IV 2 8 8 7

38
MODELARE SIMULARE
Se poate răspunde la întrebări de genul:
1) Ce situaţie şcolară au studenţii anului a ?
2) Care este provenienţa studenţilor cu note în intervalul [a, b) ?
Exemplul 4.9. Tabele pe grupe:
Cei 115 angajaţi ai unei societăţi au salariul orar cuprins între 3.9 şi 7.1 euro. In tabelul de
mai jos sunt trecute grupele de salarii şi numărul de salariaţi din fiecare grupă de salarii.
Gruparea datelor:
7.1  3.9
i  0.4 .
1  3.322  lg115
3.9-4.3 4.4-4.7 4.8-5.1 5.2-5.5 5.6-5.9 6-6.3 6.4-6.7 6.7-7.1
9 14 18 21 23 16 10 4

4.2.2. Reprezentarea grafică a repartiţiilor de frecvenţe

Definiţia 4.10. Histograma este reprezentarea grafică a datelor trecând pe orizontală


intervalele de valori, iar pe verticală frecvenţele acestor valori.
Exemplul 4.11. Presupunem că avem 500 de date din măsurători repartizate pe intervale
ca în tabelul următor. În figura alăturată este reprezentarea acestui tabel sub formă de
histogramă.
Frecvenţa
Interval absolută
0.000207 0
0.157517 136
0.31482 9
0.47 3 7
0.629448 44 Frecventa absoluta
0.786758 35
0 944068 30 160
1.101379 14 140
120
1.258689 15 100
1.415999 11 80 Frecventa absoluta
1. 73309 7 60
40
1.730619 8
20
1.88793 2 0
Mai mare
0.000207042
0.314827477

0.629447913
0.944068348

1.258688783
1.573309218

1.887929653
2.202550088

2.517170524
2.831790959

3.146411394

2.04524 3
2.20255 2
2.35986 1
2.517171 1
2.674481 3
2.831791 3
2.989101 2
3.146411 1
3.303722 0
Mai mare 0

39
MODELARE SIMULARE
Definiţia 4.12. Poligonul frecvenţelor se obţine unind printr-o linie frântă extremităţile
segmentelor perpendiculare ridicate din mijloacele intervalelor de variaţie, segmente a căror
lungime este proporţională cu frecvenţă.
Exemplul 4.13. Pentru datele de mai sus, poligonul frecvenţelor este:

Poligonul frecventelor

160
140
120
100
80 Series1
60
40
20
0
1 3 5 7 9 11 13 15 17 19 21

Definiţia 4.14. Diagrame cu sectoare. În acest mod de reprezentare a datelor, sectoarele


sunt proporţionale cu procentajele. Pot fi însoţite de legendă sau dacă se poate, se scrie chiar
în sector procentul şi ceea ce reprezintă.
1
Diagrame cu sectoare
2
3
4
5
6
7
8
9
10
11
12
13
14
15
Definiţia 4.15. Diagrame figurative. O figură reprezintă un individ al populaţiei şi poate
lua diferite dimensiuni după procentajul sau numărul de realizări pe care îl reprezintă.

Diagrame figurative

S1
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22

40
MODELARE SIMULARE

5. ELEMENTE DE TEORIA ESTIMAŢIEI

Aşa cum am mai menţionat, pentru culegerea de informaţii despre o populaţie statistică se
pot folosi două meode:
 recensământul (mai rar datorită costului, iar în unele situaţii concrete este imposibil),
când toţi indivizii din populaţia investigată sunt cheastionaţi, şi
 metoda sondajelor – când se examinează un eşantion (selecţie) din populaţie şi pentru
care trebuie avut grijă să fie reprezentativ (selecţia să aibă aceeaşi structură ca şi
populaţia de investigat!).
Observaţia 5.1. Când se efectuează un sondaj nu se poate atinge cunoaşterea perfectă a
parametrilor populaţiei totale. Se caută numai să se estimeze aceşti parametri cu o precizie
cunoscută: se determină un interval de încredere în care se găseşte parametrul cu un risc de
eroare cunoscut.
Teorema 5.2 (a lui Glivenko). stabileşte legătura dintre funcţia de repartiţie teoretică
F(x) şi funcţia empirică de repartiţie Fn(x)
 
P lim  sup Fn ( x)  F ( x)   0   1
(5.1)
n  xR 
 
sau cu cât volumul de selecţie este mai mare cu atât funcţia empirică de repartiţie
aproximează mai bine funcţia teoretică de repartiţie.
Propoziţia 5.3 (principiul de bază al teoriei selecţiei). variabila de selecţie converge în
lege Fn  F  către variabila teoretică, iar caracteristicile variabilei de selecţie converg în
probabilitate către caracteristicile analoage ale variabilei teoretice.
Din datele numerice de care se dispune se calculează valori aproximative ale
caracteristicilor legii de distribuţie respective.
Fie λ parametrul sau caracteristica teoretică pe care trebuie să o determinăm din datele
numerice avute la dispoziţie de o variabilă de selecţie X*.

5.1. Estimatori

Definiţia 5.4. Se numeşte estimator al lui λ o anumită funcţie (statistică) λ*=λ*(X1,...,Xn)


care depinde de rezultatul selecţiei, adică de variabilele X j , j  1, n .

O astfel de funcţie se mai spune că defineşte o statistică sau estimatorul λ* este un


estimator exhaustiv al parametrului λ.

41
MODELARE SIMULARE
Observaţia 5.5. λ* este o variabila aleatoare deoarece depinde de X1,...,Xn, în vreme ce λ
este o constantă.

Trebuie ca λ* să conveargă în probabilitate către λ, adică



lim P *      1 ;
n
 (5.2)

Definiţia 5.6. λ* cu proprietatea (5.2) se numeşte estimator consistent.


Definiţia 5.7. Se numeşte coeficient de siguranţă, probabilitatea

  P *     . 
Definiţia 5.8. Estimator corect este estimatorul * pentru care au loc relaţiile
M [* ]   , D[* ]  0 . (5.3)

Definiţia 5.9. Estimator absolut corect este estimatorul pentru care se verifică relaţiile
M [* ]   , D[* ]  0 . (5.4)

Definiţia 5.10. Deplasarea lui * (bias) este definită ca fiind M [* ]   . Dacă deplasarea
este 0 spunem că estimatorul este nedeplasat.
Dacă pentru acelaşi parametru λ dispunem de doi estimatori 1* şi *2 spunem că

estimatorul 1* este mai bun decât estimatorul *2 dacă împrăştierea lui 1* faţă de  este

mai mică decât împrăştierea lui *2 faţă de  , adică D[1* ]  D[*2 ] .
Definiţia 5.11. Se numeşte estimator eficient estimatorul de dispersie minimă.

5.2. Metoda verosimilității maxime

5.2.1. Estimatorul verosimilității maxime

Fie X variabilă aleatoare a cărei densitate de probabilităte  ( x;  ) depinde de


parametrul  ce urmează a se determina din datele de selecţie X*=( X1,..., Xn), iar
 ( X j ;  )  PX  X j  , j  1, n .

 X  X  ,
n
Deoarece variabila de selecţie presupune realizat evenimentul j rezultă că
j 1

realizarea variabilei de selecţie constituie un eveniment care are grad de reprezentare a


variabilei teoretice, acesta costituind verosimilitatea de reflectare a variabilei teoretice X de
către variabila de selecţie X* şi se măsoară prin probabilitatea

42
MODELARE SIMULARE

n 
L X 1 ,..., X n   P  X  X j 
 j 1 
adică prin funcţia

L X 1 ,..., X n ;      X j ;  
n

j 1

numită funcţia de verosimilitate a selecţiei X*.


Impunând condiţia ca verosimilitatea să fie maximă se obţine un criteriu de determinare a
unui estimator pentru  .
Maximul se găseşte printre punctele staţionare, soluţii ale ecuaţiei (sistemului, în cazul în
care  este un vector):
LX 1 ,..., X n ;  
0

sau cum maximul lui L este obţinut ca şi maximul lui lnL avem
 ln LX 1 ,..., X n ;   n
 ln  X 1 ,..., X n ;  
0  0.
 j 1 
Această ultimă ecuaţie se numeşte ecuaţia de verosimilitate.
O soluţie a ecuaţiei de verosimilitate se numeşte estimator de maximă verosimilitate, iar
metoda de determinare se numeşte metoda verosimilităţii maxime. A fost introdusă de
Fisher în 1912.
Au loc următoarele rezultate :
Propoziţia 5.12. Dacă pentru un parametru există un estimator eficient, atunci acesta este
şi estimator de maximă verosimilitate.
Propoziţia 5.13. În condiţiile destul de generale în ceea ce priveşte   X1 ,..., X n ;  
estimatorul de maximă verosimilitate pentru  este şi estimator consistent.

5.2.2. Estimator de verosimilitate maximă pentru parametrul repartiţiei Poisson

În cele ce urmează vom determina estimatorul de maximă verosimilitate pentru parametrul


repartiţiei Poisson. Folosind funcţia de densitate de probabilitate
x
 x;    e 
, x  0,1, 2, ...
x!
funcţia de verosimilitate devine:


 
, ln L      X j ln   ln X j ! 
n Xj n
LX 1 ,..., X n ;     e 

j 1 X ! j j 1

43
MODELARE SIMULARE
Ecuaţia de verosimilitate pentru acest caz este
 ln L n  1
   1  X j    0
 j 1  
sau
n

1 n X j

n

Xj 0   
j 1
* j 1

n
,

adică, media de selecţie în cazul repartiţiei Poisson este şi estimator de verosimilitate maximă
pentru parametrul repartiţiei.

5.2.3. Estimator de verosimilitate maximă pentru parametrul repartiţiei exponenţiale

Vom determina estimatorul de maximă verosimilitate pentru parametrul repartiţiei


Exp(). Considerăm funcţia de densitate de repartiţie pentru Exp()
0 x0
 x;      x
  e x0
şi obţinem funcţia de verosimilitate:
n
n   Xi n
LX 1 ,..., X n ;       e    X i  n e i 1 , ln L  n  ln     X i .
j 1 i 1

Trebuie să determinăm max ln LX1, X 2 , ... , X n ;   . Ecuaţia de verosimilitate pentru


acest caz este
 ln L n n
   Xi  0
  i 1
sau
n

1
X
j 1
j


* n
adică, inversul mediei de selecţie în repartiţia Exp() este estimator de verosimilitate
maximă pentru parametrul repartiţiei.

44
MODELARE SIMULARE

5.2.4. Estimator de verosimilitate maximă pentru parametrii repartiţiei normale, N ,  

Fie
1  x 
2
  
 x;  ,   ,  x  R
1  
e 2
 2
densitatea de probabilitate a variabilei aleatoare repartizată normal de parametri  şi  şi

selecţia  X1,..., X n   X * .
Vom determina estimaţiile parametrilor  şi  prin metoda verosimilităţii maxime
pentru această repartiţie.
Funcţia de verosimilitate este
 X j  
n 2


1
 
 
LX 1 ,..., X n ;  ,   
1 2 j 1
e
 2 
n
n
2

Logaritmăm şi avem

ln LX 1 ,..., X n ;  ,    n ln   ln( 2 ) 2  X j   


n 1 n 2

2 2 j 1
Având doi parametri, avem un sistem de ecuaţii de verosimilitate

 1 2 n
   2  X j    1  0
  ln L
  0
  2  j 1
  
  ln L 
X j   2
n

 

0  
 n  1  2 j 1 0
  2 3
sau

 X  
n
2

 X   0 ,
n j
j 1
n
j 1
j
2
Aşadar,
n

n n X j

X
j 1
j     
j 1
* j 1

n
media de selecţie şi

45
MODELARE SIMULARE

 X    X  
n n
2 2
j j
j 1 j 1
n  * 
 2
n
dispersia de selecţie sunt estimatori de maximă verosimilitate.

46
MODELARE SIMULARE

6. VERIFICAREA IPOTEZELOR STATISTICE

6.1. Ipoteze statistice

În practică, apare necesitatea comparării a două procese tehnologice diferite, a două


metode de cercetare diferite etc. Este necesar să se cunoască dacă metodele comparate dau
rezultate identice, iar dacă nu, care este mai eficace.
Observaţia 6.1. În statistică o diferenţă semnificativă este aceea, care nu poate fi pusă pe
seama întâmplării la un anumit nivel de probabilitate sau de încredere. De exemplu, cu cât
este mai mică diferenţă dintre două medii, cu atât este mai mare probabilitatea ca ele să
aparţină unor selecţii extrase din aceeşi colectivitate de bază.
Definiţia 6.2. Se numeşte ipoteză statistică orice presupunere cu privire la caracteristicile
unei variabile aleatoare, faţă de legea ei de distribuţie sau faţă de parametrii ce o determină.
Definiţia 6.3. Mijloacele de verificare a ipotezelor statistice se numesc teste statistice.
Definiţia 6.4. Când ipoteza este facută asupra parametrilor unei distribuţii, testele
respective se numesc teste parametrice, iar când ipoteza nu face referiri la natura distribuţiei,
testele sunt numite teste neparametrice.
Definiţia 6.5. Când ipoteza priveşte valori estimate ale caracteristicilor unei variabile
aleatoare, atunci testele se numesc teste de semnificaţie.
Definiţia 6.6. Când ipoteza se referă la natura repartiţiei, de exemplu că o variabila
empirică are o anumită repartiţie teoretică, testul se numeşte test de concordanţă.
Să considerăm un anumit parametru al legii de repartiţie a variabilei aleatoare teoretice X,
sau o caracteristică a acestei variabile aleatoare cum ar fi: media, dispersia, abaterea standard
şi pe care să o notăm  .
Considerăm două funcţii de estimaţie 1* şi *2 ale valorii teoretice  , estimaţiile fiind

considerate absolut corecte: M [1* ]  M [*2 ]   , D[1* ]  0 , D[*2 ]  0 .

Notând cu d  1*  *2 , afirmaţia: “d este o variabila aleatoare cu media 0” este ipoteza
nulă şi se notează H0.
Altfel spus: H0= Nu există diferenţă semnificativă între 1* şi *2 .

Alternativa ipotezei nule H1   H 0 = Există diferenţă semnificativă între 1* şi *2 .


Definiţia 6.7. Testul de verificare a ipotezei nule se numeşte testul ipotezei nule şi
reprezintă o regulă de descompunere a spaţiului n–dimensional al selecţiilor Rn (n – volumul

47
MODELARE SIMULARE

selecţiei) în două regiuni: Rn  Rn1  Rn0 cu Rn1  Rn0   astfel încât dacă valorile observate

 X1,..., X n  Rn1 se acceptă ipoteza H0, iar dacă  X1,..., X n  Rn0 se respinge ipoteza H0.

Definiţia 6.8. Domeniul Rn0 se numeşte domeniul critic sau regiunea critică a testului.
Definiţia 6.9. Probabilităţile:
  PRn0 H 0   Presping H 0 cand H 0 este adevarata 

  PR1 H1   Paccept H 0 cand H 0 este falsa 


se numesc riscul de genul întâi şi respectiv riscul de genul al doilea sau probabilitatea
erorii de genul întâi şi respectiv probabilitatea erorii de genul al doilea.
Definiţia 6.10.  se mai numeşte şi prag de semnificaţie şi se consideră în practică de
obicei 0.05 (5%).

6.2. Etapele verificării ipotezelor statistice

1. Enunţarea ipotezei.
2. În modul ideal se specifică  şi  . Acestea vor determina numărul de observaţii pe
care trebuie să le facem pentru a calcula statistica pe care am ales-o. În practică se dau
 şi n.
3. Se determină ce valori ale unei anumite statistici, valori ce formează regiunea critică,
determină respingerea ipotezei şi care anume conduc la acceptarea ipotezei.
4. Se calculează valoarea statisticii din selecţii.
5. Se acceptă sau nu ipoteza, după cum valoarea obţinută pentru statistică este în afară sau
în interiorul regiunii critice.
Observaţia 6.11. Testul ipotezei nule se aplică dacă populaţia din care s-a extras selecţia
urmăreşte legea normală sau volumul selecţiei este suficient de mare (n>30)

48
MODELARE SIMULARE

7. PRELUCRAREA DATELOR EXPERIMENTALE

Datele experimentale (provenite din măsurători) pot fi afectate de erori de tipul:


- aberante sau grosolane, care se datorează unor erori grave făcute de om sau
defecţiuni ale aparatului cu care se fac măsurătorile
- sistematice, care îşi au originea în reglaje incorecte ale unor componente ale
aparatului cu care se fac măsurătorile
- aleatoare, care provin din natura aleatoare a fenomenului analizat.

7.1. Identificarea valorilor afectate de erori aberante şi eliminarea


lor

7.1.1. Testul Chauvenet

Fiind date valorile, x1,......, xn  se consideră că valoarea xi este afectată de erori

aberante dacă verifică relaţia: | xi  x | z , unde:

 x = media aritmetică a valorilor observate ,


n (7.1)
 xi
x  i 1 ,
n
  = abaterea standard a valorilor observate,
1 n (7.2)
2   xi  x 2 ,
n i 1
 z se poate extrage din tabele sau se poate calcula
0.435  0.862a (7.3)
z 2
,
1  3.604a  3.213a
2n  1 (7.4)
a .
4n
Dacă în urma aplicării testului una din valori este afectată de erori aberante, valoarea
respectivă se elimină din eşantion. Se recalculează x şi  utilizand formulele (7.1) şi
respectiv (7.2) pentru valorile rămase şi se reia procedeul.
Tema 7.1. Scrieţi un program (C++, MathCAD, Matlab) pentru testul Chauvenet. Datele
de intrare se iau dintr-un fişier ASCII.

49
MODELARE SIMULARE
Exemplul 7.2. În simularea utilizării unei imprimante conectate la o reţea se urmăreşte
repartiţia numărului maxim de fişiere care sunt în lista de aşteptare pentru listare pe o
perioada de 30 de zile, înregistrându-se valorile:
săpt L Ma Mi J V săpt L Ma Mi J V
I 15 19 13 18 20 IV 19 21 13 23 17
II 12 21 22 19 21 V 18 20 21 13 15
III 13 13 13 14 17 VI 20 19 12 18 12
Să se verifice dacă acest eşantion are valori aberante şi dacă există, să se elimine!

7.1.2. Testul Young

Pentru depistarea erorilor sistematice într-un set de date rezultate din măsurători se poate
folosi testul lui Young, dat de următoarea procedură.
Pas 1. Intrare: x1 , x2 , ..., xn  - şir de date experimentale şi  probabilitatea de acceptare
(coeficient de încredere);
Se calculează mărimile:

1 n 1
2 (7.5)
2   xi 1  xi  ,
n  1 i 1
şi
2 (7.6)
M .
2
Pas 2. Se compară M cu valoarea critică (VCI) inferioară şi valoarea critică superioară
(VCS), VCI<M<VCS, valori luate din tabele în funcţie de n şi  sau determinate cu relaţiile:
a) dacă   0.95 atunci:

VCI  0.491  0.081n  0.003n2 (7.7)

şi
 0.341 (7.8)
VCS  3.317  1.057e 8.919n ;

b) dacă   0.99 atunci:

192.883  1.269n2.33 (7.9)


VCI 
411.427  n2.33
şi
 1.388 (7.10)
VCS  3.484  0.882e 33.574 n .

50
MODELARE SIMULARE
Dacă inegalitatea este satisfăcută, atunci se consideră că şirul de date experimentale are un
caracter aleator (nu este afectat de erori sistematice) cu probabilitatea  .
Pas 3. Stop!
În tabele se dau valori pentru  corespunzătoare diferitelor valori ale lui n (n  25) . Dacă
n>25,  se determină cu relaţia:

1.5057  0.9968n1.7404
 .
2.1803  n1.7404

7.2. Verificarea normalităţii unei mulţimi de date

7.2.1. Metode simple

Pentru verificarea normalităţii unei mulţimi (serii) de date, adică, ipoteza că datele din
măsurători urmăresc repartiţia Gaussiană, se poate folosi una dintre metodele următoare:
 se reprezintă histograma şi după forma acesteia se trage concluzia
corespunzătoare;
 se calculează diferenţa d  M X   M e , dintre media aritmetică a eşantionului şi

mediana acestuia M e , obţinută cu una din relaţiile:

xn  xn
1
Me  2 2
pentru n=par (este  nulă)
2
M e  x n1 pentru n=impar,
2

unde xk reprezintă valoarea de pe poziţia k din şirul de date ordonat crescător. Dacă
d=0 se acceptă ipoteza de normalitate;
 se calculează diferenţa d  M X   M o , dintre media teoretică a eşantionului şi

modul M o , (valoarea cea mai probabilă din eşantion), deteminat cu relaţia

M o  M X   3(M e  M X ) . Dacă d=0 se acceptă ipoteza de normalitate;

4 1 n
 se calculează coeficientul de boltire   , unde:    xi  x 4 şi
 4 4
n i 1

1 n
  xi  x 2 . Daca   3 se acceptă ipoteza de nomalitate.
n i 1

51
MODELARE SIMULARE
Dacă aceste metode nu sunt suficiente, pentru verificarea normalităţii datelor din
eşantionul respectiv, se poate folosi unul dintre testele Massy sau  2 (hi pătrat) în funcţie de
volumul de selecţie sau alt test de concordanţă cum ar fi de exemplu testul Kolmogorov.
Formulăm ipoteza că datele din măsurători urmăresc repartiţia Gaussiană şi aplică unul
dintre testele Massay sau  2 după cum volumul de date este mai mic decât 30 sau superior
acestei valori.

7.2.2. Testul Massey

Se foloseşte pentru testarea normalităţii unui set de date de volum mai mic decât 30.
Pentru aplicarea acestui test se poate folosi următoarea procedură.
Pas 1. Intrare: x1 , x2 , ..., xn  - datele rezultate din măsurători;

Pas 2. Calculează x şi  2 pe baza relaţiilor (7.1) şi respectiv (7.2) şi apoi


xi  x
Zi  , i  1, n , (variabila redusă).

t2
 i

Calculează ti 
1 1 e 2
şi i  
2 2
0.4361ti  0.1202ti2  0.9382ti3  , i  1,n .
1  0.3326Zi

ni
Pas 3. Se calculează frecvenţele relative cumulate Fi  (funcţie de repartiţie empirică),
n
unde ni = numărul de valori Z  Zi .

Pas 4. Se calculează valorile di | Fi  i  0.5 | , i  1, n , şi se determină dmax  max di ,

1  i  n ; dacă   0.95 atunci calculează dcritic  0.1851  0.01064 n  0.000785 n2 ; dacă

  0.90 atunci calculează dcritic  0.1408  0.00714 n  0.000769 n2 .


Pas 5. Dacă d max < d critic şi se consideră că eşantionul are repartiţia normală (cu media

  m şi abaterea standard  ), altfel se respinge ipoteza de normalitate.

7.3. Concordanţa dintre o distribuţie empirică şi una teoretică

Se pune problema racordării unei variabile empirice Xe la o variabilă teoretică X,


x x2  xn  n
 x 
X :  1 
 N n 
N  N , cu X :   ,
  ( x) 
i
 N1 N2 i 1

adică se cercetează dacă şirul numeric al frecvenţelor absolute empirice Ni reflectă legitatea
ipotetică a variabilei aleatoare teoretice. Răspunsul respectiv este util în aprecierea

52
MODELARE SIMULARE
caracteristicilor variabilei empirice prin prisma legităţii variabilei teoretice. Pentru rezolvarea
acestei probleme se parcurg etapele:
i) estimarea parametrilor, facută ţinând seama de eventualele semnificaţii ce le pot avea
în legătură cu caracteristicile repartiţiei teoretice;
ii) se construieşte după estimarea parametrilor variabila pseudoteoretică

~ x x2  xn  n
X :  1  ,  N  N
 N1 N 2  N n 
i
i 1

făcându-se legatura între variabila empirică Xe şi cea teoretică X. Determinarea


frecvenţelor absolute calculate N i se face cu ajutorul funcţiei de probabilitate:

N i
 f ( xi ) , de unde Ni  N  f ( xi ) , i  1, n ;
N
iii) verificarea concordanţei dintre distribuţia empirică şi cea teoretică, adică se stabileşte
dacă diferenţele Ni  Ni sunt datorate unei simple întâmplări, deci nu sunt
semnificative, sau diferenţele sunt semnificative şi atunci există o neconcordanţă între
repartiţia teoretică şi cea empirică. Verificarea concordanţei se face cu teste de
concordanţă, aşa cum s-a precizat mai înainte.

7.3.1.Testul de concordanţă  2 (hi pătrat datorat lui K. Pearson)

Karl Pearson a arătat că în cazul unui sondaj non-exhaustiv în populaţia chestionată, când
probabilităţile pi nu sunt apropiate de zero sau unu, iar produsele Ni  N  pi , unde

pi  f ( xi ) , după estimarea parametrilor, nu sunt prea mici ( Ni  5 ) variabila aleatoare

considerată are repartiţia 2 , cu   n  1  k grade de libertate, n fiind numărul valorilor


observate, iar k numărul parametrilor estimaţi.
Observaţia 7.3. Numărul gradelor de libertate este strâns legat de cantitatea de informaţie
de care se dispune în cercetarea care se efectuează; ea se reflectă în numărul n al claselor de
n
date experimentale: (n-1) informaţii sunt independente, deoarece există relaţi a  N  N
i 1
i şi

se mai poate piede informaţie pentru determinarea celor k parametri estimaţi. O clasă trebuie
să aibă cel puţin 5 date!
Pentru   30 şi  se determină cuantila 2 din tabele statistice (existente la sfârşitul

 
oricărei cărţi de statistică matematică!) P  2  2   şi dacă

53
MODELARE SIMULARE

 2

Ni  Ni2   2 (7.11)

N i
calc

există concordanţă, iar dacă  calc


2
 2 nu există concordanţă între cele două repartiţii.

Exemplul 7.4 (de aplicare a testului 2). Se caută să se pună la punct o maşină de
ambalat ciment în saci de greutate nominală 50 kg. După primele reglaje, se verifică la
întâmplare 500 de saci a căror greutate a fost notată în Tabelul 1.
Tabelul 1
Greutatea în Kg <45 [45-47) [47-49) [49-51) [51-53) [53-55) [55-57) >57 Total
Nr saci 35 53 76 100 88 78 42 28 500
Se poate considera că repartiţia sacilor de ciment este normală?
Rezolvare
Pentru determinarea estimatorilor pentru medie şi dispersie, x, sn , folosim datele din
tabelul de mai jos.
Mijlocul intervalului Frecvenţa absolută
Intervalul ~
xi Ni
(43-45) 44 35
(45-47) 46 53
(47-49) 48 76
(49-51) 50 100
(51-53) 52 88
(53-55) 54 78
(55-57) 56 42
(57-59) 58 28
Total 500
n

 N  ~x
i i
Estimarea mediei se face cu media aritmetică: x  i 1
 50.78 .
N
n

x N 2
i i
2
sn  i 1
 x  14.0236 şi abaterea medie pătratică se
2
Estimarea dispersiei:
N
estimează cu 3.74 .
Se formuleazăa ipoteza H0: Greutatea sacilor este o variabilă aleatoare N(50.78, 3.74)

54
MODELARE SIMULARE

xi  x xi  50.78
Se consideră variabila redusă Z i   , ale cărei valori sunt trecute în
sn 3.74
Tabelul 3, împreună cu probabilităţile teoretice corespunzătoare.
Tabelul 3
Interval de
Zi ( Z i ) pi N i
greutate a sacilor
 45 -1.54 0.061 0.061 30.679
(45-47] -1.01 0.156 0.095 47.517
(47-49] -0.48 0.317 0.161 80.443
(49-51] 0.06 0.523 0.206 103.073
(51-53] 0.59 0.723 0.2 99.963
(53-55] 1.13 0.87 0.147 73.378
(55-57] 1.66 0.952 0.082 40.767
(57-59] 2.20 0.986 0.034 17.14
>59 0.014 7
unde: pi  ( xi )  ( xi1 ) , (x) fiind funcţia de repartiţie a variabilei aleatoare normale

standard, Ni  pi  N  500  pi . Deoarece ultimele două clase au probabilităţi foarte mici le
unim considerând că greutăţile sacilor sunt împărţite în 8 clase (cum de altfel sunt şi în
Tabelul 1).
Numărul gradelor de libertate n  n  1  k  8  1  2  5 . Pentru a  0.05 se găseşte în tabelul

repartiţiei  2
cuantila  2
 11.070 . Cu formula  2

Ni  Ni2 găsim valoarea
N i
0.05 calc

calc
2
 10.219  0.05
2
 11.070 şi cu pragul de semnificaţie de 5% ipoteza că repartiţia

empirică provine dintr-o populaţie repartizată N(50.78,3.74) nu poate fi respinsă. Ipoteza H0


se acceptă!
Exemplul de mai sus este rezolvat utilizând următorul document MathCAD.

55
MODELARE SIMULARE

 35 
 53 
 
 76 
Ns   nrsac Ns  500

 100 
nrsac    numărul intervalelor greutăţilor sacilor
 88 
 78  n  last(nrsac )
 42  n8
 
 28 

Mijloacele intervalelor

 44 
 46  Frecvențele absolute pe fiecare interval de greutate
 
 48 
 50  xi mint FrAbs  nrsac Ni  FrAbs
mint   
 52 
 54 
 56 
 
 58 

Determinăm estimatori pentru parametrii medie și dispersie

i  1 n xiNi  xi Ni


i i i

Media

 mint  Ni
i i
Xmed  50.78
i1
Xmed 
Ns

Dispersia

 minti  Nii
2

i1 2
Abaterea medie patratică
2   Xmed
Ns

56
MODELARE SIMULARE

2  14.024   2   3.745

Numărul gradelor de libertate =n-1-k ; k=numărul parametrilor determinaţi

  n  1  2  5
H0: Greutatea sacilor este o variabilă aleatoare repartizată N(50.78; 3.745)

Considerăm variabila redusă xi  1  Xmed


i
Z 
i 
T
Z  ( 1.543 1.009 0.475 0.059 0.593 1.127 1.661 2.195)

Probabilitaţile teoretice
p  cnorm Z
1  1
i  2 n

 i
p  cnorm Z  cnorm Z
i  i1
T
p  ( 0.061 0.095 0.161 0.206 0.2 0.147 0.082 0.034)

Calculăm c

n
 Nii  Ns pi2
2c   Ns  p
i
2c  10.219

i 1
2 cu 5 grade de libertate în tabela repartiţiei 2 este 2  11.0705

Dacă 2 calc este mai mic decât 2 se acceptă ipoteza de normalitate


altfel se respinge

7.3.2. Testul Kolmogorov

La baza acestui test stă următoarea teoremă.


Teorema 7.5 (a lui Kolmogorov). Fie X o variabilă aleatoare a cărei funcţie de repartiţie
este F (x) continuă şi X 1 , X 2 , ..., X n o selecţie efectuată asupra sa. Fie Fn (x) funcţia de
repartiţie empirică (sau de selecţie) asociată selecţiei date, adică
numarul valorilor X i  x
Fn ( x)  . Atunci:
n
   (7.12)
    1 e   k  K ( ) .
2 2
lim P max Fn ( x)  F ( x) 
k
n
 n

57
MODELARE SIMULARE
Definiţia 7.6. Funcţia K ( ) se numeşte funcţia lui Kolmogorov şi există tabele cu
valorile ei la sfâşitul cărţilor de statistică matematică pentru diferite valori ale lui n şi  .
Practic testul lui Komogorov constă din următorii paşi:
- se formulează ipoteza H0 : X are funcţia de repartiţie F (x) ;
- se fixează un prag de semnificaţie  (de exemplu   0.05 , 0.01 ; 0.025 );
- se determină din tabele  astfel încât K ( )  1   ;

- se ordonează crescător X 1 , X 2 , ..., X n , obţinându-se X (1)  X ( 2)  ...  X ( n) ;

- se calculează Fn ( X (i ) ) , F ( X (i ) ) şi diferenţele di  Fn ( X (i ) )  F ( X (i ) ) , i  1, n ;

- se determină d  max di ;
1in


- dacă d  se acceptă ipoteza H0, altfel se respinge!
n
Un exemplu de aplicare se află în Partea a II a în Lecţia 3, paragraful 3.3.

7.4. Procedee de obţinere de numere uniforme

Pentru obţinerea de numere uniforme se pot utiliza următoarele procedee.


1. Tabele cu numere întâmplătoare dau numere aleatoare pe un interval dat putând
proveni de la recensăminte;
2. Procedee fizice (de exemplu zgomotul electronic sau radioactiv receptat din cosmos);
3. Procedee aritmetice, numite şi generatoare, permit prin relaţii de recurenţă obţinerea
de numere pseudoaleatoare sau cvasialeatoare.
Vom considera în cele ce urmează unele proedee aritmetice.
Cerinţele ce trebuie verificate de un generator de numere aleatoare sunt enumerate în
continuare:
- să fie simplu şi rapid;
- să producă şiruri de numere oricât de lungi şi fără repetiţii (perioada să fie foarte
mare);
- numerele produse să fie independente statistic, sau dacă sunt dependente,
dependenţa să fie foarte slabă;
- numerele generate să fie cât mai aproape de repartiţia uniformă.

58
MODELARE SIMULARE
7.4.1. Câteva exemple de generatoare de numere aleatoare

7.4.1.1. Metoda mijlocului pătratului (middle square method)

Această metodă este datorată lui John von Neumann. Fiind dat un număr pseudoaleator
X n , următorul număr pseudoaleator X n 1 se obţine ca fiind format din cifrele părţii de mijloc

a lui X n2 . Dacă X n are 2k cifre, X n2 are 4k cifre (cel puţin după completarea adecvată cu cifra

0 în faţa numărului). Se reţin 2k cifre de la mijlocul lui X n2 pentru obţinerea lui X n 1 ş.a.m.d.
Relaţia de recurenţă este
 X n2   X n2  2 k
X n 1   k    3k b ,
 b  b 
unde: X n are 2k cifre, X n2 are 4k cifre şi se reţin 2k cifre de la millocul lui X n2 , b fiind baza
de numeraţie (de exemplu b=10).
D. E. Knuth în cartea sa Arta programării calculatoarelor, în volumul al II-lea, dedică
spaţii importante generatoarelor de numere pseudoaleatoare, precizând condiţii ce trebuie
verificate pentru a avea generatoare cu perioadă mare şi o dependenţă slabă între numerele
generate.

7.4.1.2. Metode congruenţiale liniare

În metodele congruenţiale se foloseşte următoarea relaţie de recurenţă


X n 1  (aX n  c) mod M
unde:
 X0 este sămânţa, valoarea cu care se startează algoritmul,
 a este multiplicatorul,
 c este o constantă de translaţie,
 M este modulul (faţă de care se ia restul împăţirii exacte).
Un astfel de generator se notează prin ( X 0 , a, c, M ) şi se numeşte generator
congruenţial mixt. D. E. Knuth [23] stabileşte ce condiţii trebuie să îndeplinească a, c şi M
pentru ca generatorul să producă numere aleatoare uniforme „bune”.

59
MODELARE SIMULARE
7.4.1.3. Metoda de amestecare a lui Marsaglia

Fie G1 ,G2 doi generatori de numere aleatoare uniforme. Se poate obţine un al treilea
generator G prin amestecarea celor două astfel:
- se dă o listă A1, ..., AL , 0  Ai  1 , i  1, L de numere aleatoare uniforme produse cu G1 ;
- se generează un indice aleator i având repartiţia
1 2 . . . L
1 1 1  , i ~  U (1, L) , cu generatorul G2;
 . . . 
L L L
- se consideră U  Ai ca fiind produs cu generatorul G.

Exemplul 7.7. Fie L=4 şi numerele aleatoare uniforme 0.1 0.2 0.15 0.3 generate cu
generatorul G1 . Fie I o variabilă aleatoare uniform repartizată pe [1, 4] al cărei tablou de

1 2 3 4
distribuţie este  1 1 1 1  . Cu generatorul G2 presupunem că s-au generat:
 
4 4 4 4
i=2 şi se reţine U  A2  0.2 , i=4 şi se reţine U  A4  0.3 , i=1 şi se reţine
U  A1  0.1 .
Propoziţia 7.8. Dacă  (G1 )  1 şi  (G2 )  2 sunt perioadele celor doi generatori
părinţi, atunci perioada generatorului fiu, G, este   c.m.m.m.c.(1, 2 ) .
Consecinţa 7.9. Dacă 1 , 2   1 atunci   1  2 obţinându-se astfel o îmbunătăţire a

generatoarelor părinte prin mărirea perioadei generatorului fiu.

7.5. Generări de variabile aleatoare neuniforme

Următoarele două leme demonstrează importanţa variabilelor aleatoare uniforme în


simularea numerică a variabilelor aleatoare neuniforme.
Lema 7.10 (Smirnov-Hincin). Fie X o variabilă aleatoare oarecare, având funcţia de
repartiţie F(x) inversabilă, adică F 1 , iar U ~ U (0, 1) . Atunci X  F 1 (U ) ~ F ( x) .
~

Demonstraţie
~ ~
F ( X )  P( X  x)  P( F 1 (U )  x)  P(U  F ( x))  F ( x) q.e.d.
Lema 7.11 (varianta Smirnov). Dacă X este o variabilă aleatoare cu funcţia de repartiţie
F (x) , atunci variabila aleatoare U  F ( X ) ~ U(0,1) .

60
MODELARE SIMULARE
Demonstraţie
P(U  u)  P( F ( x)  u)  P( x  F 1 (u))  P( x  F 1 ( F ( x)))  F 1 ( F ( x)  x q.e.d.
Lema 7.12. Fie variabila aleatoare
1
X ~  f ( x)  g ( x); k   g ( x)dx , g ( x)  0 , () x  R
k R

 
şi  : D  R 2  R definită prin  (u, v)  (au  bv  c)u d , unde a, b, c, d  R , d  1 , b  0
u,v ~ U( D) , unde D este domeniul mărginit dat de relaţia
 1

D  (u, v)  R | 0  u  g ( (u, v)) .
2 d 1

 
Atunci:
k
1. mes(d ) 
b(1  d )
~
2. X   (u, v) ~ f ( x) , unde f(x) definită mai sus.

Demonstraţie
Dacă vectorul u,v  ~ U ( D) atunci are densitatea de repartiţie

 1
 , (u, v)  D
h(u, v)   mes( D)

0 altfel

 g 11d ( y ) d 
  x 
mess( D)    dudv   dudv   0 b dy 
 dx
D 1 
0u  g d 1 ( ( u ,v ))  
 
1

1  x1d g 1d ( y )  1 k
   dy   g ( y )dy  ,
b  1  d 0  b(1  d )  b(1  d )
 
dacă se face schimarea de variabile
ux
 d
v  x  ax  c

 b
al cărei jacobian este
 yx  d 1d  a
D(u, v) 1 b x d
  .
D ( x, y ) x d b
0
b
Astfel:

61
MODELARE SIMULARE
~ 1
mes( D)  (u ,v ) y
F ( x)  P( X  x)  P( (u, v)  x)  dudv 

 g 11d ( x )  y 
1

1 
y
t d  b(1  d ) 1  x1 d g 1d ( y ) 
mes( D)   0 b  b   1  d
  dt  dy   dy 
k 0

   
y
1
  g ( y )dy  F ( y ).
k 

q.e.d.

7.5.1. Metode generale

7.5.1.1. Metoda inversă

Această metodă are la bază lema Smirnov-Hincin. Reamintim că dacă X ~ F ( x) , iar


~
dacă F este inversabilă, atunci X  F 1 (U ) ~ F ( x) , cu U ~ U (0,1) .
Algoritmul Inv
Pas 0. Iniţializarea algoritmului pentru genenerarea variabilei uniforme pe (0,1) (RND) şi
a algoritmului pentru calculul lui F 1 .
Pas 1. Generează U ~ U (0,1) .

Pas 2. Calculează X  F 1 (U ) .
Pas 3. STOP!
Exemplul 7.13. Simularea variabilei aleatoare exponenţială X ~ Exp ( )
Variabila aleatoare X ~ Exp ( ) are densitatea de repartiţie f x  definită în (3.18) iar
funcţia de repartiţie F (x) din (3.19).

Dacă U ~ U (0,1) şi F ( x)  U , obţinem 1  e  x  U sau 1  U  e  x şi notând


1
1  U  V rezultă X   ln V , unde V ~ U (0,1) .

Observaţia 7.14. Dacă U ~ U(0,1) atunci V  1  U ~ U(0,1) .
Algoritmul exponenţial
Pas 0. Intrare  .
Pas 1. Generare U ~ U (0,1) .
1
Pas 2. Reţine X   ln U .

Pas 3. STOP!

62
MODELARE SIMULARE
7.5.1.2. Generarea variabilelor aleatoare de tip Gumbel cu metoda inversă

În statistica extremelor intervin variabile aleatoare ale căror funcţii de repartiţie sunt:
 ( x u )
1. F ( x; , u)  ee pentru maxime; x  R; , u  0 , X ~ F ( x; , u) variabilă
aleatoare de tip Gumbel (dublu exponenţială generalizată);
 v k
 
2. Fr ( x; , k )  e x
pentru maxime; x, v, k  0 , X ~ Fr ( x; , k ) variabilă aleatoare de
tip Frechet;
k
x
 
3. We ( x; , k )  e v
pentru minime; x  0, v  0, k  0 , X ~ We ( x; v, k ) variabilă
aleatoare de tip Weibull.
y
Cu schimbarea de variabilă y   ( x  u)  F ( y)  e e dublu exponenţială (Dexp,
x
F ( x)  e  e ).
Y
Pentru (1.) : F(Y)  U ~ U (0,1)  ee  U | ln  eY  ln U

sau e Y   ln U | ln  Y  ln( ln U )  Y   ln( ln U )


1
 ( X  u)   ln( ln U )  X  u   ln(ln U ) 

1
X u ln(  ln U ) variabilă aleatoare de tip Gumbel.

Algoritm
Pas 0. Intrarea  , u .
Pas 1. Generează U ~ U (0,1) .
1
Pas 2. Reţine X  u  ln(  ln U ) .

x
Pentru (2.) cu schimbarea de varabilă y  k ln în (2.)  Dexp.;
v
deducem:
y
x  ve x ~  Fr ( x ; v, k ) .
v
Pentru (3.) cu schimbarea de variabilă y  k ln , adică
x
y

x  ve k
~  We ( x; v, k ) ;
y
F ( y)  ee  U ~ U(0,1)  e y  ln U  e y   ln U   y  ln(ln U ) 

63
MODELARE SIMULARE
Y   ln( ln U ) ~ Dexp.

7.5.1.3. Metoda amestecării (Mixture method)

Această metodă se foloseşte pentru variabile aleatoare care au funcţia de repartiţie de


forma:
k k
a) caz discret F ( x)   piGi ( x) , unde 0  pi  1 ; p i  1; Gi sunt funcţii de
i 1 i 1

repartiţie;
b) caz continuu – dacă Y ~ g ( y) , y  R , X ~ f y ( x) , x  R , y este un parametru,

atunci f ( x)   f y ( x) g ( y)dy este densitatea de repartiţie a lui X.

În termeni de funcţii de repartiţie, dacă



Y ~  H ( y) , X y ~  G( x) atunci X ~  F ( x)   G( x, y)dH ( y) .


Algoritmul de compunere discretă:


Pas 0. Intrare p1,..., pk ; iniţializarea algoritmilor, care generează variabilele aleatoare cu
i
repartiţia Gi . Pentru i  1, k calculează Fi   p j .
j 1

Pas 1. Repetă
j=0;
Generează U ~ U (0,1) ;
Repetă
j:=j+1;
până când Fj  U ;

Generează Z ~  G j ( z )

X:=Z;
până când o condiţie de oprire este verificată;
Pas 2. STOP!
Exemplul 7.15. La o staţie de benzină se prezintă n tipuri de autoturisme pentru
aprovizionare, iar Z j este intervalul de timp dintre două sosiri consecutive de automobile de

tip j. Aceste variabile aleatoare sunt considerate că au repartiţia Exp ( j ) ,  j  0 , j  1, n .

64
MODELARE SIMULARE

Presupunem că pi este probabilitatea ca la un moment dat să sosească un automobil de tip


j şi această probabilitate este cunoscută. Fie X variabilă aleatoare ce dă intervalul de timp
dintre două sosiri consecutive de automobile, indiferent de tip. Atunci X are funcția de
 j x
repartiţie rezultată din amestecarea funcţiilor de repartiţie Fj ( x)  1  e , j  1, n , după

vectorul de probabilităţi p   p1, p2 ... , pn  , adică


n n
X ~  F ( x)   pi Fi ( x)   pi (1  e
 j x
)
i 1 i 1

Algoritm pentru generarea variabilelor aleatoare cu metoda amestecării continue


P0. Iniţializarea algoritmului şi pentru generarea variabila aleatoare. Y ~ G( y)
P1. Repetă
Generează Y ~ G( y)

Generează X Y ~ H ( x, y)
Reţine X  X Y ;
până când o condiţie de oprire este verificată;
P2. STOP!

7.5.1.4. Generarea variabilelor aleatoare Pearson de tip XI

Variabila aleatoare de tip Pearson este un amestec de exponenţiale după o altă lege tot
exponenţială, adică X  ~ Exp ( )  G( x,  )  1  e x , unde

 ~ Exp ( )  H ( )  1  e   .

Atunci X ~  F ( x)   (1  e x )(e  )d are repartiţia Pearson de tip XI, adică
0


F ( x)  1  .
x
Algoritm pentru generarea variabilei aleatoare de tip Pearson XI
Pas 0. Iniţializare RND; Intrare  ;
Pas 1. Repetă
Generează U ~ U (0,1) ;
1
   ln U ;

Generează U ~ U (0,1) ;

65
MODELARE SIMULARE
1
Reţine X   ln U ;

până când o condiţie de oprire este verificată;
Pas 2. STOP!

7.5.2. Metoda respingerii

7.5.2.1. Sistem de respingere

Fie X o variabilă aleatoare pe care dorim să o generăm, S  {S1, ..., Sn } o familie de

variabile aleatoare care pot fi generate cu calculatorul, N o variabilă aleatoare, care ia valori
în N*, P o proprietate ce poate fi verificată cu calculatorul şi  : R n  R o funcţie măsurabilă
pentru ()n  N * , astfel încât fiind date S1 , ..., Sn din S care satisfac proprietatea P atunci
~
X  (S1 ,..., Sn ) are aceeaşi funcţie de repartiţie cu X (iniţial).

Definiţia 7.16. Sistemul {S , N , , P} formează un procedeu de respingere pentru


variabila aleatoare X.
Algoritm general de respingere datorat lui John von Neumann
Pas 0. Iniţializarea algoritmilor RND pentru generarea variabilelor aleatoare uniforme şi
Si , a algoritmilor pentru verificarea proprietăţii P şi pentru calculul valorilor lui  .
Pas 1. Repetă
Repetă
Generează n, variabilă aleatoare de tip N;
Pentru i  1, n generează Si

până când P(S1, ..., Sn ) este verificată;

Reţine X  (S1,..., Sn ) ;
până când se verifică o condiţie de oprire;
Pas 2. STOP!
Un procedeu particular de respingere are la bază lema înfăşurătoarei.
Lema 7.17. (a înfăşurătoarei). Fie X ~  F ( x) şi Y  R p , Y ~ h( y) ,

h( y)  0 () y  R p şi P(( f ( y)  0)  0 . Presupunem că   0 a.î. f ( x)


  pentru
h( x )

() x  R p , iar Y poate fi generat cu calculatorul. Atunci, dacă U ~ U (0,1) şi independent de

66
MODELARE SIMULARE
f ( y)
Y densitatea de repartiţie a lui Y condiţionată de 0  u  este f(x) adică Y este o
h( y )
realizare a lui X.
Procedeul de respingere dat de lema înfăşurătoarei
S  {Y ,U ,Y ,U ,...}
N=2
f (Y )
P:0 U 
  h(Y )
(Y ,U )  Y ;
Atunci X=Y;

Algoritmul dat de lema înfăşurătoarei


Pas 0. Iniţializarea algoritmului RND şi a algoritmului pentru generarea variabilei
aleatoare Y;
Intrare  ;
Pas 1. Repetă
Repetă
Generează U ~ U (0,1)
Genenerează Y ~ h( y)
f (Y )
până când U  ; Reţine X=Y;
  h(Y )
până când se verifică o condiţie de oprire;
Pas 2. STOP!
Se poate arăta pentru acest algoritm că probabilitatea de respingere a ciclului intern este
1
 1 , algoritmul fiind eficient pentru   1 , dar apropiat de 1.

7.5.3. Generarea variabilei aleatoare normală N(m, )

Ţinând seama de simetria faţă de 0 a densităţii de repartiţie a variabilei aleatoare normale


standard, este suficient să considerăm doar semiaxa pozitivă, adică:
z2
2 
z  0 , f ( z)  e 2
, () z  0 .

Aplicăm Lema înfăşurătoarei considerând ca înfăşurătoare repartiţia exponenţială
standard,

67
MODELARE SIMULARE
x2
f ( x) 2 x 2
Y ~ Exp (1) ;   1 , h( y)  e  y
, r ( x)   e .
h( x )  x 0 1 
r’ + - +
2e
Se determină   .
 r  2e 

Generarea unui semn aleator 


Valorile obţinute cu algoritmul de mai sus sunt pozitive, însă variabila aleatoare normală
standard poate lua şi valori negative. Atunci, fiecărei valori simulate cu algoritmul de mai sus
îi asociem un semn aleator astfel:
Generează U ~ U (0,1) ;
Dacă U  0.5 semn:=-1 alfel semn:=1;
Algoritmul corespunzător este

2e
Pas 0. Intrare:  ,  ,   ; iniţializarea algoritmului RND.

Pas 1. Repetă
Repetă
Generează U ~ U (0,1) ;
Y   ln U ;
Generează U ~ U (0,1) ;
Y2 1
 Y 
până când U  e 2 2
;
Generează U ~ U (0,1) ;
Dacă U  0.5 Z=-Y alfel Z=Y ;
Reţine X      Z ;
până când se verifică o condiţie de oprire;
Pas 2. STOP!

7.5.4. Generarea variabilei aleatoare normală prin metoda polară

O metodă particulară pentru generarea variabilei aleatoare normale are la bază teorema
Box-Muller.
Teorema 7.19 (Box şi Muller). Dacă U1 ,U 2 ~ U(0,1) independente, atunci

 2 ln S
Z i  Vi , i  1, 2 sunt variabile aleatoare normale standard independente, unde
S

68
MODELARE SIMULARE

Vi  2U i  1 ; 0  S  V12  V22  1 (observăm că V1 , V2 U(1,1) ). Deoarece 0  U  1 ,

atunci  1  Vi  1 (pentru demonstraţie vezi [45]).

Algoritmul Box-Muller
Pas 0. Iniţializare RND; Intrare n, numărul de realizări ale variabilei aleatoare normale;
n
m ;
2
Pas 1. Pentru i  1, m,2 execută
Repetă
Generează U1 ~ U(0,1) , calculează V1  2U1  1 ;
Generează U 2 ~ U (0,1) , calculează V2  2U 2  1 ;

Calculează S  V12  V22


Până când 0<S<1;

 2 ln S  2 ln S
Calculează Zi  V1 ; Zi 1  V2 ;
S S
Pas 2. STOP!
Observaţia 7.20. 1. În urma executării unui ciclu, acestă metodă produce două variabile
aleatoare normale standard independente!

2. Probabilitatea de acceptare în acest procedeu de respingere este pa  .
4
O variantă a acestei metode, cunoscută sub numele de metoda polară, dă cele două
variabile normale standard cu formulele:
Z1   2 ln U1 cos(2U 2 ) , Z 2   2 ln U1 sin(2U 2 ) ,

Ui ~ U(0,1) , i  1, 2 independente.
Observaţia 7.21. Această variantă nu presupune nici o respingere!
Tema 7.22. Pentru lucrarea a II-a programaţi algoritmii folosiţi pentru generarea
variabilelor aleatoare continue şi discrete prezentate.

69
MODELARE SIMULARE
7.5.5. Generarea unor variabile aleatoare înrudite cu variabila aleatoare normală

7.5.5.1. Generarea variabilei aleatoare  2

Pentru generarea numerică a variabilei aleatoare  2 ţinem seama de proprietatea enunţată



deja că dacă X ~  2  X   Zi2 , Zi ~  N(0,1) , Zi, i  1, n independente.
i 1

Observaţia 7.23. Dacă   30 atunci


2

X  2 ~ N 2  1,1  şi de aici

 2

Z  2  1 
2

, unde Z ~ N(0,1) .
2
Aşadar, ştiind să generăm variabile aleatoare normale, putem genera variabile aleatoare
 2 cu una dintre cele două relaţii de mai sus.

7.5.5.2. Generarea variabilei aleatoare t (de tip Student)

Ţinând seama de proprietatea enunţată deja că variabila aleatoare Student cu ν grade de


Z
libertate este definită de relaţia t  , unde Z ~ N(0,1) şi 2 sunt variabile aleatoare
 2


independente putem scrie următorul algorim pentru generarea variabilei aleatoare Student.
Algoritmul corespunzător este:
Pas 0. Iniţializare RND; Intrare: ν – numărul gradelor de libertate şi n=numărul de
realizări (volumul eşantionului generat);
Pas 1. Pentru i  1, n execută
Generează Z ~ N(0,1) ;

Generează 2 cu una dintre metodele de mai sus;

Z
Reţine t  ;
2

Pas 2. STOP!

70
MODELARE SIMULARE

7.5.5.3. Generarea variabilei aleatoare F 1 2 (Snedecor-Fisher) cu  1 , 2 grade de libertate

Pentru generarea variabilei aleatoare Snedecor-Fisher ţinem seama de prorpietatea

 2 
2

prezentată că F 1 2  1
, unde 2 şi 2 sunt independente.
 1 2
2
1 2

Se poate scrie acum următorul algoritm pentru generarea numerică a variabilei aleatoare
Snedecor-Fisher.
Pas 0. Iniţializare RND ; Intrare  1 , 2 , n - numărul de realizări;

Pas 1. Pentru i  1, n execută

Generează 21 cu una dintre metodele de mai sus;

Generează 22 cu una dintre metodele de mai sus, independentă de 21

 2 
2

Reţine F 1 2  1
;
 1 2
2

Pas 2. STOP!

7.5.5.4. Generare variabilei aleatoare lognormală

Ţinând seama de definiţie şi anume că, variabila aleatoare X este lognormală dacă
Y  ln X este variabilă aleatoare normală, putem scrie următorul algoritm pentru generarea
numerică a variabilei aleatoare X .
Algoritmul LOGNORM
Pas 0. Iniţializare RND . Intrare  x , x ,n - numărul de realizări. Calculează

1  x2    x2 
 y  ln  x  ln  2  1 şi  2
 ln  2  1 ;
 x
y
2  x  
Pas 1. Pentru i  1, n execută
Generează Z ~ N(0,1) ;

Calculează Y   y  Z y ;

Reţine X  exp(Y ) ;
Pas 2. STOP!

71
MODELARE SIMULARE

7.6. Generarea unor variabile aleatoare discrete

7.6.1. Variabila geometrică

Exemplul 7.24. Dacă notăm cu X, variabila aleatoare, care numără piesele găsite
corespunzătoare în urma controlului unei mulţimi de piese până la apariţia primului rebut,
atunci X are repartiţia geometrică.
Pentru generarea numerică a variabilei aleatoare geometrice se poate folosi metoda
inversă, astfel:
F ( x)  U  1  q x  U ~ U (0,1) şi q x  1  U ~ U(0,1) , V  1  U ~ U(0,1) . Atunci

ln V  ln V 
V  q x  x ln q  ln V  x   X  ,
ln q  ln q 
unde {x} desemnează numărul întreg nenegativ cel mai apropiat de numărul real x.
Algoritm
Pas 0. Iniţializare RND ; Intrare q, n - numărul de realizări;
Pas 1. Pentru i  1, n execută
U ~ U (0,1) ;

 ln U 
Reţine X   ;
 ln q 
Pas 2. STOP!

7.6.2. Generarea variabilei aleatoare Poisson

Pentru generarea numerică a variabilei aleatoare Poisson, vom folosi faptul că X


reprezintă numărul de evenimente rare (de exemplu: intrările într-un sistem de
aşteptare/unitatea de timp) şi că intervalul de timp dintre două sosiri consecutive este o
variabilă aleatoare exponenţială de parametru λ. Pentru a genera X trebuie generate intervale
de timp τ,  ~ Exp ( ) , astfel încât suma lor să acopere intervalul de timp egal cu unitatea.
Numărrul j de astfel de intervale este o selecţie de a variabilei aleatoare Poisson.
j j 1
j satisface inegalitatea dublă  i     i ,  i   ln Ui , astfel îl găsim pe j.
i 1 i 1

72
MODELARE SIMULARE
j j
Transformăm inegalităţile de mai sus astfel:  ln U i     ln Ui
i 1 i 1
sau

j j 1 j 1 j
ln U i    ln U i , de unde
i 1 i 1
Ui  e  Ui , iar Ui ~ U(0,1) .
i 1 i 1

Putem scrie următorul algoritm pentru generarea variabilei aleatoare Poisson.


Algoritul Poisson
P0. Iniţializare RND. Intrare λ, n- numărul de realizări;
P1. Pentru i  1, n execută
j=i-1 ; p=1 ;
Repetă
Generează U ~ U (0,1) ; p : p  U ; j : j  1;

până când p  e ;


Reţine X=j;
P2. STOP!

8. AJUSTAREA DATELOR

8.1. Dreapta de regresie – punerea problemei

Exemplul 8.1. Fiind date într-un sistem cartezian punctele M i ( xi , yi ) , i  1,6 să se


găsească o dreaptă care trece cel mai aproape de aceste puncte.
Rezolvare
Considerăm dreapta y  a  x  b  f (x) şi punem condiţia ca punctele să se situeze pe

această dreaptă, adică yi  a  xi  b , i  1,6 , unde parametrii a, b sunt necunoscuţi. Problema


n
revine la a determina minimul funcţiei S ( x)    yi  f ( xi )  , n fiind numărul de puncte.
2

i 1

Dacă min S ( x)  0 , atunci yi  f ( xi ) , i  1, n . Pentru aceasta se rezolvă sistemul de ecuaţii


liniare în a şi b, obţinând punctele staţionare

 S  n
 n 2 n n

 a  0   xi  yi  axi  b   0
 2   i
a x  b  xi   xi  yi
i 1 i 1 i 1 i 1
 S , adică  n , de unde  n n cu soluţia
 0   2  yi  axi  b   0  a  xi  b  n   yi
 b  i 1  i 1 i 1

73
MODELARE SIMULARE
n n n n

x
i 1
i  yi x i 1
i x x y
i 1
2
i
i 1
i i

n n n

y i 1
i n x
i 1
i y
i 1
i
a n n
b n n

x x
i 1
2
i
i 1
i x x
i 1
2
i
i 1
i

n n

x i 1
i n x
i 1
i n

8.2. Funcţia de regresie

Definiţia 8.2. Funcţia de regresie este o expresie matematică dedusă în urma prelucrării
unor date experimentale, ce aproximează dependenţele dintre două sau mai multe variabile ale
unui sistem dat. Funcţia de regresie este necesară atunci când dependenţele dintre variabilele
respective nu pot fi stabilite suficient de precis pe cale teoretică.
Definiţia 8.3. Una dintre cele mai populare metode pentru determinarea funcţiei de
regresie este metoda celor mai mici pătrate.
Fiind dată o mulţime de perechi de puncte ( xi , yi ) , i  1, n se pune problema
determinării unei funcţii y=f(x), f numită funcţie de regresie, ale cărei valori în punctele xi
să aproximeze cât mai bine valoarea yi.. Drept criteriu de aproximare vom lua suma pătratelor
n
corecţiilor min S ( x)  min   yi  f ( xi )  .
2

i 1

Aşadar, determinarea expresiei f constă în determinarea unor coeficienţi şi atunci trebuie


S ( x)
rezolvat sistemul  0 , j  1, m , m fiind numărul de coeficienţi necunoscuţi ai
ci
funcţiei f. Un exemplu îl constituie dreapta de regresie prezentat mai înainte.
Alte forme pentru funcţia de regresie
1) f ( x)  a  x  b

2) f ( x)  a  x 2  b  x  c
b
3) f ( x)  a 
x
4) f ( x)  a  e x  b
5) f ( x)  a  ln( x)  b

74
MODELARE SIMULARE
a
6) f ( x) 
1
b
x
1
7) f ( x)   x
ae b
8) f ( x)  a  xb
b
9) f ( x)  a  c x

10) f ( x)  a  eb x
ş.a.m.d.
Un exemplu de aproximare a datelor provenite din măsurători îl constitue polinomul de
interpolare al lui Lagrange, pentru care în anumite condiţii se poate da o margine a erorii de
aproximare.
Teorema 8.3. Fie f : [a, b]  R şi x0 , x1 , ... , xn (n+1) puncte din intrervalul [a,b]. Atunci

există un polinom unic Pn de gradul n, care aproximează funcţia f în punctele xi


n n
x  xj
i  0, n ,  f ( xi )  Pn ( xi ) , Pn ( x)   f ( xi ) . Acest polinom se numeşte polinomul
i 0 j 0 xi  x j
j i

de interpolare al lui Lagrange. În plus, dacă f  C n 1 a, b , atunci pentru  x [a, b]

f ( n 1) ( ) n
există   (a, b) astfel încât f ( x)  Pn ( x) 
(n  1)!
 x  x  .
i 0
i

Observaţia 8.4. Dacă f este un polinom de gradul n şi se cunosc valori ale lui f într-
o mulţime de (n+1) puncte, atunci polinomul de interpolare al lui Lagrange coincide cu f .

Exemplul 8.5. Să se determine valoarea funcţiei f  f ( x)  x 5


 3x  1 în x  0.5 dacă
i se cunosc valorile în punctele date în tabelul de mai jos :
x -3 -2 -1 0 1 2
y -233 -25 3 1 -1 27
Polinomul de interpolare al lui Lagrange ne dă valoarea -0.46875, care este de fapt
valoarea exactă a funcţiei f în 0.5 .
Calitatea aproximării (adecvanţa) se poate măsura cu unul dintre coeficienţii de mai jos:
n

y  f ( xi ) 
2
i
 deviaţia standard (eroare standard) (S) : S  i 1
n  nc

75
MODELARE SIMULARE

 coeficientul de corelaţie (r) : r  St  S r


St
unde:
 nc reprezintă numărul de parametri ai funcţiei de regresie,
n
 Sr    yi  f ( xi ) 2 ,
i 1

 
n
 St   y  yi
2
,
i 1

y i
 y i 1 .
n
Cu cât S este mai apropiat de zero, respectiv r de 1, cu atât aproximarea dată de f este
mai bună. Semnificaţia erorii standard este apropiată de cea a parametrului 2 şi
caracterizează împrăştierea punctelor experimentale în jurul graficului funcţiei de regresie şi
având o valoare cât mai apropiată de zero atunci când punctele sunt mai aproape de grafic.
Definiţia 8.6. Coeficientul de corelaţie reprezintă o măsură a raportului dintre gradul de
împrăştiere al punctelor experimentale în jurul graficului funcţiei de regresie şi gradul de
împrăştiere al aceloraşi puncte în raport cu media aritmetică a ordonatelor.
Valoarea acestui coeficient reprezintă o măsură mai exactă a calităţii funcţiei de regresie
obţinută în situaţia în care abaterea standard a valorii experimentale este relativ mare. Funcţia
de regresie face o bună aproximare cu cât coeficientul de corelaţie este mai apropiat de 1.

8.3. Prezentare generală a pachetului de programe CurveExpert

CurveExpert este un produs software, care permite determinarea expresiei unei funcţii de
regresie univariabilă. După lansare apare fereatra principală, care are o zonă de date, prima
coloană reprezentând valorile variabilei independente, iar cea de-a doua coloană valorile
corespunzătoare ale variabilei dependente.

76
MODELARE SIMULARE

Datele pot fi luate dintr-un fişier text, a cărui extensie trebuie să fie dat (File, Open), iar la
crearea fişierului (de exemplu cu NotePad) pentru separarea celor două valori pe linie se
foloseşte tasta Tab. Dacă fişierul conţine mai multe coloane trebuie să specificăm coloanele
cu coordonatele punctelor, cele două coloane trebuie să fie succesive, iar variabila
independentă trebuie să fie prima coloană.

Meniul Data permite:


- reprezentarea grafică a punctelor prin comanda Plot,
- modificarea valorilor punctelor prin multiplicare (Scale),
- translatare (Translate),
- eliminarea punctelor din afara unui interval (Clip),
- recalcularea unor indicatori statistici, cum ar fi: media, abaterea medie pătratică
(Reexamine), sau
- afişarea unor informaţii statistice asupra datelor (Information).
Datele pot fi interpolate utilizând meniul Interpolate prin interpolare polinomială
(polinomul lui Lagrange) sau funcţii spline (liniare, pătratice, cubice).

77
MODELARE SIMULARE
Căutarea funcţiei de regresie se poate face cu una din opţiunile meniului AppyFit. Dacă se
doreşte o formă de funcţie de regresie diferită de cele pe care le propune CurveExpert, prin
comanda User Model, se poate defini o funcţie proprie de regresie cu maximum 19
coeficienţi.
Meniul Tools permite:
- alocarea de ponderi în cadrul regresiei (Weighting Scheme),
- calcularea estimaţiilor iniţiale utilizate în algoritmii de determinare a funcţiilor de
regresie neliniare (AutoGuest On),
- ştergerea listei funcţiilor de regresie pentru o nouă refacere a calcullelor (Clear
CurveFits),
- vizualizarea rezultatelor iteraţiilor ultimei funcţii de regresie (View History File),
- editarea fişierului de date (Edit Current File),
- baleierea tuturor funcţiilor de regresie disponibile pentru acel set de date şi sortarea lor
în ordinea descrescătoare a adecvanţei (CurveFinder) şi
- configurarea programului (Options).

Selectarea unei funcţii din listă va afişa graficul funcţiei, calitateta adecvanţei dată de
coeficienţii S şi r, iar selectând Info obţinem coeficienţii funcţiei de regresie.
Salvarea şi exportarea sunt necesare pentru a păstra, respectiv pentru a exporta datele într-
un fişier text, conţinând informaţii privitoare la expresia şi coeficienţii funcţiei de regresie.
Odată cu salvarea şi exportarea se salvează coeficientul de corelaţie şi alţi coeficienţi.
Putem să vedem forma funcţiei şi putem stabili forma liniei graficului şi culoarea acestuia. Le
putem salva.

78
MODELARE SIMULARE

Utilizând CurveExpert pentru Exemplul 8.5 obţinem coeficienţii polinomului iniţial ca în


figura următoare.

9. METODA MONTE CARLO

9.1. Proces stochastic (aleator)

Definiţia 9.1. O familie de variabile aleatoare X t tT , T  R depinzând de parametrul


real t (t se presupune a fi timpul) se numește proces stochastic sau proces aleator. Dacă T
este o mulţime discretă, T  0,1, 2,..., procesul se numeşte lanţ.

79
MODELARE SIMULARE
Dacă T = I interval al lui R atunci procesul este cu timp continuu. Valorile variabilei Xt
se numesc stări ale procesului. Se notează cu S mulţimes stărilor. Dacă S este discretă
rezultă proces cu stări discrete, altfel proces este cu stări continue.
Definiţia 9.2. Traiectoria procesului este mulţimea perechilor t , X t tT .

Un proces este cunoscut dacă pentru orice n  1 şi  t1 , t2 , ..., tn se cunoaşe funcţia

n

de repartiţie Ft ,t ,...,t x1 , x2 , ..., xn   P X t  x1, X t  x2 , ..., X t  xn
1 2 1 2 n
.
Definiţia 9.3. Procesul stochastic X t tT se numeşte tare staţionar dacă pentru

 n  1 şi  h  0 şi  t1  t2  ...  tn avem

Ft1  h,t 2  h,...,t n  h x1, x2 , ..., xn   Ft1 ,t 2 ,...,t n x1, x2 , ..., xn  .

Definiţia 9.4. Procesul stochastic X t tT se numeşte slab staţionar sau staţionar dacă
are momente de ordinul al doilea finite :
mt  M X t  ,  s t  CovX t , X s  , s  t , mt  m  const ,  s t   (t  s) .

Observaţia. 9.5. 1. Pentru un proces tare staţionar Ft  h ( x)  Ft ( x) , adică procesul are


aceeaşi funcţie de repartiţie pentru orice moment de timp t dat, Xt pot să nu fie
independente pentru valori independente ale lui t.
2. Procesul tare staţionar, care are momente de ordinul al doilea este şi slab staţionar;
invers nu este adevărat!
În simularea unui proces stochastic suntem interesaţi să producem cu calculatorul puncte
ale unei traiectorii finită.
Problema simulării unui proces stochastic revine la:
a) se dă o valoare X0 a procesului presupusă a se afla pe traiectoria procesului la
momentul la t0  0 ;

b) se cere generarea lui X1 pe aceeaşi traiectorie la momentul t  t1 ş.a.m.d.


Reamintim legea numerelor mari sub forma pe care o vom folosi în continuare.
Legea numerelor mari
Fie X1 , X 2 , ... , X n , ... un şir de variabile aleatoare independente 2 câte 2 cu dispersiile

mărginite de aceeaşi constantă, Var X n   c . Atunci:

 X  ...  X n M X 1   ...  M X n  
lim P 1      1
n 
 n n 
 X  ...  X n M X 1   ...  M X n   c .
P 1      1 
 n n  n  2

80
MODELARE SIMULARE

9.2. Formularea problemei

Prin metode Monte Carlo se înţeleg tehnici de rezolvare a diferitelor tipuri de probleme
utilizând numere aleatoare, variabile aleatoare sau procese aleatoare.
Fie de rezolvat o problemă numerică P care are soluţia  . O metodă Monte Carlo
pentru rezolvarea lui P constă în următoarele:
- se asociază în mod adecvat un proces stochastic X problemei astfel încât cu ajutorul
lui X să se poată estima  (de exemplu:   M  (X ) sau M  (X )   ,  (X )
converge într-un sens probabilist la  ,  fiind o funcţie cunoscută dată). Să notăm
cu    (X ) estimatorul lui  .  (X ) se numeşte estimator primar.

- se simulează o selecţie X1, ..., Xn şi se calculează  n un estimator al lui  . De

1 n
exemplu M  (X )   , atunci estimatorul lui  (X ) este  n    X i  (media
n i 1
aritmetică), numit estimator secundar.
- se aproximează soluţia lui P cu  n .

Observaţia. 9.6. Dacă estimatorul primar  (X ) este nedeplasat, adică   M  (X ),

atunci estimatorul secundar  n satisface legea numerelor mari şi  n   în probabilitate

 
adică: lim P  n      1 .
n 

Nu există o regulă sau o tehnică matematică bine precizată pentru construcţia unei Metode
Monte Carlo. Este mai de grabă o artă necesară construcţiei unei astfel de metode.
De cele mai multe ori estimatorul primar se alege să fie nedeplasat, M   X    .
Considerăm pentru exemplificare că  este un număr, dar poate fi şi un vector sau o
funcţie.
Să presupunem că există şi este finită Var  ( X )   2   şi dorim să aproximăm  cu

 
o eroare acceptată dată   0 , adică P  n      p  1   , unde  este riscul considerat

mic şi acceptat.
Conform cu legea numerelor mari, trebuie să alegem n astfel încât pentru  şi  date
şi suficient de mici, inegalitatea de mai sus să fie satisfăcută.
Teorema următoare stabileşte o margine inferioară a volumului de selecţie asupra lui X
pentru valori ale lui  şi  date.

81
MODELARE SIMULARE

Teorema 9.7. [45] Volumul n al selecţiei X1 , X 2 , ... , X n necesar pentru a estima 

 2 
prin  n cu eroarea  dată şi riscul  admis este n  n0 unde: n0   2
1 .
   

9.3. Tipuri de probleme ce se pot rezolva cu metoda Monte Carlo

Enumerăm câteva domenii de aplicare ale metodelor Monte Carlo: calculul integralelor,
rezolvarea sistemelor de ecuaţii liniare, rezolvarea sistemelor de ecuaţii integrale, rezolvarea
problemelor Dirichlet pentru ecuaţii de tip eliptic, rezolvarea problemelor de optimizare cu
restricţii, etc.

9.3.1. Calculul integralelor

În cadrul Analizei numerice se dau formule de cuadratură pentru calculul numeric al


integralelor definite şi se evaluează erorile de calcul pentru cazul unidimensional. Pentru
cazul multidimensional, calculul integralelor prin discretizare (sume integrale) este dificil de
realizat practic. Metoda Monte Carlo este în această situaţie mai idicată.
Vom prezenta principiul metodei pe un caz simplu al unei integrale unidimensionale,
urmând a arăta cum se poate extinde şi la cazul bi şi tridimensional.
1 b
Să se calculeze    f ( x)dx . Dacă ar trebui calculată integrala I   g (t )dt ,
0 a

ta
   a  b   , atunci cu schimbarea de variabilă x , se ajunge la
ba
1
I  b  a  f ( x)dx  b  a  , iar f ( x)  g a  (b  a) x  . Aşadar, este suficient să studiem
0

1
cazul problemei    f ( x)dx .
0

9.3.2. Metoda Monte Carlo brută

1
Considerăm U ~ U (0,1) , atunci   M  f (u )   f (u )du , adică   f (x) este un
0

estimator nedeplasat pentru  , de unde rezultă că având selecţia U1 , U 2 , ...,U n estimăm

1 n
 cu media aritmetică, adică prin estimatorul secundar  n   f U i  . Această metodă,
n i 1

82
MODELARE SIMULARE
care se bazează pe formula de mai sus se numeşte metoda Monte Carlo brută (deoarece
foloseşte repartiţia uniformă!).
1 x2

Exemplul 9.8. Să se calculeze I   e 2
dx folosind metoda de mai sus. Vom prezenta
0

algoritmul realizat în MathCAD şi vom afişa şi valoarea calculată de acest program.

x2
Exemplul 9.9. Să se calculeze integrala I   dxdy , pe mulţimea
D
y2

D  x, y   R x  y  1 , y  x , x  2.

dxdy  mes( D)  M  f ( x, y) , unde mes(D) reprezintă aria mulţimii


f ( x, y)
I  mes( D) 
D
mes( D)

1 n
plane D, iar M  f ( x, y    f ( xi , yi ) , ( xi , yi ) ~ U(D) .
n i 1
Se consideră un dreptunghi J  [a, b]  [c, d ]  D cu laturile paralele cu axele de
coordonate şi se generează numere uniforme pe [a,b], respectiv pe [c,d] , reţinându-se acele
perechi ( xi , yi ) , care cad în D.
Algoritm pentru calculul integralei duble cu metoda Monte Carlo brută

83
MODELARE SIMULARE
Pas 0. Intrare mes(D); s:=0, k:=0;
Pas 1. Pentru i  1, n execută

Generează x, y  ~ U( J ) ;
Dacă ( x, y)  D atunci k:=k+1 şi s:=s+f(x,y);
s
Pas 2. I : mes( D) ;
k
Pas 3. STOP!
Programul MathCAD pentru calculul integralei de mai sus este prezentat în continuare.
Pentru comparaţie este afiştă si valoarea returnată de pachetul MathCAD.
x2
Exemplul 9.10. Să se calculeze integrala I   dxdy , pe mulţimea
D
y2

 
D  x, y   R2 x  y  1 , yx , x  2 . I  mes( D) 
f ( x, y)
mes( D)
dxdy  mes( D)  M  f ( x, y) , unde
D

1 n
mes(D) reprezintă aria mulţimii plane D, iar M  f ( x, y )   f ( xi , yi ) , ( xi , yi ) ~ U(D) .
n i 1
Se consideră un dreptunghi J  [a, b]  [c, d ]  D cu laturile paralele cu axele de coordonate
şi se generează numere uniforme pe [a,b], respectiv pe [c,d] , reţinându-se acele perechi,
care cad în D.
Algoritm pentru calculul integralei duble cu metoda Monte Carlo brută
Pas 0. Intrare mes(D); s:=0, k:=0;
Pas 1. Pentru i  1, n execută

Generează x, y  ~ U( J ) ;
Dacă ( x, y)  D atunci k:=k+1 şi s:=s+f(x,y);
s
Pas 2. I : mes( D) ;
k
Pas 3. STOP!
Programul MathCAD pentru calculul integralei de mai sus este prezentat în continuare.
Pentru comparaţie este afişată şi valoarea returnată de pachetul MathCAD.

84
MODELARE SIMULARE

Exemplul 9.11. Să se calculeze integrala

I   x 2  y 2 dxdydz ,
T

85
MODELARE SIMULARE
pe mulţimea


T  x, y, z   R3 x 2  y 2  z  1 . 
dxdydz  mes(T )  M  f ( x, y, z ) ,
f ( x, y, z )
I  mes(T ) 
T
mes(T )
unde mes(T) reprezintă volumul copului mărginit de T, iar
1 n
M  f ( x, y, z )   f ( xi , yi , zi ) , ( xi , yi , zi ) ~ U (T ) .
n i 1
Se consideră un paralelipiped J  [a, b]  [c, d ]  [e, f ]  T cu muchiile paralele cu axele
de coordonate şi se generează numere uniforme pe [a,b], [c,d], respectiv pe [e, f], reţinându-
se acele triplete care cad în T.

Algoritm pentru calculul integralei triple cu metoda Monte Carlo brută

Pas 0. Intrare mes(T); s:=0, k:=0;


Pas 1. Pentru i  1, n execută

Generează x, y, z ~ U( J ) ;
Dacă ( x, y, z)  T atunci k:=k+1 şi s:=s+f(x,,zy);
s
Pas 2. I : mes(T ) ;
k
Pas 3. STOP!
Programul MathCAD pentru calculul integralei de mai sus este prezentat în continuare.
Pentru comparaţie este afişată si valoarea returnată de pachetul MathCAD.

86
MODELARE SIMULARE

87
MODELARE SIMULARE

10. SIMULAREA NUMERICĂ A FIABILITĂŢII UNUI SISTEM

Fie T o variabilă aleatoare, T  0 reprezentând durata de funcţionare până la defectare a


unui sistem sau unei componente a acestuia. Se notează cu F ( t ) şi cu f ( t ) funcţia de
repartiţie, respectiv, densitatea de repartiţie a variabilei aleatoare T [26]:
F (t )  P(T  t ) , (10.1)
F (t  t )  F (t ) dF (t ) (10.2)
f (t )  lim  .
t 0 t dt
Definiţia 10.1. Funcţia de fiabilitate (sau probabilitatea de supravieţuire) se notează
F ( t ) sau R( t ) (în engleză reliability) şi se defineşte prin

(10.3)
F ( t )  P( T  t )  1  F ( t )   f ( t )dt
t

Definiţia 10.2. Rata de defectare (sau rata de hazard) se defineşte ca fiind


probabilitatea de defectare în jurul unui moment dat t, condiţionată de buna funcţionare până
la acel moment:
Pt  T  t  t T  t  F t  t   F (t ) f (t ) F (t ) (10.4)
h(t )  lim  lim   , F ( 0 )  1.
t  0 t t  0 F (t )t F (t ) F (t )
Observaţia 10.3. Se observă că
h( t )  0
şi

 h( t )dt   .
0

Definiţia 10.4. Rata de defectare cumulată, notată H(t), se defineşte ca fiind


t (10.5)
H (t )   h( x)dx .
0

Din relaţia (10.4) se poate obţine:


t
(10.6)
  h ( x ) dx  H (t )
F (t )  e 0
e .
şi mai departe
H ( t )   ln( F ( t ) . (10.7)

Media timpului de funcţionare este

88
MODELARE SIMULARE
 
(10.8)
M T    t  f ( t )dt   F ( t )dt ,
0 0

deoarece
 
 
 
 
  

M T    t  f ( t )dt   t  F ( t ) dt    t  F ( t ) dt  t  f ( t )   F ( t )dt
0 0 0 0 0
după integrarea prin părţi.
Dar
F( 0 )  1
şi atunci
t  F ( t ) t o  0 ,

iar

t 
  t 

lim t  F (t )  lim t  e H (t )  lim  t  e
t
H (t )
 lim
1
t   H (t )e H ( t )
 0,

dacă se aplică regula l’Hospital şi se ţine seama de faptul că


 h( x )dx    H (  ) .
0

Definiţia 10.5. Media timpului rămas de funcţionare (mean residual life) reprezintă
media timpului de funcţionare până la defectare, socotind din momentul în care sistemul
(componenta) a atins vârsta t.

L( t )  M T  t T  t  
1 
 F ( x )dx
F( t ) t
şi de aici

F (t )  L(t )   F ( x)dx .
t

Prin derivarea acestei relaţii se obţine


F (t ) L(t )  F (t ) L(t )   F (t ) 
F (t ) L(t )  F (t )1  L(t )   0 

F (t ) 1  L(t )
 .
F (t ) L(t )

89
MODELARE SIMULARE
După integrarea ultimei relaţii rezultă
t F ( x) t 1  L( x) t 1  L( x)
 dx    dx  ln F (t )    dx ,
0 F ( x) 0 L( x ) 0 L( x )

adică
t 1 L( x ) (10.9)
  dx
L( x)
F (t )  e 0 .
S-a obţinut o relaţie între funcţia de fiabilitate şi media timpului rămas de funcţionare.

10.1. Estimarea fiabilităţii utilizând media timpului rămas de


funcţionare

Se consideră n valori observate ale variabilei aleatoare T , care defineşte timpul rămas
de funcţionare până la defectare: t1  t2  ...  tn .
Media de selecţie pentru ultimele (n-i) valori observate este
1 n (10.10)
ˆ ni 
ni
t
j i 1
j , i  0, 1, 2, ... , (n  1) .

O estimaţie a funcţiei media timpului rămas de funcţionare L(t) evaluată la momentul


t  ti , pe baza datelor observate este dată de

L̂( ti )  ˆ ni  ti , i  0, 1, 2, ... ,( n  1 ) . (10.11)

Pe baza celor prezentate mai înainte se poate scrie următorul algoritm pentru estimarea
fiabilităţii.
Algoritmul TimpRamas
Pas 1. Intrare: t1  t2  ...  tn , valorile observate; t * momentul în care se estimează
fiabilitatea
Pas 2. Pentru i  0, n  1 se calculează ̂ ni şi Lˆ (ti ) folosind (10.10) şi respectiv
(10.11).
 
Pas 3. Pentru perechile ti , L̂ti  , i  1, n , se determină expresia analitică a dependenţei
cu metoda celor mai mici pătrate (de exemplu se poate folosi Curve Expert sau Excel pentru
ajustarea datelor)
Pas 4. Se estimează fiabilitatea la momentul t * pe baza relaţiei (10.9), adică:

t * 1 L( x )
  dx
* L( x)
F (t )  e 0 .

90
MODELARE SIMULARE
Pas 5. STOP!
Definiţia 10.6. Fiabilitatea structurală studiază determinarea caracteristicilor de
fiabilitate ale sistemelor, deduse din caracteristicile corespunzătoare ale componentelor
acestora şi din legăturile dintre ele. Se consideră două tipuri de obiecte: elemente
(componente) şi sistem (structura).
Definiţia 10.7. Fie un sistem format din n elemente; n se numeşte ordinul sistemului.
Fiecărui element i, i  1, n , i se asociază o variabilă xi , astfel:

1 daca functioneaza componenta i


xi  
0 altfel
Sistemului i se asociază o variabilă binară  , variabila de stare, astfel:

1 daca sistemul functioneaza


 
0 altfel
Definiţia 10.8. În ipoteza că starea sistemului este complet determinată de stările
elementelor, dependenţa dintre starea sistemului şi stările elementelor se poate exprima printr-
o funcţie booleană numită funcţia de structură a sistemului
   ( X ) : B2n  B2 , X  x1, x2 ,..., xn , B2  0, 1.
Exemplul 10.9. Sistem „k din n” este operaţional [15] dacă şi numai dacă cel puţin k
elemente din n funcţionează. Funcţia de structură
 n
1 daca  xi  k
( X )   i 1

0 altfel

a. Cazul k n este ştiut sub numele de structură serie, iar sistemul


funcţionează dacă şi numai dacă toate elementele sistemului funcţionează. Relaţia următoare
ilustrează acest fapt.
n
S ( X )   xi  min
1i  n
xi
i 1

Schematic un astfel de sistem se poate reprezenta ca în figura următoare:

b. Cazul k 1 este ştiut sub numele de structură paralelă, iar sistemul se


defectează dacă şi numai dacă toate componentele sale se defectează. Relaţia următoare
ilustrează acest fapt.

91
MODELARE SIMULARE
n
P ( X )   xi  max
1i  n
xi
i 1

Schematic un astfel de sistem se poate reprezenta ca în figura următoare:

Fiabilitatea unui sistem poate fi evaluată dacă sunt cunoscute prin studii statistice
fiabilităţile componentelor sale.

10.1.1. Algoritm pentru simularea numerică a fiabilităţii unui sistem

a) Sistem serie: pentru cele n componente legate în serie, fiecare cu fiabilitatea p se


generează n numere uniform repartizate pe (0, 1), Ui ~  U (0,1) , i  1, n . Dacă

U i  p , (  )i  1, n se concluzionează că sistemul funcţionează.


b) Sistem paralel: pentru cele n componente legate în paralel, fiecare componentă
având fiabilitatea p se generează n numere uniform repartizate pe (0, 1),
Ui ~  U (0,1) , i  1, n . Dacă cel puţin un U i  p se concluzionează că sistemul
funcţionează.
Repetând de N ori această simulare numerică se estimază că probabilitatea ca sistemul
fizic asociat să funcţioneze este egală cu raportul dintre numărul de încercări reuşite şi
numărul total de încercări.
În continuare sunt prezentaţi algoritmii pentru simularea fiabilitaţii unui sistem serie și a
unui sistem paralel codificaţi în MathCAD.

92
MODELARE SIMULARE
10.1.2. Simularea fiabilităţii unui sistem serie

10.1.2.1. Cazul când toate componentele au aceeaşi probabilitate de funcţionare

n - numărul de componente legate în serie


p - probilitatea comună de funcţionare
N - numărul de încercări (câteva mii)

Apelul subprogramului

10.1.2.2. Cazul când fiecare componentă are propria probabilitate de funcţionare

n - numărul de componente legate în serie


p - vectorul probilităţilor de funcţionare ale componentelor
N - numărul de încercări (câteva mii)

93
MODELARE SIMULARE

Vectorul probabilităţilor de funcţionare:

Apelul subprogramului:

10.1.3. Simularea fiabilităţii unui sistem paralel

n - numărul de componente legate în paralel


p - vectorul probilităţilor de funcţionare ale componentelor
N - numărul de încercări (câteva mii)

94
MODELARE SIMULARE

Vectorul probabilităţilor de funcţionare

Apelul subprogramului

95
MODELARE SIMULARE

11. REŢELE PETRI

11.1. Generalităţi

Definiţia 11.1. Se numeşte graf orientat o pereche de mulţimi G  ( X ,U ) , unde X este


o mulţime nevidă şi finită, ale cărei elemente se numesc noduri (vârfuri), iar U este o
mulţime formată din perechi ordonate ( x, y) U  X  X , numită mulţimea arcelor
(muchiilor). Dacă ( x, y) U , x se numeşte extremitatea iniţială (originea), iar y se
numeşte extremitatea finală (extremitatea).
Definiţia 11.2. Se numeşte graf ponderat sau valuat şi se notează cu G  ( X ,U , c) un

graf G  ( X ,U ) căruia i se asociază o funcţie c : U  R numită ponderea arcelor.


Definiţia 11.3. Reţelele Petri reprezintă o categorie specială de grafuri orientate.
Diferenţa dintre un graf orientat şi o reţea Petri constă în faptul că mulţimea nodurilor
grafului este formată din două mulţimi distincte P şi T astfel că X  P  T , P T   ,
unde:
- P este mulţimea locurilor şi va fi reprezentată prin cercuri, P  n , iar

- T este mulţimea tranziţiilor şi va fi reprezentată prin pătrate, T  m .

Arcele în reţelele Petri sunt unidirecţionale. Un arc nu poate lega decât o tranziţie de un
loc sau un loc de o tranziţie. La o tranziţie sau la un loc se poate ajunge cu mai multe arce.
Dintr-o tranziţie sau dintr-un loc pot pleca mai multe arce. Un loc şi o tranziţie pot fi legate
prin cel mult un arc. Reţeaua Petri este cunoscută prin cele trei mulţimi: P, T, U (mulţimea
arcelor).
Definiţia 11.4. Dacă un arc leagă o tranziţie T de un loc P, arcul se notează (T, P) şi T
este o tranziţie de intrare în locul P, iar P este un loc de ieşire din tranziţia T. Dacă un
arc leagă un loc P de o tranziţie T, arcul se notează (P, T) şi P este un loc de intrare în
tranziţia T, iar T este o tranziţie de ieşire din locul P.
Similar grafurilor ponderate, reţelelor Petri li se poate asocia o funcţie numită evaluare,
a : U  N , care ataşează fiecărui arc un număr natural.
Definiţia 11.5. Matricea
a(T j , Pi ) daca (T j , Pi ) U (11.1)
  
A  Ai, j 1 i  n   a( Pi , T j ) daca ( Pi , T j ) U
1 j  m 
0 altfel

96
MODELARE SIMULARE
se numeşte matricea de incidenţă. Dacă între locul P şi tranziţia T nu există nici un arc,
atunci elementul corespunzător al matricei de incidenţă are valoarea zero.
Definiţia 11.6. Prin marcajul unei reţele Petri se întelege o aplicaţie M : P  N , care
asociază fiecărui loc un număr întreg de jetoane, reprezentate în cerc prin puncte. Reţelele
Petri cu această aplicaţie se numesc reţele Petri marcate, iar cele care nu au această aplicaţie
se numesc reţele Petri nemarcate.
Definiţia 11.7. Într-o reţea Petri marcată tranziţia T este tranziţie activabilă
(executabilă, sensibilizată) dacă şi numai dacă pentru orice loc P de intrare în T marcajul
locului P este mai mare sau egal cu evaluarea arcului (P, T). O tranziţie activabilă nu poate fi
activată dacât dacă este inactivă.
Evoluţia reţelei Petri este definită de deplasarea jetoanelor; plecând din starea iniţială,
jetoanele trec de la un loc la altul prin execuţia tranziţiei.

11.1.1. Reguli de evoluţie

1) o tranziţie este executabilă atunci când fiecare loc de dinaintea ei are un număr de jetoane
cel puţin egal cu evaluarea (ponderea) arcului dintre loc şi tranziţie;
2) reţeaua Petri nu poate evolua decât în execuţia unei singure tranziţii la un moment dat
(aleasă la întâmplare);
3) execuţia unei tranziţii se consideră instantanee şi constă din următoarele operaţii:
- se scot tot atâtea jetoane din locul de dinainte câte arată evaluarea arcului şi
- se depun atâtea jetoane în locul în care urmează tranziţia cât să nu depăşească
evaluarea arcului, care leagă locul de tranziţie.
Altfel spus, la activarea tranziţiei T, marcajul unui loc P de intrare în tranziţia T scade
cu o cantitate egală cu evaluarea arcului (P, T). Dacă P este loc de ieşire din tranziţia T,
atunci marcajul său creşte cu o cantitate egală cu evaluarea arcului (T, P). Dacă un loc al
reţelei nu este legat de tranziţia T prin nici un arc, la activarea tranziţiei T marcajul lui P
rămâne neschimbat.

11.1.2. Tipuri de reţele Petri

1. Reţele Petri cu priorităţi. Sunt situaţii când în reţelele Petri două sau mai multe tranziţii
modelează evenimente dintre care unul şi numai unul se produce la un moment dat. Se
consideră că probabilităţile de apariţie ale acestor evenimente sunt egale (situaţie de conflict).
Pentru a evita o astfel de situaţie se utilizează o reţea Petri cu priorităţi. O astfel de reţea se

97
MODELARE SIMULARE
utilizează când se doreşte o alegere între mai multe tranziţii validate. Trebuie precizată o
relaţie între tranziţii, ce pot fi activate în acelaşi timp.
2. Reţele Petri neautonome. Sunt extensii ale celor definite până acum (Definiția 11.3) care
permit descrierea nu numai a ceea ce se întâmplă, ci şi când se întâmplă. Se folosesc la
modelarea sistemelor, la care execuţiile sunt sincronizate cu evenimente externe, ale căror
evoluţii sunt funcţie de timp.
3. Reţele Petri sincronizate. La o reţea autonomă spunem că o tranziţie poate fi executată
dacă este validată, dar nu se ştie când va fi executată. Pentru reţelele Petri sincronizate fiecărei
tranziţii i se asociază un eveniment şi execuţia acestei tranziţii se face dacă tranziţia este
validată şi evenimentul asociat se poate produce.
4. Reţele Petri temporizate. O reţea Petri se numeşte temporizată dacă fiecărei tranziţii îi
este ataşată o valoare raţională pozitivă numită durata de activare.
Activarea tranziţiei într-o reţea Petri temporizată se face în trei etape:
a) tranziţia este iniţializată prin extragerea numărului corespunzător de jetoane din
locurile sale de intrare;
b) tranziţia este activă pe o perioadă de timp, jetoanele fiind îngheţate pe durata de
activare;
c) tranziţia este încheiată prin plasarea numărului corespunzător de jetoane în locurile de
ieşire ale tranziţiei.
Pentru a fi complet cunoscută starea unei reţele Petri temporizate trebuie cunoscute:
marcajul reţelei, starea tranziţiilor (active sau inactive) şi timpii reziduali ai tranziţiilor (timpii
rămaşi până la încheierea tranziţiilor active). Aceste reţele permit descrierea unui sistem a
cărui funcţie depinde de timp. De exemplu, se poate scurge un timp între începerea unei
operaţii şi sfârşitul acesteia. Se folosesc pentru evaluarea performanţelor unui sistem.
5. Reţele Petri stochastice. La reţelele Petri temporizate durata asociată unui loc sau unei
tranziţii este fixă. Există fenomene care nu pot fi modelate cu durate constante. De exemplu,
durata de funcţionare între două defecţiuni a unei maşini este o variabilă aleatoare şi atunci
este indicat să se folosească reţele Petri stochastice în care un timp aleator este asociat unei
tranziţii.
6. Reţele Petri continue. În cazul acestui tip de reţele Petri, marcajul unui loc este un număr
real, acest model fiind mai apropiat de situaţiile reale, când numărul marcajelor unei reţele
Petri ordinare ar fi prea mare.

98
MODELARE SIMULARE
Exemplul 11.8.

Pentru reteua din figură, avem: P  3  n , T  3  m şi matricea de incidenţă este

 1 1 2 
 a(T j , Pi )  
A  Ai , j 1in    1 0  1 .
1 j m
 a( Pi , T j )  0 2  1
 
Elementul de pe linia i coloana j are valoarea evaluări arcului, care leagă nodul Pi de
tranziţia Tj dacă Tj este tranziţie de intrare în nodul Pi, iar dacă Tj este o tranziţie de ieşire
din nodul Pi atunci elementul respectiv are aceeaşi valoare cu evaluarea arcului
corespunzător, însă cu semn schimbat. Marcajul reţelei de mai sus este M  2, 1, 0 .
Tranziţia T1 este activabilă deoarece singurul său loc de intrare are marcajul 2 şi este
mai mare decât evaluarea arcului (P1, T1). La fel şi tranziţia T2. Tranziţia T3 nu este
activabilă deoarece printre locurile de intrare se află unul, anume P3 cu marcaj nul, fiind mai
mic decât evaluarea arcului (P3 , T3) !
Dacă s-ar activa tranziţia T2 un jeton din P1 va fi scos (deoarece evaluarea arcului (P1,
T2) este 1, rămânând în P1 doar un jeton, iar în P3 vor fi 2 jetoane, deoarece evaluarea arcului
(T2, P3) este 2. Se obţine marcajul M   1, 1, 2 .
S-a schimbat starea tranziţiei T3, acum aceasta fiind activabilă, deoarece marcajul
locurilor de intrare în T3 este cel puţin egal cu evaluările arcelor, care le leagă de tranziţia T3.

99
MODELARE SIMULARE

11.2. Modelarea cu ajutorul reţelelor Petri

- În modelarea unui proces, tranziţiile reprezintă operaţiile procesului respectiv.


- Durata de activare a unei tranziţii reprezintă timpul necesar efectuării unei anumite
operaţii.
- Jetoanele care circulă prin reţea reprezintă piesele şi semifabricatele procesului
considerat.
- Când o tranziţie are un singur loc de intrare şi un singur loc de ieşire, iar arcele
corespunzătoare au evaluări unitare, atunci tranziţia modelează o operaţie în care se
prelucrează un singur obiect.
- Când o tranziţie are un singur loc de intrare şi un singur loc de ieşire, iar arcele
corespunzătoare au evaluări mai mari dacât unu, atunci tranziţia modelează o
operaţie în care se prelucrează simultan mai multe obiecte.
- Când o tranziţie are mai multe locuri de intrare şi un singur loc de ieşire, atunci
tranziţia modelează o operaţie de asamblare. În acest caz, locurile de intrare
modelează introducerea în zona de lucru a câte unui tip de reper dintre cele ce
trebuie să fie asamblate, iar evaluările arcelor de intrare precizează cantităţile din
fiecare tip de reper care intră în componenţa ansamblului.
- Locurile pot modela şi elementele de transport dintr-un proces. Se poate ataşa
fiecărui loc o valoare pozitivă numită timp de sejur şi care reprezintă timpul
necesar transportului unui obiect între două locaţii.
- De asemenea, locurile într-o reţea Petri pot modela spaţii de stocare pentru obiectele
procesului analizat.
Exemplul 11.9. Problema mesei filosofilor
La o masă stau 4 filosofi şi există câte un tacâm între ei, însă pentru a mânca fiecare are
nevoie de 2 tacâmuri. Dacă fiecare ia tacâmul din stânga sau fiecare pe cel din dreapta, se
ajunge la un blocaj în sensul că nimeni nu poate mânca. Soluţia este ca 2 filosofi să mănânce,
iar doi să filosofeze în timpul cât cei 2 mănâncă, iar apoi să schimbe rolurile.
Modelarea problemei
Alocarea locurilor :
 P1, P3 , P5 , P7 - reprezintă tacâmurile şi le marcăm cu câte un jeton,

 P2 , P4 , P6 , P8 - reprezintă stările când se mănâncă şi le marcăm cu câte un jeton,

 P9 , P10, P11, P12 - reprezintă stările când se filosofează.

100
MODELARE SIMULARE
Tranziţiile reprezintă trecerea dintr-o stare în alta: filosofii din stare când mănâncă în
starea când filosofează, tacâmurile când trec de la un filosof la altul. În starea iniţială se află
câte un jeton în locurile P1, P2 , P3 , P4 , P5 , P6 , P7 , P8 , iar tranziţiile T1, T2 , T3 , T4 sunt
activabile. Se execută o tranziţie la întâmplare, de exemplu T4 . Se pune un jeton în P11 şi se
iau jetoanele din jetoanele din P5, P6, P7 , adică filozoful care era în P6 a luat tacâmurile
din P5 şi P7 şi mănâncă. Pentru că nu există jetoane în P5 şi P7 tranziţiile T1 şi T3 sunt
inactivabile, iar filosofii din locurile P4 şi P8 filosofează. Pentru că există jetoane în P1 şi
P3 tranziţia T2 este activabilă şi se pune un jeton în P9 şi se iau jetoanele din P1, P2, P3,
adică filozoful care era în P2 a luat tacâmurile din P1 şi P3 şi mănâncă. Când un filozoful
din P11 termină de mâncat se execută tranziţia T7 , apar jetoane în P5 , P6 şi P7 , iar
filosoful trece în starea de filozofare. Când un filosoful din P9 termină de mâncat se execută
tranziţia T5 , apar jetoane în P1 , P2 şi P3 , iar filosoful trece în starea de filosofare.

101
MODELARE SIMULARE

11.3. Prezentare generală VisualSimNet

Visual Simnet este un software specializat în programarea reţelelor Petri şi simularea


modelului pe care aceasta îl reprezintă. Este adecvat proceselor statistice modelate cu reţele
Petri.
După lansare apare fereastra principală, care permite inserarea componentelor reţelei şi
precizarea parametrilor modelului.
Pot fi inserate: locuri, tranziţii, jetoane, arce, texte/comentarii, parametri corespunzători
locurilor şi tranziţiilor. Odată proiectată rețeaua se poate trece la simulare având posibiliatatea
executării pas cu pas, executării lente sau rapide şi anulării rezultatelor obţinute în vederea
reluării simulării. Se oferă statistici numerice sau grafice asupra fiecărui loc sau fiecărei
tranziţii la sfârşitul simulării. Rezultatele pot fi salvate în fişiere cu posibilitatea listării
ulterioare sau listate imediat după simulare.
În urma inserării unui loc apare fereastra de configurare, în care se precizează parametrii
corespunzători locului respectiv şi anume:
- numele locului (altul decât cel implicit Pi) - name,
- capacitatea locului, adică numărul maxim de jetoane, ce pot exista simultan la un
moment dat în acel loc-capacity,
- regula după care un jeton părăseşte locul respectiv: FIFO (First Input First Output),
LIFO (Last Input First Output), RANDOM (alegere aleatoare) – queuetup.
Fereastra aceasta oferă informaţii de tipul:
- numărul total de jetoane care aşteaptă în tranziţiile de intrare – reserved,
- numărul de poziţii libere ale locului respectiv – free,
- numărul de jetoane aflate în acel loc –marking.
În urma inserării unei tranziţii apare fereastra de configurare, în care se precizează
parametrii corespunzători tranziţiei respective şi anume:
- numele tranziţiei (altul decât ce implicit Tj) – name,
- valorile numerice ale parametrilor densităţii de probabilitate a duratei de activare a
tranziţiei – parameter,
- prioritatea tranziţiei (în situaţia în care la un moment dat se pot activa mai multe
tranziţii, se activează tranziţia cu prioritate mai mare) – priority.
În Visual Simnet arcele de la un loc la o tranziţie se numesc pre-arce, iar de la o tranziţie
la un loc sunt numite post-arce.
La inserarea unui arc apare fereastra de configurare a arcului, în care trebuie precizate:

102
MODELARE SIMULARE
- tranziţia sursă sau destinaţie – tranzition,
- locul destinaţie sau sursă – place,
- tipul arcului (condiţie care ţine seama de mărimea evaluării arcului şi de marcajul
locului sursă sau destinaţie stabilind deplasarea sau nedeplasarea jetoanelor de-a
lungul arcului) – acrtype,
- forma densităţii de probabilitate a evaluării arcului – weight,
- parametrii acestei densităţi de probabilitate – parameter
- culoarea jetonului care ajunge la destinaţie – color.
Definirea repartiţiilor de probabilitate a duratelor de activare a tranziţiilor, a evaluării
arcelor se face prin parametrii acestora, astfel:
- repartiţia constantă – k : un număr pozitiv,
- uniformă pe [min, max] – g - se precizează intervalul,
- uniformă căreia i se cunoaşte media şi amplitudinea – m (media, aplitudinea =
mean, width),
- Poisson() – p se precizeză  = mean,
- Exponenţială Exp() – e - se precizeză  = mean,
- Normala N( , ) - n - se precizează  = mean şi  = std. abw,
- Lognormală L (  , ) - l - se precizează  = mean şi  = std. abw
şi altele cum ar fi gama, beta, Weibull etc.

103
MODELARE SIMULARE

12.SERII DE TIMP

12.1. Noţiuni introductive. Definiţii

Definiţia 12.1. Seria de timp sau seria dinamică sau seria cronologică reprezintă o
secvenţă ordonată în timp de observaţii efectuate asupra unei variabile. Faptul că observaţiile
se succed în şirul de date în ordinea apariţiei lor ne determină să spunem ordonată în timp.
Definiţia 12.2. Când măsurarea valorilor seriei este posibilă la fiecare moment de timp
spunem că seria de timp este continuă. De exemplu: temperatura, presiunea aerului,
tensiunea, intensitatea curentului electric etc.
Definiţia 12.3. Când observaţiile sunt făcute asupra variabilei la intervale egale de timp
(de exemplu: secunde, minute, ore, zile, luni etc) seria de timp se numeşte discretă.
Definiţia 12.4. Dacă seria de timp continuă este transformată într-una discretă prin
măsurarea valorilor seriei la intervale egale de timp, atunci seria obţinută se numeşte serie de
timp eşantionată.
Definiţia 12.5. Seria de timp în care variabila nu poate fi masurată continuu la fiecare
moment de timp, însă este posibilă măsurarea valorilor cumulate ale acestei variabile după
anumite intervale de timp egale se numeşte serie de timp cumulată sau serie de timp
integrată (de exemplu cantitatea de precipitaţii măsurată zilnic la o staţie meteo).

12.2. Filtre liniare

Relaţia dintre două serii poate fi explicată prin intermediul „cutiei negre”. Dacă avem o
funcţie continuă de intrare x(t) şi o trecem direct prin cutia neagră ne aşteptam în general la
ieşire să avem tot o funcţie continuă. Putem concepe un proces traversând direct cutia neagră
ca unul în care diferite operaţii matematice sunt făcute asupra funcţiei de intrare să producă
observaţii asupra funcţiei de ieşire y(t). De regulă nu se cunoaşte natura exactă a operaţiilor.
Totuşi putem să observăm funcţia de ieşire y(t), care împreună cu proprietaţile ştiute ale
funcţiei de intrare x(t) vom fi capabili s spunem câte ceva despre proprietăţile filtrului. Filtrul
desemnează aici operaţiile făcute în cutia neagră.
Definiţia 12.6. Un filtru este liniar şi invariant în timp dacă satisface următoarele două
condiţii:

104
MODELARE SIMULARE
1) dacă intrarile x1(t) şi x2(t) corespund la ieşirile y1(t) şi y2(t), atunci intrarea,
ax1(t)+b x2(t) corespunde la ieşirea ay1(t)+b y2(t) , a şi b fiind două constante
arbirare
2) dacă intrarea x(t ) t   ,  corespunde la ieşirea y(t ) t   ,  atunci

intrarea x(t   ) t   ,  corespunde ieşirii y(t   ) t   , .


Prima condiţie dă liniaritatea şi a doua invarianţa în timp.
Un filtru este aşadar liniar şi invariant în timp dacă şi numai dacă relaţia între funcţiile de
intrare şi ieşire, x(t) şi y(t) poate fi exprimată astfel:
 (12.1)
y(t )    ( ) x(t   )d ,


funcţia  fiind numită nucleul filtrului. În caz discret relaţia de mai sus se scrie astfel:
 (12.2)
yt  
k  
k xt k ,

unde k , k=0, 1, 2 ... este un şir de constante.

12.3. Analiza vizuală a seriilor de timp

Datele se pot reprezenta grafic, pe axa orizontală fiind timpul, iar pe axa verticală valorile
măsurate ale variabilei de interes. Această reprezentare permite evidenţierea unui
comportament – patern – al variabilei.
Se pot întâlni următoarele situaţii:
1. Datele oscilează în jurul valorii medii constante
5
4.69

zi

0
0 20 40 60 80 100
2 i 100

105
MODELARE SIMULARE
2. Datele prezintă o pronunţată tendinţă crescătoare în medie
10
8.624

zi

0.497
0 20 40 60 80 100
2 i 100

3. Datele prezintă un pattern sezonier, suprapus peste unul orizontal


10
8.648

4
zi
2

 3.036 4
0 20 40 60 80 100 120 140 160
2 i 150

4. Datele prezintă un pattern sezonier, suprapus peste unul crescător în medie


10
9.328

zi 4

 0.159 2
0 20 40 60 80 100
2 i 100

106
MODELARE SIMULARE
5. Datele prezintă un pattern sezonier, suprapus peste unul crescător în medie şi
amplitudinea pattern-ului sezonier creşte o dată cu timpul.

25
20.42

20

15

zi

10

0.057 0
0 50 100 150
2 i 150

Definiţia 12.7. O serie de timp este staţionară dacă această nu conţine tendinţe în
valoarea medie, nu prezintă modificări ale dispersiei datelor şi pattern-uri sezoniere.
Metodologia Box-Jenkins tratează seriile de timp staţionare, însă o serie de timp
nestaţionară poate în general să fie transformată într-una staţionară.
Obiectivul principal al metodologiei Box-Jenkins este de a determina o reprezentare pe
cât posibil corectă a mecanismului de generare a procesului care a produs setul de date, adică
a modelului.

12.4. Metodologia de modelare Box-Jenkins

Reprezintă una dintre metodele cele mai utilizate şi precise de modelare şi predicţie pe
termen scurt a seriilor de timp. Metodologia constă în următoarele etape:
1. Etapa de identificare – se alege un model ARIMA drept candidat pentru
modelarea seriei de timp. Pentru măsurarea interdependenţei statistice dintre datele
observate se utilizează funcţia de autocorelaţie estimată şi funcţia de autocorelatie
parţială estimată.
2. Etapa de estimare – se estimează parametrii modelului ales în etapa 1. Dacă
estimatorii pentru coeficienţii modelului ales în etapa 1 nu satisfac condiţii care să
conducă la staţionaritate şi inversabilitate, modelul va fi respins.
3. Etapa de validare-diagnoză – se verifică dacă modelul ales este adecvat sau nu.

107
MODELARE SIMULARE
4. Dacă nu, se reia etapa 1 cu alegerea unui alt model ARIMA şi se continuă
procedura, altfel se utilizează modelul în predicţie, simulare, conducere etc.

12.4.1. Modele liniare staţionare

Modelele stochastice considerate în abordarea Box-Jenkins au la baza ideea că o serie de


timp, ale carei valori succesive sunt puternic dependente poate fi privită ca fiind generată de o
serie de valori statistic independente {at} numite şocuri avand o funcţie de repartiţie fixată,
de obicei normală cu media 0 şi dispersia a2 [35], [36].
at se numeşte în tehnică zgomot alb.
Seria de timp {zt} poate fi generată prin filtrarea unui process de tip zgomot alb {at} cu
un filtru (B):
zt   z  at  1at 1  2 at 2  ...   z  ( B)at , (12.3)

unde:
 z este un parametru care determină nivelul seriei {zt}, iar
(B)=1+1B+ 2B2+... (12.4)
 funcţia de transfer a filtrului, B fiind operatorul de întârziere pe un pas, adică
Bzt=zt-1. (12.5)
Mulţimea coeficienţilor filtrului 1, 2, ...poate fi finită sau infinită.
Definiţia 12.8. În cazul în care este finită sau infinita însă seria {n} este convergentă
atunci filtrul este stabil şi seria de timp {zt} este staţionară. În acest caz, z reprezintă
valoarea medie în jurul căreia variază procesul real măsurat de seria de timp {zt}. Dacă seria
nu este staţionară se numeşte nestaţionară şi z nu mai are o semnificaţie anume.
Definiţia 12.9. Seria deviaţiilor procesului original {zt} faţă de media z constituie
modelul liniar general al seriei şi are forma
 (12.6)
zt  zt   z  at  1at 1  2 at 2  ...  at   t at  j ,
~
j 1

unde at, at-1, . . . sunt variabile aleatoare independente şi identic repartizate normale de medie
0 şi dispersie a2 .
Atunci:
 M[at]=0 si Var[at]= a2
 şi funcţia de autocovarianţă

108
MODELARE SIMULARE

 a2 k 0 (12.7)
 k  M [at at k ]  
0 k 0

 iar funcţia de autocorelaţie


M [at at k ] 1 k  0 (12.8)
k  
Var[at ]Var[at k ] 0 k  0

În anumite situaţii, ~zt poate fi exprimat ca o sumă ponderata a valorilor sale anterioare,
la care se adaugă at :
zt  1~
~ zt 1   2 ~
zt  2  ...  at . (12.9)

Relaţia între ponderile j şi j


  
zt  1   j B j at
~ sau zt   ( B)at
~
 j 1 
considerând 1=1, se obţine prin identificare.
Analog,
   
at  1    j B j ~zt sau at   ( B)~
zt unde  ( B)  1    j B j .
 j 1  j 1

Aşadar:  ( B)   1 ( B) , relaţie ce permite determinarea coeficienţilor j în funcţie

de coeficienţii j şi invers.

12.4.2. Funcţia de generare a autocovarianţei unui proces liniar

Funcţia de autocovarianţă a procesului {zt} este


 (12.10)
 k   a2   j j  k ;
j 0

pentru k  0, rezulta  0   a2  2j , 0 fiind dispersia seriei.
j 0


Dacă procesul are dispersia finită înseamnă că seria 
j 0
2
j este convergentă, iar j

descresc rapid la 0.
Funcţia de generare a autocovarianţei este
 (12.11)
 ( B)    k B k ,
k  
0
unde B =1, sau

109
MODELARE SIMULARE

 ( B)   a2 ( B) ( B 1 ) , (12.12)

în funcţie de filtrul (B).

12.4.3. Staţionaritatea şi inversabilitatea unui proces liniar

Staţionaritatea rezultă din condiţia ca seria (B) să fie convergentă pentru B  1 .

Spectrul procesului. Înlocuind în relaţia care dă funcţia de autocovariantă B cu e-i2f se


obţine jumătate din spectru total de putere al procesului, acesta fiind
2 (12.13)
p( f )  2 a2 (ei 2f ) (ei 2f )  2 a2  (ei 2f ) ,
1
0 f  .
2
Inversabilitatea procesului liniar  ( B)~
zt  at este asigurată dacă ponderile j asigură

convergenţa seriei (B) pentru B în interiorul şi pe conturul discului de rază 1.

12.5. Procese autoregresive AR(p)

Definiţia 12.10. În relaţia (12.9), considerând că numai primele p ponderi sunt nenule
obţinem
zt  1~
~ zt 1   2 ~
zt 2  ...   p ~
zt  p  at , (12.14)

un proces autoregresiv de ordin p, notat AR(p), iar ponderile i au fost notate cu i ,

i  1, p .
Au aplicaţii practice procesele AR(1),
zt  1~
~ zt 1  at , (12.15)

şi AR(2),
zt  1~
~ zt 1   2 ~
zt 2  at . (12.16)

Exprimând at din relaţia de definiţie a procesului AR(p) obţinem



at  1  1 B  2 B 2  ...   p B p ~ 
zt sau  ( B)~
zt  at ,

iar de aici
1 (12.17)
~
zt  at   1 ( B)at ,
 ( B)
unde
 ( B)  1  1 B   2 B 2  ...   p B p , (12.18)

ceea ce permite interpretarea procesului autoregresiv ca fiind ieşirea dintr-un filtru liniar cu
funcţia de transfer --1(B), având ca intrare o secvenţă de zgomot alb, {at} .

110
MODELARE SIMULARE
12.5.1. Condiţia de staţionaritate

Dacă rădăcinile ecuaţiei  ( B)  0 , i , i  1, p , sunt distincte atunci


p p
 B p p
 ( B)   B   i      i 1       i 1  Gi B   0
 :    i 
i 1 i 1   i  i 1 i 1

p
 ( B)   1  Gi B 
i 1

şi
p (12.19)
ki
zt   1 ( B)at  
~ at .
i 1 1  Gi B

Dar dacă

 1 ( B)  1   j B j
j 1

1
este convergentă pentru B  1, atunci Gi  1 ,  i  1 , i  1, p . Aşadar,
i
rădăcinile ecuaţiei  ( B)  0 se vor situa în afara discului unitar şi astfel se asigură
staţionaritatea procesului. Se poate arăta că aceeaşi condiţie trebuie satisfăcută şi pentru cazul
când rădăcinile ecuaţiei  ( B)  0 nu sunt distincte.
Deoarece
 ( B)   ( B)  1  1 B  2 B 2  ...   p B p
are un număr finit de termeni inversabilitatea procesului AR(p) nu impune restricţii asupra
parametrilor procesului.

12.5.2. Funcţia de autocorelaţie

Înmulţind relaţia (12.14) cu ~


zt k obţinem
~ zt  1~
zt k ~ zt 1   2 ~
zt k ~ zt 2  ...   p ~
zt k ~ zt k ~
zt  p  ~
zt k at

şi aplicând operatorul de mediere avem funcţia de autocovarianţă


 k  1 k 1  1 k 2  ...   p k  p , k  0 . (12.20)

Împărţind relaţia de mai sus la 0 obţinem funcţia de autocorelaţie


 k  1  k 1  1  k 2  ...   p  k  p , k  0 (12.21)

sau
 ( B)  k  0 , unde  ( B)  1 1 B  ...  p B p .

111
MODELARE SIMULARE
12.5.3. Ecuaţiile Yule-Walker

Dând valori lui k între 1 şi p, în relaţia care defineşte k se obţine următorul sistem de
ecuaţii liniare
 1  1  2 1  ...   p  p 1 (12.22)
        ...   
 2 1 1 2 p p 2
 

  p  1 p 1  2  p  2  ...   p,

ecuaţii cunoscute sub numele de ecuaţiile Yule-Walker.
Pentru rezolvarea sistemui se înlocuiesc valorile funcţiei de autocorelaţie teoretică k cu
valorile funcţiei de autocorelaţie estimate, rk.
Matriceal, sistemul de mai sus se scrie astfel:
Pp=p
a cărui soluţie este
= Pp-1p .

12.5.4. Funcţia de autocorelaţie parţială

În practică, nu se cunoaşte ordinul modelului autoregresiv al seriei de analizat. Funcţia de


autocorelaţie parţială reprezintă un instrument care foloseşte faptul că procesul AR(p), având
o funcţie de autocorelaţie cu un număr infinit de termeni, poate fi descris prin intermediul a p
funcţii, diferite de zero ale autocorelaţiilor.
Dacă notam pj coeficientul al j-lea al procesului AR(p) se obţine următorul sistem de
ecuaţii:
 j   p1  j 1  ...   p ( p1)  j  p1   pp  j  p , j  1, p (12.23)

sau matriceal (sistemul Yule-Walker)


 1 1 2   p 1   p1   1  (12.24)
    
 1 1 1   p 2   p 2    2 
   .
     
    
  p 2  p 3 1      
 p 1  pp   p
Se rezolvă sistemul pentru p=1 ,2, 3... şi se obţin pj.
Definiţia 12.11. Valoarea pp se numeşte funcţia de autocorelaţie parţială (facp).
Pentru un proces autoregresiv de ordin p, facp va fi

112
MODELARE SIMULARE

 jj  0 pentru j  p
 (12.25)
facp  
 jj  0 pentru j  p.

Această observaţie permite alegerea ordinului procesului AR(p).

12.5.5. Estimarea funcţiei de autocorelaţie

Coeficientul de autocorelaţie estimat rk , reprezintă o măsură a dependenţei statistice

dintre perechile ordonate ale observaţiilor efectuate asupra a două variabile aleatoare, zt şi

zt  k , luând valori între -1 şi 1.

rk  1 semnifică o corelaţie negativă perfectă între zt şi zt  k ;

rk  1 semnifică o corelaţie pozitivă perfectă între zt şi zt  k ;

rk  0 atunci zt şi zt  k sunt necorelate.

Coeficientul rk aproximează  k . Pentru calculul coeficientului de autocorelaţie rk se


pot folosi formulele:
nk (12.26)
 z t  ˆ z zt  k  ˆ z 
rk  t 1
n

 z  ˆ z 
2
t
t 1

zt  zt  ̂ z , atunci
sau dacă ~
nk (12.27)
 ~z  ~z t t k
rk  t 1
n
.
 ~zt 
2

t 1

Observaţia 12.12. Pentru un număr maxim al coeficienţilor de autocorelaţie estimaţi, Box


n
şi Jenkins propun , n fiind numărul total al observaţiilor.
4

12.5.6. Cazuri particulare

1. AR(1) zt  1~
~ zt 1  at
Funcţia de autocorelaţie:

k  1k 1  1k k  0. (12.28)

Dispersia:

113
MODELARE SIMULARE

 a2 (12.29)
 z2  .
1  12

2. AR(2) zt  1~
~ zt 1   2 ~
zt 2  at
Funcţia de autocorelaţie

k  1k 1  2 k 2  1k k  0. (12.30)

Sistemul Yule-Walker devine:


 1  1  2 1
 deoarece 0  1 .
 2  11  2
Rezolvând sistemul avem:
1 1   2   22  12
1  2 
1  12 1  12
Dispersia:

 a2  1  2  (12.31)
 2
 .
z 2 2 
1   2   1  1   2 

12.6. Procese de medie alunecătoare MA(q)

Definiţia 12.13. În modelul (12.6) considerând numai primele q ponderi j nenule şi


înlocuind j cu -j , j=1, 2,..., q obţinem
zt  at  1at 1   2 at 2  ...   q at q
~ (12.32)

proces numit proces de medie alunecătoare de ordin q, notat MA(q). Aplicaţii practice au
z t  at  1at 1   2 at  2 .
zt  at  1at 1 şi MA(2): ~
în general modelele MA(1) : ~
Folosind operatorul de întârziere procesul MA(q) se poate scrie astfel:
~zt  1  1 B   2 B 2  ...   q B q at (12.33)

zt   Bat , unde  B   1  1B  2 B2  ...  q Bq .


sau ~

Astfel, procesul MA(q) poate fi privit ca reprezentând ieșirea ~zt  dintr-un filtru liniar

cu funcţia de transfer (B) şi care are ca intrare o secvenţă de tip zgomot alb {at}.

12.6.1. Condiţia de staţionaritate

După un raţionament analog celui de la procesul AR(p) se obţine ca procesul MA(q)


este inversabil dacă radăcinile ecuaţiei  B   0 se găsesc în afara cercului unitate.

114
MODELARE SIMULARE

Seria  ( B)   B având un număr finit de termeni, nu se impun nici un fel de condiţii
asupra parametrilor procesului MA(q) pentru asigurarea staţionarităţii.

12.6.2. Funcţia de autocorelaţie

Procesul MA(q) are funcţia de autocovarianţă


 k  M at  1at 1   2 at 2  ...   q at q at k  1at k 1   2 at k 2  ...   q at k q .
După efectuarea calculelor avem:
 dispersia
 0  (1  12   22  ... q2 ) a2 , (12.34)

 funcţia de autocovarianţă

k  
 
   k  1  k 1   2 k  2  ...   q k  q  a2  k  1, q
(12.35)

0 k q

Funcţia de autocorelaţie a procesului MA(q)


   k  1  k 1   2  k 2  ...   q  k q (12.36)
 k  1, q
k   1  12  ...   q2
0 k q

permite determinarea ordinului modelului, deoarece pentru k>q se anulează.
Dacă se cunosc valorile funcţiei de autocorelaţie 1, . . . , q , se pot determina parametrii

modelului 1, . . . , q , rezolvând sistemul obţinut scriind relaţia de mai sus pentru k  1, q .
Să observăm că sistemul care se obţine nu mai este liniar şi atunci sunt necesare metode
aproximative (iterative) pentru rezolvare.

12.6.3. Cazuri particulare

zt  at  1at 1
1. MA(1) ~
Funcţia de autocovarianţă este dată de relaţia:
 0  1  12  a2 (12.37)

Funcţia de autocorelaţie:
 1 (12.38)
 k 1
k   1  12

 0 k  2.

Funcţia de autocorelaţie parţială:

115
MODELARE SIMULARE

1j 1  12  (12.39)


 jj   .
1  12( j 1)

2. MA(2) z t  at  1at 1   2 at  2
~

Funcţia de autocovarianţă:
 0   a2 1  12   22  . (12.40)

Funcţia de autocorelaţie:
 1 (1   2 ) 2 (12.41)
1  2  k  0 k  2 .
1  12   22 1  12   22

12.7. Procese autoregresive şi de medie alunecatoare ARMA(p,q)

Modelele ARMA(p,q) includ atât termeni autoregresivi cât şi termeni de medie


alunecătoare şi au forma
zt  1~
~ zt 1  2 ~
zt 2  ...   p ~
zt  p  at  1at 1  ...   q at q (12.42)

sau
 ( B)~zt   ( B)at .
În practică, modelele ARMA(p,q) au ordinele p, q  1,2.
Scris sub forma

~ 1  1 B  ...   q B q (12.43)
zt  at
1  1 B  ...   q B q

Procesul ARMA poate fi considerat ca reprezentând ieşirea {zt} dintr-un filtru a cărui
funcţie de transfer este dată de raportul a două polinoame (B) şi (B) şi care are ca intrare
o secvenţă de zgomot alb {at}.

12.7.1. Staţionaritate şi inversabilitate

Prosesul ARMA(p,q) poate fi privit ca:


 AR(p)  ( B)~
zt  et cu {et} proces MA(q), et   ( B)at
şi
 zt   ( B)bt cu {bt} proces AR(p),  ( B)bt  at .
MA(q) ~

Procesul este staţionar dacă  ( B)  0 are rădăcinile în afara discului unitar şi este
inversabil în aceleaşi condiţii.

116
MODELARE SIMULARE
12.7.2. Funcţiile de autocorelaţie şi autocorelaţie partială

Prin înmultirea relaţiei (12.42) cu ~


zt k şi aplicând operatorul de mediere se obţine funcţia
de autocovarianţă
 k  1 k 1  2 k 2  ...   p k  p  1 ~z a (k 1)  ...   q ~z a (k  q) (12.44)

unde  ~z a (k ) reprezintă funcţia de intercovarianţă dintre ~zt şi at , adică  ~z a  M [~


zt k at ] .

Deoarece ~
zt k depinde numai de valorile {at} care au apărut până la momentul t-k
rezultă că:
 ~z a (k )  0 k  0 (12.45)

 ~z a (k )  0 k  0.
Atunci :
 funcţia de autocovarianţă este
 k  1 k 1  ...   p k  p k  q  1 (12.46)

şi
 funcţia de aucorelaţie este
 k  1  k 1  ...   p  k  p k  q  1. (12.47)

12.7.3. Caz particular ARMA(1,1)

zt  1~
~ zt 1  at  1at 1

Condiţia de staţionaritate: 1  1 ; condiţia de inversabilitate: 1  1 .

Funcţia de autocovarianţă:
 1  12  211 2 (12.48)

 0  a
 1   1
2

 (1  11 )(1  1 ) 2
 1  a
 1  12
 k  1 k 1 k2


Funcţia de autocorelaţie:
 (1  11 )(1  1)
(12.49)
 1 
 1  12  211

  2  11 .

117
MODELARE SIMULARE

12.8. Proprietăţile proceselor AR(p), MA(q), ARMA(p,q)

Model AR(p) MA(q) ARMA(p,q)


În funcţie de valorile
anterioare ~
 ( B)~zt  at  1 ( B)~zt  at  1 ( B) ( B)~zt  at
zt
În funcţie de valorile
zt   1 ( B)at
~ zt   ( B)at
~ zt   1 ( B) ( B)at
~
anterioare at
În funcţie de ponderile
Serie finită Serie infinită Serie infinită
i
În funcţie de ponderile
Serie infinită Serie finită Serie infinită
i
Radacinile ecuaţiei Rădăcinile ecuaţiei
Condiţia de  ( B)  0 să se  ( B)  0 să se
Staţionar întotdeauna
stationaritate situeze în afara situeze în afara
discului unitar discului unitar
Rădăcinile ecuaţiei Rădăcinile ecuaţiei
Condiţia de  ( B)  0 să se  ( B)  0 să se
Inversabil întotdeauna
inversabilitate situeze în afara situeze în afara
discului unitar discului unitar
Serie infinită (funcţii Serie finită Serie infinită (funcţii
exponenţiale exponenţiale
amortizate şi/sau amortizate şi/sau
Funcţia de funcţii sinusoidale funcţii sinusoidale
autocorelaţie amortizate) amortizate după
primele q-p valori)
Se reduce ca valoare Se anulează brusc Se reduce ca valoare
către 0 către 0
Serie infinită Serie infinită
Serie finită
(dominată de funcţii (dominată de funcţii
exponenţiale exponenţiale
amortizate şi/sau amortizate şi/sau
Funcţia de
funcţii sinusoidale funcţii sinusoidale
autocorelaţie partială
amortizate amortizate după
primele q-p valori
Se reduce că valoare Se reduce ca valoare
Se anulează brusc
către 0 către 0

12.9. Procese autoregresive integrate şi de medie alunecătoare


ARIMA(p,d,q)

Seriile de timp care nu au valoarea medie constantă, dar sunt caracterizate de o anume
omogenitate, în sensul că făcând abstracţie de valoarea medie locală sau de valoarea medie
locală şi de tendinţa, o secvenţă de date din serie se comportă în mod asemănător cu oricare
altă secvenţă de date din cadrul aceleiaşi serii sunt transformate, în urma unor diferenţieri, în
procese staţionare mixte autoregresive şi de medie alunecătoare numite ARIMA(p,d,q), unde:
p este ordinul de regresie, d ordinul de diferenţiere şi q ordinul de medie alunecătoare.
Un astfel de proces se reprezintă prin

118
MODELARE SIMULARE

 ( B)d zt   ( B)at , (12.50)

unde   1  B .

Notând wt   d zt   ( B)wt   ( B)at , ceea ce revine la a observa că modelul de mai


sus corespunde ipotezei că diferenţele de ordin d ale seriei pot fi reprezentate printr-un
proces ARMA inversabil, staţionar.
Exprimând zt în funcţie de wt obţinem
zt=Sdwt, (12.51)
unde S este operatorul de însumare infinită, definit de relaţia următoare :

 x  1  B  B 
t
 ... xt  1  B  xt   1 xt .
1
Sxt  h
2

h 

Relaţia (12.51) arată că procesul iniţial poate fi obţinut prin integrarea procesului staţionar
(12.50) de d ori. De aici, denumirea de proces autoregresiv integrat şi de medie
alunecătoare.

119
MODELARE SIMULARE

13. PREDICŢIA SERIILOR DE TIMP FOLOSIND REŢELE NEURALE ȘI


SISTEME FUZZY

Metodele statistice precum regresia, analiza multivariată a datelor, teoria bayesiană,


recunoașterea formelor și modelele de aproximare în sensul celor mai mici pătrate au fost
aplicate pentru o gamă largă de probleme de decizie, în mai multe discipline.

13.1. Modele de regresie statistică

Învățarea joacă un rol-cheie în domeniile statisticii, data mining și inteligență artificială,


intersectându-se cu domenii ale ingineriei sau ale altor discipline.
În funcționarea unui sistem de învățare se disting următoarele două etape:
1) învățarea/estimarea (pe baza eșantioanelor de instruire);
2) operația/predicția, atunci când predicțiile sunt făcute pentru viitor sau pentru
eșantioanele din lotul de test.
Predicţia este bazată pe următoarea convenţie:
 este considerată regresie când se prezic ieșiri cantitative;
 este denumită clasificare când se prezic ieșiri calitative.

13.1.1. Noţiuni de bază în modelarea fuzzy

Rețelele neurale artificiale (RNA) constituie instrumente puternice pentru rezolvarea unei
varietăți de probleme în multe domenii ale științei și ingineriei. RNA-urile sunt modele
computaționale paralele cu grad de complexitate variate, constituite din unități de procesare
elementare, de cele mai multe ori adaptive, denumite neuroni, interconectate masiv, conform
unei organizări ierarhice. RNA-urile simulează sistemul nervos al creierului uman: intrările
sunt dendritele, ieșirile reprezintă axonii, iar arcele constituie sinapsele.
RNA-urile sunt modele computaționale utilizate pentru a rezolva o gamă largă de
probleme, incluzând: clasificarea (recunoașterea) formelor, sinteza și recunoașterea vorbirii,
interfețe adaptive între oameni și sisteme fizice complexe, aproximarea funcțiilor, compresia
de date a imaginilor, clasificare nesupervizată (clustering), predicție, modelarea sistemelor
neliniare, controlul (reglarea automată).
Definiția 13.1. Conceptul de neuron artificial a fost introdus de Mc Culloch și Pitts (1943)
și constă dintr- un set de entități   x, w, ,  , unde:

120
MODELARE SIMULARE

 x  x1, x2 ,, xn   n este intrarea neuronului (reprezentând un vector cu n


componente),

 w  w1, w2 ,, wn   n este vectorul de ponderi (weights),

  este un număr real, numit pragul (threshold) neuronului la un moment dat,


  x, w,  este o funcție de 2n  1 variabile reale, numită funcția de ieșire a
neuronului  .
Neuronul clasic admite o reprezentare de forma următoare (Fig. 13.1):

Fig. 13.1. Elementele de bază ale unui neuron artificial


Un neuron clasic tipic are n intrări (cu ponderile aferente) şi o ieşire. Neuronul realizează
suma intrărilor sale xi , i  1, n ţinând seama de ponderile corespunzătoare wi , i  1, n şi

transferă rezultatul unei funcţii de activare neliniară f   .


Observația 13.2. Un caz particular îl constituie neuronul liniar, unde
 n 
 x, w,   F   xk wk    și F :    este o funcție monoton crescătoare, cu valori
 k 1 
n
pozitive, numită funcție de activare. Expresia  xk wk   este denumită net- inputul
k 1

neuronului, la un moment.
Cele mai utilizate funcții de activare sunt :
a) funcția treaptă unitate

Fig. 13.2. Funcția treapă unitate


b) funcția sigmoidală

121
MODELARE SIMULARE

Fig. 13.3. Funcția sigmoidală


c) funcția tangentă hiperbolică:
sinh x  e x  e x (13.1)
f x   tanhx   
coshx  e x  e x

Fig. 13.4. Funcția tangentă hiperbolică


Definiția 13.3. Se numește rețea neurală (sau neuronală) cu p straturi, un graf orientat
etichetat, pe care vârfurile sunt neuronii 1,, M dispuși pe p1 straturi de intrare, p2 straturi
de ieșire și p3 straturi ascunse ( p1  p2  p3  p ); arcele sunt legături între unii dintre
neuroni, pe fiecare arc fiind indicată ponderea respectivă. Rețeaua se numește liniară dacă
toți neuronii sunt liniari.
Definiția 13.4. Rețelele neurale în care informația se propagă succesiv de la straturile
inferioare (intrări) spre cele superioare (ascunse sau ieșiri) se numesc rețele feed-forward
(fără reacție), iar cele cu reveniri ale informației spre straturile inferioare sunt denumite
rețele cu feed-back (cu reacție).
Arhitecturile de reţele neurale folosite în modelarea sistemelor nervoase pot fi împărţite în
trei categorii, fiecare având o filosofie diferită:
1) reţele de tip feed- forward, în cazul cărora transformarea vectorilor de intrare în
vectori de ieşire este determinată printr-o ajustare (rafinare, reglare) a parametrilor
sistemului;
2) reţele de tip feed-back, informaţia de intrare defineşte starea de activitate iniţială a
sistemului feed- back şi după treceri prin stări intermediare, starea finală, asimptotică
este identificată ca fiind consecinţa calculului;
3) reţele cu auto-organizare (introduce de Kohonen) în cadrul cărora celulele vecine
comunică între ele.
122
MODELARE SIMULARE
Definiția 13.5. Rafinarea parametrilor unei rețele constă în ajustarea (actualizarea)
acestora după o anumită regulă, în raport cu fiecare iterație.
Definiția 13.6. Lotul de instruire reprezintă mulţimea vectorilor pe baza cărora se face
instruirea reţelei respective, în timp ce lotul de test (distinct de cel de instruire) conţine
vectorii utilizaţi pentru a testa performanţele reţelei.
Definiția 13.7. Prin învățarea (antrenarea sau instruirea) unei rețele neurale se înțelege
procesul de actualizare a parametrilor săi, pe baza vectorilor din lotul de instruire.
Perceptronul este cea mai simplă, cea mai utilizată și totodată cea mai veche rețea neurală.
Denumirea de perceptron derivă din percepție. Structura clasică de perceptron neliniar (Non-
Linear Perceptron”= NP), care este o rețea fără reacție (reprezentată în Fig. 13.5), ce conține
trei nivele de neuroni:
1. primul strat (input layer), acţionează ca un buffer de intrare, conţinând neuroni virtuali
(transparenţi);
2. al doilea strat, denumit strat intermediar (hidden layer) se comportă ca un detector de
caracteristici;
3. al treilea nivel (output layer) conţine neuroni perceptroni sau clasificatori, care
combină caracteristicile furnizate de neuronii stratului intermediar pentru a lua
anumite decizii.

Fig. 13.5. Rețea perceptron neliniar cu trei straturi de neuroni (structura clasică)

NP-ul care conține mai mult de un strat de intermediar este denumit perceptron multistrat
(Multilayer Perceptron= MP).
Primul strat al NP conține neuroni virtuali, care nu realizează o prelucrare de semnal, ci
doar o multiplexare, prelucrarea propriu- zisă având loc doar în stratul intermediar și în cel de
ieșire.

123
MODELARE SIMULARE
ECUAȚIILE UNUI NEURON DIN STRATUL INTERMEDIAR

Fig. 13.6. Conexiunile neuronului j, din stratul intermediar

 
 X p  x p1,, x pn t are semnificația de vector care se aplică la intrarea NP,

 
 W jih
j 1, L, i 1, n
reprezintă mulțimea ponderilor aferente stratului intermediar,

 L este numărul de neuroni ai stratului intermediar,


 n reprezintă numărul neuronilor de pe stratul de intrare.
Indicele superior “h” care apare în notarea ponderilor acestui strat provine de la hidden.
   liniară
Avem două etape de prelucrare: 
  neliniar ă
Etapa liniară (  )
În cadrul acestei etape vom defini activarea neuronului j din stratul intermediar, când la
intrare se aplică vectorul X p ,

n (13.2)
(  ) net hpj  W jih x pi , j  1, L ,
i 1

unde net hpj este o variabilă de stare internă (activarea neuronului j).


Dacă W jh  W jh1,,W jn
h t

, atunci

 
net hpj  W jh , X p  W jh t X p , j  1, L.
(13.3)

Etapa neliniară (  )
Aceasta etapă presupune calcularea ieșirii neuronului intermediar j, conform formulei

 
(  ) i pj  f jh net hpj , j  1, L , (13.4)

f jh este o funcție neliniară de tipul f:   , f x  


1
unde (  >0 constant)
1  e  x
(neliniaritate sigmoidală conform Fig. 13.3) sau f x   th x (neliniaritate de tip tangentă
hiperbolică, conform Fig. 13.4).

124
MODELARE SIMULARE
ECUAȚIILE UNUI NEURON DIN STRATUL DE IEȘIRE

Fig. 13.7. Conexiunile neuronului k din stratul de ieșire


 M este numărul de neuroni ai stratului de ieșire,

 Wkjo k 1,M , j 1,L reprezintă mulțimea ponderilor aferente stratului de ieșire (indicele
o=”output”).
   liniară
Avem două etape de prelucrare: 
  neliniar ă
Etapa liniară (  )

Activarea neuronului k din stratul de ieșire, când la intrarea NP se aplică vectorul X p este

dată de formula
L (13.5)
() net opk   Wkjoi pj , k  1, M ,
j 1

unde net opk este o variabilă de stare internă (activarea neuronului k).

Etapa liniară (  )

Ieșirea neuronului de ieșire k este determinată în funcție de activarea (transfer) net opk și

este exprimată de formula

( )  
o pk  f ko net opk , k  1, M ; (13.6)

f ko poate fi funcția sigmoidală sau tangentă hiperbolică.


O rețea perceptron neliniar cu trei nivele este definite de setul de parametri:

 
n, L, M , W jih
j 1, L, i 1,n
 
, Wkjo
k 1, M , j 1, L

unde (nL+LM) este numărul total de ponderi.


Ponderile se rafinează în cursul unui process de învățare, care pentru rețeaua perceptron
neliniar este supervizată, adică se cunoaște setul de ieșiri ideale pentru fiecare vector de
intrare aparținând lotului de instruire (conținând K vectori).
Fiecărui vector


X p  x p1,, x pn t , 
125
MODELARE SIMULARE
care se aplică la intrarea rețelei îi corespunde vectorul ieșirilor ideale


Yp  y p1,, y pM t , 
unde:
 n reprezintă dimensiunea vectorului de intrare,
 M numărul de clase (numărul neuronilor de pe stratul de ieșire).
NP are un algoritm de instruire de tip back-propagation, adică prin procesul de instruire
se realizează o reacție negativă, ce constă în faptul că eroarea dintre ieșirea ideală și ieșirea
reală se propagă înapoi, acționând asupra cauzei care a produs-o.
Scopul algoritmului de instruire este de a minimiza eroarea pe lotul de instruire
1 K (13.7)
E  Ep
K p 1

unde

 
1M 2 (13.8)
Ep   y pk  o pk
2 k 1
constituie eroarea determinată de vectorul de instruire de index p. Pașii algoritmului de
instruire sunt:
Pasul 1. Se ia p=1. Se aplică la intrarea rețelei vectorul X p , pentru care se cunoaște

vectorul de ieșire ideal Y p .

Notând cu t indicele iterației, la:


 la t  1 se aplică vectorul X1;

 la t  K se aplică vectorul X K ;

 la t  K  1 se aplică vectorul X1.


Apoi se generează aleator mulțimea ponderilor aferente stratului intermediar

 j 1, L, i 1,n și cea aferentă stratului de ieșire al rețelei: Wkjo k 1,M , j 1, L .
adică W jih

Pasul 2. Se calculează activările neuronilor din stratul intermediar folosind relația (13.2).
Pasul 3. Se calculează ieșirile neuronilor din stratul intermediar folosind relaţia (13.4).
Pasul 4. Se determină activările neuronilor din stratul de ieșire pe baza relaţiei (13.5).
Pasul 5. Se calculează ieșirile neuronilor de pe stratul de ieșire conform relaţiei (13.6).
Pasul 6. Se determină termenii eroare pentru neuronii de ieşire conform formulei

 
 opk  y pk  o pk  f k'o net opk , k  1, M . (13.9)

Pasul 7. Se determină termenii eroare pentru neuronii din stratul intermediar folosind:
126
MODELARE SIMULARE

 pj
h
  kM1
 f j'h net hpj    opkWkjo , j  1, L .
(13.10)

Pasul 8. Se rafinează (rafinarea acționează în sensul scăderii erorii din (13.8)) ponderile
aferente stratului de ieșire pe baza relației
E p (13.11)
Wkjo t  1  Wkjo t    o
, k  1, M , j  1, L ,
Wkj

unde  , 0    1 este rata de învățare. Pentru unele aplicații,  este variabil cu iterația. Dacă
 este mai mic, rafinarea este mai fină, deci precizia de atingere a minimului este mai mare,
dar crește timpul de instruire.
Formula de rafinare a ponderilor aferente stratului de ieșire este echivalentă cu formula

Wkjo t  1  Wkjo t    opk i pj , k  1, M , j  1, L . (13.12)

Pasul 9. Se rafinează ponderile aferente stratului intermediar:


E p (13.13)
W jih t  1  W jih t    h
, j  1, L , i  1, n 
W ji

W jih t  1  W jih t      pj
h
 x pi , j  1, L , i  1, n . (13.14)

Pasul 10. Se calculează eroarea datorată vectorului p de instruire, folosind formula (13.8).
Pasul 11. Dacă p<K se face p=p+1, adică se introduce un nou vector la intrarea rețelei.
Altfel, se calculează eroarea corespunzătoare epocii respective (prin epocă se înțelege
parcurgerea întregului lot de vectori), folosind formula (13.7) și se începe o nouă epocă de
instruire.
Algoritmul de instruire se termină după un anumit număr ( fixat) de epoci.
Definiția 13.8. Rețeaua neurală clasică poate fi numită rețea neurală fuzzy dacă intrările
și/ sau ponderile și/ sau ieșirile acesteia sunt numere fuzzy (exprimă gradul de apartenență la o
mulțime fuzzy).
Noțiunea de mulțime nuanțată sau vagă (fuzzy set) a fost introdusă de L.A. Zadeh în 1965.
Ideea este de a înlocui decizia binară a apartenenței (sau neapartenenței) unui element la o
mulțime, cu introducerea unui grad de apartenență, cuprins între 0 și 1.
Definiția 13.9. Fie U o mulțime nevidă (universul discursului). Se numește mulțime
fuzzy relativ la U, orice aplicație A : U  0,1. Pentru orice x U , Ax  desemnează gradul
(coeficientul) de apartenență a lui x la mulțimea fuzzy A . Funcția constantă 0 (respectiv 1)
pe U se numește mulțimea fuzzy vidă (respectiv totală).

127
MODELARE SIMULARE
Observația 13.10. Avantajul introdus de mulțimile fuzzy este că permit precizarea
gradului de apartenență la o mulțime, care furnizează mai multă informație decât forma binară
de apartenență.
Definiția 13.11. Un număr fuzzy este o mulțime fuzzy, ce are ca univers de discurs
mulțimea numerelor reale.
Numerele fuzzy pot fi de formă triunghiulară, trapezoidală, dreptughiulară, Gaussiană, etc.
Exemplul 13.12. Fie U=mulțimea persoanelor dintr-o anumită colectivitate și proprietatea
de inteligență. Oricărei persoane x U i se asociază coeficientul de inteligență Ax ,
asociând coeficientul 1 unui geniu și ocupând întreaga plajă de valori între 0 și 1. În acest fel
este definită o mulțime fuzzy A : U  0,1, numită inteligența relativ la U.
Logica fuzzy (ce corespunde mulțimilor fuzzy) este o logică cu o infinitate de valori și
constituie un instrument puternic pentru modelarea gândirii și percepției umane. Se consideră
că, eficiența creierului uman nu provine doar din raționamente precise, ci și din concepte
fuzzy, din judecată bazată pe reguli fuzzy.
Pentru ca un sistem neural să aibă capacitatea de a trata incertitudinile cognitive aproape
ca ființa umană, trebuie adaugat conceptul de logică fuzzy rețelelor neurale.
Un neuron fuzzy (Fuzzy Neuron= FN) are N intrări ponderate xi , i  1, N , N ponderi wi ,
i  1, N şi M ieşiri y j , j  1, M . Fiecare ieşire poate fi asociată cu o valoare de apartenenţă la
un concept fuzzy, adică exprimă în ce măsură forma cu intrările x1, x2 , xN  aparţine unei
mulţimi fuzzy.

x1 y1
w1
g1
x2 y2
w2 h f g2

gM
xN yM
wN

T
Fig. 13.8. Structura unui neuron fuzzy
În Fig 13.8:
 z este intrarea netă a neuronului,
z  hw1x1,..., w N x N  (13.15)

 h  reprezintă funcţia de agregare, care furnizează intrarea pentru neuronul respectiv,


 s constituie starea neuronului fuzzy,
s  f z - T  (13.16)

 f   este funcţia de activare,

128
MODELARE SIMULARE

 T este pragul de activare,


 y j  g j  , j  1, 2,, M  sunt M funcţii de ieşire ale FN care reprezintă funcţiile de
apartenenţă ale formei de intrare x1, x2 , xN  la cele M mulţimi fuzzy.
În general, ponderile, pragul de activare şi funcţiile de ieşire care descriu interacţiunile
între neuronii fuzzy pot fi ajustate în timpul procedurii de învăţare. În acest caz, neuronii
fuzzy sunt adaptivi şi reţeaua care este construită cu aceşti neuroni poate învăţa din mediul în
care se află. Funcţia de agregare şi funcţia de activare sunt caracteristici intrinseci ale
neuronului fuzzy. Dacă se utilizează funcţii f   şi h  diferite pentru diferiţi neuroni, atunci
proprietăţile lor vor fi diferite. Astfel, se pot defini multe tipuri de neuroni fuzzy schimbând
funcţiile f   şi h ; de asemenea, în locul ponderilor putem utiliza funcţii pondere, iar în
locul pragului, o funcţie prag.
În continuare vor fi definiţi patru tipuri de FN:
În continuare vor fi definiţi patru tipuri de FN:
A) INPUT-FN
Dacă un FN este utilizat în stratul de intrare al unei reţele neurale fuzzy şi are o singură
intrare x astfel încât
zx (13.17)
atunci acest FN este numit neuron fuzzy de intrare (INPUT-FN).
B) MAXIMUM-FN (MAX-FN)
Dacă drept funcţie de agregare a unui FN este folosită funcţia maximum astfel ca

z  max wi xi 
N (13.18)
i 1

atunci acest FN este numit neuron fuzzy de tip max (MAXIMUM-FN sau MAX-FN).
x1
w1 N
z  max wi xi 
i 1
x2
w2

wN
xN

Fig. 13.9. Neuronul fuzzy de tip MAX- FN.


C) MINIMUM-FN (MIN-FN)
Dacă drept funcţie de agregare a unui FN este folosită funcţia minimum astfel ca

z  min wi xi 
N (13.19)
i 1

129
MODELARE SIMULARE
atunci acest FN este numit neuron fuzzy de tip min (MINIMUM-FN sau MIN-FN).
x1
w1 N
z  min wi xi 
i 1
x2
w2

xN wN

Fig. 13.10. Neuronul fuzzy de tip MIN- FN.


D) COMPETITIVE-FN (COMP-FN)
Dacă un FN are un prag variabil T şi doar o ieşire astfel încât
0 dacă s  T (13.20)
y  g s  T   
1 dacă s  T
T  t c1,..., ck  (13.21)

unde:
 s este starea neuronului fuzzy,
 t  este funcţia prag,
 ck , k  1, K sunt variabilele competitive ale FN,
atunci acest FN este numit neuron fuzzy competitiv (COMETITIVE-FN sau COMP-FN).
O regulă fuzzy if- then este de forma:

 j : If x1 is A1 j and x2 is A2 j … and xm is Am j , then y1 is 1 j , …, yM is  M j ,

unde:
 m este numărul termenilor din partea antecedentă a regulii j și coincide cu dimensiunea
vectorului observațiilor (care se aplică la intrarea unei rețele neurale),
 M este numărul termenilor din partea de concluzie a regulii j,

 Ai j , i  1, m și respectiv  r j , r  1, M sunt termeni lingvistici (numere fuzzy cu o


denumire specifică), caracterizați prin funcții de apartenență adecvate,

 xi , i  1, m și respectiv yr , r  1, M sunt variabile lingvistice (atribute, proprietăţi ale


obiectelor considerate) într-un domeniu specificat.
Exemplul 13.13. Se consideră următoarea bază de reguli fuzzy, ce constă din trei reguli
fuzzy date în relatia de mai jos.
1 : If x is small then y is small,

 2 : If x is medium then y is medium,

 3 : If x is big then y is big,

130
MODELARE SIMULARE
unde funcțiile de apartenență ale termenilor fuzzy sunt definite prin:
 u  0.2
1  0.3 , dacă 0.2  u  0.5

small u    1, dacă 0  u  0.2
 0, altfel

1  4  u  0.5 , dacă a 0.25  u  0.75


medium u   
 0, altfel

 0.8  u
1  0.3 , dacă 0.5  u  0.8

big u    1, dacă 0.8  u  1
 0, altfel


și sunt reprezentate în Fig. 13.11.
u  small medium big
1

u
0.2 0.5 0.8 1

Fig. 13.11. Funcțiile de apartenență pentru small, medium și big.

Fiecare regulă  j poate fi interpretată ca o formă de instruire pentru o rețea neurală,

partea antecedentă a regulii fiind intrarea rețelei iar partea de concluzie a regulii reprezentând
ieșirea dorită (ideală) a rețelei.
Pentru a extrage regulile fuzzy dintr-o bază de reguli fuzzy și a forma mulțimea vectorilor
de instruire, respectiv de test, care se aplică la intrarea rețelelor neurale fuzzy, numerele fuzzy
se pot reprezenta în două moduri:
1) metoda propusă de Umano și Ezawa [42], potrivit căreia un număr fuzzy este
reprezentat printr-un număr finit de valori de apartenență;
2) metoda lui Uehara și Fujise [41] privind reprezentarea unui număr fuzzy printr-un
număr finit de mulțimi de nivel  .
Definiţia 13.14. Suportul unei multimi fuzzy V este submulţimea strictă a lui U, ale cărei
elemente au grade de apartenenţă nenule în V, adică
suppV   x V | Ax  0. (13.22)

131
MODELARE SIMULARE

În cazul primei metode, dacă a1,a2  constituie suportul numerelor fuzzy din partea

antecedentă a unei reguli fuzzy şi b1,b2  este suportul numerelor fuzzy din partea de concluzie
a regulii fuzzy respective, atunci avem:
 a2  a1 (13.23)
 x j  a1   j  1  n  1 , 1  j  n

 y  b  i  1  b2  b1 , 1  i  m
 i 1 m 1
unde m  2, n  2.
În cazul metodei de reprezentare a numerelor fuzzy prin de multimi de nivel  se alege
un număr natural M  2, care reprezintă numărul mulţimilor de nivel  folosit în
reprezentarea numarului fuzzy respectiv şi se consideră
j 1 (13.24)
j  , j  1, M
M 1
o partiţie a intervalului [0,1].

Cele M mulţimi de nivel  ale numărului fuzzy Aip , i  1, n, p  1, K sunt date, prin
definiţie, de relaţia

A   u | A u    a
i
p j
i
p
j
L R

pij , a pij , j  1, M , i  1, n, p  1, K .
(13.25)

 u 

M  1

i

1  0 u
aiL aiR
Fig.13.12. Reprezentarea unui număr fuzzy triunghiular prin M mulţimi de nivel 
 u 

M  1
i

1  0
aiL aiR u

Fig.13.13. Reprezentarea unui număr fuzzy trapezoidal prin M mulţimi de nivel 

Teorema 13.15. Pentru un număr fuzzy triunghiular reprezentat în Fig. 13.14 având
forma generală

132
MODELARE SIMULARE

 a t (13.26)
1   , dacă a    t  a

 t a
At   1  , dacă a  t  a  
 
 0, altfel


mulţimile de nivel  se calculează pe baza formulei

A  a  1    , a  1    . (13.27)

At 
1

0 t
a  a a 

Fig. 13.14. Număr fuzzy triunghiular


Teorema 13.16. În cazul unui număr fuzzy trapezoidal (Fig. 13.15), având forma generală
 at (13.28)
1   , dacă a    t  a

At    1, dacă a  t  b
1  t  b , dacă b  t  b  
 
 0, altfel
mulţimile de nivel  se calculează conform formulei

A  a  1    , b  1    . (13.29)

At 
1

0 t
a  a b b 

Fig. 13.15. Număr fuzzy trapezoidal

13.1.2. Model de regresie liniară multiplă

Un model de regresie liniară multiplă (MLRM= Multiple Linear Regression Model) poate
fi definit astfel:
m (13.30)
y j  yˆ j   j   0  i xij   j ,  j  1, K ,
i 1

unde:
 m  1 semnifică ordinul modelului de predicţie;

133
MODELARE SIMULARE

 y j reprezintă valoarea observată a predictandului (variabila prezisă, dependentă);

 K este numărul predictorilor (variabilele independente, explicative) multipli


xij corespunzători variabilei răspuns y j ;

 i ,  i  1, m sunt parametrii regresiei,  0 reprezentând un termen de distorsiune


(deviere), adică o constantă de regresie;
 ŷ j este valoarea prezisă a predictandului, adică este y j prezis;

  j este eroarea predicţiei (termenul eroare) datorată valorii observate y j , adică:

 j  y j  yˆ j,  j  1, K . (13.31)

Acest tip MLRM poate fi scris de asemenea, sub forma vectorială


y  X  , (13.32)
unde
 y1  1 x11  xm1   0   1 
       
y     , X      ,     ,     .
y  1 x1K  xmK     
 K   m  m
Valorile optime ale parametrilor i ,  i  1, m minimizează suma erorilor pătratice
(SSE= Sum of Squared Errors):

SSE   t   y  X t  y  X , (13.33)

superscriptul t notând transpusa unei matrice. Vectorul ̂ al parametrilor optimi este:

 1 X t y.
ˆ  X t X
(13.34)

Ecuaţia de predicţie rezultată este:


m (13.35)
yˆ j  ˆ 0   ˆi xij .
i 1

13.2. Regresie folosind reţele neurale

13.2.1. Modelul neural clasic de regresie neliniară

Modelul de regresie neliniară (NRM= Nonlinear Regression Model) constituie


generalizarea modelului de regresie liniară, care este adesea folosit doar pentru construirea
unui model empiric.
NRM are forma:

134
MODELARE SIMULARE


y j  yˆ j   j  0  f x1 j , x2 j ,, xmj ; 1, 2 ,, m   j  (13.36)

sau forma vectorială:


y  F  X ,    , (13.37)

unde F este o funcţie matriceală, având ca argumente matricea X și vectorul parametrilor  .


Regresia neliniară (13.37) este neliniară atât în raport cu X, cât și în raport cu vectorul
 al coeficienţilor de regresie.
Reţelele neurale artificiale sunt indicate pentru o categorie foarte largă de aproximări
neliniare. RNA-urile cu funcții de activare neliniare sunt mult mai eficiente decâ modelele de
regresie liniară.
Figura 13.16 înfăţișează o reţea neurală feed-forward, formată din trei straturi de neuroni.
1
x1 w11 1
W1
x2
z
 Wl
 wn1
xn wnl a
l
n

b1

1 1
bl
1

1
Fig. 13.16. Structura matematică a unei reţele neurale feed-forward cu un strat intermediar
Deoarece variabila prezisă poate lua valori negative se consideră funcţia tangenta
hiperbolică (dată în (13.1) care ia valori în intervalul  1,1 ), drept funcție de activare
neliniară a reţelei neurale din Fig.13.16.
Ieșiea celui de-al j-lea neuron din stratul intermediar va fi:
 n  (13.38)
y j  tanh  wij xi  b j ,  j  1, l ,
 i 1 
unde:
 n este numărul de neuroni din stratul de intrare;
 l reprezintă numărul neuronilor din stratul intermediar;
 xi semnifică componenta a i-a a vectorului, care se aplică la intrarea reţelei;

135
MODELARE SIMULARE

 wij este ponderea ce corespunde conexiunii dintre neuronul i din stratul de intrare și

neuronul j din stratul intermediar;


 b j constituie parametrii de distorsiune asociaţi stratului intermediar;

Neuronul de ieșire al celui de-al treilea strat al reţelei are valoarea:


l (13.39)
z   W j y j  a,  j  1, l ,
j 1

unde:
 W j sunt ponderile corespunzătoare stratului de ieșire;

 y j este valoarea ieșirii neuronului j din stratul intermediar, din (13.38);

 a reprezintă termenul de distorsiune asociat stratului de ieșire.


Parametrii b j și a pot fi consideraţi drept ponderi pentru intrări constante, cu valoarea 1.

Parametrii optimi wij , W j , b j , a ai reţelei se determină după terminarea algoritmului de

instruire (de tip back-propagation), care are ca scop ajustarea acestor parametrii astfel încât să
fie minimizată funcţia cost (aceasta măsoară eroarea medie pătratică dintre ieșirea modelului z
și valoarea observată zobs).

13.2.2. Modelul neural propus pentru regresie neliniară

Reţeaua neurală fuzzy gaussiană (Fuzzy Gaussian Neural Network= FGNN) este un tip
special de reţea neurală, prin tip special întelegând faptul că FGNN are speciale atât
conexiunile (dintre nivelul al doilea și al treilea) cât și operaţiile cu nodurile.
Diagrama de structură a FGNN este reprezentată Figura 13.17.
y1  yM

4 WK41 4
W11 WKM
Stratul 4

1 2  K-1 K

3 Stratul 3
w 11
w 3m 2 w 3mK

A 11 A1K A1m  AK
m
Srratul 2

Stratul 1
x1 xm

Fig. 13.17. Diagrama de structură a FGNN


unde:
136
MODELARE SIMULARE

 X  x1,, xm  constituie vectorul care se aplică la intrarea FGNN, m fiind numărul


de neuroni corespunzători stratului de intrare;

 i1,m, j 1,K este ponderea dintre al i 1K  j - lea neuron din stratul al doilea și
 Wij3

al j-lea neuron din stratul al treilea, K fiind numărul de neuroni ai celui de-al treilea
strat;

 
 W jl 4
j 1, K , l 1, M
semnifică conexiunea dintre neuronul j al celui de-al treilea strat și

neuronul l din stratul de ieșire al FGNN, M fiind numărul de clase;


 Y   y1,, yM  reprezintă ieșirea FGNN.
Construirea reţelei se bazează pe reguli fuzzy de forma:

 j : If x1 is A1 j and x2 is A2 j … and xm is Am j , then y1 is 1 j , …, yM is  M j ,

unde:
 m reprezintă numărul neuronilor de pe stratul de intrare (numărul termenilor din partea
antecedentă a regulii j),
 M este numărul neuronilor de pe stratul de ieșire al reţelei (numărul termenilor din
concluzia regulii j),
 j semnifică indexul regulii respective, j  1, K , K reprezentând numărul regulilor
care coincide cu numărul vectorilor de instruire, respectiv celor de test care se
furnizează la intrarea FGNN;
 X  x1,, xm  este vectorul de intrare corespunzător regulii  j ;

 Ai j , i  1, m, j  1, K sunt mulţimi fuzzy corespunzătoare vectorului de intrare;

 Y   y1,, yM  este vectorul ieșirilor reale corespunzătoare regulii  j ;

 i j , i  1, M , j  1, K sunt mulţimi fuzzy corespunzătoare vectorului de ieșire.

Regula fuzzy  j constituie componenta j a FGNN și este ilustrată în Figura 13.18.

137
MODELARE SIMULARE

Fig. 13.18. Construirea celei de j-a componente a FGNN


În Figura 13.17 am reprezentat FGNN completă, adică cu K componente.
FGNN constă din patru straturi de neuroni și fiecare neuron al său realizează două operaţii
folosind două funcţii diferite:

1) prima funcţie este funcţia de agregare g k  , care furnizează intrarea pentru neuronul
respectiv și care este


Net input= g k x k ;W k , (13.40)

indicele superior indicând numărul nivelului reţelei, deci k  1,4 , x k fiind vectorul de intrare

al stratului k, iar W k reprezentând vectorul pondere aferent stratului k al FGNN.

2) a doua funcţie este o funcţie de activare neliniară notată f k   care dă ieșirea unei
valori activate în funcţie de net input; astfel

 
Output= Oi k  f k g k , (13.41)

unde Oi k este a i-a ieșire a neuronului respectiv, de pe nivelul k.


Primul strat al FGNN este un strat transparent, fără rol în prelucrarea informaţiei, ci care
realizează doar transmiterea intrărilor numerice către următorul nivel. În cel de-al doilea nivel
(nivelul termenilor lingvistci) al FGNN, fiecare neuron realizează o funcţie de apartenenţă;
drept funcţie de apartenenţă este utilizată o funcţie gaussiană. La nivelul al treilea (nivelul
regulilor) al FGNN va fi determinată partea antecedentă a regulilor. Nivelul al patrulea (de
ieșire) al FGNN realizează defuzzificarea intrărilor sale, furnizând M ieșiri non-fuzzy.
Parmetrii FGNN au o semnificaţie fizică, în sensul că mij , i  1, m, j  1, K reprezintă

media iar  ij , i  1, m, j  1, K este varianţa funcţiilor de apartenenţă corespunzătoare unor

138
MODELARE SIMULARE
mulţimi fuzzy. Acești parametrii ai FGNN se iniţializează conform unui algoritm de
iniţializare on-line și se vor rafina pe parcursul algoritmului de instruire.
FGNN are un algoritm de instruire de tip back- propagation (BP), scopul principal al
algoritmului fiind minimizarea funcţiei eroare. Rafinarea parametrilor FGNN care se
realizează pe parcursul algoritmului de învăţare poate fi împărţită în două faze, în funcţie de
parametrii premizelor și respectiv cei ai concluziilor regulilor astfel:
a) În partea de premiză a regulilor se rafinează mediile și varianţele funcţiilor gaussiene;
b) În concluziile regulilor trebuie rafinate ponderile (aferente ultimului strat al FGNN,
celelalte fiind egale cu 1).

13.2.2.1. Ecuaţiile de bază ale FGNN

Vom prezenta în continuare operaţiile care se execută la fiecare nivel al reţelei neurale
fuzzy.
Nivelul 1 ( Nivelul de intrare)

Ieșirea Opi1 este numeric egală cu intrarea x pi1, i  1, n , n fiind numărul neuronilor de pe

primul nivel al FGNN, adică dimensiunea vectorilor de intrare, iar p indicele vectorului de
intrare, p  1, K . Relaţiile matematice care caracterizează acest nivel sunt:

 
g pi1 x pi1  x pi1, i  1, n (13.42)

   
O pi1  fi1 g pi1  g pi1 x pi1 , i  1, n.
(13.43)

Nivelul 2 ( Nivelul termenilor lingvistici)


Funcţiile care apar la acest nivel al FGNN sunt:


g pij x pi ; mij ; ij
2 2
  x pi 2  mij 
2
, i  1, n, j  1, K
(13.44)

 2ij

2 2

O pij  fij g pij 2
  exp g pij 
2


 exp 

x pi 2  mij 2 , i  1, n, j  1, K , (13.45)

  2ij 
 

unde mij reprezintă media iar  ij este varianţa funcţiilor de apartenenţă corespunzătoare

mulţimiilor fuzzy Ai j , i  1, n, j  1, K . Numărul neuronilor de pe acest strat este nK . Fiecare

intrare x pi 2 a acestui strat este transformată într-un grad de apartenenţă la mulţimea fuzzy

Ai j , i  1, n, j  1, K .

139
MODELARE SIMULARE
Nivelul 3 ( Nivelul regulilor)
Neuronii acestui nivel realizează operaţia produs. Cele două funcţii care caracterizeză
fiecare neuron j, j  1, K al acestui strat sunt:

  m
g pj 3 x pij 3;Wij3  Wij 3 x pij3 , j  1, K
i 1
(13.46)

   
O pj 3  f j 3 g pj 3  g pj 3 x pij3;Wij3 , j  1, K .
(13.47)

Nivelul 4 ( Nivelul de iesire)


Funcţia de agregare a acestui strat este:

  K
g pj 4 x pi 4 ;Wij 4  Wij 4 x pi 4 , j  1, M
i 1
(13.48)

iar cea de activare este considerată


(13.49)

 
O pj 4  f j 4 g pj 4 

1

1  exp    g pj 4 x pi 4 ;Wij 4 , j  1, M
cu scopul de a aplica FGNN pentru predicţie.

13.2.2.2. Algoritmul de iniţializare on- line

Algoritmul de iniţializare a mediilor constă în


mik  xki , 1  k  K - 2 , 1  i  n (13.50)

 mik  ai , k  K  1, 1  i  n
 m  b , k  K 1, 1  i  n
 ik i

unde
K (13.51)
ai  min xki 
k 1

și
K (13.52)
bi  max xki .
k 1

Algoritmul de iniţializare a varianţelor este:


max mik  miR , mik  miL  (13.53)
 ik  , i  1, n, k  1, K
ln i

unde:
  i , i  1, n , 0   i  1 sunt factori de suprapunere,

140
MODELARE SIMULARE

 Ai R este cea mai apropiată mulţime fuzzy de Ai k , de partea dreaptă a lui Ai k ,

 Ai L este cea mai apropiată mulţime fuzzy de Ai L , de partea stângă a lui Ai k ,

 miR centrul corespunzător lui Ai R ,

 miL centrul corespunzător lui Ai L .


Observaţia 13.17. Centrul corespunzător unui mulţimi fuzzy este reprezentat de acel
element al universului de discurs, în care funcţia de apartenenţă are valoarea maximă, adică 1.
Alegând mediile mik , i  1, n, k  1, K folosind formula (13.50) și varianţele  ik ,

i  1, n, k  1, K pe baza relaţiei (13.53), funcţiile de apartenenţă ale termenilor lingvistici

Ai j , i  1, n, j  1, K satisfac Teorema 13.18.

 
Teorema 13.18. Fie mulţimea fuzzy Ai  Ai1, Ai2 ,, AiK , în care fiecare termen

lingvistic Ai j , i  1, n, j  1, K are asociată o funcţie de apartenenţă gaussiană, construită pe

baza algoritmului de iniţializare on- line (cu mediile mik , i  1, n, k  1, K date de (13.50) și

 ik , i  1, n, k  1, K exprimate în (13.53)). În aceste ipoteze, pentru toţi xi  X , i  1, n , ( xi


constituie argumentele funcţiilor de apartenenţă rezultate din vectorul de intrare respectiv, iar
X reprezintă în teoremă, mulţimea tuturor acestor argumente) există k  1, K astfel încât

  x   i ,
Aik i
unde  i , i  1, n , 0  i  1 sunt factorii de suprapunere.

13.2.2.3. Algoritmul de instruire

FGNN are un algoritm de instruire de tip back- propagation (BP), scopul principal al
algoritmului fiind minimizarea funcţiei eroare
1 K (13.54)
E   Ek ,
K k 1
unde
1 M (13.55)
Ek    d ki  yki 2 , k  1, K
2 i 1

reprezintă eroarea datorată regulii de index k, d ki fiind ieșirile ideale iar yki -ieșirile reale ale

FGNN, k  1, K , i  1, M .

141
MODELARE SIMULARE
Pașii algoritmului de instruire:
Pasul 1. Se aplică la intrarea reţelei vectorul X k  xk1 ,, xkn  corespunzător regulii

k . Se iniţializează ponderile Wij 4  i1,K , j 1,M , aferente stratului de ieșire (singurele


ponderi ale reţelei care nu sunt 1, întrucât ponderile aferente stratului al treilea sunt egale cu
1) cu valori aleatoare uniform repartizate în intervalul [-0.5, 0.5]. Se iniţializează mediile mij

și varianţele  ij , i  1, n, j  1, K , conform algoritmului de iniţializare on- line.

Pasul 2. Se calculează agregările neuronilor din stratul întâi folosind relatia (13.42).
Pasul 3. Se calculează ieșirile neuronilor din stratul întâi al FGNN utilizând (13.43).
Pasul 4. Se calculează intrările neuronilor din stratul al doilea, utilizând relaţia (13.44).
Pasul 5. Se calculează activările neuronilor din stratul al doilea, cu relaţia (13.45).
Pasul 6. Se determină intrările neuronilor din stratul al treilea, cu ajutorul relaţiei (13.46).
Pasul 7. Se calculează ieșirile neuronilor din stratul al treilea, pe baza relaţiei (13.47).
Pasul 8. Se calculează agregările neuronilor de pe stratul de ieșire, folosind relaţia (13.48).
Pasul 9. Se calculează ieșirile neuronilor din stratul al patrulea, aplicând relaţia (13.49).
Pasul 10. Se calculează termenii eroare pentru neuronii din stratul de ieșire, pe baza
relaţiei:

   
 pj 4    d pj 4  O pj 4  O pj 4  1  O pj 4 , j  1, M . (13.56)

Pasul 11. Se rafinează ponderile corespunzătoare stratului de ieșire, conform formulei:

Wij 4 t  1  Wij 4 t   W   pj 4  x pi 4 , i  1, K , j  1, M , (13.57)

unde W este rata de rafinare a ponderilor.


Pasul 12. Se calculează următorii termeni eroare folosind relaţia:
M (13.58)
 pj 3     pi 4  w ji 4 , j  1, K .
i 1

Pasul 13. Se calculează termenii eroare:


n (13.59)
 pj 2   pj 3   O pij 2 , j  1, K .
i 1

Pasul 14. Se rafinează mediile și varianţele funcţiilor de apartenenţă O pij 2 , pe baza

formulelor:

mij t  1  mij t   m   pj  2 
2 
x pi 2  mij 
, i  1, n, j  1, K ,
(13.60)

 2ij

142
MODELARE SIMULARE


 ij t  1   ij t      pj 2 
2 x pi 2  mij 
2
, i  1, n, j  1, K ,
(13.61)

 3ij
 m și  fiind rata de rafinare a mediilor și respectiv a varianţelor ce caracterizează aceste
funcţii de apartenenţă gaussiene.
Pasul 15. Se calculează eroarea datorată vectorului k, prin intermediul relaţiei (13.55).
Pasul 16. Dacă k<K (nu s-a parcurs întreg lotul de vectori de instruire) se trece la
următorul vector din lotul de instruire și se reia algoritmul de la Pasul 2.
Pasul 17. Se calculează eroarea corespunzătoare epocii respective a algoritmului, conform
formulei (13.54).
Pasul 18. Se testează condiţia de stop a algoritmului, aceasta fiind după un număr fixat de
epoci. Dacă condiţia este îndeplinită algoritmul se oprește. Altfel, se începe o nouă epocă de
învăţare.

13.2.3. Evaluare experimentală

Vom transforma componentele unui vector de intrare X k al FGNN folosind formula [20],
[29]:
(13.62)
xki  xki  k ,  k  1, K , i  1, m,
1
2
unde
1 m (13.63)
k   xki ,  k  1, K .
m i 1
Vectorul estimat

Xˆ k  xk1 ,, xkm , xˆk ,m1, xˆk ,m 2 ,, xˆk ,m M 
obţinut pe baza vector de intrare X k se va determina folosind modelul de predicţie bazat pe
FGNN, conform formulei [20], [29]:
(13.64)
xˆki  Okj4  k ,  k  1, K , j  m  1, m  M ,
1
2
unde:
 xk1 ,, xkm sunt componentele cunoscute (observate) ale vectorului de intrare X k ;

 xˆk , m1, xˆk , m 2 ,, xˆk , m M componentele prezise pentru X k .

Pentru a testa performanţa predicţiei neuro- fuzzy realizată pe baza FGNN vom folosi
eroarea medie pătratică normalizată (Normalized Root Mean Square Error= NRMSE):

143
MODELARE SIMULARE

m M (13.65)
 xkj  xˆkj 2
1 j  m 1
NRM SE  m M
.
M 2
 xkj
j  m 1

Predicţia este considerată:


 excelentă dacă NRMSE  0.1
 bună dacă 0.1 < NRMSE  0.2
 acceptabilă dacă 0.2 < NRMSE  0.3
 slabă dacă NRMSE > 0.3.
Ne vom propune aplicarea FGNN în predicţia trăsăturilor de personalitate corespunzătoare
unor indivizi din baza de date Big Five, achiziţionată pe baza informațiilor împărtășite de unii
utilizatori ai site-ului de socializare Facebook.
Vom forma 300 de vectori din această bază de date, jumătate din aceștia constituind lotul
de instruire și cealaltă jumătate reprezântând lotul de test. Tabelul 13.1 înfăţișează NRMSE,
obţinut atât pe baza predicţiei neuro- fuzzy folosind FGNN și MP cât și MLRM.
Tabelul 13.1. NRMSE în cazul predicţiei cu FGNN, MP și MLRM
lot de instruire lot de test
FGNN 0.063 0.079
MP 0.189 0.198
MLRM 0.201 0.188

Folosind FGNN putem ajunge la rezultate mai bune dacă alegem un număr diferit de
neuroni ai ultimului strat (vezi Tabelul 13.2).
Tabelul 13.2. NRMSE în cazul predicţiei cu FGNN, pentru diferite valori ale lui m
m lot de instruire lot de test
8 0.04 0.061
10 0.035 0.047
12 0.03 0.037
15 0.025 0.027

Observaţia 13.19. Capacitatea de a prezice personalitatea are implicații în multe domenii.


Ca și în alte studii referitoare la personalitate și limbaj am adoptat modelul celor cinci factori
de personalitate, care descrie următoarele trăsături pe o scară continuă: nevroza,
extraversiunea, deschiderea la experiență, agreabilitatea și conștiinciozitatea.

144
MODELARE SIMULARE
Pentru a evidenția performanțele abordării propuse pentru estimarea personalității, am
comparat-o atât cu o metodă neurală de regresie (cum ar fi MP), cât și cu o abordare
nonneurală (MLRM). Conform cu criteriu NRMSE, am dedus că predicția cu FGNN este mai
bună decât cu celalte două metode (MP, MLRM) atât pe lotul de instruire cât și pe lotul de
test.

145
MODELARE SIMULARE

PARTEA A II-A. APLICAŢII DE LABORATOR

L1. LECŢIA DE LABORARATOR 1. INTRODUCERE ÎN MATLAB

Scopurile acestei lecţii de laborator sunt:


1) aplicarea Matlab-ului în calcule matematice fundamentale;
2) calcul numeric în Matlab cu aplicaţii în Algebră;
3) rezolvarea în Matlab a ecuaţiilor şi sistemelor de ecuaţii diferenţiale;
4) noţiunea de fişier în Matlab: creare, scriere, adaugare de date, citire;
5) grafică în Matlab: reprezentări grafice 2D, reprezentarea grafică a histogramelor,
reprezentări grafice 3D.

MATLAB-ul este un pachet de programe de o performanţă remarcabilă care are o vastă


aplicabilitate atât în domeniul ştiinţei cât al ingineriei.
Pentru lansarea în execuţie a programului se acţionează dublu click pe pictograma Matlab
de pe Desktop sau se selectează Start  All Programs  Matlab.

L1.1. Aplicaţii în calcule matematice fundamentale

Exemplul L1.1. Să se calculeze expresiile următoare:

a) 3 17  5 2  3 17  5 2

>> (17+5*sqrt(2))^(1/3)+(17-5*sqrt(2))^(1/3)
ans =
5.0367

1 i  1 i 
3 3

b)    
1 i  1 i 

>> ((1+i)/(1-i))^3-((1-i)/(1+i))^3
ans =
0 - 2.0000i

c) B  log 3 5 x , pentru x  7 ;
Folosim formula de schimbare a bazei logaritmice

146
MODELARE SIMULARE

log b x
log a x  .
log b a
>> x=7;
>> log(x^(1/5))/log(3)
ans =
0.3542


d) C  cos 4 x  cos 4 3x  cos 4 5x  cos 4 7 x , pentru x  ;
8

>> x=pi/8;
>> C=cos(x)^4+cos(3*x)^4+cos(5*x)^4+cos(7*x)^4
C=
1.5000

Exemplul L1.2. Să se sorteze în ordine descrescătoare elementele vectorului


x   0.76  1 20 8  7 , cu precizarea indicelui fiecărui element.

>> x=[-0.76 -1 20 8 -7]


x=
-0.7600 -1.0000 20.0000 8.0000 -7.0000
>> [y,I]=sort(x,’descend’)
y=
20.0000 8.0000 -0.7600 -1.0000 -7.0000
I=
3 4 1 2 5

Exemplul L1.3. Se consideră matricea


 1  7 99 3 
 
 4.7 0 0.9  7 
A .
5.7 4 5 78 
 
  78 12  7.4 3 
 
Se cere:
a) Transformaţi matricea A într-un vector coloană b ;

>> A=[1 -7 99 3;4.7 0 0.9 -7;5.7 4 5 78;-78 12 -7.4 3];


>> b=A(:);

147
MODELARE SIMULARE
b) Să se extragă submatricea D de dimensiune 3x2 , ce constă din elementele situate pe
ultimele trei linii şi primele două coloane ale matricei A .

>> D=A(2:4,1:2)
D=
4.7000 0
5.7000 4.0000
-78.0000 12.0000

L1.2. Calcul numeric în Matlab cu aplicaţii în Algebră

Exemplul L1.4. Rezolvaţi ecuaţiile neliniare:


a) 1  x  arctgx

>> f=@ (x) 1+x-atan(x);


>> x=fzero(f,[-3 3])
x=
-2.1323
>> f(x)
ans =
2.2204e-016

b) x 2  cos x  0

>> f=@ (x) x.^2-cos(pi*x);


>> s=fsolve(f,[-0.5,0.5])
s=
-0.4384 0.4384
>> f(s)
ans =
1.0e-011 *
0.962 0.1001
Exemplul L1.5. Rezolvaţi sistemele neliniare:
 x 3  y 3  6 x  3  0
a) 
 x 3  y 3  6 y  2  0

considerând ca punct iniţial 0.5, 0.5

148
MODELARE SIMULARE
Pasul 1. Definim funcţia vectorială f .
>>f=@(x) [x(1)^3+x(2)^3-6*x(1)+3;
x(1)^3-x(2)^3-6*x(2)+2];
Pasul 2. Rezolvăm sistemul neliniar.
>> s = fsolve(f,[0.5 0.5])
s=
0.53237037226762 0.35125744755245
Pasul 3. Efectuăm verificarea soluţiei pe care am obţinut-o.
>> f(s)
ans =
1.0e-009 *
0.29623858921468
0.19358559200100

x 2  y 2  z 2  9


b)  xyz  1

 2
x  y  z  0
considerând ca punct iniţial 2.5, 0.2,1.6 .

>> f=@(x) [x(1)^2+x(2)^2+x(3)^2-9;x(1)*x(2)*x(3)-1;x(1)+x(2)-x(3)^2]


f=
@(x) [x(1)^2+x(2)^2+x(3)^2-9;x(1)*x(2)*x(3)-1;x(1)+x(2)-x(3)^2]
>> s = fsolve(f,[2.5 0.2 1.6])
s=
2.49137569683072 0.24274587875742 1.65351793930053
>> f(s)
ans =
1.0e-011 *
0.11226575225010
0.13493650641294
-0.05244693568329

149
MODELARE SIMULARE

L1.3. Rezolvarea în Matlab a ecuaţiilor şi sistemelor de ecuaţii


diferenţiale

Exemplul L1.6. Să se integreze ecuaţia de tip Riccati

xy   y 2  2 x  1y  x 2  2 x , x  0

>> y=dsolve('x*Dy=y^2-(2*x+1)*y+x^2+2*x','x')
y=
(-x-1+x^2*C1)/(-1+x*C1)

Exemplul L1.7. Să se integereze ecuaţia diferenţială Euler:


xy   y   1  x

>> y=dsolve('x*D3y+D2y=1+x','x')
y=
1/12*x^3+x*log(x)*C1-C1*x+1/2*x^2+C2*x+C3

Exemplul L1.8. Să se rezolve următorul sistem de ecuaţii diferenţiale liniare neomogen:


 y  y  y  x  x 2
 1 2 3

 y 2  3 y1  y3  2  x
2
 y  3 y  y  x  3
 3 1 2

>> [y1,y2,y3]=dsolve('Dy1=y2+y3-x-x^2','Dy2=3*y1+y3-2-x^2','Dy3=3*y1+y2+x-3','x')
y1 =
1+2/3*C2*exp(3*x)-C3*exp(-2*x)
y2 =
x+exp(-x)*C1+C2*exp(3*x)+C3*exp(-2*x)
y3 =
-exp(-x)*C1+C2*exp(3*x)+C3*exp(-2*x)+x^2

L1.4. Noţiunea de fişier în Matlab

Exemplul L1.9. Construiţi un program în Matlab, cu ajutorul căruia:


- să se creeze un fişier în care vor fi salvate două matrice, una de tipul şi
cealaltă ;
- să se citeasca conţinutul fişierului în alte două matrice.

150
MODELARE SIMULARE
Se va construi un script în Matlab cu numele fişier.m, având conţinutul:
W=[1 6; 7 8]; w=[-2 3 5; 6 7 8];
fid=fopen('pond1fb','w');
fprintf(fid,'%f\t',W);
fprintf(fid,'%f\t',w);
fclose(fid);
fid=fopen('pond1fb','r');
a=fscanf(fid,'%f\t',[2,3]);
b=fscanf(fid,'%f\t',[2,2]);
fclose(fid);
În linia de comandă se scrie
>>fişier

L1.5. Grafică în Matlab

Exemplul L1.10. Reprezentaţi grafic în Matlab printr-o histogramă, notele obţinuite de


cei 50 de studenţi înscrişi la cursul de Statistică. Notele se vor citi dintr-un fişier text.

Se construieşte un script în Matlab, cu denumirea fiş.m, ce conţine:


fid=fopen('pond.txt','r');
u=fscanf(fid,'%f\t',[1,50]);
fclose(fid);
În linia de comandă scriem:
>> fis
>> for j=1:max(u)
v=find(u(1:length(u))==j);
n(j)=length(v);
end
>> sum(n)
ans =
50
>> v=1:10;
>> hist(u,v)
>> grid on

151
MODELARE SIMULARE

Exemplul L1.11. Reprezentaţi grafic următoarele funcţii în plan:

a) f x   arcsin , x   5, 5
2x
1 x2
Pasul 1. Se fixează intervalul pe care va fi reprezentată funcţia şi un anumit pas.
>>x=-5:0.1:5;
Pasul 2. Definim funcţia ce urmează să fie reprezentată.
>> f=@(x) asin(2*x./(1+x.^2));
Pasul 3. Realizăm reprezentarea grafică.
>> plot(f(x),'m','LineWidth',4)
2

1.5

0.5

-0.5

-1

-1.5

-2
0 20 40 60 80 100 120

b) f x   arcsin x , g x   arccos x , x   1,1

152
MODELARE SIMULARE
>>x=-1:0.01:1;
>> f=@(x) asin(x);
>> g=@(x) acos(x);
>> plot(x,f(x),'r',x,g(x),'b','LineWidth',3)
4

-1

-2
-1 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 1

Exemplul L1.12. Reprezentaţi arcul de parabolă

AB : y  x 2 ,

care uneşte punctele A1,1 si B2, 4 .


Secvenţa Matlab următoare permite reprezentarea arcului AB .
>> x=-4:.1:4;
>> y=x.^2;
>> plot(x,y,1,1,'or',2,4,'or')

16

14

12

10

B(2,4)
4

2 A(1,1)

0
-4 -3 -2 -1 0 1 2 3 4

Exemplul L1.13. Scrieţi un fişier “function” în Matlab pentru a reprezenta grafic funcţia

153
MODELARE SIMULARE

 1
 x cos , x  0
f x    x , x   0.5, 0.5, h  0.01

0, x  0

Se selectează succesiv File->New->M-file şi se scriu următoarele instrucţiuni


function r=f(x)
if x~=0
r=x*cos(1/x);
elseif x==0
r=0;
end
end

Se salvează fişierul cu f.m apoi în linia de comandă se scrie:


>> x=-0.5:0.01:0.5;
>> for k=1:length(x)
y(k)=f(x(k));
end
>> plot(x,y)

0.4

0.3

0.2

0.1

-0.1

-0.2

-0.3

-0.4
-0.5 -0.4 -0.3 -0.2 -0.1 0 0.1 0.2 0.3 0.4 0.5

Exemplul L1.14. Reprezentaţi grafic în Matlab corpul solid, de forma tetraedrului din
primul octant, mărginit de planele
x  y  z  1, x  0 , y  0 , z  0 .

>> x=[1 0 0 0 0 1 0 1 0];


>> y=[0 0 1 0 0 0 0 0 1];
>> z=[0 0 0 1 0 0 1 0 0];
>> plot3(x,y,z,'-ob')

154
MODELARE SIMULARE
>> grid on

Exemplul L1.15. Realizaţi in Matlab graficul corpului, limitat de suprafeţele:

y 2  2z 2  4x
şi
x  2.

Secvenţa Matlab următoare permite reprezentarea corpului omogen:


>> [y,z]=meshgrid(-3:.03:3,-2.5:.03:2.5);
>> x=y.^2/4+z.^2/2;
>> [m,n]=size(x);
>> x1=2*ones(m,n);
>> plot3(x,y,z,x1,y,z)

0
z

-1

-2

-3
5

0 6
5
4
3
2
y -5 1
0
x

155
MODELARE SIMULARE

L2. LECŢIA DE LABORARATOR 2. APLICAŢII ALE TESTELOR


CHAUVENET ŞI YOUNG

Scopurile acestei lucrări de laborator sunt:


- aplicarea testului Chauvenet privind eliminarea datelor afectate de erori aberante;
- aplicarea testului Young pentru identificarea erorilor sistematice.

L2.1. Testul Chauvenet

Fiind date valorile, x1 ,......, xn  rezultate din măsurători, se consideră că valoarea xi este
afectată de erori aberante dacă verifică relaţia:
| xi  x | z , (L2.1)

unde:
 x este media aritmetică a valorilor observate, ce se calculează utilizând
formula (7.1), din partea I,
  semnifică abaterea standard a valorilor observate și se determină folosind
formula (7.2), prezentată în prima parte a cărţii,
 z se ia din tabele (în functie de numărul n de valori din şir, ce reprezintă
dimensiunea șirului sau volumul eșantionului) sau se aproximează conform
relaţiei (7.3), din partea I.
Observaţia L2.1. Este suficient ca verificarea relaţiei (L2.1) să fie efectuată doar pentru
valorile extreme (minimă şi maximă) din cadrul eşantionului.
Dacă, în urma aplicării testului, rezultă că una dintre valorile testate este afectată de erori
aberante, valoarea respectivă este eliminată din cadrul eşantionului, se recalculează valorile
mediei şi abaterii standard pentru valorile rămase şi se reia verificarea condiţiei (L2.1),
algoritmul aplicându-se pâna când condiţia respectivă nu mai este verificată pentru nici una
dintre cele două valori extreme ale eşantionului.
Exemplul L2.2. În simularea utilizării unei imprimante conectate la o reţea se urmăreşte
repartiţia numărului maxim de fişiere care sunt în lista de aşteptare pentru listare pe o
perioadă de 30 de zile, înregistrându-se valorile:

156
MODELARE SIMULARE

săpt L Ma Mi J V săpt L Ma Mi J V
I 15 19 13 18 20 IV 19 21 13 23 17
II 12 21 22 19 21 V 18 20 21 13 15
III 13 13 13 14 17 VI 20 19 12 18 12
Să se verifice dacă acest eşantion are valori aberante şi dacă există, să se elimine!
Utilizând software-ul de calcul tabelar Excel vom obţine:
Componentele Valori | xi  x | z
eşantionului (ordonate
extreme
crescător)
1 15 12 12 5.0333 8.3158
2 19 12 12 5.0333
3 13 12 12 5.0333
4 18 13 23 5.9667
5 20 13
6 12 13
7 21 13
8 22 13
9 19 13
10 21 14
11 13 15
12 13 15
13 13 17
14 14 17
15 17 18
16 19 18
17 21 18
18 13 19
19 23 19
20 17 19
21 18 19
22 20 20
23 21 20
24 13 20
25 15 21
26 20 21
27 19 21
28 12 21
29 18 22
30 12 23
x  17.0333 ,   3.5183
În concluzie, nici una dintre valorile extreme nu este afectată de erori aberante.

157
MODELARE SIMULARE
Exemplul L2.3. A fost măsurată greutatea a 15 indivizi adulţi. Rezultatele măsurătorilor
sunt cele din tabelul următor. Să se verifice dacă acest eşantion are valori aberante şi dacă
există, să se elimine! Scrieţi un program Matlab pentru testul Chauvenet. Datele de intrare se
iau dintr-un fişier text.
Prima aplicare a criteriului Chauvenet
Componentele Valori | xi  x | z
eşantionului (ordonate
extreme
crescător)
1 58 35 35 38.9333 54.08212
2 60 50 160 86.06667
3 80 55
4 77 58
5 83 60
6 75 65
7 82 70
8 79 75
9 50 77
10 35 79
11 70 80
12 160 80
13 80 82
14 65 83
15 55 160
x  73.9333,   27.587
După cum rezultă din tabel, valoarea 160 va trebui să fie eliminată din datele supuse
prelucrării.
A doua aplicare a criteriului Chauvenet
Componentele Valori | xi  x | z
eşantionului (ordonate
extreme
crescător)
1 35 35 32.7857 28.3431
2 50 83 15.2143
3 55
4 58
5 60
6 65
7 70
8 75
9 77
10 79
11 80
12 80
13 82
14 83
x  67.7857,   14.46

158
MODELARE SIMULARE
De data aceasta trebuie eliminată din tabel valoarea 35.
A treia aplicare a criteriului Chauvenet
Componentele Valori | xi  x | z
eşantionului (ordonate
extreme
crescător)
1 50 50 20.30769 22.358
2 55 83 12.69231
3 58
4 60
5 65
6 70
7 75
8 77
9 79
10 80
11 80
12 82
13 83
x  70.30769,   11.4045
Utilizând Matlab 7.9, vom construi programul corespunzător testului Chauvenet:

Etapa 1. Se vor citi datele iniţiale din fişierul dateb.txt.

Etapa 2. Se scrie funcţia sterge.m, ce permite ştergerea unei componente a unui vector.
function v=sterge(u,k,n)
for i=1:k-1
v(i)=u(i);
end
if n~=0
for j=k:n-1
v(j)=u(j+1);
end
end
end

159
MODELARE SIMULARE
Etapa 3. Se scrie programul propriu-zis.
fid=fopen('dateb.txt','r');
u=fscanf(fid,'%f\t',[1,15]);
fclose(fid);
m=mean(u);
sigma=std(u);
n=length(u);
a=(2*n-1)/(4*n)
z=(0.435-0.862*a)/(1-3.604*a+3.213*a^2);
it=1;
u=sort(u);
mi=min(u);
ma=max(u);
p1=length(find(u==mi));
p2=length(find(u==ma));
for i=1:p1
w(i)=mi;
end
for i=p1+1:p1+p2
w(i)=ma;
end
q=find(abs(w-m)>z*sigma);
while (length(q)~=0)
it=it+1;
for k=1:length(q)
h=find(u==w(q(k)));
for l=1:length(h)
v=sterge(u,h(l),n);
n=n-1;
u=v;
end
end
m=mean(u);
sigma=std(u);

160
MODELARE SIMULARE
n=length(u);
a=(2*n-1)/(4*n);
z=(0.435-0.862*a)/(1-3.604*a+3.213*a^2);
u=sort(u);
mi=min(u);
ma=max(u);
p1=length(find(u==mi));
p2=length(find(u==ma));
for i=1:p1
w(i)=mi;
end
for i=p1+1:p1+p2
w(i)=ma;
end
q=find(abs(w-m)>z*sigma);
end

L2.2. Testul lui Young

Problema depistării şi eliminării erorilor sistematice este mai dificilă datorită multitudinii
de factori care se intercondiţionează. Vom prezenta testul lui Young, test care nu oferă
posibilitatea eliminării erorilor sistematice, ci doar pe aceea a aprecierii influenţei cauzelor
sistematice asupra datelor de sondaj.
Pasul 1. Intrare: x1 ,......, xn  - şir de date experimentale şi  probabilitatea de acceptare

(coeficient de încredere); se calculează mărimile  2 şi M pe baza formulelor (7.5) şi


respectiv (7.6), introduse în prima parte a cărţii.
Pasul 2. Se compară M cu valoarea critică (VCI) inferioară şi valoarea critică superioară
(VCS), VCI<M<VCS, valori luate din tabele în funcţie de n şi  sau determinate cu relaţiile:
a) dacă   0.95 atunci VCI şi VCS se determină pe baza relaţiilor (7.7) şi
respectiv (7.8);
b) dacă   0.99 atunci vom calcula VCI şi VCS utilizând relaţiile (7.9) şi
respectiv (7.10).

161
MODELARE SIMULARE
Dacă inegalitatea este satisfăcută, atunci se consideră că şirul de date experimentale are un
caracter aleator (nu este afectat de erori sistematice) cu probabilitatea  .
Pasul 3. Stop!
Exemplul L2.4. Testaţi dacă eşantionul de date experimentale, ce constă din valorile xi
ale timpului de latenţă a instalării efectului hipnotic în cazul amobarbitalului (vezi tabelul
următor) are sau nu un caracter aleator cu probabilitatea   0.95 .
Componentele eşantionului (secunde)
1 16.1
2 15.5
3 13.4
4 22.8
5 12.1
6 11.3
7 11.6
8 6.3
9 8.8
10 7.1
function [VCI, VCS]=valcrit(n,al)
if al==0.95
VCI=0.491+0.081*n-0.003*n^2;
VCS=3.317-1.057*exp(-8.919*n^(-0.341));
elseif al==0.99
VCI=(192.883+1.269*n^2.33)/(411.427+n^2.33);
VCS=3.484-0.882*exp(-33.574*n^(-1.388));
end
end
fid=fopen('data.txt','r');
x=fscanf(fid,'%f\t',[1,10]);
fclose(fid)
n=10;al=0.95;
sigma=var(x); delta=0;
for i=1:n-1
delta=delta+(x(i+1)-x(i))^2;
end
delta=delta/(n-1);
M=delta/sigma
[VCI,VCS]=valcrit(10,al);

162
MODELARE SIMULARE
if (VCI<M) & (M<VCS)
disp(['esantionul datelor experimentale are un caracter aleator cu probabilitatea:',
num2str(al)]);
else
disp('esantionul datelor experimentale este afectat de erori sistematice')
end

163
MODELARE SIMULARE

L3. LECŢIA DE LABORARATOR 3. APLICAŢII ALE TESTELOR MASSEY

ŞI 
2

Scopurile acestei lucrări de laborator sunt:


1) listarea unor funcţii predefinite în Matlab, ce vor fi utilizate în cadrul acestei
lucrări de laborator;

2) aplicarea testelor Massey şi  2 pentru verificarea normalităţii unei serii de date şi


implementarea în Matlab 7.9 a algoritmilor corespunzători acestor teste.
În cadrul acestei lucrări de laborator vom utiliza următoarele funcţii Matlab 7.9:
Nume funcţie Semnificaţie
sqrt(x) Calculează x
exp(x) Calculează e x
int(f(x),a,b) b
Calculează  f x  d x
a
sort(x) Sortează în ordine crescatoare elementele vectorului x
length(x) Returnează numarul de componente ale vectorului x
abs(x) Determină valoarea absolută a lui x
u=find(x<=a) Returnează în u indicii elementelor din vectorul x , care au
valoarea mai mică sau egală cu a
m=max(v) Determină cea mai mare componentă a vectorului v
mean( x ) Calculează valoarea medie a elementelor lui x
std( x ) Calculează abaterea standard pentru valorile individuale ale unei
selecţii x
sum( x ) Calculează suma componentelor lui x
eval Evaluează șirurile de caractere cu expresii Matlab
vpa Afișează un rezultat cu o anumită precizie
fopen Realizează deschiderea unui fişier
fclose Realizează închiderea unui fişier
fscanf Realizează citirea dintr-un fişier

L3.1. Testul Massey

Acest test se utilizează pentru verificarea normalităţii unei selecţii de volum mai mic decât
32. Pentru aplicarea acestui test se procedează astfel:
Pasul 1. Se ordonează valorile experimentale x1,......, xn  rezultate din măsurători în
ordine crescătoare.

164
MODELARE SIMULARE
Pasul 2. Se calculează:
 x  media aritmetică a valorilor observate pe baza formulei (7.1), din partea I
şi
   abaterea standard a valorilor selecţiei folosind formula (7.2), din partea I.
Pasul 3. Se transformă valorile rezultate din măsurători:
x x (L3.1)
zi  i ,  i  1, n

Pasul 4. Se determină valorile Φzi  , adică valorile funcţiei de repartiţie teoretică, unde
z
t 2 2
(L3.2)
Φ :   0,1, Φz  
1
e dt
2  
numită funcţia lui Laplace.
Pasul 5. Se calculează frecvenţele relative cumulate
(L3.3)
Fi  i ,  i  1, n,
n
n
adică valorile funcţiei de repartiţie empirică (experimentală), unde ni reprezintă numărul de

valori z mai mici sau egale cu valoarea z i .


Pasul 6. Se calculează diferenţele

d i | Fi  Φzi  | ,  i  1, n (L3.4)

şi se determină
n (L3.5)
d max  max di .
i 1

Pasul 7. Dacă d max < d critic ( d critic se extrage din tabele în funcţie de coeficientul de

încredere adoptat şi de volumul selecţiei n) atunci se acceptă ipoteza că eşantionul are


repartiţia normală; altfel se respinge ipoteza conform căreia eşantionul de valori
experimentale are o distribuţie normală.
Observaţia L3.1. Valorile pentru d critic din tabele pot fi aproximate prin calcul utilizând
expresiile:

0.1408  0.00714 n  0.000769 n2 , pentu   0.90 (L3.6)
dcritic  
0.1851  0.01064 n  0.000785 n , pentu   0.95.
 2

165
MODELARE SIMULARE
Exemplul L3.2. Să se verifice, la un prag de semnificaţie 1    0.05 , ipoteza conform
căreia rezistenţa ohmică (în KΩ ) a unor tronsoane de ceramică acoperite cu carbon este o
variabilă normală. Verificarea se va face pe baza a 10 măsurători: 1.68; 1.74; 1.82; 1.60; 1.72;
1.90; 1.79; 1.98; 1.85; 1.93. Scrieţi un program Matlab pentru aplicarea testului Massey
datelor din acest exemplu.

Vom construi programul corespunzător testului Massey utilizând Matlab 7.9:


Etapa 1. Se scriu într-un fişier datele rezultate din măsurători.
Etapa 2. Se scrie funcţia phi.m, corespunzătoare funcţiei lui Laplace.
function r= phi(z)
syms t
r=1/sqrt(2*pi)*int(exp(-t^2/2),t,-inf,z);
end
Etapa 3. Se construieşte funcţia cu ajutorul căreia se determină d critic pentru   0.90 sau

  0.95 .
function dcrit=valcrit(N,al)
if al==0.95
dcrit=0.1851-0.01064*N+0.000785*N^2;
elseif al==0.90
dcrit=0.1408+0.00714*N-0.000769*N^2;
end
end
Etapa 4. Se construieşte script-ul Massey.m, ce permite implementarea testului Massey.
fid=fopen('data','r');
x=fscanf(fid,'%f\t',[1,10]);
fclose(fid);
N=10;
x=sort(x);
m=mean(x);
sigma=std(x);
z=(x-m)/sigma;
for i=1:N
phii(i)=vpa(phi(z(i)),4);
end

166
MODELARE SIMULARE
for i=1:N
n(i)=length(find(z<=z(i)));
end
f=n/N;
d=abs(f-eval(phii))
dmax=max(d);
al=0.95;
dcrit=valcrit(N,al);
if dmax<dcrit
disp('se accepta ipoteza ca esantionul de valori experimentale are repartitie
normala');
else
disp('se respinge ipoteza ca esantionul de valori experimentale are o distributie
normala');
end
Modul de aplicare a testului Massey este ilustrat în tabelul următor:
Φ z i  Fi di d critic
(ordonate crescător)
1.60 -1.6941 0.0451 0.1 0.0549 0.1572
1.68 -1.0198 0.1539 0.2 0.0461
1.72 -0.6827 0.2474 0.3 0.0526
1.74 -0.5141 0.3036 0.4 0.0964
1.79 -0.0927 0.4631 0.5 0.0369
1.82 0.1601 0.5636 0.6 0.0364
1.85 0.4130 0.6602 0.7 0.0398
1.90 0.8344 0.798 0.8 0.002
1.93 1.0873 0.8615 0.9 0.0385
1.98 1.5087 0.9343 1 0.0657
x  1.801   0.1186 d max 0.0964

167
MODELARE SIMULARE

L3.2.Testul 
2

Cel mai important şi mai des utilizat test de verificare a normalităţii repartiţiilor unui şir

de date experimentale este testul  2 .


Fie X o variabilă aleatoare şi x1 ,......, xn o selecţie de volum asupra lui X.

Algoritmul corespunzător testului  2 este următorul:


Pasul 1. Valorile caracteristicii sub cercetare X se împart în k intervale de clasă:
 , x1 , x1 , x2 ,, xk 2 , xk 1 , xk 1 ,  ,

       
I1 I2 I k 1 Ik

unde x1  x2    xk 1.
Conform lui Brooks și Carruthers, numărul k de intervale de clasă este
k  5 lg n (L3.7)
în timp ce formula lui Sturges este:
k  1  3.3 lg n, (L3.8)
n fiind volumul selecţiei.
Pasul 2. Se determină frecvenţele absolute ni ale intervalelor (numărul înregistrat de

valori x j din intervalul I i ) şi respectiv frecvenţele relative

n (L3.9)
f i  i ,  i  1, k ,
n
valorile funcţiei de repartiţie empirică.
Pasul 3. Se calculează valoarea mediei aritmetice x şi respectiv abaterea standard  a
valorilor observate.

Pasul 4. Se transformă valorile rezultate din măsurători în zi  i  1, k , folosind relaţia

(L3.1), unde xi reprezintă extremitatea dreaptă a fiecărui interval I i .

Pasul 5. Se determină valorile Φzi  , adică valorile funcţiei de repartiţie teoretică, Φ fiind
funcţia lui Laplace, cu ajutorul formulei (L3.2).

Pasul 6. Se calculează probabilităţile pi , i  1, k ca o observaţie să aparţină clasei I i ,


exprimate de:

168
MODELARE SIMULARE

  x1  x  (L3.10)
 p1  P   X  x1   Φ 
   
  xi  x  x x
 pi  Pxi 1  X  xi   Φ   Φ i 1 ,  i  2, k  1
      
 x x
 p k  Pxk 1  X     1  Φ k 1 .
   
Pasul 7. Se calculează statistica
k ni  npi 2 (L3.11)
2  
i 1 npi

şi se compară cu valoarea din tabele a lui  k s 1,1 , unde:


2

s=2 semnifică numărul de parametri estimaţi (s-au estimat doi parametri μ şi σ2 ),


 este coeficentul de încredere,
k este numărul intervalelor de clasă.
Am folosit următoarea teoremă:
Teorema L3.3. (a lui Karl Pearson). Dacă variabilele aleatoare
ni ~  n, pi ,  i  1, k

au repartiţie binomială, ni fiind numărul de succese în n probe Bernoulli independente,


atunci pentru k suficient de mare avem:
k ni  npi 2
 ~  k21.
i 1 npi
Dacă

 2   k2 s 1, 1

atunci se acceptă ipoteza H0, iar dacă

 2   k2 s 1, 1

atunci se respinge H0. Regiunea critică va fi determinată de acele puncte pentru care
inegalitatea

 2   k2 s 1, 1

nu are loc, adică


Rn0  n1 ,, nk    k | n1    nk  n,  2   k2 s 1, 1.
Vom avea:

169
MODELARE SIMULARE

 
P  2   k2s 1, 1  1   .

Exemplul L3.4. Să se verifice, la un prag de semnificaţie 1    0.05 , ipoteza conform


căreia rezistența la rupere a unor fire de bumbac este o variabilă normală. Verificarea se va
face pe baza a 124 măsurători:

Scrieţi un program Matlab pentru aplicarea testului  2 datelor din acest exemplu.

Vom construi programul corespunzător testului  2 utilizând Matlab 7.9:


Etapa 1. Se scriu într-un fişier datele rezultate din măsurători.
Etapa 2. Se scrie funcţia phi.m, corespunzătoare funcţiei lui Laplace.

Etapa 3. Se construieşte script-ul hipatrat.m, ce permite implementarea testului  2 .


fid=fopen('date.txt','r');
u=fscanf(fid,'%f\t',[1,124]);
fclose(fid);
m=mean(u); sigma=std(u);
N=124; u=sort(u);
5*log10(N)
k=9;
x(1)=1.65; x(k)=inf;
for i=2:k-1
x(i)=x(1)+0.05*(i-1);
end
n(1)=length(find(u<=x(1)));
for i=2:k-1
n(i)=length(find(u> x(i-1)& u<= x(i)));
end
n(k)=length(find(u>x(k-1)));
f=n/N; z=(x-m)/sigma;
for i=1:k

170
MODELARE SIMULARE
phii(i)=vpa(phi(z(i)),4);
end
p(1)=phii(1); p(k)=1-phii(k-1);

for i=2:k-1
p(i)=eval(phii(i))-eval(phii(i-1));
end
hi_calc=sum(((n-N*eval(p)).^2)./(N*eval(p)))
hi_tabel=12.59;
if hi_calc<hi_tabel
disp('se accepta ipoteza ca esantionul de valori experimentale are repartitie
normala’);
else
disp('se respinge ipoteza ca esantionul de valori experimentale are o
distributie normala');
end

Modul de aplicare a testului  2 este ilustrat în tabelul următor:


Intervalul Φ z i  pi ni  npi 2
Ii
npi
 , 1.65 1.65 11 -1.4459 0.0741 0.0741 0.3572
1.65, 1.7 1.70 14 -1.0105 0.1561 0.082 1.4442
1.7, 1.75 1.75 17 -0.5751 0.2826 0.1265 0.1101
1.75, 1.8 1.80 14 -0.1397 0.4444 0.1618 1.8323
1.8, 1.85 1.85 16 0.2956 0.6162 0.1718 1.3202
1.85, 1.9 1.90 20 0.7310 0.7676 0.1514 0.0801
1.9, 1.95 1.95 14 1.1664 0.8783 0.1107 0.0054
1.95, 2 2 10 1.6018 0.9454 0.0671 0.3391
2,   8  1 0.0546 0.2233
n
  0.1186  ni  124
x  1.801 i 1  calc
2
 5.7118   s2 k 1;1  12.59

171
MODELARE SIMULARE

L3.3. Testul lui Kolmogorov

Teorema L3.5 (a lui Kolmogorov). Fie o X variabilă aleatoare a cărei funcţie de


repartiţie F este continuă şi x1 ,......, xn o selecţie de volum n efectuată asupra lui

Dacă Fn este funcţia de repartiţie empirică ascociată selecţiei, atunci

   (L3.12)
lim P max Fn x   F x       ,
n   n
unde
  j  2 j 2 2
(L3.13)
   1 e  0
     j  
 0
 0,

semnifică funcţia lui Kolmogorov.


Valorile funcţiei lui Kolmogorov sunt tabelate pentru diferite nivele de semnificaţie.
Vrem să verificăm ipoteza:
H0: funcţia de repartiţie a lui X este F, presupusă continuă,
cu alternativa:
H1: funcţia de repartiţie a lui X nu este F .
Regiunea critică pentru verificarea ipotezei H0 este:
 n  
C  x1 ,......, xn    n | max | Fi  Φzi  |   .
 i 1 n
Algoritmul corespunzător testului Kolmogorov este următorul:
Pasul 1. Se alege un prag de semnificaţie   0,1 şi se determină  astfel:

 dacă n  100 şi   0.05 atunci   1.36

 dacă n  100 și   0.01 atunci   1.63

 dacă n  100 atunci  se obţine din tabele.

Pasul 2. Se face un sondaj de volum n, se obţin valorile de sondaj x1 ,......, xn şi le


ordonăm crescător.
Pasul 3. Se calculează: x  media aritmetică a valorilor observate şi   abaterea
standard a valorilor selecţiei.

Pasul 4. Se transformă valorile rezultate din măsurători în zi ,  i  1, n cu relaţia (L3.1).

Pasul 5. Se determină valorile Φzi  , adică valorile funcţiei de repartiţie teoretică, Φ fiind
funcţia lui Laplace, cu ajutorul formulei (L3.2).

172
MODELARE SIMULARE
Pasul 6. Se calculează frecvenţele relative cumulate
(L3.14)
Fi  i ,  i  1, n,
n
n
adică valorile funcţiei de repartiţie empirică (experimentală), unde ni reprezintă numărul de

valori z mai mici sau egale cu valoarea z i .


Pasul 7. Se calculează diferenţele

di | Fi  Φzi  | ,  i  1, n
şi se determină
n
d max  max d i .
i 1

Pasul 8. Dacă
 (L3.15)
d max  
n
se acceptă ipoteza H0. Altfel, ipoteza nulă se respinge.
Exemplul L3.6. Să se verifice, la un prag de semnificație 1    0.05 , normalitatea
datelor obţinute prin măsurarea unei caracteristici tehnice pentru 10 piese. Verificarea se va
face pe baza a 10 măsuratori:
1.68; 1.74; 1.82; 1.60; 1.72; 1.90; 1.79; 1.98; 1.85; 1.93.
Scrieţi un program Matlab pentru aplicarea testului Kolmogorov datelor din acest
exemplu.

Vom construi programul corespunzător testului Kolmogorov utilizând Matlab 7.9:


fid=fopen('data.txt','r');
x=fscanf(fid,'%f\t',[1,10]);
fclose(fid);
N=10;
x=sort(x); m=mean(x); sigma=std(x);
z=(x-m)/sigma;
for i=1:N
phii(i)=vpa(phi(z(i)),4);
end
for i=1:N
n(i)=length(find(z<=z(i)));
end

173
MODELARE SIMULARE
f=n/N;
d=abs(f-eval(phii))
dmax=max(d);
al=0.05;
la_al=1.36;
dcrit= la_al//sqrt(N);
if dmax<dcrit
disp('se accepta ipoteza ca esantionul de valori experimentale are repartitie
normala');
else
disp('se respinge ipoteza ca esantionul de valori experimentale are o distributie
normala');
end

Modul de aplicare a testului Kolmogorov este ilustrat în tabelul următor:


Φ z i  Fi di 
(ordonate crescător) n
1.60 -1.6941 0.0451 0.1 0.0549 0.4301
1.68 -1.0198 0.1539 0.2 0.0461
1.72 -0.6827 0.2474 0,3 0.0526
1.74 -0.5141 0.3036 0.4 0.0964
1.79 -0.0927 0.4631 0.5 0.0369
1.82 0.1601 0.5636 0.6 0.0364
1.85 0.4130 0.6602 0.7 0.0398
1.90 0.8344 0.798 0.8 0.002
1.93 1.0873 0.8615 0.9 0.0385
1.98 1.5087 0.9343 1 0.0657
x  1.801   0.1186 d max 0.0964
Deoarece


d max  
n

se acceptă ipoteza conform căreia datele obţinute prin măsurarea unei caracteristici tehnice
pentru 10 piese au o repartiţie normală.

174
MODELARE SIMULARE
Observaţia L3.6.

1. Dacă repartiţia lui X este continuă este de preferat un test Kolmogorov, care
necesită mai puţine calcule şi care s-a constatat că poate fi aplicat pentru un

număr de valori de selecţie n mai mic în raport cu numărul cerut de testul  .


2

2. Testul  este un test general pentru cazul repartițiilor discrete.


2

175
MODELARE SIMULARE

L4. LECŢIA DE LABORARATOR 4. CREAREA DE ALGORITMI PROPRII


PENTRU GENERAREA VARIABILELOR ALEATOARE DISCRETE

Această lecţie de laborator are următoarele scopuri:


1) implementarea în Matlab a metodei inverse de simulare a unei variabile aleatoare
discrete;
2) construirea unor funcţii în Matlab pentru simularea unei variabile discrete, cu o
repartiţie particulară (Bernoulli, binomială, Poisson, geometrică,
hipergeometrică), utilizată în fiabilitate.

L4.1. Metoda inversa de simulare a unei variabile aleatoare discrete

Vom descrie o metodă de simulare a unei variabile aleatoare discrete, ce ia un număr finit
de valori, numită metoda inversă. Conform acestei metode, putem simula orice variabilă

aleatoare X dacă cunoaştem funcţia sa de repartiţie F şi putem calcula funcţia inversă F 1 .


Folosind această metodă, vom construi un program Matlab pentru simularea variabilei
discrete X , ce are repartiţia
 a  ak  am  m
X :  1 ,  p k  1 .
 p1  p k  p m  k 1

Funcţia de repartiţie a acesteia este:


0, x  a1 (L4.1)
p , x  a1 , a2 
 1
 p1  p2 , x  a2 , a3 

FX x   
 p  p  p , x  ak , ak 1 
 1 2 k



1, x  am

iar funcţia inversă va fi:

FX1 u   ak , u  FX ak 1 , FX ak ,  k  1, m,


unde:
a0   , iar FX a0   0 .
Algoritmul pentru simularea variabilei aleatoare X constă în:
i. generararea unei valori u uniform repartizate în 0, 1 ,

176
MODELARE SIMULARE
ii. determinarea indicelui k pentru care
FX ak 1   u  FX ak . (L4.2)

Relaţia (L4.2) rezultă din faptul că:


ak 1  x  ak  FX ak 1   FX x   FX ak 
şi
FX x   u.
Vom construi programul Matlab corespunzător:
function x=simdiscrv(F,a,m)
u=rand;
k=1;
while (u>F(k)) & (k<=m)
k=k+1;
end
x=a(k);
end
Exemplul L4.1. Vom aplica funcţia Matlab precedentă pentru a genera o variabilă
aleatoare discretă, care dă numărul punctelor obţinute în experienţa aruncării unui zar o dată.
Astfel
 1 2 3 4 5 6  6
X :  ,  pk  1
1 6 1 6 1 6 1 6 1 6 1 6  k 1
iar
 0, x 1
1 6 , x  1, 2

2 6 , x  2, 3

FX x    3 6 x  3, 4
4 6 , x  4, 5

 5 6, x  5, 6

 1, x6
În linia de comandă a Matlab-ului vom scrie:
>> a=1:7;
>> F=0:1/6:1;
>>x=simdiscrv(F,a,7)

177
MODELARE SIMULARE
Se va afişa:
u=
0.6557
x=
5

L4.2. Simularea unei variabile discrete cu repartiție Bernoulli

Fie X o variabilă aleatoare binară astfel încât: P X  1  p, p  0,1 şi

P X  0  q  1  p , adică: X  1 dacă într-o experienţă întâmplătoare, un eveniment aleator


observabil A se produce cu probabilitatea p (avem de-a face cu un succes) şi X  0 dacă se

produce evenimentul contrar A cu probabilitatea q  1  p (se realizează un eşec).


Aşadar X are repartiţia:
0 1
X :   , M  X   p , Var  X   pq  p1  p  .
q p 
Funcţia de repartiţie a lui X este:
0, x0 (L4.3)

F x   P X  x   q, x  0, 1
1, x  1.

Simularea unei probe Bernoulli revine la a simula un eveniment aleator de probabilitate
constantă p . Un astfel de eveniment este de exemplu U  p, unde U este o variabilă

aleatoare uniformă pe 0,1. Evenimentul contrar U  peste un eşec.


Vom construi programul Matlab pentru simularea lui X :
function x=bern(p)
u=rand;
if u>p
x=0;
else
x=1;
end
end
Observaţia L4.2. Dacă aplicăm de n ori această funcţie putem spune că am simulat o
selecţie de volum n asupra lui X .

178
MODELARE SIMULARE
>> for i=1:100
x(i)=bern(0.1);
end

L4.3. Simularea unei variabile discrete cu repartiţie binomială

Repartiţia binomială se foloseşte la probleme de tipul următor:


Într-o urnă se află bile albe şi negre în proporţii date. Fie p probabilitatea ca la o
extragere de bilă din această urnă să obţinem culoarea albă şi q  1  p . Extragem din aceasta
urnă n bile, succesiv câte una, cu revenirea bilei extrase, de fiecare dată.
Atunci, probabilitatea ca din n bile, extrase k să fie albe este

Pn k   C nk p k q nk , (L4.4)

adică este termenul general al dezvoltării binomului  p  q n .


Fie variabila discretă X ~ Bi n, p  , ce are repartiţie binomială

 0 1  k  n 
X :  n , p, q  0,1, p  q  1 .
q C1n pq n 1 Cnk k nk
p q Cnn p n 

Funcţia de repartiţie a acesteia este:


 0, x0 (L4.5)
 qn, x  0, 1

 n 1
q  C n pq , n 1
x  1, 2

F X x    
q n  C 1 pq n 1    C k p k q nk , x  k , k  1
 n n
 

 1, x  n.
Media şi dispersia variabilei aleatoare X vor fi:

M  X   np
 (L4.6)
 2
 D  X   npq.

Pentru n suficient de mare, conform teoremei limită centrală rezultă că variabila


X  np (L4.7)
W ~ N 0, 1
npq

Pe baza acestei relaţii vom construi programul Matlab de generare a lui X ~ Bi n, p  .
function x=binom(n,p)
w=rand;

179
MODELARE SIMULARE
q=1-p;
x=round(n*p+w*sqrt(n*p*q));
end
>> x=binom(5000,1/4)
x=
1271
Observaţia L4.3. Variabila aleatoare discretă X  N este o variabilă binomială
Bi n, p , n  N , 0  p  1 dacă X reprezintă numărul de succese în n probe Bernoulli
independente, adică
n
X   Zi ,
i 1

unde Z i sunt n variabile aleatoare Bernoulli, independente.


Pornind de la aceasta observaţie, putem simula variabila discretă X cu repartiţie
binomială numarând succesele în n probe Bernoulli independente.
function x =bern2(n,p)
for h=1:10
for k=1:n
xx(k)=bern(p);
end
x(h)=sum(xx);
end
end
>> x=bern2(100,0.2)
x=
Columns 1 through 9
15 22 16 18 20 22 26 17 16
Column 10
17

Vom folosi formulele (L4.6) pentru validarea algoritmului precedent.


>> mean(x)
ans =
18.9000
>> 100*0.2

180
MODELARE SIMULARE
ans =
20
>> std(x)
ans =
3.5103
>> sqrt(100*0.2*0.8)
ans =
4

L4.4. Simularea unei variabile discrete cu repartiţie Poisson

Repartiţia Poisson este o repartiţie asemănătoare cu cea binomială, deosebindu-se de


aceasta prin faptul că numărul n de extrageri din urnă este foarte mare iar probabilitatea p de
extragere a unei bile albe este foarte mică. Cu alte cuvinte, repartiţia Poisson este un caz
limită al repartiţiei binomiale, pentru n   şi p  0 , unde produsul np   este constant.
Deoarece repartiţia Poisson se foloseşte în cazul apariţiei foarte rare a unui eveniment se
mai numeşte şi repartiţia evenimentelor rare.
Această repartiţie este frecvent întalnită în studiul unor fenomene din biologie,
telecomunicaţii, controlul statistic al calităţii (atunci când probabilitatea obţinerii unui defect
este foarte mică), în studiul fenomenelor care prezintă aglomerări (în teoria firelor de
aşteptare).
Probabilitatea ca din cele n bile extrase, k să fie albe este
k nk
  
Pk   lim Pn k   lim Cnk p k q n  k  lim Cnk   1   
n  n  n  n  n
nk
k n!  
  lim k  lim 1   ,
k! n n n  k ! n  n 
 
1 e 

adică

k (L4.8)
Pk    e ,   0.
k!

Fie variabila discretă X ~ Po  , ce are repartiţie Poisson

 0 1 2  k 
 
X :    
2
 k
e e  e  e  .

 1! 2! k! 

181
MODELARE SIMULARE
Media şi dispersia variabilei aleatoare X se vor calcula conform formulelor (3.9), din
partea I.
Funcţia Matlab următoare simulează X ~ Po  pornind de la o repartiţie binomială

Bi n, p  , pentru care se notează   np şi se face presupunerea ca n   si p  0 , 


rămânând constant.
function x=poisson(la,p)
n=round(la/p)
x=binom(n,p);
end
>> x=poisson(1,0.001)
n=
1000
x=
2

L4.5. Simularea unei variabile discrete cu repartiţie geometrică

Fie X o variabila aleatoare, care semnifică numărul de eşecuri până la apariţia unui
success într-un şir oarecare de probe Bernoulli independente.
Deci X are tabloul de repartiţie:
0 1 2  k  n 
X :  , p  q  1,
p pq pq 2
pq k
pq n 
media şi dispersia acestei variabile aleatoare fiind date în relaţiile (3.6) și respectiv (3.7), din
partea I.
Funcţia de repartiţie a lui X este:
x (L4.9)
F x   P X  x    pq k  1  q x 1, x  0,1, 2,n,
k 0

adică este o funcţie de repartiţie discretă.


Numele de repartiţie geometrică provine din faptul că

P X  x   pq x
reprezintă termenul unei progresii geometrice.
Programul Matlab următor simulează X , pe baza unui algoritm care numără eşecurile
produse până la realizarea unui succes într-un şir de probe Bernoulli independente:

182
MODELARE SIMULARE

function x=rgeom(p)
x=0;
k=0;
while(k~=1)
u=rand;
if u<=p
k=k+1;
else
x=x+1;
end
end
end
>>x=rgeom(0.2)
x=
7
Observaţia L4.4. Simularea variabilei aleatoare X , ce are repartiţie geometrică se poate
realiza şi prin metoda inversă cu formula:
 log U  (L4.10)
X  ,
 log q  
unde :
 a  este partea întreagă a lui a ,
 U este o variabilă aleatoare uniform repartizată în 0, 1 .
Vom construi funcţia Matlab ce simulează X ~ Geom p  cu metoda inversă.
function x =rgeom2(p)
q=1-p;
u=rand;
x=round(log(u)/log(q));
end
>> x=rgeom2(0.3)
x=
2

183
MODELARE SIMULARE

L4.6. Simularea unei variabile discrete cu repartiţie hipergeometrică

Vom considera experimentul cu urna, descris în legătură cu repartiţia binomială, cu


deosebirea că acum cele n bile se extrag din urnă, ce conţine a bile albe şi b bile negre, fără
revenirea bilei extrase înaintea extragerii următoare.
Probabilitatea ca din cele n bile extrase, k să fie albe este

C ak Cbnk (L4.11)
Pn k   .
C anb

Dacă X ~ n, a, b , adică X are repartiţie hipergeometrică de parametri n, a, b atunci

 0 1  k 
 
X : 0 n ,
 Ca Cb Ca1Cbn1 Cak Cbnk 
 n 
 C a b Canb Canb 
pentru orice max 0, n  b  k  min n, a .
Funcţia de repartiţie a lui X este:
min  n , a 
Cak Cbn  k (L4.12)
F x    n
.
k  max 0, n  b  Ca  b

Media şi dispersia variabilei aleatoare X vor fi:


M  X   np (L4.13)

 2 abn ,
 D  X   np1  p  .
 a  b 1
p fiind probabilitatea de a obține în prima extragere o bilă albă.
Se introduc următoarele notaţii:

 N i  N i 1  1,  i  1, n semnifică numărul bilelor din urnă după extracţia de

rang i (unde N0  a  b ),

N i 1 pi 1  S
 pi  ,  i  1, n reprezintă probabilitatea de a extrage o bilă albă
N i 1  1
la extragerea i , unde S  1 dacă la extracţia i  1 a fost găsită o bilă albă şi
S  0 în caz contrar.
Funcţia Matlab următoare permite simularea variabilei hipergeometrice X .
function x=hipergeom(n,a,b,p)
i=0;
x=0;

184
MODELARE SIMULARE
N=a+b;
while (i<n)
u=rand;
i=i+1;
if u<=p
S=1;
else
S=0;
end
x=x+S;
p=(N*p-S)/(N-1); N=N-1;
end
end
Vom simula o selecţie de volum 20 asupra lui X şi vom folosi formulele (L4.13) pentru
validarea algoritmului precedent.
>>for k=1:20
x(k)=hipergeom(10,15,13,0.9);
end
>> mean(x)
ans =
8.9000
>> 10*0.9
ans =
9
>> std(x)
ans =
0.7182
>> 10*0.9*0.1*18/27
ans =
0.6000

185
MODELARE SIMULARE

L5. LECŢIA DE LABORARATOR 5. CREAREA DE ALGORITMI PROPRII


PENTRU GENERAREA VARIABILELOR ALEATOARE CONTINUE

Scopurile acestei lecţii de laborator sunt:


1) construirea în Matlab a unor funcţii pentru simularea unei variabile continue, normală
şi a variabilelor înrudite;
2) construirea unor funcţii în Matlab pentru simularea unei variabile continue cu o
repartiţie: exponenţială, Weibull, gamma.

L5.1. Simularea variabilei aleatoare normală

O variabilă aleatoare X are o repartiţie unidimensională   ,   dacă admite o funcţie

densitate de probabilitate f x  de forma (3.14) (vezi aceste relaţii din partea I).
Funcţia de repartiţie FX x  a variabilei aleatoare X nu are o formă analitică explicită,
având expresia dată în relaţia (3.15), din partea I.
Simularea variabilei aleatoare X se reduce la simularea variabilei normale reduse asociată
acesteia:
X 
Z ~  0,1 .

Relaţia precedentă poate fi justificată în următorul mod:
X  
FZ z   PZ  z   P  z   P X    z   FX   z  
  
t   2 w2
  z  w  t     z 
d w   z .
1 2 2 1 2 2
  e dt  e
 2  2  
Între variabilele aleatoare X şi Z există relaţia:
X    Z . (L5.1)
Vom construi în Matlab funcţia repnorm.m, pentru simularea lui X :
function [m1,s1]=repnorm(m,sig)
z=randn(100,1);
x=m+sig*z;
m1=mean(x);
s1=std(x);
end

186
MODELARE SIMULARE
>>[m,s]=repnorm(1,2)
m=
0.9155
s=
2.0831
Observaţia L5.1. Dacă aplicăm funcţia predefinită în Matlab z=randn(n,1) putem spune
că am simulat o selecţie de volum n asupra variabilei aleatoare Z ~ N(0,1) .

L5.2. Simularea variabilei aleatoare  2

Fie Zi , 1  i   variabile normale N(0,1) independente. O variabilă aleatoare  2 cu 


grade de libertate este o variabilă de forma:
 (L5.2)
2   Zi2 ,   .
i 1

O variabilă aleatoare 2 este continuă şi admite densitatea de probabilitate (vezi formula
(3.29), din partea I):
 x
1 
f x;  
1
  x 2 e 2 , x  0,
 
2 2  
2
unde 2

(L5.3)
    x 1 e  x d x
0

semnifică funcţia Gamma a lui Euler,  : 0,    şi are proprietăţile:

 1 (L5.4)
  2   
  
 1  1
 a  1  a a ,  a  0

 n  1  n !,  n  

   
iar M 2 şi D 2 2 fiind date de relaţiile (3.30) şi respectiv (3.31), din partea I.

Pentru simularea în Matlab a variabilei aleatoare 2 vom folosi formula (L5.2).

function x=hip(n)
z=randn(n,1);
x=sum(z.^2);

187
MODELARE SIMULARE
end
>> for i=1:200
x(i)=hip(10);
end
>> mean(x)
ans =
9.7490
>> std(x)^2
ans =
18.5520

L5.3. Simularea unei variabile aleatoare Student

Fie Z o variabilă N(0,1) şi 2 o variabilă  2 cu  grade de libertate. Presupunem că Z

şi 2 sunt independente. Numim variabilă Student cu  grade de libertate, variabila aleatoare

Z (L5.5)
t  .
2

Funcţia densitatea de probabilitate a variabilei aleatoare t are expresia din relaţia (3.32),
din partea I.
Vom construi funcţia Matlab care ne permite simularea variabilei t

function t = stud(n)
z=randn(1,1);
h=hip(n);
t=z/sqrt(h/n);
end
>>stud(4)
ans=
0.2128

188
MODELARE SIMULARE

L5.4. Simularea unei variabile aleatoare Snedecor

Fie 2 şi 22 două variabile aleatoare  2 independente. Numim variabilă F a lui
1

Snedecor cu  1 , 2  grade de libertate, variabilă de forma:

 2  1 (L5.6)
2

F , 2   2 .
1
 1  2

Densitatea de probabilitate a variabilei F este cea din relaţia (3.35), a părţii I, iar

  2
M F 1 , 2    2 ,  2  2
(L5.7)
 2

2 22  1   2  2


D 2 F 
 1 , 2 
 1  2  22  2  4
,  2  2,  2  4.

În Matlab vom avea:
function [m,s] = snedec(n1,n2)
for i=1:100
h1=hip(n1);
h2=hip(n2);
F(i)=(n2/n1)*(h1/h2);
end
m=mean(F);
s=std(F)^2;
if n2>2
mm=n2/(n2-2)
end
if n2~=2 & n2~=4
ss=(2*n2^2*(n1+n2-2))/(n1*(n2-2)^2*(n2-4))
end
end
>> [m,s]=snedec(6,9)
mm =
1.2857
ss =
1.4327
m=

189
MODELARE SIMULARE
1.3769
s=
1.2140

L5.5. Simularea unei variabile log-normale

O variabilă aleatoare X este o variabilă log-normală dacă Y  ln X este normală, adică are
funcţia densitate de probabilitate:
2
1  y y 
  
2   y 
f y 
1  ,
e
 y 2
unde:
 1  2 
(L5.8)
 y  M Y   ln  x  ln  x 1
 2 2 
 x 

 2  2 
 y  ln  x 1.
2 
  x 

Funcţia Matlab următoare simulează o variabilă log-normală.


function v=lognor(mx,sx)
spy=log(sx^2/mx^2+1);
my=log(mx)-1/2*log(sx^2/mx^2+1);
z=repnorm(0,1);
y=my+sqrt(spy)*z;
v=exp(y);
end

L5.6. Simularea unei variabile cu repartiţie exponenţială

O variabilă exponenţială X ~ Exp   are funcţia densitate de probabilitate:

 e  x , x  0 (L5.9)
f x    ,   ,
 0, x0
funcţia de repartiţie:
x x (L5.10)
FX x    f t  d t   f t  d t 1  e  x , x  0,
 0

media şi dispersia acestei variabile fiind date în relaţiile (3.21) şi (3.22), din partea I.

190
MODELARE SIMULARE
Pentru simularea unei variabile aleatoare X, ce are repartiţie exponenţială vom folosi
metoda inversă, conform căreia putem simula orice variabilă aleatoare X dacă cunoaştem

funcţia sa de repartiţie F şi putem calcula funcţia inversă F 1 .


Algoritmul pentru simularea variabilei aleatoare X constă în:
i. generarea unei valori u uniform repartizate în 0, 1 ,
ii. determinarea lui
(L5.11)
X  F 1u    ln 1  u .
1

Funcţia exponenţial.m, pe care am realizatat-o în Matlab permite simularea lui X cu
metoda inversă:
function x=exponential(la)
u=rand();
x=(-1/la)*log(1-u);
end
>>for i=1:10
x(i)=exponential(1);
end
>>mean(x)
ans=
0.9955
>>std(x)^2
ans=
1.0115

L5.7. Simularea variabilei aleatoare de tip Weibull

O variabilă aleatoare înrudită cu variabila exponenţială este variabila Weibull (notată


W  ,  ,   ), a cărei densitate de probabilitate este:

 
 x    1 e    x   , x  
(L5.12)
f x    ,   ,  ,   0.

 0, x  
Dacă X ~ Exp 1, atunci variabila Weibull se generează cu formula:

191
MODELARE SIMULARE
1 (L5.13)
X 
W    .
 
Într-adevar, avem:
1
 t 
u   
 w 

PW  w  P X   w    
  e t d t 
 w  1  u  
  u    e d u.
 
Variabila Weibull se utilizează în fiabilitate, ea reprezentând durata de exploatare fără
căderi a unui echipament sau produs industrial.

L5.8. Simularea variabilei aleatoare gamma

O variabilă aleatoare X are repartiţia G ,  ,   dacă are funcţia densitate de probabilitate

   1    x  
(L5.14)
f x       x    e
 , x 
 x 
 0,

unde:   ,  ,   0 sunt respectiv parametrii de locaţie, de scală şi de formă ai variabilei


aleatoare X.
Se observă că o variabilă exponenţială este variabila gamma G0,  ,1 iar 2 este o

 1 
variabilă gamma G 0, , .
 2 2
Dacă
 
Y ~  G  ,  , 
 2
iar
 1 
Z ~  G 0, , 
 2 2
atunci avem:
Z (L5.15)
Y   .
2
Relaţia (L5.15) poate fi justificată în felul următor:
 z   z 
FZ ( z )  P( Z  z )  P2 (Y   )  z   P Y      FY   
 2   2 

192
MODELARE SIMULARE
z   
 1 w
2 2  
t    2 1 e   (t  ) dt     w 2
z 2 1
    e 2 dw 
      
  2  2
  
2 2

 w
z 2 1 
  w2 e 2 dw ,

  
22   
2
după ce facem schimbarea de variabilă w  2 (t   ) .

 
Pentru simularea în Matlab a variabilei aleatoare Y, ce are funcția de repartiţie G  ,  , 
 2
vom proceda în felul următor:
i. se generează Z  2 ;
ii. se determină Y, utilizând (L5.15).
function y =gam(al,la,n)
z=hip(n);
y=al+z/(2*la);
end

193
MODELARE SIMULARE

L6. LECŢIA DE LABORARATOR 6. VALIDAREA GENERATORILOR

Scopurile urmărite în cadrul acestei lecţii de laborator sunt:


1. validarea în Matlab a algoritmilor pentru simularea variabilelor aleatoare continue;
2. validarea în Matlab a algoritmilor pentru simularea variabilelor aleatoare discrete.
Validarea generatorilor se referă atât la verificarea corectitudinii formale a programelor
cât şi la verificarea ipotezei statistice de concordanţă
Η : X ~ F x , (L6.1)

cu privire la funcţia de repartiţie F x  a variabilei aleatoare X asupra căreia s-a efectuat


selecţia simulată
X1, X 2 ,, X n
de volum n suficient de mare.
Validarea generatorilor presupune următoarele două etape:
A. Construirea grafică a histogramei şi compararea acesteia cu densitatea de
probabilitate a lui X .

B. Aplicarea testului de concordanţă  2 pentru verificarea ipotezei (L6.1).


Construcţia histogramei se realizează utilizând următorul algoritm:
Pasul 1. Simulăm un număr n1  n de valori de selecţie

X1, X 2 ,, X n1 ,

pe care le memorăm.
Pasul 2. Alegem un număr k, care semnifică numărul intervalelor histogramei:
I1 , I2 ,, Ik .
Pasul 3. Determinăm pe baza selecţiei următoarele limite ale intervalelor histogramei:

a2  min X1, X 2 ,, X n1  (L6.2)

şi

ak  max X1, X 2 ,, X n1 .  (L6.3)

Apoi formăm intervalele:


Ii  ai , ai 1 ,  i  2, k  1,
unde

ai  a2  i  2h,  i  3, k  1. (L6.4)

Pasul 4. Determinăm frecvenţele relative

194
MODELARE SIMULARE
(L6.5)
,  i  2, k  1,
ni
fi 
n
unde ni reprezintă frecvenţele absolute, adică numărul valorilor de selecţie, ce aparţin

intervalului Ii .
Vom face iniţializările:
 f1  f k  0, (L6.6)

a1  a2
a  a .
 k 1 k

Pasul 5. Simulăm pe rând, celelalte n  n1 valori de selecţie şi pentru fiecare X astfel


simulat, vom realiza următoarele operaţii:
a) dacă X  a2 atunci setăm:

a1  min a1, X  (L6.7)

şi
f1  f1  1 ;
b) dacă X  ak atunci setăm:

ak 1  maxak  1, X  (L6.8)

şi
fk  fk  1;

c) dacă a2  X  ak atunci setăm:

 X  a2  (L6.9)
p 2
 h 
şi
f p 1  f p 1  1 .

Pasul 6. Reprezentăm grafic histograma selecţiei X1, X 2 ,, X n astfel: luăm pe abscisă

intervalele Ii şi construim dreptunghiuri, care au ca bază aceste intervale şi ca înalţimi,

frecvenţele relative f i .

195
MODELARE SIMULARE

y
f x 

f1 f2 fk

I1 I2 Ik x

Linia punctată sugerează forma densităţii de probabilitate a variabilei X .


Observaţia L6.1. Pentru o variabilă aleatoare discretă X, ce ia valorile
x1, x2 , x3 ,
cu probabilităţile
p1, p2 , p3 ,

funcţia de probabilitate f(x) se definește prin:


 p , daca x  xi , i  1, 2, 3 (L6.10)
f x    i
 0, i n rest

Odată construită histograma, putem aplica testul  2 pentru verificarea ipotezei (L6.1).
Se calculează statistica

 
2
k
ni  npi 2 , (L6.11)
i 1 npi

care are o distribuţie  cu k-1 grade de libertate (vezi teorema lui Karl Pearson) unde:
2

 k este numărul de intervale ale histogramei,

 ni reprezintă frecvenţele absolute,

 pi ,  i  1, k constituie probabilitatile ca o observaţie să aparţină

intervalului Ii , i  1, k şi sunt exprimate de:

 p1  Pa1  X  a2   F a2  (L6.12)



 pi  Pai  X  ai 1   F ai 1   F ai ,  i  2, k  1
 p  Pa  X  a   1  F a .
 k k k 1 k

Ipoteza H se acceptă dacă


 2   k2 s 1,
şi se respinge în caz contrar, 𝛂 fiind probabilitatea erorii de genul I (se mai numeşte nivel de
semnificaţie sau risc sau probabilitate de transgresiune) iar s semnificând numărul de
parametri estimaţi.

196
MODELARE SIMULARE

L6.1. Validarea algoritmului pentru simularea unei variabile


aleatoare cu repartiţie normală

Etapa 1. Funcţia Matlab următoare permite simularea unei variabile aleatoare X, ce are o
repartiţie unidimensională N ,  adică admite o funcţie densitate de probabilitate dată în
(3.14) (vezi aceste relaţii din partea I).
function x=repnorm(m,sig,n)
z=randn(n,1);
x=m+sig*z;
end

Etapa 2. Construim funcţia Matlab corespunzătoare funcţiei densitate de probabilitate de

forma (3.14).
function f=dnorm(x,m,sig)
f=1/(sig*sqrt(2*pi))*exp(-(x-m).^2/(2*sig^2));
end

Etapa 3. Construim funcţia Matlab, pe baza căreia vom determină elementele histogramei.
function [x,a,ff,I]=normhist(n,n1,k)
f=zeros(1,k);
a=zeros(1,k+1);
x=repnorm(1,2,n1);
a(2)=min(x);
a(k)=max(x);
a(1)=a(2);
a(k+1)=a(k);
h=(a(k)-a(2))/(k-2);
for i=3:k-1
a(i)=a(2)+(i-2)*h;
end
for i=3:k
aa=a(i-1);bb=a(i);
f(i-1)=length(find(x>=aa& x<=bb));
end

197
MODELARE SIMULARE
for i=1:n-n1
xx=repnorm(1,2,1);
x(n1+i)=xx;
if xx<=a(2)
a(1)=min(a(1),xx);
f(1)=f(1)+1;
elseif xx>a(k)
a(k+1)=max(a(k+1),xx);
f(k)=f(k)+1;
else
if a(2)<xx & xx<=a(k)
p=round((xx-a(2))/h);
f(p+1)=f(p+1)+1;
end
end
end
for i=1:k
I(i)=(a(i+1)+a(i))/2;
end
ff=f/n;
end

Etapa 4. Scriem secvenţa Matlab utilizată pentru reprezentarea grafică a histogramei şi

respectiv a densităţii de probabilitate.


>>[x,a,f,I]=normhist(100,20,10)
>>subplot(1,2,1);
>>bar(I,f,'hist')
>>subplot(1,2,2);
>>x=sort(x);
>>plot(x,dnorm(x,1,2),'-b')

198
MODELARE SIMULARE

Etapa 5. Scriem funcţia Matlab ce ne ajută la definirea funcţiei de repartiţie.


function r=frepnorm(z,m,sig)
syms t
r=(1/(sig*sqrt(2*pi)))*int(exp((-(t-m)^2)/(2*sig^2)),t,-inf,z);
end

Etapa 6. Construim funcţia Matlab, ce ne permite aplicarea testului de concordanţă  2


pentru verificarea ipotezei (L6.1), pentru   0.005 .
function test_hist(n,k,m,sig)
[x,a,f,I]=normhist(n,20,k);
f=f*n;
sum(f)
p(1)=frepnorm(a(2),m,sig);
for i=2:k-1
p(i)=eval(frepnorm(a(i+1),m,sig))-eval(frepnorm(a(i),m,sig));
end
p(k)=1-eval(frepnorm(a(k),m,sig));
eval(p)
hi_calc=sum(((f-n*eval(p)).^2)./(n*eval(p)))
if hi_calc<=20.28
disp('se accepta ipoteza ca repartitia empirica se aseamana cu cea teoretica');
else

199
MODELARE SIMULARE
disp('se respinge ipoteza ca repartitia empirica se aseamana cu cea teoretica');
end
end
>> test_hist(100,10,1,2)
hi_calc =
10.7200

Se acceptă ipoteza ca repartiţia empirică se aseamană cu cea teoretică.

L6.2. Validarea algoritmului pentru simularea unei variabile


aleatoare cu repartiţie exponenţială

O variabilă exponenţială X ~ Exp   are funcţia densitate de probabilitate dată în (3.19)


şi funcţia de repartiţie din (3.20).
Vom raţiona precum în cazul precedent, fiind necesare următoarele modificări:
Etapa 1. Se defineşte funcţia Matlab:
function x=exponential(la)
u=rand();
x=(-1/la)*log(1-u);
end

Etapa 2. Construim funcţia Matlab:


function r=dexp(x,la)
if x>0
r=la*exp(-la*x);
else
r=0;
end
end

Etapa 3. Funcţia Matlab normhist.m se modifică astfel:


Instrucţiunea x=repnorm(1,2,n1) se înlocuieşte cu:
for i=1:n1
x(i)=exponential(1);
end

iar instrucţiunea xx=repnorm(1,2,1) devine xx=exponential(la).

200
MODELARE SIMULARE

Etapa 4. Instrucţiunea plot(x,dnorm(x,1,2),’-b’) devine plot(x,dexp(x,1),’-b’) şi obţinem

graficul

Etapa 5. Vom avea funcţia:


function r=frepexp(x,la)
if x>0
r=1-exp(-la*x);
end
end
Etapa 6. Funcția test_hist.m se modifică astfel:
function test_hist(n,k,la)
[x,a,f,I]=normhist(n,20,k);
f=f*n
sum(f)
p(1)=frepexp(a(2),la);
for i=2:k-1
p(i)=frepexp(a(i+1),la)-frepexp(a(i),la);
end
p(k)=1-frepexp(a(k),la);
p
hi_calc=sum(((f-n*p).^2)./(n*p))

201
MODELARE SIMULARE
if hi_calc<21.96
disp(‘se accepta ipoteza ca repartitia empirica se aseamana cu cea teoretica’);
else
disp(‘se respinge ipoteza ca repartitia empirica se aseamana cu cea teoretica’);
end
end
>> test_hist(100,10,1)
hi_calc =
5.8196
Se acceptă ipoteza că repartiţia empirică se aseamănă cu cea teoretică.

L6.3. Validarea algoritmului pentru simularea variabilei aleatoare


geometrice

Fie X o variabilă aleatoare care semnifică numărul de eşecuri până la apariţia unui
success într-un şir oarecare de probe Bernoulli independente.
Deci, X are repartiţia:
0 1 2  k  n 
X :  .
p pq pq 2
pq k
pq n 
Funcţia de repartiţie a lui X este funcţia de repartiţie discretă dată de relaţia (L4.9).

Etapa 1. Definim funcţia care simulează variabila X .


function x =rgeom2(p)
q=1-p;
u=rand;
x=round(log(u)/log(q));
end
>> x=rgeom2(0.3);

Etapa 2. Construim funcţia Matlab:


function f=dgeom(x,t,xx,p)
q=1-p;
u=find(x(t)==xx);
if length(u)~=0
f=p*q^u;
else
202
MODELARE SIMULARE
f=0;
end
end

Etapa 3. Funcţia Matlab normhist.m se modifică astfel:


for i=1:n1
x(i)=rgeom2(0.2);
end
xx=rgeom2(0.2);

Etapa 4. Reprezentăm histograma.


[x,a,f,I]=normhist(100,20,10)
subplot(1,2,1);
bar(I,f,'hist')
subplot(1,2,2);
xx=0:99;
for t=1:100
fg(t)=dgeom(x,t,xx,0.2);
end
stem(x,fg)

203
MODELARE SIMULARE

L7. LECŢIA DE LABORATOR 7. AJUSTAREA MATEMATICĂ A DATELOR


EXPERIMENTALE

Scopurile acestei lecţii de laborator vizează:


- ajustarea clasică; metoda celor mai mici pătrate;
- ajustare pe reţele echidistante;
- alegerea curbei de ajustare;
- ajustarea datelor experimentale utilizând Matlab şi CurveExpert.

Dependenţa funcţională a unei mărimi fizice, reprezentată prin variabila y, de o altă


mărime fizică, reprezentată prin variabila x, poate fi studiată şi empiric, măsurându-l pe y

pentru cât mai multe valori ale lui x. Se obţin astfel seturile numerice xk , y k , k  1, N .
Aceste rezultate se pot înscrie într-un tabel şi/sau reprezenta sub forma unui grafic. Problema
constă [38], în acest caz, în găsirea unei funcţii–mai precis, a unei formule, care să descrie cât
mai exact posibil rezultatele experimentale. Altfel spus, graficul funcţiei căutate poate să
conţină sau nu punctele xk , yk  , datorită zgomotului, dar trebuie să fie cât mai aproape de

acestea. Cu cât este mai bogată informaţia pe care o avem despre corespondenţa x  yx  , cu
atât este mai sigură eliminarea zgomotului. Vom exprima deci dependenţa funcţională
x  yx  sub forma

y  f x, c0 , c1,, cn  , (L7.1)

unde c k , k  0, n , sunt parametri care trebuie determinaţi astfel încât graficul lui y să fie
suficient de aproape de graficul rezultatelor experimentale. Dacă toate măsurătorile au fost
efectuate cu aceeaşi precizie, atunci c k trebuie să fie aleşi astfel încât
N
S   y  f xk , c0 , c1 ,  , cn 
2
k (L7.2)
k 1

să fie cât mai mică posibil.


În situaţia în care măsurătorile nu au fost efectuate cu aceeaşi precizie, expresia anterioară
este înlocuită cu
N
S    yk  f xk , c0 , c1,, cn  pk ,
2
(L7.3)
k 1

204
MODELARE SIMULARE

unde pk sunt numere pozitive, care au rolul de ponderi şi pot fi determinate experimental. De

exemplu, dacă pentru fiecare x k am efectuat mk măsurători, atunci putem considera

pk  mk , k  1, N .

Observaţia L7.1. Relaţia (L7.2) este un caz particular al relaţiei (L7.3) pentru pk  1 ,

k  1, N . Suma S din (L7.2) şi respectiv (L7.3) reprezintă de fapt o funcţie de c0 , c1 ,  , cn


şi este minimă (vezi cursul de Analiză matematică I) dacă
S
 0, k  0, n . (L7.4)
ck

Relaţiile (L7.4) reprezintă un sistem algebric cu n  1 ecuaţii şi n  1 necunoscute

ck , k  0, n . Dacă dependenţa lui f de ck , k  0, n este liniară, atunci sistemul algebric

obţinut este de asemenea liniar.


Metoda descrisă (prezentată în parea I) se numeşte metoda celor mai mici pătrate.
Corespondenţa dintre y şi x poate fi pusă în forma polinomială

yx   c0  c1x    cn x n . (L7.5)

Sistemul algebric corespunzător lui (L7.4) este în acest caz


 c0   0  c1  1    c n   n   0
 c   c   c 
 0 1 1 2 n n  1  1

 c0   2  c1   3   c n   n  2   2 (L7.6)
 


c0   n  c1   n  1    c n   2 n   n ,
unde  k şi  k sunt definiţi astfel:

 N

 m   xkm pk , k  0, 2n,
 k 1
 N
(L7.7)
   y x m p , m  0, n.
 m k 1 k k k

Observaţia L7.2. Soluţia sistemului (L7.6) există, este unică şi reprezintă minimum-ul
expresiei (L7.2).
Exemplul L7.3. Presupunem că am realizat câteva teste asupra unor piese de probă, din
oţel, obţinând astfel următorul tabel ( în unităţi relative):

205
MODELARE SIMULARE

tensiunea xi 2 4 5 7 8

deplasarea yi 4 8 11 14 18

Intenţionăm să găsim expresia analitică (empirică), ce caracterizează acest experiment,


care să ne permită să estimăm cele mai bune deplasări, corespuzătoare tensiunilor care nu apar
în tabelul anterior, dar sunt cuprinse între 2 şi 8 unităţi relative.

Rezolvare
Dacă am aplica interpolarea pe reţeaua
x0  2, x1  4, x2  5, x3  7, x4  8 ,
polinomul de interpolare obţinut ar avea gradul 4. În afara efortului de calcul, prin interpolare
nu am înlăturat zgomotul prezent la măsurători.
Din aceste motive, vom încerca să aplicăm metoda celor mai mici pătrate. La început vom
reprezenta punctele xi , yi  într-un sistem de coordonate xOy (vezi figura L7.1).
y
18

14

11

2 4 5 7 8 x

Figura L7.1. Reprezentarea grafică a punctelor xi , yi  şi dreapta de ajustare


Se observă că punctele exprimentale sunt distribuite în imediata vecinătate a unei drepte.
Vom încerca să determinăm dreapta situată cel mai aproape de punctele graficului
anterior, impunând condiţia ca distanţa (L7.2) dintre funcţia deplasare yx  şi dreapta
y  Ax  B să fie minimă, adică
4

 y   Ax i  B    A, B  .
2
i (L7.8)
i 0

Sistemul (L7.4) este în acest caz

206
MODELARE SIMULARE

  4
  2  xi  yi  Axi  B   0
 A i 0
 (L7.9)
   2   yi  Axi  B   0 .
4

 B i 0

După calcule simple, rezultă că avem de rezolvat următorul sistem algebric, de două
ecuaţii cu două necunoscute:

 4 2 4 4

  i
A x  B  x i   xi y i
i 0 i0 i 0
 4 4 (L7.10)
 A xi  5B   yi .
 i 0 i 0

Folosind notaţiile (L7.7), pentru N  5, p j  1, j  0, 4 , sistemul anterior se scrie sub

forma
 A 2  B1  1
 (L7.11)
 A1  5B   0
şi înlocuind xi , yi cu valorile din tabel, obţinem sistemul

158 A  26 B  337
 (L7.12)
 26 A  5B  55,
a cărui soluţie unică este:
A  2.237 , B  0.63 .
Ecuaţia dreptei căutate este y  2.237 x  0.63 . Dacă dorim să determinăm deplasarea
pentru o tensiune de 3 unităţi relative, obţinem cu aproximaţie
y  2.237  3  0.63  6.4 .
Secvenţa Matlab următoare ne permite ajustarea cu o dreaptă (în sensul celor mai mici
pătrate) a setului de date.
>> x=[2 4 5 7 8];
>> y=[4 8 11 14 18];
>> coef=polyfit(x,y,1) ;
>> A=coef(1);
>> B=coef(2);
>> y1=A*x+B;
>> plot(x,y1,x,y,'o')

Funcţia polyfit aproximează un set de date cu un polinom de grad n.


Vom verifica rezultatul obţinut utilizând software-ul CurveExpert.

207
MODELARE SIMULARE

Exemplul L7.4. Să se ajusteze printr-o parabolă, de ecuaţie y  ax 2  bx  c datele


tabelei următoare:
xi -1 0 1 2

yi 3 0 2 5

Rezolvare
Coeficienţii a, b, c se obţin din condiţia ca funcţia
N
 
E a ,b ,c    yi  axi2  bxi  c
i 1
2 (L7.13)

să admită un minimum, adică:


 E
 a  0,
 E
  0, (L7.14)
 b
 E  0.
 c

Deoarece valorile xi sunt echidistante, calculele pot fi simplificate prin schimbarea de


variabilă
xx
u . (L7.15)
h
Avem
h  1;

 1 N 1
 x   xi  x  ;
 N i 1 2

N  4

208
MODELARE SIMULARE

xi -1 0 1 2

ui 3 1 1 3
 
2 2 2 2
yi 3 0 2 5

Etapa 1. Determinăm parabola de ecuaţie


y  a1u 2  b1u  c1 .
Folosind notaţiile
4
k  u
i 1
k
i

şi
4
 k   uik  yi ,
i 1

cum  0  4 , sistemul din care găsim coeficientii a1 , b1 şi c1 este:

a1 4  b1 3  c1 2   2



 a1 3  b1 2  c11  1
a   b   c    .
 1 2 1 1 1 0 0

1) Calculăm  k şi  k , k  0 .

 4

 1   ui  0
 i 1
 4 2 1 9
  2   ui  2   ui  2    5
2 2
 i 1 i 1 4 4
 4
   u3  0
 3 i 1 i

 4 4  1 81 

 4   u 4
i  2   ui4  2  
 i 1 i 1  16 16 

 4
 0   yi  10
 i 1
 4
1   ui  yi  4
1
 i 1
 4 37
 2   ui2  yi  .
 i 1 2

Observăm că, în noua variabilă u, întotdeauna se anulează sumele σ de indice impar, iar
cele de ordin par se calculează dublând rezultatul obţinut pentru valorile pozitive ale lui u.

209
MODELARE SIMULARE
2) Se rezolvă sistemul anterior, care se decuplează, în virtutea observaţiei anterioare:
 41 37
4 a1  5 c1  ,
 2
5b1  4,
5a  4c  10 .
 1 1

Calculele se simplifică lucrând cu variabila u. Într-adevăr, în loc să rezolvăm un sistem


de trei ecuaţii cu trei necunoscute, vom rezolva separat un sistem de numai două ecuații şi
două necunoscute. Rezultă:
a1  1.5 , b1  0.8 , c1  0.625 .
Etapa 2. Revenim la variabila x şi determinăm parabola de ecuaţie
y  ax 2  bx  c .
Avem
2
 1  1
1.5u  0.8u  0.625  1.5 x    0.8 x    0.625 
2

 2  2
1.5
 1.5 x 2  1.5 x   0.8 x  0.4  0.625 .
4
Rezultă parabola de ecuaţie:
y  1.5x 2  0.7 x  0.6 ,
înfăţişată în figura L7.2.

6
5
4
3 y
2 f(x)
1
0
-2 -1 -1 0 1 2 3

Figura L7.2. Ajustarea cu o parabolă

210
MODELARE SIMULARE
function r=sigma(x,n,N)
for m=1:2*n+1
r(m)=0;
for k=1:N
r(m)=r(m)+x(k)^(m-1);
end
end
end

function r=tau(x,y,n,N)
for m=1:n+1
r(m)=0;
for k=1:N
r(m)=r(m)+y(k)*x(k)^(m-1);
end
end
end
>> x=-1:2;
>> u=x-mean(x);
>> y=[3 0 2 5];
>> N=4;
>> syms w a b c
>> r=sigma(u,2,N);
>> t=tau(u,y,2,N);
>> A=[r(3) r(2) r(1);r(4) r(3) r(2); r(5) r(4) r(3)];
>> B=[t(1) t(2) t(3)]';
>> q=linsolve(A,B);
>> f=@(a,b,c,w) a*w.^2+b*w+c;
>> plot(x,y,'db',x,f(q(1),q(2),q(3),x-mean(x)))
Utilizând CurveExpert vom obţine:

211
MODELARE SIMULARE

Problema alegerii curbei de ajustare este destul de subiectivă, depinzând de observatorul


care decide asupra alurii graficului datelor experimentale. Se pune o problemă firească: cum
discernem între două sau mai multe forme care, la prima vedere, par la fel de potrivite pentru
acelaşi set de date?

Un indicatorul de performanţă poate fi şi abaterea medie patratică, adică poate fi


determinat cu formula
N
  yi  y xi 
2
(L7.16)
E  i 1 ,
N 1

în care yi , i  1, N sunt datele, iar yx  este ecuaţia curbei de ajustare. Ecuaţia pentru care E
este minim va reprezenta alegerea mai potrivită.

212
MODELARE SIMULARE
a
Exemplul L7.5. Să se ajusteze printr-o funcție, de ecuaţie y   b datele tabelei
x
următoare
xi 7 8 9 10 11 12 13

yi 7.4 8.4 9.1 9.4 9.5 9.5 9.4

Rezolvare

Funcția de ajustare se obţine din condiţia ca funcţia


2
N  a 
E a, b     y i    b   (L7.17)
i 1   xi 
să admită un minim, adică
 E
 a  0
 E (L7.18)
  0.
 b
Coeficienţii a şi b se obţin rezolvând sistemul:
 7 1 7 1 7 y
 a   b    i
 i 1xi
2 x
i 1 i i 1 ix
 7 1 7
 a   7b   y
 i 1xi i 1
i

0.08a  0.73b  6.437 /  0.73



 0.73a  7b  62.7 / 0.08
 0.73  6.437  0.08  62.7
b  11.697
 0.732  7  0.08
62.7  7  11.697
a  a  26.273
0.73
Ecuaţia căutată este:
26.273
y  11.697
x
şi este ilustrată în figura L7.3.

213
MODELARE SIMULARE

11

10

9 y
8 f(x)

6
5 6 7 8 9 10 11 12 13 14 15 16

Figura L7.3. Ajustarea cu funcție.


function r=sigma(x,n,N)
for m=1:n+2
r(m)=0;
for k=1:N
r(m)=r(m)+x(k)^(-m+1);
end
end
end

function r=tau(x,y,n,N)
for m=1:2*n+1
r(m)=0;
for k=1:N
r(m)=r(m)+y(k)/(x(k)^(m-1));
end
end
end
>>N=7;
>>syms w a b
>>x=7:13;
>>y=[7.4 8.4 9.1 9.4 9.5 9.5 9.4];
>>r=sigma(x,1,N);
>>t=tau(x,y,1,N);
>>A=[r(2) r(1);r(3) r(2)];
>>B=[t(1) t(2)]';
>>u=linsolve(A,B);

214
MODELARE SIMULARE
>>f=@(a,b,w) a./w+b ;
>>plot(x,y,'db',x,f(u(1),u(2),x))
Același rezultat poate fi obţinut utilizând CurveExpert:

Exemplul L7.6. Să se ajusteze printr-o funcţie de forma


yx   c0  c1 sin x  c2 cos x
datele tabelei următoare
xi 0.2 0.4 0.6 0.8 1 1.2

yi 1 2 3 5 5 3

215
MODELARE SIMULARE
Rezolvare
Vom avea de rezolvat sistemul:
 6
   y k  c0  c1 sin xk  c2 cos xk   0
k 1
 6
   y k  c0  c1 sin xk  c2 cos xk sin x k  0
k 1
 6
   y k  c0  c1 sin xk  c2 cos xk  cos xk  0
k 1

>> x=0.2:0.2:1.2;
>> y=[1 2 3 5 5 3];
>> tau=[sum(y),sum(y.*sin(pi*x)),sum(y.*cos(pi*x))] ;
>> sig(1,1)=6;
>> sig(1,2)=sum(sin(pi*x));
>> sig(1,3)=sum(cos(pi*x));
>> sig(2,2)=sum(sin(pi*x).^2);
>> sig(2,3)=sum(sin(pi*x).*cos(pi*x));
>> sig(3,3)=sum(cos(pi*x).^2);
>> sig(2,1)=sig(1,2);sig(3,1)=sig(1,3);sig(3,2)=sig(2,3);
>> linsolve(sig,tau')
ans =
2.0660
0.8887
-2.4274
Deci,
yx  2.0660  0.8887 sin x - 2.4274 cos x.
Folosind CurveExpert va rezulta:

216
MODELARE SIMULARE

217
MODELARE SIMULARE

L8. LECŢIA DE LABORATOR 8. ELEMENTE DE FIABILITATE

Scopurile acestei lecţii de laborator sunt:


1. însuşirea noţiunilor privind principalii indicatori de fiabilitate (mărimi care exprimă
fiabilitatea unui sistem);
2. estimarea fiabilităţii utilizând media timpului rămas de funcţionare;
3. studiul fiabilităţii sistemelor pe baza schemelor logice de fiabilitate.

Exemplul L8.1. Un eşantion de n=10 supape ale unor sisteme hidraulice speciale sunt
supuse unei testări de fiabilitate, timpul fixat fiind T=2000 ore.
După epuizarea perioadei T au rămas în stare de bună funcţionare doar două supape. În
ipoteza unui model exponenţial, calculaţi:
a) durata medie de funcţionare a elementelor considerate
b) rata de defectare
c) probabilitatea ca supapele să funcţioneze fără defecţiuni cel puţin 500 ore.
Supapa Timpii de bună funcționare ai celor 8 supape
1 100
2 170
3 250
4 400
5 520
6 680
7 1200
8 1500
Rezolvare
O variabilă exponenţială X ~ Exp   are funcţia densitatea de probabilitate din relaţia
(3.19) şi funcţia de repartiţie definită în (3.20):
a) Dacă presupunem că supunem unei încercări de fiabilitate n elemente de acelaşi tip,
înregistrând timpii de bună funcţionare t1 ,, tn până la căderea fiecărui element şi

fixăm un timp de testare T0 mai mic decât viaţa reală a produselor, în care cad m  n
elemente (nu este obligatoriu să se defecteze toate cele n elemente supuse încercării)
atunci durata medie de funcţionare este dată de formula:
1m 
M T     ti  n  mT0  ’
m  i 1 

218
MODELARE SIMULARE
Aşadar,
100  170    1500  10  8  2000 8820
M T     1102.5  1103 ore .
8 8
b) Rata de defectare h(t) este probabilitatea de defectare în jurul unui moment dat t,
condiţionată de buna funcţionare a produsului până în acel moment:

f (t )  e t  e t 1 8
h(t )        0.0009 căderi/ oră
F (t ) 1  F (t ) e  t M T  8820

c) Probabilitatea de supravieţuire se notează F ( t ) sau R( t ) şi se defineşte (vezi partea


I) prin:
F (t )  P(T  t )  1  F (t ) ,
unde F ( t ) şi f ( t ) sunt funcţia de repartiţie, respectiv, densitatea de repartiţie a variabilei
aleatoare T. R( t ) semnifică probabilitatea ca un sistem sau o componentă a acestuia să fie în
stare de funcţionare la momentul t sau probabilitatea să funcţioneze fără să se defecteze un
timp mai mare decât t .
Deci:

F (500)  P(T  500)  1  F (500)  e 500  e 5000.0009  0.64


Exemplul L8.2. S-au observat un număr de 74 autovehicule pe durata a 25000 km, cât
reprezintă perioada de garanţie.
Datele, în ordinea producerii ieşirilor din funcţionare se prezintă în tabelul următor:
Autovehicul ti Autovehicul ti
1 130 38 10410
2 200 39 11091
3 228 40 11300
4 412 41 11600
5 430 42 12010
6 540 43 12450
7 750 44 12450
8 750 45 12450
9 830 46 12600
10 965 47 12800
11 1000 48 13600
12 1434 49 14080
13 1635 50 15190
14 1981 51 15700
15 2040 52 15700
16 2040 53 15870
17 2280 54 15910
18 2400 55 15980

219
MODELARE SIMULARE
19 2830 56 16102
20 2901 57 16540
21 2901 58 16600
22 4380 59 17090
23 5140 60 17100
24 5400 61 17120
25 5611 62 17600
26 5900 63 17600
27 6012 64 19130
28 7200 65 19300
29 7200 66 19400
30 7510 67 19400
31 8200 68 21320
32 8430 69 22040
33 9000 70 22040
34 9060 71 22800
35 9111 72 23130
36 9613 73 23130
37 9710 74 23900
Să se estimeze fiabilitatea acestui sistem, utilizând media duratei rămase de funcţionare.
Rezolvare
Pasul 1. Determină o estimaţie a funcţiei media timpului rămas de funcţionare L(t),
evaluată la momentul t  ti , pe baza datelor observate este dată de:

Lˆ (ti )  ˆ n i  ti , i  0, 1, 2, ... , n  1 .

function miu=TimpRamas(n,t,i)
s=0;
for j=i+2:n
s=s+t(j);
end
miu=s/(n-i-1);
end

fid=fopen(’datta.txt’,’r’)
t=fscanf(fid,’%f\t’,[1,74]);
fclose(fid);
n=73;
for i=0:n-1
miu(i+1)= TimpRamas(n+1,t,i); L(i+1)= miu(i+1)-t(i+1);
end

220
MODELARE SIMULARE
Pasul 2. Pentru perechile
t , Lˆt  , i  1, n  1
i i

se determină expresia analitică a dependenţei cu metoda celor mai mici pătrate (folosind
Excel-ul).

Pasul 3. Se estimează fiabilitatea după t *  2400 km, cu relaţia


t * 1 L ( x )
  dx
F (t * )  e 0 L( x)
.

2
l(x)  0.0000004
 x  0.4684x
  11236

d
1 l ( x)
dx
h ( x) 
l ( x)

24 00

 h( x) d x

0
e  0.887

Observaţia L8.3. Probabilitatea de bună funcţionare a unui sistem este cu atât mai mare,
cu cât durata de funcţionare este mai mică.
Exemplul L8.4. Fie un sistem serie alcătuit din 4 componente, pentru care ratele de
defectare sunt:
1  0.1106 , 2  0.2 106 , 3  4  0.5 106 ,
distribuţia fiind considerată exponenţială.

221
MODELARE SIMULARE
Calculaţi probabilitatea de bună funcţionare (deci fiabilitatea) a sistemului la momentul
t  100000 .

Rezolvare
Sistemele de tip serie se caracterizează prin aceea că defectarea unui element component
determină ieşirea din funcţiune a întregului sistem, adică sistemul funcţionează dacă şi numai
dacă toate elementele sistemului funcţionează.
Probabilitatea de bună funcţionare a unui sistem serie se calculează conform formulei:
n
Rs t   R1 t   R2 t     Rn t    Ri t . (L8.1)
i 1

Pentru cazul exponenţial, formula precedentă devine:


n
  i t
n 6
Rs t    i e  i t  e i 1  e 1.310  0.8781.
i 1

Exemplul L8.5. Se consideră un sistem paralel, a cărui primă componentă, cu fiabilitatea


R1 t   0.9 la defectare este înlocuită cu rezerva sa, a doua componentă, identică cu prima
(deci cu fiabilitatea R2 t   0.9 ).
Rezolvare
Sistemele de tip paralel se caracterizează prin aceea că defectarea unui element
component nu determină defectarea sistemului, întrucât la defectarea unei componente intră în
funcţiune componenta legată în paralel cu cea defectată, numită componenta de rezervă.
Deoarece sistemul poate funcţiona cu cel puţin un element, acesta conduce la un grad
ridicat de fiabilitate.
Probabilitate de bună funcţionare a unui sistem paralel se calculează conform formulei:
n
Rp t   1  Fs t   1   1  Ri t . (L8.2)
i 1

În cazul sistemului considerat fiabilitatea este:


Rp t   1  Fs t   1  1  0.9  0.99.
2

Exemplul L8.6. Să se scrie un program Matlab care să analizeze comportarea unui sistem
serie cu 4 componente, având fiabilitatatile 0.7, 0.85, 0.9, 0.92.

222
MODELARE SIMULARE
N=4000; p1=0.7; p2=0.85; p3=0.9; p4=0.92;
F1=rand(n,1); F2=rand(n,1); F3=rand(n,1); F4=rand(n,1);
F=find(F1<=p1 & F2<=p2 &F3<=p3 & F4<=p4 );
N=length(F);
F=N/n;

223
MODELARE SIMULARE

L9. LECŢIA DE LABORATOR 9. SERII DE TIMP

Această lecţie de laborator are drept scop realizarea unui exemplu practic de construcţie a
modelelor seriilor de timp utilizând metodologia de modelare Box-Jenkins

Exemplul L9.1. Se consideră o serie de timp, care reprezintă valoarea producţiei lunare
de ţiţei ale unei sonde, înregistrată într-o anumită perioada de timp (reprezentată în figură).

Se cere:
a) Să se calculeze media şi dispersia corespunzătoare seriei de timp;
b) Să se reprezinte grafic funcţia de autocorelaţie şi funcţia de autocorelaţie parţială
estimate ale seriei;
c) Să se modeleze seria de timp respectivă;
d) Să se realizeze predicţia valorilor viitoare ale acestei serii.

Rezolvare
a) Analizând reprezentarea grafică a datelor seriei de timp considerată se poate
observa:
- o tendinţă descrescătoare, ce poate fi justificată prin exploatarea îndelungată a
zăcământului;
- apariţia unor variaţii aproximativ periodice, în jurul tendinţei, care marchează
prezenţa unui pattern sezonier în date. Factorii care influenţează apariţia
acestui pattern sunt: variaţia vâscozităţii ţiţeiului şi a capacităţii de extracţie cu
temperatura mediului.
Se obţine: media=41.90375 iar dispersia=107.2626.
b) Funcţia de autocorelaţie estimată este:

224
MODELARE SIMULARE

 x  x x 
nk

t t k x
ˆ k  t 1
, k  0,1, 2, 
 x  x 
n 2
t
t 1

iar funcţia de autocorelaţie parţială estimată se calculează folosind ecuaţiile recursive:


ˆ  ˆ
 11 1
k 1


ˆ
ˆ k  
j 1
ˆj , k 1  ˆ k  j
kk  k 1
, k  2, 3, 
 1    j , k 1   j
ˆ ˆ
 j 1

ˆ ˆ ˆ ˆ
kj  k 1, j  kkk 1, k  j , j  1, 2,  , k  1, k  3, 4, 

Deoarece funcţia de autocorelaţie estimată nu se amortizează tinzând către 0, ea reflectă


nestaţionaritatea (în medie) datelor seriei.
c) Tendinţa înregistrată în cadrul seriei de timp şi respectiv pattern-ul sezonier al
datelor pot fi eliminate utilizând diferenţierea.
Seria rezultată în urma diferenţierii de ordinul întâi a datelor originale este:
zt  zt  zt 1  1  B zt ,

unde B este operatorul de întârziere:


Bzt  zt 1

225
MODELARE SIMULARE
şi este reprezentată în figura de mai jos:

Funcţia de autocorelaţie estimată şi respectiv funcţia de autocorelaţie partială estimată


corespunzătoare seriei diferenţelor de ordinul întâi se amortizează tinzând la zero:

Modelul seriei de timp considerată poate fi modelul ARIMA (auto regresiv integrat şi de
medie alunecătoare):
1   B   B
1 2
2
 ...   p B p zt  at ,

adică:

226
MODELARE SIMULARE

1   B   B
1 2
2
 ...   p B p 1  B zt  at .

Deoarece valorile cele mai mari ale funcţiei de autocorelaţie estimată a seriei diferenţelor
corespund întârzierilor 1 şi 18 rezultă modelul ARIMA:

1  1B  18 B18 1  Bzt  at ,


deoarece trebuie amortizate aceste două valori.

d) Modelul ARIMA poate fi scris sub formă echivalentă:


at
zt  1 zt 1  18zt 17  ;
1 B
sistemul Yule-Walker va deveni:
ˆ1  1  18ˆ17

ˆ18  1ˆ17  18
adică
1  1  0.2685  18 1  1.0007
 
0.2661  0.2685  ˆ17  18 18  0.0026
Deci, modelul ARIMA va fi:
1  1.0007B  0.0026B 1  Bz 18
t  at
Testarea staționărităţii modelului pe baza funcţiei de autocorelaţie se realizează nu numai
vizual ci şi teoretic, utilizând testul Q (Box- Pierce), care presupune verificarea ipotezei:
0 : ˆ1  ˆ 2    ˆ k  0

pe baza statisticii:
K
QK   n ˆ k   K2 ,
2

k 1

n fiind numarul datelor seriei disponibile după diferenţiere.


Dacă la un prag de semnificaţie 𝛂:
QK   2 ,K

atunci ipoteza se respinge în sensul că cel puţin una dintre valorile coeficienţilor de
autocorelaţie diferă semnificativ de 0.
Altfel, ipoteza se acceptă, iar seria este considerată staţionară.

227
MODELARE SIMULARE
Programul Matlab asociat exemplului este următorul:

fid=fopen('datele.txt','r');
y=fscanf(fid,'%f\t',[1,80]);
fclose(fid);
n=80;
m=mean(y);v=var(y);
t=1:80;
figure(1);
plot(t,y,'-ob');
title('Productia de titei a sondei');
figure(2);
subplot(2,1,1);
autocorr(y,20);
subplot(2,1,2);
parcorr(y,20);
for i=2:n
yy(i-1)=y(i)-y(i-1);
end
figure(3)
t1=1:79;
figure(3);
plot(t1,yy,'-or');
title('Seria diferentelor de ordinul intai');
figure(4);
subplot(2,1,1);
autocorr(yy,20);
subplot(2,1,2);
parcorr(yy,20);
u=autocorr(yy,20)

228
MODELARE SIMULARE
u=
Columns 1 through 6
1.0000 -0.3827 0.0966 -0.1399 0.0538 0.0596
Columns 7 through 12
-0.1551 0.1641 -0.1751 -0.1253 0.1773 -0.1239
Columns 13 through 18
0.0654 -0.0055 0.0081 0.0292 -0.1564 0.2157
Columns 19 through 21
-0.2466 0.1375 0.1133
A=[1 u(17); u(17) 1];
b=[u(1) u(18)]';
phi=inv(A)*b

229
MODELARE SIMULARE

L10. LECŢIA DE LABORATOR 10. MODELAREA CU AJUTORUL


REŢELELOR PETRI

Scopul acestei lecţii de laborator constă în realizarea unui exemplu practic de modelare a
unei probleme practice cu ajutorul reţelelor Petri.

Exemplul L10.1. În exemplul nostru, este pornita o cursă între două maşini A şi B. Atunci
când starterul primeşte semnul de „gata” de la toate maşinile, el dă semnalul de pornire, iar
maşinile încep cursa.

Fig. L10.1. Pornirea unui curse cu 2 maşini


Modelarea problemei
Alocarea locurilor:
 P1 respectiv P10 - maşina A şi respectiv B este pregatită pentru start;

 P2 respectiv P11 - maşina A şi respectiv B aşteaptă începerea cursei;


 P3 respectiv P12 - cursele corespunzătoare maşinilor A şi respectiv B;

 P4 respectiv P8 - semnul de „gata” corespunzător maşinilor A şi respectiv B;

 P5 respectiv P9 - semnalul de start corespunzător maşinilor A şi respectiv B;

 P6 - starterul aşteaptă semnul de „gata” (de la maşini);

 P7 - semnalul de start al starterulului pentru începerea cursei.


Tranziţiile reprezintă trecerea dintr-o stare în alta:

230
MODELARE SIMULARE

 T1 respectiv T4 - transmiterea semnului de „gata” către starter de către maşinile A şi


respectiv B;
 T2 respectiv T5 - începerea cursei de către maşinile A şi B;

 T3 - starterul dă semnalul de începere a cursei.

P1 T1 P2 T2 P3

P5
P4

P6 T3 P7

P9
P8

P10 T4 P11 T5 P12

Fig. L10.2. Reţeaua Petri asociată exemplului considerat

În starea iniţială se află câte un jeton în locurile P1 , P6 şi P10 iar tranziţiile T1 , T3 , T4 sunt
activabile.
Vom presupune că evaluarea fiecărui arc este 1. Prin execuţia tranziţiei T1 se iau jetoanele
din P1 şi se pune unul în P4 , iar celălalt în P2 , în timp ce prin execuţia tranziţiei T4 se iau
jetoanele din P10 şi se pune unul în P8 , iar celalalt în P11 (Fig. L10.3).

P1 T1 P2 T2 P3

P5
P4
P6 T3 P7

P9
P8
P10 T4 P11 P12
T5

Fig. L10.3. Rezultatul execuţiei tranziţiilor T1 și T4


Atunci când se execută tranziţia T3 se ia jetonul din P6 şi se pune un jeton în P7 , jetonul
din P4 se pune în P5 , iar jetonul din P8 se pune în P9 (Fig. L10.4).

231
MODELARE SIMULARE

P1 T1 P2 T2 P3

P5
P4

P6 T3 P7

P9
P8
P10 T4 P11 T5 P12

Fig. L10.4. Rezultatul execuţiei tranziţiei T3

Execuţia tranziţiei T2 determină scoaterea jetoanelor din P2 şi respectiv P5 şi punerea

unui jeton în P3 ; similar, execuţia tranziţiei T5 determină scoaterea jetoanelor din P9 şi

respectiv P11 şi punerea unui jeton în P12 .

P1 T1 P2 T2 P3

P5
P4

P6 T3 P7

P9
P8
P10 T4 P11 T5 P12

Fig. L10.5. Rezultatul execuţiei tranziţiilor T2 şi T5

Exemplul prezentat poate fi rezolvat folosind Visual Simnet, în felul următor:

Pasul 1. Proiectarea reţelei Petri (vezi Fig. L10.6)

232
MODELARE SIMULARE

Fig. L10.6. Proiectarea reţelei Petri


Pasul 2. Simularea modelului pe care aceasta îl reprezintă (vezi Fig. L10.7)

Fig. L10.7. Simularea modelului pe care îl reprezintă reţeaua Petri


În final, rezultă:

233
MODELARE SIMULARE

PARTEA A III-A. EVALUAREA CUNOŞTINŢELOR LA DISCIPLINA


MODELARE SIMULARE

1. Întrebări

1. Ce se înţelege prin sistem în sensul acestei discipline?


2. Dar prin sistem de producţie?
3. Ce se întelege prin proces de producţie în sensul acestei discipline?
4. Ce este un model în sensul acestei discipline ?
5. Ce se întelege prin variabile de decizie?
6. Dar prin variabile exogene?
7. Ce reprezintă restricţiile unui model?
8. Cum se măsoară performanţele unui model?
9. Care este rolul variabilelor intermediare într-un model?
10. Care sunt etapele necesare realizării unui model?
11. Enumeraţi modalităţi de realizare a programului de simulare.
12. Ce se întelege prin funcţie empirică de repartiţie?
13. Ce este histograma ?
14. Ce se întelege prin statistică ?
15. Ce înseamnă estimator al unui parametru al unei repartiţii de probabilitate?
16. Care este principiul metodei verosimilităţii maxime?
17. Ce este un estimator nedeplasat? Exemplu.
18. Ce înseamnă abaterea medie patratică ? Exemple de estimatori.
19. Ce reprezintă volumul populaţiei ?
20. Ce tipuri de erori pot afecta datele rezultate din măsuratori ?
21. Ce reprezintă un test statistic?
22. Ce înseamnă ipoteza statistică?
23. Când se foloseşte testul Chauvenet?
24. Când se foloseşte testul Young?
25. Când se foloseşte testul Massey?
26. Cvnd se foloseşte testul 2?
27. Ce se întelege prin Simulare Monte Carlo?
28. Care este principiul Metodei Monte Carlo brute?

234
MODELARE SIMULARE
29. Daţi exemple de aplicaţii ale metodei Monte Carlo.
30. Ce tip de fenomene se modelează cu repartiţia Poisson?
31. Când este indicat să se modeleze un fenomen cu repartiţia geometrică?
32. Când este indicat să se modeleze fenomene cu repartiţii de tip Gumbel?
33. Ce fenomene pot fi modelate cu repartiţia uniformă (fie caz discret, fie continuu)?
34. Cum se obţin, pornind de la variabile normale standard, variabile de tip 2 cu n grade
de libertate?
35. Cum se obţin, pornind de la variabile normale standard, variabile de tip Student cu n
grade de libertate?
36. Cum se obţin, pornind de la variabile normale standard, variabile de tip Fisher-
Snedecor cu n1,n2 grade de libertate?
37. Ce se întelege prin funcţie de regresie?
38. Care este principiul metodei celor mai mici pătrate ?
39. Ce soft-ware cunoaşteţi pentru a determina forma funcţiei de regresie uni-variabilă?
40. Cum se stabileşte calitatea aproximării date de o funcţie de regresie?
41. Ce este o reţea Petri?
42. Ce înseamnă tranziţie de intrare?
43. Dar de iesire?
44. Ce inseamna loc de intrare?
45. Dar de ieşire ?
46. Ce se întelege prin evaluarea unui arc ?
47. Ce reprezintă matrice de incidenţă?
48. Ce se întelege prin marcajul unei reţele Petri?
49. Ce înseamnă reţea Petri marcată?
50. Cand tranziţie a unei reţele Petri este activabilă (executabilă sau sensibilizată)?
51. Care sunt regulile de evoluţie într-o reţea Petri?
52. Ce înseamnă reţea Petri temporizată? In modelarea componentelor sistemelor, ce
reprezintă tranziţiile?
53. Ce înseamnă retea Petri temporizată? În modelarea componentelor sistemelor, ce
reprezintă locurile?
54. Ce reprezintă o serie de timp sau serie dinamică sau serie cronologică?
55. Când o serie de timp este numita serie de timp continuă?
56. Când o serie de timp este numita serie de timp discretă?

235
MODELARE SIMULARE
57. Când o serie de timp este numita serie de timp eşantionată?
58. Când o serie de timp este numită serie de timp cumulată sau integrată?
59. Când o serie de timp este staţionară?
60. Ce metodologie de analiză a seriilor de timp cunoaşteţi?
61. Care este obiectivul principal al analizei Box-Jenkins?
62. Care sunt etapele de modelare ale metodologiei Box-Jenkins?
63. Ce se întelege prin proces de timp liniar?
64. Ce înseamnă staţionaritatea unui proces liniar?
65. Cum se defineşte spectrul de putere al procesului?
66. Când un proces liniar este inversabil?
67. Cum se defineşte un proces autoregresiv AR(1) şi AR(2) ?
68. Cum se defineşte un proces de medie alunecătoate MA(1) şi MA(2) ?
69. Cum se defineşte un proces autoregresiv şi de medie alunecătoate ARMA(1,1) şi
ARMA(2,2) ?
70. Ce este un proces nestationar autoregresiv integrat şi de medie alunecătoate
ARIMA(p,d,q) ?

2. Probleme propuse

1. Folosind Matlab să se calculeze:

a) lg cos 320.39

b) 122012006 : 14426
c) produsul mixt al vectorilor

a  2i  j  k , b  3i  2 j  k , c   j  2k .

2. Să se reprezinte grafic în Matalab arcul de elice:



 x  R cos u

 y  R sin u , u  0, 2  .
 a
z  u
 2

3. Să se reprezinte în Matlab graficul solidului cuprins între paraboloidul x 2  y 2  az ,

cilindrul x 2  y 2  2ax şi planul z  0 ( a  0 const ).

236
MODELARE SIMULARE
4. O selecţie de volum n  11 asupra unei caracteristici X, privind rezistența la un cutremur
a condus la următoarele valori: 30, 25, 41, 30, 7, 16, 41, 70, 20, 16, 78. Să se verifice, la
un prag de semnificaţie 1    0.05 , ipoteza conform căreia caracteristica X este o
variabilă aleatoare normală.
5. Să se descrie o metodă de simulare a unei variabile aleatoare continuă X, având funcţia
densitate de probabilitate

 
0.75  1  x 2 , x   1,1
f x   
0, altfel
şi apoi să se implementeze pe calculator.
6. Să se verifice algoritmul pe baza căruia s-a simulat variabila aleatoare continuă X, de la
problema precedentă, prin construirea histogramei şi să se compare histograma cu
graficul funcţiei densitate de probabilitate.
7. Să se construiască o funcţie Matlab pentru a genera o variabilă aleatoare discretă, care să
reprezinte numărul de feţe stemă obţinute la aruncarea a 3 monede.
8. Să se verifice algoritmul pe baza căruia s-a simulat variabila aleatoare discretă, de la
problema precedentă, prin construirea histogramei şi compararea acesteia cu graficul
funcţiei densitate de probabilitate.
9. Să se verifice dacă eşantionul
8.02 8.16 3.97 8.64 0.84 4.46 0.81 7.74 8.78 9.26 20.46 29.87 10.38 25.71
rezultat prin realizarea a 14 măsurători a unui parametru corespunzător unei piese are
valori aberante şi dacă există, să se elimine!

237
MODELARE SIMULARE

BIBLIOGRAFIE

1. Anastassiou, G., Iatan, I., “Modern Algorithms of Simulation for Getting Some
Random Numbers”, Journal of Computational Analysis and Applications, Vol. 15,
No. 7, 2013, pp. 1211-1222.
2. Armeanu, I., Petrehuş, V., Probabilităţi şi statistică aplicate în biologie, Editura
MatrixRom, Bucureşti, 2006.
3. Baicu, F., Elemente de fiabilitate, Editura Victor, Bucureşti, 2005.
4. Brockwell, P. J., Davis, R. A., Time Series: Theory and Methods, Springer-Verlag,
1987.
5. Chakraborty, R.C., Fundamentals of Neural Networks, 2010,
http://www.myreaders.info/html/artificial intelligence.html.
6. Ciucu, G., Craiu, V., Ştefănescu, A., Statistică matematică şi cercetări
operaţionale, Editura Didactică şi Pedagogică, Bucureşti, 1974.
7. Colojoară, A., Serii de timp, Editura Universităţii din Bucureşti, 2007.
8. Costescu, M. R., “Identifying Data Affected by Aberrant Errors. Applied Program”,
1 (45) 2008, pp. 52-55.
9. Dumitrescu, R., Principiile matematice ale teoriei clasificării, Ed. Academiei
Române, Bucureşti 1999.
10. Edwards, D. , Hamson, M., Guide to Mathematical Modelling, Industrial Press, Inc.
New York, 2007.
11. Fuller, R., Introduction to Neuro- Fuzzy Systems, New York, Physica- Verlag,
Heidelberg, 2000.
12. Gentle, J. E., Random Number Generation and Monte Carlo Methods, Springer-
Verlag, 2003.
13. Girault, C., Valk, R., Petri Nets for Systems Engineering, Springer-Verlag, 2001.
14. Gheorghe, B., Modele de simulare cu aplicaţii in fiabilitate, Editura Tehnică,
Bucureşti, 1992.
15. Ghinea, M., Fireţeanu, V., Matlab: Calcul numeric-Grafică-Aplicaţii, Editura
Teora, Bucureşti, 1998.
16. Girault, C., Valk, R., Petri Nets for Systems Engineering. A Guide to Modelling,
Verification, and Applications, Springer-Verlag, 2001.
17. Groza, G., Analiză numerică, Editura Matrix Rom, Bucureşti, 2005.

238
MODELARE SIMULARE
18. Iatan, I., Sisteme neuro-fuzzy pentru recunoaşterea formelor, prima teză de doctorat,
Facultatea de Electronică, Telecomunicaţii şi Tehnologia Informaţiei- UPB,
conducător ştiinţific: Prof. dr. Victor Neagoe, 2003.
19. Iatan, I., Îndrumător de laborator în Matlab 7.0, Editura Conspress, Bucureşti, 2009.
20. Iatan, I., de Rijke, M., „Using a Fuzzy Neural Network to Predict Human
Personality from Social Media”, trimis spre publicare în 2013 la Artificial
Intelligence.
21. Isaic-Maniu, Al., Vodă, V. Gh., Fiabilitatea-şansă şi risc, Editura Tehnică,
Bucureşti, 1986.
22. Karian, Z. A., Tanis, E. A., Probability and Statistics. Explorations with Maple,
second edition, Pearson Prentice Hall, New Jersey, 2008.
23. Knuth D. E., Arta programării calculatoarelor vol.2, Algoritmi seminumerici,
Editura Teora, București, 2000.
24. Leondes, C. T., Fuzzy Logic and Expert Systems Applications, San Diego, Academic
Press, 1998.
25. Lin, L., Sherman, P. D., “Cleaning Data the Chauvenet Way”, SAS Conference
Proceedings: Western Users of SAS Software 2007, San Francisco, California.
26. Lixăndroiu, D., Fiabilitatea sistemelor, Editura Dacia, 2001.
27. Măruşteri, M., Noţiuni fundamentale de biostatistică. Note de curs. University
Press, Târgu Mureş, 2006,
http://www.umftgm.ro/info/Curs_Notiuni_fundamentale.pdf.
28. Mihoc, Gh., Muja, A., Diatcu, E., Bazele matematice ale teoriei fiabilităţii, Editura
Dacia, Cluj-Napoca, 1976.
29. Neagoe, V. E., Iatan, R., Iatan, I., “A Nonlinear Neuro- Fuzzy Model for Prediction
of Daily Exchange Rates”. Proceedings of the Sixth Biannual World Automation
Congress (WAC) and ISSCI 2004, pp. 574–578.
30. Neagoe, V. E., Stănăşilă, O., Teoria recunoaşterii formelor, Bucureşti, România,
Ed. Academiei, 1992.
31. Neagoe, V. E., Stănăşilă, O., Recunoaşterea formelor şi reţele neurale, Bucureşti,
România, Ed. Matrix Rom, 1999.
32. Papadopoulou, M., Nonlinear Time Series Forecasting using Neural Networks and
Fuzzy System Techniques, Dissertation submitted for the MSc in Mathematics with
Modern Applications Department of Mathematics University of York, UK.

239
MODELARE SIMULARE
33. Păltineanu, G., Matei, P. Trandafir, R., Bazele Analizei Numerice, Editura
Printech, 2001.
34. Petrehuş, V., Popescu S. A., Probabilităţi şi Statistică, Tipografia UTCB, 1997.
35. Popescu, Th., Demetriu, S., Practica modelării şi predicţiei seriilor de timp-
Metodologia Box-Jenkins, Editura Tehnică, Bucureşti, 1991.
36. Popescu, T., Serii de timp. Aplicaţii în analiza sistemelor, Editura Tehnică,
Bucureşti, 2000.
37. Tang, T., 2012. Environmental and Geophysical data analysis. Lecture Notes,
University of Northern BC. http://web.unbc.ca/~ytang/
38. Toma, I., Iatan, I., Analiză numerică. Curs, aplicaţii, algoritmi în pseudocod şi
programe de calcul, Editura Matrix Rom, Bucureşti, 2005.
39. Trandafir, R., Modele şi algoritmi de optimizare, Editura AGIR, 2004.
40. Tutunea, I., Algoritmi, logică şi programare, Reprografia Universităţii Craiova,
1993.
41. Uehara, K., Fujise, M., “Learning of Fuzzy Inference Criteria with Artificial Neural
Network”, Proc. 1st Int. Conf. on Fuzzy Logic and Neural Networks, Japan, 193–198,
1990.
42. Umano, M., Ezawa, Y., “Execution of Approximate Reasoning by Neural Network”,
Proceedings of FAN Symposium, 267–273, 1991.
43. Văduva, I., Modele de simulare cu calculatorul, Editura Tehnică, Bucureşti, 1977.
44. Văduva, I., Fiabilitatea programelor, Editura Universităţii din Bucureşti, 2003.
45. Văduva, I., Modele de simulare, Editura Universităţii Bucureşti, 2004.
46. Vladimirescu, I., Probabilităţi şi statistică, Note de curs, Facultatea de Matematică
şi Informatică, Universitatea din Craiova, an III, 1995-1996.

240

View publication stats

S-ar putea să vă placă și