Sunteți pe pagina 1din 207

OPTIMIZAREA PROCESELOR TEHNOLOGICE.

Volumul 1. Aplicatii generale.

Dr. Ing. Leoveanu Ioan Sorin.

Ed. LuxLibris
2006
i

Prefaţă.

Lucrarea are ca scop cunoaşterea metodelor statistice utilizate la obţinerea relaţiilor


matematice care aproximează cât mai corect procese tehnologice complexe şi utilizarea
acestora la optimizarea proceselor tehnologice.
Pentru a realiza scopul propus s-au analizat probleme legate de prelucrarea datelor
experimentale şi programarea experienţelor, obţinerea relaţiilor statistice de calcul şi
modul de stabilire a nivelului de încredere în acestea.
Pentru analiza proceselor complexe, neliniare, care sunt funcţie de mai multe variabile
parametru, pe lângă metodele regresiilor clasice şi analiza dispersională şi de corelaţie s-
a abordat şi metoda experienţelor factoriale pentru programe de gradul I şi II.
Odată obţinute relaţiile matematice ca şi domeniul de definiţie al variabilelor parametru
pentru care acestea au gradul de încredere dorit problema optimizării tehnologiei devine
o problemă „pură” de optimizare matematică. Având în vedere particularităţile relaţiilor de
aproximare obţinute prin metode satatisticii matematice în cazul tehnologiilor de sudură,
s-a optat pe divizarea acestora în probleme de optimizare patratică pentru relaţiile
obţinute în urma experimentelor factoriale şi într-un capitol separat s-au analizat metode
moderne de optimizare care se pretează cu uşurinţă utilizării metodelor numerice cu şi
fără calculul gradienţilor acestor relaţii.
În scolul unei cât mai uşoare înţelegeri a modelului matematic, acesta a fost însoţit de un
număr foarte mare de exemple în cea mai mare parte axate pe experienţa autorului în
domeniul proiectării tehnologiilor de sudură prin topire.
Problema optimizării proceselor tehnologice procupă în ultimul timp un număr tot mai
mare de specialişti angrenaţi în activitatea de oţinere a unei caltăţi sporite a produselor
executate la un preţ cât mai competitiv şi care să răspundă unor condiţii de producţie din
ce în ce mai restrictive din punct de vedere al protecţiei mediului. Din această cauză s-au
introdus pe lângă exemplele ce ilustrează fiecare subcapitol sau metodă în parte şi unele
facilităţi de programare care constau în funcţii des utilizate, scrise în C/C++ şi testate şi
modificate de autor, care răspund unor cerinţe de optimizare cu grad mare de
generalitate.
Prin modul de abordare a problematicii complexe impusă de asigurarea competitivităţii
produselor tehnologice, lucrarea se adresează atât specialiştilor cât şi studenţilor care
urmăresc cunoaşterea şi aplicarea acestor metode.

Autorul.
ii

Cuprins.

Capitolul 1. Prelucrarea datelor experimentale şi programarea 1


experienţelor.
1.1 Introducere 1
1.2.1. Condensarea datelor statistice. 3
1.3. Mãrimi centrale (centripete) ale populaţiilor. 10
1.3.1.Media aritmeticã 10
1.3.2. Media geometricã 10
1.3.3. Media armonicã 11
1.3.4. Intervalul mediu 11
1.3.5. Medianul 12
1.3.6. Modulul 13
1.4. Mãrimi centrifuge ale populaţiilor. 13
1.4.1. Intervalul 14
1.4.2. Varianţa populaţie 14
1.4.3. Varianţa eşantionului 14
1.4.4. Deviaţia standard la populaţie 15
1.4.5. Deviaţia standard la eşantion 15
1.4.6. Coeficientul de variaţie pentru populaţie 15
1.4.7. Coeficientul de variaţie pentru eşantion 15
1.4.7. Deviaţia medie faţã de o valoare datã 15
1.4.8. Eroarea standard a mediei 15
1.4.9 Observaţii privind importanţa mediei aritmetice şi a dispersiei în procesul
de mãsurare. 17
1.5. Intervale de confidenţã şi de toleranţã ale unor mãrimi statistice. 19
1.5.1. Introducere. 19
1.5.2 Calculu intervalului de confidenţã al mediei. 19
1.5.2.1. Intervalul bilimitat al eşantionului IC1 20
1.5.2.2. Intervalul monolimitat IC2 20
1.5.2.3. Intervalul de încredere bilimitat, IC3 , privind diferenţa mediilor a douã 20
eşantioane.
1.5.2.4. Intervalul de confidenţã monolimitat, IC4 , a diferenţei mediilor a douã 22
populaţii.
1.5.2.5. Intervalul de toleranţã IT 22
1.5.2.6. Cazul populaţiei având distribuţie normalã. 22
1.5.2.7 Cazul în care populaţia se abate de la normalitate 24
1.5.3. Calculul intervalelor de confidenţã IC pentru varianţa populaţiei VPo şi 26
pentru abaterea standard σ.
1.5.3.1. Intervalul de confidenţã bilimitat , IC6 ,al varianţei s2. 26
1.5.3.2. Intervalul de confidenţã monolimitat , IC7 ,al varianţei s2 27
1.5.3.3 Calculul intervalului bilimitat, IC8 , al raportului dintre douã abateri 27
standard.
1.5.3.4. Calculul intervalului monolimitat,IC9, al raportului dintre douã abateri 28
standard.
1.6. Ipoteze statistice 29
1.6.1. Introducere. 29
1.6.2. Ipoteze destinate testãrii mãrimilor centrale ale populaţiilor şi 29
eşantioanelor
1.6.2.1. Ipoteza I1: 29
1.6.2.2. Ipoteza I2 30
1.6.3. Testarea ipotezelor asupra mãrimilor centrifuge ale populaţiilor. 31
iii

1.6.3.1.Ipoteza I3 31
1.6.3.1. Ipoteza I4 32
1.6.4 Testarea ipotezelor asupra mediilor şi varianţelor a douã populaţii. 33
1.6.4.1 Ipoteza I5 33
1.6.4.2 Ipoteza I52 34
1.6.4.3 Ipoteza I53 35
1.6.5. Ipoteza I6 36
1.6.6. Ipoteza I7 37
1.6.7. Ipoteza I8 38
1.6.8 Testarea ipotezelor ce se referã la mediile şi varianţele ce aparţin mai
multor populaţii. 39
1.6.8.1. Ipoteza I9: 39
1.6.8.2. Ipoteza I10: 41
1.6.8.3. Ipoteza I11: 43
1.7. Alegerea parametrilor şi variabilelor de stare ale obiectului cercetării. 44
Programarea experienţelor.
1.7.1. Consideraţii generale. 44
1.7.2. Modul de determinare al variabilelor de stare. 44
1.7.3. Alegerea parametrilor procesului. 44
1.7.4. Experimentul preliminar. 44
1.7.5. Analiza dispersională. 45
1.7.5.1. Analiza dispersională a fenomenelor ce depind de un singur 45
parametru.
1.7.5.2. Analiza dimensională multifactorială sau multiparametru. 48
1.7.6. Analiza de corelaţie. 55
1.7.6.1. Covarianţa a două variabile aleatoare. 55
1.7.6.1.Corelaţia multiplă. 55
1.7.6.2.Corelaţia parţială. 56
1.7.6.3.Verificarea semnificaţiei coeficienţilor de corelaţie. 57

Capitolul 2. Tipuri de relaţii utilizate în analiza proceselor tehnologice.


61
2.1 Introducere.
2.2.1. Corelaţii liniare. 61
2.2.2 Regresia liniară. 62
2.2.3. Verificarea coeficienţilor legii de regresie. 63
2.2.4. Exemplul privind regresia liniară. 65
2.2.4.1. Organizarea experienţelor. 65
2.2.4.2. Concluzii privind exemplul analizat. 69
2.2.5 Tipuri de regresii derivate din regresia liniară 69
2.2.5.1. Regresia exponenţială. 70
2.2.5.2. Regresia geometrică. 72
2.3.Regresii şi corelaţii statistice neliniare. 74
2.3.1 Introducere. 74
2.3.2. Determinarea coeficienţilor legii. 75
2.3.3. Determinarea coeficientului de corelaţie. (Intensitatea corelaţiei). 76
2.3.4. Determinarea gradului optim al polinomului. 77
2.4 Regrasii funcţie de mai mulţi parametrii. 78
2.4.1. Introducere 78
2.4.2. Regresia liniară de mai mulţi parametrii 78
2.4.3. Regresia neliniară funcţie de mai mulţi parametrii 80
2.4.4. Etapele analizei de regresie. 81
2.4.4.1. Calculul coeficientului regresiei. 82
2.4.4.2. Calculul matricii C 82
iv

2.4.4.3. Determinarea dispersiilor legii 82


2.4.4.4. Testarea coeficienţilor legii 82

Capitolul 3. Modelarea matematică prin utilizarea experienţelor


factoriale. 99

3.1. Necesitatea utilizării acestei metode 99


3.2. Programe de ordinul I 100
3.2.1.Alegerea nivelurilor şi intervalelor de variaţie ale parametrilor 102
3.2.2. Proprietăţile matricei programării 104
3.2.3. Realizarea programului EFC 2n 105
3.2.4. Algoritm de calcul pentru EFC 2n 105
3.2.5. Calculul coeficienţilor interacţiunilor dintre parametrii în cazul unui 108
program EFC
3.3. Planuri de experimentare fracţionate. 109
3.4. Adoptarea deciziilor pe baza programelor şi subprogramelor de ordinul 112
întâi.
3.5. Programe de ordinul doi 113
3.5.1. Transformări asupra programelor EFC 2n BW 115
3.5.2. Transformarea într-un program rotabil de ordinul doi (PR2) 121
3.5.3. Adoptarea deciziilor pe baza programelor de ordinul doi. 128

Capitolul 4. Metode clasice destinate optimizării proceselor tehnologice. 130

4.1. Programe pătratice destinate optimizării proceselor tehnologice. 130


4.1.1. Introducere 130
4.1.2. Scopul programării pătratice. 131
4.1.3. Minimizarea unei funcţii pătratice pozitiv definite având restricţii 133
inegalităţi
4.2 Algoritmi de tip Newton-Raphson. 138
4.3 Metoda gradientului. 140

Capitolul 5. Metode numerice destinate determinării a optimului 148


proceselor tehnologice.

5.1. Optimizarea pentru funcţii de o variabilă. 149


5.1.1. Funcţii C destinate definirii domeniului şi căutării minimului. 152
5.2. Interpolarea cu funcţii parabolice şi utilizarea acesteia la metoda Brent 155
pentru funcţii de o singură variabilă.
5.2.1. Implementarea metodei, funcţia Brent. 156
5.3. Determinarea minimului pentru funcţii de o singură variabilă 159
utilizând prima derivată.
5.3.1. Implementarea funcţiei derivBrent. 160
5.4. Metoda simplexurilor pentru cazul funcţiilor de mai multe variabile. 162
5.4.1. Implementarea funcţiei Simplexuri. 165
5.5. Minimizarea utilizând metode bazate pe direcţii de căutare. 168
5.5.1. Metoda Powell pentru funcţii de mai multe variabile. 169
5.5.2. Implementarea funcţiei C linMin. 172
5.6. Metoda gradienţilor conjugaţi pentru funcţii de mai multe variabile. 174
5.6.1. Funcţia linMinDeriv_1 utilizând derivatele de ordinul întâi. 177
5.7. Metode bazate pe calculul derivatelor pentru variabile multidimensionale. 179
5.8 Programarea liniară. Metoda Simplx. 183
5.8.1. Terminologia specifică metodei. 184
5.8.2. Importanţa metodei. 184
v

5.8.3. Consideraţii de bază. 185


5.8.4. Metoda Simplex sub formă redusă. 186
5.8.5. Aducerea problemei generale la forma redusă. 187
5.8.6. Aducerea problemei generale la forma canonică. 190
5.8.6. Observaţii asupra implementării metodei. 192
5.8.7. Funcţii C destinate rezolvării problemelor de programare liniară cu 193
metoda simplex.

Bibliografie 199
vi
1
Capitolul 1.

Capitolul 1.

Utilizarea statisticii matamatice în analiza datelor încercãrilor tehnologice.

1.1 Introducere.

Statistica, este utilizatã în cadrul proceselor tehnologice, cu scopul de a


determina datele relevante pentru problema doritã, de a le prelucra, interpreta şi
prezenta sub o formã concisã spre utilizare.
Pentru a putea realiza aceste deziderate, sunt utilizate urmãtoarele concepte:

Universul statistic (Uv) - reprezintã totalitatea elementelor care au cel puţin o


caracteristicã comunã. Astfel, orice univers statistic poate fi încorporat într-un univers
mai mare sau poate fi divizat în universuri mai mici.

Populaţia statisticã (Po) - reprezintã un ansamblu de valori mãsurate, estimate


sau calculate ce se referã la o anumitã caracteristicã a elementelor din univers. Astfel,
caracteristicile comune ale elementelor din univers, pot fi apreciate cantitativ, rezultând
valori numerice, sau calitativ, rezultând atribute gradate, pentru fiecare membru al
populaţie.

Eşantionul statistic (Es) - reprezintã un element extras dintr-o populaţie, astfel


încât oricare alt membru al populaţie sã aibã aceeaşi probabilitate de a fi extras. La
extragerea eşantionului, este deosebit de importantã înlãturarea oricãrei preferinţe.
Astfel pentru cazurile complexe, programul de eşantionare este de regulã stabilit de maui
mulţi specialişti , sau, în cazurile unor analize mai puţin complexe, poate fi generat printr-
un proces de selecţie aleator al elementelor populaţiei (proces bazat pe un algoritm de
“randomizare”).

1.2.Datele statistice. Reprezintã datele primare obţinute în urma mãsurãtorilor sau


populaţieiilor asupra caracteristicilor elementelor (indivizilor) cuprinse în populaţie.
Aceste date sunt diferite de la un individ la altul, fapt ce conduce la fluctuaţa datelor
mãsurate. Dar în majoritatea cazurilor nu se lucreazã cu datele obţinute pe o întregã
populaţie, ci cu eşantioane extrase din aceastã populaţie. Utilizarea eşantioanelor dintr-o
anumitã populaţie are avantajul cã nu necesitã un numãr exagerat de mãsurãtori sau
observaţii, ceea ce conduce la micşorarea costului şi a timpului de mãsurare dar
conduce la inconveniente legate de precizia analizei statistice efectuate. Astfel cu cât
numãrul de elemente aflate într-un eşantion este mai ridicat şi rezultatele analizei se vor
apropia de cele obţinute prin analizarea întregii populaţii de elemente şi invers. În
inginerie, în general, dar îndeosebi în domeniul tehnologiilor de sudare, sunt însã cazuri
în care nu se pot efectua mãsurãtori asupra întregii populaţii, fiind indispensabilã
utilizarea eşantioanelor. Pentru a se stabili dacã datele obţinute pe eşantion sunt
normale, asupra acestora se utilizeazã diverse teste. Unul dintre cele mai utilizate fiind
testul Chauvenet. Test care poate fi exprimat astfel:

Dacã dintr-o populaţie Po este extras un eşantion Es format din n indivizi, care au
caracteristicile xi ; i = 1,2, .. , n ; atunci, calculând abaterea de la media aritmeticã cu
relaţia:
2
Capitolul 1.

~ h
x= x (1.1)
h
Rezultã domeniul de valabilitate al mãrimilor mãsurate, xi ∈ [x − ~ x ].
x, x + ~
Valorile mãsurate care se încadreazã în domeniul acceptat vor fi considerate normale, în
timp ce valorile ce nu se încadreazã în domeniu vor fi eliminate. Dar în urma eliminãrii de
date testul trebuie refãcut.

În relaţia (1.1), valoarea parametrului h se determină astfel:


n
h=
2⋅S
n
S = ∑ ( x − xi ) 2 ; : (1.2)
i =1
n

∑x i
x= i =1

n
unde:
S - abaterea patraticã medie
x - media aritmeticã,

Mãrimea hx fiind cititã din tabelul Chauvenet, depinzând doar de numãrul de mãsurãtori.

Tabelul 1. Valorile uzuale ale mãrimii hx în funcţie de numãrul de mãsurãtori.

n hx n hx n hx n hx n hx n hx
5 1,16 7 1,27 9 1,35 11 1,44 16 1,52 20 1,58
6 1,22 8 1,32 10 1,39 14 1,49 18 1,56 24 1,63

Exemplul 1. În urma unor mãsurãtori asupra unui eşantion s-au obţinut urmãtoarele
date primare X = [ 12, 12, 6, 8, 5, 10, 11, 8, 7, 9, 9, 12, 10, 12 ] se cere sã se testeze
normalitatea lor:

Se calculeazã:

x=
∑x i 131
= ≅ 9,357 ;
n 14
S = ∑ ( xi − x) 2 ≅ 71,214 ;
n 14
h= = = 0,31352
2⋅S 2 ⋅ 71,214

Din tabelul 1.1 rezultã pentru


n = 14
hx = 1,49
~ h 1,49
x= x = ≅ 4,752
h 0,31352
3
Capitolul 1.

iar domeniul de normalitate al datelor va fii:

xmin im = x − ~
x ≅ 4,752486 ; x max im = x + ~
x ≅ 14,109628

Concluzie. Deoarece toate datele mãsurate se încadreazã în domeniul de


normalitate, rezultã cã toate acestea sunt semnificative şi nu va fi eliminatã nici o
mãsurãtoare. În caz contrar ar trebuii sã fie eliminate datele caare nu se încadreazã
între limitele admise şi refãcut testul asupra celor rãmase.

1.2.1. Condensarea datelor statistice.

Pregãtirea datelor în vederea condensãrii. Formele sub care se gãsesc datele în


timpul prelucrãrii statistice sunt diferite. Modul cel mai simplu sub care acestea se
gãsesc fiind tabelul mãsurãtorii primare. În acest tabel, datele se introduc în ordinea
efectuãrii experimentelor. Acest fapt se datorează evitãrii pe cât posibil a apariţiei erorilor
sistematice de mãsurã, ceea ce impune ca experienţele sã fie executate conform unui
program aleator. Asupra acestor tabele primare se efectueazã ulterior operaţii de
ordonare şi sortare cu scopul de a uşura interpretarea, citirea şi prelucrarea cât mai
rapidã. Deci scopul operaţiilor de ordonare şi sortare îl constitue mãrirea gradului de
prelucrare a informaţiei. Scopul primar este acela de a determina elementul ce împarte
datele ordonate în douã a The a grupe numeric egale şi de asemenea sã se determine
valorile cele mai frecvente ale mãsurãtorilor.
În cazul unui numãr par de mãsurãtori se introduce, în centru tabelului de date, o
mãsurãtoare fictivã Esf având valoarea egalã cu media mãsurãtorilor vecine. Astfel
numãrul de mãsurãtori devine impar şi poate fi determinatã valoarea din mijlocul şirului
de date.

Exemplul 2. Sã se determine valoarea din mijlocul urmãtorului set de mãsurãtori:


a) pentru n = 11 mãsurãtori

Tabelul 1.2a) Cazul numãrului impar de experimente. Ordonarea valorilor mãsurãtorilor şi


determinarea mãrimii care împarte şirul în douã părţi egale.

Valoarea ordonatã 2 2 2 3 3 3 3 5 5 6 6
Indicele din tabel 1 2 3 4 5 6 7 8 9 10 11
(1) (2) (3) (4) (5)
b) pentru n = 10 mãsurãtori
Tabelul 1.2b) Cazul numãrului par de mãsurãtori. Prelucrarea şirului de mãsurãtori.
Valoarea ordonatã 2 2 2 3 3 3 3 5 5 6
Indicele din tabel 1 2 3 4 5 6 7 8 9 10
*Noua Valoare 2 2 2 3 3 3 3
Esf=(3+3) / 2
* Noul indice 1 2 3 4 5 6 7 8 9 10 11
(1) (2) (3) (4) (5)

Condensarea datelor statistice are ca scop realizarea unei imagini a populaţie


asupra cãreia s-au efectuat mãsurãtorile. Astfel se obţine o imagine de ansamblu
a populaţiei, dar se pierde informaţia de amãnunt. Condensarea datelor statistice
se face prin gruparea acestora în intervale de valori. Algoritmul recomandat în
acest scop este urmãtorul:
4
Capitolul 1.

 Determinarea intervalului mãsurãtorii:

I V = max E S − min E S (1.3)

Intervalul Iv se împarte într-un numãr m de subintervale, limitate de graniţele aj ,,


aj+1. Modul de dividere în subintervale poate fi fãcut în fuuncţie de numãrul de
mãsurãtori urmãrind una dintre variantelele:

 În cazul unui numãr mediu de mãsurãtori.


o mãrimea subintervalului Ij se stabileşte de cãtre operator

Ij = aj+1 - aj. (1.4)

o mãrimea subintervalului Ij se stabileşte conform


urmãtoarei proceduri:

max E S − min E S
Ij = (1.5)
1 + 3,322 ⋅ log(n)

unde:

n este numãrul de date.

 Determinarea numãrului de subintervale ale experimentului, se face cu


relaţia:

m = IV I j (1.6)

 Determinarea frecvenţei clasei fj, frecvenţã ce reprezintã numãrul de


mãsurãtori ce intrã în intervalul Ij.

 Determinarea frecvenţei relative, notate cu pj cu relaţia:

fj
pj = (1.7)
n

este evident faptul cã suma frecvenţelor relative este unitarã.

fj
∑p =∑ nj =1 (1.8)

Referitor la acest mod de condensare a datelor, se desprind urmãtoarele observaţii:

 Un numãr mare de intervale (sau clase de date ) produce perturbaţii ale mãrimilor
statistice din cauza fluctuaţiei mãsurãtorilor.
 Mãrimea intervalelor trebuie sã fie egalã pentru a uşura procesul de calcul.
5
Capitolul 1.

 Un numãr prea mic de intervale conduce la pierderi de informaţie, deoarece


include prea multe mãsurãtori.
 Prin convenţie se admite cã valoarea mãsurãtorii Es’ aflatã la mijlocul intervalului Ij
este reprezentativã pentru întregul interval.
Deci :

a j + a j +1
o E ij = (1.9)
2

 Limitele intervalelor trebuiesc definite clar pentru a nu crea confuzii în faza de


introducere a mãsurãtorilor, deci la stabilirea frecvenţelor clasei şi a celor relative,
 În aplicaţiile inginereşti, un numãr de 8 … 16 intervale se considerã de cele mai
multe ori suficiente, ele satisfãcând cerinţele de acurateţe a calculului statistic.

Exemplul 3. În tabelul 1.3 se reprezintã rezultatele primare ale unor


mãsurãtori privind rezilinţa unor epruvere sudate. Epruvetele au fost
prelevate din acelaşi tip de îmbinare sudatã, având acelaşi material de bazã,
dar au fost obţinute în urma mai multor variante tehnologice de sudare şi a
mai multor tipuri de materiale de adaos pentru fiecare variantã de sudare în
parte. Epruvetele au fost prelevate din zona influenţatã termic a primului
strat.

Tabelul 1.3) Datele primare privind rezilienţa ZIT-ului stratului de rãdãcinã.


25 35 68 72 31 42 53 67 62 45 64 32
43 42 27 30 43 29 53 68 70 42 53 24
29 43 45 68 27 28 56 42 48 43 44 47
52 49 51 62 60 40 49 50 52 63 68 42
28 29 54 63 70 53 32 29 53 54 42 63
29 70 46 38 53 37 52 38 27 40 63 39
48 27 49 38 52 53 64 38 44 39 50 50
61 77 72 28 43 49 52 38 54 72 62 42
53 29 32 27 62 43 44 53 56 58 43 29
32 43 52 28 33 52 45 62 53 42 48 47
28 35 29 60 28 45 62 42 45 62 44 28
50 29 27 32 62 49 52 51 55 42 29 49

Se ordoneazã tabelul şi se determinã valorile extreme:

maxEs = 77; minEs = 24

Se calculeazã mãrimea intervalului de variaţie al valorilor mãsurãtorilor,

Iv = 77 - 24 = 53

Se calculeazã mãrimea subintervalului:

Ij = 77 / (1+3,322*log(144))=6,487

Se determinã numãrul de subintervale


6
Capitolul 1.

m = Iv / Ij = 53 / 6,487 = 8,17001

Se rotunjeşte la un primul numãr întrg superior, deci m = 9.

Se determinã limitele celor m subintervale sau a celor m clase ştiind cã

Ij’=5,89.

Ι1 ∈ [ 24...29,89 ]
Ι2 ∈ [ 29,89 ... 35,78 ]
Ι3 ∈ [35,78 ... 41,67 ]
Ι4 ∈ [41,67 ... 47,56 ]
Ι5 ∈ [ 47,56 ... 53,45 ]
Ι6 ∈ [ 53,45 ... 59,34 ]
Ι7 ∈ [ 59,34 ... 65,23 ]
Ι8 ∈ [ 65,23 ... 71,12 ]
Ι9 ∈ [ 71,12 ... 77,01 ]

Deoarece valorile au douã zecimale, nici o mãsurãtoare nu se va putea gãsi pe


graniţa dintre douã intervale pentru a putea genera confuzie.
Se numãrã valorile mãsurate care vor intra în fiecare clasã deci se stabilesc
frecvenţele şi se formeazã tabelul frecvenţelor absolute şi relative ale mãsurãtorilor:

Tabelul 1.4) Domeniul intervalelor de grupare a datelor şi frecvenţele absolute şi


relative.

Nr. I Intervalele de grupare a claselor φϕ πϕ


Ιϕ
1 24...29,89 24 0,16666
2 29,89 ... 35,78 10 0,068444
3 35,78 ... 41,67 11 0,076388
4 41,67 ... 47,56 30 0,2083333
5 47,56 ... 53,45 33 0,2291667
6 53,45 ... 59,34 7 0,0486111
7 59,34 ... 65,23 17 0,11805555
8 65,23 ... 71,12 8 0,05555555
9 71,12 ... 77,01 4 0,027777
− Σ 144 1

Datele statistice astfel prelucrate pot fi reprezentate şi grafic su foma unor


histograme, poligoane de frecvenţã, histograme cumulate, etc.

Histograma: Constã în reprezentarea frecvenţelor fj prin dreptunghiuri, având pe


axa orizontalã, lãţimea egalã cu mãrimea intervalului corespunzãtor, iar pe axa
verticalã, lungimea egalã cu frecvenţa absolutã.
7
Capitolul 1.

Figura 1.1 Histograma aplicaţiei din exemplul 3.

O altã reprezentare graficã, des întâlnitã în procesul de analizã a datelor statistice o


reprezintã poligonul frecvenţelor relative.
Acesta fiind format din segmente de dreaptã ce unesc punctele de abscise xj ce
reprezintã mijloacele subintervalelor Ij şi ordonatele egale cu frecvenţa relativã pj.
O reprezentare de acest tip a datelor din tabelul 3 este prezentatã în figura 1.2.
Frcvenţele fj ca şi frecvenţele relative pj se pot cumula conducând la diagrame ce au
aspectul din figura 1.3 şi 1.4, ca şi la la tabelul 1.5.

Tabelul 1.5) Tabelul frecvenţelor cumulate şi al frecvenţelor relative cumulate


pentru Exemplul 3. I
Nr. Intervalul fj c pjc
Crt.
0 23,99 0 0,0000
1 29,89 24 0,1666
2 35,78 34 0,2361
3 41,67 45 0,31248
4 47,56 75 0,52081
5 53,45 108 0,749
6 59,34 115 0,79858
7 65,23 132 0,91663
8 71,12 140 0,97218
9 77,01 144 0,999
8
Capitolul 1.

Figura 1.2 Poligonul frecvenţelor pentru datele din tabelul 1.4.

Pe baza datelor astfel prelucrate pot fi desenate diagrama histogramei frecvenţelor


cumulate ca şi poligonul frcvenţelor relative cumulate.

Figura 1.3 Poligonul frecvenţelor relative Figura 1.4 Histograma frecvenţelor


cumulate pentru datele din tabelul 1.5. cumulate pentru datele din tabelul
1.5.

Observaţii privind experimentul 3: Deoarece datele din tabelul 1.3 au reprezentat


încercãri mult prea diverse, cu regimuri tehnologice de sudare care nu conferã o
bunã rezilienţã zonei influenţate termic. Se constatã o distribuţie care nu
corespunde unei legi de repartiţie normale (repartiţia Gauss), cel mai des întâlnite în
cadrul mãsurãtorilor tehnice. Astfel, în scopul obţinerii unei tehnologii acceptabile
vor trebuii analizate doar variantele tehnologice care conduc la rezilienţele dorite (
KV > 28 J / cm2).
9
Capitolul 1.

Dacã se limiteazã procedeele tehnologice utilizate şi îndeosebi variantele


tehnologice destinate obţinerii îmbinãrii sudate, se vor obţine datele din Tabelul
1.6.

Tabelul 1.6) Repartiţia mãsurãtorilor în cazul sudãrii cu electrozi având conţinut


scãzut de hidrogen difuzibil şi asigurarea unui timp de menţinere între 500oC şi
800oC între 16s şi 19s.

35 50 49 50 48 46 47 56 49 58
49 47 39 37 42 49 48 46 47 44
42 34 54 45 52 44 39 54 34 45
45 46 44 42 47 36 49 38 46 53
51 40 36 49 48 43 46 45 42 34
43 44 46 45 45 45 56 52 57 43
48 45 44 47 40 51 55 43 46 48

Prelucrarea datelor mãsurãtorilor prin împărţirea domeniului în m = 5 subintervale,


având lãţimea de 5 unitãţi va conduce la urmãtorul tabel al subintervalelor:
Tabelul 1.7). Domeniul claselor, frecvenţelor, frecvenţelor relative, frecvenţelor cumulate
şi al frecvenţelor relative cumulate pentru datele primare cuprinse în tabelul 1.6.
Nr. Subintervalul Frecvenţa Frecvenţa Domeniul Frecvenţa Frecvenţa
Crt ( clasa ) relativã cumulatã relativã
cumulatã
1 33,9…38,9 8 0,11428 33,9 0 0
2 38,9…43,9 12 0,17143 38,9 8 0,11428
3 43,9…48,9 30 0,42857 43,9 20 0,2857
4 48,9…53,9 13 0,18571 48,9 50 0,71428
5 53,9…58,9 7 0,1 53,9 63 0,9
Σ 70 1 58,9 70 1
Histograma datelor din tabel este prezentatã în figura 1.5,
În cazul în care se mãreşte numãrul datelor statistice, concomitent cu micşorarea
lãţimii subintervalelor, histograma tinde spre o curbã continuã, cunoscutã sub
numele de “clopotul lui Gauss” dau curba distribuţiilor normale.

Figura 1.5 Histograma şi poligonul frecvenţelor relative în cazul datelor


din tabelul 1.7
10
Capitolul 1.

1.3. Mãrimi centrale (centripete) ale populaţiilor.

În urma condensãrii datelor statistice ale unei populaţii, se observã faptul cã


majoritatea mãsurãtorilor se grupeazã în subintervalele din mijlocul domeniului, ceea ce
ilustreazã tendinţa centralã sau centripetã a populaţie. Existã însã şi relativ puţine date
care se îndepãrteazã de mijlocul histogramelor, ilustrând tendinţa centrifugã a populaţiei
de mãsurãtori. Aceaste tendinţe trebuie sã fie cuantificate pentru a putea fi utilizatã în
calculele ulterioare. În acest scop se definesc urmãtoarele mãrimi statistice:

1.3.1.Media aritmeticã este notatã cu x, fiind calculatã cu relaţia:

1 n
x= ∑ xi
n 1
(1.10)

în cazul general sau dacã se dispune de histograma populaţie

1 m m
x= ∑ j j ∑
n 1
f ⋅ x =
j =1
pj ⋅ xj (1.11)

unde xj sunt valorile mijloacelor intervalelor.

Media aritmeticã are douã însuşiri importante:

- suma abaterilor mãsurãtorilor faţã de mrdia aritmeticã este nulã

∑ (x − x ) = 0i (1.12)

- suma abaterilor pãtratelor mãsurãtorilor faţã de aceasta este minimã,

∑ ( x − x ) ≤ ∑ (const. − x );∀const ≠ x
i i (1.13)

Avantajele utilizãrii aceste mãrimi constau şi în simplitate şi uşurinţã de calcu ca şi în


faptul cã este influenţatã de toate datele mãsurãtorilor.

Dezavantajele sunt însã urmãtoarele:


- este puternic influenţatã de valorile extreme
- se calculeazã cu o anumitã greutate în cazul eşantioanelor mari.
Sunt însã şi cazuri relativ rare în care se utilizeazã alte tipuri de medii, cum ar fi media
geometricã şi cae armonicã.

1.3.2. Media geometricã xG se calculeazã cu relaţia

n
xG = n ∏x
i =1
i (1.14)
11
Capitolul 1.

fiind utilizatã de regulã în estimarea unor creşteri procentuale medii.

Exemplul 4. Pe parcursul a trei ani consecutivi, prin introducerea unor noi


tehnologii de sudare ca şi prin optimizarea acestora şi asigurarea unei mai bune
asigurãri prin contracte, beneficiile unui atelier de sudurã au avut urmãtoarea
creştere faţã de anul precedent:

Anul 1993 1994 1995


Creşterea faţã de anul precedent 115% 140% 220%

Analizând faptul cã datele din fiecare an se referã la datele din anul precedent, se
observã cã problema poate fi redusã la determinarea unei rate constante de creştere
a beneficiului, sub forma (ratã constantã)3 = X1 X2 X3 ceea ce justificã aplicarea
mediei geometrice la determinarea beneficiului mediu.

xG = 3 115 ⋅ 140 ⋅ 220 = 152,4344

1.3.3. Media armonicã xA se calculeazã cu relaţia

n
xA = n
(1.15)
∑ (1 x )
1
i

fiind utilizatã de regulã în determinarea vitezei medii de sudare în cazul îmbinãrii sudate
realizate din mai multe treceri, executate cu parametrii diferiţi de sudare.

Exemplul 5. La sudarea unei îmbinãri sudate, executat din patru straturi, vitezele
de sudare pentru acestea sunt:

Stratul 1 2 3 4
Viteza de sudare 45 40 35 30
[ cm / min ]

În scopul uşurãrii calculului timpului de bazã pentru operaţia de sudare a unui


centimetru de cordon este necesarã determinarea vitezei medii de sudare a întregii
îmbinãri.
4
V = xA = = 36,6545[cm / min]
(1 45 + 1 40 + 1 35 + 1 30)

1.3.4. Intervalul mediu MM se calculeazã cu formula:

MM = ( xmin + xmax ) 2 ≡ (min Es + max Es ) 2 (1.16)


unde:
xmin respectiv minEs este cea mai micã valoare din eşantion
xmax respectiv maxEs este cea mai mare valoare din eşantion

Avantajele utilizãrii intervalului mediu constau în faptul cã acesta poate înlocuii în cazul
unui calcul rapid media aritmeticã iar dezavantajul constã în faptul cã luând în
12
Capitolul 1.

considerare doar cele douã extreme, eroarea faţã de media aritmeticã poate fi
substanţialã.

1.3.5. Medianul ME reprezintã punctul aflat pe linia de bazã care împarte


distribuţia mulţimii în părţi egale. Pentru exemplificare se utilizeazã figura 1.6:

În conformitate cu figura 1.6 rezultã pentru distribuţia din cazul a)

∑x
i =1
i = 0 ⋅1 + 1 ⋅ 2 + 1 ⋅ 3 + 2 ⋅ 4 + 3 ⋅ 5 + 3 ⋅ 6 + 2 ⋅ 7 + 1 ⋅ 8 + 1 ⋅ 9 = 77

cum sunt n = 14 mãsurãtori rezultã:

x Po =
∑x i
=
77
= 5,5
n 14

ceea ce corespunde cu poziţia mãsurãtorii n / 2 = 7.


Pentru distribuţia din cazul b) deşi sunt tot n = 14 mãsurãtori, totuşi se obţine poziţia
mãsurãtorii n / 2 =7 la coordonata ME = 5,5 în timp ce noua valoare a mediei aritmetice
va fii:

x Po =
∑x i
=
1 ⋅ 2 + 1 ⋅ 3 + 2 ⋅ 4 + 3 ⋅ 5 + 2 ⋅ 6 + 1 ⋅ 7 + 1 ⋅ 8 + 2 ⋅ 20 + 1 ⋅ 21
= 8,2857
n 14

Unele lucrãri definesc medianul ca fiind mãsurãtoarea care ocupã poziţia din mijloc în
urma operaţiei de ordonare a datelor statistice. Dacã vom nota medianul astfel definit cu
ME’ atunci în cazul unui numãr impar de mãsurãtori,

ME ' = x n +1 = x 0,5( n+1) (1.17a)


2

iar în cazul unui numãr par de mãsurãtori, deoarece elementul x0,5(n+1) nu existã, prin
convenţie medianul se calculeazã cu relaţia:
13
Capitolul 1.

Figura 1.6 Modul de distribuţie a 14 mãsurãtori în scopul ilustrãrii poziţiei mediei aritmetice
şi a medianului.

 
M E ' =  x n + x n   2 . (1.17b)
 2  +1  
 2  

Deci ME’ este media aritmeticã a datelor ce limiteazã mijlocul şirului de mãsurãtori.

Avantajele medianului constau în faptul cã acesta nefiind influenţat de valorile extreme


conduce în cazul unor distribuţii particulare la estimãri mult mai precise asupra populaţie
decât media aritmeticã. De asemenea este uşor de determinat dacã datele sunt
ordonate în prealbil.
Dezavantajele medianului constau în primul rând la faptul cã acesta nu se preteazã la
calcule algebrice ca şi în faptul cã în cazul eşantioanelor sau populaţiilor cu numãr mare
de mãsurãtori, operaţia de ordonare a acestora este greoaie, în cazul în care nu se
utilizeazã un soft specializat de lucru cu baza de date.

1.3.6. Modulul MD reprezintã data statisticã care este cel mai des întâlnitã în
mãsurãtorile asupra populaţie sau eşantionului. Este de remarcat faptul cã modulul
apare rareori în zona centralã fiind de asemenea dese cazurile când se întâlnesc mai
multe module în cadrul datelor mãsurate.
14
Capitolul 1.

1.4. Mãrimi centrifuge ale populaţiilor.

Sunt mãrimile ce exprimã tendinţa de împrãştiere a mãsurãtorilor. Astfel cele mai


frecvent întâlnite mãrimi sunt:

- Intervalul ( R )
- Varianţa ( V )
- Deviaţia standard la populaţie ( σ )
- Deviaţia standard la mãsurãtorile din eşantion ( s )
- Coeficientul de variaţie ( cV )
- Deviaţia medie de la valoarea datã ( DM )
- Eroarea standard a mediei ( sx )

1.4.1. Intervalul reprezintã diferenţa dintre valoarea maximã şi cae minimã a


mãsurãtorilor

R = xmax - xmin

1.4.2. Varianţa populaţie reprezintã abaterea pãtraticã raportatã la numãrul de indivizi din
populaţie. Astfel, în cazul în care populaţia conţine N “indivizi” şi asupra fiecãrui individ în
parte s-a efectuat mãsurãtoarea, atunci, în urma calculãrii mediei aritmetice a populaţiei,
poate fi determinatã varianţa populaţiei cu relaţia:

N  N 2 1  N 2 
∑ (x − x )
1 1
V P0 = =  ∑ x i −  ∑ xi  
2
i (1.18)
N 1 N  1 N  1  

în cazul datelor care nu au suferit condensarea şi

1m  
2
1 m
V P0 = ∑ f j ⋅ xi −  ∑ f j ⋅ x j  
2
(1.19)
N  j =1 N  j =1  

în cazul datelor ce au suferit operaţia de condensare.

1.4.3. Varianţa eşantionului reprezintã abaterea pãtraticã medie a datelor din eşantion,
raportatã la numãrul de indivizi din eşantion (n). Deoarece eşantionul conţine mult mai
puţini indivizi decât populaţia, prin convenţie se aplicã relaţia:

1  n 2 1 n  
2
1 n
VEs = ∑
n − 1 i =1
( x − x i ) 2
=  ∑ i n ∑
n − 1  i =1
x − 
i =1
x i 
 
 (1.20)

în cazul datelor primare şi


15
Capitolul 1.

1 m  
2
1 m
VEs =  ∑ f j ⋅ x j − n ∑
n − 1  j =1
2
 
f j ⋅ xj   (1.21)
  j =1  

în cazul datelor condensate.

1.4.4. Deviaţia standard la populaţie se calculeazã cu relaţia:

σ = VP 0
(1.22)

1.4.5. Deviaţia standard la eşantion se calculeazã cu relaţia:

s = VEs (1.23)

1.4.6. Coeficientul de variaţie pentru populaţie se calculeazã cu relaţia:

σ
cv P0 = (1.24)
x
1.4.7. Coeficientul de variaţie pentru eşantion se calculeazã cu relaţia:

s
cv Es = (1.25)
x

1.4.7. Deviaţia medie faţã de o valoare datã ( c ) se calculeazã cu relaţia:

N
1
DM Po =
N
∑x
i =1
i −c (1.26)

în cazul populaţiei şi

1 n
DM Es = ∑ xi − c
n i =1
(1.28)

în cazul eşantionului.

1.4.8. Eroarea standard a mediei se calculeazã cu relaţia:

s
sx = . (1.29)
n

Dacã presupunem cã dintr-o populaţie având media xPo şi deviaţia standard σ şi o


eşantionare a acestei populaţii a condus la media xEs şi deviaţia s. În general datele
statistice ale populaţiei sunt diferite de cele obţinute în urma mãsurãtorilor efectuate pe
eşantioanele desprinse din populaţie. În figura 1.7 sunt prezentate diferenţele între
distribuţia unei populaţii Po şi distribuţia statisticã a unui eşantion desprins din ea Es. O
16
Capitolul 1.

importantã problemã a statisticii constã în estimarea caracteristicilor statistice ale


populaţie pe baza caracteristicilor statistice ale eşantionului.
Astfel sã presupunem cã am efectuat o eşantionare într-o populaţie şi am obţinut
urmãtoarele valori:xEs=19.5 şi sx= 0,105 ştiind cã media aritmeticã a populaţiei va fi: xPo =
19,3 ca în figura 1.8.
Se pune urmãtoarea întrebarea.
Câte medii din 100 de eşantioane ar conduce la valori xEs mai mari decât xPo.
Se observã din figura 1.8 cã toate aceste eşantioane se vor gãsi în zona haşuratã. Aria
acesteia se calculeazã conform urmãtorului algoritm:

 Se determinã deviaţia DM între media aritmeticã a populaţie şi cea a eşantionului

x = x P0 − x Es s x = 0,2 / 0,105 ≅ 1,905

 Se utilizeazã tabelul ariilor aflate sub curba normalã (Anexa1.tabelul 1.1) din care
pentru x’= 1,905 rezultã x” = 0,4744. Valoarea ariei cãutate rezultã în conformitate
cu figura 1.9 rezultând aria x’”= 0,5 - x’ = 0,0254.
 Se determinã astfel probabilitatea ca din 100 de eşantioane numai 2,54 ar putea
sã depãşascã media populaţie.
 Aceastã afirmaţie, în conformitate cu figura 1.9, are un nivel de confidenţã calculat
cu relaţia:

γ = 1 − x ''' = 1 − 0,0254 = 0,9744

Figura 1.7 Distribuţia populaţie şi a Figura 1.8 Determinarea intervalului de


eşantionului. confidenţã IC a mediei populaţie cu ajutorul
eşantioanelor.
17
Capitolul 1.

Un mod analog de abordare a


problemei, dar pornind de la cazul b) din
figura 1.8 va conduce la acelaşi nivel de
confidenţã. În acest mod s-au stabilit
intervalele de confidenţã monolimitate,
unul crescãtor (conform figurii 1.8a) şi
unul descrescãtor (conform figurii 1.8b ).
În cazul bilimitat intervalul de confidenţã
IC va fi cuprins între 19,3 şi 19,7 şi va
avea confidenţa:

γ ' = 1 − 2 ⋅ x "' = 0, 9488

Figura 1.9 Modul de determinare a


suprafeţei haşurate din figura 1.7.

Exemplul 6. Sã se calculeze intervalul de confidenţã bilimitat IC pentru un nivel


de încredere γ’ = 0,90.

Se porneşte de la determinarea ariei ocupate din curba distribuţiei normale, x”’


conform relaţiei:

1 − 2 ⋅ x "' = 0, 9 ; x "' = (1 − 0, 9 ) / 2 = 0, 05
x " = 0,5 − x "' = 0, 45

Pentru x” = 0,45 din Anexa 1, Tabelul 1.1 rezultã prin interpolare între valorile
0,4495 ce corespund la x’ = 1,64 şi 0,4505 ce corespunde pentru x’ = 1,65 valoarea
x’=(1,65+1,64)/ 2 = 1,645. Considerând eroarea standard a mediei sx = 0,102
rezultã deviaţia x = x’ sx = 0,168. Rezultã intervalul de confidenţã IC, dacã se
considerã media aritmeticã cunoscutã xEs = 19,3.

min xPo = 19,5 - 0,168 = 19,132 fiind limita inferioarã I


max xPo = 19,3 +0,168 = 19,468 ca limitã superioarã S.

1.4.9 Observaţii privind importanţa mediei aritmetice şi a dispersiei în procesul de


mãsurare.

În cazul general, procesul de mãsurare constã asocierea de numere obiectelor care se


mãsoarã. Aceastã cuantificare se bazeazã pe reguli, numite “reguli de mãsurare” şi
funcţioneazã ca o comunicare între oameni. Este obligatoriu ca aceste reguli de
mãsurare sã fie prezentate odatã cu datele obţinute în urma procesului de mãsurare,
pentru a se evita confuziile de interpretare care pot genera “ conflicte “.
18
Capitolul 1.

Se poate observa astfel diferenţa între operaţiile matematice care sunt utilizate în
prelucrarea şi sintetizarea datelor şi operaţia de mãsurare şi interpretarea rezultatelor
mãsurãtorilor.
Astfel sistemul matematic poate fi privit sub urmãtoarele aspecte:

- ca un set de reguli destinate manipulãrii unor simboluri


- ca un mod de a manipula numere, fãrã ca acestea sã se refere în mod expres la
date reale;
- ca un sistem viabil, dacã operaţiile pe care le utilizeazã sunt consistente, chiar şi
fãrã condiţia ca ele sã aibe relaţii cu lumea realã.

În orice operaţie de mãsurare, interpretarea rezultatelor se bazeazã pe cunoaşterea


punctului de referinţã şi a unitãţii de mãsurã. Un mod relevant de a ilustra aceste
diferenţe rezultã din exemplul 7.

Exemplul 7. În figura 1.10 sunt prezentate distribuţiile punctajelor realizate de un lot de


studenţi în examinãrile scrise (Sc) şi orale (Or). Astfel, în cazul în care un student obţine
60 de puncte la oral şi 30 de puncte la scris conform liniei întrerupte din figurã, o persoanã
grãbitã ar trage concluziile:

- studentul este de douã ori mai bun la oral decât la scris


- studentul se gãseşte la aceeaşi distanţã faţã de media repartiţie atât la oral cât şi la scris.

Observând însã forma repartiţiilor se constatã cã la probele orale studentul se gãseşte într-
un câmp mult mai populat
decât la scris, cu toate cã
notele sale la oral şi la scris
se gãsesc la distanţe egale de
mediile testelor.
Va trebuii deci, pentru a
stabili modul de examinare
cel mai favorabil studentului,
sã stabilim o scarã comunã de
mãsurã pentru cele douã
distribuţii. Se mai impune şi
un punct de referinţã comun
acestora. De regulã punctul
de referinţã comun este
considerat ca fiind media
aritmeticã a distribuţiei, iar,
ca unitate comunã de mãsurã
poate fi stabilitã deviaţia
standard a fiecãrei distribuţii.
Astfel, dacã pentru proba
oralã sx = 15 iar la cea scrisã
s’x = 5 vor rezulta puctajele la
Figura 1.10 Distribuţia punctajelor obţinute oral şi scris în unitatea de
de studenţi în probele orale (a) şi scrise (b). mãsurã comunã, prin
raportare lor la media aritmeticã a repartiţiei pentru studentul analizat.
19
Capitolul 1.

x’or = ( 60 - 50 ) / 15 = 0,67
x’sc = ( 30 - 20 ) / 5 = 2

Se observã acum, în mãrimi comune, faptul cã în realitate studentul obţine rezultate


de trei ori mai bune la scris faţã de oral, fapt prezentat în figura 1.10 c).

1.5. Intervale de confidenţã şi de toleranţã ale unor mãrimi statistice.

1.5.1. Introducere. Intervalele de confidenţã, IC, numit şi intrvale de încredere, au fost


prezentate odatã cu calculul erorii standard a mediei sx. Acest interval, pentru o mãrime
statisticã reprezintã domeniul în care mãrimea respectivã se va gãsi, cu o încredere, sau
un nivel de confidenţã, ales în prealbil şi notat în general cu litera γ . În domeniul
ingineresc se utilizeazã pentru nivele de confidenţã cuprindse între 0,8 şi 0,95 pentru
industria constructoare de maşini şi între 0,95 şi 0,995 pentru industria aerospaţialã şi
nuclearã. Intervalele de încredere pot fi monolimitate, când se precizeazã fie limita
inferioarã fie cea superioarã a acestuia, sau bilimitate, atunci când sunt precizate ambele
limite ale intervalului. În cazul bilimitat expresia cea mai utilizatã este: “mãrimea statisticã
γ se va gãsi cu îcrederea γ, între limita inferioarã I şi cea superioarã S ”. Fiecãrei limite i
se atribuie nivelul de confidenţã :

(1 + γ) / 2 .

În cazul monolimitat se afirmã cã “ mãrimea statisticã este mai mare decât limita
inferioarã I, respectiv mai micã decât limita superioarã S “.
În acest caz fiecãrei limite i se atribuie nivelul de confidenţã egal cu γ. Una dintre
cerinţele cu caracter general ce se referã la o îmbinare sudatã o constitue asigurarea
rezilienţei de 28 J/cm2 la o temperaturã inferioarã cu 10oC faţã de temperatura minimã
din exploatare.
Realizarea acestui deziderat impune efectuarea unor încercãri de rezilienţã asupra
îmbinãrilor sudate cu diverse tehnologii de sudare şi adoptarea acelei tehnologi care
asigurã îmbinãrilor caracteristicile cerute, cu un nivel de încredere specific produsului ce
va fi realizat.
În cazul oţelurilor pentru structuri sudate, caracteristicile mecanice sunt garantate de
producãtor în funcţie de clasa de calitate a acestuia, pentru diferite temperaturi. Oţelurile
obişnuite au astfel rezilienţa garantatã peste temperatura de -20oC în cazul clasei 4 de
calitate, dar proprietãţile de rezistenţã încep sã se altereze la temperaturi ce depãşesc
o
200 C, aceasta scãzând cu gradul de dezoxidare a oţelului, în timp ce petru oţelurile
o
criogenice, cu 9% Ni, temperatura la care apare fenomenul de fragilizare este de -196 C.
La oţelurile aliate cu Cr şi Mo, destinate utilizãrii la cald, temperatura la care acestea
o
posedã caracteristici mecanice bune este în jur de 560 C.

1.5.2 Calculu intervalului de confidenţã al mediei.


Se considerã douã eşantioane ale unei populaţii având mediile x1 şi x2, cunoscându-se
faptul cã media aritmeticã a populaţiei este xPo. În practicã apar urmãtoarele cazuri de
analizat:
20
Capitolul 1.

1.5.2.1. Intervalul bilimitat al eşantionului IC1 .

 Se calculeazã urmãtoarele mãrimi statistice:

n n 2

∑x i ∑ (x − x ) i
s
x= i =1
;s = i =1
; sx = (1.30)
n n −1 n

 Se alege nivelul de confidenţã ( încredere ) γ dorit.


 Din tabelul distribuţiei Student ( Anexa 1, Tabelul 1.2 ) se alege valoarea
lui t, care depinde de

( 1+ γ ) / 2 şi n - 1: t[(1+γ) / 2; n-1] (1.31)

 Se calculeazã limitele intervalului cu relaţia:

I
 = x m t ⋅ sx (1.32)
S

1.5.2.2. Intervalul monolimitat IC2 . Se calculeazã identic cu intervalul bilimitat, cu


excepţia punctului c) în care valoarea lui t, se stabileşte în conformitate cu γ şi nu cu
(1+γ)/2, şi se noteazã cu t’,( t’( γ; n - 1 ) ).
Monolimitele inferioare şi superioare fiind notate cu indicele ‘ se calculeazã conform
relaţiei:

I ' = x − t '⋅s x
(1.33)
S ' = x + t '⋅s x

Observaţii: Nici I’ şi nici S’ nu determinã un interval de confidenţã, singurele


informaţii pe care le putem utiliza sunt cã media eşantionului va fi strict mai mare decât
I’ sau strict mai micã decât S’ cu încrederea γ. Nu se poate însã afirma faptul cã media
aritmeticã a eşantionului analizat se gãseşte între I’ şi S’ ( cu încrederea γ ) pentru acest
fapt trebuind calculat intervalul IC1.

1.5.2.3. Intervalul de încredere bilimitat, IC3 , privind diferenţa mediilor a douã


eşantioane.

Problema, în acest caz constã în determinarea intervalului de confidenţã în care se


gãseşte diferenţa mediilor a douã eşantioane xd = xEs1 - xEs2.

Procedura de calcul este urmãtoarea:


 Se determinã mãrimile statistice ale celor douã eşantioane:
21
Capitolul 1.

 n1
( 
)
n1
x1 = ∑ xi1 n1 ; s1 =  ∑ x1 − xi1 /(n1 − 1)  ; s x1 = s1 n1
i =1  i =1 
(1.34)
 
( ) (n
n2
x2 = ∑ xi2 n2 ; s 2 =  ∑ x 2 − xi2 
 2 − 1); s x2 = s 2 n2
i =1  

 Se calculeazã eroarea standard a diferenţei mediilor:

n1 + n2
s x1 − x2 = ⋅
(n1 − 1) ⋅ s12 + (n2 − 1) ⋅ s22 (1.35)
n1 ⋅ n2 n1 + n2 − 2
 Se alege din tabelul 1.2 ( Anexa 1) valoarea constantei t conform relaţiei:

t [(1 + γ ) / 2;n1 + n 2 − 2 ]
 Se calculeazã limitele intervalului de confidenţã IC3 .

I
 = x1 − x 2 m t [(1+γ ) / 2;n1 + n2 − 2 ] ⋅ s x1 − x2 (1.36)
S

Exemplul 8. Douã tipuri de electrozi pentru sudarea cu electrod învelit au fost pe


îmbinãri de diferite oţeluri. S-a mãsurat rezistenţa la rupere ale cusãturilor, realizate
cu aceleaşi regimuri de sudare, rezultând urmãtoarele valori în daN/mm2:

Electrodul 1 42 44 42 45 46 44 43
Electrodul 2 38 40 44 39 36

Se calculeazã mãrimile statistice ale populaţie:

n1 = 7 ; x1 = 43,71 ; s1 = 1,496
n2 = 5 ; x2 = 39,4 ; s2 = 2,96647

Se calculeazã eroarea standard a diferenţei mediilor:

12 6 ⋅ 2,238 + 4 ⋅ 8,8
s x1 + x2 = = 0,6785
7 ⋅5 10

Se alege nivelul de încredere γ = 0,9


Se calculeazã (1+γ) / 2 = 1,9/2 = 0,95 şi n1 + n2 - 2 = 7+ 5 - 2 = 10
Se citeşte din tabelul 1.2 (Anexa 1) valoarea lui t[ 0,95 ; 10 ] = 1,812 .
Se calculeazã limitele intervalului de încredere
I 3,07
 = 43,7143 − 39,4 m 1,812 ⋅ 0,678533 =
S 5,54

Concluzie. Diferenţa mediilor este cuprinsã în intervalul 3,07 şi 5,54 ambele fiind
valori pozitive. În aceste condiţii electrodul care este preferat este cel care a condus
la media aritmeticã cea mai ridicatã.
22
Capitolul 1.

1.5.2.4. Intervalul de confidenţã monolimitat, IC4 , a diferenţei mediilor a douã


populaţii.

Se calculeazã ca şi în cazul intervalului bilimitat, cu deosebirea cã, în acest caz, t


va depinde doar de γ şi nu de ( 1+γ ) / 2. Se va citi astfel din tabelul distribuţiei Student
valoarea:
t '[ γ ; n + n − 2 ] iar limitele inferioare sau superioare ale diferenţei vor fi calculate cu relaţiile:
1 2

I '
 = x1 − x 2 m t '[γ ;n1 + n2 − 2 ] ⋅s x1 + x2 (1.37)
S '

Exemplul 9. Pentru datele din exemplul precedent sã se calculeze I’ şi S’ a


diferenţei mediilor, pentru o încredere γ = 0,9.

Se cteşte din tabelul 1.2 ( Anexa 1) valoarea t’[0,9 ; 10 ] = 1,372


Se calculeazã monolimitele intervalului de încredere:

I ' 3,383
 = 43,7143 − 39,4 m 1,372 ⋅ 0,678533 =
S ' 5,245

Observaţie: Monolimita I’ este mai mare decât I iar monolimita S’ este mai micã
decât S, deoarece pentru aceeaşi încredere γ , t > t’ .

1.5.2.5. Intervalul de toleranţã IT, este utilizat în inginerie pentru determinarea


numãrului de produse care se gãsesc în limitele de calitate dorite. Se disting astfel douã
cazuri:

1.5.2.6. Cazul populaţiei având distribuţie normalã.

Pentru a putea determina intervalul de toleranţã, trebuiesc cunoscute media aritmeticã şi


abaterea standard. Limitele intervalului de toleranţã pot fi astfel determinate cu ajutorul
relaţiilor:

IT 
 = x m z ⋅σ (1.38)
ST 

unde z depinde de procentul p al mãsurãtorilor ce se gãsesc între limitele IT şi ST.


Legãtura dintre z şi p se stabileşte urmând etapele:

a) Se utilizeazã distribuţia normalã cumulatã, din Tabelul 1.3 (Anexa 1),


reprezentatã schematic în figura 1.11 a) ;
b) Zona corespunzãtoare probabilitãţii dorite p este prezentatã în figura 1.11 b)
fiind limitatã între valorile -z σ şi z σ;
23
Capitolul 1.

c) Se calculeazã ariile cuprinse între punctele 1,2’,3’ notatã cu alfa1(α1) şi 1,2”,3”


notatã cu alfa (α)
d) Se scade din aria α aria α1 şi se determinã aria ocupatã de zona cu
probabilitatea p doritã.
e) Corelaţia dintre p şi z se determinã conform datelor din tabelul 1.7 în tabelul 1.8
fiind redate valorile cele mai des întâlnite pentru probabilitatea p.

Figura 1.11 a). Distribuţia normalã cumulatã a populaţiei b),c). Modul de determinare a
procentului din populaţie (p %) aflat în intervalul de toleranţã IT. (∆ = - zσ+zσ)

Tabelul 1.7 Procentul mãsurãtorilor p% aflat între limitele IT şi ST ale intervalului


de toleranţã IT, în funcţie de z.
z p% z p% z p% p%
4 99,994 3 99,730 2 95,450 1 68,268
3,9 99,990 2,9 99,626 1,9 94,256 0,9 63,188
3,8 99,986 2,8 99,488 1,8 92,814 0,8 57,628
3,7 99,978 2,7 99,306 1,7 91,086 0,7 51,608
3,6 99,968 2,6 99,068 1,6 89,040 0,6 45,150
3,5 99,954 2,5 98,758 1,5 86,638 0,5 38,292
3,4 99,936 2,4 98,360 1,4 83,848 0,4 31,084
3,3 99,904 2,3 97,856 1,3 80,640 0,3 23,582
3,2 99,862 2,2 97,220 1,2 76,986 0,2 15,852
3,1 99,806 2,1 96,428 1,1 72,866 0,1 7,966

Tabelul 1.8 Valori uzuale pentru p %


z p% z p%
2,6 99 1,440 85
2,250 97,5 1,285 80
1,960 95 1,150 75
1,645 90 1,050 70

Exemplul 10. Sã presupunem cã mãsurãtorile efectuate pe o populaţie au condus la


urmãtoarele valori xPo = 39,768 şi σ = 9,699 . Sã se calculeze intervalul de toleranţã
IT în care se aflã un procent de 90 % din populaţie ( p = 90 % ).
24
Capitolul 1.

În tabelul 1.7 pentru p = 90 %, se citeşte valoarea z = 1,645. Rezultã astfel limitele


intervalului de toleranţã IT:

IT  23,813
 = 39,768 m 1,645 ⋅ 9,699 =
ST  55,723
Observaţie: Între IT = 23,813 şi ST = 55,723 se gãsesc 90 % dintre mãsurãtorile
fãcute pe I ndivizii populaţie analizate în cazul în care populaţia are o repartiţie
normalã.

Verificarea normalitãţii repartiţiei. Sã presupunem cã populaţia are 250 de


indivizi, dintre care doar 222 de indivizi se încadreazã între limitele intervalului de
toleranţã IT. Se verificã probabilitatea:

222
p= ⋅ 100 = 88,8%
250

Concluzie: Populaţia se abate de la normalitate deoarece p calculat este mai mic


decât p estimat.

1.5.2.7 Cazul în care populaţia se abate de la normalitate şi a cãrei medie şi


abatere standard nu se cunosc.
În acest caz se recurge efectuarea unei eşantionãri a populaţiei şi se calculeazã media
xEs şi abaterea standard s a eşantionului. Intervalul de toleranţã se calculeazã cu relaţia:

IT 
 = x Es m k ⋅ s (1.39)
ST 

Valorile factorului k în funcţie de probabilitatea p sunt date în tabelul 1.9 a) în


conformitate cu [1.1] sau în tabelul 1.9 b) în conformitate cu [1.2]. Valorile lui k pentru
monolimitele intervalului sunt date în tabelul 1.10.

Tabelul 1.9 Valorile lui k pentru determinarea intervalului de toleranţã IT propuse.


Valorile lui k pentru p % [ Chacravarti ]
n 90 95 99,9
25 2,494 2,972 4,985
50 2,162 2,576 4,323
75 2,042 2,433 4,084
100 1,977 2,355 3,954
150 1,905 2,270 3,811
200 1,865 2,222 3,731
500 1,777 2,117 3,555
1000 1,736 2,068 3,472
∞ 1,645 1,960 3,291

Tabelul 1.10 Valorile lui k pentru determinarea intervalului de toleranţã IT propuse.


Valorile lui k pentru p % [ Oste ]
n 75 90 95 99
5 3,002 4,275 5,079 6,634
6 2,604 3,712 4,414 5,775
7 2,361 3,369 4,007 5,248
25
Capitolul 1.

8 2,197 3,136 3,732 4,891


9 2,078 2,967 3,532 4,631
10 1,987 2,836 3,379 4,433
17 1,679 2,400 2,858 3,754
37 1,450 2,037 2,470 3,246
145 1,280 1,829 2,179 2,864
∞ 1,150 1,645 1,960 2,576

Tabelul 1.11 Valorile lui k pentru calculul monolimitelor intervalului de toleranţã.


Valoarea lui k pentru p %
n 75 90 95 99
5 2,150 3,412 4,212 5,751
6 1,895 3,008 3,711 5,065
7 1,733 2,756 3,400 4,644
8 1,618 2,582 3,188 4,356
9 1,532 2,454 3,032 4,144
10 1,465 2,355 2,911 3,981
17 1,220 2,002 2,486 3,414
37 1,014 1,717 2,149 2,972
145 0,834 1,481 1,874 2,617
∞ 0,674 1,282 1,645 2,326

Exemplul 10b. Sã se calculeze intervalele de toleranţã bilimitate şi monolimitate


pentru urmãtorul eşantion format din 25 de mãsurãtori pentru p = 75% , 90%, 95%
şi 99%.
n xi n xi n xi n xi n xi
1 16 6 25 11 29 16 44 21 51
2 19 7 25 12 30 17 44 22 52
3 20 8 27 13 34 18 47 23 59
4 22 9 28 14 37 19 48 24 62
5 24 10 28 15 38 20 51 25 65

Se determinã media aritmeticã şi abaterea standard pentru eşantion, rezultând


valorile:

x Es = 37 ; s = 14,36

Se calculeazã pentru n = 25 de mãsurãtori valoarea factorului k prin interpolare


liniarã între valorile ce corespund lui n = 17 şi n = 37 rezultând

p% k p% k p% k p% k
75 1,587 90 2,225 95 2,703 99 3,551

Se calculeazã valorile intervalului de toleranţã IT.

p % ( impus ) 75 90 95 99
ks 22,789 32,382 38,815 50,992
IT = xEs - k s 14,211 4,618 1,815 -13,992
ST = xEs + k s 59,789 69,368 75,815 87,992
p % ( obţinut ) 89,2 100 100 100

Observaţie: În urma efectuãrii mãsurãtorilor asupra întregii populaţii formate din


250 de indivizi, se constatã cã pentru p = 75% între limitele 14,211 şi 59,789 se
26
Capitolul 1.

gãsesc 233 de indivizi ceea ce conduce la o proporţie de 89,2%, mult mai mare
decât valoarea de pornire a calculelor.
Calculul monolimitelor. Se efectueazã conform aceleiaşi proceduri, cu excepţia
faptului cã valorile lui k vor fi citite din tabelul 1.11. Astfel prin interpolare se obţin
urmãtoarele valori:

p% k p% k p% k p% k
75 1,138 90 1,888 95 2,351 99 3,237

Se obţin astfel monolimitele intervalului, valorile acestora fiind date mai jos:
p % ( impus ) 75 90 95 99
k’ s 16,345 27,112 33,760 46,483
I’T = xEs - k’ s 20,658 9,888 3,240 -9,483
p % (real pentru 96,4 100 100 100
I’T )
S’T = xEs + k’ s 53,342 64,112 70,760 83,483
p % (real pentru 93,2 99,6 100 100
S’T )

Concluzie: Ca şi IT şi IT’ conduce la valori ale probabilitãţii p mai mari decât cele
impuse. Faţã de IT , monolimitele I’T şi S’T sunt mai mici.

1.5.3. Calculul intervalelor de confidenţã IC pentru varianţa populaţiei VPo şi pentru


abaterea standard σ.

1.5.3.1. Intervalul de confidenţã bilimitat , IC6 ,al varianţei s2. În acest scop se efectueazã
eşantionarea populaţiei şi se calculeazã s2. Se alege nivelul de confidenţã γ şi cu ajutorul
relaţiilor de mai jos se determinã valorile limitelor intervalului de confidenţã.

 (n − 1) ⋅ s 2 
 
I   χ [2(1−γ )/ 2;n −1] 
 = (1.39)
S   (n − 1) ⋅ s 2 
 2 
 χ [(1−γ )/ 2;n −1] 

unde:
χ2 se citeşte din tabelul distribuţiei statistice cu acelaşi nume (Tabelul 1.3,Anexa 1).
Limitele abaterii standard s se obţin prin extragerea rãdãcinii patrate din I respectiv S.

Exemplul 11. Ne propunem sã calculãm limitele superioare I’ şi inferioare S’ ale


abaterii standard s din exemplul 10, pentru o încredere de γ = 0,9.
Din tabelul 1.3 (Anexa 1) se aleg valorile pentru χ2.

χ [2(1+γ ) / 2;n−1] = χ [20,95;24] = 36,4


χ [2(1−γ ) / 2;n −1] = χ [20,05;24] = 13,8
Rezultã:
27
Capitolul 1.

24 ⋅ 14,36 2
I'= = 11,66
36,4
24 ⋅ 14,36 2
S' = = 18,94
13,8

1.5.3.2. Intervalul de confidenţã monolimitat , IC7 ,al varianţei s2 se calculeazã în


mod identic cu cel bilimitat cu deosebirea cã în expresia χ2 se înlocuiesc valorile (1 +
γ )/2 cu γ şi (1 - γ)/2 cu 1 - γ. Se obţin deci monolimitele:

I" =
(n − 1) ⋅ s 2 ; S " = (n − 1) ⋅ s 2 (1.40)
χ [2γ ;n −1] χ [1−γ ; n −1 ]

Exemplul 12. Pentru exemplul precedent sã se calculeze monolimitele abaterii s


tandard pentru o încredere γ = 0,9.
Din tabelul 1.3 ( Anexa 1) se obţin:

χ [20,9 ;24] = 33,2 ; χ [20,1;24] = 15,7

Rezultã astfel:

24 ⋅ 14,36 2 24 ⋅ 14,36 2
I" = = 12,2 ; S " = = 17,7
33,2 15,7

Observaţie: Monolimitele obţinute sunt mai strânse decât limitele intervalului


bilimitat.

1.5.3.3 Calculul intervalului bilimitat, IC8 , al raportului dintre douã abateri


standard.

Se calculeazã utilizând distribuţia Fischer sau prescurtat F.( Tabelul acestei distribuţii se
gãseşte în Anexa 1, Tabelul 1.4) Relaţiile de calcul sunt:

2
s  s 
I =  2  ⋅ F[(1−γ ) / 2;n1 −1;n2 −1] ; S =  2  ⋅ F[(1+γ ) / 2;n1 −1;n2 −1] (1.41)
 s1   s1 

Limitele intervalului se determinã prin extragerea rãdãcinii patrate din I respectiv S.

Exemplul 13. Sã se calculeze intervalul de confidenţã, IC8 al raportului abaterilor


standard s1 şi s2, pentru o încredere de 0,8, pentru douã eşantioane având
urmãtoarele caracteristici:

Eşantionul n xEs s
1 8 46,7 14,3
2 7 38,5 8,4
28
Capitolul 1.

Din tabelul 1.4 (Anexa 1) se determinã valoarea lui F pentru:

F[(1−0,8 )/ 2;8−1;7 −1 ] = F[0,1;7;6 ] = 0,354 ; F[(1+0,8 ) / 2;8−1;7−1 ] = F[0,9;7;6 ] = 3,010

Se calculeazã limitele intervalului de varianţã al raportului

2 2
 8,4   8,4 
I' =   ⋅ 0,354 ≅ 0,35 ; S = 
'
 ⋅ 3,010 ≅ 1,02
 14,3   14,3 

1.5.3.4. Calculul intervalului monolimitat,IC9, al raportului dintre douã abateri


standard.
Limita inferioarã respectiv superioarã se calculeazã cu relaţia:

2 2
s   s2 
I " =  2  ⋅ F[(1−γ );n1 −1;n2 −1] ; S " =   ⋅ F[(1+γ );n1 −1;n2 −1 ]
 s1   s1 

Exemplul 14. Sã se calculeze monolimitele raportului abaterilor standard s1 şi s2 de


la exemplul precedent.
Se calculeazã în acest scop valorile:

F[1−0,8;8−1;7−1 ] = F[0, 2;7;6 ] = 0,515; F[0,8;8−1;7−1 ] = F[0,8;7;6 ] = 2,75

şi monolimitele aferente

2 2
 8,4   8,4 
I" =   ⋅ 0,515 = 0,42 ; S " =   ⋅ 2,75 = 0,98
 14,3   14,3 

1.6. Ipoteze statistice

1.6.1. Introducere. Ipotezele statistice reprezintã afirmaţii privind populaţiile, eşantioanele


precum şi asupra parametrilor acestora.
Ipotezele statistice trebuiesc, în anumite cazuri, sã fie validate. Validarea acestor ipoteze
se face în majoritatea cazurilor prin efectuarea de experienţe. Sunt însã şi cazuri când
metoda experimentalã nu conduce la concluzii suficient de clare, validarea sau
invalidarea ipotezei ce se verificã se face utilizând metodele furnizate de statistica
matematicã.
Validarea ipotezelor statistice poate conduce la douã tipuri de erori:

- eroare de tip α, când se refuzã o ipotezã care este în realitate valabilã;


- eroare de tip β când se acceptã o ipotezã care este însã în realitate falsã.
29
Capitolul 1.

Notaţiile α respecti β sunt chiar probabilitãţile celor douã genuri de erori. Alegerea
acestor probabilitãţi trebuie fãcutã cu deosebitã atenţie şi numai în urma analizei
consecinţelor erorilor care pot apare în cazul unei alegeri incorecte.

Exemplul 15. Se cumpãrã un lot de electrozi destinaţi unor îmbinãri sudate ce


trebuie sã îndeplineascã satisfacerea unor condiţii severe de funcţionare. În cazul în
care analizele prealabile de lot, conduc la respingerea acestuia, (eroare de tip α ),
consecinţele nu sunt prea grave deoarece se poate comanda un nou lot. Deci
valoarea care se atribuie erorii α poate fi relativ mare ( α = 0,45 ). Dacã însã se
lotul este necorespunzãtor şi este admis, poate fi compromisã întreaga producţie. În
consecinţã valoarea erorii de tip β trebuie sã fie foarte micã ( β = 0,005 ).
În majoritatea analizelor statistice din domeniul tehnic, se utilizeazã erori de tip α
şi ipotezele analizate se noteazã cu H, în timp ce pentru alternativa ipotezei se
utilizeazã notaţia A.

1.6.2. Ipoteze destinate testãrii mãrimilor centrale ale populaţiilor şi eşantioanelor.

1.6.2.1. Ipoteza I1: O eşantionare asupra unei populaţii normale, având media xPo
conduce sau nu la aceeaşi medie.
Ipoteza se scrie sub forma H: xPo = xEs faţã de A: xEs < > xPo. (1.42)

Rezolvarea ipotezei se face în urmãtoarele etape:

 Se calculeazã media xEs şi abaterea standard s din cele n mãsurãtori ale


eşantionului şi se alege valoarea α.
 Se calculeazã to cu relaţia:

x Es − x Po n ⋅ ( x Es − x Po )
t0 = = (1.43)
sx s

 Din tabelul 1.1 (Anexa 1) se aleg valorile lui t în funcţie de α şi n ; t [ (1−α / 2 ) ; n−1]
 Dacã to nu este cuprins în intervalul -t şi +t , atunci ipoteza H se respinge cu riscul
α. În caz contrar ipoteza se acceptã, deci:

t0 ∈ {− t , + t} şi ipoteza H se acceptã (1.44)


t0 ∉ {− t , + t} şi ipoteza H se respinge cu riscul α. (1.46)

Exemplul 16. Dintr-o populaţie având media xPo = 39,768 şi abaterea standard s =
9,699 se extrag 18 eşantioane, fiecare eşantion fiind format din 10 mãsurãtori,
având caracteristicile ca în tabelul 1.12. Ne propunem sã analizãm eşantioanele care
conduc la aceeaşi medie cu a populaţie, utilizând probabilitatea α= 0,2 şi α = 0,1.
Se aleg din tabelul distribuţiei student valorile limitã pentru cele douã probabilitãţi:

t '[(1−α / 2 );n −1] = t '[(1−0, 2 / 2 );10−1] = t '[0,9;9 ] = 1,383


t"[(1−α / 2 );n −1] = t"[(1−0,1 / 2 );10−1] = t"[0,95;9 ] = 1,833

Se calculeazã pentru fiecare eşantion valorile to şi se complecteazã tabelul 1.12


30
Capitolul 1.

Concluzii: Cu cât valoarea probailitãţii a este mai mare, cu atât intervalul de


acceptare va fi mai redus. Astfel pentru cazul analizat, la α = 0,2 ies din intervalul
de acceptare al ipotezei eşantioanele cu numerele de ordine 1, 7, 12, 13 şi 16 în
timp ce pentru α = 0,1 ies din domeniul de acceptare doar eşantioanele 7, 13 şi 16.

Tabelul 1.12. Valorile centralizate privind datele iniţiale şi finale pentru Ex.l 15.
nr. Xes s to nr. XEs s to
1 31,5 15,6 -1,676 10 39,2 16,4 -0,11
2 39,8 18,4 0,055 11 39,5 15 -0,00565
3 41,7 12,6 0,485 12 32,6 14,7 -1,542
4 45 13,9 1,190 13 49,1 13,5 2,186
5 45,2 14 1,227 14 35,7 12,4 -1,037
6 36,7 18,1 -0,536 15 42,1 17,5 0,421
7 49,3 14 2,153 16 34,6 8 -2,043
8 36,5 16 -0,646 17 45,2 13,5 1,272
9 45,2 14,3 1,201 18 44,2 11,9 1,178

1.6.2.2. Ipoteza I2: O eşantionare dintr-o populaţie are media diferitã faţã de
media xPo a populaţie. Ipoteza se scrie sub forma:

H: xEs ≤ xPo faţã de A: xEs > xPo (1.47)


respectiv H: xEs ≥ xPo faţã de A: xEs < xPo (1.49)

Rezolvarea se face asemãnãtor cu ipoteza I1 cu excepţia stabilirii valorii ce se va


citi din tabel t care are forma: t [ (1−α ) ; n −1 ] iar :
ipoteza H : xEs ≤ xPo se respinge cu riscul α dacã to > t. (1.50)
respectiv, H : xEs ≥ xPo se respinge cu riscul α dacã to < t. (1.51)

Exemplul 17. Pentru datele din exemplul anterior ne propunem sã determinãm


eşantioanele care conduc la medii mai mici respectiv mai mari decât cea a populaţie
utilizând aceleaşi valori pentru α.

Cazul α = 0,2
Stabilirea limitei admise pentru t = t’

t’[ 0,8 ; 9 ] = 0,833

- Ipoteza H: xEs ≤ xPo se respinge pentru urmãtoarele eşantioane: 4, 5, 7, 9, 13, 17


şi 18 a cãror medii sunt mai mici decât media populaţie, pentru α = 0,2.

- Ipoteza H: xEs ≥ xPo se respinge pentru urmãtoarele eşantioane: 1, 2, 3, 6, 8, 11,


10, 12, 14, 15 şi 16 care dau medii mai mari decât media populaţie, pentru α = 0,2.

Cazul α = 0,1
Stabilirea limitei admise pentru t = t”
31
Capitolul 1.

t”[ 0,9 ; 9 ] = 1,383

- Ipoteza H: xEs < = xPo se respinge pentru urmãtoarele eşantioane: 7 şi 13.


- Ipoteza H: xEs ≥ xPo se respinge pentru eşantioanele: 1, 2, 3, 4, 5, 6, 8, 9, 10, 11,
12, 14, 15, 16, 17, 18.

1.6.3. Testarea ipotezelor asupra mãrimilor centrifuge ale populaţiilor.

1.6.3.1. Ipoteza I3 : un eşantion dintr-o populaţie are sau nu abaterea standard


s egalã cu abaterea standard a populaţie σ.

Enunţul ipotezei este urmãtorul:

H: s2 = s2 faţã de A: s2 = s2. (1.52)

La rezolvarea ipotezei se parcurg urmãtoarele etape:

 Se determinã mãrimile statistice ale eşantionului, xEs , s şi se impune α.


 Se calculeazã χ2 cu relaţia:

∑ (x i − x )2
χ 02 = (1.53)
σ0

 Din tabelul 1.2 ( Anexa 1 ) se aleg valorile χ2 care limiteazã intervalul de


acceptare, în funcţie de α şi n:

χ 2 α 
;χ  1−α 
(1.54)
I  ; n −1 S ; n −1
2   2 

 Ipoteza H se acceptã dacã χ2ο se plaseazã între cele douã limite:

χ 2 α 
< χ 02 < χ 2  1−α 
(1.55)
I  ; n −1  S ; n −1
2   2 

Exemplul 18. Pentru exemplul 16 ne propunem sã determinãm eşantioanele care au


aceeaşi abatere standard cu a populaţie σ = 9,699 a populaţie.

În vederea stabilirii acestor eşantioane se determinã în primul rând valorile χ2ο


pentru cele 18 eşantioane. Se obţin astfel datele de mai jos.

Nr. χ2 ο Nr. χ2 ο Nr. χ2 ο


1 22,39 7 23,55 13 24,74
2 31,24 8 18,81 14 20,70
3 15,73 9 12,18 15 19,88
4 17,77 10 5,89 16 16,77
32
Capitolul 1.

5 30,14 11 16,77 17 14,15


6 18,03 12 13,03 18 28,17

Se calculeazã limitele:

α = 0,2 χ2I[ 0,1 ; 9 ] = 4,17 ; χ2S[ 0,9 ; 9 ] = 14,7


α = 0,1 χ2I[0,05 ; 9 ] = 3,33 ; χ2S[0,95 ; 9 ] = 16,6
α = 0.05 χ I[0,025 ; 9 ] = 2,7
2
; χ2S[0,975 ; 9 ] = 19,0

Observaţii: pentru α = 0,2 eşantioanele 9, 10, 12 şi 17 pot conduce la


abateri standard egale cu abaterea standard a populaţie.
Pentru α = 0,1mai poate fi acceptate şi eşantionul 3.
Pentru α = 0,05 limitele fiind mai largi, vor intra şi eşantioanele 4, 6, 8, 11
şi 16.

1.6.3.1. Ipoteza I4: un eşantion dintr-o populaţie are abaterea standard diferitã
faţã de cea a populaţie. Acest lucru se poate exprima astfel:

H : s2 ≤ σ2ο faţã de A : s2 > σ2o (1.56)


H : s2 ≥ σ2ο faţã de A : s2 < σ2o (1.57)

Modul de rezolvare a problemei este asemãnãtor cu cel al ipotezei I3 cu


deosebirea cã valorile χ2I pentru se calculeazã cu ajutorul relaţiei :

χ2I[ (1-α) ; n-1 ] pentru ipoteza H : s2 ≤ σ2ο.

În calculul monolimitei superioare se utilizeazã:

χ2S[ a ; n-1 ] pentru ipoteza H : s2 ≥ σ2o .

Ipoteza H : s2 ≤ σ2ο se refuzã dacã χ2o > χ2I. (1.58)


Ipoteza H : s2 ≥ σ2o se refuzã dacã χ2o < χ2S (1.59)

Exemplul 18 Pentru exemplul precedent, sã verificãm eşantioanele care dau abateri


standard mai mari, respectiv mai mici decât cea a populaţie.

Se calculeazã limitele de acceptabilitate cu ajutorul relaţiilor de mai sus:

α = 0,2 χ2I[ 0,8 ; 9 ] = 12,2 ; χ2S[ 0,2 ; 9 ] = 5,38


α = 0,1 χ2I[0,9 ; 9 ] = 14,7 ; χ2S[0,1 ; 9 ] = 4,17
α = 0.05 χ2I[0,95 ; 9 ] = 16,9 ; χ2S[0,05 ; 9 ] = 3,33

Observaţii: Folosind datele deja calculate pentru χ2ο rezultã urmãtoarele:

Ipoteza H : s2 ≤ σ2ο conduce la eliminarea urmãtoarelor eşantioane :


cazul α = 0,2 exclude eşantioanele { 1, 2, 3, 4, 5, 6, 7, 8, 11, 12, 13, 14, 15, 16, 17, 18 }
cazul α = 0,1 exclude eşantioanele { 1, 2, 3, 4, 5, 6, 7, 8, 11, 13, 14, 15, 16, 18 }
cazul α = 0,05 exclude eşantioanele { 1, 2, 4, 5, 6, 7, 8, 13, 14, 15, 18 }
33
Capitolul 1.

1.6.4 Testarea ipotezelor asupra mediilor şi varianţelor a douã populaţii.


1.6.4.1 Ipoteza I5: douã eşantionãri din douã populaţii au aceeaşi medie.

H : xEs1 = xEs2 faţã de A : xEs1 ≠ xEs2 (1.60)

Rezolvarea ipotezei conduce la urmãtoarele cazuri:

a) varianţele eşantioanelor sunt egale I51;


b) varianţele eşantioanelor sunt diferite I52 ;
c) populaţiile sunt împerecheate I53 .

Cazul a) poate fi exprimat sub forma:

I51 = H : xEs1 = xEs2 faţã de A : xEs1 ≠ xEs2 : σ21 = σ22 . (1.61)

Se calculeazã:

x Es1 − x Es2
to = (1.62)
s x1 − x2

unde:
1 1 
s x21 − x2 = s 2 ⋅  +  (1.64)
 n1 n2 
s2 =
(n1 − 1) ⋅ s12 + (n2 − 1) ⋅ s22 (1.64)
n1 + n2 − 2

iar s21 şi s22 sunt varianţele, apropiate nimeric ale eşantioaneloer din fiecare
populaţie. Se alege α şi din tabelul 1.1 ( Anexa 1 ) se aleg valorile pentru:

t[(1−α / 2 );n1 + n2 −2 ] . (1.65)

Ipoteza se respinge în cazul în care to se gãseşte în afara intervalului

[ -t ; + t ] . (1.66)

Exemplul 19. În vederea omologãrii unor tehnologii de sudare s-au efectuat


verificãri tehnologice de rezilienţã la temperatura de -36oC pentru mai multe
variante tehnologice de sudare. Astfel, la sudarea cu varianta tehnologicã 1şi 4 s-au
obţinut datele din tabelul urmãtor:
Se verificã dacã cele douã variante conduc la aceeaşi medie a rezilienţei. Se
calculeazã mediile şi deviaţiile şi se obţine: x 1 = 28,17 şi s2 = 5,36 pentru varianta
A iar pentru varianta B, x 2 = 31,29 şi s2 = 5,24. Deoarece cele douã deviaţii sunt
apropiate ca valoare, putem sã determinãm:
34
Capitolul 1.

Varianta tehnologicã
1 4
29 34
27 29
24 33
30 32
30 28
29 30
- 33

5,36 + 5,24
s2 = = 5,3
2

deviaţia consideratã comunã

s x21 − x2 = 5,3 ⋅ (1 6 + 1 7 ) = 1,64 ; s x1 + x2 = 1,64 = 1,28

Se calculeazã to şi se obţine

28,17 − 31,29
t0 = ≅ −2,44
1,28

Se alege a = 0,05 pentru verificarea ipotezei. Rezultã astfel :

t[(1−a ) / 2;n1 + n2 −2 ] = t[0,975;11] = 2,201

Se observã cã t0 ∉[ -2,201 ; 2,201 ] şi deci ipoteza conform cãreia variantele


tehnologice 1 şi 4 conduc la aceleaşi valori ale rezilienţei se respinge cu riscul de
5%.

1.6.4.2 Ipoteza I52 :

Se considerã cã varianţele celor douã populaţii sunt diferite, ipoteza se scrie astfel:

I 52 ≡ H :x Po1 = x Po 2 faţã de A : x Po1 ≠ x Po2 ; σ 1≠ σ


2 2
2 (1.67)

Pentru verificarea ipotezei se calculeazã :

x1 − x2
t0 = (1.68)
s12 s22
+
n1 n2

Se alege a şi din distribuţia Student rezultã:

t1 = t[(1−α / 2 ); n1 −1 ] ; t 2 = t[(1−α / 2 ); n2 −1 ] (1.69)

Utilizând t1 şi t2 se calculeazã un t ponderat :


35
Capitolul 1.

s12 s2
⋅ t1 + 2 ⋅ t2
n n2
t= 1 2 (1.70)
s1 s22
+
n1 n2

Ipoteza se respinge când to se gãseşte în afara intervalului de acceptare, determinat de -


t şi t.

Exemplul 20: Sã verificãm dacã mediile mãsurãtorilor celor douã populaţii din
exemplul precedent sunt diferite.

s12 5,36 s 2 5,24


= ≈ 0,9 ; 2 = = 0,75
n1 6 n2 7

La aceste valori se calculeazã t1 [ 0,975 ; 5 ] = 2,571 şi t2 [ 0.975 ; 6 ] = 2,447


Valoarea ponderatã a lui t este:

0,9 ⋅ 2,571 + 0,75 ⋅ 2,447 28,17 − 31,29


t= = 2,515 ; t0 = = −2,434
0,9 + 0,75 5,36 / 6 + 5,24 / 7

Deoarece to ∈ [ -2,515 ; 2,515 ] rezultã cã ipoteza este adevãratã, mediile


experimentelor fiind diferite.

1.6.4.3 Ipoteza I53 : Se enunţã astfel:

I53 ≡ H: x 1 = x 2 ceea ce indicã x D = x 1 - x 2 = 0 (1.71)


faţã de A: x 1 ≠ x 2 identicã cu x D= x 1- x 2≠ 0 (1.72)

Pentru calculul ipotezei se parcurg urmãtoarele etape:

 Se calculeazã:

∑ (D − D ) 2

∑ (x )
n n i
D 1 1
t0 =
sD
;D = ⋅
n ∑D
1
i =
n

1
1i − x 2i ; s D = i =1
n ⋅ (n − 1)
(1.73)

 Se impune α şi se calculeazã (1-α / 2) şi (n-1).


 Din tabelul 1.1 ( Anexa 1) se alege t[ (1-α / 2 ) ; n - 1 ].
 Ipoteza I53 ≡ H: x 1 = x 2 indicã x D = x 1 - x 2 = 0 este acceptatã dacã:
to ∈ [ - t ; t ] (1.74)

1.6.4. Ipoteza I6 se exprimã sub forma:

douã eşantionãri din douã populaţii nu au aceeaşi medie.

I6 ≡ H : xPo1 ≤ xPo2 faţã de A : xPo1 > xPo2 sau (1.75)


I6 ≡ H : xPo1 ≥ xPo2 faţã de A : xPo1 < xPo2 (1.76)
36
Capitolul 1.

Ipoteza este identicã d. p. d. v. al structurãrii cu ipoteza I5, singura deosebire constând în


faptul cã în locul valorii 1- α / 2 se utilizeazã 1 - α.

Exemplul 21. În scopul stabilirii unei tehnologii de sudare, s-a urmãrit


determinarea unghiul de îndoire pentru 6 epruvete sudate cu o variantã de sudare şi
8 epruvete sudate cu o a doua variantã de sudare mai economicã. Se cere sã se
indice dacã între variantele de sudare utilizate existã o diferenţã din punct de vedere
al unghiului de îndoire al epruvetelor. Datele obţinute în urma mãsurãtorilor sunt
urmãtoarele:

Unghiul de îndoire
Varianta 1 Varianta 2
98 140
120 130
115 122
132 153
104 118
106 120
126 138
- 129
801 1050 Σxi
114,428 131,25 x
153,9524 141,35715 s2
12,4078 11,8894 s
2,447 2,365 ti
-2,671 t0
1,8023 t

Valorile pentru to şi t au fost calculate cu relaţiile:

x1 − x2 114,42857 − 131,25
to = = = −2,671
s12 s22 153,9524 141,35712
+
+
n1 n2 7 8
s12 s22
⋅ t1 +
⋅ t2
n1 n2
t= = 1,8023
s12 s22
+
n1 n2

Cum to < t şi deci ipoteza H : x 1 ≤ x 2 nu poate fi respinsã, fiind astfel de preferat


varianta tehnologicã 2 care conferã proprietãţi mai ridicate sudurilor, prin prisma
probei de îndoire a epruvetelor sudate.
Modul de abordare a variantelor ipotezei I6 poate fi prezentat sugestiv în tabel.

Tabelul 1.13. Relaţii necesare abordãrii ipotezei I6 .


Ipoteza H : cazul analizat to t
x1≤ x2 σ1 = σ 2
2 2
x 1 − x2 ne = n1 + n2 - 2
t[ ( 1 - α ) ; ne ]
s x1 − x2
37
Capitolul 1.

x1≤ x2 σ 12 ≠ σ 22 x1 − x2 ne = n1 - 1
nd = n2 - 1
s12 s 22
+ t1 = t[ (1 - α ) ; ne ]
n1 n2 t2 = t[ (1 - α ) ; nd ]
xD≤0 Date D t[ ( 1- α ) ; n - 1]
împerechiate
sD
x1≥ x2 σ 12 = σ 22 x1 − x 2 ne = n1 + n2 - 2
t[ ( 1 - α ) ; ne ]
s x1 − x2
x2≥ x2 σ 12 ≠ σ 22 x1 − x2 ne = n1 - 1
2 2
nd = n2 - 1
s s
1
+ 2 t1 = t[ (1 - α ) ; ne ]
n1 n2 t2 = t[ (1 - α ) ; nd ]
xD≥0 Date D t[ ( 1- α ) ; n - 1]
împerechiate
sD

1.6.6. Ipoteza I7: se referã la egalitatea varianţelor ce aparţin la douã populaţii:

H : σ 12 = σ 22 faţã de A : σ 12 ≠ σ 22. (1.77)

Verificarea ipotezei se face în modul urmãtor:

 Se calculeazã Fo cu relaţia:

s12
F0 = : (1.78)
s22

 Se calculeazã domeniul de acceptare pentru Fo în acest scop fiind necesarã


impunerea probabilitãţii α.

FI = F α 
; FS = F α 
(1.79)
 2 ; n1 −1; n2 −1   1− 2 ; n1 −1; n2 −1 
   

 Ipoteza se acceptã în cazul în care:

F0 ∈ {FI ; FS }. (1.80)

Exemplul 22. În exemplul 21, valorile dispersiilor celor douã eşantioane sunt
apropiate, sã verificãm dacã acestea sunt suficient de apropiate pentru ca problema
sã poatã fi rezolvatã cu ipoteza I51. Se testeazã deci ipoteza H : s12 = s22 faţã de A :
s12 ≠ s22 .

În acest scop se calculeazã:

Fo = 12,40775 / 11,88 = 1,0436

Limitele intervalului pentru α = 0,05 vor fi:


38
Capitolul 1.

FI = F[0,05; 6; 7 ] = 0,259 ; FS = F[0,95; 6 ; 7 ] = 4,21

deoarece F0 ∈ {0,259 ; 4,31} ipoteza este acceptatã cu un risc de greşalã α = 5%.

1.6.7. Ipoteza I8: se referã la verificarea inegalitãţii dispersiilor conform ipotezelor:

H : σ12 ≤ σ22 faţã de A : σ1 > σ2


2 2
(1.81)
H : σ 12 ≥ σ22 faţã de A : σ12 < σ22 (1.82)

Verificarea ipotezei se face în modul urmãtor:

 Se calculeazã Fo cu relaţia:

s12
F0 = : (1.83)
s22

 Se calculeazã domeniul de acceptare pentru Fo în acest scop fiind necesarã


impunerea probabilitãţii α.

FI = F[1−α ; n1 −1; n2 −1 ] ; FS = F[α ; n1 −1; n2 −1 ] (1.84)

 Ipoteza H : σ12 ≤ σ22 se respinge cu riscul α dacã Fo ≥ FI (1.85)


 Ipoteza H : σ 12 ≥ σ22 se respinge cu riscul α dacã Fo ≤ FS (1.86)

Exemplul 23. Sã se determine situaţia a douã dispersii ce au fost determinate prin


eşantionare din douã populaţii, dacã : x 1 = 15 ; x 2 = 18 ; s12 = 6,8 ; s22 = 9,7 şi n1
= n2 = 5.

Se calculeazã Fo = s12 / s22 = 6,8 / 9,7= 0,701 şi se impune α = 0,1


Se calculeazã FI = F[ 0,9 ; 4 ; 4 ] = 4,11 şi FS = F[ 0,1 ; 4 ; 4 ] = 0,243.
Deoarece Fo < FI se acceptã ipoteza σ12 < σ22 cu riscul 100 α = 10 %.

1.6.8 Testarea ipotezelor ce se referã la mediile şi varianţele ce aparţin mai multor


populaţii.

1.6.8.1. Ipoteza I9: În multe situaţii eşantioanele se încadreazã în categorii diferite,


ceea ce conduce la obţinerea de distribuţii multinominale şi nu de distribuţii
binominale. Pentru fiecare dintre categoriile în care se împart eşantioanele existã
o valoare admisã, numitã valoare aşteptatã (Vadm). Ipoteza I9 are ca scop
verificarea încadrãrii datelor eşantioanelor pe care s-au efectuat mãsurãtorile
experimentale (Esi) în limitele celor impuse ( Vadm ).
Ipoteza se noteazã astfel:

H : pi = pio pentru i = 1, 2, … , k ; (1.87)


39
Capitolul 1.

Unde:
k reprezintã numãrul de clase mãsurate.
Testarea valabilitãţii ipotezei se face astfel:

 Se calculeazã χo cu relaţia:
2

χ 02 = ∑
k
(Esii − Vadmi )2 (1.88)
i =1 Vadmi

 Se stabileşte riscul α şi se calculeazã: 1- α şi k - 1 (1.89)

 Se citeşte din tabelul distribuţiei χ2 valoarea χ 2 [ (1−α ) ; k −1]


 Ipoteza H : pi = pio este acceptatã dacã:

χo2 < χ2. (1.90)

Observaţie: În cazul în care valorile admise lipsesc, atunci acestea pot fi înlocuite cu
media aritmeticã a valorilor mãsurate.

Exemplul 24. În scopul verificãrii unui lot de cabine sudate, sunt necesare
verificarea unor cote de montaj (Clasa A); verificãri de cote de gabarit (Clasa B) ;
unele verificãri ale aparatelor electrice (Clasa C); verificãrile unor parametrii ai
sistemului de comandã hidraulic (Clasa D) ca şi verificarea nivelului de zgomot şi
dotãri suplimentare (Clasa E).

Din cauza numãrului mare de cabine din lot, verificarea se face pe un eşantion
format din 4 cabine alese la întâmplare. Valorile admise pentru cabine au fost
cuantificate sub formã de punctaje ce reprezintã abaterea de la valoarea nominalã
impusã în caietul de sarcini al produsului, pentru a putea stabili modul în care, la
depãşirea limitelor maxime şi minime admise, lotul sã poatã fi considerat
necorespunzãtor. Utilizarea punctajelor face de asemenea posibilã şi stabilirea
preşului de achiziţie al lotului, ca şi orientarea spre pieţele de desfacere.

Cabina Punctaj realizat Total Media Σ(Vmasi − V mas ) 2


puncte χ2 =
V mas

A B C D E
1 80 79 82 56 65 362 72,4 7,1436
2 74 89 79 60 72 374 74,8 5,9326
3 92 80 80 54 70 376 75,2 10,702
4 86 90 81 60 64 381 76,2 9,459
Total 332 338 322 230 271 1493 24,2372
Media 83 84,5 80,5 57,5 67,75 373,25
Necesar
cl. I - a 100 100 100 100 100 500 100
cl. II - a 80 80 80 67 90 397 79,4
cl. III - a 80 80 80 67 67 374 74,8

Se verificã dacã lotul aparţine calsei de calitate I - a:


40
Capitolul 1.

Se calculeazã:

χ 02 =
(83 − 100)2 + (84,5 − 100)2 + (80,5 − 100)2 + (57,5 − 100)2 + (67,75 − 100)2 = 37,56
100
Se impune α = 0,1 şi pentru ne = k - 1 rezultã din tabel valorilor distribuţiei χ2

χ2nec = χ2[ 0,9 ; 4 ] = 7,78

Deoarece ipoteza H : pi = pio nu este adevãratã, ( χ2nec < χ2ο ) lotul de cabine nu
corespunde clasei de calitate I - a pentru care s-a efectuat testul.

Se verificã dacã lotul aparţine calsei de calitate a II - a:


Se calculeazã:

χ 02 =
(83 − 80)2 + (84,5 − 80)2 + (80,5 − 80)2 +
80
(57,5 − 67)2 +
(67,5 − 90)2 = 7,3164
67 90

Deoarece ipoteza H : pi = pio este adevãratã, ( χ2nec > χ2ο ) lotul de cabine
corespunde clasei de calitate a II - a pentru care s-a efectuat testul.

Sã verificãm acum dacã existã diferenţe între produsele din lotul primit :
Se calculeazã punctajul mediu al eşantionului:

x Es = 373,25

se calculeazã χ2ο

χ 92 =
(362 − 373,25)2 + (274 − 373,25)2 + (376 − 373,25)2 + (381 − 373,25)2 = 0,5218
373,25
se impune α = 0,05 şi pentru ne = n - 1 rezultã χ2nec = χ2[ 0,95 ; 3 ] = 7,81
Deoarece ipoteza H : pi = pio este adevãratã, ( χ2nec > χ2ο ) se admite cu riscul de 5
% ipoteza cu privire la inexistenţa diferenţelor majore între cabinele din lot.

1.6.8.2. Ipoteza I10: se referã la testarea egalitãţii mediilor unui numãr mare de
populaţii.
Expresia ipotezei este:

H : x 1 = x 2 = x 3 =.....= x k faţã de A : x 1 ≠ x 2 ≠ x 3 ….≠ x k


(1.91)

Ipoteza se verificã pe baza distribuţiei Fischer, prin calcularea


41
Capitolul 1.

k k

∑ (xi − x )2 ⋅ nei
i =1
∑ (ne
i =1
i − 1)
Fo = ⋅ (1.92)
k −1
∑∑ (x − xi )
k ne
2
ij
i =1 j =1

unde:

nei - reprezintã numãrul de eşantioane din fiecare populaţie


k - numãrul populaţiilor ce se testeazã
x i - mediile eşantioanelor din fiecare populaţie
xij - datele mãsurãtorilor din eşantioane
x - media eşantioanelor

stabilirea erorii α şi calcularea mãrimilor:


k–1
Σ(nei - 1); pentru i = 1,…, k (1.93)

Citirea din tabelul distribuţiei Fischer a valorii:

F = F  k 
(1.94)
 (1−α );( k −1); ( nei −1)  

  
 i =1 

Analizarea corectitudinii ipotezei se face prin compararea valorilor Fo şi F, astfel dacã

Fo < F (1.95)

atunci ipoteza se admite cu încrederea 1 - α , în caz contrar, aceasta se refuzã cu riscul


α. Deci dacã Fo este mai mic decât F atunci mediile populaţiilor pot fi considerate egale.

Exemplul 25. Datele de mai jos reprezintã rezultatul mãsurãtorilor efectuate pe


câte un eşantion din cinci populaţii. Se propune testarea ipotezei conform cãreia
cele cinci populaţii au medii egale cu x = 21.

Eşantioanele populaţiilor
1 2 3 4 5
22 19,8 20 24 19
Valorile 24 23,2 19 20 22
măsurătorilor 23 - 21 21 23
xij 22 - - 20 22
- - - 22 -
Total 91 43 60 107 86
Media xi 22,75 21,5 20 21,4 21,5

În scopul verificãrii ipotezei se calculeazã:


k
k-1=5-1=4 ; ∑ (ne
i =1
i − 1) = 3 + 1 + 2 + 4 + 3 = 13
42
Capitolul 1.

∑ (ne ⋅ (x − x ) ) =4 ⋅ (22,75 − 21)


k

i
2 2
+ 2 ⋅ (21,5 − 21)2 +
i =1

3 ⋅ (20 − 21) + 5 ⋅ (21,4 − 21) + 4 ⋅ (21,5 − 21) = 14,3


2 2 2

∑∑ (x − xi ) = (22 − 22,75)2 + (24 − 22,75)2 +


k nei

ij
i =1 j =1

(23 − 22,75)2 + (22 − 22,75)2 + (19,8 − 21,5)2 +


(23,2 − 21,5)2 + (20 − 20)2 + (19 − 20)2 + (21 − 20)2 +
(24 − 21,4)2 + (20 − 21,4)2 + (21 − 21,4)2 + (20 − 21,4 )2 +
(22 − 21,4)2 + (19 − 21,5)2 + (22 − 21,5)2 + (23 − 21,5)2 +
(22 − 21,5)2 = 30,73

Se calculeazã Fo :

14,3 13
F0 = ⋅ = 1,5123
4 30,75
Se alege α = 5% şi din tabelul distribuţiei Fischer pentru:

F = F [ 0,95 ; 4 ; 13 ] = 3,18

Concluzie: Deoarece Fo este mai mic decât F ipoteza cã cele k = 5 populaţii, din
care s-au extras eşantioanele analizate, au aceeaşi medie şi aceasta este egalã cu 21.
Ipoteza este valabilã pentru un risc α = 5 %.

1.6.8.2. Ipoteza I11: se referã la testarea egalitãţii abaterilor standard pebtru un


numãr mare de populaţii. Expresia acestei ipoteze este:

H : σ12 = σ22 = … = σk2 faţã de A : σ12 ≠ σ22 … ≠ σk2 (1.96)

Algoritmul de calcul pentru aceastã ipotezã este:

 Se calculează mărimile:

∑∑ (x − xi )2 ; s 2 =
 k 
( ) ∑ ((ne ( ))
nei k k
− 1) ⋅ log si2
W
W = ij k ∑
; B =  ( nei − 1)  log s 2 ; B1 =
 i =1 
i
j =1 i =1

i =1
( nei − 1) i =1

 
 k 
 ~2 χ0
2

χ 0 = 2,3026 ⋅ (B − B1 ) ; C = 1 +
1 1 1
2

3 ⋅ (k − 1)  i =1 nei − 1
− ∑ k  ; χ0 = C (1.97;1.98)

 ∑ (nei − 1) 
 i =1 

 Se adoptã riscul a şi se calculeazã 1- α şi k - 1 (1.99)


 Se alege din tabelul valorilor distribuţiei:

χ2 ( χ [21−α ;k −1 ] ) (1.100)
43
Capitolul 1.

 Ipoteza I11 se admite dacã

χ~ 02 < χ2 (1.101)

în caz contrar, ipoteza se respinge cu riscul α.


Observaţie: În scopul uşurãrii calculelor este recomandabilã întocmirea urmãtorului tabel
suplimentar:
Eşant. Σxij Gradele de Inversul si2 log(si2) x < la si2 >
libertate gradelor de
libertate
1 Σ(x1j - x 1)2 n1 - 1 1 / (n1 - 1 ) s12 log(s12) (n1 - 1) log(s12)
2 Σ(x2j - x 1)2 n2 - 1 1 / (n2 - 1 ) s22 log(s22) (n2 - 1) log(s22)

k Σ(xkj - x 1)2 nk - 1 1 / (nk - 1 ) sk2 log(sk2) (nk - 1) log(sk2)
Sume W Σ (ni - 1) 1 / Σ (ni - 1) - - Σ(ni - 1) log(si2)

Exemplul 26. Pentru populaţiile analizate în exemplul precedent, se pune problema


verificãrii ipotezei egalitãţii varianţelor.
În acest scop se calculeazã mãrimile: ΣΣ (xij - x i)2 şi s2i pentru fiecare eşantion în parte.
Nr. ΣΣ (xij - x i)2 s2i nei nei - 1 1 / (nei - 1) log(s2i ) (nei - 1) log(s2i )
Crt
1 2,75 0,9167 4 3 0,3333 -0,0378 -0,0126
2 5,78 2 2 1 1 0,301 0,301
3 2 1,5 3 2 0,5 0,176 0,088
4 11,2 2,8 5 4 0,25 0,4472 0,1118
5 9 3 4 3 0,3333 0,4771 0,15904
Σ W = 30,73 13 2,41667 B1=0,647244

Se calculeazã:
W 30,73  k 
s2 = k
=
13

≅ 2,36 ; B =  nei − 1 ⋅ log( s 2 )= 13 ⋅ log(2,36) ≅ 4,857
 i =1 
∑ (ne
i =1
i − 1)

χ = 2,3026 ⋅ (B − B1 ) = 2,3026(4,857 − 0,647244 ) ≅ 9,693


2
0

C = 1 + 1 /(3 ⋅ 4) ⋅ ( 2,41667 − 1 / 13) ≅ 1,195; χ~02 = 2,36 / 1,195 = 8,11


Se stabileşte riscul α = 1% şi se citeşte din repartiţia χ2 valoarea:

χ nec
2
= χ [20,99; 4 ] = 13,28
Comparând cu valoarea se observã cã χ~02 < χ2nec şi în consecinţã trebuie acceptatã
ipoteza cã varianţele celor cinci populaţii sunt egale.

Concluzie: Atât mediile geometrice [Exemplul 25] cât şi varianţele [Exemplul 26]
celor cinci populaţii analizate sunt egale, în limita unui risc 5% pentru medii şi 1%
pentru varianţe.
Capitolul 1. 44

1.7. Alegerea parametrilor şi variabilelor de stare ale obiectului cercetării.


Programarea experienţelor.

1.7.1. Consideraţii generale. Fenomenelor ce se studiază cu metodele de analiză


operaţională, reprezintă un sistem influenţat de o serie de variabile ce pot fi împărţite în
variabile de intrare şi variabile de ieşire. În cazul proceselor de sudare, în cele mai multe
cazuri, variabilele de intrare sunt parametrii tehnologici principali, iar variabilele de ieşire
sunt proprietăţie cordoanelor sudate sau unele proprietăţi ale structurii sudate.

1.7.2. Modul de determinare al variabilelor de stare. În cazul tehnologiilor şi


echipamentelor de sudare, variabilele de stare pot fi clasificate în următoarele categorii:
- Variabile tehnologice, exprimă dependenţa existentă între diverşii parametrii de
sudare. Exemplu: ( Is = f(procedeu , de), Ua = f(procedeu, Is), kVs = f( procedeu, de), Is
= f(procedeu, tip cordon, de, b, d, de , δ⋅b, d×de, b×de )
2

- Variabile economice, exprimă de cele mai multe ori dependenţa între preţul de
cost, consumul energetic sau norma de timp şi parametrii principali de sudare.
- Variabile structurale, exprimă dependenţa între proprietăţile cordoanelor obţinute
şi parametrii tehnologici de sudare, având scopul de a asigura realizarea cerinţelor de
calitate impuse atât structurii sudate în cazul general cât şi cordoanelor de sudare din
care este alcătuită.

Exemplul 28. HM = f(t8/5 , Pcm, C ); B = f( procedeu, tip cordon, de, Vs, b, kVs ,
Ua,Vs, kVs×de, kVs2, Vs2, de2 ); p = f( procedeu, tip cordon,de, b, Vs, kVs,Ua ) sau
kb = ( procedeu, ordine de sudare, El, δmin, număr treceri, As, Iz ) etc.
Alegerea variabilelor de stare se face în funcţie de următoarele condiţii:
a) variabila de stare trebuie să aibă o valoare cuantificabilă, deci să poată fi
exprimată prin numere.
b) variabila de stare trebuie să poată fi determinată prin măsurători directe.
c) datele măsurătorilor trebuie să fie eficiente din punct de vedere statistic, deci să
prezinte o dispersie cât mai mică în timpul experimentării.

1.7.3. Alegerea parametrilor procesului. Se face în funcţie de următoarele consideraţii:

a) parametrii trebuie să poată fi reglabili în limitele dorite de cercetător


b) precizia de măsurare trebuie să fie cunoscută şi suficient de ridicată,
c) diversele combinaţii ale valorilor parametrilor nu trebuie să conducă la valori în
afara domeniului de aşteptare pentru variabilele de stare.
d) între parametrii şi variabilele de stare trebuie să existe o legătură biunivocă cu
scopul de a permite construirea modelului matematic care reprezintă o etapă
importantă a cercetării.

1.7.4. Experimentul preliminar. Reprezintă o etapă importantă în organizarea şi


selectarea cunoştinţelor ce se referă la fenomenul ce se va modela. Acest lucru se poate
obţine de regulă prin următoarele moduri.

a) Utilizând literatura de specialitate,


b) Încercări preliminare, cu caracter de validare a unor ipoteze,
c) Încercări preliminare conform unui plan de experimentări redus. Aceste tipuri de
experienţe se numesc “experimente de selecţionare “ şi au de regulă un număr
Capitolul 1. 45

mai mic de experienţe decât numărul de parametrii a căror influenţă se analizează


ceea ce face ca planurile conform cărora se realizează aceste să se numească
“suprasaturate”.

1.7.5. Analiza dispersională. Informaţia furnizată de un experiment preliminar trebuie să


poată permite calculul complet al caracteristicilor statistice. Dar aceste caracteristici sunt
insuficiente pentru construirea modelului. Analiza dispersională are ca scop principal
determinarea influenţelor pe care diferiţi parametrii le au asupra valorilor medii ale
variabilelor de stare ale procesului ce se analizează ca şi exprimarea cantitativă a
modificărilor ce survin. Pentru realizarea acestui deziderat trebuiesc însă separaţi
parametrii procesului care au caracter aleator de cei cu caracter sistematic.
Descompunerea efectelor parametrilor aleatori de cele ale parametrilor sistematici se
face prin descompunerea dispersiei totale a măsurătorii în dispersiile componente şi
analizarea lor.

1.7.5.1. Analiza dispersională a fenomenelor ce depind de un singur parametru.

Se consideră că asupra variabilei de stare (y) influenţa hotărâtoare o are un


singur parametru A. Să analizăm dacă acest parametru are o influenţă sistematică sau
aleatoare asupra variabilei de stare. În acest scop cercetările vor fi organizate pe m
nivele de variaţie ale parametrului, pentru fiecare nivel fiind efectuate n măsurători,
conform următorului tabel.

Tabelul 1. 14 Programarea experienţelor pe baza analizei dispersionale pentru un singur parametru.


Nr. de Nivelul parametrilor
determinãri
1 2 … m
1 y11 y21 … ym1
2 y12 y22 … ym2
… … … … …
n y1n y2n … ynm
Suma Σ Y1 Σ Y2 … Σ Ym
Media y1 y2 … ym
Dispersia s12 s22 … sm2

2
Datele din tabel sunt utilizate pentru determinarea dispersiilor so reprezentând dispersia
reproductibilităţii şi s2 reprezentând dispersia factorului analizat. Expresia dispersiei s2
este următoarea:

s2 = n⋅sA2 + so2 (1.102)

unde:
2
sA este dispersia provocată de parametrul analizat.
Cele două dispersii s2 şi so2 se compară cu ajutorul criteriului Fischer, verificându-
se semnificaţia raportului:

Fc = s2 / s02 . (1.103)
Capitolul 1. 46

Se stabileşte nivelul riscului α (de regulă α = 0,05 ), se calculează gradele de


libertate ν = m - 1 şi νο = m⋅n - 1. Din tabelul repartiţiei Fischer se citeşte valoarea FT
conform:

FT = F[ 0,05;ν ;ν 0 ] . (1.104)

Astfel dacă Fc > FT se consideră că parametrul analizat are o influenţă


semnificativă asupre variabilei de stare deci poate fi considerat ca fiind parametru
tehnologic. Atunci şi numai atunci determinarea unei legi de repartiţie în funcţie de acest
parametru este îndreptăţită.

Valoarea dispersiei ce corespunde parametrului este:

sA2 = (s2- s02) / n . (1.105)

Dacă însă Fc ≤ FT rezultă că sA2 ≈ 0 şi se consideră că parametrul A este aleator, având


o influenţă neesenţială asupra fenomenului analizat.
Calculul dispersiilor se efectuează conform algoritmului:

 se calculează suma patratelor valorilor din tabel:

m n
S1 = ∑∑ y ij2 (1.106)
i =1 j =1

 Se calculează suma abaterilor mediilor aritmetice pe coloane:

m
S 2 = ∑ n ⋅ yi
i =1
(1.107)
1 n 1
y i = ∑ y ij = Yi ; i = 1,.., m
n j =1 n

 Se calculează suma valorilor obţinute prin înlocuirea valorilor din tabel cu media
lor aritmetică

1
S 3 = m ⋅ n ⋅ yT2 = YT2
m⋅n
(1.108)
1 m n 1
yT = ∑∑
m ⋅ n i =1 j =1
y ij =
m⋅n
YT

2 2
Cu ajutorul acestor sume de pătrate se determină dispersiile so şi s fiind recomandată
utilizarea unui calcul tabelar.
Capitolul 1. 47

2
Tabelul 1.15 . Calculul dispersiilor so şi s2
Divergenţa datelor Suma Nr. grade de Dispersia Expresia dispersiei
experimentale pătratelor libertate dorită pe componente
Între coloane S2 - S3 ν=m-1 s2 = ( S2 - S3 ) / ν s2 = n⋅ sA2 - so2
Între rânduri S1 - S2 νo = m(n - 1) so2 = (S1 - S2) / νo so2(*)
Totală S1 - S3 ν 02 = m ⋅ n − 1 s 02 = ( S 1 − S 3 ) ν 0 s02 = (ν ⋅ s2 +ν0 ⋅ s02 ) (ν +ν0 )

(*) reprezintă media aritmetică a dispersiilor si2 ( i = 1, … , m conform tabelului 1.14).

Algoritmul de calcul al dispersiilor şi cel de luare a deciziei se bazează pe ipoteza


dispersiilor omogene, ipoteză care va trebuii în prealabil verificată cu ajutorul criteriului
Cochran sau a ipotezei I11 folosind în acest sens datele din tabelul 1.14. Este de preferat
utilizarea ipotezei I11 deoarece aceasta permite şi efectuarea unui număr de măsurători
diferite pentru fiecare palier al parametrului ceea ce înlocuieşte utilizarea criteriului
Bartlett pentru verificarea omogenităţii dispersiilor pe coloane. În cazul când numărul de
măsurători pentru fiecare palier este diferit problema analizei dispersionale se rezolvă
astfel:

 Se utilizează tabelul 1.16

Tabelul 1.16. Gruparea datelor măsurătorilor pe nivele ale parametrului în cazul numărului diferit de
măsurători între nivele.
Nr. de Nivelul parametrilor
determinări
1 2 … m
1 y11 y21 … ym1
2 y12 y22 … ym2
… … … … …
ne y1n y2n … ynm
nei ne1 ne2 … nem
Suma Σ Y1 Σ Y2 … Σ Ym
Media y1 y2 … ym
Dispersia s12 s22 … sm2

 Mărimile S1, S2 şi S3 se calculează în acest caz cu relaţiile:

m nei
S1 = ∑∑ y ij2
i =1 j =1 (1.109)
ν = m −1
m
1 2
S2 = ∑ Yi
i =1 nei
m
(1.110)
ν 0 = ∑ nei − m
i =1
Capitolul 1. 48

∑Y i
2

S3 = i =1
m

∑ ne
i =1
i (1.111)
m
ν 0 = ∑ nei − 1
i =1

 Atât mărimile S1, S2 şi S3 cât şi gradele de libertate astfel determinate vor trebuii
2
introduse în tabelul de calcul al dispersiilor şi vor trebuii astfel determinate so şi
2
s . Prin aplicarea criteriului Fischer se determină dacă parametrul este
semnificativ şi poate fi exprimată o lege de regresie între variabila de stare şi
acesta. În caz afirmativ, se determină dispersia parametrului cu relaţia:

(s )
m
2
− s 02 ⋅ (m − 1)∑ nei
s A2 = i =1
(1.112)
 m 
2 m 
 ∑ nei  − ∑ nei 
2

 i =1  i =1 

 În caz contrar, sA2 se consideră nulă iar între parametru şi variabila de stare nu
există decât o legătură aleatoare, nicidecum una funcţională.

Verificarea omogenităţii mediei.

Dacă în urma analizei dispersionale se ajunge la concluzia că parametrul este


semnificativ, deci (Fc > FT ) atunci va trebuii efectuată obligatoriu şi verificarea asupra
egalităţii mediilor, în conformitate cu criteriul Duncan sau cu ipoteza I10 urmată în cazul
când aceasta este invalidată de ipoteza I2 pentru grupe de paliere. Scopul acestei
verificări constă în determinarea valorilor mediei y i care diferă semnificativ, deci
reprezintă întradevăr un nivel al parametrului. În cazul în care ipoteza I10 este adevărată,
rezultă că toate măsurătorile au aceeaşi medie deci se încadrează în acelaşi nivel de
variaţie al parametrului. Acest lucru poate conduce la adăugarea de măsurători cu
valoari ale parametrului mai mari sau mai mici decât cele iniţiale şi refacerea analizei.
Pot fi acum înlocuite coloanele ce reprezintă datele iniţiale cu o singură coloană
reprezentativă.
Scopul acestei analize constă în determinarea nivelului de variaţie Dx al parametrului,
nivel extrem de important în stabilirea planului experimental complet ca şi în cazul
experienţelor factoriale.

1.7.5.2. Analiza dimensională multifactorială sau multiparametru.

Trebuie executată în cazul în care se testează influenţa mai multor parametrii


asupra variabilei de stare ca şi influenţa interacţiunii dintre aceşi parametrii.
Scopul analizei constă în determinarea parametrilor, al puterii acestora ca şi al
interacţiilor dintre parametrii care au un grad maxim de semnificaţie deci pe baza lor
poate fi obţinută legea de regresie multiparametru cea mai apropiată de realitate. Pentru
Capitolul 1. 49

a prezenta modul de efectuare al analizei dimensionale multifactoriale se consideră un


experiment în care intervin trei parametrii A, B, C pe un număr diferit de nivele A : i =
1,…,m ; B : i =1,…,n ; C : i =1,…,k . Pentru fiecare determinare de nivel, i ,analiza se
efectuează o singură măsurătoare. Rezultatele măsurătorilor pot fi grupate în tabele de
tipul tabelului 1.17.
Tabelul 1.17. Modul de organizare al experienţelor pentru analizarea unui program compus din trei
parametrii.
C
A B C1 C2 … Ck
A1 B1 y111 y112 … y11k
… … … … …
Bn y1n1 y1n2 … y1nk
… … … … …
Am B1 ym11 ym12 … ym1k
… … … … …
Bn ymn1 ymn2 … ymnk

Dispersia sA2 caracterizează efectul produs prin cele m valori ale parametrului A, ceilalţi
2 2
doi parametrii fiind constanţi. Identic şi pentru sB şi sC . Aceste dispersii formând
împreună cu dispersiile interacţiunilor dintre parametrii dispersia totală a măsurătorii.
Dispersiile sAB2, sBC2 şi sAC2 caracterizează efectele a trei interacţiuni de ordinul întâi.
Astfel sAB2 indică măsura în care modificarea măsurătorii (y) produsă de modificarea
parametruli A este influenţată de valoarea pe care o are parametrul B şi invers. Celelalte
interacţiuni de ordinul întâi se interpretează analog.
Ca şi în cazul dispersiei ce depinde de un singur parametru, dispersia
reproductibilităţii so2 caracterizează eroarea experimentului. În cazul analizei
multifactoriale pot intervenii şi dispersiile de ordinul doi, trei etc. Astfel dispersia de
ordinul doi reflectă în ce măsură efectele interacţiunilor de ordinul întâi AB , BC, şi CD
depind de valorile parametrilor C, A, respectiv B. Notaţia pentru dispersia de ordinul doi
în acest caz este sABC2. Deoarece de regulă aceste interacţiuni fie lipsesc, fie sunt foarte
scăzute, ele nu sunt calculate separat ci sunt incluse în so2. Dacă însă analiza conduce
la erori mari, deci aceste efecte nu mai pot fi neglijate, atunci sunt calculate şi aceste
influenţe.În cazul dispersiei trifactoriale, componentele dispersiei generale sunt date în
tabelul 1.18.

Tabelul 1.18. Componentele dispersiei globale pentru analiza trifactorială.


Sursa dispersiei Gradele de libertate Dispersia Componentele dispersiei
globale
Parametrul A m -1 s62 2 2 2
n⋅k⋅sA + k⋅sAB + n⋅sAC + so
2
2 2 2 2 2
Parametrul B n-1 s5 m⋅k⋅sB + k⋅sAB + m⋅sBC + so
2
Parametrul C k-1 s4 m⋅n⋅sC + m⋅sBC + n⋅sAC + so2
2 2 2
2 2 2
Interacţiunea AB ( m - 1 )( n - 1) s3 k⋅sAB + so
2
Interacţiunea BC ( n - 1 )( k - 1 ) s2 m⋅sBC + so2
2
2 2 2
Interacţiunea AC ( m - 1 )( k - 1) s1 n⋅sAC + so
2
Reproductibilitatea ( m - 1 )( k - 1 )( n - 1) so
Suma mnk - 1 ---- ----

În scopul uşurării calculelor, tabelul 1.19 va fi divizat în trei sutabele, câte unul pentru
fiecare parametru a cărui influenţă se analizează. În prealabil trebuind calculate următorii
termeni:
Capitolul 1. 50

n m n
Wiu = ∑ yiju ;i = 1,.., m;u = 1,.., k ; X ju = ∑ yiju ; j = 1,.., n;Z ij = ∑ yiju (1.113)
j =1 i =1 u =1

Tabelul 1.19 Valorile măsurătorilor parametrilor A şi C


C
A C1 C2 … Ck Σ
A1 W11 W12 … W1k W1
A2 W21 W22 … W2k W2
… … … … … …
Am Wm1 Wm2 … Wmk Wm
Σ W’1 W’2 … W’k W

Tabelul 1.20 Valorile mãsurãtorilor parametrilor B ºi C


C
B C1 C2 … Ck Σ
B1 X11 X12 … X1k X1
B2 X21 X22 … X2k X2
… … … … … …
Bm Xm1 Xm2 … Xmk Xm
Σ X’1 X’2 … X’k X

Tabelul 1.21 Valorile mãsurãtorilor parametrilor B ºi A


A
B A1 A2 … Ak Σ
B1 Z11 Z12 … Z1k Z1
B2 Z21 Z22 … Z2k Z2
… … … … … …
Bm Zm1 Zm2 … Zmk Zm
Σ Z’1 Z’2 … Z’k Z

Se vor calcula astfel conform tabelului 1.19 sumele:


2
m k m  k
m 
∑∑W 2
ij ∑ W2
i ∑  ∑ Wij2 

i =1  j =1

S1 =
i =1 j =1
; S 2 = i =1 = 
n n⋅k n⋅k
2
(1.114)
k  m  k

∑ 2
W 'i ∑  ∑ Wij 

i =1  j =1
 2
S 3 = i =1 =  ;S = W
m⋅n m⋅n m⋅n⋅k
4

iar:
k m
W = ∑ W ' i = ∑ Wi (1.115)
i =1 i =1

Pe baza acestor sume vor fi calculate următoarele dispersii:


Capitolul 1. 51

Tabelul 1.21. Dispersiile calculate pe bazele datelor din tabelul 1.21


Sursa dispersiei Suma pătratelor Gradele de libertate Dispersia
Parametrul A S2 - S4 m-1 s62
Parametrul C S3 - S4 k-1 s42
2
Interacţiunea AC S1 - S2 - S3 + S4 (m - 1)( k - 1) s1
Suma S1 - S4 m× n -1 ---

Analog vor fi determinate şi celelalte dispersii dar prin utilizarea datelor din tabelele 1.20
şi 1.21. Se determină în final suma pătratelor tuturor măsurătorilor ca şi diferenţa ST - S4
cu relaţia:

m n k
S T = ∑∑∑ y iju
2
(1116)
i =1 j =1 u =1

2
Pentru a se determina so din diferenţa ST - S4 se scad sumele de pătrate care s-au
utilizat la calculul dispersiilor s12, s22, s32, s42, s52, s62. Faţă de acest mod de abordare a
problemei, pentru cazul în care pentru fiecare combinaţie de parametrii se efectuează un
număr oarecare de determinări, p, calculul dispersiilor se va efectua utilizând
următoarele etape:

 Se calculează valorile medii:

∑y ijku
y ijk = u =1
(1.117)
p
Se parcurg etapele prezentate în exemplul precedent pentru calculul dispersiilor:
s12, s22, s32, s42, s52, s62 . Dar în acest caz în tabelul datelor generale vor fi introduse pe
poziţiile i,j,k valorile medii calculate anterior. Pe baza acestuia fiind determinate celelalte
tabele de lucru.

 Se calculează dispersia reproductibilităţii cu relaţia:


S 5 − S 'T
s02 = (1.118)
( p − 1) ⋅ m ⋅ n ⋅ k
unde:
m n k p
S 5 = ∑∑∑∑ y ijuv
2
;
i =1 j =1 u =1 v =1
2
m n k
 p  (1.119)
m n k ∑∑∑  ∑ y ijuv 
i =1 j =1 u =1  v =1
S 'T = p ⋅ ∑∑∑ y iju
2
= 
i =1 j =1 u =1 p
 Se calculează:

2
 m n k p 
 ∑∑∑∑ y jkuv 
 
 i =1 j =1 u =1 v =1 
S6 = (1.120)
m⋅n⋅k ⋅ p
 Se calculează:
Capitolul 1. 52

S7 = S5 - S6 . (1.121)
 Se calculează suma pătratelor corespunzătoare interacţiunii de ordinul doi,
pentru cazul a trei parametrii SABC .

S ABC = S 7 − ( S 2 − S 4 ) − ( S 3 − S 4 ) − ( S ' 2 − S ' 4 ) −


( S1 + S 4 − S 2 − S 3 ) − ( S '1 + S ' 4 − S ' 2 − S ' 3 ) − (1.122)
( S "1 + S "4 − S "2 − S "3 )
2
 Se determină dispersia interacţiunii de ordinul doi s7 .

S ABC
2
s ABC = = s 72 (1.123)
(m − 1)(n − 1)(k − 1)

Exemplul 29. Se analizează duritatea maximă obţinută în ZIT -ul unui cordon de sudură în funcţie
de energia liniară de sudare şi temperatura de preîncălzire a materialului. Încercarea s-a efectuat pe
patru nivele atât în ce priveşte energia liniară de sudare El cât şi în ceea ce temperatura de
preîncălzire. Procedeul de sudare a fost MAG iar datele privind duritatea au fost măsurate pe trei
epruvete prelevate dintr-un lot de probă.

Tabelul 1.22. Datele măsurătorilor privind duritatea în ZIT funcţie de temperatura de preîncălzire
(T) şi energia liniară de sudare (El)
Energia Numărul de Temperatura de preîncălzire (T) Sume pe
liniară de determinări T1 = 00C T2 = 400C T3 = 800C T4 = rânduri
0
sudare. paralele 120 C
(El) Duritatea maximă măsurată în ZIT Σ
1 384 368 343 316
2 387 366 345 319
El1 3 388 364 342 321
[18 kJ/cm] Σ 1159 1098 1030 956 4243
Media 386,33 366 343,33 318,66
S5i 149253,4 133956 117877,8 101549 502632,95
1 302 287 271 254
2 312 288 270 256
El2 3 307 289 269 252
[22 kJ/cm] Σ 921 864 810 762 3357
Media 307 288 270 254
S5i 94249 82944 72900 64516 314609
1 260 247 236 226
2 261 252 235 227
El3 3 259 242 237 225
[26 kJ/cm] Σ 780 741 708 678 2907
Media 260 247 236 226
S5i 67600 61009 55696 51076 235381
1 235 227 220 210
2 236 225 218 212
El4 3 234 226 219 214
[32 kJ/cm] Σ 705 678 657 636 2676
Media 235 226 219 212
S5i 55225 51076 47961 44944 199206
Total pe 3565 3381 3204 3033 13183
coloane
Capitolul 1. 53

S1= 4523721+2831481+2118429+1792854 = 11266485 / 3 ; S1 = 3755495


S2 =18003049+11269449+8450649+7160976 = 44884123 / 12 ; S2=3740343,583
S3=12709225+11431161+10265616+9199089 = 43605091 / 12 ; S3=3633757,583
S4 = 3620656,021
S5 = 1251828,953 3 = 3755486,859

Tabelul 1.23. Dispersia bifactorialã pentru datele din tabelul 1.x+8.


Dispersia Expresia Gr. Simb. Valoare F
parametrului Lib
Temp. de S3-S4 =13101,56 3 s32=12sT2+3sTE2 4367,2 FT =
2
preâncălzire T +s0 19,2
2 2 2
Energ. liniară E S2- S4 =119687,6 3 s2 =12sE +3sTE 39895 FE = 175
2
+s0
2 2 2
Interacţiunea S1+S4-S3-S2 = 9 s1 =3sTE +s0 227,76 F0 = 895
param. TE 2049,85
2
Eroarea S5-S1 = 8,14 32 s0 0,2544
experimentală
Suma S5-S4 47

Se alege nivelul de semnificaţie: α = 0,05 (5%). Se determină ν = n-1= 3 şi νο =


(m-1)(n-1) = 9. Se citesc valorile tabelate pentru testul Fischer, Fc = F[ 0,05 ; 3 ; 9 ] =
3,86. Deoarece FT, FE şi F0 sunt mai mari decât Fc atât parametrii T şi E analizaţi
cât şi interacţiunea dintre aceştia sunt semnificativi. Se calculează dispersia
determinată de parametrul E ( El ).

sT2 = (s32 - s12)/12 = 344,9


sE2 = (s22 - s12)/12 = 3305,67
sTE2 = (s22 - s02)/3 = 75,833

Abaterea medie pătratică normală este:

so2 0,2544
sy = = = 0,2912
p 3

Prin extragerea valorilor criteriului de rang, în conformitate cu criteriul Duncan,


pentru o încredere de 95%, rezultă diferenţa dintre ranguri în funcţie de gradele de
libertate ca în tabelul:

Tabelul 1.24.Valorile rangurilor conform criteriului duncan pentru α=0,05


n 2 3 4
Rangurile 2,87 3,02 3,11
cele mai mici ranguri semnificative 0,042 0,045 0,046
( c.m.m.r.s )

Astfel sintetizând datele din măsurătoare se analizează influenţa pe care


temperatura de preîncălzire o are asupra durităţii din ZIT.
Capitolul 1. 54

Tabelul 1.25. Verificarea semnificaţiei diferenţei dintre mediile măsurătorilor. Influenţa


temperaturii.
Energia Temperaturil Diferenţa dintre c.m.m.r.s. Semnificaţia
liniarã e comparate medii diferenţei
T1 → T4 67,67 0,046 Semnificativã
T1 → T3 43 0,045 “
El1 = T1 → T2 20,33 0,042 “
14 kJ/cm T2 → T4 47,34 0,045 “
T2 → T3 22,67 0,042 “
T3 → T4 24,67 0,042 “
T1 → T4 53 0,046 “
T1 → T3 37 0,045 “
El2 = T1 → T2 19 0,042 “
20 kJ/cm T2 → T4 34 0,045 “
T2 → T3 18 0,042 “
T3 → T4 16 0,042 “
T1 → T4 33 0,046 “
T1 → T3 23 0,045 “
El3 = T1 → T2 12 0,042 “
26 kJ/cm T2 → T4 21 0,045 “
T2 → T3 11 0,042 “
T3 → T4 10 0,042 “
T1 → T4 23 0,046 Semnificativã
T1 → T3 16 0,045 “
El4 = T1 → T2 9 0,042 “
32 kJ/cm T2 → T4 14 0,045 “
T2 → T3 7 0,042 “
T3 → T4 7 0,042 “

Tabelul 1.26. Verificarea semnificaţiei diferenţei dintre mediile măsurătorilor. Influenţa


energiei liniare.
Temperatura Energiile Diferenţa dintre c.m.m.r.s. Semnificaţia
liniare medii diferenţei
comparate
C1 →C4 151,33 0,046 Semnificativã
C1 →C3 127,33 0,045 “
C1 →C2 79,33 0,042 “
T1 = 00C C2 → C4 72 0,045 “
C2 → C3 48 0,042 “
C3 →C4 24 0,042 “
C1 → C4 140 0,046 “
C1 →C3 119 0,045 “
C1 →C2 78 0,042 “
T1 = 400C C2 → C4 62 0,045 “
C2 → C3 41 0,042 “
C3 → C4 21 0,042 “
C1 → C4 124,33 0,046 “
C1 →C3 107,33 0,045 “
C1 →C2 73,33 0,042 “
T1 = 800C C2 → C4 51 0,045 “
C2 → C3 34 0,042 “
C3 →C4 17 0,042 “
C1 → C4 106,66 0,046 “
Capitolul 1. 55

C1 →C3 92,66 0,045 “


C1 →C2 64,66 0,042 “
T1 =1200C C2 → C4 42 0,045 “
C2 → C3 28 0,042 “
C3 →C4 14 0,042 “

Concluzii: a). Temperatura de preîncălzire influenţează semnificativ duritatea


maximă din zona influenţată termic a oţelului analizat. Nivelele de temperatură la
care s-au efectuat încercările sunt semnificative.
b). Energia liniară de sudare este un parametru ce are un efect semnificativ asupra
durităţii sub cordon şi nivelele de variaţie ale acestui parametru sunt semnificative.
c). Rezultatele analizei dispersionale au condus la obţinerea unor informaţii
importante referitoare la relizarea ulterioară a modelării în scopul optimizării
procesului de sudare folosind metoda experimentului factorial. Nivelul de bază
fiind T2 şi El2. Intervalul de variaţie al parametrilor ( ∆zi ) va fi:

∆T = Ti+1 - Ti = 400C. ( i = 1,2,3 )


∆El = El2 - El1 = 4 kJ /cm

1.7.6. Analiza de corelaţie. Este utilizată deseori pentru rezolvarea majorităţii problemelor
premodelării. Cu ajutorul ei se estimează legătura dintre variabilele de stare şi parametrii
procesului ca şi gradul de semnificaţie al acestora. Pentru a stabili corelaăia dintre două
mărimi aleatoare x şi y, se va apela la noţiunile de covarianţă şi coeficient de corelaţie.

1.7.6.1. Covarianţa a două variabile aleatoare.


Se calculează cu relaţia:
n

n n ∑x y i i

∑ ( xi − x )( yi − y ) ∑ xi y i − i =1

n
cov( x, y ) = i =1
= i =1
(1.124)
n −1 n −1

unde n reprezintă numărul de perechi de date xi , yi. Astfel în cazul unei dependenţe
între mărimile x şi y valoarea covarianţei va fi diferită de zero.
Indicatorul dependenţei dintre cele două variabile este coeficientul de corelaţie - rx,y -
care se calculează cu relaţia:
n

cov( x, y )
∑ (x i − x )( yi − y )
rx , y = = i =1
(1.125)
sx ⋅ s y (n − 1) ⋅ s x ⋅ s y

Cu cît valoarea absolută a coeficientului de corelaţie este mai apropiată de unitate, cu


atât este mai puternică legătura de corelaţie. patratul coeficientului de corelaţie se
notează cu Rxy = rxy2 şi se numeşte coeficient de determinare, exprimând acea parte a
variabilei y care poate fi atribuită factorului x. Semnificaţia coeficientului de corelaţie
poate fi verificată utilizând criteriile F, t sau valorile din tabelul 1.27:

1.7.6.1.Corelaţia multiplă. În situaţia în care se doreşte exprimarea dependenţei


între o mărime de stare y şi parametrii procesului ce o influenţează (x1,x2,…,xm) se
Capitolul 1. 56

apelează la calculul unui indicator numit coeficient de corelaţie multiplă. Acest indicator
exprimă gradul de dependenţă liniară între variabila de stare şi grupul de parametrii, deci
implicit legea de dependenţă y = f(x) este de forma:

f ( x ) = yˆ = a 0 + a1 x1 + a 2 x 2 + ... + a m x m . (1.126)

Coeficientul de corelaăie multiplă fiind în acest caz calculat cu relaţia:


n
1− ∑(y i =1
i − yˆ ) 2
ry , x1x2 ... xm = n
(1.128)
∑( y
i =1
i − y) 2

unde y$ - reprezintă valoarea calculată a mărimii y în punctul i iar y valoarea medie a


măsurătorilor efectuate asupra variabilei de stare y. Şi în acest caz valoarea
coeficientului de corelaţie va fi subunitară. Dacă aceasta este unitară atunci se consideră
că între y şi grupul de variabile x1,x2, .. ,xm există o legătură funcţională în timp ce pentru
valori apropiate de zero se poate considera că y nu depinde de aceşti parametrii.
Calculul coeficientului de corelaţie multiplă poate fi simplificat dacă se cunosc
valorile coeficienţilor de corelaţie simplă. În acest caz se calculează determinantul de
corelaţie de forma:

1 ryx1 ... ryxm


rx y 1 ... rx1xm
P= 1 ; (1.129)
... ... ... ...
rxm y rxm x1 ... 1

P
ry , x1x2 ... xm = 1 − ; (1.130)
P11

1 ... rx1 xm
P11 = ... ... ... (1.131)
rxm x1 ... 1

Pătratul coeficientului de corelaţie multiplă se numeşte coeficient de determinare multiplă


având aceeaşi semnificaţie ca în cazul corelaţiei a două variabile.

1.7.6.1.Corelaţia parţială. Are ca scop determinarea legăturii între două variabile în


ipoteza că restul variabilelor sunt constante. Este des utilizată în cazul modelării
proceselor multivariabile complexe, în care legătura dintre parametrii este influenţată de
interacţiunea acestora cu restul parametrilor. Astfel dacă în procesul ce se analizează
intervin m parametrii, calculul coeficienţilor de corelaţie parţială se face cu relaţia:

P1i
ryxi −1 , x1x2 ... xm = − (1.132)
P11 ⋅ Pii
Capitolul 1. 57

Relaţie în care P11 ; P1i şi Pii sunt complemenţii algebrici ai determinantului P în raport cu
elementele aflate pe liniile şi coloanele indicate în indici.

1.7.6.1.Verificarea semnificaţiei coeficienţilor de corelaţie.


Coeficienţii de corelaţie simplă se verifică cu ajutorul criteriului Student. În acest
scop se calculează numărul gradelor de libertate ν = n - 2, se alege riscul de greşală α şi
se calculează valoarea:

ν
tc = ryx ⋅ (1.133)
1 − ryx2

Se citeşte din tabelul distribuţiei Student valoarea tT = t[ α ; ν = n-2 ] .


Dacă tc > tT atunci este admisă ipoteza existenţei unei legături de corelaţie între
variabilele y şi x în caz contrar ipoteza existenţei unei corelaţii între variabilele analizate
se respinge.
În scopul uşurării calculelor, ca şi a unei decizii rapide, coeficientul de corelaţie poate fi
verificat rapid utilizând tabelul 1.27.
În mod similar se testează coeficienţii de corelaţie parţială cu deosebirea că
numărul gradelor de libertate se calculează cu relaţia ν = n - 2 - e, e fiind în acest caz
numărul de variabile independente excluse.

Tabelul 1.27. Coeficienţi orientativi pentru corelaţie.


Grade de Nivelul de ţncredere α
libertate 5% 1% 0,1%
ν = n -2 Rx,y
5 0,75 0,87 0,95
10 0,58 0,71 0,82
15 0,48 0,61 0,72
20 0,42 0,53 0,65
25 0,38 0,49 0,60
30 0,35 0,45 0,55
35 0,32 0,42 0,52
40 0,30 0,39 0,49
50 0,27 0,35 0,44
60 0,25 0,33 0,41
70 0,23 0,3 0,38
80 0,22 0,28 0,36
90 0,21 0,26 0,34
100 0,19 0,25 0,32
120 0,18 0,23 0,30
150 0,16 0,21 0,26
200 0,14 0,18 0,23
300 0,11 0,15 0,19
400 0,1 0,13 0,16
500 0,09 0,11 0,15
700 0,07 0,10 0,12
900 0,06 0,09 0,11
> 1000 < 0,06 < 0,09 < 0,11

Coeficientul de corelaţie multiplă poate fi testat cu ajutorul criteriului Fischer. În acest


scop se calculează:
Capitolul 1. 58

2
n − m − 1 ry , x1x2 ... xm
Fc = (1.134)
m 1 − ry2, x1x2 ... x3

unde
n - reprezintă numărul de măsurători
m - reprezintă numărul de parametrii ai procesului.
Se alege din tabelul distribuţiei Fischer valoarea FT = F[ α ; m ; n-m-1 ].
Dacă Fc > FT se admite cu probabilitatea 1-α ipoteza conform căreia există o
corelaţie funcţională între variabila de stare y şi grupul de parametrii x1,x2,…,xm şi deci
are sens căutarea unei legi de regresie pentru exprimarea acestui fenomen.
În caz contrar ipoteza se respinge şi se consideră că între variabilele analizate nu
poate fi exprimată o dependenţă funcţională deci grupul de parametrii nu are importanţă
din punct de vedere tehnologic.

Exemplul 30: Să se analizeze existenţa unei corelaţii între datele din tabelul 1.28.
Tabelul 1.28 Date iniţiale şi calcule preliminare destinate efectuării analizei de corelaţie.
2 2 2
Nr. x1 x2 y x1 x2 x1x2 y x1 y x2 y
Crt
1 7 29 52,5 49 841 637 367.5 1522,5 2756,25
2 6,7 91 32,9 44,89 8281 609,7 220,43 2993,9 1082,41
3 4,9 82 37,4 24,01 6724 401,8 183,26 3066,8 1398,76
4 4,6 99 37,9 21,16 9801 455,4 174,34 3752,1 1436,41
5 5 148 20,7 25 21904 740 103,5 3063,6 428,49
6 4,9 165 17,5 24,01 27225 808,5 85,75 2887,5 306,25
7 4,2 133 49 17,64 17689 558,6 205,8 6517 2401
Σ 37,3 747 247,9 205,71 92465 4211 1340,58 23803,4 9809,57

o Calculul mărimilor centrale şi centrifuge:

37,3 747 247,9


x1 = = 5,329; x 2 = = 106,71; y = = 35,41
7 7 7
( 205,71 − 37,32 / 7) (92465 − 747 2 / 7)
s x1 = = 1,077; s x2 = = 46,096;
6 6
(9809,57 − 247 2 / 7)
sy = = 13,104
6

o Calculul coeficienţilor de corelaţie simplă:

4211 − 7 ⋅ 5,329 ⋅ 106,71


rx1x2 = = 0,773; rx21x2 = 0,598
6 ⋅ 1,077 ⋅ 46,096
1340,58 − 7 ⋅ 5,329 ⋅ 35,41
ryx1 = = 0,2324 ; rx21x2 = 0,054
6 ⋅ 1,077 ⋅ 13,104
23803,4 − 7 ⋅ 106,71 ⋅ 35,41
ryx2 = = 0,73; ryx2 2 = 0,533
6 ⋅ 46,096 ⋅ 13,104

o Calculul coeficienţilor de corelaţie parţială:


Capitolul 1. 59

ryx1 , x2 = (0,2324 − 0,73 ⋅ 0,77) / (1 − 0,533)(1 − 0,598) = −0,765


ryx2 , x1 = (0,73 − 0,773 ⋅ 0,2324) / (1 − 0,054)(1 − 0,598) = 0,8924

o Calculul coeficientului de corelaţie multiplă:

ry , x1x2 = (0,057 + 0,533 − 2 ⋅ 0,23224 ⋅ 0,73 ⋅ 0,773) /(1 − 0,596) = 0,901


ry2. x1x2 = 0,8123

o Testarea coeficienţilor de corelaţie simplă:

− 0 , 773 7−2
tc ( x1 x 2 ) = = 2 ,713
1 − 0 ,596
0 , 2324 7−2
t c ( yx 1 ) = = 0 ,534
1 − 0 , 054
− 0 , 73 7−2
t c ( yx 2 ) = = 2 , 388
1 − 0 ,533
t T = t [ 0 , 05 ; 5 ) = 2 ,57
t c ( x1 x 2 ) > tT
t c ( yx 1 ) = 0 ,534 < t T
t c ( yx 2 ) = 2 , 23 < t T

o Coeficienţii de corelaţie simplă nu sunt toţi semnificativi, cu excepţia tc(x1x2)


ceilalţi sunt nesemnificativi. Verificarea coeficienţilor de corelaţie parţială folosind
criteriul t:

− 0,765 7 − 2 − 1
tc ( yx1. x2 ) = = 2,375
1 − 0,58 5
− 0,8924 7 − 2 − 1
tc ( yx2 . x1 ) = = 3,955
1 − 0,796

o Valoarea de referinţă pentru α = 0,05

tT ( 0,05; 3 ) = 2,776
deci:

tc ( yx1 , x2 ) < tT
tc ( yx2 , x1 ) > tT

o Astfel, cu o încredere de 95% se poate afirma că între y şi variabila x1 nu există


corelaţie parţială. Testarea semnificaţiei coeficienţilor de corelaţie multiplă, cu
ajutorul criteriului Fischer.
Capitolul 1. 60

n − m −1 1
Fc = ⋅ R y , x1x2 ⋅ = 8,52
2 1 − R y , x1x2
o Astfel, pentru:

m=2 -variabile sau parametrii


q = n - m - 1 = 7 - 2 - 1= 4 -grade de libertate
o rezultă:

FT(0,05; 2; 4) = 6,94

o cum:

Fc> FT

se afirmă cu o probabilitate de 95% că parametrul x1 este corelat cu procesul


analizat .

Rezultatele obţinute, conduc la următorele variante de decizie:


a). Parametrul x2 nu este parametru al procesului studiat.
b). Dependenta y = f(x1,x2), dacă ea există, nu este o dependenţă liniară, ea putând fi
neliniară. In acest ultim caz, rezultatele analizei de corelaţie trebuie completate cu noi date,
obţinute prin analiza dispersională sau alte metode.
61
Capitolul 2.

Capitolul 2.

Tipuri de relaţii utilizate în analiza proceselor de sudare

2.1 Introducere.
Fenomenele, unele dintre ele extrem de complexe ce guvernează procesul de
sudare, pot fi studiate teoretic şi experimental.
În cazul analizei experimentale, este imperios necesară obţinerea unor concluzii
care să conducă la optimizarea procesului sau al echipamentului studiat.
În acest scop, informaţia este prelucrată, datele măsurătorilor putând fi grupate fie sub
formă de tabele, fie sub formă grafică (diagrame) fie sub formă de relaţii matematice.
Tabelele - reprezintă ordonarea şi gruparea datelor pe linii şi coloane. Acestea
dau posibilitatea interpretării directe a datelor, prin constatarea apariţiei unor modificări
ale valorilor mărimilor ce interesază în funcţie de modificarea unor parametrii. Din
punctul de vedere al optimizării procesului tehnologic sau al echipanentului studiat,
tabelele sunt incomode, deoarece nu pot fi utilizate direct în procesul de optimizare, ele
permiţând determinarea unor zone în care procesul s-ar putea desfăşura cu mai mare
eficienţă. Tabelele sunt însă deosebit de utile în procesul de analiză statistică a datelor.
Graficele - sunt reprezentări în doră sau trei dimensiuni, a unor variabile y în
funcţie de valorile unor parametrii de proces x. Sunt utile pentru că reprezintă tendinţele
de variaţie, zonele în care apar perturbaţii ca şi zonele în care pot fi întâlnite valori
extreme, etc.
Relaţiile matemetice - reprezintă funcţii matemetice de forma y = f(x) rezultate în
urma unei analize minuţioase a procesului analizat, având un domeniu de definiţie bine
precizat. Ele oferă facilităţi maxime în cadrul procesului de optimizare, asupra lor putând
fi utilizate direct mai multe metode de optimizare. Deoarece conţin şi maximum de
informaţie în minimum de spaţiu ele sunt cel mai des utilizate în procesul de optimizare.
Toate fenomenele măsurabile pot fi exprimate sub formă de relaţii matematice (ecuaţii).

2.2. Legi statistice liniare.

2.2.1. Corelaţii liniare.


Legătura matematică între două mărimi diferite se numeşte corelaţie. Cum, în
cazul determinării legilor liniare, se urmăreşte găsirea unei relaţii care să permită calculul
unei mărimi în funcţie de cealaltă mărime care este cunoscută, atunci, pentru ca o astfel
de relaţie să existe, trebuie ca în primul rând elementele celor două mărimi să admită o
dependenţă funcţională (bună corelare). Este posibil ca între cele două mărimi să existe
o anumită corelere, dar să nu se poată deduce o dependenţă funcţională. Căutarea unei
corelaţii între două mărimi se face cu ajutorul coeficientului de corelaţie simplă de
sondaj, coeficient ce mai este numit şi coeficientul intensităţii coreleţiei. Calculul acestui
coeficient se face cu relaţia:
62
Capitolul 2.

∑(x i =1
i − x ) ⋅ ( yi − y )
rx . y = (2.1)
n n

∑(x
i =1
i − x) 2
∑(y
i =1
i − y) 2

unde:

n - numărul de determinări
x - media aritmetică a parametrului x
y - media aritmetică a parametrului y.

Dacă rx . y = ±1 sau rx . y ≈ ±1 atunci între cele două mărimi x şi y există o puternică


dependenţă funcţională care este liniară. Iar dacă rx . y → 0 atunci se consideră că între
cele două mărimi dependenţa liniară este slabă, fiind necesară verificarea semnificaţiei
coeficientului corelaţiei printr-o ipoteză statistică. Acest lucru se face prin utilizarea
testelor F sau t, sau prin impunerea unui coeficient α şi a unui număr ν = n - 2 de grade
de libertate se poate utiliza tabelul 2.1.

Tabelul 2.1. Estimarea coeficientului de corelaţie în funcţie de nivelul de încredere şi nr.-


ul gradelor de libertate.
Grade de libertate α
ν=n-2
5% 1% 0,1%
0 1 2 3
5 0,75 0,87 0,95
10 0,58 0,71 0,82
15 0,48 0,61 0,72
20 0,42 0,53 0,65
25 0,38 0,49 0,6
30 0,35 0,45 0,55
35 0,32 0,42 0,52
40 0,30 0,39 0,49
50 0,27 0,35 0,44
60 0,25 0,33 0,41
70 0,23 0,3 0,38
80 0,22 0,28 0,36
90 0,21 0,26 0,34
100 0,19 0,25 0,32
120 0,18 0,23 0,3
150 0,16 0,21 0,26
200 0,14 0,18 0,23
300 0,11 0,15 0,19
400 0,1 0,13 0,16
500 0,09 0,11 0,15
700 0.07 0,1 0,12
900 0,06 0,09 0,11
>1000 < 0,06 < 0,09 < 0,11

2.2.2 Regresia liniară. Reprezintă cantitatea cu care se modifică o variabilă în


momentul când parametrul corelat se modifică cu o unitate de măsură.
În cazul liniar, legea regresiei va fi scrisă sub forma:
63
Capitolul 2.

yˆ = a 0 + a1 ⋅ x (2.2)

unde:
a1 este coeficientul de regresie al parametrului y în raport cu x şi din punct de
vedere geometric va reprezenta chiar panta dreptei de regresie.

Obţinerea coeficienţilor legii de regresie se face prin minimizarea sumei abaterilor


patratice dintre mărimile y măsurate şi cele calculate cu expresia 2.2.
Astfel, scriind suma abaterilor patratice minime, se obţine eecuaţia:

S= ∑(y i − a0 − a1 ⋅ xi ) 2 (2.3)

Condiţia de minim a ecuaţiei (2.3) constă în anularea derivatelor acesteia în funcţie de


necunoscutele a0 şi a1. Se pot scrie astfel ecuaţiile:

∂S
∂a0 ∑
= − 2 ⋅ ( yi − a0 − a1 ⋅ xi ) = 0 (2.4a)

∂S
∂a1 ∑
= − 2 ⋅ ( yi − a0 − a1 ⋅ xi ) ⋅ xi = 0 (2.4b)

Determinarea necunoscutelor se face prin rezolvarea sistemului:

 n

∑x 
2⋅
i a 0 


= ∑ y  i
(2.5)

 xi ∑x i   a1   ∑ ( y ⋅ x ) 
i i

Obiectele programului de calcul vor fi analizate într-un subcapitol ulterior.

2.2.3. Verificarea coeficienţilor legii de regresie. În scopul efectuării acestor


verificări, vor trebuii calculate următoarele mărimi statistice:

s E2 =
∑( y i − yˆ i ) 2
(2.6)
n−2
s E2
sa20 = (2.7)
∑ ( xi − x ) 2
1 x2
sa21 = s E2 [ + ] (2.8)
n ∑ ( xi − x ) 2
1 ( xi − x ) 2 
sY2ˆ = s E2 ⋅  +  (2.9)
1i
 n ∑
( xi − x ) 2 
 1 ( xi − x ) 2 
sY2ˆ = s E2 ⋅ 1 + +  (2.10)
2i
 n ∑
( xi − x ) 2 

În relaţiile (2.9) şi (2.10) i are valori de la 1 la n.


64
Capitolul 2.

Utilizând aceste mărimi, pot fi calulate următoarele mărimi statistice:

a) Intervalul de confidenţă a coeficientului a0:

I
 = a 0 m t [(1+γ ) / 2; n − 2] ⋅ ∑ ( y i − yˆ i ) /(( n − 2) ⋅ ∑ ( x i − x ) )
2 2
(2.11)
S

b) Intervalul de confidenţă a coeficientului a1:

I  ∑ ( y i − yˆ i ) 2 (x) 2 
 = a1 m t [(1+γ ) / 2;n − 2) ⋅ +  (2.12)
S  n ⋅ ( n − 2) ∑ ( xi − x ) 2 
 

c) Intervalul de confidenţă pentru yi calculat în punctele xi :

I
 = yˆ i m t [(1+ γ ) / 2;n − 2 ) ⋅ sYˆ1i (2.13)
S

d) Intervalul de confidenţă pentru yi calculat în afara punctelor xi :

I
 = yˆ i m t [(1+γ ) / 2;n −1] ⋅ sYˆ2 i (2.14)
S

e) Intervalul de confidenţă corespunzător preciziei inverse a legii de regresie


liniare. Problema apare atunci când se cunoaşte mărimea y şi se doreşte
determinarea parametrului x corespunzător, astfel încât să se respecte un
anumit nivel de încredere. Valoarea parametrului x poate fi determinată cu
relaţia:

y0 − a0
xˆ = (2.15)
a1

unde:
y0 este valoarea cunoscută a parametrului y.

e1) Limitele intervalului de confidenţă pentru x vor fi:

I a1 ⋅ ( y 0 − y ) t [(1+γ ) / 2; n − 2] ⋅ s E n +1
= x + m ⋅ B ⋅ ( y0 − y) 2 + D ⋅ (2.16)
S D D n

unde:
D = a12 − t [(21+γ ) / 2;n − 2 ] ⋅ s E2 (2.17)
B = a12 − t [(21+γ ) / 2;n − 2 ] ⋅ s a21 (2.18)

e2) Limitele intervalului de confidenţă pentru x în cazul în care y0 este


media aritmetică a m valori, vor fi:
65
Capitolul 2.

y0 − a0
xˆ = (2.19)
a1
a1 ⋅ ( y 0 − y ) t [(1+γ ) / 2;n + m −3] ⋅ s E
2 1
I m+n
 = x + m B ⋅ ( y0 − y) 2 + D ⋅ (2.20)
S D D n⋅m

2.2.4. Exemplul privind regresia liniară.

2.2.4.1 Să se determine, pe cale experimentală, legea de variaţie a intensităţii de


sudare (IS), în funcţie de diametrul electrodului de sudare (de) la sudarea electrică
manuală din condiţia de stabilitate foarte bună a arcului electric de sudare:

2.2.4.1.1. Organizarea experienţelor. În scopul unei cât mai precise determinări


a fost necesară luarea în considerare a următorilor factori:
- Materialul de bază
- Materialul de adaos
- Echipamentul de sudare
- Condiţiile tehnologice de execuţie a probelor
- Modul de alegere a mărimilor măsurate
- Modul de organizare a experienţelor

a) Materialul de bază. A fost adoptat un oţel având sudabilitate bună,


necondiţionată şi cu un preţ de cost scăzut. În acest scop s-a ales oţelul OL37.4k.

b) Materialul de adaos. Pentru a obţine o lege cât mai generală, au fost utilizate
mai multe tipuri de electrozi, fiecare dintre acestea fiind fabricată de mai multe firme
producătoare. Au fost astfel utilizaţi electrozi din fabricaţie curentă, destinaţi sudării atât
a oţelurilor obişnuite cât şi a oţelurilor cu limită de curgere ridicată. S-au utilizat astfel
electrozi cu înveliş bazic, titanic şi acid. În tabelul 2.2 în coloana calităţii electrozilor
utilizaţi au fost introduse următoarele simboluri: B - Bazic, A - Acid, Ti - Titanic.
Diametrele electrozilor au fost în concordanţă cu gama de diametre fabricate, fiind
cuprinse între 2,5 şi 6 mm. Au fost respectate prescripţiile producătorilor cu privire la tipul
de polaritate indicat în cazul sudării în curent continuu.

c) Echipamentul de sudare. Probele au fost executate utilizând atât surse de


curent continuu cât şi surse de curent alternativ.

d) Condiţii tehnologice de execuţie a probelor. Sudarea s-a executat în laborator,


la temperatura de 200C. Epruvetele nu au fost prinse în dispozitiv, ele fiind aşezate pe
masa de sudare. Poziţia electroduluide sudare, în raport cu cordonul depus, a fost cea
normală, unghiul de înclinare al electrodului nedepăşind o abatere de 200 faţă de
normala la cordon, ca în figura 2.2. Tipul curentului cu care s-au executat cordoanele de
sudură fiind în conformitate cu prescripţiile firmei producătoare. Simbolurile cu care a
fost notat tipul de curent fiind cel clasic, în funcţie de polul legat la electrod în cazul
sudării în curent continuu. ( CC-, CC+, CA). Viteza de sudare s-a căutat să fie păstrată
cât mai constantă, în limitele valorii de 15 cm/min.

e) Modul de alegere a mărimii măsurate. Aprecierea stabilităţii arcului electric de


sudare la utilizarea unei anumite intensităţi de sudare, a fost făcută de operatorul sudor.
66
Capitolul 2.

În scopul prelucrării ulterioare a datelor, această apreciere s-a trecut sub formă calitativă
în tabelul de achiziţie a datelor. Astfel s-au utilizat următoarele notaţii:
-fs pentru stabilitate foarte slabă; -s pentru stabilitate slabă; - m pentru stabilitate medie;
- b pentru stabilitate bună; -fb pentru stabilitate foarte bună.

f) Modul de organizare al experienţelor. În scopul înlăturării unor erori umane


experienţele s-a efectuat aleatoriu, utilizându-se în acest scop un program de
‘randomizare’ a acestora.

Tabelul 2.2. Tabelul de date generale destinat obţinerii ecuaţiei dorite.


Nr. Parametrul Mărimea Tip curent Tip electrod Stabilitate
+ -
Crt. de [ mm ] Is [ A ] [CC ; CC ; CA ] Simbol (marca) [fs ;s ;m ;b ;fb]
( x(i) ) ( y(i) )
1 3.25 120 CC+ B (E42B) m
2 3,25 110 CC+ B (E46B) fb
3 2,5 90 CC+ B (E42B) m
4 4 150 CC+ T (E48T) fb
5 6 250 CA A (E42A) b
6 4 150 CC- A (E42A) fb
7 5 190 CC+ B (Nibaz65) b
8 5 210 CA T (E48T) fb
9 …. ….. ….. ….. ….

g) Modul de obţinere a tabelului sintetic. În urma efectuării experienţelor, datele


din tabelul general au fost sortate şi ordonate în funcţie de diametrul electrodului.
Sortarea s-a efectuat prin reţinerea în tabelul sintetic doar a încercărilor ce au fost cotate
cu indicatorul de stabilitate a arcului electric fb în cursul încercării. S-a obţinut astfel
tabelul 2.3b, tabel ce va fi utilizat la determinarea legii de regresie.

Tabelul 2.3a. Datele sortate şi ordonate destinate prelucrării legii statistice.


Nr. Crt Diametrul electrodului Intensitatea de sudare Indicele de stabilitate a
de [mm] x(i) Is [A] y(i) arcului.
1 2,5 70 fb
2 2,5 60 fb
3 3,25 105 fb
4 3,25 110 fb
5 4 150 fb
6 5 205 fb
7 5 210 fb
8 6 260 fb
9 6 265 fb

Tabelul 2.3b. Date destinate prelucrării în vederea obţinerii regresiei liniare.


Nr. Crt Diametrul electrodului Intensitatea de sudare Indicele de stabilitate a
de [mm] Is [A] arcului.
x(i) y(i)
0 1 2 3
1 2,5 65 fb
2 3,25 107,5 fb
3 4 150 fb
4 5 207,5 fb
5 6 262,5 fb
67
Capitolul 2.

Calculul mărimilor statistice:


20,75 792,5
x=
5
= 4,15; y =
5
∑ ∑
= 158,5; ( xi − x ) ⋅ ( yi − y ) = 435,5; ( xi − x ) 2 = 7,7

∑ ( yi − y ) = 24632,5;rxy = 0,99997364; sreg


2
= 24631,2013;srest 2
= 0,43290043

2 2
Fcalc = s reg/s rest = 56897,07

De regulă, analiza datelor de calcul este concentrată într-un tabel separat, scopul acestei
analize fiind acela de a se putea verifica dacă legea este liniară şi cu ce nivel de
încredere poate fi susţinută această ipoteză. În urma efectuării verificărilor statistice a
fost întocmit tabelul 2.4.

Tabelul 2.4 Verificarea corelaţiei liniare între populaţiile Pxo şi Pyo.


Suma Patratelor Grd. Dispersia Testul Coef. de Eroarea
Abaterilor (SPA) de Fischer corelaţie standard
lib. s2 estimată
Fcalc Rx,y Sy,x
Dreapta de SPAr=(SPrAxy)^2/
regresie SPAx=24631,201 g1=1 24631,2 56898,1 0,99997 0,6579
Rest SPAy-SPAr =
1,299 g2=n- 0,433
2
Total SPAy=24632,5 n-1

Analiza corelaţiei între mărimile y şi x:

Utilizând datele din tabelul 2.4 se observă faptul că datorită valorii foarte apropiate de
unitate a coeficientului de corelaţie, între valorile celor două populaţii se poate afirma că
există o puternică dependenţă liniară, deci are sens determinarea legii regresie liniară.

Calculul coeficienţilor relaţiei:


În urma prelucrării datelor din tabelul 2.3b) se obţine următorul sistem de ecuaţii:

 5 20,75  a 0   792,5 
20,75 93,8125 ⋅  a  = 3724,375
   1  

a fost obţinută următoarea regresie liniară:

a0 = -76,2175324675325;
a1 = 56,5584415584416;

şi deci legea căutată va avea următoarea formă:

Is = -76,2175324675325 + 56,5584415584416 de

Programul de calcul destinat analizei corelaţiei dintre populaţiile alese şi calculării


coeficienţilor legii de regresie liniară este expus în figura 2.1
68
Capitolul 2.

Figura 2.1 Formul corespunzător modulului destinat analizei legilor liniare.

Calculul mărimilor statistice ale regresiei:


Utilizând relaţiile (2.6)…(2.8) se obţin dispersiile regresiei şi ale fiecărui coeficient în
parte. Limitele inferioare şi superioare ale coeficienţilor legii se obţin utilizând ecuaţiile
(2.11)..(2.12).
Astfel aceste valori au fost grupate în tabelul 2.5 pentru coeficienţii regresiei şi în
tabelul 2.6 pentru abaterile legii în punctele de calcul.

Tabelul 2.5 Valorile extreme ale coeficienţilor legii pentru un nivel de încredere de 95%
2 2 2
Nr. s E s a0 s a1 a0min a0max a1min a1max
Crt
1 0,433 1,05484 0,0562 -78,63 -73,801 56,0005 57,1164

Tabelul 2.6 Limitele intensităţii curentului de sudare pentru γ = 0,9


2
de [mm] Is s Is1 Ismin Ismax
[A] [A] [A]
2,5 65 0,22713275 64,057169 66,29997
3,25 107,5 0,26929 106,376338 108,818746
4 150 0,311463 148,70305 151,3294
5 207,5 0,36768 205,147887 208,0016
6 262,5 0,423905 261,6011253 264,665818

Reprezentarea grafică a limitelor de variaţie a intensităţii de sudare în funcţie de


diametrul electrodului este prezentată în figura 2.2.
69
Capitolul 2.

Figura 2.4. Rezultatul analizei statistice a regresiei funcţie de o singură variabilă.

Figura 2.4 Domeniul de variaţie al funcţiei Is = f(de) în limita unui γ = 0,9

2.2.4.2. Concluzii privind exemplul analizat.

Este evidentă existenţa unei puternice corelaţii între datele măsurate, ceea ce în limita
unei încrederi de 90% conduce la validarea ipotezei statistice conform căreia legea
determinată prin analiza de regresie liniară este adecvată.
De asemenea se observă faptul că toţi coeficienţii legii liniare sunt semnificativi,
iar în urma determinării limitelor de variaţie ale coeficienţilor legii, se constată faptul că
pentru nivelul de încredere ales, în scopul uşurării calculelor, pot fi trunchiaţi la valori cu
mai puţine zecimale, deci a0 = -76,22 şi a1 = 56,56 sau chiar a0 = -76 şi a1= 57 fără a
influenţa semnificativ valoarea intensităţii curentului de sudare.
Aceste observaţii îndreptăţesc utilizarea relaţiei deduse la calculul rapid al
intensităţii curentului de sudare, în funcţie de diametrul electrodului, indiferent de tipul
acestuia. Va trebuii însă să se ia în considerare tipul de curent şi polaritatea acestuia, în
concordanţă cu prescrierile producătorului de electrozi.
70
Capitolul 2.

2.2.5 Tipuri de regresii derivate din regresia liniară.

Există cazuri în care regresia liniară nu conduce la valori dorite ale coeficientului de
corelaţie şi nici verificarea cu ajutorul testului Fischer nu este relevantă. În acest caz
pentru a se evita o analiză neliniară, mult mai greoaie se poate încerca utilizarea unei
regresii derivate din regresia liniară. De cele mai multe ori se utilizează regresia
exponenţială şi regresia geometrică.

2.2.5.1. Regresia exponenţială.

Se bazează pe utilizarea unei ecuaţii de forma:

y = a 0 ⋅ e a1 ⋅ x . (2.21)

Prin logaritmarea acestei ecuaţii rezultă:

ln ( y ) = ln(a 0 ) + a1 ⋅ x (2.22)

Şi prin efectuarea substituţiilor:

y1 = ln( yˆ ); b = ln(a 0 ) (2.24)

În urma minimizării sumei patratelor abaterilor pentru logaritmii valorilor măsurate (y) şi
rezultă valoarea coeficientului :

b = e a0 . (2.25)

Astfel pentru datele din exemplul precedent, în cazul urmăririi unei regresii exponenţiale
rezultă următoarea lege:

I S = 28,26661403 ⋅ e ( 0,38841⋅d e ) (2.26)

Analizând statistic legea obţinută, prin comparaţie între valorile calculate şi cele
măsurate rezultă:

Tabelul 2.5. Corelaţiile între populaţiile Pxo şi Pyo în cazul regresiei geometrice.
Suma Patratelor Grad. de Dispers Testul Coef. de Eroarea
Abaterilor (SPA) lib. Fischer corelaţie standard
s2 Fcalc Rx,y estimată
Sy,x
Curba de SPAr=(SPrAxy)^2/
regresie SPAx = 1,462 g1=1 1,162 68,53 0,978 0,1301
Rest SPAy-SPAr =
0,25 g2=n-2 0,002
Total SPAy= 1,212 n-1=4
71
Capitolul 2.

Tabelul 2.6. Eroarea de calcul în procente în cazul utilizării regresiei geometrice.


Nr.Crt de Is măsurat Is calculat Eroarea
[mm] [A] [A] [%]
1 2,5 65 74,642 -14,003
2 3,25 107,5 99,004 7,005
3 4 150 133,662 10,892
4 5 207,5 197,103 5,0105
5 6 262,5 290,655 -10,7256

Tabelul 2.7. Valorile extreme ale coeficienţilor legii pentru un nivel de încredere de 90%
2 2 2
Nr.Crt sE s a0 s a1 a0max a0min a1max a1min
1 0,017 0,0413 0,022 45,599 17,52 0,4988 0,278009

Tabelul 2.8 Limitele intensităţii curentului de sudare pentru γ = 0,9


2
de Is s Is1 Ismax Ismin
[mm] [A] [A] [A]
2,5 65 0,0889 81,36 68,47
3,25 107,5 0,00665 109,712 90,94
4 150 0,00773 147,857 120,83
5 207,5 0,0089 219,947 176,6317
6 262,5 0,00985 326,975 250,369

Figura 2.5. Domeniul de variaţie al funcţiei Is = f(de) în limita unui γ =0,9 pentru o
regresie exponenţială.
72
Capitolul 2.

Figura 2.6. Rezultatele analizei statistice a termenilor regresiei exponenţiale.

2.2.5.2. Regresia geometrică.


Se bazează pe utilizarea unei ecuaţii de forma:

yˆ = a 0 x a1 . (2.27)

Prin logaritmarea acestei ecuaţii rezultă:

ln ( y ) = ln(a 0 ) + a1 ⋅ ln( x) (2.28)

Şi prin efectuarea substituţiilor:

y1 = ln( yˆ ); b = ln(a 0 ); x1 = ln( x ) (2.29)

În urma minimizării sumei patratelor abaterilor pentru logaritmii valorilor măsurate (y) şi
rezultă valoarea coeficientului :

a 0 = e b ; x = e x1 . (2.30)

Prelucrând datele exemplului precedent în scopul determinării unei legi de regresie


geometrice se obţine următoarea relaţie:

I S = 15,918 ⋅ d e1,5882 (2.31)

Analiza statistică a datelor conduce la valorile din tabelul 2.9.


73
Capitolul 2.

Tabelul 2.9 Corelaţiile între populaţiile Pxo şi Pyo în cazul regresiei geometrice.
Suma Patratelor Grade Dispersia Testul Coef. de Eroarea
Abaterilor (SPA) de lib. Fischer corelaţie standard
2
s Rx,y estimată
Fcalc Sy,x
Curba de SPAr=(SPrAxy)^
regresie 2/SPAx = 1,205 g1=1 1,205 483,42 0,99691 0,05
Rest SPAy-SPAr =
0,007 g2=n-2 0,002
Total SPAy= 1,212 n-1=4

Tabelul 2.10 Eroarea de calcul în procente în cazul utilizării regresiei geometrice.


Nr.Crt de Is măsurat Is calculat Eroarea
[A] [%]
[mm] [A]
1 2,5 65 68,217 -4,95
2 3,25 107,5 103,48 3,74
3 4 150 140,9 4,06
4 5 207,5 205,11 1,15
5 6 262,5 270,995 -4,4

Tabelul 2.11. Valorile extreme ale coeficienţilor legii pentru un nivel de încredere de 90%
Nr.Crt s2E s2a0 s2a1 a0min a0max a1min a1max
1 0,025 0,0104 0,0052 20,23 12,52 1,7586 1,41823

Tabelul 2.12. Limitele intensităţii curentului de sudare pentru γ = 0,9


de [mm] Is s2Is1 Ismax Ismin
[A] [A] [A]
2,5 65 0,00528 89,5 51,996
3,25 107,5 0,00665 140,34 76,3
4 150 0,00773 199,886 103,6
5 207,5 0,0089 291,786 144,78
6 262,5 0,00985 397,005 189,998
74
Capitolul 2.

Figura 2.7. Obţinerea şi verificarea legii de regresie geometrică.

Figura 2.8. Domeniul de variaţie al funcţiei Is = f(de) în limita unui =0,9 pentru o
regresie exponenţială.
75
Capitolul 2.

Figura 2.9. Rezultatele analizei statistice a termenilor regresiei exponenţiale.

2.3.Regresii şi corelaţii statistice neliniare.

2.3.1 Introducere. Metoda de obţinere a legilor de regresie, poate fi aplicată şi în


cazuri neliniare, cazuri ce sunt întâlnite în mod frecvent în practica de exprimare a
parametrilor de sudare. În acest scop se recomandă ca eşantioanele ce vor fi utilizate
pentru determinarea unor astfel de legi să fie cât mai uniform distribuite d.p.d.v. al
variabilei independente xi. Se ajunge astfel la o relaţie de programare a experimentului
de forma:

xi +1 = xi + ∆x (2.32)

unde:

x max − x min
∆x = (2.33)
nr.masuratori

Aspectul legii care se determină va fi deci:

yˆ = a 0 + a1 ⋅ x + a 2 ⋅ x 2
yˆ = a 0 + a1 ⋅ x + a 2 ⋅ x 2 + a 3 ⋅ x 3
etc.
sau în cazul general:
76
Capitolul 2.

( )
m
yˆ = ∑ a i ⋅ x i (2.34)
i=0

Gradul maxim al polinomului m din expresia (2.34) va trebuii să nu depăşască numărul


maxim de eşantionări n - 1. Rezultă o primă condiţie ce se impune asupra gradului
polinomului de aproximare şi anume:

m<=n-1 (2.35)

2.3.2. Determinarea coeficienţilor legii. Ca şi în cazul legii liniare, dacă se


impune ca suma pătratelor abaterilor dintre valorile măsurate şi cele obţinute prin
aplicarea legii căutate să fie minimă, se obţine sistemul de condiţii:

 ∂S 2 
 
 ∂a02  0
 ∂S  0
 ∂a1  =   (2.36)
 ...  0
 ∂S 2  0
 
 ∂a m 

unde:
2

∑ (a ⋅ x )
n
 m

S2 = ∑  yj −

j =1 
i
i
j (2.37)
i =0 

Prin derivare se obţine următoarea expresie:

 
∑ − 2 ⋅  y − ∑ (a ⋅ x ) ⋅ 1
 ∂S 2     i

   j i j

 ∂a02  
 i  
  
∑( )
 ∂S  
 ∂a1  =  ∑ − 2⋅ yj −

ai ⋅ x ij  ⋅ x j 
  (2.38)
 ...     
 ∂S 2   ... 
∑( )
    i  m −1 
 ∂a m   ∑ − 2⋅ yj −
 ai ⋅ x j  ⋅ x j −1 

  i  

Exprimând matricial ecuaţiile (2.37) la care se adaugă condiţiile (2.38) se obţine


următorul sistem de ecuaţii:
77
Capitolul 2.

 n n
  n

 n ∑x j ... ∑x m
j   ∑ yj 
 j =1 j =1   a0   j =1 
 n   
x mj+1   a1   (x j ⋅ y j )
n n
  n

 ∑ xj ∑x 2
j ... ∑ ⋅  =  ∑  (2.39)
 j =1 j =1 j =1  ... j =1
 ... ... ... ...     ... 

  ma   
∑( )
 n m−1 n n n


 xj ∑x m
j ... ∑ x 2j m  
 j =1
x mj ⋅ y j 

 j =1 j =1 j =1   

Sau în exprimare matricială:

[C ]⋅ {a} = {d } (2.39b)

Rezolvând sistemul de ecuaţii se obţin valorile coeficienţilor a0, a1,..,am ai legii


căutate. Se remarcă faptul că matricea sistemului este o matrice simetrică, ceea ce
conduce la simplificarea modului de calcul ca şi la reducerea numărului de operaţii
algebrice ce pot influenţa precizia de calcul a coeficienţilor.

2.3.3. Determinarea coeficientului de corelaţie. (Intensitatea corelaţiei).

Coeficientul Ry.x are scopul de a exprima existenţa unei dependenţe funcţionale între
variabila y şi parametrul x, atunci când pentru fiecare y din populaţia Py corespunde un
singur x din populaţia Px. Scopul determinării acestui coeficient este acela de a verifica
dacă între cele două populaţii există o legătură funcţională care să permită calculul unei
astfel de legi statistice, ca şi cel de a găsi cu o precizie impusă gradul polinomului de
aproximare.

Algoritmul de calcul se bazează pe următorii paşi:


a)- se determină coeficienţii regresiei ca şi valorile legii în punctele xi (yi).
b)- se calculează intensitatea corelaţiei cu relaţia:

 
n −1 
 ∑ (y j − yˆ j )2 
R y2. x =1− ⋅  (2.40)
n−l  
 ∑ (y j − y ) 
2

 

unde:
n - reprezintă numărul de măsurători
l - reprezintă numărul de coeficienţi ai legii de regresie

c)- se interpretează valorile coeficienţilor de corelaţie în funcţie de tabelul sintetic 2.1 şi


dacă acestea nu corespund gradului de precizie adoptat iar gradul polinomului este mai
mic decât n-1:
c1): atunci se măreşte gradul polinomului cu o unitate şi se reia procesul de calcul
de la punctul a).
c2): altfel nu poate fi exprimată în domeniul de precizie dorit nici o
78
Capitolul 2.

relaţie valabilă şi se părăseşte procesul de calcul al unei legi funcţie de un


singur parametru.

Exemplul 2.2. Să se determine coeficientul de corelaţie între datele din tabelul


2.12 pentru o lege liniară şi o lege pătratică.

Tabelul 2.12 Valorile a două populaţii Y respectiv X şi legile determinate.


Nr. Lege liniară Lege neliniară
Crt X Y Y=12,9-1,7X Y=15,4-3,843X+0,357X2.
0 1 2 3 4
1 1 12 11,2 11,914
2 2 9 9,5 9,142
3 3 7 7,8 7,084
4 4 6 6,1 5,74
5 5 5 4,4 5,11
Se obţin pentru pentru cele două legi următoarele date:

Tabelul 2.13. Comparaţie între regresia liniară şi cea neliniară.


2
Ym Σ(Yj-Yc)2 Σ(Yj-Ym)2 n-l R y.x Observatii
7,8 1,9 30,8 5-2=3 0,958 Liniară
0,1143 5-3=2 0,993 Neliniară

Pe baza datelor obţinute se poate observa că regresia neliniară de gradul doi va


conduce la un coeficient de corelaţie mai bin decât cea liniară deşi valoarea acestuia în
ambele cazuri se încadrează într-un nivel bun de încredere.

2.3.4. Determinarea gradului optim al polinomului.

Relaţiile de calcul al unor legi empirice sunt utilizate îndeosebi în cazul în care
forma legii de variaţie a mărimii dorite în funcţie de un parametru nu este cunoscută
dinainte. Obţinerea unei legi polinomiale corecte fiind în acest caz importantă. Un
polinom de grad prea mic va genera un model matematic prea grosier pentru procesul
de optimizare pe când unul având un grad prea mare nu va putea atenua influenţa unor
factori aleatori întâlniţi în procesul de măsurare, ca şi apreciere influenţei altor parametrii
decât cel luat în calcul asupra mărimii a cărei lege dorim să o exprimăm. Se impune
astfel stabilirea unui criteriu în funcţie de care să se determine gradul polinomului. Acest
criteriu va fi obţinerea unei valori minime a dispersiei punctelor faţă de ecuaţia de
2
regresie s y. De regulă, pentru calculatoarele moderne acest lucru se obţine prin mărirea
progresivă a gradului polinomului de aproximare până în momentul în care se obţne o
dispersie mai mare decât cea anterioară dau până când s-a atins dispersia dorită. De
asemenea acelaşi lucru poate fi obţinut utilizând o lege polinomială ca cea din ec. (2.35),
prin scrierea acesteia cu ajutorul polinoamelor Cebîşev:
79
Capitolul 2.

m
yˆ = ∑c ⋅ p
i =0
i i(u ) (2.41)

Utilizarea polinoamelor Cebîşev la determinarea gradului optim al polinoamelor ce


exprimă legea de regresie neliniară este în ultimul timp o metodă din ce în ce mai puţin
folosită. Acest fapt se datorează timpului scurt de calcul necesar pentru rezolvarea
acestei probleme cu ajutorul calculatoarelor electronice. Pe setul de date pentru care se
caută cea mai bună expresie a regresiei se începe cu regresia liniară şi se măreşte apoi
gradul poligonului până în momentul când s-a ajuns la precizia dorită sau gradul
polinomului devine egal cu numărul de măsurători din set minus o măsurătoare..

2.4. Regrasii funcţie de mai mulţi parametrii.

2.4.1. Introducere.

De cele mai multe ori, la descrierea unui proces nu este suficientă utilizarea unui singur
parametru. În cazul procesului de sudă, lăţimea, supraînălţarea, aria bombajului
rădăcinii, diluţia, pătrunderea cordonului de sudură, duritatea ZIT-ului, estimarea
rezilienţei şi a vitezei de avans a electrodului în regimul arcului pulsat, etc, necesită
utilizarea mai multor parametrii. Aceste caracteristici fiind influenţate de un număr mare
de factori. Este necesară deci utilizarea unor legi mai complexe, de forma:

fˆ = f ( x1 , x 2 ,..., x m ) (2.42)

Deşi forma funcţiei este mai diferită decât în cazul regresiilor funcţie de un parametru,
totuşi metoda minimizării abaterii pătratice poate fi utilizată în continuare.
Se pot defini astfel legi de regresie liniare şi neliniare. De regulă gradul polinomului
neliniar este limitat din cauza faptului că procesele de optimizare ulterioare devin prea
complicate dar şi numărul de puncte în care se fac măsurătorile este prea ridicat ceea ce
conduce la mărirea riscului de apariţie a unor erori de măsurare.

2.4.2. Regresia liniară de mai mulţi parametrii.

Exprimarea unei relaţii liniare între mărimea care se măsoară şi parametrii cu care s-au
obţinut valorile măsurate, expresia de forma (2.42) se poate scrie astfel:

yˆ ≈ y = a 0 + a1 ⋅ x1 + a 2 ⋅ x 2 + ... + a m ⋅ x m (2.43)

Expresia abaterii medii pătratice este în acest caz:

S = ∑ ( y i − a 0 − a1 ⋅ x1i − ... − a m ⋅ x mi )
2
(2.44)
i
Expresia ecuaţiilor minime ale abaterii pătratice este:
80
Capitolul 2.

 ∂S
 ∂a = 2 ⋅ ∑ ( y i − a 0 − a 0 ⋅ x1i − ... − a m ⋅ x mi ) ⋅ (− 1 )
 0 i

= 2 ⋅ ∑ ( y i − a 0 − a1 ⋅ x1i − .... − a m ⋅ x mi ) ⋅ (− x1i )
S

 ∂a1 i
(2.45)
 ..................
 ∂S
 = 2 ⋅ ∑ ( y i − a 0 − a1 ⋅ x1i − .... − a m ⋅ x mi ) ⋅ (− x mi )
 ∂a m i

Prin impunerea condiţiei anulării acestor derivate se obţine sistemul:

 n

∑x 1i ... ∑x mi   a0   ∑ yi 
    
 ∑ x1i ∑x ∑x ⋅x ∑ yi ⋅ x1i 
2
... 1i   a1 
⋅ =
1i mi
(2.46)
 ... ... ... ...   ...   ... 
     
∑ x mi ∑x ⋅ x mi ∑ x mi  a m  ∑ yi ⋅ x mi 
2
1i ...

Soluţiile sistemului vor fi chiar coeficienţii doriţi ai legii.

O altă metodă, mai uşor de implementat pe calculator porneşte de la o expresie a legii


liniare de forma:

yˆ ≈ y = b0 ⋅ x0 + b1 ⋅ x1 + b2 ⋅ x 2 + ... + bm ⋅ x m (2.47)

unde parametrii x0 ce înmulţesc coeficientul a0 au întotdeauna valoarea 1. Acest artificiu


permite trecerea datelor experimentale într-un table de forma tabelului 2.14.

Tabelul 2.14. Modul de trecere a parametrilor măsurătorilor.


Mărimea
Parametrii Necunoscute
măsurată
y x0 x1 … xm B
y1 1 x11 … xm1 b0
y2 1 x12 … xm2 b2
y2 1 x13 … xm3 b3
.. …
ym 1 x 1m … xmm bm
ym+1 1 x1m+1 … xmm+1

yn 1 x1n … xmn

Introducând notaţiile:

X - Matricea parametrilor x1,x2,x3,..,xm


Y - Matricea valorilor experimentale, y1,y2,y3,…,yn

În conformitate cu tabelul 2.14 rezultă expresia matricilor şi vectorilor:


81
Capitolul 2.

1 x 11 x 21 ... x m1 
1  1 1 1 ... 1 
x m 2  x ... x1n 
 x 12 x 22 ...
 11 x12 x13
X = 1 x 13 x 23 ... x m3  X =  x 21
T
x 22 x 23 ... x 2n  (2.48)
   
 ... ... ... ... 
 ... ... ... ... ... 
1 x 1n x 2n ... x m n   xm x m2 x m3 ... x mn 
  1

Y T = [ y1 y2 ... y n ] B T = [b1 b2 ... bm ] (2.49)

Sistemul de ecuaţii (2.45) va avea forma:


(
X T ⋅ X ⋅ B = X T ⋅Y) (2.50)
T -1
Iar pentru a obţine soluţia se înmulţeşte la stânga cu matricea (X X) , deci:

(
B = XT ⋅X )−1
⋅ X T ⋅Y (2.51)

Astfel în cazul în care matricea (XT X)-1 poate fi calculată, coeficienţii regresiei pot fi
determinaţi mult mai uşor. De asemenea, matricea inversă este foarte utilă la
determinarea dispersiilor coeficienţilor regresiei (sbj; j = 0,…,m). De regulă această
matrice mai este notată cu litera C şi asupra se se fac mai multe referiri în literature de
specialitate.

2.4.3. Regresia neliniară funcţie de mai mulţi parametrii.

Exprimarea unei relaţii neliniare între mărimea care se măsoară şi parametrii cu care s-
au obţinut valorile măsurate, expresia de forma (2.52) se poate scrie astfel:

yˆ ≈ y = a 00 + a 01 ⋅ x1 + a 02 ⋅ x 2 + ... + a 0 m ⋅ x m + a11 ⋅ x12 + a12 ⋅ x1 ⋅ x 2 + .. + a1m ⋅ x1 ⋅ x m +


+ a 22 ⋅ x 22 + a 23 ⋅ x 2 ⋅ x3 + ... + a 2 m ⋅ x 2 ⋅ x m + a 33 ⋅ x32 + a 34 ⋅ x3 ⋅ x 4 + ... + a3m ⋅ x3 ⋅ x m + ...a mm ⋅ x m2

Expresia abaterii medii pătratice este în acest caz:

(
S = ∑ y i − a 00 − a 01 ⋅ x1i − ... − a 0 m ⋅ x mi − a11 ⋅ x12 − .. − a1m ⋅ x1 ⋅ x m − ... − a mm ⋅ x m2 )2
(2.53)
i
Expresia ecuaţiilor minime ale abaterii pătratice este (2.54):
82
Capitolul 2.

∂S
∂a 00
(
= 2 ⋅ ∑ y i − a 00 − a 01 ⋅ x1 − .. − a 0 m ⋅ x m − a11 ⋅ x12 − .. − a1m ⋅ x1 ⋅ x m − .. − a mm ⋅ x m2 ⋅ (−1) )
i
∂S
∂a 01
(
= 2 ⋅ ∑ y i − a 00 − a 01 ⋅ x1 − .. − a 0 m ⋅ x m − a11 ⋅ x12 − ..a1m ⋅ x1 ⋅ x m − .. − a mm ⋅ x m2 ⋅ (− x1 ) )
i
....
∂S
∂a11
(
= 2 ⋅ ∑ y i − a 00 − a 01 ⋅ x1 − .. − a 0 m ⋅ x m − a11 ⋅ x12 − .. − a1m ⋅ x1 ⋅ x m − .. − a mm ⋅ x m2 ⋅ − x12 )( )
i
∂S
∂a12
(
= 2 ⋅ ∑ y i − a 00 − a 01 ⋅ x1 − .. − a 0 m ⋅ x m − a11 ⋅ x12 − a12 ⋅ x1 ⋅ x 2 − .. − a mm ⋅ x m2 ⋅ (− x1 ⋅ x 2 ) )
i
....
Prin impunerea condiţiei anulării acestor derivate se obţine sistemul (2.55):
n ∑i x1i ... ∑i xmi ∑i x12i ∑i x1i ⋅ x2i ... ∑i yi
a
∑i x1i ∑i x12i ... ∑i x1i ⋅ x mi ∑i x13i ∑i x12i ⋅ x2i ... a01 ∑i yi ⋅ x1i
00

∑ x2i ∑ x1i ⋅ x 2i ... ∑ x 2i ⋅ xmi ∑ x2i ⋅ x12i ∑ x1i ⋅ x22i ... a02 ∑ yi ⋅ x2i i
... × ... =
i i i i i
... ... ... ... ... ... ...
∑x mi ∑x ⋅x mi 1 ... ∑x 2
mi ∑x ⋅x 2
1i mi ∑x ⋅x ⋅x 1i 2i mi ... a 0 m ∑y ⋅x i mi
i i i i i a11 i

∑x 2
1i ∑x 3
1i ... ∑x ⋅x 2
1i mi ∑x 4
1i ∑x ⋅x 3
1i 2i ...
... ∑y ⋅x
i
i
2
1i
i i i i i
... ... ... ... ... ... ... ...

Soluţiile sistemului vor fi chiar coeficienţii doriţi ai legii.

2.4.4. Etapele analizei de regresie.

a) Verificarea şi analiza datelor de intrare.


Se formează matricea coeficienţilor de corelaţie simplă, P.

 1 ry , x1 ry , x 2 ... ry , xm 
r 1 rx1 , x2 ... rx1 , xm 
 x1 , y
P =  rx2 , y rx2 , x1 1 ... rx2 , xm  (2.52)
 
 ... ... ... ... ... 
rx , y rxm , x1 rxm , x2 ... 1 
 m

Coefincienţii de corelaţie simplă se evaluează cu relaţiile:

∑ (y ( j − y ) xi j − xi )
ry , xi = rxi , y =
j

∑ (y − y ) (x −x )
(2.53)
2 2
j ij i
j
83
Capitolul 2.

∑ (x ik )(
− x i x jk − x j )
rxi , x j = rx j , xi = k
(2.54)
∑ (x − xi ) (x − xj )
2 2
ik jk
k

b) Se verifică coeficientul de corelaţie multiplă:

P
ry , x1x2 ... xm = 1 − (2.55)
P 11

c) Pe baza datelor din tabelul 2.14 se verifică intensitatea corelaţiei pentru a se


determina gradul de încredere în legea de regresie ce va fi astfel determinată.
Astfel, dacă coeficientul de corelaţie multiplă nu satisface datele din tabelul 2.1
atunci sunt necesare măsuri destinate îmbunătăţirii planului de măsurători aflat în
tabelul 2.14. Acest lucru se poate face fie prin mărirea numărului de măsurători,
(creşterea lui n) fie prin modificarea numărului de variabile parametru,
(modificarea lui m). De regulă sunt înlocuiţi parametrii pentru care valoarea
coeficienţior de corelaţie simplă este mică. Dacă şi în urma acestei măsuri
valoarea coeficientului de corelaţie multiplă nu poate fi acceptată, atunci cu
siguranţă nu au fost selectaţi corect parametrii procesului şi va trebuii refăcută
analiza acestor parametrii. De fapt acest lucru înseamnă că s-a omis din analiză
un parametru cu importanţă covârşitoare asupra fenomenului.

2.4.4.1. Calculul coeficientului regresiei.

Dacă s-au determinat corect parametrii procesului şi coeficientul regresiei multiple


îndeplineşte condiţia legată de descrierea corectă a procesului, atunci prin rezolvarea
sistemului de ecuaţii liniare (2.46) sau rezolvarea ecuaţiei matriciale (2.51) se obţine
valoarea coeficienţilor căutaţi.

2.4.4.2. Calculul matricii C:

În conformitate cu ecuaţia (2.51) matricea C poate fi definită astfel:

(
C = XT ⋅X )−1
(2.56)

Termenii matricii C sunt utilizaţi la determinarea intervalelor de variaţie ai coeficienţilor


legii de regresie.

2.4.4.3. Determinarea dispersiilor legii.

a) Dispersia datelor:
84
Capitolul 2.

∑ (y − y)
2
i
s 02 = i
(2.57)
n−m

b) Dispersia de concordanţă:

∑ (y − y)
2
i
2
s con = i
(2.58)
l−m

c) Verificarea concordanţei dintre datele experimentale şi ecuaţia de regresie.

2
s con
FC = ≤ F(α ,ν con ,ν 0 ) (2.59)
s 02

unde:
ν con = n − l
ν 0 = n −1
l = m +1

2.4.4.4. Testarea coeficienţilor legii.

Se utilizează pentru cazul în care se doreşte determinarea importanţei pe care parametrii


legii de regresie o au asupra procesului. Este un pas obligatoriu al algoritmului destinat
determinării legii de regresie, deoarece interpretarea importanţei acestor coeficienţi doar
pe baza valorii sau a semnului lor şi eliminarea lor fără nici o altă verificare conduce la
eliminarea însăşi mărimii parametru din lege. De asemenea aceşti coeficienţi au corelaţii
şi dispersii diferite.
Relaţiile de calcul a dispersiilor legii şi coeficienţilor legii sunt relaţii de forma:

ν 0 ⋅ s 02 + ν con ⋅ s con
2
s2 = (2.60)
ν 0 + ν con
s a2 j = c jj ⋅ s 2 (2.61)

unde cjj reprezintă elemental matricii C.

 c00 c 01 c02 ... c0 m 


c c11 c12 ... c1m 
 01
C =  c02 c 21 c 22 ... c 2 m  (2.62)
 
 ... ... ... ... ... 
c 0 m c m1 cm 2 ... c mm 

se determină coeficientul de corelaţie al parametrului:


85
Capitolul 2.

c0 j
rb j 0 = (2.63)
c00 ⋅ c jj

se determină coeficientul de corelaţie între parametrii:

cij
rbij = (2.64)
cii ⋅ c jj

se calculează intervalul fiecărui parametru:

bj bj
tj = = (2.65)
sb j s ⋅ c jj

valorile obţinute ale intervalului se compară cu valorile date de distribuţia Student pentru
gradul de încredere dorit (de regulă α = 0,05) şi numărul de grade de libertate ν=ν0+νconv.
Se cieşte astfel valoarea tT = t(α,ν)
Dacă tj este mai mic sau egal cu tT atunci coeficientul bj poate fi exclus din legea de
regresie. Acest lucru înseamnă că parametrul xj nu a fost bine ales şi importanţa sa
asupra fenomenului fizic descries de legea de regresie este neglijabilă.
Dacă tj este mai mare decât tT atunci coeficientul bj nu poate fi exclus şi se poate stabili
intervalul de încadrare ale acestuia.

b Sj = b j + t T ⋅ sb
 I (2.66)
j

b j = b j − t T ⋅ s b j

Observaţie. La îndepărtarea unui parametru este recomandată doar în cazul în care nici
o corelaţie dintre parametrii nu este sufficient de bună, deci toţi rbib j ≈ 0 în caz contrar
totuşi parametrul trebuie păstrat în lege deoarece este important pentru efectele pe care
le are împreună cu alţi parametrii.

Exemplul 2.3.

Să se determine legea liniară de mai multe variabile, care să exprime datele din tabelul
2.15.

Nr. Crt. x1 x2 x3 y
1 0,106 47,12 2 45,5
2 0,106 47,12 1,5 44
3 0,106 47,12 1,0 42,5
4 0,106 47,12 0,25 31
5 0,106 94,24 0,5 48,5
6 0,106 150,72 0,5 64,5
7 0,106 188,4 0,5 67,5
8 0,167 47,12 0,5 45
9 0,460 47,12 0,5 54,5
10 0,530 47,12 0,5 57,5
86
Capitolul 2.

Analiza de regresie a mărimii y:

Coeficientu
Suma Nr. grade l de
regresie Eroarea
pătratelor de Dispersia F
multiplă standard.
abaterilor libertate.
ry , x1x2 x3
Regresia 26076,71 3 8692,23 777,94 0,988 3,342
Rest 67,04 6 11,17
Total 26143,75 9

Expresia regresiei multiple:

y = 18,645 + 48,07 ⋅ x1 + 0,228 ⋅ x 2 + 6,251 ⋅ x3

Verificarea diferenţelor.
y ŷ y − yˆ Eroarea (%)
47 45,5 1,5 3,2
43,8 44 0,11 0,27
40,7 42,5 1,74 4,28
36 31 5,06 14,04
48,3 48,5 0,11 0,22
61,3 64,5 3,21 5,24
69,8 67,5 2,39 3,42
40,4 45 4,45 10,92

Exemplul 2.4.

Determinarea expresiei deformaţiilor suferite de îmbinările sudate cap la cap cu rost în Y


este un factor important în stabilirea tehnologiei optime de sudare. Din această cauză
este foarte importantă determinarea factorilor tehnologiei de sudare care influenţează
semnificativ această deformaţie. Deoarece relaţiile utilizate până în prezent nu ţin cont
de numărul de treceri din care este realizată îmbinarea şi nici de calitatea materialelor de
sudare sau de procedeul de sudare se cere determinarea pe cale statistică a unei relaţii
îmbunătăţite care să confere un grad de precizie cât mai reidicat pentru săgeata
structurilor sudate care utilizează acest tip de îmbinări.
În scolul rezolvării acestei probleme se stabileşte o probă etalon având forma din figura
2.10
87
Capitolul 2.

Figura 2.10. Geometria îmbinării sudate pentru determinarea expresiei săgeţii în funcţie de
geometrie.

Datele încercării sunt sintetizate în figura 2.11.

Figura 2.11. Programul de cercetare statistică.

În urma procesului de sudare cu diferiţi parametrii principali de sudare s-au obţinut


diferite săgeţi ale epruvetelor. S-a presupus că aceste săgeţi sunt produse de forţe
longitudinale, concentrate, care acţionează pe capetele cordoanelor de sudură. (Numite
şi forţe tendon). Aceste forţe au fost raportate la secţiunea îmbinării sudate şi s-au
obţinut presiunile echivalente procesului de sudare analizat (pS). Presiunile echivalente
sunt date în tabelul 2.4.1. S-au mai considerat şi rezistenţa la curgere a materialului şi
diametrul electrodului.

2
Table 2.4.1.Valorile medii ale presiunii echivalente pS in [N/mm ] obţinute pentru epruvetele din figura 2.11.

Oţelul Presiunea de1 de2 de3 de4


de de
[MAG-sha] [MAG-spa]
2,5 3,25 4 5 1,2 1,2
[N/mm 2] [mm] [mm] [mm] [mm] [mm] [mm]
OL37 ps 2531 3774 4897 6292 8583 9660
OL44 ps 3222 4803 6232 8008 10000 12295
OL52 ps 3649 5442 7060 9072 12374 13927
88
Capitolul 2.

Table 2.4.2. Datele iniţiale şi cele intermediare obţinute în scopul determinării legii de regresie.
Nr. de Rp0,2 PS de2 Rp0,22 de Rp0,2 de P S Rp0,2 PS PS2
[mm] [N/mm2] [N/mm2]
Crt
1 2,5 220 2531 6,25 48400 550 6327,5 556820 6405961
2 2,5 280 3222 6,25 78400 700 8055 902160 10381284
3 2,5 346 3549 6,25 119716 865 8872,5 1227954 12595401
4 3,25 220 3774 10,5625 48400 715 12265,5 830280 14243076
5 3,25 280 4803 10,5625 78400 910 15609,75 1344840 23068809
6 3,25 346 5442 10,5625 119716 1124,5 17686,5 1882932 29615364
7 4 220 4897 16 48400 880 19588 1077340 23980609
8 4 280 6292 16 78400 1120 25168 1761760 39589264
9 4 346 7060 16 119716 1384 28240 2442760 49843600
10 5 220 6232 25 48400 1100 31460 1384240 39589264
11 5 280 8008 25 78400 1400 40040 2242240 64128064
12 5 346 9072 25 119716 1730 45360 3138912 82301184
 44,25 3384 64242 173,438 986064 12478,5 258672,75 18792238 395741880

Table 2.4.3. Mărimile statistice ale experimentului.


Variabile de Rp0,2 PS
2 2 2
Statistica. [mm ] [N/mm ] [N/mm ]
Mediile 3,6875 282 5411,833333
Dispersiile 0,966042771 53,75 2006,503056

Tabelul 2.4.4. Coeficienţii de corelaţie şi valorile de testare ale acestora.


2
rx1x2 0 Rx1x2 0 tC(x1x2) 0 tC < t T
2
ry,x1 0,90043542 Ry,x1 0,810783945 tC(y,x1) 6,545963491 tT(0,15 1,088 tC > tT
,10)
ry,x2 0,403442334 Ry,x22 0,162765717 tC(y,x2) 1,394305583 tC < t T

Tabelul 2.4.5.Calculul şi testarea coeficienţilor de corelaţie parţială şi al celui de corelaţie globală.


ryx1,x2 0,984076971 R2yx1,x2 0,968407484 tC(yx1,x2) 16,61 tT(0,08;9) 2,262 tC > tT
2
ryx2,x1 0,927475565 R yx2,x1 0,860210924 tC(yx2,x1) 7,442 2,262 tC > tT
2
ry,x1x2 0,986686203 R y,x1x2 0,973549662 FC 165,6 FT(0,05;2,9) > 7,12 FC > FT

Concluziile analizei de regresie multiplă.


a) Diametrul electrodului, de este un parametru tehnologic al procesului deorece tC >
tT.
b) Procedeul de sudare este un parametru ce nu poate fi neglijat.
c) Coeficientul legii de regresie care exprimă produsul dintre de şi Rp0,2 nu este un
parametru al legii de regresie căutată şi poate fi neglijat.
d) Parametrii de şi Rp0,2 sunt parametrii ce îndeplinesc condiţia de semnificaţie şi nu
pot fi neglijaţi.
e) Legea este liniară.

Deoarece coeficientul de corelaţie multiplă, R2y,de,pS = 0,9735 şi deoarece coeficientul


Fisher este superior valorii teoretice (FC = 156,6 > FT(0,5;2,9) = 7,12) atunci cu o
probabilitate mai mare decât 95% parametrii de şi Rp0,2 sunt parametrii legii căutate
pentru presiunea echivalentă, pS. Utilizând datele din tabelul 2.4.1 s-a determinat legea
de corelaţie căutată sub forma:
89
Capitolul 2.

~
p S = −5731,318 + 1868,407 ⋅ d e + 15,06525 ⋅ R p 0, 2
unde:
de  diametrul electrodului [mm]
2
Rp0,2  rezistenţa la curgere a materialului de bază [N/mm ]

Verificarea legii de regresie.


Datele necesare verificării legii căutate sunt concentrate în tabelul 2.4.6.

Table 2.4.6. Verificarea legii de regresie pS = pS(de,Rp0,2)


~
pS ∆P = ( p S ) − ~
i
pS ) Eroare (
∑ p S − pS
i
2
) (
∑ p S − ~pS
i
)2

[%]
2254,0545 276,9455 10,94214 8318417,361 76698,81
3157,9695 64,0305 1,987291 1503204,229 4099,905
4152,276 -503,276 -13,7922 13315201 253286,7
3655,3598 118,6403 3,143621 14243076 14075,51
4559,2748 243,7253 5,074438 23068809 59402
5553,5813 -111,581 -2,05037 29606573,78 12450,38
5056,665 -159,665 -3,26047 23978953,8 25492,91
5960,58 271,42 4,355263 38837824 73668,82
6954,8865 105,1135 1,48886 49829876,99 11048,85
6925,072 -633,072 -10,0615 39578205,95 400780,2
7828,987 179,013 2,235427 64128064 32045,65
8823,2935 248,7065 2,741474 82283463,86 61854,92
388691670 1024905
2
s R0 = 35335606,36
s2R1 = 113878,3
FC = 0,003223
FT(0,05;2;9) = 7,12

Deoarece condiţia impusă asupra concordanţei legii cu măsurătorile este îndeplinită (FC
< FT) se trage concluzia că legea de regresie obţinută este corectă. Rezultatele analizei
coeficienţilor legii de regresie astfel obţinute sunt prezentate în tabelul 2.4.7.

Table 2.4.7. Rezultatele verificării coeficienţilor legii de regresie.


s2a01 1807774,21 ta01 1,389630676 ta01 > tT
2
s a02 1,620574023 ta02 11,83428179 ta02 > tT
s2a00 24710366,81 ta00 1,152961777 ta00 > tT
tT(0,15;12+9) = 1,063

Stabilirea relaţiei dintre presiunea echivalentă şi numărul de straturi ale îmbinării


sudate.

I.- Determinarea presiunii echivalente pS pentru sudarea cu o singură trecere în funcţie


de diametrul electrodului, de şi rezistenţa la curgere a oţelului şi corectarea acesteia cu
ajutorul unui factor de corecţie, Km, care să ţină cont de numărul de treceri din care este
realizată aria sudurii. Se caută deci o expresie de forma:

p S = p S (d e , R p 0, 2 ) ⋅ K m
90
Capitolul 2.

II.- Determinarea unei funcţii complexe care să exprime presiunea echivalentă în funcţie
de numărul de treceri şi diametrul electrodului. Deci o funcţie de forma:
p S = p S (n, d e )

III. – Determinarea presiunii echivalente ca o funcţie de numărul de treceri, n, diametrul


electodului, de, şi rezistenţa la curgere a oţelului, Rp0,2. Deci o funcţie de forma:
p S = p S (n, d e , R p 0, 2 )

Cazul I.
S-au efectuat măsurătorile pentru n=1…20 de treceri şi datele obţinute pentru valorile
medii ale presiunii echivalente au fost folosite la completarea tabelului 2.4.8 necesar
determinării expresiei coeficientului de corecţie Km. Pe baza coloanelor 2 şi 8 ale
tabelului s-au dterminat mai multe regresii care conferă precizie suficientă expresiei
coeficientului Km în funcţie de numărul de treceri. Expresiile acestor regresii sunt date în
tabelul 2.4.9. Se verifică legea de regresie cea mai uşor de calculat şi care conferă şi o
precizie ridicată, Km=n-0,71 şi se complectează tabelul 2.4.8.
Pe baza datelor din tabelul 2.4.8 se calculează mărimile statistice ale legii şi se
evaluează criteriul Fisher pentru această relaţie. Rezultatele sunt date în tabelul 2.4.10.
Tabelul 2.4.8. Valorile medii ale presiunii echivalente în funcţie de numărul de treceri şi valoarea
măsurată a raportului dintre cele presiunea echivalentă medie a îmbinării dintr-o singură trecere şi
cea din mai multe treceri.
Nr. nr. (n-nmed)2 Y1 = Km1 Y2 = Km2 Y3 = Km3 Y4 = Km4 Ymed Yc=n-0,71 Σ(Yi-Ymed)2 Σs2i (Ymas-Yc)2
Crt trecerii Măsurăt Măsurăt. 2 Măsurăt. 3 Măsurăt. (media)
n 1 4

1 2 3 4 5 6 7 8 9 10 11 12
1 1 90,25 1 1 1 1 1 1 0 0 0
2 2 72,25 0,595 0,612 0,609 0,58 0,599 0,61132013 0,000646 0,000646 0,000151786
9
3 3 56,25 0,38 0,48 0,51 0,47 0,46 0,45839926 0,0094 0,0094 2,56236E-06
1
4 4 42,25 0,35 0,36 0,41 0,36 0,37 0,37371231 0,0022 0,0022 1,37813E-05
2
5 5 30,25 0,29 0,33 0,31 0,33 0,315 0,31895638 0,0011 0,0011 1,5653E-05
2
6 6 20,25 0,27 0,29 0,3 0,26 0,28 0,2802287 0,001 0,001 5,23037E-08
7 7 12,25 0,25 0,27 0,27 0,22 0,2525 0,25117730 0,001675 0,001675 1,74953E-06
2
8 8 6,25 0,23 0,24 0,22 0,2 0,2225 0,22845786 0,000875 0,000875 3,54961E-05
3
9 9 2,25 0,21 0,22 0,2 0,2 0,2075 0,21012988 0,000275 0,000275 6,91628E-06
3
10 10 0,25 0,19 0,2 0,18 0,2 0,1925 0,19498446 0,000275 0,000275 6,17254E-06
11 11 0,25 0,17 0,19 0,17 0,19 0,18 0,18222635 0,0004 0,0004 4,95667E-06
7
12 12 2,25 0,16 0,18 0,17 0,18 0,1725 0,17130944 0,000275 0,000275 1,41741E-06
8
13 13 6,25 0,15 0,16 0,16 0,17 0,16 0,16184534 0,0002 0,0002 3,40531E-06
8
14 14 12,25 0,14 0,14 0,16 0,17 0,1525 0,15354974 0,000675 0,000675 1,10196E-06
3
15 15 20,25 0,14 0,13 0,16 0,148 0,1445 0,14620937 0,000483 0,000483 2,92195E-06
16 16 30,25 0,13 0,13 0,15 0,15 0,14 0,13966089 0,0004 0,0004 1,14994E-07
2
17 17 42,25 0,13 0,12 0,14 0,14 0,1325 0,13377694 0,000275 0,000275 1,63058E-06
2
18 18 56,25 0,12 0,12 0,13 0,13 0,125 0,12845662 0,0001 0,0001 1,19483E-05
9
19 19 72,25 0,11 0,12 0,13 0,12 0,12 0,12361892 0,0002 0,0002 1,30966E-05
20 20 90,25 0,11 0,115 0,11 0,128 0,1157 0,11919792 0,000216 0,000217 1,18882E-05
5 7 75
91
Capitolul 2.

Σ 210 5,3418 0,020670 0,00028665

Tabelul 2.4.9. Legile de regresie posibile pentru coeficientul de corecţie Km pe baza coloanelor 2 şi 8
din tabelul 2.4.8.
Expresia legii de
Coeficienţii legii Coeficientul Eroarea
Nr. regresie.
de corelaţie standard

1 a = 0,00772745
1 km = b = 0,9922673 0,9999 0,0002239
a + b ⋅ nc c = 0,71284825
−1
a = 0,0073005
2 k m = (a + b ⋅ n ) c b = 0,99269867 0,9999 0,0002249
c = 1,4041384
b a = 0,0052062
a + + c ⋅ln(n )
3 km = e x b = -0,005206 0,9999 0,0002249
c = -0,71217643
1 a = 1,0052197
4 km = a ⋅ b ⋅ nc
n b = 0,994808 0,9999 0,0002249
c = -0,70857
a = 1,0004521
5 km = a ⋅ bn ⋅ nc b = 0,99963052 0,9999 0,0002252
c = -0,70857114
a = 1,0003978
6 km = a ⋅ nb 0,9999 0,0003113
b = -0,7101382

Tabelul 2.4.10. Mărimile statistice ale legii căutate.


Parametrii
Valuare
statistici
nmed 10,5
Km med 0,2670875
s2max 0,45474886
s 20 0,001033538
2
s Con 6,37003E-05
FC 0,061633227
FT(0,05,1,58) >1
s2Med 0,000574141

Legile de regresie care conduc la cea mai bună aproximare pentru coeficientul Km sunt
din familia puterilor şi dintre acestea a fost adoptată ca fiind cea mai uşor de utilizat şi cu
2
un coefficient de corelaţie foarte bun, R y,x = 0,999 legea:

1 1
k m = n −0, 71 ≡ sau km =
2 ,13
3
n 3
n2

Deci expresia forţei tendon echivalente cu procesul de sudură pentru cazul analizat este:

pS
FS = p S ⋅ AS ⋅ k m = AS
3
n 2,13
92
Capitolul 2.

Concluzii:

◊ Relaţia obţinută prin metode statistice permite o aproximare bună a săgeţii


îmbinării sudate cap la cap cu rost în n Y.
◊ Diferenţa dintre săgeta calculată cu metoda clasică şi cea obţinută cu metoda
statistică este foarte mare. Dacă pentru cazul clasic săgeţile obţinute prin calcul
dau erori din ce în ce mai mari pe măsură ce numărul de treceri sunt mai mari în
cazul statistic acestea se păstrează în limita de 1,68-5%.
◊ Căutarea unor relaţii statistice pentru ipotezele II şi II nu mai este necesară.

Exemplul 2.5.

Să se determine pe cale experimentală parametrii geometrici ai cordonului de sudură


pentru cazul sudării MAG cu rost neprelucrat pentru sudarea cap la cap şi de colţ a
tablelor cu grosimea cuprinsă între 3 şi 6 mm. Notaţiile geometrice sunt date în figura
2.12a şi respectiv 2.12b.

B hi

b p δ

Ψp = B / p
a)

a)
δ1

p∆
B

δ2

k
b) a

b)
Figura 2.12.
93
Capitolul 2.

a). Caracteristicile geometrice ale îmbinării cap la cap ( b = 0..2,5 mm; δ = 3…12 mm; p = 3…12 mm; B =
5…30 mm)
b). Caracteristicile geometrice ale îmbinărilor de colţ ( δ = 3 … 12 mm; b = 0…3 mm; pk = 3…6 mm )

Experienţele efectuate pentru rezolvarea problemei propuse s-au efectuat pe seturi de


probe având dimensiunile geometrice şi parametrii conform tabelului 2.5.1.

Tabelul 2.5.1. Caracteristicile geometrice ale rostului I şi parametrii de sudare.


UA
Ve
δ b Nr. calculat VS
(mm) (mm) Crt
IS calculată
ă (cm/min)
(cm/min)
(v)
3 0.01 1 168 22.7 47.20000076 362.5
3 0.25 2 159 21.8 39.09999847 355.1000061
3 0.5 3 133 21 31.10000038 349.8999939
4 0.01 4 203 23.4 47.70000076 455.6000061
4 0.25 5 178 22.5 40.09999847 452.7000122
4 0.5 6 154 21.6 32.59999847 452.2999878
4 0.75 7 129 20.7 25 454.2000122
4 1 8 129 20.7 25 454.2000122
5 0.01 9 263 25.9 62 544.7000122
5 0.25 10 240 25 54.90000153 541.5999756
5 0.5 11 218 24 47.79999924 541.0999756
5 0.75 12 195 23.2 40.59999847 543.2000122
5 1 13 173 22.2 33.5 547.9000244
5 1.25 14 150 21.3 26.39999962 555.2999878
6 0.01 15 292 27.6 67.40000153 613.4000244
6 0.25 16 272 26.6 60.70000076 612.7999878
6 0.5 17 251 25.6 54 614.9000244
6 0.75 18 231 24.7 47.29999924 619.7000122
6 1 19 210 23.7 40.59999847 627.4000244
6 1.25 20 189 22.7 33.90000153 637.9000244
6 1.5 21 169 21.8 27.20000076 651.0999756
6 1.75 22 148 20.8 20.60000038 667.2000122
6 2 23 128 19.9 13.89999962 686.2000122
Caracteristicile geometrice obţinute sunt date în tabelul 2.5.2 fiind medii ale minimum 5
determinări.
Tabelul 2.5.2. Caracteristicile geometrice ale îmbinărilor obţinute
Nr. B p
ψP kMB
Crt (mm) (mm)
1 34.5 3.5 11.5 88.80000305
2 34.40000153 3.2 11.39999962 86.80000305
3 34 3.3 11.5 84.19999695
4 24.59000015 3.5 6.144999981 87.73000336
5 24.70000076 4.1 6.175000191 85.84999847
6 25 3.8 6.25 84
7 25.20000076 4.2 6.300000191 83.45999908
8 26.39999962 4.4 6.599999905 79.33000183
9 21.70000076 5.2 4.340000153 89.5
10 21.60000038 5.2 4.320000172 90.5
11 21.70000076 5.2 4.340000153 89.19999695
12 22 5.4 4.400000095 87.5
13 22.64999962 5.2 4.53000021 85.40000153
94
Capitolul 2.

14 24 5.3 4.800000191 82.59999847


15 20 6.4 3.329999924 90
16 23 6.2 3.829999924 89
17 23 6.2 3.839999914 87.69999695
18 23.39999962 6.3 3.900000095 86.30000305
19 23.70000076 6.3 3.950000048 84.40000153
20 25 6.2 4.159999847 82.19999695
21 26.26000023 6.3 4.369999886 79.5
22 28.89999962 6.2 4.815999985 76
23 35.5 6.2 5.920000076 71.80000305
24 33.5 3.3 11.19999981 88.59999847

Analiza datelor statistice a condus la următoarele ecuaţii de regresie pentru sudarea cap
la cap cu rost neprelucrat şi a celor de colţ.

Table 2.5.3 Expresia regresiilor liniare a parametrilor de sudare în funcţie de parametrii geometrici ai
îmbinării pentru suduri cap la cap şi de colţ.
Domeniul. Ecuaţia obţinută. Err.
Is = -1,168 + 1,666083 · 10 δ + 0,1813 b - 0,0174 B +
-3
8,4%
3,065· 10 p - 5,288· 10 Ψp + 1,058· 10 Kmb + 6,785· 10 El
-3 -2 -2 -2

δ = 3 - 6 [mm] Ua = 1,666· 10 - 1,828· 10 δ - 0,268 b + 2,089· 10 B - 1,6·


-3 -3 -2
12%
b = 0 - 3 [mm] 10-3 p - 3,62· 10-2 Ψp + 0,133 Kmb + - 3,93· 10-2 El
Vs = 0,181 + 3,23· 10 δ + 1,661 b - 0,443 B + 9,204· 10 p
-2 -2
B = 20 - 35,5 [mm]
8%
kMB = 90,5 ..71,8[ %] + 3,346 Ψp + 0,522 Kmb + -1,4055 El
Ve = -0,0174 - 1,658· 10-2 δ + 0,468 b + 4,005· 10-3 B - 4,95·
6%
10 p - 8,114· 10 Ψp + 0,178 Kmb - 2,916· 10 El
-5 -2 -2

Expresia parametrilor geometrici ai îmbinării sudate în funcţie de parametrii principali de


sudură este dată în tabelul 2.5.4

Tablul 2.5.4 Regresiile liniare ce exprimă dependenţa caracteristicilor geometrice ale


îmbinărilor cap la cap cu rost I de parametrii principali de sudare.
Domeniul de
variaţie al Legile de regresie obţinute. Err.
parametrilor.
p = -16,62 - 0,019 Is + 1,025 Ua - 7,4865· 10-2 Vs + 8,5354·10-3 Ve 12%
p = 3 - 6 [mm] -2
B = -0,0194- 0,4047 Is - 2,52 Ua + 1,497 Vs + 6,8·10 Ve 14%
B=35,5-20 [mm]
Ψp=11,5 - 3,3 Ψp = 1,025 - 0,159 Is - 0,302 Ua + 0,513 Vs + 9,46·10 Ve -3
15%
El=11…4,8 [J/cm] Kmb = -7,486·10-2 + 0,1017 Is + 0,354 Ua - 8,58·10-2 Vs - 3,51·10-2 Ve 10%
-3 -3 -2 -2
El = 8,535· 10 - 9,6·10 Is - 0,663 Ua + 9,03·10 Vs + 1,6·10 Ve 13%

Table 2.5.5 Regresiile pătratice pentru sudarea cap la cap cu rost I.


Domeniul de
variaţie al Legile de regresie obţinute. Err.
parametrilor.
p = 3 - 6 [mm] p = -2255,107 + 6,779 Is +324,1499 Ua - 67,09 Vs - 2,89 Ve +
B = 35,5 - 20 [mm] 2,834· 10-2 Is2 - 11,448 Ua2 - 9,873· 10-2 Vs2 + 2,65· 10-4 Ve2 - 0,3465
Ψp=11,5 - 3,3 2,4%
Is Ua - 0,129 Is Vs - 8,218· 10-3 Is Ve + 4,299 Ua Vs + 0,1802 Ua Ve
Kmb = 90,5 ..71,8
[%] + 8,8105· 10-4 Vs Ve .
-2
El = 11…4,8 B = 6,778 - 5,89 Is + 647,517 Ua - 66,29 Vs -3,51 Ve + 6,71· 10
2 2 2 -3 2
[kJ/cm] Is - 21,87 Ua + 0,496 Vs + 2,549· 10 Ve + 0,7002 Is Ua -
Is = 292 - 128 [A] -2 3,2%
0,4884 Is Vs - 2,98· 10 Is Ve + 3,56 Ua Vs + 0,1597 Ua Ve + 6,773·
Ua = 27,6 - 20 [V] -2
Vs = 67,4 - 13,9 10 Vs Ve .
[cm / min] Ψp = 324,1499 - 0,537 Is + 238,29 Ua - 29,06 Vs -1,7489 Ve +
3,6%
Ve = 686,2 - 350 2,88·10-2 Is2 - 8,059 Ua2 + 0,2677 Vs2 + 1,339·10-3 Ve2 + 0,2519 Is Ua
95
Capitolul 2.

[cm / min] -2
- 0,2174 Is Vs - 1,4226·10 Is Ve + 1,2776 Ua Vs + 0,067 Ua Ve +
-2
3,657·10 Vs Ve .

Kmb = -67,09599 - 0,277 Is + 344,3368 Ua - 43,12576 Vs - 1,793779


-2 2 2 2 -4
Ve - 2,791101·10 Is - 11,17793 Ua - 0,4743859 Vs - 7,8685·10
-2 -3 2,8%
Ve Ve - 3,058994·10 Is Ua + 0,1738948 Is Vs + 7,03·10 Is Ve +
-2
3,06 Ua Vs + 0,1278993 Ua Ve - 3,99·10 Vs Ve
Eln = - 2,897 - 6,679 Is + 92,18 Ua + 9,048 Vs + 0,663 Ve -
-3 2 2 -2 2 -5 2
8,58·10 Is - 2,695 Ua + 2,597·10 Vs + 1,296·10 Ve + 0,406 Is
-3 -4 1,6%
Ua + 4,145·10 Is Vs + 9,09·10 Is Ve - 0,561Ua Vs - 0,039467 Ua
-3
Ve +1,08·10 Vs Ve

Table 2.5.6 Alte tipuri de regresii obţinute pentru sudurile I şi de colţ.


p = -1,7 + 0,155 Vs - 0,021Ve + 1,8 b - 0,0054 Ua Vs - 0,038 Vs de + 0,004 Ua2 + 0,0295Ve de - 0,000078
Vs Ve
B = exp(3,01 + 0,12 Ua - 0,057 Vs + 3,34 de + 0,00117Ve - 0,03 Ua Vs + 0,0028 Vs de + 0,00117
2 2 2
Vs - 0,96 de + 0,000061 Ve Vs - 0,0047 Ve de - 0,0000156 Ve )
Ψp = exp( 4,81 - 0,22 Ua -2,868 de - 0,0119 Ve - 0,00119 Vs + 0,92 de2 + 0,000013 Ve2 - 0,033
2

de Vs + 0,0103 Ve de+ 0,00417 Ua Vs - 0,000112 Vs Ve)


2
p∆ = -2 -0,55 Ua +12,8 de +1,2 b - 0,0105 Ve + 0,35 Ua de - + 0,35 Ua de - 7,2 de + 0,001135
VsUa - 0,00000175 Vs Ve
B = exp(-(0,998 - 0,045Ua + 0,05Vs - 2de - 0,009 Ve - 0,000875 Vs2 + 0,47 de2 + 0,0031 Ve de
+ 0,000067 VeVs + 0,0000085 Ve2)).
Ψp∆∆ = exp( 5,18 - 0,49 Ua - 0,066 Vs - 1,945 de + 0,2 Ua de + 0,029 Vs de + 0,0629 Ve de +
2

0,000137 Vs Ve)

Table 2.5.7. Expresia ecuaţiilor de regresie pentru cazul sudării de colţ.


Domeniul. Ecuaţia obţinută. Err.
Is = -10882,52 - 0,593 δ + 29,4578 b + 48,059 B - 1,5484 p +
145,1384 Ψp + 9,501E-02 Kmb + 1519,598 El + 4,92E-03 δ2 + 34,46
b + 1,318 B + 2,197E-02 p -4,043 Ψp - 4,285 Kmb + 10,757 El -
2 2 2 2 2 2

2,707  b - 0,2382 δ B + 0,072 δ p + 4,157 δ Ψp + 6,218E-05 δ Kmb + 2,3


1,964 δ El + 2,115 b B- 0,516 b p - 11,318 b Ψp - 0,2725 b Kmb - %
58,504 b El - 0,357 B p - 14,29 B Ψp + 1,3428E-02 B Kmb + 4,5118 B
El + 0,596 p Ψp - 1,105E-02 p Kmb - 1,547 p El + 0,899 Ψp Kmb -
28,6857 Ψp El + 6,0061 Kmb El.
p = 3 - 6 [mm] Ua = -0,59322 + 0,2862 δ + 172,7605 b - 15,4317 B + 0,3933 p +
B = 35,5 - 20 36,645 Ψp + 0,105 Kmb + 306,2584 El - 4,937E-02 δ2 + 2,2406 b2 -
[mm]
Ψp=11,5 - 3,3
0,156 B2 + 3,8759E-03 p2 -0,688 Ψp2 + 5,0766 Kmb2 - 3,4693 El2 -
Kmb = 90,5 ..71,8 0,1830831 δ b + 0,2199366 δ B +1,4478E-02 δ p + 0,5317 δ Ψp - 2,6
[%] 1,19E-04 δ Kmb + 0,541 δ El + 0,58 b B - 0,1244 b p - 2,5613 b Ψp - %
0,296 b Kmb - 12,315 b El -7,007E-02 B p - 1,78 B Ψp - 9,38E-03 B Kmb
Limitele
domeniului + 0,589 B El + 0,1257 p Ψp + 7,29E-03 p Kmb - 0,32218 p El + 0,7971
Is = 292 - 128 [A] Ψp Kmb - 5,644 Ψp El + 0,9972612 Kmb El .
Ua = 27,6 - 20 [V] Vs = 29,46 + 30,35 δ + 10464,46 b - 2136,76 B + 114,81 p - 1531,59
Vs = 67,4 - 13,9
Ψp + 0,6597 Kmb - 15369,2 El - 1,4549 d - 618,46 b - 18,918 B -
2 2 2
[cm / min]
Ve = 686,2 - 350 0,2483 p + 59,78 Yp + 158,02 Kmb - 499,1818 El + 52,599 δ b +
2 2 2 2

[cm / min] 7,175 δ B - 1,284 δ p - 52,86517 δ Ψp + 3,837E-05 δ Kmb - 9,684969 δ 2,1


El - 24,2487 b B + 1,568371 b p + 114,7863 b Ψp + 5,129113 b Kmb + %
529,5081 b El + 5,869637 B p + 182,9997 B p - 0,4509707 B Kmb -
68,2412 B El -5,930892 p Ψp + 0,30352 p Kmb + 16,05457 p El -
37,27861 Ψp Kmb + 347,3939 Ψp El + 217,0542 Kmb El .
Ve = 48,06 + 5,691 δ - 4590,567 b - 132,1 B + 27,343 p - 2419,61 Ψp +
9,701464E-02 Kmb - 23514,72 El + 0,0958 δ - 412,39 b - 15,39 B -
2 2 2
2,4
0,336 p + 59,77 Ψp - 354,5 Kmb + 129,53 El + 43,22 δ b + 2,363 δ B
2 2 2 2
%
- 1,2 δ p - 63,93 d Ψp + 6,99E-03 δ Kmb - 30,459 δ El -72,71 b B + 7,71
96
Capitolul 2.

b p + 190,9 b Ψp + 7,28 b Kmb + 898,13 b El + 5,8 B p + 217,191 B Ψp


- 0,3363 B Kmb -69,4 B El - 9,33 p Ψp + 0,2193 p Kmb + 24,19 p El +
7,33 Ψp Kmb + 421,2347 Ψp El + 28,573 Kmb El .

Expresiile regresiilor astfel obţinute s-au utilizat la determinarea parametrilor optimi ai


procesului de sudare care să asigure realizarea cu consum minim de energie şi material
de bază a îmbinării sudate dorite.

Aceşti parametrii se găsesc în tabelul 2.5.8 iar programul scris în visualBazic 6.0 care
asigură prelucrarea datelor măsurătorilor, determinarea regresiilor multiple liniare şi
patratice ca şi optimizarea sistemului de ecuaţii astfel obţinut din condiţia de asigurare a
energiei liniare minime are formurile de interfaţă cu utilizatorul prezentate în figurile 2.5.1,
2.5.2,2.53.

Tabelul 4. Expresia valorilor optime pentru parametrii de sudare în cazul sudării tablelor cu grosime
de 3 mm sau bilateral pentru table de 6 mm.
Domeniul Tip Legea de regresie obţinută Coef.
îmbinare Corelaţie
de = 1..1,2 Cap la Is = -134 + 14,42 δ + 311,3 de + 8,22 δ b + 40,3 δ de R = 0,92
- 110 b de - 3 δ - 148,4 de
2 2
mm cap
δ = 3..6 mm (I) Ua = 31,8 + 1,62 δ +- 3,03 b - 19,75 de -0,1358 δ b + R = 0,89
b = 0..2 mm 6,806 de2
Vs = 42,3 + 7,81 δ - 22,44 b - 50,6 de + 1,07 δ b - R = 0,83
0,415 δ + 18,8 de
2 2

de = 1..1,2 mm De colţ Is = 28 + 20,83 k - 44,1 b + 34,53 b de +57,2 1de2 R = 0,93


δ = 3..6 mm ( ∆) Ua = 31,2 + 1,2 k - 4,32 b - 22,3 de + 2,81 de b + R = 0,71
2
k = 2,1…5 mm 10,23 de
b = 0…2 mm ( Ua = 14 + 0,05 Is ) ( R = 0,76)
Vs = 60,5 - 5,23 δ - 5,6 b - 46,41 de + 0,51 δ b - 1,84 R = 0,87
2 2
k de + 0,4554 k + 24,55 de
97
Capitolul 2.

Figura 2.13. Modulul destinat introducerii şi grupării datelor.


98
Capitolul 2.

Figura 2.14. Modulul utilizat alegerii tipului de regresii statistice dorit.

Figura 2.15. Caseta de dialog destinată raportului analizei


99
Capitolul 2.

Figura 2.16. Modulul destinat stabilirii expresiei parametrilor optimi. Caseta de dialog destinată
alegerii expresiei de optimizat a restricţiilor ca şi a valorilor extreme ale parametrilor.

Figura 2.17. Modulul de optimizare. Caseta de dialog destinată alegerii metodei.


100
Capitolul 2.

Concluziile analizei statistice utilizând regresii multivariabile.

Modelarea procesului de sudare, utilizând metodele analizei statistice conduce în cazul


analizat la obţinerea unor relaţii de dependenţă statistică, extrem de utile, pentru
estimarea caracteristicilor geometrice ale îmbinării sudate ca şi pentru estimarea
parametrilor optimi de sudare.
Faptul că în urma procesului de optimizare rezultă expresia parametrilor optimi funcţie de
geometria îmbinării cât şi de paramatrii geometrici ai rostului îmbinării face posibilă
luarea de măsuri rapide care să conducă la asigurarea calităţii dorite îmbinării, păstrând
totodată procesul în zona de maximă eficienţă.

Astfel:
- potate fi făcută rapid corecţia parametrilor tehnologici de sudare, chiar în timpul
lucrului, dacă spre exemplu distanţa dintre piese se modifică în limitele
domeniului analizat pentru anumite zone ale îmbinării,
- se pot semnala cu uşurinţă zonele de cordon în care parametrii nu au respectat
domeniul de mărime calculat, prin marcarea acestora,
- uşurează supravegherea şi controlul parametrilor de sudare,
- se poate oprii procesul de sudare dacă nu este posibilă asigurarea calităţii
geometrice a îmbinării.

Toate aceste opţiuni, care privesc controlul activ al procesului de sudare, sunt posibile
doar pentru domeniul de valabilitate al analizei efectuate.
Astfel:
- asigurarea parametrilor optimi de sudare pentru cazul în care se doreşte
sudarea unui cordon care nu este rectiliniuu, nu a fost analizată. Metoda de
abordare, ca şi programul elaborat cu aceasta permit însă abordarea cu
uşurinţă şi a acestui caz,
- asigurarea parametrilor de sudare optimi pentru cazul utilizării amestecurilor de
gaze nu a fost analizat,
- asigurarea parametrilor de sudare optimi în cazul îmbinărilor sudate pentru
oţeluri care nu corespund compoziţiei chimice avută în vedere la determinarea
relaţiilor statistice, nu este posibilă fără o refacere a experienţelor.
100
Capitolul 3.

3. MODELAREA MATEMATICĂ PRIN UTILIZAREA EXPERIENŢELOR


FACTORIALE

3.1. Necesitatea utilizării acestei metode

În abordarea clasică a experimentului, în scopul determinării legii regresiei, faza


experimentală se va desfăşura într-o anumită succesiune. Astfel, toţi parametrii în
funcţie, de care se doreşte exprimarea legii vor fi reglaţi la o anumită valoare, cu
excepţia unuia dintre ei care va fi modificat. În urma efectuării măsurătorilor operaţia se
repetă cu un alt parametru, care va fi reglat, pe noua valoare, ş.a.m.d. Se poate observa
că în programul de calcul al coeficienţilor legii de regresie, vor fi utilizare doar o parte din
experienţele posibile, ceea ce nu asigură obţinerea cu certitudine a unei relaţii valabile
în tot domeniul de variaţie al parametrilor. Acest fapt poate fi exemplificat cu uşurinţă
urmărind figura 3.1 , în care sunt indicate grafic, punctele măsurate în urma desfăşurării
unui proces ce depinde de două variabile şi care se poate exprima cu expresia y=y(x1,
x2).

Fig. 3.1 Dependenţa mărimii optimizării y de parametrii x1 x2


Curba C1 - x2 fixat pe nivelul de bază
Curba C2 - x1 fixat pe nivelul extrem x13

În conformitate cu cazul general de desfăşurare al experimentului clasic, parametrul x2


va fi fixat la o anumită valoare (x2 = const) în timp ce parametrul x1 va suferii modificări ,
până în momentul determinării extremului acestuia, în cazul din figură acest extrem este
un maxim ce corespunde valorii x13 a parametrului x1 . În continuare , parametrul x1 va fi
menţinut constant, la valoarea sa extremă, şi experienţele vor continua prin modificarea
parametrului x2. În cazul analizat, au fost obţinute 7 puncte figurate cu ∆ fiind obţinute
101
Capitolul 3.

două curbe, câte una pentru fiecare parametru.. Valoarea extremă a funcţiei ce se
supune optimizării rezultând în punctul :

Xo = (X13 , X24).
Observaţii:

În cadrul programului experimental au fost neglijate experienţe care ar fi putut


acoperi întregul domeniu de variaţie al parametrilor x1 , x2 . Un studiu complet , în cazul
de faţă, ar fi condus la gruparea valorilor funcţiei căutate, pe o suprafaţă definită de 64
de puncte, ca în figura 3.1., unde cu Z au fost reprezentate datele obţinute în urma
măsurătorilor.
Dacă se renunţă la metoda de abordare prezentată (clasică) în favoarea unei
programări a experienţelor, ca în figura 3.1 , descrierea variabilei ce se exprimă prin
legea de regresie, va beneficia de următoarele avantaje:
a) simplificarea considerabilă a calculelor, în sensul că nu mai este necesară
determinarea valorii extreme parţiale, pentru fiecare parametru în parte.
b) creşterea preciziei de determinarea a coeficienţilor ecuaţiei de regresie.
c) obţinerea unei regresii care să exprime cât mai corect suprafaţa de răspuns
d) obţinerea soluţiei optimei a problemei, prin eliminarea influenţei nivelului de
pornire în procesul de obţinere a legii de regresie.

3.2. Programe de ordinul I

Au ca scop obţinerea legilor de regresie multivariabile de ordinul întâi de forma:


)
y = a 0 x0 + a1 x1 + a 2 x2 (3.1)

În astfel de programe, nu sunt luaţi în considerare decât parametrii procesului , la


puterea I, influenţa interacţiunii dintre aceştia fiind neglijată. Dacă se notează valorile
maxime şi minime ale parametrilor în funcţie de care se doreşte exprimarea legii de
regresie cu valorile simbolice +1 şi -1, pentru un proces ce se analizează în funcţie de
doi parametrii, experimentul poate fi programat ca în tabelul 3.1.

Tab. 3.1 Matricea programării experienţelor


Mărimea
Nr. experienţelor Parametrii procesului Obs
X0 măsurată
X1 X2 y
1 +1 +1 +1 y1
2 +1 -1 +1 y2
3 +1 +1 -1 y3
4 +1 -1 -1 y4

În prima coloană sunt trecute numerele experienţelor ce se vor efectua.


În cea de-a doua coloană , fiind introdusă variabila Xo care este o variabilă fictivă, a cărei
valoare este întotdeauna unitară. Această variabilă este utilizată la determinarea
termenului liber ao al regresiei.
Coloanele ce corespund parametrilor x1 şi x2 permit programarea experienţelor de aşa
manieră încât să fie acoperit întreg domeniul în care variază aceştia.
Coloana corespunzătoare mărimii măsurate y, reprezintă chiar vectorul rezultatelor
măsurătorilor y, din cadrul experimentului clasic.
102
Capitolul 3.

În cazul experimentului factoria, se apelează la o serie de noţiuni, cum ar fi nivelul


parametrilor, nivelul zero, intervalul de variaţie, noţiuni ce vor trebui definite.

Nivelul parametrilor: defineşte valoarea parametrului la care se va efectua


experimentul. Astfel pentru valoarea +1 din matricea programării se va considera că în
cadrul experienţei parametrul va intra la valoarea maximă a sa, în timp ce pentru -1,
acesta va fi reglat la valoarea minimă.

Nivelul zero: defineşte valoarea medie a parametrului (Xmax - Xmin)/2 = Xmed, în cadrul
o
matricii programării. În mod curent, nivelul zero al parametrului Xi se notează cu z i .

Niveluri intermediare: determină o valoare a parametrului X, cuprinsă între nivelul zero


1 1 1 2 1 2
− − −
şi nivelul maxim, respectiv minim, se pot defini nivelele zi2 ; zi 2 ; zi3 ; zi3 ; zi 3 ; zi 3 etc.

Intervalul de variaţie (∆zi). Reprezintă acea valoare ∆zi care adăugată sau scăzută din
valoarea nivelului zero, permite obţinerea nivelului maxim, respectiv minim.

Valorile extreme ale parametrilor consideraţi (zMi respectiv zmi ) mai sunt numite şi
limite de existenţă ale parametrilor, iar intervalul (zM, zm) interval de definiţie al
parametrilor, ca în figura 3.3

Fig. 3.4 Prezentarea domeniului de definiţie al factorilor


(1) şi al domeniului de realizare al experimentului (M)
Fig. 3.3 Domeniul de realizare al experimentului O - centrul domeniului de definiţie

O - centrul domeniului experimentului

Se mai defineşte, M ca fiind domeniul de realizare al experimentului extremal; fiind


s i
cuprins între limitele (z i, z i ), ca în fig.3.4
Se observă că domeniul L este mic, în timp ce domeniul experimentului M poate fi
ca orice subdomeniu al domeniului L.
Domeniul M este limitat de parametrii procesului, conform limitelor zsi , zii . Nivelele
inferioare şi superioare ale parametrilor se simbolizează cu (-1) respectiv (+1), ceea ce
conduce la transformarea factorilor naturali zi în factori codificaţi xi , conform relaţiei:

xi = (zi - zio)∆ zi (3.2)


103
Capitolul 3.

Codificarea parametrilor exprimă în esenţă trecerea de la un sistem de coordonate


Ozi la un alt sistem Oxi , conform figurii:

-->
a) sistemul Ozi al variabilelor naturale
b) sistemul Oxi al variabilelor codificate

În cazul în care programul experimentat conţine un număr de măsurători egal cu


numărul total de combinaţii de nivele ale factorilor, atunci experimentul se numeşte
experiment factorial complet (EFC). Dacă fiecare factor în parte prezintă doar două
n
nivele de modificare (+1 şi -1) atunci experimentul este de tipul 2 . Astfel pentru cazul
existenţei a două variabile , (n = 2) experimentul va conţine un număr de N = 22 = 4
măsurători. Dacă se doreşte realizarea unui experiment în care factorii să intervină la trei
nivele , (inferior, mediu şi superior) atunci N = 3n, ceea ce pentru un experiment având
doi parametrii, conduce în conformitate cu figura 3.4 la N = 9 măsurători.
Programele EFC 3n sunt mult mai puţin utilizate decât programele EFC 2n
deoarece, în cazul unui mare
număr de parametrii conduc la un
mare număr de experienţe.

3.2.1 Alegerea nivelurilor şi


intervalelor de variaţie ale
parametrilor

Una dintre principalele


caracteristici ale programelor
experimentale, o constituie
stabilirea domeniului de variaţie al
Fig. 3.6. Experiment cu 2 parametrii spre 3 nivele
parametrilor. În acest scop sunt
utilizate atât unele rezultate
preliminare cât şi consideraţiile teoretice, practic, toate cunoştinţele accesibile ce privesc
fenomenul ce se analizează. În continuare din domeniul L astfel delimitat se va separa
subdomeniul M, în care , se fac experimentările. Alegerea corectă a nivelului zero ca şi a
intervalelor de variaţie ale parametrilor au o importanţă hotărâtoare asupra eficienţei
modelării fenomenului ca şi asupra obţinerii optimului dorit. De regulă nivelul zero al
parametrilor se adoptă la valorile la care s-au obţinut rezultatele cele mai bune sau la
care procesul are stabilitatea maximă. Un caz fericit îl constituie obţinerea nivelului zero
chiar pe valorile optime ale procesului analizat. Dar acest lucru este extrem de dificil de
realizat în lipsa unui înalt nivel al informaţiilor apriorice despre proces tehnologic ce se
104
Capitolul 3.

analizează. Acesta este motivul pentru care, în programarea experienţelor, se consideră


ca nivel zero al parametrilor tehnologicii, nivelul pentru care au fost obţinute valorile cele
mai avantajoase ale mărimii ce va fi exprimată. Din această cauză, se poate obţine, în
urma procesului de optimizare, un optim local, existând pericolul ca optimul general să
nu se găsească în subdomeniul M al domeniului general al parametrilor L.
Aceasta este şi cauza pentru care analogia şi intuiţia joacă un rol deosebit de important
în analiza matematică a unor procese tehnologice încă necercetate. Alegerea intervalul
de variaţie al parametrilor ce se utilizează la obţinerea legii regresieie căutate se face
prin respectarea inegalităţilor:

s
2 i < ∆zi (3.3a)
z iM − z im
∆z i = (3.3b)
2
unde:
s i - reprezintă abaterea medie pătratică a parametrului zi
∆zi - intervalul de variaţie al acestuia
z Mi - z mi - domeniul de variaţie al parametrului

Îndeplinirea condiţiilor (3.3a) şi (3.3b) este obligatorie, deoarece valorile parametrilor în


funcţie de care se doreşte exprimarea legii trebuie să influenţeze semnificativ procesul
de modelare, deci să se situeze peste limitele dispersiei măsurătorilor acestora. De cele
mai multe ori, mărimea acestui interval se alege pe baza unor informaţii apriorice sau se
stabileşte intuitiv, valabilitatea lui rămânând să fie verificată în urma determinării legii de
regresie căutate. Trebuie precizat faptul că o alegere corectă a intervalului de variaţie al
parametrilor conduce la obţinerea unui model viabil al procesului.

Metodă de construire a matricii programării

Matricea programării este un tabel care conţine toate combinaţiile parametrilor


tehnologici, sau o parte a acestora, în formă codificată. Tabelul 3.1 reprezintă în esenţă
o astfel de matrice destinată analizei unei regresii ce depinde de doi factori, deci un
proces EFC 2. În cazul analizării unor procese mai complicate, un mod de abordare al
experienţelor poate fi făcut în conformitate cu tabelul 3.2

Tabelul 3.2 Modul de stabilire a experienţelor.


Parametrii codificaţi
Nr. Tip program
exp x0 x1 x2 x3 x4 x5
1 +1 +1 +1 +1 +1 +1
2 +1 -1 +1 +1 +1 +1
3 EFC 22 +1 +1 -1 +1 +1 +1
4 +1 -1 -1 +1 +1 +1
5 +1 +1 +1 -1 +1 +1
6 +1 -1 +1 -1 +1 +1
7 EFC 23 +1 +1 -1 -1 +1 +1
8 +1 -1 -1 -1 +1 +1
9 +1 +1 +1 +1 -1 +1
10 +1 -1 +1 +1 -1 +1
11 +1 +1 -1 +1 -1 +1
12 +1 -1 -1 +1 -1 +1
105
Capitolul 3.

13 +1 +1 +1 -1 -1 +1
14 +1 -1 +1 -1 -1 +1
4
15 EFC 2 +1 +1 -1 -1 -1 +1
16 +1 -1 -1 -1 -1 +1
17 +1 +1 +1 +1 +1 -1
18 +1 -1 +1 +1 +1 -1

M EFC 25 M M M M M M
32 +1 -1 -1 -1 -1 -1
Procedeul exemplificat în tab. 3.2 poate fi extins pentru procese ce depind de oricâţi
parametrii.
Coloana xo este coloana valorilor variabilei fictive (xo), având ca scop generalizarea
calculelor.
În coloana x1 , semnul variabilei fictive se modifică alternant în conformitate cu o relaţie
de forma (-1)1+i unde i este numărul experienţei. În cazul coloanei x2 semnul se modifică
în conformitate cu legea 22 .

3.2.2 Proprietăţile matricei programării

Matricile bazate pe tabelul 6.2 prezintă o serie de avantaje ce le conferă o largă


utilizare. Astfel , în cazul regresiei, necesitatea de a asigura o precizie de calcul cât mai
uniformă , indiferent de punctul din spaţiul factorial în care se face experienţa, trebuie să
asigure condiţiile legate de ortogonalitate şi respectiv rotabilitate.
Astfel prin realizarea matricii programării, sunt îndeplinite condiţiile:

∑X
n =1
in =0

(3.4)
N

∑X
n =1
2
in =N

(3.5)
(i = 1,2 …n)
n - numărul factorilor
N - numărul experienţelor N = 2N

Ecuaţiile (3.4) şi (3.5) reprezintă proprietatea de normare.


Condiţia de ortogonalitate se verifică cu relaţia:

∑X
n =1
in X jn = 0

(3.6)

Se observă că programele EFC 2n sunt ortogonale.


Dacă exprimăm dispersia valorilor calculate cu legea de regresie,

s = s + sx
)
y
2 2
a0
2
a0
2
1 +L+ sx
n
an
n
n

(3.7)
106
Capitolul 3.

şi cum EFC 2n conduce la experienţe cu proprietăţi de normalitate şi ortogonalitate


1 2
sbi =
2

N
s
0 şi deci:

2  2
n
s s
y =
2
)
bi 1 + ∑ X i 
 i =1 
(3.8)

cum punctele sunt simetrice, ecuaţia (3.8) rezultă că dispersia regresiei depinde doar de
distanţa din centrul experimentului la punctul extrem al încercării deci matricea
programării conferă şi proprietatea de rotabilitate. În concluzie, se consideră următoarele
n
proprietăţi ale programelor EFC 2 :
• dispersiile coeficienţilor ecuaţiei de regresie s ai sunt egale între ele şi conduc la
2

valori minime
• coeficienţii ecuaţiei de regresie ai se determină independent unii de alţii
• calculul coeficienţilor se simplifică mult
s
• dispersia variabilei de stare y)2 este independentă de rotirea sistemului de
coordonate în centrul programului.

3.2.3. Realizarea programului EFC 2n

În urma completării matricii programării se va trece la experiment. În acest scop,


toate variabilele codificate fiind înlocuite cu variabilele naturale, fiind realizată deci
“matricea de lucru” . La această matrice vor mai fi adăugate coloane care să conţină
valorile limită ale variabilelor, timpul de desfăşurarea al experienţelor, ca şi unele
rezultate provizorii, în scopul eliminării unor erori accidentale sau sistematice ce pot
apărea pe parcursul experimentului.
Cum perturbaţiile influenţează asupra rezultatului măsurătorilor şi deci asupra
regresieie ce se obţine, unii cercetători recomandă ca programul să fie executat de un
număr de ori m, obţinându-se astfel m valori paralele ale variabilei de stare.
Pentru a evita de asemenea apariţia unor erori sistematice, programarea
experienţelor se va face utilizându-se metoda de randomizare a acestora, prin
executarea întâmplătoare a experienţelor în cadrul programului.

3.2.4. Algoritm de calcul pentru EFC 2n .

Construirea matricii programării.

Dacă se presupune un nivel de reproductibilitate redus al măsurătorilor, atunci în


matricea programării paralele, în tab. 3.4.
Tab. 3.4 Matricea programării pentru m date paralele
Nr. x0 Parametrii Variabila y sn2
exp x1 x2 yn1 yn2 … ynm
2
1 +1 +1 +1 y11 y12 … y1m s1
2 +1 -1 +1 y21 y22 … y2m s22
3 +1 +1 -1 y31 y32 … y3m s32
4 +1 -1 -1 y41 y42 … y4m s42
107
Capitolul 3.

calculul coeficienţilor regresieie. Coeficienţii ecuaţiei regresiei se obţin prin utilizarea


metodei celor mai mici pătrate, astfel încât să se obţină sistemul de ecuaţii:

n N n N

∑∑ a
j = 0 i =1
j xi x jii = ∑∑ x jii y i
j = 0 i =1

(3.10)
în care:
N m
1 1
aj =
N
∑ xin y n =
n =1 mN
∑y
k =1
nk

(3.11)

unde n reprezintă numărul de parametrii independenţi , iar m numărul de determinări


paralele.
Deci:
1 N m
aj = ∑∑ xin y nk
Nm n =1 k =1
(3.12)

Dacă se notează cu X matricea parametrilor codificaţi şi cu Y vectorul coloană al


rezultatelor experienţelor ( y ) atunci:

1 1 1 y1
1 1 1 1 4 0 0
1 −1 1 y
X= ; Y = 2 ; XT = 1 −1 1 −1 ; X X = 0 4 0 ;
T
1 1 −1 y3
1 1 −1 −1 0 0 4
1 −1 −1 y4
 4 
y1 ∑
 x0 n y n 
1 1 1 1  n =1 
y2  4 
X TY = 1 −1 1 −1 ⋅
y ∑
=  x1n yn 
1 1 −1 −1 3  n =1 
 4 

y4
 x2 n y n 
 n =1 

sistemul devine:
(X X )B = X
T T
Y (3.13)
deci:

4 
∑ x 0 n y n 
4 0 0  a 0   n =41 
0 4 0  ⋅  a  =  x y 
   1  ∑ 1n n  (3.14)
0 0 4 a 2   n =1
4

 x y 
∑
n =1
2n n 

coeficienţii vor fi:
B= XTX ( ) (X Y )
−1 T
(3.15)
108
Capitolul 3.

  x y  1 x y 
4 4
1
 0 0  ∑ 0 n n   ∑ 0 n n 
a 0   4   4
n =1
  4 n =41 
  1  1 
 a1  =  0 0  ⋅  ∑ x1n y n  =  ∑ x1n y n  (3.16)
a   4   n =1 4
  n4=1 
 2  1  4
x 2 n y n   ∑ x 2 n y n 
  1
4  ∑
0 0

n =1   4 n =1 
Scrierea ecuaţiei:
)
y = a 0 + a1 x1 + a 2 x 2 (3.17)

Analiza statistică a ecuaţiei regresiei.

În scopul validării ecuaţiei, se vor efectua următoarele verificări:


a) Estimarea dispersiei reproductibilităţii
b) Verificarea semnificaţiei coeficienţilor
c) Verificarea concordanţei experimentului.

a) Estimarea dispersiei reproductibilităţii


s
Eroarea experimentală 2o se calculează pe baza determinărilor paralele. În acest
scop se determină dispersiile măsurătorilor paralele.
1 m
n
2
=s ∑ (y nk − y n )2 n = 1,2,L, N
m − 1 k =1
(3.18)

Se verifică omogenitatea dispersiilor cu ajutorul criteriului Cochran:

G= s
2
n max
c n
(3.19)
∑s
n =1
n
2

Dacă:
G ≤G c 0,05(ν1,ν2) (ν1 = m -1 ; ν2 = N) (3.20)

atunci dispersiile sunt omogene, altfel se admite că acestea nu sunt omogene fiind
necesară fie mărimea preciziei metodei de măsurare a variabilelor y, sau prin mărirea
numărului de determinări paralele m sau prin modificarea variabilei y, sub forma u = ln y
1/2 y
sau u = y sau u = e .
Dacă dispersiile sunt omogene, se calculează o dispersie medie, cu relaţia:

N N m
s = N1 ∑ s = N (m1 − 1) ∑∑ (y
0
2
n
2
nk − yn )
2
(3.21)
n =1 n =1 k =1

Numărul gradelor de libertate va fi: νo = N(m-1)

b) Verificarea semnificaţiei coeficienţilor ecuaţiei de regresie.

Metoda constă în determinarea dispersiei acestor coeficienţi:


109
Capitolul 3.

s = Ns
2
2
ai
0
'
N’ = Nm (3.22)

Verificarea acestor coeficienţi poate fi făcută cu testul student.

ai
t ai = i = 1,2, L, l (3.23)
s 2
ai

Valoarea tai se compară cu valoarea tabelată, pentru νo = N(m-1)

tT0,05(νo):

Dacă tai > tT0,5(νo) se consideră coeficientul semnificativ, parametrul considerat fiind
păstrat în legea de regresie.

c) Verificarea gradului de concordanţă al ecuaţiei regresiei.

Verificarea se face cu ajutorul criteriului Fischer,

F = ss
2
con
2
(3.24)
0
unde:
m ) 2
s 2
con =
N −e
∑ (y n − yn ) (3.25)

Din tabelul testului Fischer, pentru νcon = N - e şi νo = N(m -1) şi α = 0,05 se citeşte FT.
Dacă F ≤ FT atunci se consideră că ecuaţia de regresie liniară este adecvată.
Dacă testul nu este satisfăcut, atunci fie se încearcă o regresie de grad mai mare,
fie se micşorează intervalele de variaţie ale parametrilor şi se reface experimentul .
Dacă unul dintre parametrii a fost neglijat în faza de premodelare, atunci acesta va
fi reintrodus înaintea repetării experienţelor.

3.2.4. Calculul coeficienţilor interacţiunilor dintre parametrii în cazul unui program


EFC

Programele EFC permit calculul, printr-o metodă mai simplă a coeficienţilor


interacţiunilor dintre parametrii, putând fi astfel stabilite concordanţa modelului liniar cu
datele experimentale. Dacă aceşti coeficienţi sunt semnificativi , atunci modelul liniar nu
este în concordanţă cu datele experimentale. Pentru a putea verifica şi aceşti coeficienţi,
matricea programării se suplimentează cu coloanele respective, ca în tabelul 3.5.

Tabelul 3.5. Matricea programării.


Nr. Variabila
Parametrii
exp x0 măsurată
x1 x2 x3 x 1x2 x 1x3 x 2x3 y
1 +1 +1 +1 +1 +1 +1 +1 y1
2 +1 -1 +1 +1 -1 -1 +1 y2
3 +1 +1 -1 +1 -1 +1 -1 y3
4 +1 -1 -1 +1 +1 -1 -1 y4
110
Capitolul 3.

5 +1 +1 +1 -1 +1 -1 -1 y5
6 +1 -1 +1 -1 -1 +1 -1 y6
7 +1 +1 -1 -1 -1 -1 +1 y7
8 +1 -1 -1 -1 +1 +1 +1 y8

Coeficienţii aij ai interacţiunilor pot fi calculaţi cu relaţia:

N
1
a ij =
N
∑x
n =1
in x jn y n (i ≠ j ) (3.26)

deoarece matricea programării este ortogonală.


Ecuaţia regresiei, în acest caz devine:

N n
)
y = a 0 + ∑ a i xi + ∑a ij xi x j (3.27)
i =1 i , j =1
i≠ j

ceea ce pentru EFC 22 , conduce la :


)
y = a 0 + a1 x1 + a 2 x 2 + a12 x1 x 2 (3.28)

În cazul în care ecuaţia (3.27) va fi utilizată într-un proces de optimizare,


coeficienţii aij trebuie să fie nesemnificativi.

3.3. Planuri de experimentare fracţionate.

Programele EFC sunt deosebit de utile în cazul în care se urmăreşte obţinerea unui
model matematic pentru cazul în care numărul de parametri va fi mai mare decât trei (n
> 3). Cu toate acestea, creşterea numărului parametrilor conduce la mărirea numărului
experienţelor. Astfel, pentru EFC 23 sunt necesare 8 măsurător, pentru EFC 24 , 16
măsurători, pentru EFC 28 256 măsurători, etc.
Micşorarea numărului de experienţe , conduce la generarea unor experienţe factoriale
p
fracţionate (EFF) sau replici fracţionare, care reprezintă un procent (1/2, 1/4 , … , 1/2 )
din experimentul factorial complet.
Un program incomplet, (un subprogram) derivat dint-un EFC 23, redus la 1/2 poate
fi prezentat în tabelul 3.5.

Tabelul 3.5
Nr. Variabila
Parametrii
exp x0 măsurată
x1 x2 x3= x1x2 x1x3 x 2x3 x1x 2x3 y
1 +1 +1 +1 +1 +1 +1 +1 y1
2 +1 -1 +1 -1 +1 -1 +1 y2
3 +1 +1 -1 -1 -1 +1 +1 y3
4 +1 -1 -1 +1 -1 -1 +1 y4

În matricea programării, parametrul X3 va fi înlocuit cu parametrii X1X2 , ceea ce


conduce la reducerea programului EFC 23 într-un program EFC 22, deci o reducere de
la o la 4 experienţe. Se obţin astfel estimări interferente ale coeficienţilor regresiei, şi
interacţiunile binare:
111
Capitolul 3.

a’1  β1 + β23 ; a’2  β2 + β13 ; a’3  β3 + β12 ; a’o  βo + β123


unde:

a ’i -reprezintă estimările coeficienţilor pe baza datelor experimentale.


βi -reprezintă coeficienţii ecuaţiei teoretice de regresie obţinută de baza tuturor
valorilor parametrilor xi.

Se observă din tab 3.5 existenţa unei coincidenţe între coloanele X1 şi X2X3 , X2 şi X1X3 ,
Xo şi X1X2X3 .
Dacă se consideră X3 = - X1X2 atunci va rezulta un alt subprogram factorial, dar în care:
a’’1  β1 - β23 ; a’’2  β2 - β13 ; a’’3  β3 + β12 ; a’’o  βo - β123 pe baza tabelului 3.6

Tabelul 3.6
Nr. Variabila
Parametrii
exp x0 măsurată
x1 x2 x 3= - x1x 2 x1x3 x 2x3 x1x 2x3 y
1 +1 +1 +1 -1 -1 -1 -1 y1
2 +1 -1 +1 +1 -1 +1 -1 y2
3 +1 +1 -1 +1 +1 -1 -1 y3
4 +1 -1 -1 -1 +1 +1 +1 y4

Se observă că:
a1 = (a’1 + a’’1)/2 β1
a2 = (a’2 + a’’2)/2 β2
a1 = (a’3 + a’’3)/2 β3

Determinarea “replicilor” , care exprimă cazul în care p efecte liniare sunt identice
cu efectele de interacţiune, conduce la formarea unui program experimental de ordinul
2n-p .
Principalele caracteristici ale replicilor fracţionarea sunt prezentate în tabelul 3.7.
Tabelul 3.7
Numărul de Nr.
Nr. Notaţia
Replica fracţionară experienţe ale determinărilor
param. convenţională
replicii în cazul EFC
3 1 / 2 din 23 23-1 4 8
4 1 / 2 din 24 24-1 8 16
5 1 / 4 din 25 25-2 8 32
6 1 / 8 din 26 26-2 8 64
7 1 / 16 din 27 26-3 8 128
5 1 / 2 din 25 25-1 16 32
6 1 / 4 din 26 26-2 16 64
7 1 / 8 din 27 27-3 16 128
8 1 / 16 din 28 28-4 16 256
9 1 / 32 din 29 29-5 16 512
10 1 / 64 din 210 210-6 16 1024

Printr-o alcătuire judicioasă a replicilor se pot obţine rezultate comparabile cu EFC.


Construirea replicilor fracţionare are la bază relaţii algebrice ce permit evidenţierea
efectelor interferenţelor. Acest lucru se bazează pe determinarea interacţiunilor
nesemnificative, (supranumite relaţii generatoare), care permit înlocuirea în matricea
112
Capitolul 3.

programării, a coloanei printr-o variabilă independentă. Astfel replica fracţionară 23-1 se


obţine prin relaţia generatoare X3 = X1X2 sau X3 = - X1X2 .
Prin înmulţirea cu X3 se obţine:

X32 = X1X2X3 şi X32 = - X1X2X3

cum X32 = 1;
1 = X1X2X3 şi 1 = - X1X2X3 (3.29)

În cazul analizat, estimările interferenţei coeficienţilor conduc la ecuaţiile:

X1 = X1X1X2X3 = X2X3
X2 = X2X1X2X3 = X1X3
X3 = X3X1X2X3 = X1X2

ceea ce conduce la estimările:

a1 β1 + β23
a2 β2 + β13
a3 β3 + β12

În cazul celelalte semireplici, se obţin următoarele estimări interferente:

X1 = - X1X1X2X3 = - X2X3 ; a1 β1 - β23


X2 = - X2X1X2X3 = - X1X3 ; a2 β2 - β13
X3 = - X3X1X2X3 = - X1X2 ; a3 β3 - β12

Exemplu 3.1:

Să se studieze un proces tehnologic, a cărei performanţă y depinde de cinci


parametrii tehnologici z1 ; z2 ; z3 ; z4 ; z5 .
5-2
Pentru determinarea modelului matematic se utilizează un subprogram EFC 2 ,
iar rezultatele experimentale fiind în conformitate cu Tab. 3.6 .
Relaţiile generatoare au următoarea formă:

X4 = X1X2X3 ; X5 = - X1X2
Contrastele determinate au forma:

1 = X1X2X3X4 (X42 = X1X2X3X4 )


2
1 = - X1X2X5 (X5 = X1X2X5)

Pe baza acestor relaţii se determină sistemul de estimări interferente:

1 = X1X2X3X4 = - X1X2X5 = - X3X4X5


deci:
X1 = X2X3X4 = - X2X5 = - X1X3X4X5
X2 = X1X3X4 = - X1X5 = - X2X3 X4X5
X3 = X1X2X4 = - X1X2X3X5 = - X4X5
X4 = X1X2X3 = - X1X2X4X5= - X3X5
113
Capitolul 3.

X5 = X1X2X3X4X5 = - X1X2 = - X3X4

Dacă se consideră că legea de regresie este liniară, atunci

a12 = a13 = a14 = a15 = a23 = a24 = a25 = a34 = a35 = a45 = a11 = a22 = a33 = a44 = a55 = 0

şi ceilalţi coeficienţi pot fi exprimaţi cu relaţiile:

a1 β1 + β234 - β25 - β1345 ; a1 β1


a2 β2 + β134 - β15 - β1345 ; a2 β2
a3 β3 + β124 - β45 - β1235 ; a3 β3
a4 β4 + β123 - β25 - β1245 ; a4 β4
a5 β5 + β12345 - β12 - β34 ; a5 β5

În final, pe baza rezultatelor calculelor efectuate şi sintetizate în tabelul 6.8 se determină


următoarele concluzii:

a) Ecuaţia regresiei de ordinul întâi descrie adecvat procesul.


b) Această ecuaţie poate fi utilizată în scopul optimizării procesului.

Tab. 3.8
Parametrii z1 z2 z3 z4 z5 Coeficienţii regresiei
Nivel zero 2,0 100 1,5 0,2 2,0 b0=27,21 ; b1=4,83
b2=2,86 ; b3=0,81 ;
Interval de variaţie 1,0 10 0,5 0,1 1,0
b4=0,38 ; b5=11,08
Nr. Parametrii
exp x0 y
x1 x2 x3 x4 x5
1 +1 -1 -1 -1 -1 -1 14,5
2 +1 +1 +1 -1 -1 -1 18,6
3 +1 -1 -1 +1 +1 -1 13,6
4 +1 +1 -1 +1 -1 +1 51,0
5 +1 -1 +1 +1 -1 +1 23,2
6 +1 +1 -1 -1 +1 +1 41,0
7 +1 -1 +1 -1 +1 +1 38,0
8 +1 +1 +1 +1 +1 -1 17,6

Date statistice:
so
2
s
= 2,8 ; νo = 2 ; ai2 = 0,35 ; tT = t0,05(2) = 4,3 ; ∆b = 4,3 0,35 = 2,537 iar b3 şi b4 sunt
nesemnificativi şi se elimină din model.
40,06
s2
con = 40,06 ; νcon = 8 - 4 = 4 ; F =
2,80
F
= 14,31 < T0 ,05 ( 4 ; 2 ) = 19,25

Concluzii:

3.4. Adoptarea deciziilor pe baza programelor şi subprogramelor de ordinul întâi.


Abordarea obţinerii legii de regresie a unei variabile, în funcţie de parametri
procesului tehnologic care concordă la această lege, prin metoda experienţelor factoriale
complet sau fracţionate ,are ca scop obţinerea unei funcţii ce răspuns, extrem de utile în
scopul optimizării desfăşurării procesului.
114
Capitolul 3.

Acesta este scopul în care se elaborează programul sau subprogramul de


experimentare, se calculează coeficienţii legii şi se fac verificările statistice necesare. În
urma verificărilor statistice, pot intervenii următoarele situaţii.

1 Modelul liniar este adecvat


Deci efectele de interacţiune între parametrii analizaţi sunt nesemnificativi.
∑ β ii → 0 şi criteriul Fischer este satisfăcut (F < FT). În acest caz sunt posibile
următoarele variante:
1.1 Toţi coeficienţii liniari , ai … an sunt semnificativi
1.1.1 Dacă aceştia au acelaşi ordin de mărime, atunci se poate trece la
una dintre metodele de optimizare clasice
1.1.2 Dacă aceştia nu au acelaşi ordin de mărime, se procedează la
micşorarea intervalelor de variaţie ale parametrilor respectivi sau prin
mărirea intervalelor de variaţie ale celorlalţi parametrii.
1.2 Unii coeficienţi sunt semnificativi şi alţii sunt nesemnificativi.
1.2.1 Dacă coeficienţii semnificativi au acelaşi ordin de mărime , se
elimină coeficienţii şi parametrii aferenţi celor nesemnificativi
1.2.2 Dacă condiţia 1.2.1 nu este îndeplinită, se măreşte intervalul de
variaţie al parametrilor nesemnificativi şi se repetă experimentul.
Dacă şi în acest caz unii coeficienţi rămân nesemnificativi, trebuie
mărit numărul de determinări paralele sau să se efectueze un
experiment complet
1.3 Toţi coeficienţii legii sunt nesemnificativi din cauza unor intervale de variaţie
prea mici. Experimentul va trebuie repetat folosind intervale de variaţie mai
mari. O altă cauză poate proveni din erori de măsurare prea mari, ceea ce
se înlătură prin mărimea preciziei măsurătorilor sau mărimea numărului de
măsurători paralele.

2 Modelul liniar neadecvat

Cazul apare în momentul în care cel puţin un efect de interacţiune este nesemnificativ.
De asemenea Fc > FT şi deci testul Fischer nu este îndeplinit.
În cazul în care se doreşte continuarea căutării unui model liniar, trebuie modificat
centrul experimentului într-un punct ce corespunde celei mai bune valori întâlnite în
procesul de experimentare. Procedând astfel, curbura suprafeţei de răspuns y = y(x1 , x2
, … , xn) se atenuează şi modelul liniar are şansă de reuşită. Dacă şi în acest caz modul
liniar nu dă rezultate, se consideră că punctul zero, este plasat în zona optimului şi se
încearcă exprimarea unei legi multivariabile polinomiale de ordinul doi pentru descrierea
fenomenului şi optimizarea acestuia.
Tot în acest scop se urmăreşte o analiză riguroasă a coeficienţilor repartiţiei.

3.5 Programe de ordinul doi

În cazul în care, modelul liniar nu dă rezultatele preconizate, nefiind în conformitate


cu analiza statistică efectuată, se caută modelarea procesului cu o lege de ordin
superior. De reglă ordinul acesteia este redus la ordinul doi. Expresia aceste legi este:
115
Capitolul 3.

n n n
y = ∑ bi xi + ∑ bij x i x j + ∑ bii xi2 (3.29)
i =0 i =0 i =1
i≠ j

Metodele utilizate la alcătuirea programelor, respectiv subprogramelor de rodinul


întâi nu mai pot fi aplicate deoarece proprietatea de simetrie pentru variabila codificată
xi nu se mai păstrează. ∑ x i2 = N şi nu se anulează şi astfel vor fi necesare mai
2

multe determinări. Pentru obţinerea modelului matematic sub formă de polinom de


ordinul doi se utilizează de regulă programe centrale compuse.
Particularităţile matricii programării experienţelor, necesită reconsiderarea
conceptelor legate de nivelul parametrilor al centrului programului ca şi la unele criterii de
optimalitate ale programelor considerate.
Astfel deoarece gradul regresiei este mai mare, în spaţiul cu un număr de
dimensiuni căutate va reprezenta o hipersuprafaţă ( y=y(x1 , x2 , … , xn) ) şi un hiperplan
ca în cazul funcţiilor de gradul întâi care au fost analizate anterior. Acest fapt implică
existenţa unei curburi, deci posibilitatea utilizării unor intervale de variaţie a parametrilor
(∆ Zi) mai mari, ca şi utilizarea unui număr mai mare de nivele ale variabilelor.
Cum suprafaţa este o funcţie de ordinul doi, este firesc să se utilizeze un număr de
nivele care să necesite cel puţin 3 puncte de analiză, deci programul EFC 3n . Acest
deziderat conduce însă la mărirea numărului de determinări . Pentru un număr de 4
parametrii, vor trebui făcute N = 81 experienţe şi un număr total de νcon = 66 grade de
libertate iar pentru n=5 parametrii, N = 243 şi νcon = 222 etc.
În mod practic, s-a dovedit că un număr atât de mare de experienţe , care să
valideze ipoteza de concordanţă între măsurători şi ipoteza de concordanţă între
măsurători şi legea calculată nu este necesar.
Astfel s-a arătat că prin adăugarea unor puncte suplimentare unui program EFC 2n
se pot obţine acelaşi rezultate cu un program EFC 3n . Primii cercetători care au
observat şi au demonstrat acest fapt au fost Box şi Wilson , care au arătat că numărul
total de determinări pentru exprimarea unei legi pătratice va trebui calculat conform
relaţiei:
N = Nc + Nα + N0
unde:
n n-p
Nc - nr. de determinări din EFC 2 sau dintr-un subprogram EFC 2
Nα - numărul de puncte “stea” (2n)
N0 - numărul de determinări în centru.

Astfel programele Box - Wilson sunt mult mai economice decât programele EFC 2n
şi au avantajul că pot deriva din programe EFC 2n fracţionare. Centrul programului
rămâne tot centrul programului EFC 2n care nu a îndeplinit condiţia de concordanţă .
Deci pot fi utilizate măsurători existente (deja făcute pentru legea liniară) cărora li se vor
adăuga unele puncte numite “puncte stea”, ca în figura 3…
116
Capitolul 3.

Punctele 1, 2, 3, 4 alcătuiesc modelul


EFC 22 în timp ce punctele 5, 6, 7, 8
distanţele cu valoarea α (deci la ∆ Z = α)
formează punctele stea de coordonate (0,
±α) şi (±α, 0).
În punctul (0,0) , centrul experimentului
se vor realiza un număr N0 de determinări
paralele. Pentru N0 = 1 rezultă, o
programare a experienţelor ca în tabelul de
mai jos.
Fig. 3.7 Distribuţia punctelor măsurătorilor în
spaţiul parametrilor în cazul programelor de
ordinul 2.

Tabelul 3.9
Nr. x0 x1 x2 x1 x2 x12 x22 y
exp
1 +1 +1 +1 +1 +1 +1 y1
2 +1 +1 -1 -1 +1 +1 y2
3 +1 -1 +1 -1 +1 +1 y3
4 +1 -1 -1 +1 +1 +1 y4
5 +1 +α 0 0 α2 0 y5
6 +1 -α 0 0 α2 0 y6
7 +1 0 +α 0 0 α2 y7
8 +1 0 -α 0 0 α2 y8
9 +1 0 0 0 0 0 y9

Program central compus


Nc = 4; Nα ; N0 =1 (3.30)

Ca şi în cazul programelor de ordinul întâi, trebuie stabilite înaintea începerii


experimentului, nivelele factorilor în formă naturală zsi şi zii , coordonatele naturale ale
centrului experimentului zi şi de asemenea intervalele de variaţie ale parametrilor ∆ zi :
0

zio = (zsi + zii)/ 2; (3.31)


∆ zi = (z i - z i)/ α
s i
(3.32)

Valorile codificate ale parametrilor xi se stabilesc la valorile ±1 cu relaţia : zoi ±∆ zi ,


trecerea de la valorile naturale ale parametrilor la cele codificate fiind făcută conform
tabelului următor.
Tabelul 3.10.
xi Valori naturale ale parametrilor
z1 z2 z3 … zn
+α z1s z2 s
z3 s
… zns
+1 z10+∆ z1 z20+∆ z2 z30+∆ z3 … zn0+∆ zn
0 z10 z20 z30 … zn0
-1 z1 -∆ z1
0
z20-∆ z2 z30-∆ z3 … zn -∆ zn
0

-α z1i z2i z3i … zni


117
Capitolul 3.

În continuare aceste tipuri de programe experimentale se vor nota EFC 2n BW.

3.5.1. Transformări asupra programelor EFC 2n BW.

Asupra acestui tip de programe experimentale se fac de cele mai multe ori
modificări care să producă transformări ale matricii programării. Astfel acesta este indicat
să fie transformată într-o matrice ortogonală sau rotabilă.

Transformarea într-un program ortogonal

Transformarea programului într-un ortogonal se va face prin asigurarea respectării


condiţiilor:

∑x x =0
2
0 n in
(3.33a,b)
∑x x =0
2 2
in jin

Condiţia (3.33a) poate fi respectată prin efectuarea transformării:


1 N
xin' = xin2 − ∑ xin2 = xin2 − xi2 (3.34)
N n =1

conducând la :

N N N

∑x
n =1
0n xin' = ∑ x0 n xin2 − ∑ x0 n xi2
n =1 n =1
(3.35)

Condiţia (3.33b) necesită intervenţia asupra matricii programării. Dacă vom scrie
2
coloanele corespunzând variabilelor x i imediat după coloana xo, iar apoi cele ale
interacţiunilor xixj se va obţine pentru programul ortogonal. următoarea formă a matricii
informaţionale:
118
Capitolul 3.

N e e L L e 
e f Nc L L Nc 
 
e Nc f L L Nc 
 
M 
M 0 
 
M 
M 
 
( ) e
XTX =
Nc Nc L L f
e


 
 e 0 
 
 O 
 e 
 
 0 Nc 
 Nc 
 
 0 O 
 N c 
(3.36)

iar:
e = Nc + 2α2 ;f = Nc + 2α4 (3.37;
3.38)

Matricea covariaţională se obţine prin inversarea matricii informaţionale, C = (XTX)-1 .


Observând faptul că o parte a termenilor formează o matrice diagonală, ar fi inversată
doar matricea.

N e e e L e  G E E E L E
e f Nc Nc L N c  E F G G L G 
 
e Nc f Nc L Nc  E G F G L G
  şi rezultă  
e Nc Nc f L Nc  E G G F L G
M M  M M
   
 e Nc Nc Nc L f   E G G G L F 
(3.39)
unde:

D = 2α 4 H −1 [ f + (n − 1)N c ]
E = −2 H −1eα 4
[
F = H −1 Nf + (n − 2 )NN c − (n − 1) ⋅ e 2 ]
(
G = H −1 e 2 − NN c )
[
H = 2α 4 Nf + (n − 1)NN c − n ⋅ e 2 ]
119
Capitolul 3.

În scopul ortogonalizării coloanelor aferente mărimilor x2i va trebui să fie îndeplinită


condiţia : e2 - NNc = 0; cum Nc = 2n ; N = N0 + 2u + N0 rezultă: α4 + 2nα2 - 2 n-1(n +
N0/2) = 0
sau pentru o replică de gradul p = 1 al experimentului ; Nc = 2n-1 α4 + 2n-1α2 - 2 n-2(n +
N0/2) = 0
Rezolvând în funcţie de α1 ecuaţiile bipătrate se obţin valorile poziţiei punctelor
stea. În acest mod se ajunge la obţinerea unui program ortogonal de ordinul 2.
Valorile pentru α2 în funcţie de N0 şi n sunt prezentate în tabelul următor:
Tabelul 3.12

N0 n
2 3 4 5 (semireplică)
1 1,00 1,476 2,00 2,39
2 1,160 1,650 2,146 2,58
3 1,317 1,831 2,390 2,77
4 1,475 2,00 2,580 2,95
5 1,606 2,164 2,77 3,14
6 1,742 2,325 2,95 3,31
7 1,873 2,481 3,14 3,49
8 2,00 2,633 3,31 3,66
9 2,123 2,782 3,49 3,83
10 2,243 2,928 3,66 4,00
Programul P.02 (n = 2)
Tabelul 3.13. Organizarea experienţelor pentru P02 (n=2)
Nr. exp x0 Parametrii Variabila măsurată
x1 x2 x 1x2 x 1’ x 2’ y
1 +1 +1 +1 +1 1/3 1/3 y1
2 +1 +1 -1 -1 1/3 1/3 y2
3 +1 -1 +1 -1 1/3 1/3 y3
4 +1 -1 -1 +1 1/3 1/3 y4
5 +1 +1 0 0 1/3 -2 / 3 y5
6 +1 -1 0 0 1/3 -2 / 3 y6
7 +1 0 +1 0 -2 / 3 1/3 y7
8 +1 0 -1 0 -2 / 3 1/3 y8
9 +1 0 0 0 -2 / 3 -2 / 3 y9
Pentru cazul în care se utilizează un program ortogonal P.0.2 , dar pentru 3
variabile , matricea programării experienţelor, poate fi făcute conform tabelului.

Tab 3.14. Program P02 (n=3)


Nr. x0 Parametrii x1x2 x 1x3 x2 x3 y
exp x1 x2 x3 x 1’ x2’ x3’
1 +1 +1 +1 +1 0,27 0,27 0,27 +1 +1 +1 y1
2 +1 -1 +1 +1 0,27 0,27 0,27 -1 -1 +1 y2
3 +1 +1 -1 +1 0,27 0,27 0,27 -1 +1 -1 y3
4 +1 -1 -1 +1 0,27 0,27 0,27 +1 -1 -1 y4
5 +1 +1 +1 -1 0,27 0,27 0,27 +1 -1 -1 y5
6 +1 -1 +1 -1 0,27 0,27 0,27 -1 +1 -1 y6
7 +1 +1 -1 -1 0,27 0,27 0,27 -1 -1 +1 y7
8 +1 -1 -1 -1 0,27 0,27 0,27 +1 +1 +1 y8
9 +1 1,215 0 0 0,745 -0,73 -0,73 0 0 0 y9
10 +1 -1,215 0 0 0,745 -0,73 -0,73 0 0 0 y10
11 +1 0 1,215 0 -0,73 0,745 -0,73 0 0 0 y11
12 +1 0 -1,215 0 -0,73 0,745 -0,73 0 0 0 y12
120
Capitolul 3.

13 +1 0 0 1,215 -0,73 -0,73 0,745 0 0 0 y13


14 +1 0 0 -1,215 -0,73 -0,73 0,745 0 0 0 y14
15 +1 0 0 0 -0,73 -0,73 -0,73 0 0 0 y15

Coeficienţii legii de regresie pentru un program P.0.2 se calculează cu următoarele


relaţii:

1 N ∑x in y in
a =
'
o
N
∑y n ; ai = n =1
N
n =1
∑x
n =1
2
in

N N

∑x
n =1
in x jn y in ∑x
n =1
'
in
y in
a ij = ; a ii = (3.40a,b,c,d)
∑ (x )
N N

∑ (xin y in )
2 ' 2
in
n =1 n =1

Pentru determinarea dispersiilor coeficienţilor se folosesc expresii:

s '
=
s 2
0
; s 2
=
s 2
0
;
a 0' ai N
N
∑x
n =1
2
in

s 2
=
s 2
0
; s 2
=
s 2
0
(3.41a,b,c,d)
∑ (x in x jn ) ∑ (x )
aij N aii N
2 ' 2
in
n =1 n =1

Dispersia coeficientului ao va avea calculată cu relaţia:

s = s + (x )s + L + (x )s
2
a0
2
a0'
2
1
2
a11
2
n
2
ann (3.42)

s
unde: o2 reprezintă eroarea datelor experimentale, cunoscută în urma efectuării
n
programului EFC 2 . Ecuaţia dispersiei va fi:
)
y = a0' + a1 x1 + L + an xn + a12 x1 x2 + L + a( n −1) n xn −1 xn + a11 x12 − x12 + L + ann xn2 − xn2 ( ) ( ) (3.43)
sau:
)
y = a0 + a1 x1 + L + an xn + a12 x1 x2 + L + a( n −1) n xn −1 xn + a11 x12 + L + ann xn2 (3.44)
unde:
a0 = a0' − a11 x12 − L − ann xn2
(3.45a,b)
xi2 = xin2 − xin'

Sintetizarea calculelor se poate face conform tabelului următor:


121
Capitolul 3.

Tabelul 3.15.
Nr. Relaţii de calcul Notaţii funcţii
bloc
1 ) n n n n - nr. parametrilor procesului
y= ∑b x + ∑b x x +∑b x
i =0
i i
j > i =1
ij i j
i =1
2
ii i N - nr. determinări

2 N N

1 N ∑ xin yin ∑x in x jn yin


T
B = (X X) X Y
-1 T
; ao' = ∑y n ; ai = n =1
N
; aij = n =1
N
; xin' = xin2 − xi2
∑ (x )
N n =1
∑x
n =1
2
in
n =1
in yin
2

∑x
n =1
'
in
yin
aii = ; i = 1,n; i,j = 1,2,…, n ; i ≠ j
∑ (x )
N
' 2
in
n =1
3a Dispersiile se consideră omogene conform EFC
4 N0 N0 - numărul determinărilor
s = N 1− 1 ∑ (y
0
2
0k − y0)
2
paralele în centrul programului
0 k =1 ν 0 - nr. gradelor de libertate
ν 0 = N0 − 1

s = sN ; s = s s s= s
5 2 2 2 2 s02 - eroarea experimentală
' 0 2 0
; s= 2 0
;
2 0
; sa0’ , sai2 , saij2 , saii2 dispersiile
∑ (x in x jn ) ∑ (x )
a0' ai N aij N aii N

∑ x in2
n =1 n =1
2

n =1
' 2
in
coeficienţilor regresiei
tai , taij , taii - valorile calculate ale
t ai = ai s ;t ai aij = aij s aij ; t aii = aii s aii
criteriului student
tT - valoarea criteriului student
5a Verificarea semnificaţiei coeficienţilor tai , taij , taii > tT ; tT = t0,05(ν0)

6 1 N l - numărul termenilor din ecuaţie


s 2
= ∑ (y n − y) n )2 scon2 - dispersia de concordanţă
N − 1 k =1
con
F - valoarea calculată .
l = 0,5(n +1)(n + 2); ν con = N - l ; F = scon2 / s02
6a F ≤ FT ; FT = F0,05(νcon+ν0) FT - valoarea criteriului Fischer.

Exemplul 3.2:

Să se analizeze un proces ce depinde de 3 parametrii, prin utilizarea unui model


matematic bazat pe P.0.2.
Abordarea cu modelul P.O.2. se datorează rezultatelor necorespunzătoare obţinute prin
aplicarea modelului liniar. Acest lucru a permis alegerea noului centru al experimentului
în punctul cu eficacitate maximă. Programul este sintetizat în tabel.

Tabelul 3.16
Parametrii procesului
Denumire Coeficienţi semnificativi
z1 z2 z3
a0’ = 97,47 ; a1 = 1,10
a2 = -0,92 ; a3 = 0,64
Nivel zero zi 0,032 1,0 15
a12 = 0,87 ; a32 = -1,21
Intervalul de variaţie
0,005 0,5 5
∆zi
122
Capitolul 3.

Tabelul 3.17
Nr. Program Variabila
exp x0
)
x1 x2 x3 yn yn
1 +1 -1 -1 -1 96,18 94,19
2 +1 +1 -1 -1 97,88 97,65
3 +1 -1 +1 -1 92,96 93,61
4 +1 +1 +1 -1 98,34 97,55
5 +1 -1 -1 +1 97,36 98,47
6 +1 +1 -1 +1 98,18 98,93
7 +1 -1 +1 +1 95,24 94,89
8 +1 +1 +1 +1
9 +1 -1,215 0 0 99,32 99,69
10 +1 +1,215 0 0 94,53 97,68
11 +1 0 -1,215 0 94,53 95,45
12 +1 0 +1,215 0 97,34 97,57
13 +1 0 0 -1,215 99,24 99,13
14 +1 0 0 +1,215 99,08 98,55
15 +1 0 0 0

Matricele (XTY) şi (XTX) vor fi:

1462,13
 12,01 0,066 
   0,09 0 
 − 10,12  
   0,09 
 7,05  
 0,125 
 
( )
X TY = 
6,94
( T −
)
1
 ; X X = 0,125 
 − 2,10 
0,125

 1,70  
   0,229 
 − 1,56  
 − 5,09  0 0,229 
   0,229

 − 1,74
Soluţiile vor fi:
ao’ = 97,47 ; a1 = 1,1 ; a2 = - 0,92 ; a3 = 0,64 ; a12 = 0,87 ; a13 = - 0,27 ; a23 = 0,22 ; a11 = -
0,4
a22 = - 1,21 ; a33 = - 0,44.
Semnificaţia coeficienţilor se verifică cu relaţia:
s
tai ; taij ; taii ≥ tT ; νo = 3 ; o2 = 0,485 ; tT = tT0,05(3) = 3,18
ta’o = 573,35
ta1 = 5,41 ; ta2 = 4,4 ; ta3 = 3,06
ta12 = 4,06 ; ta13 = 1,09 ; ta23 = 0,99
ta11 = 1,2 ; ta22 = 3,66 ; ta33 = 1,33

Coeficienţii semnificativi vor fi: a0’ , a1 , a2 , a12 şi a22 şi cum ta3 ≈ tT va fi inclus şi
termenul a3 .
Se obţine astfel următoarea ecuaţie:
)
(
y = 97,47 + 1,1 ⋅ x1 − 0,92 ⋅ x 2 + 0,64 ⋅ x 3 + 0,87 ⋅ x1 x 2 − 1,21 ⋅ x 22 − x 22 )
123
Capitolul 3.

sau:
)
y = 97,35 + 1,1 ⋅ x1 − 0,92 ⋅ x 2 + 0,64 ⋅ x 3 − 1,21 ⋅ x 22 şi x22 = 0,73
Verificarea concordanţei:

1 ) 2
N −l
s 2
con = ∑ (y n − y n ) = 1,79

unde: N = 15 , l = 6
s s
F = 2con / o2 = 1,79 / 0,485 = 3,69.
Pentru:
νo = N - l = 9 şi ν = 3, α = 0,05
rezultă din tabela Fischer . FT = 8,81.

Cum F < FT se consideră modelul drept adecvat şi regresia obţinută ca fiind capabilă să
îndeplinească condiţiile cerute de un proces de optimizare.

3.5.2. Transformarea într-un program rotabil de ordinul doi (PR2)

Programele ortogonale de ordinul doi au un mare inconvenient. Acesta constă în faptul


s
că dispersia variabilei exprimată y)2 se modifică cu rotaţia axelor parametrilor. Pentru a
corecta acest inconvenient, Box şi Hunter au propus dezvoltarea şi transformarea EFC
n
2 în programe rotabile. În acest scop matricea informaţională îşi păstrează foram de la
P.O.2, iar elementele care au suma indicilor număr par se scriu sub forma:
N

∑x
n =1
in = N ⋅ λ2 (i = 1,2,L, n)

(3.46a,b)
N N

∑x
n =1
4
in = 3∑ xin2 x 2jn = 3 N ⋅ λ4 (i ≠ j ; j = 1,2,L, n)
n =1

λ2 şi λn sunt coeficienţi arbitrari, ce depind de n.


n - numărul parametrilor
N - numărul determinărilor
Dacă se notează suma pătratelor termenilor de ordinul doi sub forma:
N
Sνi = ∑ x νin ; i = 1,2,L, n (3.47)
n =1
atunci:
N
S 2i = ∑ xin2 = Nλ 2
n =1
N (3.48a,b)
S 4i = ∑ x = 3∑ x x 4
in
2
in
2
jn = 3 Nλ 2
n =1

înmulţind cu n:
(∑ ρ ) nN
N n N
nS 2 = ∑ ∑ x in2 = ∑ ρ n2 = nλ 2 N ; λ 2 = 2
n ; şi nS 4 = ∑∑ x in4 ; (3.49)
1 1 n =1
n
cum ρ 2 = ∑ x i2 rezultă:
i =1
124
Capitolul 3.

(ρ ) = (∑ x ) = ∑ x + 2C x x
2 2 2 2
i
4
i
2
n
2
i
2
j
(3.50a,b)
ρ = (∑ x ) = ∑ x + n(n − 1) x x
4
i
2 2 4
i
2
i
2
j

Deci:
N N
nS4 = ∑ρ
n =1
4
n − n( n − 1) ∑x
n =1
2 2
in x jn (3.51)

Dar:

∑x 2
in x 2jn = S 4 3 = Nλ 4
N
nS 4 = ∑ ρ n4 − n(n − 1) S 4 3
n =1
N
3∑ ρ n4 = S 4 [3n + n(n − 1)] = n(n + 2 )S 4
n =1

 N 
S 4 = 3 ⋅  ∑ ρ n4  [n(n + 2)]
 n =1 
(3.52a,b,c,d)
Deci:
N

λ4 ∑ρ n =1
4
n
Nn
= ⋅ (3.53)
λ22   N 2
n+2
 ∑ ρ n2 
 n =1 
sau pentru o sferă pe care sunt dispuse N puncte:

λ4 N 2 ρ 4 n n
= 2 4 ⋅ = (*)
λ2 N ρ n + 2 n + 2
2

Când relaţia (*) este îndeplinită, matricea informaţională devine degenerată şi sistemul
de ecuaţii nu va admite soluţii reale.
Pentru a depăşi aceste inconveniente se consideră un număr de s sfere şi N
w puncte
dispuse pe fiecare sferă. Se ajunge astfel la condiţiile:

N s
∑ρ
n =1
4
n = ∑ N w ρ w4
w=1
(3.54a,b)
N s
∑ρ
n =1
2
n = ∑ Nwρ
w=1
2
w

Astfel pentru λ2 = 1 , se obţine


125
Capitolul 3.

s
∑N w ρ w4
Nn
λ4 = w=1
⋅ (3.55)
s 
2
n+2
 ∑ N w ρ w2 
 w=1 
 

Dacă se consideră dispunerea celor N puncte, (reprezintă măsurătorile în spaţiul


parametrilor) pe 2 sfere, având repartizate No , respectiv N1 puncte, şi se impun razele
sferelor ρo = 0 şi ρα = α, se obţine:

Nnρ α2 N 1 Nn n( N 0 + N 1 ) n
λ4 = = = > (3.56)
(n + 2)N 1 ρ α N 1 (n + 2) N1 (n + 2) n + 2
2 4

Plasarea unor puncte pe sfera de rază ρo = 0, deci în centrul programului, permite


construirea unui program PR2 cu o matrice informaţională (XTX) nedegenerată. Un astfel
de program are matricea de program a experienţelor ca în tabelul:

Tabelul 3.18
Nr. xo x1 x2 x1 x2 x1 2 x 22 y
exp
1 +1 +1 +1 +1 +1 +1 y1
2 +1 +1 -1 -1 +1 +1 y2
3 +1 -1 +1 -1 +1 +1 y3
4 +1 -1 -1 +1 +1 +1 y4
5 +1 +α 0 0 α2 0 y5
6 +1 -α 0 0 α2 0 y6
7 +1 0 +α 0 0 α2 y7
8 +1 0 -α 0 0 α2 y8
9 +1 0 0 0 0 0 y9

Din condiţia :

∑x 2
in = Nλ 2 ; i = 1,n (3.57)

Se obţine pentru:

N N

∑x
1
4
in = 3∑ x in2 x 2jn = 2 n + 2α 4 = 3 ⋅ 2 n
1
(3.58)

şi deci:
α=2
n/4
unde n - nr. parametrilor

Sau pentru subprogram fracţionar 2n-p, α = 2 (n- p) /4 .


Dacă se notează :
126
Capitolul 3.

e = N c + 2α 2
f = N c + 2α 4
[
H = 2α 4 Nf + (n − 1)NN c − n ⋅ e 2 ]
D = 2α H 4 −1
[ f + (n − 1)N c ]
E = −2 H −1eα 4
[
F = H −1 Nf + (n − 2 )NN c − (n − 1) ⋅ e 2 ]
G = H −1 2 − NN c (e )
(3.59a,bc,d,e,f,g)
atunci:

s 2
s ;s
ao = D 2
o
2
ai = e-1 s ;s 0
2 2
aij = Nc-1 s 2
o ; s
2
aii =F s
2
o (3.60a,b,c,d)

cov(a a ) = E s
2
o ii o (3.61)

cov(a a ) = G s
2
ii ij o (3.62)

şi dispersia legii de regresie:

s = s + sρ + s ρ
)
y
2 2
a0
2
ai
2 2
aii
4
+ 2 cov (a 0aii )ρ 2 (3.63)

Deoarece s nu depinde de cov(a a ) trebuie ca aceste covarianţe să se anuleze deci:


)
y
2
ii ij

s 2
G o = 0 ;  G = 0, acest lucru conduce la condiţia ca e - NNc să fie zero, ceea ce
permite stabilirea numărului necesar de experienţe în centrul experimentului (No).

No = (e2 / No) - Nc - Nα (3.64)

Pentru construirea programelor uniform rotabile, va trebuie ca λn să îndeplinească


condiţia:

(
λ4 = n + 3 + 9n 2 + 14n − 7 ⋅ ) n(n1+ 2) (3.65)

Acest lucrul permite şi estimarea numărului de puncte N, necesare experimentului:

N = e λ n / Nc
2
(3.66)
Datele necesare asigurării unor probleme uniform rotabile sunt prezentate în tabelul:
Tabelul 3.19 Parametrii programării uniform rotabile
n 2 3 4 5 6 7 8
λn 0,7844 0,8385 0,8704 0,8918 0,9070 0,9184 0,9274
N0 4,5504 5,5511 7,3344 10,2836 14,7 20,7908 28,4776

Numărul No poate fi calculat cu relaţia:


127
Capitolul 3.

No = int (eλn/Nc - Nc - Nα) (3.67)


Tabelul 3.20. Relaţiile de calcul pentru programul PR2
Bloc Relaţii de calcul Notaţii / funcţii
)
1
0 ∑
y = a + a x + a x x + a x2 i i ∑ ij i j ∑ ii i

2 B = (XTX)-1(XTY)
N n N
a0 = D ∑
n =1
yn + E ∑∑ x
i =1 n =1
2
in y n

N
ai = e −1 ∑x
n =1
in y n

N
1
aij =
Nc ∑x
n =1
in x jn y n

n N
aii = (F − G ) ∑x 2
in y n +G ∑∑ x 2
in y n +E ∑y n
i =1 n =1
3 unde:
e = N c + 2α 2
f = N c + 2α 4
[
H = 2α 4 Nf + (n − 1)NN c − n ⋅ e 2 ]
D = 2α H 4 −1
[ f + (n − 1)N c ]
−1
E = −2 H eα 4
[
F = H −1 Nf + (n − 2 )NN c − (n − 1) ⋅ e 2 ]
G=H −1
(e 2
− NN c )
4 N0
s 2
=
1
∑ ( y 0 k − y 0 )2
N 0 − 1 k =1
0

s2ao = D s2o ; s2ai = e-1 s02 ;


s2aij = Nc-1 s2o ; s2aii = F s2o
5 t ai = ai s;t
ai aij = aij s ;taij aii = aii s
aii

5a Condiţia de semnificaţie a parametrilor tT:


tai > tT = t0,05(N0-1) ; taij > tT = t0,05(N0-1)

6 sr 1 N
s 2
= = ∑ ( y n − y) n )
νr N − l n =1
r

l = (n + 2 )(n + 1) 2 ; ν r = N − l

s 2  N ) 2  1
=  ∑ ( y n − y n ) − ∑ y 0 k − y 02  ( )
ν r −ν 0
con
 n =1
F = s2con / s02 ; Fc = F0,05(νr - νo, νo)

Exemplul 3.3.

Să se analizeze un proces tehnologic depinzând de doi parametrii, prin metoda PR2.


Datele referitoare la programarea experienţelor fiind prezentate în Tab. ..
128
Capitolul 3.

Denumirea Parametrii Coeficienţii procesului


z1 z2
Nivel zero z10= 9,2 z20= 4,89 a0=85,14 ; a1 =3,43
Nivel (+1) 10,00 6,89 a2=-1,32
Nivel (-1) 8,4 2,89 a12=3,00 ; a11 = 2,6
Nivel superior z1s=10,33 z2s=7,71 a22 = -1,19
i
Nivel inferior z1 = 8,07 z2i= 2,07

Se efectuează matricea programării pentru No = 5 conform tabelului:


Nr. x0 Program experimental
)
exp yn yn ( yn − y)n )2
x1 x2 x1 2 x 22 x1x 2
1 +1 -1 -1 +1 +1 +1 87,1 87,24 0,0196
2 +1 -1 +1 +1 +1 -1 79,0 78,6 0,1600
3 +1 +1 -1 +1 +1 -1 88,9 88,1 0,6400
4 +1 +1 +1 +1 +1 +1 92,8 91,46 1,7956
5 +1 -1,41 0 2,0 0 0 85,8 85,28 0,1024
6 +1 1,41 0 2,0 0 0 94,0 94,96 0,9216
7 +1 0 -1,41 0 2,0 0 84,0 84,44 0,0036
8 +1 0 1,41 0 2,0 0 80,0 80,72 0,5184
9 +1 0 83,7 85,14 2,0736
10 +1 0 86,0 85,14 0,7390
11 +1 0 85,8 85,14 0,4356
12 +1 0 83,9 85,14 1,5376
13 +1 0 86,3 85,14 1,3456

calculul sumelor:

∑y n = 1117,6 ∑x 1n y n = 27,44
∑x 2 n y n = 12,0 ∑x 1n x 2 n y n = −10,545 ; ∑x 2
1n y n + ∑ x 22n y n = 1383,8
∑x 1n y n = 707
2
∑x 2 n y n = 676,8
2

Se calculează:

e = N c + 2α 12 = 4 + 2 ⋅ 1,412 = 4,3102
f = N c + 2α 4 = 4 + 2 ⋅ 1,412 = 4,04811002
[ ]
H = 2α 4 Nf + (n − 1)NN c − n ⋅ e 2 = 2 ⋅ 0,24 ⋅ 86,047 ≅ 4,13
D = 2α 4
[ f + (n − 1)N c ]H −1
= 0,3863 ⋅ 4,13 −1
E = −0,1
F − G = 0,125
G = 0,0187
129
Capitolul 3.

a 0 = 0,2 ⋅ 1117,6 − 0,1 ⋅ 1383,8 ≅ 85,14


a1 = 6,25 ⋅ 27,44 = 3,43
a 2 = 0,25 ⋅ 12,00 = 3
a12 = 0,125 ⋅ (− 10,545) = −1,32
a11 = 0,125 ⋅ 707 − 0,0187 ⋅ 1383,8 − 0,1 ⋅ 1117,6 = 2,49
a 22 = 0,125 ⋅ 676,8 + 0,0187 ⋅ 1383,8 − 0,1 ⋅ 1117,6 = −1,28

Ecuaţia:
)
y = 85,14 + 3,43 x1 − 1,32 x 2 + 2,49 x12 + 3 x1 x 2 − 1,28 x 22

Analiza statistică:

1 N0
s 2
= ∑ ( y ok − y0 )2 = 6,134 = 1,533 ; ν0 = 4
N0 −1 1
0
4

Dispersia coeficienţilor:

s 2
a0 = 0,2 ⋅ 1,5333 = 0,31
s 2
a1 = 0,125 ⋅ 1,533 ≅ 0,192
s 2
a2 = 0,125 ⋅ 1,533 ≅ 0,192
s 2
a11 = s 2
a22 = 0,1437 ⋅ 1,533 = 0,22
s 2
a12 = 0,25 ⋅ 1,533 = 0,383

Se calculează valoarea tolerată:

t 50 , 05 (ν 0 = 4 ) = 2,78
t a11 = 2,49 0,47 = 5,3
t a0 = 85,14 0,55 = 154,8
; t a22 = 1,28 0,47 = 2,7
t a1 = 3,43 0,44 = 7,8
t a12 = 3 0,62 = 4,8
t a2 = 1,32 0,44 = 3,0

Se verifică valorile criteriului Student:


- se observă că a22 este la limita semnificaţiei ta22 = 2,7 < tT = 2,78, dar diferenţa fiind
mică , termenul nu se elimină.
Se verifică concordanţa modelului:
130
Capitolul 3.

s r = ∑ ( y i − yi ) = 10,29 ν r = N − l = 13 − 6 = 7
) 2
N0
s0 = ∑ ( yi − y 0 ) = 6,13 ν 0 = N 0 − l = 5 − 1 = 4
2

scon = s r − s 0 = 10,28 − 6,13 = 4,16 ; ν con = ν r − ν 0 = 7 − 4 = 3


2
scon scon 1,386
2
scon = = 4,16 = 1,386 ; Fc = = = 0,9
ν con s02
1,533

Se alege valoarea tolerată pentru criteriul Fisher:

F T (0,05, νcon , ν0) = F T (0,05, 3 , 4) = 6,59 ; cum Fc = 0,9 < FT = 6,57

rezultă că ecuaţia de regresie concordă cu datele experimentale.

3.5.3. Adoptarea deciziilor pe baza programelor de ordinul doi.

Ca şi în cazul modelului liniar, în urma obţinerii coeficienţilor legii de regresie,


deciziile utilizării regresiei într-un program de optimizare depinde de concordanţa dintre
aceasta şi model.
Avantajul modelului neliniar constă în faptul că poate aproxima suprafeţe având
curbură, ceea ce facilitează obţinerea optimului cu o mai marea precizie.
Atenţia cercetătorului se concentrează în cazul acestor modele, în special pe
îndeplinirea criteriului de concordanţă. La analiza semnificaţiei coeficienţilor regresiei se
acceptă şi coeficienţi aflaţi la nivelul pragului de semnificaţie sau chiar în unele cazuri,
puţin sub nivelul de semnificaţie impus iniţial.
Se disting astfel două variante:

A) Modelul neliniar este viabil F < FT şi ecuaţia de regresie concordă cu datele


măsurate. Această condiţie semnifică faptul că scopul acestei faze a cercetării a fost
îndeplinit şi se poate continua procesul de calcul al parametrilor, care optimizează
procesul. Deci se pot utiliza metodele neliniare de căutare a optimului. Deoarece
ecuaţia de regresie este una neliniară, vor fi utilizate metode neliniare de optimizare.
Printre acestea cele mai utilizate sunt metoda Newton-Rapson, metoda căutării
întâmplătoare , metoda pantei celei mai abrupte, ca şi metode bazate pe procesul de
liniarizare a restricţiilor ca şi a funcţiei obiectiv sau metode geometrice de optimizare.
B) Modelul neliniar nu respectă condiţia de concordanţă cu datele experimentale ( F ≥
FT )

Nerespectarea acestei condiţii poate conduce la următoarele decizii din partea


cercetătorului

B1) Mărirea gradului ecuaţiei de regresie, deci obţinerea unei ecuaţii a regresiei de
gradul trei.
În literatura de specialitate, acest lucru este indicat cu rezerve de către cercetători,
deoarece chiar şi pentru ecuaţiile de ordinul doi există dificultăţi în interpretarea
modelului matematic. De regulă se încearcă utilizarea unor metode de măsurarea mai
precise şi mărire a preciziei calculelor, înaintea luării unei astfel de decizii.
131
Capitolul 3.

B2) Introducerea în program a unor noi parametrii ai procesului dintre cei eliminaţi în
faza de experiment preliminar ceea ce conduce la mărirea numărului de determinări.
Coordonatele optimului vor constitui punctul de plecare în faza de trecere de la
instalaţiile de laborator, la cea de proiectare a instalaţiilor industriale sau a staţiilor pilot.
132
Capitolul 4.

Capitolul 4.

4.1. Programe pătratice destinate optimizării proceselor tehnologice.

4.1.1 Introducere. Să caonsiderăm o funcţie de gradul doi, de variabile x1,x2,…,xm având


forma:

m m
P( x ) = ∑∑ cij ⋅ xi ⋅ x j + ∑ ci ⋅ xi + c0 (4.1)
i =1 j =1

unde:
x = (x1,…,xn)T, (4,2)
cij = cji. (4.3)

Trebuie specificat că în cazul în care cij <> cji prin efectuarea transformării:

dij = (cij + cji)/2 (4.4)

se ajunge la următoarea egalitate:

m m m m

∑∑d
i =1 j =1
ij ⋅ xi ⋅ x j = ∑∑ cij ⋅ xi ⋅ x j ;d ij = d ji
i =1 j =1
(4.5)

Dacă se grupează termenii de ordinul doi sub într-un vector de forma:

m m
K ( X ) = ∑∑ cij ⋅ xi ⋅ x j (4.6)
i =1 j =1

şi se notează cu n+ respectiv n- numărul termenilor pătratici care au coeficienţă pozitivi,


respectiv negativi, rezultă:

n+ + n- ≤ n (4.7)

Se defineşte funcţia P(x) ca fiind o formă pătratică pozitiv definită dacă n+ = n şi n- = 0.


În acest caz determinantul |C| al matricei C = cij este strict pozitiv şi K(X) > 0 pentru toţi
vectorii X ≠ 0, iar K(0) = 0. P(x) se numeşte semipozitiv definită în cazul în care n+ < n şi n-
= 0.În cazul acesta determinantul |C| = 0, iar K(X) se anulează pentru mai multe valori ale
vextorului X ≠ 0.
- +
În mod analog P(x) este negativ definită dacă n = n şi n = 0 (sau seminegativ definită
+ -
dacă respectiv n = 0 şi n < n ).
Dacă atât n+ cât şi n- sunt pozitive (n+ > 0 şi n- > 0) atunci forma pătratică este
nedefinită.
Orice funcţie pătratică pozitiv definită (semidefinită) este strict convexă (convexă)
în timp ce în cazul în care este negativ definită (semidefinită) aceasta va fi strict concavă
(concavă). Expresiile pătratice nedefinite nu sunt nici convexe nici concave. Astfel pentru
o funcţie de două variabile x1 respectiv x2, orice formă pătratică pozitiv definită va fi un
paraboloid eliptic ca în figura X.1 a). În timp ce orice formă pătratică pozitiv semidefinită
133
Capitolul 4.

(convexă) va fi un cilindru parabolic având curbura ca în figura 4.1 b. În cazul ecuaţiei


pătratice pozitiv definite, problema de optimizat admite o soluţie unică, care este minimul
absolut în cazul în care punctul Xo aparţine domeniului de definiţie al parametrilor x1, x2
(D) sau Xi, ce poate fi un vârf sau un punct de pe frontiera domeniului de definiţie în caz
contrar. În cazul în care funcţia este pozitiv semidefinită, generatoarea d a cilindrului
parabolic poate fi paralelă cu planul P(x) = 0 ceea ce conduce la o infinitate de soluţii,
situate pe dreapta obţinută prin proiectarea generatoarei d pe domeniul de definiţie al
variabilelor În cazul când generatoarea cilindrului parabolic nu este paralelă cu planul P(x)
atunci soluţia problemei va fi unică.
Consideraţiile făcute asupra problemei având doi parametrii sunt valabile şi în
cazul general al funcţiilor pătratice de mai multe variabile.

4.1.2. Scopul programării pătratice. Scopul utilizării programării pătratice constă în


determinarea unui vector XS de componente x1S,x2S,…,xmS, care minimizează o formă
pătratică convexă sau maximizează o relaţie pătratică concavă iar variabilele trebuie să
satisfacă un sistem de inegalităţi liniare şi (eventual) unele restricţii privind semnul
variabilelor. Deci o problemă de tipul:

m m m
min P( x ) = ∑ ∑ c ij ⋅ x i ⋅ x j + ∑ c i ⋅ x i (4.8)
i =1 j =1 i =1

cu restricţiile:

k m

∑∑ a ij ⋅ x j ≥ bi ; i ∈ {1 ... k }
i =1 j =1

x j ≥ 0 ; j ∈ {1 ... m}

Figure 4.1a). Interpretarea geometrică a unei funcţii Figure 4.1b Interpretarea geometrică a minim-
pătratice pozitiv definite. Soluţia problemei este punctul izării unei relaţii pătratice pozitiv semidefinite.
S
X
134
Capitolul 4.

Condiţiile Kuhn-Tucker conduc la formarea unui sistem de m + n ecuaţii cu m + n


o o
necunoscute a cărui soluţie o reprezintă vectorii X şi U :

(
X o = X i − C −1 ⋅ AT A ⋅ C −1 ⋅ AT ) ⋅ (A ⋅ X
−1 i
−B ) (4.9a,b)
(
U o = A ⋅ C −1 ⋅ A ) ⋅ (A ⋅ X
T −1 i
− B)

unde:

X i = −C −1 ⋅ c
c = ci ; i ∈ {1, ... , n}
(4.10a,b)

Dacă se notează cu AS matricea coeficienţilor restricţiilor aij dar care conţine


numai 1<= i <= n coeficienţi, şi cu BS vectorul termenilor liberi ce aparţin acestor
restricţii, atunci soluţia XS a problemei reduse :

 m m 
 ∑∑ cij ⋅ xi ⋅ x j 
 i =1 j =1 m

min + ∑ ci ⋅ x i 
2 i =1
  (4.11)
 
m

∑a
j =1
ij ⋅ x j = bi ; i ∈ S

va fi obţinută cu relaţia:

(
X S = X ' − C −1 ⋅ AS AS ⋅ C −1 ⋅ AST ) (A
−1
S ⋅ X ' − BS )
(
U S = AS ⋅ C −1 ⋅ A S ) (A
T −1
S ⋅X' −B )
S

(4.12a,b)

Soluţiile XS sunt posibile dacă rangul matricii AS este egal cu numărul de ecuaţii aflate în
vectorul S. Dacă se notează cu V(XS) mulţimea restricţiilor care nu sunt cuprinse în S şi
deci nu sunt verificate de XS:

 m 
V( X S ) = i| ∑ a ij ⋅ x Sj > bi ,1 ≤ i ≤ n  (4.13)
 j =1 

atunci se poate scrie condiţia de apartenenţă a restricţiilor la V(XS) sub forma:

AS~ ⋅ X S − BS~ = ( AS~ ⋅ X ' − BS~ ) − ( AS~ ⋅ C −1 ⋅ AST )( AS ⋅ C −1 ⋅ AST ) −1 ( AS ⋅ X ' − BS ) (4.14)

în care

S = {1, ... , n} \ S
~
(4.15)
135
Capitolul 4.

indicii pentru care condiţia este pozitivă vor fi incluşi în vectorul V(XS). În această expresie
S -1 T
nu intervine explicit X ci numai X’. Matricea AC A poate fi exprimată sub forma:

 AS   AS ⋅ C −1 ⋅ AST AS ⋅ C −1 AST~ 
A ⋅ C A =   ⋅ C −1 ⋅ AST
−1 T
( AT
~ ) =  −1

S S~ ⋅ C −1 ⋅ AST~ 
(4.16)
 AS~ ⋅ C ⋅ AS
S T
 AS~ 

ceea ce poziţionează produsul matricilor AS~ C-1AST în matricea AC-1AT la intersecţia


~
liniilor din S cu coloanele din S.

4.1.3. Minimizarea unei funcţii pătratice pozitiv definite având restricţii inegalităţi.

În acest caz problema are forma:

 m m 
 ∑∑ cij ⋅ xi ⋅ x j 
 i =1 j =1 
m
min + ∑ ci ⋅ x i 
2 i =1
  (4.17a,b)
 
m

∑a
j =1
ij ⋅ x j ≤ bi ; i ∈ S

Pentru rezolvarea acestui program se utilizează algoritmul Theil-Van de Panne. În


conformitate cu figura x.1a) se constată existenţa a două cazuri poaibile.

Cazul 1. Minimul liber al funcţiei de optimizat P(x), respectiv proiecţia vârfului


paraboloidului pe planul variabilelor x1,x2, …, xm se situează în interiorul domeniului D
mărrginit de restricţiile liniare ale problemei. În acest caz Xo este chiar soluţia optimă iar
minimul nu este un minim local ci unul general. Condiţia poate fi scrisă analitic sub
forma:

X o = −C −1 ⋅ c~ (4.18)

satisface toate condiţiile limită impuse problemei.

Cazul 2. Dacă Xo nu se găseşte în interiorul domeniului soluţiilor admisibile, D,


S
atunci soluţia optimă a problemei X va fi un punct de pe frontiera domeniului D. Deci va
trebuii să satisfacă cel puţin una dintre condiţii de egalitate.
Algoritmul constă în determinarea mulţimii restricţiilor:

~  m 
S = i , 1 ≤ i ≤ n: ∑a ij ⋅ x oj ≤ bi  (4.19)
 j =1 

care sunt satisfăcute pentru optim cu semnul egal, urmată de rezolvarea problemei cu
restricţii egalitate:
136
Capitolul 4.

min P( x )
m
~ (4.20)
∑a
j =1
ij ⋅ x j = bi ;i ∈ S

Strategia de rezolvare a problemei constă în determinarea condiţiilor implicate în


problema de optim. În acest scop se determină toate mulţimile de indici S ⊂ {1,2,…,n} şi
pentru fiecare mulţime de indici S se determină soluţia XS a problemei. Se exclud acele
S S
soluţii X care nu se încadrează în domeniul admisibil al variabilelor. Dintre vectorii X
rămaşi se alege acela care conduce la valoarea minimă a funcţiei scop P(x), acesta fiind
S
chiar soluţia X căutată, iar mulţimea de restricţii căutată va fi cea care corespunde
acestei soluţii, deci S = S.
Pe baza modului de lucru descris se desprind cu uşurinţă etapele algoritmului de
optimizare.

Pasul 1. Se calculează minimul liber Xo = -C-1 c~ .


Dacă V( X ) este nul, soluţia optimă va fi XS = Xo .
o

Dacă V( X o
)
≠ 0 atunci S1 conţine cel puţin un indice al unei restricţii
Pasul 2. Pentru fiecare S1 = { i1 } ,i1 ∈ V( X o
)
se calculează X S şi V( X ) .
1
S1

S2
Dacă există S1 astfel ca V( X S1
)
= 0 atunci se verifică dacă X este soluţie.
X este soluţie optimă dacă şi numai dacă i ∈V( X
S
S−{i}
)
pentru orice i S
S1
Dacă nici un X nu este soluţie optimă atunci se notează cu S1 familia de
mulţimi:
S1 = { S1 ∈ {1,2,…,n} : V( X ) 0} S1

şi se trece la pasul următor.


~
Pasul 3. Se verifică dacă S se găseşte printre mulţimile formate din doi indici. Se
analiza acum doar mulţimile S2 = S1 ∪ {i}, în care S1∈ V( X ) . S1

2
Pentru toţi S din această categorie se verifică dacă X S2
şi V( X S2
)
.
S2
Pentru toţi X determinaţi astfel se verifică dacă îndeplinesc condiţia de
impusă asupra soluţie ( V( X ) = 0) S2

Dacă nici unul dintre aceşti vectori nu este soluţie atunci se generează
noua familie de mulţimi ale indicilor restricţiilor S2 :
S2 = { S2∈{1,2,…,n } : V( X S2 ) ≠ 0 }
verificarea mulţimilor alcătuite din trei indici ş.a.m.d.

Exemplul 4.1. Să se rezolve programul:

x12 + x 22 + 2 ⋅ x32
min P( x ) = − 2 ⋅ x1 + x 2
2

cu restricţiile:

x1 + x 2 − x3 = 3
x1 + x 2 + x 3 = 7
137
Capitolul 4.

Funcţia P(x) este pozitiv definită iar restricţiile sunt egalităţi.


L
a) Se determină minimul liber X rezolvând sistemul:

x − 2 = 0
∂P( x ) 
1

= 0;1 ≤ j ≤ 3 ; ⇒  x 2 + 1 = 0
∂x j 
 2 ⋅ x3 = 0

Soluţia, proiecţia pe planul variabilelor va fi deci:

x1o = 2 ; x2o = -1 ; x3o = 0

Se verifică restricţiilr impuse problemei de minim:

2 − 1 − 0 ≠ 3

2 − 1 + 0 ≠ 7

Deci restricţiile nu sunt verificate şi se va alcătuii vectorul A⋅Xo-B :

2 
 1 1 − 1 o   3 
A =  ; X = 1 ; B =  
1 1 1  0  7 
 
2
1 1 − 1   3 1 3 − 2 
A ⋅ X − B = 
o
 ⋅ − 1 −   =   −   =  
1 1 1   0  7  1 7   − 6 
 

Matricea C formată din coeficienţii cij este următoarea:

 
1 0 0 1 0 0
 
C =  0 1 0 ; C −1 = 0 1 0
 1
0 0 2 0 0 
 
 2

Se calculează C-1⋅AT

 1 0 0  1 1  1 1 
−1     
C ⋅ A =  0 1 0  1 1 =  1
T
1 
 0 0 1 2  − 1 1  − 0,5 0,5 
    

Se calculează A⋅C-1⋅ΑΤ.
138
Capitolul 4.

 1 1   5 3

−   1  5 − 3

A ⋅ C −1 ⋅ AT = 
1 1 1 
 ⋅  1 1 =2 (
2  ;⇒ A ⋅ C −1 ⋅ AT )−1
=  
8  − 3 5 
1 1 1   − 1 2 1 2   3 5

  2 2

Se obţine astfel:

 1 1 
 2  4 
  1  5 − 3  − 2   
X =  − 1 −  1
S 
1 ⋅   ⋅   = 1 
 1   − 3 5   − 6  
 0  8 −1 
  2 
 2 2

Rezultă astfel minimul căutat:

1 11
min P( x ) = (16 + 1 + 2 ⋅ 4) − 2 ⋅ 4 + 1 =
2 2

Exemplul4.2. Să se minimizeze funcţia patratică:

min P( x ) =
2
(
1 2
)
x1 + 5 ⋅ x 22 + 2 ⋅ x32 + 4 ⋅ x1 ⋅ x 2 − 2 ⋅ x1 ⋅ x 3 − 4 ⋅ x 2 ⋅ x3 − x1 + 3 ⋅ x 2 + 4 ⋅ x 3

cu restricţiile:

 − x1 ≤ 0
 − x 2 ≤ −1

2 ⋅ x1 + 3 ⋅ x 2 − x3 ≤ 2
 x + x + 2⋅ x ≤ 4
 1 2 3

 x1 − 2 ⋅ x 2 + x3 ≤ 6

Restricţiile fiind de tipul inegalitate se va folosi metoda Theil-Van der Panne

Pasul 1. Se determină matricile de lucru:

 − 1 1 2 −1  6 2 1
     
c~ =  3  ; C =  2 −
5 − 2;C =  − 2 1 0;
1

 4 −1 − 2 2   1 0 1
     
 8 
 
X =  − 5  ;V( X o ) = (2 3 5)
o

 − 3
 
139
Capitolul 4.

 6 − 2 − 5 − 6 − 11  − 8
   
− 6 2 5 6 11  −2 1 1 1 4   6 
 
C A =  2 − 1 − 1 − 1 − 4 ; AC A =  − 5 1
−1 T −1 T
6 6 8  ; AX − B =  2 
o
   
 −1 0 1 3 2   − 6 1 6 11 11   − 7
 
−   
 11 4 8 11 21   9 

Pasul 2. Se calculează X{2},X{3},X{5}

 − 4  19 / 3   23 / 7 
{2}   {3}   {5}  
X =  1  ; X =  − 14 / 3  ; X =  − 23 / 7 
 − 3  − 10 / 3   − 23 / 7 
     

Se calculează în continuare:

V( X {2} ) = {1};V( X {3} ) = {2,5};V( X {5} ) = {2};V( x{1, 3}


)
= {2}

Se constată că soluţiile obţinute în această fază nu sunt admisibile

Pasul 3. Se calculează:

0  −8/5   5  114 / 31 


{1,  
2}
     
X =  1  ; X {2, 3}
=  1  ; X {2, 5}
=  1  ; X {3, 5}
=  − 94 / 31 
 − 1  − 11 / 5   3  − 116 / 31
       
şi deci:

V( x{1, 2}
)
= {3};V( x{2 , 3}
)
= {1};V( x{2 , 5}
)
= {3, 4};V( x{3, 5}
)
= {2}.

Deoarece nici unul dintre punctele obţinute nu aparţine domeniului variabilelor sau
frontierei acestuia se trece la următorul pas, prin verificarea unui ansamblu de trei
variabile.

Pasul 4. Deoarece:

V( x{1 2 3}
)
=0

rezultă că soluţia admisibilă va fii:

 0
{1, 2, 3}
 
X = 1
1
 

Cum aceasta verifică toate condiţiile impuse, aceasta este şi soluţie optimă.
Minimul problemei va fi deci:
140
Capitolul 4.

minP(x) = 17/ 2

4.2 Algoritmi de tip Newton-Raphson.

Este un algoritm de optimizare puternic orientat spre calculul numeric deci spre
utilizarea calculatoarelor electronice. Acest algoritm ia în considerare şi termenii de
ordinul doi ai dezvoltării în serie Taylor ai funcţiei obiectiv:

1
P( x ) = P( xk ) + ∇P( x k ) ( x − x k ) + ( x − x k ) T ∇ 2 P( xk ) ( x − x k ) (4.21)
2

Derivând funcţia obiectiv pe direcţia x-x(k) şi anulând această derivată rezultă:

H (−x1k ) ∇P( xk )
x k +1 = x k − λ k (4.22)
H (−x1k ) ∇P( xk )

unde H(xk) este matricea hessiană a funcţiei P(x) în punctul xk:

 ∂ 2 P ∂x12 ∂ 2 P ∂x1∂x 2 ... ∂ 2 P ∂x1∂x m 


 2 
 ∂ P ∂x 2∂x1 ∂ 2 P ∂x 22 ... ∂ 2 P ∂x 2 ∂x m 
H ( xK ) =  (4.23)
 ... ... ... ... 
 ∂ 2 P ∂x ∂x ∂ 2 P ∂x ∂x ... ∂ 2 P ∂x m2  x = x
 m 1 m 1 k

iar λk reprezintă pasul deplasării din punctul k în punctul k+1. De regulă în cazul
algoritmului Newton-Rapson se alege:

λk = H (−x1k ) ∇P( xk ) (4.24)

astfel încât să se anuleaze efectul numitorului.

Convergenţa metodei este asigurată dacă matricea Hessiană este pozitiv definită. Dacă
funcţia P(x) este patratică, atunci soluţia problemei rezultă în urma unei singure iteraţii.
Algoritmul de rezolvare, se bazează, în cazul general, pe introducerea unor valori iniţiale
pentru vectorul soluţiei, urmând apoi să se determine direcţia de deplasare spre soluţia
optimă, noul vector care apropie de optim problema, noua direcţie de deplasare spre
optim, ş.a.m.d. Fiind un proces iterativ, algoritmul trebuie oprit în momentul în care
diferenţa dintre două valori succesive ale funcţiei ce se optimizează devine
nesemnificativă.

Exemplul 4.3 . Să se optimizeze funcţia:


2 2 2 2 2 2
P(x) = 246,8 - 0,0031x1 + 1008,1x2 + 0,885x3 - 0,0034x4 - 0,0021x5 + 2,36x1x +
0,086x1x3 + 0,065x1x4+0,012x1x5+16,9x2x3-0,58x2x4 + 2,02x2x5 + 0,503x3x4 + 0,087x3x5 +
0,016x4x5 - 1,68x1 - 772,3x2 - 21,78x3 - 8,57x4 - 1,14x5.
141
Capitolul 4.

Pornind de la următoarele date iniţiale:

x1 = 52 ; x2 = 62 ; x3 = 53 ; x4 = 61 ; x5 = 42

Funcţia fiind pătratică se poate calcula expresia matricii hessiene în mod analitic:

 ∂P
 ∂x = a1 + 2a11 x1 + a12 x 2 + a13 x3 + a14 x 4 + a15 x5
 1
 ∂P = a + 2a x + a x + a x + a x + a x
 ∂x 2 2 22 2 21 1 23 3 24 4 25 5

 ∂P
 = a3 + 2a33 x3 + a13 x1 + a 23 x2 + a34 x4 + a35 x5
 ∂x 3
 ∂P = a + 2a x + a x + a x + a x + a x
 ∂x 4 44 4 14 1 24 2 34 3 45 5

 ∂P 4

 = a5 + 2a5 x5 + a15 x1 + a 25 x 2 + a35 x3 + a34 x 4


 ∂x5

iar matricea H va avea forma:

 2a11 a12 a13 a14 a15 


 
 a12 2a 22 a 23 a 24 a 25 
H =  a13 a 23 2a 33 a 34 a 35 
 
 a14 a 24 a 34 2a 44 a 45 
a a 25 a 35 a 45 2a 55 
 15

Rezultă astfel în urma primei iteraţii valorile:

 194,48   0,0078 3,092 − 0,022 0,077 0,024 


   
122480,63   3,1 1966 25 − 2,64 1,4 
∇P =  1640,23  ; H ≈  − 0,022 25 1,3 0,6 0,18 
   
 − 139,96   0,077 − 2,64 0,6 − 0,02 0,01 
 95,43   0,024 
   1,4 0,18 0,01 0,0014 

şi soluţiile problemei:

x1 = 70,42 ; x2 = 0,157 ; x3 = 4,11 ; x4 = -13,16 ; x5 = 93

A doua iteraţie conduce la urmăroarele valori ale gradientului:


142
Capitolul 4.

 5,2 ⋅ 10 −10 
 
 − 2,1 ⋅ 10 − 7 
∇P =  − 1,13 ⋅ 10 −8 
 
 − 1,13 ⋅ 10 −8 
 −9 
 3,07 ⋅ 10 

Aceleaşi soluţii se obţin şi în cazul în care sunt folosite alte valori iniţiale deoarece
matricea H este constantă. Această proprietate conferă algoritmului şi viteza deosebită
deoarece sunt necesare un număr minim de iteraţii pentru determinarea optimului. În
cazul funcţiilor patratice fiind suficientă o singură iteraţie.

4.3 Metoda gradientului.

Este metoda de la care au fost dezvoltate o mare parte dintre algoritmii destinaţi
optimizării problemelor neliniare convexe (inclusiv algoritmul Newton-Raphson).
Metoda se bazează pe faptul că direcţia celei mai rapide creşteri sau descreşteri
pentru o funcţie este dată de direcţia gradientului. Astfel dacă se doreşte determinarea
direcţiei pe care o funcţie f prezintă cea mai mare creştere (descreştere), faţă de
o
valoarea acesteia într-un punct X , acest lucru înseamnă maximizarea derivatei după
direcţia R în punctul Xo:

m ∂f ( X
max ∑
o
⋅ rj
)

j =1 ∂x j (4.25)
r12 + r22 + ... + rn2 = 1

ultima condiţie indicând faptul că vectorul R are lungime unitară, deci este versor.
Prin introducerea multiplicatorului lagrange se obţine lagrangeanul:

m ∂f ( X  m 
Φ ( R ,λ ) = ∑ ⋅ r j + λ 1 − ∑ r j 
o
)
(4.26)
j =1 ∂x j  j =1 

Se alcătuieşte sistemul de m + 1 ecuaţii:

∂Φ ∂f ( X )
− 2λr j = 0; j ∈ [1, ... , m]
o
=
∂r j ∂x j
(4.27)
∂Φ m
= 1 − ∑ r j2
∂λ j =1

rezultând expresiile direcţiilor versorului R şi a multiplicatorului λ :


143
Capitolul 4.

∂f ( X o
)
 ∂f ( X ) 
2
1 m ∂x j
∑   ; rj = ±
o
λ=± (4.26)

2  ∂x j  ∂f ( X ) 
2
j =1  m

∑  
o


j =1  ∂x j 

Semnul + corespunde creşterii maxime în timp ce semnul - descreşterii maxime a


funcţiei f(x).
Deci prin deplasarea pe direcţia gradientului conduce la cea mai mare creştere a funcţiei
atunci când aceasta se efectuează în sensul versorului gradientului, în timp ce prin
deplasare în sens opu se obţine cea mai mare descreştere a funcţiei. Pe această
constatare se bazează toate metodele de optimizare de tip gradient. Astfel, dacă Xo este
o soluţie iniţială a unui program convex şi se verifică dacă acesta este optim prin calculul
gradientului funcţiei obiectiv.
Dacă:

∇f ( X o ) = 0 (4.27)

atunci Xo este chiar soluţia optimă căutată.


În caz contrar, ∇f ( X o )  se va determina un nou punct X1 care să fie soluţie admisibilă a
problemei şi pentru care ∇f ( X 1 ) < ∇f ( X o ) . Dacă ∇f ( X 1 ) = 0, atunci punctul X1 este soluţie a
problemei. În caz contrar, se va determina un nou punct X2 în aşa fel încât ∇f ( X 2 ) < ∇f ( X 1 )
urmată de verificarea anulării gradientului în acest punct. Dacă nici acest punct nu este
soluţie, se va determina un nou punct X3 ş.a.m.d. Punctele admisibile X1,X2,X3,… sunt
căutate în aşa mod încât să asigure o variaţie maximă funcţiei al cărui extrem este
căutat.

Algoritmul Zoutendijk. Se consideră problema:

max f ( x1 ,..., xm ) (4.28)

cu restricţiile:

∑a
j =1
ij x j ≤ bi ; i ≤ 1 ≤ n1

∑a
j =1
ij x j = bi ; n1 + 1 ≤ i ≤ n (4.29)

x j ≥ 0 ;1 ≤ j ≤ m

în care funcţia f este concavă, iar Xo o soluţie iniţială care verifică restricţiile impuse.
Dacă ∇f ( X ) = 0, atunci Xo este chiar soluţia optimă a problemei.
o

Dacă ∇f ( X o ) ≠ 0 atunci se va căuta următorul punct cu o relaţie de forma:


144
Capitolul 4.

X1 = Xo + λ⋅R (4.30)

unde, R este un versor iar λ un scalar. Soluţia iniţială va verifica o parte a condiţiilor de
tip mai mic sau egal cu semnul egal. Se notează:

{
J 0 = j|x 0j = 0;1 ≤ j ≤ m }
 m  (4.31)
I 0 = i|∑ a ij x 0j = bi ;1 ≤ i ≤ n1 
 j =1 

Pentru ca noul punct să poată fi admis, acesta va trebuii ca pentru orice j∈J0 şi i∈I0 să
verifice condiţiile:

x 0j + λr j ≥ 0; j ∈ J 0 rj ≥ 0; j ∈ J 0
sau (4.32a,b)
∑a ij x 0j + λ ∑ a ij r j ≤ bi ;i ∈ I 0 ∑a r ≤ 0;i ∈ I0
ij j

iar pentru condiţia de pozitivitate a variabilelor:

∑a r ij j = 0 ; n1 + 1 ≤ i ≤ n (4.33)

În timp ce pentru i ∉I0 să îndeplinească condiţiile:

m m
λ ∑ a ij r j ≤ bi − ∑ a ij x 0j ;1 ≤ i ≤ n ; i ∉ I 0 (4.34)
j =1 j =1

Dacă se efectuează următoarele notaţii:

 x 0j
min j (− ) ; j ∉ J 0 ;r j < 0
α = rj
 ∞ ∃ j : r < 0, j ∉ J
 j 0

 m

 bi − ∑ aij x 0j m


j =1
min i ;1 ≤ i ≤ n ; i ∉ I ; aij r j > 0
 m 1 0
β = ∑ aij r j j =1
(4.35a,b)
 j =1
 m

 ∞ nu exista : ∑ aij r j > 0;1 ≤ i < n1 ;i ∉ I 0


 j =1

şi:

γ= min(α,β). (4.36)

Astfel, dacă 0 < λ < γ atunci condiţiile vor fi îndeplinite.


145
Capitolul 4.

Trebuiesc verificate acum condiţiile Zoutendijk pentru versorul R:

∑a
j =1
ij jr ≤ 0;i ∈ I0

∑a
j =1
ij jr = 0 ; n1 + 1 ≤ i ≤ n
(4.37)
m

∑r
j =1
2
j ≤1

r j ≥ 0; j ∈ J 0

Astfel un vector R care satisface condiţiile de mai sus şi un 0<λ<γ conduc la
determinarea noului punct X1 pentru care funcţia are creşterea sau descreşterea
maximă.
În urma determinării direcţiei R, în cazul în care se doreşte obţinerea acelei valori a lui
λ astfel încât f(Xo + λ⋅R) să fie maximă. Acest lucru conduce la determinarea maximului
funcţie de o singură variabilă λ, fie acest maxim λ1, astfel încât noul punct va fi Xo = X1 +
λ1⋅R.

Dacă X1=Xo + λ1⋅R şi ∇f ( X 1 ) = 0 punctul X1 este soluţia optimă.


Dacă ∇f ( X 1 ) ≠atunci se va determina un nou punct X2 = X1 + λ2⋅ R, care să
îndeplinească condiţiile impuse. Se poate demonstra că procesul de calcul este
convergent, ceea ce asigură obţinerea soluţiei dintr-un număr finit de iteraţii.

Exemplul 4.4. Să se rezolve problema:

max[− x12 − x 22 + 4 x1 + 4 x 2 ];
x1 + x 2 ≤ 3; x1 ≤ 2; x 2 ≤ 1
x1 ≥ 0; x 2 ≥ 0

Problema constă în maximizarea unei funcţii neliniare concave (ecuaţie pătratică negativ
definită) şi restricţii liniare. Se porneşte de la soluţia banală Xo = { 0 , 0 }T şi se aplică
algoritmul Zoutendijk.

Se determină gradientul funcţiei obiectiv:


2 2
f(x1,x2) = -x1 -x2 +4x1+4x2

este:

∇f(x1,x2) =(-2⋅x1 + 4 , -2⋅x2 + 4)T

Deoarece ∇f ( X o ) ≠ 0 rezultă faptul că f(X ) nu este soluţie a problemei. Va trebui deci să
o

efectuăm o deplasare în sensul gradientului pentru a obţine creşterea maximă a funcţiei


obiectiv. Deci:
146
Capitolul 4.

 2 
{ }
J 0 = j:x 0j = 0 = {1, 2}; I 0 = i:∑ a ij x j = bi  = 0
 j =1 

Direcţia R de deplasare va fi soluţie a programului convex:

max[4 ⋅ r1 + 4 ⋅ r2 ]
r12 + r22 ≤ 1;r1 ≥ 0;r2 ≥ 0

Se observă că soluţia va fi:

 2
 
 r1   2 
R =   =
 r2   2
 
 2 

Va trebuii deci căutat un nou punct sub forma:

0  2 2
X 1 = X 0 + λ ⋅ R =   + λ ⋅  

0  2 2 

Pentru ca X1 să fie soluţie admisibilă trebuie ca λ ∈{0, 21/2}.


Calculul valorii multiplicatorului λ se poate face prin exprimarea în funcţie de λ a
gradientului şi egalarea cu zero a funcţiei f(Xo + λ R).

∂f
= −2λ + 4 2 = 0;λ ' = 2 2
∂λ

Deoarece λ’ nu se încadrează în domeniul admisibil pentru multiplicator se va alege


λ=2 .
1/2
1
Se obţine astfel valoarea noului punct X :

 0  2 2   1
X 1 =   + 2 ⋅   =  
 1
 
0  2 2   

Se verifică dacă X1 este soluţie şi se repetă procedura:

 2 0
∇f ( X 1 ) =   >  
 2 0
 
{ }
J 1 = j:x 1j = 0 = 0; I 1 = i;∑ a ij x 1j = bi  = {3}
 

Se determină noua direcţie a vectorului R din programul convex:


147
Capitolul 4.

max[2r1 + 2r2 ]
r12 + r22 ≤ 1;r1 ≥ 0;r2 ≥ 0

2
Rezultă r1 = 1 şi r2 = 0. Se trece la noul punct X .

 1 1
X 2 = X 1 + λ ⋅ R =   + λ  
 1  0

Pentru ca X2 să fie soluţie a problemei se calculează domeniul admis pentru λ. Se


observă că acesta este λ ∈{ 0, 1} . Se calculează valoarea maximă pentru λ:
T

∂f
= −2(1 + λ ) + 4 = 0; λ ' = 1
∂λ

Se adoptă pentru l valoarea λ1 = 1 şi rezultă X2 sub forma:

1 1  2
X 2 =   + 1 ⋅   =  
1  0  1

Se verifică valoarea gradientului în punctul X2.

 0
{ }
∇f ( X 2 ) =   > 0; J 2 = j:x 2j = 0 = 0; I 2 = {1,2,3}.
 2

Se determină R din condiţiile:

max[2 ⋅ r2 ]
r1 + r2 ≤ 0;r12 + r22 ≤ 1;r1 ≤ 0;r2 ≤ 0

Soluţia este r2 = 0 şi r1 = -1.


Se determină valoarea noului vector X3.

 2  − 1
X 3 = X 2 + λ ⋅ R =   + λ ⋅  
1  0

Se determină domeniul de variaţie pentru l. Se observă că λ ∈ {0, 2}. Se verifică însă


funcţia pentru a se vedea dacă mai este posibilă o creştere a valorii acesteia:

f ( X 3 ) = f ( 2−λ ,1) = 7 − λ2 = f ( 2,1) − λ2 = f ( X 2 ) − λ2

Cum nu mai este posibilă nici o creştere, maximul căutat va fi f(2,1) = 7 şi x1=2, x2=1.
148
Capitolul 4.
148
Capitolul 5.

Capitolul 5

Metode numerice pentru determinare a optimului proceselor de


sudare.
Introducere.
In urma procesului de analiza statistică s-a obţinut de regulă o funcţie f care depinde de
unul sau mai mulţi parametrii independenţi. Optimizarea procesului analizat constă acum
în posibilitatea de a determina optimul functiei sau a sistemului de funcţii ce descrie
procesul. Din punct de vedere matematic, problema se exprimă cât se poate de simplu.

Fiind dată o funcţie f sau un sistem de funcţii fi care depind de una sau mai multe
variabile independente, se cere determinarea valorilor acestor variabile astfel încăt
pentru domeniul de definiţie stabilit funcţia f sau funcţiile sistemului să atingă
valoarea maximă sau minimă.

Un extrem, fie el maxim sau minim, poate fi global, (valoarea cea mai mare sau mai mica
pe care funcţia o ia pe intervalul analizat) sau local, (valoarea extrema pentru un
subinterval al intervalului analizat). Din punctul de vedere al aplicaţiei la problemele de
optimizare a tehnologiei de sudare, abordarea acestei probleme se face utilizănd tehnici
de calcul numerice. Acest lucru se datoreză complexităţii fenomenului analizat. Din
această cauză ne vom restrînge asupra metodelor de optimizare bazate pe analiza
numerică.

Figura 5.1. Extremele unei funcţii pe un interval. A,C,E maxime locale, B,F minime locale.
Maxim general G minim general D. În punctul E, derivata de ordinul 2 se anulează ceea ce
generează dificultăţi agoritmilor uzuali. Punctele X,Y şi Z sunt utilizate ca puncte ajutătoare
pentru determinarea minimului local F.
149
Capitolul 5.

Deoarece în practică sunt utilizate mai multe tipuri de algoritmi, alegerea algoritmului
dorit se poate face pe baza urmatoarelor consideraţii:

 Trebuie făcută alegerea între metodee care necesită doar un proce simplu de
calcul a funcţiei şi metode care necesită şi calculul derivatelor acesteia. Algoritmii
bazaţi şi pe determinarea derivatelor sunt de regulă mai puternici dar de multe ori
nu este necesară o cantitate atât de mare de calcule şi timpul de calcul nu se
justifică. Sunt cazuri care favorizează algoritmii bazaţi pe calculul derivatelor şi
cazuri care nu favorizează acest tip de algoritmi. Dar, dacă se cunoaşte funcţia şi
se pot calcula derivatele acesteia, atunci, de regulă se adoptă metode de tip
gradient.
 Pentru funcţii ce depind de un singur parametru şi care se optimizează fără să se
calculeze derivatele acestora, sunt date metodele 5.1 şi 5.2. Dacă derivata de
ordinul 1 a funcţiei are o discontinuitate în domeniul ce se optimizează atunci se
preferă metoda 5.1 altfel de preferat este metoda 5.2.
 Trebuie avut în vedere că în cazul metodelor ce necesită calculul derivatelor
spaţiul de memorie alocat este N2 faţă de cele care nu necesită calculul derivatelor,
caz în care acesta este doar N. (N fiind numrul de variabile independente).
 Dacă este posibil se recomandă utilizarea algoritmului simplexurilor, ca fiind o
metodă de optimizare foarte puţin pretenţioasă şi uşor de implementat.
 Dacă se doreşte un calcul foarte precis pentru funcţii cu mai multe variabile
independente, atuci algoritmii de tip gradient sunt cei mai utilizaţi. Aceaşti algoritmi
pot fi grupaţi în două famili:
 Metodele bazate pe gradienţi conjugaţi, dintre care cel mai evoluat
este Polak-Ribier. Aceşti algoritmi necesită doar un număr mic de
stocări, necestă calculul derivatelor ca şi o minimizare pentru una
dintre variabilele independente.
 Metodele de tip Fletcher-Powell care necesită un spaţiu de stocare
mai mare, calculul derivatelor şi minimizarea pentru o variabilă
independentă.

5.1. Optimizarea pentru funcţii de o variabilă.


Se bazează pe introducerea a trei valori ale variabilei independente, a,b şi c astfel încâi
a<b<c sau (c<b<a) astfel încât f(b) să fie mai mică decât f(a) şi f(c). În acest caz se
cunoaşte faptul că funcţia are un extrem în intervalul (a,c). În continuare se alege o nouă
valoare x, în intervalul (a,c) astfel încât dacă f(b) < f(x) atunci minimul se găseşte în
intervalul (a,x) altfel va fi în intervalul (x,c).
Dacă f(b) < f(x) atunci noile puncte cu care se caută minimul sunt (a,b,x), iar dacă f(b) >
f(x) se caută minimul cu punctele (b,x,c). În figura 5.2 este prezentată metoda. Procesul
decurge iterativ până când distanţa dintre cele trei puncte devine mai mică decât o
distanţă admisibilă. Determinarea acestei mărimi se face prin dezvoltarea în serie Taylor
a funcţiei f(x) în jurul punctului b şi impunerea diferenţei |f(x) – f(b)| < ε. Se utilizează
doar termenul cu derivata a 2-a, pentru că în punctul de extrem prima derivată se
anulează şi se consideră că în imediata apropiere a punctului b valoarea acesteia este
foarte mică atunci cînd acesta este în apropierea optimului.

f ′′(b )
f ( x ) ≈ f (b ) + ⋅ ( x − b) 2 (5.1)
2
150
Capitolul 5.

Deci:
2 f (b)
x −b < b ε (5.2)
b ⋅ f ′′(b)
2

Impunerea acestei condiţii asupra poziţiei variabilei pentru care se caută minimul funcţiei
conduce la limitarea numărului de iteraţii la minimul necesar şi de asemenea la utilizarea
unei valori rezonabile pentru ε.
Atunci cînd sunt cunoscute punctele (a,b,c) rămâne de stabilit modul de alegere a
poziţiei punctului x.
Pentru aceasta se urmăreşte obţinerea unei ponderi w, de forma:

b−a c −b
w= în acest mod 1 − w = (5.3)
c−a c−a

se consideră noul punct x în apropierea lui b, punct ce va avea ponderea z,

x −b
z= (5.4)
c−a

şi pentru a asigura poziţia punctului x indiferent de poziţia acestuia faţă de b, ( x < b sau
x > b) se consideră ponderea acestuia:

z = 1 – 2w (5.5)

În acest mod, se obţine o proporţie egală a segmentelor |b-a| şi |x-c|.


Dacă x aparţine segmentului mai mare, fie acesta |bc| atunci proporţia în care x va
împărţi acest segment va fi egală cu cea în care b împarte segmentul |ab| şi deci se
poate determina cea de-a doua condiţie pentru noua pondere z:

z
w= (5.6)
1− w

Se ajunge la valoarea optimă pentru w, prin înlocuirea ec x-5 în ec. x-6.

w2 − 3 ⋅ w + 1 = 0 (5.7)

Cu soluţia:

w ≅ 0.38197...
Deci atunci cînd se introduce punctul ce divide intervalul în care se caută soluţia, b,
poziţia sa faţă de punctul a are ponderea 0,38197 iar faţă de punctul c va avea ponderea
1-0,38197.

Algoritmul propus va testa deci valoarea fucţiei f la 0.38197 din distanţa dintre
puncte b şi a (punctul x1) şi valoarea funcţiei f la 0,61803 din distanţa dintre
punctele b şi c (punctul x2). Dacă valoarea funcţiei în aceste punce este mai mică
decât valoarea acesteia în a respectiv b, ( f(a) < f(x1) şi f(b) < f(x2) ) atunci
151
Capitolul 5.

domeniul de căutare a minimului funcţiei ca şi a poziţiei acestuia se reduce la


(x1,b, x2). Pentru noul interval se repetă procedura până când se ajunge la
îndeplinirea condţiei dată de ecuaţia (5.2).

Mai rămâne de determinat şi poziţia iniţială a punctelor (a,b,c) astfel încît acestea să
mărginească minimul funcţiei. Această determinare poate fi făcută manual sau utilizând o
funcţie special creată.

Figura 5.2. Modul de căutare a minimului funcţiei cu metoda secţiunii de aur. În faza iniţială
minimul este încadrat de punctele (1,3,2). Urmează evaluarea funcţiei în punctul 4 ceea ce
conduce la înlocuirea punctului 2 cu punctul 4, deoarece f(4) < f(2) şi determinarea noilor puncte
de încadrare (1,3,4). Apoi se verifică funcţia în punctul 5 ceea ce conduce la înlocuirea punctului 1
cu punctul 5, deoarece f(5) < f(1) şi se ajunge la încadrarea minimului între punctele (5,3,4). Se
verifică apoi funcţia în punctul 6 şi deoarece f(6) < f(4) noua sucesiune de puncte de încadrare va
fi (5,3,6). Se continuă până când se determină minimul.

În acest scop a fost creată funcţia abcDetermin care are următorul cod în C..

5.1.1. Funcţii C destinate definirii domeniului şi căutării minimului.

#include <math.h>
#include “util.h”
// Definiţii de variabile şi funcţii
#define GOLD 1.618034
//Rata de creştere a intervalelor succesive
#define GLIMIT 100.0
152
Capitolul 5.

//Creşterea maximă în cazul interpolării


#define TINY 1.0e-20
#define SHFT(a,b,c,d) (a)=(b);(b)=(c);(c)=(d);

void abcDetermin(float *ax, float *bx, float *cx, float *fa, float *fb, float
*fc, float functieMin(float))
{

/*
DATE de INTRARE.
ax, bx ca fiind marginile intervalului de definiţie a funcţiei
functieMin(float x) funcţia ce se doreşte optimizată
DATE CALCULATE
ax,bx,cx marginile care cuprind valoarea minimului. Utilizate în funcţia
de optimizare.
fx,fy,fz valoarea funcţiei în aceste puncte.
*/

float ulim,u,r,q,fu,dum;
*fa=functieMin(*ax);
*fb=functieMin(*bx);

//Stabileşte mărimilor a şi b astfel încât procesul să decurgă de la a //spre b.

if (*fb > *fa) {


SHFT(dum,*ax,*bx,dum)
SHFT(dum,*fb,*fa,dum)
}

// Se determină c

*cx=(*bx)+GOLD*(*bx-*ax);
*fc=functieMin(*cx);

//Se începe ciclul de căutare a marginilor (a,b,c)

while (*fb > *fc) {

//Calculează u prin interpolare parabolică a poziţiilor a, b, c.


//TINY este utilizată pentru a evita împărţirea la zero.

r=(*bx-*ax)*(*fb-*fc);
q=(*bx-*cx)*(*fb-*fa);
u=(*bx)-((*bx-*cx)*q-(*bx-*ax)*r)/
(2.0*SIGN(FMAX(fabs(q-r),TINY),q-r));
ulim=(*bx)+GLIMIT*(*cx-*bx);

// Se testează toate posibilităţile.


// 1. Utilizarea unei legi parabolice pentru u între c şi a.

if ((*bx-u)*(u-*cx) > 0.0) {


fu=functieMin(u);

// 1.1. S-a găsit minimul între b şi c ?

if (fu < *fc) {


*ax=(*bx);
*bx=u;
*fa=(*fb);
*fb=fu;
153
Capitolul 5.

return;
} else if (fu > *fb) {

// 1.2. S-a găsit minimul între a şi u

*cx=u;
*fc=fu;
return;
}

// 2. Se utilizează ponderea GOLD la determinarea lui u

u=(*cx)+GOLD*(*cx-*bx);
fu=functieMin(u);

// 1.3. Lege parabolică dincolo de c.

} else if ((*cx-u)*(u-ulim) > 0.0) {


fu=functieMin(u);
if (fu < *fc) {
SHFT(*bx,*cx,u,*cx+GOLD*(*cx-*bx))
SHFT(*fb,*fc,fu,functieMin(u))
}

// 1.4. Lege parabolică pînă la valoarea maximă a lui u

} else if ((u-ulim)*(ulim-*cx) >= 0.0) {


u=ulim;
fu=functieMin(u);
} else {

// Recalculează u şi f(u) cu ponderea GOLD

u=(*cx)+GOLD*(*cx-*bx);
fu= functieMin(u);

// Elimină punctele vechi şi continuă.

SHFT(*ax,*bx,*cx,u)
SHFT(*fa,*fb,*fc,fu)

}
}

Calculul minimului funcţiei se poate face cu următoarea funcţie C.

#include <math.h>
#define R 0.61803399
#define C (1.0-R)
#define SHFT2(a,b,c) (a)=(b);(b)=(c);
#define SHFT3(a,b,c,d) (a)=(b);(b)=(c);(c)=(d);

float minGolden(float ax,float bx,float cx, float functieMin(float), float tol, float *xmin)
{
/*
INTRARE:
ax,bx,cx datele intervalului (a,b,c)
functieMin Expresia functiei a cărui minim este căutat
CALCUL:
154
Capitolul 5.

f2 valoarea minimului funcţiei


*xmin valoarea variabilei independente pentru care s-a determinat
minimul.
*/
float f1,f2,x0,x1,x2,x3;

// Se memorează 4 valori pentru fiecare pas, x0,x1,x2,x3

x0=ax;x3=cx;

// 1-> Se analizează segmentul minim şi se determină noile limite


// la stânga x1 şi la dreapta x2

if (fabs(cx-bx) > fabs(bx-ax)) {


x1=bx;
x2=bx+C*(cx-bx);
} else {
x2=bx;
x1=bx-C*(bx-ax);
}

// 2 -> Se determină valoarea funcţiei în capetele intervalului


// Nu este necesară determinarea valorii funcţiei în x0 şi x3

f1=functieMin(x1);
f2=functieMin(x2);

// 3.0 Se testează mărimea intervalului de căutare

while (fabs(x3-x0) > tol*(fabs(x1)+fabs(x2))) {


if (f2 < f1) {

// 3.1 Prima posibilitate de reducere a intervalului de căutare.

SHFT3(x0,x1,x2,R*x1+C*x3)
SHFT2(f1,f2,functieMin(x2))

} else {

// 3.2 Cea de-a doua posibilitate

SHFT3(x3,x2,x1,R*x2+C*x0)
SHFT2(f2,f1,functieMin(x1))
}
} // Sfârşit WHILE

// 4. Alegerea celei mai bune soluţii

if (f1 < f2) {


*xmin=x1;
return f1;
} else {
*xmin=x2;
return f2;
}
}
155
Capitolul 5.

5.2. Interpolarea cu funcţii parabolice şi utilizarea acesteia la metoda Brent


pentru funcţii de o singură variabilă.
În cazul utilizării metodei secţiunii de aur a fost utilizată interpolarea parabolică pentru a
se putea analiza cât mai elegant ansamblul de posibilităţi destinate determinării
segmentului în care se găseşte minimul căutat. Dacă se ţine cont că în apropierea
minimului funcţia poate fi interpolată printr-un polinom de ordinul doi, polinom care în
acest caz este o parabolă. Descrierea acestei parabole se face utilizând trei puncte de
pe curbă. Alegerea acestor puncte nu este însă întâmplătoare, acestea trebuie
obligatoriu să îcareze minimul căutat. Deoarece în acest caz se pune problema
determinării abscisei mai curând decât a ordonatei, problema de interpolare este atipică.
Din această cauză se numeşte interpolare parabolică inversă.
Abscisa x care corespunde valorii minime a unei parabole ce trece prin trei punce (a,b,c)
şi care are valoarea în aceste puncte f(a), f(b) şi respectiv f(c) este:

1 (b − a ) [ f (b ) − f (c )] − (b − c ) [ f (b ) − f (a )]
2 2
x =b− (5.8)
2 (b − a )[ f (b ) − f (c )] − (b − c )[ f (b ) − f (a )]

Această relaţie nu are sens doar în cazul în care punctele sunt coliniare, caz în care
numitorul se anulează şi punctul în care “parabola” are valoare minimă devine infinit. Din
păcate doar utilizarea acestei relaţii la determinarea minimului şi a poziţiei acestuia nu
conduce la rezultatele aşteptate. Din această cauză se caută o combinare între metoda
secţiunii de aur, în care nu se analizează decât poziţia absciselor punctelor care
încadrează minimul, pentru a se micşora domeniul de încadrare şi atunci când s-a atins
un domeniu suficient de mic se utilizează interpolarea pătratică inversă (relaţia 5.8)
pentru a se deremina valoarea abscisei minimului (x).
Din păcate acest mod de abordare nu s-a dovedit eficient deoarece este necesară
calcularea şi menţinerea în memorie a valorilor funcţiei de interpolare pătratice pentru
mai mulţi paşi de aproximare succesivi. De asemenea este dificilă determinarea
momentului în care s-a atins optimul şi se poate ajunge la influenţa unor erori de rotunjire
foarte apropiate de valoarea reală a minimului căutat. Un alt inconvenient major constă în
stabilirea momentului de trecere de la metoda secţiunii de aur la metoda interpolării
parabolice.
Evitarea acestor neajunsuri a fost făcută de Brent [1] prin memorarea pentru fiecare pas
al procesului iterativ a 6 valori ale punctelor funcţiei, a,b,u,v,w şi x.
În această metodă, a şi b sunt limitele domeniului în care se determină minimul,
x este abscisa celei mai mici valori determinate pentru funcţia f în intervalul (a,b)
w este abscisa următoarei valori minime, mai mare decât valoarea funcţiei în x
v este valoarea anterioară a lui w,
u este abscisa curentă a funcţiei f.
Mai este utilizat şi mijlocul segmentului ab notat cu xm cu toate că funcţia nu este
evaluată în acest punct.
Interpolarea parabolică se face pentru punctele, x,v şi w şi pentru ca pasul să fie
acceptat trebuie ca:
a) punctele să fie în intervalul (a,b)
b) să existe o deplasare de la cea mai mică valoare găsită până în acest moment
(la abscisa x) şi această deplasare să fie mai mică decât jumătatea pasului
precedent.
156
Capitolul 5.

Condiţia b) asigură convergenţa algoritmului şi evită intrarea într-un ciclu infinit.


În cel mai nefavorabil caz, atunci când pasul de interpolare parabolică este acceptabil
dar nu satisface cerinţa b) se utilizează pentru pasul curent metoda secţiunii de aur
urmând ca la următorul pas să se încerce utilizarea interpolării parabolice din nou.
Se asigură astfel o bună convergenţă şi se evită ieşirea forţată din algoritm dacă un pas
al acestuia nu satisface condiţia b).
Se impune o distanţă minimă, tol, astfel încât să nu se facă calculul funcţiei pentru două
puncte care sunt mai apropiate decât această distanţă, deoarece aşa cum se vede din
ecuaţie, valorile funcţiei în cele două puncte vor diferi foarte puţin şi eroarea de calcul
poate influenţa rezultatul semnificativ.

5.2.1. Implementarea metodei, funcţia Brent.


Cu aceste observaţii, funcţia brent, are forma:

// Declaraţii în antet
# include <math.h>
# include “util.h”
# define ITMAX 100
# define CGOLD 0.38109660
#define EPS 1.0e-10

// ITMAX nr.-ul maxim de iteraţii admis pentru determinarea optimului.

#define SHFT(a,b,c,d) (a)=(b); (b)=(c); (c) =(d)

float brent(float ax, float bx, float cx, float functieMin(float, float tol,
float *xmin)
{
int iter;
float a,b,d,etemp,fu,fv,fw,fx,p,q,r,tol1,tol2,u,v,w,x,xm;
float e=0.0;

// noile distanţe de mutare a absciselor. Se impune ca a < b.

a=(ax < cx ? ax : cx);


b=(ax > cx ? ax : cx);
x=w=v=bx;
fw=fv=fx=functieMin(x);

// Ciclul principal

for (iter=1;iter<=ITMAX;iter++) {
xm=0.5*(a+b);
tol2=2.0*(tol1=tol*fabs(x)+ZEPS);

// Testarea terminării

if (fabs(x-xm) <= (tol2-0.5*(b-a))) {


*xmin=x;
return fx;
}

// Construirea interpolării prin trei puncte

if (fabs(e) > tol1) {


r=(x-w)*(fx-fv);
157
Capitolul 5.

q=(x-v)*(fx-fw);
p=(x-v)*q-(x-w)*r;
q=2.0*(q-r);
if (q > 0.0) p = -p;
q=fabs(q);
etemp=e;
e=d;
if (fabs(p) >= fabs(0.5*q*etemp) || p <= q*(a-x) || p >= q*(b-x))
d=CGOLD*(e=(x >= xm ? a-x : b-x));

// Condiţiile de mai sus determină acceptarea pasului patratic.


// Se va utiliza sectiunea de aur (SA) pentru un domeniu mai mare
// decît două segmente.

else {
// Pasul parabolic
d=p/q;
u=x+d;
if (u-a < tol2 || b-u < tol2)
d=SIGN(tol1,xm-x);
}
} else {
d=CGOLD*(e=(x >= xm ? a-x : b-x));
}
u=(fabs(d) >= tol1 ? x+d : x+SIGN(tol1,d));

// Se evaluează câte o funcţie pe iteraţie

fu=functieMin(u);

// Se analizează funcţiile din iteraţie

if (fu <= fx) {


if (u >= x) a=x;
else b=x;
SHFT(v,w,x,u)
SHFT(fv,fw,fx,fu)
} else {
if (u < x) a=u; else b=u;

// Se formează variabilele noi


if (fu <= fw || w == x) {
v=w;
w=u;
fv=fw;
fw=fu;
} else if (fu <= fv || v == x || v == w) {
v=u;
fv=fu;
}
}
}
nrerror("S-a depasit numarul de iteratii <ITER> in brent");
*xmin=x; // Nu se ajunge aici se iese din nrerror.
return fx;
}
158
Capitolul 5.

Figura 5.3. Determinarea minimului utilizând metoda interpolării parabolice inverse.

5.3. Determinarea minimului pentru funcţii de o singură variabilă utilizând


prima derivată.
Se caută dezvoltarea algoritmilor deja prezentaţi şi care se bazează pe utilizarea a trei
valori ale variabilei independente pentru a mărgini zona în care se găseşte minimul prin
determinarea primei derivate a funcţiei.
Se poate utiliza o metodă de determinare a rădăcinilor primei derivate, cum ar fi metoda
secantei sau Newton-Rapshon. Deşi din punct de vedere clasic aceste metode pot fi
folosite cu succes, nu se vor dezvolta programe numerice pentru această metodă din
cauza dificultăţilor pe care le implică analiza derivatei de ordinul doi pentru a vedea dacă
avem un maxim sau un minim sau a necesităţii analizei detaliate a domeniului în care se
caută extremul.
Deoarece metodele care se bazează pe utilizarea a trei abscise pentru a delimita zona
extremului sunt precise şi uşor de implementat în programarea numerică ne vom axa pe
dezvoltarea acestora. Din această cauză informaţiile legate de valoarea derivatei funcţiei
vor fi utilizate doar pentru a mări viteza de determinare a noilor triplete de abscise ce
delimitează optimul căutat. În acest mod se asigură utilizarea şi dezvoltarea metodelor
de calcul deja verificate. S-au dezvoltat astfel metode de calcul bazate pe determinarea
unui polinom de ordinul doi care să îndeplinească şi condiţiile impuse asupra derivatelor
de ordinul întîi în punctele de capăt ale intervalului de mărginire. Analizând minimul
acestui poligon se determină următorul punct candidat în calculul valorii minime căutate
şi se reduce intervalul de calcul. Se repetă procedura până când diferenţa dintre minimul
159
Capitolul 5.

funcţiei şi al poligonului de interpolare devine neglijabilă. Metoda a fost dezvoltată de


Davidon ş.a [3.1].
Dacă analizăm cu atenţie această metodă se poate observa că nu îtotdeauna
aproximaţia polinomială este cea mai indicată. De multe ori polinomul de interpolare
trece prin punctele impuse, dar în afara acestor puncte se distanţează mult de funcţia pe
care dorim să o aproximăm. O soluţie ar fi utilizarea polinoamelor cu grad mai mic, care
în acest caz ar putea deveni drepte şi nu s-ar ajunge la nici o îmbunătăţire a metodelor
deja prezentate.
Din aceste cauze se vor utiliza derivatele de ordinul întâi doar pentru a determina cu
ajutorul semnului acesteia în ce segment se găseşte minimul (a,b) sau (b,c). Pentru
acest lucru este importantă determinarea semnului derivatei funcţiei în punctul b.
Valoarea derivatei în punctul b ca şi în celălalt capăt al segmentului pot fi utilizate pentru
a se determina poziţia în care derivata se anulează. Această abscisă se determină prin
interpolare liniară şi se ajunge la “1.618..” deci exact ca în metoda secţiunii de aur.
Mai departe se impun aceleaşi condiţii ca şi în metoda Brent.

În continuare se introduce funcţia derivBrent în limbajul C.

Informaţii privind declaraţiile librăriilor şi a definiţiilor funcţiilor.

5.3.1. Implementarea funcţiei derivBrent.

#include <math.h>
#include "util_s.h"
#define ITMAX 100
#define ZEPS 1.0e-10
#define MOV3(a,b,c, d,e,f) (a)=(d);(b)=(e);(c)=(f);

Codul sursă al funcţiei derivBrent.

float derivBrent(float ax, float bx, float cx, float functieMin(float),float


derivFunc(float), float tol, float *xmin)
{

/*
INTRĂRI:
functieMin(float) -Funcţia al cărui minim este căutat
derivFunc(float) -Derivata I-a a funcţiei functieMin

ax,bx,cx -Abscisele domeniului în care se caută minimul


(ax<bx<cx)
tol -Abaterea admisă
DATE CALCULATE:
fx -Valoarea minimă
*xmin -Abscisa la care se găseşte valoarea minimă
*/

// Date de calcul:
// Indicatoare privind stadiul de calcul şi calea prin algoritm

int iter,ok1,ok2;

// Declaraţii de variabile float

float a,b,d,d1,d2,du,dv,dw,dx,e=0.0;
160
Capitolul 5.

float fu,fv,fw,fx,olde,tol1,tol2,u,u1,u2,v,w,x,xm;

// Se determină noile distanţe de mutare a tripletului de abscise în


// funcţie de vechiul triplet.
// a < b

a=(ax < cx ? ax : cx);


b=(ax > cx ? ax : cx);
x=w=v=bx;
fw=fv=fx= functieMin(x);
dw=dv=dx= derivFunc(x);

for (iter=1;iter<=ITMAX;iter++) {
xm=0.5*(a+b);
tol1=tol*fabs(x)+ZEPS;
tol2=2.0*tol1;
if (fabs(x-xm) <= (tol2-0.5*(b-a))) {
*xmin=x;
return fx;
}

if (fabs(e) > tol1) {


d1=2.0*(b-a);
d2=d1;
if (dw != dx) d1=(w-x)*dx/(dx-dw);
if (dv != dx) d2=(v-x)*dx/(dx-dv);

u1=x+d1;
u2=x+d2;
ok1 = (a-u1)*(u1-b) > 0.0 && dx*d1 <= 0.0;
ok2 = (a-u2)*(u2-b) > 0.0 && dx*d2 <= 0.0;
olde=e;
e=d;
if (ok1 || ok2) {
if (ok1 && ok2)
d=(fabs(d1) < fabs(d2) ? d1 : d2);
else if (ok1)
d=d1;
else
d=d2;
if (fabs(d) <= fabs(0.5*olde)) {
u=x+d;
if (u-a < tol2 || b-u < tol2)
d=SIGN(tol1,xm-x);
} else {
d=0.5*(e=(dx >= 0.0 ? a-x : b-x));

// Alege segmentul pe baza semnului derivatei.


}
} else {
d=0.5*(e=(dx >= 0.0 ? a-x : b-x));
}
} else {
d=0.5*(e=(dx >= 0.0 ? a-x : b-x));
}
if (fabs(d) >= tol1) {
u=x+d;
fu=functieMin(u);
} else {
u=x+SIGN(tol1,d);
161
Capitolul 5.

fu=functieMin(u);

if (fu > fx) {


*xmin=x;
return fx;
}
}
du=(*df)(u);
if (fu <= fx) {
if (u >= x) a=x; else b=x;
MOV3(v,fv,dv, w,fw,dw)
MOV3(w,fw,dw, x,fx,dx)
MOV3(x,fx,dx, u,fu,du)
} else {
if (u < x) a=u; else b=u;
if (fu <= fw || w == x) {
MOV3(v,fv,dv, w,fw,dw)
MOV3(w,fw,dw, u,fu,du)
} else if (fu < fv || v == x || v == w) {
MOV3(v,fv,dv, u,fu,du)
}
}
}
nrerror("S-a depasit nr. Max de iteratii <ITER> in derivBrent");
return 0.0; // Nu se ajunge niciodata aici se iese din nrerror.
}

5.4. Metoda simplexurilor pentru cazul funcţiilor de mai multe variabile.

Metoda a fost publicată de Nelder şi Mead [4.1] şi nu necesită decât evaluarea funcţiei ce
va fi optimizate fără să fie necesare şi determinările derivatelor acesteia. Metoda se
foloseşte doar pentru optimizarea funcţiilor care depind de mai mulţi parametri şi nu este
foarte eficientă prin prisma valorii optime determinate ca şi a poziţiei acesteia. Marele
avantaj al acestei metode constă însă în simplitatea sa şi în faptul că poate fi utilizată
împreună cu metode mult mai precise pentru a determina valoarea şi poziţia optimului
căutat. Se asigură astfel delimitarea zonei sau zonelor în care se găsesc extremele
funcţiei ca şi a mărimilor necesare pentru ca în aceste zone să se poată aplica metode
de tip gradient pentru stabilrea soluţiilor dorite ca şi valorile parametrilor independenţi
dacă este nevoie.
De asemenea metoda permite o vizualizare geometrică fără mari probleme ceea ce face
o face uşor de înţeles şi mai ales uşor de aplicat la probleme de complexitate mare.
Un simplex este o figură geometrică care într-un spaţiu cu N dimensiuni constă într-un
număr de N+1 puncte unite prin segmente de dreaptă în aşa manieră încât să se
genereze feţe poligonale. Astfel în 2D simplexul este un triunghi, în 3D un tetraedru, etc.,
nu este necesar ca aceste figuri să fie şi regulate. În cazurile cele mai simple de
implementare aceste simplexuri sunt regulate, deci triunghi echilateral, tetraedru regulat,
etc. Singura restricţie care se pune acestor simplexuri este aceea de a nu fi degenerate,
deci de a nu avea puncte suprapuse. În plan triunghiul să nu degenereze în dreaptă, etc.
Algoritmul va porni dintr-o soluţie iniţială introdusă de programator, ceea ce d.p.d.v.
geometric reprezintă un vector N-dimensional care constă din valorile de pornire pentru
variabilele independente. Caz întâlnit frecvent la majoritatea metodelor de optimizare.
162
Capitolul 5.

Având cunoscut acest prim punct algoritmul va căuta singur minimul indiferent de
complexitatea pe care o poate avea o funcţie în spaţiul cu N dimensiuni. Atunci când a
fost întâlnit un punct de minim (chiar şi local) acesta se opreşte şi soluţia este salvată.
Metoda poate fi iniţiată şi prin utilizarea mai multor puncte, N+1 puncte, deci primul
simplex. Dacă se porneşte de la un singur punct, P0, atunci celelalte puncte ale
simplexului se pot determina utilizând relaţia:

Pi = P0 + λi ⋅ ei i = 1,…,N (5.9)

unde λi este o constantă ce înmulţeşte versorul direcţiei ei. Astfel λi reprezintă scările
pentru fiecare direcţie care sunt utilizate la realizarea simplexului. Există programe care
utilizează de regulă o singură scară.

În urma definirii simplexului algoritmul constă într-o serie de paşi, majoritatea dintre
aceştia constau în mutarea punctelor simplexului din zonele în care valoarile funcţiei sunt
mari către zonele în care valorile funcţiei sunt mai mici. Aceşti paşi sunt paşi de “reflecţie”
sau simplu “reflecţii” şi au caracteristica de a respecta condiţia ca noul simplex să-şi
păstreze volumul constant în zonele în care nu sunt extreme. Mai mult, unii algoritmi
permit chiar o mărire a volumului simplexului, (λi + δλ λi) ceea ce conduce la reducerea
numărului total de simplexuri şi parcurgerea mai rapidă a zonelor lipsite de interes.

La întâlnirea zonelor în care suprafaţa definită de funcăia ce se optimizează suferă o


modificare a pantei, atunci şi coeficienţii de scară se modifică, (λi – δλ λi) generând
simplexuri din ce în ce mai mici, deci o reţea din ce în ce mai fină. Se asigură astfel
apropierea de minim. În aceste zone simplexurile se “contractă”, în scopul de a asigura
mărirea preciziei. În figura 5.4 se prezintă posibilităţile pe care funcţia special proiectată
le îndeplineşte.

Criteriile care conduc la decizia de terminare a procesului de optimizare trebuie să fie


introduse cu mare atenţie. Acest lucru este specific majorităţii metodelor destinate
optimizării funcţiilor de mai multe variabile sau a rezolvării sistemelor de ecuaţii neliniare.
Dificultăţile sunt generate de lipsa unui domeniu bine stabilit în care putem căuta minimul
ca şi de faptul că avem mai multe variabile independente ceea ce face greoaie procedura
utilizată în cazul unei singure variabile. Având în vedere aceste observaţii se poate
adopta opţiunea de terminare a procesului de optimizare prin analizarea vectorului
deplasării pe care o are simplexul nou creat faţă de cel precedent. În cazul în care
această deplasare este mai mică decît o mărime aleasă, notată în program cu tol. De
asemenea se poate impune ca diferenţa dintre valoarea minimă a funcţiei din simplexul
nou şi cea din simplexul anterior să fie mai mică decât o valoare impusă, notată în
program cu tol_1. Deşi ambele criterii au fost introduse în program, acestea pot fi
depăşite la generarea unui simplex atipic. În acest caz, se restartează procesul de
minimizare din punctul în care aceasta a selectat un minim prim reiniţializarea tuturor
variabilelor, astfel se reiniţiază N din cele N+1 versori şi se impune P0 în punctul pe care
rularea anterioară l-a găsit ca fiind minim.
163
Capitolul 5.

În continuare se prezintă funcţia simplexuri destinată detrminării minimului utilizând


această metodă.

Nr. Crt Geometria simplexului pentru cazul 3D

Simplexul de bază

a) Reflecţie.

b) Reflecţie cu
expansiune

c) Contracţie pe o
singură direcţie.

d) Contracţie pe cele
trei direcţii.

Figura 5.4. Aspectul simplexurilor dezvoltate cu ajutorul functiei simplexuri.


164
Capitolul 5.

// Declaraţii din programul principal

5.4.1. Implementarea funcţiei Simplexuri.

#include <math.h>
#include "util.h"
// Cel mai mic număr pentru estimarea poziţiei simplexului.
#define TINY 1.0e-10
//Numărul maxim de evaluări ale funcţiei.
#define NMAX 5000

#define GET_PSUM \
for (j=1;j<=ndim;j++) {\
for (sum=0.0,i=1;i<=mpts;i++) sum += p[i][j];\
psum[j]=sum;}

#define SWAP(a,b) {swap=(a);(a)=(b);(b)=swap;}

// Codul funcţiilor

void simplexuri(float **p, float y[], int ndim, float ftol,float


functieMin(float []), int *nfunk)
{
/*
Minimizarea funcţiei de mai multe variabile functieMin(x) cu x=1..ndim
Utilizand metoda Nelder&Mead
DATE DE INTRARE
functieMin(x) - expresia funcţiei ce se optimizează.
p[1..ndim+1] -simplexul de pornire (soluţia iniţială.
y[1..ndim+1] - valoarea funcţiei in punctele simplexului.
ftol - eroarea de estimare a minimului.
DATE CALCULATE
y[1..ndim+1] - valoarea minimului in punctele ultimului simplex.
P[1..ndim+1] - coordonatele ultimului simplex.
Nfunk - numarul de simplexuri create.
*/
// Variabile intregi

int ndim, i,ihi,ilo,inhi,j,mpts=ndim+1;

// Variabile float
float amotry(float **p, float y[], float psum[];
float functieMin(float []), int ihi, float fac);
float rtol,sum,swap,ysave,ytry,*psum;

psum=vector(1,ndim);
*nfunk=0;
GET_PSUM
for (;;) {
ilo=1;
// Se determină valoarea funcţiei în vîrfurile simplexului şi se
// ordonează crescător

ihi = y[1]>y[2] ? (inhi=2,1) : (inhi=1,2);


for (i=1;i<=mpts;i++) {
if (y[i] <= y[ilo]) ilo=i;
if (y[i] > y[ihi]) {
inhi=ihi;
165
Capitolul 5.

ihi=i;
} else if (y[i] > y[inhi] && i != ihi) inhi=i;
} // end if
rtol=2.0*fabs(y[ihi]-y[ilo])/(fabs(y[ihi])+fabs(y[ilo])+TINY);

// Calculează raportul dintre valorile maxime şi minime ale funcţiei în


// vîrfurile simplexului şi revino în program dacă simplexul nu este
// degenerat.

if (rtol < ftol) { // Dacă da pune pe poziţia 1 virful.


SWAP(y[1],y[ilo])
for (i=1;i<=ndim;i++) SWAP(p[1][i],p[ilo][i])
break;
} // end if
if (*nfunk >= NMAX) nrerror("NMAX exceeded");
*nfunk += 2;

// Incepe o noua iteratie. Inmulţeşte cu -1 faţa opusă vârfului pentru


// care y[] este maximă pentru a face reflexia faţă de acest punct.

ytry=amotry(p,y,psum,ndim,funk,ihi,-1.0);
if (ytry <= y[ilo])

// Se obţine un rezultat mai mic decât minimul din simplexul anterior


// şi se încearcă extinderea simplexului cu scara 2.

ytry=amotry(p,y,psum,ndim,funk,ihi,2.0);
else if (ytry >= y[inhi]) {

// Punctul obţinut prin reflexie nu este aşa de bun ca ca cel cu


// valoarea imediat inferioară celui de-al doilea maxim.
// Se ncearcă o contracţie după direcţia acestei variabile.

ysave=y[ihi];
ytry=amotry(p,y,psum,ndim,funk,ihi,0.5);
if (ytry >= ysave) {

// Nu poate fi eliminat punctul cu valoare maximă.


// Se încearcă contracţia pentru cel cu valoarea minimă.

for (i=1;i<=mpts;i++) {

if (i != ilo) {
for (j=1;j<=ndim;j++)
p[i][j]=psum[j]=0.5*(p[i][j]+p[ilo][j
]);
y[i]=(*funk)(psum);
} // end if
}// end for i

// Păstrează rezultatele evaluării funcţiei.

*nfunk += ndim;
// Recalculează psum.

GET_PSUM
}
} else --(*nfunk);//Corecţie a nr. De iteraţii.
} // Inapoi la testarea unei noi iteraţii. End for
166
Capitolul 5.

free_vector(psum,1,ndim);

} // end functie.

#include "nrutil.h"
float amotry(float **p, float y[], float psum[], int ndim,
float functieMin(float []), int ihi, float fac)
{
/*
Inmulţeşte cu factorul de scară <fac> faţa simplexului opusă valorii maxime.
Incearcă noul rezultat şi înlocuieşte punctul cu valoarea maximă dacă noul
punct este mai bun.
*/

int j;
float fac1,fac2,ytry,*ptry;

ptry=vector(1,ndim);
fac1=(1.0-fac)/ndim;
fac2=fac1-fac;
for (j=1;j<=ndim;j++) ptry[j]=psum[j]*fac1-p[ihi][j]*fac2;

// Evaluează funcţia în cel de-al treilea punct.

ytry=functieMin(ptry);
// Dacă soluţia este mai bună înlocuieşte vârful cu valoare maximă.

if (ytry < y[ihi]) {


y[ihi]=ytry;
for (j=1;j<=ndim;j++) {
psum[j] += ptry[j]-p[ihi][j];
p[ihi][j]=ptry[j];
} // end for
}// end if
free_vector(ptry,1,ndim);
return ytry;
}

5.5. Minimizarea utilizând metode bazate pe direcţii de căutare.

În cubcapitolele 5.1, 5.2 şi 5.3 s-a dezvoltat proceduri de optimizare pentru funcţii de o
singură variabilă. În cazul funcţiilor de mai multe variabile problema apare mult mai
complicată, dar dacă se consideră că se porneşte procesul de căutare a minimului
pornind de la un punct iniţial, P0, şi se continuă căutarea minimului pe direcţia unei axe,
(caz în care doar o singură variabilă poate lua valori), atunci, problema poate fi redusă la
optimizarea unei funcţii de o singură variabilă. Acesta este considerentul pe care se
bazează toate metodele de optimizare de tipul direcţiilor conjugate, Powell, etc.
Toate aceste metode de optimizare au în comun o procedură de tipul:

Fiind dat un punct P, o direcţie n şi o funcţie f, să se determine o nărime scalară, λ, care să


minimizeze funcţia f(P + λ n). Se înlocuieşte P cu P + λ n şi n cu λ n. Sfârşit.

Această procedură este implementată în funcţia C, linMin şi este comună metodelor de


acest tip. Tot o procedură comună acestor algoritmi este şi cea de determinare a direcţiei
167
Capitolul 5.

care conduce cel mai rapid la determinarea minimului. Aceasta este implementată pentru
cazul de faţă în funcţia C denumită linFind şi deoarece este utilizată şi de programe care
folosesc gradienţii funcţiei de optimizat conţine şi utilizarea mărimilor acestora. Prin
neapelarea funcţiilor care calculează gradienţii se poate adapta cu uşurinţă metodelor
mai generale care nu necesită calculul gradienţilor. Acelaşi lucru este valabil şi pentru
linMin.
Modul de lucru al algoritmilor bazaţi pe eceste metode constă în principiu în:

Fiind considerat un set de direcţii e1,e2, …,eN corespunzând fiecărei variabile


independente. Utilizând linMin se face o deplasare spre minim după prima direcţie
şi determină punctul P1, din P1 se face o deplasare spre minimul de pe direcăia P2
şi se continuă procesul de căutare pentru următoarele direcţiii şi aşa mai departe.
Procesul continuă iterativ din punct în punc. Oprirea procesului de căutare a
minimului are loc atunci când valoarea funcţiei în punctul curent nu mai scade.

Observaţii.
Deoarece nu are loc o evaluare în prealabil a direcţiei după care scăderea funcţiei
este maximă procesul poate în unele cazuri să dureze mult mai mult decât ar fi necesar.
Obţinerea unei soluţii cât mai precisă se face prin micşorarea pasului discretizării. De
asemenea este necesară evitarea unui număr mare de iteraţii prin introducerea unor
direcţii de căutare alese cât mai judicios ca şi prin testarea direcţiei pe care valoarea
funcţie scade cît mai rapid.
S-au introdus astfel mai multe variante ale algoritmului.
Acestea se bazează pe alegerea unor direcţii care să evite zonele cu scăderi sau creşteri
bruşte ale funcţiei sau pe căutarea unor direcţii cu proprietatea că minimizarea funcţiei pe
o direcţie să nu fie afectată de celelalte direcţii, astfel încât deolasarea spre minimul
funcţiei să se facă din cât mai puţini paşi.

5.5.1. Metoda Powell pentru funcţii de mai multe variabile.

Direcţiile onjugate.

Dacă se dezvoltă în serie Taylor funcţia f(x1,..,xN) în jurul unui punct P şi se grupează
termenii care conţin prima şi a doua derivată se pot determina direcţiile căutate.

∂fN
∂2 f
f ( x ) = f (P ) + ∑ xi + 0,5∑ xi x j + .... = [C ] − [B ] ⋅ [ X ] + 0,5 ⋅ [ X ] ⋅ [ A] ⋅ [X ] (5.10)
i =1 ∂x i ∂xi ∂x j
Termenii ecuaţiei pot fi scrişi su forma:

[C ] = f ( P)

[B] = − ∂f (5.11)
∂x P

∂2 f
[A] =
∂xi ∂x j
P

Să considerăm că s-a căutat minimul pe un set de direcţii U şi se urmăreşte acum


deplasarea la alt set de direcţii V astfel încât să nu se influenţeze pe cât posibil valoarea
168
Capitolul 5.

obţinută la căutarea anterioară. Această condiţie este îndeplinită dacă gradientul tinde
spre zero, deci direcţiile sunt perpendiculare.

0 = [U ] ⋅ δ (∇f ) = [U ] ⋅ [A] ⋅ [V ] (5.12)

Atunci când [U][A][V]  0 direcţiile [U] şi [V] se numesc conjugate.


Succesul metodelor de optimizare bazate pe metoda căutării optimului pe un set de
direcţii independente este asigurat dacă aceste direcţii sunt conjugate. Din această
cauză primul pas în algoritmul de optimizare constă în determinarea acestor direcţii şi
apoi se realizează dezvoltarea în serii Taylor în jurul punctului curent şi fie se caută cea
mai mică valoare a funcţiei pe direcţiile conjugate sau se rezolvă sistemul:

∇f = [ A] ⋅ [x ] − [b] (5.13)

Obţinerea setului de direcţii conjugate nu este atât de simplă cum pare. Procedura care
este implementată reiniţializează un set de direcţii [U] după ce au fost efectuate N iteraţii
pentru a se evita problemele legate de algoritmul Powell de generare a direcţiilor
conjugate.

Funcţia C destinată optimizării unei probleme mutidimensionale este dată în continuare.

// Librării şi declaraţii necesare în programul principal


#include <math.h>
#include "nrutil.h"
#define TINY 1.0e-25 //Cel mai mic număr
#define ITMAX 200

// Funcţia Powell

void powell(float p[], float **xi, int n, float ftol, int *iter, float
*fret,float functieMin(float []))
{
/*
SCOP
Minimizarea unei funcţii de n variabile.
DATE DE INTRARE
P[1..n] - soliţia iniţială
Xi[1..n][1..n] -matricea setului iniţial de direcţii
Ftol - abaterea admisă asupra valorii funcţiei pentru a se evita
ca aceasta să scadă mai mult decît o valoare admisibilă.
DATE REZULTATE
P[1..n] - soluţia obţinută
Xi[][] - direcţia curentă
Fret - valoarea funcţie în punctul curent
Diter - numărul de iteraţii.
*/

// Declararea funcţiilor accesate


void linmin(float p[], float xi[], int n, float *fret,float functieMin(float
[]));

int i,ibig,j;
float del,fp,fptt,t,*pt,*ptt,*xit;
pt=vector(1,n);
169
Capitolul 5.

ptt=vector(1,n);
xit=vector(1,n);
*fret= functieMin(p);

// Salvarea punctului iniţial


for (j=1;j<=n;j++) pt[j]=p[j];
for (*iter=1;;++(*iter)) {
fp=(*fret);
ibig=0;

// Cea mai mare scădere direcţională

del=0.0;
// Pentru fiecare iteraţie
// 1. Fă ciclu pe toate direcţiile din set
// 1.1 Memorează direcţiile în xit[]
// 1.2 Calculează valoarea funcţiei pentru toate direcţiile setului
// 1.3. Caută minimul pentru fiecare direcţie cu linMin
// 1.4 Memorează valorile care conduc la descreşterea maximă.

for (i=1;i<=n;i++) {
for (j=1;j<=n;j++) xit[j]=xi[j][i];
fptt=(*fret);
linmin(p,xit,n,fret,functieMin);
if (fptt-(*fret) > del) {
del=fptt-(*fret);
ibig=i;
}
}

// Condiţia de terminare.

if (2.0*(fp-(*fret)) <= ftol*(fabs(fp)+fabs(*fret))+TINY) {


free_vector(xit,1,n);
free_vector(ptt,1,n);
free_vector(pt,1,n);
return;
}

// Calculează punctul nou şi distanţa faţă de cel anterior


// Memorează valorile

if (*iter == ITMAX) nrerror("S-a depăşit numărul maxim de iteraţii.");


for (j=1;j<=n;j++) {
ptt[j]=2.0*p[j]-pt[j];
xit[j]=p[j]-pt[j];
pt[j]=p[j];
}

// Calculează valoarea funcţiei în noul punct

fptt=funcieMin(ptt);

// Mutare pe minimul de pe noile direcţii şi salvarea acestora.

if (fptt < fp) {


t=2.0*(fp-2.0*(*fret)+fptt)*SQR(fp-(*fret)-del)-del*SQR(fp-fptt);
if (t < 0.0) {
linmin(p,xit,n,fret,functieMin);
for (j=1;j<=n;j++) {
170
Capitolul 5.

xi[j][ibig]=xi[j][n];
xi[j][n]=xit[j];
}
}
}
} // Următoarea iteraţie
} // End funcţie

5.5.2. Implementarea funcţiei C linMin.

Metoda adoptată pentru linMin se bazează pe cele descrise în 5.1-5.3 dar trebuie făcute
câteva mici modificări pentru a se ţine cont de punctul curent de căutare şi abscisele
(a,b,c) se referă în acest caz la vecinătăţi ale abscisei punctului curent. Se construieşte
astfel o funcţie ce depinde doar de variabila direcţiei dorite, f1D, iar pentru această
funcţie se utilizează procedurile abcDetermin cu derivBrent sau minGolden pentru a
determina minimul acesteia. Se utilizează astfel funcţiile deja descrise în subcapitolele
anterioare pentru a determina minimul căutat.

// Declaraţii librării şi variabile globale

#include “util.h”

// Abaterea admisibilă a valorilor transmise către subrutina de căutare a


//minimului
#define TOL 2.0e-4

int ncom;
float *pcom,*xicom,nrFunctie(float []);

void linMin(float p[], float xi[], int n, float *fret, float functieMin(float
[]))
{
/*
SCOP
Clculul valorii minimului funcţiei functieMin() şi un punct P se caută
minimul acesteia pe direcţia x1 a unui set de direcţii xi[1..n] şi
actualizează noile valori ale coordonatele punctului P.

DATE DE INTRARE
P - poziţia puncului de căutare a minimului
functieMin(xi[]) - expresia funcţiei ce se optimizează
xi[] - coordonatele punctului P
FUNCTII APELATE
Brent
F1D
abcDetermin
DATE REZULTATE
P - noua poziţie a punctului curent
xi[] - noile coordonate ale punctului
fret - valoarea funcţiei în noul punct P

*/
// Declararea funcţiilor apelate
float derivBrent(float ax, float bx, float cx,float functieMin(float), float
tol, float *xmin);
float f1D(float x);
void abcDetermin(float *ax, float *bx, float *cx, float *fa, float *fb,
float *fc, float functieMin(float));
171
Capitolul 5.

// Declararea variabilelor locale


int j;
float xx,xmin,fx,fb,fa,bx,ax;

// Definirea variabilelor globale


ncom=n;
pcom=vector(1,n);
xicom=vector(1,n);
nrfunc=functieMin;

for (j=1;j<=n;j++) {
pcom[j]=p[j];
xicom[j]=xi[j];
}

// Limitele initiale ale domeniului pentru abcDetermin

ax=0.0;
xx=1.0;
abcDetermin(&ax,&xx,&bx,&fa,&fx,&fb,f1dim);
*fret=derivBrent(ax,xx,bx,f1dim,TOL,&xmin);

// Construirea vectorilor actualizaţi cu valorile rezultate

for (j=1;j<=n;j++) {
xi[j] *= xmin;
p[j] += xi[j];
}
// Eliberarea memoriei

free_vector(xicom,1,n);
free_vector(pcom,1,n);
}

// Definirea funcţiei f1D Declaraţii în header

#include "util.h"

// Variabile deja definită în linMin.

extern int ncom;


extern float *pcom,*xicom,(*nrfunc)(float []);
// Funcţie apelată de linMin
float f1D(float x)
{
int j;
float f,*xt;
xt=vector(1,ncom);
for (j=1;j<=ncom;j++) xt[j]=pcom[j]+x*xicom[j];
f=(*nrfunc)(xt);
free_vector(xt,1,ncom);
return f;
}
172
Capitolul 5.

5.6. Metoda gradienţilor conjugaţi pentru funcţii de mai multe variabile.


Să presupunem că avem toate datele necesare pentru a determina într-un punc P atât
valoarea funcţiei cât şi valoarea derivatelor de ordinul întâi a acesteia.
Dacă se consideră dezvoltarea în serie Taylor în jurul unui punct, P, a funcţiei a cărui
optim dorim să-l determinăm, şi se plecă de la premisa că distanţa spre acesta se obţine
cu un minim efort prin urmărirea acelor direcţii pentru care gradienţii funcţiei sunt maximi.
Se pot astfel stabili direcţiile cele mai avantajoase şi prin acesasta se poate micşora
substanţial efortul de calcul. Există însă cazuri când cu toată eficienţa algoritmului, efortul
de calcul al gradienţilor este atât de mare încât metodele descrise anterior sunt mult mai
rapide şi uşor de utilizat.
Dacă se pleacă de la ecuaţia 5.10 pusă sub formă matricială cu relaţiile 5.11 se ob se
oţine:

f ([X ]) ≅ [C ] − [B ] ⋅ [ X ] + [X ]⋅ [A] ⋅ [X ]
1
(5.14)
2

ecuaţie care este pătratică. Se observă că numărul de parametrii necesari rezolvării


ecuaţiei (5.14) este dat de mărimea matricilor [B] şi [A], fiind 0,5N(N+1), deci de ordinul
N2. Modificarea unuia dintre aceştia conduce la modificarea poziţiei punctului generat în
procesul de optimizare. În metoda direcţuulor conjugate, sunt necesare N2 determinări
ale valorii funcţie f pe aceste direcţii pentru a se putea găsi noua poziţie spre minim.
Dacă utilizăm şi gradienţii vom mai adăuga N determinări şi pentru valoarea acestora.
Dar dacă folosim aceste informaţii putem să determinăm mult mai rapid direcţiile pe care
funcţia se îndreaptă spre minim şi ne putem aştepta să micşorăm substanţial efortul de
calcul. În acest scop se poate porni, caşi în metodele care nu utilizează gradienţi, de la o
soluţie arbitrară P0 şi un vector arbitrar g0 şi se consideră h0=g0 .
Se determină noile direcţii conjugate de forma:

g i +1 = g i − λi ⋅ A ⋅ hi
hi +1 = g i +1 + γ i ⋅ hi (5.15)
i = 0,1,2,...

Se pun condiţiile ca vectorii gi+1 şi hi+1 să satisfacă condiţia de ortogonalitate şi să fie


conjugaţi:

gi ⋅ g j = 0
hi ⋅ A ⋅ h j = 0
(5.16)
gi ⋅ h j = 0
j<i

Mărimile scalare λi şi γi se pot determina cu relaţiile:


173
Capitolul 5.

gi ⋅ gi g i ⋅ hi
λi = =
hi ⋅ A ⋅ hi hi ⋅ A ⋅ hi
(5.17)
g ⋅g
γ i = i +1 i +1
gi ⋅ gi

Să presupunem că nu se cunoaşte matricea A şi nu putem determina direcţiile g şi h cu


ajutorul ecuaţiei (5.17) sau noua poziţie a optimului cu ajutorul multiplicatorilor Lagrange
ca în subcapitolul (4.3). De fapt se doreşte reducerea efortului de calcul necesar
determinării Hessianului în cazul unor expresii complicate ale derivatelor de ordinul doi.
Evitarea acestor calcule se poate face prin considerarea în punctul Pi a vectorului
direcţiei gi de forma

g i = − ∇f ( x ) P (5.18)
i

Se determină noul punct Pi+1 cu ajutorul funcţiei linMin şi se cunoaşte gi+1

g i +1 = − ∇f ( x) P (5.19)
i +1

Se determină în continuare

(g i +1 − g i ) ⋅ g i +1
γi = (5.20)
gi ⋅ gi

Programul de calcul se bazează pe descrierea făcută de Fletcher-Reeves-Polak-Ribiere


şi este implementat în funcţia principală frpr_gcm care apelează funcţia linmin pentru a
determina minimul pe direcţiile variabile, funcţia functieMin pentru a calcula valoarea
funcţiei ce se minimizează şi funcţia functieDeriv_1 pentru calculul derivatelor de ordinul
întâi al acesteia.

// Declaraţii în secţiunea variabilelor generale


#include <math.h>
#include "util.h"
#define ITMAX 200
#define EPS 1.0e-10

#define FREEALL free_vector(xi,1,n);free_vector(h,1,n);free_vector(g,1,n);

void frprmn(float p[], int n, float ftol, int *iter, float *fret,float
functieMin(float []), void functieDeriv_1(float [], float []))
{
/*
SCOP
Calculeaza minimul functiei functieMin utilizând metoda gradientilor
gradientilor conjugati.
DATE DE INTRARE
P[1..n] - punctul iniţial
Ftol - criteriul de convergenta
DATE OBTINUTE
P[1..n] - punctul minimului
174
Capitolul 5.

Fret - valoarea minima a funcţiei


*/

void linmin(float p[], float xi[], int n, float *fret,float


functieMin(float []));

int j,its;
float gg,gam,fp,dgg;
float *g,*h,*xi;
g=vector(1,n);
h=vector(1,n);
xi=vector(1,n);

// INIŢIALIZĂRI FUNCŢII

fp=functieMin(p);
functieDeriv_1(p,xi);
for (j=1;j<=n;j++) {
g[j] = -xi[j];
xi[j]=h[j]=g[j];
}
// Ciclul iterativ

for (its=1;its<=ITMAX;its++) {
*iter=its;
// Caută noul punct
linmin(p,xi,n,fret,func);
if (2.0*fabs(*fret-fp) <= ftol*(fabs(*fret)+fabs(fp)+EPS)) {
FREEALL
return;
}
fp= *fret;
functieDeriv_1(p,xi);
dgg=gg=0.0;
for (j=1;j<=n;j++) {
gg += g[j]*g[j];
// dgg += xi[j]*xi[j]; Criteriul Fletcher-Reeves.
dgg += (xi[j]+g[j])*xi[j]; //Criteriul Polak-Ribiere.
}
if (gg == 0.0) {//Solutie neaşteptată Gradient zero.
FREEALL
return;
}
gam=dgg/gg;
for (j=1;j<=n;j++) {
g[j] = -xi[j];
xi[j]=h[j]=g[j]+gam*h[j];
}
}
nrerror("Numarul maxim de iteratii depasit");
}

5.6.1. Funcţia linMinDeriv_1 utilizând derivatele de ordinul întâi.

În cazul în care derivatele funcţiei pot fi calculate fără a întâmpina dificultăţi sau în cazul
în care se utilizează gradienţii este posibilă modificarea funcţiei linMin cu linMinDeriv_1
care utilizează f1D şi df1dim.
175
Capitolul 5.

#include "util.h"
#define TOL 2.0e-4 //Abaterea comună cu dbrent.
int ncom; //Nr. De variabile comune cu f1D.
float *pcom,*xicom,(*nrfunc)(float []);
void (*nrdfun)(float [], float []);

void linMinDeriv_1(float p[], float xi[], int n, float *fret, float


functieMin(float []),void functieDeriv_1(float [], float []))
{
/*
SCOP
Calculeaza valoarea minimă şi poziţia acesteia pentru direcţiile
considerate utilizând şi derivatele funcţiei.
DATE DE INTRARE
P[1..n] - punctul soluţiei curente
Xi[1..n] - direcţia curentă aplicată în punctul P
DATE RETURNATE
P[1..n] - punctul soluţiei ce minimizează funcţia
Xi[1..n] - direcţia nouă
Fret - valoarea funcţiei în noul punct
FUNCTII APELATE
abcDetermin
derivBrent
*/

float derivBrent(float ax, float bx, float cx,


float (*f)(float), float (*df)(float), float tol, float *xmin);
float f1D(float x);
float df1dim(float x);
void abcDetermin(float *ax, float *bx, float *cx, float *fa, float *fb,
float *fc, float functieMin(float));
int j;
float xx,xmin,fx,fb,fa,bx,ax;
ncom=n;
pcom=vector(1,n);
xicom=vector(1,n);
nrfunc=func;
nrdfun=dfunc;
for (j=1;j<=n;j++) {
pcom[j]=p[j];
xicom[j]=xi[j];
}
//Punctele iniţiale de căutare
ax=0.0;
xx=1.0;
abcDetermin(&ax,&xx,&bx,&fa,&fx,&fb,f1dim);
*fret=derivBrent(ax,xx,bx,f1dim,df1dim,TOL,&xmin);

// Construirea vectorilor rezultatelor.

for (j=1;j<=n;j++) {
xi[j] *= xmin;
p[j] += xi[j];
}
free_vector(xicom,1,n);
free_vector(pcom,1,n);
}
176
Capitolul 5.

#include "util.h"
extern int ncom; // Definite în dlinmin.
extern float *pcom,*xicom,(*nrfunc)(float []);
extern void (*nrdfun)(float [], float []);

float df1dim(float x)
{
int j;
float df1=0.0;
float *xt,*df;
xt=vector(1,ncom);
df=vector(1,ncom);
for (j=1;j<=ncom;j++) xt[j]=pcom[j]+x*xicom[j];
(*nrdfun)(xt,df);
for (j=1;j<=ncom;j++) df1 += df[j]*xicom[j];
free_vector(df,1,ncom);
free_vector(xt,1,ncom);
return df1;
}

5.7. Metode bazate pe calculul derivatelor pentru variabile multidimensionale.


Metodele se bazează pe căutarea minimului prin iteraţii sucesive pe cele N dimensiuni
prin utilizarea primelor derivate ale funcţiei obiectiv. Dar spre deosebire de metoda
gradienţilor conjugaţi aceste metode memorează şi actualizează o cantitate mai mare de
date. Din punctul de vedere al eficienţei calculului ca şi al managementului resurselor,
multe softuri complexe moderne utilizează metoda gradienţilor.
Există implementate două variante ale acestor clase de metode, Davidon-Fletcher-
Powell (DFP) şi Broyden-Fletchel-Goldforb-Shanno (BFGS) variante care diferă în modul
de estimare a erorii de calcul a mărimii abaterii admise pentru determinarea soluţiei.
Să considerăm o dezvoltare a funcţiei în jurul unui punct curent x a funcţiei:

1
f ( x ) = f ( x i ) − ( x − x i ) ⋅ ∇f ( x i ) + ( x − x i ) ⋅ A ⋅ ( x − x i )
2
sau:

f ( x) − f ( xi )
= ∇f ( xi ) + A ⋅ ( x − xi ) = ∇f ( x )
x − xi

Dacă impunem pentru determinarea noii iteraţii condiţia: ∇f ( x) = 0 se obţine sistemul de


ecuaţii:

x − x i = − A −1 ⋅ ∇ f ( x i )

Deci cu cât mai precisă este determinarea matricii A-1 cu atât mai precisă va fi valoarea
obţinută pentru noua poziţie a punctului curent în procesul de minimizare. Dar în
metodele de acest tip, valoarea A-1 se determină cu ajutorul unui proces iterativ care s-a
dovedit că este mai eficient decât calculul exact al Hessianului (H = A-1). Metodele ce se
177
Capitolul 5.

bazează pe acest mod de abordare a problemelor de optimizare se numesc “cvasi-


Newtoniene” deoarece nu se foloseşte valoarea exactă a gradienţior ci o valuare
aproximativă, obţinută printr-un calcul iterativ:

lim i →∞ H i = A −1

Aceast mod de abordare pare la prima vedere “paradoxal”, dar dacă ţinem seama că se
caută un minim, deci ne găsim pe direcţii pentru care gradienţii trebuie să îndeplinească
condiţiile:
r
∇f ⋅ p < 0
∇f ( xi ) ⋅ ( x − xi ) = − ( x − xi ) ⋅ A ⋅ ( x − x i ) < 0

care impun ca matricea A să fie întotdeauna pozitiv definită. Dacă s-ar utiliza valoarea
exactă a Hessianului s-ar putea întâlni cazul când funcţia să prezinte o creştere a valorii
şi s-ar depăşi punctul de minim căutat.
Ideea de bază constă în pornirea cu o matrice A de test, de regulă matricea unitară şi
calculul matricii H astfel încât aceasta să rămână în permanenţă pozitiv definită şi
simetrică. Această abordare ne asigură că întotdeauna ne deplasăm spre minim către
valori descrescătoare ale funcţiei pe care o minimizăm. În apropierea minimului se atinge
abia valoarea reală a Hessianului şi se găseşte punctul căutat.
Această strategie este utilizată de metoda Broyden-Fletcher-Goldfarb-Shanon[5.7] (BFGS)
funcţiile C utilizate pentru a descrie metoda fiind bfgs şi funcţia linSrch destinată căutării
valorii minime a funcţiei după o direcţie dată.
#include <math.h>
#include "nrutil.h"

#define ITMAX 200 // Nr.-ul mare de iteraţii


#define EPS 3.0e-8 // Precizia estimării.
#define TOLX (4*EPS) // Abaterea maximă admisă
#define STPMX 100.0 // Nr.-ul de încercări ptr. căutarea min.

#define FREEALL free_vector(xi,1,n);free_vector(pnew,1,n); \


free_matrix(hessin,1,n,1,n);free_vector(hdg,1,n);free_vector(g,1,n); \
free_vector(dg,1,n);

void bfgs(float p[], int n, float gtol, int *iter, float *fret,
float(*func)(float []), void (*dfunc)(float [], float []))
{
/*
SCOP
Determinarea minimului prin metoda Fletchel-Powell în varianta Broyden-
Fletchel-Goldfarb-Shanno.
INTRARE:
P[1..n] - punctul de pornire în căutarea minimului.
Func - funcţia ce se minimizează
dFunc - gradienţii funcţiei
gTol - abaterile de la zero pentru gradienţii funcţiei.
REZULTATE:
P[1..n] - punctul de minim
fRet - valoarea minimă a funcţiei
FUNCTII APELATE:
lnSrc - se utilizează pentru a căuta minimul pe o direcţie.
178
Capitolul 5.

*/

void lnSrch(int n, float xold[], float fold, float g[], float p[], float
x[],float *f, float stpmax, int *check, float (*func)(float []));

int check,i,its,j;
float den,fac,fad,fae,fp,stpmax,sum=0.0,sumdg,sumxi,temp,test;
float *dg,*g,*hdg,**hessin,*pnew,*xi;
dg=vector(1,n);
g=vector(1,n);
hdg=vector(1,n);
hessin=matrix(1,n,1,n);
pnew=vector(1,n);
xi=vector(1,n);

// Calculează valoarea funcţiei şi a derivatelor şi iniţiază matricea


// Hessiană la matrice unitară.

fp=(*func)(p);
(*dfunc)(p,g);
for (i=1;i<=n;i++) {
for (j=1;j<=n;j++) hessin[i][j]=0.0;
hessin[i][i]=1.0;
xi[i] = -g[i];
sum += p[i]*p[i];
}
stpmax=STPMX*FMAX(sqrt(sum),(float)n);

// Ciclul peste numărul de iteraţii

for (its=1;its<=ITMAX;its++) {
*iter=its;

// Se evaluează cu lnSrch direcţia de căutare a minimului şi valoarea


// întoarsă se memorează în fp

lnSrch(n,p,fp,g,xi,pnew,fret,stpmax,&check,func);

fp = *fret;
for (i=1;i<=n;i++) {
xi[i]=pnew[i]-p[i];
p[i]=pnew[i];
}
test=0.0;
for (i=1;i<=n;i++) {
temp=fabs(xi[i])/FMAX(fabs(p[i]),1.0);
if (temp > test) test=temp;
}
if (test < TOLX) {
FREEALL
return;
}
// Salvează valorile gradienţilor şi recalculează noile valori.

for (i=1;i<=n;i++) dg[i]=g[i];


(*dfunc)(p,g);
// Verifică dacă gradienţii sunt zero

test=0.0;
den=FMAX(*fret,1.0);
179
Capitolul 5.

for (i=1;i<=n;i++) {
temp=fabs(g[i])*FMAX(fabs(p[i]),1.0)/den;
if (temp > test) test=temp;
}
if (test < gtol) {
FREEALL
return;
}
for (i=1;i<=n;i++) dg[i]=g[i]-dg[i];
for (i=1;i<=n;i++) {
hdg[i]=0.0;
for (j=1;j<=n;j++) hdg[i] += hessin[i][j]*dg[j];
}
fac=fae=sumdg=sumxi=0.0;
for (i=1;i<=n;i++) {
fac += dg[i]*xi[i];
fae += dg[i]*hdg[i];
sumdg += SQR(dg[i]);
sumxi += SQR(xi[i]);
}
if (fac > sqrt(EPS*sumdg*sumxi)) {
fac=1.0/fac;
fad=1.0/fae;
for (i=1;i<=n;i++) dg[i]=fac*xi[i]-fad*hdg[i];
for (i=1;i<=n;i++) {
for (j=i;j<=n;j++) {
hessin[i][j] += fac*xi[i]*xi[j]
-fad*hdg[i]*hdg[j]+fae*dg[i]*dg[j];
hessin[j][i]=hessin[i][j];
}
}
}
for (i=1;i<=n;i++) {
xi[i]=0.0;
for (j=1;j<=n;j++) xi[i] -= hessin[i][j]*g[j];
}
}
nrerror("Prea multe iteratii in bfgs");
FREEALL
}

5.8 Programarea liniară. Metoda Simplx.


În cazul general optimizarea utilizând programarea liniară se poate exprima astfel

Să se determine maximul funcţiei z ce depinde de N variabile independente,

max( z = a 01 ⋅ x1 + a 02 ⋅ x 2 + ... + a 0 N ⋅ x N ) (5.8.1)

cu restricţiile banale:

x1 ≥ 0 ; x 2 ≥ 0 ; ... ; x N ≥ 0 (5.8.2)

şi restricţii nebanale de tipul, I, II şi III. Fie m1 restricţii de tipul I, m2 restricţii de


tipul II respectiv m3 numărul de restricţii de tipul III. Numărul de restricţii va fi:
180
Capitolul 5.

M = m1 + m2 + m3.

Restricţiile de tipul I sunt de forma:

bi ≥ a i1 ⋅ x1 + ai 2 ⋅ x 2 + ... + aiN ⋅ x N (5.8.3)


unde:
bi ≥ 0
i = 1,..., m1

Restricţiile de tipul II sunt de forma:

b j ≤ a j1 ⋅ x1 + a j 2 ⋅ x 2 + ... + a jN ⋅ x N (5.8.4)
unde:
bj ≥ 0
j = 1,..., m2

Restricţiile de tipul III sunt de forma:

bk = a k1 ⋅ x1 + a k 2 ⋅ x 2 + ... + a kN ⋅ x N (5.8.5)
unde:
bk ≥ 0
k = 1,..., m3

Coeficienţii restricţiilor şi ai funcţiei de optimizat pot avea orice valoare.

5.8.1. Terminologia specifică metodei.

Un set de valori x1…xN care satisface condiţiile I, II şi III este numit vector candidat iar
funcţia ce se optimizează se numeşte de oboicei funcţie scop sau funcţie obiectiv.
Un vector candidat care maximizează funcţia obiectiv se numeşte vector candidat
optimal. În ciuda faptului că se asigură optimul funcţiei, un astfel de vector nu este
optimul căutat atunci când:
a) restricţiile conduc la un sistem incompatibil şi nu avem un vector candidat viabil,
b) nu putem fi siguri ca am găsit un maxim deoarece există variabile care pot lua
valori oricît de mari fără să influenţeze restricţiile impuse şi se obţine o valoare
nemărginită a funcţiei obiectiv.

5.8.2. Importanţa metodei.

Metoda prezintă avantaje deosebita în cazul aplicării în practică deoarece:


- Toate mărimile pe care le putem introduce sub formă de parametrii au valori
pozitive, de exemplu timpul de menţinere peste 800oC, între 500oC şi 800oC,
rezilienţa, temperatura de preâncălzire, temperatura între treceri, preţul de cost,
diametrul electrodului, densitatea curentului, etc, deci ec 5.8.2 este îndeplinită.
181
Capitolul 5.

- Se pot introduce un număr nelimitat de restricţii liniare sau care pot fi liniarizate
astfel încât să se atingă probleme diverse legate atât de restricţiile tehnologice
cât şi de aspecte economice şi se complectează astfel restricţiile date de
ecuaţiile 5.8.3-5.8.5.
- Faptul că funcţia obiectiv este liniară nu este un inconvenient foarte mare
deoarece aceasta poate fi uşor liniarizată pe subintervale şi printr-o aplicare
repetată a algoritmului pe acestea se poate găsi optimul căutat.

Exemplul 8.1

Să se rezolve problema de optimizare:

Maxim z = x1 + x 2 + 3 ⋅ x3 − 0,5 ⋅ x 4 (5.8.6)

Cu restricţiile nebanale:

x1 + 2 ⋅ x3 ≤ 740 (tip I )
2 ⋅ x2 − 7 ⋅ x4 ≤ 0
(5.8.7)
x 2 − x3 + 2 ⋅ x 4 ≥ 0,5 (tip II )
x1 + x 2 + x3 + x 4 = 9 (tip III )

Se observă că N = 4 şi m1 = 2, m2 = m3 = 1 deci M = 2 + 1 + 1 = 4.

5.8.3. Consideraţii de bază.

Să considerăm că avem posibilitatea să definim un număr mare de vectori candidaţi, ce


putem să facem în prima fază a procesului? Se verifică dacă aceste posibile soluţii
îndeplinesc restricţiile de tipul egalităţilor şi a inegalităţilor. De fapt în acest moment
obţinem domeniul de admisibilitate a soluţiei. Spre exemplu, pentru cazul a două
variabile se poate obţine situaţia din figura 5.8.1. În acest caz, fiind doar două variabile,
domeniul în care se caută optimul este un plan şi definirea acestuia devine mult mai
intuitivă deoarece toate restricţiile nebanale ale problemei nu fac decât să limiteze
domeniul de admisibilitate la zone ale planului aflate peste sub sau pe dreapta descrisă
de restricţie. Deci se împarte semiplanul aflat în primul cadran în zone admisibile şi
inadmisibile. Avem astfel definit domeniul de admisibilitate al soluţiei. În interiorul acestui
domeniu se găseşte soluţia problemei, dar cum o putem determina ?
Dacă vom reprezenta funcţia obiectiv, aceasta în cazul de faţă va fi tot o dreaptă.
Optimul valorii acesteia fiind într-unul dintre vîrfurile domeniului. Ar fi eficient să se
determine punctele de intersecţie ale dreptelor ce definesc domeniul de admisibilitate şi
să se verifice valoarea funcţiei obiectiv în acestea pentru a se obţine maximul căutat. Dar
dacă pentru un număr restrâns de parametrii această metodă ar fi eficientă, în cazul
general este eficientă utilizarea unui punct din interiorul domeniului, trasarea funcţiei
obiectiv prin acest punct şi verificarea intersecţiilor dintre aceasta şi frontierele
domeniului. De fapt, în algoritmul implementat, se verifică valoarea gradientului în acest
punct şi urmează deplasarea pe direcţia acestuia până când se întâlneşte o frontieră a
acestuia. Dacă s-a depăşit limita domeniului atunci se revine până la intersecţia cu unul
182
Capitolul 5.

din vârfurile acestuia sau se caută cel mai apropiat vârf. Acest punct are toate
coordonatele definite astfel încât să satisfacă sistemul de restricţii şi asigură şi maximul
uncţiei obiectiv.
Punctele care formează soluţiile candidate şi satisfac şi restricţiile în cazul în care
acestea sunt înlocuite cu egalităţi sunt denumite vectorii candidaţi de bază. Dacă N > M
atunci un vector candidat din bază are N – M componente egale cu zero în conformitate
cu restricţia 5.8.2. Altfel spus, cel puţin M componente ale vectorilor candidaţi ai bazei
pot fi diferite de zero.
Se poate astfel exprima teorema fundamentală a optimizării liniare sub forma:

Dacă există un vectori candidaţi, atunci soluţia optimă se va găsi într-un vector
candidat al bazei.

Prima abordare a acestei metode a fost dată de Danzing în 1946 [5.8.2] sub forma modului
de organizare a algoritmului de calcul. Astfel,
- se generează şi se verifică o mulţime de combinaţii ale variabilelor astfel încât
funcţia obiectiv să ia valori crescătoare.
- Vectorul candidat optim se determină după un număr de iteraţii egal cu
maximul dintre N şi M.

5.8.4. Metoda Simplex sub formă canonică.

O problemă de programare liniară se consideră adusă la forma normală dacă toate


restricţiile de formă inegalitate sunt transformate în restricţii de tip egalitate.
Rezolvarea problemei necesită însă aducerea acesteia sub o formă mult mai restrictivă
prin impunerea unor condiţii noi asupra ecuaţiilor devenite acum egalităţi. Astfel fiecare
ecuaţie aflată sub forma (5.8.4) trebuie să aibă cel puţin o variabilă al cărui coeficient să
fie pozitiv şi această variabilă trebuie să aparţină numai acestei ecuaţii. Se ajunge astfel
la micşorarea numărului de ecuaţii ce conţin restricţii pentru a fi îndeplinită această
condiţie. În acst mod se selectează un set de variabile împreună cu ecuaţiile de restricţie
aferente. Ecuaţiile astfel selectate vor fi utilizate pentru a exprima aceste necunoscute în
funcţie de celelalte necunoscute. De fapt, restricţiile au o formă specifică, în partea
dreaptă apar variabilele selectate iar în partea stângă expresia acestora în funcţie de
celelalte variabile, ca în ecuaţiile (5.8.9). S-a obţinut astfel o separare a variabilelor în
variabile din partea stîngă a restricţiei, numita şi variabile din bază, şi variabile din partea
dreaptă a restricţiei sau variabile care nu se găsesc în bază. Numărul de variabile din
stânga sunt în cazul general M ( dacă există restricţii de tip egalitate acestea vor fi m3).
Restul de N - M variabile sunt deci variabile din dreapta. Acest fapt impune ca numărul
de variabile din bază să fie mai mic decât numărul total de variabile, M ≤ N . Se ajunge
astfel la forma canonică aproblemei. Această formă nu este de loc restrictivă aşa cum s-
ar părea la prima vedere deoarece pe parcursul rezolvării problemei intră în setul de
restricţii noi restricţii cu noi variabile şi ies alte restricţii cu variabilele din stânga aferente.
183
Capitolul 5.

Figura 5.8.1. Domeniul de valabilitate a soluţiilor posibile în cazul existenţei restricţiilor de tip
inegalitate şi a restricţiilor de tip egalitate pentru o problemă de optimizare ce depinde de doi
parametrii.

Exemplul 8.2.

Sub forma normală o problemă de programare liniară poate fi scrisă astfel:

Maximul z = 2 ⋅ x 2 − 4 ⋅ x3 (5.8.8)

unde x1,x2,x3,x4 sunt pozitive şi condiţiile din setul de bază sunt:

x1 = 2 − 6 ⋅ x 2 + x3
(5.8.9)
x 4 = 8 + 3 ⋅ x 2 − 4 ⋅ x3

Astfel în setul de bază avem M = 2 restricţii şi N = 4 variabile necunoscute, dintre


care x1 şi x4 sunt variabile din partea stângă iar x2 şi x3 sunt în partea dreaptă.
Se observă că funcţia obiectiv a fost scrisă astfel încât să depindă doar de
variabilele din partea dreaptă. Acest lucru se obţine prin înlocuirea variabilelor din
partea stângă cu expresia acestora din restricţiile din bază.

Problema fiind liniară, reducerea la forma canonică se face cu relativă uşurinţă mai ales
că nu este obligatoriu să se pornească de la un set de variabile şi restricţii cât mai
apropiat de soluţia optimă. Valorile xariabilelor din partea dreaptă se obţin de regulă prin
184
Capitolul 5.

înlocuirea cu zero a variabilelor din partea stângă în ecuaţiile restricţiilor care intră în
bază (5.8.9). Astfel, pentru cazul considerat x1 = 2 şi x4 = 8.
Modul de lucru în programarea numerică constă în modificările pe care le suferă vectorul
variabilelor din stînga (variabilele din bază) prin înlocuirea variabilelor din acesta cu
variabille aflate în partea dreaptă cu scopul de a se obţine în permanenţă o creştere a
valorii funcţiei obiectiv şi a se păstra totuşi forma canonică a problemei.
Modul de operare a algoritmului este mai simplu de urmărit dacă se utilizează o formă
tabelară de lucru, formă care este asemănătoare cu modul de lucru al algoritmului.
Astfel, dacă se pun variabilele din partea stângă pe rânduri şi cele din partea dreaptă pe
coloane se obţine tabelul 5.8.1. Se uşurează astfel verificarea intrărilor şi părăsirrilor
vectorului variabilelor din bază ca şi ecuaţiile care formează problema canonică.

Tabelul 5.8.1
x2 x3 Variabile dreapta
Funcţia obiectiv z 0 2 -4
Variabile din bază x1 2 -6 1
(stânga) x4 8 3 -4

Primul pas în algoritmul Simplex constă în verificarea rândului funcţiei obiectiv, rândul
notat cu z în tabelul 5.8.1.

Pasul 1.
Se caută în coloanele ce corespund variabilelor din dreapta coeficientul cu
valoarea pozitivă cea mai mare, deci max{2,-4}  2 ceea ce reprezintă faptul că
influenţa maximă asupra creşterii valorii funcţiei z o are variabila x2.
Dacă toate valorile sunt negative atunci nici o variabilă din partea dreaptă nu mai
poate produce o creştera a funcţiei obiectiv şi s-a obţinut valoarea maximă a
funcţiei obiectiv.
Pasul 2.
Se caută în coloanele ce reprezintă coeficienţii variabilelor din dreapta în ecuaţiile
restricţiilor (5.8.9) pentru a vedea cât de mult poate creşte variabila x2 pentru a
aduce una din variabilele din stânga la valori negative. Se caută de fapt cea mai
mică valoare negativă a coeficienţilor ce înmulţesc variabila aleasă la pasul 1 în
ecuaţiile restricţiilor, în cazul de faţă, min{-6,3} -6, dar acesta este coeficientul
din restricţia variabilei de bază x1.
Dacă toţi coeficienţii căutaţi sunt pozitivi atunci se încheie procesul de calcul şi se
afişază soluţia.
Pasul 3.
Se introduce în bază variabila x2 şi se extrage din bază variabila x1.
Pentru a face aceasta trebuie reactualizată forma canonică a problemei.
Deci, se exprimă restricţia în funcţie de x2 (noua variabilă ce intră în bază).

2 1 1
x1 = 2 − 6 ⋅ x 2 + x3 → x2 = − x1 + x3 (5.8.10)
6 6 6
185
Capitolul 5.

Se actualizează funcţia obiectiv şi celelalte restricţii prin înlocuirea variabilei x2 cu


expresia ei în funcţie de x1 şi x3,

1 x x  2 x 11
z = 2 ⋅ x 2 − 4 ⋅ x3 = 2 − 1 + 3  − 4 ⋅ x3 = − 1 − x3 (5.8.11)
3 6 6 3 3 3
x 7
x 4 = 8 + 3 ⋅ x 2 − 4 ⋅ x3 → x 4 = 9 − 1 − x3 (5.8.12)
2 2

Se reactualizează tabelul 5.8.1 cu noile variabile din stânga şi noii coeficienţi.

Tabelul 5.8.2
Variabile dreapta
x1 x3
Funcţia obiectiv z 2/3 -1/3 -11/3
Variabile din bază x2 1/3 -1/6 1/6
(stânga) x4 9 -1/2 -7/2

Pasul 4.
Constă în reluarea pasului 1 şi căutarea unor noi creşteri a funcţiei obiectiv.
Cum în cazul de faţă, pe rândul funcţiei obiectiv toţi coeficienţii variabilelor din
dreapta sunt negativi, se poate afişa soluţia:

2
z= ← max
3
x1 = 0 (din dreapta)
1
x2 = (5.8.13)
3
x3 = 0 (din dreapta )
x4 = 9

Dacă se defineşte pivotul ca fiind coeficientul variabilei care intră în bază atunci se poate
defini algoritmul de rezolvarea a problemei mult mai simplu:

 Se găseşte elementul care intră în bază şi se memorează poziţia acestuia


 Se memorează într-o variabilă separată întreaga coloană ce aparţine pivotului
 Se înlocuiesc rândurile sistemului cu excepţia celui pe care se găseşte pivotul cu
o combinaţie liniară de aşa manieră încât coloana pivotului să devină nulă.
 Se împarte rândul pivotului la valoarea pivotului şi se înmulţeşte totul cu -1.
 Se înlocuieşte elementul pivot prin următoarea valoare din coloana acestuia.
 Se actualizează coloana pivotului prin împărţirea acesteia la valoarea pivotului.

Utilizarea acestui algoritm permite rezolvarea problemelor de programare liniară date sub
formă canonică (redusă sau normală). Singurul caz care nu poate fi rezolvat este cel
care conduce la valori zero atât pentru variabilele din stânga cât şi pentru cele din
dreapta, caz despre care se spune că conduce la vectori degeneraţi ai bazei.
186
Capitolul 5.

5.8.6. Aducerea problemei generale la forma canonică.

Procesul de rezolvare a problemelor de programare liniară se bazează pe transformarea


formei generale a problemei într-o formă canonică care poate fi rezolvată mault mai uşor
prin utilizarea metodelor numerice.
În principiu, acest proces se bazează pe următoarele etape:
Aducerea inecuaţiilor la ecuaţii prin adăugarea unor variabile de ajustare, notate
mai departe cu y. Aceste variabile sunt în număr egal cu cel al restricţiilor de tip I şi II,
deci m1 + m2. Semnul acestora depinzând de tipul inecuaţie. Ca indicaţie, restricţiile
trebuie puse sub forma din exemplul 8.1. Ţinând seama de restricţia de pozitivitate pe
care şi aceste variabile trebuie să o îndeplinească, rezultă că în cazul în care partea din
stânga este mai mică decât partea din dreapta acestea se vor aduna iar în caz contrar se
vor scădea. Pentru exemplul 5.8.1 restricţiile devin:

1 ⋅ x1 + 0 ⋅ x 2 + 2 ⋅ x3 + 0 ⋅ x 4 + y1 = 740
0 ⋅ x1 + 2 ⋅ x 2 + 0 ⋅ x3 − 7 ⋅ x 4 + y 2 = 0
(5.8.14)
0 ⋅ x1 + 1 ⋅ x 2 − 1 ⋅ x3 + 2 ⋅ x 4 − y 3 = 0,5
1 ⋅ x1 + 1 ⋅ x 2 + 1 ⋅ x3 + 1 ⋅ x 4 =9

Aducerea sistemului ecuaţiilor restricţiilor la forma necesară rezolvării se face prin


utilizarea unui set de M variabile adiţionare, z. Aceste variabile sunt introduse pentru a se
uşura procesul rezolvării cât şi programarea numerică. Prin trecerea în partea dreaptă a
variabilelor deja existente, rezultă:

z1 = 740 − x1 − 2 ⋅ x3 − y1
z 2 = −2 ⋅ x 2 + 7 ⋅ x 4 − y 2
(5.8.15)
z 3 = 0,5 − x 2 + x3 − 2 ⋅ x 4 + y 3
z 4 = 9 − x1 − x 2 − x3 − x 4

S-a ajuns la forma căutată, cu preţul introducerii unui număr mult mai mare de variabile.
Cu toate aceastea, prin artificiile efectuate, valoarea acestor variabile nu influenţează
rezultatul problemei şi mai mult toate variabilele adiţionale sunt nule.

Se utilizează în continuare funcţia obiectiv, dar se recurge la un proces mai puţin


utilizat deoarece trebuiesc introduse şi variabilelor notate cu y şi z.
Într-o primă fază se scrie o nouă funcţie obiectiv, formată prin suma variabilelor auxiliare.
Aceste variabile sunt nule iar suma lor va fi nulă şi ea, dar ne permite să facem legătura
dintre variabilele introduse pentru a transforma inecuaţiile în ecuaţii şi cele adiţionale şi
variabilele problemei reale. Această nouă funcţie obiectiv o vom numi “funcţie obiectiv
auxiliară” şi deoarece este forată prin însumarea variabilelor adiţionale se va nota cu z’.
Pentru exemplul 5.8.2 această funcţie are forma:

1
z ' = − z1 − z 2 − z 3 − z 4 = 2 ⋅ x1 + 4 ⋅ x 2 + 2 ⋅ x3 − 4 ⋅ x 4 + y1 + y 2 − y 3 − (749 + ) (5.8.16)
2

În continuare se rezolvă problema de programare liniară canonică, formată din


maximizarea funcţiei z’ împreună cu sistemul de restricţii (5.8.15) în scopul obţinerii unui
187
Capitolul 5.

set de variabile de bază (din stânga) care să fie format din variabilele xi şi yi şi toate
variabilele zi să fie în partea dreaptă. Se obţine astfel setul de ecuaţii de restricţie sub
formă normală pentru al doilea stadiu de rezolvare a problemei şi se elimină variabilele zi
din problemă ceea ce conduce la obţinerea unui set de variabile din stânga viabil. Scopul
acestei prime faze de rezolvare a problemei constă de fapt în obţinerea setului de
variabile din bază doar funcţie de variabilele xi şi yi. Dacă nu se poate obţine un set de
variabile din bază, deci dacă nu toate variabilele zi pot fi mutate în partea dreaptă atunci
problema nu admite soluţie şi procesul de optimizare se încheie. De regulă se analizează
în acest caz restricţia sau restricţiile a cărei sau a căror variabile artificiale (zi) nu au putut
fi eliminate din bază, se redefinesc aceste restricţii şi se încearcă din nou rezolvarea
problemei.
În ce-a de-a doua fază a optimizării se utilizează setul de variabile din stînga obţinut în
prima fază împreună cu funcţia obiectiv originală pentru a se obţine maximul dorit ca şi
valorile parametrilor xi care conduc la acesta.
Programul destinat rezolvării acestor probleme foloseşte alocarea variabilelor sub o
formă cât mai eficientă, astfel aceeaşi alocare de variabile este valabilă pentru ambele
faze ale rezolvării. Forma generală a acestuia este dată în tabelul 5.8.3.

Tabelul 5.8.3. Forma canonică pentru prima fază a problemei.


x1 x2 x3 x4 y1 y2 y3
z 0 1 1 3 -0,5 0 0 0
z1 740 -1 0 -2 0 -1 0 0
z2 0 0 -2 0 7 0 -1 0
z3 0,5 0 -1 1 -2 0 0 1
z4 9 -1 -1 -1 -1 0 0 0
z’ -749,5 2 4 2 -4 1 1 -1

Această aranjare a datelor este intuitivă, în zona coloanelor xi şi a liniilor z şi zi apar


coeficienţii din problema pusă sub formă iniţială, ceea ce este uşor de programat. Suma
pe coloane a acestor coeficienţi (cu semnul schimbat) apare în rândul corespunzător
funcţiei auxiliare de optimizare, z’. Semnul variabilelor yi depinde de semnul inecuaţieie
iar valoarea acestora este unitară.
Modul de ieşire dintr-o rutină simplex poate fi:

(i) – o variabilă booleană care conţine informaţia referitoare la tipul de soluţie


determinat. Soluţie validă, soluţie imposibilă sau soluţie infinită.
(ii) – o variabilă de tip matrice ( tablou) care conţine soluţia. Pentru problema
prezentată în exemplul 5.8.1. aceasta este.

Tabelul 5.8.4. Modul de salvare a datelor soluţiei.


x1 y2 y3 - - - -
z 17,03 -0,95 -0,05 -1,05 - - - -
x2 3,33 -0,35 -0,15 0,35 - - - -
x3 4,73 -0,55 0,05 -0,45 - - - -
x4 0,95 -0,1 0,1 0,1 - - - -
y1 730,55 0,1 -0,1 0,9 - - - -

Informaţiile utile sunt cuprinse într-o zonă mult mai redusă a tabelului general, doar N +1-
m3 coloane şi M + 1 rânduri. Variabilele se află în prima coloană şi valorile acestora în
188
Capitolul 5.

cea de-a doua coloană. După cum se observă în vectorul soluţiei apare şi variabila y1,
valoarea acesteia corespunzând limitei peste care restricţia ce corespunde acesteia nu
mai este îndeplinită. Variabilele care nu se găsesc în vectorul soluţiei (nu sunt în partea
stângă, sau nu se găsesc în vectorul bazei) vor lua valoarea zero. De asemenea
variabilele yi care au valoarea zero indică faptul că restricţia care corespunde acestei
variabile în urma înlocuirii soluţiei devine egalitate.
Soluţia problemei din exemplul 5.8.2, cu aceste observaţii, va fii:

x1 = 0
x 2 = 3,33
(5.8.17)
x3 = 4,73
x 4 = 0,95

5.8.6. Observaţii asupra implementării metodei.

S-a urmărit implementarea dată de Kuenzi, ş.a [5.8.4]. După ce s-au definit mărimile,
N,M,m1,m2,m3 se dimensionează matricea a[M+2][N+1] care conţine coeficienţii funcţiei
obiectiv pe primul rând urmate de coeficienţii restricţiilor de tipul I, II şi III aşa cum se
indică în tabelul 5.8.3. Aceste intrări ocupă M + 1 rânduri şi N + 1 coloane din a[1…m +
1][1…n + 1]. Pe rândul M + 2 se găseşte funcţia obiectiv adiţională, z’. Este foarte
important ca restricţiile să fie scrise în funcţie de tipul acestora, restricţii de tipul I, urmate
de restricţiile de tipul II şi la final se trec restricţiile de tipul egalitate III.
Se utilizează doi vectori pentru indecşi:
iposv[j = 1..M]  care conţine iniţial indecşii variabilelor principale şi la finalul
rulării indecşii variabilelor din stânga (soluţia). Dacă valoarea acestui indice este
mai mare decât N, atunci referirea se face la o variabilă yi şi valoarea acesteia nu
va fi cuprinsă în soluţie.

izrov[j = 1..N]  care conţine indecşii variabileor care se găsesc în dreapta deci
nu sunt în soluţie. Dacă valoarea acestora I = izrov[j] <= N atunci valoarea
variabilei x[i] va fi nulă deoarece aceasta se găseşte în partea dreaptă. Dacă N < I
= izrov[j] < N+m1+m2 atunci se indexează variabilele yi şi dacă
i=izrov[j]>N+m1+m2 atunci se face adresarea variabilelor zi, care sunt privite ca
variabile interne programului şi în procesul de afişare a rezultatelor se anulează.

icase  variabilă întreagă de control cu scopul de a monitoriza tipul problemei şi


compatibilitatea soluţiei determinate. Valorile acestui control sunt:
0  dacă există o soluţie valabilă care să îndeplinească atât sistemul de
restricţii cât şi maximul funcţiei obiectiv.
-1  dacă sistemul de restricţii este îndeplinit dar funcţia obiectiv este
nemărginită.
+1  dacă nici o soluţie nu poate îndeplini condiţiile impuse de sistemul de
restricţii.
În continuare sunt listate funcţiile C care dezvoltate pentru a rezolva probleme de
programare liniară.

5.8.7. Funcţii C destinate rezolvării problemelor de programare liniară cu metoda


simplex.
189
Capitolul 5.

#include <math.h>
#include "util.h"
#define EPS 1.0e-6 // EPS este precizia absoluta valabila pentru
precizie float.
#define FREEALL free_ivector(l3,1,m);free_ivector(l1,1,n+1);
void simplx(float **a, int m, int n, int m1, int m2, int m3, int *icase,int
izrov[], int iposv[])
{
/*
SCOP
Metoda Simplex pentru programare liniara.
INTRARI:
a, m, n, mp, np, m1, m2, m3
REZULTATE
icase
izrov
iposv
FUNCTII APELATE
simp1
simp2
simp3

*/
void simp1(float **a, int mm, int ll[], int nll, int iabf, int *kp, float
*bmax);
void simp2(float **a, int m, int n, int *ip, int kp);
void simp3(float **a, int i1, int k1, int ip, int kp);
int i,ip,is,k,kh,kp,nl1;
int *l1,*l3;
float q1,bmax;
if (m != (m1+m2+m3)) nrerror("Numarul de restrictii este gresit in
<<simplex>>");
l1=ivector(1,n+1);
l3=ivector(1,m);
nl1=n;
for (k=1;k<=n;k++) l1[k]=izrov[k]=k;

// Initializeaza lista indecsilor coloanelor admisibile pentru schimb


// si aducerea variabilelor la starea initiala.

// Se verifica pozitivitatea restrictiilor. Daca sunt in primul cadran.


for (i=1;i<=m;i++) {
if (a[i+1][1] < 0.0) nrerror("Intrarile nu sunt in primul cadran in
<<simplx>>");

// Constantele bi trebuie sa fie pozitive.


iposv[i]=n+i;
// Initializeaza variabilele din partea stinga fara variabile artificiale
//m1//
// m2 cu variabilele de completare la egalitate cu semn minus
// m3 cu variabilele arificiale
}

if (m2+m3) { //Originea nu apartine domeniului de valabilitate a //


// problemei, FAZA 1
for (i=1;i<=m2;i++) l3[i]=1; //Initializeaza lista de restrictii
pentru m2 si adauga variabilele artificiale
for (k=1;k<=(n+1);k++) { // Calculeaza functia obiectiv
auxiliara.
190
Capitolul 5.

q1=0.0;
for (i=m1+1;i<=m;i++) q1 += a[i+1][k];
a[m+2][k] = -q1;
}

for (;;) {
// Determina coficientii maximi ai functiei auxiliare fn.
simp1(a,m+1,l1,nl1,0,&kp,&bmax);
if (bmax <= EPS && a[m+2][1] < -EPS) {
*icase = -1;

// Functia obiectiv auxiliara este negativa si nu poate fi valabila, deci nu


avem solutii candidate.

FREEALL return;
} else if (bmax <= EPS && a[m+2][1] <= EPS) {

/* Functia obiectiv auxiliara este nula si nu poate fi marita.


Exista solutie de pornire candidata.
Sterge variabilele artificiale ce corespund restrictiilor egalitate prin
goto one
si mutarea la pasul doi.

*/
for (ip=m1+m2+1;ip<=m;ip++) {
if (iposv[ip] == (ip+n)) {
// S-a gasit o variabila artificiala pentru o restrictie egalitate.
simp1(a,ip,l1,nl1,1,&kp,&bmax);
if (bmax > EPS)

//Exchange with column corresponding to maximum ivot element


// Schimba cu coloana corespunzatoare la valoarea maxima din rindul pivot-ului.

goto one;
}
}

// Schimba semnul rindurilor pentru restrictiile care ramin in baza initiala.


for (i=m1+1;i<=m1+m2;i++)
if (l3[i-m1] == 1)
for (k=1;k<=n+1;k++)
a[i+1][k] = -a[i+1][k];
break;
// Go to catre two.
}

// Sa gasit un element pivot (faza unu )

simp2(a,m,n,&ip,kp);

//Maximul functiei obiectiv auxiliare nu are limita. Solutia de baza nu


//exista.

if (ip == 0) {
*icase = -1;
FREEALL return;
}

one: simp3(a,m+1,n,ip,kp);
191
Capitolul 5.

// Schimba variabilele din partea stinga si partea dreapta (faza unu),


// apoi refă lista cu date.
// Schimbarea unei variabile artificiale pentru restrictiile III.
// Verifica daca aceasta nu intra in lista l1

if (iposv[ip] >= (n+m1+m2+1)) {


for (k=1;k<=nl1;k++)
if (l1[k] == kp) break;
--nl1;
for (is=k;is<=nl1;is++) l1[is]=l1[is+1];
} else {
kh=iposv[ip]-m1-n;

// Schimba o variabila tip II pentru prima data


// Corecteaza coloana pivotului si pune semnul minus si la variabilele
// artificiale.

if (kh >= 1 && l3[kh]) {


l3[kh]=0;
++a[m+2][kp+1];
for (i=1;i<=m+2;i++)
a[i][kp+1] = -a[i][kp+1];
}
}

// Actualizeaza listele variabilelor din partea stinga si dreapta

is=izrov[kp];
izrov[kp]=iposv[ip];
iposv[ip]=is;

} // Ramii in prima parte si continua ciclul for(;;).


}

// Sfirsitul primei faze (determinarea unei solutii initiale valide


// Urmeaza faza de optimizare a acesteia.

for (;;) {

//Testeaza datele din rindul in care este functia liniara ce se optimizeaza //


z.
simp1(a,0,l1,nl1,0,&kp,&bmax);
// Verifica solutia. Daca da trimite pointer zero si sterge alocarea memoriei.

if (bmax <= EPS) {


*icase=0;
FREEALL return;
}

// Gaseste pozitia elementului pivot (FAZA DOI)


simp2(a,m,n,&ip,kp);
// Functia obiectiv este nemarginita. Atribuie lui icase valoarea 1 si sterge
alocarea
if (ip == 0) {
*icase=1;
FREEALL return;
}
// Schimba intere ele variabilele din partea stinga si dreapta (tot in faza doi)

simp3(a,m,n,ip,kp);
192
Capitolul 5.

is=izrov[kp];
izrov[kp]=iposv[ip];
iposv[ip]=is;
}
// Se incepe o noua iteratie.

Funcţia Simple1.

// SIMPL1

void simp1(float **a, int mm, int ll[], int nll, int iabf, int *kp,float *bmax)
{
/*
Gaseste valoarea maxima a elementelor care au indexul in lista l1
indiferent daca au valoarea absoluta insemnata cu iabf.
*/
int k;
float test;
// Nici o coloana eligibila.
if (nll <= 0)
*bmax=0.0;
else {
*kp=ll[1];
*bmax=a[mm+1][*kp+1];

for (k=2;k<=nll;k++) {
if (iabf == 0)
test=a[mm+1][ll[k]+1]-(*bmax);
else
test=fabs(a[mm+1][ll[k]+1])-fabs(*bmax);
if (test > 0.0) {
*bmax=a[mm+1][ll[k]+1];
*kp=ll[k];
}
}
}
}

Funcţia Simp2

// SIMP2

void simp2(float **a, int m, int n, int *ip, int kp)


{

// Gaseste un element pivot tinind cont de degenerare.

int k,i;
float qp,q0,q,q1;
*ip=0;
for (i=1;i<=m;i++)
if (a[i+1][kp+1] < -EPS) break; // Nici un pivot posibil?
if (i>m) return;
q1 = -a[i+1][1]/a[i+1][kp+1];
*ip=i;
for (i=*ip+1;i<=m;i++) {
193
Capitolul 5.

if (a[i+1][kp+1] < -EPS) {


q = -a[i+1][1]/a[i+1][kp+1];
if (q < q1) {
*ip=i;
q1=q;
} else if (q == q1) { // Am gasit o degenerare.
for (k=1;k<=n;k++) {
qp = -a[*ip+1][k+1]/a[*ip+1][kp+1];
q0 = -a[i+1][k+1]/a[i+1][kp+1];
if (q0 != qp) break;
}
if (q0 < qp) *ip=i;
}
}
}
}

Funcţia Simp3

// SIMP3

void simp3(float **a, int i1, int k1, int ip, int kp)
{

// Operatia de modificare a variabilelor din partea stinga in partea //dreapta.


int kk,ii;
float piv;
piv=1.0/a[ip+1][kp+1];
for (ii=1;ii<=i1+1;ii++)
if (ii-1 != ip) {
a[ii][kp+1] *= piv;
for (kk=1;kk<=k1+1;kk++)
if (kk-1 != kp)
a[ii][kk] -= a[ip+1][kk]*a[ii][kp+1];
}
for (kk=1;kk<=k1+1;kk++)
if (kk-1 != kp) a[ip+1][kk] *= -piv;
a[ip+1][kp+1]=piv;
}
197
Capitolul 4.

Bibliografie.

1. Acton, F.S. Numerical Methods That Work, corrected edition Washington:


Mathematical Association of America,1990.
2. Bellman, R.E., Programarea dinamică aplicată. Bucureşti. Ed. Tehnică 1967.
Dreyfus, S.E.,
3. Brent, R.P. Algorithms for Minimization without Derivatives, Englewood Cliffs,
NJ: Prentice-Hall,1973.
4. Box, G., Draper, Operare evolutivă. Metodă statistică pentru îmbunătăţirea
N. performanţelor instalaţiilor. Bucureşti. Ed. Tehnică 1975.
5. Box, G., Wilson, Journal Royal Stat Soc. Seria B, 13, 1.
K. B.
6. Box, G. The exploitation and Exploitation of Response Surfaces: Some
General Consideration and Examples. Biometrics J. 10.
7. Claringbold, P.J. Use of simplex design in the study of Joint Action of Related
Mones. Biometrics J., 11,2, 174.
8. Cochran, W. G., Experimental Design. 2 nd ed. Wiley, New York, 1957.
Cox, G. M.
9. Craiu, V. Verificarea ipotezelor statistice. Bucureşti, Ed. D.P. 1972.
10. Dancea, I. Metode de optimizare. Algoritmi-programe. Cluj-Napoca. Ed.
Dacia, 1976.
11. Dragomirescu, Programarea neliniară. Bucureşti, Ed. Stiinţifică, 1972.
M., Maliţa, M.
12. Dani, E. Elemente de programare liniară. Bucureşti, Ed. D.P. 1971.
13. Draper, N.R., Applied regression Analysis. New York, Wiley 1966.
Smith, H.
14. Gluck, A. Metode matematice în industria chimică. Metode de optimizare.
Bucureşti, Ed. Tehnică, 1971.
15. Gorman, J. W., Simplex lattice design for Multicomponent Systems,
Hinman, J. E. Technometrics, 4, 1, 436.
16. Forsythe, G.E., Computer Methods for Mathematical Computations ,Englewood
Malcolm, M.A., and Cliffs, NJ, Prentice-Hall,1977.
Moler, C.B.

17. Hinnelblau, D. Nonlinear Programming Practice. Moscva, Ed. Mir 1975.


18. Johnson, N., The Statistics Experiments Planning, Moscow, Ed. Mir, 1981.
Leone, F.
19. Johnson, N., The Statistics Experiments, Moskow, Ed. Mir, 1980.
Leone, F.,
20. Kafarov, V., Fundamentals of Mass Transfer Gas-Liquid, Vapour-Liquid and
Liquid-Liquid Systems. Moscow, Ed. Mir Publichers, 1975.
21. Kempthorne, V. The Design and Analysis of Experiments, New York, John Wiley,
V. 1973.
22. Kenworthy, o. Factorial Experiments with Mixtures Using Ratios, Industrial
Quality Control Journal, 19, 12, 24.
23. Krasnov, M. L., Problems and Exercises in the Calculus of Variations. Moscow,
Macarenco, G. I., Ed. Mir Publishers, 1975.
Kiselev, A. I.
198
Capitolul 4.

24. Lavrov, S. S. Primenenie bariţentriceskih coordinat dlia reşenia necolorith


vicislitelnih zadaci. J. V. M-M F. 4,5,905.
25. Leoveanu I. S., Establishes of the Equivalent Longitudinal Forces produced by
Iovănaş, R. the welded joints and use them to the determination of the
residual strains of the welded girders. Welding & Joining 2000
Conference, Tel Aviv. Pag. 170-179
26. Leoveanu I. S., The optimization model from the design and technology of the
Iovănaş, R. welded beam structures, in condition of maximum energy
absorbed. Welding & Joining 2000 Conference, Tel Aviv,
pag.180-191.
27. Leoveanu, I. S., Aplicarea modelului statistic destinat determinării parametrilor de
sudare în funcţie de caracteristicile geometrice ale îmbinării
sudate. Revista AGIR 1997, nr. 4.oct.-dec. Pag. 18-22.
28. Leoveanu, I. S. Algoritm destinat determinării variabilelor de control ale
procesului de sudare şi ale echipamentului. Revista AGIR 1997,
nr. 4.oct.-dec. Pag. 22-26
29. Leoveanu, I. S., Establishing The Welding Parameters Process from The
Zgură Gh., Conditions of Geometrical Weld Parameters. 8th International
Symposium, Prague, Measurement and Control Robotics,
Proceeding, ISMCR’98 Praha. Pag. 443-450.
30. Leoveanu, I. S., Algorithm for Establising The Welding Control Variables from The
Zgură Gh., Welding Process Equipment. 8th International Symposium,
Prague, Measurement and Control Robotics, Proceeding,
ISMCR’98 Praha. Pag. 451- 455.
31. Leoveanu, I. S., Optimizarea dimensiunilor mecanismelor de direcţie ale punţilor
Ven, St., Luţescu M. motoare prin prisma măririi unghiului de virare corectă. Conf.
Naţională Tractorul 1988. Pag. 85-96.
32. Leoveanu, I. S., Optimization method of the order of pilling up the welds regarding
Zgură Gh. the decrease of deformation and residual strains of welded
structure. Noutati in domeniul tehnologiilor si utilajelor pentru
prelucrarea la cald a metalelor, Tehnologii de sudare,
1993,Brasov, N.T.U.P.C.,nr VII . Pag 276-282.
33. Leoveanu, I. S., Considerations sur l’optimisation des parameters de
Ven, St. l’equipements d’un bulldozer et du systeme de roulage des
bulldozers a chenilles. CONAT’88.Braşov. Pag 21-27.
34. Leoveanu, I. S., Optimizarea dimensiunilor lamelor de buldozer prin prisma
Ven, St. costului minim al unităţii de pămînt dislocuit. Revista Ştiinţă şi
tehnică nr. 10. din 1987
35. Maliţa, M., Matematica organizării. Bucureşti, Ed. Tehnică, 971.
Zidăroiu, C.
36. Maruşciac, I. Metode de rezolvare a problemelor de programare neliniară, Cluj-
Napoca, Ed. Dacia, 1973.
37. Meyers, R. H. Response Surface Methodology, Boston, Allyn & Bacon, 1971.
38. Mihail, H. Introducere în strategia experimentării cu aplicatii în tehnologia
chimică, Bucureşti, Ed. Ştiinţifică şi enciclopedică, 1976.

39. Montgomery, D. Experimental planning and analyze, Leningrad, Sudostoenie,


C. 1980.
199
Capitolul 4.

40. Miyamoto, T., A Computational Investigation of Premixed Lean Diesel


Hayashi, A., Combustion, SAE paper 1999-01-0229, 1999.
Harada, A., Sasaki,
S., Akagawa, H.,
and Tsujimura, K.
41. Nagamori, M., Metallurgical Tranzactions B, Vol. 9, 597.
Mackely, P. J.
42. Nether, J., Applied Linear Statistical Models, Homewood, Irwin, 1974.
Wasserman, W.
43. Oprea, Fl., Teoria proceselor metalurgice, Bucureşti, Ed. D.P. 1978.
Taloi, D.,
Constantin, I.,
Roman, R.
44. Ortega, J., Iterative Solution of Nonlinear Equations in Several Variables,
Rheinboldt, W. New York: Academic Press, 1970.

45. Ostrowski, A.M. Solutions of Equations and Systems of Equations, 2nd ed. ,New
York, Academic Press,1966.

46. Peters G., and Journal of the Institute of Mathematics and its Applications, vol. 8.
Wilkinson, J.H. 1971

47. Polak, E. Computational Methods in Optimization,New York, Academic


Press,1971.
48. Peitgen, H.-O., The Science of Fractal Images, New York, Springer-Verlag, 1988.
and Saupe, D.
49. Ralston, A., A First Course in Numerical Analysis, 2nd ed. New York,
Rabinowitz, P. McGraw-Hill,1978.

50. Radaj, D., Temperature Field, Residual Stress, Distorsion, New York,
Springer-Verlag, 1992
51. Rubert, H. PC-Programm zur Nutzung der europäischen Norm EN 287,
Schweißtechnische Software, 1993,pag. 39-43.
52. Sălăgean, T. Fenomene fizice şi metalurgice la sudarea oţelurilor cu arcul
electric , Bucureşti, Ed. Academiei,1963
53. Sălăgean, T. Statistică în sudură, Ed. ODPT 3, 1973
54. Sălăgean, T. Optimizarea sudării cu arcul electric, Bucureşti, Ed. Tehnică
1988.
55. Salvadori, M.G., Metode numerice în tehnică, Bucureşti, Ed. Tehnică, 1972
Baron, M.L.
56. Scharm, A., ICE Integrated Computerized Engineering, Schweißtechnische
Hakerkamp R., Software, 1993, pag. 50-55
Wesling V.,
57. Stoer, J., and Introduction to Numerical Analysis, New York, Springer-
Bulirsch, R Verlag,1980.
58. Schuster, J. WinWeld für Windows, Auswahlprogram für Stabelektroden.
Schweißtechnische Software, 1993, pag. 187- 192.
59. Schäferdieck, B. Die Werkstoff-Datenbank FEZEN, Schweißtechnische Software,
1993, pag. 10-14.
60. Stuart, R.D. Introducere în analiza Fourier, Bucureşti, Ed. Tehnică, 1971
200
Capitolul 4.

61. Sima, V., Varga Practica optimizării asistată de calculator, Bucureşti, Ed. Tehnică,
A. 1986
62. Scharm, A., ICE Integrated Computerized Engineering, Schweißtechnische
Hakerkamp, R., Software, 1993, pag. 50-55.
Wesling, V.,
63. Saad, M., A preprocesing technique for improved mesh generation, Finit
Turcke, D. Element Methods in the Commercial Environment. Ed. J.
Robinson 1979
64. Taloi, D. Optimizarea proceselor tehnologice, Bucureşti, Ed. Academiei,
1987.
65. Tsuruta, A. A new optimization methodology to the determination of welding
Zenri, H., conditions, Doc. I.I.S., 962, 76.
Matsushima, F.
66. Vallini, A. Joints Soudes. Ed. DOUNOD 1968
67. Wilde, D. Optimum seeking methods, New York, Mc. Graw Hell,1964.
68. Whitney, D.E., State of the art in Japanese CAD methodologies for mechanical
products, Charles Stark Draper Laboratory, Inc.;CSDL-P-
3126,Cambridge,MA 02139, 1991.
69. Zienkiewicz, Time-dependent multilaminate model of rocks. Journ, for Num.
O.C., Pande, G.N. and Anal. Meth. Vol. 1.,No.3. (1977)
70. Zienkiewicz, La méthode des éléments finis. Paris, Mc. Graw Hill, 1979.
O.C.
71. Zgură, Gh. Sudarea prin topire, Bucureşti, Ed. D.P. 1983.
*** IMSL Math/Library Users Manual (IMSL Inc., 2500 CityWest
Boulevard, Houston TX 77042).

S-ar putea să vă placă și