Documente Academic
Documente Profesional
Documente Cultură
- simetria
- bandedness
Trebuie să verificăm precizia cu care am lucrat, cât de mare este eroarea și cum putem
face pentru a reduce această eroare.
Există alte scheme mult mai eficiente de determinare a necunoscutei unei ecuații de
forma:
1
SOLUȚIA ECUAȚIILOR LINIAR ALGEBRICE
sau
Notăm:
Rezultă:
Știind {𝑦} în baza relației [𝑈] ∗ {𝑥} = {𝑦} determinăm {𝑥} prin back substitution
Pași:
2
SOLUȚIA ECUAȚIILOR LINIAR ALGEBRICE
În timpul aplicării metodei eliminării Gauss asupra unei matrici (matricea coeficienților
[𝐴]) aceasta este împărțită într- matrice triunghiulară inferior și o matrice triunghiulară
superior și mai departe, matricea triunghiualră inferior este inversată pentru a fi
înmulțită (post-multiplied) cu vectorul din dreapta {𝑏}
Descompunerea matricii [𝐴] pas cu pas în produsul [𝐿] ∗ [𝑈] se poate reprezenta sub
formă de algoritm în multe moduri. Când [𝐴] este matricea de rigiditate a unei structuri,
un mod convenabil de a face descompunerea pentru această matrice simetrică este:
𝑙𝑖𝑗
𝑢𝑗𝑖 = 𝑝𝑒𝑛𝑡𝑟𝑢 𝑗 = 1, … . , 𝑖 − 1
𝑙𝑗𝑗
𝑢𝑖𝑖 = 1
𝑖−1
În cadrul procesului de eliminare de multe ori pivotul devine zero (ceea ce nu este
permis). Când nu se verifică dacă pe poziția de pivot avem valoare zero astfel (împărțim
cu zero în ecuațiile de mai sus) pricesul se numește elimianre Gauss naivă.
Strategi ide pivotare sunt folosite deasemenea și pentru a înbunătăți acuratețea soluției.
3
SOLUȚIA ECUAȚIILOR LINIAR ALGEBRICE
Se aplică doar când matricea [𝐴] este pătrată, simetrică și definită pozitiv.
Pentru toți vetorii z diferiți de zero, [𝐴] este o matrice definită pozitiv atât timp cât
produsul intern (inner product){𝑧}𝑇 ∗ [𝐴] ∗ {𝑧} este întotdeauna mai mare decât zero
(strict mai mare).
Dacă produsul intern este întodeauna mai mare sau egal cu zero atunci avem o amtrice
semi definită pozitiv
Dacă produsul intern este mai mic decât zero atunci matricea este nedefinită
(indefinite)
Alternativ clasificarea aceasta se paote face și funcție de valorile proprii ale matricii.
Dacă valorile proprii ale matricii [𝐴] sunt pozitive atunci matricea este definită pozitiv.
Dacă valorile proprii sunt pozitive sau zero atunci este semi definită pozitiv. Dacă
valorile proprii sunt atît negative cât și zero și pozitive atunci matricea [𝐴]. Este
nedefinită.
Ceea ce este diferit î naceastă metodă față de metoda eliminării Gauss este că putem
descompune matricea [𝐴] întro matrice triunghiulară inferior și o matrice triunghiualră
superior care este chiar transpusa matricii triunghiualre inferior.
𝑖−1
2
𝑙𝑖𝑖 = √𝑎𝑖𝑖 − ∑ 𝑙𝑖𝑘 11.15𝑎
𝑘=1
𝑎𝑗𝑖 − ∑𝑖−1
𝑘=1 𝑙𝑗𝑘 ∗ 𝑙𝑖𝑘
𝑙𝑗𝑖 = 𝑝𝑒𝑛𝑡𝑟𝑢 𝑗 = 𝑗 + 1, … , 𝑛 11.15𝑏
𝑙𝑖𝑖
De observat faptul că dacă 𝑙𝑖𝑖 implică radical dintr-un număr negativ, indică faptul că
matricea [𝐴] este nedefinită.
În ceea ce privește analiza structurală [𝐴] = [𝐾𝑓𝑓 ] – dacă a este nedefinit acest lucru
indică că sistemul structural este instabil.
Relațiile de recurență de mai sus se pot modifica să fie un pic mai eficiente din punct de
vedere că se poate scoate radicalul rezultând:
Începând cu 𝑖 = 1 fiecare element din matricile [𝐷] și [𝐿] se pot calcula astfel:
𝑖−1
2
𝑑𝑖𝑖 = 𝑎𝑖𝑖 − ∑ 𝑑𝑘𝑘 ∗ 𝑙𝑖𝑘
𝑘=1
𝑙𝑖𝑖 = 1
𝑎𝑗𝑖 − ∑𝑖−1
𝑘=1 𝑑𝑘𝑘 ∗ 𝑙𝑗𝑘 ∗ 𝑙𝑖𝑘
𝑙𝑗𝑖 = 𝑝𝑒𝑛𝑡𝑟𝑢 𝑗 = 𝑗 + 1, … , 𝑛
𝑑𝑖𝑖
Dacă această metodă este folosită împreună cu strategii de pivotare atunci se paote
folosi pentru a rezolva sisteme (matrici) simetrice nedefinite.
Pentru a rezolva aceste probleme se pot folosi metode iterative. Pentru aceste metode
se poate obșine o soluție în limitele unei toleranțe admisibile ale erorii.
Pe urmă fiecare din ecuațiile sistemului sunt folosite în mod repetat pentru a rezolva
pentru sau a updata una din necunoscute în termenii valorilor anterioare ale altor
necunoscute. Pentru sistemul de ecuații următor:
Rezultă:
5
SOLUȚIA ECUAȚIILOR LINIAR ALGEBRICE
Unde m și m-1 sunt iterația prezentă ți cea anterioară, de exemplu, 𝑥2𝑚−1 și 𝑥2𝑚 sunt
estimărea precedentă ți cea nouă a celui de-al doilea element al vectorului
necunoscutelor.
De observat faptul că ecuația originală trebuie ordonată astfel încât diagonala matricii
[𝐴] conține doar elemente zero, o situație careeste întotdeauna posibil de obținut dacă
structura este stabilă.
În general forma iterativă Gauss – Siedel pentru un sistem de n ecuații se paote exprima
în felul următor:
Vectorul null este folosit de mute ori ca valoare inițială (valaore ghicită) a vectorului
soluție.
De reținut, totuși, că într-o analiză neliniară incrementală vectorul soluție din pasul de
încărcare anterior (încărcaărea se aplică în etape) poate de multe ori să furnizeze o
ghicire excelentă a valorii inițiale a vectorului necunoscutelor {𝑥}.
Pentru sisteme unde A este pozitiv definită, totuși, procesuș de iterație (mecanismul) va
converge întotdeauna, exceptând orice eroare de truncație. Pentru a înbunătăți rata de
convergență, se pot impune scheme de relaxare.
În această abordare, valori calculate noi sunt modificate prin luarea mediilor ponderate
a valorii curente și a valorilor anteriare:
Unde 𝛽 este factorul de relaxare sau altfel spus ponderare. Când 𝛽 este definit între 1 și
2, se presupune că valoarea curentă 𝑥𝑖𝑚 va tinde ușor (încet) spre soluția exactă și astfel
6
SOLUȚIA ECUAȚIILOR LINIAR ALGEBRICE
dacă se pune o pondere mai mare a acestei valori curente în soluția totală atunci
convergența va fi mai rapidă. Această modificare se numește suprarelaxare.
Definirea valorii lui 𝛽 între 0 și 1 se numește subrelaxare, o asjutare care se face des
pentru a amortiza oscilațiile dintre valorile obținute această manevră fiind o încercare
de a face un sistem care nu converge să conveargă.
În loc să folosim imediat cele mai recente elemente ale vectorului soluție. Iterația
JACOBI calculează toate valorile noi pe baza valorilor precedente calculate astfe:
Deși metoda Gauss Siedel converge mai rapid, iterața Jacobi este bine de amintit pentru
că este ideală penru implementări pe calculator care folsoesc procesare paralelă
(parallel processing)
Se bazează pe proprietatea că orice vector {𝑥} având 𝑛 elemente se paote exprima într-
un spațiu 𝑛-dimensional printr-o combinație liniară a 𝑛 vectori de bază (basis vectors)
{𝑠𝑖 }
(11.24)
𝛼𝑖 – factori de scalare
Aproximații mai apropiate se pot determna prin iterații succesive prin includerea unor
vectori de bază scalați fiecare cu coeficientul lui de scalare, rezultând:
Repetând acest proces se paote obține o soluție care se consideră destul de apropiată
(funcție de toleranța dată).
7
SOLUȚIA ECUAȚIILOR LINIAR ALGEBRICE
- ajunge la un minim
Relația lui 𝐹(𝑥) din punct de vedere al analizei structurale reperzintă energia potențială
totală a sistemului iar {𝐺} reprezintă rezultatul null al ecuațiilor de echilibru.
Acest lucru înseamnă că atunci când sistemul este în echilibru ({𝐺} este vectorul nul)
energia potențială a sistemului este un minim (𝐹(𝑥) este un minim).
În loc să se caluleze inversa matricei A pentru a calcula acest minim, se poate arăta că
pentru o ecuație cuadratică (definită pozitiv) cum este relația pentru F(x) de mai sus,
punctul minim unic se poate defini prin relația (vezi bibliografie 11.5)
𝑛
{𝑠𝑖 }𝑇 ∗ {𝐺 𝑖−1 }
{𝑥} = {𝑥 0 } +∑ ∗ {𝑠𝑖 } (11.29)
{𝑠𝑖 }𝑇 ∗ [𝐴] ∗ {𝑠𝑖 }
𝑖=1
Vectorii direcției conjugate pentru o matrice nxn [𝐴] sunt toți ortogonali pe produsul
untern a lui [𝐴] definit de relația:
−{𝑠𝑖 }𝑇 ∗ {𝐺 𝑖−1 }
𝛼𝑖 = 11.30
{𝑠𝑖 }𝑇 ∗ [𝐴] ∗ {𝑠𝑖 }
8
SOLUȚIA ECUAȚIILOR LINIAR ALGEBRICE
Pentru a determina direcțiile conjugate succesive care vor fi folosite în fiecare iterație se
introduce vectorul reziduurilor:
Acest vector rezidual este o măsură a cât de bine soluția obținută din iterația anteriaoră
satisface sistemul de ecuații (este o măsură a erorii / preciziei).
Acest vector va fi ori zero, ceea ce înseamnă că am găsit o soluția exactă, sau diferit de
zero și astfel liniar independnten de direcțiile conjugate calculate anterior. Unde
vectorul rezidual este negativul ecuației 11.28 Ecuația 11.30 poate fi scrisă mult mai
convenabil sub forma:
{𝑠𝑖 }𝑇 ∗ {𝐺 𝑖−1 }
𝛼𝑖 = (11.32)
{𝑠𝑖 }𝑇 ∗ [𝐴] ∗ {𝑠𝑖 }
Dar folosinf și mai departe acest vector rezidual, se poate arăta că direcția conjugată
pentru iterația i se poate calcula prin ecuația de recurență:
- prin simplificare ar fi reținerea unui rând vector auxiliar în timpul fiecărei iterații
care este folosit la numitorul ecuației (11.32 și 11.33).
sau
Iterațiile ăn metoda gradientului conjugat sunt de multe ori repetate până cîn mărimea
vectorului rezidual scade sub o toleranță considerată:
9
SOLUȚIA ECUAȚIILOR LINIAR ALGEBRICE
- ghicirea inițială. În absența unei valori estimate bune a soluției, vectorul null se
folosește de multe ori pentru a începe iterația.
- toleranța adoptată
- este important de reținut faptul că condiția matricii coeficienților poate avea un
impact major asupra ratei de convergență.
10
SOLUȚIA ECUAȚIILOR LINIAR ALGEBRICE
Acest lucru se datorează faptului că fiecare rând sau eecuație de echilibru (altfel spus)
pentru un anumit grad de libertate este ingluențat doar de grade de libertate asociate cu
un număr mic de elemente care sunt conectate cu acel grad de libertate.
11
SOLUȚIA ECUAȚIILOR LINIAR ALGEBRICE
Aria hașurată din figura 11.1 ilustrează matricea de rigiditate a coeficienților [𝐾𝑓𝑓 ] ce
trebuie stocată și manipulată.
Astfel numerotarea gradelor de libertate se face astfel încât lungimea de bandă să fie
minimizată.
12
SOLUȚIA ECUAȚIILOR LINIAR ALGEBRICE
Astfel putem să asamblăm ecuațiile de rigiditate element cu element iar în acelați timp
să efectuăm și eliminarea (să eliminăm cu succes gradele de libertate).
Începând cu un element având una sau mai multe grade de libertate pentru care toate
contribuțiile la rigiditate au fost asamblate, eliminăm aceste grade de libertate prin
exprimarea lor ca și funcții ale gradelor de libertate comune dintre acest element și
următorul element.
Pe urmă adunăm într-o manieră adecvată, matricea redusă rămasă a primului element
cu cea a celui de-al doilea element. Pe urmă putem elimina grade de libertate ale
matricii de rigiditate în care rigiditățile sunt asamblate în totalitate în sistemul
combinat.
Procedăm în această manieră adăugând un element o dată – și forțele nodale cum dăm
de ele le adăugăm și pe acestea – până când parcurgem întreaga structură.
La final s-a dezvoltat u nset de ecuații care poate fi rezolvat pentru o necunoscută o dată
prin back substitution.
Față de procesul descris în exemplu există Frontal Solver mult mai practice. Pentru mai
multe dedalii și proceduri mai sofisticate pentru rezolvarea unor sisteme mari de
ecuații (Vezi bibliografie 11.9 – A frontal solution program for FEA – B.M.Irons).
13
SOLUȚIA ECUAȚIILOR LINIAR ALGEBRICE
11.6 ERORI
În analiza structurală, cum în orice încercare de modelare a problemelor fizice
rezultatele nu sunt exacte calculele fiind predispuse la erori.
Surse majore de eroare în analiza cadrelor pot fi grupate în felul următor (de reșinut
faptul că claificare nu este completă):
b) Date de intrare / Date de ieșire – erori ce cuprind erori făcute prin introducerea
datelor idealizate în program până la erori de interpretare a rezultatelor date de
program. Cele două tipuri de erori sunt legate intrinsec – erori în datele de intrare vor
duce întotdeauna la erori în datele de ieșire (rezultate)
Dacă ecuațiile (mai exact rândurile matricii coeficienților) sunt linair dependente atunci
nu există soluții iar matricea coeficienților este singulară. Grafic acest lucru este
reprezentat prin două linii paralele:
14
SOLUȚIA ECUAȚIILOR LINIAR ALGEBRICE
Această situație ar trebui să apară î nanaliza cadrelor când sistemul structural este
instabil. Condiționare optimă se obține dacă cele două linii sunt ortogonale, această
condiție fiind una rară (una fără erori):
Deși avem erori inevitabile în soluția finalpă iar problema rezolvată nu va matematic
cea reprezentată de liniile solide di ngrafic, mai degrabă fiind cea reprezentată de liniile
punctate, eroarea este tolerabilă (fiind mică).
Acest lucru îneasmnă că, calcularea vectorului soluție {𝑥𝐴 } va fi suficient de apropiată de
soluția adevărată (reală) {𝑥𝑇 }
Când unghiul dintre lini devine mic (liniile apropae se suprapun) problema devine ill
conditioned.
Soluția este sensibilă la cele mai mici erori de reprezentare sau de calcul și poate fi
foarte imprecisă. Cu alte cuvinte, o rază mare răspunsuri pot satisface îndaeproape un
sistem de ecuații ill conditioned (Vezi Exemplul 11.12)
Căutăm metode generale pentru detectarea ill conditioning a sistemelor de ecuații mari.
În același timp vom estima efectul poor conditioning asupra preciziei rezultatului
obținut prin calcul și pe urmă reținem un număr fix de cifre semnificative.
Pentru a descrie adecvat acest tip de eroare în primă fază trebuie se facem o intrare pe
scurt în subiectul normelor.
O normă este o funcție ce furnizează o măsură a dimensiunilor unui vector sau matrice.
Pentru ce avem nevoie aici norma are următoarele proprietăți:
Altă normă simplă de aplicat și populară este norma uniformă sau (altfel spus norma
infinit – infinity norm). Pentru vectori această normă esteexprimată ca magnitudinea
maximă:
16
SOLUȚIA ECUAȚIILOR LINIAR ALGEBRICE
Dacă o matrice vectorială și una matriceală sunt consistente (consecvente, potrivite cu)
atunci se poate arăta că:
Presupunem în primă fază că, coeficienții din vectorul b se cunosc exact dar coeficienții
din matricea A sunt supuși la mici încertirudini notate cu [𝛿𝐴]
Diferența dintre soluția exactă x și cea dată de ecuația unde A are incertitudini adică {𝑥̅ }
va arăta în general cât de sensibilă este ecuația A*x=b la mici schimbări ale matricii
coeficienților A. Notăm acestă diferență cu:
11.48a
11.50
17
SOLUȚIA ECUAȚIILOR LINIAR ALGEBRICE
Este important de reținut faptul că în ambele ecuații *11.48a respectiv 11.50) termenul
de amplificare a erorii Termenul ănainte de paranteze k/.... se poate aproxima prin
condition number k când ‖𝛿𝐴‖⁄‖𝐴‖ este suficient de mic.. Astfel ar trebui să fie clar că
se paote plasa o limită asupra erortii relative a soluție și mai important această limită
este direct proporțională cu condition number k a matricii coeficienților A. Evident, cu
cât este mai mic condition number (cu cât este mai aproape de 1) cu atât sistemul este
mai bine condiționat (well conditioned).
A calcula condition number folosind relația 11.49 este ceva destul de complicat
deoarece necesită determinarea inversei matricea A. Acest lucru este complicat
deoarece dacă A este ill conditioned, inversa va fi calculată cel mai probabil cu erori
mari și astfel precizia cu care rezultă condition number k este cel puțin discutabilă.
O estimare rezonabilă se paote obține din lower bound estimate a normei lui [𝐴]−1 vezi
(bibl.11.5):
11.51
Aici matricea B este o matrice singulară apropiată de matricea A (este apropae la fel).
Combinând ecuațiile 11.49 și 11.51 rezultă limita condition number:
Alte metode generale pentru estimare condition number sunt prezentate în literatură
(bibl.11.2).
Unde lambda.i este valoarea proprie a matricii coeficienților A. Valorile proprii se pot
obține din:
11.54
18
SOLUȚIA ECUAȚIILOR LINIAR ALGEBRICE
Trebuie observat faptul că, cum numărul de ecuații n crește calculul valorilor proprii
folosind Ecuația 11.54 devine un calcul complicat. Ca norocu, există căi mai simple de a
estima aceste valori. De exemplu o limită superioară asupra celei mai mari valori proprii
se paote obține din norma infinit:
O aproxiamre a condition number este de multe ori tot ce avem nevoie pentru a estima
o potențială eroare. Presupunem că matricea coeficienților A este reprezentată în calcul
prin p zecimale acest lucru ar fi: ‖𝛿𝐴‖⁄‖𝐴‖ = 10𝑝 și similar, s este numărul rezultat de
zecimale corecte din soluție ‖𝛿𝑥‖⁄‖𝑥‖ = 10𝑠 . Din ecuația 11.48 relația dintre p și s
(efectu lerorii de trunchiere) se poate estima prin relația:
11.56
Deoarece formula conține logaritmul în bază 10 din k, cel mult, s și p sunt de ordinul 10,
și astfel este clar că nu trebuie o precizie foarte mare pentru calculul lui k.
Exemplul din carte demonstrează că Ecuația 11.56 este precisă în majoritatea cazurilor.
În unele cazuri prezice ill conditioning chiar dacă rezultatele problemei indică că este
well conditioned. Această situația se numește artificial ill conditioning, or skewness
(asimetrie).
- în primă fază înmulțim ambele părți ale relației 11.1 cu matricea [𝐷1 ]
11.57
19
SOLUȚIA ECUAȚIILOR LINIAR ALGEBRICE
11.58
11.59
Unde:
Se poate observa faptu lcă pentru orice matrici D1 și D2 ecuația 11.59 se poate rezolva
pentru {𝑥̅ } și rezultatele să se înlocuiască în 11.58 pentru a determina soluția {𝑥} a
sistemului de ecuații original. După cum s-a sugerat în secțiunea 11.3.2, folosind o astfel
de strategie de precondiționare în metoda gradientului conjugat poate să facă schema
de iterație mult mai eficientă prin îmbinătățirea semnificativă a ratei convergenței.
Mai multe scheme s-au propus pentru selectarea matricilor D1 și D2. În (bibl.11.2) este
sugerat că se pot obține rezultate bune prin considerarea ca D1=D2=D unde Deste o
matrice diagonală ale cărui elemente sunt definite de relația:
11.60
Poaet cea mai evidente și des folosită procedură de detectare a erorii este înlocuirea
vectorului soluție obținut să zicem {𝑥𝐴 }, în sistemul de ecuații original și calcularea
rezultatului corespunzător {𝑏𝐴 }. Dacă elementele lui {𝑏𝐴 } diferă sunstanțial de vectorul
{𝑏} original este clar că avem erori semnificative în procesul de calcul și că nu am
obținut soluția corectă {𝑥𝑇 } (true solution).
Din păcate inversa aceste afirmații nu este adevărată – adică diferențe mici dintre {𝑏𝐴 } și
{𝑏} nu dovedesc că {𝑥𝐴 } este o soluție precisă.
Prin simpla definiție a ill conditioning dată anterior, mai multe soluții ce vor varia foare
mult pot furniza o soluție {𝑏𝐴 } care este acceptabil de aproape de {𝑏}. În această privință
conform relației:
Elementele inversei matricii A pot fi atât de mari – un alt semn al ill conditioning – că o
mică discrepanță în valorile {𝑏} − {𝑏𝐴 } lui se pot amplifica sever producându-se o
varietate mare de vectori soluție.
20
SOLUȚIA ECUAȚIILOR LINIAR ALGEBRICE
Când avem o problemă poorly conditioned (slab condiționată), se pot folosi mai multe
măsuri pentru a corecta sau cel puțin controla cantitatea de erori numerice.
Acuratețea soluției poate fi înbunărățită pe urmă prin schimbarea între ele a rândurilor
și coeficienților originali astfel încât împărțitorul este întotdeauna cel mai semnificativ
coeficient din coloana submatricei a necunoscutei care este eliminată. Acest concept se
paote extinde la pivotare completă, unde coloanele sunt de asemena interschimbabile
astfel încât coeficientul împărțitor este cel mai mare din întreaga submatrice a
coeficienților pe care se va opera. În cazul pivotării compelte se prezervă simetria
matricei.
O altă metodă de creștere a acurateții soluției este de a folosi o tehnică numită iterative
improvement (bibl.11.12).
După factorizarea lui A conform unui algoritm cum sunt ecuațiile 11,13 și 11.15 soluția
la ecuație 11.1 {𝑥1 } este calculată în primă fază. Rezidualul acestei soluții {𝑟 1 } este pe
urmă calculat conform relației 11,31.
11.62
O soluție mult mai exactă față de sistemul original de ecuații poate fi dată de relația:
11.63
Acest proces se repetă până când schimbarea în soluția {𝑧 𝑖 } devine neglijabilă. În analiza
structurală, acest proces este echivalent cu calculul încărcărilor reziduale dintr-o
analiză a echilibrului structurii și pe urmă aplicarea acestor încărcări pe structură ca și
forțe pentru a obține corecții pentru deplasări.
21
SOLUȚIA ECUAȚIILOR LINIAR ALGEBRICE
22