Sunteți pe pagina 1din 80

CODRUȚA CHIȘ

ALGEBRĂ LINIARĂ,
GEOMETRIE
ANALITICĂ ȘI
DIFERENȚIALĂ
PARTEA I

ALGEBRĂ LINIARĂ
Cuprins

I Algebră liniară

1 Elemente de calcul matriceal ……………………….…….9

1.1 Matrice ………………………………………..……………………...9


1.1.1 Operații cu matrice………………………………………………..10
1.2 Determinanți………………………………….…………...………...13
1.3 Operația de inversare a unei matrice nesingulare…………………...15
1.4 Rangul unei matrice…………………………………………………16
1.5 Sisteme de ecuații liniare……………………………………..…......17

2 Transformări elementare………………….……..………19

2.1 Matrice elementare și transformări elementare……..…….….……..19


2.2 Aplicații ale transformărilor elementare în calculul matricial..…..…23
2.2.1 Calculul rangului unei matrice…………………………….….23
2.2.2 Calculul determinantului și a inversei unei matrice pătratice...24
2.3 Probleme propuse………..…………………………………….……30

3 Spații liniare…………………...………….………………33
3.1 Spațiul liniar real Rn …………….…………………………………35
3.2 Dependența și independența liniară a vectorilor din Rn………..…..36
3.3 Probleme propuse …………………………………………………39

4 Dependența și independența liniară a vectorilor …..…41

4.1 Probleme propuse …………………………………………………43

5 Baze de vectori. Coordonate………………………………………...45


5.1 Probleme propuse………………………………………………….47

6 Aplicații liniare………….………………………………51

6.1 Operații cu aplicații liniare…………………….……………….....53


6.2 Vectori și valori proprii ale unei transformări liniare……………..54
6.2.1 Alte metode de determinare a polinomului caracteristic ale unei
transformări liniare……………………………………………………57
6.3 Probleme propuse ………………………………………………...60

7 Spații vectoriale euclidiene ……………..………………63

7.1 Produs scalar. Normă. ……………..…………………………….. 63


7.2 Metoda de ortogonalizare a lui Schmidt…………………………..65
7.3 Aplicații liniare ortogonale ..…………………………………….. 69
7.4 Probleme propuse……………..…………………………………. 69
8 Forme biliniare și forme pătratice ………….…………73

8.1 Metoda Gauss-Lagrange. Teorema lui Jacobi…………………….75


8.2 Metoda transformărilor ortogonale……………………………….77
8.3 Probleme propuse…………………………………………………78

9. Bibliografie……….……………………………………81
Capitolul I

Algebrǎ liniarǎ

7
1

Elemente de calcul matriceal

1.1 Matrice
Definiţie. Fie K un corp şi m, n ∈ N∗ . O funcţie

A : {1, . . . , m} × {1, . . . , n} −→ K

se numeşte matrice de tip (m, n) cu elemente din corpul K.


Observaţie. În locul corpului K se poate folosi un inel R, caz ı̂n care
vorbim de matrice cu elemente din inelul R.
Notaţie. Dacǎ pentru i = 1, m, j = 1, n, avem date valorile A(i, j) =
aij ∈ K, notǎm A = (aij )i=1,m, j=1,n sau putem prezenta matricea A, scriind
valorile aij ı̂ntr-un tablou dreptunghiular cu m linii şi n coloane:
 
 a11 a12 . . . a1n 
 
 a21 a22 . . . a2n 
A= .
 
 . .. .. .. 
 . . . . 

 
am1 am2 . . . amn

Mulţimea tuturor tuturor matricelor de tip (m, n) cu elemente complexe se


noteazǎ Mm×n (K). În cazul ı̂n care m = n notǎm mai simplu Mn (K).
Terminologie. Valorile aij ale unei matrice A se numesc elementele lui
A. Pentru A ∈ Mm×n (K), numǎrul m reprezintǎ numǎrul liniilor, iar n
numǎrul coloanelor matricei A. Acestea sunt dimensiunile matricei A. O
matrice de tip (m, 1) se numeşte matrice coloanǎ. O matrice de tip (1, n)
se numeşte matrice linie. O matrice de tip (n, n) se numeşte matrice
pǎtraticǎ de ordin n. Diagonala principalǎ a unei matrice de tip (m, n),

9
10 1. ELEMENTE DE CALCUL MATRICEAL

A ∈ Mm×n (K), A = (aij )i=1,m, j=1,n , este sistemul ordonat de elemente


(a11 , a22 , . . . , add ), unde d = min(m, n).
Observaţie. Douǎ matrice cu aceleaşi dimensiuni A, B ∈ Mm×n (K),
A = (aij )i=1,m, j=1,n , B = (bij )i=1,m, j=1,n , sunt egale dacǎ şi numai dacǎ
aij = bij , (∀)i = 1, m, j = 1, n.

1.1.1 Operaţii cu matrice

Adunarea matricelor

Definiţie. Fie date douǎ matrice de acelaşi tip A, B ∈ Mm×n (K), A =


(aij )i=1,m, j=1,n , B = (bij )i=1,m, j=1,n . Suma A + B a matricelor A şi
B este matricea C ∈ Mm×n (K), C = (cij )i=1,m, j=1,n , având elementele
cij = aij + bij , (∀)i = 1, m, j = 1, n. În acest mod este definitǎ o operaţie

+ : Mm×n (K) × Mm×n (K) −→ Mm×n (K) : (A, B) 7−→ A + B ,

numitǎ operaţia de adunare a matricelor de tip (m, n).


Propoziţie. Adunarea matricelor are proprietǎţile:
1. Asociativitate: (A + B) + C = A + (B + C), (∀)A, B, C ∈ Mm×n (K).
2. Comutativitate: A + B = B + A, (∀)A, B ∈ Mm×n (K).
3. Element neutru: (∃)Omn ∈ Mm×n (K), Omn = (0)i=1,m, j=1,n : A + Omn =
Omn + A = A, (∀)A ∈ Mm×n (K).
4. Elemente simetrice: (∀)A ∈ Mm×n (K), A = (aij )i=1,m, j=1,n , (∃)(−A) ∈
Mm×n (K), (−A) = (−aij )i=1,m, j=1,n : A + (−A) = (−A) + A = Omn .
Observaţie. Proprietǎţile de mai sus pot fi rezumate spunând cǎ (Mm×n (K), +)
formeazǎ un grup comutativ.

Înmulţirea matricelor

Definiţie. Fie date douǎ matrice A ∈ Mm×n (K), A = (aij )i=1,m, j=1,n , şi
B ∈ Mn×p (K), B = (bjk )j=1,n, k=1,p , cu proprietatea cǎ numǎrul coloanelor
matricei A este egal cu numǎrul liniilor matricei B. Produsul A · B al
matricelor A şi B este matricea D ∈ Mm×p (K), D = (dik )i=1,m, k=1,p ,
1.1. MATRICE 11

având elementele n
X
dik = aij · bjk .
j=1

În acest fel este definitǎ o operaţie

· : Mm×n (K) × Mn×p (K) −→ Mm×p (K) : (A, B) 7−→ A · B ,

numitǎ operaţia de ı̂nmulţire a matricelor.


Propoziţie. Înmulţirea matricelor are proprietǎţile:
1. Asociativitate: (A · B) · C = A · (B · C), (∀)A ∈ Mm×n (K), B ∈
Mn×p (K), C ∈ Mp×r (K).
2. Element neutru: (∃)In ∈ Mn (K), In = (δij )i,j=1,n ,

 1 , dacǎ i = j
δij =
6 j
0 , dacǎ i =
cu proprietatea cǎ A · In = A, (∀)A ∈ Mm×n (K), In · B = B, (∀)B ∈
Mn×p (K).
3. Distributivitate bilateralǎ faţǎ de adunarea matricelor:

A · (B + C) = A · B + A · C, (∀)A ∈ Mm×n (K), B, C ∈ Mn×p (K) ,


(A + B) · C = A · C + B · C, (∀)A, B ∈ Mm×n (K), C ∈ Mn×p (K) .

Observaţie. În general, dacǎ este definit produsul A · B al unei matrice A


cu o matrice B, nu este neapǎrat definit şi produsul B · A. Chiar dacǎ sunt
definite ambele produse, ele nu au neapǎrat aceleaşi dimensiuni(de exemplu,
dacǎ A ∈ Mm×n (K), B ∈ Mn×m (K)). Chiar dacǎ A · B şi B · A au aceleaşi
dimensiuni(ı̂n acest caz A şi B sunt obligatoriu pǎtratice, de aceeaşi dimen-
siune), nu este obligatoriu ca produsele sǎ fie egale - ı̂nmulţirea matricelor
este necomutativǎ.
Observaţie. Pentru matrice pǎtratice, (Mn (K), +, ·) formeazǎ un inel
necomutativ cu divizori ai lui zero pentru n ≥ 2. (Pentru n = 1, M1 (K)
poate fi identificat cu K, prin identificarea, pentru orice a ∈ K a matricei
1 × 1 (a) cu elementul a.)

Înmulţirea matricelor cu scalari

Definiţie. Fie datǎ o matrice A ∈ Mm×n (K), A = (aij )i=1,m, j=1,n , şi
λ ∈ K. Produsul λA al matricei A cu scalarul λ este matricea P =
12 1. ELEMENTE DE CALCUL MATRICEAL

(pij )i=1,m, j=1,n , având elementele pij = λaij , (∀)i = 1, m, j = 1, n. În acest
mod este definitǎ o operaţie

· : K × Mm×n (K) −→ Mm×n (K) : (A, B) 7−→ A + B ,

numitǎ operaţia de adunare a matricelor de tip (m, n).


Propoziţie. Operaţia de ı̂nmulţire cu scalari are proprietǎţile:
1. λ · (A + B) = λ · A + λ · B, (∀)λ ∈ K, A, B ∈ Mm×n (K).
2. (λ + µ) · A = λ · A + µ · A, (∀)λ, µ ∈ K, A ∈ Mm×n (K).
3. (λ · µ) · A = λ · (µ · A), (∀)λ, µ ∈ K, A ∈ Mm×n (K).
4. 1 · A = A, (∀)A ∈ Mm×n (K), (∀)A ∈ Mm×n (K).
Aceste proprietǎţi indicǎ faptul cǎ Mm×n (K) are o structurǎ de spaţiu vec-
torial peste K.
De asemenea,
5. λ · (A · B) = (λ · A) · B = A · (λ · B), (∀)λ ∈ K, A ∈ Mm×n (K), B ∈
Mn×p (K).

Transpunerea unei matrice

Definiţie. Fie datǎ o matrice A ∈ Mm×n (K), A = (aij )i=1,m, j=1,n . Trans-
pusa AT a matricei A este matricea AT ∈ Mn×m (K), AT = (αji )j=1,n, i=1,m
definitǎ prin
αji = aij , (∀)i = 1, m, j = 1, n .

În acest mod este definitǎ o operaţie

(·)T : Mm×n (K) −→ Mn×m (K) : A 7−→ AT ,

numitǎ operaţia de transpunere a matricelor.


Propoziţie. Operaţia de transpunere are proprietǎţile:
1. Aditivitate: (A + B)T = AT + B T , (∀)A, B ∈ Mm×n (K).
2. Omogenitate: (λ · A)T = λ · AT , (∀)λ ∈ K, A ∈ Mm×n (K).
3. Antimultiplicativitate: (A · B)T = B T · AT , (∀)A ∈ Mm×n (K), B ∈
Mn×p (K).
1.2. DETERMINANŢI 13

1.2 Determinanţi
Definiţie. Fie A ∈ Mn (K), A = (aij )i,j=1,n , o matrice pǎtraticǎ. Elemen-
tul det(A) ∈ K, definit prin
X
det(A) = sgn(σ)a1σ(1) · a2σ(2) · . . . · anσ(n)
σ∈Sn

se numeşte determinantul matricei A.


Observaţie. Sn reprezintǎ mulţimea tuturor permutǎrilor de grad n, i.e.
ale mulţimii {1, 2, . . . , n}. Sn este grup ı̂n raport cu operaţia de compunere a
permutǎrilor. Pentru o permutare σ ∈ Sn , sgn(σ) reprezintǎ signatura(sau
semnul) permutǎrii σ, definitǎ prin (−1)m(σ) , unde m(σ) este numǎrul in-
versiunilor permutǎrii σ, i.e. numǎrul perechilor (i, j) cu proprietatea cǎ
1 ≤ i < j ≤ n şi σ(j) < σ(i).
Notaţie. Determinantul unei matrice A ∈ Mn (K), A = (aij )i,j=1,n , se
noteazǎ cu det(A) sau
a11 a12 . . . a1n



a21 a22 . . . a2n

. .. . . .
. . ..
. .

an1 an2 . . . ann

Propoziţie. Principalele proprietǎţi ale determinanţilor sunt:


a) det(AT ) = det(A).
b) Dacǎ toate elementele unei linii(respectiv ale unei coloane) sunt nule,
atunci det(A) = 0.
c) Dacǎ toate elementele unei linii k(respectiv ale unei coloane k) sunt de
forma akj = λa0kj (respectiv aik = λa0ik ), atunci det(A) = λ · det(A0 ), unde
A0 este matricea obţinutǎ prin ı̂nlocuirea liniei(respectiv coloanei) k din
matricea A cu linia(respectiv coloana) formatǎ din elementele a0kj (respectiv
a0ik ).
c) Dacǎ toate elementele unei linii k(respectiv ale unei coloane k) sunt de
forma akj = a0kj + akj ”(respectiv aik = a0ik + aik ”), atunci det(A) = det(A0 ) +
det(A”), unde A0 , respectiv A”, sunt matricele obţinute prin ı̂nlocuirea lin-
iei(respectiv coloanei) k din matricea A cu linia(respectiv coloana) formatǎ
din elementele a0kj (respectiv a0ik ), respectiv cu linia(respectiv coloana) for-
matǎ din elementele akj ”(respectiv aik ”).
e) Dacǎ matricea A0 se obţine din matricea A prin interschimbarea a douǎ
14 1. ELEMENTE DE CALCUL MATRICEAL

linii(respectiv coloane), atunci det(A0 ) = −det(A).


f) Dacǎ o matrice A are douǎ linii(respectiv coloane) egale sau, mai general,
proporţionale, atunci det(A) = 0.
g) Dacǎ o linie(respectiv coloanǎ) a unei matrice A este o combinaţie liniarǎ
a celorlalte linii(respectiv coloane), atunci det(A) = 0.
Definiţie. Fie A ∈ Mm×n (K), A = (aij )i=1,m, j=1,n , o matrice oarecare,
k ∈ N, 1 ≤ k ≤ min(m, n), un numǎr natural, care nu depǎşeşte dimen-
siunile matricei, 1 ≤ i1 < i2 < . . . < ik ≤ m, k numere de linii fixate,
iar 1 ≤ j1 < j2 < . . . < jk ≤ n, k numere de coloane fixate. Matricea
A0 = Aji11,i,j22,...,i
,...,jk
k
∈ Mk (K), A0 = (aij )i∈{i1 ,i2 ,...,ik }, j∈{j1 ,j2 ,...,jk } , se numeşte
submatrice pǎtraticǎ a matricei A, iar elementul

ai1 j1 ai1 j2 . . . ai1 jk




ai j ai2 j2 . . . ai2 jk
Mij11,i,j22,...,i
,...,jk
= det(A0 ) = .
2 1
∈K

k . .. ... ..
. . .


aik j1 aik j2 . . . aik jk

se numeşte minor(de dimensiune k) al matricei A.


Definiţie. Fie A ∈ Mn (K), A = (aij )i,j=1,n , o matrice pǎtraticǎ şi
Aij11,i,j22,...,i
,...,jk
k
o submatrice pǎtraticǎ a sa. Complementul sǎu algebric este
elementul

j ,j ,...,j {1,2,...,n}\{j ,j ,...,j }


M i11,i22,...,ikk = (−1)(i1 +i2 +...+ik )+(j1 +j2 +...+jk ) · M{1,2,...,n}\{i11,i22,...,ikk}

În particular, complementul algebric al elementului aij al matricei A este


{j}
Aij = M {i} .
Propoziţie. Dacǎ A ∈ Mn (K), A = (aij )i,j=1,n , este o matrice pǎtraticǎ,
atunci pentru orice linie i0 şi orice coloanǎ j0
Pn
det(A) = j=1 ai0 j · Ai0 j = ai0 1 · Ai0 1 + ai0 2 · Ai0 2 + . . . + ai0 n · Ai0 n
Pn
det(A) = i=1 aij0 · Aij0 = a1j0 · A1j0 + a2j0 · A2j0 + . . . + anj0 · Anj0

Observaţie. Ţinând cont de proprietatea (f) de mai sus, dacǎ i0 şi i1


sunt douǎ numere de linii distincte, iar j0 şi j1 douǎ numere de coloane
distincte,atunci
Pn
j=1 ai1 j · Ai0 j = ai1 1 · Ai0 1 + ai1 2 · Ai0 2 + . . . + ai1 n · Ai0 n = 0
Pn
i=1 aij1 · Aij0 = a1j1 · A1j0 + a2j1 · A2j0 + . . . + anj1 · Anj0 = 0
1.3. OPERAŢIA DE INVERSARE A UNEI MATRICE NESINGULARE15

Propoziţie. (Regula lui Laplace) Fie A ∈ Mn (K), A = (aij )i,j=1,n , o


matrice pǎtraticǎ. Pentru orice k ∈ N, 1 ≤ k < n şi orice numere de linii
1 ≤ i1 < i2 < . . . < ik ≤ n fixate are loc
j ,j ,...,j
Mij11,i,j22,...,i
,...,jk
X
det(A) = k
· M i11,i22,...,ikk .
1≤j1 <j2 <...<jk ≤n

De asemenea, pentru orice numere de coloane 1 ≤ j1 < j2 < . . . < jk ≤ n


fixate are loc
j ,j ,...,j
Mij11,i,j22,...,i
,...,jk
X
det(A) = k
· M i11,i22,...,ikk .
1≤i1 <i2 <...<ik ≤n

Propoziţie. Pentru orice matrice pǎtratice A, B ∈ Mn (K) are loc

det(A · B) = det(A) · det(B) .

Corolar. Funcţia det : (Mn (K), ·) −→ (K, ·) este un morfism de semi-


grupuri.

1.3 Operaţia de inversare a unei matrice nesin-


gulare
Definiţie. Fie A ∈ Mn (K) o matrice pǎtraticǎ. Matricea A se numeşte
singularǎ dacǎ det(A) = 0, respectiv nesingularǎ dacǎ det(A) 6= 0.
Definiţie. Fie A ∈ Mn (K) o matrice pǎtraticǎ. Matricea A se numeşte
inversabilǎ dacǎ existǎ o matrice B ∈ Mn (K) cu proprietatea cǎ A · B =
B · A = In . În acest caz, matricea B se numeşte inversa matricei A şi
este notatǎ A−1 .
Definiţie. Fie A ∈ Mn (K), A = (aij )i,j=1,n , o matrice pǎtraticǎ. Ma-
tricea adjunctǎ matricei A este matricea A∗ ∈ Mn (K), A∗ = (Aji )i,j=1,n ,
 
 A11 A21 . . . An1 
 
 A12 A22 . . . An2 
A∗ = 
 
 .. .. ... .. 
 . . . 

 
A1n A2n . . . Ann

Propoziţie. Pentru orice matrice pǎtraticǎ A ∈ Mn (K) are loc A · A∗ =


A∗ · A = det(A) · In .
16 1. ELEMENTE DE CALCUL MATRICEAL

Propoziţie. O matrice pǎtraticǎ A ∈ Mn (K) este inversabilǎ dacǎ şi


numai dacǎ este nesingularǎ. În acest caz,

1
A−1 = · A∗ .
det(A)

Propoziţie. Mulţimea GLn (K) = {A ∈ Mn (K)|det(A) 6= 0} a matricelor


inversabile formeazǎ un grup, numit grupul genral liniar de grad n.
Definiţie. Operaţia de inversare este definitǎ prin

(−)−1 : GLn (K) −→ GLn (K) : A 7−→ A−1 .

Propoziţie. Operaţia de inversare are proprietǎţile:


a) (A−1 )−1 = A, (∀)A ∈ GLn (K).
b) (AT )−1 = (A−1 )T , (∀)A ∈ GLn (K).
c) (A · B)−1 = B −1 · A−1 , (∀)A, B ∈ GLn (K).

1.4 Rangul unei matrice

Definiţie. Fie A ∈ Mm×n (K) o matrice oarecare şi r ∈ N, 0 ≤ r ≤


min(m, n). Numǎrul r se numeşte rangul matricei A, notat rang(A),
dacǎ reprezintǎ cea mai mare dimensiune a unui minor nenul al matricei A,
i.e. dacǎ existǎ un minor nenul de dimensiune r al matricei A(mai puţin ı̂n
cazul matricei nule Omn , pentru care r = 0), iar orice minor de dimensiune
> r al matricei A este egal cu 0. Un minor nenul de dimensiune r = rang(A)
al matricei A se numeşte minor principal al matricei A.
Propoziţie. Pentru orice matrice A ∈ Mm×n (K), B ∈ Mn×p (K) are loc

rang(A · B) ≤ min(rang(A), rang(B)) .

Corolar. Dacǎ A ∈ GLn (K), atunci

rang(A · B) = rang(B) , (∀)B ∈ Mn×p (K) şi


rang(B · A) = rang(B) , (∀)B ∈ Mm×n (K) .
1.5. SISTEME DE ECUAŢII LINIARE 17

1.5 Sisteme de ecuaţii liniare


Definiţie. Un sistem de ecuaţii de forma




 a11 x1 + a12 x2 + . . . + a1n xn = b1


 a21 x1

+ a22 x2 + . . . + a2n xn = b2
..
 .





 am1 x1

+ am2 x2 + . . . + amn xn = bm

se numeşte sistem de ecuaţii liniare. Matricea A ∈ Mm×n (K), A = (aij )i=1,m, j=1,n ,
se numeşte matricea(coeficienţilor) sistemului, matricea coloanǎ X ∈
Mn×1 , X = (xj )j=1,n se numeşte matricea necunoscutelor sistemului,
matricea coloanǎ B ∈ Mm×1 (K), B = (bi )i=1,m se numeşte matricea ter-
menilor liberi ai sistemului, iar matricea A = (A|B) ∈ Mm×(n+1) (K)
obţinutǎ prin adjuncţionarea la matricea A a matricei coloanǎ B se numeşte
matricea extinsǎ a sistemului.
Observaţie. Sistemul de ecuaţii liniare se poate transcrie matriceal ı̂n
forma
A·X =B.

Definiţie. Un sistem de ecuaţii liniare A · X = B se numeşte compatibil


dacǎ existǎ X0 ∈ Mn×1 (K) astfel ı̂ncât sǎ fie verificatǎ egalitatea A·X0 = B.
În acest caz, X0 se numeşte soluţie a sistemului.
Definiţie. Un sistem de ecuaţii compatibil A · X = B se numeşte deter-
minat dacǎ soluţia X0 ∈ Mn×1 (K) este unic determinatǎ. În caz contrar,
i.e. dacǎ existǎ mai multe soluţii ale sistemului, sistemul se numeşte nede-
terminat.
Teoremǎ. (Kronecker-Capelli) Un sistem de ecuaţii liniare A · X = B
este compatibil dacǎ şi numai dacǎ rang(A) = rang(A).
Definiţie. Dacǎ A · X = B şi rang(A) = r, existǎ un minor nenul dr de
dimensiune r al lui A, numit minor principal al sistemului. Orice minor
al matricei extinse A obţinut prin bordarea submatricei corespunzǎtoare
minorului principal dr cu elemente din coloana termenilor liberi şi una din-
tre liniile rǎmase(ı̂n caz cǎ r < m) se numeşte minor caracteristic al
sistemului.
Teoremǎ. (Rouché) Un sistem de ecuaţii liniare A · X = B este compat-
ibil dacǎ şi numai dacǎ toţi minorii caracteristici ai sistemului sunt nuli.
18 1. ELEMENTE DE CALCUL MATRICEAL
2

Transformǎri elementare

2.1 Matrice elementare şi transformǎri ele-


mentare

Fie Mn (R) inelul matricelor pǎtrate de ordin n cu coeficienţi din R şi In


matricea unitate din Mn (R). S-a notat cu GLn (R) grupul multiplicativ al
matricelor inversabile ı̂n inelul Mn (R).

Pentru i, j ∈ N, 1 ≤ i, j ≤ n, notǎm cu eij matricea din Mn (R) care are


la intersecţia liniei i cu coloana j elementul 1 ∈ R şi 0 pe celelalte poziţii.
Se verificǎ imediat:

 0, j 6= s
eij · est = .
 e , j=s
it

Pentru i, j ∈ N, 1 ≤ i 6= j ≤ n şi a ∈ R, fie Aij (a) matricea

Aij (a) = In + a · eij ∈ Mn (R),

numitǎ matrice elementarǎ. Se observǎ cǎ matricea Aij (a) conţine la intersecţia
liniei i cu coloana j elementul a ∈ R, 1 pe diagonala principalǎ şi 0 pe cele-

19
20 2. TRANSFORMǍRI ELEMENTARE

lalte poziţii:
 .. 
 1 . 
 .. .. 

 . . 

 
 ... ... 1 ... a ... ... 
 
. . . ..
 
Aij (a) = 
 . .

 
 

 1 

 .. . . 

 . . 


.. 
. 1

Cum i 6= j, pentru oricare a, b ∈ R avem:

Aij (a) · Aij (b) = In + a · eij =


= In + (a + b) · eij =
= Aij (a + b).

Aij (0) = In

Aij (a) · Aij (−a) = Aij (0) = Aij (a).

Deducem cǎ oricare matrice elementarǎ este inversabilǎ ı̂n Mn (R) şi cǎ
inversa unei matrice elementare este tot o matrice elementarǎ :

Aij (a)−1 = Aij (−a)

Observǎm cǎ det(Aij (a)) = 1. Fie A ∈ Mm×n (R) şi Aij (a) ∈ MM (R).
Matricea A0 = Aij (a)·A este egalǎ cu matricea care se obţine din A adunând
la linia i linia j a acesteia ı̂nmulţitǎ cu a. O asemenea operaţie se numeşte
transformare elementarǎ asupra matricei A şi vom nota

Aij (a)
A −→ A0 .

Analog, se observǎ cǎ matricea A” = A · Aij (a) este egalǎ cu matricea


care se obţine din A adunând la coloana j coloana i ı̂nmulţitǎ cu a. Operaţia
de mai sus se va numi transformare elementarǎ asupra coloanelor matricei
A şi vom nota:
Aij (a)
A =⇒ A”.
2.1. MATRICE ELEMENTARE ŞI TRANSFORMǍRI ELEMENTARE21

Pentru i, j ∈ N, 1 ≤ i < j ≤ n, definim matricele din Mn (R):



.. .. 
 1 . . 
 ... .. .. 

 . . 


.. .. 
1 . .
 
 
 
. . . . . . 0 . . . . . . . . . −1 . . .
 
 ... ... ... 
 
 .. .. 

 . 1 . 


.. ... .. 
Qij = . . ,
 
 
 .. .. 

 . 1 . 

 
 ... ... ... 1 ... ... ... 0 ... ... ... 


.. ..
 
 

 . . 1 

 .. .. .. 

 . . . 


.. .. 
. . 1


.. .. 
 1 . . 
 .. .. .. 

 . . . 


.. .. 
1 . .
 
 
 
 
 ... ... ... 0 ... ... ... 1 ... ... ... 
 
 .. .. 

 . 1 . 


.. ... .. 
Pij = . . ,


 
.. .
1 ..
 

 . 

 
 ...

. . . . . . −1 . . . . . . . . . 0 ... ... ... 

.. ..
 
 

 . . 1 

 .. .. ... 

 . . 


.. .. 
. . 1

care ı̂n poziţiile nespecificate conţin elemente nule. Observǎm cǎ :

Qij = Aij (−1) · Aji (1) · Aij (−1)

Rij = Aji (−1) · Aij (1) · Aji (−1)

Dacǎ A ∈ Mm×n (R) şi Qij ∈ Mm (R) atunci matricea A0 = Qij · A este
egalǎ cu matricea care se obţine din matricea A punând ı̂n locul liniei i linia
j ı̂nmulţitǎ cu (−1) şi ı̂n locul liniei j linia i.
22 2. TRANSFORMǍRI ELEMENTARE

Matricea  
 M1 0 ... 0 
 
 0 M2 . . . 0 
 ∈ Mn (R),
 
 ..
 ... ...
 . ... 

 
0 0 . . . Mn
se noteazǎ diag(M1 , M2 , . . . , Mn ). Definim matricele:

Mi (d) = diag(1, . . . , 1, d, 1, . . . , 1)

.. .. 
 1 . . 
 ... .. .. 

 . . 


.. .. 
1 . .
 
 
 
 
 ... ... ... 0 ... ... ... 1 ... ... ... 
 
 .. .. 

 . 1 . 


.. .. .. 
Pij = Mi (−1) · Qij = . . . .
 
 
 .. .. 

 . 1 . 

 
 ... ... ... 1 ... ... ... 0 ... ... ... 


.. ..
 
 

 . . 1 

 .. .. .. 

 . . . 


.. .. 
. . 1
Avem cǎ
det(Aij (a)) = 1,

det(Pij ) = −1,

det(Mi (d)) = d.

Matricele
(I) Aij , a ∈ R, 1 ≤ i 6= j ≤ m,
(II) Mi (d), d ∈ R, d 6= 0, 1 ≤ i ≤ m,
(III) Pij , 1 ≤ i < j ≤ m,
se numesc matrice elementare respectiv de tipul I, II, III. Dacǎ A ∈
Mm×n (R) atunci ı̂nmulţirea la stânga a matricei A respectiv cu o matrice
elementarǎ de tip I, II, III va fi numitǎ transformare elementarǎ(a liniilor
lui A) respectiv de tip I, II, III, adicǎ:
(I) adunarea la linia i a lui A a liniei j ı̂nmulţitǎ cu a;
2.2. APLICAŢII ALE TRANSFORMǍRILOR ELEMENTARE ÎN CALCULUL MATRICIAL23

(II) ı̂nmulţirea liniei i a lui A cu un numǎr nenul d;


(III) permutarea liniilor i şi j ale matricei A.
Prin ı̂nmulţirea la dreapta a unei matrice A cu o matrice elementarǎ se
obţin urmǎtoarele transformǎri elementare:
(I)0 adunarea coloanei i a lui A ı̂nmulţitǎ cu a la coloana j;
(II)0 ı̂nmulţirea coloanei i a lui A cu un numǎr nenul d;
(III)0 permutarea coloanelor i şi j ale matricei A.

2.2 Aplicaţii ale transformǎrilor elementare


ı̂n calculul matricial

2.2.1 Calculul rangului unei matrice

Deoarece matricele elementare sunt inversabile, prin aplicarea transformǎrilor


elementare, rangul unei matrice nu se modificǎ(ı̂n general are loc ı̂nsǎ ine-
galitatea

rang(A · B) ≤ min(rang(A), rang(B)) ;

vezi şi Exerciţiul 1).


Modul de determinare a rangului este atunci urmǎtorul:
Se aplicǎ transformǎri elementare cu scopul de a anula cât mai multe din
elementele matricei. Algoritmul se ı̂ncheie atunci când matricea conţine cel
mult câte un element nenul pe fiecare linie şi fiecare coloanǎ. Rangul este
atunci egal cu numǎrul elementelor nenule rǎmase.
Remarcǎ. Rezultatul acesta poate fi obţinut fǎrǎ a utiliza alte transformǎri
decât cele de tip I şi I 0 !
Exemplu. Fie matricea
 
1 −2 1 3
 
A =  1 −2 −1 1  .
 
 
2 −4 0 4

Amintim cǎ notǎm cu −→ transformǎrile elementare care acţioneazǎ asupra


liniilor şi cu =⇒ pe cele care acţioneazǎ asupra coloanelor.
24 2. TRANSFORMǍRI ELEMENTARE

Avem:
   
1 −2 1 3 1 −2 1 3
A21 (−1) A31 (−2) A32 (−1)
   
A −→   0 0 −2 −2 

−→ 
 0 0 −2 −2 

−→
   
2 −4 0 4 0 0 −2 −2
   
1 −2 1 3 1 0 1 3
A32 (−1) A12 (2) A13 (−1)
   
−→  0 0 −2 −2  =⇒  0 0 −2 −2  =⇒
   
   
0 0 0 0 0 0 0 0
   
1 0 0 3 1 0 0 0
A13 (−1) A14 (−3) A34 (−1)
   
=⇒  0 0 −2 −2  =⇒  0 0 −2 −2  =⇒
   
   
0 0 0 0 0 0 0 0
 
1 0 0 0
A34 (−1)
 
=⇒  0 0 −2 0  = E.
 
 
0 0 0 0
Avem E = U · A · V , unde U = A32 (−1) · A31 (−2) · A21 (−1), iar V =
A12 (2) · A13 (−1) · A14 (−3) · A34 (−1). Obţinem cǎ

rang(A) = rang(E) = 2.

2.2.2 Calculul determinantului şi a inversei unei ma-


trice pǎtratice
Fie A ∈ Mn (R) o matrice pǎtraticǎ. Calculând ca mai sus, putem deter-
mina rangul lui A. Dacǎ rang(A) < n, atunci det(A) = 0 şi A este o matrice
neinversabilǎ(sau singularǎ).
Dacǎ rang(A) = n, atunci putem proceda ı̂n felul urmǎtor pentru a calcula
det(A):
-Sǎ presupunem cǎ am folosit doar transformǎri de tipul I şi I 0 pentru
determinarea rangului şi cǎ am obţinut o matrice care conţine exact(!) câte
un element nenul pe fiecare linie şi fiecare coloanǎ.
-Folosind transformǎri de tipul III şi/sau III 0 putem transforma ultima
matrice ı̂ntr-o matrice diagonalǎ D = diag(M1 , . . . , Mn ).
Vom avea atunci
n
k
Y
det(A) = (−1) · Mi ,
i=1
2.2. APLICAŢII ALE TRANSFORMǍRILOR ELEMENTARE ÎN CALCULUL MATRICIAL25

unde k este numǎrul transformǎrilor de tip III şi III 0 folosite.


Exemplu. Sǎ calculǎm cu metoda descrisǎ determinantul matricei:
 
2 0 −2 1
 
 1 1 1 3 
 
A= .
 0 2 1 1 
 
 
1 2 2 2

Avem:
   
2 0 −2 1 2 0 −2 1
   
 1 1 1 3  0 1 0 0 
   
  A21 (−1)·A=⇒
23 (−1)·A24 (−3) 
  A32 (−2)·A
−→
42 (−2)

 0 2 1 1   −2 2 −1 −5 
   
   
1 2 2 2 −1 2 0 −4
   
2 0 −2 1 2 0 −2 −7
   
 0 1 0 0  A24 (−1)  0 1 0 0 
   
−→   A34 (−2)·A
−→
14 (2)
 =⇒ 
  
 −2 0 −1 −5   −2 0 −1 3 

   
−1 0 0 −4 −1 0 0 0
   
0 0 −2 −7 0 0 −2 −13
   
0 1 0 0  0 1 0 0 
   
 A=⇒
34 (3) 
 A−→
13 (−2)

−→  
0 0 −1 3  0 0 −1 0 
   
 
   
−1 0 0 0 −1 0 0 0
   
0 0 0 −13 −1 0 0 0
   
0 1 0 0  0 1 0 0 
   
 P−→
14 (3) 

−→   
0 0 −1 0  0 0 −1 0 
   
  
  
−1 0 0 0 0 0 0 −13
Obţinem deci cǎ

det(A) = (−1)1 · [(−1) · 1 · (−1) · (−13)] = 13.

Pentru a calcula inversa unei matrice A o aducem ca mai sus la forma di-
agonalǎ, dupǎ care cu ajutorul unor transformǎri de tip II sau II 0 ajungem
la matricea unitate. Punând ı̂n evidenţǎ transformǎrile folosite, obţinem o
egalitate de forma U · A · V = In , de unde A−1 = V · U .
26 2. TRANSFORMǍRI ELEMENTARE

Observaţie. Folosind doar transformǎri asupra liniilor(resp. coloanelor),


se poate obţine o egalitate de forma U · A = In (resp. A · V = In ), de unde
rezultǎ evident cǎ A−1 = U (resp. A−1 = V ).
O metodǎ practicǎ de a calcula matricea A−1 este atunci urmǎtoarea: Se
aplicǎ ı̂n paralel aceleaşi transformǎri elementare numai asupra liniilor(resp.
coloanelor) matricei A şi ale matricei In , pânǎ când matricea A se trans-
formǎ ı̂n matricea unitate In . În acel moment matricea unitate va fi trans-
formatǎ ı̂n matricea U = A−1 (resp. V = A−1 ).
Observaţie. Cunoscând A−1 = U (resp. A−1 = V ), care este scrisǎ ca un
produs de matrice elementare, putem obţine o descompunere A = U −1 (resp.
A = V −1 ) a matricei A ca produs de matrice elementare, descompunere utilǎ
de exemplu ca o altǎ modalitate de a calcula determinantul matricei A.

Observaţie. Metoda transformǎrilor elementare va fi rafinatǎ mai


târziu, când vom discuta schimbǎri de baze ı̂n spaţii liniare şi vom prezenta
aşa-numita metodǎ a pivotului.

Exemplu. Vom calcula inversa şi determinantul matricei urmǎtoare,


folsind metoda transformǎrilor elementare, expusǎ mai sus:

 
1 1 2 1
 
 0 1 3 2 
 
A= .
 2 1 3 2 
 
 
1 2 1 1

Pentru aceasta vom utiliza doar transformǎri elementare asupra coloanelor,


transformǎri pe care le vom indica ı̂n partea dreaptǎ a unor tabele care vor
conţine matricea A şi matricea unitate.
Avem:
2.2. APLICAŢII ALE TRANSFORMǍRILOR ELEMENTARE ÎN CALCULUL MATRICIAL27

1 1 2 1 1 0 0 0 A12 (−1)

0 1 3 2 0 1 0 0 A13 (−2)

2 1 3 2 0 0 1 0 A14 (−1)

1 2 1 1 0 0 0 1

1 0 0 0 1 -1 -2 -1 M4 ( 12 )

0 1 3 2 0 1 0 0

2 -1 -1 0 0 0 1 0

1 1 -1 0 0 0 0 1
28 2. TRANSFORMǍRI ELEMENTARE

1 0 0 0 1 -1 -2 − 21 A43 (−3)

0 1 3 1 0 1 0 0 A42 (−1)

2 -1 -1 0 0 0 1 0

1
1 1 -1 0 0 0 0 2

1 0 0 0 1 − 12 − 21 − 12 M3 (−1)

0 0 0 1 0 1 0 0

2 -1 -1 0 0 0 1 0

1 1 -1 0 0 − 12 − 23 1
2

1 0 0 0 1 − 12 1
2
− 12 A32 (1)

0 0 0 1 0 1 0 0 A31 (−2)

2 -1 1 0 0 0 -1 0

1 1 1 0 0 − 12 3
2
1
2
2.2. APLICAŢII ALE TRANSFORMǍRILOR ELEMENTARE ÎN CALCULUL MATRICIAL29

1
1 0 0 0 0 0 2
− 12 M4 ( 12 )

0 0 0 1 0 1 0 0 P24

0 0 1 0 2 -1 -1 0

3 1
-1 2 1 0 -3 1 2 2

1 0 0 0 0 − 12 1
2
0 A43 (−1)

1
0 1 0 0 0 0 0 2
A41 (1)

0 0 1 0 2 0 -1 − 12

1 3 1
-1 0 1 1 -3 2 2 2

1 0 0 0 0 − 12 1
2
0

1
0 1 0 0 2
0 − 12 1
2

3
0 0 1 0 2
0 − 12 − 12

0 0 0 1 − 52 1
2
1 1
2

Dupǎ calculele prezentate ı̂n tabelul de mai sus am obţinut urmǎtoarele


30 2. TRANSFORMǍRI ELEMENTARE

rezultate:  
 0 − 21 1
2
0 
 
 
 
1
0 − 12 1
 
 
 2 2 
A−1
 
=

,

 
3

 2
0 − 12 − 12 

 
 
 
 
− 25 1
2
1 1
2

A = A41 (−1) · A43 (1) · P24 · M2 (2) · A31 (2) · A32 (−1)·

·M3 (−1) · A42 (1) · A43 (3) · M4 (2) · A14 (1) · A13 (2) · A12 (1),

det(A) = 1 · 1 · (−1) · 2 · 1 · 1 · (−1) · 1 · 1 · 2 · 1 · 1 · 1 = 4.

2.3 Probleme propuse


1. Sǎ se calculeze rangurile matricelor:
   
1 2 2 4 1 2 −1
   
a)  4 5 8 10  b)  −1 3 0  ,α ∈ R
   
   
3 1 6 2 2 α 3

   
1 0 1 0 1 −2 3
   
 1 1 0 0   2 1 2 
   
c)   d)  
 0 1 1 0   4 2 4 
   
   
0 0 1 1 3 6 9
   
3 2 −1 2 0 3 0 3 0 3
   
 4 1 0 −3 0   0 2 0 2 0 
   
e)   f)  
 2 −1 1 1 1   3 2 0 2 3 
   
   
3 1 3 −9 −1 0 2 0 2 0
   
3 2 0 1 4 5 4 2 2 3
   
 −1 5 2 3 5  1 0 3 −3 1
   
 
g)   h)  
 6 −12 3 −7 −8   1 −1 −1 4 −1
   

   
10 2 7 1 10 3 4 3 −2 −9
2.3. PROBLEME PROPUSE 31

2. Sǎ se calculeze inversele matricelor:


   
1 1 1 2 2 3
   
a)  1 2 3  b)  1 −1 0  ,α ∈ R
   
   
1 3 6 −1 2 α
 
1 1 1 1  
  1 2 −3
 0 1 1 1 
   
c)  d)  0 1 2 
   
 0 0 1 1 
  
  0 0 1
0 0 0 1
   
3 2 −1 3 0 3
   
e) 
 4 −3 0 

f) 
 0 2 0 

   
3 1 3 1 2 3
32 2. TRANSFORMǍRI ELEMENTARE
3

Spaţii liniare

Definiţie. Fie M o mulţime nevidǎ. O aplicaţie

φ : M × M −→ M

se numeşte lege de compoziţie internǎ sau operaţie binarǎ internǎ pe mulţimea


M.
Definiţie. Fie Ω şi M douǎ mulţimi nevide. O aplicaţie

Ψ : Ω × M −→ M

se numeşte lege de compoziţie externǎ pe M sau operaţie externǎ pe M cu


operatori ı̂n Ω.

Definiţia noţiunii de spaţiu liniar.


Fie V o mulţime nevidǎ şi K un corp. Spunem cǎ V este un spaţiu liniar(sau
spaţiu vectorial) peste corpul K, dacǎ V este ı̂nzestrat cu o operaţie binarǎ
internǎ, notatǎ aditiv

+ : V × V −→ V : (v, w) 7−→ v + w

şi cu o lege de compoziţie externǎ cu operatori ı̂n corpul K, notatǎ multi-


plicativ
· : K × V −→ V : (α, v) 7−→ α · v,

care satisfac urmǎtoarele axiome:


SL1. (u + v) + w = u + (v + w), (∀)u, v, w ∈ V .
SL2. v + w = w + v, (∀)v, w ∈ V .

33
34 3. SPAŢII LINIARE

SL3. (∃)0 ∈ V : 0 + v = v + 0 = v, (∀)v ∈ V .


SL4. (∀)v ∈ V (∃)(−v) ∈ V : (−v) + v = v + (−v) = 0.
SL5. α · (v + w) = α · v + α · w, (∀)α ∈ K, (∀)v, w ∈ V .
SL6. (α + β) · v = α · v + β · v, (∀)α, β ∈ K, (∀)v ∈ V .
SL7. (α · β) · v = α · (β · v), (∀)α, β ∈ K, (∀)v ∈ V .
SL8. 1 · v = v, (∀)v ∈ V .

Observaţie. Axiomele SL1-SL4 afirmǎ cǎ (V, +) este un grup abelian.


Axiomele SL5-SL8 exprimǎ proprietǎţile operaţiei externe.
Terminologie:
i) Elementele mulţimii V se numesc vectori.
ii) Elementele corpului K se numesc scalari.
iii) Legea de compoziţie internǎ(+) se numeşte adunarea vectorilor.
iv) Legea de compoziţie externǎ(·) se numeşte ı̂nmulţirea vectorilor cu scalari.
v) Elementul neutru 0 al grupului (V, +)(vezi SL3) se numeşte vectorul nul.
vi) Dacǎ K = R, atunci V se numeşte spaţiu liniar real.
3.1. SPAŢIUL LINIAR REAL RN 35

3.1 Spaţiul liniar real Rn


Mulţimea Rn = R |
×R× {z
. . . × R} = {(x1 , x2 , . . . , xn )|xi ∈ R} a sistemelor
n ori
ordonate de câte n numere reale o identificǎm cu mulţimea Mn×1 (R) a
matricelor cu n linii şi o singurǎ coloanǎ, scriind cele n numere ale unui
sistem (x1 , x2 , . . . , xn ) ı̂ntr-o matrice coloanǎ
 
 x1 
 
 x2 
X= .
 
 .. 
 . 
 
xn

Un asemenea sistem ı̂l vom numi atunci vector ı̂n Rn .


Definim o operaţie de adunare a vectorilor prin:
     
 x1   y1   x1 + y1 
     
 x2   y2   x2 + y2 
Dacǎ X =  .  şi Y = 
 
 .  , atunci X + Y = 
 
.. .

 .   .
 .   . .
  
  
     
xn yn xn + yn

De asemenea, definim o operaţie de ı̂nmulţire a vectorilor cu scalari prin:


   
 x1   αx1 
   
 x2   αx2 
Dacǎ α ∈ R şi X =  .  , atunci αX =  . 
  
.
 .   . 
 .   . 
   
xn αxn

În raport cu aceste operaţii, Rn este atunci un spaţiu liniar real, care se
numeşte spaţiul aritmetic real n-dimensional.
36 3. SPAŢII LINIARE

3.2 Dependenţa şi independenţa liniarǎ a vec-


torilor din Rn
Definiţie. Fie X1 , . . . , Xm ∈ Rn m vectori din Rn şi α1 , α2 , . . . , αm ∈ R
scalari reali. Expresia

α1 X1 + α2 X2 + . . . + αm Xm

se numeşte combinaţia liniarǎ a vectorilor daţi cu coeficienţii α1 , α2 , . . . ,


αm .
Observaţie. Orice combinaţie liniarǎ a unor vectori din Rn este de aseme-
nea un vector din Rn .
Definiţie. Spunem cǎ vectorii X1 , X2 , . . . , Xm ∈ Rn formeaǎ un sistem de
generatori pentru spaţiul liniar Rn , dacǎ orice vector X ∈ Rn poate fi scris
ca o combinaţie liniarǎ a vectorilor X1 , X2 , . . . , Xm cu anumiţi coeficienţi
α1 , α2 , . . . , αm :
X = α1 X1 + α2 X2 + . . . + αm Xm .

Observaţie. Evident, vectorul nul poate fi scris ca o combinaţie a oricǎror


vectori folosind coeficienţi egali cu 0.
Definiţie. O combinaţie liniarǎ a vectorilor X1 , X2 , . . . , Xm având ca rezul-
tat vectorul nul
α1 X1 + α2 X2 + . . . + αm Xm = 0,

ı̂n care nu toţi coeficienţii sunt nuli, se numeşte relaţie de dependenţǎ liniarǎ
ı̂ntre vectorii X1 , X2 , . . . , Xm .
Definiţie. Un sistem de vectori S = {X1 , X2 , . . . , Xm } ⊆ Rn se numeşte
liniar dependent dacǎ existǎ o relaţie de dependenţǎ liniarǎ ı̂ntre vectorii
sistemului, i.e. dacǎ existǎ numere reale α1 , α2 , . . . , αm , nu toate nule, astfel
ı̂ncât
α1 X1 + α2 X2 + . . . + αm Xm = 0.

Definiţie. Un sistem de vectori S = {X1 , X2 , . . . , Xm } ⊆ Rn se numeşte


liniar independent dacǎ nu existǎ nici o relaţie de dependenţǎ liniarǎ ı̂ntre
vectorii sistemului, i.e. dacǎ relaţia

α1 X1 + α2 X2 + . . . + αm Xm = 0
3.2. DEPENDENŢA ŞI INDEPENDENŢA LINIARǍ A VECTORILOR DIN RN 37

poate avea loc numai dacǎ α1 = α2 = . . . = αm = 0.

Exemplu. Fie vectorii V1 = [1 −1 −5]T , V2 = [2 2 −1]T , V3 = [4 8 7]T . Vom


studia cu ajutorul definiţiei dependenţa liniarǎ a sistemului S = {V1 , V2 , V3 }.
Putem rescrie o combinaţie liniarǎ nulǎ a vectorilor V1 , V2 , V3 cu scalarii
λ1 , λ2 , λ3 ı̂n felul urmǎtor:

λ1 · V1 + λ2 · V2 + λ3 · V3 = 0 ⇐⇒
       
1 2 4 0
       
 −1  + λ2  2  + λ3  8  =  0  ⇐⇒
⇐⇒ λ1        
       
−5 −1 7 0

λ + 2λ2 + 4λ3 = 0
 1



⇐⇒ −λ
1 + 2λ2 + 8λ3 = 0


 −5λ

− λ2 + 7λ3 = 0
1

care este un sistem omogen de trei ecuaţii cu necunoscutele λ1 , λ2 , λ3 . Acest


sistem admite soluţii nebanale dacǎ şi numai dacǎ rangul matricei asociate
sistemului este mai mic decât 3. Într-adevǎr, avem
 
1 2 4
 
AS = 
 −1 2 8 

 
−5 −1 7

şi rang(AS ) = 2. Notând λ3 = α, obţinem λ1 = 2α şi λ2 = −3α, deci

2α · V1 − 3α · V2 + α · V3 = 0,

relaţie care are loc pentru orice α ∈ R. Pentru valori particulare nenule
oarecare ale parametrului α, se obţin diferite relaţii de dependenţǎ linarǎ
ı̂ntre vectorii sistemului. De exemplu, pentru α = 1 avem relaţia:

2V1 − 3V2 + V3 = 0,

astfel cǎ sistemul S este liniar dependent.

Observaţie. A gǎsi o relaţie de dependenţǎ liniarǎ ı̂ntre m vectori X1 , X2 , . . . , Xm ∈


38 3. SPAŢII LINIARE

Rn , unde  
a1j
 
 a2j
 

 .
 
 ..


Xj =  ,
 
 a 
 ij 
 ..
 
 .


 
anj
este echivalent cu a cǎuta soluţii nenule pentru un sistem liniar omogen
cu n ecuaţii(corespunzǎtor celor n componente ale vectorilor din Rn ) şi m
necunoscute α1 , α2 , . . . , αm :



 α1 a11 + α2 a12 + . . . + αm a1m = 0


 α a + α a + ... + α a
m 2m = 0

1 21 2 22



 ... ... ...



α1 an1 + α2 an2 + . . . + αm anm = 0

Acest sistem are matricea

AS = [ X1 X2 . . . Xm ],

formatǎ prin alǎturarea celor m coloane ale vectorilor daţi.


Prin urmare:

• Condiţia ca un astfel de sistem sǎ aibǎ soluţii nenule este ca rangul


matricei AS a sistemului sǎ fie mai mic decât numǎrul m al necunos-
cutelor.

• Condiţia ca sistemul sǎ aibǎ doar soluţia nulǎ este ca rangul matricei
AS a sistemului sǎ fie egal cu numǎrul m al necunoscutelor.

Teorema 1. Sistemul de vectori S = {Xj | j = 1, m} ∈ Rn este liniar


dependent dacǎ şi numai dacǎ rang(A) < m.
Teorema 2. Sistemul de vectori S = {Xj | j = 1, m} ∈ Rn este liniar
independent dacǎ şi numai dacǎ rang(A) = m.
Corolar. Sistemul de vectori S = {Xj | j = 1, n} ∈ Rn este liniar depen-
dent dacǎ şi numai dacǎ det(A) 6= 0.

Observaţie. Dacǎ m > n, i.e. numǎrul vectorilor este mai mare decât
dimensiunea spaţiului, atunci rangul matricei AS ∈ Mn×m (R) nu poate
3.3. PROBLEME PROPUSE 39

depǎşi numǎrul n, deci este mai mic decât m, astfel cǎ un asemenea sistem
de vectori este liniar dependent.

Exemplu. Fie ı̂n R3 vectorii X1 = [2 3 1], X2 = [4 1 0], X3 = [5 1 1],


X4 = [1 0 0]. Matricea asociatǎ sistemului S = {X1 , X2 , X3 , X4 } este
 
2 4 5 1
 
 3 1 1 0 .
A= 
 
1 0 1 0

Evident rang(A) < 4, astfel cǎ S este un sistem liniar dependent. Se observǎ
cǎ rangul matricei  
2 4 5
 
A0 =  3 1 1 
 
 
1 0 1
este 3, cu det(A) = −11, prin urmare vectorii X1 , X2 , X3 formeazǎ un
sistem liniar independent.

Definiţie. Rangul unui sistem de vectori S este numǎrul maxim de vectori


ai unui subsistem liniar indenpdent conţinut ı̂n S.
Propoziţie. Rangul unui sistem de vectori S = {X1 , X2 , . . . , Xm } ⊆ Rn
este rangul matricei asociate:

rang(S) = rang(AS ).

3.3 Probleme propuse


1. Determinaţi relaţia de dependenţǎ liniarǎ dintre urmǎtorii vectori din
R4 : V1 = [1 2 2 4]T , V2 = [4 5 8 10]T , V3 = [3 1 6 2]T .

2. Fie ı̂n R3 urmǎtorul sistem de vectori: S = {V1 = [1 2 − 1]T , V2 =


[−1 3 0]T , V3 = [2 α 3]T }.
a) Pentru ce valori ale lui α, α ∈ R, sistemul S este liniar independent.
b) Determinaţi relaţia de dependenţǎ liniarǎ dintre vectorii sistemului S ı̂n
cazul ı̂n care acesta este liniar independent.
40 3. SPAŢII LINIARE

3. Verificaţi existenţa unei relaţii de dependenţǎ liniarǎ ı̂ntre urmǎtorii vec-


tori din R4 : V1 = [1 0 1 0]T , V2 = [1 1 0 0]T , V3 = [0 1 1 0]T , V4 = [0 0 1 1]T .

4. Verificaţi dependenţa liniarǎ a urmǎtorilor vectori din R3 , şi deduceţi


relaţia de dependenţǎ liniarǎ dintre ei: V1 = [1 − 2 3]T , V2 = [2 1 2]T , V3 =
[4 2 4]T , V4 = [3 6 9]T .

5. Sǎ se arate cǎ urmǎtorii vectori din R5 sunt liniari dependenţi şi sǎ se
deducǎ relaţia de dependenţǎ liniarǎ dintre ei:
a) V1 = [3 2 − 1 2 0]T , V2 = [4 1 0 − 3 0]T , V3 = [2 − 1 1 1 1]T , V4 =
[3 1 3 − 9 − 1]T .
b) V1 = [3 0 3 0 3]T , V2 = [0 2 0 2 0]T , V3 = [3 2 0 2 3]T , V4 = [0 2 0 2 0]T .
c) V1 = [3 2 0 1 4]T , V2 = [−1 5 2 3 5]T , V3 = [6 − 12 3 − 7 − 8]T , V4 =
[10 2 7 1 10]T .
d) V1 = [5 4 2 2 3]T , V2 = [1 0 3 − 3 1]T , V2 = [1 − 1 − 1 4 − 1]T , V4 =
[3 4 3 − 2 − 9]T .
4

Dependenţa şi independenţa


liniarǎ a vectorilor

Fie spaţiul vectorial Rn şi S = V1 , V2 , . . . , Vm ⊂ Rn un sistem finit de vectori


din Rn .
Definiţie. Spunem cǎ sistemul de vectori S este liniar independent (sau
cǎ vectorii sistemului sunt liniar independenţi) dacǎ relaţia

(1) λ1 V1 + λ2 V2 + · · · λm Vm = Θ

are loc numai dacǎ λi = 0, ∀i = 1, m (Θ este vectorul nul).


În caz contrar sistemul se numeşte liniar dependent (vectorii sistemului
sunt liniar dependenţi), iar o egalitate de tipul (1) se numeşte it relaţie de
dependenţǎ liniarǎ ı̂ntre vectorii sistemului S.
Expresia din membrul stâng a relaţiei de mai sus se numeşte combinaţie
liniarǎ a vectorilor V1 , . . . , Vm cu scalarii λ1 , . . . , λm .
Exemplu. Fie vectorii V1 = [1 −1 −5]T , V2 = [2 2 −1]T , V3 = [4 8 7]T .
Vom studia cu ajutorul definiţiei de mai sus sistemul S = {V1 , V2 , V3 }. Fie
o combinaţie liniarǎ nulǎ a vectorilor V1 , V2 , V3 cu scalarii λ1 , λ2 , λ3 .

λ1 · V1 + λ2 · V2 + λ3 · V3 = Θ ⇐⇒

     
1 2 4
     
⇐⇒ λ1 
 −1  + λ2  2  + λ3  8  = Θ ⇐⇒
    
     
−5 −1 7

41
42 4. DEPENDENŢA ŞI INDEPENDENŢA LINIARǍ A VECTORILOR
   
λ1 + 2λ2 + 4λ3 0
   
⇐⇒  −λ1 + 2λ2 + 8λ3  =  0  ⇐⇒
   
   
−5λ1 − λ2 + 7λ3 0



 λ1 + 2λ2 + 4λ3 = 0

⇐⇒ −λ + 2λ + 8λ
1 2 3 = 0 ,


 −5λ − λ + 7λ

= 0
1 2 3

care este un sistem omogen de trei ecuaţii cu necunoscutele λ1 , λ2 , λ3 . Acest


sistem admite soluţii nebanale dacǎ şi numai dacǎ rangul matricei asociate
sistemului este mai mic decât 3. Într-adevǎr, avem
 
1 2 4
 
A =  −1 2 8 
 
 
−5 −1 7

şi rang(A) = 2. Notând λ3 = α, obţinem λ1 = 2α şi λ2 = −3α, deci

2α · V1 − 3α · V2 + α · V3 = Θ,

relaţie care are loc pentru orice α ∈ R. Pentru valori particulare nenule
oarecare ale parametrului α, se obţin diferite relaţii de dependenţǎ linarǎ
ı̂ntre vectorii sistemului. De exemplu, pentru α = 1 avem relaţia:

2V1 − 3V2 + V3 = Θ,

astfel cǎ sistemul S este liniar dependent.


Pentru un sistem oarecare de vectori {Xj | j = 1, m}, unde
 
a1j
 
 a2j
 

 .
 
 ..


Xj = 
 ,

 a 
 ij 
 ..
 
 .


 
anj

relaţia (1) se transcrie astfel:


m
X
(2) λj aij = 0, (∀)i = 1, n.
j=1

Notând A = [aij ]n×m , au loc teoremele:


4.1. PROBLEME PROPUSE 43

Teorema 1. Sistemul de vectori S = {Xj | j = 1, m} ∈ Rn este liniar


dependent dacǎ şi numai dacǎ rang(A) < m.
Teorema 2. Sistemul de vectori S = {Xj | j = 1, m} ∈ Rn este liniar
independent dacǎ şi numai dacǎ rang(A) = m.
Corolar. Sistemul de vectori S = {Xj | j = 1, n} ∈ Rn este liniar depen-
dent dacǎ şi numai dacǎ det(A) 6= 0.

Exemplu. Fie ı̂n R3 vectorii X1 = [2 3 1], X2 = [4 1 0], X3 = [5 1 1],


X4 = [1 0 0]. Matricea asociatǎ sistemului S = {X1 , X2 , X3 , X4 } este
 
2 4 5 1
 
A =  3 1 1 0 .
 
 
1 0 1 0

Evident rang(A) < 4, astfel cǎ S este un sistem liniar dependent. Se observǎ
cǎ rangul matricei  
2 4 5
 
A0 =  3 1 1 
 
 
1 0 1
este 3, cu det(A) = −11, prin urmare vectorii X1 , X2 , X3 formeazǎ un
sistem liniar independent.

4.1 Probleme propuse


1. Determinaţi relaţia de dependenţǎ liniarǎ dintre urmǎtorii vectori din
R4 : V1 = [1 2 2 4]T , V2 = [4 5 8 10]T , V3 = [3 1 6 2]T .

2. Fie ı̂n R3 urmǎtorul sistem de vectori: S = {V1 = [1 2 − 1]T , V2 =


[−1 3 0]T , V3 = [2 α 3]T }.
a) Pentru ce valori ale lui α, α ∈ R, sistemul S este liniar independent.
b) Determinaţi relaţia de dependenţǎ liniarǎ dintre vectorii sistemului S ı̂n
cazul ı̂n care acesta este liniar independent.

3. Verificaţi existenţa unei relaţii de dependenţǎ liniarǎ ı̂ntre urmǎtorii vec-


tori din R4 : V1 = [1 0 1 0]T , V2 = [1 1 0 0]T , V3 = [0 1 1 0]T , V4 = [0 0 1 1]T .
44 4. DEPENDENŢA ŞI INDEPENDENŢA LINIARǍ A VECTORILOR

4. Verificaţi dependenţa liniarǎ a urmǎtorilor vectori din R3 , şi deduceţi


relaţia de dependenţǎ liniarǎ dintre ei: V1 = [1 − 2 3]T , V2 = [2 1 2]T , V3 =
[4 2 4]T , V4 = [3 6 9]T .

5. Sǎ se arate cǎ urmǎtorii vectori din R5 sunt liniari dependenţi şi sǎ se
deducǎ relaţia de dependenţǎ liniarǎ dintre ei:
a) V1 = [3 2 − 1 2 0]T , V2 = [4 1 0 − 3 0]T , V3 = [2 − 1 1 1 1]T , V4 =
[3 1 3 − 9 − 1]T .
b) V1 = [3 0 3 0 3]T , V2 = [0 2 0 2 0]T , V3 = [3 2 0 2 3]T , V4 = [0 2 0 2 0]T .
c) V1 = [3 2 0 1 4]T , V2 = [−1 5 2 3 5]T , V3 = [6 − 12 3 − 7 − 8]T , V4 =
[10 2 7 1 10]T .
d) V1 = [5 4 2 2 3]T , V2 = [1 0 3 − 3 1]T , V2 = [1 − 1 − 1 4 − 1]T , V4 =
[3 4 3 − 2 − 9]T .
5

Baze de vectori. Coordonate.

Definiţie. Se numeşte bazǎ ı̂n Rn un sistem format din n vectori liniar


independenţi ı̂n Rn .
Fie B = {V1 , . . . , Vn } o bazǎ ı̂n Rn , Vk = [a1k . . . ank ]T , k = 1, n. Vom
nota cu B matricea asociatǎ sistemului celor n vectori care formeazǎ baza
B: B = [aik ]n×n .
Folosind corolarul Teoremei 2 din paragraful 2.1 putem da urmǎ-toarea
caracterizare a bazelor de vectori din Rn :
Teoremǎ. Condiţia necesarǎ şi suficientǎ pentru ca un sistem format din
n vectori din Rn sǎ fie bazǎ este ca determinantul matricei asociate sǎ fie
nenul.
Fie B o bazǎ fixatǎ ı̂n Rn şi X ∈ Rn un vector oarecare. Atunci X se
exprimǎ liniar ı̂n funcţie de vectorii bazei B astfel:

(1) X = x1 B · V1 + · · · + xn B · Vn ,

numerele reale xk B , k = 1, n numindu-se coordonatele vectorului X ı̂n baza


B. Vom nota
(2) X B = [x1 B . . . xn B ]T .

Din relaţiile (1) şi (2) rezultǎ cǎ

X = B · XB.

Cum B este o bazǎ, avem det(B) 6= 0, deci existǎ inversa B −1 . Înmulţind


la stânga cu aceastǎ inversǎ, obţinem:

(3) X B = B −1 · X,

45
46 5. BAZE DE VECTORI. COORDONATE.

relaţie ce exprimǎ coordonatele vectorului X ı̂n raport cu baza B.


Exemplu. Vom determina coordonatele vectorului X = [1 0 2]T ı̂n
raport cu baza formatǎ din vectorii V1 = [2 3 1]T , V2 = [4 1 0]T , V3 = [5 1 1]T .
Inversa matricei B asociate bazei B = {V1 , V2 , V3 } este
 
1 4 1
− 11 11 11
 
 
 
 
B −1 =
 2
11
3
11
13
− 11 .

 
 
 
 
1 4 10
11
− 11 11

Coordonatele vectorului X ı̂n raport cu baza B sunt atunci:


 
1
 11 
 
 
 
X B = B −1 24
· X =  − 11 .
 
 
 
 
 
21
11

Fie acum B1 = {V1 , . . . , Vn } şi B2 = {W1 , . . . , Wn } douǎ baze diferite


ale spaţiului liniar Rn , şi fie V un vector din Rn . Sǎ notǎm cu X, X B1 ,
respectiv X B2 cordonatele acestui vector ı̂n raport cu baza canonicǎ Bc ,
baza B1 , respectiv baza B2 . Am dori sǎ putem da o legǎturǎ ı̂ntre aceste
coordonate ı̂n diferite baze.
Ţinând seama de formulele (3), putem scrie

(∗) X B1 = B1−1 X,

(∗∗) X B2 = B2−1 X,

unde B1 şi B2 sunt matricile de trecere de la baza canonicǎ la bazele B1 ,


respectiv B2 . Relaţia (∗) se poate rescrie sub forma

(∗0 ) X = B1 X B1 ,

astfel cǎ putem ı̂nlocui exprimarea (∗0 ) a coordonatelor X ı̂n relaţia (∗∗),
care devine:
(4) X B2 = B2−1 B1 X B1 .
5.1. PROBLEME PROPUSE 47

Ultima formulǎ exprimǎ legǎtura ı̂ntre coordonatele vectorului V ı̂n cele


douǎ baze.
Exemplu. Fie date bazele
B1 = {V1 = [ 1 1 1 ]T , V2 = [ 2 1 −3 ]T , V3 = [ −2 −4 5 ]T } şi
B2 = {W1 = [ −1 1 0 ]T , W2 = [ 2 −2 1 ]T , W3 = [ 3 −2 3 ]T }.
Vom detemina formulele de trecere de la baza B1 la baza B2 . Notǎm X B1 =
[x1 x2 x3 ]T , respectiv X B2 = [y1 y2 y3 ]T .
Matricile ataşate celor douǎ baze sunt:
   
1 2 −2 −1 2 3
   
B1 =  1 1 −4  , B2 =  1 −2 −2  .
   
   
1 −3 5 0 1 3

Ţinând cont de formula (4), vom avea X B2 = B2−1 B1 X B1 . Deoarece


 
−4 −3 2
 
B2−1 =  −3 −3 1  ,
 
 
1 1 0

avem  
−5 −17 30
 
B2−1 B1 = 
 −5 −12 23 

,
 
2 3 −6
şi vom obţine formulele de transformare a coordonatelor:

y = −5x1 − 17x2 + 30x3
 1



y
2 = −5x1 − 12x2 + 23x3

 y = 2x1 + 3x2 − 6x3 ,

3

adicǎ exact ceea ce cǎutam.

5.1 Probleme propuse


1. Verificaţi dacǎ urmǎtoarele sisteme de vectori formeazǎ baze:
a) {V1 = [ 1 −1 1 ]T , V2 = [ 0 1 3 ]T , V3 = [ −2 4 5 ]T }.
b) {V1 = [ 2 3 −1 3 1 ]T , V2 = [ 2 3 −1 1 3 ]T ,
V3 = [ 2 1 1 4 6 ]T , V4 = [ −2 −5 3 0 2 ]T ,
48 5. BAZE DE VECTORI. COORDONATE.

V5 = [ −2 5 −3 0 −2 ]T }.
c) {V1 = [ 3 1 2 −1 ]T , V2 = [ 1 3 −2 −1 ]T ,
V3 = [ −4 6 2 1 ]T , V4 = [ 0 2 −2 3 ]T }.
d) {V1 = [ −1 1 0 1 ]T , V2 = [ 1 2 1 0 ]T ,
V3 = [ −1 −1 1 2 ]T , V4 = [ 0 −2 3 0 ]T }.
e) {V1 = [ 1 0 2 ]T , V2 = [ 2 1 2 ]T , V3 = [ 3 2 −1 ]T }.

2. Determinaţi coordonatele vectorului X ı̂n raport cu baza B = {V1 , V2 , V3 }


dacǎ :
a) V1 = [ 1 1 1 ]T , V2 = [ 1 2 3 ]T , V3 = [ 1 3 6 ]T , iar X =
[ 2 0 1 ]T .
b) V1 = [ 3 −3 1 ]T , V2 = [ −3 5 −2 ]T , V3 = [ 1 −2 1 ]T , iar
X = [ 7 −8 3 ]T .
c) V1 = [ 2 1 1 ]T , V2 = [ 1 0 2 ]T , V3 = [ 3 1 2 ]T , iar X =
[ 3 −2 4 ]T .
d) V1 = [ −2 −1 2 ]T , V2 = [ 4 1 −3 ]T , V3 = [ 1 1 −1 ]T , iar
X = [ 4 −2 −3 ]T .

3. Se dǎ sistemul de vectori


V1 = [ −1 1 0 ]T ,
V2 = [ 2 1 −1 ]T ,
V3 = [ 0 −1 −1 ]T ,
V4 = [ 1 1 1 ]T ,
V5 = [ −1 0 1 ]T .
Se cere:
a) Sǎ se stabileascǎ dacǎ vectorii acestui sistem sunt liniar dependeţi sau
independeţi.
b) Sǎ se construiascǎ o bazǎ de vectori, punând ı̂n evidenţǎ un subsistem
maximal de vectori liniar independenţi.
c) Sǎ se exprime vectorii rǎmaşi ı̂n afara bazei ı̂n funcţie de cei din bazǎ.
d) Sǎ se stabileascǎ numǎrul maxim de baze ce se pot construi şi apoi sǎ se
punǎ ı̂n evidenţǎ toate aceste baze posibile.

4. Sǎ se determine formulele de trecere de la baza B1 = {V1 , V2 , V3 } la


baza B2 = {W1 , W2 , W3 } unde
5.1. PROBLEME PROPUSE 49

a) V1 = [ 1 2 3 ]T , V2 = [ −1 −2 5 ]T , V3 = [ 2 1 3 ]T ;
W1 = [ 2 1 3 ]T , W2 = [ −3 1 −4 ]T , W3 = [ 1 1 −2 ]T .
b) V1 = [ 1 1 2 ]T , V2 = [ −3 2 1 ]T , V3 = [ 5 4 3 ]T ;
W1 = [ −1 2 0 ]T , W2 = [ 6 5 2 ]T , W3 = [ 0 8 1 ]T .
c) V1 = [ 2 0 1 ]T , V2 = [ −2 3 2 ]T , V3 = [ 4 1 5 ]T ;
W1 = [ −3 1 0 ]T , W2 = [ 0 2 1 ]T , W3 = [ 0 −1 3 ]T .
50 5. BAZE DE VECTORI. COORDONATE.
6

Aplicaţii liniare

Fie Rn şi Rm douǎ spaţii liniare.


Definiţie. O aplicaţie f : Rn −→ Rm se numeşte aplicaţie liniarǎ dacǎ
satisface urmǎtoarele douǎ condiţii:

(1) f (X + Y ) = f (X) + f (Y ) (∀)X, Y ∈ Rn ,

(2) f (αX) = αf (X) (∀)α ∈ R, X ∈ Rn .

Observaţie. Condiţia (1) se numeşte condiţia de aditivitate a aplicaţiei f ,


iar condiţia (2) este condiţia de omogenitate a aplicaţiei f .
Aceste douǎ condiţii se pot ı̂nlocui cu una singurǎ:

(3) f (αX + βY ) = αf (X) + βf (Y ) (∀)α, β ∈ R, X, Y ∈ Rn .

Condiţia (3) reprezintǎ condiţia de liniaritate a aplicaţiei f .


Observaţie. În cazul când m = n şi f este o aplicaţie liniarǎ a spaţiului
liniar Rn ı̂n el ı̂nsuşi f se mai numeşte şi transformare liniarǎ. De asemenea,
dacǎ f : Rn −→ R este o aplicaţie liniarǎ ı̂n R, ea se numeşte formǎ liniarǎ.
Fie f : Rn −→ Rm o aplicaţie liniarǎ, şi Bn = {V1 , V2 , . . . , Vn }, respec-
tiv Bm = {W1 , W2 , . . . , Wm } baze de vectori fixate ı̂n Rn , respectiv Rm .
Deoarece pentru orice i ∈ {1, . . . , n}, f (Vi ) este un vector din Rm , el se
poate exprima ı̂n raport cu baza Bm :

(4i ) f (Vi ) = a1i W1 + a2i W2 + . . . + ami Wm ,

unde coeficienţii aki , k = 1, m, sunt numere reale.


Fie acum V = x1 V1 + x2 V2 + . . . + xn Vn un vector oarecare din Rn şi

51
52 6. APLICAŢII LINIARE

W = y1 W1 + y2 W2 + . . . + ym Wm = f (V ) imaginea sa ı̂n Rm , exprimatǎ ı̂n


raport cu baza Bm . Ţinând cont de formulele (4i ), pentru coordonatele yj ,
j = 1, m, avem relaţiile:
n
X
yj = aj1 x1 + aj2 x2 + . . . + ajn xn = aji xi .
i=1

Cu notaţiile A = [aji ], X = [xi ] şi Y = [yj ] aceste formule pot fi restrânse


sub forma
(5) Y = AX,
care reprezintǎ scrierea matricialǎ ı̂n raport cu bazele Bn şi Bm a aplicaţiei
liniare f .
Exemplu. Fie datǎ aplicaţia f : R2 −→ R3 definitǎ prin

f (x1 , x2 ) = (2x1 − x2 , x1 + 3x2 , 4x1 + x2 ).

Pentru aceastǎ aplicaţie se verificǎ uşor proprietǎţile de aditivitate şomogenitate,


astfel cǎ f este o aplicaţie liniarǎ. Ea poate fi descrisǎ şi pe compo-
nente(i.e.coordonate ı̂n raport cu bazele canonice din R2 şi R3 ):

y = 2x1 − x2
 1



(f ) y2 = x1 + 3x2


 y

= 4x1 + x2 .
3

Matricea asociatǎ aplicaţiei liniare f este atunci(elementele sale se pot citi


din scrierea pe componente de mai sus):
 
2 −1
 
A= 1 3  .
 
 
4 2
Fie acum Bn0 şi Bm
0
douǎ baze ı̂n Rn , respectiv Rm . De asemnea, fie
A0 ∈ Mm×n (R) matricea aplicaţiei liniare f ı̂n raport cu aceste douǎ baze,
şi P ∈ Mn (R), respectiv Q ∈ Mm (R), matricile de trecere de la baza Bn la
Bn0 , respectiv de la baza Bm la Bm
0
. Dacǎ X 0 = [x0i ] reprezintǎ coordonatele
vectorului V ı̂n raport cu baza Bn0 , iar Y 0 = [yj0 ] sunt coordonatele imaginii
0
sale W = f (V ) ı̂n raport cu baza Bm , ţinând cont de formula

(50 ) Y 0 = A0 X 0 ,

precum şi de formulele de schimbare a coordonatelor, pentru matricea A0


avem formula
(6) A0 = Q−1 AP.
6.1. OPERAŢII CU APLICAŢII LINIARE 53

6.1 Operaţii cu aplicaţii liniare


Definiţie. Fie f : Rn −→ Rm o aplicaţie liniarǎ, şi fie α ∈ R un numǎr
real. Definim atunci aplicaţia αf : Rn −→ Rm prin regula foarte naturalǎ

(αf )(X) = αf (X), (∀)X ∈ Rn .

Se verificǎ uşor, pe baza proprietǎţilor operaţiilor ı̂ntr-un spaţiu liniar, cǎ


aplicaţia astfel definitǎ este o aplicaţie liniarǎ, numitǎ ı̂nmulţirea cu scalarul
α a aplicaţiei liniare f .
Observaţie. Dacǎ matricea asociatǎ aplicaţiei liniare f este A, atunci ma-
tricea asociatǎ aplicaţiei liniare αf va fi αA.

Definiţie. Fie f1 , f2 : Rn −→ Rm douǎ aplicaţii liniare. Definim atunci


aplicaţia f1 + f2 : Rn −→ Rm prin legea de asociere

(f1 + f2 )(X) = f1 (X) + f2 (X), (∀)X ∈ Rn .

Proprietǎţile operaţiilor dintr-un spaţiu liniar ne asigurǎ cǎ aplicaţia f1 + f2


este o aplicaţie liniarǎ, numitǎ suma celor douǎ aplicaţii liniare f1 şi f2 .
Observaţie. Dacǎ aplicaţiile liniare f1 şi f2 au matricile asociate A1 şi A2 ,
atunci aplicaţia liniarǎ f1 + f2 are matricea asociatǎ A1 + A2 .

Observaţie. Mulţimea L(Rn , Rm ) = {f : Rn −→ Rm |f -aplicaţie liniarǎ}


are ı̂mpreunǎ cu cele douǎ operaţii definite mai sus o structurǎ de spaţiu
liniar.

Definiţie. Fie f : Rn −→ Rm şi g : Rm −→ Rp douǎ aplicaţii liniare.


Definim atunci aplicaţia g ◦ f : Rn −→ Rp prin legea

(g ◦ f )(X) = g(f (X)), (∀)X ∈ Rn .

Din liniaritatea aplicaţiilor f şi g rezultǎ cǎ şi aplicaţia g ◦ f este o aplicaţie
liniarǎ, numitǎ compusa aplicaţiilor liniare f şi g.
Observaţie. Dacǎ aplicaţiile liniare f şi g au matricile asociate A ∈
Mm×n (R) şi B ∈ Mp×m (R), atunci aplicaţia liniarǎ compusǎ g ◦ f a celor
douǎ aplicaţii f şi g are matricea asociatǎ B · A.
54 6. APLICAŢII LINIARE

Observaţie. Mulţimea End(Rn ) = L(Rn , Rn ) a transformǎrilor liniare ale


spaţiului liniar Rn , are ı̂mpreunǎ cu operaţiile de adunare şi compunere a
aplicaţiilor liniare o structurǎ de inel(necomutativ pentru n ≥ 2).

Definiţie. Fie f : Rn −→ Rn o transformare liniarǎ a spaţiului liniar Rn şi


sǎ presupunem cǎ f este o aplicaţie bijectivǎ. Atunci f este o aplicaţie in-
versabilǎ, şi datoritǎ liniaritǎţii sale rezultǎ cǎ şi aplicaţia f −1 : Rn −→ Rn
este o transformare liniarǎ, numitǎ inversa transformǎrii liniare bijective f .
Observaţie. O transformare liniarǎ f ∈ End(Rn ) este bijectivǎ dacǎ şi
numai dacǎ matricea asociatǎ ei este inversabilǎ, adicǎ dacǎ şi numai dacǎ
matricea asociatǎ are determinant nenul.
Observaţie. Dacǎ matricea asociatǎ transformǎrii liniare bijective f este
A, atunci matricea asociatǎ transformǎrii liniare f −1 este A−1 .

Observaţie. Mulţimea GL(Rn ) = {f ∈ End(Rn )|f -inversabilǎ} are ı̂mpreunǎ


cu operaţia de compunere a transformǎrilor liniare inversabile o structurǎ
de grup(necomutativ dacǎ n ≥ 2).

6.2 Vectori şi valori proprii ale unei trans-


formǎri liniare
Fie T : Rn −→ Rn o transformare liniarǎ fixatǎ, şi fie de asemenea λ ∈ R
un numǎr real fixat.
Definiţie. Spunem cǎ λ este o valoare proprie a transformǎrii liniare T
dacǎ existǎ un vector nenul V ∈ Rn cu proprietatea cǎ

(∇) T (V ) = λV.

Un asemenea vector se numeşte vector propriu al transformǎrii liniare T


asociat valorii proprii λ.

Se presupunem cǎ am fixat o bazǎ ı̂n spaţiul liniar Rn , şi fie A = [aij ] ∈
Mn (R), respectiv X = [xi ] ∈ Mn×1 , matricea transformǎrii T , respectiv
matricea-coloanǎ a coordonatelor lui V ı̂n raport cu aceastǎ bazǎ. Atunci
6.2. VECTORI ŞI VALORI PROPRII ALE UNEI TRANSFORMǍRI LINIARE55

relaţia (∇) devine


(∇0 ) AX = λX.
Observaţie. Când o matrice pǎtraticǎ A, un numǎr λ şi o matrice-coloanǎ
X satisfac o relaţie de tipul relaţiei (∇0 ), atunci spunem cǎ λ este o val-
oare proprie a matricii A, iar ”vectorul” nenul X este un vector propriu al
matricii A corespunzǎtor valorii proprii λ.
Relaţia (∇0 ) se mai poate scrie şi ı̂n forma

(∗) (A − λIn )X = 0.

Ţinând cont de aceastǎ ultimǎ relaţie, putem deduce o condiţie pentru ca


un numǎr λ sǎ fie valoare proprie pentru o transformare liniarǎ, respectiv o
matrice. Dacǎ privim relaţia (∗) ca pe o ecuaţie matricialǎ cu necunoscuta
X, condiţia ca λ sǎ fie valoare proprie este ca sistemul de ecuaţii liniare
asociat ecuaţiei matriciale (∗)



 (a11 − λ)x1 +a12 x2 + . . . +a1n xn = 0


a x +(a22 − λ)x2 + . . . +a2n xn = 0


21 1
(∗∗)



 ... ... ... ... ... ...

+an2 x2 + . . . +(ann − λ)xn


an1 x1 = 0
sǎ permitǎ şi soluţii nebanale. Acest lucru se ı̂ntâmplǎ exact dacǎ deter-
minantul matricii sistemului este nul. Astfel, condiţia ca numǎrul λ sǎ fie
valoare proprie a matricii A(şi deci a transformǎrii liniare T , reprezentate
ı̂n baza fixatǎ cu ajutorul matricii A) este

(∗ ∗ ∗) det(A − λIn ) = 0.

Polinomul pA (λ) = det(A − λIn ) se numeşte polinomul caracteristic asociat


matricii A, iar relaţia (∗ ∗ ∗) este ecuaţia caracteristicǎ asociatǎ matricii A.
Corolar. Un numǎr λ este valoare proprie a matricii A dacǎ şi numai
dacǎ este o soluţie a ecuaţiei caracteristice(i.e. o rǎdǎcinǎ a polinomului
caracteristic) asociate matricii.
Observaţie. Vectorii proprii asociaţi unei valori proprii λ pot fi gǎsiţi re-
zolvând sistemul (compatibil nedeterminat!) (∗∗).

Teorema Hamilton-Cayley. Orice matrice pǎtraticǎ ı̂şi satisface propria


ecuaţie caracteristicǎ; i.e.

pA (A) = 0n , (∀)A ∈ Mn (R).


56 6. APLICAŢII LINIARE

Exemplu. Vom determina valorile proprii şi vectorii proprii ai urmǎtoarei


transformǎri liniare:
 
0 1 0
 
T : R3 −→ R3 ,  1 1 1  · X.
T (X) =  
 
0 1 0

Polinomul caracteristic asociat acestei transformǎri liniare este

pT (λ) = det(A − λI3 ) =



−λ 1 0



= 1 1−λ 1 = −λ3 + λ2 + 2λ


0 1 −λ

Rezolvând ecuaţia caracteristicǎ

−λ3 + λ2 + 2λ = 0

obţinem valorile proprii ale transformǎrii liniare T :

λ1 = 0, λ2 = −1, λ3 = 2.

Pentru a determina vectorii proprii, avem de rezolvat trei sisteme de ecuaţii


liniare, şi anume: 


 x2 = 0

(S0 ) x1 + x2 + x3 = 0


x2 = 0,




 x1 + x2 = 0

(S−1 ) x1 + 2x2 + x3 = 0


x2 + x3 = 0,




 −2x1 + x2 = 0

(S2 ) x1 − x2 + x3 = 0


x2 − 2x3 = 0,

Mulţimea vectorilor proprii asociaţi valorii proprii λ1 = 0 este datǎ de


soluţiile primului sistem, anume

V0 = {[α 0 − α]T |α ∈ R∗ }.
6.2. VECTORI ŞI VALORI PROPRII ALE UNEI TRANSFORMǍRI LINIARE57

Mulţimea vectorilor proprii asociaţi valorii proprii λ2 = −1 este

V−1 = {[α − α α]T |α ∈ R∗ }.

În fine, mulţimea vectorilor proprii asociaţi valorii proprii λ1 = 2 este

V2 = {[α 2α α]T |α ∈ R∗ }.

6.2.1 Alte metode de determinare a polinomului car-


acteristic al unei transformǎri liniare
Formulele lui Bôcher

Fie A ∈ Mn (R), A = [aij ]n× .


Definiţie. Suma elementelor de pe diagonala principalǎ a unei matrice se
numeşte urma matricei şi se noteazǎ cu tr(A) :

tr(A) = a11 + a22 + a33 + . . . + ann .

Dacǎ notǎm cu τ1 = tr(A), τ2 = tr(A2 ), . . . , τn = tr(An ), coeficienţii poli-


nomului caracteristic

pA (λ) = (−1)n (λn + α1 λn−1 + α2 λn−2 + . . . + αn−1 λ + αn )

sunt daţi de formulele de recurenţǎ ale lui Bôcher:

α1 = −τ1
α2 = − 21 (α1 τ1 + τ2 )
α3 = − 13 (α2 τ1 + α1 τ2 + τ3 )
... ... ...
αn = − n1 (αn−1 τ1 + αn−2 τ2 + α1 τn−1 + τn ).
58 6. APLICAŢII LINIARE

Exemplu. Vom determina, folosind formulele lui Bôcher, polinomul carac-


teristic al matricei  
2 −2 3
 
A= 1 1 1  .
 
 
1 3 −1
Avem:  
5 3 1
 
A2 = 
 4 2 3 

 
4 −2 7
şi
 
14 −4 17
 
A3 = 
 13 3 11  . 
 
13 11 3
Urmele acestor matrici sunt:

τ1 = tr(A) = 2, τ2 = tr(A2 ) = 14, τ3 = tr(A3 ) = 20.

Pentru coeficienţii polinomului caracteristic avem:


α1 = −τ1 = −2,
α2 = − 12 (α1 τ1 + τ2 ) = − 21 (−4 + 14) = −5,
α3 = − 13 (α2 τ1 + α1 τ2 + τ3 ) = − 31 (−10 − 28 + 20) = 6.
Astfel cǎ vom obţine urmǎtorul polinom caracteristic

pA (λ) = (−1)3 (λ3 − 2λ2 − 5λ + 6).

Formulele lui Faddeev-Sominskii

Aceste formule sunt relativ mai simple decât cele ale lui Bôcher şi se
bazeazǎ pe urmǎtoarele calcule:

A1 := A, β1 = tr(A1 ), B1 = A1 − β1 In ,
A2 := B1 A, β2 = 12 tr(A2 ), B2 = A2 − β2 In ,
.. .. ..
. . .
Ak := Bk−1 A, βk = k1 tr(Ak ), Bk = Ak − βk In ,
.. .. ..
. . .
An := Bn−1 A, βn = n1 tr(An ), Bn = An − βIn = 0.
6.2. VECTORI ŞI VALORI PROPRII ALE UNEI TRANSFORMǍRI LINIARE59

Ultima formulǎ se numeşte formula de control. Polinomul caracteristic va


fi atunci dat de

pA (λ) = (−1)n (λn − β1 λn−1 − β2 λn−2 − . . . − βn ).

În plus, dacǎ A este o matrice inversabilǎ, inversa sa este datǎ de formula
1
A−1 = Bn−1
βn
Exemplu. Determinǎm cu ajutorul formulelor lui Faddeev polinomul car-
acteristic al matricei  
2 −1 2
 
A= 5 −3 3  .
 
 
−1 0 −2
Vom avea:
β1 = tr(A) = 2 − 3 − 2 = −3,
 
5 −1 2
 
B1 = A1 + 3I3 =  5 0 3  ,
 
 
−1 0 1
 
3 −2 3
 
A2 = B1 A1 =  7 −5 4  ,
 
 
−3 1 −4
β2 = 21 tr(A2 ) = −3,
 
6 −2 3
 
B2 = A2 + 3I3 = 
 7 −2 4 

,
 
−3 1 −1
 
−1 0 0
 
A3 = B2 A2 =  0 −1 0  ,
 
 
0 0 −1
β3 = −1.
Deci
pA (λ) = (−1) 3(λ3 + 3λ2 + 3λ + 1).
Inversa matricei A va fi
 
−6 2 −3
 
A−1 = −B2 =  −7 2 −4  .
 
 
3 −1 1
60 6. APLICAŢII LINIARE

6.3 Probleme propuse

1. Sǎ se verifice care dintre aplicaţiile de mai jos sunt liniare.


a) f : R3 −→ R3 : (x1 , x2 , x3 ) 7−→ (x21 , x22 , x23 ).
b) f : R2 −→ R2 : (x1 , x2 ) 7−→ (ex1 , ex2 ).
c) f : R3 −→ R3 : (x1 , x2 , x3 ) 7−→ (x1 + 1, x2 + 1, x3 − 1).
d) f : R3 −→ R3 : (x1 , x2 , x3 ) 7−→ (x1 + x2 , 0, x1 + x2 + x3 ).
d) f : R4 −→ R4 : (x1 , x2 , x3 , x4 ) 7−→ (x1 , x1 + x2 , x1 + x2 + x3 , x1 + x2 +
x3 + x4 ).

2. Fie f : R3 −→ R2 o aplicaţie liniarǎ datǎ prin imaginile vectorilor din


baza canonicǎ f (E1 ) = (2, 1), f (E2 ) = (0, 1), f (E3 ) = (1, 1).
a) Sǎ se determine imaginea unui vector oarecare din R3 .
b) Sǎ se determine imaginea vectorului V = [ 2 3 − 1 ]T .

3. Dacǎ f1 , f2 ∈ End(R3 ) sunt date ı̂n raport cu baza canonicǎ prin matri-
cile
   
3 1 0 −1 4 2
   
A1 =  0 2 1  , A2 =  0 4 1  ,
   
   
1 2 3 0 0 5

a) Sǎ se determine imaginea vectorului X = [ 0 1 − 1 ]T prin f1 , f1−1 , f2 ,


f2−1 .
b) Sǎ se determine imaginea vectorului Y = [ 1 3 − 2 ]T prin f1 + f2 ,
(f1 + f2 )−1 .
c) Sǎ se determine imaginea vectorului Z = [ 1 2 0 ]T prin f1 ◦ f2 , f2 ◦ f1 .

4. Se considerǎ aplicaţiile liniare S, T : R2 −→ R2 , definite prin

3 3
S(x, y) = (4x−2y, −3x+ y), T (x, y) = (x+ y, 2x+3y), (∀)(x, y) ∈ R2 .
2 2

a) Sǎ se determine aplicaţiile 3S şi S + T .


b) Sǎ se determine aplicaţiile S ◦ T şi T ◦ S şi sǎ se verifice cǎ operaţia de
compunere a transformǎrilor liniare nu este neapǎrat comutativǎ.
6.3. PROBLEME PROPUSE 61

5. Fie T : R2 −→ R3 , S : R3 −→ R2 aplicaţiile liniare definite prin:



 
 S(F1 ) = −2E1 + 3E2
 T (E ) = 3F + 2F − F 
1 1 2 3

, S(F ) = 3E − 2E
2 1 2 ,
 T (E ) = −2F − F + F 
2 1 2 3 
 S(F ) = −E + 5E

3 1 2

unde {E1 , E2 } şi {F1 , F2 , F3 } sunt bazele canonice din R2 şi R3 .


a) Sǎ se calculeze T (x1 , x2 ) şi S(y1 , y2 , y3 ), unde (x1 , x2 ) ∈ R2 şi (y1 , y2 , y3 ) ∈
R3 .
b) Sǎ se arate cǎ S ◦ T = 1R2 şi T ◦ S 6= 1R3 .
c) Sǎ se arate cǎ T este injectivǎ, iar S surjectivǎ.

6. Sǎ se determine matricile transformǎrilor liniare fi : R3 −→ R3 , i = 1, 3


ı̂n raport cu baza formatǎ din vectorii V1 = [ 1 2 3 ]T , V2 = [ 2 1 3 ]T ,
V3 = [ 1 1 1 ]T , ştiind cǎ ı̂n raport cu baza canonicǎ acestea au matricile
     
3 2 0 −1 2 −3 1 −1 2
     
A1 =  −1 0 0  , A2 =  −2 2 −6  , A3 =  3 −3 6  ,
     
     
0 0 0 −2 2 −6 2 −2 4
7. Sǎ se determine valorile şi vectorii proprii ai transformǎrilor liniare din
exerciţiul precedent.

8. Sǎ se determine valorile şi vectorii proprii ai matricilor urmǎtoare:


 
    −1 2 −3
4 4 2 5  
A= , B =  , C = 
 2 2 −6  ,
1 4 4 3  
−2 2 −6
   
−7 4 −4 4   0 1 5 9
  0 7 −6  
 −8 5 −6 6   2 1 6 8 
     
D=  , E =  −1 4

0 , F = 
 
.
 −2 2 −3 5   0 0 0 3 
    
  0 2 −2  
4 −4 4 2 0 0 1 −2
9. Fie datǎ matricea  
0 1 1
 
A =  1 0 1 .
 
 
1 1 0
a) Sǎ se determine valorile proprii ale matricii A.
b) Sǎ se determine vectorii proprii.
62 6. APLICAŢII LINIARE

c) Sǎ se calculeze puterea a p−a a matricii A.

10. Cunoscând valorile proprii ale matricei A, sǎ se gǎseascǎ valorile proprii
ale matricei
a) A−1 b) A2 c) Am d) f (A), unde f este un polinom.

11. Sǎ se arate cǎ polinoamele caracteristice ale matricilor AB şi BA coin-
cid, oricare ar fi matricile pǎtrate A şi B.

12. Folosind teorema Hamilton-Cayley, determinaţi inversele urmǎtoarelor


matrici:
 
    5 3 0 0
3 1 1 2 1 −1  
 0 0 2 1 
     
 2 0 2 , B =  1 2
A=  
1 

, C=
 .
 3 3 0 0 
    
1 1 0 1 1 2  
0 0 1 1
7

Spaţii vectoriale euclidiene

7.1 Produs scalar. Normǎ.


Fie spaţiul vectorial Rn şi X, Y ∈ Rn , X = [x1 , . . . , xn ]T , Y = [y1 , . . . , yn ]T .
Definiţie. Numǎrul real
def
(1) (X, Y ) = x1 · y1 + . . . + xn · yn

se numeşte produsul scalar(euclidian) al vectorilor X şi Y din Rn . Relaţia


din definiţia de mai sus se poate scrie şi sub forma
n
(10 )
X
(X, Y ) = xi · yi .
i=1

Proprietǎţile produsului scalar sunt date de urmǎtoarea


Teoremǎ. Pentru oricare X, Y, Z ∈ Rn şi α ∈ R au loc proprietǎţile:
(P1 ) (X, X) ≥ 0, (X, X) = 0 ⇐⇒ X = Θ.
(P2 ) (X + Y, Z) = (X, Z) + (Y, Z).
(P3 ) (αX, Y ) = α(X, Y ).
(P4 ) (X, Y ) = (Y, X).
q
(P5 ) | (X, Y ) |≤ (X, X) · (Y, Y ).
Lǎsǎm cititorului ca exerciţiu verificarea propritǎţilor (P1 ) − (P5 ).
Definiţie. Spaţiul Rn ı̂nzestrat cu produsul scalar (·, ·) se numeşte
spaţiu euclidian n-dimensional.
Definiţie. Funcţia
k · k : Rn −→ R+
defintǎ prin q
q
kXk = (X, X) = x1 2 + . . . + xn 2

63
64 7. SPAŢII VECTORIALE EUCLIDIENE

se numeşte norma euclidianǎ a spaţiului Rn . Numǎrul kXk se numeşte


norma vectorului X.
Definiţie. Un vector având norma egalǎ cu 1 se numeşte vector unitar.
Observaţie. Oricǎrui vector nenul dat V ı̂i putem asocia un vector unitar:
Definiţie. Vectorul
1
U= V
kV k
se numeşte versorul vectorului V .
q
Observaţie. Pentru n = 1 avem X = x1 şi atunci kXk = (X, X) =
√ 2
x1 =| X |, deci norma este egalǎ cu funcţia modul pe R.
Proprietǎţile normei euclidiene sunt date de urmǎtoarea teoremǎ:
Teoremǎ. Pentru orice X, Y ∈ Rn şi α ∈ R au loc urmǎtoarele:
(N1 ) kXk = 0 ⇐⇒ X = Θ;
(N1 ) kα · Xk = |α| · kXk; (N3 ) kX + Y k ≤ kXk + kY k.
Definiţie. Spaţiul Rn ı̂nzestrat cu normǎ euclidianǎ se numeşte spaţiu
euclidian normat.
Definiţie. Funcţia

d : Rn × Rn −→ R+

definitǎ prin

d(X, Y ) = kX − Y k, X, Y ∈ Rn ,

se numeşte distanţǎ euclidianǎ pe Rn . Fie X = [x1 x2 . . . xn ]T şi Y =


[y1 y2 . . . yn ]T vectori oarecare din Rn . Atunci ţinând cont de definiţia
normei euclidiene, distanţa (euclidianǎ ) dintre vectorii X şi Y este

q
d(X, Y ) = (x1 − y1 )2 + (x2 − y2 )2 + · + (xn + yn )2

Dacǎ Y = Θ,atunci

d(X, Θ) = kXk

,pentru orice X ∈ Rn ,
adicǎ norma euclidianǎ a unui vector oarecare este distanţa de la acel punct
la originea spaţiului Rn .
Urmǎtoarea teoremǎ ne dǎ proprietǎţile distanţiei euclidiene:
7.2. METODA DE ORTOGONALIZARE A LUI SCHMIDT 65

Teoremǎ. Pentru orice X, Y, Z ∈ Rn au loc urmǎtoarele proprietǎ ţi :


(d1 )d(X, Y ) = 0 ⇐⇒ X = Y ;
(d2 )d(X, Y ) = d(Y, X);
(d3 )d(X, Y ) ≤ d(X, Z) + d(Z, Y ) (inegalitatea triunghiului).
Definiţie. Fie X, Y ∈ Rn . Vectorii X, Y sunt ortogonali dacǎ produsul
lor scalar este nul, adicǎ
( X, Y ) = 0.

Definiţie. Un sistem S de vectori din Rn se numeşte sistem ortogonal dacǎ

(X, Y ) = 0, (∀)X, Y ∈ Rn , X 6= Y.

7.2 Metoda de ortogonalizare a lui Schmidt


Definiţie. Fie S = {V1 , V2 , . . . , Vm } ∈ Rn , m ≤ n, un sistem de vectori.
Determinantul Gram asociat sistemului de vectori S este numǎrul

(V1 , V1 ) (V1 , V2 ) . . . (V1 , Vm )


(V2 , V1 ) (V2 , V2 ) . . . (V2 , Vm )

Gram(V1 , V2 , . . . , Vm ) =
... ... ... ...




(Vm , V1 ) (Vm , V2 ) ... (Vm , Vm )

unde (Vi , Vj ), i, j = 1, m, sunt produsele scalare ı̂ntre vectorii sistemului.


O proprietate importantǎ legatǎ de determinantul Gram al unui sistem
de vectori este datǎ de urmǎ toarea
Teoremǎ. Condiţia necesarǎ şi suficientǎ pentru ca un sistem de vectori
S = {V1 , V2 , . . . , Vm } sǎ fie liniar independent este

Gram(V1 , . . . , Vm ) 6= 0.

Corolar. Orice sistem de vectori care conţine vectorul nul este liniar de-
pendent.
Corolar. Un sistem de vectori nenuli şi ortogonali doi câte doi este liniar
independent.
Corolar. Numǎrul maxim de vectori ortogonali doi câte doi este egal cu
dimensiunea spaţiului.
66 7. SPAŢII VECTORIALE EUCLIDIENE

Exemplu. Fie sistemul de vectori S = {V1 = [ 1 1 0 0 ]T , V2 = [ 5 6 0 1 ]T , V3 =


[ 2 4 3 − 1 ]T } ∈ R4 . Determinantul Gram al acestui sistem este

(V1 , V1 ) (V1 , V2 ) (V1 , V3 )



Gram(V1 , V2 , V3 ) = (V2 , V1 ) (V2 , V2 ) (V2 , V3 )



(V3 , V1 ) (V3 , V2 (V3 , V3 )

Calculând produsele scalare dintre vectori, obţinem



2 11 6


Gram(V1 , V2 , V3 ) = 11 62 33 = 36 6= 0.

6 33 30

Definiţie. Fie S = {V1 , V2 , . . . , Vm } ∈ Rn un sistem de vectori. Spunem


cǎ un vector V ∈ Rn este ortogonal pe S dacǎ este ortogonal pe fiecare din
vectorii sistemului,i.e.

V ⊥ S ⇐⇒ (V, Vi ) = 0, (∀)i = 1, m.

Definiţie. O bazǎ B = {V1 , V2 , . . . , Vn } ∈ Rn se numeşte bazǎ ortogonalǎ


dacǎ oricare doi vectori sunt ortogonali ı̂ntre ei, i.e.

(Vi , Vj ) = 0, (∀)i, j = 1, n, i 6= j.

Definiţie. O bazǎ B = {V1 , V2 , . . . , Vn } ∈ Rn se numeşte bazǎ ortonrmatǎ


dacǎ ea este bazǎ ortogonalǎ formatǎ din vectori unitari, i.e.

(1) (Vi , Vj ) = 0, (∀)i, j = 1, n, i 6= j,

(2) kVi k = 1, (∀)i = 1, n.

Observaţie. Relaţiile (1) şi (2) sunt echivalente cu

(3) (Vi , Vj ) = δij , (∀)i, j = 1, n,

care se poate scrie şi sub forma

(30 ) [(Vi , Vj )] = In .

Definiţie. Fie V, W ∈ Rn , W 6= Θ. Vectorul


(V, W )
prW V = W,
(W, W )
7.2. METODA DE ORTOGONALIZARE A LUI SCHMIDT 67

se numeşte proiecţia vectorului V pe W , iar

(V, W )
α= ,
(W, W )

se numeşte mǎrimea algebricǎ a proiecţiei vectorului V pe W .

Observaţie. Fie V, W ∈ Rn doi vectori fixaţi, şi fie

W 0 = V − prW V.

Atunci W 0 ⊥ W .
Exemplu. Fie V = [ 2 4 ]T şi W = [ 3 0 ]T doi vectori din R2 . Proiecţia vec-
torului V pe direcţia lui W este prW V = [ 2 0 ]T . Vectorul W 0 = V −prW V =
[ 0 4 ]T va fi atunci ortogonal pe W , dupǎ cum se vede foarte uşor:

.
46 .
.
W0 V  ..
 .
.
 .
.
 .
 .
.
 .
.

.
 .
.

 prW V .
.
W
 -. -
2 3

Proiecţie ortogonalǎ.

Exemplu. Fie V1 = [ 1 1 ]T , V2 = [ 4 2 ]T ∈ R2 doi vectori liniar independenţi.


Ei formeazǎ o bazǎ care ı̂nsǎ nu este ortogonalǎ, deoarece (V1 , V2 ) = 6 6= 0.
Construim vectorii

W1 = V1 = [ 1 1 ]T
W2 = V2 − prW1 V2 = [ 1 − 1 ]T .

Conform observaţiei de mai sus, aceşti doi vectori sunt nenuli şi ortogonali,
deci formeazǎ o bazǎ ortogonalǎ pentru R2 .
68 7. SPAŢII VECTORIALE EUCLIDIENE

Pentru a obţine o bazǎ ortonormatǎ, definim vectorii


√ √
1 2 2 T
U1 = kW1 k
W1 =[ ]
√2 2 √
1 2
U2 = kW2 k
W2 =[ 2
− 22 ]T

prW1 V2 .
..
 ....
...
*

.. V
.... 2
..
V1 = W1  ...

'$ ..
U1  
...
...


 ..
..
@
2@ ..
U@ ...
&%R
R..
@
W2

Metoda de ortogonalizare a lui Schmidt permite construirea unei


baze ortogonale, pornind de la o bazǎ oarecare B = {V1 , V2 , . . . , Vn } a
spaţiului Rn . Pentru aceasta construim vectorii:

W1 = V1 ,
W2 = V2 − prW1 V2 ,
W3 = V3 − prW1 V3 − prW2 V3 ,
... = ...
Wn = Vn − prW1 Vn − . . . − prWn−1 Vn .

Sistemul de vectori astfel construit este un sistem liniar independent şi or-
togonal, deci am obţinut o bazǎ ortogonalǎ

B⊥ = {W1 , W2 , . . . , Wn }.

Dacǎ vrem sǎ obţinem o bazǎ ortonormatǎ, este suficient sǎ construim vec-
torii
1
Ui = Wi , i = 1, n,
kWi k
astfel cǎ o bazǎ ortonormatǎ va fi

B⊥q = {U1 , U2 , . . . , Un }.

Bazele ortonormate prezintǎ foarte mari avantaje din punct de vedere


al calculelor.
7.3. APLICAŢII LINIARE ORTOGONALE 69

Exemplu. Fie B⊥q = {U1 , U2 , . . . , Un } o bazǎ ortonormatǎ şi fie V ∈ Rn


un vector oarecare fixat, având ı̂n raport cu baza B⊥q expresia

V = x1 U1 + x2 U2 + . . . + xn Un .

Ţinând cont de faptul cǎ baza B⊥q este ortonormatǎ, avem cǎ:

xi = (V, Ui ), (∀)i = 1, n.

7.3 Aplicaţii liniare ortogonale


Definiţie. Dacǎ f : Rn −→ Rm este o aplicaţie liniarǎ care satisface una
din urmǎtoarele douǎ condiţii echivalente:

(f (V ), f (W )) = (V, W ), (∀)V, W ∈ Rn ,
kf (V )k = kV k, (∀)V, W ∈ Rn ,

atunci spunem cǎ f este o aplicaţie liniarǎ ortogonalǎ.


Observaţie. Dacǎ f : Rn −→ Rm este o aplicaţie liniarǎ ortogonalǎ,
atunci
a) f este o aplicaţie injectivǎ.
b) n ≤ m.

Definiţie. O matrice asociatǎ unei transformǎri liniare ortogonale se numeşte


matrice ortogonalǎ.
Observaţie. O matrice pǎtratǎ A este ortogonalǎ dacǎ şi numai dacǎ este
inversabilǎ şi
A−1 = AT .

7.4 Probleme propuse


1. Sǎ se arate cǎ dacǎ U, V ∈ Rn sunt vectori ortogonali, atunci are loc
egalitatea
kU + V k2 = kU k2 + kV k2

(Teorema lui Pitagora(!)).


70 7. SPAŢII VECTORIALE EUCLIDIENE

2. Arǎtaţi cǎ

kU + V k2 + kU − V k2 = 2 · (kU k2 + kV k2 ), (∀)U, V ∈ Rn

(Teorema paralelogramului).

3. Fie E un spaţiu euclidian real şi U, V, W ∈ E. Sǎ se arate cǎ urmǎtoarele


afirmaţii sunt echivalente:
a) U ⊥ V .
b) kU + V k = kU + V k.
c) kU + V k2 = kU k2 + kV k2 .

4. Sǎ se verifice urmǎtoarele proprietǎţi:


a) Dacǎ U ⊥ (V − W ) şi V ⊥ (W − U ), atunci are loc şi W ⊥ (U − V ).
b) kU k = kV k dacǎ şi numai dacǎ (U + V ) ⊥ (U − V ).
c) Dacǎ U 6= V , λ ∈ R, şi kU k = kV k = 1, atunci kλU + (1 − λ)V k =
1 ⇐⇒ λ = 0 sau λ = 1.
d) Dacǎ U 6= V , λ ∈ R, şi kU k = kV k, atunci kλU + (1 − λ)V k < kU k,
pentru orice λ ∈ (0, 1).

5. Stabiliţi urmǎtoarele identitǎţi:


a) kU − V k2 = kU k2 + kV k2 − 2kU k · kV k · cos(θ), unde U 6= 0 6= V , iar
θ = b(U, V ).
b) kU + V k2 + kU − V k2 = 2kU k2 + 2kV k2 .
c) 2(U, V ) = (U, U ) + (V, V ) − (U − V, U − V ).

6. Dacǎ S = {X1 , . . . , Xk } este un sistem ortogonal de vectori, atunci


k k
Xi k2 = kXi k2 .
X X
k
i=1 i=1

7. Sǎ se stabileascǎ inegalitǎţile:


a) kX − Y k · kZk ≤ kY − Zk · kXk + kZ − Xk · kY k.
b) | kU k − kV k |≤ kU ± V k ≤ kU k + kV k.
În ce caz are loc | kU k − kV k |= kU − V k?
7.4. PROBLEME PROPUSE 71

Dar | kU k − kV k |= kU k + kV k?

8. Dacǎ V1 = [0 2 4]T şi V2 = [−1 a b]T , sǎ se determine a, b ∈ R astfel



ı̂ncât V2 sǎ fie ortogonal pe V1 şi sǎ aibǎ norma 6.

9. Dacǎ V1 = [1 1 1]T , V2 = [1 − 2 1]T , V3 = [a b c]T , sǎ se determine o


relaţie ı̂ntre numerele a, b, c ∈ R astfel ca sistemul {V1 , V2 , V3 } sǎ fie ortog-
onal.

10. Sǎ se arate cǎ orice sistem ortogonal de vectori nenuli este liniar inde-
pendent ı̂n Rn .
72 7. SPAŢII VECTORIALE EUCLIDIENE
8

Forme biliniare şi forme


pǎtratice

Definiţie. O aplicaţie g : Rn × Rn =⇒ R care satisface urmǎtoarele


proprietǎţi:
(1) g(αX1 + βX2 , Y ) = αg(X1 , Y ) + βg(X2 ), (∀)α, β ∈ R,
X1 , X2 , Y ∈ Rn (proprietatea de liniaritate ı̂n primul argument);
(2) g(X, αY1 + βY2 ) = αg(X, Y1 ) + βg(X, Y2 ), (∀)α, β ∈ R,
X, Y1 , Y2 ∈ Rn (proprietatea de liniaritate ı̂n al doilea argument),
se numeşte formǎ biliniarǎ pe Rn peste R.
Fie Bc = {E1 , E2 , . . . , En } baza canonicǎ din Rn . Dacǎ X, Y ∈ Rn , atunci
n
X
X = x1 E1 + x2 E2 + . . . + xn En = xi Ei ,
i=1

n
X
Y = y1 E1 + y2 E2 + . . . + yn En = yi Ei ,
i=1

astfel ı̂ncât dacǎ g este o formǎ biliniarǎ , avem:


n
X n
X
g(X, Y ) = g( xi Ei , yj Ej ) =
i=1 j=1

n
X n
X n X
X n
= xi g(Ei , yj Ej ) = xi yj g(Ei , Ej ).
i=1 j=1 i=1 j=1

Dacǎ notǎm aij = g(Ei , Ej ), şi dacǎ A = [aij ] ∈ Mn (R), atunci egalitatea
precedentǎ devine
n X
X n
(1) g(X, Y ) = aij xi yj ,
i=1 j=1

73
74 8. FORME BILINIARE ŞI FORME PǍTRATICE

sau echivalent

(2) g(X, Y ) = X T AY, (∀)X, Y ∈ Rn .

Observaţie. Fie B = {V1 , V2 , . . . , Vn } o bazǎ ı̂n Rn , ı̂n raport cu care


vectorii X şi Y au coordonatele X 0 şi Y 0 . Dacǎ matricea de trecere de
la baza canonicǎ la baza B este B, atunci ţinând cont de legǎtura dintre
coordonatele ı̂n raport cu baza canonicǎ şi cele ı̂n baza B, relaţia (2) devine:

(20 ) g(X, Y ) = X 0T A0 Y 0 ,

unde A0 = B T AB.

Definiţie. Spunem cǎ forma biliniarǎ g este nedegeneratǎ dacǎ det(A) 6= 0,


şi respectiv degeneratǎ dacǎ det(A) = 0. Numǎrul det(A) se numeşte dis-
criminantul formei biliniare.
Definiţie. Se numeşte rangul formei biliniare g rangul matricii asociate
acesteia.
Definiţie. Forma biliniarǎ g este simetricǎ, respectiv antisimetricǎ dacǎ
matricea asociatǎ ei ı̂n raport cu o bazǎ a spaţiului Rn este simetricǎ, re-
spectiv antisimetricǎ.
Observaţie. Orice formǎ biliniarǎ se poate descompune ı̂n mod unic ı̂ntr-o
sumǎ a unei forme biliniare simetrice cu o formǎ biliniarǎ antisimetricǎ.

Definiţie. O aplicaţie h : Rn −→ R se numeşte formǎ pǎtraticǎ dacǎ


existǎ o formǎ biliniarǎ şi simetricǎ g cu proprietatea cǎ

h(X) = g(X, X), (∀)X ∈ Rn .

Observaţie. Cunoscând forma pǎtraticǎ h, forma biliniarǎ simetricǎ g din


care provine h se poate regǎsi uşor:
1
g(X, Y ) = (h(X + Y ) − h(X) − h(Y ))
2
Observaţie. Ţinând cont de definiţia unei forme pǎtratice, pentru orice
formǎ pǎtraticǎ h vom putea scrie cu ajutorul coordonatelor

h(X) = X T AX,
8.1. METODA GAUSS-LAGRANGE. TEOREMA LUI JACOBI 75

unde A = [aij ] ∈ Mn (R) este datǎ de relaţiile


1
aii = h(Ei ), aij = (h(Ei + Ej ) − h(Ei ) − h(Ej )), i 6= j.
2
Observaţie. Fie B = {V1 , V2 , . . . , Vn } o bazǎ ı̂n Rn , ı̂n raport cu care vec-
torul X are coordonatele X 0 . Dacǎ matricea de trecere de la baza canonicǎ
la baza B este B, atunci ţinând cont de legǎtura dintre coordonatele ı̂n
raport cu baza canonicǎ şi cele ı̂n baza B, vom putea scrie
h(X) = X 0T A0 X 0 ,
unde A0 = B T AB.

Definiţie. Dacǎ matricea asociatǎ unei forme pǎtratice are forma diag-
onalǎ(i.e. are elemente nenule doar pe diagonala principalǎ), spunem cǎ
forma pǎtraticǎ are forma normalǎ.
Observaţie. O formǎ pǎtraticǎ ı̂n formǎ normalǎ se poate scrie ca suma a
pǎtratelor coordonatelor precedate de nişte coeficienţi.
Definiţie. A aduce la formǎ normalǎ o formǎ pǎtraticǎ ı̂nseamnǎ a efectua
o schimbare de bazǎ, astfel ı̂ncât ı̂n raport cu noua bazǎ forma pǎtraticǎ
sǎ se poatǎ scrie ca sumǎ a pǎtratelor coordonatelor precedate de nişte
coeficienţi.
Observaţie. Existǎ mai multe metode pentru a obţine o formǎ nor-
malǎ(Atenţie!–pentru o formǎ pǎtraticǎ pot exista mai multe forme nor-
male). Vom prezenta ı̂n continuare trei dintre ele.

8.1 Metoda Gauss-Lagrange. Teorema lui


Jacobi
Metoda Gauss-Lagrange este o metodǎ sistematicǎ de a grupa termenii din
expresia unei forme pǎtratice pentru a obţine pǎtrate perfecte.
Astfel, fie
n
aii x2i + 2
X X
h(x1 , x2 , . . . , xn ) = aij xi xj
i=1 1≤i<j≤n
expresia unei forme pǎtratice ı̂n raport cu baza canonicǎ. Presupunând cǎ
a11 6= 0, vom putea scrie
n
1 2 2
a11 a1j x1 xj ) + h0 (x2 . . . , xn ),
X
h(x1 , x2 , . . . , xn ) = (a11 x1 + 2
a11 j=2
76 8. FORME BILINIARE ŞI FORME PǍTRATICE

unde h0 este o formǎ pǎtraticǎ care nu mai depinde de varibila x1 . În


continuare vom avea
n n
1 2
((a11 x1 ) + 2a11 x1 ( a1j xj ) + ( a1j xj )2 )+
X X
h(x1 , x2 , . . . , xn ) =
a11 j=1 j=1

n
1
a1j xj )2 + h”(x2 . . . , xn ) =
X
= h”(x2 . . . , xn ) = (a11 x1 +
a11 j=1

1 2
= y + h”(x2 . . . , xn ).
a11 1
În ultima expresie am reuşit sǎ obţinem un pǎtrat perfect ı̂n care sunt
grupaţi toţi termenii care conţineau variabila x1 . În continuare se grupeazǎ
toţi termenii care conţin x2 , x3 , etc. În final, cu aceastǎ metodǎ vom obţine
şi expresiile noilor coordonate ı̂n funcţie de cele ı̂n raport cu baza canonicǎ.

Exemplu. Fie forma pǎtraticǎ h(X) = 2x1 2 +2x2 2 +3x3 2 −4x1 x2 +6x1 x3 +
x2 x3 . Pentru a o aduce la forma canonicǎ, grupǎm termenii care conţin vari-
abila x1 şi ı̂ncercǎm sǎ formǎm un pǎtrat perfect care sǎ conţinǎ toţi aceşti
termeni astfel ca variabila x1 sǎ nu mai aparǎ ı̂n vreun termen neconţinut
ı̂n acest pǎtrat perfect; continuǎm astfel pânǎ epuizǎm variabilele.

h(X) = 2x1 2 + 2x1 (−2x2 + 3x3 ) + 2x2 2 + 3x3 2 + x2 x3 =


= 1
2
[4x1 2 + 4x1 (−2x2 + 3x2 ) + (−2x2 + 3x2 )2 ]−
= − 12 (−2x2 + 3x2 )2 + 2x2 2 + 3x3 2 + x2 x3 =
= 1
2
(2x1 − 2x2 + x3 )2 − 23 x3 2 + 7x2 x3 =
= 1
2
(2x1 − 2x2 + x3 )2 − 32 ( 32 x3 − 27 x2 )2 − 49 x2=
6 2
= 1
2
(2x1 − 2x2 + x3 )2 − 32 ( 32 x3 − 27 x2 )2 − 49
6 49
( 6 x2 )2

Cu schimbarea de coordonate

y = 2x1 − 2x2 + x3
 1



3
 2y = x − 72 x2
2 3

 y 49
= x

3 6 2

forma pǎtraticǎ h are urmǎtoarea formǎ canonicǎ:


1 2 6
h(Y ) = y1 2 − y2 2 − y3 2 .
2 3 49
Metoda lui Jacobi.
Fiind datǎ o matrice pǎtraticǎ A = [aij ] ∈ Mn (R), determinanţii
8.2. METODA TRANSFORMǍRILOR ORTOGONALE 77


a11 a12 a13

a11 a12


∆1 = a11 , ∆2 = , ∆3 = a a22 a23 , . . . , ∆n = detA

a21 a22

21
a31 a32 a33

se numesc minorii diagonali principali ai matricei A.


Teorema lui Jacobi. Dacǎ matricea unei forme pǎtratice h are toţi minorii
diagonali principali nenuli, atunci existǎ o bazǎ, ı̂n raport cu care h sǎ aibǎ
forma normalǎ
1 2 ∆1 2 ∆n−1 2
h(X) = y1 + y2 + . . . + yn .
∆1 ∆2 ∆n
Observaţie. Ca o consecinţǎ vom avea deci o metodǎ mult mai rapidǎ
decât metoda Gauss-Lagrange de a obţine o formǎ normalǎ, aşa-numita
metoda a lui Jacobi. Din pǎcate ı̂nsǎ, aceastǎ metodǎ nu oferǎ şi coordo-
natele noi, ı̂n raport cu care forma pǎtraticǎ are forma normalǎ.
Observaţie. Rezultatul obţinut cu metoda lui Jacobi este exact acelaşi(abstracţie
fǎcând de lipsa expresiilor noilor coordonate) cu cel obţinut cu metoda
Gauss-Lagrange.

Exemplu. Fie urmǎtoarea formǎ pǎtraticǎ :

h(X) = 3x1 2 + 4x2 2 − 3x3 2 − 2x1 x2 + 4x2 x3 .

Matricea şi determinanţii principali ai acestei forme pǎtratice sunt:


 
3 −1 1
 
A =  −1 4 1  ,
 
 
1 2 −3

∆0 = 1, ∆1 = 3, ∆2 = 11, ∆3 = −53.

Forma normalǎ a formei pǎtratice este deci:


1 3 11
f (Y ) = y1 2 + y2 2 + y3 2 .
3 11 53

8.2 Metoda transformǎrilor ortogonale


Fie h : Rn −→ R o formǎ pǎtraticǎ şi sǎ presupunem cǎ matricea asociatǎ
formei pǎtratice are toate valorile proprii distincte(matricea fiind simetricǎ,
78 8. FORME BILINIARE ŞI FORME PǍTRATICE

toate valorile proprii sunt numere reale).


Fie atunci B = {V1 , V2 , . . . , Vn } o bazǎ ortonormatǎ formatǎ din vectori pro-
prii corespunzǎtori valorilor proprii λi , i = 1, n, şi fie B matricea(ortogonalǎ!)
care are drept coloane vectorii V1 , . . . , Vn . Obţinem atunci
 
 λ1 0 . . . 0 
 
 0 λ2 . . . 0 
T −1
B AB = B AB =  . ,
 
 . .. . . .. 
 . . . . 

 
0 0 . . . λn

deci ı̂n raport cu aceastǎ bazǎ, matricea asociatǎ are forma diagonalǎ, prin
urmare putem scrie o formǎ normalǎ a formei pǎtratice. Aceastǎ formǎ
normalǎ poartǎ denumirea de formǎ canonicǎ a formei pǎtratice date.

8.3 Probleme propuse


1. Sǎ se aducǎ la forma normalǎ urmǎtoarele forme pǎtratice:
a) f (x1 , x2 , x3 ) = x21 + 2x1 x2 + 2x22 + 4x2 x3 + 5x23 ;
b) f (x1 , x2 , x3 ) = x21 − 4x1 x2 + 2x1 x3 + 4x22 + x23 ;
c) f (x1 , x2 , x3 ) = x1 x2 + x2 x3 + x3 x1 ;
d) f (x1 , x2 , x3 , x4 ) = x21 −2x1 x2 +2x1 x3 −2x1 x4 +x22 +2x2 x3 −4x2 x4 +x23 −2x24 ;
e) f (x1 , x2 , x3 , x4 ) = x21 + x1 x2 + x3 x4 .

2. Sǎ se aducǎ la forma normalǎ urmǎtoarea forme pǎtraticǎ:

n
x2i +
X X
a) f (x1 , x2 , . . . , xn ) = xi xk .
i=1 i<k
X
b) f (x1 , x2 , . . . , xn ) = xi xk .
1≤i<k≤n

3. Sǎ se demonstreze cǎ toţi minorii diagonali principali ai unei forme


pǎtratice pozitiv definite sunt pozitivi.

4. Sǎ se demonstreze cǎ pentru ca forma pǎtraticǎ

n X
X n
f (x1 , x2 , . . . , xn ) = xi xj
i=1 j=1
8.3. PROBLEME PROPUSE 79

sǎ fie pozitiv definitǎ, este


necesar şi suficient
sǎ fie satisfǎcute inegalitǎţile:
a11 a12 a13

a11 a12

a11 > 0, > 0, a a a 23 > 0, . . . , detA > 0.

21 22

a21 a22

a31 a32 a33

5. Sǎ se aducǎ la forma canonicǎ printr-o transformare ortogonalǎ, formele


pǎtratice:
a) f (x1 , x2 , x3 ) = 2x21 + x22 − 4x1 x2 − 4x2 x3 .
b) f (x1 , x2 , x3 ) = x21 + 2x22 + 3x23 − 4x1 x2 − 4x2 x3 .
c) f (x1 , x2 , x3 ) = 3x21 + 4x22 + 5x23 − 4x1 x2 − 4x2 x3 .

6. Sǎ se aducǎ la forma canonicǎ printr-o transformare ortogonalǎ, formele


pǎtratice:

n
x2i +
X X
a) f (x1 , x2 , . . . , xn ) = xi xk .
i=1 i<k
X
b) f (x1 , x2 , . . . , xn ) = xi xk .
1≤i<k≤n

c) f (x1 , x2 , . . . , xn ) = x1 x2 + x2 x3 + . . . + xn−1 xn .

7. Sǎ se demonstreze cǎ dacǎ toate valorile caracteristice ale matricei simet-
rice reale A sunt cuprinse ı̂n intervalul ı̂nchis [a, b], atunci forma pǎtraticǎ
cu matricea A − λIn este negativǎ pentru λ > b şi pozitivǎ pentru λ < a.
Este adevǎratǎ şi afirmaţia reciprocǎ.

8. Sǎ se demonstreze cǎ dacǎ toate valorile caracteristice ale matricei si-
metrice reale A sunt cuprinse ı̂n intervalul ı̂nchis [a, c], iar toate valorile car-
acteristice ale matricei simetrice reale B sunt cuprinse ı̂n intervalul ı̂nchis
[b, d], atunci toate valorile caracteristice ale matricei simetrice reale A + B
sunt cuprinse ı̂n intervalul ı̂nchis [a + b, c + d].

9. Fie datǎ forma pǎtraticǎ f (x1 , x2 , x3 ) = 2x1 x2 − 6x1 x3 − 6x2 x3 .


a) Sǎ se scrie matricial forma f sus şi sǎ se determine rangul formei f .
b) Sǎ se determine forma normalǎ prin metoda lui Gauss şi sǎ se stabileascǎ
matricea de transformare a coordonatelor.
80 8. FORME BILINIARE ŞI FORME PǍTRATICE

10. Fie datǎ forma pǎtraticǎ


f (x1 , x2 , x3 ) = 5x21 + 6x22 + 4x23 − 4x1 x2 − 4x1 x3 .
Folosind metoda lui Gauss, metoda lui Jacobi şi, respectiv metoda trans-
formǎrilor ortogonale, sǎ se aducǎ forma f la formǎ normalǎ, respectiv la
formǎ canonicǎ, şi sǎ se verifice teorema de inerţie.

11. Fiind date urmǎtoarele forme pǎtratice, sǎ se gǎseascǎ pentru fiecare o
bazǎ ortonormatǎ faţǎ de care forma pǎtraticǎ are forma canonicǎ.
a) q : R4 −→ R, q(x1 , x2 , x3 , x4 ) = 2x1 x2 − 6x1 x3 − 6x2 x4 + 2x3 x4 .
b) q : R3 −→ R, q(x1 , x2 , x3 ) = 3x21 + 6x22 + 3x23 − 4x1 x2 − 8x1 x3 − 4x2 x3 .
c) q : R3 −→ R, q(x1 , x2 , x3 ) = −x21 + x22 − 5x23 + 6x1 x3 + 4x2 x3 .

S-ar putea să vă placă și