Sunteți pe pagina 1din 33

Capitolul 6

TRANSFORMĂRI LINIARE

Pe lângă noţiunea fundamentală de spaţiu vectorial, un alt concept


de bază al algebrei liniare este cel de transformare liniară. Aceasta
reprezintă ′ ′ purtătorul′ ′ de informaţie al proprietăţii de liniaritate, de la un
spaţiu vectorial la altul.
Utilizarea consistentă în geometrie a acestei noţiuni reclamă o
tratare detaliată.

§1. Definiţie şi proprietăţi generale


Fie V şi W două spaţii vectoriale peste câmpul K.

1.1 Definiţie. Se numeşte transformare liniară (aplicaţie liniară,


operator liniar sau morfism de spaţii vectoriale) o funcţie
T: V → W, care satisface proprietăţile:

1) T(x+y) = T(x) +T (y) , ∀ x, y ∈ V


2) T(α x) = α T(x) , ∀x∈V,∀α ∈K.

Pentru imaginea T(x) a unei transformări liniare T vom utiliza


uneori şi scrierea Tx.

1.2 Corolar. Aplicaţia T: V → W, este o transformare liniară dacă şi


numai dacă

T(α x+β y) = α T(x) + β T (y) , ∀ x, y ∈ V, ∀ α , β ∈ K


(1.1)

Demonstraţia este imediată, iar condiţia (1.1) arată că o aplicaţie


T: V → W este o transformare liniară dacă imaginea unei combinaţii liniare
de vectori este egală cu combinaţia liniară a imaginilor acestora.

107
Exemple
1° Aplicaţia T: Rn → Rm , T (x) = AX, A ∈ M m× n(R) , X = tx este o
transformare liniară. În particular, pentru n = m = 1 , aplicaţia definită prin
T (x) = ax, a ∈ R, este liniară.
2° Dacă U ⊂ V este un subspaţiu vectorial atunci aplicaţia
T: U → V, definită prin T(x) = x şi numită aplicaţia de incluziune, este o
transformare liniară. În general, restricţia unei transformări liniare la o
submulţime S ⊂ V nu este o transformare liniară. Proprietatea de liniaritate
se păstrează numai pentru subspaţii vectoriale.
3° Aplicaţia T: C1 (a, b) → C0(a,b) , T (f ) = f ′ este liniară.
b
4° Aplicaţia T: C0 (a, b) → R, T(f) = ∫ a
f ( x) dx este liniară.
5° Dacă T: V → W este o transformare liniară bijectivă atunci
T : W → V este o transformare liniară.
-1

Notăm cu L(V, W) mulţimea transformărilor liniare de la spaţiul


vectorial V în spaţiul vectorial W.
Dacă definim pe mulţimea L(V, W) operaţiile:

(T1 + T 2) (x) = : T 1(x) + T 2(x), ∀x∈V


(α T) (x) = : α T (x) , ∀ x ∈ V, ∀ α ∈ K

atunci L(V, W) capătă o structură de K-spaţiu vectorial.


O transformare liniară bijectivă T: V → W va fi numită izomorfism
de spaţii vectoriale.
Dacă W = V, atunci aplicaţia liniară T: V → V va fi numită
endomorfism al spaţiului vectorial V, iar mulţimea acestora va fi notată cu
End(V). Pentru T1, T2 ∈ End(V), două endomorfisme ale spaţiului vectorial
V , are sens compunerea acestora

(T 1 ° T 2)(x) = : T1(T 2(x)) , ∀ x ∈ V

operaţie pe care o vom numi produsul transformărilor T1 şi T2, notat pe scurt


T 1T 2.
Un endomorfism bijectiv T: V → V va fi numit automorfism al
spaţiului vectorial V, iar mulţimea acestora va fi notată cu Aut(V).
Submulţimea automorfismelor unui spaţiu vectorial este parte stabilă
în raport cu operaţia produs de endomorfism şi formează un subgrup
GL(V) ⊂ End(V), numit grupul liniar al spaţiului vectorial V.

108
Dacă W = K, atunci aplicaţia liniară T: V → K, este numită formă
liniară, iar mulţimea notată cu V* = L( V, K), a tuturor formelor liniare pe
V, este un K-spaţiu vectorial numit dualul spaţiului vectorial V.
Dacă V este un spaţiu vectorial euclidian de dimensiune
finită atunci dualul sau V* are aceeaşi dimensiune şi se identifică cu V.
1.3 Teoremă. Dacă T: V → W este o transformare liniară oarecare,
atunci :
a) T (0v) = 0w , T (-x) = - T(x), ∀ x ∈ V
b) Imaginea T (U) ⊂ W, a unui subspaţiu vectorial
U ⊂ V, este subspaţiu vectorial
c) Contraimaginea T-1 (W′ ) ⊂ V , a unui subspaţiu
vectorial W′ ⊂ W , este un subspaţiu vectorial.
d) Dacă vectorii x1, x2 ,..., xn ∈ V sunt liniar dependenţi
atunci şi vectorii T (x1), T (x2) ,..., T (xn) ∈ W sunt
liniar dependenţi.

Demonstraţie. a) Înlocuind α = 0 , respectiv α =-1 în condiţia


de omogenitate T (α x) = α T (x) , obţinem T (0v) = 0w şi respectiv
T (-x) = - T (x).
În cele ce urmează vom renunţa la indicii vectorilor nuli ai celor
două spaţii vectoriale.
b) Pentru ∀ u, v ∈ T (U) , ∃ x, y ∈ U astfel încât u = T (x) şi
v = T (y). În ipoteza că U ⊂ V este un subspaţiu vectorial, pentru x, y ∈ U,
α , β ∈ K avem α x + β y ∈ U şi relaţia (1.1), obţinem
α u + β v = α T (x) + β T (y) = T(α x + β y) ∈ T (U).
c) Dacă x, y ∈ T -1(W ′ ) atunci T (x) , T (y) ∈ W ′ şi pentru
∀ α , β ∈ K avem α T (x) + β T(y) = T (α x + β y) ∈ W ′ (W ′ este
subspaţiu vectorial), de unde rezultă α x + β y ∈ T -1(W ′ ).
d) Aplicăm transformarea T relaţiei de dependenţă
liniară λ 1x1 + λ 1x1 + ... + λ nxn = 0 şi obţinem, folosind a), relaţia de
dependenţă liniară λ 1 T (x1) + λ 2 T (x2) + ... + λ n T (xn) = 0.
1.4 Consecinţă. Dacă T: V → W este o transformare liniară atunci :
a) Mulţimea Ker T = T -1{0} ={x ∈ V | T (x) = 0 } ⊂ V
numită nucleul transformării liniare T , este un
subspaţiu vectorial.
b) Im T = T (V) ⊂ W, numită imaginea transformării
liniare T, este un subspaţiu vectorial.
c) Dacă T(x1), T(x2), ... , T(xn) ∈ W sunt liniar
independenţi atunci şi vectorii x1, x2 ,..., xn ∈ V sunt
liniar independenţi.
109
1.5 Teoremă. O transformare liniară T: V → W este injectivă dacă şi
numai dacă Ker T = {0}.

Demonstraţie. Injectivitatea transformării liniare T împreună cu


proprietatea generală T (0) = 0 implică Ker T = {0}.
Reciproc. Dacă Ker T = {0} şi T(x) = T(y), folosind proprietatea de
liniaritate obţinem T (x - y) = 0 ⇔ x – y ∈ Ker T , adică x = y şi deci
T este injectivă.
Dimensiunea nucleului Ker T se numeşte defectul operatorului T .
Dimensionarea imaginii Im T se numeşte rangul operatorului T .

1.6 Teoremă. (teorema rangului) Dacă spaţiul vectorial V este finit


dimensional atunci şi spaţiul vectorial ImT este finit
dimensional şi avem relaţia

dim Ker T+ dim Im T = dim V (1.2)

Demonstraţie. Să notăm cu n = dim V şi cu s = dim Ker T. Pentru s ≥ 1 să


consdierăm o bază {e1, e2, ..., es} în Ker T şi să o completăm la o bază
B = {e1, e2, ..., es, es+1, ..., en} a întregului spaţiu vectorial V . Vectorii
es+1, es+2, ..., en reprezintă o bază a subspaţiului suplementar subspaţiului
Ker T .
n

Pentru orice y ∈ Im T, există x = ∑x e


i =1
i i ∈ V, astfel încât y = T (x)
Întrucât T (e1) = T (e1) = ... = T (es) = 0, rezultă
n
y = T (x) = ∑x
i =1
i T (ei) = xs+1 T (es+1) + ... + xn T (en),
ceea ce înseamnă că T (es+1), T (es+2), ... , T (en) generează subspaţiul ImT.
Demonstrăm că vectorii T(es+1),... ,T (en) sunt liniar independenţi.
În adevăr,
λ s+1 T (es+1) + ... + λ n T (en) = 0 ⇔ T (λ s+1 es+1 + ... + λ n en) = 0
de unde rezultă că λ s+1 es+1 + ... + λ n en ∈ Ker T . Cum subspaţiul Ker T
are în comun cu subspaţiul suplementar numai vectorul nul, obţinem
λ s+1 es+1 + ... + λ n en = 0 ⇒ λ s+1 = ... = λ n = 0,
adică vectorii T (es+1) , ... , T (en), sunt liniar independenţi. Astfel, subspaţiul
imagine Im T este finit dimensional şi în plus
dim Im T = n – s = dimV – dim Ker T .

Pentru s = 0 (K er T = {0} şi dim Ker T = 0), considerăm în spaţiul


110
vectorial V baza B = {e1, e2, ..., en} şi urmând acelaşi raţionament obţinem
că T (e1) , T (e2) , ... , T (en) reprezintă o bază a spaţiului Im T şi deci
Im T = dim V, c.c.t.d.

Proprietatea de dependenţă liniară a unui sistem de vectori se


păstrează printr-o transformare liniară, pe când proprietatea de independenţă
liniară, în general, nu se conservă. Condiţiile în care liniara independentă a
unui sistem de vectori se păstrează, sunt date în următoarea teoremă.

1.7 Teoremă. Dacă V este un spaţiu vectorial n-dimensional şi


T : V → W o transformare liniară, atunci următoarele
afirmaţii sunt echivalente

1) T este injectivă
2) Imaginea unui sistem de vectori liniar independenţi
e1, e2, ..., ep ∈ V (p ≤ n) este un sistem de vectori T (e1),
T (e2) , ... , T (ep), liniar independenţi.

Demonstraţie. 1) → 2) Fie T o transformare liniară injectivă, vectorii


e1, e2, ..., ep liniar independenţi şi T (e1), T (e2) , ... , T (ep) imaginile
acestora.
Pentru λ i ∈ K, i =1, p avem
λ 1 T (e1) + λ 2 T (e2) + ... + λ p T (ep) = 0 ⇔
⇔T (λ 1e1 + λ 2e2 + ... + λ pep) = 0 ⇔
⇔ λ 1e1 + λ 2e2 + ... + λ pep ∈ K er T = {0} (T - injectivă)

⇔ λ 1e1 + λ 2e2 + ... + λ pep = 0 ⇔ λ 1 = λ 2 = ... = λ p = 0,
deci vectorii T (e1), ... , T (ep) sunt liniar independenţi.
2) → 1) presupunem că există un vector x ≠ 0 pentru care
T (x) = 0. Dacă B = {e1, e2, ..., en} ⊂ V este o bază, atunci ∃ xi ∈ K, nu toţi
n
nuli aşa încât x = ∑xi ei . Întrucât T (e1), T (e2), ..., T (en) sunt liniar
i =1
independenţi, din relaţia T (x) = x1T (e1) + x2 T (e2) + ... + xn T (en) = 0 ,
rezultă x1 = x2 = ... = xn = 0 ⇔ x = 0, contradicţie. Obţinem K er T = {0},
deci este injectivă.

111
1.8 Consecinţă. Dacă V şi W sunt două spaţii vectoriale finit
dimensionale şi T: V → W este o transformare liniară,
atunci:
1) Dacă T este injectivă şi {e1, e2, ..., en} este o bază în
V atunci { T (e1), T (e2), ..., T (en)} este o bază în ImT .
2) Două spaţii vectoriale izomorfe au aceeaşi
dimensiune.

Demonstraţia este imediată folosind rezultatele din teoremele 1.6 şi 1.7.

§2. Matricea unei transformări liniare

Fie V şi W două spaţii vectoriale peste corpul K.

2.1 Teoremă. Dacă B = {e1, e2, ..., en} este o bază în spaţiul vectorial V
şi {w1, w2, ..., wn} sunt n vectori arbitrari din W atunci
există o unică transformare liniară T: V → W cu
proprietatea T(ei) = wi , i =1, n .

Demonstraţie. Fie x ∈ V un vector care se scrie în baza B sub forma


n n
x = ∑ xi ei . Corespondenţa x  T ( x ) = ∑ xi wi defineşte o aplicaţie
i =1 i =1

T: V → W, cu proprietatea T(ei) = wi , i =1, n . Această aplicaţie este


n
liniară. În adevăr, dacă y = ∑ yi ei este un alt vector oarecare din V, atunci
i =1
combinaţia liniară
n

α x+β y= ∑(αx
i =1
i + βyi )ei , ∀ α ,β ∈ K,

are imaginea prin T dată de


n n n

T (α x + β y)= ∑ (αxi + βyi ) wi =α ∑ xi + wi +β ∑y i + wi = α T (x) +


i =1 i =1 i =1

β T (y), adică aplicaţia T este liniară.


Să presupunem acum că ∃ T′ : V → W cu proprietatea T′ (ei) = wi ,
n
i =1, n . Atunci pentru orice x ∈ V , x = ∑x e
i =1
i i avem

 n  n n n

T ′ (x) = T′  ∑ xi ei  = ∑xi T′ (ei) = ∑xi wi = ∑x i T (ei) =


 i =1  i =1 i =1 i =1

112
 n 
= T  ∑ xi ei  = T (x),
 i =1 
adică unicitatea transformării liniareT .
În cazul în care { w1, w2, ..., wn } ⊂ W sunt liniar independenţi atunci
transformarea liniară T definită în teorema 2.1 este injectivă.
Teorema 2.1 ne spune că o transformare liniară T : V → W, dimV
= n, este perfect determinată , dacă se cunosc imaginile acesteia {T
(e1), T (e2), ...,T (en)} pe vectorii unei baze B = {e1, e2, ..., en} ⊂ V.
Fie acum Vn şi Wm două K-spaţii vectoriale de dimensiune n şi
respectiv m, şi T: V → W o transformare liniară. Dacă B = {e1, e2, ..., en}
este o bază fixată în Vn , iar B′ = {f1, f2, ..., fm} este o bază fixată în Wm
atunci transformarea liniară T este unic determinată de valorile T
(ej)∈Wm. Pentru ∀ j = 1, n asociem imaginii T (ej) n-upla (a1j, a2j, ..., amj),
adică
m
T (ej) = ∑a
i =1
ij f i , ∀ j = 1, n

(2.1)
Coeficienţii aij ∈ K, i = 1, n , j = 1, n , definesc în mod unic
matricea A = (aij) ∈ Mm× n (K). Dacă considerăm în spaţiile vectoriale Vn şi
Wm bazele B şi B′ fixate, atunci matricea A ∈ Mm× n (K) determină în mod
unic transformarea liniară T .

2.2 Definiţie. Matricea A ∈ Mm× n (K) ale cărei elemente sunt date de
relaţia (2.1) se numeşte matricea asociată transformării
liniare T în raport cu perechea de baze B şi B′ .

n m

2.3 Teoremă. Dacă x = ∑x j e j are imaginea y = T (x) =


j =1
∑y i fi ,
i =1
atunci
n

yi = ∑aij x j , ∀ i = 1, m
j =1

(2.2)

In adevăr,
113
 n  n n
 m 
T(x) = T  ∑ j j  ∑ ∑ j  ∑ aij f i  =
x e  = x j T (e j)= x
 j =1  j =1 j =1  i =1 
m  n  n
=∑   ∑ aij x j
 f i = ∑yi f i ,

i =1  j =1  i =1

din care rezultă relaţia (2.2)


Dacă notăm X = t(x1, x2, ..., xn), Y = t(y1, y2, ..., ym) atunci relaţia (2.2)
se scrie matriceal sub forma

Y = AX (2.3)

Ecuaţiile (2.2) sau (2.3) se numesc ecuaţiile transformării liniare T


în raport cu bazele considerate.

Observaţii
1° Dacă L (Vn, Wm) este mulţimea tuturor transformărilor liniare de
la Vn cu valori în Wm şi Mm× n (K) este mulţimea tuturor matricelor de tipul
m × n, iar B şi B ′ sunt două baze fixate în Vn şi respectiv Wm, atunci
corespondenţa
Ψ : L (Vn, Wm) → Mm× n (K) , Ψ (T) = A,
care asociază unei transformări liniare T matricea A, relativ la cele două
baze fixate, este un izomorfism de spaţii vectoriale. În consecienţă
dim L (Vn, Wm) = m ⋅ n.
2° Izomorfismul are proprietăţile:
- Ψ (T 1 T 2) = Ψ (T 1) ⋅ Ψ (T 2), când T 1 T 2 are sens
- T: Vn → Vn este inversabil dacă şi numai dacă matricea asociată A,
în raport cu o bază oarecare din Vn, este inversabilă.

Fie Vn un K-spaţiu vectorial şi T∈ Eud(Vn). Considerând baze diferite


în Vn, endomorfismului T i se asociază matrice pătratice diferite. Se pune în
mod natural întrebarea: când două matrice pătratice reprezintă acelaşi
endomorfism? Răspunsul este dat de următoarea teoremă

2.4 Teoremă. Două matrice A, A′ ∈ Mn (K) relativ la bazele B, B′ ⊂ Vn ,


reprezintă aceeaşi transformare liniară T : Vn → Vn dacă
şi numai dacă A′ = Ω -1 A Ω . Matricea Ω fiind matricea de
trecere de la baza B la baza B′ .

Demonstraţie. Fie B = {e1, e2, ..., en} şi B′ = {e′ 1, e′ 2, ..., e′ n} două


114
baze în Vn şi Ω = (ω ij) matricea de trecere de la baza B la baza B ′ ,
n

adică e′ j = ∑ω e
i =1
ij i , ∀ j = 1, n .
Dacă A = (aij) este matricea asociată lui T relativ la baza B, adică
n
T (ej) = ∑a e
i =1
ij i , j= 1, n şi A′ = (a′ ij) este matricea asociată lui T
n
relativ la baza B′ , adică T (e′ j) = ∑a'
i =1
ij e'i , j= 1, n , atunci putem
scrie imaginile T (e’j) în două moduri:
n
 n  n  n 
T(e′ j) = ∑ ij  ∑ ki k  = ∑  ∑ωki a 'ij ek ,
a ' ω e respectiv
i =1  k =1  k =1  i =1 
 n  n n
 n  n
T(e’j) = T  ∑ωij ei  = ∑ωij T(ei)= ∑ωij  ∑ aki ek  = ∑
 i=1  i =1 i =1  k =1  k =1

 n

 ∑ akiωij ek
 i =1 
n n
Din cele două exprimări rezultă ∑ωki a 'ij =
i =1
∑a
i =1
ki ωij ⇔ Ω A′ =

AΩ .
Cum matricea Ω este nesingulară, rezultă relaţia A′ = Ω -1AΩ .

2.5 Definiţie. Două matrice A, B ∈ Mn (K) se numesc asemenea dacă


există o matrice nesingulară C ∈ Mn (K) astfel încât
are loc relaţia B = C-1⋅ A ⋅ C .

Observaţii
1° Relaţia de asemănare este o relaţie de echivalenţă pe mulţimea Mn
(K). Fiecare clasă de echivalenţă corespunde unui endomorfism T ∈ End(Vn)
şi conţine toate matricele asociate lui T relativ la bazele spaţiului vectorial
Vn.
2° Două matrice asemenea A şi B au acelaşi determinant

detB = det(C-1) ⋅ detA ⋅ detC = det A


Orice două matrice asemenea au acelaşi rang, număr ce reprezintă rangul
endomorfismului T . În concluzie, rangul unui endomorfism nu depinde de
alegerea bazei spaţiului vectorial V (rangul unui endomorfism este invariant
la schimbarea bazei).
115
§3. Valori şi vectori proprii

Fie V un K-spaţiu vectorial n-dimensional şi T ∈ End(V) un


endomorfism.
Dacă în spaţiul vectorial V considerăm diferite baze, atunci aceluiaşi
endomorfism T ∈ End(V) îi va corespunde matrice diferite dar cu
proprietatea de a fi asemenea. În aceste condiţii, ne interesează găsirea unei
baze în V, în raport cu care matricea asociată endomorfismului T să aibă
forma cea mai simplă, forma canonică, caz în care relaţiile ce definesc
n
endomorfismul T , yi = ∑a
j =1
ij x j , vor avea cele mai simple exprimări.

Vom rezolva această problemă cu ajutorul valorilor şi vectorilor proprii ai


endomorfismului T.

3.1 Definiţie. Fie V un K-spaţiu vectorial şi T ∈ End(V) un


endomorfism.
Un vector x ∈ V, x ≠ 0 se numeşte vector propriu
al endomorfismului T : V → V dacă există λ ∈ K
astfel încât
T(x) = λ x (3.1)
Scalarul λ ∈ K se numeşte valoarea proprie a lui T
corespunzătoare vectorului propriu x.

Mulţimea valorilor proprii ale endomorfismului T este numit


spectrul operatorului T şi se notează cu σ (T).
Ecuaţia T (x) = λ x cu x ≠ 0 este echivalentă cu x ∈ Ker(T - λ I ) \
{0}, unde I este endomorfismul identitate.
Dacă x este un vector propriu al lui T , atunci şi vectorul kx ,
k ∈ K \{0} este un vector propriu.

3.2 Teoremă. Dacă V este un K-spaţiu vectorial şi T ∈ End(V), atunci


1) Fiecărui vector propriu al lui T îi corespunde o singură
valoare proprie λ ∈ σ (T).
2) Vectorii proprii ce corespunde la valori proprii distincte
sunt linair independenţi.
3) Mulţimea Sλ = {x ∈ V | T x = λ x , λ ∈ σ (T)} ⊂
V este un subspaţiu vectorial, invariant în raport cu T ,
adică T (Sλ ) ⊆ Sλ . Subspaţiul vectorial se numeşte
116
subspaţiu propriu corespunzător valorii proprii λ ∈ σ
(T).
Demonstraţie. 1) Considerăm x ≠ 0 un vector propriu corespunzător valorii
proprii λ ∈ K. Dacă ar exista o altă valoare proprie λ ′ ∈ K astfel
încât
T (x) = λ ′ x atunci am avea λ x = λ ′ x ⇔ (λ - λ ′ )x = 0 ⇔ λ = λ ′ .
2) Fie x1, x2, ..., xp vectorii proprii corespunzători valorilor proprii
distincte λ 1, λ 2, ..., λ p. Demonstrăm prin inducţie după p, liniar
independenţa vectorilor proprii consideraţi. Pentru p = 1 şi x1 ≠ 0, ca vector
propriu, mulţimea {x1} este liniar independentă. Presupunând proprietatea
adevărată pentru p-1, să arătăm că aceasta este adevărată pentru p vectori
proprii. Aplicând endomorfismul T relaţiei k1x1 + k2x2 + ... + kpxp = 0
obţinem k1λ 1x1 + k2λ 2x2 + ...+ kpλ pxp = 0. Scăzând prima relaţie,
amplificată cu λ p, din a doua relaţie, obţinem
k1(λ - λ p)x1 + ... + kp-1(λ p - λ p-1)xp-1 = 0
Din ipoteza inductivă rezultă k1 = k1 = ... = kp-1 = 0, care înlocuite în
relaţia k1x1 +... + kp-1xp-1 + kpxp = 0 ne procură kpxp = 0 ⇔ kp = 0 , deci x1,
x2, ..., xp sunt liniar independenţi.
3) Pentru orice x, y ∈ Sλ şi ∀ α , β ∈ K avem :
T (α x + β y) = α T (x) + β T (y) = α λ x + β λ y = λ (α x + β y),
adică Sλ este subspaţiu vectorial în V.
Pentru ∀ x ∈ Sλ , atunci T (x) = λ x ∈ Sλ adică T (Sλ ) ⊆ Sλ .
3.3 Teoremă. Subspaţiile proprii S λ1 , S λ2 corespunzătoare la valori
proprii distincte, λ 1 ≠ λ 2 au în comun numai vectorul
nul.

Demonstraţie. Fie λ 1, λ 2, ∈ σ (T), λ 1 ≠ λ 2. Să presupunem existenţa


unui vector nenul x ∈ S λ1 ∩ S λ2 , pentru care avem T (x)= λ 1x şi T (x)=
λ 2x. Obţinem (λ 1 - λ 2)x = 0 ⇔ λ 1 = λ 2 , contradicţie. Rezultă că S λ ∩ 1

S λ2 = {0}.

3.4 Definiţie. Matricea nenulă X∈ Mn(K) se numeşte vector propriu


al matricei A dacă ∃ λ ∈ K astfel încât AX = λ X.
Scalarul λ ∈ K se numeşte valoare proprie a matricei A.

Ecuaţia matriceală AX = λ X poate fi scrisă sub forma (A - λ I )X =


0 şi este echivalentă cu sistemul de ecuaţii liniare şi omogene:

117
( a11 −λ) x1 +a12 x2 +... +a1n xn = 0
a x +( a −λ) x +... +a x = 0
 21 2 12 2 2n n

 .......... .......... .......... .......... .........

an1 x1 +an1 x2 +... +( ann −λ) xn = 0
(3.2)
care admite soluţii diferite de soluţia banală dacă şi numai dacă
a11 −λ a12 ... a1n
a21 a22 -λ ... a2 n
P(λ ) = det(A - λ I ) = .......... .......... .......... =0

an1 an2 ... ann −λ


(3.3)
3.5 Definiţie. Polinomul P(λ ) = det(A - λ I ) se numeşte polinomul
caracteristic al matricei A iar ecuaţia P(λ ) = 0
se numeşte ecuaţia caracteristică a matricei A .

Se poate demonstra că polinomul caracteristic are forma

P(λ ) = (-1)n [λ n - δ 1λ n-1


+ ... + (-1)nδ n ],
(3.4)

unde δ i reprezintă suma minorilor principali de ordinul i ai matricei A.


Observaţii
1° Soluţiile ecuaţiei caracteristice det(A - λ I ) = 0 sunt valorile
proprii ale matricei A.
2° Dacă câmpul K este un câmp închis atunci toate rădăcinile
ecuaţiei caracteristice sunt în corpul K şi deci vectorii proprii corespunzători
se vor găsi în K-spaţiul vectorial Mn× 1(K).
În cazul în care K nu este închis, de exemplu K = R, ecuaţia
caracteristică poate avea şi rădăcini complexe iar vectorii proprii
corespunzători se vor găsi în complexificatul spaţiului vectorial real.
3o Pentru o matrice reală şi simetrică se poate demonstra că valorile
proprii sunt reale.
4° Două matrice asemenea au acelaşi polinom caracteristic.
În adevăr, dacă A şi A′ sunt asemenea, A′ = C-1AC cu C nesingulară, atunci

P′ (λ ) = det(A′ - λ I ) = det(C-1AC - λ I ) = det[C-1(A - λ I)C] =


= det(C-1) det(A - λ I) detC= det(A - λ I) = P(λ )
118
Dacă A ∈ Mn(K) şi P(x) = a0xn + a1xn-1 + ... + an ∈ K[X] atunci
polinomul P(A) = a0An + a1An-1 + ... + anI se numeşte polinom de matrice.

3.6 Teoremă. (Hamilton – Cayley)


Dacă P(λ ) este polinomul caractersitic al matricei A,
atunci P(A) = 0.

Demonstraţie. Fie P(λ ) = det(A - λ I) = a0λ n + a1λ n-1


+ ... + an.
Prin construcţie reciproca matricei A - λ I este dată de

(A - λ I)* = Bn-1λ n-1


+ Bn-2λ n-2
+ ... + B1λ + B0, Bi ∈ Mn(K)

şi satisface relaţia (A - λ I) ⋅ (A - λ I)* = P(λ ) ⋅ I , adică

(A - λ I) (Bn-1λ n-1
+ Bn-2λ n-2
+ ... + B1λ + B0) = (a0λ n
+ a1λ n-1
+ ... +
an)I,

Identificând polinoamele în λ , obţinem

a0I = – Bn-1 An
a1I = A Bn-1 – Bn-2 An-1
a2I = A Bn-2 – Bn-3 An-2
...............................
an-1I = A B1 – B0 A
anI = A B0
a0An + a1An-1 + ... + a0I = 0 , c.c.t.d.

3.7 Consecinţă. Orice polinom în A ∈ Mn(K) de grad ≥ n poate fi


exprimat printr-un polinom de grad n – 1.

3.8 Consecinţă. Inversa matricei A poate fi exprimată prin puteri ale


matricei A, inferioare ordinului acesteia.

Să considerăm acum un K-spaţiu vectorial n-dimesional Vn , o bază


B şi să notăm cu A ∈ Mn(K), matricea asociată endomorfismului T în
această bază. Ecuaţia T x = λ x este echivalentă cu ecuaţia (A - λ I )X = 0.

119
Valorile proprii ale endomorfismului T, dacă există, sunt rădăcinile
polinomului P(λ ) în câmpul K, iar vectorii proprii ai lui T vor fi soluţiile
ecuaţiei matriceale (A - λ I )X = 0. Cum polinomul caracteristic este
invariant faţă de o schimbare a bazei din Vn , înseamnă că P(λ ) depinde
numai de endomorfismul Tşi nu de reprezentarea matriceală a lui T într-o
anume bază. În consecienţă, se justifică denumirile de polinom caracteristic,
respectiv ecuaţie caracteristică ale endomorfismului T, pentru polinomul
caracteristic P(λ )al matricei A, respectiv ecuaţia caracteristică (A - λ I )X =
0 a matricei A.

§4. Forma canonică a unui endomorfism

Fie endomorfismul T : Vn → Vn definit pe K-spaţiul vectorial,


n-dimensional Vn.
Dacă în spaţiul vectorial Vn considerăm bazele B şi B ′ şi notăm cu
A respectiv A′ matricele asociate ale endomorfismului T în raport cu aceste
baze, atunci avem A′ = Ω -1AΩ , unde Ω reprezintă matricea de trecere de la
baza B la baza B ′ . Cum matricea asociată unui endomorfism depinde de
baza pe care o considerăm în spaţiul vectorial Vn, vom determina acea bază
în raport cu care endomorfismul are cea mai simplă exprimare, adică
matricea asociată în această bază să aibă formă diagonală.

4.1 Definiţie. Endomorfismul T: Vn → Vn se numeşte diagonalizabil


dacă există o bază B = {e1, e2, ..., en} în spaţiul vectorial Vn
astfel încât matricea corespunzătoare lui T în această
bază să aibă forma diagonală.

4.2 Teoremă. Un endomorfism T: Vn → Vn este diagonalizabil dacă şi


numai dacă există o bază a spaţiului vectorial Vn formată
numai din vectori proprii corespunzători endomorfismului T.

Demonstraţie: Dacă T este diagonalizabil atunci există o bază


B = {e1, e2, ..., en} în raport cu care matricea asociată A = (aij) are forma
diagonală, adică aij = 0, ∀ i ≠ j. Acţiunea lui T pe elementele bazei B este
dată de relaţiile T (ei) = aiiei , ∀ i = 1, n , ceea ce înseamnă că ei , i = 1, n
sunt vectori proprii pentru T .
Reciproc. Fie {v1, v2, ..., vn} o bază în Vn , formată numai din vectori proprii,
adică T vi = λ ivi , i = 1, n .
Din aceste relaţii rezultă că matricea asociată lui T în această bază este
120
 λ1 0 ... 0
 
0 λ2 ... 0 
D=  .
... ... ... ... 
 
0 0 ... λn 

în care scalarii λ i ∈ K nu sunt neapărat distincţi.
În condiţiile teoremei precedente, matricele din clasa de asemănare
ce corespund endomorfismului diagonalizabil T , pentru diferite baze la care
raportăm spaţiul vectorial Vn , se numesc diagonalizabile.

4.3 Consecinţă. Dacă endomorfismul T are n valori propri distincte,


atunci vectorii proprii corespunzători determină o bază
în Vn şi matricea asociată lui T în această bază este o
matrice diagonală având pe diagonala principală
valorile proprii ale lui T .

4.4 Consecinţă. Dacă A ∈ Mn(K) este diagonalizabilă atunci


detA = λ 1⋅ λ 2 ⋅ ... ⋅ λ n.

O valoare proprie λ ∈ K , ca rădăcină a ecuaţiei


caracteristice
P(λ ) = 0, are un ordin de multiplicitate pe care îl vom numi multiplicitate
algebrică, iar dimensiunea subspaţiului propriu corespunzător dimSλ
va fi numită multiplicitate geometrică a valorii proprii λ .

4.5 Teoremă. Dimensiunea unui subspaţiu propriu al endomorfismului


T este cel mult egală cu ordinul de multiplicitate al
valorii proprii corespunzătoare (multiplicitatea
geometrică este cel mult egală cu multiplicitatea
algebrică).

Demonstraţie: Fie λ 0 ∈ K o valoare proprie cu multiplicitatea algebrică


m ≤ n , S λ0 subspaţiul propriu corespunzător având dimensiunea
dim S λ = p ≤ n şi = {e1, e2, ..., ep} o bază în S λ .
0 0

Dacă p = n, atunci avem n vectori proprii liniar independenţi, deci o


bază a spaţiului vectorial Vn în raport cu care matricea asociată
endomorfismului T are forma diagonală, având pe diagonala principală
valoarea proprie λ 0. În acest caz, polinomul caracteristic se scrie sub forma
P(λ ) = (-1)n (λ - λ 0)n , de unde rezultă că p = n.
Dacă p < n , completăm baza subspaţiului vectorial S λ0 la o bază
121
B = {e1, e2, ..., ep, ep+1, ..., en} în Vn.
Acţiunea operatorului T pe elementele acestei baze este dată de

T (ei) = λ 0 ei , ∀ i = 1, p şi
n
T (ej) = ∑a
k =1
kj ek , ∀ j = p +1, n

În raport cu această bază B , endomorfismul T este caracterizat


de matricea
 λ0 0 ... 0 a1 p +1 ... a1n 
 
0 λ0 ... 0 a2 p +1 ... a2 n 
. . ... . . ... . 
 
A = 0 0 ... λ0 a pp +1 ... a pn 
0 0 ... 0 a p +1 p +1 ... a p +1n 

. . ... . . ... . 
 
0 0 ... 0 anp +1 ... ann 

şi deci polinomul caracteristic al lui T are forma P(λ ) = (λ 0 - λ )p Q(λ ) ,


adică (λ 0 - λ )p divide P(λ ) , deci p ≤ m, c.c.t.d.

4.6 Teoremă. Un endomorfism T : Vn → Vn este diagonalizabil dacă şi


numai dacă polinomul caracteristic are toate rădăcinile
în câmpul K şi dimensiunea fiecărui subspaţiu propriu
este egală cu ordinul de multiplicitate al valorii proprii
corespunzătoare.

Demonstraţie. Dacă T este diagonalizabil atunci există o bază


B = {e1, e2, ..., en} ⊂ Vn , formată numai din vectori proprii, în raport cu care
matricea asociată are forma diagonală. În aceste condiţii polinomul
caracteristic se scrie sub forma
P(λ ) = (-1)n (λ − λ1 ) 1 (λ − λ 2 ) 2 ... (λ − λp )
m m m p

cu λ i ∈ K , valorile proprii ale lui T cu ordinele de multiplicitate mi ,


p

∑m
i =1
i = n . Fără a restrânge generalitatea, admitem că primii mi vectori

din baza B = {e1, e2, ..., en} sunt vectorii proprii corepunzători valorii proprii
λ 1 următorii m2 lui λ 2 etc. Rezultă că {e1, e2, ..., en} ⊂ S λ1 şi
deci
m1 ≤ dim S λ . Cum dim S λ ≤ m1 (teorema 3.12) obţinem dim S λ = m1 ,
1 1 1

122
şi analog pentru celelalte valori proprii.
n

Reciproc. Dacă λ i ∈ K şi dim S λi = mi, i =1, p cu ∑m


1
i = n , să

considerăm mulţimea B = {e1, e2, ..., em , em +1 , ..., em +m , ...},


1 1 1 2

convenind ca primii m1 vectori să formeze o bază în S λ1 , următorii m2


vectori să formeze o bază în S λ , ş.a.m.d.
2

p
Întrucât S λi ∩ S λ = {0} şi
j ∑m
i =1
i = n , rezultă că B este o bază în Vn , în

raport cu care matricea asociată lui T în această bază este de forma

 λ1 0 ... 0 
 
0 λ1 ... 0 
. . . . 0 
 
0 0 ... λ1 
 . 
A =  

.
 
 λp 0 ... 0
 0 0 λp ... 0
 
 0 . ... . 
 0 0 ... λ p 

deci o matrice diagonală, adică endomorfismul T este diagonalizabil.

4.7 Consecinţă. Dacă T : Vn → Vn este un endomorfism diagonalizabil,


atunci spaţiul vectorial Vn poate fi reprezentat sub forma

Vn = S λ1 ⊕ S λ2 ⊕ ... ⊕ S λ . p

Practic, pentru diagonalizarea unui endomorfism T parcurgem


următoarele etape:
1° Scriem matricea A , asociată endomorfismului T în raport cu o
bază dată în spaţiul vectorial Vn.
2° Se rezolvă ecuaţia caracteristică det(A - λ I ) = 0, determinând
valorile proprii λ 1, λ 2, ..., λ p cu multiplicităţile lor m1, m2, ..., mp.
3° Se aplică rezultatul teoremei 3.13 şi avem cazurile:
I) Dacă λ i ∈ K, ∀ i = 1, p se determină dimensiunile

123
subspaţiilor proprii S λi . Dimensiunea subspaţiului propriu S λi ,
adică dimensiunea spaţiului vectorial al soluţiilor sistemului
omogen (A - λ iI )X = 0, este dată de dim S λ = n - rang(A - λ iI ).
i

Dimensiunea subspaţiului S λi se poate afla prin determinarea


efectivă a subspaţiului S λ .i

a) dacă dim S λi = mi , ∀ i = 1, n , atunci T este


diagonalizabil. Matricea asociată lui T , în raport cu baza
formată din vectori propri, este o matrice diagonală având pe
diagonala principală valorile proprii scrise în ordine de atâtea
ori cât le este ordinul de multiplicitate.
Putem verifica acest rezultat construind matricea
T = { v1, tv2, ..., tvn}, având drept coloane coordonatele
t

vectorilor proprii (matricea diagonalizatoare) şi reprezintă


matricea de trecere de la baza considerată iniţial la baza
formată din vectori propri, bază în raport cu care T are ca
matrice asociată matricea diagonală D, dată de

 λ1 
 
 . 0
D = T-1 AT =   .
0 .
 
 λ p 

b) dacă ∃ λ i∈K astfel încât dim S λ < mi ,


i

atunci
T nu este diagonalizabil. În paragraful următor vom analiza
acest caz.

II) Dacă ∃ λ i ∉ K, atunci T nu este diagonalizabil. Problema


diagonalizării lui T poate fi pusă dacă, K-spaţiul vectorial V va
fi considerat peste o extensie a câmpului K.

Fie Vn un K-spaţiu vectorial şi T ∈ End(Vn) un endomorfism


definit pe Vn.
Dacă A ∈ Mn(K) este matricea asociată endomorfismului T în raport
cu o bază în Vn , atunci A poate fi diagonalizată dacă sunt indeplinite
condiţiile teoremei 3.13.
124
În cazul în care valorile proprii corespunzătoare endomorfismului
T sunt din câmpul K, λ i ∈ K , iar multiplicitatea geometrică este diferită
de multiplicitatea algebrică dim S λ < mi ,măcar pentru o valoare proprie λ i
i

∈ K , endomorfismul T nu este diagonalizabil, în schimb se poate determina


o bază în spaţiul vectorial Vn în raport cu care endomorfismul T să aibă o
formă canonică mai generală, numită forma Jordan.

Pentru λ ∈ K, matricele de forma :


λ 1 0 ... 0
 
λ 1 0 0 λ 1 ... 0
λ 1   .
(λ ), 
 0 1
, 0 λ 1 , ... , . . ... .
  0  
 0 λ . . . ... 1
0 0 . ... λ
 
(3.5)
se numesc celule Jordan ataşate scalarului λ , de ordinul 1, 2, 3, ...,n .
4.7 Definiţie Endomorfismul T: Vn → Vn se numeşte jordanizabil dacă
există o bază în spaţiul vectorial Vn faţă de care matricea
asociată este de forma
 J1 0 ... 0 
 
 0 J 2 ... 0 
J = ,
. . ... . 
 
0 0 ... J p 
 
unde Ji , i = 1, p , sunt celule Jordan de diferite ordine
ataşate valorilor propri λ i .

O celulă Jordan de ordinul p ataşată valori proprii λ ∈ K , multiplă


de ordinul m ≥ p , corespunde vectorilor liniar independenţi e1, e2, ..., ep care
satisfac relaţiile:
T(e1) = λ e1
T(e2) = λ e2 + e1
T(e3) = λ e3 + e2
....................
T(ep) = λ ep + ep-1

Vectorul e1 este vector propriu iar vectorii e2, e3, ..., ep se numesc
vectori principali.
Observaţii
1° Forma diagonală a unui endomorfism diagonalizabil este un caz
125
particular de formă canonică Jordan, având toate celulele Jordan de ordinul
unu.
2° Forma canonică jordan nu este unică. Ordinea pe diagonala
principală a celulelor Jordan depinde de ordinea aleasă a vectorilor proprii şi
principali din baza determinată.
3° Numărul celulelor Jordan, egal cu numărul vectorilor proprii
liniar independenţi, precum şi ordinul acestora sunt unice.
Se poate demonstra următoarea teoremă :

4.8 Teoremă. (Jordan) Dacă endomorfismul T ∈ End(Vn) are toate


valorile proprii în câmpul K, atunci există o bază în
spaţiul vectorial Vn în raport cu care matricea lui T are
forma Jordan.

Practic, pentru determinarea formei canonice Jordan a unui


endomorfism, vom parcurge următoarele etape:

1° Scriem matricea A ,asociată endomorfismului T în raport cu o bază dată.


2° Rezolvăm ecuaţia caracteristică det(A - λ I ) = 0 determinând valorile
proprii λ 1, λ 2, ..., λ p cu ordinele de multiplicitate m1, m2, ..., mp .
3° Se determină subspaţiile proprii S λ , pentru fiecare valoare proprie
i

λ i.
4° Se calculează numărul de celule Jordan, separat pentru fiecare valoare
proprie λ i , dat de dim S λ = n – rang(A - λ I ). Adică, pentru fiecare
i

valoare proprie, numărul vectorilor liniar independenţi ne dă numărul


celulelor Jordan corespunzătoare.
5° Se determină vectori principali corespunzători acelor valori proprii
pentru care dim S λi < mi , numărul lor este dat de mi - dim S λi .
Dacă v ∈ S λ este un vector propriu oarecare din S λ , vom impune
i i

condiţiile de compatibilitate şi vom rezolva succesiv sistemele de ecuaţii


liniare
(A - λ iI )X1 = v, ..., (A - λ iI )Xp = Xs
Ţinând cont de condiţiile de compatibilitate şi de forma generală a
vectorilor proprii şi a celor principali, vom determina, dând valori
particulare parametrilor, vectorii proprii liniar independenţi din S λ şi
i

vectorii principali asociaţi fiecăruia.


6° Scriem baza spaţiului vectorial Vn, reunind sistemele de mi , i = 1, p ,
vectori liniar independenţi formaţi din vectori proprii şi vectori
principali.
126
Folosind matricea T având drept coloane coordonatele vectorilor
bazei, construite din vectorii proprii şi vectorii principali asociaţi în această
ordine, obţinem matricea J = T-1AT , forma canonică Jordan ce conţine pe
diagonala principală celulele Jordan, dispuse în ordinea în care apar în baza
construită din vectorii proprii şi vectorii principali asociaţi(dacă există).
Celulele Jordan au ordinul egal cu numărul de vectori din sistemul
format dintr-un vector propriu şi vectori principali asociaţi.

§5. Transformări liniare pe spaţii vectoriale euclidiene

Proprietăţile transformărilor liniare definite pe un spaţiu vectorial


oarecare sunt valabile şi în cazul particular al spaţiilor vectoriale euclidiene.
Produsul scalar ce defineşte structura euclidiana ne permite introducerea
unor clase particulare de transformări liniare.

5.1. Transformări ortogonale

Fie V şi W două R-spaţii vectoriale euclidiene. Fără a se produce


confuzii vom nota produsele scalare pe cele două spaţii vectoriale cu acelaşi
simbol < , > .

5.1 Definiţie. O transformare liniară T: V → W se numeşte


transformare liniară ortogonală dacă aceasta păstrează
produsul scalar, adică
< T x, T y> = < x, y > (5.1)

Exemple.
1° Transformarea identică T: V → V, T (x) = x , este o transformare
ortogonală.
2° Transformarea T : V → V, care asociază unui vector x ∈ V opusul
acestuia, T (x) = - x , este o transformare ortogonală.

5.2 Teoremă. Transformarea liniară T : V → W este ortogonală dacă


şi numai dacă păstrează norma, adică
|| T x|| = || x || , ∀ x ∈ V (5.2)

Demonstraţie. Dacă T este ortogonală atunci < T x, T y> = < x, y >, care

pentru x = y devine < T x, T y> = < x, x> ⇔ || T x||2 = ||x||2 ⇔ || T x|| = ||x||.

127
1
Reciproc. Folosind relaţia <a, b> = [|| a + b || 2 − || a − b || 2 ] , avem
4
1
< T x, T y > = [ || T x + T y ||2 - || T x - T y ||2 ] =
4
1
= [|| T ( x + y ) || 2 − || T ( x + y ) || 2 ] =
4
1
= [|| x + y || 2 − || x + y || 2 ] = <x, y> , c.c.t.d.
4
5.3 Consecinţă. O transformarea ortogonală T : V → W este o
transformare liniară injectivă.
Demonstraţie. Dacă T este o transformare ortogonală atunci || T x|| = || x ||
şi în ipoteza T x = 0 rezultă || x || = 0 ⇔ x = 0 . Prin urmare, nucleul
Ker T = {0}, adică T este injectivă.
Din consecinţa 4.3 rezultă că printr-o transformare ortogonală un
sistem de vectori liniar independenţi este transformat într-un sistem de
vectori liniar independenţi.
5.4 Consecinţă. O transformare ortogonală T: V → V , păstrează distanţa
euclidiană şi are ca punct fix originea T (0) = 0.
În adevăr, d(T x, T y) = || T x - T y || = || T (x - y)|| = ||x - y|| = d(x, y).
Orice transformarea ortogonală T,diferită de transformarea identică, este
injectivă ,T(0) = 0 şi este singurul punct fix. In caz contrar, tranaformarea T
coincide cu transformarea identică.
Dacă W = V , T 1 şi T 2 sunt două transformări ortogonale pe V
atunci compunerea lor este tot o transformare ortogonală.
Dacă T: V → V este şi surjectivă, atunci T este inversabilă şi mai
mult, T este o transformare ortogonală.
În aceste condiţii, mulţimea transformărilor ortogonale bijective ale
spaţiului vectorial euclidian V, în raport cu operaţia de compunere (produs)
a două transformări ortogonale, formează un grup, numit grupul ortogonal al
spaţiului vectorial euclidian V notat cu GO(V) şi care reprezintă un subgrup
al grupului liniar GL(V).
Să considerăm în spaţiile vectoriale euclidiene, finit dimensionale Vn
şi Vm, bazele ortonormate B = {e1, e2, …, en}, respectivB = {f1, f2, …, fn} şi
transformarea liniară ortogonală T : Vn → Wm.
În raport cu bazele ortonormate B şi B transformarea liniară este
caracterizată de matricea A ∈ Mm× n(R), adică au loc relaţiile
m
(T ej) = ∑a
k =1
kj f k , ∀ j = 1, n

Întrucât bazele B şi B sunt ortonormate avem


128
< e1, e2 > = δij , i, j = 1, n şi < fk, fh> =δ kh , k, h = 1, m
Să evaluăm produsele scalare ale imaginilor vectorilor bazei B,
m m m

< T (ei), T (ej)> = ∑ak =1


ki fk , ∑a
k =1
hj fh = ∑a
k , h =1
ki a hj fk , fh =
m m
= ∑a ki ahj σkh =
k , h =1
∑a ki a hj
k =1
Cum T este o transformare ortogonală avem < T (ei), T (ej)> =δ ij
şi deci
m
∑a ki a kj = δ ij , i, j = 1, n (5.3)
k =1
Relaţiile (5.3) pot fi scrise şi sub forma
t
A ⋅ A = In
(5.3)′
Reciproc. Dacă T este o transformare liniară, caracterizată, în raport cu
bazele ortonormate B şi B , de matricea A ∈ Mm× n(R) care satisface
condiţiile (4.3) , atunci T este o transformare ortogonală .
În adevăr, fie x = (x1, x2, …, xn) şi y = (y1, y2, …, yn) doi vectori în
spaţiul Vn. Să calculăm produsul scalar al imaginilor acestor vectori:
 n   n 
< T (x), T (y)> = < T ∑ i i , T  ∑ xje j  > =
 x e 
 i =1   i =1 

n
m  
n n

= ∑∑xi y j < T (ei), T (ej)> =


i =1 j =1
∑i,j=1xiyi k∑,h= 1ak aki <j fk, fh >  =

 
n
 m  n n
= ∑x i  ∑a ki a kj
yi  
 = ∑x i y iσij = ∑xi y i = <x,
i , j =1 k ,h =1  i , j =1 i =1

y>,
adică < T (x), T (y)> = < x, y>, deci este o transformare ortogonală.
Astfel , am demonstrat următoarea teoremă :
5.5 Teoremă. În raport cu bazele ortonormate B ⊂ Vn şi B ⊂ Wm,
transformarea liniară T: Vn → Wm este ortogonală dacă
129
şi numai dacă matricea asociată satisface condiţia
t
A ⋅ A = In.

5.6 Consecinţă. O transformare ortogonală T: Vn → Vn este caracterizată


în raport cu o bază ortonormată B ⊂ Vn de o matrice
ortogonală, A-1 = tA .

Întrucât det tA = detA, rezultă că dacă A este o matrice ortogonală


atunci detA = ± 1.
Submulţimea matricelor ortogonale cu proprietatea detA = 1
formează un subgrup , notat cu SO(n; R) , al grupului matricelor
ortogonale de ordinul n, numit grupul ortogonal special . O transformare
ortogonală caracterizată de o matrice A ∈ SO(n; R) se mai numeşte rotaţie.

Observaţii
1° Cum o transformare ortogonală este injectivă, înseamnă că dacă
B ⊂ Vn, este o bază, atunci imaginea acesteia, prin transformarea ortogonală
T: Vn → Wm , este o bază în Im T ⊂ Wm. În consecinţă n ≤ m.
2° Orice transformare ortogonală între două spaţii vectoriale
euclidiene de aceeaşi dimensiune este un izomorfism de spaţii vectoriale
euclidiene.
3° Matricea asociată produsului a două transformări
ortogonale T 1, T 2 : Vn → Vn în raport cu o bază ortonormată, este dată de
produsul matricelor asociate corespunzătoare transformărilor T1 şi T2 .
Astfel, grupul ortogonal al spaţiului vectorial euclidian Vn, grupul GO(Vm),
este izomorf cu grupul multiplicativ GO(n; R), al matricelor ortogonale de
ordinul n.

5.2 Transformări liniare simetrice

Fie V şi W două R-spaţii vectoriale euclidiene şi T: V → W o


transformare liniară.

5.7 Definiţie. Transformarea liniară ortogonală tT : W → V definită


prin relaţia

< tTy, x>V = <y, T x>W , ∀ x ∈ V, ∀ y ∈ W (5.4)

se numeşte transpusa transformării liniare.

130
5.8 Definiţie. O transformarea liniară T : V → V se numeşte simetrică
(antisimetrică) dacă tT = T ( tT = - T )

Fie Vn un R-spaţiu vectorial euclidian finit dimensional şi B ⊂ Vn


este o bază ortonormată. Dacă endomorfismul T : Vn → Vn este caracterizat
de matricea reală A ∈ Mn(R), se demonstrează uşor că unui endomorfism
simetric (antisimetric), în raport cu o bază ortonormată, îi corespunde o
matrice simetrică (antisimetrică).

5.9 Teoremă. Valorile proprii corespunzătoare unei transformări


liniare simetrice T: Vn → Vn , sunt reale.

Demonstraţie. Fie λ 0 o rădăcină oarecare a ecuaţiei caracteristice


det(A-λ I ) = 0 şi X = t(x1, x2, …, xn) un vector propriu corespunzător
valori proprii λ 0.
Notând cu X matricea conjugată cu X şi înmulţind cu t X ecuaţia
(A-λ 0I )X = 0, obţinem t X AX = λ 0t X X .
Întrucât A este simetrică, membrul întâi al acestei egalităţi este real,
deoarece t XAX = t X ⋅ A ⋅ X = tX A X = t( tX A X ) = t X A X.
De asemenea , tXX ≠ 0 este un număr real şi λ 0 este câtul a două
numere reale, deci este real.
Fie acum un vector propriu v1 ∈ R corespunzător valorii proprii
λ 1 ∈ R , S1 subspaţiul generat de v1 iar Vn-1 ⊂ Vn complementul ortogonal
al acestuia, Vn = S1 ⊕ Vn-1.

5.10 Teoremă. Subspaţiul Vn-1 ⊂ Vn este invariant la transformarea


liniară simetrică T: Vn → Vn.

Demonstraţie. Dacă v1 ∈ Vn este un vector propriu corespunzător valori


proprii λ 1, atunci T v1 = λ 0 v 1 . Pentru ∀ v ∈ Vn-1 avem satisfăcută
relaţia < v1, v > = 0. Să demonstrăm că T (v) ∈ Vn-1.
< v1, T v > = < T v1, v > = < λ , v1, v > = λ 1< v1, v > = 0.
Pe baza acestui rezultat se poate demonstra fără dificultate
următoarea teoremă.

5.11 Teoremă. Multiplicitatea geometrică a unei valori proprii


corespunzătoare endomorfismului T: Vn → Vn este egală
cu multiplicitatea algebrică dim S λ = mi .
1

131
5.12 Propoziţie. Subspaţiile vectoriale proprii ale unui endomorfism
simetric T: Vn → Vn , corespunzătoare la valori proprii
distincte, sunt ortogonale.

Demonstraţie. Fie S λ , S λj , subspaţiile proprii corespunzătoare valorilor


i

proprii distincte λ i şi λ j care au multiplicităţile algebrice mi respectiv mj.


Pentru ∀ v ∈ S λ şi ∀ w ∈ S λj , T (v) = λ iv , T (w) = λ jw din care
i

obţinem
< w, T (v) > = λ i < w, v> şi < T (w), v> = λ j < w, v> . Ţinând cont că T
este simetrică ,avem (λ j - λ i) < w, v> = < T (w), v> - < w, T (v)> = 0 .
Cum λ j ≠ λ i ⇒ < w, v > = 0 . c.c.t.d.

5.13 Propoziţie. Într-un spaţiu vectorial euclidian Vn orice transformare


liniară simetrică determină o bază ortonormată.
În adevăr, primii mi vectori aparţin subspaţiului propriu S λ i

corespunzător rădăcini caracteristice λ i de multiplicitate mi ş.a.m.d. până


la epuizarea valorilor proprii m1 + m2 + ... + mp = n.
În raport cu baza ortonormată formată din aceşti vectori propri,
endomorfismul T:Vn → Vn are forma canonică. Matricea asociată
endomorfismului T în această bază este diagonală, având pe diagonala
principală valorile proprii , scrise de atâtea ori cât le este multiplicitatea şi
se exprimă în funcţie de matricea A asociată,corespunzătoare
endomorfismului T în baza ortonormată B , prin relaţia D = tΩ AΩ , unde
Ω este matricea ortogonală de trecere de la baza B la baza formată din
vectorii proprii.

5.3 Transformări izometrice pe spaţii punctuale euclidiene

Fie E=(E,V,ϕ ) un spaţiu punctual euclidian ; E este mulţimea


suport, V spaţul vectorial director iar ϕ este funcţia de structură afină.
5.14 Definiţie O corespondenţă bijectivă f : E → E se numeşte
transformare a mulţimii E sau permutare a mulţimii E.
Dacă E este înzestrată cu o anume structură geometrică, iar f
satisface anumite condiţii referitoare la această structură,atunci f va fi
numită transformare geometrică.
Notând cu (σ E ,°) grupul transformărilor mulţimii E în raport cu
operaţia de compunere a funcţiilor,iar G un subgrup al său, atunci perchea
(E, G ) va fi numit spaţiu geometric sau spaţiu cu grup fundamental.
132
O submulţime de puncte F⊂ E va fi numită figură a spaţiului
geomeric (E, G ) . Două figuri F1 ,F2 ⊂ E se zic congruente dacă ∃ f∈ G
aşa încât f(F1) = F2.
O proprietate sau mărime referitoare la figurile spaţiului geometric
(E, G ) se numeşte geometrică dacă aceasta este invariantă la
transformările grupului G .
Numim geometrie a spaţiului geometric (E, G ) teoria obţinută prin
studiul noţiunilor, proprietăţilor şi mărimilor geometrice referitoare la
figurile mulţimii E .
Dacă E = (E,V,ϕ ) şi E’’ = (E’,V ′ ,ϕ ’) sunt două spaţii afine ,atunci

o transformare afină t : E→E este unic determinată de perechea de puncte
′ ′ ′
A∈E, respectiv A ∈E şi de o transformare liniară T : V → V .
Să considerăm spaţiul punctual

euclidian al vectorilor liberi
E3 = (E3, V3 , ϕ ) şi R = ( O, i , j ) un reper cartezian în acest spaţiu .
O transformare afină t : E3 → E3 , f(M) = M’ realizează
corespondenţa M(x1,x2,x3) → M’(x1’,x2’,x3’) caracterizată de relaţiile:
3

xi = ∑a
j =1
ij xj’ +
0
xi , det.(aij) ≠ 0
(5,5)
sau sub formă matriceală
0
X = A X + X , det.A ≠ 0
(5,5)’
O transformare afină poate fi interpretată şi ca o schimbare de repere
afine. Mulţimea transformărilor afine formează un grup, în rapoort cu
operaţia de compunere a aplicaţiilor, numit grupul afinităţilor.
Pentru studiul proprietăţilor geometrice ale figurilor unui spaţiu
geometric,un interes deosebit îl prezintă acele transformări ale spaţiului care
nu deformează aceste figuri. In acest sens ,vom prezenta câteva exemple de
transformări afine, cu această proprietate .
Exemple:
1. Aplicaţia so : E3→E3 definită prin so(O) = O, O∈E3, fixat şi
t(P) = P′ , cu proprietatea OP ' =−OP , este o transformare afină numită
simetria de centru O . Transformarea liniară asociată T : V3 → V3 este
 
definită de relaţia T( v ) = - v .
2. Dacă d ⊂ E3 este o dreaptă şi P un punct ce nu aparţine dreptei d
atunci există un singur punct P’∈ E3 cu proprietatea PP’ ⊥ d şi mijlocul
segmentului PP’ se află pe dreapta d .
Aplicaţia sd : E3 → E3 , sd(P) = P’ , cu P’ definit mai sus , se numeşte
simetrie axială . Dacă P0 este proiecţia ortogonală a punctului P pe dreapta
133
d, atunci are loc combinaţia afină P’= 2P0 – P . Transformarea liniară
  
asociată T : V3 → V3 este dată de relaţia T ( v ) = 2 pr v −v .
d

3. Aplicaţia t : E3→E3 dată de corespondenţa t(P) = P’ cu


 
proprietatea PP ' ∈v , v ∈ V3 un vector dat ,este o transformare afină
0 0

pe E3 numită translaţia de vector v . 0

Transformarea liniară asociată T : V3 → V3 este dată de aplicaţia


 
identică T ( v ) = v .
4. Fie E2 = (E2, V2 , ϕ ) spaţiul punctual euclidian bidimensional
.
Aplicaţia r0,α : E2 → E3 , r0,α (P) = P’ , cu proprietăţile
δ (O,P’)=δ (O,P’) şi ∠ POP’ = α se numeşte rotaţie de centru O şi
unghi α .
 
Transformarea liniară asociată T : V2 → V2 , T ( v ) = v ’ este caracterizată
de o matrice ortogonală .
In studiul geometriei spaţiului euclidian ne interesează acele
transformări geometrice care conservă anumite proprietăţi ale figurilor
spaţiului considerat. Cu alte cuvinte , vom considera anumite subgrupuri ale
grupului afinităţilor spaţiului euclidian, care guvernează aceste transformări

5.15 Definiţie. Se numeşte izometrie pe spaţiul punctual euclidian


E3 = (E3,V 3 , ϕ ) o aplicaţie f : E3 → E3 cu
proprietatea
δ ( f(A),f(B) ) = δ (A,B) , ∀A,B ∈ E3
(5,6)

Dacă considerăm reprezentantul vectorului u în punctul A∈ E3 ,


atunci ( ∃1) B∈ E3, aşa încât AB ∈u şi, în plus avem δ (A,B) = AB =

u . Astfel, relaţia(5,6), pentru transformarea liniară T : V →V , asociată

lui f, este echivalentă cu


   
δ ( T (v ), T (u ) ) = δ ( u, v ) ,
(5,6)’
Dacă spaţiul punctual E3, este spaţiul geometriei euclidiene, atunci o
izometrie f : E3 → E3 este o aplicaţie bijectivă ,adică o transformare
geometrică, numită transformare izometrică .
Submulţimea transformărilor izometrice,în raport cu operaţia de
compunere a aplicaţiilor, formează un subgrup IzoE3 , numit grupul
izometriilor .
5.16 Teoremă. O aplicaţie afină f : E→ E este o transformare izometrică
134
dacă şi numai dacă aplicaţia liniară asociată T: V →V
este o transformare ortogonală .
Transformările geometrice date în exemplele precedente (simetria
centrală,simetria axială, translaţia şi rotaţia ) sunt transformări izometrice.

5.17 Teoremă. Orice izometrie f : E→ E este produsul unei translaţii cu


o izometrie cu un puinct fix , f = t° g .
 
Fie planul euclidian PE = ( E2 , IzoE2 ), R = ( O, i , j ) un reper
cartezian ortonormat în spaţiul punctual euclidian E2 = (E2, V2 , ϕ ) şi
g : E2 → E2 o izometrie cu O - punct fix .Fie punctul A(1,0) şi un punct
oarecare M(x,y) având imaginile A’(a,b) şi respectiv M’(x’,y’) .
Impunănd condiţiile : δ (O,A’) = δ (O,A) , δ (O,M’) = δ (O,M) şi
respectiv δ (A’,M’) = δ (A,M) obţinem sistemul de ecuaţii
 a 2 + b2 =1
 2
 x + y = x' + y'
2 2 2
(5.7)
( x −1) 2 + y 2 = ( x'−a ) 2 + ( y '−b) 2

Soluţia generală este
 x' = ax − ε by
 (5.8)
 y ' = bx + ε ay , cu a + b = 1, ε = ±1
2 2

Reciproc, formulele (5.8) reprezintă o izometrie.In adevăr,dacă M1 şi M2


sunt două puncte oarecare iar imaginile acestora sunt M’1 şi respectiv M’2
atunci
δ (M’1,M’2)2 = (x’2 - x’1)2 +(y’2 - y’1)2 =
= (a2+b2) [ (x2-x1)2 +(y2-y1)2 ] = δ (M1,M2)2 ,
adică , δ (M’1,M’2) = δ (M1,M2) .
Punctele fixe ale aplicaţiei caracterizată de ecuaţiile (5.8) se obţin
luând în (5.8) x’ = x şi y’ = y ,adică
( a −1) x − ε by = 0
 (5.9)
bx + (ε a −1) y = 0
Sistemul (5.9) este un sistem de ecuaţii liniare şi omogene cu determinantul
∆ = (ε +1) (1-a) .
Dacă ε = -1 sistemul (5.9) admite o infinitate de puncte fixe ,deci
ecuaţiile (5.8) reprezintă o simetrie axială.
Dacă ε = 1 şi a ≠ 1 izometria (5.8) admite numai originea ca
punct fix şi reprezintă o rotaţie ,iar pentru ε = 1 şi a = 1 aplicaţia (5.8)
devine transformarea identică.
Ecuaţiile (5.8) pot fi scrise matriceal sub forma
135
 x'   a − ε b  x  2

 y' 
 =
 

 
 , a + b 2 = 1, ε = ±1 (5.8)’
  b ε a  y 
a −ε b 
Matricea asociată A =  b  , în condiţiile a2=b2=1,ε = ±
 εa  
1,este o matrice ortogonală ,ceea ce înseamnă că subgrupul izometriilor cu
originea ca punct fix (centro –izometrii) definite pe planul euclidian este
izomorf cu grupul ortogonal GO(2;R)
Pentru ε = 1 ( considerând aplicaţia identică ca fiind rotaţia de
unghi α = 0) matricea ortogonală A are proprietatea det.A=1 , ceea ce
înseamnă că subgrupul rotaţiilor planului euclidian este izomorf cu
subgrupul ortogonal special SO(2;R).
Compunând izometriile ,având originea ca punct fix , cu translaţiile
care transformă originea în punctul (xo,yo) se obţin izometriile planului
euclidian PE = ( E2 , IzoE2 ) ,caracterizate analitic de ecuaţiile :
 x' = ax − ε by + xo
 (5.10)
 y ' = bx + ε ay + yo cu a + b = 1, ε = ±1
2 2

Folosind funcţiile trigonometrice ,luând a = cosϕ şi b =


sinϕ ,ϕ∈ R
Ecuaţiile (5,10) se scriu sub forma
 x ' = x cos ϕ −ε y sin ϕ + xo

y ' = x sin ϕ +ε y cos ϕ + yo , ε = ±1
(5.11)
Pentru ε =1 , transformările caracterizate de ecuaţiile
 x' = x cos ϕ − y sin ϕ + xo
 (5.12)
y ' = x sin ϕ + y cos ϕ + yo ,
adică acele izometrii reprezentate de compunerea dintre o rotaţie şi o
translaţie ( mişcări ale planului ), formează un subgrup numit grupul
deplasărilor.
In spaţiul punctual euclidian tridimensional E3 = (E3,V 3 ,
ϕ ),
izometriile T : E3 → E3 , T(x1,x2,x3) = (y1,y2,y3) , sunt transformările
caracterizate de ecuaţiile :
y 1 =a11 x1 +a12 x 2 +a13 x 3 +b1

y 2 =a 21 x1 +a 22 x 2 +a 23 x 3 +b 2
y 3 =a 31 x1 +a 32 x 2 +a 33 x 3 +b 3 ,

(5.13)

136
în care matricea A = (aij) , i,j = 1,3 este o matrice ortogonală, iar punctul
de coordonate (b1,b2,b 3) ete translatatul originii reperului cartezian
 
ortonormat R (O; i , j , k ) din E3 .

Probleme
1. Să se studieze care dintre următoarele aplicaţii sunt transformări
liniare?
T: R2→ R2 , T(x1,x2) = (x1-x2,x1+x2)
T: R2→ R2, T(x1,x2) = (x1cosα - x2sinα , x1sinα + x2cosα ), α∈ R
T: R3→ R3, T(x1,x2,x3) = (x1-2x2+3x3, 2x3 , x1+x2 )
T: R2→ R3, T(x1 x2) = (x1-x2,x1+x2,0)
T: R2→ R3, T(x1 x2) = (x1x2 ,x1,x2) .
2. Să se demonstreze că următoarele transformări sunt liniare ;
 
a) T: V3 → R , T( v ) = a v
n

∑α
(i )

b) T: C(n)[0,1] → C( o[0,1] , Tf = i f , α i∈ R
i =1
x

c) T: C[0,1] → C [0,1] ,
(
(Tf)(x) = ∫ f ( x)dx
a

3. Să se determine transformările liniare T: R3→ R3 ,T(vi) = wi ,unde


v1 = (1,1,0), v2 = (1,0,1), v3 = (0,1,1) iar w1 = (2,1,0),w2=(-1,0,1), w3=(1,1,1).
Determinaţi acele transformări pentru care T 3 = T .

4. Să se arate că transformarea T: R2→ R3,


T(x1 x2) = (x1-x,x1+x2,2x1+3x2) este injectibvă ,dar nu este surjectivă.

5. Se determine KerT şi ImT pentru transformarea T: R3 → R4 ,


T(x1,x2,x3) = ( -x1 + x2+x3,x1-x2+x3,2x3,x1-x2) şi să se verifice relaţia
dim KerT + dim Im T = 3 .

6. Fie transformarea T: R3→ R3 ,dată în baza canonică prin matricea


3 2 −1
 
A = −1 −1 1 
0 −1 2 
 
a) Să se determine subspaţiul vectorial T-1(W) pentru subspaţiul
W = { (x1,x2,x3)∈R3 x1+ x2+ x3 =0 }.
b) Determinaţi căte o bază în subspaţiile Ker T şi Im T .
137

a∈ V -
  
7. Să se arate că aplicaţia T : V3 → V3 , T( v ) =a ×v , 3

fixat este liniară . Determinaţi Ker T , Im T şi verificaţi teorema rangului.

8. Pe spaţiul R3 considerăm proiecţiile Ti pe cele trei axe de coordonate


3
Să se demonstreze că R3 = ⊕Ti şi Ti  Tj =δij , ij=1,2,3
i =1

9. Arătaţi că endomorfismul T : R3→R3 dat de matricea


− 4 −7 −5 
 
A=  2 3 3  este nilpotent de indice 2 (T2 = 0 ).
 1 2 1 
 
O transformare cu această proprietate se numeşte structură tangentă.

10. Arătaţi că transformarea T : R2n→ R2n definită prin relaţia


T(x) =(xn+1,xn+2,…,x2n,-x1,-x2,…,xn) are proprietatea T2 = - Id.R2n .
O transformare cu această proprietate se numeşte structură complexă.
11. Să se determine transformarea liniară care transformă punctul
(x1,x2,x3) ∈ R3 în simetricul său faţă de planul x1 +x2 + x3 = 0 şi să se
arate că transformarea astfel determinată este ortogonală.
12. Să se afle valorile şi vectorii proprii pentru endomorfismul
T: R3 → R3 caracterizat de matricea
2 1 1 0 1 1 2 0 0 − 3 −7 −5 
       
A= 1 2 1 , A= 1 0 1  , A= 0 1 0  , A=  2 4 3 .
1 1 2 1 1 0 0 1 1  1 2 2 
       

13. Să se studieze posibilitatea reducerii la formă canonică şi în caz


afirmativ să se găsească matricea diagonalizatoare , pentru endomorfismele
caracterizate de matricele:
1 0 0 1 
4 0 0 2 −2 3  
5 4     0 1 0 0 
A= 
  , A= 0 0 1  , A= 1 1 1  , A=  .
4 5
 0 0 0 1 −2
 1 2
1
 3 1 
1

 0 −2 5 

14. Să se determine forma canonică Jordan pentru matricele

138
2 0 0 0 
2 0 0 2 3 −5   
    1 3 1 1 
A = 0 4 1 , A = 2 4 −7 , A =  .
0 0 0 0 −1
 −4 0
1
 2 −3 
 
−1

 −1 0 2 

15. Să se determine în spaţiul R4 o bază ortonormată în raport cu care
endomorfismul T : R4→ R4 , T(x) = (-x1 +x4,-x2,-x3-2x4, x1-2x3 +3x4) admite
forma canonică .

16. Folosind teorema Hamilton-Cayley să se calculeze A-1 şi P(A),


P(x) = x4 + x3 +x2 +x + 1, pentru matricele :
0 2 0 −1
2 0 0 4 1 1  
1 0     1 0 0 0 
A= 
 
 , A= 0 1 0  , A= 2 4 1  ,A =  .
−1 1 0 0 1 0 0 
 1 1
0
 1 4 
0

 0 1 0 

139