Sunteți pe pagina 1din 302

Tudor Boacă

ALGEBRĂ LINIARĂ,
GEOMETRIE ANALITICĂ
ŞI DIFERENŢIALĂ

Editura Universităţii Petrol-Gaze din Ploieşti


2010
Copyright © 2010, Editura Universităţii din Ploieşti
Toate drepturile asupra acestei ediţii sunt rezervate editurii

Descrierea CIP a Bibliotecii Naţionale a României


BOACĂ TUDOR
Algebră liniară, geometrie analitică şi diferenţială /
Tudor Boacă. -Ploieşti : Editura Universităţii din Ploieşti,
2010
Bibliogr.
Index
ISBN

Control ştiinţific:
lector dr. Ilie Ristea
Redactor:
Prof. dr. ing.
Tehnoredactare computerizată:
Tudor Boacă
Director editură:
Prof. dr. ing. Şerban Vasilescu

Adresa:
Editura Universităţii din Ploieşti
Bd. Bucureşti 39, cod 2000
Ploieşti, România
Tel. 0244-57 31 71, Fax 0244-57 58 47
CUPRINS

Prefaţă…………………………...……………………………………….. 7

1. Spaţii liniare……………………………………………………………… 9

1.1. Spaţii liniare..……………………………………………………………. 9


1.2. Subspaţii liniare……………………………………………..….………... 12
1.3. Dependenţă şi independenţă liniară……………………………………... 18
1.4. Bază. Dimensiune ………………………………………………………. 21
1.5. Schimbarea bazei unui spaţiu liniar ……….……………………………. 26
1.6. Varietăţi liniare…………………………………………………………... 28
1.7. Spaţii liniare izomorfe…………………...………………………………. 29
1.8. Produs scalar. Normă. Distanţă…...……………………………………... 31
1.9. Ortogonalitate. Baze ortonormate……….………………………………. 36
1.10. Schimbarea bazei într-un spaţiu euclidian………………….…………. 42
1.11. Exerciţii……………………………...…………………………………. 44

2. Operatori liniari……………………..…………………………….………… 61

2.1. Operatori liniari………………………………………………………….. 61


2.2. Nucleu şi imagine……………………………………………….……….. 64
2.3. Operatori liniari pe spaţii finit dimensionale…...……………………….. 67
2.4. Norma unui operator liniar……………………………………………… 73
2.5. Dualul unui spaţiu liniar…………………………………………………. 80
2.6. Operatori liniari pe spaţii euclidiene.……………………………………. 84
2.7. Exerciţii……………………………...…………………………..………. 92

3. Vectori şi valori proprii……………….………………………………...…... 99

3.1. Vectori şi valori proprii…………………………………….….……….... 99


3.2. Polinomul caracteristic al unui endomorfism…………….…..…..….... 101
3.3. Forma diagonală a unui endomorfism……………………….….…….. 103
3.4. Forma canonică Jordan………..………………………...…….……..… 110
3.5. Spectrul endomorfismelor pe spaţii euclidiene………....…………...… 125
3.6. Exponenţiala unei matrice …………...…..……………...…….…….… 134
3.7. Exerciţii……………………………...……………..………….………. 141
4. Forme biliniare. Forme pătratice…….………………………….…...…... 153

4.1. Forme biliniare……….…………………………………….….….….... 153


4.2. Forme pătratice……………………………..……………...….…..….... 158
4.3. Signatura unei forme pătratice reale…………………………..……….. 166
4.4. Exerciţii ……………...………..………………………...…………..… 169

5. Elemente de geometrie analitică…….………………………….…...…... 175

5.1. Spaţiul euclidian E 3 …………....................................…….….….….... 175


5.2. Produse cu vectori geometrici.............……..……………...….…..….... 177
5.3. Sisteme de coordonate.....................…………………………..……….. 181
5.4. Izometriile lui E 3 ......................………………………...…………..… 186
5.5. Planul şi dreapta...................................................................................... 195
5.6. Conice...................................................................................................... 200
5.7. Cuadrice.................................................................................................. 215
5.8. Exerciţii................................................................................................... 223

6. Elemente de geometrie diferenţială a curbelor.…..............................…... 233

6.1. Drumuri şi curbe......….…………………………………….….….….... 233


6.2. Curbe Frenet....……………………………..……………...….…..….... 239
6.3. Curbe în E 2 …………………………..…....................................…….. 259
6.4. Exerciţii ……………...………..………………………...…………..… 275

Anexă…………………………………...……………..………………...…. 281

A.1. Matrice. Determinanţi…………..…………………..……………...…. 281


A.2. Sisteme de ecuaţii liniare…………………………...…………………. 291

Bibliografie………………………...…...……………..………………...…. 295

Notaţii……………………….....……...………………...…………………. 297

Index…………………………...…………...…………...…………………. 299
PREFAŢĂ

Cursul de faţă are la bază prelegerile de algebră liniară, geometrie analitică


şi diferenţială pe care le-am ţinut mai mulţi ani studenţilor secţiilor de automatică
şi calculatoare din cadrul Universităţii Petrol-Gaze Ploieşti. Conţinutul său
acoperă însă şi programele analitice ale secţiilor de inginerie mecanică şi
electrică şi, parţial, programa analitică a secţiei de matematică. Primele patru
capitole, care acoperă algebra liniară, au fost publicate de sine stătător în anul
2004, la aceeaşi editură. Nu am efectuat asupra lor decât mici modificări.
Am dorit să prezint în acest curs, într-un mod unitar, elementele de bază
ale algebrei liniare, geometriei analitice şi geometriei diferenţiale a curbelor,
prezentare care este posibilă datorită legăturii strânse care există între aceste
discipline matematice. Expunerea noţiunilor fundamentale ale geometriei
euclidiene din capitolul cinci are la bază rezultate fundamentale ale algebrei
liniare: prorietăţile spectrale ale operatorilor liniari simetrici şi structura şi
proprietăţile transformărilor izometrice ale unui spaţiu euclidian.
Cartea cuprinde şase capitole şi o anexă. Fiecare capitol, pe lângă
noţiunile teoretice, conţine un număr de probleme rezolvate complet precum şi
probleme propuse spre rezolvare. Scopul acestora este acela de a clarifica şi fixa
rezultatele teoretice şi structura demonstraţiilor prin care acestea au fost obţinute.
Anexa conţine o recapitulare a principalelor noţiuni de algebră necesare,
în prealabil, pentru înţelegerea materialului expus. Doar cu câteva excepţii,
rezultatele sunt prezentate fără demonstraţie.
Bibliografia de la sfârşitul cursului cuprinde lucrările pe care le-am utilizat
când am scris această carte. În cazul în care am folosit unele rezultate fără a da
demonstraţia lor, am precizat sursa bibliografică şi pagina unde cititorul poate
urmări demonstraţia acestora.
Mulţumesc călduros domnului lector dr. Ilie Ristea pentru atenţia cu care a
citit manuscrisul acestui curs. Observaţiile pertinente ale domniei sale au dus la
evitarea unor erori, la simplificarea unor demonstraţii şi la o mai bună structurare
a materialului prezentat.

Ploieşti, martie 2010


1. SPAŢII LINIARE

1.1. SPAŢII LINIARE

Fie V o mulţime nevidă şi K un corp comutativ. În cele ce urmează, prin corpul K


vom înţelege unul dintre corpurile R (corpul numerelor reale) sau C (corpul
numerelor complexe).

1.1. Definiţie. Aplicaţia ϕ : V × V → V , ϕ (x , y ) = x + y , se numeşte lege de


compoziţie internă, iar aplicaţia ψ : K × V → V , ψ (α , x ) = α x se numeşte lege
de compoziţie externă pe V faţă de corpul K.

1.2. Definiţie. Spunem că legea de compoziţie internă ϕ ( x, y ) = x + y şi legea de


compoziţie externă ψ (α , x ) = α x determină pe V o structură de spaţiu liniar
(vectorial) dacă:

a1) (x + y ) + z = x + ( y + z ) , (∀) x, y, z ∈ V ;
a2) (∃) 0V ∈ V astfel încât x + 0V = 0V + x = x, (∀) x ∈V ;
a3) (∀) x ∈V (∃) − x ∈V astfel încât x + (− x ) = (− x ) + x = 0V ;
a4) x + y = y + x , (∀) x, y ∈V ;
b1) α (βx ) = (αβ )x , (∀) x ∈V , (∀) α , β ∈ K ;
b2) (α + β )x = αx + βx , (∀) α , β ∈ K , (∀) x ∈V ;
b3) α ( x + y ) = αx + αy , (∀) α ∈ K , (∀) x, y ∈V ;
b4) 1 x = x , (∀) x ∈ V , 1 fiind unitatea din corpul K.

1.3. Observaţie. i) Pentru K = R spaţiul liniar se numeşte real iar pentru K = C


spaţiul liniar se numeşte spaţiu liniar complex sau unitar.
ii) Elementele mulţimii V se numesc vectori; vom nota vectorii prin litere ale
alfabetului latin (x, y, z, u, v,…). Elementele corpului K se numesc scalari; vom
nota aceste elemente prin litere ale alfabetului grec (α , β , γ ,...) sau prin litere ale
alfabetului latin cu indici (a1 , a 2 ,..., a n ) .
iii) Legea de compoziţie internă o vom numi adunarea vectorilor,. iar legea de
compoziţie externă o vom numi înmulţirea vectorilor cu scalari.
iv) Elementul neutru faţă de adunarea vectorilor îl vom nota 0V , iar elementul
10 1. SPAŢII LINIARE

neutru faţă de adunarea din K îl vom nota cu 0 K (atunci când nu există pericol de
confuzie acest element îl vom nota cu 0).

1.4. Propoziţie. Fie V un spaţiu liniar peste K. Atunci:

i) 0 K x = 0V , (∀) x ∈V ;
ii) α ⋅ 0V = 0V , (∀) α ∈ K ;
iii) (− 1) ⋅ x = − x , (∀) x ∈V ;
iv) Dacă α ∈ K , α ≠ 0 K şi x ∈V astfel încât α x = 0V , atunci x = 0V ;
v) Fie x, y ∈V şi (∀) α ∈ K , α ≠ 0 K . Dacă α x = α y , atunci x = y .

Demonstraţie. i) 0 K ⋅ x = (0 K + 0 K ) ⋅ x = 0 K ⋅ x + 0 K ⋅ x ⇒ 0 K ⋅ x = 0V .
ii) α ⋅ 0V = α ⋅ (0V + 0V ) = α ⋅ 0V + α ⋅ 0V ⇒ α ⋅ 0V = 0V .
iii) 0V = 0 K ⋅ x = (1 + (− 1)) ⋅ x = 1 ⋅ x + (− 1) ⋅ x = x + (− 1) ⋅ x ⇒ (− 1) ⋅ x = − x .
iv) Deoarece α ≠ 0 K , α este inversabil, deci putem scrie:

x = 1 ⋅ x = (α -1α )⋅ x = α −1 ⋅ (α ⋅ x ) = α −1 ⋅ 0V = 0V .

v) 0V = α ⋅ x + (− α ⋅ x ) = α ⋅ x + (− α ⋅ y ) = α ⋅ x + α (− y ) = α ⋅ ( x − y ) = 0V .
Din α ≠ 0 K şi iv) rezultă x − y = 0V , deci x = y .

1.5. Exemple. i) Spaţiul vectorial K peste K. În acest caz V = K , adunarea


vectorilor este adunarea din K, iar înmulţirea vectorilor cu scalari este înmulţirea
din K.
ii) Complexificatul unui spaţiu liniar real. Fie V un spaţiu liniar real. Pe produsul
cartezian V ×V definim operaţiile:

(x, y ) + (u, v ) = (x + u, y + v ) , (∀) (x, y ) , (u, v ) ∈V ×V ,


α ( x, y ) = (ax − by, ay + bx ) , (∀) ( x, y ) ∈V × V , (∀) α = a + ib ∈ C .

Cu aceste legi de compoziţie V ×V devine un spaţiu liniar complex, spaţiu care


se numeşte complexificatul lui V şi se notează CV .
iii) Spaţiul liniar aritmetic cu n dimensiuni. Fie V = R n = R × R × L× R şi
x ∈ R n . Atunci x este de forma:

x = ( x1 , x2 ,L, x n ) , xi ∈ R , i = 1, n .
1.11. EXERCIŢII 11

Pe R n definim adunarea vectorilor şi înmulţirea cu scalari a acestora astfel:

x + y = ( x1 + y1 , x2 + y 2 ,L, xn + y n ) , (∀) x, y ∈ R n ,

α ⋅ x = (α x1 ,α x2 ,L,α xn ) , (∀) α ∈ R , (∀) x ∈ R n .

În raport cu aceste legi de compoziţie R n este un spaţiu liniar real, numit spaţiul
aritmetic de dimensiune n.
iv) Spaţiul liniar al matricelor de tip m × n . Fie V = M m,n ( K ) mulţimea
matricelor cu m linii, n coloane şi elemente din corpul K. Pentru A, B ∈ M m ,n ( K ) ,
A = (α ij )i =1,m , B = (β ij )i =1,m , definim adunarea matricelor prin
j =1, n j =1, n

A + B = (α ij + β ij )i =1,m
j =1, n

şi înmulţirea cu scalari a matricelor prin

α A = (α aij )i =1,m , α ∈ K .
j =1, n

În raport cu aceste legi de compoziţie mulţimea M m,n ( K ) este spaţiu liniar peste
corpul K.
v) Spaţiul liniar al funcţiilor continue. Fie V = C [a, b] mulţimea funcţiilor reale
continue f : [a, b] → R . În raport cu legile de compoziţie

(f + g )( x ) = f ( x ) + g ( x ) , (∀) f , g ∈ C [a, b] ,

(αf )(x ) = α f (x ) , (∀) f ∈ C [a, b] , (∀) α ∈ R ,


mulţimea C [a, b] este un spaţiu liniar real.
vi) Spaţiul liniar al polinoamelor de grad cei mult n. Fie Pn ( R ) mulţimea
polinoamelor de o variabilă reală, de grad cel mult n. În raport cu legile de
compoziţie din exemplul v), Pn ( R ) este un spaţiu liniar real.
vii) Spaţiul liniar al şirurilor de numere reale (complexe). Fie V = l ( R ) , sau
V = l (C ) , unde:

l ( R ) = {( xn )n∈N x n ∈ R , n ∈ N },

l (C ) = {( xn )n∈N x n ∈ C , n ∈ N }.
12 1. SPAŢII LINIARE

Dacă x = ( x n )n∈N , y = ( y n )n∈N sunt două şiruri de numere reale (sau complexe),

atunci definim adunarea şirurilor prin

x + y = ( x n + y n )n∈N

şi înmulţirea şirurilor cu scalari prin

α x = (α xn )n∈N , α ∈ R (sau C ) .

În raport cu aceste legi de compoziţie, l ( R ) (respectiv l (C ) ) formează un spaţiu


liniar real (respectiv complex).

1.2. SUBSPAŢII LINIARE

Fie V un spaţiu liniar peste corpul K .

2.1. Definiţie. Mulţimea nevidă M ⊂ V se numeşte subspaţiu liniar al lui V


dacă:

i) x + y ∈ M , (∀) x, y ∈ M ;
ii) α x ∈ M , (∀) α ∈ K , (∀) x ∈ M .

2.2. Observaţie. i) Dacă M este subspaţiu liniar al lui V atunci 0V ∈ M .


ii) Dacă M este subspaţiu liniar al lui V atunci x ∈ M ⇒ − x ∈ M .
iii) M ⊂ V este subspaţiu liniar al lui V dacă şi numai dacă α x + β y ∈ M ,
(∀) x, y ∈ M , (∀) α , β ∈ K .
iv) Orice subspaţiu liniar al lui V este la rândul său un spaţiu liniar în raport cu
operaţiile induse de V pe M.
v) M = {0V } este un subspaţiu liniar al lui V, numit subspaţiul nul al lui V.

Subspaţiile liniare ale lui V diferite de V şi de subspaţiul nul se numesc subspaţii


proprii ale lui V.

2.3. Exemple. i) Fie V = R n = {(x , x ,L, x ) x ∈ R , i = i, n } spaţiul aritmetic


1 2 n i

real de dimensiune n şi M = {( x1 ,0,L,0 ) x1 ∈ R } ⊂ R n . Se constată cu uşurinţă


că M este un subspaţiu liniar al lui R n .
1.11. EXERCIŢII 13

ii) Spaţiul liniar Pn al polinoamelor de grad cel mult n este un subspaţiu liniar al
spaţiului liniar al funcţiilor reale continue de o variabilă reală C ( R ) .
iii) Fie sistemul liniar omogen de m ecuaţii cu n necunoscute
n

∑a
j =1
ij x j = 0 , i = 1, m , aij ∈ R , i = 1, m , j = 1, n .

Mulţimea soluţiilor acestui sistem este un subspaţiu liniar în R n , adică suma a


două soluţii ale sistemului, precum şi produsul dintre o soluţie a sistemului şi un
scalar (număr real) sunt soluţii ale sistemului.
Demonstraţia acestei afirmaţii se face cu uşurinţă dacă scriem sistemul de
mai sus sub forma matriceală. Pentru aceasta fie A = (aij )i =1,m , j =1,n matricea
coeficienţilor sistemului şi X = ( x1 x2 L xn ) t vectorul coloană al necunoscutelor;
cu aceste notaţii sistemul liniar de mai sus capătă forma matriceală:

A ⋅ X = 0 Rm .

Dacă X 1 = (x11 x12 L x1n ) t şi X 2 = (x12 x22 L xn2 ) t sunt două soluţii ale
sistemului, atunci:

A( X 1 + X 2 ) = AX 1 + AX 2 = 0 R m ,

A(αX 1 ) = α ( AX 1 ) = 0 R m .

De aici rezultă că mulţimea soluţiilor unui sistem liniar omogen de m ecuaţii cu n


necunoscute este un subspaţiu liniar în R n .
iv) Fie sistemul neomogen de ecuaţii liniare:
n

∑a
j =1
ij x j = bi , i = 1, m ,

unde aij , bi ∈ R , i = 1, m , j = 1, n . Mulţimea soluţiilor acestui sistem, în ipoteza


că acesta este compatibil, nu formează un subspaţiu liniar în R n .
Pentru a demonstra acest fapt, să notăm cu B = (b1 b2 L bn ) t ≠ 0 R n
vectorul coloană al termenilor liberi ai sistemului şi să folosim notaţiile din
exemplul iii); sistemul de mai sus capătă astfel forma matriceală:

A⋅ X = B .
14 1. SPAŢII LINIARE

Dacă X 1 = (x11 x12 L x1n ) t şi X 2 = (x12 x22 L xn2 ) t sunt două soluţii ale sistemului,
atunci:

A( X 1 + X 2 ) = AX 1 + AX 2 = B + B = 2 B ≠ B ,

deci suma a două soluţii ale sistemului nu este soluţie a sistemului.


v) Matricea pătratică A = (aij )i , j =1,n ∈ M n ( R ) se numeşte simetrică dacă
aij = a ji ; i, j = 1, n şi antisimetrică dacă aij = − a ji ; i, j = 1, n . Mulţimea matri-
celor simetrice, notată M ns ( R ) , şi mulţimea matricelor antisimetrice, notată
M na ( R ) , sunt subspaţii liniare în M n ( R ) . Pentru a demonstra această afirmaţie
este suficient să constatăm că suma a două matrice simetrice (antisimetrice) şi
înmulţirea unei matrice simetrice (antisimetrice) cu un număr real sunt matrice
simetrice (antisimetrice).

2.4. Definiţie. Dacă M 1 şi M 2 sunt subspaţii ale spaţiului liniar V peste K, atunci
mulţimea

M 1 + M 2 = {x + y x ∈ M 1 , y ∈ M 2 }

se numeşte suma subspaţiilor liniare M 1 şi M 2 .

2.5. Propoziţie. Fie M 1 şi M 2 subspaţii liniare ale spaţiului liniar V peste K.


Atunci:
i) M 1 + M 2 este un subspaţiu liniar al lui V;
ii) M 1 ∩ M 2 este un subspaţiu liniar al lui V.
iii) Dacă M i , i ∈ I , sunt subspaţii liniare ale lui V atunci I M i este un
i∈I

subspaţiu liniar al luiV.

Demonstraţie. i) Dacă z1 , z 2 ∈ M 1 + M 2 , atunci există x1 , x 2 ∈ M 1 şi


y1 , y 2 ∈ M 2 astfel încât z1 = x1 + y1 , z 2 = x2 + y 2 . Deoarece M 1 şi M 2 sunt
subspaţii liniare rezultă că: x1 + x 2 ∈ M 1 , y1 + y 2 ∈ M 2 , α x1 ∈ M 1 , α y1 ∈ M 2 ,
(∀) α ∈ K . Avem:
z1 + z 2 = ( x1 + x2 ) + ( y1 + y 2 ) ∈ M 1 + M 2 ,

α z1 = α x1 + α x2 ∈ M 1 + M 2 ,
1.11. EXERCIŢII 15

şi deci M 1 + M 2 este un subspaţiu liniar al lui V.


ii) Fie x, y ∈ M 1 ∩ M 2 ⇒ x, y ∈ M 1 , x, y ∈ M 2 şi cum M 1 , M 2 sunt subspaţii
liniare rezultă α x + β y ∈ M 1 , α x + β y ∈ M 2 pentru orice α , β ∈ K , deci
α x + β y ∈ M1 ∩ M 2 .
Afirmaţia iii) rezultă imediat din i).

2. 5′ . Exemplu. Fie M 1 = {( x1 , 0 , 0 ) x1 ∈ R }, M 2 = {( 0 , x2 , 0 ) x2 ∈ R } două


subspaţii liniare în R 3 . Suma acestor subspaţii liniare este:

M 1 + M 2 = {( x1 , x2 , 0 ) x1 , x2 ∈ R }.

Faptul că această mulţime este un subspaţiu liniar în R 3 se verifică cu uşurinţă.

2.6. Observaţie. i) Intersecţia unui număr oarecare de subspaţii liniare ale lui V
este un subspaţiu liniar al lui V, fapt ce rezultă cu uşurinţă din propoziţia 2.5.
ii) Dacă A ⊂ V este o mulţime nevidă, atunci există cel puţin un subspaţiu liniar
al lui V care conţine A. Într-adevăr, acest subspaţiu poate fi luat chiar spaţiul
liniar în sine.

2.7. Definiţie. Dacă A este o mulţime nevidă din spaţiul liniar V, atunci
intersecţia tuturor subspaţiilor liniare ale lui V ce conţin mulţimea A se numeşte
subspaţiul liniar generat de A.

2.8. Definiţie. Dacă A este o mulţime nevidă din spaţiul liniar V, mulţimea:

{ }
L( A) = α 1 x1 + α 2 x 2 + L + α n x n n ∈ N ∗ , xi ∈ A , α i ∈ K , i = 1, n

se numeşte acoperirea liniară a mulţimii A.


Expresia α 1 x1 + α 2 x2 + L + α n xn , n ∈ N ∗ se numeşte combinaţie liniară a
vectorilor x1 , x 2 ,L, xn .

2.9. Observaţie. Acoperirea liniară a unei mulţimi este subspaţiul liniar al lui V
alcătuit din toate combinaţiile liniare finite care se pot forma cu vectorii mulţimii
respective. Într-adevăr, dacă x, y ∈ L( A) şi α , β ∈ K atunci α x + β y este o
combinaţie liniară finită cu vectori din L( A) deci aparţine lui L( A) . Dacă
x ∈ L( A) şi α ∈ K atunci, în mod evident, α x ∈ L( A) . Rezultă de aici că L( A)
este un subspaţiu liniar al lui V. În plus, fiecare vector x ∈ A este o combinaţie
liniară cu vectori din A , deci A ⊂ L( A) .
16 1. SPAŢII LINIARE

2.10. Propoziţie. L( A) coincide cu subspaţiul liniar generat de mulţimea A.

Demonstraţie. Fie M = I M i , subspaţiul liniar generat de mulţimea A. Aceasta


i∈I

înseamnă că pentru fiecare i din mulţimea de indici I, subspaţiul liniar M i


conţine mulţimea A. L( A) este un subspaţiu liniar ce conţine mulţimea A, deci
M ⊆ L( A) . Deoarece A ⊂ M i , (∀) i ∈ I , rezultă că orice combinaţie liniară cu
vectori din A aparţine lui M i , (∀) i ∈ I , deci şi lui M. De aici rezultă că
L( A) ⊆ M , fapt ce încheie demonstraţia.

2. 10′ . Exemplu. Fie A = { e1 = ( 1, 0 , 0 ) , e2 = ( 0 ,1, 0 ) } ⊂ R 3 . Să arătăm că aco-


perirea liniară a acestei mulţimi coincide cu următorul subspaţiul liniar din R 3 :

M = {( x1 , x2 , 0) x1 , x2 ∈ R }.

Orice combinaţie liniară cu vectori din A este de forma α 1e1 + α 2 e2 = (α 1 , α 2 , 0 )


şi aparţine evident lui M, de unde deducem că L( A) ⊆ M . Cum incluziunea
inversă rezultă din egalitatea: ( x1 , x 2 , 0 ) = x1 (1, 0 , 0 ) + x2 ( 0 ,1, 0 ) = x1e1 + x2 e2 ,
obţinem în final L( A) = M .

2.11. Definiţie. Suma subspaţiilor liniare M 1 şi M 2 ale spaţiului liniar V se


numeşte directă şi notăm

M1 + M 2 = M1 ⊕ M 2

dacă orice vector x din M 1 + M 2 se scrie în mod unic sub forma

x = x1 + x2 , x1 ∈ M 1 , x 2 ∈ M 2 .

2. 11′ . Exemplu. Suma directă a subspaţiilor liniare din R 3 :

M 1 = {( x1 , 0 , 0) x1 ∈ R }, M 2 = {( 0 , x2 , 0) x2 ∈ R },

este subspaţiul liniar din R 3

M = {( x1 , x2 , 0) x1 , x2 ∈ R }.

2.12. Propoziţie. Dacă M 1 şi M 2 sunt subspaţii liniare ale spaţiului liniar V,


1.11. EXERCIŢII 17

atunci următoarele afirmaţii sunt echivalente:

i) M 1 ∩ M 2 = { 0V };

ii) M 1 + M 2 = M 1 ⊕ M 2 .

Demonstraţie. i) ⇒ ii). Fie x = x1 + x 2 = x1′ + x′2 , x1 , x1′ ∈ M 1 , x2 , x2′ ∈ M 2 .


Atunci x1 − x1′ = x 2 − x ′2 şi x1 − x1′ ∈ M 1 , x 2 − x 2′ ∈ M 2 , fapt ce implică: x1 − x1′ =
= x2 − x 2′ ∈ M 1 ∩ M 2 = { 0V } . De aici rezultă că x1 = x1′ , x 2 = x ′2 , deci suma
M 1 + M 2 este directă.
ii) ⇒ i). Fie M 1 + M 2 = M 1 ⊕ M 2 . Dacă x ∈ M 1 + M 2 atunci el se scrie în mod
unic sub forma: x = x1 + x 2 x1 ∈ M 1 , x 2 ∈ M 2 .
Pentru u ∈ M 1 ∩ M 2 , vectorul x capătă şi descompunerea x = ( x1 + u ) + ( x 2 − u ) ,
x1 + u ∈ M 1 , x 2 − u ∈ M 2 . Din unicitatea descompunerii lui x ca sumă dintre un
vector din M 1 şi un vector din M 2 rezultă x1 = x1 + u , x 2 = x 2 − u , deci u = 0V
şi M 1 ∩ M 2 = { 0V }.

2.13. Observaţie. Dacă M i , i = 1, n sunt subspaţii liniare ale spaţiului liniar V


atunci suma acestora este un subspaţiu liniar al lui V:

{
M 1 + M 2 + L + M n = x1 + x 2 + L + x n xi ∈ M i , i = 1, n . }
n
Dacă I M = { 0 } atunci suma subspaţiilor liniare
i =1
i V M i , i = 1, n este directă şi
notăm

M1 + M 2 + L+ M n = M1 ⊕ M 2 ⊕L⊕ M n .

2.14. Definiţie. Dacă M 1 şi M 2 sunt subspaţii al spaţiului liniar V astfel încât


V = M 1 ⊕ M 2 atunci M 1 şi M 2 se numesc subspaţii complementare.

{ }
2.15. Exemple. i) Fie în V = R 3 = ( x1 , x 2 , x3 ) xi ∈ R , i = 1,3 subspaţiile liniare:
M 1 = {( x1 , x2 , 0) x1 , x2 ∈ R },

M 1 = {(0, x2′ , x3′ ) x′2 , x3′ ∈ R }.

Se constată cu uşurinţă că R 3 = M 1 + M 2 , dar suma nu este directă, deoarece


18 1. SPAŢII LINIARE

vectorul x = ( x1 , x2 , x3 ) ∈ M 1 + M 2 se poate descompune sub forma x = x ′ + x ′′ ,


x′ ∈ M 1 , x′′ ∈ M 2 , în două moduri distincte şi anume: x = ( x1 , x 2 ,0 ) + (0,0, x3 ) =
= ( x1 0,0 ) + (0, x2 , x3 ) .
ii) Mulţimile

M 1 = {( x1 , x2 , 0) x1 , x2 ∈ R },

M 1 = {(0,0, x3 ) x3 ∈ R },

sunt subspaţii complementare în R 3 . Într-adevăr, R 3 = M 1 + M 2 şi orice vector


x ∈ R 3 se scrie în mod unic sub forma x = ( x1 , x2 , x3 ) = ( x1 , x 2 ,0 ) + (0,0, x3 ) ,
(x1 , x2 ,0) ∈ M 1 , (0,0, x3 ) ∈ M 2 .
iii) Mulţimile M i = {(0,0,L, xi ,L,0) xi ∈ R }, i = 1, n sunt subspaţii liniare în
R n şi R n = M 1 ⊕ M 2 ⊕ L ⊕ M n .
Dacă A1 = { ( 1, 0 ,L, 0 ) } , A2 = { ( 0 ,1, 0 ,L, 0 ) } , L, An = { ( 0 , 0 ,L,1 ) }, atunci
L ( Ai ) = M i , i = 1 , n şi R n = L( A1 ) ⊕ L( A2 ) ⊕ L ⊕ L( An ) .
iv) Subspaţiile liniare ale lui R n din exemplul 2.3 v), M ns ( R ) şi M na ( R ) sunt
subspaţii complementare. Într-adevăr, fie A = (aij )i , j =1,n ∈ M n ( R ) şi:

⎛1 ⎞
A s = ⎜ (aij + a ji )⎟ ∈ M ns ( R ) ,
⎝2 ⎠ i , j =1,n

⎛1 ⎞
A a = ⎜ (aij − a ji )⎟ ∈ M na ( R ) .
⎝2 ⎠ i , j =1,n

Atunci A = A s + A a , fapt ce implică M n ( R ) = M ns ( R ) + M na ( R ) ; deoarece avem şi


M ns ( R ) ∩ M na ( R ) = {0 M n ( R ) }, rezultă M n ( R ) = M ns ( R ) ⊕ M na ( R ) .

1.3. DEPENDENŢĂ ŞI INDEPENDENŢĂ LINIARĂ

Fie V un spaţiu liniar peste K , S ⊂ V , S nevidă.

3.1. Definiţie. Mulţimea S se zice liniar independentă dacă pentru orice n ∈ N ∗


şi orice xi ∈ S , i = 1, n condiţia:
1.11. EXERCIŢII 19

α 1 x1 + α 2 x2 + L + α n xn = 0V

implică α 1 = α 2 = L = α n = 0 .
O mulţime care nu este liniar independentă se numeşte liniar dependentă.

3.2. Observaţie. i) Mulţimea nevidă S ⊂ V este liniar independentă dacă orice


combinaţie liniară nulă cu vectori din S are loc numai cu toţi scalarii nuli.
ii) Dacă din combinaţia liniară nulă a vectorilor xi ∈ V , i = 1, n rezultă că toţi
scalarii sunt nuli, atunci spunem că vectorii xi ∈ V , i = 1, n sunt liniar
independenţi.
iii) Dacă 0V ∈ S atunci S este liniar dependentă.

3.3. Exemple. i) În R n mulţimea

S = { e1 = ( 1 , 0 , L , 0 ) , e 2 = (0 , 1 , 0 , L , 0 ) , L , e n = ( 0 , 0 , L , 1 ) }

este liniar independentă.


ii) Fie V = C ( R ) şi vectorii x1 = cos 2 t , x2 = sin 2 t , x3 = 1 . Aceşti vectori sunt
liniar dependenţi deoarece combinaţia liniară nulă α 1 cos 2 t + α 2 sin 2 t + α 3 ⋅1 = 0 ,
(∀) t ∈ R , are loc dacă luăm α 1 = α 2 = 1 , α 3 = −1 .
iii) Vectorii x1 = e a t , x2 = e b t , x3 = e c t , t ∈ R , a , b , c ∈ R , a ≠ b ≠ c ≠ a , sunt
liniar independenţi în C ( R ) . Într-adevăr, să considerăm combinaţia liniară nulă
α 1 x1 + α 2 x2 + α 3 x3 = 0 . Aceasta implică: α 1e a t + α 2 e b t + α 3 e c t = 0 , (∀) t ∈ R .
Dacă luăm pe rând în relaţia de mai sus t = 0 , t = 1 şi t = 2 atunci obţinem
sistemul liniar omogen în necunoscutele α 1 , α 2 , α 3 :

α1 + α 2 + α 3 = 0
α 1e a + α 2 e b + α 3 e c = 0
α 1e 2 a + α 2 e 2 b + α 3 e 2 c = 0 .

Determinantul acestui sistemului este de tip Vandermonde şi este diferit de zero


deoarece a ≠ b ≠ c ≠ a . Aceasta înseamnă că sistemul de mai sus are numai
soluţia banală deci vectorii consideraţi sunt liniar independenţi.
iv) Vectorii x0 = 1 , x1 = t , x 2 = t 2 , L, xn = t n , t ∈ R , sunt liniar independenţi în
spaţiul liniar C ( R ) , sau în spaţiul liniar Pn ( R ) .
v) Fie vectorii x j = (x1 j , x 2 j ,L, x nj )∈ R n , j = 1, m . Atunci combinaţia liniară nulă
20 1. SPAŢII LINIARE

α 1 x1 + α 2 x 2 + L + α n x n = 0 R n ne conduce la sistemul liniar omogen în necu-


noscutele α i , i = 1, m :

∑α
j =1
j xij = 0 , i = 1, n .

Fie A = (xij )i =1,n , j =1,m matrice acestui sistem. Sistemul de mai sus are numai soluţia

banală (deci vectorii x j , j = 1, m sunt liniar independenţi) dacă şi numai dacă


matricea A, care are pe coloane coordonatele vectorilor x j , j = 1, m , are rangul
egal cu m.

3.4. Propoziţie. Fie V un spaţiu liniar peste K . Atunci:


i) S = { x x ≠ 0V } este liniar independentă.
ii) Orice submulţime a unei mulţimi liniar independentă este liniar independentă.
iii) Dacă o mulţime S ⊂ V conţine o submulţime liniar dependentă, atunci S este
liniar dependentă.
iv) Dacă S = { x1 , x 2 , L , x n } ⊂ V este liniar dependentă, atunci cel puţin un
vector din S poate fi scris ca o combinaţie liniară a celorlalţi vectori ai mulţimii S.

Demonstraţie. i) Dacă x ≠ 0V , din combinaţia liniară nulă α x = 0V , rezultă


α = 0.
Afirmaţiile ii) şi iii) sunt consecinţe imediate ale definiţiei liniar independenţei
unei mulţimi.
iv) Fie S = { x1 , x 2 , L , x n } ⊂ V liniar dependentă. Atunci combinaţia liniară
nulă α 1 x1 + α 2 x 2 + L + α n xn = 0V are loc cu cel puţin un scalar nenul; fie acesta
α 1 . Atunci x1 = −α 1−1α 2 x2 − α1−1α 3 x3 − L − α 1−1α n xn , ceea ce încheie demonstraţia.

3.5. Propoziţie. Fie vectorii x1 , x 2 ,L, x n liniar independenţi în spaţiul liniar V.


Atunci orice n + 1 vectori din L( x1 , x 2 ,L, x n ) sunt liniar dependenţi.

n
Demonstraţie. Fie y1 , y 2 ,L, y n +1 ∈ L( x1 , x 2 ,L, x n ) . Atunci: yi = ∑ α ij x j ,
j =1
n +1

n n +1

i = 1, n + 1 . Combinaţia liniară nulă = 0V implică : ∑ ⎜ ∑ α ij β i ⎟ x j = 0V ,
∑β y i i
i =1 j =1 ⎝ i =1 ⎠
iar din liniar independenţa vectorilor x1 , x 2 ,L, x n se obţine sistemul liniar
omogen în necunoscutele β1 , β 2 ,L, β n +1 :
1.11. EXERCIŢII 21

n +1

∑α
i =1
ij β i = 0 , j = 1, n .

Acest sistem liniar şi omogen are şi soluţii nebanale deoarece are mai multe
necunoscute decât ecuaţii. De aici rezultă că vectorii y1 , y 2 ,L, y n +1 sunt liniar
dependenţi.

1.4. BAZĂ. DIMENSIUNE

Fie V un spaţiu liniar peste corpul K.

4.1. Definiţie. Spunem că S ⊂ V este un sistem de generatori dacă L(S ) = V .


Spunem că spaţiul liniar V este finit generat dacă are un sistem de generatori finit
( card(S) < ∞ ) şi infinit generat în caz contrar.

4.2. Exemple. i) În R n mulţimea

S = { e1 = (1, 0 ,L, 0 ) , e2 = (0,1,L, 0 ) ,L, en = ( 0 , 0 ,L,1 ) },

este un sistem de generatori deci R n este finit generat.


Mulţimea S ′ = { e1 = (1, 0 ,L, 0 ) , e2 = (0,1,L, 0 ) ,L, en −1 = ( 0 , 0 ,L,1, 0 ) } nu este
un sistem de generatori în R n deoarece vectorul ( 0 , 0 ,L,1 ) ∈ R n nu poate fi
scris ca o combinaţie liniară a vectorilor mulţimii S ′ .
{ }
ii) Fie V = M m ,n ( R ) , S = I i , j ; i = 1, m , j = 1, n ⊂ M m ,n ( R ) , unde I i , j este
matricea din M m ,n ( R ) care are toate elementele egale cu zero, mai puţin
elementul de pe linia i şi coloana j, care este egal cu unu. Dacă A = (aij )i =1,m , j =1,n
m n
atunci A = ∑∑ aij I i , j , deci M m ,n ( R ) = L(S ) şi M m ,n ( R ) este finit generat.
i =1 j =1

iii) În Pn ( R ) mulţimea S = {1 , t , t 2 ,L, t n t ∈ R } este un sistem de generatori şi


deci Pn ( R ) este finit generat. Mulţimea S ′ = {1 , t , t 2 ,L, t n −1 t ∈ R } nu este un
sistem de generatori în Pn ( R ) .
iv) Fie V = P ( R ) mulţimea tuturor polinoamelor de o variabilă reală şi
S = {t n t ∈ R , n ∈ N } ⊂ P ( R ) . Mulţimea S este infinită şi liniar independentă,
deoarece combinaţia liniară nulă α 0 ⋅1 + α 1t + L + α n t n = 0 , (∀) t ∈ R , (∀) n ∈ N ,
implică α 0 = α 1 = L = α n = 0 . Rezultă de aici că spaţiul liniar al tuturor
22 1. SPAŢII LINIARE

polinoamelor de o variabilă reală este infinit generat.


v) În spaţiul liniar l ( R ) , vectorii ξ i = (ξ in )n∈N , i ∈ N cu proprietatea ξ in = 0
pentru n ≠ i şi ξ ii = 1 formează un sistem de generatori, deci l ( R ) este infinit
generat.

4.3. Definiţie. Se numeşte bază în spaţiul liniar V peste corpul K un sistem de


generatori liniar independent.

4.4. Observaţie. Se poate arăta că orice spaţiu liniar diferit de spaţiul nul admite
o bază ( pentru demonstraţia acestui rezultat vezi, de exemplu, [12], pag.124).

4.5. Propoziţie. Fie V un spaţiu liniar finit generat. Atunci toate bazele lui V au
acelaşi număr de elemente.

Demonstraţie. Fie B şi B′ două baze în V, card(B ) = n , card(B′) = n′ .


Deoarece B este bază, această mulţime este liniar independentă şi L(B ) = V .
Dacă n′ > n , atunci cu propoziţia 3.5 ar rezulta că B′ ar fi liniar dependentă, deci
nu ar fi bază în V. Rezultă că n′ ≤ n . Dacă schimbăm acum B cu B′ obţinem
n ≤ n′ , deci n = n′ .

4.6. Definiţie. i) Dacă V este un spaţiu liniar finit generat şi B este o bază în V,
numărul n = dim(V ) = card(B ) se numeşte dimensiunea lui V. Dacă V este spaţiul
nul, atunci dim(V ) = 0 .
ii) Un spaţiu liniar de dimensiune n se numeşte n-dimensional. Un astfel de
spaţiu îl vom nota Vn .

4.7. Exemple. i) Mulţimea

B = { e1 = ( 1, 0 ,L, 0 ) , e2 = ( 0 ,1,L, 0 ) ,L, en = ( 0 , 0 ,L,1 ) }

este o bază în R n , numită baza canonică şi dim (R n ) = n .

ii) Pn ( R ) are dimensiunea n + 1 . O bază în acest spaţiu este:

B = {1, t , t 2 ,L, t n t ∈ R }.

iii) Spaţiul M m ,n ( R ) are dimensiunea m ⋅ n . O bază în acest spaţiu este dată de


mulţimea:
1.11. EXERCIŢII 23

{ }
B = I i , j ; i = 1, m , j = 1, n ,

unde matricea I i , j este cea din exemplul 4.2.

iv) Dacă V este un spaţiu liniar complex, atunci spaţiul RV care coincide cu V ca
grup aditiv şi cu înmulţirea cu numere reale definită exact ca în V, se numeşte
trecerea în real a spaţiului V. În particular, dacă trecem în real spaţiul liniar
complex V = C n obţinem spaţiul liniar real R C n = R 2 n de dimensiune 2n . O
bază a acestui spaţiu este: { e1 , e2 ,L, en , i e1 , i e2 ,L, i en } , obţinută prin trecerea în
real a bazei { e1 , e2 ,L, en } ⊂ C n .

4.8. Teoremă. Mulţimea B = { e1 , e2 ,L, en } formează o bază în spaţiul liniar V


peste corpul K dacă şi numai dacă orice vector x ∈V se scrie în mod unic sub
forma:

x = x1e1 + x2 e2 + L + xn en , xi ∈ K , i = 1, n .

Demonstraţie. Dacă B = { e1 , e2 ,L, en } este bază în V atunci V = L(B ) , deci


orice vector x ∈V se scrie sub forma x = x1e1 + x2 e2 + L + xn en , xi ∈ K , i = 1, n .
Dacă mai există încă o descompunere a lui x de forma x = x1′e1 + x′2 e2 + L + x′n en ,
xi′ ∈ K , i = 1, n , atunci: (x1 − x1′ )e1 + (x2 − x2′ )e2 + L + (xn − xn′ )en = 0V şi cum
vectorii e1 , e2 ,L, en sunt liniar independenţi rezultă xi′ = xi , i = 1, n , deci
descompunerea lui x după vectorii bazei B este unică.
Reciproc, dacă orice vector din V se scrie în mod unic sub forma din enunţ
atunci şi vectorul nul are această proprietate, deci combinaţia liniară nulă
α 1e1 + α 2 e2 + L + α n en = 0V implică α 1 = α 2 = L = α n = 0 deci B este bază în V.

4.9. Definiţie. Dacă B = { e1 , e2 ,L, en } este bază în V şi x ∈V se scrie sub forma


x = x1e1 + x2 e2 + L + xn en , atunci scalarii xi ∈ K , i = 1, n se numesc coordonatele
vectorului x în baza B. În acest caz vom scrie x = ( x1 , x 2 ,L, x n ) ∈V .

4.10. Lema schimbului. Dacă B = { e1 , e2 ,L, en } este bază în V şi


{ f1 , f 2 ,L, f p } este un sistem liniar independent în V atunci p ≤ n şi (după o
eventuală renumerotare) B ′ = { f1 , f 2 ,L, f p , e p +1 , e p + 2 ,L, en } este bază în V.

Demonstraţie. Pentru p = 1 rezultă p ≤ n şi f1 ≠ 0V . În aceste condiţii avem


24 1. SPAŢII LINIARE

f1 = a1e1 + a 2 e2 + L + a n en , cu cel puţin un scalar a k ≠ 0 , k = 1, n . Fie acesta a1 .


Combinaţia liniară nulă α f1 + α 2 e2 + L + α n en = 0V ne conduce la condiţia:
α a1e1 + (α 2 + α a 2 )e2 + L + (α n + α a n )en = 0V . Deoarece vectorii e1 , e2 ,L, en
sunt liniar independenţi rezultă: α a1 = 0 , α i + α ai = 0 , i = 2, n şi deoarece
a1 ≠ 0 obţinem α = 0 , α i = 0 , i = 2, n . De aici rezultă că sistemul de vectori
{ f1 , e2 ,L, en } este bază în V.
Presupunem proprietatea adevărată pentru p − 1 , adică p −1 ≤ n şi
mulţimea { f1 ,L, f p −1 , e p ,L, en } este bază în V. Dacă p −1 = n atunci mulţimea
{ f1 , f 2 ,L, f p−1 } ar fi bază în V, fapt ce ar contrazice liniar independenţa
vectorilor f1 , f 2 ,L , f p . Deci p −1 < n ⇒ p ≤ n şi din ipoteza de inducţie avem:
f p = α 1 f1 + L + α p −1 f p −1 + α p e p + L + α n en , cu cel puţin un scalar α j , j = p, n
nenul. Fie acesta α p . În continuare, demonstraţia liniar independenţei sistemului
de vectori { f1 ,L, f p , e p +1 ,L, en } se face la fel ca în cazul p = 1 .

4.11. Corolar. Dacă dimV = n atunci:

i) orice sistem de m vectori cu m > n este liniar dependent;


ii) un sistem de n vectori este bază în V dacă şi numai dacă este liniar
independent;
iii) un sistem de n vectori este bază în V dacă şi numai dacă este un sistem de
generatori al lui V;
iv) dacă M este un subspaţiu propriu al lui V atunci dim M < dim V .

Demonstraţie: Afirmaţiile i)-iv) sunt consecinţe imediate ale lemei schimbului.

4.12. Teoremă (Grassmann). Fie M 1 , M 2 subspaţii liniare ale spaţiului liniar


de dimensiune finită V. Atunci:

dim(M 1 + M 2 ) = dim M 1 + dim M 2 − dim(M 1 ∩ M 2 ) .

Demonstraţie. Să considerăm dim(M 1 ∩ M 2 ) = r , dim M 1 = p , dim M 2 = q şi


B = { e1 , e 2 , L , e r } bază în M 1 ∩ M 2 . Cu lema schimbului completăm această
bază până la o bază B1 = {e1 , e2 ,L, er , e′r +1 ,L, e′p } în M 1 şi până la o bază
B2 = {e1 , e2 ,L , er , e′r′+1 ,L, e′q′} în M 2 . Să arătăm că mulţimea

S = {e1 , e2 ,L , er , e′r +1 ,L , e′p , e′r′+1 ,L , e′q′}


1.11. EXERCIŢII 25

este bază în M 1 + M 2 . Avem evident incluziunea L(S ) ⊆ M 1 + M 2 . Dacă


x ∈ M 1 + M 2 atunci x este de forma: x = x1 + x 2 , cu x1 ∈ M 1 , x 2 ∈ M 2 . Astfel
putem scrie:

x1 = ξ1e1 + L + ξ r er + ξ r +1er′+1 + L + ξ p e′p ,

x 2 = η1e1 + L + η r er + η r +1e′r′+1 + L + η q e′q′ ,

deci M 1 + M 2 ⊆ L(S ) . De aici şi din incluziunea inversă stabilită mai sus rezultă

M 1 + M 2 = L (S ) .

Mai avem de arătat că S este liniar independentă. Fie combinaţia liniară


α 1e1 + L + α r er + α r′+1e′r +1 + L + α ′p e′p + α r′′+1e′r′+1 + L + α q′′e′q′ = 0V . Vectorul

x = α 1e1 + L + α r er + α r′+1er′+1 + L + α ′p e′p = −(α r′′+1er′′+1 + L + α q′′e′q′ )

aparţine subspaţiului M 1 ∩ M 2 deci este o combinaţie liniară a vectorilor din B .


De aici rezultă α r′′+1 = L = α q′′ = 0 , α r′+1 = L = α ′p = 0 , iar din combinaţia liniară
α 1e1 + L + α r er = 0V şi din liniar independenţa mulţimii B = { e1 , e 2 , L , e r }
rezultă α 1 = L = α r = 0 . Mulţimea S este deci liniar independentă; ea fiind şi un
sistem de generatori al subspaţiului M 1 + M 2 , este bază în acest subspaţiu.
Acum, pentru a încheia demonstraţia, este suficient să remarcăm că S conţine
p + q − r vectori.

4.13. Propoziţie. Dacă V este spaţiu liniar de dimensiune finită, atunci orice
subspaţiu liniar al său are cel puţin un complement.

Demonstraţie. Fie M un subspaţiu liniar al lui V şi B = { e1 , e 2 , L , e r } o bază


în M, bază pe care o completăm până la o bază B1 = { e1 , e2 ,L, er , er +1 ,L, en } în
V. Atunci subspaţiul liniar M 1 = L(er +1 ,L, en ) este un complement al lui M,
deoarece V = M ⊕ M 1 .

4.14. Observaţie. Complementul unui subspaţiu liniar nu este în general unic. De


exemplu, în R 3 subspaţiile M 1 = {(0,α , α ) α ∈ R } şi M 2 = {(0,0, β ) β ∈ R }
sunt complemente distincte ale subspaţiului liniar M = {( x1 , x2 ,0) x1 , x2 ∈ R }.
26 1. SPAŢII LINIARE

1.5. SCHIMBAREA BAZEI ÎNTR-UN SPAŢIU LINIAR

Fie Vn un spaţiu liniar peste K şi B = { e1 , e2 ,L, en } , B1 = { f1 , f 2 ,L, f n } baze în


Vn . Deoarece elementele bazei B1 sunt vectori din Vn , ele pot fi exprimate în
mod unic prin combinaţii liniare ale vectorilor bazei B :

f1 = c11e1 + c12 e2 + L + c1n en


f 2 = c 21e1 + c22 e2 + L + c2 n en
…………………………….
f i = ci1e1 + ci 2 e2 + L + cin en
…………………………….

f n = c n1e1 + cn 2 e2 + L + cnn en .

5.1. Definiţie. Matricea C ∈ M n ( K ) , C = (cij )i , j =1,n , se numeşte matricea de


trecere de la baza B la baza B1 .

5.2. Propoziţie. Matricea C ∈ M n ( K ) este matrice de trecere dacă şi numai dacă


este nesingulară.

Demonstraţie. Fie C = (cij )i , j =1,n ∈ M n ( K ) , B = { e1 , e2 ,L, en } bază în Vn şi


n n
f i = ∑ cij e j , i = 1, n . Combinaţia liniară nulă ∑α i f i = 0Vn implică:
j =1 i =1

n
⎛ n

∑ ⎜⎝ ∑ c α
j =1 i =1
ij i ⎟ e j = 0Vn .

De aici şi din liniar independenţa vectorilor e1 , e2 ,L, en obţinem sistemul liniar şi


omogen în necunoscutele α i , i = 1, n :

∑c α
i =1
ij i = 0 , j = 1, n .

Acest sistem are doar soluţia banală dacă şi numai dacă det C ≠ 0 .
1.11. EXERCIŢII 27

5.3 Propoziţie. Dacă B = { e1 , e2 ,L, en } , B1 = { f1 , f 2 ,L, f n } sunt baze în Vn ,


C = (cij )i , j =1,n ∈ M n ( K ) este matricea de trecere de la B la B1 iar ( x1 , x 2 ,L, x n ) ,
( y1 , y 2 ,L, y n ) reprezintă acelaşi vector în baza B respectiv baza B1 , atunci:

n
x j = ∑ cij y i , j = 1, n .
i =1

n n
Demonstraţie. Fie x = ∑ x j e j = ∑ yi f i . Atunci:
j =1 i =1

n n n
⎛ n n

x = ∑ yi f i = ∑ y i ∑ cij e j = ∑ ⎜ ∑ cij yi ⎟ e j .
i =1 i =1 j =1 j =1 ⎝ i =1 ⎠

Deoarece scrierea unui vector într-o bază este unică rezultă:

n
x j = ∑ cij y i , j = 1, n
i =1

şi demonstraţia este încheiată.

5.4. Observaţie. Dacă notăm X B = ( x1 x2 L x n ) , X B 1 = ( y1 y 2 L y n ) atunci


t t

transformarea coordonatelor unui vector la schimbarea bazei poate fi scrisă sub


forma matriceală:

X B = Ct X B 1 ,

sau

X B 1 = (C t ) X B .
−1

Din această formulă deducem că în timp ce vectorii bazei noi se scriu în funcţie
de vectorii bazei vechi cu ajutorul elementelor matricei C, coordonatele unui
vector în baza nouă se scriu în funcţie de coordonatele aceluiaşi vector în baza
veche cu ajutorul elementelor matricei (C t ) . Din acest motiv elementele unui
−1

spaţiu liniar finit dimensional se mai numesc vectori contravarianţi.


28 1. SPAŢII LINIARE

1.6. VARIETĂŢI LINIARE

Fie V un spaţiu liniar peste corpul K.

6.1. Definiţie. Dacă x, y ∈ V , se numeşte dreaptă determinată de x şi y mulţimea

D( x, y ) = { z ∈V z = λ x + (1 − λ ) y , λ ∈ K }.

6.2. Definiţie. Se numeşte varietate liniară sau mulţime plană în spaţiul liniar V
orice submulţime E ⊂ V cu proprietatea :

x, y ∈ E , x ≠ y ⇒ D ( x, y ) ⊂ E .

6.3. Observaţie. Dacă M este un subspaţiu liniar în V şi x0 ∈V , notăm

M + x0 = { x + x0 x ∈ M }.

6.4. Propoziţie. Mulţimea E ⊂ V este varietate liniară dacă şi numai dacă există
un subspaţiu liniar M ⊂ V şi x0 ∈V astfel încât: E = M + x0 .

Demonstraţie. Fie E varietate liniară în V, x0 ∈ E şi mulţimea

M = E − x0 = { x − x0 x ∈ E} .

Dacă y1 , y 2 ∈ M atunci există x1 , x 2 ∈ E astfel încât y1 = x1 − x0 , y 2 = x2 − x0 .


Avem:

⎛1 1 ⎞
y1 + y 2 = x1 + x 2 − 2x0 = 2⎜ x1 + x 2 ⎟ − x0 − x0 .
⎝2 2 ⎠

1 1
Deoarece E este varietate liniară rezultă x1 + x 2 ∈ E ; în plus din
2 2
⎛1 1 ⎞
λ ⎜ x1 + x 2 ⎟ + (1 − λ )x0 ∈ E , (∀) λ ∈ K , pentru λ=2 obţinem
⎝2 2 ⎠
x1 + x 2 − x0 ∈ E , deci y1 + y 2 ∈ M . Pentru y = x − x0 , x ∈ E şi α ∈ K avem:
α y = α x − α x0 = (α x + (1 − α )x0 ) − x0 ∈ M , deci M este subspaţiu liniar al lui V.
1.11. EXERCIŢII 29

Reciproc, fie M subspaţiu liniar al lui V, x0 ∈V şi E = M + x0 . Pentru


y1 = x1 + x0 , y 2 = x2 + x0 , x1 , x 2 ∈ M , şi λ ∈ K avem λ x1 + (1 − λ ) x 2 ∈ M şi
λ y1 + (1 − λ ) y 2 = λ x1 + (1 − λ ) x2 + x0 ∈ E , deci E este varietate liniară.

6.5. Definiţie. Dacă Vn este un spaţiu liniar de dimensiune n peste K şi M este un


subspaţiu liniar al lui Vn de dimensiune n − 1 atunci varietatea liniară
E = M + x0 , x0 ∈Vn se numeşte hiperplan.
Dacă E ⊂ V este varietate liniară atunci subspaţiul M din propoziţia 6.4 se
numeşte subspaţiul director al varietăţii E.
Dimensiunea varietăţii E este egală cu dimensiunea subspaţiului său director.

1.7. SPAŢII LINIARE IZOMORFE

Fie V, W două spaţii liniare peste acelaşi corp K al scalarilor.

7.1. Definiţie. Spaţiile V, W se numesc izomorfe dacă există o aplicaţie bijectivă


f : V → W astfel încât:

i) f ( x + y ) = f ( x ) + f ( y ) , (∀) x, y ∈ V ;
ii) f (λ x ) = λ f ( x ) , (∀) x ∈ V , (∀) λ ∈ K .

Aplicaţia f cu proprietăţile de mai sus se numeşte izomorfism.

7.2. Propoziţie. Fie V, W două spaţii liniare peste acelaşi corp al scalarilor K şi
f : V → W un izomorfism. Atunci:

i) f (0V ) = 0W ;
ii) dacă x1 , x 2 ,L, x r sunt liniar independente în V atunci f ( x1 ), f ( x2 ),L, f ( xr )
sunt liniar independente în W.

Demonstraţie. i) f ( x ) = f ( x + 0V ) = f ( x ) + f (0V ) , (∀) x ∈V , deci f (0V ) = 0W .


ii) Combinaţia liniară nulă α 1 f ( x1 ) + α 2 f ( x 2 ) + L + α r f ( x r ) = 0V implică:
f (α 1 x1 + α 2 x2 + L + α r xr ) = 0W = f (0V ) .Din injectivitatea aplicaţiei f rezultă
acum α 1 x1 + α 2 x2 + L + α r x r = 0V iar liniar independenţa vectorilor x1 , x 2 ,L, x r
implică α 1 = α 2 = L = α r = 0 .
30 1. SPAŢII LINIARE

7.3. Propoziţie. Două spaţii liniare finit dimensionale peste acelaşi corp al
scalarilor sunt izomorfe dacă şi numai dacă au aceeaşi dimensiune.

Demonstraţie. Necesitatea. Fie dimV = n , B = { e1 , e2 ,L, en } bază în V şi


izomorfismul f : V → W . Cu propoziţia precedentă rezultă că vectorii f (e1 ) ,
f (e2 ) , L, f (en ) sunt liniar independenţi în W. Cum aplicaţia f este surjectivă,
n n
pentru fiecare y ∈ W există x = ∑ xi ei în V astfel încât y = f ( x ) = ∑ xi f (ei ) .
i =1 i =1

Aceasta înseamnă că vectorii f (e1 ) , f (e2 ) , L, f (en ) formează un sistem de


generatori în W ; aceşti vectori sunt şi liniar independenţi în W deci mulţimea
B1 = { f (e1 ), f (e2 ),L, f (en ) } este bază în W.
Suficienţa. Fie dimV = dim W = n şi B = { e1 , e2 ,L, en } , B1 = { f1 , f 2 ,L, f n }
baze în V, respectiv W. Să considerăm aplicaţia f : V → W care face ca
n n
vectorului x = ∑ xi ei ∈ V să-i corespundă vectorul y = ∑ xi f i ∈ W . Această
i =1 i =1
n
aplicaţie este evident bijectivă; în plus, pentru oricare doi vectori x = ∑ xi ei ,
i =1
n
x ′ = ∑ xi′ei din V şi pentru orice scalar λ ∈ K avem:
i =1

⎛ n n
⎞ n
f ( x + x ′) = f ⎜ ∑ xi ei + ∑ xi′ei ⎟ = ∑ ( xi + xi′ ) f i = f ( x ) + f ( x ′) ,
⎝ i =1 i =1 ⎠ i =1

⎛ n ⎞ n
f (λ x ) = f ⎜ ∑ λ xi ei ⎟ = λ ∑ xi f i = λ f ( x ) ,
⎝ i =1 ⎠ i =1

deci aplicaţia f este un izomorfism.

7.4. Observaţie. i) Izomorfismul f : Vn → W n definit în propoziţia 7.3 duce baza


B = { e1 , e2 ,L, en } din Vn în baza B1 = { f (e1 ), f (e2 ),L, f (en ) } din W n şi în
aceste baze vectorii x ∈Vn şi f ( x ) ∈ W n au aceleaşi coordonate.

ii) Izomorfismul utilizat în demonstraţia propoziţiei 7.3 se numeşte izomorfism


canonic.
ii) Spaţiul liniar Vn peste K şi spaţiul K n sunt izomorfe, izomorfismul canonic
n
fiind dat de aplicaţia f : Vn → K n , x ∈ V , x = ∑ xi ei ⎯⎯→
f
(x1 , x2 ,L, xn ) ∈ K n .
i =1
1.11. EXERCIŢII 31

1.8. PRODUS SCALAR, NORMĂ, DISTANŢĂ

Fie V un spaţiu liniar peste corpul K.

8.1. Definiţie. Aplicaţia ϕ : V × V → K se numeşte produs scalar pe V dacă


verifică axiomele:

i) ϕ (x, x ) ≥ 0 , (∀) x ∈V ; ϕ ( x, x ) = 0 ⇔ x = 0V ;
ii) ϕ ( x1 + x2 , y ) = ϕ ( x1 , y ) + ϕ ( x 2 , y ) , (∀) x1 , x2 , y ∈V ;
iii) ϕ (λ x, y ) = λ ϕ ( x, y ) , (∀) x, y ∈ V , (∀) λ ∈ K ;
iv) ϕ ( x, y ) = ϕ ( y, x ) , (∀) x, y ∈ V .

Un spaţiu liniar peste care s-a definit un produs scalar se numeşte spaţiu
prehilbertian real pentru K = R , respectiv spaţiu prehilbertian complex sau
unitar pentru K = C .

În cele ce urmează, dacă ϕ : V × V → K este un produs scalar, vom nota


ϕ ( x, y ) = < x, y > , astfel încât axiomele i)-iv) se scriu sub forma:

i) < x, x > ≥ 0 , (∀) x ∈V ; < x, x > = 0 ⇔ x = 0V ;


ii) < x1 + x2 , y > =< x1 , y > + < x2 , y > , (∀) x1 , x2 , y ∈V ;
iii) < λ x, y > = λ < x, y > , (∀) x, y ∈ V , (∀) λ ∈ K ;
iv) < x, y > = < y , x > , (∀) x, y ∈ V .

8.2. Observaţie. i) Dacă V este un spaţiu prehilbertian complex, atunci:

< x, y1 + y 2 > = < y1 + y 2 , x > = < y1 , x > + < y 2 , x > = < y1 , x > + < y 2 , x > =
= < x, y1 > + < x, y 2 > , (∀) x, y1 , y 2 ∈V ;

< x, λ y > = < λ y , x > = λ < y , x > = λ < y , x > =

= λ < x, y > , (∀) x, y ∈V , (∀) λ ∈ C .

ii) În cazul unui spaţiu prehilbertian real axioma iv) se scrie:


32 1. SPAŢII LINIARE

< x, y > =< y , x > , (∀) x, y ∈ V .

Spunem în acest caz că produsul scalar este o aplicaţie simetrică.

iii) < 0 K , x > =< 0 K x, x > = 0 K < x, x > = 0 K , (∀) x ∈ V .

8.3. Exemple. i) Fie Vn un spaţiu liniar de dimensiune n peste corpul C,


n n
B = { e1 , e2 ,L, en } bază în Vn şi vectorii x = ∑ xi ei , y = ∑ y i ei din Vn .
i =1 i =1
n
Aplicaţia ϕ : Vn × Vn → C , ϕ ( x, y ) = < x, y > = ∑ xi y i este un produs scalar pe
i =1

Vn , fapt ce se verifică cu uşurinţă.

ii) Fie l 2 mulţimea şirurilor ( xn )n∈N • , xn ∈ C , (∀) n ∈ N • cu proprietatea că seria



2
xi este convergentă. Se constată cu uşurinţă că dacă x, y ∈ l 2 atunci
i =1

x + y ∈ l 2 , λ x ∈ l 2 , (∀) λ ∈ C , deci l 2 este un subspaţiu liniar al lui l .


Fie aplicaţia:

ϕ : l 2 × l 2 → C , ϕ ( x,y ) = < x, y > = ∑ xi yi .
i =1

1
( )

rezultă că seria ∑ xi y i este convergentă deci
2 2
Deoarece xi yi ≤ xi + y i
2 i =1

ϕ este bine definită, În plus, ϕ verifică axiomele i)-iv) din definiţia produsului
scalar, deci este un produs scalar pe l 2 .

b
iii) Aplicaţia ϕ ( f , g ) = < f , g > = ∫ f ( x ) g ( x ) dx este un produs scalar pe spaţiul
a

liniar C[a, b] al funcţiilor reale continue pe [a, b] , peste corpul numerelor reale.

8.4. Propoziţie (inegalitatea Cauchy-Buniakovski). Dacă V este un spaţiu


prehilbertian peste K atunci:

< x, y > ≤ < x, x > < y , y > , (∀ ) x, y ∈ V .

Demonstraţie. Fie x, y ∈ V . Dacă y = 0V , inegalitatea este evidentă. Pentru


y ≠ 0V avem < x − λ y , x − λ y > ≥ 0 , (∀) λ ∈ K , de unde cu proprietăţile
1.11. EXERCIŢII 33

produsului scalar obţinem:

< x, x > − λ < x, y > − λ < y, x > + λ λ < y, y > ≥ 0 , (∀) λ ∈ K .

Inegalitatea ce trebuie demonstrată se obţine din inegalitatea de mai sus dacă


< x, y >
luăm λ = .
< y, y >

8.5. Definiţie. Fie V un spaţiu liniar peste corpul K. Aplicaţia ψ : V → R , se


numeşte normă pe V dacă verifică axiomele:

i) ψ ( x ) ≥ 0 , (∀) x ∈ V ; ψ ( x ) = 0 ⇔ x = 0V ;
ii) ψ ( x + y ) ≤ ψ ( x ) + ψ ( y ) , (∀) x, y ∈ V ;
iii) ψ (λ x ) ≤ λ ψ ( x ) , (∀) x ∈V , (∀) λ ∈ K .

Dacă ψ : V → R este o normă pe V vom nota ψ ( x ) = x , astfel încât


axiomele i)-iii) se scriu sub forma:

i) x ≥ 0 , (∀) x ∈V ; x = 0 ⇔ x = 0V ;
ii) x + y ≤ x + y , (∀) x, y ∈V ;
iii) λ x ≤ λ ⋅ x , (∀) x ∈V , (∀) λ ∈ K .

8.6. Exemple. i) Fie V = K n . Pentru x = ( x1 , x2 ,L, xn ) ∈ K n definim aplicaţiile:

x ∞
= max xk ,
k =1, n
n
x 1
= ∑ xk ,
k =1
n
= ∑ xk
2 2
x 2 .
k =1

Se constată cu uşurinţă că aceste aplicaţii sunt norme pe K n . Ultima normă


definită mai sus se numeşte norma euclidiană pe K n .

ii) Aplicaţiile ψ 1 , 2 : C [a, b ] → R , definite prin:

(∫ )
1

ψ 1 ( x ) = sup x(t ) , ψ 2 ( x ) = x (t ) dt
b 2

a
2
,
t∈[a ,b ]
34 1. SPAŢII LINIARE

sunt norme pe C[a, b] .

8.7. Definiţie. Un spaţiu liniar peste care s-a definit o normă se numeşte spaţiu
liniar normat.

Fie ( x n ) n∈N ∗ un şir de elemente din spaţiul liniar normat V.

8.8. Definiţie. Spunem că şirul ( x n ) n∈N ∗ converge către x ∈V dacă pentru orice
ε > 0 există N (ε ) ∈ N ∗ astfel încât xn − x < ε , (∀) n ≥ N (ε ) .

Dacă şirul ( x n ) n∈N ∗ converge către x ∈V spunem că acest şir converge în normă

către x şi notăm acest fapt prin lim x n = x sau prin xn ⎯⎯→ x.
n→∞

8.9. Definiţie. Spunem că şirul ( x n ) n∈N ∗ este şir Cauchy în V dacă pentru orice
ε > 0 există N (ε ) ∈ N ∗ astfel încât xn − xm < ε , (∀) m, n ≥ N (ε ) . Dacă orice şir
Cauchy în V converge către un element din V, spunem că V este un spaţiu liniar
normat complet sau un spaţiu Banach.

8.10. Propoziţie. Dacă V este un spaţiu prehilbertian peste K atunci aplicaţia

ψ : V → R , ψ ( x ) = x = < x, x >

este o normă pe V.

Demonstraţie. Cu notaţia x = < x, x > , x ∈ V , inegalitatea Cauchy-


Buniakovski se scrie:

< x, y > ≤ x ⋅ y , (∀) x, y ∈V .

Axiomele i), iii) se obţin imediat din axiomele produsului scalar. Pentru a
verifica axioma ii) a normei avem:
2
x + y =< x + y, x + y > = < x, x > + < x, y > + < y, x > + < y, y > =
= x 2
+ y 2
+ 2 Re < x, y > ≤ x 2
+ y 2
+ 2 < x, y > ≤

≤ x 2
+ y 2
+2 x ⋅ y =( x + y ) 2
,

La stabilirea ultimei inegalităţi am folosit inegalitatea Cauchy-Buniakovski.


1.11. EXERCIŢII 35

8.11. Definiţie. Într-un spaţiu prehilbertian V, norma x = < x, x > , x ∈ V se


numeşte norma generată de produsul scalar.
Un spaţiu prehilbertian complet în raport cu norma generată de produsul scalar se
numeşte spaţiu Hilbert.
Un spaţiu Hilbert de dimensiune finită se numeşte spaţiu euclidian.

În cele ce urmează, vom nota un spaţiu euclidian de dimensiune n prin En .

8.12. Exemple. i) K n este un spaţiu euclidian de dimensiune n în raport cu


produsul scalar:
n
< x, y > = ∑ xi y i , x = ( x1 , x 2 ,L, x n ) , y = ( y1 , y 2 ,L, y n ) ∈ K n .
i =1

Norma generată de acest produs scalar este norma euclidiană:


1
⎛ n 2 ⎞ 2
x = ⎜ ∑ xi ⎟ , x = ( x1 , x 2 ,L, x n ) ∈ K n .
⎝ i =1 ⎠

ii) Pe R n produsul scalar


n
< x, y > = ∑ xi yi , x = ( x1 , x 2 ,L, x n ) , y = ( y1 , y 2 ,L, y n ) ∈ R n
i =1

generează norma euclidiană:


1
⎛ n 2⎞2
x = ⎜ ∑ xi ⎟ , x = ( x1 , x 2 ,L, x n ) ∈ K n .
⎝ i =1 ⎠

iii) l 2 este un spaţiu Hilbert în raport cu norma


1
⎛ ∞ 2 ⎞ 2
x = ⎜ ∑ xi ⎟ , x = ( xi ) i∈N ∗ ∈ l 2 .
⎝ i =1 ⎠

iv) Spaţiul C[a, b] nu este complet în raport cu norma:

2
= < x, x > = ∫a x(t ) d t .
2 b
x
36 1. SPAŢII LINIARE

Prin completarea acestui spaţiu în raport cu norma de mai sus se obţine spaţiul
Hilbert L 2 [a, b ] numit spaţiul funcţiilor de pătrat integrabil pe [a, b] .

8.13. Propoziţie. Dacă V este un spaţiu prehilbertian, atunci:

i) x + y
2
+ x− y
2
(
=2 x
2
+ y
2
) , (∀) x, y ∈V .
= 4 < x, y > , (∀) x, y ∈V .
2 2 2 2
ii) x + y − x− y +i x+i y −i x −i y

Demonstraţia acestor afirmaţii este simplă şi o lăsăm cititorului drept exerciţiu.


Prima identitate se numeşte identitatea paralelogramului, iar a doua se numeşte
identitatea de polarizare.

8.14. Definiţie. Aplicaţia d : V × V → R se numeşte distanţă pe V dacă verifică


axiomele:

i) d ( x, y ) = 0 ⇔ x = y ;
ii) d ( x, y ) = d ( y, x ) , (∀) x, y ∈ V ;
iii) d ( x, y ) ≤ d ( x, z ) + d ( z , y ) , (∀) x, y, z ∈V .

Un spaţiu liniar peste care s-a definit o distanţă se numeşte spaţiu metric.
Un spaţiu prehilbertian V este un spaţiu metric, deoarece aplicaţia

d ( x, y ) = x − y = < x − y , x − y > , (∀ ) x, y ∈ V ,

este o distanţă pe V, fapt ce se verifică cu uşurinţă.

1.9. ORTOGONALITATE. BAZE ORTONORMATE

Fie V un spaţiu prehilbertian.

9.1. Definiţie. Vectorii x, y ∈ V se numesc ortogonali (sau perpendiculari) dacă


< x, y > = 0 şi acest fapt îl notăm x ⊥ y . Mulţimea A ⊂ V se zice ortogonală
dacă < x, y > = 0 , (∀) x, y ∈ A . Spunem că mulţimea A este perpendiculară pe
mulţimea B, A, B ⊂ V şi scriem A ⊥ B , dacă:

< x, y > = 0 , (∀) x ∈ A , (∀) y ∈ B .


1.11. EXERCIŢII 37

9.2. Exemple. i) Şirul de funcţii 1 , cos t , sin t , cos 2t , sin 2t ,L, cos n t , sin n t ,L
formează o mulţime ortogonală în L 2 [− π , π ] .
ii) Mulţimea formată din vectorii e1 = (1 , 0 , 0 ,L, 0 ) , e2 = (0 , 1 , 0 ,L, 0 ) ,L,
en = (0 , 0 , 0 ,L, 1) este ortogonală în R n .

9.3. Definiţie. Mulţimea A ⊂ V , A = { xi }i∈I , unde I este o mulţime oarecare de


indici, se numeşte ortonormată dacă:

⎧1 , i = j
< xi , x j > = ⎨
⎩0 , i ≠ j , (∀) i, j ∈ I .

Dacă utilizăm simbolul lui Kronecker,

⎧1 , i = j
δ ij = ⎨
⎩0 , i ≠ j ,

atunci condiţia de ortonormare a mulţimii A se scrie: < xi , x j > = δ ij , (∀) i, j ∈ I .

9.4. Propoziţie. Fie V un spaţiu prehilbertian. Atunci:


i) orice sistem ortogonal de vectori nenuli este liniar independent;
ii) dacă dimV = n atunci orice sistem ortogonal format din n vectori este bază;
iii) x + y = x + y , (∀) x, y ∈V , x ⊥ y .
2 2 2

Demonstraţie. i) Fie vectorii nenuli x1 , x2 ,L, x n ortogonali doi câte doi, adică
< x i , x j > = 0 , (∀ ) i ≠ j şi combinaţia liniară nulă α 1 x1 + α 2 x 2 + L + α n xn = 0V .
Dacă înmulţim scalar egalitatea de mai sus cu xi , i = 1, n , obţinem
α i < xi , xi > = 0 , i = 1, n şi cum xi ≠ 0V , i = 1, n rezultă α i = 0 , i = 1, n .
Afirmaţia ii) rezultă imediat din i) şi din faptul că orice n vectori liniar
independenţi dintr-un spaţiu liniar de dimensiune n formează o bază în acel
spaţiu.
iii) Dacă x, y ∈V , x ⊥ y atunci:

2
x+ y =< x + y, x + y > = < x, x > + < x, y > + < y, x > + < y, y > =

2 2
= x + y .
38 1. SPAŢII LINIARE

9.5. Observaţie. Egalitatea de la punctul iii) al propoziţiei de mai sus poartă


numele de teorema lui Pitagora.

9.6. Inegalitatea lui Bessel. Fie E = {e1 , e2 ,L, e p } un sistem ortonormat în


p
spaţiul prehilbertian V. Pentru x ∈V , fie y = ∑ < x, ei > ei , z = x − y . Atunci:
i =1

< z , e j > = < x, e j > − < y, e j > = < x, e j > − < x, e j > = 0 , j = 1, p , deci vectorul z
este perpendicular pe L (e1 , e2 ,L , e p ) . Cum y ∈ L(e1 , e2 ,L , e p ) rezultă z ⊥ y .
Dacă aplicăm acum teorema lui Pitagora, obţinem:
p p
= ∑ < x, ei > ≥ ∑ < x, ei >
2 2 2 2 2 2
x = y + z + z .
i =1 i =1

Inegalitatea
p

∑ < x, e
2 2
i > ≤ x ,
i =1

obţinută mai sus, se numeşte inegalitatea lui Bessel.

9.7. Observaţie. În condiţiile de la 9.6, fie y1 ∈ L (e1 , e2 ,L , e p ). Atunci


y − y1 ∈ L (e1 , e2 ,L, e p ) şi cum ( x − y ) ⊥ L (e1 , e2 ,L , e p ) rezultă ( x − y ) ⊥ ( y − y1 ) ;
teorema lui Pitagora aplicată vectorilor x − y şi y − y1 ne dă:

= ( x − y ) + ( y − y1 )
2 2 2 2 2
x − y1 = x− y + y − y1 ≥ x− y .

Din această inegalitate rezultă că vectorul y ∈ L(e1 , e2 ,L , e p ) are proprietatea că


realizează cea mai mică distanţă dintre x şi un vector din L (e1 , e2 ,L , e p ) .

9.8. Definiţie. i) Dacă {ei }i∈I este un sistem ortonormat în spaţiul prehilbertian V,
atunci numerele < x, ei > , i ∈ I se numesc coeficienţii Fourier ai vectorului
x ∈V , după sistemul ortonormat {ei }i∈I .
ii) Dacă V este un spaţiu prehilbertian real şi x, y ∈ V sunt nenuli, atunci numărul
ϕ ∈ [0, π ] , definit prin

< x, y >
cos ϕ =
x ⋅ y
1.11. EXERCIŢII 39

se numeşte unghiul vectorilor x şi y.

9.9. Teoremă. Fie sistemul B = { f i }i∈N • liniar independent în spaţiul


prehilbertian V. Atunci există sistemul B ′ = { ei }i∈N • ortonormat astfel încât
L(e1 , e2 ,L, en ) = L( f1 , f 2 ,L, f n ) , (∀) n ∈ N • .

Demonstraţie. Vom face demonstraţia prin inducţie după n.


Pentru început să remarcăm faptul că deoarece B = { f i }i∈N • este liniar
independentă rezultă f i ≠ 0V , (∀) i ∈ N • .
Pentru n = 1 luăm g1 = f1 şi evident L( f1 ) = L( g1 ) .
Pentru n = 2 fie

g1 = f1 ,

g 2 = f 2 − λ21 g1 , λ21 ∈ K .

Din condiţia < g 2 , g1 > = 0 , obţinem:

< f 2 , g1 >
λ21 = .
< g1 , g1 >

Vectorul g 2 este nenul deoarece în caz contrar ar rezulta că vectorii f 2 , g1 , deci


şi vectorii f 2 , f1 , ar fi liniar dependenţi. Vectorii g 1 , g 2 sunt liniar independenţi
deoarece sunt ortogonali şi cum avem evident L( g1 , g 2 ) ⊆ L( f1 , f 2 ) rezultă că
L( g1 , g 2 ) = L( f1 , f 2 ) .
Presupunem că am determinat p − 1 vectori g 1 , g 2 ,L, g p −1 cu proprietăţile:
i) g 1 , g 2 ,L , g p −1 sunt ortogonali;
ii) L (g 1 , g 2 ,L , g p −1 ) = L ( f 1 , f 2 ,L , f p −1 ).
Fie

g p = f p − λ p1 g 1 − λ p 2 g 2 − L − λ p , p −1 g p −1 .

Din condiţiile: < g p , g j > = 0 , j = 1, p − 1 obţinem

< fp,gj >


λp j = , j = 1, p − 1 .
< gj,gj >
40 1. SPAŢII LINIARE

Dacă g p = 0V ar rezulta că vectorii f p , g1 , g 2 ,L , g p −1 ar fi liniar dependenţi şi


deci L ( f p , g1 , g 2 ,L, g p −1 ) = L (g1 , g 2 ,L, g p −1 ) = L ( f1 , f 2 ,L , f p −1 ) , fapt ce ar
implica liniar dependenţa vectorilor f1 , f 2 ,L , f p . Rezultă g p ≠ 0V şi cum
vectorii g1 , g 2 ,L , g p −1 , g p sunt ortogonali doi câte doi, ei sunt liniar independenţi
şi L (g1 , g 2 ,L, g p ) = L ( f 1 , f 2 ,L, f p ) .
Am demonstrat prin inducţie existenţa sistemului ortogonal { g i }i∈N • ⊂ V . Nu
avem acum decât să punem

1
ei = gi i ∈ N •
gi

şi teorema este demonstrată.

9.10. Observaţie. i) Procedeul folosit în demonstraţia teoremei 9.9 se numeşte


procedeul Gram-Schmidt.
ii) Vectorul f p − g p are proprietatea că este perpendicular pe subspaţiul
L(g1 , g 2 ,L, g p −1 ) şi

2
p −1 2 p −1 < fp,gj > p −1
= ∑ λp j < gj,gj > = ∑ = ∑ < f p ,ej >
2 2
fp − gp 2
.
j =1 j =1 gj j =1

9.11. Corolar. În orice spaţiu euclidian există baze ortonormate.

Demonstraţie. Dacă B = { f1 , f 2 ,L, f n } este o bază în spaţiul euclidian En


atunci cu teorema 9.9 există sistemul ortonormat B ′ = { e1 , e2 ,L, en } în En astfel
încât L(e1 , e2 ,L, en ) = L( f1 , f 2 ,L, f n ) = E n .

9.12. Propoziţie. Fie En un spaţiu euclidian peste corpul K, B = { e1 , e2 ,L, en }


n n
bază ortonormată în En şi x = ∑ xi ei , y = ∑ yi ei ∈ E n . Atunci:
i =1 i =1
n
i) < x, y > = ∑ xi y i ;
i =1
n
= ∑ xi ;
2 2
ii) x
i =1

iii) pentru K = R unghiul vectorilor x, y ∈ E n este:


1.11. EXERCIŢII 41

x1 y1 + x 2 y 2 + L + x n y n
cos ϕ = .
x12 + x 22 + L + x n2 y12 + y 22 + L + y n2

Demonstraţie. i) Deoarece baza B este ortonormată avem:


n n n n n
< x, y > = < ∑ xi ei , ∑ y j e j > = ∑ ∑ xi y j δ i j = ∑ xi yi .
i =1 j =1 i =1 j =1 i =1

n n 2

=< x, x > = ∑ xi xi = ∑ xi .
2
ii) x
i =1 i =1

Afirmaţia iii) este o consecinţă imediată a afirmaţiilor i) şi ii).

9.13. Definiţie. Dacă B = { e1 , e2 ,L, en } este o bază ortonormată în spaţiul


n
euclidian En şi x = ∑ xi ei ∈ E n , atunci scalarii x1 , x2 ,L, x n se numesc
i =1

coordonatele euclidiene ale vectorului x.

9.14. Propoziţie. Dacă M este un subspaţiu liniar al spaţiului euclidian En atunci


există un unic subspaţiu liniar M ⊥ în En astfel încât:
i) M ⊥ M ⊥ ;
ii) E n = M ⊕ M ⊥ .

Demonstraţie. i) Fie B ′ = { f1 , f 2 ,L , f p } bază în M pe care o completăm până la


{ }
o bază B ′′ = f 1 , f 2 , L , f p , f p +1 , L , f n în En . Aplicăm bazei B ′′ procedeul
Gram-Schmidt şi obţinem baza ortonormată B = {e1 , e2 ,L , e p , e p +1 ,L, en } astfel
încât L ( f1 , f 2 ,L, f p ) = L (e1 , e2 ,L, e p ) = M . Fie M ⊥ = L (e p +1 , e p + 2 ,L, en ) .
Deoarece bazele din M şi M ⊥ sunt ortogonale, rezultă M ⊥ M ⊥ .
ii) Fie x ∈ M ∩ M ⊥ . Atunci < x, x > = 0 deci x = 0 En , fapt ce arată că suma
M + M ⊥ este directă. Dacă x ∈ E n atunci:

n p n
x = ∑ xi ei = ∑ xi ei + ∑x e i i = x ′ + x ′′ , x ′ ∈ M , x ′′ ∈ M ⊥ ,
i =1 i =1 i = p +1

de unde rezultă că E n = M + M ⊥ .
Pentru a arăta unicitatea subspaţiului M ⊥ cu proprietăţile de mai sus, fie M 1⊥
astfel încât M ⊥ M 1⊥ şi E n = M ⊕ M 1⊥ . Pentru x1 ∈ M 1⊥ , din E n = M ⊕ M ⊥
42 1. SPAŢII LINIARE

rezultă x1 = x1′ + x1′′ , x1′ ∈ M , x1′′ ∈ M ⊥ , descompunerea fiind unică. În plus x1 este
perpendicular pe M deci pe x1′ . Atunci:

2
0 = < x1 , x1′ > = < x1′ + x1′′, x1′ > = < x1′ , x1′ > + < x1′′, x1′ > = x1′ ,

de unde obţinem x1′ = 0 En . Rezultă x1 = x1′′ ∈ M ⊥ , deci M 1⊥ ⊆ M ⊥ . Asemănător


se arată că M ⊥ ⊆ M 1⊥ , deci M 1⊥ = M ⊥ .

9.15. Definiţie. Dacă M este un subspaţiu al spaţiului euclidian En atunci M ⊥ se


numeşte complementul ortogonal al lui M.

9.16. Observaţie. i) Dacă M este un subspaţiu al spaţiului euclidian En şi M ⊥


este complementul său ortogonal, atunci orice vector x ∈ E n se scrie în mod unic
sub forma:

x = x′ + x′′ , x′ ∈ M , x′′ ∈ M ⊥ .

Vectorii x′ şi x ′′ se numesc proiecţiile vectorului x pe subspaţiile M


respectiv M ⊥ .
ii) Dacă B = {e1 , e2 ,L , e p } este o bază ortonormată în M atunci proiecţia
vectorului x pe M este:
p
x = ∑ < x, ei > ei ,
i =1

iar distanţa (conform observaţiei 9.7) dintre vectorul x şi subspaţiul M este:

d ( x, M ) = x′′ = x − x′ .

1.10. SCHIMBAREA BAZEI ÎNTR-UN SPAŢIU EUCLIDIAN

Fie bazele ortonormate B = { e1 , e2 ,L, en }, B ′ = { e1′ , e′2 ,L, e′n } în spaţiul euclidian
En şi C = (ci j )i , j =1,n ∈ M n ( K ) matricea de trecere de la baza B la baza B′ . După
cum am văzut, det C ≠ 0 .
n n
Dacă ei′ = ∑ cik ek , e′j = ∑ c jl el , atunci:
k =1 l =1
1.11. EXERCIŢII 43

n n n n
δ ij =< ei′, e′j > = < ∑ cik ek ,∑ c jl el > = ∑∑ cik c jl < ek , el > =
k =1 l =1 k =1 l =1

n n n
= ∑∑ cik c jl δ kl =∑ cik c jk , i, j = 1, n .
k =1 l =1 k =1

Egalităţile de mai sus se pot scrie sub forma matriceală:


t
C ⋅C = In ,

unde:
t
C = c ji ( ) i , j =1, n
.

10.1. Definiţie. matricea C ∈ M n (C ) cu proprietatea C ⋅ C = C ⋅ C = I n se


t t

numeşte matrice unitară.


Dacă matricea C ∈ M n ( R ) are proprietatea C ⋅ C t = C t ⋅ C = I n atunci această
matrice se numeşte matrice ortogonală.
t
Matricea C • = C se numeşte adjuncta matricei C.

10.2. Propoziţie. i) Dacă C ∈ M n (C ) este matrice unitară atunci det C = 1 ;


ii) Dacă C ∈ M n ( R ) este matrice ortogonală atunci det C = ±1 ;
iii) Dacă B = { e1 , e2 ,L, en } este o bază ortonormată în En şi matricea unitară C
este matrice de trecere de la baza B la baza B ′ = { f1 , f 2 ,L, f n } , atunci B′ este
ortonormată.
t
Demonstraţie. i) Avem: det C ∗ = det C = det C . Atunci:

1 = det I n = det (C ⋅ C ∗ ) = det C ⋅ det C ∗ = det C ⋅ det C = det C


2
,

de unde rezultă det C = 1 .

ii) 1 = det I n = det (C ⋅ C t ) = det C ⋅ det C t = det C ⋅ det C = (det C ) ,


2

de unde rezultă det C = ±1 .

iii) Deoarece baza B este ortonormată iar matricea de trecere este unitară avem:
44 1. SPAŢII LINIARE

n n n n n n
< f i , f j > = < ∑ cik ek , ∑ c jl el > = ∑∑ cik c jl < ek , el > = ∑∑ c ik c jl δ kl =
k =1 l =1 k =1 l =1 k =1 l =1
n
= ∑ cik c jk = δ i j , i, j = 1, n ,
k =1

deci baza B′ este ortonormată.

1.11. EXERCIŢII

11.1. Exerciţii rezolvate.

1) Fie sistemul de vectori S = { v1 , v 2 , v3 , v 4 } , v1 = (1,1, 0 , 0 ) , v 2 = (1, − 1, 0 ,1 ) ,


v3 = (0 , 2 , 0 , 0 ) , v 4 = (0 , 0 ,1,1 ) .
a) Să se verifice dacă S formează o bază în R 4 . În caz afirmativ să se determine
coordonatele vectorului v = (5 ,1, 2 , 5) în baza S.
b) Dacă S este bază în R 4 să se determine matricea de trecere de la baza canonică
a spaţiului R 4 la baza S.

Rezolvare. a) Fie A matricea având pe coloane coordonatele vectorilor


v1 , v2 , v3 , v4 . Deoarece determinantul acestei matrice este egal cu 2 rezultă
rang A = 4 şi cu exemplul 3.3, v) deducem că vectorii v1 , v2 , v3 , v4 sunt liniar
independenţi. Cum dim R 4 = 4 rezultă că S este bază în R 4 . Pentru a determina
coordonatele vectorului v = (5 ,1, 2 , 5) considerăm combinaţia liniară:

v = α 1v1 + α 2 v 2 + α 3 v3 + α 4 v 4 .

Introducem expresiile vectorilor v , v1 , v2 , v3 , v4 în egalitatea de mai sus şi


obţinem astfel sistemul liniar neomogen:

α 1 +α 2 =5
α 1 − α 2 + 2α 3 =1
α4 =2
α2 + α4 =5

Deoarece vectorii v1 , v2 , v3 , v4 sunt liniar independenţi sistemul de mai sus are


soluţie unică; aceasta este: α 1 = 2 , α 2 = 3 , α 3 = 1 , α 4 = 2 . În baza S vectorul v
1.11. EXERCIŢII 45

se scrie sub forma: v = 2v1 + 3v 2 + v3 + 2v 4 , sau v = (2 , 3 ,1, 2 ,) S .


b) Avem: v1 = e1 + e2 , v2 = e1 − e2 + e4 , v3 = e2 , v4 = e3 + e4 ,
astfel încât matricea de trecere de la baza canonică la baza B este:

⎛1 1 0 0⎞
⎜ ⎟
⎜1 −1 1 0⎟
C =⎜ .
0 1 0 0⎟
⎜⎜ ⎟
⎝0 0 1 1 ⎟⎠

2) Fie mulţimea:

⎧ ⎛ x 0 y⎞ ⎫
M = ⎨ A A =⎜⎜ ⎟⎟ , y = u − v ; x, y, u , v ∈ R ⎬ ⊂ M 2, 3 ( R ) .
⎩ ⎝u v 0 ⎠ ⎭

a) Să se arate că M este un subspaţiu liniar în M 2 , 3 ( R ) ; să se determine o bază în


M şi dimensiunea lui M.
b) Să se determine un subspaţiu complementar lui M şi o bază în acest subspaţiu.
c) Să se descompună vectorul

⎛ 2 3 5⎞
A = ⎜⎜ ⎟⎟
⎝ 3 4 7⎠

după aceste subspaţii.

⎛ x 0 u − v⎞ ⎛ x 0 u1 − v1 ⎞
Rezolvare. Fie A = ⎜⎜ ⎟⎟ , A1 = ⎜⎜ 1 ⎟∈ M , α ,β ∈ R.
⎝u v 0 ⎠ ⎝ u1 v1 0 ⎟⎠
⎛ α x + β x1 0 α u + β u1 − (α v + β v1 )⎞
Atunci: α A + β A1 = ⎜⎜ ⎟⎟ ∈ M deci
⎝ α u + β u1 α v + β v1 0 ⎠
M este un subspaţiu liniar în M 2, 3 ( R ) . Fie B = { E1 , E 2 , E3 , E 4 , E5 , E6 } unde:

⎛1 0 0⎞ ⎛ 0 1 0⎞ ⎛0 0 1⎞
E1 = ⎜⎜ ⎟⎟ , E 2 = ⎜⎜ ⎟⎟ , E3 = ⎜⎜ ⎟⎟ ,
⎝ 0 0 0⎠ ⎝ 0 0 0⎠ ⎝ 0 0 0⎠

⎛ 0 0 0⎞ ⎛ 0 0 0⎞ ⎛ 0 0 0⎞
E 4 = ⎜⎜ ⎟⎟ , E5 = ⎜⎜ ⎟⎟ , E6 = ⎜⎜ ⎟⎟ ;
⎝1 0 0⎠ ⎝ 0 1 0⎠ ⎝0 0 1⎠
46 1. SPAŢII LINIARE

Sistemul de vectori B este o bază în M 2 , 3 ( R ) ; dacă A ∈ M atunci

A = x E1 + u (E3 + E 4 ) + v (− E3 + E5 )

deci în această bază matricea A are coordonatele ( x , 0 , u − v , u , v , 0 ) . Din


combinaţia liniară nulă α 1 E1 + α 2 (E3 + E 4 ) + α 3 (− E3 + E5 ) = 0 M 2 , 3 ( R ) rezultă
α 1 = α 2 = α 3 = 0 deci vectorii E1 , E3 + E 4 ,− E3 + E5 sunt liniar independenţi,
aparţin lui M şi generează acest subspaţiu . Sistemul B1 = {E1 , E3 + E 4 ,− E3 + E5 }
este deci o bază în M.
b) Fie M 1 = L (E 2 , E5 , E6 ) şi A ∈ M ∩ M 1 ; atunci

⎛ 0 a 0⎞ ⎛ x 0 u − v ⎞
A = ⎜⎜ ⎟⎟ = ⎜⎜ ⎟⎟
⎝ 0 b c ⎠ ⎝ u v 0 ⎠

de unde rezultă A = 0 M 2 , 3 ( R ) . De aici deducem că suma M + M 1 este directă; în


plus vectorii E1 , E3 + E 4 ,− E3 + E5 , E 2 , E5 , E 6 formează o bază în M 2, 3 ( R ) deci
M 2 , 3 ( R ) = M ⊕ M 1 şi M 1 este subspaţiu complementar lui M.
c) Din condiţia

⎛ 2 3 5⎞
⎜⎜ ⎟⎟ = α 1 E1 + α 2 (E3 + E 4 ) + α 3 (− E3 + E5 ) + α 4 E 2 + α 5 E5 + α 6 E6
⎝ 3 4 7 ⎠

rezultă α 1 = 2 , α 2 = 3 , α 3 = −2 , α 4 = 3 , α 5 = 6 , α 6 = 7 astfel încât obţinem:

⎛ 2 3 5⎞ ⎛ 2 0 5⎞ ⎛ 0 3 0⎞
A = ⎜⎜ ⎟⎟ = ⎜⎜ ⎟⎟ + ⎜⎜ ⎟⎟ = A1 + A 2 , A1 ∈ M , A 2 ∈ M 1 .
⎝ 3 4 7⎠ ⎝ 3 − 2 0⎠ ⎝ 0 6 7⎠

3) Fie Pn ( R ) spaţiul liniar al polinoamelor de grad cel mult n şi x 0 ∈ R . Să se


arate că sistemul de vectori

{f ( x ) = 1 , f ( x ) = x − x
0 1 0 , f 2 ( x ) = (x − x 0 ) , L , f n ( x ) = (x − x 0 )
2 n
}
este o bază în Pn ( R ) . Să se determine coordonatele unui vector p ∈ Pn ( R ) în
această bază.

Rezolvare. Fie α i ∈ R , i = 0, n şi combinaţia liniară


1.11. EXERCIŢII 47

α 0 f 0 + α 1 f1 + L + α n f n = 0 P n ( R ) ,

combinaţie care ne conduce la identitatea

α 0 f 0 ( x ) + α 1 f1 (x ) + L + α n f n ( x ) = 0 , (∀ ) x ∈ R .

Membrul stâng al acestei egalităţi este un polinom de gradul n, polinom care


coincide cu polinomul nul. Acest lucru se poate întâmpla numai dacă toţi
coeficienţii acestui polinom sunt nuli. Punând această condiţie se obţine
α 0 = α 1 = α 2 = L = α n = 0 deci vectorii f 0 , f1 ,L, f n sunt liniar independenţi;
cum ei sunt în număr de n + 1 şi cum dim Pn ( R ) = n + 1 rezultă că sistemul de
vectori { f 0 , f1 ,L, f n } este bază în Pn ( R ) .
n
Fie acum p ∈ Pn ( R ) , p( x ) = ∑ a j x j ;să determinăm b i , i = 0, n astfel încât:
j =0

p = b 0 + b 1 f1 + b 2 f 2 + L + b n f n . Această combinaţie liniară ne conduce la


condiţia:

p ( x ) = b 0 + b 1 ( x − x0 ) + b 2 ( x − x0 ) + L + b n ( x − x0 ) , (∀ ) x ∈ R ,
2 n

din care obţinem b 0 = p (x 0 ). Derivând succesiv identitatea de mai sus şi luând

p (x 0 ) , i = 1, n şi deci
1 (i )
după fiecare derivare x = x 0 obţinem b i =
i!

p = p (x 0 ) f 0 + p ′(x 0 ) f1 + p ′′(x 0 ) f 2 + L + p ( n ) (x 0 ) f n .
1 1 1
1! 2! n!

4) Să se determine matricea de trecere de la baza B = {e1 = (1, 2 ,1) , e2 = (2 , 3 , 3) ,


e3 = ( 3 , 7 ,1 ) } la baza B ′ = { f1 = (3 ,1, 4 ) , f 2 = (5 , 2 ,1) , f 3 = (1,1, − 6 )} din R 3 .

Rezolvare. Pentru a determina matricea de trecere de la baza B la baza B′ vom


porni de la definiţia matricei de trecere; avem astfel egalităţile:

f1 = c11e1 + c12 e2 + c13 e3


f 2 = c 21e1 + c 22 e2 + c23 e3
f 3 = c31e1 + c32 e2 + c33 e3 .

Din prima egalitate se obţine sistemul


48 1. SPAŢII LINIARE

c11 + 2c12 + 3c13 = 3


2c11 + 3c12 + 7c13 = 1
c11 + 3c12 + c13 = 4 ,

care are soluţia c11 = −27 , c12 = 9 , c13 = 4 . Procedând analog şi cu celelalte două
egalităţi obţinem în final:

⎛ − 27 9 4 ⎞
⎜ ⎟
C = ⎜ − 71 20 12 ⎟ .
⎜ − 41 9 8 ⎟
⎝ ⎠

5) Fie sistemul:

x1 + 2 x 2 + 3 x3 + 10 x 4 = 0
5 x1 + 4 x2 + 3 x3 + 2 x 4 = 0
3 x1 + 2 x 2 + x3 − 2 x 4 = 0 .

a) Să se determine o bază ortonormată în subspaţiul liniar M al soluţiilor


sistemului.
b) Să se determine M ⊥ şi o bază în M ⊥ .

Rezolvare. a) Matricea sistemului are rangul doi astfel încât mulţimea soluţiilor
sistemului este:

M = {(α + 6β , − 2α − 8β ,α , β ) α , β ∈ R }.
O soluţie oarecare x a sistemului se poate pune sub forma: x = α v1 + β v2 unde
v1 = (1, − 2 ,1, 0 ) , v 2 = (6 , − 8 , 0 ,1) . Vectorii v1 ,v2 generează subspaţiul M şi sunt
liniar independenţi deci formează o bază în M.
Pentru a ortonormaliza această bază fie g1 = v1 , g 2 = v 2 − λ 21 g1 . Din condiţia
< v 2 , g1 > 22 11 ⎛ 7 2 11 ⎞
< g 2 , g1 > = 0 obţinem λ 21 = = = şi g 2 = ⎜ , − , − , 0 ⎟ . În
< g1 , g1 > 6 3 ⎝3 3 3 ⎠
1 1
final luăm e1 = g1 = (1, − 2 ,1, 0) , e2 = 1 g 2 = 1 (7 , − 2 , − 11, 0) .
g1 6 g2 174

b) Pentru a determina M ⊥ este suficient să determinăm toţi vectorii perpendi-


culari pe baza {v1 ,v2 } din M. Condiţiile < x, v1 > = 0 , < x, v2 > = 0 , x ∈ R 4 ne
1.11. EXERCIŢII 49

conduc la sistemul:

x1 − 2 x2 + x3 =0
6 x1 − 8 x2 + x4 = 0 ,

sistem care are soluţia generală: M ⊥ = {(4α − 2 β ,3α − β , 2 α , 4 β ) α , β ∈ R }. O


bază în M ⊥ se obţine luând pe rând α = 1 , β = 0 şi α = 0 , β = 1 în soluţia
generală de mai sus; rezultă v3 = ( 4 , 3 , 2 , 0 ) , v 4 = ( 2 , − 1, 0 , 4 ) . Această bază se
1
ortonormalizează la fel ca baza precedentă şi se obţine: e3 = (4 , 3 , 2 , 0) ,
29
1
e4 = (19 , − 22 , 5 , 58) .
4234

6) În spaţiul liniar R 3 cu produsul scalar uzual se consideră vectorii


e1 = ( − 1, 2 ,1) , e2 = ( 1, 2 , 3) , e3 = (1, 0 ,1) . Dacă M = L(e1 , e2 , e3 ) să se determine
M ⊥ şi să se proiecteze vectorul x = (8 ,18 , 8) ∈ R 3 pe M şi M ⊥ .

Rezolvare. Deoarece determinantul având pe coloane coordonatele celor trei


vectori este egal cu zero, vectorii e1 , e2 , e3 sunt liniar dependenţi. Doi dintre ei,
de exemplu e1 ,e2 , sunt liniar independenţi astfel încât:
M = {α ( − 1, 2 ,1) + β ( 1, 2 , 3) α , β ∈ R }. Pentru a determina M ⊥ este suficient
să determinăm toţi vectorii x = ( x1 , x2 , x3 ) ∈ R 3 perpendiculari pe e1 ,e2 .
Condiţiile < x, e1 > = 0 , < x, e2 > = 0 , ne conduc la sistemul

− x1 + 2 x2 + x3 = 0
x1 + 2 x2 + 3x3 = 0 ,

a cărui soluţie generală este:

M ⊥ = {(− α ,−α ,α ) α ∈ R }.

O bază în M ⊥ este dată de vectorul e3′ = ( − 1, − 1,1 ) .


Pentru a proiecta vectorul x = ( 8 ,18 , 8) pe cele două subspaţii fie descompunerea
x = x′ + x′′ , x′ ∈ M , x′′ ∈ M ⊥ . Atunci x ′ = α 1e1 + α 2 e2 şi condiţiile < x ′′, e1 > = 0 ,
< x ′′, e2 > = 0 ne conduc la sistemul:
50 1. SPAŢII LINIARE

α 1 < e1 , e1 > + α 2 < e2 , e1 > = < x, e1 >


α 1 < e1 , e2 > + α 2 < e2 , e2 > = < x, e2 > .

Efectuând produsele scalare se obţine sistemul 2α 1 = 16 , 6α 2 = 36 cu soluţia:


α 1 = 8 , α 2 = 6 . Proiecţia vectorului x pe subspaţiul M este: x ′ = 8 e1 + 6e2 =
= ( 2 ,12 ,14 ) iar proiecţia lui x pe M ⊥ este x ′′ = x − x′ = ( 6 , 6 , − 6 ) .

7) Fie V = C [ − 1,1 ] , < f , g > = ∫−1 f (t ) g (t )d t produsul scalar pe acest spaţiu


1

{ }
liniar şi sistemul de vectori S = f i ∈ C [ − 1,1 ] , i = 1,4 , unde: f1 (t ) = 1 , f 2 (t ) = t ,
f 3 (t ) = t 2 , f 4 (t ) = t 3 , t ∈ [− 1,1 ] . Să se ortonormeze acest sistem de vectori.

Rezolvare. Luăm g 1 = f1 , g 2 = f 2 − λ 21 g1 ; din condiţia < g1 , g 2 > = 0 rezultă


< f 2 , g1 > 1
λ21 = = 0, deoarece < f 2 , g1 > = ∫−1 td t = 0 şi astfel g 2 = f 2 .
< g1 , g1 >
În continuare căutăm g 3 de forma g 3 = f 3 − λ 31 g1 − λ 32 g 2 ; din condiţiile
< f 3 , g1 > 2 < f3 , g2 >
< g 3 , g1 > = 0 , < g 3 , g 2 > = 0 obţinem λ31 = = , λ32 = = 0,
< g1 , g1 > 3 < g2 , g2 >
1 2⎛3 1⎞ 3
astfel încât g 3 = t 2 − = ⎜ t 2 − ⎟ . În mod analog obţinem g 4 = t 3 − t =
3 3⎝2 2⎠ 5
2⎛5 3 ⎞
= ⎜ t 3 − t ⎟ . Normele acestor vectori sunt:
5⎝2 2 ⎠

(∫ d t ) = 2 ,
1
1
g1 = < g1 , g1 > = −1
2

> = (∫ t d t ) =
1
1 2
g2 = < g2 , g2 −1
2
, 2

3
1
⎡ 1⎛ 1⎞ ⎤
2
2 2 2
g 3 = < g 3 , g 3 > = ⎢ ∫−1 ⎜ t 2 − ⎟ d t ⎥ = ,
⎣⎢ ⎝ 3 ⎠ ⎥⎦ 3 5
1
⎡ 1 ⎛ 3 3 ⎞2 ⎤ 2 2 2
g 4 = < g 4 , g 4 > = ⎢ ∫−1 ⎜ t − t ⎟ d t ⎥ = .
⎢⎣ ⎝ 5 ⎠ ⎥⎦ 5 7

iar sistemul ortonormat căutat este:


1.11. EXERCIŢII 51

1 1
e1 = g1 = ,
g1 2
1 3
e2 = g2 = t,
g2 2
1 3 5 ⎛ 2 1⎞
e3 = g3 = ⎜t − ⎟ ,
g3 2 2⎝ 3⎠
1 5 7⎛ 3 3 ⎞
e4 = g4 = ⎜t − t ⎟ .
g4 2 2⎝ 5 ⎠

Remarcă. Polinoamele obţinute prin ortogonalizarea sistemului de vectori


{f i : [− 1,1 ] → R , f i (t ) = t i−1 , i ∈ N ∗ }, ca în exemplul de mai sus, se numesc
polinoamele lui Legendre. Aceste polinoame, care se notează Pn , n ∈ N , verifică
următoarea formulă:

Pn (t ) = n
1 dn 2
2 ⋅ n! d t n
[
(t − 1) n . ]
Primele patru polinoame Legendre sunt:

3 1 5 3
P0 (t ) = 1 , P1 (t ) = t , P2 (t ) = t 2 − , P3 (t ) = t 3 − t .
2 2 2 2

8) Fie En un spaţiu euclidian real şi ei ∈ E n , i = 1, p . Determinantul

< e1 , e1 > < e2 , e1 > L < e p , e1 >


< e1 , e2 > < e2 , e 2 > L < e p , e 2 >
Γ(e1 , e2 ,L, e p ) =
M M L M
< e1 , e p > < e2 , e p > L < e p , e p >

{
se numeşte determinantul Gram al sistemului de vectori ei ∈ E n , i = 1, p . Să se }
{
arate că sistemul de vectori ei ∈ E n , i = 1, p } este liniar independent dacă şi
numai dacă Γ(e1 , e2 ,L, e p ) ≠ 0 .

Rezolvare. Fie combinaţia liniară α 1e1 + α 2 e2 + L + α p e p = 0 E n .Înmulţim scalar


egalitatea de mai sus cu e j ∈ E n , j = 1, p ; obţinem astfel sistemul liniar în
52 1. SPAŢII LINIARE

necunoscutele α i , i = 1, p :

α 1 < e1 , e1 > + α 2 < e2 , e1 > + L + α p < e p , e1 > = 0


α 1 < e1 , e2 > + α 2 < e2 , e2 > + L + α p < e p , e2 > = 0
LLLLLL LLLL L LLLLLLLLLL
α 1 < e1 , e p > + α 2 < e2 , e p > + L + α p < e p , e p > = 0 .

Sistemul de mai sus are numai soluţia banală dacă şi numai dacă determinantul
său este diferit de zero. Cum determinantul acestui sistem este Γ (e1 , e2 ,L , e p ) ,
rezultă că vectorii e j ∈ E n , j = 1, p sunt liniar independenţi dacă şi numai dacă
Γ(e1 , e2 ,L, e p ) ≠ 0 .

9) Fie En un spaţiu euclidian real, M un subspaţiu propriu al lui En şi


x ∈ E n \ M . Să se determine:
a) proiecţia vectorului x pe subspaţiul M;
b) distanţa de la x la M.

Rezolvare. a) Fie {e1 , e2 ,L , e p }, p < n bază în M. Deoarece E n = M ⊕ M ⊥ avem


p
x = x′ + x′′ , x′ ∈ M , x′′ ∈ M ⊥ şi descompunerea este unică. Fie x′ = ∑ α i ei ;
i =1

condiţia x′′ ∈ M este echivalentă cu condiţiile < x ′′, e j > = 0 , j = 1, p , condiţii


care se scriu sub forma:


p

∑α
i =1
i < ei , e j > = < x, e j > j = 1, p .

Se obţine astfel sistemul:

α 1 < e1 , e1 > + α 2 < e2 , e1 > + L + α p < e p , e1 > = < x, e1 >


α 1 < e1 , e2 > + α 2 < e2 , e2 > + L + α p < e p , e2 > = < x, e2 >
LLLLLLLLLLLLLLLLLLLLLLLL
α 1 < e1 , e p > + α 2 < e2 , e p > + L + α p < e p , e p > = < x, e p > .

Determinantul acestui sistem este determinantul Gram al sistemului de vectori


e1 , e2 ,L, e p . Cum vectorii e1 , e2 ,L, e p sunt liniar independenţi rezultă
Γ(e1 , e2 ,L, e p ) ≠ 0 şi sistemul de mai sus are soluţie unică; soluţia sistemului se
obţine cu regula lui Cramer sub forma:
1.11. EXERCIŢII 53

Γ(e1 , e2 ,L, ei −1 , x, ei +1 ,L, e p )


αi = , i = 1, p .
Γ(e1 , e2 ,L, e p )

În particular, dacă baza {e , e , L , e }


1 2 p este ortonormată atunci α i =< x, ei > ,
i = 1, p şi

p
x′ = ∑ < x, ei > ei .
i =1

b) Distanţa de la vectorul x la subspaţiul M se defineşte prin formula

d ( x, M ) = inf x − y .
y∈M

Dacă x = x′ + x′′, x′ ∈ M , x′′ ∈ M ⊥ atunci, cu observaţia 9.7, pentru orice vector


y ∈ M avem

= ( x − x′) + ( x′ − y )
2 2 2 2 2
x− y = x − x′ + x′ − y ≥ x − x′ .

Pentru y = x′ se obţine egalitate în inegalitatea de mai sus de unde rezultă


expresia distanţei din observaţia 9.16:

d ( x, M ) = x − x′ = x′′ .

De aici obţinem:

d ( x, M ) = x′′
2
= < x − x′, x − x′ > = < x − x′, x > − < x − x′, x′ > =
2

p
− ∑ α i < x, ei > ,
2
= < x − x′, x > = x
i =1

sau:

− d ( x, M ) .
2
α 1 < e1 , x > + α 2 < e2 , x > + L + α p < e p , x > = x
2

Dacă acestei ecuaţii îi ataşăm ecuaţiile

α 1 < e1 , e1 > + α 2 < e2 , e1 > + L + α p < e p , e1 > = < x, e1 >


54 1. SPAŢII LINIARE

α 1 < e1 , e2 > + α 2 < e2 , e2 > + L + α p < e p , e2 > = < x, e2 >


LLLLLLLLLLLLLLLLLLLLLLLL
α 1 < e1 , e p > + α 2 < e2 , e p > + L + α p < e p , e p > = < x, e p > ,

atunci obţinem un sistem liniar în necunoscutele α i , i = 1, p , sistem care trebuie


să fie compatibil. Condiţia de compatibilitate a acestui sistem este

< x, x > − d ( x , M )
2
< e1 , x > < e2 , x > L < e p , x >
< x, e1 > < e1 , e1 > < e2 , e1 > L < e p , e1 >
< x, e 2 > < e1 , e2 > < e2 , e2 > L < e p , e 2 > = 0 ,
M M M M M
< x, e p > < e1 , e p > < e2 , e p > L < e p , e2 >

din care obţinem:

Γ(x, e1 , e2 ,L, e p )
d ( x, M ) =
2
.
Γ(e1 , e2 ,L, e p )

11.2. Exerciţii propuse

1) a) Să se arate că mulţimea tuturor şirurilor convergente de numere reale for-


mează un spaţiu liniar real relativ la adunarea şirurilor şi înmulţirea dintre un
număr şi un şir.
b) Să se arate că mulţimea C k , k ∈ N , a funcţiilor reale continue de n variabile
reale, definite pe mulţimea deschisă U ⊂ R n , şi care au derivate parţiale până la
ordinul k continue pe U, este spaţiu liniar real în raport cu adunarea funcţiilor şi
înmulţirea acestora cu scalari reali.

2) Să se studieze care din următoarele submulţimi din spaţiul aritmetic


tridimensional R 3 formează subspaţii liniare:

a) S1 = {( x1 , x2 , x3 ) x3 = 0 };
b) S 2 = {( x1 , x2 , x3 ) x1 + x2 − 2 x3 = 0 };
c) S 3 = {( x1 , x2 , x3 ) x1 + x2 − 2 x3 = 1 };
d) S 4 = {(x , x , x ) x
1 2 3
2
1 + x22 − 2 x32 = 0 ; }
{
e) S 5 = ( x1 , x 2 , x3 ) xi > 1 , i = 1, 3 . }
1.11. EXERCIŢII 55

3) Să se verifice dacă vectorul v = (1, − 2 , 0 , 3 ) ∈ R 4 este o combinaţie liniară a


vectorilor e1 = (3 , 9 , − 4 , − 2 ) , e2 = (2 , 3 , 0 , − 1 ) , e3 = (2 , − 1, 2 ,1 ) . În caz afirmativ
să se determine combinaţia liniară nulă a vectorilor v, e1 , e2 , e3 .

4) Să se determine dacă următoarele familii de vectori sunt liniar dependente sau


liniar independente. În cazul liniar dependenţei să se determine relaţia de
dependenţă liniară:

a) v1 = (1, 2 , 0 ) , v2 = (1,1,1 ) , v3 = (− 1, 0 , − 2 ) ∈ R 3 ;
b) v1 = sin t , v2 = cos t , v3 = 1 ∈ C ( R ) ;
c) v1 = sin 2 t , v2 = cos 2 t , v3 = 1 ∈ C ( R ) ;
d) v1 = e a t , v2 = e b t , v3 = e c t ∈ C ( R ) , a ≠ b ≠ c ≠ a ;
e) v1 = 1 + t , v2 = 1 − t + t 2 , v3 = 3 + t + t 2 ∈ P2 ( R ) ;
⎛1 0⎞ ⎛ 1 1⎞ ⎛1 0 ⎞ ⎛1 1⎞
f) v1 = ⎜⎜ ⎟⎟ , v 2 = ⎜⎜ ⎟⎟ , v3 = ⎜⎜ ⎟⎟ , v4 = ⎜⎜ ⎟ ∈ M 2 (R ) .
⎝ 0 2⎠ ⎝ 0 1⎠ ⎝1 2 ⎠ ⎝1 1⎟⎠

5) Să se determine care din următoarele sisteme de vectori ale spaţiului liniar


C ( R ) sunt liniar independente:

a) S = {1, cos 2t , cos 2 t};


b) S = { e t , e −t , ch t};
c) S = { e t , t e t , t 2 e t , t 3 e t ,L, t n e t }.

6) Să se verifice dacă următoarele familii de vectori din R 4 sunt baze. În caz


afirmativ să se determine coordonatele vectorului v = ( 1, 2 , 3 , 4 ) în baza
B = {v1 , v 2 , v3 , v 4 }:

a) v1 = ( 1,1, 0 , 0 ) , v2 = ( 1, − 1, 0 ,1 ) , v3 = ( 0 , 2 , 0 , 0 ) , v 4 = ( 0 , 0 ,1,1 ) ;
b) v1 = ( 1,1,1,1 ) , v2 = ( 1,1, − 1, − 1 ) , v3 = ( 1, − 1,1, − 1 ) , v 4 = ( 1, − 1, − 1,1 ) ;
c) v1 = ( 1,1, 0 ,1 ) , v 2 = ( 2 ,1, 3 ,1 ) , v3 = ( 1,1, 0 , 0 ) , v4 = ( 0 ,1, − 1, − 1 ) .

7) Să se afle câte o bază în subspaţiul liniar M şi dimensiunea acestuia dacă:

a) M = L({ e1 = ( 2 ,1, 3 ,1 ) , e2 = ( 1, 2 , 0 ,1 ) , e3 = ( − 1,1, − 3 , 0 )}) ⊂ R 4 ;


b) M = L({ e1 = ( 2 , 0 ,1, 3 , − 1 ) , e2 = ( 1,1, 0 ,1, − 1 ) , e3 = ( 4 , 2 ,1, 5 , − 3 )}) ⊂ R 5 ;
56 1. SPAŢII LINIARE

⎧ ⎛ x 0 y⎞ ⎫
c) M = ⎨ A = ⎜⎜ ⎟⎟ x, y, z ∈ R ⎬ ⊂ M 2, 3 ( R ) .
⎩ ⎝ y z 0⎠ ⎭

8) Să se determine dimensiunea subspaţiilor liniare generate de următoarele


sisteme de vectori din spaţiul liniar C ( R ) :

{
a) S1 = e 1 , e
a t a2 t
,e
a3 t
}
,L, e an t ai ∈ R , i = 1,n , ai ≠ a j , i ≠ j ;
b) S 2 = {e a t , t e a t , t 2 e a t ,L, t n e a t a ∈ R}.

9) Să se determine dimensiunile sumei şi intersecţiei subspaţiilor liniare M 1 , M 2


generate de următoarele sisteme de vectori:

a) U = { u1 = ( 2 , 3 , − 1 ) , u 2 = ( 1, 2 , 2 ) , u 3 = ( 1,1, − 3 ) },
V = { v1 = ( 1, 2 ,1 ) , v 2 = ( 1,1, − 1 ) , v3 = ( 1, 3 , 3 ) } în R 3 ;

b) U = { u1 = ( 1,1, 2 , − 1 ) , u 2 = ( 0 , − 1, − 1, 2 ) , u 3 = ( − 1, 2 ,1, − 3 ) } ,
V = { v1 = ( 2 ,1, 0 ,1 ) , v 2 = ( − 2 , − 1, − 1, − 1 ) , v3 = ( 3 , 0 , 2 , 3 ) } în R 4 .

10) În R 3 se consideră subspaţiul liniar M generat de vectorii e1 = ( 1, 0 , 0 ) ,


e2 = ( 1,1, 0 ) . Să se determine toate subspaţiile M 1 ⊂ R 3 cu proprietatea că
R3 = M ⊕ M 1 .

11) Să se arate că următoarele familii de vectori sunt baze în spaţiul vectorial


specificat, să se determine matricea de trecere de la baza B la baza B′ şi
coordonatele vectorului x (scris în baza canonică) în bazele B şi B′ :

a) B = { f1 = ( 1, 0 ,1 ) , f 2 = ( 1, 0 , − 1 ) , f 3 = ( 1,1, 0 ) } ⊂ R 3
B′ = { g1 = ( 1,1,1 ) , g 2 = ( 1,1, 0 ) , g 3 = ( 1, 0 , 0 ) } ⊂ R 3 , x = ( 2 , 5 , 7 ) ;

b) B = { f1 = 1 + t , f 2 = 1 − t 2 , f 3 = 1 } ⊂ P2 ( R )
B′ = { g1 = 1 + t + t 2 , g 2 = t , g 3 = 1 + t } ⊂ P2 ( R ) , x = 1 − t + t 2 ;

⎧ ⎛ 1 1⎞ ⎛1 1 ⎞ ⎛1 1⎞ ⎛ 1 0 ⎞⎫
c) B = ⎨ f1 = ⎜⎜ ⎟⎟ , f 2 = ⎜⎜ ⎟⎟ , f 3 = ⎜⎜ ⎟⎟ , f 4 = ⎜⎜ ⎟⎟⎬ ⊂ M 4 ( R ) ,
⎩ ⎝ 1 1 ⎠ ⎝ 1 0 ⎠ ⎝ 0 0 ⎠ ⎝ 0 0 ⎠⎭
1.11. EXERCIŢII 57

⎧ ⎛1 0⎞ ⎛0 1⎞ ⎛ 1 1⎞ ⎛ 0 0 ⎞⎫
B′ = ⎨ g1 = ⎜⎜ ⎟⎟ , g 2 = ⎜⎜ ⎟⎟ , g 3 = ⎜⎜ ⎟⎟ , g 4 = ⎜⎜ ⎟⎟⎬ ⊂ M 4 ( R ) ,
⎩ ⎝ 0 1 ⎠ ⎝ 1 0 ⎠ ⎝ − 1 0 ⎠ ⎝ 1 2 ⎠⎭
⎛ 2 3⎞
x = ⎜⎜ ⎟⎟ .
⎝ 1 5⎠

12) Să se verifice că următoarele operaţii determină produse scalare pe spaţiile


liniare specificate:

a) < x , y > = x1 y1 + x2 y 2 + x3 y3 , x, y ∈ R 3 ;
b) < x , y > = x1 y 1 + x2 y 2 + x3 y 3 , x, y ∈ C 3 ;
c) < f , g > = ∫a f (t )g (t )d t , (∀) f , g ∈ C [a, b] = { f : [a, b] → R , f continuã } ;
b

d) < p, q > = a0 b0 + a1b1 + a 2 b2 , (∀) p = a0 + a1t + a 2 t 2 , q = b0 + b1t + b2 t 2 ∈ P2 ( R ) ;


e) < A, B > = Tr (At B ) , (∀) A, B ∈ M 2 ( R ) , unde Tr ( A) = a11 + a 22 + L + a nn este
urma matricei A = (aij )i , j =1,n .

13) Să se ortonormeze următoarele sisteme de vectori:

a) B = {v1 = ( 1,1, 0 ) , v2 = ( 1, 0 ,1 ) , v3 = ( 0 ,1,1 ) } ⊂ R 3 ;


b) B = {v1 = ( 2 ,1, 2 ) , v2 = ( 1, 2 , − 2 ) , v3 = ( 2 , − 2 ,1 ) } ⊂ R 3 ;
c) B = {v1 = ( 1, 2 , 2 , − 1 ) , v2 = ( 1,1, − 5 , 3 ) , v3 = ( 3 , 2 , 8 , − 7 ) } ⊂ R 4 ;

14) Să se determine complementul ortogonal M ⊥ al subspaţiului liniar M unde


M = L(v1 = ( 1,1, 0 , 0 ) , v2 = ( 1, − 1,1,1 )) ⊂ R 4 .

15) Fie mulţimea M = {( x1 , x2 , x3 ) ∈ R 3 x1 + x2 + x3 = 0 }. Să se arate că M este


subspaţiu liniar în R 3 , să se determine complementul ortogonal M ⊥ al
subspaţiului liniar M, o bază în M ⊥ şi să se proiecteze vectorul x = ( 1, 2 , 6 ) pe
M şi M ⊥ .

16) Fie familia de vectori B = {v1 , v 2 , v3 } , unde v1 = ( 1, 0 , 2 ), v2 = ( 0 ,1, − 1 ),


v3 = ( − 1,1, 0 ) . Să se arate că B este bază în R 3 şi să se ortonormeze.

17) Să se determine o bază ortonormată faţă de produsul scalar canonic în


subspaţiul liniar M al soluţiilor sistemului:
58 1. SPAŢII LINIARE

x1 + 2 x 2 + 3 x3 + 10 x 4 = 0
5 x1 + 4 x2 + 3 x3 + 2 x 4 = 0
3 x1 + 2 x 2 + x3 − 2 x 4 = 0 .

Să se determine M ⊥ , o bază ortonormată în M ⊥ şi să se proiecteze vectorul


x = ( 1, 2 , 5 , 7 ) pe M şi M ⊥ .

18) Fie S mulţimea soluţiilor sistemului

x1 − x4 + x6 = 0
x1 − x3 + x5 =0
x1 − x 2 + x5 − x 6 = 0
x 2 − x3 + + x6 = 0
x1 − x 4 + x5 = 0.

Să se afle complementul ortogonal S⊥ şi să se proiecteze vectorul


x = ( 1,1,1,1,1,1 ) pe S ⊥ .

19) Fie l 2 ( R ) spaţiul liniar al şirurilor de numere reale x = ( xn ) n∈N ∗ pentru care

seria ∑a 2
n este convergentă. Să se arate că aplicaţia ϕ : l 2 ( R ) × l 2 ( R ) → R ,
n =1

ϕ ( x, y ) = < x, y > = ∑ xi yi este un produs scalar şi să se ortonormeze sistemul
i =1

⎛ 1 ⎞ ⎛ 1 ⎞ ⎛ 1 ⎞
{x, y, z} ⊂ l 2 (R ) unde x = ⎜ n −1 ⎟ , y = ⎜ n −1 ⎟ , z = ⎜ n−1 ⎟ .
⎝ 2 ⎠ n∈N ∗ ⎝ 3 ⎠ n∈N ∗ ⎝ 4 ⎠ n∈N ∗

20) Fie C [ 0 , 2π ] spaţiul liniar al funcţiilor reale de o variabilă reală continue pe


intervalul [ 0 , 2π ] cu produsul scalar < f , g > = ∫ f (t ) g (t ) d t . Să se ortonorme-
π 2

ze sistemul de vectori din C [ 0 , 2π ] : f (t ) = 1 , f (t ) = cos n t , f (t ) = sin n t ,


0 2 n −1 2n

n∈ N . ∗

21) Să se determine în R 3 complementul ortogonal subspaţiului liniar definit


prin M = {( x1 , x2 , x3 ) ∈ R 3 x1 = x 2 = x3 }. Să se găsească proiecţiile vectorului
x = ( 1, 2 , 3 ) pe subspaţiile liniare M şi M ⊥ .
1.11. EXERCIŢII 59

22) Fie En un spaţiu euclidian real şi { v1 , v2 ,L, v m } ⊂ E n , m < n o familie de


vectori. Să se arate că:

a) dacă { e1 , e2 ,L, em } ⊂ E n reprezintă familia obţinută din { v1 , v 2 ,L, v m } în urma


aplicării procedeului Gram-Schmidt, atunci au loc relaţiile:

vi ≥ ei , (∀ ) i = 1, m ;

b) au loc relaţiile:

Γ(e1 , e2 ,L, en ) = Γ(v1 , v2 ,L, v n ) , Γ(v1 , v2 ,L, vn ) ≤ v1


2 2 2
⋅ v2 ⋅ K ⋅ vn .

23) Fie spaţiul liniar real V = C [0 , 2] cu produsul scalar

< f , g > = ∫0 f ( x ) g ( x ) dx , (∀) f , g ∈V .


2

a) Să se scrie inegalitatea Cauchy-Buniakovski pentru acest produs scalar.


b) Să se calculeze distanţa dintre vectorii f şi g şi norma acestor vectori dacă:

⎧x , x ∈ [0 ,1]
f (x ) = 1 , g (x ) = ⎨
⎩2 − x , x ∈ (1, 2] .

24) Să se determine o bază ortonormată în subspaţiul soluţiilor sistemului:

3 x1 − x2 − x3 + x4 = 0
x1 2 x2 − x3 − x4 = 0 .

25) Fie pe spaţiul liniar real C [0,4] produsul scalar

< f , g > = ∫0 f ( x ) g ( x )dx , (∀) f , g ∈V .


4

a) Să se scrie inegalitatea Cauchy-Buniakovski pentru acest produs scalar.


b) Să se calculeze unghiul dintre vectorii:

f (x ) = x ,
⎧ x , x ∈ [0,2]
g (x ) = ⎨
⎩2 − x , x ∈ (2,4] .
60 1. SPAŢII LINIARE

26) Să se arate că aplicaţia

< f , g > = ∫1 f (t ) g (t ) lnt d t


e

este un produs scalar pe spaţiul liniar C [1, e] şi să se determine unghiul dintre


vectorii:

f (t ) = 1 , g (t ) = t .

27) În R 6 cu produsul scalar uzual se consideră subspaţiul S al soluţiilor


sistemului liniar

x1 − x4 + x6 = 0
x1 − x3 + x5 =0
x1 − x 2 + x5 − x 6 = 0
x2 − x3 + x6 = 0
x1 − x 4 + x5 = 0.
2. OPERATORI LINIARI

2.1. OPERATORI LINIARI

Fie V, W două spaţii liniare peste K.

1.1. Definiţie. Aplicaţia U : V → W , se numeşte operator liniar (transformare


liniară, aplicaţie liniară, morfism) dacă:

i) U ( x + y ) = U ( x ) + U ( y ) , (∀) x, y ∈V ;
ii) U (λ x ) = λ U ( x ) , (∀) x ∈ V , (∀) λ ∈ K .

Un operator liniar U : V → V se numeşte endomorfism.


Un operator liniar U : V → W injectiv se numeşte monomorfism.
Un operator liniar U : V → W surjectiv se numeşte epimorfism.
Un endomorfism bijectiv se numeşte automorfism.

1.2. Exemple. i) Fie V un spaţiu liniar peste corpul K şi M un subspaţiu liniar al


lui V. În raport cu legile de compoziţie induse de V, M este spaţiu liniar.
Aplicaţia U : M → V , U ( x ) = x , (∀) x ∈ M , numită operator de incluziune, este
liniară.
ii) Fie V = C 1 [a, b], W = C [a, b] . Operatorul:

U : C 1 [a, b ] → C [a, b] , U ( f ) = f ′

este liniar. Acest operator se numeşte operatorul de derivare.


iii) Operatorul

U : C [a, b] → R , U ( f ) = ∫a f (t ) d t ,
b

se numeşte operatorul integral. El este evident un operator liniar.


iv) Fie matricea A = (aij )i =1,m ; j =1,n ∈ M m ,n ( R ) şi vectorii x = ( x1 , x 2 ,L, x n ) ∈ R n ,
y = ( y1 , y 2 ,L, y m ) ∈ R m . Fie: X = ( x1 x2 L x n ) , Y = ( y1 y 2 L y m ) .
t t
62 2. OPERATORI LINIARI

Definim operatorul U : R n → R m astfel: U ( x ) = y ⇔ Y = A X . Să arătăm că


acest operator este liniar. Pentru x1 , x 2 ∈ R n , x1 = ( x11 , x12 ,L, x1n ) ,
x 2 = ( x 21 , x 22 ,L, x 2 n ) avem:

A( X 1 + X 2 ) = AX 1 + AX 2 ⇒ U ( x1 + x2 ) = U ( x1 ) + U ( x 2 ) ,

A(λ X 1 ) = λ AX 1 ⇒ U (λ x ) = λ U ( x ) ,

deci operatorul U este liniar.

1.3. Propoziţie. Operatorul U : V → W este liniar dacă şi numai dacă:

U (α x + β y ) = α U ( x ) + β U ( y ) , (∀) x, y ∈ V , (∀) α , β ∈ K .

Demonstraţie. Necesitatea. Dacă U : V → W este liniar atunci pentru orice


x, y ∈V , α , β ∈ K avem: U (α x + β y ) = U (α x ) + U (β x ) = α U ( x ) + β U ( y ) .
Suficienţa. Dacă în condiţia din teoremă punem α = β = 1 rezultă
U ( x + y ) = U ( x ) + U ( x ) , iar pentru β = 0 avem U (α x ) = αU ( x ) , deci operatorul
U este liniar.

Fie L (V ,W ) mulţimea operatorilor liniari U : V → W . Operatorii


U 1 ,U 2 ∈ L(V ,W ) sunt egali dacă U 1 ( x ) = U 2 ( x ) , (∀) x ∈V .
Suma dintre operatorii U 1 şi U 2 din L(V ,W ) este operatorul definit prin:
(U 1 + U 2 )(x ) = U 1 (x ) + U 2 (x ) , (∀) x ∈V . Operatorul sumă este evident liniar.
Produsul dintre operatorul U ∈ L(V ,W ) şi scalarul λ ∈ K este operatorul:
(λ U )(x ) = λ U (x ) , (∀) x ∈V , care este evident un operator liniar.
În raport cu adunarea operatorilor şi înmulţirea operatorilor cu scalari L(V ,W )
este un spaţiu liniar peste K.
Mulţimea operatorilor liniari U : V → V se notează End (V ) şi se numeşte
mulţimea endomorfismelor spaţiului liniar V.
Mulţimea automorfismelor spaţiului liniar V o vom nota cu Aut (V ) .

1.4. Propoziţie. Fie U ∈ L (V ,W ) . Atunci:


i) U (0V ) = 0W ;
ii) Dacă M este un subspaţiu liniar al lui V atunci U (M ) este un subspaţiu liniar
al lui W.

Demonstraţie. i) U ( x ) = U ( x + 0V ) = U ( x ) + U (0V ) , (∀) x ∈ V , deci U (0V ) = 0W .


2.7. EXERCIŢII 63

ii) Pentru y1 , y 2 ∈ U (M ) există x1 , x2 ∈ M astfel încât U ( x1 ) = y1 , U ( x 2 ) = y 2 .


Fie α , β ∈ K . Atunci:

α y1 + β y 2 = α U (x1 ) + β U ( x2 ) = U (α x1 ) + U (β x2 ) = U (α x1 + β x2 ) ,

ceea ce implică α y1 + β y 2 ∈ U (M ) , deci U (M ) este un subspaţiu liniar în W.

1.5. Teoremă. Fie Vn şi W două spaţii liniare peste corpul K, B = { e1 , e2 ,L, en }


bază în Vn şi f1 , f 2 ,L, f n vectori arbitrari din W. Atunci:
i) există un unic operator liniar U : Vn → W astfel încât U (ei ) = f i , i = 1, n ;
ii) dacă f1 , f 2 ,L, f n sunt liniari independenţi atunci operatorul U : Vn → W ,
U (ei ) = f i , i = 1, n este injectiv.

n
Demonstraţie. i) Fie x = ∑ xi ei ∈Vn şi operatorul U : Vn → W definit prin
i =1
n
U ( x ) = ∑ xi f i . Să arătăm că operatorul definit mai sus este liniar. Pentru
i =1
n n
x = ∑ xi ei , y = ∑ yi ei ∈Vn , α , β ∈ K , avem:
i =1 i =1

n n n
U (α x + β y ) = ∑ (α xi + β yi ) f i = α ∑ xi f i + β ∑ yi f i = α U ( x ) + β U ( y ) ,
i =1 i =1 i =1

ceea ce implică liniaritatea operatorului U.


Pentru a demonstra unicitatea operatorului U, fie T ∈ L(Vn ,W ) , astfel
n
încât T (ei ) = f i , i = 1, n . Atunci imaginea vectorului x = ∑ xi ei ∈Vn prin
i =1

operatorul T este:

⎛ n ⎞ n n
T ( x ) = T ⎜ ∑ xi ei ⎟ = ∑ xi T (ei ) = ∑ xi f i = U ( x ) .
⎝ i =1 ⎠ i =1 i =1

Deoarece x a fost ales arbitrar în Vn rezultă T = U .


n n
ii) Fie x = ∑ xi ei , y = ∑ yi ei ∈ Vn şi U ( x ) = U ( y ) . Atunci din definiţia lui U
i =1 i =1
n
rezultă ∑ (x
i =1
i − y i ) f i = 0Vn şi cum vectorii f i , i = 1, n sunt liniar independenţi
64 2. OPERATORI LINIARI

obţinem xi = y i , i = 1, n deci x = y . Injectivitatea operatorului U este astfel


demonstrată.

1.6. Compunerea operatorilor liniari. Dacă V ,W ,W ′ sunt spaţii liniare peste


acelaşi corp al scalarilor K şi U 1 ∈ L(V ,W ) , U 2 ∈ L(W ,W ′) , compunerea
operatorilor liniari U 1 şi U 2 se defineşte precum compunerea funcţiilor de o
variabilă reală:

(U 2 o U 1 )(x ) = U 2 (U 1 (x )) , x ∈V .
Operatorul compus U : V → W ′ , U = U 2 o U 1 este evident un operator liniar; el
se mai numeşte produsul operatorilor U 1 şi U 2 .
Operatorul U : V → W se zice inversabil dacă este injectiv. În acest caz,
operatorul U −1 : U (V ) → V definit prin U −1 ( y ) = x ⇔ U ( x ) = y se numeşte
inversul operatorului U .
Dacă U ∈ L(V ,W ) este inversabil, atunci inversul său este un operator liniar.
Într-adevăr, deoarece U ∈ L(V ,W ) este inversabil, el este injectiv; pentru
y1 , y 2 ∈ U (V ) există x1 , x2 ∈ V astfel încât U ( x1 ) = y1 , U ( x2 ) = y 2 . Atunci:

U −1 (α y1 + β y 2 ) = U −1 (α U ( x1 ) + β U ( x2 )) = U −1 (U (α x1 + β x2 )) =
= α x1 + β x 2 = α U −1 ( y1 ) + β U −1 ( y 2 ) ,
de unde rezultă liniaritatea operatorului U −1 .

2.2. NUCLEU ŞI IMAGINE

Fie V şi W două spaţii liniare peste corpul K.

2.1. Definiţie. Se numeşte nucleul operatorului liniar U : V → W mulţimea

KerU = { x ∈V U ( x ) = 0W }.

Se numeşte imaginea operatorului U : V → W mulţimea

ImU = {U ( x ) x ∈V }.

2.2. Propoziţie. Fie U ∈ L (V ,W ) . Atunci:


i) KerU este un subspaţiu liniar în V;
2.7. EXERCIŢII 65

ii) ImU este un subspaţiu liniar în W.

Demonstraţie. i) Fie x, y ∈ KerU , α , β ∈ K . Atunci:

U (α x + β y ) = α U ( x ) + β U ( y ) = 0W ,

deci α x + β y ∈ KerU .
ii) Deoarece ImU = U (V ) , afirmaţia rezultă din propoziţia 1.4, ii).

2.3. Propoziţie. Dacă U ∈ L (V ,W ) atunci următoarele afirmaţii sunt echiva-


lente:
i) U este injectiv;
ii) KerU = { 0V }.

Demonstraţie. i ) ⇒ ii ) . Fie U ∈ L (V ,W ) injectiv şi x ∈ KerU ; atunci


U ( x ) = 0W . Deoarece U este liniar avem U (0V ) = 0W iar din injectivitatea
operatorului U rezultă x = 0W deci KerU = { 0V }.
ii ) ⇒ i ) . Dacă U ( x ) = U ( y ) , cum U ∈ L (V ,W ) rezultă U ( x − y ) = 0W ; din
KerU = { 0V } avem x − y = 0V , de unde rezultă x = y şi injectivitatea
operatorului U este demonstrată.

2.4. Definiţie. Dimensiunea nucleului operatorului U ∈ L (V ,W ) se numeşte


defectul lui U. Dimensiunea imaginii operatorului U se numeşte rangul lui U.

2.5. Teoremă. Fie U ∈ L (Vn ,W ) . Atunci:

dim ImU + dim KerU = n .

Demonstraţie. Fie dim KerU = p ≤ n . Dacă p = 0 atunci KerU = 0 V { } şi


n

aplicaţia T : Vn → U (Vn ) , T ( x ) = U ( x ) , (∀) x ∈Vn este inversabilă deci este un


izomorfism de spaţii liniare, de unde rezultă că dim ImU = dim Vn = n .
Fie p ≥ 1 şi E = {e1 , e2 ,L, e p } o bază în KerU , pe care o completăm până la o
n
bază în V. Fie y ∈ ImU . Atunci există x = ∑ xi ei ∈Vn astfel încât:
i =1

⎛ n ⎞ p n n
y = U ( x ) = U ⎜ ∑ xi ei ⎟ = ∑ xi U (ei ) + ∑ xi U (ei ) = ∑ xi U (ei ) .
⎝ i =1 ⎠ i =1 i = p +1 i = p +1
66 2. OPERATORI LINIARI

De aici rezultă că Im U = L (U (e p +1 ) ,U (e p + 2 ) ,L,U (en )) .


Să arătăm că vectorii U (e p +1 ) ,U (e p + 2 ) ,L,U (en ) sunt liniar independenţi în
ImU . Din combinaţia liniară nulă α p +1U (e p +1 ) + α p + 2U (e p + 2 ) + L + α nU (en ) = 0W
rezultă U (α p +1e p +1 + α p + 2 e p + 2 + L + α n en ) = 0W , deci:

α p +1e p +1 + α p + 2 e p + 2 + L + α n en ∈ KerU .

În aceste condiţii există scalarii α i , i = 1, p astfel încât:

α p +1e p +1 + α p + 2 e p + 2 + L + α n en = α 1e1 + α 2 e2 + L + α p e p .

Cum vectorii ei , i = 1, n sunt liniar independenţi avem α i = 0 , i = 1, n , fapt ce


implică liniar independenţa vectorilor U (e p +1 ) ,U (e p + 2 ) ,L,U (en ) . Deoarece aceşti
vectori generează subspaţiul ImU rezultă că ei formează o bază în ImU deci
dim ImU = n − p şi teorema este demonstrată.

2.6. Teoremă. Fie U ∈ L (Vn ,W ) . Atunci următoarele afirmaţii sunt echivalente:


i) U este injectiv;
ii) dacă vectorii e1 , e2 ,L, e p sunt liniar independenţi în Vn atunci şi vectorii
U (e1 ) , U (e2 ) ,L, U (e p ) sunt liniar independenţi în W;
iii) dim U (Vn ) = n ;
iv) dacă {e1 , e2 ,L, en } este bază în Vn atunci {U (e1 ) , U (e2 ) ,L, U (en ) } este
bază în W.

Demonstraţie. i ) ⇒ ii ) . Fie U ∈ L (Vn ,W ) injectiv şi e1 , e2 ,L, e p vectori liniar


independenţi în Vn . În aceste condiţii, combinaţia liniară nulă

α 1U (e1 ) + α 2U (e2 ) + L + α pU (e p ) = 0W ,

implică U (α 1e1 + α 2 e2 + L + α p e p ) = 0W şi cum U este injectiv avem:

α 1e1 + α 2 e2 + L + α p e p = 0V .

Deoarece vectorii e1 , e2 ,L, e p sunt liniar independenţi rezultă α 1 = L = α p = 0 ,


fapt ce implică liniar independenţa vectorilor U (e1 ) , U (e2 ) ,L, U (e p ).
ii ) ⇒ iii ) . Dacă B = { e1 , e2 ,L, en } este bază în Vn , atunci U (e1 ) , U (e2 ) ,L, U (en )
2.7. EXERCIŢII 67

sunt liniar independenţi, deci dim ImU ≥ n . Din teorema 2.5 avem dim ImU ≤ n
deci dim ImU = n .
n
iii ) ⇒ iv) . Fie y ∈ U (Vn ) ; atunci există vectorul x = ∑ xi ei ∈Vn astfel încât
i =1
n
y = U ( x ) = ∑ xi U (ei ) . De aici rezultă că U (Vn ) = L (U (e1 ) ,L, U (en )) şi cum
i =1

dim U (Vn ) = n rezultă că {U (e1 ) , U (e2 ) ,L, U (en ) } este bază în U (Vn ) .
iv ) ⇒ i ) . Dacă iv) este adevărată atunci dim U (Vn ) = dim ImU = n şi cu teorema
2.5 rezultă dim KerU = 0 , deci KerU = { 0V } şi U este injectiv.

2.7. Propoziţie. Fie U ∈ L (Vn ,W n ) . Atunci următoarele afirmaţii sunt


echivalente:
i) U este injectiv;
ii) U este surjectiv;
iii) U este bijectiv.

Demonstraţie. i ) ⇒ ii ) Dacă U ∈ L (Vn ,W n ) este injectiv atunci KerU = { 0V } şi


cu teorema 2.5 rezultă dim ImU = n deci ImU = W n şi U este surjectiv.
ii ) ⇒ i ) . Din surjectivitatea operatorului U rezultă ImU = W n şi dim ImU = n ;
teorema 2.5 ne dă dim KerU = 0 de unde rezultă U injectiv.
Afirmaţia iii) implică i) şi ii) în mod evident. În plus, dacă i) implică ii) atunci i)
implică iii) şi demonstraţia este încheiată.

2.3. OPERATORI LINIARI PE SPAŢII FINIT DIMENSIONALE

Fie Vn , W m două spaţii liniare peste corpul K , B = { e1 , e2 ,L, en } bază în Vn ,


B ′ = { f1 , f 2 ,L, f m } bază în W m şi U ∈ L (Vn ,W m ) .
Deoarece U (e j )∈W m , j = 1, n , aceşti vectori sunt combinaţii liniare ale
vectorilor bazei B ′ , adică:

U (e j ) = ∑ aij f i , j = 1, n .
m

i =1

n
Dacă x = ∑ x j e j ∈Vn atunci avem:
i =1
68 2. OPERATORI LINIARI

⎛ n ⎞ n
U ( x ) = U ⎜⎜ ∑ x j e j ⎟⎟ = ∑ x j U (e j ) = ∑ x j ⎜ ∑ aij f i ⎟ =
n
⎛ m ⎞
⎝ j =1 ⎠ j =1 j =1 ⎝ i =1 ⎠

m
⎛ n ⎞ m
= ∑ ⎜⎜ ∑ aij x j ⎟⎟ f i = ∑ y i f i ,
i =1 ⎝ j =1 ⎠ i =1

unde
n
y i = ∑ aij x j , i = 1, m .
j =1

Vom constata în cele ce urmează că formulele de mai sus caracterizează


operatorii liniari pe spaţii finit dimensionale.

3.1. Teoremă. Fie Vn , W m spaţii liniare peste corpul K, B = { e1 , e2 ,L, en } bază


în Vn , B ′ = { f1 , f 2 ,L, f m } bază în W m şi operatorul U : Vn → W m . Fie
n m
x = ∑ x j e j ∈Vn , y = U ( x ) = ∑ yi f i . Condiţia necesară şi suficientă ca U să fie
j =1 i =1

liniar este să existe scalarii aij ∈ K , i = 1, m , j = 1, n astfel încât:

n
y i = ∑ aij x j , i = 1, m .
j =1

Demonstraţie. Necesitatea. Fie U : Vn → W m liniar. Afirmaţia din teoremă a fost


demonstrată la începutul acestui paragraf.
n m
Suficienţa. Fie U : Vn → W m , x = ∑ x j e j ∈Vn , y = U ( x ) = ∑ yi f i , astfel încât:
j =1 i =1

n
y i = ∑ aij x j , i = 1, m .
j =1

X = ( x1 x2 L x n ) , Y = ( y1 y 2 L y m ) , A = (aij ) i =1,m ; j =i ,n atunci


t t
Dacă notăm
condiţia din enunţul teoremei se scrie matriceal sub forma:

Y = A ⋅ X ⇔ y = U (x ) .

Pentru x1 = ( x11 , x 21 ,L, x n1 ) , x2 = ( x12 , x 22 ,L, x n 2 ) ∈ Vn şi α 1 , α 2 ∈ K avem


2.7. EXERCIŢII 69

X 1 = ( x11 x 21 L x n1 ) , X 2 = ( x12 x22 L xn 2 ) şi:


t t

A(α 1 X 1 + α 2 X 2 ) = α 1 A ⋅ X 1 + α 2 A ⋅ X 2 .

De aici rezultă:

U (α 1 x1 + α 2 x2 ) = α 1 U ( x1 ) + α 2 U ( x 2 ) ,

deci operatorul U este liniar.

3.2. Definiţie. Matricea A = (aij ) i =1,m ; j =i ,n din teorema 3.1 se numeşte matricea
ataşată operatorului liniar U : Vn → W m în bazele B şi B ′ .

3.3. Observaţie. i) Matricea ataşată unui operator liniar U : Vn → W m depinde de


bazele din Vn şi W m .
ii) Matricea ataşată unui operator liniar U : Vn → W m conţine pe coloane
coordonatele imaginilor vectorilor bazei din B prin operatorul U.
iii) Rangul operatorului U : Vn → W m este egal cu rangul matricei ataşate lui în
două baze arbitrare B şi B ′ din Vn şi respectiv W m .
iv) Endomorfismul U : Vn → Vn este inversabil dacă şi numai dacă matricea
ataşată lui într-o bază oarecare este nesingulară. Într-adevăr, avem echivalenţele:
U inversabil ⇔ U injectiv ⇔ KerU = {0Vn } ⇔ dim KerU = 0 ⇔ dim ImU = n ⇔
⇔ rangA = n .
v) Dacă operatorilor U 1 ,U 2 ∈ L (Vn ,W m ) li se ataşează matricele A1 , A2 atunci
operatorului sumă i se ataşează matricea A1 + A2 iar operatorului λ U 1 , λ ∈ K i
se ataşează matricea λ A1 , afirmaţii ce se verifică cu uşurinţă.
vi) Operatorii U 1 ,U 2 ∈ L (Vn ,W m ) sunt egali dacă şi numai dacă matricele ataşate
lor în două baze arbitrare din B şi B ′ sunt egale.
vii) Operatorului identitate pe Vn , I ∈ L (Vn ) , I ( x ) = x , (∀) x ∈Vn i se ataşează
într-o bază oarecare din Vn matricea unitate din M n ( K ) .

3.4. Propoziţie. Fie Vn , W m spaţii liniare peste corpul K. Atunci spaţiile liniare
L (Vn ,W m ) şi M m ,n ( K ) sunt izomorfe.

Remarcă. Din izomorfismul acestor spaţii liniare rezultă că spaţiul L (Vn ,W m ) are
dimensiunea m ⋅ n .

Demonstraţie. Fie B = { e1 , e2 ,L, en }, B ′ = { f1 , f 2 ,L, f m } baze în Vn , respectiv


70 2. OPERATORI LINIARI

W m , U ∈ L (Vn ,W m ) şi A matricea ataşată operatorului U în bazele B şi B ′ . Fie


~ ~
operatorul U : L (Vn ,W m ) → M m ,n ( K ) , U (U ) = A . Să arătăm că acest operator este
un izomorfism de spaţii liniare. Să remarcăm pentru început că dacă operatorilor
U 1 ,U 2 ∈ L (Vn ,W m ) li se ataşează matricele A1 , A2 ∈ M m ,n ( K ) atunci operatorului
α 1U 1 + α 2U 2 , α 1 ,α 2 ∈ K , i se ataşează matricea α 1 A1 + α 2 A2 . În aceste condiţii
~ ~ ~ ~
U (α 1U 1 + α 2U 2 ) = α 1 A1 + α 2 A2 = α 1U (U 1 ) + α 2U (U 2 ) , deci operatorul U este
~ ~
liniar. El este şi injectiv, deoarece dacă U (U 1 ) = U (U 2 ) atunci matricele asociate
operatorilor U 1 ,U 2 ∈ L (Vn ,W m ) sunt egale deci U 1 = U 2 . Pentru a încheia
demonstraţia este suficient acum să aplicăm propoziţia 2.7.

3.5. Propoziţie. Dacă Vn , W m , W p sunt spaţii liniare peste corpul K şi


operatorilor U 1 ∈ L (Vn ,W m ) , U 2 ∈ L (W m ,W p ) li se asociază în bazele B ⊂ Vn ,
B ′ ⊂ W m , B ′′ ⊂ W p matricele A1 ∈ M m ,n ( K ) şi respectiv A2 ∈ M p ,m ( K ) atunci
operatorului U ∈ L (Vn ,W p ) , U = U 2 o U 1 i se ataşează matricea:

A = A2 A1 ∈ M p , n ( K ) .

Demonstraţie. Fie B = { e1 , e2 ,L, en }, B ′ = { f1 , f 2 ,L, f m }, B ′′ = { g1 , g 2 ,L, g p }


baze în Vn , W m şi respectiv W p . În aceste baze, operatorilor U 1 ∈ L (Vn ,W m ) ,
U 2 ∈ L (W m ,W p ) şi U ∈ L (Vn ,W p ) , U = U 2 o U 1 , li se ataşează matricele
A1 = (aij )i =1,m ; j =1,n ∈ M m ,n ( K ) , A2 = (bij )i =1, p ; j =1,m ∈ M p ,m ( K ) , A = (γ ij )i =1, p ; j =1,n ∈
∈ M p ,n ( K ) . Atunci, din modul cum am definit matricea ataşată unui operator

liniar rezultă U1 (e j ) = ∑ aij f i , U 2 ( f i ) = ∑ bki g k , U (e j ) = ∑ γ kj g k şi în plus:


m p p

i =1 k =1 k =1

U (e j ) = U 2 (U 1 (e j )) = U 2 ⎜ ∑ aij f i ⎟ = ∑ aijU 2 ( f i ) = ∑ aij ∑ bki g k =


⎛ m ⎞ m m p

⎝ i =1 ⎠ i =1 i =1 k =1

p
⎛ m ⎞ p m
= ∑ ⎜ ∑ bki aij ⎟ g k =∑ γ kj g k ⇒ ∑ bki aij = γ kj , (∀) k = 1, p , j = 1, n ,
k =1 ⎝ i =1 ⎠ k =1 i =1

adică A = A2 A1 .

3.6. Observaţie. i) Fie U ∈ L (Vn ) , U injectiv. Atunci operatorul U este inversabil


şi U o U −1 = U −1 o U = I , unde I ∈ L (Vn ) , I ( x ) = x , (∀) x ∈ Vn este operatorul
2.7. EXERCIŢII 71

identitate pe Vn . Dacă A şi B sunt matricele ataşate operatorilor U şi respectiv


U −1 într-o bază oarecare din Vn , atunci din propoziţia 3.5 rezultă că
A B = B A = I n deci B = A −1 .
ii) Fie GL(Vn ) mulţimea endomorfismelor inversabile pe Vn . Această mulţime
coincide cu mulţimea Aut(Vn ) . În raport cu operaţia de compunere a operatorilor
această mulţime formează o structură de grup, numită grupul liniar al spaţiului
liniar Vn . Acest grup este izomorf cu grupul multiplicativ al matricelor
nesingulare de ordinul n cu elemente din K.

3.7. Definiţie. Matricele A, B ∈ M n ( K ) se numesc matrice asemenea dacă există


o matrice nesingulară C ∈ M n ( K ) astfel încât B = C −1 AC .

Asemănarea matricelor este o relaţie de echivalenţă pe mulţimea M n ( K ) . Într-


adevăr, A∈ M n ( K ) este asemenea cu ea însăşi deoarece A = I n−1 A I n , deci relaţia
de asemănare a matricelor este reflexivă. Dacă matricea A este asemenea cu B
atunci există matricea nesingulară C astfel încât B = C −1 AC . De aici obţinem
A = C BC −1 şi dacă notăm C −1 = C1 avem A = C1−1 B C1 deci matricea B este
asemenea cu matricea A. De aici rezultă că relaţia de asemănare este simetrică.
Pentru a arăta că relaţia de asemănare este şi tranzitivă, fie matricele A1 , A2 , A3
astfel încât A1 este asemenea cu A2 şi A2 este asemenea cu A3 . Atunci există
matricele nesingulare C ,C1 astfel încât A2 = C −1 A1C , A3 = C1−1 A2 C1 . De aici
obţinem: A3 = C1−1 A2 C1 = C1−1 (C −1 A1C )C1 = (C1−1C −1 )A1 (C C1 ) = (C C1 ) A1 (C C1 ) ,
−1

fapt ce probează tranzitivitatea relaţiei de asemănare.


Dacă matricele A şi B sunt asemenea atunci ele au acelaşi determinant deoarece:
det B = det (C −1 A C ) = det C −1 ⋅ det A ⋅ det C = det A .

3.8. Teoremă. Matricele A, B ∈ M n ( K ) sunt ataşate aceluiaşi endomorfism


U ∈ End (Vn ) în bazele E şi E ′ din Vn dacă şi numai dacă

B = (C t ) A C t ,
−1

unde C ∈ M n ( K ) este matricea de trecere de la baza E la baza E ′ .

Demonstraţie. Fie E = { e1 , e2 ,L, en } , E ′ = { f1 , f 2 ,L, f n } baze în Vn şi


C = (cij )i , j =1,n ∈ M n ( K ) matricea de trecere de la baza E la baza E ′ .
Fie A = (aij )i , j =1,n , B = (bij )i , j =1,n , A, B ∈ M n ( K ) matricele ataşate operatorului
72 2. OPERATORI LINIARI

U ∈ End (Vn ) în bazele E şi E ′ din Vn . Avem:

U (e j ) = ∑ a kj ek , j = 1, n ,
n

k =1

n
U ( f i ) = ∑ b ji f j , i = 1, n ,
j =1

n
f i = ∑ cij e j .
j =1

Cu aceste relaţii obţinem

⎛ n ⎞ n ⎛ n ⎞
U ( f i ) = U ⎜⎜ ∑ cij e j ⎟⎟ = ∑ cijU (e j ) = ∑ cij ∑ a kj ek = ∑ ⎜⎜ ∑ cij a kj ⎟⎟ ek ,
n n n

⎝ j =1 ⎠ j =1 j =1 k =1 k =1 ⎝ j =1 ⎠
n n n n
⎛ n ⎞
U ( f i ) = ∑ b ji f j = ∑ b ji ∑ c jk ek = ∑ ⎜⎜ ∑ b ji c jk ⎟⎟ ek , i = 1, n .
k =1 j =1 k =1 k =1 ⎝ j =1 ⎠

iar din aceste egalităţi rezultă:

C t B = A C t ⇒ B = (C t ) A C t .
−1

Reciproc, fie A, B ∈ M n ( K ) astfel încât B = (C t ) A C t , det C ≠ 0 . Dacă


−1

n
E = { e1 , e2 ,L, en } este bază în Vn atunci vectorii f i = ∑ cij e j , i = 1, n formează o
j =1

bază E ′ în Vn . Fie operatorul U 1 ∈ L (Vn ) căruia în baza E ′ i se asociază


matricea B = (C t ) A C t (deci C t B = A C t ). În aceste condiţii avem:
−1

n n n n
⎛ n ⎞
U 1 ( f i ) = ∑ b ji f j = ∑ b ji ∑ c jk ek = ∑ ⎜⎜ ∑ b ji c jk ⎟⎟ ek , i = 1, n ,
j =1 j =1 k =1 k =1 ⎝ j =1 ⎠

⎛ n ⎞ n ⎛ n ⎞
U ( f i ) = U ⎜⎜ ∑ cij e j ⎟⎟ = ∑ cijU (e j ) = ∑ cij ∑ a kj ek = ∑ ⎜⎜ ∑ cij a kj ⎟⎟ ek , i = 1, n .
n n n

⎝ j =1 ⎠ j =1 j =1 k =1 k =1 ⎝ j =1 ⎠
n n
Condiţia C t B = A C t implică ∑b ji c jk = ∑ cij a kj , (∀ ) i , k = 1, n ; de aici şi din
j =1 j =1

egalităţile de mai sus obţinem U 1 ( f i ) = U ( f i ) , i = 1, n adică U 1 = U .


2.7. EXERCIŢII 73

3.9. Observaţie. Din cele de mai sus rezultă că fiecare clasă de echivalenţă dată
de relaţia de asemănare pe M n ( K ) corespunde unui endomorfism U ∈ L (Vn ) şi
conţine toate matricele ataşate operatorului U în bazele spaţiului liniar Vn .

3.10. Definiţie. Fie V un spaţiu liniar peste corpul K şi U ∈ End(V ) . Operatorul


liniar U se numeşte:
a) proiecţie dacă U o U = U (sau U 2 = U );
b) involuţie dacă U o U = I , unde I este operatorul identitate pe V;
c) structură complexă dacă U o U = − I ;
d) endomorfism nilpotent de indice p dacă U p = 0 L (V ) , p ∈ N , p ≥ 2 .

3.11. Propoziţie. Dacă U ∈ End(V ) este o proiecţie atunci:

V = KerU ⊕ ImU .

Demonstraţie. Fie x ∈V şi y = x − U ( x ) . Atunci:

U ( y ) = U ( x − U ( x )) = U ( x ) − U (U ( x )) = U ( x ) − U 2 ( x ) = U ( x ) − U ( x ) = 0V ,

deci y = x − U ( x ) ∈ KerU . Rezultă că vectorul x ∈ V poate fi pus sub forma:

x = y + U ( x ) ; y ∈ KerU , U ( x ) ∈ ImU ,

deci V = KerU + ImU .


Să arătă că suma precedentă este directă adică V = KerU ⊕ ImU . Pentru aceasta
este suficient să arătăm că avem: KerU ∩ ImU = { 0V }. Fie pentru aceasta
z ∈ KerU ∩ ImU . Din z ∈ ImU rezultă că există x ∈V astfel încât U ( x ) = z iar
din z ∈ KerU rezultă U ( z ) = 0V . Atunci avem 0V = U ( z ) = U (U ( x )) = U ( x ) = z şi
cum z ∈ KerU ∩ ImU rezultă KerU ∩ ImU = { 0V }.

2.4. NORMA UNUI OPERATOR LINIAR

Fie V ,W spaţii liniare normate peste corpul K şi U ∈ L (V,W ) .

4.1. Definiţie. Operatorul U ∈ L (V,W ) se numeşte continuu în x0 ∈ V dacă


pentru orice ε > 0 există δ (ε ) > 0 astfel încât U ( x ) − U ( x0 ) < ε , (∀) x ∈V cu
proprietatea x − x0 < δ (ε ) .
74 2. OPERATORI LINIARI

Operatorul U ∈ L (V,W ) se numeşte continuu pe V dacă este continuu în orice


x ∈V .

4.2. Observaţie. Se poate arăta că operatorul U ∈ L (V,W ) este continuu în


x0 ∈V dacă şi numai dacă pentru orice şir ( xn )n∈N ∗ de elemente din V convergent
către x0 ∈V , şirul (U ( xn ))n∈N ∗ converge către U ( x0 ) .

4.3. Propoziţie. Operatorul U ∈ L (V,W ) este continuu în x0 ∈V dacă şi numai


dacă el este continuu în 0V .

Remarcă. Din propoziţia 4.3 rezultă că U ∈ L (V,W ) este continuu pe V dacă şi


numai dacă este continuu în 0V

Demonstraţie. Fie U continuu în 0V şi ε > 0 dat. U fiind continuu în 0V rezultă


că există δ > 0 astfel încât pentru y < δ , y ∈V avem:

U ( y ) − U (0V ) = U ( y ) < ε .

Fie acum x0 , x ∈ V cu x0 fixat, astfel încât x − x0 < δ . Rezultă:

U ( x − x0 ) < ε ⇒ U ( x ) − U ( x0 ) < ε ,

adică U este continuu în x0 .


Reciproc, fie U continuu în x0 ∈V şi ε > 0 dat. Atunci există δ > 0 astfel încât
pentru x − x0 < δ avem U ( x ) − U ( x0 ) < ε . Fie y < δ , y ∈V şi x = y + x0 .
Rezultă y = x − x0 , x − x0 < δ şi

U ( y ) = U ( x − x0 ) = U ( x ) − U ( x0 ) < ε ,

deci U este continuu în 0V .

4.4. Definiţie. Operatorul U : V → W se numeşte mărginit dacă există M > 0


astfel încât U ( x ) < M x , (∀) x ∈ V .

4.5. Propoziţie. Operatorul U ∈ L (V,W ) este mărginit dacă şi numai dacă este
continuu.
2.7. EXERCIŢII 75

Demonstraţie. Necesitatea. Fie U ∈ L (V,W ) mărginit; există deci M > 0 astfel


ε
încât U ( x ) ≤ M x , (∀ ) x ∈ V . Fie ε > 0 şi δ (ε ) = . Atunci pentru orice
M
ε
x ∈V cu x < δ (ε ) avem U (x ) ≤ M x < M ⋅ = ε , fapt ce implică
M
continuitatea operatorului U în x = 0V .
Suficienţa. Fie U ∈ L (V,W ) continuu. Atunci pentru ε = 1 există δ > 0 astfel

δ
încât U (x ) ≤ 1, (∀) y ∈V cu y ≤ δ . Fie x ∈V , x ≠ 0V şi y = x.
2 x
δ ⎛ δ ⎞ δ
Deoarece y = avem 1 ≥ U ( y ) = U ⎜⎜ x ⎟⎟ = U ( x ) , de unde rezultă
2 ⎝2 x ⎠ 2 x
2 2
U (x ) ≤ x . Afirmaţia din propoziţie are deci loc cu M = . Pentru a
δ δ
încheia demonstraţia mai avem de constatat că pentru x = 0V inegalitatea din
teoremă este evidentă.

4.6. Propoziţie. Dacă U ∈ L (Vn ,W ) atunci U este continuu.

n
Demonstraţie. Fie B = { e1 , e2 ,L, en } bază în Vn şi x = ∑ xi ei ∈ Vn . Dacă pe Vn
i =1
1
⎛ n 2 ⎞ 2
considerăm norma euclidiană x = ⎜ ∑ xi ⎟ atunci xi ≤ x , i = 1, n şi
2
⎝ i =1 ⎠ 2

⎛ n ⎞ n n n
U ( x ) = U ⎜ ∑ xi ei ⎟ = ∑ xiU (ei ) ≤ ∑ xi U (ei ) ≤ x 2 ∑
⋅ U (ei ) .
⎝ i =1 ⎠ i =1 i =1 i =1

n
Pentru M = ∑ U (ei ) obţinem U ( x ) ≤ M x 2
; aplicăm acum rezultatul din
i =1

propoziţia 4.5 şi demonstraţia este încheiată.

Remarcă. Fie V un spaţiu liniar peste K şi ⋅ 1


, ⋅ 2
două norme pe V. Normele
⋅ 1
, ⋅ 2
se numesc echivalente dacă există α , β > 0 astfel încât

α x 1≤ x 2
≤ β x 1.
76 2. OPERATORI LINIARI

Se poate arăta că pe un spaţiu liniar finit dimensional orice două norme sunt
echivalente ([5], pag. 191). În particular, pe un spaţiu liniar finit dimensional
orice normă ⋅ : Vn → R este echivalentă cu norma euclidiană; există deci
α , β > 0 astfel încât:

α x ≤ x 2
≤β x .

Astfel demonstraţia propoziţiei 4.6 nu depinde de norma aleasă pe Vn .

4.7. Propoziţie. Dacă U ∈ L (V,W ) este continuu atunci expresia

U = sup U ( x )
x =1

este o normă pe L (V,W ) .

Demonstraţie. Deoarece U ∈ L (V,W ) este continuu, este mărginit, deci există


⎛ 1 ⎞
M > 0 astfel încât U ( x ) ≤ M x , (∀) x ∈ V . Atunci U ⎜⎜ x ⎟⎟ ≤ M < ∞ deci
⎝ x ⎠
aplicaţia U a U din enunţul propoziţiei este bine definită. Să arătăm că ea
verifică axiomele normei.

i) Din U ( x ) ≥ 0 , (∀) x ∈V rezultă U = sup U ( x ) ≥ 0 , (∀) U ∈ L (V ,W ) ;


x =1

U = 0 ⇔ sup U ( x ) = 0 ⇔ U ( x ) = 0 , (∀) x ∈V ⇔ U ( x ) = 0W , (∀) x ∈V , de


x =1

unde rezultă U = 0 L (V ,W ) .
ii) Fie U 1 ,U 2 ∈ L(V ,W ) operatori liniari continui. Atunci:

U 1 + U 2 = sup (U 1 + U 2 )( x ) = sup U 1 ( x ) + U 2 ( x ) ≤
x =1 x =1

≤ sup ( U 1 ( x ) + U 2 ( x ) ) ≤ sup U 1 ( x ) + sup U 2 ( x ) =


x =1 x =1 x =1

= U1 + U 2 .

iii) Fie λ ∈ K . Atunci:


2.7. EXERCIŢII 77

λ U = sup (λ U )( x ) = sup λ U ( x ) = λ sup U ( x ) = λ ⋅ U .


x =1 x =1 x =1

4.8. Observaţie. i) U se mai numeşte norma indusă pe spaţiul liniar L (V,W )


de normele din V şi W.
ii) Pentru orice x ∈ V avem: U ( x ) ≤ U ⋅ x . Într-adevăr, pentru x ≠ 0V
obţinem

⎛ 1 ⎞
U ( x ) = x ⋅ U ⎜⎜ x ⎟⎟ ≤ x ⋅ sup U ( y ) = x ⋅ U ,
⎝ x ⎠ y =1

iar pentru x = 0 V inegalitatea este evidentă.


iii) U este cel mai mic număr M ≥ 0 astfel încât U ( x ) ≤ M x , (∀) x ∈ V .
Într-adevăr, din U ( x ) ≤ M x , (∀ ) x ∈ V rezultă

⎛ x ⎞
U ⎜⎜ ⎟ ≤ M , (∀) x ∈ V , x ≠ 0 V ,
x ⎟
⎝ ⎠

de unde deducem U ≤ M .
iv) U = sup U ( x ) . Într-adevăr, din definiţia normei unui operator liniar avem
x ≤1

U ≤ sup U ( x ) .
x ≤1

Pe de altă parte, pentru x ∈V , x ≠ 0 V , x ≤ 1 obţinem:

⎛ 1 ⎞
U ( x ) = x ⋅ U ⎜⎜ x ⎟⎟ ≤ x ⋅ U ≤ U ,
⎝ x ⎠

deci sup U ( x ) ≤ U .
x ≤1

v) Fie U 1 ,U 2 ∈ L(V ) continui şi U = U 2 o U 1 . Atunci:

U ≤ U1 ⋅ U 2 .

Într-adevăr, avem: U ( x ) = U 1 (U 2 ( x )) ≤ U 1 ⋅ U 2 ( x ) ≤ U 1 ⋅ U 2 ⋅ x , deci


78 2. OPERATORI LINIARI

U este continuu şi U = sup U ( x ) ≤ sup U 1 ⋅ U 2 ⋅ x = U 1 ⋅ U 2 .


x =1 x =1

vi) Fie M (V ) spaţiul liniar al operatorilor liniari şi continui U : V → V . Operaţia


de compunere a operatorilor se mai numeşte înmulţirea (produsul) operatorilor.
Înmulţirea operatorilor este asociativă, are element neutru operatorul identitate pe
V dar nu este comutativă. Un spaţiu liniar pe care s-a definit operaţia produs cu
proprietăţile de mai sus se numeşte algebră. Dacă spaţiul liniar V este normat
atunci algebra se numeşte algebră normată. În algebra normată M (V ) putem
defini puterile unui operator astfel: U 0 = I , U 1 = U , U 2 = U o U , U 3 = U 2 o U ,
2
L, U n = U n −1 o U . Avem: U 2 = U o U ≤ U ⋅ U = U . Dacă presupunem
k k k +1
că Uk ≤ U , k ∈ N ∗ atunci U k +1 = U k o U ≤ U ⋅ U ≤ U . Prin
, (∀) n ∈ N ∗ .
n
inducţie după n rezultă că U n ≤ U

4.9. Norma operatorilor liniari pe spaţii finit dimensionale. Fie Vn , W m spaţii


liniare peste K, U ∈ L (Vn ,W m ) nenul şi A = (aij )i =1,m ; j =1,n ∈ M m ,n ( K ) matricea
asociată lui U în bazele B = { e1 , e2 ,L, en } şi B ′ = { f1 , f 2 ,L, f m } din Vn şi
respectiv W m .

n
a) Să considerăm pe Vn şi W m normele: x = ∑ xi ei ∈ Vn , x ∞
= max xi ;
i =1 i =1, n
m m n
y = ∑ yi f i ∈ W m , y ∞
= max y i . Atunci: U ( x ) = ∑ y i f i , y i = ∑ aij x j , i = 1, m
i =1 i =1, m i =1 j =1

şi:

n n
U ( x ) = max y i = max ∑a ij x j ≤ max ∑ aij x j ≤
i =1, m i =1, m j =1 i =1, m j =1
n n
≤ max x j ⋅ max ∑ aij = x ∞
⋅ max ∑ aij .
j =1, n i =1, m j =1 i =1, m j =1

n
De aici rezultă că U ≤ max ∑ aij = L .
i =1, m j =1
n n
1
Fie i0 astfel încât L = ∑ ai 0 j şi ~
x = ∑~
x je j , ~
xj = ai 0 j dacă ai 0 j ≠ 0 şi
j =1 j =1 ai 0 j
~
x j = 0 dacă ai 0 j = 0 . Atunci ~
x = 1 şi:

2.7. EXERCIŢII 79

n n n
U = sup U ( x ) ≥ U (~
x ) = max ∑ aij ~x j ≥ ∑ ai 0 j ~x j = ∑ ai 0 j = L ,
x =1 i =1, m j =1 j =1 j =1

de unde rezultă U ≥ L .
Din cele două inegalităţi obţinute rezultă că norma operatorului liniar
U ∈ L (Vn ,W m ) este:

n
U = max ∑ aij .
i =1, m j =1

n n m
b) Fie Vn şi W m normele: x = ∑ xi ei ∈Vn , x 1
= ∑ x j ; y = ∑ yi f i ∈ W m ,
i =1 j =1 i =1
m
y 1
= ∑ y i . Atunci:
i =1

m m n n m m n
U (x ) = ∑ yi = ∑ ∑ aij x j ≤ ∑ x j ⋅ ∑ aij ≤ max ∑ aij ⋅ ∑ x j =
i =1 i =1 j =1 j =1 i =1 j =1, n i =1 j =1
m
= x 1
⋅ max ∑ aij .
j =1, n i =1

De aici rezultă că:


m
U ≤ max ∑ aij = L .
j =1, n i =1

m n
Fie j0 astfel încât L = ∑ ai j0 şi vectorul ~
x = ∑~
x j e j astfel încât ~
x j = 0 pentru
i =1 j =1
m
x j 0 = 1 . Atunci ~
j ≠ j0 şi ~ x 1
= 1 , U (~
x ) = ∑ ai j 0 f i şi
i =1

m
U = sup U ( x ) ≥ U (~
x ) = ∑ ai j 0 = L ,
x =1 i =1

de unde rezultă U ≥ L .
Norma operatorului liniar U este în acest caz:
m
U = max ∑ ai j .
j =1, n i =1
80 2. OPERATORI LINIARI

Remarcă. Din cele două cazuri studiate mai sus deducem că norma unui operator
liniar pe spaţii finit dimensionale este dată de matricea ataşată operatorului liniar
considerat. Pornind de la aceste două exemple, se poate introduce norma unei
matrice după cum urmează.
Fie spaţiul liniar V = M m ,n ( K ) şi vectorul A = (aij )i =1,m ; j =1,n ∈ M m ,n ( K ) . Definim
norma acestui vector prin:
n
A = max ∑ aij ,
i =1, m j =1

sau
m
A = max ∑ ai j .
j =1, n i =1

Faptul că aceste expresii sunt norme pe V = M m ,n ( K ) rezultă cu uşurinţă din 4.7


şi 4.9. În plus, din 4.8, vi) rezultă că pentru A , B ∈ M m ,n ( K ) avem:

A⋅ B ≤ A ⋅ B .

O normă cu această proprietate se numeşte normă matriceală (vezi capitolul 3,


paragraful 6).

2.5. DUALUL UNUI SPAŢIU LINIAR

Fie V un spaţiu liniar peste corpul K.

5.1. Definiţie. Aplicaţia f : V → K se numeşte funcţională liniară dacă:


i) f ( x + y ) = f ( x ) + f ( y ) , (∀) x, y ∈ V ;

ii) f (α x ) = α f ( x ) , (∀) x ∈V , (∀) α ∈ K .

O funcţională liniară pe un spaţiu liniar finit dimensional se mai numeşte formă


liniară.

5.2. Observaţie. i) Deoarece corpul K poate fi organizat ca spaţiu liniar peste el


însuşi funcţionala liniară f : V → K este un operator liniar particular.
De aici rezultă că proprietăţile operatorilor liniari stabilite mai sus se regăsesc şi
2.7. EXERCIŢII 81

în cazul funcţionalelor liniare.


ii) Dacă f : V → K este o funcţională liniară nenulă atunci Im f ≠ { 0 K } şi cum
Im f este un subspaţiu liniar în K rezultă că dim Im f = 1 . Deoarece f este un
operator liniar particular avem dim Ker f + dim Im f = n , de unde rezultă că
dim Ker f = n − 1 .
iii) O funcţională liniară este continuă dacă şi numai dacă este mărginită.

5.3. Exemple. i) Fie V = C [a, b] şi aplicaţia f : C [a, b] → R , definită prin:


f ( x ) = ∫a x(t )dt , (∀) x ∈ C [a, b] . Deoarece f (α x + β y ) = ∫a [α x(t ) + β y (t )]dt =
b b

= α ∫a x(t )dt + β ∫a y (t ) dt = α f ( x ) + β f ( y ) , (∀) x, y ∈ C [a, b] , (∀) α , β ∈ R ,


b b

rezultă că aplicaţia f este o funcţională liniară.


n
ii) Fie α 1 , α 2 ,L, α n ∈ K . Aplicaţia f : K → K , f ( x ) = ∑ α i xi , (∀ ) x ∈ K n ,
n

i =1

x = ( x1 , x 2 ,L, x n ) este o formă liniară pe K . n

iii) Fie H un spaţiu Hilbert complex şi x0 ∈ H . Aplicaţia f : H → C definită


prin f ( x ) = < x, x0 > , (∀) x ∈ H este o funcţională liniară pe H.

5.4. Propoziţie. Fie Vn un spaţiu liniar peste K şi B = { e1 , e2 ,L, en } bază în Vn .


Aplicaţia f : Vn → K este funcţională liniară dacă şi numai dacă există scalarii
α i ∈ K , i = 1, n astfel încât:

n n
f ( x ) = ∑ α i xi , (∀) x = ∑ xi ei ∈Vn .
i =1 i =1

n
Demonstraţie. Necesitatea. Fie f : Vn → K liniară şi x = ∑ xi ei ∈Vn . Atunci:
i =1

⎛n
⎞ n n
f ( x ) = f ⎜ ∑ xi ei ⎟ = ∑ xi f (ei ) = ∑ α i xi , unde α i = f (ei ) , i = 1, n reprezintă
⎝ i =1 ⎠ i =1 i =1

valorile funcţionalei liniare pe vectorii bazei B.


n
Suficienţa. Fie A = (a1 a 2 L a n ) ∈ M 1,n ( K ) şi pentru x = ∑ xi ei ∈Vn fie matricea
i =1
n
X = ( x1 x2 L x n ) ∈ M n ,1 ( K ) . Expresia f ( x ) = ∑ α i xi se scrie matriceal sub
t

i =1
n
forma: f ( x ) = A ⋅ X . Pentru y = ∑ yi ei ∈Vn punem Y = ( y1 y 2 L y n ) şi α , β
t

i =1

arbitrari în K obţinem:
82 2. OPERATORI LINIARI

f (α x + β y ) = A ⋅ (α X + β Y ) = α A ⋅ X + β A ⋅ Y = α f ( x ) + β f ( y ) ,

deci aplicaţia f este funcţională liniară.

Mulţimea funcţionalelor liniare continue f : V → K formează un spaţiu liniar


peste corpul K. Acest spaţiu se numeşte dualul lui V şi se notează V ∗ .

5.5. Teoremă. Dacă Vn este un spaţiu liniar peste K şi Vn∗ este dualul său atunci:

dimVn∗ = dimVn = n .

n
Demonstraţie. Fie B = { e1 , e2 ,L, en } bază în Vn . Dacă x = ∑ xi ei ∈Vn ,
i =1

aplicaţiile f i :V n→ K , f i ( x ) = xi , i = 1, n sunt funcţionale liniare, fapt ce se


verifică cu uşurinţă. Să arătăm că aceste funcţionale sunt liniar independente în
Vn∗ . Fie combinaţia liniară α 1 f1 + α 2 f 2 + L + α n f n = 0 V ∗ , α i ∈ K , i = 1,n , care
n

implică α 1 f1 ( x ) + α 2 f 2 ( x ) + L + α n f n ( x ) = 0 , (∀) x ∈Vn . Pentru x = ei , i = 1, n


relaţia de mai sus ne dă α i = 0 , i = 1, n , fapt ce implică liniar independenţa
funcţionalelor f i , i = 1, n . Rămâne să arătăm că Vn∗ = L ( f1 , f 2 ,L, f n ) . Fie
n
f ∈ Vn∗ . Din propoziţia 5.4 rezultă că f este de forma f ( x ) = ∑ ai xi , ai ∈ K ,
i =1
n n
i = 1, n , x = ∑ xi ei ∈Vn . Deoarece xi = f i ( x ) , i = 1, n rezultă f ( x ) = ∑ ai f i ( x )
i =1 i =1
n
deci f = ∑ ai f i şi atunci Vn∗ = L ( f1 , f 2 ,L, f n ) . Rezultă că sistemul de vectori
i =1

{ f1 , f 2 ,L, f n } este bază în Vn∗ şi deci dimVn∗ = n .

5.6. Observaţie. Funcţionalele liniare f i :V n→ K , f i ( x ) = xi , i = 1, n au


proprietatea :

f i (e j ) = δ ij , i, j = 1, n .

5.7. Definiţie. Dacă B = { e1 , e2 ,L, en } este o bază în Vn atunci baza din Vn∗ ,
{ }
B ∗ = f1 , f 2 ,L, f n f i (e j ) = δ ij , i, j = 1, n se numeşte bază duală.
2.7. EXERCIŢII 83

5.8. Teorema lui Riesz. Dacă E n este un spaţiu euclidian de dimensiune n atunci
pentru orice funcţională liniară f : E n → K există un vector unic x0 ∈ E n astfel
încât f ( x ) = < x, x0 > , (∀) x ∈ E n şi f = x0 .

Demonstraţie. Dacă f = 0 E ∗ luăm x0 = 0 En şi f ( x ) =< x,0 En > = 0 , (∀) x ∈ E n .


n

Evident în acest caz avem f = 0 En = 0 .


Dacă f ≠ 0 E ∗ , atunci dim Ker f = n − 1 . Fie M unicul complement ortogonal al
n

lui Ker f . Cu teorema dimensiunii rezultă dim M = 1 . Fie z ∈ M , z ≠ 0 En ; dacă


f (x )
pentru x ∈ E n luăm y = x − z atunci avem :
f (z )
f (x )
f ( y ) = f (x ) − f (z ) = 0 ,
f (z )

deci y ∈ Ker f . De aici rezultă

f (x ) f (x ) 2
0 = < y, z > = < x − z , z > = < x, z > − z ,
f (z ) f (z )

adică

f (x ) 2
z = < x, z > ,
f (z )

de unde prin explicitarea lui f ( x ) obţinem:

f (z )
f ( x ) = < x, 2
z >.
z

f (z )
Luăm acum x0 = 2
z şi obţinem f ( x ) = < x, x0 > .
z
Pentru a demonstra unicitatea lui x0 fie x0′ ∈ E n astfel încât
f ( x ) = < x, x0′ > , (∀) x ∈ E n . Atunci avem < x, x0 − x0′ > = 0 , (∀) x ∈ E n . Pentru
2
x = x0 − x0′ obţinem x − x0 = 0 , adică x0 = x0′ .
Să demonstrăm acum ultima afirmaţie din teoremă. În baza inegalităţii Cauchy-
Buniakovski, constatăm pentru început că norma funcţionalei f verifică
84 2. OPERATORI LINIARI

inegalitatea:

f = sup f ( x ) = sup < x, x0 > ≤ sup x ⋅ x0 = x0 .


x =1 x =1 x =1

1
Fie acum y = ⋅ x0 ; deoarece y = 1 rezultă
x0

1
f ≥ f (y) = < x0 , x0 > = x0
x0

şi teorema este complet demonstrată.

2.6. OPERATORI LINIARI PE SPAŢII EUCLIDIENE

Fie E n un spaţiu euclidian complex şi U ∈ L (E n ) un operator liniar. Teorema lui


Riesz ne permite să asociem operatorului U un operator liniar U ∗ ∈ L (E n ) numit
adjunctul lui U.

6.1. Propoziţie. Dacă U ∈ L (E n ) atunci:

U = sup < U ( x ), y > .


x =1 ; y =1

Demonstraţie. Dacă U este operatorul nul, afirmaţia este evidentă. Fie


U ∈ L (E n ) nenul. Cu propoziţia 4.6 rezultă că U ∈ L (E n ) este continuu, deci
mărginit (propoziţia 4.5), iar din inegalitatea Cauchy-Buniakovski obţinem:

< U ( x ) , y > ≤ U ( x ) ⋅ y ≤ U ⋅ x ⋅ y , (∀) x, y ∈ E n .

De aici rezultă că există L = sup < U ( x ), y > şi L ≤ U . Fie acum x ∈ E n


x =1 ; y =1

1 1
astfel încât U ( x ) ≠ 0 En , x ′ = x şi y = U ( x ) . Atunci din inegalitatea
x U (x )

< U ( x ) , y > ≤ L , (∀) x, y ∈ E n , x = y = 1 ,

rezultă U ( x ) ≤ L x , deci U ≤ L , fapt ce încheie demonstraţia.

6.2. Propoziţie. Dacă U ∈ L (E n ) atunci există un unic operator U ∗ ∈ L (E n )


2.7. EXERCIŢII 85

astfel încât:

< U ( x ), y > = < x ,U ∗ ( y ) > , (∀) x, y ∈ E n .

Demonstraţie. Fie U ∈ L (E n ) şi y ∈ E n . Aplicaţia f : E n → C , definită prin


f ( x ) = < U ( x ), y > este evident o funcţională liniară pe E n şi din teorema lui
Riesz rezultǎ cǎ există şi este unic y ∗ ∈ E n astfel încât f ( x ) = < x , y ∗ > ,
(∀) x ∈ En . Este natural astfel să considerăm operatorul U ∗ : E n → E n ,
U ∗ ( y ) = y ∗ ; cu ajutorul expresiei analitice a funcţionalei f obţinem
< U ( x ) , y > = < x , U ∗ ( y ) > , (∀ ) x , y ∈ E n . Să arătăm că operatorul definit mai
sus este liniar. Dacă y1 , y 2 ∈ E n şi α 1 , α 2 ∈ K atunci:

< U ( x ) , α 1 y1 + α 2 y 2 > = α 1 < U ( x ) , y1 > +α 2 < U ( x ) , y 2 > =


= α 1 < x , U ∗ ( y1 ) > +α 2 < x , U ∗ ( y 2 ) > =
= < x , α 1U ∗ ( y1 ) + α 2U ∗ ( y 2 ) > ,

ceea ce implică U ∗ (α 1 y1 + α 2 y 2 ) = α 1U ∗ ( y1 ) + α 2U ∗ ( y 2 ) .
Pentru a demonstra unicitatea, fie operatorul U 1 ∈ L (E n ) astfel încât

< U ( x ) , y > = < x ,U 1 ( y ) > , (∀) x , y ∈ E n . Atunci, pentru orice x , y ∈ En avem


< x ,U ∗ ( y ) > = < x ,U 1∗ ( y ) > , de unde obţinem < x, (U ∗ − U 1∗ )( y ) > = 0 ,


(∀) x, y ∈ E n . Pentru x = (U ∗ − U 1∗ )( y ) egalitatea precedentǎ ne dǎ
(U ∗ − U 1∗ )( y ) = 0, (∀) y ∈ En , fapt ce implicǎ (U ∗ − U1∗ )( y ) , (∀) y ∈ E n , adicǎ
U 1∗ = U ∗ .

6.3. Definiţie. Dacă E n este un spaţiu euclidian şi U ∈ L (E n ) atunci operatorul


U ∗ ∈ L (E n ) cu proprietatea

< U ( x ), y > = < x ,U ∗ ( y ) > , (∀) x, y ∈ E n ,

se numeşte adjunctul operatorului U.

6.4. Observaţie. i) Propoziţia 6.2 precizează că adjunctul unui operator liniar pe


un spaţiu euclidian există şi este unic.
ii) Fie U ∈ L (E n ) şi U ∗ ∈ L (E n ) adjunctul său. Atunci:

U∗ = sup < x ,U ∗ ( y ) > = sup < U ( x ), y > ≤ U ,


x =1 ; y =1 x =1 ; y =1
86 2. OPERATORI LINIARI

U = sup < U (x ), y > = sup < x ,U ∗ ( y ) > ≤ U ∗ ,


x =1 ; y =1 x =1 ; y =1

de unde rezultă U = U ∗ .

ii) Dacă într-o bază ortonormată din E n operatorului U ∈ L (E n ) i se ataşează


matricea A = (aij )i , j =1,n ∈ M n ( K ) atunci operatorului adjunct i se ataşează în
aceeaşi bază matricea adjunctă a matricei A: A∗ = a ji ( ) i , j =1, n
= At .
Într-adevăr, fie în spaţiu euclidian E n baza ortonormată B = { e1 , e2 ,L, en } şi
U ∈ L (E n ) . Dacă acestui operator i se ataşează în baza considerată matricea

A = (aij )i , j =1,n ∈ M n ( K ) atunci pentru x = ∑ xi ei , y = ∑ y i ei ∈ E n avem:


n n

i =1 i =1

n
⎛ n ⎞ n n n
⎛ n ⎞
< U ( x ) , y > = < ∑ ⎜⎜ ∑ aij x j ⎟⎟ ei , ∑ y k ek > = ∑∑ ⎜⎜ ∑ aij x j ⎟⎟ y k < ei , ek > =
i =1 ⎝ j =1 ⎠ k =1 i =1 k =1 ⎝ j =1 ⎠

n n
⎛ n ⎞ n n
= ∑ ∑ ⎜⎜ ∑ aij x j ⎟⎟ y k δ ik =∑ ∑ aij x j y i =
i =1 k =1 ⎝ j =1 ⎠ i =1 j =1

n
⎛ n ⎞ n
⎛ n ⎞ n
= ∑ ⎜ ∑ aij yi ⎟ x j = < ∑ ⎜ ∑ aij y i ⎟ e j , ∑ x k ek > =
j =1 ⎝ i =1 ⎠ j =1 ⎝ i =1 ⎠ k =1
n n
⎛ n ⎞
= < ∑ x k ek , ∑ ⎜ ∑ aij yi ⎟ e j > .
k =1 j =1 ⎝ i =1 ⎠

Fie operatorul liniar U ∗ ∈ L (E n ) definit astfel:

⎛ n ⎞ n n n n
⎛ n ⎞
U ∗ ( y ) = U ∗ ⎜ ∑ yi ei ⎟ = ∑ y iU ∗ (ei ) = ∑ yi ∑ aij e j = ∑ ⎜ ∑ aij yi ⎟ e j .
⎝ i =1 ⎠ i =1 i =1 j =1 j =1 ⎝ i =1 ⎠

Atunci avem: < U ( x ), y > = < x ,U ∗ ( y ) > , (∀) x, y ∈ E n .


iii) Dacă E n este un spaţiu euclidian real şi A este matricea ataşată operatorului
U ∈ L (E n ) atunci operatorului adjunct i se ataşează matricea A t .

6.5. Propoziţie. Dacă E n este un spaţiu euclidian real sau complex atunci:
i) (U 1 + U 2 ) = U 1∗ + U 2∗ , (∀) U 1, 2 ∈ L (E n ) ;

ii) (U 1 o U 2 ) = U 2∗ o U 1∗ , (∀) U 1, 2 ∈ L (E n ) ;

2.7. EXERCIŢII 87

iii) (U ∗ ) = U , (∀) U ∈ L (E n ) ;

iv) (α U ) = α U ∗ , (∀) U ∈ L (E n ) , (∀) α ∈ K .


Demonstraţie. i) < (U 1 + U 2 )( x ) , y > = < U 1 ( x ) , y > + < U 2 ( x ) , y > =

= < x , U 1∗ ( y ) > + < x , U 2∗ ( y ) > = < x , (U 1∗ + U 2∗ ) ( y ) > = < x , (U 1 + U 2 ) ( y ) > ,


pentru orice x, y ∈ E n .
ii) < (U 1 o U 2 )( x ) , y > = < U 1 (U 2 ( x ) ) , y > = < U 2 ( x ) , U 1∗ ( y ) > =
= < x , U 2∗ (U 1∗ ( y )) > = < x , (U 2∗ o U 1∗ )( y ) > = < x , (U 1 o U 2 )( y ) > , (∀) x, y ∈ E n .
iii) < U ( x ) , y > = < x , U ∗ ( y ) > = < U ∗ ( y ) , x > = < y , (U ∗ ) ( x ) > =

= < (U ∗ ) ( x ) , y > , (∀) x, y ∈ E n .


iv) < (α U )( x ) , y > = α < U ( x ) , y > = α < x , U ∗ ( y ) > = < x , α U ∗ ( y ) > =


= < x , (α U ) ( y ) > , (∀) x, y ∈ E n .

6.6 Definiţie. Matricea A∈ M n (C ) se numeşte hermitică dacă A = A∗ .

6.7. Definiţie. Operatorul U ∈ End (E n ) se numeşte autoadjunct dacă U = U ∗ .


Dacă E n este un spaţiu euclidian complex atunci un operator autoadjunct se mai
numeşte hermitic. Dacă E n este un spaţiu euclidian real atunci un operator
autoadjunct se mai numeşte simetric.

6.8. Observaţie. U ∈ End (E n ) este autoadjunct dacă şi numai dacă:

< U ( x ) , y > = < x , U ( y ) > , (∀) x, y ∈ E n .

6.9. Propoziţie. Operatorul U ∈ End (E n ) este hermitic dacă şi numai dacă


< x , U ( x ) > ∈ R , (∀) x ∈ E n .

Demonstraţie. Necesitatea. Dacă U = U ∗ atunci:


< x,U ( x ) > = < U ( x ) , x > = < x,U ( x ) > , deci < x , U ( x ) > ∈ R , (∀) x ∈ E n .
Suficienţa. Fie < x , U ( x ) > ∈ R , (∀) x ∈ E n . Atunci
< x , U ( x ) > = < x , U ( x ) > = < U ( x ) , x > = < x , U ∗ ( x ) > , de unde rezultă că:
< x , (U − U ∗ )( x ) > = 0 , (∀) x ∈ E n . Fie x = y + α z , y , z ∈ E n , α ∈ C . Atunci
egalitatea precedentă ne conduce la condiţia < z , (U − U ∗ )( y ) > = 0 , (∀) y, z ∈ E n
şi pentru z = (U − U ∗ )( y ) rezultă (U − U ∗ )( y ) = 0 , (∀) y ∈ E n , deci U = U ∗ .
88 2. OPERATORI LINIARI

6.10. Propoziţie. U ∈ End (E n ) este hermitic dacă şi numai dacă matricea ataşată
lui într-o bază ortonormată în E n este hermitică.

Demonstraţie. Pentru a demonstra propoziţia este suficient să constatăm că doi


operatori din End (E n ) sunt egali dacă şi numai dacă matricele ataşate lor în
aceeaşi bază sunt egale.

6.11. Definiţie. Operatorul U ∈ End (E n ) se numeşte unitar dacă

< U ( x ) , U ( y ) > = < x , y > , (∀) x , y ∈ E n .

Remarcă. Un operator unitar păstrează produsul scalar în E n .

6.12. Propoziţie. Operatorul U ∈ End (E n ) este unitar dacă şi numai dacă

U ( x ) = x , (∀) x ∈ E n .

Demonstraţie. Necesitatea. Dacă U ∈ End (E n ) este unitar atunci el păstrează


produsul scalar, deci < U ( x ) , U ( y ) > = < x , y > , (∀) x , y ∈ E n . Pentru y = x
condiţia precedentă devine: U ( x ) , deci U ( x ) = x , (∀) x ∈ E n .
2 2
= x
Suficienţa. Fie U ( x ) = x , (∀) x ∈ E n . Identitatea de polarizare ( propoziţia
8.13, capitolul 1) aplicată vectorilor U ( x ) şi U ( y ) , x , y ∈ E n , ne dă:

< U (x ) , U ( y ) > =
1
4
[U (x ) + U ( y ) − U (x ) − U ( y ) + i U (x ) + i U ( y ) −
2 2 2

]
− i U (x ) − i U ( y ) =
2

=
1
4
[U (x + y ) − U (x − y ) + i U (x + i y ) − i U (x − i y )
2 2 2 2
]=
=
1
4
[ 2 2 2
x+ y − x− y +i x+i y −i x−i y = < x , y >.
2
]
6.13. Observaţie. i) Orice operator unitar este injectiv. Într-adevăr, dacă
U ∈ End (E n ) unitar atunci U ( x ) = 0 E implică 0 = U ( x ) = x , deci x = 0 En şi
KerU = {0 En }.
n

ii) Un endomorfism unitar U ∈ End (E n ) este un izomorfism. Într-adevăr, dacă


U ∈ End (E n ) este unitar, el este injectiv şi cum acţionează pe un spaţiu de
dimensiune finită, este un izomorfism.
2.7. EXERCIŢII 89

iii) Dacă U ∈ End (E n ) este unitar atunci el este inversabil şi U −1 este unitar. Într-
adevăr, dacă U este unitar el este injectiv deci inversabil. Atunci:

U −1 ( y ) = x = U ( x ) = y , (∀) y ∈ E n .

iv) Dacă U ∈ End (E n ) este unitar atunci U U ∗ = U ∗U = I , unde I este operatorul


identitate pe E n . Într-adevăr, dacă U este unitar, el este inversabil şi pentru
x, y ∈ E n avem: < x , y > = < U ( x ) , U ( y ) > = < x , U ∗ (U ( y ) ) , (∀) x , y ∈ E n , de
unde rezultă U ∗U = I . Înmulţim acum la stânga cu U, la dreapta cu U −1 în
ultima egalitate şi obţinem U U ∗ = I .
v) Din relaţiile precedente rezultă că dacă U ∈ End (E n ) este unitar atunci
U −1 = U ∗ .

6.14. Propoziţie. Fie E n un spaţiu euclidian complex. Operatorul U ∈ End (E n )


este unitar dacă şi numai dacă matricea ataşată lui într-o bază ortonormată este
unitară.

Demonstraţie. Necesitatea. Fie U ∈ End (E n ) unitar, B = { e1 , e2 ,L, en } bază


ortonormată în E n şi A = (aij )i , j =1,n matricea ataşată lui U în această bază. Atunci

pentru U (e j ) = ∑ aij ei şi U (el ) = ∑ a kl ek avem:


n n

i =1 i =1

< e j , el > = < U (e j ) , U (el ) > = < ∑ aij ei , ∑ a kl ek > = ∑∑ aij a kl < ei , ek > =
n n n n

i =1 k =1 i =1 k =1
n n n
= ∑∑ aij a kl δ ik =∑ aij ail = δ jl ,
i =1 k =1 i =1

adică A A∗ = I n = A∗ A .
Suficienţa. Fie A unitară. Din calculul efectuat mai sus avem:
< U (e j ) , U (el ) > = ∑ aij ail = δ jl .
n

i =1

Atunci:

< U ( x ) , U ( y ) > = < ∑ x jU (e j ) , ∑ y lU (el ) > = ∑∑ x j y l δ jl =


n n n n

j =1 l =1 j =1 l =1
n n
= ∑∑ x j yl < e j , el > = < x , y > , (∀) x , y ∈ E n .
j =1 l =1
90 2. OPERATORI LINIARI

6.15. Observaţie. i) Dacă E n este un spaţiu euclidian real atunci un operator


U ∈ End (E n ) cu proprietatea < U ( x ) , U ( y ) > = < x , y > (∀) x , y ∈ E n se nu-
meşte operator ortogonal. Operatorul U ∈ End (E n ) este ortogonal dacă şi numai
dacă matricea ataşată lui într-o bază ortonormată este ortogonală (adică
A At = At A = I n ).
ii) O matrice A ortogonală cu det A = 1 se numeşte matrice de rotaţie în R n .
iii) Mulţimea matricelor ortogonale este un subgrup al grupului GL(R n ) numit
grupul ortogonal pe R n , care se notează O(R n ) . Mulţimea matricelor de rotaţie
este un subgrup al lui O(R n ) numit grupul special ortogonal pe R n , care se
notează SO (R n ) .

6.16. Definiţie. Fie E n un spaţiu euclidian şi a ∈ E n fixat. Aplicaţia:

Ta : E n → E n , Ta ( x ) = x + a , (∀) x ∈ E n ,

se numeşte translaţie de vector a.

6.17. Propoziţie. Fie E n un spaţiu euclidian. Atunci:


i) Ta o Tb = Tb o Ta = Ta +b , (∀) a , b ∈ E n ;
ii) T0 = I ;
iii) (∀) a ∈ E n , Ta este un operator inversabil şi (Ta ) = T− a ;
−1

iv) Translaţia Ta : E n → E n , a ∈ E n , nu este operator liniar;


v) Orice translaţie păstrează distanţa euclidiană, adică Ta ( x ) − Ta ( y ) = x − y ,
(∀) x , y ∈ En ;
vi) Mulţimea translaţiilor unui spaţiu euclidian formează un grup comutativ
izomorf cu grupul aditiv (E n ,+ ) , numit grupul translaţiilor şi notat Tr (E n ) .

Demonstraţia acestei propoziţii este imediată şi o lăsăm cititorului drept


exerciţiu.

6.18. Definiţie. Dacă E n este un spaţiu euclidian real, o funcţie surjectivă care
păstrează distanţa euclidiană se numeşte izometrie.

6.19. Observaţie. i) Orice izometrie este injectivă, deci bijectivă.


ii) Transformările ortogonale sunt izomerii.
iii) Compunerea a două izometrii este o izometrie. Mulţimea izometriilor unui
spaţiu euclidian E n formează un grup notat Iz (E n ) .
2.7. EXERCIŢII 91

6.20. Teoremă. O izometrie R : E n → E n cu proprietatea R (0 En ) = 0 En este un


operator ortogonal.

Demonstraţie. Fie R : E n → E n o izometrie. Atunci:


x = x − 0 En = R ( x ) − R (0 En ) = R( x ) − 0 En = R( x ) , (∀) x ∈ E n , de unde
rezultă că izometria R păstrează norma. Atunci pentru orice x, y ∈ E n avem:
R ( x ) − R ( y ) = x − y , sau R ( x ) + 2 < R( x ) , R( y ) > + R( y )
2 2
=
2 2
= x + 2 < x , y > + y . Cum R păstrează norma, din egalitatea de mai sus
obţinem < R( x ) , R( y ) > = < x , y > , deci R păstrează produsul scalar.
Să arătăm acum că R este un operator liniar. Fie pentru aceasta x, y, z ∈ E n şi
α , β ∈ K ; din condiţia < R( x ) , R( y ) > = < x , y > , obţinem:

< R(α x + β y ) , R( z ) > = < α x + β y , z > = α < x , z > + β < y , z > =

= α < R( x ) , R(z ) > + β < R( y ) , R( z ) > = < α R(x ) + β R( y ) , R( z ) > .

De aici rezultă că < R(α x + β y ) − α R( x ) − β R( y ) , R( z ) > = 0 , pentru orice


x y, z ∈ E n . Deoarece R este o funcţie surjectivă, putem lua în egalitatea de mai
sus R( z ) = R(α x + β y ) − α R( x ) − β R( y ) ; în aceste condiţii, pentru x, y ∈ E n şi
α , β ∈ K arbitrari avem R (α x + β y ) − α R( x ) − β R ( y )
2
= 0 , deci:

R (α x + β y ) = α R ( x ) + β R( y ) , (∀) x, y ∈ E n , (∀) α , β ∈ K .

6.21. Propoziţie. Dacă R este o izometrie, atunci există o translaţie Ta , a ∈ E n şi


un operator ortogonal O astfel încât R = Ta o O .

Demonstraţie. Fie a = R (0 En ) şi translaţiile Ta , T− a . Funcţia T −1 o R este o


izometrie care păstrează pe 0 En ; cu teorema precedentă rezultă că O = T− a o R

este un operator ortogonal şi R = Ta o O .

6.22. Definiţie. Se numeşte simetria spaţiului euclidian real E n faţă de un


subspaţiu al său E ′ , aplicaţia T : E n → E n , definită prin:

T ( x ) = 2 x′ − x , (∀) x ∈ E n ,
92 2. OPERATORI LINIARI

unde x ′ este proiecţia lui x pe E ′ .

6.23. Teoremă. Simetria unui spaţiu euclidian real E n faţă de un subspaţiu al său
E ′ este o transformare ortogonală involutivă.

Demonstraţie. Din modul cum a fost definită rezultă că simetria este o


transformare liniară. Dacă x ∈ E n şi x ′ este proiecţia lui x pe E ′ atunci
x − x′ ⊥ E ′ şi: T ( x ) = 4 < x ′ , x′ − x > + x = x . Rezultă că T este o
2 2 2

transformare ortogonală. Fie y = T ( x ) = 2 x ′ − x = x′ + ( x ′ − x ) . Deoarece x − x′


este perpendicular pe E ′ rezultă că x ′ este proiecţia lui y = T ( x ) pe E ′ şi din
x = 2 x ′ − T ( x ) rezultă că x = T ( y ) , (∀) x ∈ E n . Atunci T −1 = T deci T este o
transformare ortogonală involutivă.

2.7. EXERCIŢII

7.1. Exerciţii rezolvate.

1) Să se verifice dacă următorii operatori sunt liniari şi în caz afirmativ să se


determine matricea ataşată operatorului liniar respectiv în baza canonică:
a) U : R 3 → R 3 , U ( x ) = ( x2 + x3 , x3 + x1 , x1 + x 2 ) , x = ( x1 , x2 , x3 ) ∈ R 3 ;
b) U : R 3 → R 3 , U ( x ) = ( x 2 + x3 , x3 + x1 , x1 + x2 + 1) , x = ( x1 , x 2 , x3 ) ∈ R 3 ;
c) U : R 3 → R 3 , U ( x ) = (x22 , x3 , x1 ) , x = ( x1 , x 2 , x3 ) ∈ R 3 .

Rezolvare: a) Fie x = ( x1 , x2 , x3 ) , y = ( y1 , y 2 , y3 ) ∈ R 3 , α , β ∈ R . Atunci:


α x + β y = (α x1 + β y1 , α x2 + β y 2 , α x3 + β y3 ) şi U (α x + β y ) = (α x 2 + β y 2 +
+ α x3 + β y 3 , α x3 + β y3 + α x1 + β y1 , α x1 + β y1 + α x 2 + β y 2 ) =
= α ( x2 + x3 , x3 + x1 , x1 + x2 ) + β ( x 2 + x3 , x3 + x1 , x1 + x 2 ) = α U ( x ) + β U ( y ) , deci
operatorul U este liniar. Pentru a determina matricea ataşată acestui operator în
baza canonică determinăm imaginile vectorilor bazei canonice prin operatorul U:

U (e1 ) = ( 0 ,1,1 ) , U (e2 ) = ( 1, 0 ,1 ) , U (e3 ) = ( 1,1, 0 ) . Matricea ataşată acestui


operator este:

⎛0 1 1⎞
⎜ ⎟
A = ⎜1 0 1⎟ .
⎜1 1 0⎟
⎝ ⎠
2.7. EXERCIŢII 93

Observaţie. Dacă notăm y = U ( x ) atunci coordonatele vectorului y sunt:

y1 = x 2 + x3
y 2 = x1 + x3
y 3 = x1 + x2

relaţii care ne dau expresia analitică a operatorului U în baza canonică. Din


teorema 3.1 (suficienţa) rezultă liniaritatea operatorului U.

b) U ( x + y ) = ( x2 + y 2 + x3 + y3 , x3 + y 3 + x1 + y1 , x1 + y1 + x 2 + y 2 + 1) ,
U ( x ) + U ( y ) = ( x 2 + y 2 + x3 + y3 , x3 + y 3 + x1 + y1 , x1 + y1 + x 2 + y 2 + 2 )
deci U nu este liniar.

c) Operatorul nu este liniar deoarece:


U ( x + y ) = (x22 + y 22 + 2 x 2 y 2 , x3 + y 3 , x1 + y1 ) ,
U ( x ) + U ( y ) = (x 22 + y 22 , x3 + y3 , x1 + y1 ) .

2) Fie operatorul U : R 3 → R 3 , a cărui expresie analitică în baza canonică din R 3


este: U ( x ) = (− 2 x1 + x2 + x3 , x1 − 2 x2 + x3 , x1 + x 2 − 2 x3 ) .
a) Să se determine matricea B ataşată operatorului U în baza F = { f1 , f 2 , f 3 }
unde: f1 = ( 1,1,1 ) , f 2 = ( 1,1, 0) , f 3 = ( 1, 0 , 0 ) .
b) Să se determine nucleul şi imaginea operatorului U.

Rezolvare. a) Matricea ataşată operatorului U în baza canonică este:

⎛− 2 1 1⎞
⎜ ⎟
A=⎜ 1 −2 1⎟.
⎜ 1 1 − 2 ⎟⎠

Deoarece f1 = e1 + e2 + e3 , f 2 = e1 + e2 , f 3 = e1 matricea de trecere de la baza


canonică la baza F este:

⎛1 1 1 ⎞
⎜ ⎟
C = ⎜1 1 0 ⎟ .
⎜1 0 0 ⎟
⎝ ⎠

Matricea operatorului U în baza B se obţine acum prin aplicarea formulei de


transformare a matricei unui operator liniar la schimbarea bazei spaţiului:
94 2. OPERATORI LINIARI

⎛0 2 1⎞
⎜ ⎟
B = (C )
t −1
AC = ⎜ 0 − 3
t
0⎟ .
⎜0 0 − 3 ⎟⎠

b) pentru a determina nucleul operatorului U este necesar să determinăm


mulţimea soluţiilor sistemului U ( x ) = 0 R3 sau:

− 2 x1 + x 2 + x3 = 0
x1 − 2 x2 + x3 = 0
x1 + x 2 − 2 x3 = 0 .

Sistemul de mai sus este compatibil simplu nedeterminat ţi are soluţia generală:

KerU = {(α , α , α ) α ∈ R}.

Pentru a determina imaginea operatorului U este necesar să determinăm tripletele


( y1 , y 2 , y3 ) ∈ R 3 pentru care sistemul
− 2 x1 + x 2 + x3 = y1
x1 − 2 x 2 + x3 = y 2
x1 + x2 − 2 x3 = y3

este compatibil. Din condiţia ca determinantul caracteristic al acestui sistem să


fie egal cu zero obţinem:

ImU = {( y1 , y 2 , y3 ) y1 + y 2 + y3 = 0}.

3) Să se arate că există un unic operator liniar U : R 3 → R 3 astfel încât


U (vi ) = wi , i = 1, 3 unde: v1 = ( 2 , 3 , 5) , v2 = ( 0 ,1, 2 ) , v3 = ( 1, 0 , 0 ) , w1 = ( 1,1,1) ,
w2 = ( 1,1, − 1) , w3 = ( 2 ,1, 2 ) .

Rezolvare. Fie { e1 , e2 , e3 } baza canonică în R 3 . Deoarece operatorul U este liniar


condiţiile U (vi ) = wi , i = 1, 3 se scriu:

2U (e1 ) + 3U (e2 ) + 5U (e3 ) = e1 + e2 + e3


U (e2 ) + 2U (e3 ) = e1 + e2 − e3
U (e1 ) = 2 e1 + e2 + 2 e3 .
2.7. EXERCIŢII 95

Prin rezolvarea acestui sistem în raport cu necunoscutele U (e1 ) , U (e2 ) , U (e3 )


obţinem U (e1 ) = ( 2 ,1, 2) , U (e2 ) = ( − 11, − 7 , − 1) , U (e3 ) = ( 6 , 4 , 0 ) iar matricea
ataşată lui U este:

⎛ 2 − 11 6 ⎞
⎜ ⎟
A = ⎜ 1 − 7 4⎟ .
⎜ 2 −1 0⎟
⎝ ⎠

4) Fie operatorul liniar U : R 3 → R 3 definit astfel: x = ( x1 , x 2 , x3 ) ∈ R 3 ,

⎛2 2 1 2 1 2 1 2 2 ⎞
U ( x ) = ⎜ x1 + x2 − x3 , x1 − x 2 + x3 ,− x1 + x 2 + x3 ⎟ .
⎝3 3 3 3 3 3 3 3 3 ⎠

a) Să se arate că U este inversabil şi să se determine U −1 .


b) Să se arate că U este ortogonal.

Rezolvare. Fie y = U ( x ) , x = ( x1 , x 2 , x3 ) , y = ( y1 , y 2 , y 3 ) . Atunci operatorul U este


definit de ecuaţiile:

2 2 1
y1 = x1 + x2 − x3
3 3 3
2 1 2
y 2 = x1 − x2 + x3
3 3 3
1 2 2
y 3 = − x1 + x 2 + x3 .
3 3 3

Deoarece determinantul matricei acestui sistem este diferi de zero, sistemul are
soluţia unică

2 2 1
x1 = y1 + y 2 − y3
3 3 3
2 1 2
x 2 = y1 − y 2 + y3
3 3 3
1 2 2
x3 = − y1 + y 2 + y3 .
3 3 3

b) Pentru a arăta că U este ortogonal este suficient să arătăm că


A ⋅ A t = A t ⋅ A = I n sau A −1 = A t . Verificarea acestor egalităţi este imediată.
96 2. OPERATORI LINIARI

5) Să se determine adjunctul operatorului liniar U : C n → C n , U ( x ) = i ⋅ x .

Rezolvare. Căutăm U : C n → C n astfel încât < U ( x ), y > = < x,U ∗ ( y ) > , pentru
orice x, y ∈ C n . Avem < U ( x ) , y > = < i x , y > şi cum < i x , y > = i < x , y > =
= < x , i y > = < x , − i y > rezultă U ∗ ( y ) = −i y .

7.2. Exerciţii propuse.

1) Fie operatorii liniari U i : R 3 → R 3 , i = 1,5 definiţi astfel:

U 1 ( x ) = ( x1 , x1 + x 2 , x1 + x2 + x3 ) ,
U 2 ( x ) = ( x2 − x3 , x3 − x1 , x1 − x2 ) ,
U 3 = ( x ) = ( x1 + x 2 + x3 , x2 + x3 , x3 ) ,
U 1 ( x ) = ( x1 + x 2 + x3 ,− x1 − x 2 − x3 ,2 x1 + 2 x2 + 2 x3 ) ,
U 1 ( x ) = ( x 2 + x3 ,2 x1 + 2 x 2 ,− x 2 − x3 ) .

a) Să se determine matricele ataşate acestor operatori în baza F = { f1 , f 2 , f 3 }


unde f1 = ( 1,1,1 ) , f 2 = ( 0 ,1,1 ) , f 3 = ( 0 , 0 ,1 ) .
b) Să se determine nucleul, imaginea, defectul şi rangul acestor operatori.

2) Să se determine endomorfismul U ∈ End(P3 ( R )) astfel încât:


U (1 + t 2 ) = 2 − t + t 3 , U (t + t 2 ) = t 2 − t 3 , U (t 2 + t 3 ) = t + 2t 3 ,
U (1 + t + t 2 + t 3 ) = 4 − t 2 .
Să se determine matricea acestui endomorfism în baza canonică.

3) Fie operatorul U : M 2 ( R ) → M 2 ( R ) definit astfel:


⎛ 1 − 1⎞ ⎛ 0 − 1⎞
U ( X ) = ⎜⎜ ⎟⎟ ⋅ X − X ⋅ ⎜⎜ ⎟⎟ .
⎝ 2 0 ⎠ ⎝ 1 - 2 ⎠
Să se determine matricele ataşate acestui operator în baza canonică şi în baza
F = {F1 , F2 , F3 , F4 } unde:

⎛ 1 1⎞ ⎛1 1 ⎞ ⎛1 1⎞ ⎛1 0⎞
F1 = ⎜⎜ ⎟⎟ , F1 = ⎜⎜ ⎟⎟ , F1 = ⎜⎜ ⎟⎟ , F1 = ⎜⎜ ⎟⎟ .
⎝ 1 1 ⎠ ⎝ 1 0 ⎠ ⎝ 0 0 ⎠ ⎝ 0 0 ⎠

4) Fie în R 3 vectorii v1 = ( 3 , 2 , − 1) , v2 = ( 1, − 2 ,1) , v3 = ( 1, 0 , 2 ) . Să se arate că


există un unic operator liniar U : R 3 → R astfel încât U (v1 ) = −8 , U (v 2 ) = 0 ,
U (v3 ) = 6 .
2.7. EXERCIŢII 97

5) Să se determine matricele ataşate transformărilor liniare U : R 3 → R 3 în baza

F = { f1 = ( 1, 2 , 3 ) , f 2 = ( 2 ,1, 3 ) , f 3 = ( 1,1,1 ) } dacă matricele ataşate acestor


operatori în baza canonică sunt:

⎛ 3 2 0⎞
⎜ ⎟
a) A = ⎜ − 1 0 0 ⎟ ;
⎜ 0 0 0⎟
⎝ ⎠
⎛ −1 2 3⎞
⎜ ⎟
b) A = ⎜ − 2 2 − 6 ⎟ .
⎜ − 2 2 − 6⎟
⎝ ⎠

6) Să se arate că există un unic operator liniar U : R 3 → R 3 astfel încât


U (vi ) = wi , i = 1, 3 unde: v1 = ( 5 , 3 ,1) , v2 = ( 1,1, − 1) , v3 = ( 1, − 1, 0 ) ,
w1 = ( − 2 ,1, 0 ) , w2 = ( − 1, 3 , 0 ) , w3 = ( 1,1, 0 ) .

7) Să se arate că transformările liniare definite de matricele

⎛ 27 18 27 ⎞ ⎛1 0 0⎞
⎜ ⎟ ⎜ ⎟
A1 = ⎜ − 21 − 14 − 21 ⎟ , A2 = ⎜ 0 0 0 ⎟
⎜ − 12 − 8 − 12 ⎟ ⎜ 0 0 − 1⎟
⎝ ⎠ ⎝ ⎠

sunt proiecţii.

8) Să se arate că operatorii liniari definiţi de următoarele matrice sunt operatori


nilpotenţi de ordinul doi (cazul a) şi respectiv de ordinul trei cazurile b şi c):

⎛ 0 1 0⎞ ⎛ 0 − 2 0⎞
⎛0 1⎞ ⎜ ⎟ ⎜ ⎟
a) A = ⎜⎜ ⎟⎟ ; b) A = ⎜ 0 0 1 ⎟ ;c) A = ⎜ 0 0 3⎟ .
⎝ 0 0⎠ ⎜ 0 0 0⎟ ⎜0 0 0 ⎟⎠
⎝ ⎠ ⎝

9) Să se arate că endomorfismul U : R 3 → R 3 definit de matricea

⎛ − sin ϕ 0 cos ϕ ⎞
⎜ ⎟
A=⎜ 0 1 0 ⎟
⎜ cos ϕ 0 sin ϕ ⎟
⎝ ⎠

este ortogonal.
98 2. OPERATORI LINIARI

10) Să se arate că operatorii liniari U i : R 3 → R 3 , i = 1, 2 , U 3 : R 4 → R 4 sunt


ortogonali:
1
(
a) U 1 ( x ) = x1 + x2 − 2 x3 , x1 + x2 + 2 x3 , 2 x1 − 2 x 2 ,
2
)
⎛ 2 2 2 2 2 2 2 1 2 ⎞
b) U 2 ( x ) = ⎜⎜ x1 − x3 , x1 + x2 + x3 , x1 − x 2 + x3 ⎟⎟ ,
⎝ 2 2 6 3 6 3 3 3 ⎠
1
c) U 3 ( x ) = (x1 + x2 + x3 + x4 , x1 + x2 − x3 − x4 , x1 − x2 + x3 − x4 , x1 − x2 − x3 + x4 ) .
2

⎛1 + i i ⎞
11) Fie U : C 2 → C 2 endomorfismul definit prin matricea A = ⎜⎜ ⎟⎟ în
⎝ 1 3 − i ⎠
baza canonică a spaţiului C . Să se determine operatorii hermitici U i : C → C 2 ,
2 2

i = 1, 2 astfel încât să avem U = U 1 + iU 2 .

⎛ 4 3− i⎞
12) Să se arate că operatorul U : C 2 → C 2 definit de matricea A = ⎜⎜ ⎟
⎝3 + i 2 ⎟⎠
este un operator hermitic.
3. VECTORI ŞI VALORI PROPRII

Fie Vn un spaţiu liniar peste corpul K. Aşa cum am văzut, operatorul


U ∈ End( Vn ) este caracterizat prin matricea ataşată lui într-o bază oarecare din
Vn . Această matrice conţine pe coloane coordonatele imaginilor vectorilor bazei
prin operatorul U. Dacă B = { e1 , e2 ,L, en } este o bază în Vn cu proprietatea că
U (ei ) = λi ei , λi ∈ K , i = 1, n , atunci matricea ataşată lui U are forma diagonală.
Scopul principal al acestui capitol este stabilirea condiţiilor pe care trebuie să le
satisfacă endomorfismul U ∈ End (Vn ) astfel încât să existe o bază în Vn , faţă de
care matricea ataşată acestui endomorfism să aibă forma diagonală.

3.1. VECTORI ŞI VALORI PROPRII

Fie V un spaţiu liniar peste corpul K.

1.1. Definiţie. Subspaţiul liniar M ⊂ V se numeşte subspaţiu invariant pentru


endomorfismul U ∈ End (V ) dacă U (M ) ⊆ M .

1.2. Definiţie. Scalarul λ ∈ K se numeşte valoare proprie a endomorfismului


U ∈ End (V ) dacă există x ∈ V \ { 0V } astfel încât:

U (x ) = λ x .

Vectorul x ∈V \ { 0V } cu proprietatea de mai sus se numeşte vector propriu


corespunzător valorii proprii λ .
Mulţimea valorilor proprii ale endomorfismului U ∈ End (V ) se numeşte spectrul
endomorfismului U şi se notează σ (U ) .

1.3. Observaţie. i) Dacă x ∈V \ { 0V } este vector propriu al endomorfismului U


atunci vectorul α x , α ∈ K are aceeaşi proprietate.
ii) KerU \ { 0V } este format din vectorii proprii ai lui U corespunzători valorii
proprii λ = 0 .
100 3. VECTORI ŞI VALORI PROPRII

iii) Dacă λ ∈ K este valoare proprie a endomorfismului U ∈ End (V ) atunci


operatorul T = U − λ I nu este injectiv, deci nu este inversabil.

1.4. Propoziţie. Fie U ∈ End (V ) .


i) Dacă λ ∈ K este valoare proprie a lui U atunci mulţimea

M λ = { x ∈V U (x ) = λ x }

este un subspaţiu liniar al lui V, invariant pentru U;


ii) Dacă λ1 , λ2 ∈ K sunt valori proprii distincte ale lui U atunci:

M λ 1 ∩ M λ 2 = { 0V } ;

iii) Vectorii proprii ai lui U corespunzători la valori proprii distincte sunt liniar
independenţi.

Remarcă. Subspaţiul M λ conţine vectorii proprii ai operatorului U corespunză-


tori valorii proprii λ ∈ K şi vectorul 0V . Acest subspaţiu se numeşte subspaţiul
propriu corespunzător valorii proprii λ .

Demonstraţie. i) Fie x1 , x 2 ∈ M λ . Atunci U ( x1 ) = λ x1 , U ( x 2 ) = λ x 2 şi pentru


α 1 , α 2 ∈ K avem: U (α 1 x1 + α 2 x 2 ) = α 1U ( x1 ) + α 2U ( x2 ) = α 1λ x1 + α 2 λ x2 =
λ (α 1 x1 + α 2 x2 ) , ceea ce arată că M λ este un subspaţiu liniar al lui V. Fie
x ∈ M λ . Deoarece M λ este subspaţiu liniar în V rezultă că pentru orice x ∈ M λ
avem U ( x ) = λ x ∈ M λ , deci M λ este invariant pentru U.
ii) Fie λ1 ≠ λ2 valori proprii ale lui U şi x ∈ M λ 1 ∩ M λ 2 . Atunci U ( x ) = λ1 x ,
U ( x ) = λ2 x , de unde rezultă λ1 x = λ2 x sau (λ1 − λ2 ) x = 0V . Cum λ1 ≠ λ2 rezultă
x = 0V deci M λ 1 ∩ M λ 2 = { 0V } .
iii) Vom demonstra afirmaţia prin inducţie după numărul n al vectorilor proprii.
Pentru n = 1 fie x1 vector propriu corespunzător valorii proprii λ1 ; cum x1 ≠ 0V
rezultă că acest vector este liniar independent. Considerăm afirmaţia adevărată
pentru n = k şi să o demonstrăm pentru n = k + 1 . Fie xi , i = 1, k + 1 vectori
proprii corespunzători valorilor proprii λi , i = 1, k + 1 distincte două câte două şi
combinaţia liniară nulă

α 1 x1 + α 2 x2 + L + α k +1 xk +1 = 0V .
3.7. EXERCIŢII 101

Dacă aplicăm operatorul U acestei egalităţi obţinem:

α 1λ1 x1 + α 2 λ2 x2 + L + α k +1λk +1 xk +1 = 0V .

Înmulţim prima egalitate cu λk +1 şi o scădem din a doua; obţinem

α 1 (λ1 − λk +1 ) x1 + α 2 (λ2 − λk +1 ) x2 + L + α k (λk − λk +1 ) xk = 0V .

Cum λi ≠ λ j , i, j = 1, k , i ≠ j şi x j ≠ 0V j = 1, k rezultă α i = 0 , i = 1, k iar din


combinaţia liniară nulă iniţială rezultă α k +1 = 0 . Propoziţia este demonstrată.

3.2. POLINOMUL CARACTERISTIC AL UNUI ENDOMORFISM

Fie Vn un spaţiu liniar de dimensiune n peste corpul K, U ∈ End(Vn ) şi


A = (ai , j )i , j =1,n ∈ M n ( K ) matrice asociată lui U în baza B = { e1 , e2 ,L, en }. Fie
n
λ ∈ σ (U ) şi x = ∑ x j e j un vector propriu corespunzător acestei valori proprii.
j =1

Condiţia U ( x ) = λ x se scrie atunci sub forma:

n
⎛ n ⎞ n

∑ ⎜ ∑ ij j ⎟ i ∑ λ xi ei .

i =1 ⎝ j =1
a x ⎟ e =
⎠ i =1

De aici obţinem sistemul de ecuaţii liniare în necunoscutele xi , i = 1, n :

∑a
j =1
ij x j = λ xi , i = 1, n ,

sau

(a11 − λ ) x1 + a12 x2 + L + a1n xn = 0


a 21 x1 + (a 22 − λ ) x 2 + L + a 2 n xn = 0
LLLLLL LLLL LLLL
a n1 x1 + a n 2 x2 + L + (a nn − λ ) xn = 0 .

Pentru X = ( x1 x2 L x n ) ∈ M n ,1 ( K ) sistemul de mai sus capătă forma matricială:


t
102 3. VECTORI ŞI VALORI PROPRII

(A − λ I n ) X = 0 M n ,1 ( K ) .

2.1. Definiţie. Scalarul λ ∈ K se numeşte valoare proprie a matricei A∈ M n ( K )


dacă există X ∈ M n ,1 ( K ) ≠ 0 M n ,1 ( K ) astfel încât:

(A − λ I n ) X = 0 M n ,1 ( K ) .

Vectorul X cu proprietatea de mai sus se numeşte vector propriu al matricei A


corespunzător valorii proprii λ . Sistemul ( A − λ I n ) X = 0 M n ,1 ( K ) se numeşte
sistem caracteristic al matricei A.

2.2. Definiţie. Polinomul P (λ ) = det ( A − λ I n ) se numeşte polinom caracteristic


al matricei A iar ecuaţia P(λ ) ≡ det ( A − λ I n ) = 0 se numeşte ecuaţie
caracteristică a matricei A.

2.3. Observaţie. i) Sistemul caracteristic (A − λ I n ) X = 0 M n ,1 ( K ) are soluţii


nebanale dacă şi numai dacă det ( A − λ I n ) = 0 ; rezultă că λ ∈ K este valoare
proprie a matricei A dacă şi numai dacă este rădăcină a ecuaţiei caracteristice.
ii) Întrucât polinomul caracteristic

P(λ ) = (− 1) λ n + α n −1λ n−1 + L + α 1λ + α 0


n

are gradul n rezultă că ecuaţia caracteristică P (λ ) = 0 are n rădăcini reale sau (şi)
complexe, deci orice matrice A∈ M n (C ) are n valori proprii.
iii) Matricea A∈ M n ( R ) poate să nu aibă valori proprii. Privită însă ca matrice
din M n (C ) ea are cel puţin o valoare proprie (din C). În acest caz vectorii proprii
corespunzători valorii proprii λ ∈ C \ R aparţin complexificatului lui R n , pe care
l-am notat C R n .

2.4. Propoziţie. Două matrice asemenea au acelaşi polinom caracteristic.

Demonstraţie. Fie A , B ∈ M n ( K ) matrice asemenea; există deci C ∈ M n ( K )


nesingulară astfel încât B = C −1 A C şi:

det (B − λ I n ) = det (C −1 A C − λ C −1 I n C ) = det C −1 ( A − λ I n )C =


= det C −1 ⋅ det ( A − λ I n ) ⋅ det C = det ( A − λ I n ) .
3.7. EXERCIŢII 103

2.5. Observaţie. i) Dacă endomorfismul U ∈ End(Vn ) i se ataşează într-o bază


B = { e1 , e2 ,L, en } din Vn matricea A∈ M n ( K ) atunci matricele asemenea cu
matricea A au acelaşi polinom caracteristic conform propoziţiei 2.4. Cum
matricele ataşate lui U ∈ End(Vn ) în bazele din Vn sunt asemenea, rezultă că
polinomul P (λ ) = det ( A − λ I n ) depinde numai de U şi nu de reprezentarea
matriceală particulară a lui U într-o bază din Vn . De aceea polinomul P(λ ) se
numeşte polinom caracteristic al endomorfismului U.
ii) Valorile proprii ale endomorfismului U ∈ End(Vn ) sunt rădăcinile ecuaţiei
caracteristice det ( A − λ I n ) = 0 a matricei A ataşată lui U într-o bază oarecare din
Vn şi în baza celor de mai sus ele se ataşează în mod unic endomorfismului U.
Prin spectrul endomorfismului U ∈ End(Vn ) , notat σ (U ) , înţelegem spectrul
matricei ataşate lui U într-o bază oarecare din Vn .
iii) Vectorii proprii ai endomorfismului U ∈ End(Vn ) corespunzători valorii
proprii λ sunt soluţiile sistemului ( A − λ I n ) X = 0 M n ,1 ( K ) .
iv) Fie Vn un spaţiu liniar real, U ∈ End(Vn ) , CVn complexificatul lui Vn . Dacă A
este matricea ataşată lui U într-o bază din Vn , atunci această matrice, privită ca
matrice din M n (C ) defineşte un operator din End( CVn ) . Acest operator se
numeşte complexificatul endomorfismului U ∈ End(Vn ) şi se notează C
U.
Deoarece U şi CU au aceeaşi reprezentare matriceală, valorile proprii ale lui CU
sunt valorile proprii din C ale matricei reale asociate lui U.

3.3. FORMA DIAGONALĂ A UNUI ENDOMORFISM

Fie Vn un spaţiu liniar de dimensiune n peste corpul K.

3.1. Definiţie. Spunem că endomorfismul U ∈ End(Vn ) este diagonalizabil dacă


există o bază în Vn astfel încât matricea A ataşată lui U în această bază să fie o
matrice diagonală. Matricele asemenea matricei A se numesc matrice
diagonalizabile.

3.2. Propoziţie. Endomorfismul U ∈ End(Vn ) este diagonalizabil dacă şi numai


dacă există o bază în Vn formată cu vectori proprii ai endomorfismului U.

Demonstraţie. Dacă U ∈ End(Vn ) este diagonalizabil, atunci există o bază


B = { e1 , e2 ,L, en } în Vn astfel încât matricea ataşată lui U în această bază este o
matrice diagonală:
104 3. VECTORI ŞI VALORI PROPRII

⎛ a11 0 L0 ⎞
⎜ ⎟
⎜ 0 a 22 L 0 ⎟
A=⎜ .
L L L L⎟
⎜ ⎟
⎜ 0 0 L a nn ⎟⎠

Atunci din definiţia matricei ataşate unui operator liniar avem U (ei ) = aii ei ,
i = 1, n , deci vectorii ei , i = 1, n , sunt vectori proprii ai endomorfismului U,
asociaţi valorilor proprii aii , i = 1, n .
Reciproc, dacă B = { e1 , e2 ,L, en } este o bază în Vn formată din vectori proprii ai
lui U corespunzători valorilor proprii λi , i = 1, n , atunci U (ei ) = λi ei , i = 1, n ,
deci matricea ataşată lui U în baza B = { e1 , e2 ,L, en } este matricea diagonală:

⎛ λ1 0 L 0⎞
⎜ ⎟
⎜ 0 λ2 L 0⎟
A=⎜ .
L L L L⎟
⎜ ⎟
⎜0 0 L λn ⎟⎠

3.3. Definiţie. Fie λ ∈ σ (U ) o valoare proprie a endomorfismului U ∈ End(Vn ) .


Se numeşte multiplicitate algebrică a valorii proprii λ şi o notăm ma (λ ) , ordinul
de multiplicitate al valorii proprii λ ca rădăcină a ecuaţiei caracteristice a
endomorfismului U. Se numeşte multiplicitate geometrică a valorii proprii λ şi o
notăm m g (λ ) , dimensiunea subspaţiului propriu M λ corespunzător valorii
proprii λ .

3.4. Propoziţie. Dacă U ∈ End(Vn ) şi λ 0 ∈ σ (U ) atunci m g (λ 0 ) ≤ ma (λ 0 ).

Demonstraţie. Fie λ 0 ∈ σ (U ) valoare proprie multiplă de ordinul m (deci


ma (λ 0 ) = m ) a ecuaţiei caracteristice a endomorfismului U şi M λ 0 subspaţiul
propriu corespunzător acestei valori proprii.
Fie dim M λ 0 = m g (λ 0 ) = p ≤ n şi B = {e1 , e2 ,L, e p } bază în M λ 0 .
Dacă p = n atunci, în baza de mai sus, operatorului U i se ataşează matricea

⎛λ0 0 L ⎞
0
⎜ ⎟
⎜0 λ0 L 0

A=⎜ ⎟,
M M L M
⎜ ⎟
⎜0 0 L λ 0 ⎟⎠

3.7. EXERCIŢII 105

deci polinomul caracteristic al endomorfismului U este P(λ ) = (− 1) (λ − λ 0 ) .


n n

De aici rezultă că λ 0 este rădăcină multiplă de ordinul n a ecuaţiei caracteristice,


adică m a (λ 0 ) = n = p = m g (λ 0 ).
Dacă p < n , atunci completăm baza B = {e1 , e2 ,L, e p } până la o bază
B ′ = { e1 , e2 ,L, en } în Vn . Deoarece ei , i = 1, p sunt vectori proprii ai lui U
corespunzători valorii proprii λ 0 avem U (ei ) = λ 0 ei , i = 1, p . Pentru ceilalţi

vectori ai bazei B ′ putem scrie U (e j ) = ∑ aij ei , j = p + 1, n , deci matricea ataşată


n

i =1

lui U în baza B ′ este:

⎛λ0 0 L 0 a1, p +1 L a1n ⎞


⎜ ⎟
⎜ 0 λ 0 L 0 a 2 , p +1 L a 2 n ⎟
⎜L L L L L L ⎟
A= ⎜ ⎟.
⎜ 0 0 L λ 0 a p , p +1 L a pn ⎟
⎜L L L L L L L⎟⎟

⎜ 0 0 L 0 a n , p +1 L a nn ⎟⎠

Polinomul caracteristic are în acest caz forma:

P(λ ) = det ( A − λ I n ) = (− 1) (λ − λ 0 ) ⋅ Q(λ ) ,


p p

unde

a p +1, p +1 − λ a p +1, p + 2 L a p +1,n


a p + 2 , p +1 a p + 2, p + 2 − λ L a p + 2 ,n
Q(λ ) = .
M M L M
a n , p +1 an, p+2 L a n ,n − λ

Deoarece (λ − λ 0 ) divide P (λ ) rezultă ma (λ 0 ) ≥ p = m g (λ 0 ) şi propoziţia este


p

demonstrată.

3.5. Teoremă. Endomorfismul U ∈ End(Vn ) este diagonalizabil dacă şi numai


dacă polinomul său caracteristic are toate rădăcinile în corpul K şi

ma (λ ) = m g (λ ) , (∀) λ ∈ σ (U ) .
106 3. VECTORI ŞI VALORI PROPRII

Remarcă. Teorema de mai sus afirmă că U ∈ End(Vn ) este diagonalizabil dacă şi


numai dacă polinomul său caracteristic are toate rădăcinile în corpul K şi
dimensiunea fiecărui subspaţiu propriu este egală cu ordinul de multiplicitate al
valorii proprii corespunzătoare ca rădăcină a ecuaţiei caracteristice a
endomorfismului U.

Demonstraţie. Fie U ∈ End(Vn ) un endomorfism diagonalizabil. Atunci există o


bază B = { e1 , e2 ,L, en } în Vn , formată din vectori proprii ai lui U, faţă de care
matricea ataşată endomorfismului U este diagonală. Dacă această matrice are pe
diagonală elementele λ1 , λ2 ,L, λ p , p ≤ n , atunci polinomul caracteristic al
endomorfismului U este: P(λ ) = (− 1) (λ − λ1 )
n m1
(λ − λ2 ) m 2 L(λ − λ p ) m p , unde
mi , i = 1, p este egal cu numărul de apariţii al valorii λ i , i = 1, p pe diagonala
p
matricei ataşate lui U. Rezultă că ∑m
i =i
i = n şi λ i ∈ K , i = 1, p sunt valori proprii

ale lui U de multiplicităţi m i , i = 1, p . Fără a afecta generalitatea putem


presupune că primii m 1 vectori din bază corespund valorii proprii λ 1 , următorii
m 2 vectori corespund valorii proprii λ 2 şi aşa mai departe. Atunci vectorii e1 , e2 ,
L, e m 1 aparţin subspaţiului propriu M λ 1 deci numărul lor m 1 este cel mult egal
cu dimensiunea subspaţiului propriu M λ 1 , adică m 1 ≤ dim M λ 1 . Dar din
propoziţia 3.4 avem inegalitatea dim M λ 1 = m g (λ 1 ) ≤ ma (λ 1 ) = m 1 , deci
m 1 = dim M λ 1 . Analog se arată că m i = dim M λ i , i = 2, p .
Reciproc, fie λ 1 , λ 2 ,L, λ p valorile proprii distincte două câte două, cu ordinele
de multiplicitate m i , i = 1, p , ale lui U. Presupunem că σ (U ) ⊂ K şi
m i = dim M λ i , (∀) i = 1, p . Fie sistemul de vectori:

{ } p
B = e1 , e2 ,L, em 1 , em 1 +1 ,L, em 2 ,L, em p −1 +1 ,L, em p , ∑ mi = n ,
i =1

{ } { }
unde B1 = e1 , e2 ,L, em 1 este bază în M λ 1 şi Bi = em i −1 +1 , em i −1 + 2 ,L, em i , i = 2, p
sunt baze în M λ i , i = 2, p . Deoarece fiecare sistem de vectori Bi , i = 1, p este
liniar independent şi conţine vectorii proprii ai lui U corespunzători valorilor
proprii λi , i = 1, p , distincte două câte două, rezultă că B este bază în Vn . În
raport cu această bază matricea ataşată endomorfismului U este diagonală, fapt ce
se constată cu uşurinţă.
3.7. EXERCIŢII 107

3.6. Observaţie. i) Din propoziţia precedentă rezultă cu uşurinţă că U ∈ End(Vn )


este diagonalizabil dacă şi numai dacă

Vn = M λ 1 ⊕ M λ 2 ⊕ + L ⊕ M λ p .

{ } p
ii) Fie B = e1 , e2 ,L, em 1 , em 1 +1 ,L, em 2 ,L, em p −1 +1 ,L, em p , ∑ mi = n baza din
i =1

propoziţia precedentă şi matricea Q = col ( e1 , e2 ,L, en ) , matricea având pe


coloane coordonatele vectorilor proprii ai endomorfismului U ∈ End (Vn ) .
Atunci:

⎛ λ1 0 L 0 ⎞
⎜ ⎟
⎜ 0 λ2 L 0 ⎟
Q AQ = ⎜
−1
= D(λ ) ,
L L L L⎟
⎜ ⎟
⎜0 0 L λ p ⎟⎠

unde cu D(λ ) am notat matricea diagonală, în care pe diagonala sa apar valorile


proprii ale endomorfismului U. Fiecare valoare proprie λ j , j = 1, p , apare de m j
ori, j = 1, p , în ordinea în care au fost introduse coordonatele vectorilor proprii
drept coloane ale matricei Q.

3.7. Algoritm de diagonalizare. Dacă Vn este un spaţiu liniar de dimensiune n


peste corpul K şi U ∈ End(Vn ) atunci pentru diagonalizarea endomorfismului U
se procedează după cum urmează.
1) Se alege o bază B ′ = { f1 , f 2 ,L, f n } în Vn şi se determină matricea A∈ M n ( K )
ataşată lui U în această bază.
2) Se determină spectrul σ (U ) al endomorfismului U prin rezolvarea ecuaţiei
P (λ ) ≡ det ( A − λ I n ) = 0 . Dacă σ (U ) ⊄ K atunci endomorfismul U nu este
diagonalizabil şi algoritmul se opreşte.
3) Dacă σ (U ) ⊂ K şi valorile proprii λ j , j = 1, p ale lui U au ordinele de
p
multiplicitate m j , j = 1, p , ∑ m j = n , se determină rangul matricelor A − λ j I n ,
j =1

( )
j = 1, p . Dacă rang (A − λ j I n ) = n − m j , j = 1, p , adică m g (λ j ) = dim M λ j =
= m j = ma (λ j ) , j = 1, p , atunci cu teorema 3.5 rezultă că U este diagonalizabil.
Dacă există cel puţin o valoare proprie λ j 0 pentru care are loc inegalitatea
108 3. VECTORI ŞI VALORI PROPRII

( )
rang A − λ j 0 I n > n − m j 0

atunci U nu este diagonalizabil şi algoritmul se opreşte.


4) Pentru fiecare λ j ∈ σ (U ) , j = 1, p , se rezolvă sistemele omogene

(A − λ I ) X = 0
j n M n ,1 ( K ) , j = 1, p

şi se determină astfel subspaţiile proprii M λ j


, j = 1, p . O bază B j în subspaţiul
M λ j , j = 1, p se determină prin atribuirea valorii 1 câte unei necunoscute
secundare (din cele m j existente) şi valorii 0 pentru celelalte necunoscute
secundare.
5) Sistemul de vectori B = B1 ∪ B2 ∪ L ∪ B p formează o bază în Vn , alcătuită
din vectori proprii ai endomorfismului U.
6) Se construieşte matricea Q punând pe coloanele acesteia coordonatele
vectorilor proprii ai endomorfismului U. Atunci conform observaţiei 3.6 avem:

Q −1 A Q = D (λ ) .

Deoarece matricea unui endomorfism se modifică la schimbarea bazei după


formula B = (C t ) A C t , rezultă că matricea de trecere de la baza iniţială a lui Vn
−1

la baza B = B1 ∪ B2 ∪ L ∪ B p este C = Q t .

3. 7′ . Exemple. 1) Fie operatorul liniar U : R 3 → R 3 căruia în baza canonică din


R 3 i se ataşează matricea

⎛0 1 1⎞
⎜ ⎟
A = ⎜1 0 1⎟ .
⎜1 1 0⎟
⎝ ⎠

Să se verifice dacă U este diagonalizabil şi în caz afirmativ să se determine o


bază în R 3 faţă de care matricea ataşată lui U este o matrice diagonală.

Rezolvare. Determinăm mai întâi valorile proprii. Ecuaţia caracteristică este


λ 3 − 3λ − 2 = 0 şi are rădăcinile λ 1 = 2 , λ 2 = λ 3 = −1 . Cum prima valoare
proprie este simplă subspaţiul propriu corespunzător M λ 1 are dimensiunea unu
3.7. EXERCIŢII 109

şi astfel avem m a (2 ) = m g (2 ) . Pentru a determina acest subspaţiu trebuie să


rezolvăm sistemul ( A − λ1 I 3 ) X = 0 M 3,1 ( R ) , sistem care se scrie sub forma:

− 2x 1 + x 2 + x 3 = 0
x 1 − 2x 2 + x 3 = 0
x 1 + x 2 − 2 x 3 = 0.

Mulţimea soluţiilor acestui sistem este

M λ 1 = {(α , α , α ) α ∈ R }

iar o bază în acest subspaţiu este dată de vectorul propriu e1 = ( 1,1,1 ) .


Să determinăm acum dimensiunea subspaţiului propriu corespunzător valorii
proprii λ 2 = −1, a cărei multiplicitate algebrică este m a (− 1) = 2 . Vectorii proprii
corespunzători acestei valori proprii se detrermină prin rezolvarea sistemului
( A − λ2 I 3 ) X = 0 M 3,1 ( R ) . Acest sistem se reduce la ecuaţia:

x1 + x 2 + x3 = 0

Mulţimea soluţiilor acestei ecuaţii este:

M λ 2 = {(− α − β , α , β ) α , β ∈ R },

care formează un subspaţiu liniar de dimensiune doi al lui R 3 . O bază în acest


subspaţiu este dată de vectorii proprii e2 = (− 1,1, 0 ) , e3 = (− 1, 0 ,1 ) .
Deoarece endomorfismul U are toate valorile proprii în corpul R iar
multiplicitatea algebrică a fiecărei valori proprii este egală cu multiplicitatea sa
geometrică rezultă că endomorfismul U este diagonalizabil. O bază faţă de care
matricea ataştă lui U are forma diagonală este formată din vectorii proprii
e1 = ( 1,1,1 ) , e2 = (− 1,1, 0 ) , e3 = (− 1, 0 ,1 ) iar matricea ataşată lui U în această
bază este:

⎛ 2 0 0⎞
⎜ ⎟
⎜ 0 −1 0⎟ .
⎜0 0 − 1⎟⎠

110 3. VECTORI ŞI VALORI PROPRII

2) Fie operatorul liniar U : R 3 → R 3 căruia în baza canonică din R 3 i se


ataşează matricea

⎛ 1 −1 1⎞
⎜ ⎟
A = ⎜2 2 − 1⎟ .
⎜ 1 −1 2⎟
⎝ ⎠

Să se verifice dacă U este diagonalizabil.

Rezolvare. Valorile proprii ale endomorfismului U sunt: λ 1 = λ 2 = 2 , λ 3 = 1 .


Subspaţiul propriu corespunzător valorii proprii duble λ 1 = 2 este dat de
mulţimea soluţiilor sistemului

− x1 − x 2 + x3 = 0
2 x1 − x3 = 0
x1 − x2 = 0.

Prin rezolvarea acestui sistem obţinem

M λ 1 = {( α , α , 2 α α ∈ R ) },

subspaţiu care are dimensiunea egală cu unu; cum m a (2 ) = 2 > m g (2 ) = 1 rezultă


că endomorfismul U nu este diagonalizabil. În acest caz matricea ataşată
endomorfismului U poate fi adusă la forma canonică Jordan, după un algoritm pe
care îl vom obţine în cele ce urmează.

3.4. FORMA CANONICĂ JORDAN

În dezvoltările care urmează un rezultat foarte important este dat de următoarea


teoremă.

Teorema Cayley-Hamilton. Fie A∈ M n ( K ) şi

P(λ ) = det ( A − λ I n ) = (− 1) λ n + α n −1λ n −1 + L + α 1λ + α 0


n

polinomul său caracteristic. Atunci:

P ( A) = (− 1) A n + α n −1 A n −1 + L + α 1 A + I n = 0 M n ( K ) .
n
3.7. EXERCIŢII 111

Demonstraţie. Fie A∈ M n ( K ) , P(λ ) = det ( A − λ I n ) polinomul său caracteristic;


dacă ( A − λ I n ) este reciproca matricei A − λ I n (definiţia 1.19, anexă), atunci
+

( A − λ I n )( A − λ I n )+ = det ( A − λ I n ) I n = P(λ ) I n
şi ( A − λ I n ) este o matrice de polinoame de grad n − 1 . Rezultă că reciproca
+

matricei A − λ I n are forma

( A − λ I n )+ = Bn−1λ n−1 + Bn−2 λ n−1 + L + B1λ + B0 ,


unde Bi ∈ M n ( K ) , i = 0, n − 1 .
Introducând expresia lui P(λ ) şi valoarea matricei ( A − λ I n )+ în egalitatea
( A − λ I n )( A − λ I n )+ = P(λ ) I n şi grupând după puterile lui λ obţinem:

(− Bn−1 )λ n + ( A Bn−1 − Bn−2 )λ n−2 + L + ( A B1 − B0 )λ + A B0 =


= (α n I n )λ n + L + (α 1 I n )λ + α 0 I n .

Prin identificarea coeficienţilor puterilor lui λ deducem:

− Bn −1 = α n I n , A Bn −1 − Bn − 2 = α n −1 I n ,L, A B1 − B0 = α 1 I n , A B0 = α 0 I n .

Amplificăm aceste relaţii la stânga respectiv cu A n , A n −1 ,L, A, I n şi le adunăm;


obţinem astfel:

P( A) = α n A n + α n −1 A n −1 + L + α 1 A + α 0 I n = 0 M n ( K )

şi teorema este demonstrată.

Fie Vn un spaţiu liniar de dimensiune n peste corpul K şi U ∈ End(Vn ) .

4.1. Definiţie. Se numeşte celulă Jordan de ordinul n ataşată scalarului λ ∈ K şi


se notează J m (λ ) , matricea

⎛λ 0 0 L 0 0 ⎞
⎜ ⎟
⎜1 λ 0 L 0 0⎟
⎜0 1 λ L 0 0⎟
J m (λ ) = ⎜ ⎟ ∈ M m , m (K ) .
⎜M M M M M M⎟
⎜0 0 0 L λ 0⎟
⎜ ⎟
⎜0 0 0 L 1 λ⎟
⎝ ⎠
112 3. VECTORI ŞI VALORI PROPRII

Prin bloc Jordan se înţelege o matrice de forma

⎛ J 1 (λ ) 0 L 0 ⎞
⎜ ⎟
⎜ 0 J 2 (λ ) L 0 ⎟
B(λ ) = ⎜
M M M M ⎟
⎜ ⎟
⎜ 0 0 L J (λ ) ⎟
⎝ s ⎠

având pe diagonală celule Jordan cu acelaşi scalar λ .

Se numeşte matrice sub forma canonică Jordan o matrice bloc diagonală J care
are pe diagonală blocuri Jordan cu scalari eventual diferiţi.

4.2. Definiţie. Spunem că endomorfismul U ∈ End(Vn ) este adus la forma


canonică Jordan dacă există o bază în Vn faţă de care matricea ataşată lui U este
sub forma canonică Jordan.

4.3. Propoziţie. Fie U ∈ End(Vn ) . Atunci există două subspaţii M , W în Vn ,


invariante pentru U, astfel încât:
i) Vn = M ⊕ W ;
ii) restricţia lui U la subspaţiul M este un operator nilpotent;
iii) dacă W ≠ 0 V n restricţia lui U la subspaţiul W este inversabilă.

Demonstraţie. i) Fie U k puterea k, k ∈ N ∗ a endomorfismului U, N k = KerU k ,


Rk = ImU k . N k şi R k , k ∈ N ∗ sunt evident subspaţii liniare în Vn . Să arătăm că
aceste subspaţii sunt invariante pentru U şi că există s ∈ N ∗ astfel încât:

N1 ⊂ N 2 ⊂ L ⊂ N s = N s +1 = L ,
R 1 ⊃ R 2 ⊃ L ⊃ R s = R s +1 = L .

( )
Fie x ∈ N k , k ∈ N ∗ . Atunci U k ( x ) = 0V n şi U k +1 ( x ) = U (U k ( x )) = U 0V n = 0V n ,
deci N k ⊂ N k +1 . În plus, din U k ( x ) = 0V n rezultă U k −1 (U ( x )) = 0V n deci
U ( x ) ∈ N k −1 ⊂ N k , (∀) x ∈ N k . De aici rezultă că U ( N k ) ⊂ N k .
Fie acum y ∈ Rk , k ∈ N ∗ ; există deci x ∈Vn astfel încât U k ( x ) = y . Atunci:
U ( y ) = U (U k ( x )) = U k (U ( x )) ∈ R k , deci U (R k ) ⊂ R k . În plus, din U k ( x ) = y
avem y = U k ( x ) = U k −1 (U ( x )) ∈ R k −1 , deci R k ⊂ R k −1 .
3.7. EXERCIŢII 113

Deoarece N k , k ∈ N ∗ sunt subspaţii liniare într-un spaţiu liniar finit dimensional,


rezultă că există s∈ N∗ astfel încât N s = N s +1 . Să arătăm că
N s = N s + q , (∀) q ∈ N ∗ . Pentru aceasta fie x ∈ N s + q ; atunci U s + q ( x ) = 0V n sau
U s +1 (U q −1 ( x )) = 0V n . De aici şi din N s = N s +1 rezultă U s (U q −1 ( x )) = 0V n , deci
U s + q −1 ( x ) = 0V n . Continuând procedeul, obţinem în final U s ( x ) = 0V n , deci
x ∈ N s şi N s + q ⊂ N s . Cum N s ⊂ N s + q , (∀) q ∈ N ∗ rezultă N s = N s + q . Deoarece
dim N k + dim R k = n , (∀) k ∈ N ∗ , din N s = N s +1 obţinem dim R s = dim R s +1 şi
cum R s +1 ⊂ R s avem N s = N s +1 . În mod similar, din N s + q = N q , (∀) q ∈ N ∗
rezultă R s + q = R q , (∀) q ∈ N ∗ .
Fie acum M = N s , W = R s . M şi N sunt subspaţii liniare în Vn , invariante
pentru U. Să arătăm că Vn = M ⊕ W . Fie x ∈ M ∩ W . Din x ∈ M rezultă
U (x ) = 0 V n iar din x ∈ W rezultă că există y ∈Vn astfel încât x = U s ( y ) .
s

Atunci U 2 s ( y ) = U s ( x ) = 0 V n deci y ∈ N 2 s şi cum N s = N 2 s rezultă y ∈ N s . În


aceste condiţii avem U s ( y ) = 0 V n deci x = 0 V n şi M ∩ W = {0 V n }. Suma
M + W este directă şi cum dim M + dim W = n rezultă Vn = M ⊕ W .
ii) Fie U 1 : M → V n , U 1 ( x ) = U ( x ) , (∀) x ∈ M . Deoarece U s
(M ) = { 0V n } rezultă
U 1s ( x ) = U s ( x ) = 0 V n , (∀) x ∈ M deci U 1s este nilpotent de indice s.
iii) Fie U 2 : W → V n , U 2 ( x ) = U ( x ) , (∀) x ∈ W . Dacă x ∈ W există y ∈Vn astfel
încât x =U s
(y). Dacă U (x ) = 0 V n atunci 0 V n = U (x ) = U s +1
(y), deci
y ∈ N s +1 = N s , de unde rezultă U s
(y) = 0 V n şi x = 0 V n . Astfel avem
{ }
KerU 2 = 0 V n deci U 2 este inversabil.

4.4. Definiţie. Subspaţiul M din propoziţia 4.3 se numeşte nucleul stabil al lui U
şi îl notăm M (U ) iar subspaţiul W se numeşte imaginea stabilă a lui U şi îl
notăm W (U ) .

4.5. Observaţie. i) Dacă U : Vn → Vn este nilpotent, adică (∃) s ∈ N ∗ astfel încât


U s = 0 End (V n ) atunci M (U ) = Vn , W (U ) = {0Vn }.
ii) Dacă U : Vn → Vn este un automorfism atunci M (U ) = {0Vn }, W (U ) = Vn .

4.6. Propoziţie. Fie Vn spaţiu vectorial peste K, U ∈ End(Vn ) , v ∈Vn astfel încât
U k −1 (v ) ≠ 0V n şi U k (v ) = 0V n , k ∈ N ∗ , W = L(v ,U (v ),U 2 (v ),L,U k −1 (v )) . Atunci:
114 3. VECTORI ŞI VALORI PROPRII

i) B = {v ,U (v ),U 2 (v ),L,U k −1 (v )} este bază în W;


ii) W este invariant pentru U şi matricea restricţiei lui U la subspaţiul W, în baza
B este:

⎛0 0 L 0 0⎞
⎜ ⎟
⎜1 0 L 0 0⎟
⎜0 1 L 0 0 ⎟ ∈ M k (K ) .
⎜ ⎟
⎜M M L M M⎟
⎜0
⎝ 0 L 1 0 ⎟⎠

Demonstraţie. i) Fie combinaţia liniară nulă α 1v + α 2U (v ) + L + α kU k −1 (v ) = 0Vn .


Aplicăm acestei egalităţi endomorfismul U k −1 şi obţinem:

α 1U k −1 (v ) + α 2U k (v ) + L + α kU 2 k − 2 (v ) = 0Vn .

Deoarece U k (v ) = U k +1 (v ) = L = U 2 k − 2 (v ) = 0V n şi U k −1 (v ) ≠ 0V n rezultă α 1 = 0 .
Aplicăm egalităţii α 2U (v ) + α 3U 2 (v ) + L + α kU k −1 (v ) = 0Vn endomorfismul U k −2
şi obţinem: α 2U k −1 (v ) + α 3U k (v ) + L + α kU 2 k −3 (v ) = 0Vn . La fel ca în primul caz
rezultă α 2 = 0 . Repetând acest procedeu obţinem α 1 = α 2 = L = α n = 0 deci
sistemul B = {v ,U (v ),U 2 (v ),L,U k −1 (v )} este liniar independent. În plus B este şi
sistem de generatori pentru W deci este bază în W.
ii) Fie x ∈ W şi x = x1v + x 2U (v ) + L + x kU k −1 (v ) . Atunci:

U ( x ) = x1U (v ) + x 2U 2 (v ) + L + xkU k (v ) =
= x1U (v ) + x 2U 2 (v ) + L + x k −1U k −1 (v ) ,

adică W este un spaţiu invariant pentru U.


Dacă notăm e1 = v , e2 = U (v ) ,L, ek = U k −1 (v ) atunci U (e1 ) = e2 , U (e2 ) = e3 ,L ,
U (ek −1 ) = ek , U (ek ) = 0V n , deci restricţia lui U la W are ataşată în baza B matricea
din enunţul propoziţiei.

4.7. Definiţie. Subspaţiul W din propoziţia de mai sus se numeşte subspaţiu U-


ciclic.

4.8. Corolar. În condiţiile propoziţiei de mai sus fie λ ∈ K şi operatorul


3.7. EXERCIŢII 115

U 1 : Vn → Vn , U 1 = U + λ I V n .

Atunci W este invariant pentru U 1 şi matricea ataşată restricţiei lui U 1 la W în


baza B este:

⎛λ 0 0 L 0 0⎞
⎜ ⎟
⎜1 λ 0 L 0 0⎟
⎜0 1 λ L 0 0⎟
⎜ ⎟.
⎜M M M M M M⎟
⎜0 0 0 L λ 0⎟
⎜ ⎟
⎜0 0 0 L 1 λ⎟
⎝ ⎠

Demonstraţie. Dacă x ∈ W atunci U 1 ( x ) = U ( x ) + λ x ∈ W deoarece W este


invariant pentru restricţia lui U la W. Avem:

U 1 (e1 ) = λ e1 + e2 ,
U 1 (e2 ) = λ e2 + e3 ,
LLLLLLL
U 1 (ek −1 ) = λ ek −1 + ek ,
U 1 (ek ) = λ ek

şi demonstraţia este încheiată.

4.9. Observaţie. i) Fie U ∈ End(Vn ) , λ j ∈ σ (U ) o valoare proprie a lui U,


I Vn ∈ End (Vn ) operatorul identitate pe Vn şi T j : Vn → Vn , T j = U − λ j I Vn . Dacă
M λ j este subspaţiul propriu al lui U corespunzător valorii proprii λ j atunci
KerT j = M λ j . Fie M (T j ) nucleul stabil al lui T j şi T j restricţia lui T j la M (T j ).
~

Cu propoziţia 4.3 rezultă că T j este nilpotent şi M (T j ) este invariant pentru T j ,


~

deci şi pentru U, din modul cum a fost definit operatorul T j . Dacă I M (T j ) este
~ ~
operatorul identitate pe M λ j , atunci operatorul U j = T j + λ j I M (T j ) este restricţia
~
lui U la M λ j . Fie n j indicele de nilpotenţă al operatorului T j şi λ ∈ K o valoare
~ n ~n
proprie a lui T j . Se constată cu uşurinţă că λ j este o valoare proprie a lui T j j şi
~n
( )
cum T j j ( x ) = 0Vn , ( x ) ∈ M (T j ) rezultă λ = 0 , deci σ T j = { 0 } .
~
116 3. VECTORI ŞI VALORI PROPRII

( )
Fie acum λ ∈ σ U j ; atunci există x ∈ M (T j ) , x ≠ 0V n astfel încât U j ( x ) = λ x şi
~ ~
~ ~
( )
T j ( x ) = (λ − λ j ) x . Ultima egalitate implică λ − λ j ∈ σ T j şi cum σ T j = { 0 }
~
( )
~
obţinem λ = λ j . Deci singura valoare proprie a endomorfismului U j (dacă
aceasta există) este egală cu λ j .
ii) Fie U ∈ End(Vn ) , M (U ) şi W (U ) nucleul stabil şi respectiv imaginea stabilă
ale lui U. Cu propoziţia 4.3 avem Vn = M (U ) ⊕ W (U ) şi M (U ) , W (U ) sunt
subspaţii invariante pentru U. Dacă B ′ = {e1 , e2 ,L, e p }, B ′′ = {e p +1 , e p + 2 ,L, en }
sunt baze în M (U ) , respectiv W (U ) , atunci B = B ′ ∪ B ′′ este o bază în Vn în
raport cu care matricea ataşată lui U este o matrice bloc diagonală, adică este de
forma:

⎛ A1 0 ⎞
A = ⎜⎜ ⎟ , A ∈ M p (K ) , A 2 ∈ M n− p (K ) .
⎝0 A 2 ⎟⎠ 1

iii) Fie U ∈ End(Vn ) cu polinomul caracteristic:

(λ − λ2 ) m 2 L(λ − λ p ) m p , ∑ mi = n .
p
P(λ ) = (− 1) (λ − λ1 )
n m1

i =1

Dacă notăm Pi (λ ) = (λ − λi ) , Qi (λ ) = P(λ ) : Pi (λ ) , i = 1, p atunci polinomul


mi

caracteristic se scrie: P (λ ) = Pi (λ )Qi (λ ) , i = 1, p .


Deoarece polinoamele Qi , i = 1, p sunt prime între ele se poate arăta (vezi
Brînzănescu, V., Stănăşilă, O., Matematici speciale, Editura All, Bucureşti, 1998,
pag. 95) că există polinoamele H i ∈ K [λ ] , i = 1, p astfel încât
H 1 o Q1 + H 2 o Q2 o L o H p o Q p = I , unde I (λ ) = λ , (∀) λ ∈ K ; în plus avem
H i o Qi = Qi o H i , i = 1, p .
Dacă aplicăm acum teorema Cayley-Hamilton şi legătura cate există între
operatorii liniari şi matricele ataşate lor obţinem:
n
(
P(U ) = (− 1) U − λ 1 I V n ) o (U − λ I )
m1
2 Vn
m2
(
o L o U − λ p IV n ) mp
= 0 End (Vn ) ,

sau încă

Pi o Qi = Qi o Pi = 0 End (Vn ) , i = 1, p .
3.7. EXERCIŢII 117

4.10. Definiţie. Operatorul T j = U − λ j I Vn , λ j ∈ σ (U ) se numeşte endomorfism


asociat lui U şi valorii proprii λj de multiplicitate m j . Subspaţiul
= KerPi (U ) se numeşte subspaţiu asociat lui U.
λj mj
M = KerT j

Din definiţia de mai sus rezultă că dacă σ (U ) = {λ 1 , λ 2 ,L, λ p } atunci U are p


endomorfisme asociate şi p subspaţii proprii asociate.

4.11. Teoremă. Dacă U ∈ End(Vn ) , T j = U − λ j I Vn , λ j ∈ σ (U ) , M


λj m
= KerT j j ,
atunci:
λ
i) M λ j ⊂ M j , j = 1, p ;
ii) M λ j , j = 1, p sunt subspaţii invariante pentru U;
λ1 λ2 λp
iii) Vn = M ⊕M ⊕ LM .

Demonstraţie. i) M λ j = Ker (U − λ j I Vn ) = KerT j ⊂ KerT j


m j λj
=M ;
ii) Fie x ∈ M
λj
; atunci T j
m j
( x ) = 0V n m j +1
şi T j (x ) = 0V n m j
= Tj (T (x ))
j deci
T j (x ) ∈ M
λj λj λj
. Rezultă că M este invariant pentru T j ; în plus, dacă x ∈ M
atunci U ( x ) = T j ( x ) + λ j x ∈ M
λj λj
, deci M este invariant pentru U.

(λ − λ2 ) m 2 L(λ − λ p ) m p , ∑ mi = n ,
p
iii) Fie P(λ ) = (− 1) (λ − λ1 )
n m1
polinomul
i =1

caracteristic al endomorfismului U, Pi (λ ) = (λ − λi ) , Qi (λ ) = P (λ ) : Pi (λ ) ,
mi

i = 1, p . Cu observaţia 4.9 iii) rezultă că există polinoamele H i ∈ K [λ ] , i = 1, p


astfel încât H 1 o Q1 + H 2 o Q2 o L o H p o Q p = I , unde I (λ ) = λ , (∀) λ ∈ K şi
H i o Qi = Qi o H i , i = 1, p . Din cele de mai sus obţinem egalitatea de endomor-
fisme:

H 1 (U ) o Q1 (U ) + H 2 (U ) o Q2 (U ) + L + H p (U ) o Q p (U ) = I Vn .

Fie x ∈ Vn . Atunci din egalitatea de mai sus şi din H i (U ) o Qi (U ) = Qi (U ) o H i (U )


i = 1, p rezultă:

x = Q1 (U )(H 1 (U ( x ))) + Q2 (U )(H 2 (U ( x ))) + L + Q p (U )(H p (U ( x ))) .


118 3. VECTORI ŞI VALORI PROPRII

Dacă notăm xi ∈ Qi (U )(H i (U ( x ))) , i = 1, p , egalitatea de mai sus se scrie:


λi
x = x1 + x 2 + L + x p . Să arătăm că xi ∈ M , i = 1, p . Avem:

Pi (U )( xi ) = Pi (U ) (Qi (U )(H i (U ( x )))) = (Pi (U ) o Qi (U ))(H i (U ( x ))) = 0 V n ,

unde am folosit faptul că Pi o Qi = Qi o Pi = 0 End (Vn ) , i = 1, p .


λ1 λ2 λp
De aici rezultă că Vn ⊂ M +M +L+ M şi cum incluziunea inversă este
λ1 λ2 λ
evidentă avem Vn = M + M + L + M p . Pentru a arăta că suma de mai sus
este directă este suficient să arătăm că descompunerea x = x1 + x 2 + L + x p ,
λi
xi ∈ M , i = 1, p obţinută mai sus este unică. Presupunem pentru aceasta că
λi
x ∈Vn se descompune şi sub forma x = y1 + y 2 + L + y p , y i ∈ M , i = 1, p . Fie
λi
z i = xi − y i ∈ M , i = 1, p ; dacă z i = 0Vn , i = 1, p atunci suma este directă.
Presupunem prin absurd că z1 ≠ 0Vn şi fie z1 = − z 2 − z 3 − L − z p . Atunci:

Q1 (U )( z1 ) = −Q1 (U )( z 2 ) − Q1 (U )( z 3 ) − L − Q1 (U )(z p )

şi din modul cum a fost definit polinomul Q1 rezultă


n
(
Q1 (U )( z 2 ) = (− 1) (U − λ 3 I Vn )
m3
o L o (U − λ p I Vn )
mp
)(U − λ I
2 Vn ) (z ) =
m2
2

= 0Vn ,

= Ker (U − λ 2 I Vn )
λ2 m2
deoarece z 2 ∈ M .
Analog rezultă Q1 ( z 3 ) = L = Q1 (z p ) = 0V n , deci Q1 (U )( z1 ) = 0 Vn .În plus avem:

n
(
Qi (U )( z1 ) = (− 1) (U − λ 2 I Vn )
m2
o L o (U − λ p I Vn )
mp
)(U − λ I )
1 Vn
m1
(z1 ) =
= 0 V n , i = 2, p ,

deci Qi (U )( z1 ) = 0 Vn , i = 1, p . În aceste condiţii egalitatea

z1 = Q1 (U )(H 1 (U ( z1 ))) + Q2 (U )(H 2 (U ( z1 ))) + L + Q p (U )(H p (U ( z1 )))

implică

z1 = H 1 (U )(Q1 (U ( z1 ))) + H 2 (U )(Q2 (U ( z1 ))) + L + H p (U )(Q p (U ( z1 ))) = 0Vn .


3.7. EXERCIŢII 119

Contradicţia obţinută implică z i = 0 V n , i = 1, p deci xi = y i , i = 1, p şi suma


λ1 λ2 λp
M +M +L+ M este directă.

4.12. Teoremă. Cu notaţiile din teorema precedentă avem:


λ
i) dim M i = m i , i = 1, p ;
ii) dim M (U − λ i I Vn ) = m i , i = 1, p ;
iii) M (U − λ i I Vn ) = M
λi
, i = 1, p .

Demonstraţie. i) Fie P (λ ) = (− 1) (λ − λ 1 ) (λ − λ ) L (λ − λ p )
p

∑m
n m1 m2 mp
2 , i = n.
i =1
λ1 λ2 λp λi mj
Cu teorema 4.11 avem Vn = M ⊕M ⊕ LM , cu M = KerT j , j = 1, p

~
subspaţii invariante pentru U, T j : Vn → Vn , T j = U − λ j I V n . Restricţia T j a lui
λj
T j la M este un endomorfism nilpotent de indice m j şi cu observaţia 4.9 i)
~ λ
rezultă că restricţia U j a lui U la subspaţiul M j are cel mult valoarea proprie
λ j . Cu observaţia 4.9 ii) rezultă că există o bază în Vn în raport cu care matricea
ataşată lui U are forma bloc diagonală

A = diag(A1 , A 2 ,L, A p ) , A j ∈ M n j ( K ) , n j = dim M ( λj


) , j = 1, p .
~
Dacă notăm cu PU~ polinomul caracteristic al lui U j , j = 1, p atunci:
j

P(λ ) = PU~ (λ ) ⋅ PU~ (λ )L PU~ p (λ )


1 2

de unde rezultă că fiecare polinom PU~ se descompune în factori liniari peste K,


j

deci are valori proprii. Din observaţia 4.9 i) rezultă că σ U j = {λ j } , j = 1, p şi


~
( )
λ j are multiplicitatea n j , j = 1, p ; în aceste condiţii, polinomul caracteristic al
lui U are forma P(λ ) = (− 1) (λ − λ 1 ) (λ − λ ) L(λ − λ p )
n n1 n2 np
2 . De aici şi din
expresia iniţială a polinomului caracteristic rezultă n j = m j , j = 1, p .
ii) Din propoziţia 4.3 rezultă că subspaţiile M (U − λ j I Vn ) = M (T j ) , j = 1, p sunt
invariante pentru T j , j = 1, p . Aceeaşi afirmaţie este adevărată şi pentru
imaginile stabile W (T j ) , j = 1, p şi în plus Vn = M (T j ) ⊕ W (T j ) .
120 3. VECTORI ŞI VALORI PROPRII

Fie dim M (T j ) = n j , dim W (T j ) = n − n j , j = 1, p . Cu observaţia 4.9 ii) există


atunci o bază în Vn astfel încât matricea ataşată lui U în această bază are forma
bloc diagonală

⎛ A1 0 ⎞
A = ⎜⎜ ⎟ , A ∈ M n (K ) , A 2 ∈ M n−n (K ) .
⎝0 A 2 ⎟⎠ 1 j j

Matricele A1 , A 2 sunt asociate restricţiilor U j1 , U j2 la subspaţiile M (T j )


~ ~

respectiv W (T j ) , j = 1, p ; în aceste condiţii polinomul caracteristic al


endomorfismului U se scrie sub forma:

P (λ ) = PU~ (λ ) ⋅ PU~ (λ ) .
j1 j2

~ ~
De aici rezultă că U j1 , U j2 au valori proprii; în plus, ca la punctul i), rezultă că
~ ~
U j1 are doar valoarea proprie λ j . Să arătăm că λ j ∈ σ U j2 . Presupunem contrar ( )
şi fie x ∈ W (T j ) , x ≠ 0V n astfel încât U j 2 ( x ) = λ j x . Atunci: U − λ j I V n ( x ) =
~
( )
= U j 2 ( x ) − λ j x = 0V n , deci x ∈ KerT j ⊂ M (T j ) şi x ∈ W (T j ) ∩ KerT j = 0 V n ,
~
{ }
astfel încât x = 0 V n , contradicţie. De aici rezultă PU~ (λ ) ≠ 0 ,
j Q j (λ j ) = 0 şi
j2

deoarece polinomul caracteristic al endomorfismului U are forma

P (λ ) = Pj (λ )Q j (λ ) = (λ − λ j ) Q j (λ ) = (− 1) (λ − λ j ) j PU~ (λ ) ,
m j n n
2

rezultă că dim M (T j ) = n j = m j .
iii) Avem M
λj
= Ker T j ( ) ⊂ M (T ) şi cum
m j
j dim M
λj
= dim M (T j ) rezultă că
M (T j ) = M
λj
, j = 1, p .

4.13. Teoremă. Fie U ∈ End(Vn ) , λ j , j = 1, p valorile proprii ale lui U, de


p

∑m
λj m
multiplicităţi m j , j = 1, p , j = n , T j = U − λ j I Vn , M = KerT j j , j = 1, p
j =1
~ λj λj λj
şi U j : M →M , j = 1, p . Atunci pentru orice
, restricţiile lui U la M
λ ~
j = 1, p există o bază B j în M j astfel încât matricea ataşată lui U j în această
bază să fie bloc Jordan având pe diagonală scalarul λ j .
3.7. EXERCIŢII 121

Demonstraţie. Cu propoziţia 4.3 şi teorema 4.12 avem:

{0 }⊂ M
Vn λj = KerT j ⊂ KerT j 2 ⊂ L ⊂ KerT j s −1 ⊂ KerT j s = M (T j ) = M
λj
,

unde s ≤ m j , j = 1, p . Fie d k = dim KerT jk , k = 0, s . Atunci:

0 = d 0 < d1 < d 2 < L < d s −1 < d s = m j .

Reamintim că m j este multiplicitatea algebrică a valorii proprii λ j iar


d1 = KerT j este multiplicitatea geometrică a aceleiaşi valori proprii.
Fie p1 = d s − d s −1 , p 2 = d s −1 − d s −2 , L, p s = d1 ; atunci p1 + p 2 + L + p s = d s . Fie
x ∈ KerT jk \ KerT jk −1 , k = 0, s . Un astfel de vector se numeşte vector de înălţime k
şi are proprietatea că T jk ( x ) = 0 V n , T jk −1 ( x ) ≠ 0 V n . Deoarece p s = d s − d s −1 , putem
alege p1 vectori u1 , u 2 ,L, u p 1 în KerT js \ KerT js −1 astfel încât ei să fie liniar
{ }
independenţi şi L u1 , u 2 ,L, u p 1 ⊕ KerT js −1 = KerT js = M
λj
. Acest lucru se poate
realiza de exemplu prin completarea unei baze din KerT js −1 până la o bază în
( )
KerT js . Să arătăm că vectorii T jk (u1 ), T jk (u 2 ),L, T jk u p 1 sunt liniar independenţi
şi { ( )} { }
L T jk (u1 ), T jk (u 2 ),L, T jk u p 1 ∩ KerT js − k −1 = 0 V n , k = 1, s − 1 . Pentru a
demonstra prima parte a afirmaţiei, fie combinaţia liniară nulă

( )
α 1T jk (u 1 ) + α 2T jk (u 2 ) + L + α p 1T jk u p 1 = 0 V n .

( )
Atunci T jk α 1u 1 + α 2 u 2 + L + α p 1 u p 1 = 0 V n deci

α 1u 1 + α 2 u 2 + L + α p 1 u p 1 ∈ L{T j
k
(u1 ),L, T jk (u p 1 )}∩ KerT js −k −1 = {0 V n }.
Din afirmaţia de mai sus rezultă α 1u 1 + α 2 u 2 + L + α p 1 u p 1 = 0 V n şi cum vectorii
u1 , u 2 ,L, u p 1 sunt liniar independenţi obţinem α 1 = α 2 = L = α p 1 = 0 .
Pentru a demonstra a doua parte a afirmaţiei fie vectorul

{ ( )}
u ∈ L T jk (u1 ),L, T jk u p 1 ∩ KerT js − k −1 .

( )
Atunci u = α 1T jk (u 1 ) + L + α p 1T jk u p 1 şi T js − k −1 (u ) = 0 V n . De aici rezultă că
( )
α 1T js −1 (u 1 ) + L + α p 1T js −1 u p 1 = 0 V n , fapt ce implică α 1 = α 2 = L = α p 1 = 0 şi
122 3. VECTORI ŞI VALORI PROPRII

deci u = 0 V n . Vectorii u1 , u 2 ,L, u p 1 fiind aleşi rezultă

{T j
k
(u1 ), T jk (u 2 )L, T jk (u p 1 )} ⊂ KerT js −1 \ KerT js −2

deoarece T js −1 (T j (u i )) = T js (u i ) = 0 V n , i = 1, p1 şi T js − 2 (T j (u i )) = T js −1 (u i ) ≠ 0 V n ,
i = 1, p1 .
{
Din cele demonstrate mai sus rezultă că T jk (u1 ), T jk (u 2 )L, T jk u p 1 ( )} este un
{ ( )}
sistem liniar independent şi L T jk (u1 ), T jk (u 2 )L, T jk u p 1 ∩ KerT js −2 = 0 V n Atunci
p1 + d s −2 ≤ d s −1 deci p1 ≤ d s −1 − d s − 2 = p 2 . Completăm o bază a lui KerT js −2 cu
( )
vectorii T j (u1 ), T j (u 2 ),L, T j u p 1 , u p 1 +1 ,L, u p 2 ∈ KerT js −1 \ KerT js − 2 până la o bază
a lui KerT js −1 (menţionăm că vectorilor T j (u1 ), T j (u 2 ),L, T j u p 1 , care sunt în ( )
număr de p1 li s-au adăugat în această etapă p 2 − p1 vectori).
Vectorii obţinuţi sunt liniar independenţi şi:

{ ( ) ( )
L T j2 (u1 ), L, T j2 u p 1 , T j2 u p 1 +1 ,L, T j2 u p 2 ( )}∩ KerT j
s −3
{ }
= 0Vn .

Rezultă că p 2 ≤ d s − 2 − d s −3 = p3 şi deci putem completa sistemul de vectori


obţinut până acum până la o bază a lui KerT js −2 , prin adăugarea a p3 − p 2
vectori. În final obţinem sistemul de vectori:

KerT js ∋ u1 , u 2 ,L, u p 1 ;
( )
KerT js −1 ∋ T j (u1 ), T j (u 2 ),L, T j u p 1 , u p 1 +1 ,L, u p 2 ;
KerT js − 2 ∋ T j2 (u1 ), T j2 (u ),L, T (u ), T (u ),L, T (u ), u
2 j
2
p1 j p 1 +1 j p2 p 2 +1 ,L, u p 3 ;
LLLLLLLLLLLLLLLLLLL LL LLLLLL LL
( ) ( )
KerT j ∋ T js −1 (u1 ), T js −1 (u 2 ),L, T js −1 u p 1 , T js − 2 u p 1 +1 ,L, T js −2 u p 2 ,( )
( ) ( )
T j u p s − 2 +1 ,L, T j u ps −1 , u p s −1 +1 ,L, u p s .

Acest sistem conţine p1 + p 2 + L + p s = m j vectori liniar independenţi,


λj
vectori care formează o bază în M . Precizăm că vectorii u p s −1 +1 ,L, u p s
formează o bază în M λ j = KerT j deci sunt vectori liniar independenţi
corespunzători valorii proprii λ j .
3.7. EXERCIŢII 123

Vectorii de pe fiecare coloană a tabelului de mai sus generează câte un subspaţiu


ciclic în M λ j , în conformitate cu propoziţia 4.6 şi anume: p1 subspaţii ciclice de
dimensiune s, p 2 − p1 subspaţii ciclice de dimensiune s − 1 , p3 − p 2 subspaţii
ciclice de dimensiune s − 2 ,…, p s − p s −1 subspaţii ciclice de dimensiune 1. În
total se generează p s = d1 subspaţii ciclice (un număr egal cu multiplicitatea
geometrică a valorii proprii λ j ).
În baza:

B = { u1 , T j (u1 ), T j2 (u1 ),L, T js −1 (u1 ), u 2 , T j (u 2 ), T j2 (u 2 ),L, T js −1 (u 2 ),L,


( ) ( ) ( ) ( )
u p 1 , T j u p 1 , T j2 u p 1 ,L, T js −1 u p 1 , u p 1 +1 , T j u p 1 +1 ,L, T js − 2 u p 1 +1 , ( )
up2 , T (u ) ,L, T (u ),L, u
j p2 j
s −2
p2 p s − 2 +1 , T (u
j ),L, u
p s − 2 +1 p s −1 ( )
, T j u ps −1 ,
u p s −1 +1 ,L, u p s }
~
matricea ataşată operatorului U , conform corolarului 4.8, este un bloc Jordan cu
scalarul λ j pe diagonală, bloc ce conţine p1 celule Jordan de ordin s, p 2 − p1
celule Jordan de ordin s − 1 , p3 − p 2 celule Jordan de ordin s − 2 ,…, p s − p s −1
celule Jordan de ordin 1. În total se generează p s = d1 celule Jordan (un număr
egal cu multiplicitatea geometrică a valorii proprii λ j ). Teorema este
demonstrată.

4.14. Teoremă (Jordan). Dacă endomorfismul U ∈ End(V n ) are toate valorile


proprii în corpul K atunci există o bază în V n faţă de care matricea ataşată lui U
are forma canonică Jordan.

Demonstraţie. Dacă λ j , j = 1, p sunt valorile proprii ale lui U, de multiplicităţi


p

∑m
λj m
m j , j = 1, p , j = n , T j = U − λ j I Vn , M = KerT j j , j = 1, p atunci cu
j =1
λ1 λ2 λp
teorema 4.11 avem V n = M ⊕M ⊕L⊕ M . Cu teorema 4.13 rezultă că în
λ
fiecare subspaţiu M j , j = 1, p , există o bază B j faţă de care matricea asociată
~
restricţiei U j este un bloc Jordan cu scalarul λ j pe diagonală. Cu observaţia 4.9
ii) rezultă că în baza B = B1 ∪ B2 ∪ L ∪ Bn matricea ataşată operatorului U are
forma canonică Jordan.

4.15. Algoritm de jordanizare. 1) Se fixează o bază în V n şi se determină


matricea A ataşată endomorfismului U ∈ EndV n în această bază.
124 3. VECTORI ŞI VALORI PROPRII

2) Se rezolvă ecuaţia caracteristică det ( A − λ I n ) = 0 şi se determină astfel


valorile proprii λ j , j = 1, p ale lui U, de multiplicităţi m j , j = 1, p . Dacă toate
valorile proprii sunt în corpul K algoritmul continuă; în caz contrar U nu este
jordanizabil.

3) Se determină vectorii proprii liniar independenţi corespunzători fiecărei valori


proprii λ j , j = 1, p ( deci se determină multiplicitatea geometrică a fiecărei
valori proprii).

4) Se determină subspaţiul M λ j , j = 1, p (cu rezultatele obţinute la pasul 3). Pot


să apară următoarele situaţii.
i) Dacă dim M λ j = m j (multiplicitatea geometrică coincide cu cea algebrică)
atunci baza B j căutată a subspaţiului M λ j este formată din vectorii proprii liniar
independenţi corespunzători valorii proprii λ j .
ii) Dacă dim M λ j < m j atunci se calculează numărul de celule Jordan
corespunzătoare valorii proprii λ j (acesta este egal cu multiplicitatea geometrică
a valorii proprii λ j ) şi apoi se determină vectorii principali asociaţi, care sunt în
număr de m j − dim M λ j . Aceasta se poate realiza prin utilizarea metodei din
demonstraţia teoremei 4.13 în modul următor. Fie u ∈ KerT j = Ker (U − λ j I n ) .
Dacă vectorului u îi asociem matricea coloană X atunci v se obţine prin
rezolvarea sistemului omogen (A − λ j I n )X = 0 M n ,1 ( K ) . Dacă v1 ∈ KerT j2 \ KerT j1
atunci din teorema 4.13 rezultă T (v1 ) ∈ KerT j deci T (v1 ) = v ∈ KerT j . Dacă X 1
este matricea coloană asociată vectorului v1 atunci v1 se determină prin
rezolvarea sistemului liniar neomogen (A − λ j I n )X 1 = X .
Fie v2 ∈ KerT j3 \ KerT j2 ; atunci T (v 2 ) = v1 ∈ KerT j2 şi dacă X 2 este matricea
coloană asociată vectorului v2 ,acest vector se determină prin rezolvarea
sistemului liniar neomogen (A − λ j I n )X 2 = X 1 . Procedeul expus mai sus se
continuă până la determinarea tuturor vectorilor principali asociaţi valorii proprii
λ j . Deci pentru determinarea vectorilor principali asociaţi valorii proprii λ j se
rezolvă succesiv sistemele liniare:

(A − λ I )X = 0 (
j n M n ,1 K ) ,
(A − λ I )X = X ,
j n 1

(A − λ I )X = X ,
j n 2 1

LLLLLLLLL
3.7. EXERCIŢII 125

impunându-se în prealabil condiţia de compatibilitate a acestora ( prin alegerea


convenabilă a membrului drept al sistemelor).
Se obţin astfel un număr de seturi de vectori egal cu dim M λ j , seturi ce conţin
fiecare câte un vector propriu din baza spaţiului M λ j şi vectorii principali
asociaţi acestuia (în cazul în care sistemele liniare care generează vectorii
principali sunt compatibile). Vectorii proprii liniar independenţi corespunzători
valorii proprii λ j împreună cu vectorii principali asociaţi acestora formează o
bază B j în M λ j .

5) Sistemul B = B1 ∪ B2 ∪ L ∪ B p este o bază în Vn faţă de care matricea ataşată


lui U are forma canonică Jordan.

4.16. Observaţie. Fie λ j ∈ σ (U ) cu multiplicitatea algebrică m j , s indicele de


nilpotenţă al endomorfismului T j = U − λ j I V n (deci KerT js = M (T j ) = M
λj
).
Atunci:
a) dimensiunea blocului Jordan corespunzător valorii proprii λ j este egală cu
multiplicitatea algebrică m j a acestei valori proprii;
b) blocul Jordan conţine un număr de celule egal cu multiplicitatea geometrică a
valorii proprii λ j astfel: p1 celule Jordan de ordin s, p 2 − p1 celule Jordan de
ordin s − 1 , p3 − p 2 celule Jordan de ordin s − 2 ,…, p s − p s −1 celule Jordan de
ordin 1;
c) vectorilor principali liniar independenţi corespunzători valorii proprii λ j le
corespunde un număr de vectori principali asociaţi egal cu m j − dim M λ j .

3.5. SPECTRUL ENDOMORFISMELOR PE SPAŢII EUCLIDIENE

Fie E n un spaţiu euclidian complex (unitar) şi U ∈ End(E n ) un operator


autoadjunct (hermitic). Scopul principal al acestui paragraf este de a demonstra
că un operator hermitic este diagonalizabil (există deci o bază în E n în raport cu
care matricea ataşată lui U este matrice diagonală). În cazul unui operator
hermitic vectorii şi valorile proprii ale acestuia, pe lângă proprietăţile generale
obţinute în acest capitol, au, aşa cum este de aşteptat, proprietăţi suplimentare.

5.1. Propoziţie. Valorile proprii ale unui operator hermitic U ∈ End(E n ) sunt
reale.
126 3. VECTORI ŞI VALORI PROPRII

Demonstraţie. Fie U ∈ End(E n ) hermitic; atunci < U ( x ), y > = < x,U ( y ) > , (∀)
x, y ∈ E n . Fie λ ∈ σ (U ) şi x un vector propriu corespunzător acestei valori
proprii, adică U ( x ) = λ x , x ≠ 0 E n . Din propoziţia 6.19 capitolul 2, rezultă
< x ,U ( x ) > ∈ R iar din egalitatea U ( x ) = λ x obţinem λ x = < x ,U ( x ) > , deci
2

< x ,U ( x ) >
λ= 2
∈R.
x

5.2. Observaţie. Din demonstraţia propoziţiei 5.1 rezultă că dacă U ∈ End(E n )


este hermitic, λ ∈ σ (U ) şi x vector propriu corespunzător acestei valori proprii
atunci:

< x ,U ( x ) >
λ= 2
.
x

Relaţia de mai sus se numeşte câtul Rayleygh-Ritz.

5.3. Propoziţie. Vectorii proprii ai unui operator hermitic U ∈ End(E n )


corespunzători la valori proprii distincte sunt ortogonali.

Demonstraţie. Fie λ 1 , λ 2 ∈ σ (U ) , λ 1 ≠ λ 2 şi x1 , x 2 vectori proprii


corespunzători acestor valori proprii. Deoarece U ( x1 ) = λ 1 x1 , U ( x1 ) = λ 2 x2 , prin
înmulţirea scalară a primei egalităţi cu x2 şi a celei de-a doua cu x1 rezultă:
< U ( x1 ) , x2 > = λ 1 < x1 , x 2 > , < x1 , U ( x2 ) > = λ 2 < x1 , x 2 > (unde am folosit
faptul că λ 2 ∈ R ). Cum U este hermitic, din egalităţile de mai sus obţinem
λ 1 < x1 , x2 > = λ 2 < x1 , x2 > şi cum λ 1 ≠ λ 2 rezultă < x1 , x2 > = 0 .

5.4. Teoremă. Dacă U ∈ End(E n ) este hermitic atunci există o bază ortonormată
în E n formată din vectori proprii ai lui U. Matricea ataşată lui U în această bază
este matrice diagonală.

Demonstraţie. Vom face demonstraţia prin inducţie după dimensiunea spaţiului.


Pentru n = 1 afirmaţia este evidentă. Presupunem că afirmaţia este adevărată
pentru orice spaţiu euclidian de dimensiune n − 1 . Fie λ 1 ∈ σ (U ) (această valoare
proprie există deoarece ecuaţia caracteristică a endomorfismului U are cel puţin o
rădăcină complexă). Cu propoziţia 5.1 rezultă λ 1 ∈ R . Fie x1 un vector propriu
corespunzător acestei valori proprii şi M 1 = L( x1 ) . Atunci complementul
3.7. EXERCIŢII 127

ortogonal M 1⊥ al lui M 1 este un subspaţiu invariant pentru U. Pentru a


demonstra această afirmaţie fie x ∈ M 1⊥ . Rezultă:

< U ( x ) , x1 > = < x , U ( x1 ) > = < x , λ 1 x1 > = λ 1 < x , x1 > = 0 ,

deci U ( x ) ∈ M 1⊥ .
Fie acum U 1 : M 1⊥ → M 1⊥ restricţia lui U la subspaţiul M 1⊥ . Operatorul U 1 astfel
definit este hermitic. Faţă de produsul scalar din E n , M 1⊥ este un spaţiu euclidian
de dimensiune n − 1 ; din ipoteza de inducţie rezultă că există o bază
B1 = { x 2 , x3 L, x n } ortonormată în M 1⊥ formată din vectori proprii ai lui U 1
(deci şi ai lui U). Avem E n = M 1 ⊕ M 1⊥ = L( x1 ) ⊕ L( x 2 ,L, x n ) şi cum
x1 ⊥ xi , i = 2 , n rezultă că B = { x1 , x2 , x3 L, xn } este bază ortonormată în E n .
Faţă de această bază matricea ataşată lui U este diagonală, având pe diagonală
valorile proprii ale lui U.

5.5 Propoziţie. Fie E n spaţiu euclidian complex şi U ∈ End(E n ) unitar. Atunci:


i) valorile proprii ale lui U sunt de modul unitar;
ii) vectorii proprii corespunzători la valori proprii distincte sunt ortogonali.

Demonstraţie. i) Deoarece U ∈ End(E n ) este unitar din propoziţia 6.7 capitolul


2, rezultă U ( x ) = x , (∀) x ∈ E n . Dacă λ ∈ σ (U ) şi x este un vector propriu
corespunzător acestei valori proprii atunci: x = U ( x ) = λ x ≤ λ ⋅ x , de
unde rezultă λ = 1 .
ii) Fie λ 1 , λ 2 ∈ σ (U ) , λ 1 ≠ λ 2 şi x1 , x 2 vectori proprii corespunzători acestor
valori proprii. Operatorul U fiind unitar avem < U ( x1 ) , U ( x 2 ) > = < x1 , x 2 > de
unde rezultă: < λ 1 x1 , λ 2 x 2 > = < x1 , x2 > , λ 1 λ 2 < x1 , x2 > = < x1 , x 2 > adică
(λ λ
1 2 )
− 1 < x1 , x 2 > = 0 . Cum λ 1 ≠ λ 2 rezultă λ 1 λ 2 ≠ 1 deci < x1 , x 2 > = 0 .

5.6. Teoremă. Fie E n spaţiu euclidian complex şi U ∈ End(E n ) unitar. Atunci


există o bază ortonormată în E n formată din vectori proprii ai lui U.

Demonstraţie. Vom demonstra teorema prin inducţie după dimensiunea


spaţiului. Pentru n = 1 afirmaţia este evidentă. Presupunem afirmaţia adevărată
pentru orice spaţiu euclidian de dimensiune n − 1 , n ≥ 2 . Fie λ 1 ∈ σ (U ) (această
valoare proprie există deoarece ecuaţia caracteristică a endomorfismului U are
cel puţin o rădăcină complexă), x1 un vector propriu corespunzător acestei valori
128 3. VECTORI ŞI VALORI PROPRII

proprii, x1 = 1 , M 1 = L( x1 ) şi M 1⊥ complementul ortogonal al lui M 1 . Pentru


x ∈ M 1⊥ avem:

0 =< x , x1 > = < U ( x ) , U ( x1 ) > = < U ( x ) , λ 1 x1 > = λ 1 < U ( x ) , x1 > .

Deoarece λ 1 = λ 1 = 1 rezultă λ 1 ≠ 0 ; de aici şi din egalitatea de mai sus


obţinem < U ( x ) , x1 > = 0 , U ( x ) ∈ M 1⊥ deci M 1⊥ este invariant pentru U. În conti-
nuare demonstraţia urmează pas cu pas demonstraţia teoremei 5.4.

5. 7. Propoziţie. Fie H spaţiu Hilbert complex şi U ∈ End( H ) un operator


autoadjunct. Atunci:

U = sup < U ( x ) , x > .


x =1

Demonstraţie. Fie M = sup < U ( x ) , x > . Inegalitatea Cauchy-Buniakovski


x =1

scrisă pentru x ∈ H , x = 1 , ne dă:

< U (x ) , x > ≤ U (x ) ⋅ x ≤ U ⋅ x
2
= U ,

de unde rezultă M ≤ U .
Să stabilim acum inegalitatea M ≥ U ; din această inegalitate şi din cea de mai
sus va rezulta M = U . Pentru început să constatăm că U fiind autoadjunct,
teorema 6.19, capitolul 2 ne dă < U ( x ) , x > ∈ R , (∀) x ∈ H .
1
Pentru x ∈ H , x ≠ 0 H avem x = 1 şi atunci:
x

⎛ 1 ⎞ 1 1
< U ⎜⎜ x ⎟⎟ , x> = 2
< U (x ) , x > ≤ M .
⎝ x ⎠ x x

Inegalitatea de mai sus ne conduce la:

< U (x ) , x > ≤ M x , (∀) x ∈ E n .


2

Din inegalitatea (care se demonstrează cu uşurinţă):


3.7. EXERCIŢII 129

4 < U (x ) , y > = < U (x + y ) , x + y > − < U (x − y ) , x − y > +


+ i < U (x + i y ) , x + i y > − i < U (x − i y ) , x − i y > ,

şi din < U ( x ) , x > ∈ R , (∀) x ∈ H obţinem

1
Re < U ( x ) , y > = <U ( x + y ) , x + y > − < U ( x − y ) , x − y > ≤
4
≤ [ <U ( x + y ) , x + y > + < U ( x − y ) , x − y > ] ≤
1
4
1
[
≤ M x+ y + x− y =
4
2 2 M
2
]
2
x + y . [
2
]
În stabilirea ultimei egalităţi am folosit identitatea paralelogramului.
Din inegalitatea de mai sus, pentru x ∈ H , x ≠ 0 H , obţinem:

1 1
U (x ) = < U (x ) , U ( x ) > = Re < U ( x ) , U (x ) > ≤
U (x ) U (x )

M⎡ ⎤
2
1
U (x ) ⎥ = M .
2
≤ ⎢ x +
2 ⎢ U (x ) ⎥⎦

Atunci: U = sup U ( x ) ≤ M şi propoziţia este demonstrată.


x =1

5.8. Aplicaţie. i) Ne propunem să determinăm norma unui operator hermitic


U ∈ End(E n ) , E n spaţiu euclidian complex.
Fie B = {e1 , e2 ,L, en } bază în E n formată din vectori proprii ai operatorului U şi
σ (U ) = {λ 1 , λ 2 ,L, λ n } spectrul lui U. Atunci norma vectorului x = ∑ xi ei este
n

i =1
1
⎛ n 2⎞ 2
x = ⎜ ∑ xi ⎟ şi
⎝ i =1 ⎠

n 2 n 2 n 2
U (x ) ∑ x U (e )
2
∑λ x e = ∑ λi
2 2 2
= i i = i i i xi ≤ λi0 x ,
i =1 i =1 i =1

unde λ i 0 este valoarea proprie de modul maxim a lui U. Din această inegalitate

rezultă U ≤ λ i 0 . Pentru x = ei 0 avem U ( x ) = λ i 0 ei 0 = λ i 0 , deci:


130 3. VECTORI ŞI VALORI PROPRII

U = λi0 .

ii) O formulă asemănătoare se obţine şi în cazul unui operator oarecare


U ∈ End(E n ) , E n spaţiu euclidian complex, în modul următor.

Fie B = {e1 , e2 ,L, en } bază în E n , faţă de care operatorului U i se ataşează


matricea A = (a i j ) i , j =1,n . Pentru x = ∑ xi ei ∈ E n avem:
n

i =1

n
⎛ n ⎞ n
⎛ n ⎞
U (x ) = < ∑ ⎜⎜ ∑ aij x j ⎟⎟ ei , ∑ ⎜⎜ ∑ aij x j ⎟⎟ ei > =
2

i =1 ⎝ j =1 ⎠ i =1 ⎝ j =1 ⎠
n
⎛ n n ⎞ n ⎛ n n ⎞
= ∑ ⎜⎜ ∑∑ aij x j aik xk ⎟⎟ = ∑ ⎜⎜ ∑∑ aij aik x j ⎟⎟ x k =
i =1 ⎝ j =1 k =1 ⎠ k =1 ⎝ j =1 i =1 ⎠
=< (U U )( x ) , x > .

Se constată cu uşurinţă că U ∗U este hermitic ( U ∗ fiind adjunctul lui U). Atunci


dacă λ 0 este valoarea proprie de modul maxim a operatorului hermitic U ∗U din
ultima egalitate şi cu ajutorul propoziţiei 5.7 deducem:

= sup U ( x ) = sup < (U ∗U )( x ) , x > = λ 0 .


2 2
U
x =1 x =1

Remarcă. Formula dată de propoziţia 5.7 se poate obţine în cazul particular al


aplicaţiei 5.8 (norma unui operator hermitic pe un spaţiu euclidian complex)
astfel:

< U (x ) , x > ≤ U (x ) x ≤ U
2
x = U = λ i 0 , x = 1.

( )
Pentru x = ei 0 avem < U ei 0 , ei 0 > = < λ i 0 ei 0 , ei 0 > = λ i 0 , deci:

sup < U ( x ) , x > = U .


x =1

5.9. Definiţie. Fie H un spaţiu Hilbert. Operatorul U ∈ End( H ) se numeşte


pozitiv dacă < U ( x ) , x > ≥ 0 pentru orice x ∈ H .

5.10. Propoziţie. Orice operator pozitiv U ∈ End( H ) este autoadjunct.


3.7. EXERCIŢII 131

Demonstraţie. Dacă < U ( x ) , x > ≥ 0 , (∀) x ∈ H , atunci < U ( x ) , x > ∈ R şi în

egalitatea

1
< U (x ) , y > = [<U (x + y ) , x + y > − < U (x − y ) , x − y >] +
4
+ i [<U ( x + i y ) , x + i y > − < U ( x − i y ) , x − i y >] ,

expresiile din paranteze sunt reale. Permutând locurile lui x şi y vom avea:

1
< U (y) , x > = [<U ( y + x ) , y + x > − < U ( y − x ) , y − x >] +
4
+ i [<U ( y + i x ) , y + i x > − < U ( y − i x ) , y − i x >] =
1
= [<U (x + y ) , x + y > − < U (x − y ) , x − y >] −
4
− i [<U ( x + i y ) , x + i y > − < U ( x − i y ) , x − i y >] =
= < U (x ) , y > .

De aici obţinem:

< U (x ) , y > = < U ( y ) , x > = < x , U ( y ) > ,

deci U este autoadjunct.

5.11. Teoremă (Rayleigh-Ritz). Fie U ∈ End(E n ) un operator hermitic şi


λ 1 ≤ λ 2 ≤ L ≤ λ n valorile sale proprii. Atunci:

< U (x ) , x >
λ max = λ n = sup 2
= sup < U ( x ) , x > ,
x ≠0 x x =1

< U (x ) , x >
λ min = λ 1 = inf 2
= inf < U ( x ) , x > .
x ≠0 x =1
x

Demonstraţie. Fie B = {e1 , e2 ,L, en } bază în E n formată din vectori proprii ai lui
n
U şi x = ∑ xi ei ∈ E n . Atunci:
i =1

n n n
< U ( x ) , x > = < ∑ λ i xi ei , ∑ x j e j > = ∑ λ i xi
2
,
i =1 j =1 i =1
132 3. VECTORI ŞI VALORI PROPRII

de unde obţinem

≤ < U ( x ) , x > ≤ λ max x


2 2
λ min x .

Dacă x ≠ 0 E n atunci inegalităţile precedente se pot scrie sub forma:

< U (x ) , x >
λ min ≤ 2
≤ λ max .
x

Dacă x este vector propriu corespunzător valorii proprii λ max = λ n atunci

< U (x ) , x >
2
= λ max ,
x

iar dacă x este vector propriu corespunzător valorii proprii λ min = λ 1 atunci

< U (x ) , x >
2
= λ min .
x

Pentru a încheia demonstraţia să observăm că

< U (x ) , x > ⎛ x ⎞ x
= < U ⎜⎜ ⎟ x > = < U (x ) , x > , x = 1 ,
2
⎟, ′ ′ ′
x ⎝ x ⎠

deci

< U (x ) , x >
sup 2
= sup < U ( x ) , x > .
x ≠0 x x =1

5.12. Observaţie. Teorema de mai sus ne dă o caracterizare variaţională a celei


mai mari şi a celei mai mici valori proprii pentru un operator hermitic. Pentru a
obţine o caracterizare variaţională a valorii proprii λ 2 ≥ λ 1 fie M 1 = L(e1 ) , unde
e1 este un vector propriu corespunzător valorii proprii λ 1 şi M 1⊥ complementul
n
său ortogonal. Atunci M 1⊥ = L(e2 , e3 ,L, en ) şi pentru x = ∑ xi ei ∈ M 1⊥ obţinem
i =2
3.7. EXERCIŢII 133

n n n
< U ( x ) , x > = < ∑ λ i xi ei , ∑ x j e j > = ∑ λ i xi
2 2
≥ λ2 x .
i=2 j =2 i =1

Pentru x = e2 inegalitatea de mai sus devine egalitate astfel încât obţinem

< U (x ) , x >
λ 2 = min 2
= min < U ( x ) , x > .
x≠ 0E x =1
x ⊥e 1
n x x ⊥e 1

5.13. Teoremă (teorema infsup). Fie U ∈ End(E n ) un operator hermitic şi


λ 1 ≥ λ 2 ≥ L ≥ λ n valorile sale proprii. Atunci:

< U (x ) , x >
λ j = inf sup 2
= inf sup < U ( x ) , x > ,
M ∈M j x∈M M ∈M j x∈M
x≠0E
x x =1
n

unde

M j = { M ∈ E n M subspaţiu liniar de dimensiune n − j + 1 } .

Demonstraţie. Fie B = {e1 , e2 ,L, en } bază ortonormată în En formată din vectori


proprii ai lui U şi M 0 ∈ M j , M 0 = L(e j , e j +1 ,L, en ) . Dacă x ∈ M 0 atunci
n
x = ∑ xi ei şi
i= j

n n n n
< U ( x ) , x > = < ∑ λ i xi ei , ∑ x j e j > = ∑ λ i xi ≤ λ j ∑ xi
2 2 2
=λj x .
i=2 j =2 i =2 i =1

< U (x ) , x >
De aici rezultă 2
≤ λ j , (∀) x ∈ M 0
x

Pentru x = e2 inegalitatea de mai sus devine egalitate şi astfel obţinem:

< U (x ) , x >
λ j = sup 2
.
x∈M 0 x
x≠0E
n

Pentru a încheia demonstraţia este suficient să arătăm că


134 3. VECTORI ŞI VALORI PROPRII

< U (x ) , x >
λ j ≤ sup 2
, (∀) M ∈ M j .
x∈M
x≠0E
x
n

Într-adevăr, pentru M ∈ M j avem dim M = n − j + 1 şi dim L(e1 , e2 ,L, e j ) = j ,


deci M ∩ L(e1 , e2 ,L, e j ) conţine şi vectori diferiţi de 0 E n .

Fie z ∈ M ∩ L(e1 , e2 ,L, e j ); atunci z = ∑ z i ei şi


j

i =1

j j
< U (z ) , z > = ∑ λ i zi ≥ λ j ∑ xj
2 2 2
=λj z .
i =1 i =1

De aici rezultă

< U (z ) , z > < U (x ) , x >


λj ≤ 2
≤ sup 2
z x∈M
x≠0 E
x
n

şi teorema este astfel demonstrată.

3.6. EXPONENŢIALA UNEI MATRICE

Fie U ∈ End(K n ) , B = {e1 , e2 ,L, en } bază în K n şi A = (aij )i , j =1,n matricea ataşată


endomorfismului U în această bază. Aşa cum am văzut (propoziţia 4.7, capitolul
2), expresia

U = sup U ( x )
x =1

defineşte o normă pe End (K n ) , numită norma indusă pe End (K n ) de norma


din K n . Expresia de mai sus defineşte o normă şi pe spaţiul liniar M n ( K ) al
matricelor de ordinul n cu elemente din corpul K. Într-adevăr, dacă X, Y sunt
vectorii coloană formaţi cu ajutorul coordonatelor vectorilor x, y ∈ K n atunci
y = U ( x ) ⇔ Y = A X şi:

U = sup U ( x ) = sup A X ,
x =1 x =1
3.7. EXERCIŢII 135

deci putem lua

A = sup A X .
x =1

Se constată cu uşurinţă că aplicaţia ⋅ : M n ( K ) → R definită mai sus verifică


axiomele normei. În plus (observaţia 4.8, capitolul 2) avem:

A B ≤ A ⋅ B ; A n = A , (∀) A , B ∈ M n ( K ) ,
n

deci spaţiul M n ( K ) devine astfel o algebră normată.

6.1. Definiţie. Aplicaţia ⋅ : M n ( K ) → R , A = sup A X se numeşte normă


x =1

matriceală.
n
6.2. Observaţie. Dacă pe K n luăm norma x 1
= ∑ xi atunci
i =1

n
A = max ∑ aij ,
j =1, n i =1

iar dacă pe K n luăm norma x ∞


= max xi atunci
i =1, n

n
A = max ∑ aij .
i =1, n j =1

Remarcă. i) Deoarece M n ( K ) este finit dimensional cu norma din definiţia de


mai sus M n ( K ) devine un spaţiu liniar normat complet (sau spaţiu Banach).
ii) Şirul de matrice ( An )n∈N , An ∈ M n ( K ) , (∀) n ∈ N este convergent către
A∈ M n (C ) dacă lim An − A = 0 .
n →∞

iii) Seria de matrice ∑a k Ak ; a k ∈ K , Ak ∈ M n ( K ) , (∀) k ∈ N se numeşte
k =0
n
convergentă dacă şirul sumelor parţiale S n = ∑ a k Ak este convergent.
k =0

6.3. Definiţie. Dacă A∈ M n ( K ) atunci numărul

ρ ( A) = max { λ , λ ∈ σ ( A) }
136 3. VECTORI ŞI VALORI PROPRII

se numeşte raza spectrală a matricei A.

6.4. Observaţie. Aşa cum am văzut (aplicaţia 5.8) pentru K = C şi norma


euclidiană pe C n avem

A = ρ ( A ∗ A) ,

iar pentru K = R şi norma euclidiană pe R n avem:

A = ρ ( A) .

6.5. Propoziţie. Fie seria de puteri peste C


∑ a kx k
= a 0 + a1 x + a 2 x 2 +L+ a n x n +L
k =0

cu raza de convergenţă R > 0 . Atunci pentru orice matrice A∈ M n (C ) astfel


încât A < R , seria de matrice

∑a
k =0
k A k = a 0 I n + a1 A + a 2 A 2 + L + a n A n + L

este o serie convergentă în spaţiul Banach M n (C ) .

Demonstraţie. Fie r > 0 astfel încât A < r < R . Atunci seria numerică
∞ ∞

∑a
k =0
k r k este absolut convergentă, deci seria de numere reale pozitive ∑
k =0
ak r k
este convergentă. Cu proprietăţile normei matriceale obţinem
k
ak Ak = ak ⋅ Ak ≤ ak ⋅ A < ak ⋅ r k

n
şi dacă notăm cu S n = ∑ a k A k atunci:
k =0

n+ p n+ p n+ p
S n+ p − S n = ∑ ak Ak ≤
k = n +1

k = n +1
ak Ak < ∑
k = n +1
ak r k .


Cum seria ∑
k =0
a k r k este convergentă, şirul sumelor sale parţiale este convergent
3.7. EXERCIŢII 137

deci este şir Cauchy. Atunci din ultima inegalitate rezultă că şirul (S n )n∈N este şir
Cauchy în M n (C ) şi cum acest spaţiu este complet rezultă că (S n )n∈N este un şir

convergent, deci ∑a
k =0
k A k este convergentă.


6.6. Definiţie. Dacă în condiţiile propoziţiei 6.5, notăm f (r ) = ∑ a k r k atunci
k =0

suma seriei de matrice ∑a k A k se notează f ( A) şi se numeşte funcţia de
k =0

matrice A definită de funcţia f.

6.7. Observaţie. Din teorema Cayley-Hamilton rezultă că puterile A k , k ≥ n


sunt combinaţii liniare de matricele I n , A , A 2 ,L, A n −1 . Într-adevăr, dacă
polinomul caracteristic al matricei A este P(λ ) = (− 1) λ n + α 1λ n −1 + L + α n
n

atunci teorema Cayley-Hamilton ne dă

(− 1) n A n + α 1 A n−1 + α 2 A n−2 + L + α n I n = 0 M n (C )

de unde obţinem

A n = (− 1) α 1 A n −1 + (− 1) α 2 A n − 2 + L + (− 1) α n I n
n −1 n −1 n −1

Afirmaţia este deci adevărată pentru k = n ; în continuare demonstraţia afirmaţiei


se face prin inducţie după k.
Din cele de mai sus rezultă că orice polinom de matrice A aparţine
subspaţiului L (I n , A , A 2 ,L, A n −1 ) . Şirul (S n )n∈N al sumelor parţiale ale seriei de

matrice ∑a
k =0
k A k este un şir de polinoame de matrice deci este un şir de elemente

din subspaţiul L (I n , A , A 2 ,L, A n −1 ) . Cum acest subspaţiu este finit dimensional el


este închis în M n (C ) de unde rezultă că f ( A) ∈ L (I n , A , A 2 ,L, A n −1 ) .
Fie seria de puteri


xk x x2 xn
e =∑
x
= 1+ + +L+ +L.
k =0 k! 1! 2! n!

Această serie are raza de convergenţă R = +∞ deci pentru orice A∈ M n (C )


condiţia A < R din propoziţia 6.5 este îndeplinită.
138 3. VECTORI ŞI VALORI PROPRII

Acest fapt ne permite să dăm următoarea definiţie.


1
6.8. Definiţie. Suma seriei ∑ k! A
k =0
k
se numeşte exponenţiala matricei A şi notăm


1 k 1 1 1
eA =∑ A = I n + A + A2 + L + An + L .
k =0 k ! 1! 2! n!

Fie diag (λ 1 , λ 2 ,L, λ n ) matricea cu toate elementele egale cu zero, mai puţin cele
de pe diagonala principală care sunt egale cu λ 1 , λ 2 ,L, λ n .

6.9. Propoziţie (proprietăţile exponenţialei). Dacă A∈ M n (C ) atunci:

0M
n (K )
i) e = I n ; e λ I n = e λ I n , (∀) λ ∈ C .
ii) Dacă A = diag (λ 1 , λ 2 ,L, λ n ) atunci e A = diag e 1 , e 2 ,L, e ( λ λ λn
).
iii) Dacă A , B ∈ M n (C ) şi A B = B A atunci e A e B = e B e A = e A+ B .
iv) Pentru orice A∈ M n (C ) matricea e A este nesingulară şi (e A ) = e − A .
−1

v) Dacă A , C ∈ M n (C ) şi C nesingulară atunci e C


−1 A C
= C −1e A C .
vi) Dacă A = diag(A1 , A2 ,L, Ap )∈ M n (C ) atunci e A = diag e 1 , e 2 ,L, e ( A A Ap
).
vii) Dacă J r (λ ) este o celulă Jordan atunci:

⎛ 1 0 L 0⎞
0
⎜ 1 ⎟
⎜ 1 0 L 0⎟
⎜ 1! ⎟
J r (λ ) ⎜ 1 1 ⎟
e = e λ ⋅⎜ 1 L 0⎟ .
2! 1!
⎜ ⎟
⎜ M M M M M⎟
⎜ 1 1 1
L 1 ⎟⎟
⎜ (r − 1)! (r − 2)! (r − 3)!
⎝ ⎠

viii) Dacă A ∈ M n (C ) şi t ∈ R atunci (e ) = A ⋅ e t A .


d tA
dt

Demonstraţie. i) Egalităţile rezultă imediat din formula de definiţie a


exponenţialei unei matrice.
ii) Dacă A = diag (λ 1 , λ 2 ,L, λ n ) atunci A k = diag (λ 1k , λ k2 ,L, λ kn ) , (∀) k ∈ N ∗ ;
3.7. EXERCIŢII 139

formula din enunţul teoremei se obţine prin înlocuirea matricelor A k , k ∈ N ∗ în


formula de definiţie a exponenţialei unei matrice şi ţinând cont de formulele:


1 k
=∑
λj
e λ j , j = 1, n .
k =0 k !

iii) Deoarece A B = B A atunci cu formula binomului lui Newton avem:

1 ⎛ k ⎞
( A + B ) k = ∑ 1 ⎜⎜ ∑ k ! A j B k − j ⎟⎟ .
∞ ∞
e A+ B = ∑
k =0 k ! k = 0 k ! ⎝ j = 0 j !(k − j )! ⎠

De aici obţinem:

⎛ ⎞

1 ⎜ k k! j m ⎟ ⎛ ∞ 1 j ⎞ ⎛ ∞ 1 m ⎞
e A+ B
=∑ ⎜ ∑ A B ⎟ = ⎜⎜ ∑ A ⎟⎟ ⋅ ⎜⎜ ∑ B ⎟⎟ = e A ⋅ e B .
k = 0 k ! ⎜ j , m = 0 j !m ! ⎟ ⎝ j =0 j ! ⎠ ⎝ m =0 m ! ⎠
⎝ j +m=k ⎠

În ultima relaţie am aplicat teorema lui Mertens asupra produsului a două serii.
iv) Deoarece A ⋅ (− A) = (− A) ⋅ A putem aplica rezultatul de la iii) matricelor A şi
− A şi obţinem:

e A ⋅ e − A = e A+ ( − A ) = e
0n
= In .

v) Pentru orice matrice nesingulară C ∈ M n (C ) şi pentru orice k ∈ N ∗ avem


(C −1
A C ) = C −1 A k C şi atunci:
k

⎛ ∞ 1 ⎞
C −1e A C = C −1 ⎜⎜ ∑ A k ⎟⎟ C = ∑ C −1 A k C = ∑ (C −1 A C ) = e C A C .

1 ∞
1 k −1

⎝ k =0 k ! ⎠ k =0 k ! k =0 k !

vi) Din A = diag(A1 , A2 ,L, Ap )∈ M n (C ) rezultă A k = diag (A1k , A 2k ,L, A pk ) şi


formula din enunţul teoremei rezultă acum prin aplicarea formulei de definiţie a
exponenţialei unei matrice.
vii) Dacă scriem matricea J r (λ ) sub forma J r (λ ) = λ I r + H r , atunci matricele
λ I r şi H r comută şi cu iii) obţinem:

J r (λ )
e = e λ Ir + Hr = e λ Ir e Hr = e λ e Hr .
140 3. VECTORI ŞI VALORI PROPRII

În plus avem

⎛0 0 L 0 0 0⎞
⎛0 0 L 0 0⎞ ⎜ ⎟
⎜ ⎟ ⎜0 0 L 0 0 0⎟
⎜1 0 0 0⎟ ⎜1 0 O M M M⎟
Hr = ⎜0 ⎟
1 O M M , Hr = ⎜
2
⎟ , L, H rr = 0 M (C ) ,
⎜ ⎟ ⎜0 1 O 0 0 0⎟ r

⎜M M O 0 0⎟ ⎜M
⎜0 ⎟ ⎜ M K 0 0 0 ⎟⎟
⎝ 0 K 1 0⎠ ⎜0
⎝ 0 L 1 0 0 ⎟⎠

astfel încât obţinem:

⎛ 1 0 0 L 0⎞
⎜ 1 ⎟
⎜ 1 0 L 0⎟
⎜ 1! ⎟
r −1
1 ⎜ 1 1 ⎟
= ∑ H rk = ⎜
Hr
e 1 L 0⎟ .
k =0 k ! 2! 1!
⎜ ⎟
⎜ M M M M M⎟
⎜ 1 1 1
L 1 ⎟⎟
⎜ (r − 1)! (r − 2)! (r − 3)!
⎝ ⎠

viii) Fie seria

e t A = In +
1
(t A) + 1 (t 2 A 2 ) + L + 1 (t k A k ) + L ;
1! 2! k!

aplicând teorema de derivare termen cu termen a seriilor uniform convergente


obţinem:

(e ) = A + 1 t A2 + 1 t 2 A3 + L + 1 t k −1 Ak + L
d tA
dt 1! 2! (k − 1)!
⎛ 1 1 1 k k ⎞
= A ⎜⎜ I n + t A + t 2 A 2 + L + t A + L⎟⎟ = A e t A
⎝ 1! 2! (k )! ⎠

şi propoziţia este complet demonstrată.

Remarcă: Dacă A∈ M n ( R ) atunci e A ∈ M n ( R ) .


3.7. EXERCIŢII 141

7. EXERCIŢII

7.1. Exerciţii rezolvate.

1) În baza canonică din R 4 operatorului liniar U : R 4 → R 4 i se ataşează


matricea

⎛ 3 2 2 − 2⎞
⎜ ⎟
⎜ 2 3 −2 2⎟
A=⎜ .
2 −2 3 2⎟
⎜⎜ ⎟⎟
⎝ − 2 2 2 3 ⎠

Să se determine o bază ortonormată faţă de care matricea ataşată operatorului U


să fie o matrice diagonală.

Rezolvare. Deoarece matricea A este simetrică, teorema 5.4 ne asigură că există o


bază în R 4 formată din vectori proprii ai endomorfismului U; matricea ataşată lui
U în această bază este diagonală. Ecuaţia caracteristică det ( A − λ I 4 ) = 0 are
rădăcinile λ 1 = λ 2 = λ 3 = 5 , λ 4 = −3 . Pentru λ = 5 sistemul ( A − λ I 4 ) ⋅ X = 0 M 4 ,1
se reduce la ecuaţia:

− x1 + x 2 + x3 − x 4 = 0 .

Subspaţiul propriu corespunzător valorii proprii λ = 5 este

M = {(α + β − γ , α , β , γ ) α , β , γ ∈ R },

subspaţiu care are dimensiunea egală cu trei. Rezultă că multiplicităţile algebrică


şi geometrică ale valorii proprii λ = 5 coincid.
Un vector propriu corespunzător valorii proprii λ = 5 este v1 = ( 1,1,1,1 ) . Căutăm
un vector propriu perpendicular pe v1 ; coordonatele acestui vector formează o
soluţie a sistemului:

− x1 + x 2 + x3 − x 4 = 0
x1 + x 2 + x3 + x4 = 0 .

O soluţie a acestui sistem este de exemplu v2 = ( 1,1, − 1, − 1 ) . Căutăm acum un


142 3. VECTORI ŞI VALORI PROPRII

vector propriu v3 astfel încât v3 ⊥ v1 , v3 ⊥ v 2 ; coordonatele acestui vector


formează o soluţie a sistemului:

− x1 + x 2 + x3 − x 4 = 0
x1 + x 2 + x3 + x4 = 0
x1 + x2 − x3 − x 4 = 0 .

O soluţie a acestui sistem este v3 = ( 1, − 1,1, − 1 ) .


Pentru λ = −3 sistemul ( A − λ I 4 ) ⋅ X = 0 M 4 ,1 este:

3 x1 + x 2 + x3 − x 4 = 0
x1 + 3x2 − x3 − x 4 = 0
x1 − x2 + 3x3 + x4 = 0
x1 − x2 + 3x3 + 3x 4 = 0 .

O soluţie a acestui sistem este v4 = ( − 1,1,1, − 1 ) . Se constată cu uşurinţă că


vectorii proprii obţinuţi sunt ortogonali. Deoarece v1 = v 2 = v3 = v 4 = 2 o
bază ortonormată formată din vectori proprii ai endomorfismului U este
{ f1 , f 2 , f 3 , f 4 }, unde: f1 = 1 ( 1,1,1,1 ) , f 2 = 1 ( 1,1, − 1, − 1 ) , f 3 = 1 ( 1, − 1,1, − 1 ) ,
2 2 2
1
f 4 = ( − 1,1,1, − 1 ) .Matricea ataşată endomorfismului U în această bază este:
2

⎛5 0 0 0⎞
⎜ ⎟
⎜0 5 0 0⎟
B=⎜ .
0 0 5 0⎟
⎜⎜ ⎟
⎝0 0 0 − 3 ⎟⎠

2) Să se aducă la forma canonică Jordan endomorfismul U ∈ End (R 3 ) căruia în


baza canonică din R 3 i se ataşează matricea:

⎛ 1 −1 −1⎞
⎜ ⎟
A = ⎜ − 3 − 4 − 3⎟ .
⎜ 4
⎝ 7 6 ⎟⎠

Rezolvare. Ecuaţia caracteristică det ( A − λ I 3 ) = 0 are rădăcinile λ 1 = −1 ,


3.7. EXERCIŢII 143

λ 2 = λ 3 = 1 . Pentru λ 1 = −1 mulţimea soluţiilor sistemului (A − λ 1 I 3 ) X = 0 este

S = {(0 , α , − α ) α ∈ R },

iar un vector propriu corespunzător valorii proprii λ 1 = −1 se obţine luând α = 1 ;


acest vector este v1 = ( 0 , 1, − 1) .
Pentru λ 2 = λ 3 = 1 sistemul ( A − λ I 3 ) X = 0 se scrie sub forma:

x1 + x2 + x3 = 0
x1 + 2 x2 + x3 = 0
4 x1 + 7 x2 + 4 x3 = 0

şi are soluţia generală

S = {(α , 0 , − α ) α ∈ R }.

Multiplicitatea geometrică a valorii proprii λ = 2 este egală cu unu; cum


multiplicitatea sa algebrică este egală cu doi rezultă că U nu este diagonalizabil.
Pentru a aduce endomorfismul U la forma canonică Jordan vom folosi algoritmul
4.15. Fie T2 = U − λ 2 I R3 ; atunci

KerT2 = {(α , 0 , − α ) α ∈ R },
KerT22 = {(2α − β , α , β ) α , β ∈ R }
KerT23 = KerT22 .

Rezultă că indicele de nilpotenţă al operatorului T2 este s = 2 . Cu notaţiile din


teorema 4.13 avem: d1 = 1 , d 2 = 2 , p1 = d 2 − d1 = 1 , p 2 = d1 = 1 . Blocul Jordan
corespunzător valorii proprii λ = 2 are dimensiunea egală cu doi şi este format
dintr-o singură celulă Jordan (reamintim că acest număr este egal cu p1 ).
Fie X 1 = col (α ,0 , α ) ; sistemul (A − λ 2 I 3 ) X = X 1 se scrie sub forma

x1 + x 2 + x3 = α
x1 + 2 x 2 + x3 = 0
4 x1 + 7 x 2 + 4 x3 = −α

Sistemul de mai sus este compatibil pentru orice valoare α ∈ R şi are soluţia
144 3. VECTORI ŞI VALORI PROPRII

generală S = {(− 2α − x3 , α , x3 ) α , x3 ∈ R }. Un vector propriu corespunzător


valorii proprii λ = 2 este v2 = ( 1, 0 , − 1) iar un vector principal asociat acestuia
se obţine luând α = 1, x3 = 1 în soluţia generală a sistemului (A − λ 2 I 3 ) X = X 1 .
Obţinem astfel vectorul v3 = ( − 3 , 1,1) . Dacă luăm în R 3 baza {v1 , v3 , v2 } şi
considerăm matricea

⎛ 0 − 3 1⎞
⎜ ⎟
Q=⎜ 1 1 0⎟
⎜ − 1 1 − 1⎟
⎝ ⎠

atunci în această bază matricea ataşată endomorfismului U este:

⎛ −1 0 0⎞
⎜ ⎟
Q AQ = ⎜ 0 2 0 ⎟ .
−1

⎜ 0 1 2⎟
⎝ ⎠

Remarcă. Pentru a aduce endomorfismul U la forma canonică Jordan se poate


proceda şi în modul următor:
-se determină, ca mai sus, un vector propriu corespunzător valorii proprii
λ 1 = −1 : v1 = ( 0 , 1, − 1) ;
-se alege un vector v3 ∈ KerT22 \ KerT2 : de exemplu v3 = ( − 3 , 1,1) ;
-se calculează v2 = T2 (v3 )

⎛ − 1 − 1 − 1 ⎞ ⎛ − 3⎞ ⎛ 1 ⎞
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
v2 = T2 (v3 ) = ⎜ − 3 − 6 − 3 ⎟ ⋅ ⎜ 1 ⎟ = ⎜ 0 ⎟ ;
⎜ 4
⎝ 7 4 ⎟⎠ ⎜⎝ 1 ⎟⎠ ⎜⎝ − 1⎟⎠

-baza în raport cu care endomorfismul U are forma canonică Jordan este


{v1 , v3 , T2 (v3 )} .

3) Fie endomorfismul U ∈ End(R 4 ) căruia în baza canonică i se ataşează


matricea

⎛3 − 4 0 2⎞
⎜ ⎟
⎜4 − 5 − 2 4⎟
A=⎜ .
0 0 3 − 2⎟
⎜⎜ ⎟⎟
⎝ 0 0 2 − 1 ⎠
3.7. EXERCIŢII 145

Să se aducă matricea acestui endomorfism la forma canonică Jordan.

Rezolvare. Ecuaţia caracteristică det ( A − λ I 4 ) = 0 are rădăcinile λ 1 = λ 2 = 1 ,


λ 3 = λ 4 = −1 . Fie endomorfismul T1 = U − I R 4 ; deoarece matricea acestui
endomorfism are rangul trei rezultă că dim KerT1 = 1 şi valoarea proprie λ = 1
are multiplicitatea geometrică egală cu 1. Un calcul simplu ne arată că nucleele
endomorfismelor T1 , T12 sunt:

KerT1 = {(α , α ,α , α ) α ∈ R },

respectiv

KerT12 = {(α , β , α , β ) α , β ∈ R }

şi KerT13 = KerT12 . Indicele de nilpotenţă al endomorfismului T1 este s = 2 şi


d1 = dim KerT1 = 1 , d 2 = dim KerT12 = 2 , p1 = d 2 − d1 = 1 , p 2 = d1 = 1 ; rezultă că
blocul Jordan corespunzător valorii proprii λ 1 = λ 2 = 1 are dimensiunea doi şi
este format dintr-o singură celulă Jordan. Alegem v1 ∈ KerT12 \ KerT1 :
v1 = ( 1, 0 ,1, 0 ) . În aceste condiţii avem:

⎛2 − 4 0 2 ⎞ ⎛ 2⎞
⎜ ⎟ ⎜ ⎟
⎜4 − 6 − 2 4 ⎟ ⎜ 2⎟
T1 (v1 ) = ⎜ =
0 0 2 − 2⎟ ⎜ 2⎟
⎜⎜ ⎟⎟ ⎜⎜ ⎟⎟
⎝ 0 0 2 − 2 ⎠ ⎝ 2⎠

şi sistemul { v1 , T1 (v1 )} este bază în M


λ1
= KerT12 . Calcule similare efectuate
pentru λ 3 = λ 4 = −1 ne dau:

KerT2 = {(α , α ,0 ,0 ) α ∈ R },

KerT22 = {(α , β ,0 ,0 ) α , β ∈ R },

şi KerT23 = KerT22 . Indicele de nilpotenţă al endomorfismului T2 = U + I R 4 este


s = 2 . Pentru v2 ∈ KerT22 \ KerT2 , v 2 = ( 1, 0 , 0 , 0 ) avem T2 (v 2 ) = ( 4 , 4 , 0 , 0 ) şi
sistemul {v1 , T1 (v1 ), v2 , T2 (v 2 ) } este bază în R 4 .
146 3. VECTORI ŞI VALORI PROPRII

Matricea ataşată endomorfismului U în această bază este

⎛1 0 0⎞
0
⎜ ⎟
⎜1 1 0 0⎟
Q AQ = ⎜
−1
,
0 0 −1 0⎟
⎜⎜ ⎟
⎝0 0 1 − 1⎟⎠

unde:

⎛1 2 1 4⎞
⎜ ⎟
⎜0 2 0 4⎟
Q=⎜ .
1 2 0 0⎟
⎜⎜ ⎟
⎝0 2 0 0 ⎟⎠

4) Fie endomorfismul U ∈ End(R 4 ) căruia în baza canonică i se ataşează


matricea

⎛ 1 1 1 0⎞
⎜ ⎟
⎜ −1 3 0 1⎟
A=⎜ .
−1 0 −1 1⎟
⎜⎜ ⎟
⎝ 0 −1 −1 1 ⎟⎠

Să se aducă matricea acestui endomorfism la forma canonică Jordan.

Rezolvare. În acest caz valorile proprii ale endomorfismului U ∈ End (R 4 ) sunt


λ 1 = λ 2 = λ 3 = λ 4 = 1 ; multiplicitatea algebrică a acestei valori proprii este deci
ma (1) = 4 şi pentru operatorul T : R 4 → R 4 , T = U − I R 4 avem:

KerT = M λ = {(α , β ,− β , α − 2 β ) α ∈ R },

KerT 2 = {( x1 , x 2 , x3 , x 4 ) − x1 + x2 − x3 + x4 = 0 },

KerT 3 = M λ = R 4 .

Indicele de nilpotenţă al endomorfismului T este s = 3 şi d1 = dim KerT = 2 ,


d 2 = dim KerT 2 = 3 , d 3 = dim KerT 3 = 4 , p1 = d 3 − d 2 = 1 , p 2 = d 2 − d1 = 1 ,
3.7. EXERCIŢII 147

p3 = d1 = 2 . Rezultă că blocul Jordan corespunzător valorii proprii λ = 1 conţine


o celulă Jordan ( p1 = 1 ) de dimensiune trei ( s = 3 ), nici o celulă Jordan de
dimensiune doi ( p 2 − p1 = 0 ) şi o celulă Jordan de dimensiune unu ( p3 − p 2 = 1 ).
Alegem acum un vector v1 ∈ KerT 3 \ KerT 2 : v1 = ( 1, 0 , 0 , 0 ) . În aceste condiţii
avem: T (v1 ) = ( 0 ,−1,−1, 0 ) , T 2 (v1 ) = ( − 2 ,−2 ,2 , 2 ) ∈ M λ . Alegem acum v2 ∈ M λ
astfel încât L(v1 , v2 ) = M λ : v2 = ( 1, 0 , 0 ,1 ) . Sistemul {v1 , T (v1 ), T 2 (v1 ), v 2 } este
bază în R 4 în raport cu care matricea ataşată endomorfismului U este:

⎛1 0 0 0⎞
⎜ ⎟
⎜1 1 0 0⎟
Q AQ = ⎜
−1
,
0 1 1 0⎟
⎜⎜ ⎟
⎝0 0 0 1 ⎟⎠

unde

⎛1 0 − 2 1⎞
⎜ ⎟
⎜ 0 −1 − 2 0⎟
Q=⎜ .
0 −1 2 0⎟
⎜⎜ ⎟
⎝0 0 2 1 ⎟⎠

5) Să se calculeze e A t unde

⎛2 2 3⎞
⎜ ⎟
A = ⎜ 0 3 − 1⎟ .
⎜0 0 4 ⎟⎠


Rezolvare. Fie A∈ M n ( R ) şi funcţia de matrice f ( A) = ∑ a k A k . Cu teorema
k =0
n
Cayley-Hamilton rezultă că matricea A se scrie ca o combinaţie liniară de
matricele I n , A, A 2 ,L, A n −1 . După un raţionament prin inducţie rezultă că
matricele A k , k ≥ n aparţin subspaţiului liniar L (I n , A, A 2 ,L, A n −1 ), de unde
rezultă că f ( A) ∈ L(I n , A, A 2 ,L, A n −1 ) . Fie λ i , i = 1, n valorile proprii simple ale
matricei A. Există un singur polinom de gradul n − 1 cu proprietatea că valorile
sale în punctele λ i , i = 1, n coincid cu valorile funcţiei f. Expresia acestui
148 3. VECTORI ŞI VALORI PROPRII

polinom este dată de formula lui Lagrange ( [4], pag. 562) :

( A − λ1 I n )L(A − λ j −1 I n )(A − λ j +1 I n )L( A − λn I n )


f (λ j ) .
n
f ( A) = ∑
j =1 (λ j − λ1 )L (λ j − λ j −1 )(λ j − λ j +1 )L (λ j − λn )

Expresia de mai sus se poate pune sub forma

f ( A) = ∑ Z j f (λ j ) ,
n

j =1

iar coeficienţii Z j , j = 1, n nu depind de funcţia de matrice f ci numai de A.


În cazul exemplului nostru, valorile proprii ale matricei A sunt λ 1 = 2 , λ 2 = 3 ,
λ 3 = 4 iar funcţia de matrice f ( A) se reduce la un polinom de gradul doi. Pentru
funcţia f ( z ) = e z t avem f (2 ) = e 2 t , f (3) = e 3 t , f (4 ) = e 4 t şi

f ( A) = e A t = Z 1 e 2 t + Z 2 e 3 t + Z 3 e 4 t .

Deoarece coeficienţii Z i , i = 1, 3 nu depind de funcţia de matrice f ci numai de


matricea A, pentru f ( z ) = z , f ( z ) = z − 1 , respectiv f ( z ) = z 2 obţinem sistemul

2 Z 1 + 3Z 2 + 4 Z 3 = A
Z 1 + 2 Z 2 + 3Z 3 = A − I 3
4 Z 1 + 9 Z 2 + 16 Z 3 = A 2 ,

sistem care are soluţia:

1 2 7
Z1 = A − A + 6I 3 ,
2 2
Z 2 = − A + 6 A − 8I 3 ,
2

1 5
Z 3 = A 2 − A + 3I 3 .
2 2

Cu aceste valori, exponenţiala matricei A se obţine sub forma:

e At = [(A − 7 A + 12 I 3 )e 2 t + 2(− A2 + 6 A − 8I 3 )e 3 t + (A2 − 5 A + 6I 3 )e 4 t ].


1 2
2
3.7. EXERCIŢII 149

−1 ( A t )Q
Remarcă. Din propoziţia 6.9, v) avem e Q = Q −1e A t Q de unde obţinem

−1 ( A t )Q
e At = Q eQ Q −1 ,

unde matricea Q conţine pe coloane vectorii proprii ai matricei A. Calculând


aceşti vectori proprii obţinem

⎛1 2 1⎞
⎜ ⎟
Q = ⎜ 0 1 − 2⎟
⎜0 0
⎝ 2 ⎟⎠

şi cu ajutorul formulei precedente obţinem exponenţiala matricei A.

6) Să se calculeze e A t unde

⎛ 1 −1 −1⎞
⎜ ⎟
A = ⎜ − 3 − 4 − 3⎟ .
⎜ 4 7 6 ⎟⎠

Rezolvare. Vom folosi remarca precedentă şi forma canonică Jordan obţinută în


exemplul 2. Exponenţiala matricei A o vom calcula cu ajutorul formulei
−1 ( A t )Q
e At = Q eQ Q −1 ,

unde (vezi exemplul 2):

⎛ 0 − 3 1⎞
⎜ ⎟
Q=⎜ 1 1 0⎟ .
⎜ − 1 1 − 1⎟
⎝ ⎠

Deoarece

⎛ −1 0 0⎞
⎜ ⎟
Q AQ = ⎜ 0 2 0 ⎟
−1

⎜ 0 1 2⎟
⎝ ⎠

−1 ( A t )Q
formula e A t = Q e Q Q −1 (vezi şi propoziţia 6.9, vi)) ne dă:
150 3. VECTORI ŞI VALORI PROPRII

⎛ 1 2 1 ⎞ ⎛ e -t 0 0 ⎞ ⎛ 0 − 3 1⎞
−1 ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
e At = Q e Q ( A t )Q Q −1 = ⎜ − 1 − 1 − 1 ⎟ ⋅ ⎜ 0 e2t 0 ⎟⋅⎜ 1 1 0⎟ =
⎜ − 2 − 3 − 3⎟ ⎜ 0
⎝ ⎠ ⎝ e2t e 2 t ⎟⎠ ⎜⎝ − 1 1 − 1⎟⎠

⎛ 2e 2 t − 3e -t + 4e 2 t e -t − e 2 t ⎞
⎜ ⎟
= ⎜ − e2t 3e -t − 3e 2 t − e -t + e 2 t ⎟ .
⎜ − e2t
⎝ 6e -t − 7e 2 t − 2e -t + 2e 2 t ⎟⎠

7.2. Exerciţii propuse.

1) Dacă A este matricea ataşată operatorului liniar U : R 3 → R 3 , să se determine


o bază în care matricea ataşată acestui operator liniar să aibă forma diagonală:

⎛ 3 2 0⎞ ⎛ 4 6 0⎞
⎜ ⎟ ⎜ ⎟
a) A = ⎜ 2 0 0⎟ ; b) A = ⎜ − 3 − 5 0 ⎟ ;
⎜ 0 0 − 1⎟ ⎜ − 3 − 6 1⎟
⎝ ⎠ ⎝ ⎠
⎛ 7 4 − 1⎞ ⎛ 1 −1 2⎞
⎜ ⎟ ⎜ ⎟
c) A = ⎜ 4 7 − 1⎟ ; d) A = ⎜ 3 − 3 6 ⎟ ;
⎜− 4 − 4 4 ⎟⎠ ⎜ 2 − 2 4⎟
⎝ ⎝ ⎠
⎛ − 3 − 7 − 5⎞ ⎛ 0 1 2⎞
⎜ ⎟ ⎜ ⎟
e) A = ⎜ 2 4 3⎟; f) A = ⎜ 0 2 0⎟ .
⎜ 1 2 2 ⎟⎠ ⎜ − 2 − 2 − 1⎟
⎝ ⎝ ⎠

2) Să se verifice dacă matricea

⎛2 0 1⎞
0
⎜ ⎟
⎜0 2 0 0⎟
A=⎜
0 0 2 − 2⎟
⎜⎜ ⎟
⎝1 0 −2 6 ⎟⎠

poate fi adusă la forma diagonală.

3) Să se afle valorile proprii şi vectorii proprii pentru operatorii liniari


U : R 3 → R 3 definiţi de matricele:
3.7. EXERCIŢII 151

⎛ 7 4 1⎞ ⎛ 4 6 0⎞
⎜ ⎟ ⎜ ⎟
a) A = ⎜ 4 7 − 1⎟ ; b) A = ⎜ − 3 − 5 0 ⎟ ;
⎜− 4 − 4 4 ⎟⎠ ⎜ − 3 − 6 1⎟
⎝ ⎝ ⎠

⎛ 3 2 0⎞ ⎛ 1 −1 2⎞
⎜ ⎟ ⎜ ⎟
c) A = ⎜ 2 0 0⎟ ; d) A = ⎜ 3 − 3 6 ⎟ ;
⎜ 0 0 − 1⎟ ⎜ 2 − 2 4⎟
⎝ ⎠ ⎝ ⎠

⎛ 1 2 0⎞ ⎛ − 3 − 7 − 5⎞
⎜ ⎟ ⎜ ⎟
e) A = ⎜ 0 2 0⎟ ; f) A = ⎜ 2 4 3⎟.
⎜ − 2 − 2 − 1⎟ ⎜ 1 2 2 ⎟⎠
⎝ ⎠ ⎝

4) Să se aducă la forma canonică Jordan matricele:

⎛ 1 3 3⎞ ⎛ 0 1 0⎞
⎜ ⎟ ⎜ ⎟
a) A = ⎜ − 1 9 6⎟; b) A = ⎜ − 4 4 0 ⎟ ;
⎜ 2 − 14 − 9 ⎟ ⎜ 0 0 2⎟
⎝ ⎠ ⎝ ⎠
⎛ 2 −1 2⎞ ⎛ − 4 − 7 − 5⎞
⎜ ⎟ ⎜ ⎟
c) A = ⎜ 5 − 3 3⎟; d) A = ⎜ 2 3 3⎟;
⎜ −1 0 − 2⎟ ⎜ 1 2 1 ⎟⎠
⎝ ⎠ ⎝
⎛ 5 1 − 1 − 1⎞
⎜ ⎟
⎜ 1 5 − 1 − 1⎟
e) A = ⎜ .
1 1 3 − 1⎟
⎜⎜ ⎟⎟
⎝ 1 1 − 1 3 ⎠

5) Să se determine vectorii proprii şi valorile proprii şi apoi să se aducă la forma


diagonală matricele ortogonală şi respectiv simetrică:

⎛ − cos ϕ 0 sin ϕ ⎞
⎜ ⎟
A=⎜ 0 1 0 ⎟ ,ϕ ∈R,
⎜ sin ϕ 0 cos ϕ ⎟
⎝ ⎠

⎛ 0 0 −1⎞
⎜ ⎟
A=⎜ 0 0 − 2⎟
⎜ −1 − 2 0 ⎟⎠

152 3. VECTORI ŞI VALORI PROPRII

6) Să se calculeze e A t în următoarele cazuri:

⎛ 4 6 0⎞ ⎛ 1 −1 2⎞
⎜ ⎟ ⎜ ⎟
a) A = ⎜ − 3 − 5 0 ⎟ ; b) A = ⎜ 3 − 3 6 ⎟ ;
⎜ − 3 − 6 1⎟ ⎜ 2 − 2 4⎟
⎝ ⎠ ⎝ ⎠

⎛ 1 0 − 2⎞ ⎛ 4 − 5 2⎞
⎜ ⎟ ⎜ ⎟
c) A = ⎜ 0 0 0 ⎟; d) A = ⎜ 5 − 7 3 ⎟ ;
⎜− 2 0 4 ⎟⎠ ⎜ 6 − 9 4⎟
⎝ ⎝ ⎠

⎛ 0 1 0⎞ ⎛ 2 0 0⎞
⎜ ⎟ ⎜ ⎟
e) A = ⎜ − 4 4 0 ⎟ ; f) A = ⎜ − 2 1 0 ⎟ ;
⎜ − 2 1 2⎟ ⎜ 3 1 1⎟
⎝ ⎠ ⎝ ⎠

⎛ 3 −1 0 0⎞ ⎛ 3 −1 0 0⎞
⎜ ⎟ ⎜ ⎟
⎜1 1 0 0⎟ ⎜ − 4 −1 0 0⎟
g) A = ⎜ ; h) A = ⎜ .
3 0 5 − 3⎟ 7 1 2 1⎟
⎜⎜ ⎟⎟ ⎜⎜ ⎟
⎝ 4 − 1 3 − 1 ⎠ ⎝ − 17 − 6 − 1 0 ⎟⎠
4. FORME BILINIARE. FORME PĂTRATICE

4.1. FORME BILINIARE

Fie Vn un spaţiu liniar de dimensiune n peste corpul R.

1.1. Definiţie. Aplicaţia U : Vn × Vn → R se numeşte formă biliniară dacă:


i) U ( x1 + x2 , y ) = U ( x1 , y ) + U ( x 2 , y ) , (∀) x1 , x 2 , y ∈V ;
ii) U (λ x, y ) = λ U ( x, y ) , (∀) x, y ∈Vn , (∀) λ ∈ R ;
iii) U ( x, y1 + y 2 ) = U ( x, y1 ) + U ( x, y 2 ) , (∀) x, y1 , y 2 ∈V ;
iv) U ( x, λ y ) = λ U ( x, y ) , (∀) x, y ∈Vn , (∀) λ ∈ R .

1.2. Observaţie. i) O formă biliniară este o aplicaţie U : Vn × Vn → R liniară în


ambele argumente.
ii) Aplicaţia U : Vn × Vn → R este formă biliniară dacă şi numai dacă:

U (α 1 x1 + α 2 x 2 , y ) = α 1U ( x1 , y ) + α 2U ( x2 , y ) , (∀) x1 , x2 , y ∈ Vn , (∀) α 1 , α 2 ∈ R ,
U ( x, α 1 y1 + α 2 y 2 ) = α 1U ( x, y1 ) + α 2U ( x, y 2 ) , (∀) x, y1 , y 2 ∈ Vn , (∀) α 1 , α 2 ∈ R .

iii) În cazul unei aplicaţii biliniare definită pe un spaţiu liniar complex, condiţia
iv) din definiţia 1.1 se înlocuieşte cu condiţia:

iv/) U ( x, λ y ) = λ U ( x, y ) , (∀) x, y ∈Vn , (∀) λ ∈ C .

1.3. Definiţie. Forma biliniară U : Vn × Vn → R , definită pe un spaţiu liniar real,


se numeşte simetrică dacă:

U ( x, y ) = U ( y, x ) , (∀) x, y ∈ Vn .

Dacă Vn este un spaţiu liniar complex, o formă biliniară cu proprietatea:

U ( x, y ) = U ( y, x ) , (∀) x, y ∈ Vn

se numeşte hermitică.
154 4. FORME BILINIARE. FORME PĂTRATICE

Forma biliniară U : Vn × Vn → K simetrică ( K = R ) sau hermitică ( K = C ) se


numeşte pozitiv semidefinită dacă U ( x, x ) ≥ 0 , (∀) x ∈Vn . Dacă în plus avem
U ( x, x ) = 0 ⇔ x = 0Vn atunci U se numeşte pozitiv definită.

1.4. Exemple. i) Orice produs scalar real (complex) este o formă biliniară
simetrică (hermitică) pozitiv definită.
n n
ii) Fie Vn un spaţiu liniar complex de dimensiune n, x = ∑ xi ei , y = ∑ y j e j ∈Vn .
i =1 j =1
n n
Aplicaţia U : Vn × Vn → C , U ( x, y ) = ∑∑ aij xi y j , aij ∈ C , i,j = 1, n este o formă
i =1 j =1

biliniară pe Vn , fapt ce se verifică cu uşurinţă.


iii) Fie D ⊂ R n o mulţime deschisă, f : D → R o funcţie de clasă C 2 pe D şi
x0 ∈ D . Aplicaţia (d 2 f )( x0 ) : R n × R n → R ,

∂2 f
(d f )(x )(x, y ) = ∑∑
n n
2
0 ( x 0 ) xi y j ,
i =1 j =1 ∂ xi ∂ x j

este o formă biliniară simetrică numită diferenţiala a doua a funcţiei f în punctul


x0 .

1.5. Teoremă. Fie Vn un spaţiu liniar real de dimensiune n, B = { e1 , e2 ,L, en }


bază în Vn . Aplicaţia U : Vn × Vn → R este o formă biliniară pe Vn dacă şi numai
dacă:
n n
U ( x, y ) = ∑∑ aij xi y j , aij ∈ R , i , j = 1, n ,
i =1 j =1

n n
pentru orice x = ∑ xi ei , y = ∑ y j e j ∈Vn .
i =1 j =1

n n
Demonstraţie. Fie U : Vn × Vn → R formă biliniară, x = ∑ xi ei , y = ∑ y j e j
i =1 j =1

vectori din Vn . Atunci:

⎛ n ⎞ n n
U ( x, y ) = U ⎜⎜ ∑ xi ei , ∑ y j e j ⎟⎟ = ∑∑ xi y jU (ei , e j ) = ∑∑ aij xi y j ,
n n n

⎝ i =1 y =1 ⎠ i =1 j =1 i =1 j =1

unde am notat U (ei , e j ) = aij , i, j = 1, n .


4.4. EXERCIŢII 155

Reciproc, fie aplicaţia U : Vn × Vn → R , a cărei expresie analitică este:

n n
U ( x, y ) = ∑∑ aij xi y j , aij ∈ R , i,j = 1, n .
i =1 j =1

Dacă notăm A = (aij )i , j =1,n , X, Y vectorii coloană formaţi din coordonatele


n n
vectorilor x = ∑ xi ei , y = ∑ y j e j ∈Vn , atunci expresia de mai sus a aplicaţiei U
i =1 j =1

se scrie matriceal sub forma:

U = X t AY .

Pentru x , y , z ∈Vn , α , β ∈ R , cu notaţiile de mai sus, putem scrie:

U (α x + β y , z ) = (α X + β Y ) A Z = α X t A Z + β Y t A Z =
t

= α U ( x, z ) + β U ( y , z ) ,

deci U este liniară în primul argument. Analog se arată liniaritatea lui U în al


doilea argument.

1.6. Definiţie. Dacă U : Vn × Vn → R este formă biliniară, B = { e1 , e2 ,L, en } bază


în Vn , matricea A = (aij )i , j =1,n , aij = U (ei , e j ) , i, j = 1, n se numeşte matricea
ataşată formei pătratice U în baza B.

1.7. Observaţie. Expresia analitică a unei forme biliniare definită pe un spaţiu


liniar complex raportat la baza B = { e1 , e2 ,L, en } este:

U ( x, y ) = ∑∑ aij xi y j , aij = U (ei , e j )∈ C , i , j = 1, n .


n n

i =1 j =1

1.8. Teoremă. Fie Vn spaţiu liniar real, B ′ = {e1 , e2 ,L, en }, B ′′ = { f1 , f 2 ,L, f n }


baze în Vn , U : Vn × Vn → R formă biliniară. Dacă A = (aij )i , j =1,n , B = (bij )i , j =1,n
sunt matricele ataşate lui U în bazele B′ respectiv B ′′ iar C = (cij )i , j =1,n este
matricea de trecere de la baza B′ la baza B ′′ atunci:

B = C AC t .
156 4. FORME BILINIARE. FORME PĂTRATICE

Demonstraţie. Deoarece C = (cij )i , j =1,n este matrice de trecere de la baza B′ la


baza B ′′ avem:
n
f i = ∑ cij e j , i = 1, n .
j =1

Atunci:

bij = U ( f i , f j ) = U ⎜ ∑ cik ek , ∑ c jl el ⎟ = ∑∑ cik c jlU (ek , el ) =


⎛ n n
⎞ n n
⎝ k =1 l =1 ⎠ k =1 l =1
n n n
⎛ n ⎞
= ∑∑ cik c jl a kl = ∑ ⎜ ∑ cik a kl ⎟ c jl , i, j = 1, n ,
k =1 l =1 l =1 ⎝ k =1 ⎠

de unde rezultă B = C A C t .

1.9. Observaţie. i) Dacă Vn este un spaţiu liniar complex şi U : Vn × Vn → C este


o formă biliniară atunci rezultatul din teorema 1.8 se scrie:

B = C AC t .

ii) Fie Vn este un spaţiu liniar real şi U : Vn × Vn → R o formă biliniară simetrică.


Atunci egalităţile U (ei , e j ) = U (e j , ei ) , i, j = 1, n implică aij = a ji , i, j = 1, n deci
matricea ataşată unei forme biliniare simetrice este simetrică. Se arată cu uşurinţă
că şi reciproca acestei afirmaţii este adevărată.

iii) Dacă Vn este un spaţiu liniar complex şi U : Vn × Vn → C este o formă


biliniară hermitică atunci U ( ei , e j ) = U ( e j , ei ) , i, j = 1, n implică aij = a ji ,
i, j = 1, n deci matricea ataşată unei forme biliniare hermitică este hermitică. Se
arată cu uşurinţă că şi reciproca acestei afirmaţii este adevărată.

1.10. Definiţie. Se numeşte rangul formei biliniare U : Vn × Vn → R rangul


matricei ataşată lui U într-o bază din Vn . Dacă rangU = n atunci forma biliniară
U se numeşte nedegenerată.

Remarcă. Dacă matricea C este nesingulară şi B = C A C t atunci matricele A şi B


au acelaşi rang deci rangul unei forme pătratice nu depinde de baza spaţiului.
4.4. EXERCIŢII 157

1.11. Definiţie. Mulţimea

KerU = { x ∈Vn U ( x, y ) = 0 , (∀) y ∈Vn }

se numeşte nucleul formei biliniare U.

Remarcă. Mulţimea KerU este un subspaţiu liniar în Vn .

1.12. Teoremă. Fie U : Vn × Vn → K formă biliniară. Atunci:

rangU = n − dim KerU .

Demonstraţie. Fie B = {e1 , e2 ,L, en } bază în Vn , A = (aij )i , j =1,n , aij ∈ K , i, j = 1, n


n n
matricea ataşată lui U în această bază. Pentru x = ∑ xi ei , y = ∑ y j e j ∈Vn fie
i =1 j =1

n
⎛ n ⎞
U ( x, y ) = ∑ ⎜ ∑ aij xi ⎟ y j = 0 .
j =1 ⎝ i =1 ⎠

Vectorul x aparţine nucleului formei biliniare U dacă şi numai dacă


(x1 , x2 ,L, xn ) este soluţie a sistemului liniar şi omogen:
n

∑a
i =1
ij xi = 0 , j = 1, n .

Dimensiunea subspaţiului liniar al soluţiilor acestui sistem este egală cu


n − rangA şi cum KerU coincide cu mulţimea soluţiilor sistemului, teorema este
demonstrată.

Remarcă. Din teorema de mai sus rezultă că U este nedegenerată dacă şi numai
dacă KerU = 0Vn . { }
1.13. Definiţie. Vectorii x, y ∈Vn se numesc ortogonali în raport cu forma
biliniară simetrică U : Vn × Vn → R dacă U ( x, y ) = 0 . Baza B = { e1 , e2 ,L, en } din
Vn se numeşte ortogonală în raport cu forma biliniară simetrică U dacă
U (ei , e j ) = 0 , i ≠ j , i, j = 1, n .

1.14. Observaţie. Dacă baza B = {e1 , e2 ,L, en } este ortogonală în raport cu forma
158 4. FORME BILINIARE. FORME PĂTRATICE

biliniară simetrică U : Vn × Vn → R atunci expresia analitică a lui U faţă de

această bază este:


n
U ( x, y ) = ∑ aii xi y i .
i =1

4.2. FORME PĂTRATICE

Fie Vn un spaţiu liniar real şi U : Vn × Vn → R o formă biliniară simetrică.

2.1. Definiţie. Aplicaţia F : Vn → R , F ( x ) = U ( x, x ) se numeşte formă pătratică.


Forma biliniară U care defineşte forma pătratică F se numeşte polara lui F.

2.2. Observaţie. Dacă A = (aij )i , j =1,n este matricea ataşată formei biliniare U în
baza B = { e1 , e2 ,L, en } atunci:

⎛ n n
⎞ n n
F ( x ) = U ( x, x ) = U ⎜⎜ ∑ xi ei , ∑ y j e j ⎟⎟ = ∑∑ aij xi x j =
⎝ i =1 j =1 ⎠ i =1 j =1
n n
= ∑ xi ∑ aij x j = X t A X .
i =1 j =1

Matricea A din formula de mai sus se numeşte matricea ataşată formei pătratice
în baza B; această matrice coincide cu matricea polarei U.

2.3. Propoziţie. Dacă F : Vn → R este o formă pătratică atunci există o unică


formă biliniară simetrică U : Vn × Vn → R astfel încât F ( x ) = U ( x, x ) , (∀) x ∈Vn .

Demonstraţie. Fie A = (aij )i , j =1,n matricea ataşată formei pătratice într-o bază
oarecare din Vn . Atunci:

F ( x + y ) = ∑∑ aij ( xi + y i ) (x j + y j ) =
n n

i =1 j =1
n n n n n n
= ∑∑ aij xi x j + 2∑∑ aij xi y j + ∑∑ aij yi y j =
i =1 j =1 i =1 j =1 i =1 j =1

= F ( x ) + 2U ( x, y ) + F ( y ) ,
4.4. EXERCIŢII 159

de unde rezultă:

1
U ( x, y ) = [F (x + y ) − F (x ) − F ( y )].
2

2.4. Definiţie. Fie M ⊂ Vn un subspaţiu liniar şi U : Vn × Vn → R o formă


biliniară. Mulţimea

M ⊥ = { y ∈Vn U ( x, y ) = 0 , (∀) x ∈ M }
se numeşte complementul ortogonal al lui M în Vn faţă de U.

Remarcă. Se constată cu uşurinţă că M ⊥ este subspaţiu liniar în Vn .

2.5. Teoremă. Fie U : Vn × Vn → R formă biliniară simetrică şi M un subspaţiu


liniar în Vn . Atunci următoarele afirmaţii sunt echivalente:
i) Vn = M ⊕ M ⊥ ;
ii) restricţia lui U la M este nedegenerată.

Demonstraţie. Fie restricţia lui U la M nedegenerată. Atunci egalitatea


U ( x, y ) = 0 , (∀) y ∈ M are loc dacă şi numai dacă x = 0 V . De aici rezultă:
n

M ∩ M = {0 Vn }. Fie B ′ = {e1 , e2 ,L, e p } bază în M pe care o completăm până la


n
o bază B = { e1 , e2 ,L, en } în Vn . Dacă y = ∑ y j e j ∈ M ⊥ atunci condiţiile
j =1

U (ei , y ) = 0 , i = 1, p se scriu:

∑ y U (e , e ) = 0 , i = 1, p .
n

j i j
j =1

Deoarece restricţia lui U la M este nedegenerată, matricea sistemului de mai sus


are rangul p deci subspaţiul soluţiilor sistemului (subspaţiu care coincide cu M ⊥ )
are dimensiunea n − p . De aici rezultă că dim M + dim M ⊥ = n şi cum
M ∩ M ⊥ = {0 Vn } avem M ⊕ M ⊥ = Vn .
Reciproc, dacă M ⊕ M ⊥
= Vn rezultă M ∩ M ⊥ = {0 Vn } ceea ce înseamnă că
restricţia lui U la M este nedegenerată.
160 4. FORME BILINIARE. FORME PĂTRATICE

2.6. Definiţie. Spunem că forma pătratică F : Vn → R are expresia canonică dacă


expresia sa analitică într-o bază din Vn este:

n
F ( x ) = ∑ a i xi2 , a i ∈ R , i = 1,n .
i =1

2.7. Observaţie. Dacă U : Vn × Vn → R este o formă biliniară simetrică şi baza


B = { e1 , e2 ,L, en } este ortogonală în raport cu forma biliniară U atunci:

n
F ( x ) = U ( x, x ) = ∑ aii xi2 .
i =1

2.8. Teoremă. Dacă F : Vn → R este o formă pătratică atunci există o bază în Vn


faţă de care F are expresia canonică.

Demonstraţie. Să presupunem că forma pătratică F este nedegenerată deci şi


polara U are aceeaşi proprietate. În acest caz vom demonstra teorema prin
inducţie după dimensiunea spaţiului. Pentru n = 1 baza căutată este formată dintr-
un vector nenul. Presupunem că afirmaţia din teoremă este adevărată pentru
n − 1 , n ≥ 2 . Deoarece U este nedegenerată avem KerU = 0Vn ; există deci { }
vectorii x, y ∈Vn astfel încât U ( x, y ) ≠ 0 .
Din egalitatea

1
U ( x, y ) = [F (x + y ) − F (x ) − F ( y )] = 1 [U (x + y, x + y ) − U (x, x ) − U ( y, y )]
2 2

deducem că cel puţin unul din scalarii U ( x + y, x + y ) , U ( x, x ) , U ( y, y ) este


nenul. Există deci e1 ∈Vn astfel încât U (e1 , e1 ) ≠ 0 . Fie M = L(e1 ) şi M ⊥
complementul lui ortogonal faţă de U. Dacă x ∈ M atunci x = λ e1 , λ ∈ R şi
U (e1 , x ) = U (e1 , λ e1 ) = λ U (e1 , e1 ) ≠ 0 pentru λ ≠ 0 . De aici rezultă că restricţia lui
U la M este nedegenerată. Cu teorema 2.5 avem Vn = M ⊕ M ⊥
şi restricţia lui U
la M este nedegenerată; atunci rezultă că dim M = n − 1 şi cu ipoteza de
⊥ ⊥

inducţie în M ⊥ , există o bază { e2 , e3 ,L, en } ortogonală faţă de restricţia lui U la


M ⊥ deci şi faţă de U. Din modul cum au fost construiţi, vectorii e1 , e2 ,L, en sunt
ortogonali doi câte doi faţă de U Să arătăm că aceşti vectori sunt şi liniar
independenţi, deci formează o bază în Vn . Fie combinaţia liniară:

α 1e1 + α 2 e2 + L + α n en = 0 , α i ∈ R , i = 1, n .
4.4. EXERCIŢII 161

Atunci:

0 = U (ei , α 1e1 + L + α n en ) = α 1U (ei , e1 ) + L + α nU (ei , en ) = α iU (ei , ei )

şi cum U (ei , ei ) ≠ 0 rezultă α i = 0 , i = 1, n . Baza astfel obţinută are proprietăţile

cerute de enunţul teoremei.


Fie acum cazul când U este degenerată, deci KerU ≠ 0V ; notăm { } n

KerU = M şi W complementul lui M. În aceste condiţii avem:

M ⊕ W = Vn , M ∩ W = {0Vn }.

Din teorema 1.12 rezultă dim M = n − rangU şi atunci avem:

dimW = n − dim M = rangU .

Aceasta înseamnă că restricţia lui U la W este nedegenerată. Fie


p = dimW = rangU . Din prima parte a demonstraţiei rezultă că există o bază
B ′ = { f 1 , f 2 ,L , f p } în W, ortogonală faţă de restricţia lui U la W deci şi faţă de U.
Completăm baza B′ până la o bază B = { f1 , f 2 ,L , f p , f p +1 ,L , f n } în Vn .
Deoarece vectorii f p +1 ,L , f n aparţin lui KerU , ei satisfac egalităţile:

U ( f k , f h ) = 0 , k ≠ h , k , h = p + 1, n ,

de unde rezultă că baza B este ortogonală faţă de U şi teorema este complet


demonstrată.

În cazul formelor pătratice pe spaţii euclidiene teorema de mai sus are o


demonstraţie mult mai simplă.

2.9. Teoremă. Dacă En este un spaţiu euclidian real şi F : E n → R este o formă


pătratică atunci există o bază ortonormată în En faţă de care F are expresia
canonică.

Demonstraţie. Fie B ′ = { f1 , f 2 ,L, f n } o bază ortonormată în En şi A matricea


ataşată formei pătratice F în această bază. Atunci A = A t şi matricea A defineşte
~ ~
un operator simetric U : E n → E n , U ( x ) = y ⇔ Y = A X , unde X, Y sunt vectorii
coloană ce conţin coordonatele vectorilor x respectiv y. Cu teorema 5.4, capitolul
162 4. FORME BILINIARE. FORME PĂTRATICE

3, rezultă că există o bază B = { e1 , e2 ,L, en } ortonormată în En , bază formată din


~ ~
vectori proprii ai lui U , astfel încât matricea ataşată lui U în această bază este
diagonală şi:

D(λ ) = Q −1 A Q .

Precizăm că matricea Q este ortogonală şi conţine pe coloane coordonatele


~
vectorilor proprii normaţi ai endomorfismului U iar matricea diagonală D(λ )
~
conţine pe diagonală valorile proprii ale lui U , în ordinea în care au fost trecuţi
vectorii proprii în matricea Q (deci în baza B). Matricea de trecere este C = Q t ,
iar matricea ataşată formei pătratice F în baza B = { e1 , e2 ,L, en } este:

B = C A C t = Q t A Q = Q −1 A Q = D(λ ) .

În baza astfel găsită forma pătratică are expresia canonică:


n n
F ( x ) = ∑ λ i ( xi′ ) , x = ∑ xi′ei .
2

i =1 i =1

2.10. Teoremă (metoda lui Gauss). Dacă Vn este un spaţiu liniar complex şi
F : Vn → C o formă pătratică atunci există o bază B = { e1 , e2 ,L, en } în Vn faţă de
care F are expresia canonică.

Demonstraţie. Fie B ′ = { f1 , f 2 ,L, f n } bază în Vn faţă de care F are expresia


n n
analitică F ( x ) = ∑∑ aij xi x j .Să presupunem pentru început că există i ∈ N ∗ ,
i =1 j =1

i ≤ n , astfel încât aii ≠ 0 . Printr-o eventuală rearanjare a vectorilor în bază putem


presupune că a11 ≠ 0 . Atunci:

n n n
F ( x ) = a x + 2∑ a1k x1 xk + ∑∑ aij xi x j =
2
11 1
k =1 i =2 j =2

1
(a11 x1 + a12 x2 + L + a1n xn ) 2 − 1 ∑∑ a1i a1 j xi x j + ∑∑ aij xi x j =
n n n n
=
a11 a11 i = 2 j = 2 i =2 j =2

1 n n
= (a11 x1 + a12 x2 + L + a1n xn ) 2 + ∑∑ aij′ xi x j .
a11 i=2 j =2
4.4. EXERCIŢII 163

Fie baza B ′ = { f1′, f 2′,L, f n′} obţinută din baza B cu ajutorul matricei de trecere:

⎛ 1 a12 a1n ⎞
⎜− − L − ⎟
⎜ a11 a11 a11 ⎟
C =⎜ 0 1` L 0 ⎟.
⎜ ⎟
⎜ M M M M ⎟
⎜ 0
⎝ 0 L 1 ⎟⎠
n
În această bază coordonatele vectorului x = ∑ xi f i sunt:
i =1

x1′ = a11 x1 + a12 x 2 + L + a1n xn ,


xi′ = xi , i = 2, n ,

iar forma pătratică are următoarea expresie analitică:

1 n n n
F (x ) = (x1′ ) 2 + ∑∑ aij′ xi′x′j , x = ∑ xi′ f i′ .
a11 i=2 j =2 i =1

n n
Expresia ∑∑ a′ x′x′
i =2 j =2
ij i j este o formă pătratică în n − 1 variabile căreia i se poate

aplica procedeul de mai sus. Astfel, după cel mult n − 1 paşi se obţine o bază
B = { e1 , e2 ,L, en } faţă de care F are expresia canonică

n
F ( x ) = α 1 y12 + α 2 y 22 + L + α n y n2 , x = ∑ y i ei , α i ∈ C , i = 1, n .
i =1

Dacă aii = 0 , (∀) i = 1, n şi F nu este identic nulă atunci există a ij ≠ 0 , i ≠ j .


Printr-o eventuală rearanjare a vectorilor în baza B1 putem presupune că a12 ≠ 0 .
Dacă considerăm baza B ′ = { f1′, f 2′,L, f n′} , unde

f1′ = f1 + f 2 , f 2′ = f1 − f 2 , f i′ = f i , i = 3, n ,

atunci între coordonatele vectorului x în bazele B1 şi B1′ există relaţiile

x1 = x1′ + x ′2
x 2 = x1′ − x 2′
xi = xi′ , i = 3, n ,
164 4. FORME BILINIARE. FORME PĂTRATICE

astfel încât în baza B1′ forma pătratică capătă expresia:

n n
F ( x ) = ∑∑ aij′ xi′x′j .
i =1 j =1

Această expresie conţine cel puţin două pătrate (deoarece x1 x 2 = ( x1′ ) − ( x 2′ ) ),


2 2

deci i se poate aplica metoda expusă în prima parte a demonstraţiei.

2.11. Observaţie. Între coordonatele vectorului x în bazele B ′ = { f1 , f 2 ,L, f n } şi


B = { e1 , e2 ,L, en } din teorema precedentă există relaţiile:

y1 = a11 x1 + a12 x 2 + L + a1,n −1 x n −1 + a1n x n


y2 = ′ x2 + L + a ′2 ,n −1 x n −1 + a ′2 n xn
a 22
LLLLLLLLLLLLLLLLL
y n −1 = a n( n−−1,2n)−1 xn −1 + a n( n−−1,2n) x n
yn = a n( n −1) x n ,

relaţii care se pot scrie matriceal sub forma:

Y = A1 X , A1 ∈ M n (C ) .

Matricea de trecere de la baza B1 la baza B este:

C = (A1−1 ) .
t

2.12. Teoremă (Jacobi). Fie F : Vn → R o formă pătratică şi A = (aij )i , j =1,n


matricea ataşată formei F în baza B = { e1 , e2 ,L, en }. Dacă determinanţii

a11 a12
Δ1 = a11 , Δ 2 = , L, Δ n = det A
a 21 a 22

sunt nenuli atunci există o bază B ′ = { e1′ , e′2 ,L, e′n } faţă de care expresia formei
pătratice este:

n
Δ i −1
F (x ) = ∑ (xi′ ) 2 ,
i =1 Δi
4.4. EXERCIŢII 165

n
unde Δ 0 = 1 şi x = ∑ xi′ei′ .
i =1

Demonstraţie. Fie U : Vn × Vn → R polara formei pătratice F; căutăm vectorii


bazei B′ de forma:

e1′ = c11e1 ,
e′2 = c12 e1 + c 22 e2 ,
e3′ = c13 e1 + c 23 e2 + c33 e3 ,
L LLLLLL L LL

e′j = c1 j e1 + c2 j e2 + L + c jj e j
L LLLLLL L LLL
e′n = c1n e1 + c2 n e2 + L + cnn en .

Pentru determinarea coeficienţilor cij punem condiţiile:

U (e′j , ei ) = 0,
U (e′j , e j ) = 1 ; j = 1, n , i = 1, j

şi obţinem astfel sistemele liniare:

a11c1 j + a12 c2 j + L + a1 j c jj = 0
a 21c1 j + a 22 c2 j + L + a 2 j c jj = 0
LLLLLLLLLLLLL
a j1c1 j + a j 2 c2 j + L + a jj c jj = 1 .

Determinanţii acestor sisteme sunt Δ j , j = 1, n şi ei sunt diferiţi de zero conform


ipotezei; rezultă că sistemele de mai sus au soluţie unică. Cu regula lui Cramer
obţinem:

a11 L a1, j −1 0
1 a 21 L a 2 , j −1 0 Δ j −1
c jj = ⋅ = .
Δj M M M 0 Δj
a j ,1 L a j , j −1 1

Să determinăm acum expresia formei pătratice în baza B′ . Pentru i < j avem:


166 4. FORME BILINIARE. FORME PĂTRATICE

U (e′j , ei′ ) = U (e′j , c1i e1 + c 2i e2 + L + cii ei ) = ∑ c kiU (e′j , ek ) = 0 .


i

k =1

Dacă i = j obţinem:

U (e′j , e′j ) = U (e′j , c1 j e1 + c 2 j e2 + L + c jj e j ) = ∑ ckjU (e′j , ek ) = c jj .


j

k =1

Pentru i > j din simetria formei biliniare U rezultă U (e′j , ei′ ) = U (ei′ , e′j ) = 0 .

Δ j −1
Obţinem astfel U ( e′j , ei′ ) = 0 pentru i ≠ j , U ( e′j , e′j ) = , j = 1, n şi forma
Δj
pătratică F capătă expresia:
n
Δ i −1 n
F (x ) = ∑ ( xi ) 0
′ Δ = = ∑ xi′ei′ .
2
; 1 , x
i =1 Δ i i =1

4.3. SIGNATURA UNEI FORME PĂTRATICE REALE

Fie Vn un spaţiu liniar real.

3.1. Definiţie. Forma pătratică F : Vn → R se numeşte pozitiv semidefinită dacă


F ( x ) ≥ 0 , (∀) x ∈Vn . Dacă în plus F ( x ) = 0 ⇔ x = 0 V n atunci F se numeşte
pozitiv definită. Forma pătratică F se numeşte negativ definită dacă − F este
pozitiv definită. Dacă există x, y ∈Vn astfel încât F ( x ) < 0 şi F ( y ) > 0 atunci F
se numeşte nedefinită.

3.2. Teoremă (criteriul lui Sylvester). Fie F : Vn → R o formă pătratică,


A = (aij )i , j =1,n matricea ataşată formei F în baza B = { e1 , e2 ,L, en } şi
determinanţii:

a11 a12
Δ1 = a11 , Δ 2 = , L, Δ n = det A .
a 21 a 22

Forma pătratică F : Vn → R este:


i) pozitiv definită dacă şi numai dacă Δ i > 0 , i = 1, n ;
4.4. EXERCIŢII 167

ii) negativ definită dacă şi numai dacă (− 1) Δ i > 0 , i = 1, n .


i

Demonstraţie. Fie F : Vn → R formă pătratică pozitiv definită, U : Vn × Vn → R


polara ei, B = { e1 , e2 ,L, en } bază în Vn şi A = (aij )i , j =1,n matricea ataşată lui F în
această bază. Presupunem prin absurd că există 1 ≤ p ≤ n astfel încât Δ p = 0 .
Aceasta înseamnă că o linie a determinantului Δ p este o combinaţie liniară de
celelalte linii (vezi corolar 1.24, anexă) adică există α i ∈ R , i = 1, p nu toţi nuli
astfel încât:

α 1 a1i + α 2 a 2 i + L + α p a pi = 0 , i = 1, p .

Egalităţile de mai sus se pot scrie sub forma:

U (α 1e1 + α 2 e2 + L + α p e p , ei ) = 0 , i = 1, p .

Amplificăm egalităţile de mai sus cu α i şi sumăm după i = 1, p ; obţinem astfel:

U ( α 1e1 + α 2 e2 + L + α p e p , α 1e1 + α 2 e2 + L + α p e p ) = 0 .

Deoarece U este pozitiv definită egalitatea de mai sus implică:

α 1e1 + α 2 e2 + L + α p e p = 0

şi cum scalarii α i ∈ R , i = 1, p nu sunt toţi nuli rezultă că vectorii ei , i = 1, p


sunt liniar dependenţi, ceea ce contrazice ipoteza că B = { e1 , e2 ,L, en } este bază
în Vn . Rezultă că Δ p ≠ 0 , p = 1, n . Cu teorema lui Jacobi există o bază în Vn faţă
de care F are expresia canonică:

n
Δ i −1
F (x ) = ∑ (xi′ ) 2
i =1 Δi

Δ i −1
şi cum F este pozitiv definită rezultă > 0 , i = 1, n . Deoarece Δ 0 = 1 > 0 din
Δi
egalităţile de mai sus obţinem Δ i > 0 , i = 1, n .
168 4. FORME BILINIARE. FORME PĂTRATICE

Δ i −1 n
Δ
Reciproc, dacă Δ i > 0 , i = 1, n atunci > 0 , i = 1, n şi din F ( x ) = ∑ i −1 ( xi′ )
2

Δi i =1 Δ i

rezultă F ( x ) ≥ 0 , (∀) x ∈Vn . Dacă F ( x ) = 0 atunci din expresia canonică a lui F


dată de teorema lui Jacobi rezultă xi′ = 0 , i = 1, n deci x = 0 V n .

Dacă F este negativ definită atunci F1 = − F este pozitiv definită. Fie Δ ′i , i = 1, n


determinanţii din teorema lui Jacobi corespunzători matricei − A . Din prima
parte a demonstraţiei rezultă că Δ ′i > 0 , i = 1, n şi cum Δ ′i = (− 1) Δ i obţinem
i

(− 1) i Δ i > 0 , i = 1, n şi teorema este complet demonstrată.


3.3. Definiţie. Fie F : Vn → R o formă pătratică cu expresia canonică
n
F ( x ) = ∑ ai xi2 , în care p coeficienţi sunt strict pozitivi, q sunt strict negativi şi
i =1

d = n − ( p + q ) sunt egali cu zero. Tripletul ( p, q, d ) se numeşte signatura formei


pătratice F.

3.4. Teoremă (legea inerţiei). Signatura unei forme pătratice F : Vn → R este


aceeaşi în orice expresie canonică a lui F.

Demonstraţie. Fie B = { e1 , e2 ,L, en }, B ′ = { e1′ , e′2 ,L, e′n } două baze în Vn faţă de

care forma pătratică F are expresiile canonice:

F ( x ) = ∑ ai xi2 , F ( x ) = ∑ b j (x′j ) , x = ∑ x′j e′j ,


n n n
2

i =1 j =1 j =1

cu signaturile ( p, q, d ) , respectiv ( p ′, q ′, d ′) . Bazele de mai sus pot fi alese astfel


încât coeficienţii ai şi b j să ia valorile 1, 0 sau − 1 . Printr-o aranjare convenabilă
a vectorilor în cele două baze putem considera că primii p (respectiv p′ )
coeficienţi sunt egali cu 1, următorii q (respectiv q ′ ) sunt egali cu − 1 şi restul
nuli. În aceste condiţii avem:
p p+q
F ( x ) = ∑ xi2 − ∑x 2
i
i =1 i = p +1

în baza B şi respectiv
4.4. EXERCIŢII 169

p′ p ′ + q′
F ( x ) = ∑ ( xi′ ) − ∑ (x′ )
2 2
i
i =1 i = p ′ +1

în baza B′ . Teorema este demonstrată dacă arătăm că p = p′ şi q = q′ . Să


presupunem prin absurd că p > p′ şi fie subspaţiile liniare M = L( e1 , e2 ,L, e p ) ,
M ′ = L( e′p′+1 , e′p′+ 2 ,L, en′ ) . Avem dim M = p , dim M ′ = n − p′ şi cum p > p′

deducem că dim M + dim M ′ = p + n − p′ > n . Rezultă că subspaţiul M + M ′ nu


este sumă directă de subspaţii şi deci M ∩ M ′ ≠ 0 V n . { }
Fie ~x ∈ M ∩ M ′, ~
x ≠ 0 . Atunci
Vn

~
x = x1e1 + x 2 e2 + L + x p e p = x ′p +1e′p +1 + x ′p + 2 e′p + 2 + L + x n′ e′n

şi astfel
p n
F (~
x ) = ∑ xi2 ≥ 0 , F (~
x ) = − ∑ ( xi′ ) ≤ 0 .
2

i =1 i = p′ +1

Din cele două inegalităţi rezultă F (~ x ) = 0 , ceea ce implică xi = 0 , i = 1, p ,


~
x ′p′+1 = x ′p′+ 2 = L = x ′n = 0 şi deci x = 0Vn . Deoarece ultima egalitate contrazice
ipoteza ~ x ≠ 0 , rezultă că p ≤ p′ ; analog se arată că p′ = p , deci p = p′ .
Vn

În acelaşi mod obţinem q = q′ , de unde rezultă d = d ′ şi ( p, q, d ) = ( p′, q ′, d ′) .

3.5. Observaţie. i) Din teorema de mai sus rezultă că forma pătratică F : Vn → R


este pozitiv definită dacă şi numai dacă are signatura ( n , 0 , 0 ) .
ii) Din teorema 2.11 rezultă că forma pătratică F este pozitiv definită dacă şi
numai dacă toate valorile proprii ale matricei ataşată formei F într-o bază dată
sunt strict pozitive.
iii) Din teorema 3.2 rezultă că F este pozitiv definită dacă şi numai dacă
Δ i > 0 , i = 1, n .

4.4. EXERCIŢII

4.1. Exerciţii rezolvate.


170 4. FORME BILINIARE. FORME PĂTRATICE

1) Fie forma pătratică F : R 3 → R 3 , F ( x ) = −3 x22 + 4 x1 x2 + 10 x1 x3 − 4 x2 x3 . Să se


aducă această formă pătratică la o expresie canonică cu ajutorul transformărilor
ortogonale de coordonate.

Rezolvare. Pentru a aduce forma pătratică la o expresie canonică cu ajutorul


transformărilor ortogonale de coordonate trebuie să determinăm o bază în R 3
formată din vectori proprii ai matricei ataşate formei pătratice (vezi teorema 2.9).
Matricea formei pătratice este:

⎛0 2 5⎞
⎜ ⎟
A = ⎜ 2 − 3 − 2⎟
⎜5 − 2 0 ⎟⎠

şi are valorile proprii λ 1 = −1 , λ 2 = 5 , λ 3 = −7 . Un vector propriu asociat valorii


proprii λ 1 = −1 se obţine prin rezolvarea sistemului (A − λ 1 I 3 ) X = 0 R 3 . Acest
sistem se scrie sub forma

x1 + 2 x2 + 5 x3 = 0
2 x1 − 2 x 2 − 2 x3 = 0
5 x1 − 2 x 2 + x3 = 0

iar o soluţie a lui este f1 = (− 1, − 2 ,1 ) . Calcule asemănătoare efectuate pentru


λ 2 = 5 şi λ 3 = −7 ne dau: f 2 = (1, 0 ,1 ) , f 3 = (− 1,1,1 ) ; se constată cu uşurinţă că
vectorii f1 , f 2 , f 3 sunt ortogonali iar vectorii

1 ⎛ 1 2 1 ⎞
f1′ = f1 = ⎜ − ,− , ⎟,
f1 ⎝ 6 6 6⎠

1 ⎛ 1 1 ⎞
f 2′ = f2 = ⎜ ,0, ⎟,
f2 ⎝ 2 2⎠

1 ⎛ 1 1 1 ⎞
f 3′ = f3 = ⎜ − , , ⎟,
f3 ⎝ 3 3 3⎠

formează o bază ortonormată în R 3 . Matricea


4.4. EXERCIŢII 171

⎛ 1 1 1 ⎞
⎜− − ⎟
⎜ 6 2 3⎟
⎜ 2 1 ⎟
Q = col ( f1′, f 2′, f 3′) = ⎜ − 0
6 3⎟
⎜ 1 1 1 ⎟⎟
⎜⎜ ⎟
⎝ 6 2 3⎠

este ortogonală şi dacă luăm matricea de trecere C = Q t avem:

⎛ −1 0 0⎞
⎜ ⎟
C AC = Q AQ = Q AQ = ⎜ 0 5
t t −1
0⎟.
⎜ 0 0 − 7⎟
⎝ ⎠

În urma transformării ortogonale de coordonate

1 1 1
x1′ +
x1 = − x2′ − x3′
6 2 3
2 1
X = Q X ′ ⇔ x2 = − x1′ + x′
6 3
1 1 1
x3 = x1′ + x′2 + x′
6 2 3

forma pătratică are expresia canonică:

F ( x ) = −( x1′ ) + 5 ( x′2 ) − 7 ( x3′ ) .


2 2 2

2) Să se aducă forma pătratică F : R 3 → R 3 , F ( x ) = x 2 x3 + 4 x3 x1 + x1 x 2 la o


expresie canonică folosind metoda lui Gauss.

Rezolvare. Deoarece forma pătratică are toţi coeficienţii aii = 0 , i = 1, 3 ,


efectuăm transformarea de coordonate

1 1
y1 =
x1 + x2
x1 = y1 + y 2 2 2
1 1
x 2 = y1 − y 2 ⇔ x2 = x1 − x2 ,
2 2
x3 = y 3
y 3 = x3
172 4. FORME BILINIARE. FORME PĂTRATICE

în urma căreia F capătă expresia F ( x ) = y12 − y 22 + 2 y1 y3 . Printr-o singură grupare


în pătrate obţinem:

F ( x ) = ( y1 + y3 ) − y 22 − y32 =
2

2 2
⎛1 1 ⎞ ⎛1 1 ⎞
= ⎜ x1 + x2 + x3 ⎟ − ⎜ x1 − x2 ⎟ − x32 =
⎝2 2 ⎠ ⎝2 2 ⎠
= ( x1′ ) − ( x ′2 ) − ( x3′ ) ,
2 2 2

unde

1 1
x1′ = x1 + x 2 + x3
2 2
1 1
x 2′ = x1 − x 2
2 2
x3′ = x3 .

Pentru a determina baza în raport cu care forma pătratică are expresia canonică
găsită, fie matricea

⎛1 1 ⎞
⎜ 1⎟
⎜2 2 ⎟
1 1
A1 = ⎜ − 0⎟ .
⎜2 2 ⎟
⎜0 0 1⎟
⎜ ⎟
⎝ ⎠

Matricea de trecere către baza căutată este (vezi observaţia 2.11)

C = (A1−1 ) .
t

După efectuarea calculelor obţinem matricea de trecere

⎛ 1 1 0⎞
⎜ ⎟
C = ⎜ 1 −1 0⎟
⎜ −1 −1 1⎟
⎝ ⎠

şi baza formată din vectorii f1 = ( 1,1, 0 ) , f 2 = ( 1, − 1, 0 ) , f 3 = ( − 1, − 1,1 ) .


4.4. EXERCIŢII 173

3) Utilizănd metoda lui Jacobi să se aducă forma pătratică F : R 3 → R 3 ,


F ( x ) = x12 + 7 x22 + x32 − 8 x1 x2 − 16 x1 x3 − 8 x2 x3 la o expresie canonică.

Rezolvare. Fie B = { e1 , e2 , e3 } baza canonică din R 3 ; în metoda lui Jacobi, baza


în raport cu care forma pătratică F are expresia canonică se caută sub forma:

e1′ = c11e1
e′2 = c12 e1 + c 22 e2
e3′ = c13 e1 + c 23 e2 + c33 e3 .

Coeficienţii cij , i = 1, j , j = 1, 3 , se determină din condiţiile

U (e′j , ei ) = 0 , i < j
U (e′j , e j ) = 1 , j = 1, 3 ,

unde U este polara formei pătratice F. Pentru j = 1 , condiţia U (e1′ , e1 ) = 1 ne dă


Δ 1
c11 = 0 = = 1 . Pentru j = 2 , condiţiile U (e′2 , e1 ) = 0 , U (e2′ , e2 ) = 1 ne conduc
Δ 1 a11
la sistemul

a11c12 + a12 c22 = 0 c12 − 4 c22 = 0


⇔ ,
a 21c12 + a 22 c22 = 1 − 4 c12 + 7 c22 = 1

1 4
sistem care are soluţia c12 = − , c22 = − .
9 9
În cazul j = 3 , condiţiile U (e3′ , e1 ) = 0 , U (e3′ , e2 ) = 0 , U (e3′ , e3 ) = 1 ne dau
sistemul

a11c13 + a12 c 23 + a13 c33 = 0 c13 − 4 c 23 − 8 c33 = 0


a 21c13 + a 22 c 23 + a33 c33 = 0 ⇔ − 4 c13 + 7 c23 − 4 c33 = 0 ;
a31c13 + a32 c23 + a33 c33 = 1 − 8 c13 − 4 c 23 + c33 = 1

8 4 1
soluţia acestui sistem este c13 = − , c 23 = − , c33 = .
81 81 81
Baza în raport cu care forma pătratică F are expresia canonică este:
174 4. FORME BILINIARE. FORME PĂTRATICE

e1′ = e1 = ( 1, 0 , 0 )
4 1 ⎛ 4 1 ⎞
e′2 = − e1 − e2 = ⎜ − , − , 0 ⎟
9 9 ⎝ 9 9 ⎠
8 4 1 ⎛ 8 4 1 ⎞
e3′ = − e1 − e2 + e3 = ⎜ − , − , ⎟
81 81 81 ⎝ 81 81 81 ⎠

iar expresia canonică este

Δ0
F (x ) = (x1′ ) 2 + Δ1 (x2′ ) 2 + Δ 2 (x3′ ) 2 = (x1′ ) 2 − 1 (x1′ ) 2 + 1 (x1′ ) 2 .
Δ1 Δ2 Δ3 9 81

4.2. Exerciţii propuse.

1) Să se aducă următoarele forme pătratice la o expresie canonic[ cu ajutorul


metodei lui Gauss:

a) F ( x ) = x12 + x22 + 3 x32 + 4 x1 x2 + 2 x1 x3 + 2 x2 x3 ;


b) F (x ) = x1 x 2 + x1 x3 + x1 x4 + x 2 x3 + x 2 x3 + x3 x 4 ;
c) F ( x ) = x12 + 2 x22 + x42 + 4 x1 x2 + 4 x1 x3 + 2 x1 x4 + 2 x2 x3 + 2 x2 x4 + 2 x3 x4 ;
d) F ( x ) = 4 x12 + x22 + x32 − 4 x1 x2 + 4 x1 x3 − 3 x2 x3 ;
e) F ( x ) = 8 x12 + 8 x22 + x32 + 16 x1 x2 + 4 x1 x3 + 4 x2 x3 .

2) Să se aducă la o expresie canonică, folosind transformările ortogonale de


coordonate, următoarele forme pătratice:

a) F ( x ) = x1 x2 + 2 x1 x3 + 2 x 2 x3 ;
b) F ( x ) = x12 − 2 x1 x2 − 2 x1 x3 − 2 x2 x3 ;
c) F ( x ) = 17 x12 + 14 x22 +14 x32 − 4 x1 x2 − 4 x1 x3 − 8 x2 x3 ;
d) F ( x ) = 2 x1 x 2 − 6 x1 x3 − 6 x 2 x3 + 2 x3 x 4 ;
e) F ( x ) = 3 x12 + 6 x22 + 3 x32 − 4 x1 x2 − 8 x1 x3 − 4 x2 x3 .

3) Utilizând metoda lui Jacobi, să se aducă următoarele forme pătratice la o


expresie canonică:

a) F ( x ) = 3 x12 + 2 x22 + x32 − 2 x1 x3 ;


b) F ( x ) = x12 − 2 x1 x2 − 2 x1 x3 − 2 x2 x3 ;
c) F ( x ) = x12 + 8 x22 + x32 + 16 x1 x2 + 4 x1 x3 + 4 x2 x3 ;
4.4. EXERCIŢII 175

d) F ( x ) = x12 + x22 + 4 x32 + 4 x42 + 4 x1 x3 + 2 x1 x4 + 2 x2 x3 + 2 x2 x4 + 6 x3 x4 ;


e) F ( x ) = 7 x12 + 7 x22 + 7 x32 + 2 x1 x2 + 2 x1 x3 + 2 x2 x3 .
5. ELEMENTE DE GEOMETRIE ANALITICĂ

Scopul acestui capitol este acela de a introduce principalele noţiuni şi rezultate


ale geometriei analitice. În geometria analitică se lucrează în spaţiul fizic de
dimensiune trei (spaţiul experienţei cotidiene). Vom identifica acest spaţiu cu
spaţiul euclidian E 3 . În unele cazuri (de exemplu la studiul conicelor) vom vom
utiliza în locul spaţiului E 3 spaţiul euclidian E 2 . Rezultatele obţinute în
capitolul 2 (operatori liniari pe spaţii euclidiene) vor fi utilizate pe larg în acest
context.

5.1. SPAŢIUL EUCLIDIAN E3

Dacă ne alegem un punct din spaţiu în care considerăm trei drepte perpendiculere
două câte două şi pe aceste drepte stabilim un sens de parcurgere atunci putem
asocia fiecărui punct din spaţiu un sistem ordonat de trei numere, numere care se
numesc coordonatele carteziene ale punctului considerat. În cele ce urmează, în
loc de a spune că aceste trei numere precizează poziţia punctului în spaţiu vom
spune că ansamblul acestor numere este chiar un punct al spaţiului. În acest fel
identificăm punctele spaţiului fizic cu elementele spaţiului aritmetic de
dimensiune trei.

1.1. Definiţie. Spaţiul euclidian tridimensional este mulţimea tuturor tripletelor


ordonate de numere reale

E3 = {(x , x , x ) x ∈ R, i = 1, 3 }.
1 2 3 i

Un astfel de triplet x = (x1 , x 2 , x3 ) se numeşte punct al lui E 3 .

După cum ştim din algebra liniară E 3 devine un spaţiu liniar real de dimensiune
trei, dacă definim adunarea vectorilor x = ( x1 ,x 2 ,x3 ), y = ( y1 ,y 2 ,y 3 ) şi înmulţirea cu
scalari α ∈ R prin:

x + y = ( x1 + y1 ,x2 + y 2 ,x3 + y 3 ) ,
176 5. ELEMENTE DE GEOMETRIE ANALITICĂ

α x = (α x1 ,α x2 ,α x3 ) .

Punctul 0 = (0 ,0 ,0 ) se numeşte originea lui E 3 .


Fie p = ( p1 ,p 2 ,p3 ), v = (v1 ,v 2 ,v3 ) puncte din E 3 .

1.2. Definiţie. Se numeşte vector în E 3 segmentul orientat de extremităţi p şi


p + v ; p se numeşte punctul de aplicaţie al vectorului iar p + v vârful vectorului.

1.3. Definiţie. Ansamblul ( p, v ) = v p se numeşte vector tangent la E 3 în punctul


p; v se numeşte partea vectorială a vectorului tangent v p . Vom spune că vectorii
tangenţi v p ,w q sunt egali şi notăm v p = w q dacă p = q şi v = w .

1.4. Observaţie. Un vector tangent v p = ( p,v ) se compune deci din punctul său
de aplicaţie p şi din partea sa vectorială v; v p se mai numeşte vector legat în
punctul p.

1.5. Definiţie. Vectorii tangenţi v p şi v q cu aceeaşi parte vectorială dar puncte


de aplicaţie diferite se numesc paraleli.

Fie p un punct din E 3 .

1.6. Definiţie. Mulţimea T p (E 3 ) formată din vectorii tangenţi la E 3 în punctul p


se numeşte spaţiul tangent la E 3 în punctul p.

1.7. Observaţie. Pentru v p ,w p ∈ T p (E 3 ) definim suma acestor vectori tangenţi


prin

v p + w p = (v + w ) p ,

iar dacă α ∈ R definim produsul dintre vectorul tangent v p şi scalarul α prin

α v p = (α v ) p .

Cu aceste operaţii T p (E 3 ) devine un spaţiu liniar izomorf cu E 3 . Într-adevăr,


aplicaţia ϕ : E 3 → T p (E 3 ), ϕ (v ) = v p este liniară şi bijectivă deci este un
izomorfism între spaţiile liniare E 3 şi T p (E 3 ) . Acest izomorfism se numeşte
izomorfismul natural.
5.8. EXERCIŢII 177

1.8. Definiţie. Se numeşte câmp vectorial pe E 3 o funcţie U care asociază


fiecărui punct p ∈ E 3 un vector tangent U ( p ) la E 3 în punctul p.

Fie U 1 ,U 2 ,U 3 câmpuri vectoriale pe E 3 astfel încât U 1 ( p ) = (1, 0, 0 ) p ,


U 2 ( p ) = (0,1, 0 ) p , U 3 ( p ) = (0, 0,1) p .

1.9. Definiţie. Ansamblul U 1 ,U 2 ,U 3 se numeşte reper (sistem de coordonate)


natural pe E 3 .

1.10. Propoziţie. Dacă V este un câmp vectorial pe E 3 atunci există şi sunt unice
funcţiile reale v1 , v 2 , v3 definite pe E 3 astfel încât

V = v1U 1 + v2U 2 + v3U 3 .

Funcţiile v1 , v 2 , v3 se numesc funcţiile de coordonate euclidiene ale câmpului


vectorial V.

Demonstraţie. Din definiţia unui câmp vectorial rezultă că partea vectorială


V ( p ) depinde de p deci aceasta poate fi scrisă sub forma (v1 ( p ), v2 ( p ), v3 ( p )) .
Astfel am definit pe E 3 trei funcţii reale v1 , v2 , v3 . Atunci:

V ( p ) = (v1 ( p ), v 2 ( p ), v3 ( p )) p =
= v1 ( p )(1,0,0 ) p + v2 ( p )(0,1,0 ) p + v3 ( p )(0,0,1) p =
= v1 ( p )U 1 ( p ) + v2 ( p )U 2 ( p ) + v3 ( p )U 3 ( p ) , (∀) p ∈ E 3 ,

3
deci câmpurile vectoriale V şi ∑v U
i =1
i i sunt egale.

5.2. PRODUSE CU VECTORI GEOMETRICI

Fie p = ( p1 , p 2 , p3 ) , q = (q1 , q 2 , q3 ) ∈ E 3 .

2.1. Definiţie. Produsul scalar (interior) al punctelor p, q este numărul real

p ⋅ q = p1 q1 + p 2 q 2 + p3 q3 .
178 5. ELEMENTE DE GEOMETRIE ANALITICĂ

2.2. Observaţie. Se constată cu uşurinţă că produsul scalar are proprietăţile:

i) liniaritate în ambele argumente

(α p + β q ) ⋅ r = α p ⋅ r + β q ⋅ r , (∀) p, q, r ∈ E 3 , (∀) α , β ∈ R ,
r ⋅ (α p + β q ) = α r ⋅ p + β r ⋅ q , (∀) p, q, r ∈ E 3 , (∀) α , β ∈ R ;

ii) simetrie

p ⋅ q = q ⋅ p, (∀) p, q ∈ E 3 ;

iii) pozitiv definire

p ⋅ p ≥ 0, (∀) p ∈ E 3 , p⋅ p = 0 ⇔ p = 0 .

2.3. Definiţie. Norma unui punct p = ( p1 , p 2 , p3 ) ∈ E 3 este numărul pozitiv

p = ( p ⋅ p) = ( p + p + p )
1 1
2 2 2 2
2
1 2 3 .

2.4. Definiţie. Dacă p = ( p1 , p 2 , p3 ), q = (q1 , q 2 , q3 ) ∈ E 3 atunci distanţa


euclidiană dintre punctele p şi q este numărul pozitiv

[( p − q ) ].
1
d ( p, q ) = p − q = + ( p 2 − q 2 ) + ( p3 − q3 )
2 2 2 2
1 1

2.5. Definiţie. Produsul scalar (interior) al vectorilor tangenţi v p şi w p este


numărul real

vp ⋅wp = v ⋅w .

Cosinusul unghiului a doi vectori se defineşte prin formula:

v p ⋅ w p = v ⋅ w ⋅ cosθ , θ ∈ [ 0, π ].

Doi vectori se numesc ortogonali dacă produsul lor scalar este egal cu zero. Un
vector de lungime unu se numeşte versor.
5.8. EXERCIŢII 179

2.6. Definiţie. Un sistem { e1 , e 2 , e3 } de vectori unitari ortogonali doi câte doi şi


care aparţin spaţiului tangent la E 3 în p se numeşte reper în punctul p.

2.7. Observaţie. Fie { e1 , e 2 , e 3 } un reper în punctul p din E 3 . Dacă v ∈ T p (E 3 )


atunci:

v = (v ⋅ e1 ) e1 + (v ⋅ e 2 ) e 2 + (v ⋅ e 3 )e 3 .

Într-adevăr, deoarece e1 , e 2 , e 3 sunt ortogonali doi câte doi, ei sunt liniar


independenţi şi cum dimensiunea spaţiului liniar T p (E 3 ) este egală cu trei
(reamintim că acest spaţiu este izomorf cu E 3 ) rezultă că { e1 , e 2 , e3 } este bază în
T p (E 3 ) . Putem scrie deci:

v = α 1e1 + α 2 e 2 + α 3 e 3 .

Atunci v ⋅ e j = (α 1e1 + α 2 e 2 + α 3 e 3 ) ⋅ e j = α j , j = 1, 3 , de unde obţinem expresia


căutată. Spunem că relaţia v = (v ⋅ e1 ) e1 + (v ⋅ e 2 ) e 2 + (v ⋅ e 3 )e 3 reprezintă o
dezvoltare ortogonală a vectorului v după reperul { e1 , e 2 , e3 } . În cazul reperului
natural {U 1 ( p ),U 2 ( p ),U 3 ( p ) } relaţia de mai sus se scrie

3
v = (v1 , v2 , v3 ) = ∑ viU i ( p ) .
i =1

Numerele v1 , v 2 , v3 se numesc coordonatele euclidiene ale vectorului v.

3 3
2.8. Definiţie. Dacă v = ∑ viU i ( p ) şi w = ∑ wiU i ( p ) sunt vectori tangenţi la E 3
i =1 i =1

în punctul p produsul vectorial al acestor vectori este vectorul tangent la E 3 în


punctul p dat de formula:

U1 ( p) U 2 ( p) U 3 ( p)
v × w = v1 v2 v3 .
w1 w2 w3

2.9. Observaţie. Din proprietăţile determinanţilor rezultă că:


i) produsul vectorial este o aplicaţie liniară în ambele argumente;
ii) este adevărată egalitatea:
180 5. ELEMENTE DE GEOMETRIE ANALITICĂ

v × w = − w × v , (∀) v , w ∈ T p (E 3 ) .

2.10. Propoziţie. i) Produsul vectorial al vectorilor v, w este un vector


perpendicular pe v şi w;
ii) pentru orice v , w ∈ T p (E 3 ) este adevărată egalitatea:

− (v ⋅ w ) .
2 2 2
v×w = v ⋅ w

Demonstraţie. Produsul scalar al vectorilor v şi v × w este:

v1 v2 v3
v ⋅ (v × w ) = v1 v2 v3 = 0
w1 w2 w3

deci v × w este perpendicular pe v . Analog se arată că v × w este perpendicular


pe w .

ii) Avem:

2
⎛ 3 ⎞ ⎛ 3 ⎞ ⎛ 3 ⎞
⋅ w − (v ⋅ w ) = ⎜ ∑ vi2 ⎟ ⋅ ⎜ ∑ wi2 ⎟ − ⎜ ∑ vi wi ⎟ = v12 w22 + v12 w32 +
2 2 2
v
⎝ i =1 ⎠ ⎝ i =1 ⎠ ⎝ i =1 ⎠
+ v2 w1 + v2 w3 + v3 w1 + v3 w2 − 2(v1v 2 w1 w2 + v1v3 w1 w3 + v2 v3 w2 w3 ) =
2 2 2 2 2 2 2 2

= (v 2 w3 − v3 w2 ) + (v3 w1 − v1 w3 ) (v1 w2 − v 2 w1 ) = v × w
2 2 2 2
.

2.11. Observaţie. Din formula de definiţie a cosinusului unghiului a doi vectori


obţinem:

− (v ⋅ w )
2 2 2
v w
sin θ =
v ⋅ w

de unde rezultă că norma produsului vectorial este egală cu

v × w = v ⋅ w ⋅ sin θ .

Formula de mai sus precizează faptul că norma produsului vectorial al vectorilor


v şi w este egală cu aria paralelogramului determinat de v şi w.
5.8. EXERCIŢII 181

2.12. Definiţie. Prin produsul mixt al vectorilor u, v şi w din spaţiul tangent la


E 3 în punctul p înţelegem numărul

u1 u2 u3
u ⋅ (v × w ) = v1 v2 v3 .
w1 w2 w3

Notăm produsul mixt al vectorilor u, v şi w prin (u, v , w ) .

5.3. SISTEME DE COORDONATE

În paragraful precedent am introdus cu ajutorul reperului natural coordonatele


euclidiene ale unui vector situat în spaţiul tangent. Formularea şi rezolvarea unor
probleme concrete pot fi simplificate dacă utilizăm un sistem de coordonate
curbilinii în locul sistemului coordonatelor euclidiene [21].

3.1. Definiţie. Câmpurile vectoriale E1 , E 2 , E3 formează un sistem de coordonate


ortogonale pe E 3 dacă Ei ⋅ E j = δ ij , i, j = 1, 3 .

Fie D, D ′ domenii din E 3 şi transformarea ϕ : D ′ → D , ϕ = (ϕ1 , ϕ 2 , ϕ 3 ) . Pentru


(θ1 ,θ 2 ,θ 3 ) ∈ D′ notăm
xi = ϕ i (θ1 ,θ 2 ,θ 3 ) , i = 1, 3 . (1)

Spunem că ϕ este un difeomorfism de clasă C k , k ∈ N ∗ dacă este inversabilă şi


ϕ ,ϕ −1 sunt funcţii de clasă C k .

Dacă transformarea ϕ este de clasă C 1 determinantul:

D( x1 , x2 , x3 ) ⎛ ∂ϕ ⎞
J= = det ⎜ i (θ1 ,θ 2 ,θ 3 )⎟ ≠ 0 , (θ1 ,θ 2 ,θ 3 ) ∈ D ′ , (2)
D(θ1 ,θ 2 ,θ 3 ) ⎜ ∂θ
⎝ j

⎠ i , j =1, 3

se numeşte jacobianul sau determinantul funcţional al transformării ϕ .


Spunem că ϕ este C k difeomorfism pe imagine dacă dacă ϕ (D ′) este deschisă şi
ϕ : D′ → ϕ (D′) este C k difeomorfism. Spunem că ϕ este regulată în
punctul θ 0 = (θ10 ,θ 20 ,θ 30 )∈ D ′ dacă este de clasă C 1 pe o vecinătate deschisă a lui
182 5. ELEMENTE DE GEOMETRIE ANALITICĂ

θ 0 şi J (θ10 ,θ 20 ,θ 30 ) ≠ 0 . Spunem că ϕ este regulată pe D ′ dacă este regulată în


orice punct din D ′ . Se poate arăta că dacă ϕ este regulată în punctul
θ 0 = (θ10 ,θ 20 ,θ 30 )∈ D′ atunci există o vecinătate deschisă V a lui θ 0 cu
proprietatea că restricţia lui ϕ la V este difeomorfism pe imagine ([18], volumul
doi, pagina 80). În particular, dacă ϕ este regulată în θ 0 atunci există o
vecinătate deschisă V a lui θ 0 pe care ϕ este inversabilă. Dacă ϕ : D ′ → D este
regulată atunci ϕ (D ′) este deschisă ([18], volumul doi, pagina 81). În cele ce
urmează vom considera transformări regulate ϕ : D ′ → D care sunt bijective.
Astfel de transformări le vom numi transformări de coordonate. Fie ψ : D → D ′ ,
ψ = (ψ 1 ,ψ 2 ,ψ 3 ) inversa transformării ϕ . Pentru ( x1 , x2 , x3 ) ∈ D notăm

θ i = ψ i ( x1 , x 2 , x3 ) , i = 1, 3 (3)

3.2. Definiţie. Numerele θ1 ,θ 2 ,θ 3 se numesc coordonate curbilinii.

3.3. Observaţie. Pentru θ1 = const. ecuaţiile (1) definesc o suprafaţă în spaţiul


euclidian numită suprafaţă coordonată θ1 . Analog se definesc suprafeţele
coordonate θ 2 , θ 3 . Suprafeţele coordonate θ 2 = const. , θ 3 = const. se
intersectează după o curbă pe care variază numai θ1 , numită curbă coordonată
θ1. Analog se definesc curbele coordonate θ 2 , θ 3 . Prin orice punct p∈ D trece
câte o singuri curbă din cele trei familii curbe de coordonate. Coordonatele
curbilinii θ1 ,θ 2 ,θ 3 se numesc ortogonale dacă curbele coordonate se
intersectează sub unghiuri drepte în orice punct din D.

Cu ajutorul coordonatelor curbilinii punctul x ∈ D se scrie


3 3
x = ∑ xiU i (0 ) = ∑ ϕ i (θ1 ,θ 2,θ 3 )U i (0 ) (4)
i =1 i =1

Fie vectorii

∂x 3
∂ϕ
gα ( x ) = = ∑ i (θ1 ,θ 2 ,θ 3 )U i ( x ) , α = 1,3 (5)
∂θ α i =1 ∂θ α

Vectorul gα ( x ) are proprietatea că este dirijat după tangenta la curba coordonată


θ α ce trece prin punctul x din D în care sunt calculate derivatele parţiale din (5).
Deoarece J ≠ 0 vectorii gα ( x ), α = 1, 3 sunt liniar independenţi, deci formează o
5.8. EXERCIŢII 183

bază în spaţiul tangent la E 3 în punctul considerat;această bază se numeşte bază


naturală în punctul x , corespunzătoare coordonatelor curbilinii θ1 ,θ 2 ,θ 3 .

3.4. Definiţie. Mărimile


2 2 2
⎛ ∂ϕ ⎞ ⎛ ∂ϕ 2 ⎞ ⎛ ∂ϕ 3 ⎞
hα ( x ) = gα ( x ) = ⎜⎜ 1 ⎟⎟ + ⎜⎜ ⎟⎟ + ⎜⎜ ⎟⎟ , α = 1, 3 (6)
⎝ ∂θ α ⎠ ⎝ ∂θ α ⎠ ⎝ ∂θ α ⎠

se numesc coeficienţii lui Lamé.

Cu ajutorul coeficienţilor lui Lamé versorii tangenţi în fiecare punct la liniile de


coordonate au expresiile:

1
Eα ( x ) = gα ( x ), α = 1, 3 . (7)

Două cazuri de coordonate curbilinii des utilizate în aplicaţii sunt coordonatele


cilindrice şi coordonatele sferice. În E 2 se utilizează în unele aplicaţii
coordonatele polare.

3.5. Exemplu (sistemul de coordonate cilindrice). Fie

θ1 = r ∈ (0, + ∞ ) , θ 2 = θ ∈ (0, 2π ) , θ 3 = z ∈ R

şi transformarea ϕ : (0, ∞ ) × (0, 2π ) × R → E 3 \ {( x1 , x2 , x3 ) x1 ≥ 0, x 2 = 0} :

x1 = r cosθ
x 2 = r sin θ
x 3 = z.

Din modul cum a fost definită rezultă că ϕ este o bijecţie de clasă C k , k ∈ N ∗ şi


J = r ≠ 0 pe D ′ . Rezultă că transformarea este C k difeomorfism. În plus,
coeficienţii lui Lamé sunt

hr ( x ) = g r ( x ) = 1 , hθ ( x ) = gθ ( x ) = r , hz ( x ) = g z ( x ) = 1 ,

(unde am notat valorile 1, 2, 3 ale indicelui α respectiv prin r , θ , z ), iar versorii


tangenţi liniilor de coordonate au expresiile:
184 5. ELEMENTE DE GEOMETRIE ANALITICĂ

E r ( x ) = U 1 ( x ) cosθ + U 2 ( x )sin θ
Eθ ( x ) = −U 1 ( x )sin θ + U 2 ( x )cosθ
E z ( x ) = U 3 ( x ).

Coordonatele cilindrice r , θ , z sunt coordonate curbilinii ortogonale iar


E r , Eθ , E z formează un sistem de coordonate ortogonale, fapte ce se verifică cu
uşurinţă.

3.6. Exemplu (sistemul de coordonate sferice). Fie

θ1 = r ∈ (0, + ∞ ) , θ 2 = θ ∈ ( 0, π ) , θ 3 = ϕ ∈ (0, 2π )

şi transformarea ϕ : (0, ∞ ) × (0, π ) × (0, 2π ) → E 3 \ {( x1 , x 2 , x3 ) x1 ≥ 0, x2 = 0}:

x1 = r sin θ cos ϕ
x 2 = r sin θ sin ϕ
x3 = r cosθ .

Rezultă că ϕ este o bijecţie de clasă C k , k ∈ N ∗ şi J = r 2 sin θ ≠ 0 pe D ′ .


Rezultă că transformarea este C k difeomorfism. În acest caz avem

∂x
gr (x ) = = U 1 ( x )sin θ cos ϕ + U 2 ( x )sin θ sin ϕ + U 3 ( x ) cosθ
∂r
∂x
gθ ( x ) = = U 1 ( x )r cosθ cos ϕ + U 2 ( x )r cosθ sin ϕ − U 3 ( x )r sin θ
∂θ
∂x
gϕ ( x ) = = −U 1 ( x )r sin θ sin ϕ + U 2 ( x )r sin θ cos ϕ ,
∂ϕ

unde am notat valorile 1, 2, 3 ale indicelui α respectiv prin r , θ , ϕ .


Coeficienţii lui Lamé au valorile

hr ( x ) = g r ( x ) = 1 , hθ ( x ) = gθ ( x ) = r , hϕ ( x ) = gϕ ( x ) = r sin θ ,

iar versorii tangenţi liniilor de coordonate au expresiile:

E r ( x ) = U 1 ( x )sin θ cos ϕ + U 2 ( x )sin θ sin ϕ + U 3 ( x ) cosθ


Eθ ( x ) = U 1 ( x ) cosθ cos ϕ + U 2 ( x ) cosθ sin ϕ − U 3 ( x )sin θ
E z ( x ) = −U 1 ( x )sin ϕ + U 2 ( x ) cos ϕ .

Coordonatele sferice r , θ , ϕ introduse mai sus sunt ortogonale (iar E r , Eθ , E z


5.8. EXERCIŢII 185

formează un sistem de coordonate ortogonale) deoarece

E r ⋅ Eθ = Eθ ⋅ Eϕ = Eϕ ⋅ E r = 0 .

3.7. Exemplu (sistemul de coordonate polare). În acest exemplu vom considera


spaţiul euclidian bidimensional format din mulţimea tuturor dubletelor ordonate
de numere reale

E2 = {(x , x ) x ∈ R, i = 1, 2 }.
1 2 i

Un astfel de dublet x = ( x1 , x 2 ) îl vom numi punct al lui E 2 . Fie

θ1 = r ∈ (0, + ∞ ) , θ 2 = θ ∈ ( 0, 2π )

şi transformarea ϕ : (0, ∞ ) × (0, 2π ) → E 3 \ {( x1 , x2 ) x1 ≥ 0, x2 = 0}:

x1 = r cosθ
x 2 = r sin θ .

Numerele r , θ se numesc coordonate polare.


Transformarea ϕ este o bijecţie de clasă C k , k ∈ N ∗ şi J = r ≠ 0 pe domeniul
(0, ∞ ) × (0, 2π ) . Rezultă că transformarea este C k difeomorfism. În acest caz
avem

∂x
gr (x ) = = U 1 ( x )cos θ + U 2 ( x )sin θ
∂r
∂x
gθ ( x ) = = −U 1 ( x )r sin θ + U 2 ( x )r cos θ .
∂θ

Coeficienţii lui Lamé sunt

hr ( x ) = g r ( x ) = 1 , hθ ( x ) = gθ ( x ) = r

iar versorii tangenţi liniilor de coordonate au expresiile:

E r ( x ) = U 1 ( x ) cosθ + U 2 ( x )sin θ
Eθ ( x ) = −U 1 ( x )sin θ + U 2 ( x )cos θ .

Coordonatele polare sunt ortogonale (iar E r , Eθ formează un sistem de


coordonate ortogonale), fapte ce se verifică cu uşurinţă.
186 5. ELEMENTE DE GEOMETRIE ANALITICĂ

5.4. IZOMETRIILE LUI E 3

În cele ce urmează vom considera aplicaţii ale lui E 3 în el însuşi care păstrează
distanţele între puncte. Transformări de acest tip ale spaţiului euclidian E n au
fost considerate în paragraful 2.6, unde au fost prezentate principalele proprietăţi
ale acestora. În acest paragraf vom detalia aceste proprietăţi în cazul spaţiului
euclidian E 3 .

4.1. Definiţie. Prin izometrie a lui E 3 înţelegem o aplicaţie F : E 3 → E 3 astfel


încât:

d (F ( p ), F (q ) ) = d ( p, q ) , (∀) p, q ∈ E 3 .

4.2 Observaţie. i) Fie F şi G două izometrii ale lui E 3 şi H = F o G . Atunci:

d (H ( p ), H (q ) ) = d (F (G ( p ) ), F (G (q ) )) = d (G ( p ), G (q ) ) = d ( p , q ) ,

deci compunerea a două izometrii este o izometrie.


ii) Aplicaţia identitate I : E 3 → E 3 , I ( p ) = p , (∀) p ∈ E 3 este evident o
izometrie.
iii) Orice izometrie este o aplicaţie injectivă. Într-adevăr dacă p, q ∈ E 3 sunt
astfel încât T ( p ) = T (q ) atunci 0 = d (T ( p ), T (q )) = d ( p, q ) , deci p = q .

4.3 Exemplu. Translaţia. Fie a ∈ E 3 un punct fixat şi aplicaţia T : E 3 → E 3


definită prin:

Ta ( p ) = p + a , (∀) p ∈ E 3 .

Aplicaţia Ta se numeşte translaţia de vector a. Avem:

d (Ta ( p ), Ta (q ) ) = d ( p + a , q + a ) = ( p + a ) − (q + a ) = p − q = d ( p, q ) ,

deci translaţia de vector a este o izometrie.

Se constată cu uşurinţă că aplicaţia identitate este translaţia de vector 0.


5.8. EXERCIŢII 187

Dacă notăm T ( p ) = q , p = ( p1 , p 2 , p3 ) , q = (q1 , q 2 , q3 ) , a = (a1 , a 2 , a3 ) atunci


relaţia Ta ( p ) = p + a se scrie

q1 = p1 + a1
q2 = p2 + a2
q3 = p3 + a3 .

Relaţiile de mai sus ne dau expresia analitică a translaţiei de vector a.

4.4 Propoziţie. i) Fie Ta , Tb translaţiile de vector a, respectiv b. Atunci

Ta o Tb = Tb o Ta = Ta +b

unde Ta +b este translaţia de vector a+b;


ii) Translaţia de vector a este inversabilă şi inversa sa este translaţia de vector –a;
iii) Pentru orice două puncte p, q ∈ E 3 există o unică translaţie T astfel încât
T ( p) = q .

Demonstraţie. i) Pentru p ∈ E 3 avem

(Ta o Tb )( p ) = Ta (Tb ( p )) = Ta ( p + b ) = p + b + a = Ta +b ( p ) ,
(Tb o Ta )( p ) = Tb (Ta ( p )) = Tb ( p + a ) = p + a + b = Ta +b ( p ) .

ii) Fie q ∈ E 3 . Atunci Ta (q − a ) = q − a + a = q de unde rezultă că Ta este


surjectivă, deci inversabilă. În plus Ta o T− a = T− a o Ta = T0 = I .
iii) Translaţia de vector q − p duce vectorul p în vectorul q. Dacă Ta are
proprietatea că Ta ( p ) = q atunci p + a = q de unde rezultă a = q − p .

4.5. Exemplu. Rotaţia în jurul unei axe. Înainte de a introduce rotaţia lui E 3 în
jurul unei axe să spunem câteva cuvinte despre o izometrie importantă a lui E 2 .
Izometriile lui E 2 se definesc la fel ca izometriile lui E 3 . Afirmaţiile din
propoziţia 4.4 sunt valabile şi pentru translaţia de vector a a lui E 2 .
Să considerăm următoarea transformare a lui E 2 : pentru θ ∈ [0,2π ) , fie

C : E 2 → E 2 , C ( p ) = q , p = ( p1 , p 2 ) , q = (q1 , q 2 ) ,

astfel încât
188 5. ELEMENTE DE GEOMETRIE ANALITICĂ

q1 = p1 cosθ − p 2 sin θ
q 2 = p1 sin θ + p 2 cosθ .

Dacă C (u ) = v şi

v1 = u1 cosθ − u 2 sin θ
v2 = u1 sin θ + u 2 cosθ

atunci

d (C (u ), C (v ) ) = d (q, v ) = [( p1 − u1 )cosθ − ( p 2 − u 2 )sin θ ] +


2 2 2

+ [( p1 − u1 )sin θ + ( p 2 − u 2 ) cosθ ] = ( p1 − u1 ) + ( p 2 − u 2 ) =
2 2 2

= d ( p, u ) ,
2

deci transformarea C este o izometrie a lui E 2 .


În plus avem q = p iar cosinusul unghiului α dintre punctele p şi q este egal
cu

cos α =
q⋅ p ( p 2 + p 2 )cosθ = cosθ .
= 1 2 2 2
q ⋅ p ( p1 + p2 )
Rezultă de că transformarea C realizează o rotaţie a lui E 2 de unghi θ .
Se arată cu uşurinţă că transformarea C este liniară şi matricea ei este

⎛ cosθ − sin θ ⎞
A = ⎜⎜ ⎟.
⎝ sin θ cosθ ⎟⎠

Matricea A, care se numeşte matricea rotaţiei plane, este o matrice ortogonală,


adică are proprietatea că A ⋅ At = At ⋅ A = I 2 .

Să definim acum o transformare C : E 3 → E 3 care asociază punctului


p = ( p1 , p 2 , p3 ) punctul q = (q1 , q 2 , q3 ) astfel încât:

q1 = p1 cosθ − p 2 sin θ
q 2 = p1 sin θ + p 2 cosθ
q3 = p3 .
5.8. EXERCIŢII 189

Transformarea de mai sus este liniară (fapt ce se verifică cu uşurinţă) şi are


matricea

⎛ cosθ − sin θ 0⎞
⎜ ⎟
A = ⎜ sin θ cosθ 0⎟ .
⎜ 0 0 1 ⎟⎠

A este ortogonală deoarece avem A ⋅ At = At ⋅ A = I 3 . Calcule asemănătoare celor


din cazul rotaţiei plane ne arată că transformarea lui E 3 definită mai sus este o
izometrie a lui E 3 ; această transformare C realizeză o rotaţie de unghi θ a lui
E 3 în jurul subspaţiului {(0,0, x3 ) x3 ∈ R} (axa 0 x3 ).

Ca mai sus se arată că transformarea definită de matricea

⎛1 0 0 ⎞
⎜ ⎟
A = ⎜ 0 cosθ − sin θ ⎟
⎜ 0 sin θ cosθ ⎟⎠

reprezintă o rotaţie de unghi θ în jurul subspaţiului {(x ,0,0)


1 x1 ∈ R} (axa 0 x1 ).
O rotaţie de unghi θ în jurul subspaţiului {(0, x2 ,0 ) x 2 ∈ R} (axa 0 x2 ) este
realizată de transformarea definită de matricea

⎛ cosθ 0 − sin θ ⎞
⎜ ⎟
A=⎜ 0 1 0 ⎟.
⎜ sin θ 0 cosθ ⎟⎠

Mai mult, se poate arăta că orice rotaţie a lui E 3 este caracterizată de o matrice
de forma

⎛ cos α − sin α 0⎞ ⎛1 0 0 ⎞ ⎛ cos γ − sin γ 0⎞


⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎜ sin α cos α 0 ⎟ ⋅ ⎜ 0 cos β − sin β ⎟ ⋅ ⎜ sin χ cos γ 0⎟ ⋅
⎜ 0 0 1 ⎟⎠ ⎜⎝ 0 sin β cos β ⎟⎠ ⎜⎝ 0 0 1 ⎟⎠

Unghiurile α , β , γ se numesc unghiurile lui Euler.

4.6. Definiţie. Transformarea liniară C : E 3 → E 3 se numeşte ortogonală dacă


păstrează produsul scalar, adică:
190 5. ELEMENTE DE GEOMETRIE ANALITICĂ

C ( p ) ⋅ C (q ) = p ⋅ q, (∀) p, q ∈ E 3 .

4.7. Propoziţie. Dacă C : E 3 → E 3 este o transformare ortogonală atunci C este


o izometrie a lui E 3 .

Demonstraţie. Deoarece transformarea C păstrează produsul scalar avem:

C ( p) = C( p)⋅ C ( p) = p ⋅ p = p , (∀) p ∈ E 3 ,
2 2

deci transformarea C păstrează norma. Cum transformarea C este liniară avem

d (C ( p ), C (q )) = C ( p ) − C (q ) = C ( p − q ) = p − q ,

deci transformarea C este o izometrie.

4.8. Observaţie. i) Am arătat (teorema 6.20, capitolul 2) că o izometrie


F : E 3 → E 3 cu proprietatea că F (0 ) = 0 este o transformare ortogonală.
ii) Dacă F : E 3 → E 3 este o izometrie atunci există o unică translaţie Ta şi o
unică transformare ortogonală C astfel încât F = Ta o C .
iii) Fie C : E 3 → E 3 o transformare ortogonală şi A = (α ij )i , j =1, 3 matricea ataşată
acestei transformări în baza canonică. Atunci:

δ jl = e j ⋅ el = C (e j )⋅ C (el ) = ⎛⎜ ∑ α ij ei ⎞⎟ ⋅ ⎛⎜ ∑ α kl e k ⎞⎟ = ∑ α ijα il , j , l = 1, 3 ,
3 3 3

⎝ i =1 ⎠ ⎝ k =1 ⎠ i =1

egalităţi care se scriu matriceal sub forma

At ⋅ A = I 3 = A ⋅ At .

Rezultă că matricea ataşată unei transformără ortogonale este o matrice


ortogonală (vezi şi observaţia 6.15, capitolul 2).
iv) În demonstraţia propoziţiei precedente am arătat că o transformare ortogonală
păstrează norma. Se poate arăta că şi afirmaţia reciprocă este adevărată.

Într-adevăr, fie C : E 3 → E 3 astfel încât C ( p ) = p , (∀) p ∈ E 3 (propoziţia


2

8.13, capitolul 1). Scriind identitatea


5.8. EXERCIŢII 191

p⋅q =
1
4
( 2
p+q − p−q
2
), (∀) p, q ∈ E 3

pentru C ( p ) şi C (q ) , obţinem

C ( p ) ⋅ C (q ) =
1
4
(C ( p ) + C (q ) − C ( p ) − C (q ) =
2 2
)
=
1
4
(
C( p + q) − C( p = q) =
2 2
)
=
1
4
( 2 2
)
p + q − p − q = p ⋅ q , (∀) p, q ∈ E 3 ,

ceea ce încheie demonstraţia.

v) Dacă matricea A este ortogonală atunci det A = ±1 .

4.9. Definiţie. Transformarea ortogonală C : E 3 → E 3 se numeşte de specia


întâia dacă det A = +1 şi de specia a doua dacă det A = −1 .

4.10. Observaţie. Rotaţiile lui E 3 sunt transformări ortogonale de prima specie.

4.11. Definiţie. Se numeşte simetria spaţiului euclidian E 3 faţă de un subspaţiu


M al său aplicaţia F : E 3 → E 3 , F ( p ) = 2 p′ − p , unde p′ este proiecţia
ortogonală a lui p pe subspaţiul M.

Fie B = { e1 , e 2 ,L, e m } o baza în M. Atunci proiecţia lui p ∈ E 3 pe M este (vezi


observaţia 9.16, capitolul 1)
m
p′ = ∑ ( p ⋅ e i ) e i .
i =1

Să considerăm operatorul de proiecţie PrM : E 3 → E 3 , PrM ( p ) = p′ care


asociază fiecărui p ∈ E 3 proiecţia sa pe M. Din relaţia de definiţie a proiecţiei
deducem
m
PrM ( p ) = ∑ ( p ⋅ e i ) e i .
i =1

Pentru p, q ∈ E 3 şi α , β ∈ R formula de mai sus aplicată punctului


α p + β q ∈ E 3 ne dă
192 5. ELEMENTE DE GEOMETRIE ANALITICĂ

m m m
PrM (α p + β q ) = ∑ ((α p + β q ) ⋅ ei ) ei = α ∑ ( p ⋅ ei ) ei + β ∑ (q ⋅ ei )e i =
i =1 i =1 i =1

= α PrM ( p ) + β PrM (q ) ,

adică operatorul de proiecţie este liniar.

Cu ajutorul operatorului de proiecţie simetria lui E 3 faţă de subspaţiul M se


scrie:

F = 2 PrM − I .

4.12. Observaţie. i) Simetria faţă de un subspaţiu este o transformare ortogonală


involutivă (propoziţia 6.23, capitolul 2).

ii) Un punct x ∈ E 3 se numeşte punct fix al transformării F : E 3 → E 3 dacă


F ( x ) = x . Se constată cu uşurinţă că un punct x ∈ E 3 este punct fix al simetriei
faţă de subspaţiul M dacă şi numai dacă x ∈ M .

4.13. Teoremă. Simetria spaţiului E 3 faţă de subspaţiu M de dimensiune m este


o transformare ortogonală de specia întâia dacă m = 1 şi de specia a doua dacă
m = 2.

{ }
Demonstraţie. Fie e i i = 1, m bază ortonormată în M pe care o completăm
3 m
până la o bază ortonormată {e1 , e 2 , e 3 } în E 3 . Pentru p = ∑ pi e i , p′ = ∑ pi ei
i =1 i =1
m 3
obţinem q = F ( p ) = 2 p′ − p = ∑ pi e i − ∑pe i i de unde rezultă că:
i =1 i = m +1

qi = pi , i = 1, m , q j = − p j , j = m + 1, 3 .

Transformarea T are în baza ortonormată {e1 , e 2 , e 3 } matricea

⎛I 0 ⎞
A = ⎜⎜ m ⎟,
⎝0 − I 3−m ⎟⎠

deci det A = (− 1) . Rezultă că simetria T este o transformare ortogonală de


3− m

specia întâi sau a doua după cum 3 − m este par sau impar.
5.8. EXERCIŢII 193

4.14. Exemplu. Să determinăm matricea simetriei spaţiului E 3 faţă de subspaţiul

M = {x = ( x1 , x 2 , x3 ) ∈ E 3 x1 + x2 + x3 = 0}.

Complementul ortogonal al acestui subspaţiu este

M ⊥ = {x = ( x1 , x 2 , x3 ) ∈ E 3 x1 = x 2 = x3 }.

Proiecţia p′ a punctului p = ( p1 , p 2 , p3 ) pe M este punctul situat la intersecţia


dintre subspaţiul M şi varietatea liniară determinaţă de p şi M ⊥ . Pentru a obţine
punctul p′ trebuie să rezolvăm sistemul algebric liniar

⎧ x1 + x2 + x3 = 0

⎩ x1 − p1 = x2 − p 2 = x3 − p3 .

Soluţia acestui sistem este

2 p1 p 2 p3 p 2p p p p 2p
p1′ = − − , p 2′ = − 1 + 2 − 3 , p3′ = − 1 − 2 + 3 ,
3 3 3 3 3 3 3 3 3

iar coordonatele punctului q = 2 p′ − p sunt

p1 2 p 2 2 p3 2p p 2p 2p 2p p
q1 = − − , q 2 = − 1 + 2 − 3 , q3 = − 1 − 2 + 3 .
3 3 3 3 3 3 3 3 3

Din aceste relaţii obţinem matricea simetriei lui E 3 faţă de subspaţiul M:

⎛ 1 2 2⎞
⎜ − − ⎟
⎜ 3 3 3⎟
2 1 2
A = ⎜− − ⎟.
⎜ 3 3 3⎟
⎜ 2 2 1⎟
⎜− − ⎟
⎝ 3 3 3⎠

4.15. Observaţie. Cu ajutorul rezultatelor obţinute până acum putem obţine


expresia analitică a unei izometrii arbitrare F = T o C . Fie (α ij )i , j =1, 3 matricea
transformării ortogonale C, p = ( p1 , p 2 , p3 ) , q = (q1 , q 2 , q3 ) ∈ E 3 şi q = C ( p ) .
Identificând vectorii p şi q cu vectorii coloană ( p1 p3 ) şi (q1 q3 )
t t
p2 q2
relaţia q = C ( p ) capătă forma matriceală
194 5. ELEMENTE DE GEOMETRIE ANALITICĂ

⎛ q1 ⎞ ⎛ α 11 α 12 α 13 ⎞ ⎛ p1 ⎞
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎜ q 2 ⎟ = ⎜ α 21 α 22 α 23 ⎟ ⋅ ⎜ p 2 ⎟ .
⎜ q ⎟ ⎜α ⎟ ⎜ ⎟
⎝ 3 ⎠ ⎝ 31 α 32 α 33 ⎠ ⎝ p3 ⎠

Dacă T este translaţia de vector a = (a1 , a 2 , a3 ) atunci:

F ( p ) = (T o C )( p ) = C ( p ) + a

sau
3
qi = ∑ α ij p j + a j , i = 1, 3 .
j =1

Relaţiile de mai sus caracterizează izometriile lui E 3 . Sub formă matriceală


acestea se scriu:

⎛ q1 ⎞ ⎛ α 11 α 12 α 13 ⎞ ⎛ p1 ⎞ ⎛ a1 ⎞
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
q = α
⎜ 2 ⎟ ⎜ 21 α 22 α 23 ⎟ ⋅ ⎜ p 2 ⎟ + ⎜ a 2 ⎟ .
⎜ q ⎟ ⎜α ⎟ ⎜ ⎟ ⎜ ⎟
⎝ 3 ⎠ ⎝ 31 α 32 α 33 ⎠ ⎝ p3 ⎠ ⎝ a3 ⎠

Izometriile lui E 2 sunt caracterizate de relaţia

⎛ q1 ⎞ ⎛ α 11 α 12 ⎞ ⎛ p1 ⎞ ⎛ a1 ⎞
⎜⎜ ⎟⎟ = ⎜⎜ ⎟⎟ ⋅ ⎜⎜ ⎟⎟ + ⎜⎜ ⎟⎟ ,
⎝ q 2 ⎠ ⎝ α 21 α 22 ⎠ ⎝ p 2 ⎠ ⎝ a 2 ⎠
unde A = (α ij )i , j =1, 2 este o matrice ortogonlă. În cazul unei rotaţii plane matricea
A este ( α fiind unghiul de rotaţie)

⎛ cos α − sin α ⎞
A = ⎜⎜ ⎟,
⎝ sin α cos α ⎟⎠

iar în cazul simetriei faţă de subspaţiul M = { (λ , kλ ) λ ∈ R}, unde k este un


număr real fixat, matricea A este:

⎛ cos 2α sin 2α ⎞
A = ⎜⎜ ⎟ , tgα = k .
⎝ sin 2α − cos 2α ⎟⎠
5.8. EXERCIŢII 195

5.5. PLANUL ŞI DREAPTA

În capitolul I, paragraful 1.6 am definit varietăţile liniare ale unui spaţiu liniar şi
am arătat că o mulţime E a unui spaţiu liniar este o varietate liniară dacă şi numai
dacă există un subspaţiu liniar M şi un vector a astfel încât E = M + a . M se
numeşte subspaţiul director al varietăţii liniare E. Dimensiunea unei varietăţi
liniare este egală cu dimensiunea subspaţiului său director.
În cele ce urmează vom studia varietăţile liniare ale lui E 3 . Cum dim E 3 = 3 ,
varietăţile liniare ale lui E 3 diferite de E 3 sunt de dimensiune unu sau doi.

5.1. Definiţie. Se numeşte dreaptă în E 3 o varietate liniară de dimensiune unu.

Fie (d ) o dreaptă în E 3 . Există deci un subspaţiu liniar M de dimensiune unu şi


un vector a = (a1 , a 2 , a3 ) ∈ E 3 astfel încât

(d ) = M + a

Fie u = (u1 , u 2 , u 3 ) ∈ E 3 nenul astfel încât M = Sp{u} = {λ u λ ∈ R}. Atunci


avem:

(d ) = {λ u + a λ ∈ R}.

5.2. Propoziţie. Condiţia necesară şi suficientă ca x = ( x1 , x 2 , x3 ) ∈ E 3 să aparţină


dreptei (d ) este ca să existe t ∈ R astfel încât:

x1 = t u1 + a1
x2 = t u 2 + a2
x3 = t u 3 + a3 .

Demonstraţie. Să presupunem că x = ( x1 , x 2 , x3 ) ∈ (d ) . Atunci există t ∈ R astfel


încât x = t u + a . Afirmţia din propoziţie rezultă imediat scriind egalitatea
precedentă pe coordonate. Reciproc, să presupunem că au loc egalităţile din
enunţul propoziţiei. Atunci avem x = t u + a , t ∈ R , deci x ∈ (d ) .
196 5. ELEMENTE DE GEOMETRIE ANALITICĂ

5.2. Definiţie. Ecuaţiile

x1 = λ u1 + a1
x2 = λ u 2 + a2 (1)
x 3 = λ u 3 + a 3 , λ ∈ R,

se numesc ecuaţiile parametrice ale dreptei (d ) . Ecuaţia:

x = λu+a, λ∈R (2)

se numeşte ecuaţia vectorială a dreptei (d ) .

5.3. Observaţie. i) Dacă numerele reale u1 , u 2 , u 3 sunt nenule atunci ecuaţiile (1)
se pot scrie sub forma:

x1 − a1 x2 − a 2 x3 − a3
= = . (3)
u1 u2 u3

Ecuaţiile (3) se numesc ecuaţiile canonice ale dreptei (d ) , iar u1 , u 2 , u 3 se


numesc parametrii directori ai dreptei (d )
ii) Spunem că dreapta (d ) obţinută mai sus este determinată de punctul a şi de
vectorul director u.

Fie a = (a1 , a 2 , a3 ), b = (b1 , b2 , b3 ) două puncte distincte ale lui E 3 .

5.4. Definiţie. Prin dreapta determinată de punctele a = (a1 , a 2 , a3 ), b = (b1 , b2 , b3 )


se înţelege dreapta determinată de punctul a = (a1 , a 2 , a3 ) şi de vectorul director
b−a.

Din cele de mai sus rezultă că ecuaţiile parametrice ale dreptei determinată de
punctele a şi b sunt:

x1 = a1 + λ (b1 − a1 )
x 2 = a 2 + λ (b2 − a 2 ) (4)
x3 = a3 + λ (b3 − a3 ), λ ∈ R .

Dacă a1 ≠ b1 , a 2 ≠ b2 , a3 ≠ b3 atunci ecuaţiile (4) sunt echivalente cu ecuaţiile:

x1 − a1 x 2 − a 2 x3 − a3
= = . (5)
b1 − a1 b2 − a 2 b3 − a3
5.8. EXERCIŢII 197

5.5. Observaţie. Fie a = (a1 , a 2 , a3 ) , b = (b1 , b2 , b3 ) , c = (c1 , c2 , c3 ) trei puncte


distincte din E 3 . Vectorii b − a , c − a aparţin spaţiului tangent la E 3 în punctul
a. Ei sunt liniar dependenţi dacă şi numai dacă punctele a, b, c sunt coliniare.
Într-adevăr, fie a, b, c puncte coliniare şi (d ) = {λ u + a λ ∈ R} dreapta căreia îi
aparţin aceste puncte. Atunci există numerele reale nenule λ1 şi λ2 astfel încât
b − a = λ1 u , c − a = λ2 u . Aceste egalităţi implică liniar dependenţa vectorilor
b − a şi c − a . Reciproc, dacă vectorii b − a , c − a sunt liniar dependenţi atunci
există un vector u situat în spaţiul tangent în punctul a la E 3 şi numerele reale
nenule λ1 , λ2 astfel încât b = λ1 u + a , c = λ2 u + a . De aici rezultă că punctele b
şi c aparţin dreptei determinată de punctul a şi de vectorul director u.
Dcele de mai sus rezultă că punctele a, b, c sunt coliniare dacă şi numai dacă
matricea

⎛ b1 − a1 b2 − a 2 b3 − a3 ⎞
⎜⎜ ⎟
⎝ c1 − a1 c2 − a2 c3 − a3 ⎟⎠

are rangul egal cu unu.

5.6. Definiţie. Se numeşte plan o varietate liniară de dimensiune doi a lui E 3 .

Fie M un subspaţiu liniar de dimensiune doi al lui E 3 . Există deci vectorii liniar
independenţi u = (u1 , u 2 , u 3 ), v = (v1 , v2 , v3 ) ∈ E 3 astfel încât

M = Sp{u, v} = {λ u + μ v λ , μ ∈ R}

Dacă a = (a1 , a 2 , a3 ) ∈ E 3 atunci mulţimea

(P ) = M + a = {λ u + μ v + a λ , μ ∈ R} (6)

este un plan.

5.7. Definiţie. Planul (P ) dat de (6) se numeşte planul determinat de punctul a şi


de subspaţiul M. Ecuaţia

x = a + λ u + μ v , λ, μ ∈ R (7)

se numeşte ecuaţia vectorială a planului.


198 5. ELEMENTE DE GEOMETRIE ANALITICĂ

5.8. Propoziţie. Condiţia necesară şi suficientă ca punctul x = ( x1 , x2 , x3 ) să


aparţină planului determinat de punctul a = (a1 , a 2 , a3 ) şi de subspaţiul liniar
generat de vectorii liniar independenţi u = (u1 , u 2 , u 3 ), v = (v1 , v2 , v3 ) este să existe
λ , μ ∈ R astfel încât:

x1 = a1 + λ u1 + μ v1
x2 = a2 + λ u 2 + μ v2 (8)
x3 = a 3 + λ u 3 + μ v3 .

Demonstraţie. Dacă x = ( x1 , x 2 , x3 ) aparţine planului determinat de (6) atunci


există λ , μ ∈ R astfel încât x = λ u + μ v + a . Scriind această egalitate pe
coordonate obţinem (8).
Reciproc, dacă că au loc relaţiile (8) atunci acestea implică x = λ u + μ v + a deci
x ∈ (P ) .

5.9. Definiţie. Relaţiile (8) se numesc ecuaţiile parametrice ale planului.

5.10. Observaţie. Fie planul (P ) dat de ecuaţiile parametrice

x1 = a1 + λ u1 + μ v1
x2 = a2 + λ u 2 + μ v2 (9)
x3 = a 3 + λ u 3 + μ v3 , λ , μ ∈ R .

Dacă privim ecuaţiile de mai sus ca formând un sistem în necunoscutele λ , μ


condiţia de compatibilitate a acestui sistem se scrie:

x1 − a1 x2 − a2 x3 − a 3
u1 u2 u3 = 0 , (10)
v1 v2 v3

unde condiţia de liniar independenţă a vectorilor u şi v se scrie

⎛ u u2 u3 ⎞
rang ⎜⎜ 1 ⎟ = 2.
⎝ v1 v 2 v3 ⎟⎠

Fie w = (w1 , w2 , w3 ) produsul vectorial al vectorilor u şi v, unde


5.8. EXERCIŢII 199

u2 u3 u u1 u u2
w1 = , w2 = 3 , w3 = 1 .
v2 v3 v3 v1 v1 v2

Dezvoltând determinantul (10) după prima linie obţinem ecuaţia

(x1 − a1 )w1 + (x2 − a2 )w2 + (x3 − a3 )w3 = 0 , (11)

ecuaţi care se scrie vectorial sub forma

(x − a)⋅ w = 0 . (12)

Din proprietăţile produsului vectorial deducem că vectorul w este perpendicular


pe u şi v deci pe subspaţiul director al planului (P ) . Vom spune în acest caz că
vectorul w este perpendicular pe planul (P ) .

5.11. Definiţie Un vector w = (w1 , w2 , w3 ) perpendicular pe subspaţiul director al


unui plan (P ) se numeşte vector director al acelui plan. Numerele reale
w1 , w2 , w3 se numesc parametrii directori ai planului (P ) . Ecuaţia (12) se
numeşte ecuaţia planului determinat de punctul a şi de vectorul w.

Dacă desfacem parantezele în ecuaţia (11) şi notăm w = − a1 w1 − a 2 w2 − a3 w3


obţinem ecuaţia

w1 x1 + w2 x2 + w3 x3 + w = 0 . (13)

Ecuaţia (12) se numeşte ecuaţia generală a planului.

Fie acum punctele necoliniare a = (a1 , a 2 , a3 ) , b = (b1 , b2 , b3 ) , c = (c1 , c2 , c3 ) .


Vectorii b − a , c − a sunt liniar independenţi şi deci generează un subspaţiu
liniar M de dimensiune doi în E 3 . Ecuaţia planului (P ) ce trece prin punctul a şi
are subspaţiul director M este (dacă utilizăm (10)):

x1 − a1 x2 − a2 x3 − a 3
b1 − a1 b2 − a 2 b3 − a3 = 0 , (14)
c1 − a1 c2 − a2 c3 − a 3

ecuaţie care este echivalentă cu ecuaţia:


200 5. ELEMENTE DE GEOMETRIE ANALITICĂ

x1 x2 x3 1
a1 a2 a3 1
= 0. (15)
b1 b2 b3 1
c1 c2 c3 1

Ecuaţia (15) se numeşte ecuaţia planului determinat de trei puncte necoliniare.

Un caz particular de trei puncte necoliniare este acela în care a = (a,0,0 ) ,


b = (0, b,0 ) , c = (0,0, c ) , a ≠ 0, b ≠ 0, c ≠ 0 . În aceste condiţii ecuaţia planului
determinat de aceste puncte este:

x1 x2 x3
+ + −1 = 0 . (16)
a b c

Ecuaţia (16) se numeşte ecuaţia planului prin tăieturi.

5.6. CONICE

Fie E 2 spaţiul euclidian de dimensiune doi, aij ∈ R, aij = a ji , i, j = 1, 3 şi


aplicaţia F : E 2 → R definită prin:

F ( x ) = F ( x1 , x 2 ) = a11 x12 + 2a12 x1 x 2 + a 22 x22 + 2a13 x1 + 2a 23 x 2 + a33 .

Vom impune condiţia ca a112 + a122 + a 222 ≠ 0 , adică în expresia lui F cel puţin unul
din coeficienţii termenilor de gradul doi este diferit de zero.

6.1. Definiţie. Se numeşte conică sau curbă de gradul doi mulţimea punctelor
x = ( x1 , x2 ) ∈ E 2 cu proprietatea că F ( x1 , x 2 ) = 0 . Ecuaţia precedentă se numeşte
ecuaţia generală a conicei.

6.2. Exemple. Exemplele de mai jos se obţin printr-o alegere convenabilă a


coeficienţilor din ecuaţia generală a conicei. Vom arăta pe parcursul acestui
paragraf că exemplele de mai jos acoperă, într-un sens pe care îl vom preciza,
toată familia conicelor.

i) Elipsa este conica de ecuaţie


5.8. EXERCIŢII 201

x12 x22
+ − 1 = 0 , a, b > 0 .
a2 b2

Un caz particular al ecuaţiei de mai sus este acela în care a = b = R . Se obţine


astfel ecuaţia cercului de rază R cu centrul în origine.

ii) În cazul ecuaţiei

x12 x22
+ + 1 = 0 , a, b > 0
a2 b2

se constată că nu există numere reale x1 , x 2 care să verifice ecuaţia de mai sus.


Această conică este mulţimea vidă; ea se mai numeşte elipsă vidă.

iii) Hiperbola are ecuaţia:

x12 x22
− − 1 = 0 , a, b > 0
a2 b2

iv) Ecuaţia

x12 x 22
+ = 0 , a, b > 0
a2 b2

este verificată numai de origine. De aceea conica din acest exemplu se numeşte
punct dublu.

v) Ecuaţia

x12 x 22
− = 0 , a, b > 0
a2 b2

reprezintă două drepte secante. Aceste drepte au ecuaţiile:

(d1 ) : x1 − x2 = 0 , (d 2 ) :
x1 x 2
+ = 0.
a b a b

vi) Conica de ecuaţie

x 22 − a 2 = 0 , a > 0
202 5. ELEMENTE DE GEOMETRIE ANALITICĂ

constă din două drepte paralele de ecuaţii (d1 ) : x 2 − a = 0 , (d 2 ) : x2 + a = 0 .

vii) Două drepte confundate: x 22 = 0 .

viii) Pereche vidă de drepte paralele: x 22 + a 2 = 0 , a > 0

ix) Parabola este conica de ecuaţie:

x 22 − 2 px1 = 0 , p > 0 .

Vom nota o conică prin simbolul (γ ) ; ecuaţia F ( x1 , x 2 ) = 0 o vom numi ecuaţia


conicei (γ ) .

Dacă notăm X = ( x1 x 2 ) , A = (aij )i , j =1, 2 , B = (a13 a 23 ) atunci ecuaţia conicei


t t

(γ ) se scrie

X t AX + 2 B t X + a33 = 0 .

Pe lângă matricea simetrică A introdusă mai sus, vom utiliza şi matricea

⎛ a11 a12 a13 ⎞


⎜ ⎟ ⎛A B⎞
D = ⎜ a 21 a 22 a 23 ⎟ = ⎜⎜ t ⎟.
B a33 ⎟⎠
⎜a
⎝ 31 a32 a33 ⎟⎠ ⎝

6.3. Definiţie. Matricea D se numeşte matricea asociată conicei (γ ) .

Vom folosi în cele ce urmează notaţiile:

δ = det A , Δ = det D , I = a11 + a 22 ,

a11 a12 a11 a13 a 22 a 23


K= + + .
a 21 a 22 a31 a33 a32 a33

~
6.4. Observaţie. Fie izometria H : E 2 → E 2 şi aplicaţia F : E 2 → R ,
~
F = F o H . După cum ştim orice izometrie a lui E 2 se compune dintr-o
translaţie şi o transformare ortogonală. Dacă

X = CX ′ + X 0
5.8. EXERCIŢII 203

este expresia analitică a izometriei H ( unde C ⋅ C t = I 2 şi X 0t = (x10 x20 ) ) atunci


~
funcţia F este:
~ ~ ~
F ( x1′ , x ′2 ) = X ′ t A X ′ + 2 B t X ′ + a~33 ,

unde
~
A = C t AC , (1)
~
B = C t AX 0 + C t B , (2)
a~33 = F (x10 , x 20 ) = X 0t AX 0 + 2 B t X 0 + a33 . (3)

~ ~
Ecuaţia F ( x1′ , x ′2 ) = 0 defineşte în mod evident o conică (γ~ ) . Matricea D
asociată acestei conice este:
~ ~
~ ⎛⎜ A B⎞
⎟.
D = ⎜ ~t (4)
⎝B a~33 ⎟⎠

Fie matricea

⎛ c11 c12 x10 ⎞


⎛C X0 ⎞ ⎜ ⎟
S = ⎜⎜ ⎟ = ⎜ c 21 c 22 x 20 ⎟ . (5)
⎝0 1 ⎟⎠ ⎜
⎝ 0 0 1 ⎟⎠

Matricea S are determinantul egal cu determinantul matricei C şi calcule


elementare ne arată că are loc egalitatea:
~
D = S t DS . (6)

6.5. Definiţie. Conicele (γ 1 ) şi (γ 2 ) de ecuaţii F1 ( x1 , x 2 ) = 0 şi respectiv


F2 ( x1 , x 2 ) = 0 se numesc echivalente izometric dacă există o izometrie
H : E 2 → E 2 astfel încât F2 = F1 o H .

Relaţia de mai sus este o relaţie de echivalenţă în mulţimea conicelor. Fiecare


conică (γ ) determină o clasă de echivalenţă. Dacă D este matricea ataşată conicei
(γ ) vom nota cu [D] mulţimea matricelor ataşate conicelor echivalente izometric
cu (γ ) .
204 5. ELEMENTE DE GEOMETRIE ANALITICĂ

Fie M o mulţime oarecare şi Ω : M 3 ( R ) → M o funcţie de elementele unei


matrice de ordinul trei. O astfel de funcţie o vom numi funcţie de matrice. De
exemplu funcţia care asociază unei matrice urma sa este o funcţie de matrice. Un
alt exemplu este funcţia care asociază unei matrice rangul său.

6.6. Definiţie. Funcţia de matrice Ω se numeşte invariant izometric al conicei


(γ ) dacă această funcţie este constantă pe mulţimea [D ] .
6.7. Propoziţie. i) I , δ şi Δ sunt invarianţi izometrici;
ii) Rangurile matricelor A şi D sunt invarianţi izometrici.

Demonstraţie. i) Polinomul caracteristic asociat matricei A este

PA (λ ) = λ2 − I ⋅ λ + δ

iar polinomul caracteristis asociat matricei D este

PD (λ ) = λ3 − Tr (D )λ2 + K ⋅ λ − Δ .

~
Dacă D ∈ [D ] atunci au loc relaţiile (1)-(4), (6) stabilite în observaţia 6.4. Din
relaţia (1) deducem:
~
det( A − λI 2 ) = det C t ⋅ det ( A − λI 2 ) ⋅ det C = det( A − λI 2 )

~
deci matricele A şi A au acelaşi polinom caracteristic. De aici rezultă că I şi δ
sunt invarianţi izometrici. Cum matricea S are determinantul egal cu
determinantul matricei C din formula (6) obţinem
~
det D = det S t ⋅ det D ⋅ det S = det D ⋅ (det C ) = det D
2

deci Δ este invariant izometric.


ii) Fie U : E 3 → E 3 operatorul liniar definit de matricea S t Cum S t este
nesingulară, U este un izomorfism. Atunci vectorii v i , i = 1, k , k ≤ 3 din E 3 sunt
liniar independenţi dacă şi numai dacă vectorii U (v i ), i = 1, k au aceeaşi
proprietate. Cum matricea S t D are pe coloane coordonatele vectorilor
U (d i ), i = 1, 3 , d i , i = 1, 3 fiind vectorii definiţi de coloanele matricei D, rezultă
că numărul maxim de vectori liniar independenţi din mulţimea d i , i = 1, 3 { }
coincide cu numărul maxim de vectori liniar independenţi din mulţimea
5.8. EXERCIŢII 205

{U (d ) , i = 1, 3}.
i Cum rangul unei matrice este egal cu numărul maxim de
coloane (linii) liniar independente, rezultă că matricele D şi S t D au acelaşi rang.
Raţonamente asemănătoare ne duc la concluţia că şi matricele D şi S t DS au
acelaşi rang. La fel se arată că matricele A şi C t AC au acelaşi rang.

6.8. Definiţie. Spunem că punctul x 0 = (x10 , x 20 ) este centru de simetrie al conicei


(γ ) dacă odată cu orice punct al conicei şi simetricul său faţă de x 0 aparţine
conicei.

6.9. Observaţie. Simetricul punctului x 0 + x ′ = (x10 + x1′ , x 20 + x 2′ ) faţă de x 0 este


punctul x 0 − x ′ = (x10 − x1′ , x 20 − x′2 ) . Punctul x 0 este centru de simetrie al conicei
(γ ) de ecuaţie F (x1 , x2 ) = 0 dacă pentru orice punct x ′ = (x1′ , x2′ ) astfel încât
F (x10 + x1′ , x20 + x 2′ ) = 0 rezultă F (x10 − x1′ , x 20 − x 2′ ) = 0 .

6.10. Propoziţie. Punctul x 0 = (x10 , x 20 ) este centru de simetrie al conicei (γ ) de


ecuaţie F ( x1 , x2 ) = 0 dacă şi numai dacă (x10 , x 20 ) este soluţie a sistemului:

a11 x1 + a12 x 2 + a13 = 0


a 21 x1 + a 22 x 2 + a 23 = 0.

Demonstraţie. Necesitatea. Fie x 0 = (x10 , x 20 ) centru de simetrie al conicei.


Atunci pentru orice punct x ′ = ( x1′ , x′2 ) astfel încât F (x10 + x1′ , x 20 + x ′2 ) = 0 avem
F (x10 − x1′ , x 20 − x 2′ ) = 0 . Dacă luăm X ′ = ( x1′ x′2 ) ecuaţiile precedente se scriu:
t

X ′ t AX ′ + 2(X 0t A + B t )X ′ + a~33 = 0,
X ′ t AX ′ − 2(X 0t A + B t )X ′ + a~33 = 0.

Scăzând ecuaţiile de mai sus obţinem:

(X t
0 A + B t )X ′ = 0,

pentru orice punct x ′ = ( x1′ , x′2 ) astfel încât F (x10 + x1′ , x 20 + x ′2 ) = 0 . Acest fapt
implică X 0t A + B t = 0 , ecuaţie care este echivalentă cu ecuaţia AX 0 + B = 0 .
Ultima ecuaţie nu reprezintă altceva decât sistemul din enunţul propoziţiei.
Suficienţa. Fie x 0 = (x10 , x 20 ) o soluţie a sistemului din enunţul propozitiei. Atunci
avem AX 0 + B = 0 şi
206 5. ELEMENTE DE GEOMETRIE ANALITICĂ

F (x1′ + x10 , x2′ + x20 ) = X ′ t AX ′ + F (x10 , x 20 ) = F (x1′ − x10 , x 2′ − x20 ) .

Dacă F (x1′ + x10 , x 2′ + x 20 ) = 0 atunci avem şi F (x1′ − x10 , x ′2 − x 20 ) = 0 deci


x 0 = (x , x
0
1
0
2 ) este centru de simetrie al conicei.
6.11. Observaţie. Din propoziţia de mai sus rezultă că putem avea următoarele
situaţii:
i) δ ≠ 0 ; în acest caz sistemul AX + B = 0 are soluţie unică şi conica are centru
de simetrie unic. Spunem în acest caz că avem o conică cu centru.
ii) δ = 0 şi rangul matricei

⎛a a12 a13 ⎞
Ae = ⎜⎜ 11 ⎟
⎝ a 21 a 22 a 23 ⎟⎠

este egal cu 1. Din condiţia a112 + a122 + a 222 ≠ 0 rezultă că rangA = 1 şi deci
sistemul AX + B = 0 este compatibil nedeterminat. Conica are o infinitate de
centre de simetrie. Spunem în acest caz că conica (γ ) are o dreaptă de centre.
iii) δ = 0 şi rangul matricei Ae este egal cu 2. În acest caz sistemul AX + B = 0
este incompatibil şi conica nu are centre de simetrie.

6.12. Observaţie. Fie conica (γ ) de ecuaţie X t AX + 2 B t X + a33 = 0 . În urma


translaţiei

X = X′+ X0

ecuaţia conicei devine:


~
X ′t AX ′ + 2 B t X ′ + a~33 = 0 ,

unde:

B = AX 0 + B , a~33 = F (x10 , x 20 ) = X 0t AX 0 + 2 B t X 0 + a33 .


~

i) Fie δ ≠ 0 şi (x10 , x20 ) soluţia unică a sistemului AX + B = 0 . Cu ajutorul regulei


lui Cramer deducem:

1 a12 a13 1 a a13


x10 = ⋅ , x20 = − ⋅ 11 .
δ a 22 a 23 δ a 21 a 23
5.8. EXERCIŢII 207

Atunci:

a~33 = F (x10 , x20 ) = (X 0t A + B t )X 0 + B t X 0 = a13 x10 + a 23 x20 + a33 ,

şi prin înlocuirea expresiilor găsite pentru x10 şi x 20 obţinem

1 ⎛ a a13 a11 a13 ⎞ Δ


a~33 = ⋅ ⎜⎜ a13 ⋅ 12 − a 23 ⋅ + a33 ⋅ δ ⎟⎟ = .
δ ⎝ a 22 a 23 a 21 a 23 ⎠ δ

În acestcaz translaţia de vector (x10 , x20 ) ne conduce la conica de ecuaţie:

Δ
X ′t AX ′ + = 0.
δ

ii) Să considerăm acum cazul în care δ = 0 , sistemul AX + B = 0 este compatibil


nedeterminat şi (x10 , x 20 ) o soluţie a acestui sistem. Suma minorilor diagonali de
ordinul doi ai matricei D este:

a11 a13 a 22 a 23
K= + .
a31 a33 a32 a33

~
Fie translaţia X = X ′ + X 0 şi K suma minorilor diagonali de ordinul doi ai
~ ~
matricei D . Cum matricea D este în acest caz

⎛ a11 a12 0 ⎞
~ ⎜ ⎟
D = ⎜ a 21 a 22 0 ⎟,
⎜ 0 0 a~33 ⎟⎠

deducem
~
K = (a11 + a 22 ) ⋅ a~33 .

Din condiţiile δ = 0 , a112 + a122 + a 222 ≠ 0 rezultă că a11 şi a 22 nu pot fi simultan


nuli. Dacă a11 ≠ 0 şi a 22 = 0 atunci din δ = 0 deducem a12 = 0 şi din a doua
ecuaţie a sistemului AX + B = 0 obţinem a 23 = 0 . În aceste condiţii soluţiile
sistemulul AX + B = 0 sunt de forma (− a13 / a11 , α ) , α ∈ R .
208 5. ELEMENTE DE GEOMETRIE ANALITICĂ

Obţinem astfel:

a~33 = a13 x10 + a 23 x20 + a33 =


1
(a11a33 − a132 ) ,
a11
~
K = a11 a33 − a132 = K .

Dacă a11 ≠ 0, a 22 ≠ 0 atunci din prima ecuaţie a sistemului AX + B = 0 obţinem


a a
x10 = − 12 α − 13 , x20 = α , α ∈ R şi înlocuind în expresia lui a~33 găsim:
a11 a11

1 a11 a13
a~33 = .
a11 a31 a33

După calcule asemănătoare dar utilizând a doua ecuaţie a sistemului AX + B = 0


găsim:

1 a 22 a 23
a~33 = .
a 22 a32 a33

Ultimele două egalităţi ne permit să scriem

~ a a13 a 22 a 23
K = (a11 + a 22 ) ⋅ a~33 = 11 + =K.
a31 a33 a32 a33

Deci în cazul conicelor cu o infinitate de centre K este invariant la translaţiile de


forma X = X ′ + X 0 , unde (x10 , x20 ) este un centru al conicei.

6.13. Propoziţie. Conica (γ ) de ecuaţie X t AX + 2 B t X + a33 = 0 este:


i) cu o dreaptă de centre dacă şi numai dacă δ = 0, Δ = 0 ;
ii) fără centru dacă şi numai dacă δ = 0, Δ ≠ 0 .

Demonstraţie. i) Sistemul AX + B = 0 are o infinitate de soluţii dacă şi numai


dacă rangA = rangA e = 1 . Fie conica (γ ) cu o dreaptă de centre. Atunci
rangA = rangA e = 1 , deci δ = 0 . În plus deoarece matricea Ae este formată din
primele două linii ale matricei D , dezvoltând Δ după ultima linie obţinem
Δ = 0 . Reciproc, pentru δ = 0, Δ = 0 avem rangA = 1 . Să arătăm că rangAe = 1.
Fie a11 ≠ 0 . Deoarece δ = 0 , deducem:
5.8. EXERCIŢII 209

⎛ a a13 a11 a13 ⎞


a11 ⋅ Δ = a11 ⎜⎜ a31 12 − a32 ⎟ = −(a13 a12 − a 23 a11 )2 .
⎝ a 22 a 23 a 21 a 23 ⎟⎠

Cum Δ = 0 egalitatea de mai sus ne conduce la condiţia

a11 a13
= 0,
a 21 a 23

condiţie care implică rangAe = 1.


Dacă a 22 ≠ 0 , calcule asemănătoare ne conduc la egalitatea

a12 a13
=0
a 22 a 23

egalitate care implică din nou rangAe = 1. Cum a11 şi a 22 nu pot fi simultan nuli
obţinem astfel afirmaţia din propoziţie.
ii) Dacă δ = 0, Δ ≠ 0 , din demonstraţia afirmaţiei i) deducem rangAe = 2 deci
conica nu are centru. Reciproc, dacă conica nu are centru, atunci rangA = 1 ,
rangAe = 2 , deci dacă a11 ≠ 0 atunci

a11 a13
≠ 0,
a 21 a 23

de unde obţinem Δ ≠ 0 . Dacă a 22 ≠ 0 atunci

a12 a13
≠0
a 22 a 23

şi Δ ≠ 0 .

6.14. Teoremă. Fie (γ ) o conică cu centru de ecuaţie X t AX + 2 B t X + a33 = 0 şi


λ1 , λ2 valorile proprii ale matricei A. Atunci (γ ) este echivalentă izometric cu
conica de ecuaţie:

Δ
λ1 ( x1′′) + λ2 ( x′2′ ) +
2 2
= 0. (7)
δ
210 5. ELEMENTE DE GEOMETRIE ANALITICĂ

Demonstraţie. Fie (x10 , x20 ) centrul de simetrie al conicei. Aşa cum am văzut
(observaţia 6.12) translaţia X = X ′ + X 0 ne conduce la conica de ecuaţie:

Δ
X ′t AX ′ + = 0.
δ

Fie λ1 , λ2 valorile proprii ale matricei A, v1 = (v11 ,v21 ) , v 2 = (v12 ,v22 ) vectori
proprii ortonormaţi corespunzători acestor valori proprii şi matricea ortogonală

⎛v v12 ⎞
C = ⎜⎜ 11 ⎟.
⎝ v21 v22 ⎟⎠

Deoarece

⎛λ 0⎞
C t AC = C −1 AC = ⎜⎜ 1 ⎟,
⎝0 λ2 ⎟⎠

în urma transformării ortogonale X ′ = CX ′′ ecuaţia conicei devine:

Δ
λ1 ( x1′′) + λ2 ( x′2′ ) +
2 2
= 0,
δ

fapt ce închie demonstraţia.

Ecuaţia (7) se numeşte ecuaţia redusă (canonică) a unei conice cu centru.

6.15. Definiţie. Conica (γ ) se numeşte nedegenerată dacă Δ ≠ 0 şi degenerată


în caz contrar.

6.16. Observaţie. Fie (γ ) o conică cu centru şi (x10 , x20 ) centrul său. Atunci
conica este degenerată dacă şi numai dacă centrul aparţine conicei. Într-adevăr,
Δ
cum F (x10 , x 20 ) = , Δ = 0 dacă şi numai dacă F (x10 , x20 ) = 0 .
δ

6.17. Clasificarea conicelor cu centru. Rezultatele stabilite până acum ne


permit să clasificăm conicele cu centru. Deoarece ecuaţia caracteristică a matricei
A este λ2 − I ⋅ λ + δ = 0 , avem λ1 + λ2 = I , λ1 ⋅ λ2 = δ deci semnele valorilor
proprii sunt determinate de semnele lui I şi δ . Avem următoarea clasificare:
5.8. EXERCIŢII 211

I) Conice nedegenerate ( Δ ≠ 0 )

i) elipsa ( δ > 0, I ⋅ Δ < 0 ); în acest caz ecuaţia conicei este

(x1′′)2 + (x′2′ )2 − 1 = 0 ;
Δ Δ
λ1δ λ 2δ

ii) elipsa vidă ( δ > 0, I ⋅ Δ > 0 );


Δ
iii) hiperbola ( δ < 0 ); în acest caz λ1 şi λ2 au semne contrare. Dacă <0
δ ⋅ λ1
Δ
atunci > 0 şi ecuaţia conicei devine
δ ⋅ λ2

(x1′′)2 −
( x ′2′ )
2

−1 = 0 .
Δ Δ

λ1δ λ 2δ

II) Conice degenerate ( Δ = 0 )

i) punct dublu ( δ > 0 ); în acest caz ecuaţia conicei este

λ1 ( x1′′) + λ2 ( x2′′ ) = 0 .
2 2

ii) pereche de drepte secante ( δ < 0 ); în acest caz λ1 şi λ2 au semne contrare.


Dacă λ1 > 0 şi λ2 < 0 atunci ecuaţia conicei este:

( )( )
λ1 x1′′ + − λ2 x ′2′ ⋅ λ1 x1′′ − − λ2 x ′2′ = 0 .

6.18. Observaţie. Fie D matricea asociată conicei (γ ) , K suma minorilor


diagonali de ordinul doi ai acestei matrice şi transformarea ortogonală X = CX ′ .
~
Matricea asociată conicei după această transformare este D = S t DS (observaţia
6.4), unde

⎛C 0⎞
S = ⎜⎜ ⎟⎟ .
⎝ 0 1 ⎠
212 5. ELEMENTE DE GEOMETRIE ANALITICĂ

~
Matricea S este ortogonală. Polinomul caracteristic ataşat lui D este:

( )
PD~ (λ ) = det D − λI 3 = det[S t (D − λI 3 )S ] = det S t ⋅ det (D − λI 3 ) ⋅ det S =
~

= det (D − λI 3 ) = PD (λ ) ,

deci este invariant la transformări ortogonale. Cum

PD (λ ) = λ3 − Tr (D )λ2 + K ⋅ λ − Δ

rezultă că şi K este invariant la transformări ortogonale. Cum K este invariant la


translaţiile de forma X = X ′ + X 0 , unde (x10 , x20 ) este un centru al conicei
(observaţia 6.12), rezultă că acest coeficient este un invariant la izometrii de
forma

X = CX ′ + X 0 ,

unde X 0 reprezintă un centru al conicei.

6.19. Teoremă. Fie (γ ) o conică de ecuaţie X t AX + 2 B t X + a33 = 0 . Dacă


conica (γ ) are o dreaptă de centre atunci ea este echivalentă izometric cu conica
de ecuaţie:

(x2′′ )2 + K2 = 0. (8)
I

Demonstraţie. Aşa cum am mai precizat în observaţia 6.12 din condiţiile δ = 0 ,


a112 + a122 + a 222 ≠ 0 rezultă că a11 şi a 22 nu pot fi simultan nuli. Atunci
I = a11 + a 22 ≠ 0 . Din propoziţia 6.13 rezultă că în acest caz avem Δ = 0 .
Matricea A are valorile proprii λ1 = 0, λ2 = I . Fie (x10 , x 20 ) un centru al conicei. În
urma translaţiei X = X ′ + X 0 ecuaţia conicei devine:

X ′ t AX ′ + a~33 = 0 ,

unde a~33 = F (x10 , x 20 ) = a13 x10 + a 23 x 20 + a33 .


Fie v1 = (v11 ,v21 ) , v 2 = (v12 ,v22 ) vectori proprii ortonormaţi corespunzători
valorilor proprii λ1 = 0 şi respectiv λ2 = I şi matricea ortogonală

⎛v v12 ⎞
C = ⎜⎜ 11 ⎟.
⎝ v21 v 22 ⎟⎠
5.8. EXERCIŢII 213

În urma transformării ortogonale X ′ = CX ′′ ecuaţia conicei devine:

I ( x′2′ ) + a~33 = 0 .
2

~
În urma acestor transformări matricea D (observaţia 6.4, formula 4) este

⎛0 0 0 ⎞
~ ⎜ ⎟
D = ⎜0 I 0 ⎟,
⎜ 0 0 a~ ⎟
⎝ 33 ⎠

~
iar suma minorilor diagonali de ordinul doi ai acesteia este K = I ⋅ a~33 . Cum K
K
este un invariant (observaţia 6.12), rezultă a~33 = şi ecuaţia conicei devine:
I
(x2′′ )2 + K2 = 0.
I

Ecuaţia (8) se numeşte ecuaţia redusă (canonică) a unei conice cu o dreaptă de


centre.

6.20. Teoremă. Fie (γ ) o conică fără centru şi de ecuaţie


X t AX + 2 B t X + a33 = 0 . Atunci (γ ) este echivalentă izometric cu conica de
ecuaţie:

Δ
(x′2′ )2 − 2 − x1′′ = 0 . (9)
I3

Demonstraţie. Fie (γ ) o conică fără centru. Atunci δ = 0 , Δ ≠ 0 , I ≠ 0 . Fie


v1 = (v11 ,v 21 ) , v 2 = (v12 ,v22 ) vectori proprii ortonormaţi corespunzători valorilor
proprii λ1 = 0 şi respectiv λ2 = I şi matricea ortogonală

⎛v v12 ⎞
C = ⎜⎜ 11 ⎟.
⎝ v21 v 22 ⎟⎠

În urma transformării ortogonale X = CX ′ ecuaţia conicei devine:

I ( x ′2 ) + 2a~13 x1′ + 2a~23 x′2 + a33 = 0 ,


2
(10)

unde a~13 = a13 v11 + a 23 v21 , a~23 = a13 v12 + a 23 v22 .


214 5. ELEMENTE DE GEOMETRIE ANALITICĂ

Printr-o grupare convenabilă a termenilor, ecuaţia (10) se pune sub forma:

a~23 ⎞ Ia33 − a~232 ⎞


2
⎛ ~ ⎛
I ⎜ x2′ + ⎟ + 2a13 ⎜⎜ x1′ + ⎟ = 0.
⎝ I ⎠ ⎝ 2 I ⋅ a~13 ⎟⎠

Cu ajutorul translaţiei

x1′ = x1′′ + x10


x′2 = x ′2′ + x 20 ,

a~232 − Ia33 a~23


unde x =
0
, x2 = −
0
, ecuaţia conice devine:
2 I ⋅ a~13
1
I

I ( x ′2′ ) + 2a~13 x1′′ = 0 .


2
(11)

~
Matricea D (observaţia 6.4) este

⎛ 0 0 a~13 ⎞
~ ⎜ ⎟
D=⎜ 0 I 0 ⎟
⎜ a~ 0 0 ⎟⎠
⎝ 13
~
şi are determinantul Δ = − I (a~13 ) . Cum Δ este un invariant izometric rezultă
2

~
Δ = − I (a~13 ) = Δ , de unde obţinem:
2

(a~13 )2 = − Δ ≠ 0 .
I

Cu acest rezultat ecuaţia (11) se scrie

Δ
(x2′′ )2 ± 2 − x1′′ = 0 . (12)
I3

Demonstraţia se încheie constatând că o eventuală simetrie faţă de axa Ox 2′′ ( de


ecuaţii x1′′ = − y1 , x 2′′ = y 2 ) transformă ecuaţia (12) în ecuaţia (9).

Ecuaţia (9) se numeşte ecuaţia redusă (canonică) a parabolei.


5.8. EXERCIŢII 215

5.7. CUADRICE

Studiul cuadricelor se aseamănă în foarte multe privinţe cu studiul conicelor.


Rezultatele pe care le vom prezenta mai jos sunt extinderi ale rezultatelor
obţinute în paragraful 5.6. De aceea în cele ce urmează vom enunţa rezultatele
fără a mai da demonstraţia lor.

Fie aij ∈ R, aij = a ji , i, j = 1, 4 şi aplicaţia F : E 3 → R definită prin:

F ( x ) = F ( x1 , x2 , x3 ) = a11 x12 + a 22 x 22 + a33 x32 + 2a12 x1 x2 + 2a13 x1 x3 +


+ 2a 23 x 2 x3 + 2a14 x1 + 2a 24 x 2 + 2a34 x3 + a 44 .

Vom impune condiţia ca a112 + a 222 + a332 + a122 + a132 + a 232 ≠ 0 , adică în expresia lui
F cel puţin unul din coeficienţii termenilor de gradul doi este diferit de zero.

7.1. Definiţie. Se numeşte cuadrică sau suprafaţă de ordinul doi mulţimea


punctelor x = ( x1 , x2 , x3 ) ∈ E 3 cu proprietatea că F ( x1 , x 2 , x3 ) = 0 .
Ecuaţia F ( x1 , x 2 , x3 ) = 0 se numeşte ecuaţia generală a cuadricei.

Vom nota o cuadrică prin simbolul (Σ ) ; vom da o cuadrică precizând ecuaţia


F ( x1 , x 2 , x3 ) = 0 satisfăcută de coordonatele punctelor sale. Această ecuaţie o
vom numi ecuaţia cuadricei (Σ ) .

X = ( x1 x3 ) , A = (aij )i , j =1, 3 , B = (a14 a34 )


t t
Dacă notăm x2 a 24 atunci
ecuaţia cuadricei (Σ ) se scrie

X t AX + 2 B t X + a 44 = 0 .

Pe lângă matricea simetrică A introdusă mai sus, vom utiliza şi matricea

⎛ a11 a12 a13 a14 ⎞


⎜ ⎟
⎜a a 22 a 23 a 24 ⎟ ⎛ A B⎞
D = ⎜ 21 =⎜ ⎟.
a a32 a33 a34 ⎟ ⎜⎝ B t a 44 ⎟⎠
⎜ 31 ⎟
⎜a
⎝ 41 a 42 a 43 a 44 ⎟⎠
216 5. ELEMENTE DE GEOMETRIE ANALITICĂ

7.2. Definiţie. Matricea D se numeşte matricea asociată cuadricei (Σ ) .

Vom utiliza în cele ce urmează notaţiile:

δ = det A , Δ = det D , I = a11 + a 22 + a33 ,


a11 a12 a11 a13 a 22 a 23
J= + + ,
a 21 a 22 a31 a33 a32 a33
K = suma minorilor diagonali de ordinul trei ai matricei D ,
L = suma minorilor diagonali de ordinul doi ai matricei D.
~
7.3. Observaţie. Fie izometria H : E 3 → E 3 şi aplicaţia F : E 3 → R ,
~
F = F o H . După cum ştim orice izometrie a lui E 3 se compune dintr-o
translaţie şi o transformare ortogonală. Dacă

X = CX ′ + X 0

este expresia analitică a izometriei H ( unde C ⋅ C t = I 3 şi X 0t = (x10 x20 x30 ) )


~
atunci funcţia F este:
~ ~ ~
F ( x1′ , x′2 , x3′ ) = X ′ t A X ′ + 2 B t X ′ + a~44 ,

unde
~
A = C t AC t , (1)
~
B = C t AX 0 + C t B , (2)
a~44 = F (x10 , x20 , x30 ) = X 0t AX 0 + 2 B t X 0 + a 44 . (3)
~ ~
()~
Ecuaţia F ( x1′ , x ′2 , x3′ ) = 0 defineşte în mod evident o cuadrică Σ . Matricea D
asociată acestei cuadrice este:
~ ~
~ ⎛⎜ A B⎞
D = ⎜ ~t ⎟. (4)
⎝B a~44 ⎟⎠

Fie matricea

⎛ c11 c12 c13 0⎞


⎜ ⎟
⎛C 0 ⎞ ⎜ c 21 c22 c 23 0⎟
S = ⎜⎜ t ⎟= . (5)
⎝ X0 1 ⎟⎠ ⎜ c31 c32 c33 0⎟
⎜ 0 ⎟
⎜x
⎝ 1 x 20 x30 1 ⎟⎠
5.8. EXERCIŢII 217

Matricea S are determinantul egal cu determinantul matricei C şi calcule


elementare ne arată că are loc egalitatea:
~
D = S t DS . (6)

7.4. Definiţie. Cuadricele (Σ1 ) şi (Σ 2 ) de ecuaţii F1 ( x1 , x2 , x3 ) = 0 şi respectiv


F2 ( x1 , x2 , x3 ) = 0 se numesc echivalente izometric dacă există o izometrie
H : E 3 → E 3 astfel încât F2 = F1 o H .

Relaţia de mai sus este o relaţie de echivalenţă în mulţimea cuadricelor. Fiecare


cuadrică (Σ ) determină o clasă de echivalenţă. Dacă D este matricea ataşată
cuadricei (Σ ) vom nota cu [D ] mulţimea matricelor ataşate cuadricelor
echivalente izometric cu (Σ ) .

Fie M o mulţime oarecare şi Ω : M 4 ( R ) → M o funcţie de elementele unei


matrice de ordinul patru. O astfel de funcţie o vom numi funcţie de matrice.

7.5. Definiţie. Funcţia de matrice Ω se numeşte invariant izometric al cuadricei


(Σ ) dacă această funcţie este constantă pe mulţimea [D] .
7.6. Propoziţie. i) I , J , δ şi Δ sunt invarianţi izometrici;
ii) Rangurile matricelor A şi D sunt invarianţi izometrici.

7.7. Definiţie. Spunem că punctul x 0 = (x10 , x20 , x30 ) este centru de simetrie al
cuadricei (Σ ) dacă odată cu orice punct al cuadricei şi simetricul său faţă de x 0
aparţine cuadricei.

7.8. Observaţie. Simetricul punctului x 0 + x ′ = (x10 + x1′ , x20 + x 2′ , x30 + x3′ ) faţă de
x 0 este punctul x 0 − x ′ = (x10 − x1′ , x 20 − x 2′ , x30 − x3′ ). Punctul x 0 este centru de
simetrie al cuadricei (Σ ) de ecuaţie F ( x1 , x 2 , x3 ) = 0 dacă pentru orice punct
x ′ = ( x1′ , x′2 , x3′ ) astfel încât F (x10 + x1′ , x 20 + x ′, x30 + x3′ ) = 0 rezultă
F (x10 − x1′ , x20 − x2′ , x30 − x3′ ) = 0 .

7.9. Propoziţie. Punctul x 0 = (x10 , x20 , x30 ) este centru de simetrie al cuadricei (Σ )
de ecuaţie F (x1 , x 2 , x30 ) = 0 dacă şi numai dacă (x 0
1 , x 20 , x30 ) este soluţie a
sistemului:

a11 x1 + a12 x2 + a13 x3 + a14 = 0


a 21 x1 + a 22 x2 + a 23 x3 + a 24 = 0
a31 x1 + a32 x2 + a33 x3 + a34 = 0.
218 5. ELEMENTE DE GEOMETRIE ANALITICĂ

7.10. Observaţie. Sistemul de mai sus se scrie matriceal sub forma:

AX + B = 0 .

Din propoziţia 7.9 rezultă că putem avea următoarele situaţii:


i) δ ≠ 0 ; în acest caz sistemul AX + B = 0 are soluţie unică şi cuadrica are centru
de simetrie unic. Spunem în acest caz că avem o cuadrică cu centru.
ii) δ = 0 şi sistemul AX + B = 0 este compatibil simplu nedeterminat; în acest
caz spunem că avem o cuadrică cu o dreaptă de centre.
iii) δ = 0 şi sistemul AX + B = 0 este compatibil dublu nedeterminat; în acest
caz spunem că avem o cuadrică cu un plan de centre.
iv) δ = 0 , rangA = 2 şi sistemul AX + B = 0 este incompatibil; în acest caz
cuadrica nu are centre de simetrie.
v) δ = 0 , rangA = 1 şi sistemul AX + B = 0 este incompatibil; în acest caz
spunem că avem o cuadrică fără dreaptă de centre.

7.11. Propoziţie. Fie cuadrica (Σ ) de ecuaţie F ( x1 , x 2 , x3 ) = 0 . Cuadrica (Σ ) este:


i) cu centru dacă şi numai dacă δ ≠ 0 ;
ii) fără centru dacă şi numai dacă δ = 0 şi Δ ≠ 0 ;
iii) cu dreaptă de centre dacă şi numai dacă rangA = 2, rangD ≤ 3 ;
iv) cu plan de centre dacă şi numai dacă rangA = 1, rangD ≤ 2 ;
v) fără dreaptă de centre dacă şi numai dacă rangA = 1, rangD = 3 .

Pentru demonstraţia acestei propoziţii vezi [14], pagina 159.

7.12. Definiţie. Cuadrica (Σ ) se numeşte nedegenerată dacă Δ ≠ 0 şi degenerată


în caz contrar.

7.13. Observaţie. Fie (Σ ) o cuadrică având centrul (x10 , x 20 , x30 ) şi fie translaţia

X = X′+ X0 .

~
()
În urma aceste translaţii (Σ ) este echivalentă cu cuadrica Σ căreia i se ataşează
matricea

~ ⎛A 0 ⎞
D = ⎜⎜ ⎟.
⎝ 0 F (x1
0
, x 0
2 , x 3 )
0 ⎟

Cum Δ este un invariant izometric avem Δ = Δ = δ ⋅ F (x10 , x 20 , x30 ) , de unde


~
obţinem
5.8. EXERCIŢII 219

Δ
F (x10 , x20 , x30 ) = .
δ

7.14. Teoremă. Fie (Σ ) o cuadrică cu centru de ecuaţie X t AX + 2 B t X + a 44 = 0


şi λ1 , λ2 , λ3 valorile proprii ale matricei A. Atunci (Σ ) este echivalentă izometric
cu cuadrica de ecuaţie:

Δ
λ1 ( x1′′) + λ2 ( x2′′ ) + λ3 ( x3′′) +
2 2 2
= 0. (7)
δ

7.15. Teoremă. Fie (Σ ) o cuadrică de ecuaţie X t AX + 2 B t X + a 44 = 0 . Dacă


cuadrica (Σ ) are o dreaptă de centre atunci ea este echivalentă izometric cu
cuadrica de ecuaţie:

K
λ1 ( x1′′) + λ2 ( x′2′ ) +
2 2
= 0. (8)
J

Pentru demonstraţie vezi [14], pagina 265.

7.16. Teoremă. Fie (Σ ) o cuadrică de ecuaţie X t AX + 2 B t X + a33 = 0 . Dacă


cuadrica (Σ ) are un plan de centre atunci ea este echivalentă izometric cu
cuadrica de ecuaţie:

L
(x1′′)2 + = 0,
I2

unde L este suma minorilor diagonali de ordinul doi ai matricei D.

Pentru demonstraţia acestei teoreme vezi [14], pagina 266.

7.17. Teoremă. Fie (Σ ) o cuadrică de ecuaţie X t AX + 2 B t X + a 44 = 0 . Dacă


cuadrica (Σ ) este fără centre atunci ea este echivalentă izometric cu cuadrica de
ecuaţie:

Δ
λ1 ( x1′′) + λ2 ( x ′2′ ) − 2 − ⋅ x3′′ = 0 .
2 2

Pentru demonstraţia acestei teoreme vezi [14], pagina 264.


220 5. ELEMENTE DE GEOMETRIE ANALITICĂ

7.18. Teoremă. Fie (Σ ) o cuadrică de ecuaţie X t AX + 2 B t X + a33 = 0 . Dacă


cuadrica (Σ ) este fără dreaptă de centre atunci ea este echivalentă izometric cu
cuadrica de ecuaţie:

K
(x1′′)2 − 2 − ⋅ x2′′ = 0 .
I

Demonstraţia acestei teoreme poate figăsită în [14], pagina 267.

7.19. Ecuaţiile obţinute în teoremele 7.14-7.18 se numesc ecuaţiile reduse


(canonice) ale cuadricei.

7.20. Exemple. Rezultatele prezentare în teoremele 7.14-7.18 ne permit să


obţinem clasele izometrice de suprafeţe de ordinul al doilea (cuadrice). În funcţie
de natura cuadricei (cu centru, fără centru, cu o dreaptă de centre etc.) utilizarea
unei izometrii convenabile ne permite să obţinem ecuaţia redusă a cuadricei
respective. Dăm mai jos exemple de cuadrice împreună cu câteva proprietăţi ale
acestora:

a) Cuadrice nedegenerate

a1) Elipsoidul:

x12 x 22 x32
+ + − 1 = 0, a > 0, b > 0, c > 0 .
a2 b2 c2

Numerele pozitive a, b, c se numesc semiaxele elipsoidului. Intersecţiile


elipsoidului cu axele se numesc vârfurile elipsoidului. Acestea sunt punctele
A(a,0,0 ) , B (0, b,0 ) , C (0,0, c ) . Se constată cu uşurinţă că originea este centru de
simetrie iar planele de coordonate sunt plane de simetrie. Aceeaşi proprietate o
au şi axele de coordonate.

Dacă utilizăm sistemul de coordonate sferice generalizate

x1 = ar sin θ cos ϕ
x 2 = br sin θ sin ϕ
x3 = cr cosθ ,

ecuaţia elipsoidului devine r = 1 . Dacă înlocuim r = 1 în relaţiile precedente


obţinem ecuaţiile parametrice ale elipsoidului:
5.8. EXERCIŢII 221

x1 = a sin θ cos ϕ
x 2 = b sin θ sin ϕ
x3 = c cosθ ,

unde θ ∈ [ 0, π ] , ϕ ∈ [ 0, 2π ) .

a2) Elipsoidul vid:

x12 x 22 x32
+ + + 1 = 0 , a > 0, b > 0, c > 0 .
a2 b2 c2

a3) Hiperboloidul cu o pânză:

x12 x 22 x32
+ − − 1 = 0 , a > 0, b > 0, c > 0 .
a2 b2 c2

Ca şi în cazul elipsoidului, hiperboloidul cu o pânză are originea centru de


simetrie iar planele de coordonate sunt plane de simetrie. Aceeaşi proprietate o
au şi axele de coordonate.

a4) Hiperboloidul cu două pânze:

x12 x22 x32


− − − 1 = 0 , a > 0, b > 0, c > 0 .
a2 b2 c2

Această suprafaţă are aceleaşi simetrii ca şi elipsoidul sau hiperboloidul cu o


pânză. Dintre axe numai O x1 intersectează hiperboloidul în punctele (a,0,0) ,
(−a,0,0) .

a5) Paraboloidul eliptic:

x12 x 22
+ − 2 x3 = 0 , a > 0, b > 0 .
a2 b2

a6) Paraboloidul hiperbolic:

x12 x22
− − 2 x3 = 0 , a > 0, b > 0 .
a2 b2
222 5. ELEMENTE DE GEOMETRIE ANALITICĂ

b) Cuadrice degenerate

b1) Conul

x12 x22 x32


+ − = 0, a > 0, b > 0, c > 0 .
a2 b2 c2

b2) Punctul dublu

x12 x 22 x32
+ + = 0, a > 0, b > 0, c > 0 .
a2 b2 c2

b3) Cilindrul eliptic:

x12 x 22
+ − 1 = 0, a > 0, b > 0 .
a2 b2

b4) Cilindrul eliptic vid:

x12 x22
+ + 1 = 0, a > 0, b > 0
a2 b2

b5) Cilindrul hiperbolic:

x12 x 22
− − 1 = 0, a > 0, b > 0 .
a2 b2

b6) Cilindrul parabolic:

x 22 − 2 px1 = 0, p > 0.

b7) Pereche de plane secante:

x12 x 22
− = 0, a > 0, b > 0 .
a2 b2

b8) Dreaptă dublă:

x12 x 22
+ = 0, a > 0, b > 0 .
a2 b2
5.8. EXERCIŢII 223

b9) Pereche de plane paralele:

x12 − a 2 = 0, a > 0 .

b10) Pereche vidă de plane paralele:

x12 + a 2 = 0, a > 0 .

b11) Pereche de plane confundate:

x12 = 0 .

5.8. EXERCIŢII

8.1. Exerciţii rezolvate.

1) Să se determine ecuaţia redusă a conicei:

5 x12 − 4 x1 x 2 + 2 x 22 − 16 x1 + 4 x 2 − 22 = 0 .

Să se precizeze izometria prin care se obţine ecuaţia redusă.

Rezolvare. Deoarece

⎛ 5 − 2 −8 ⎞
⎛ 5 − 2⎞ ⎜ ⎟
A = ⎜⎜ ⎟⎟ , D = ⎜ − 2 2 2 ⎟,
⎝− 2 2⎠ ⎜−8 2 − 22 ⎟⎠

obţinem δ = 6 , Δ = −216 . Cum valorile proprii ale matricei A sunt λ1 = 1 ,


λ2 = 6 , ecuaţia redusă a conicei (vezi teorema 6.14) este

(x1′′)2 + 6(x′2′ )2 − 36 = 0 .
Conica este o elipsă de semiaxe a = 6, b = 6 . Centrul de simetri al conice se
obţine prin rezolvarea sistemului:

10 x1 − 4 x 2 − 16 = 0
− 4 x1 + 4 x2 + 4 = 0.
224 5. ELEMENTE DE GEOMETRIE ANALITICĂ

Soluţia acestui sistem este: x10 = 2, x20 = 1 . Dacă efectuăm translaţia (vezi
observaţia 6.12)

x1 = x1′ + 2
x 2 = x 2′ + 1

ecuaţia conicei devine

5( x1′ ) − 4 x1′ x2′ + 2( x 2′ ) − 36 = 0 .


2 2

Vectorii proprii ortonormaţi corespunzători valorilor proprii λ1 = 1 , λ2 = 6 sunt


⎛ 1 2 ⎞ ⎛ 2 1 ⎞
v1 = ⎜ , ⎟ respectiv v2 = ⎜ − , ⎟ . Ecuaţia canonică a conicei se obţine
⎝ 5 5⎠ ⎝ 5 5⎠
cu ajutorul rotaţiei

⎛ 1 2 ⎞
⎜ − ⎟
⎛ x1′ ⎞ ⎜
⎜⎜ ⎟⎟ = 5 5 ⎟ ⋅ ⎛⎜ x1′′ ⎞⎟ .
⎝ x′2 ⎠ ⎜ 2 1 ⎟ ⎜⎝ x2′′ ⎟⎠
⎜ ⎟
⎝ 5 5 ⎠

Rototranslaţia prin care s-a obţinut ecuaţia redusă a conicei este:

⎛ 1 2 ⎞
⎜ − ⎟
⎛ x1 ⎞ ⎜
⎜⎜ ⎟⎟ = 5 5 ⎟ ⋅ ⎛⎜ x1′′ ⎞⎟ + ⎛⎜ 2 ⎞⎟ .
⎝ x2 ⎠ ⎜ 2 1 ⎟ ⎜⎝ x 2′′ ⎟⎠ ⎜⎝ 1 ⎟⎠
⎜ ⎟
⎝ 5 5 ⎠

Observaţie. Dacă explicităm din ultima relaţie x1′′ şi x ′2′ obţinem

1 2 4
x1′′ = x1 + x2 −
5 5 5
2 2 3
x ′2′ = − x1 + x2 + .
5 5 5

Ecuaţiile axelor de simetrie ale elipsei ( x1′′) + 6( x 2′′ ) − 36 = 0 se obţin din


2 2

condiţiile x1′′ = 0, x ′2′ = 0 . Aceste ecuaţii sunt:

x1 + 2 x 2 = 4
− 2 x1 + x 2 = −3.
5.8. EXERCIŢII 225

Se constată imediat că aceste axe se intersectează în centrul de simetrie al


conicei.

2) Să se determine ecuaţia redusă a conicei:

x12 − 2 x1 x2 + x22 − 4 x2 + 6 = 0.

Rezolvare. În acest caz δ = 0, Δ = −4 , I = 2 . Conform propoziţiei 6.13 avem o


conică fără centru şi (cu teorema 6.20) ecuaţia redusă a conicei este:

(x′2′ )2 − 2 x1′′ = 0 .

Observaţie. Este interesant să punem în evidenţă şi în acest caz izometria prin


care se obţine ecuaţia redusă a conicei.
Valorile proprii ale matricei

⎛ 1 − 1⎞
A = ⎜⎜ ⎟⎟
⎝ −1 1⎠

sunt: λ1 = 2 , λ2 = 0 . Vectorii proprii ortonormalizaţi corespunzători acestor


⎛ 1 1 ⎞ ⎛ 1 1 ⎞
valori proprii sunt v1 = ⎜ ,− ⎟ şi respectiv v2 = ⎜ , ⎟ . După
⎝ 2 2⎠ ⎝ 2 2⎠
efectuarea rotaţiei

⎛ 1 1 ⎞
⎜ ⎟
⎛ x1 ⎞ ⎜
⎜⎜ ⎟⎟ = 2 2 ⎟ ⋅ ⎛⎜ x1′ ⎞⎟ ,
⎝ x2 ⎠ ⎜⎜ − 1 1 ⎟ ⎜⎝ x ′2 ⎟⎠

⎝ 2 2⎠

ecuaţia conice devine:

(x1′ )2 + 2 x1′ − 2 x ′2 + 3 = 0 .

Printr-o grupare convenabilă a termenilor, ecuaţia de mai sus se scrie:


2
⎛ 2⎞ ⎛ 5 2⎞
⎜ x1′ + ⎟ − 2 ⎜ x′2 − ⎟ = 0.
⎜ 2 ⎟ ⎜ 4 ⎟
⎝ ⎠ ⎝ ⎠
226 5. ELEMENTE DE GEOMETRIE ANALITICĂ

Pentru a obţine ecuaţia redusă a conice este suficient să efectuăm translaţia:

2
x1′ = x1′′ −
2
5 2
x ′2 = x ′2′ + .
4

Izometria căutată se obţine prin compunerea rotaţiei şi translaţiei obţinute:

1 1 3
x1 = x1′′ + x ′2′ +
2 2 4
1 1 7
x2 = − x1′′ + x′2′ + .
2 2 4

3) Să se determine ecuaţia redusă a conicei:

x12 + 2 x1 x2 + x22 + 2 x1 + 2 x 2 − 4 = 0 .

Rezolvare. Deoarece δ = Δ = 0 avem o conică cu o dreaptă de centre. Urma


matricei A este I = 2 şi suma minorilor diagonali ai matricei D ataşată conicei
este K = −10 . Ecuaţia redusă a conicei se obţine prin utilizarea teoremei 6.19:

(x2′′ )2 − 5 = 0.
2

Conica este formată din dreptele paralele (d1 ) şi (d 2 ) având ecuaţiile:

10 10
(d1 ) : x′2′ − = 0 , (d 2 ) : x ′2′ + = 0.
2 2

Observaţie. Dacă procedăm ca în exemplul precedent, obţinem izometria prin


care se ajunge la ecuaţia redusă de mai sus:

1 1 1
x1 = x1′′ + x ′2′ −
2 2 2
1 1 1
x2 = − x1′′ + x ′2′ − .
2 2 2

Prin inversarea relaţiilor de mai sus obţinem


5.8. EXERCIŢII 227

1 1
x1′′ = x1 − x2
2 2
1 1 1
x ′2′ = x1 + x2 + ,
2 2 2

expresii care înlocuite în ecuaţiile dreptelor (d1 ) şi (d 2 ) ne dau ecuaţiile acestor


drepte în reperul iniţial:

(d1 ) : x1 + x2 + 1 − 5 = 0 , (d 2 ) : x1 + x2 + 1 + 5 = 0 .

Aceste ecuaţii se pot obţine direct, observând că ecuaţia iniţială a conicei se poate
scrie, printr-o descompunere în factori, sub forma:

(x + x
1 2 )(
+ 1 − 5 x1 + x2 + 1 + 5 = 0. )
4) Să se determine ecuaţia resusă a cuadricei:

x12 − x22 + x32 − 2 x1 x2 − 2 x1 x3 − 2 x2 x3 − 5 x1 − 1 = 0 .


33
Rezolvare. Avem δ = −4 , Δ = . Suntem în cazul unei cuadrice cu centru.
2
Valorile proprii ale matricei

⎛ 1 − 1 − 1⎞
⎜ ⎟
A = ⎜ − 1 − 1 − 1⎟
⎜ −1 −1 1⎟
⎝ ⎠

sunt λ1 = 1 , λ2 = 2 , λ3 = −2. Pentru a obţine ecuaţia redusă a cuadricei aplicăm


rezultatul din teorema 7.14:

(x′′) 2
+ 2( x2′′ ) − 2( x3′′) −
2 2 33
= 0.
8

Cuadrica este un hiperboloid cu o pânză.

5) Să se determine ecuaţia redusă a cuadricei

x12 − x 22 + 5 x32 + 6 x1 x3 + 4 x2 x3 + 8 x1 + 4 x2 + 2 x3 − 1 = 0 .

Să se precizeze izometria prin care se obţine ecuaţia redusă.


228 5. ELEMENTE DE GEOMETRIE ANALITICĂ

Rezolvare. În acest caz δ = 0 , Δ = −49 şi suma minorilor diagonali ai matricei A


este J = −14 . Valorile proprii ale matricei

⎛1 0 3⎞
⎜ ⎟
A = ⎜ 0 −1 2⎟
⎜3 2 5 ⎟⎠

sunt λ1 = 7 , λ2 = −2 , λ3 = 0 iar suma minorilor diagonali de ordinul doi ai


acestei matrice este J = −14 . Pentru a obţine ecuaţia redusă a conicei aplicăm
rezultatul dat de teorema 7.17:

7( x1′′) − 2( x ′2′ ) − 14 x3′′ = 0 .


2 2

Conica este un paraboloid hiperbolic.


Pentru a preciza izometriile prin care se obţine această ecuaţie redusă,
determinăm mai întâi vectorii proprii ortonormaţi ai matricei A , corespunzători
⎛ 2 1 4 ⎞
valorilor proprii determinate mai sus. Aceştia sunt: ⎜ , , ⎟,
⎝ 21 21 21 ⎠
⎛ 1 2 1 ⎞ ⎛ 3 2 1 ⎞
⎜− ,− , ⎟, ⎜ ,− ,− ⎟.
⎝ 6 6 6 ⎠ ⎝ 14 14 14 ⎠

După rotaţia

⎛ 2 1 3 ⎞
⎜ − ⎟
⎛ x1 ⎞ ⎜ 21 6 14 ⎟ ⎛ x1′ ⎞
⎜ ⎟ ⎜ 1 2 2 ⎟ ⎜ ⎟
⎜ x2 ⎟ = ⎜ − − ⋅ ⎜ x ′2 ⎟ ,
⎜x ⎟ ⎜ 21 6 14 ⎟ ⎜ ⎟
⎝ 3⎠
⎜⎜ 4 1 1 ⎟⎟ ⎝ x3′ ⎠
− ⎟
⎝ 21 6 14 ⎠

ecuaţia cuadricei devine

4 7 7 2
7( x1′ ) − 2( x′2 ) + x1′ − x2′ + 14 x3′ − 1 = 0 .
2 2

3 3

Printr-o grupare convenabilă a termenilor, ecuaţia de mai sus se scrie:


2 2
⎛ 2 ⎞ ⎛ 7 ⎞ ⎛ 7 ⎞
7⎜ x1′ + ⎟ − 2⎜ x′2 + ⎟ + 14 ⎜⎜ x3′ + ⎟ = 0.

⎝ 21 ⎠ ⎝ 2 6⎠ ⎝ 4 2 ⎠
5.8. EXERCIŢII 229

Translaţia

2
x1′ = x1′′ −
21
7
x ′2 = x ′2′ −
2 6
7
x3′ = x3′′ − ,
4 2

ne conduce la ecuaţia redusă precizată mai sus. Izometria prin care se obţine
ecuaţia redusă este:

⎛ 2 1 3 ⎞ ⎛ 2 ⎞
⎜ − ⎟ ⎜ x1′′ − ⎟
⎛ x1 ⎞ ⎜ 21 6 14 ⎟ ⎜ 21 ⎟
⎜ ⎟ ⎜ 1 2 2 ⎟ ⎜ 7 ⎟
⎜ x2 ⎟ = ⎜ − − ⎟ ⋅ ⎜ x 2′′ − ⎟.
⎜x ⎟ ⎜ 21 6 14 ⎟ ⎜ 2 6⎟
⎝ 3⎠ ⎜ 4 1 1 ⎟ ⎜ 7 ⎟
⎜ − ⎟ ⎜ x 3′′ − ⎟
⎝ 21 6 14 ⎠ ⎝ 4 2⎠

6) Să se determine ecuaţia redusă a cuadricei:

4 x12 + 5 x 22 + x32 + 4 x1 x3 + 4 x1 + 2 x3 − 4 = 0 .

Rezolvare. Avem δ = 0 , Δ = 0 . Rangul matricei

⎛ 4 0 2⎞
⎜ ⎟
A = ⎜0 5 0⎟
⎜2 0 1⎟
⎝ ⎠

este egal cu 2 iar rangul matricei D ataşată cuadricei este egal cu 3. Conform
propoziţiei 7.11 cuadrica are o dreaptă de centre. Cum suma minorilor diagonali
de ordinul doi ai matricei A este J = 25 iar suma minorilor diagonali de ordinul
trei ai matricei D este K = −125 , ecuaţia redusă a cuadricei se obţine prin
aplicarea rezultatului din teorema 7.15:

( x1′′)2 + ( x2′′ )2 − 1 = 0 .
Cuadrica este un cilindru circular cu axa de simetrie axa 0x3 .
230 5. ELEMENTE DE GEOMETRIE ANALITICĂ

8.2. Exerciţii propuse

1) Fie p ∈ E 3 , v1 , v 2 , v 3 ∈ T p (E 3 ) .
i) Să se verifice identitatea lui Jacobi:

v1 × (v 2 × v 3 ) + v 2 × (v 3 × v1 ) + v 3 × (v1 × v 2 ) = 0 .

ii) Dacă vectorii v1 , v 2 , v 3 sunt formează o bază în T p (E 3 ) să se arate că şi


vectorii

1 1 1
v1′ = v 2 × v 3 , v ′2 = v 3 × v1 , v 3′ = v ×v
(v1 , v 2 , v 3 ) (v1 , v 2 , v 3 ) (v1 , v 2 , v 3 ) 1 2
au aceeaşi proprietate. Baza {v1′ , v ′2 , v 3′ } se numeşte baza reciprocă asociată bazei
{v1 , v 2 , v 3 }.

2) Fie transformarea T : E 2 → E 2 definită de matricea

⎛ cosθ sin θ ⎞
C = ⎜⎜ ⎟ , θ ∈ (0,2π ) .
⎝ sin θ − cosθ ⎟⎠

Să se arate că:
a) transformarea T este o izometrie;
b) T este o simetrie faţă de dreapta ce trece prin origine şi face cu axa 0 x1 un
θ
unghi egal cu .
2

3) Fie transformarea T : E 3 → E 3 definită de matricea

⎛ 2 1 2⎞
⎜ ⎟
⎜ 3 3 3⎟
1 2 2
A=⎜ − ⎟.
⎜ 3 3 3⎟
⎜ 2 2 1⎟
⎜− ⎟
⎝ 3 3 3⎠

Se cere:
5.8. EXERCIŢII 231

a) să se arate că T este o izometrie;


b) să se arate că λ = 1 este valoare proprie a lui T;
c) să se determine mulţimea punctelor fixe ale acestei transformări.

4) Fie punctele 0 = (0,0,0 ) , p1 = (12,−4,3) , p2 = (3,12,−4 ) , p3 = (2,3,−4 ) . Să se


arate că Δ p1 0 p2 este isoscel iar Δ p1 0 p3 este dreptunghic. Să se calculeze aria
triunghiului p1 p2 p3 .

5) Să se calculeze volumul tetraedrului determinat de punctele 0 = (0,0,0 ) ,


p1 = (1,1,−3) , p2 = (3,2,−4 ) , p3 = (2,3,4 ) . Să se scrie ecuaţia planului determinat
de punctele p1 , p2 , p3 .

6) Să se determine simetricul punctului p = (2,−3,4 ) faţă de planul (π ) de


ecuaţie: x1 − 2 x2 + x3 − 5 = 0 .

7) Să se determine coordonatele proiecţiei punctului p = (1,0,3) pe dreapta (d )


având ecuaţiile: x1 + x 2 − x3 + 1 = 0 , 2 x1 + 3 x 2 + 4 x3 + 5 = 0 .

8) Fie paralelogramul p1 p2 p3 p4 unde p1 = (− 1,1,1) , p2 = (2,3,−1) , p3 = (3,2,0 ) .


Să se determine coordonatele punctului p4 .

9) Fie punctele p1 = (3,1,−1) , p2 = (1,−3,1) , p3 = (− 1,−1,3) , p4 = (α ,2,2 ) . Să se


determine α ∈ R astfel încât punctete p1 , p2 , p3 , p4 să fie coplanare. Să se
determine ecuaţia planului care conţine aceste puncte.

10) Să se determine ecuaţiile reduse ale conicelor:

a) 11x1 − 24 x1 x 2 + 4 x 2 + 2 x1 + 16 x 2 + 11 = 0 ;
2 2

b) x1 − 2 x1 x 2 + 2 x 2 − 4 x1 − 6 x 2 + 3 = 0 ;
2 2

c) x1 − 2 x1 x 2 − 2 x 2 − 4 x1 − 6 x 2 + 3 = 0 ;
2 2

d) 5 x1 + 4 x1 x 2 + 8 x 2 − 32 x1 − 56 x 2 + 80 = 0 ;
2 2

e) 6 x1 x 2 + 8 x 2 − 12 x1 − 26 x 2 + 11 = 0 ;
2

f) x1 + x 2 + 2 x1 x2 + 3 x1 + x 2 = 0 .
2 2

11) Să se determine ecuaţiile reduse ale cuadricelor:

a) x1 + 3 x 2 + 4 x 2 x3 − 6 x1 + 8 x 2 + 3 = 0 ;
2 2

b) 7 x1 + 6 x 2 + 5 x3 − 4 x1 x 2 − 4 x 2 x3 − 6 = 0 ;
2 2 2
232 5. ELEMENTE DE GEOMETRIE ANALITICĂ

c) 4 x1 + 2 x 2 + 3 x3 + 4 x1 x3 − 4 x 2 x3 + 6 x1 + 4 x 2 + 8 x3 + 2 = 0 ;
2 2 2

d) x 2 − x3 + 4 x1 x 2 − 4 x1 x3 − 6 x1 + 4 x 2 + 2 x3 + 8 = 0 ;
2 2

e) 4 x1 + 2 x 2 + 3 x3 + 4 x1 x3 − 4 x 2 x3 + 8 x1 − 4 x 2 + 8 x3 = 0 ;
2 2 2

f) 7 x1 + x 2 + x3 + 8 x1 x 2 + 8 x1 x3 − 16 x 2 x3 − 22 x1 + 8 x 2 − 10 x3 + 16 = 0 ;
2 2 2

g) x1 + x 2 − 2 x1 x 2 − 2 x 2 − 2 x3 + 1 = 0 .
2 2
6. ELEMENTE DE GEOMETRIE DIFERENŢIALĂ
A CURBELOR

În acest capitol vom defini noţiunea de curbă cu ajutorul unei relaţii de


echivalenţă în mulţimea drumurilor şi vom pune în evidenţă principalele
proprietăţi diferenţiale ale curbelor în E 3 (numite şi curbe în spaţiu) şi E 2
(curbe plane). Vom introduce reperul Frenet într-un punct curent al unei curbe în
spaţiu precum şi noţiunile de curbură şi torsiune. În cazul curbelor plane vom
acorda o atenţie specială exemplelor de curbe ce apar în diverse aplicaţii.

6.1. DRUMURI ŞI CURBE

Fie I un interval al axei reale (intervalul I poate fi de forma (a, b ) , [a, b] ,


(− ∞,+∞ ) , [a, b ) , (a, b]). Aplicaţiile α : I → E 3 se numesc funcţii vectoriale;
dacă α (t ) = ( x1 (t ), x2 (t ), x3 (t )) , t ∈ I atunci funcţiile reale xi : I → R, i = 1, 3 se
numesc componentele funcţiei vectoriale α .

1.1. Definiţie. Se numeşte drum în E 3 o funcţie continuǎ α : I → E 3 . Mulţimea

I (α ) = { α (t ) t ∈ I }

se numeşte imaginea drumului α .

1.2. Definiţie. Drumul α : [a, b] → E 3 se numeşte închis dacă α (a ) = α (b ) . Dacă


α este o funcţie injectivă atunci drumul α se numeşte simplu.

Elementele mulţimii I (α ) = { α (t ) t ∈ I } se numesc puncte ale drumului α .


Punctele unui drum simplu se numesc puncte simple. Un punct (al unui drum)
care nu este simplu se numeşte punct multiplu.

1.3. Observaţie. Fie punctul p ∈ I (α ) ; notăm


234 6. ELEMENTE DE GEOMETRIE DIFERENŢIALĂ A CURBELOR

α −1 ( p ) = { t ∈ I α (t ) = p}.

Punctul p este un punct multiplu al drumului α dacă şi numai dacă α −1 ( p )


conţine mai mult decât un element. Cardinalul mulţimii α −1 ( p ) se numeşte
ordinul de multiplicitate al punctului p.

1.4 Exemple. i) Fie punctul p = ( p1 , p 2 , p3 ) şi vectorul u = (u1 , u 2 , u 3 ) ≠ 0 .


Aplicaţia α : R → E 3 , α (t ) = ( p1 + tu1 , p 2 + tu 2 , p3 + tu 3 ) este un drum simplu.
Imaginea sa este dreapta ce trece prin punctul p şi are vectorul director u.
Aplicaţia α 1 : R → E 3 , α 1 (t ) = ( p1 + t 3u1 , p 2 + t 3u 2 , p3 + t 3u 3 ) este de asemenea
un drum simplu. El are aceeaşi imagine cu drumul α .
ii) Drumul α : R → E 3 , α (t ) = (r cos t , r sin t , bt ) , t ∈ R , r > 0 , b > 0 este un
drum simplu. Imaginea sa este situată pe cilindrul de ecuaţie x12 + x22 = r 2 .
Imaginea acestui drum se numeşte elicea cilindrică.
iii) Fie drumul α : [0,2π ] → E 3 , α (t ) = (2a cos 2 t , a sin 2t ,2a sin t ) , a > 0 şi
punctul p = α (0 ) = (2a ,0 ,0 ) . Cum α (π ) = p rezultă că punctul p este un punct
multiplu al drumului α . Dacă α (t ) = ( x1 (t ), x 2 (t ), x3 (t )) , t ∈ [0,2π ] atunci
constatăm că au loc egalităţile x12 (t ) + x 22 (t ) + x32 (t ) = 4a 2 , ( x1 (t ) − a ) + x22 (t ) = a 2 ,
2

(∀) t ∈ [0,2π ] , de unde rezultă că imaginea drumului α aparţine intersecţiei


dintre sfera de ecuaţie x12 + x22 + x32 = 4a 2 şi cilindrul de ecuaţie
(x1 − a )2 + x22 = a 2 .

1.5. Definiţie. Drumul α : I → E 3 se numeşte neted dacă α este o funcţie


derivabilă pe I şi derivata α ′ : I → E 3 este o funcţie continuă.

1.6. Observaţie. Fie α : I → E 3 un drum neted şi t 0 ∈ (a, b ) .


α ′(t 0 ) = ( x1′ (t 0 ), x′2 (t 0 ), x3′ (t 0 )) este un vector ce aparţine spaţiului tangent la E 3 în
punctul α (t 0 ) . Acest vector se numeşte vector tangent la drumul α în punctul
α (t 0 ) .

1.7. Definiţie. Drumul α : I → E 3 se numeşte regulat dacă este neted şi


α ′(t ) ≠ 0, (∀) t ∈ I . Dacă pentru t 0 ∈ I avem α ′(t 0 ) = 0 spunem că α (t 0 ) este un
punct singular al drumului α .

1.8. Definiţie. Se numeşte drum de clasǎ C k , k ∈ N ∗ o aplicaţie α : I → E 3 de


clasǎ C k (I ) .
6.4. EXERCIŢII 235

Dacă intervalul I nu este deschis vom considera că funcţia α este de clasă C k ,


k ∈ N ∗ în interiorul intervalului şi toate derivatele până la ordinul k au limite
laterale finite la extremităţile intervalului, dacă aceste extremităţi aparţin
intervalului.

1.9. Observaţie. Două drumuri diferite pot avea aceeaşi imagine. Într-adevăr
drumurile

⎡ 1⎤
α 1 : ⎢0, ⎥ → E 3 , α (t ) = (t , t ,0 ) ,
⎣ 4⎦

α 2 : [0,1] → E 3 , α (t ) = (t − t 2 , t − t 2 ,0)

sunt diferite (drumul α 1 este simplu iar α 2 nu) dar au aceeaşi imagine şi anume
⎧ ⎡ 1 ⎤⎫
mulţimea ⎨( x, x,0 ) x ∈ ⎢0. ⎥ ⎬ .
⎩ ⎣ 4 ⎦⎭

1.10. Definiţie. Aplicaţia ϕ : I → I 1 se numeşte homeomorfism dacă este


bijectivă, continuă şi cu inversa continuă. Aplicaţia ϕ : I → I 1 se numeşte
difeomorfism de clasă C k , k ∈ N ∗ dacă este bijectivă şi ϕ şi ϕ −1 sunt de clasă
Ck, k ∈ N∗ .

1.11. Observaţie. i) Orice aplicaţie ϕ : I → I 1 continuă şi bijectivă este strict


monotonă [16]. Cu acest rezultat homeomorfismele se împart în două clase:
homeomorfisme directe care sunt realizate de funcţii strict crescătoare şi
homeomorfisme inverse care sunt realizate de funcţii strict descrescătoare.
ii) Dacă ϕ : [a, b] → [a1 , b1 ] este homeomorfism atunci ϕ −1 : [a1 , b1 ] → [a, b ] este
homeomorfism.
iii) Compunerea a două homeomorfisme este un homeomorfism.
iv) Prin compunerea a două homeomorfisme din aceeaşi clasă se obţine un
homeomorfism direct iar prin compunerea a două homeomorfisme din clase
diferite se obţine un homeomorfism invers.

Fie drumurile α : I → E 3 , α 1 : I 1 → E 3 .

1.12. Definiţie. Spunem că drumul α 1 este echivalent cu drumul α dacă există un


homeomorfism crescător ϕ : I → I 1 astfel încât

α (t ) = (α 1 o ϕ ) (t ) , (∀) t ∈ I .
236 6. ELEMENTE DE GEOMETRIE DIFERENŢIALĂ A CURBELOR

1.13. Observaţie. i) Drumul α : I → E 3 este echivalent cu el însuşi. Într-adevăr


pentru a arăta acest fapt este suficient să luăm ϕ : I → I , ϕ (t ) = t , (∀) t ∈ I .
ii) Dacă drumul α : I → E 3 este echivalent cu drumul α 1 : I 1 → E 3 atunci
drumul α 1 este echivalent cu drumul α . Într-adevăr dacă ϕ : I → I 1 este un
homeomorfism crescător astfel încât α = α 1 o ϕ atunci ϕ −1 : I 1 → I este un
homeomorfism crescător şi α 1 = α o ϕ .
iii) Fie drumurile α : I → E 3 , α 1 : I 1 → E 3 , α 2 : I 2 → E 3 astfel încât drumul α 1
este echivalent cu drumul α şi drumul α 2 este echivalent cu drumul α 1 . Atunci
drumul α 2 este echivalent cu drumul α . Într-adevăr dacă ϕ : I → I 1 , ϕ1 : I 1 → I 2
sunt homeomorfisme crescătoare astfel încât α = α1 o ϕ şi α 1 = α 2 o ϕ1 , atunci
aplicaţia ϕ~ : I → I 2 este un homeomorfism crescător şi

α (t ) = (α 1 o ϕ ) (t ) = ((α 2 o ϕ1 ) o ϕ ) (t ) = (α 2 o (ϕ1 o ϕ )) (t ) =
= (α 2 o ϕ~ ) (t ) , (∀) t ∈ I .

Din observaţia precedentă rezultă că relaţia între drumuri definită mai sus este
reflexivă, simetrică şi tranzitivă, deci este o relaţie de echivalenţă. Dacă
α : I → E 3 , α 1 : I 1 → E 3 sunt drumuri astfel încât α 1 este echivalent cu α vom
spune că drumurile α şi α 1 sunt echivalente şi vom nota acest fapt prin α ~ α 1 .

1.14. Observaţie. i) Două drumuri echivalente au aceeaşi imagine. Într-adevăr,


fie α : I → E 3 , α 1 : I 1 → E 3 două drumuri echivalente şi ϕ : I → I 1 astfel încât
α = α 1 o ϕ . Dacă p ∈ I (α ) atunci există t 0 ∈ I astfel încât p = α (t 0 ) . Dacă notăm
ϕ (t 0 ) = t1 ∈ I 1 atunci avem

p = α (t 0 ) = (α 1 o ϕ ) (t 0 ) = α 1 (t1 ) = q ∈ I (α 1 ) ,

deci I (α ) ⊆ I (α 1 ) . Raţionamente asemănătoare ne conduc şi la incluziunea


I (α 1 ) ⊆ I (α ) de unde obţinem I (α ) = I (α 1 ) .
ii) Relaţia de echivalenţă între drumuri definită mai sus împarte mulţimea
drumurilor din E 3 în clase de echivalenţă.

1.15. Definiţie. Se numeşte curbă în E 3 o clasă de echivalenţă în mulţimea


drumurilor din E 3 .

Curba definită de drumul din exemplul 1.4 i) se numeşte elicea cilindrică iar
curba definită de drumul din exemplul 1.4 ii) se numeşte curba lui Viviani
6.4. EXERCIŢII 237

1.16. Observaţie. i) Fie o curbă în E 3 ( deci o clasă de drumuri echivalente în


E 3 ) şi α : I → E 3 un reprezentant al acestei clase de echivalenţă. Vom nota
curba prin simbolul (α ) şi vom numi drumul α o parametrizare a curbei (α ) .
Vom spune uneori că drumul α defineşte curba (α ) . Dacă drumul β : I 1 → E 3
este echivalent cu drumul α vom numi drumul β o reparametrizare a curbei
(α ) . Homeomorfismul crescător ϕ : I 1 → I astfel încât β = α o ϕ se numeşte
schimbare de parametru a curbei (α ) .
ii) Se poate da noţiunii de curbă o definiţie într-un anumit sens mai generală
decât definiţia 1.15, după cum urmează. Fie o mulţime C inclusă în E 3 .
Mulţimea C se numeşte curbă dacă pentru orice punct p ∈ C există un drum
α : I → E 3 , unde I este un interval deschis, şi o vecinătate deschisă W a lui p
astfel încât I (α ) = C ∩ W şi aplicaţia α : I → I (α ) este un homeomorfism.
Aplicaţia α se mai numeşte parametrizare locală a curbei C în jurul punctului p.
Dacă există o parametrizare locală care este şi globală (adică I (α ) = C ) atunci
curba C se numeşte simplă.
iii) Aşa cum vom vedea mai departe, dacă o funcţie f îndeplineşte anumite
condiţii atunci mulţimea Z f a zerourilor acesteia este o curbă, conform definiţiei
de mai sus.

Dacă α (t ) = ( x1 (t ), x 2 (t ), x3 (t )) , t ∈ I este o parametrizare a curbei (α ) atunci


relaţiile

x1 = x1 (t )
x 2 = x2 (t )
x3 = x3 (t ) , t ∈ I

se numesc ecuaţiile curbei (α ) (sau reprezentarea parametrică a curbei (α ) ).

1.17. Observaţie. Se poate arăta că:


i) orice drum echivalent cu un drum închis este închis;
ii) orice drum echivalent cu un drum simplu este simplu.

Afirmaţiile din observaţia precedentă se demonstrează uşor; lăsăm demonstraţia


lor în seama cititorului.

1.18. Definiţie. Se numeşte curbă simplă o curbă definită de un drum simplu. Se


numeşte curbă închisă o curbă definită de un drum închis.

Curba lui Viviani definită de drumul din exemplul 1.4 i) este o curbă închisă.
238 6. ELEMENTE DE GEOMETRIE DIFERENŢIALĂ A CURBELOR

Pentru a defini echivalenţa a două drumuri de clasă C k , k ∈ N ∗ vom folosi un


difeomorfism crescător de clasă C k , k ∈ N ∗ .

Fie α : I → E 3 , α 1 : I 1 → E 3 două drumuri de clasă C k , k ∈ N ∗ .

1.19. Definiţie. Spunem că drumul α 1 este echivalent cu drumul α dacă există


un difeomorfism crescător ϕ : I → I 1 , de clasă C k , k ∈ N ∗ , astfel încât:

α (t ) = (α 1 o ϕ )(t ) , (∀) t ∈ I .

1.20. Observaţie. Drumurile din primul exemplu de la punctul 1.4 nu sunt


echivalente deoarece singura funcţie ϕ : R → R cu proprietatea α = α 1 o ϕ este
funcţia ϕ (t ) = 3 t , t ∈ R . Această funcţie nu este însă un difeomorfism.

Fie α : I → E 3 , α 1 : I 1 → E 3 două drumuri regulate.

1.21. Definiţie. Spunem că drumul α 1 este echivalent cu drumul α dacă există


un difeomorfism crescător ϕ : I → I 1 astfel încât:

α (t ) = (α 1 o ϕ )(t ) , (∀) t ∈ I .

1.22. Definiţie. Se numeşte curbă de clasă C k , k ∈ N ∗ o curbă definită de un


drum de clasă C k , k ∈ N ∗ . Se numeşte curbă regulată o curbă definită de un
drum regulat. Curbele de clasă C 1 se numesc curbe netede.

Fie α : [a, b] → E 3 , α 1 : [a1 , b1 ] → E 3 două drumuri netede echivalente. Se poate


arăta ([18], vol. II, pag.197) că este adevărată egalitatea:

b b1

∫ α ′(t ) dt = ∫ α 1 (t ) dt .
a a1

1.23. Definiţie. Fie (α ) o curbă netedă şi α : [a, b] → E 3 o parametrizare a sa.


Lungimea curbei (α ) este:

l (α ) = ∫ α ′(t ) dt .
a
6.4. EXERCIŢII 239

1.24. Observaţie. i) Dacă α (t ) = ( x1 (t ), x 2 (t ), x3 (t )) , t ∈ [a, b] atunci:

b
l (α ) = ∫ x1′ 2 (t ) + x ′22 (t ) + x3′ 2 (t )dt .
a

ii) Fie a ≤ t1 < t 2 ≤ b , p1 = α (t1 ) , p2 = α (t 2 ) . Lungimea arcului curbei (α )


cuprins între punctele p1 şi p2 este

t2

l ( p1 p2 ) = ∫ α ′(t ) dt .
t11

1.25. Exemplu. Fie curba (α ) definită de drumul din exemplul 1.4. Lungimea
acestei curbe este:

l (α ) = ∫ r 2 sin 2 t + r 2 cos 2 t + b 2 dt = 2π r 2 + b 2 .
0

Formula lungimii unui arc al unei curbe regulate ne permite să introducem o


reparametrizare a unei astfel de curbe, reparametrizare cu proprietăţi remarcabile.
De acest aspect ne vom ocupa în paragraful următor.

6.2. CURBE FRENET

Fie (α ) o curbă regulată, α : I → E 3 o parametrizare a sa şi p = α (t ) , t ∈ [a, b]


un punct oarecare al curbei. Deoarece curba este regulată vectorul α ′(t ) este
nenul; el aparţine spaţiului tangent la E 3 în punctul p şi se numeşte vector
tangent la curba (α ) în p.

2.1. Definiţie. Parametrizarea α : [a, b] → E 3 a curbei (α ) se numeşte


parametrizare naturală (sau parametrizare canonică) dacă

α ′(t ) = 1 , (∀) t ∈ [a, b] .

Vom arăta că orice curbă regulată posedă o parametrizare naturală.


240 6. ELEMENTE DE GEOMETRIE DIFERENŢIALĂ A CURBELOR

2.2. Teoremă. Pentru orice curbă regulată există o parametrizare naturală.

Demonstraţie. Fie (α ) o curbă regulată, α : I → E 3 o parametrizare a sa, t 0 ∈ I


şi aplicaţia ψ : I → ψ (I ) ,

ψ (t ) = ∫ α ′(τ ) dτ .
t0

Aplicaţia ψ este un difeomorfism crescător şi ψ ′(t ) = α ′(t ) , t ∈ I . Dacă


I 1 = ψ (I ) şi ϕ : I 1 → I este inversa aplicaţiei ψ atunci ϕ este un difeomorfism
crescător şi ϕ (ψ (t )) = t , (∀) t ∈ I . Prin derivarea acestei identităţi obţinem

ϕ ′(ψ (t ))ψ ′(t ) = 1, (∀) t ∈ I ,

adică

1
ϕ ′(ψ (t )) = , (∀) t ∈ I .
α ′(t )

Să arătăm că aplicaţia β : I 1 → E 3 definită prin β (s ) = (α o ϕ )(s ) , s ∈ I 1 este o


parametrizare naturală a curbei (α ) . β este evident o reparametrizare (de clasă
C 1 ) a curbei (α ) şi

1
β ′(s ) = α ′(ϕ (s ))ϕ ′(s ) = α ′(ϕ (s )), s ∈ I 1 .
α ′(ϕ (s ))

De aici rezultă că β ′(s ) = 1 , (∀) s ∈ I şi teorema este demonstrată.

2.3. Observaţie. i) Fie ψ : I → I 1 , ψ (t ) = ∫ α ′(τ ) dτ difeomorfismul din


t0

demonstraţia teoremei precedente. Parametrul s := ψ (t ) reprezintă lungimea


arcului curbei (α ) de extremităţi p0 = α (t 0 ) şi p = α (t ) ; s este un parametru
natural al curbei (α ) . Acest parametru va juca un rol important în cele ce
urmează.
ii) Fie α : I → E 3 o parametrizare a curbei regulate (α ) de clasă C 3 şi
β : I 1 → E 3 parametrizarea naturală a acestei curbe. Atunci α (t ) = β (ψ (t )) , t ∈ I
şi
6.4. EXERCIŢII 241

α ′(t ) = β ′(ψ (t ))ψ ′(t ) , t ∈ I , (1)

α ′′(t ) = β ′′(ψ (t ))ψ ′ 2 (t ) + β ′(ψ (t ))ψ ′′(t ) , t ∈ I , (2)

α ′′′(t ) = β ′′′(ψ (t ))ψ ′ 3 (t ) + 3β ′′(ψ (t ))ψ ′(t )ψ ′′(t ) + β ′(ψ (t ))ψ ′′′(t ) , t ∈ I . (3)

Din (1) rezultă că vectorii α ′(t ) şi β ′(s ) , s = ψ (t ) sunt paraleli, deci vectorul

t (s ) = β ′(s ) (4)

este tangent la curbă în punctul p = α (t ) = β (s ) .


Din (1) şi (2) rezultă că vectorii α ′(t ) şi α ′′(t ) sunt liniar independenţi dacă şi
numai dacă vectorii β ′(s ) şi β ′′(s ) , s = ψ (t ) , sunt liniar independenţi. Mai mult,
deoarece

1 ⎡ ψ ′′(t ) ⎤
β ′′(s ) = ⎢α ′′(t ) − α ′(t )⎥ , s = ψ (t ) , (5)
ψ ′ (t ) ⎣
2
ψ ′(t ) ⎦

rezultă că vectorii α ′(t ) , α ′′(t ) sunt liniar independenţi dacă şi numai dacă
β ′′(s ) ≠ 0 , s = ψ (t ) .
Din (1) şi (2) obţinem

α ′(t ) × α ′′(t ) = [β ′(s ) × β ′′(s )] s ′ 3 (t ) , s = ψ (t ) , (6)

(α ′(t ),α ′′(t ),α ′′′(t )) = (β ′(s ), β ′′(s ), β ′′′(s )) s ′ 6 (t ) , s = ψ (t ) , (7)

egalităţi care vor fi utilizate în cele ce urmează.

2.4. Definiţie. Fie (α ) o curbă regulată de parametrizare naturală β : I 1 → E 3 .


Vectorul t (s ) = β ′(s ) , s ∈ I 1 se numeşte versor tangent la curba (α ) în punctul
p = β (s ) .

Fie (α ) o curbă regulată de parametrizare α : I → E 3 şi t 0 ∈ I . Dacă


α 1 : I 1 → E 3 este o reparametrizare a curbei (α ) astfel încât α = α 1 o ϕ , unde
ϕ : I → I 1 este un difeomorfism crescător de clasă C 1 , atunci vectorii α ′(t 0 ) şi
α 1′(ϕ (t 0 )) sunt liniar dependenţi (vezi formula (1) din observaţia 2.3) deci dreapta
242 6. ELEMENTE DE GEOMETRIE DIFERENŢIALĂ A CURBELOR

determinată de punctul p = α (t 0 ) şi de vectorul director α ′(t 0 ) nu depinde de


parametrizarea curbei (α ) .

2.5. Definiţie. Se numeşte tangenta la curba regulată (α ) în punctul p = α (t 0 )


dreapta determinată de punctul p = α (t 0 ) şi de vectorul director α ′(t 0 ) .

2.6. Observaţie. Vom nota tangenta la curbă intr-un punct al curbei prin
simbolul (T ) . Dacă α : I → E 3 , α (t ) = ( x1 (t ), x2 (t ), x3 (t )) , t ∈ I este o
parametrizare a curbei regulate (α ) şi xi′ (t 0 ) ≠ 0 , i = 1, 3 atunci ecuaţiile tangentei
la curba (α ) în punctul p = α (t 0 ) sunt:

x1 − x1 (t 0 ) x 2 − x 2 (t 0 ) x3 − x3 (t 0 )
(T ) : = = . (8)
x1′ (t 0 ) x 2′ (t 0 ) x3′ (t 0 )

2.7. Definiţie. Se numeşte plan normal al curbei regulate (α ) în punctul


p = α (t 0 ) planul determinat de acest punct şi de vectorul director α ′(t 0 ) .

2.8. Observaţie. Vom nota planul normal al curbei regulate (α ) într-un punct al
său cu simbolul (Π n ) . Ecuaţia planului normal al curbei în punctul p = α (t 0 )
este:

(Π n ) : (x1 − x1 (t 0 )) x1′ (t 0 ) + (x2 − x2 (t 0 )) x′2 (t 0 ) + (x3 − x3 (t 0 )) x3′ (t 0 ) = 0 (9)

Fie (α ) o curbă de clasă C 2 şi de parametrizare naturală β : I 1 → E 3 .

2.9. Definiţie. Curba (α ) se numeşte curbă Frenet dacă β ′′(s ) ≠ 0 , (∀) s ∈ I 1 .

2.10. Exemple. i) Fie r > 0, b > 0 şi curba (α ) de parametrizare α : R → E 3 ,


α (t ) = (r cos t , r sin t , bt ) , t ∈ R (elicea cilindrică). Pentru t 0 = 0 fixat, parametrul
natural al acestei curbe este:
t

s := ψ (t ) = ∫ α ′(τ ) dτ = r 2 + b 2 t , t ∈ R ,
0

1
de unde obţinem difeomorfismul crescător ϕ : R → R , ϕ (s ) = s.
r + b2 2

Parametrizarea naturală a elicei cilindrice este: β : R → E 3 , β = α o ϕ ,


6.4. EXERCIŢII 243

⎛ 1 1 b ⎞
β (s ) = ⎜⎜ r cos s, r sin s, s ⎟⎟ , s ∈ R .
⎝ r 2 + b2 r 2 + b2 r +b ⎠
2 2

Versorul tangentei la curbă într-un punct oarecare al acesteia este:

⎛ r s r s b ⎞
t (s ) = β ′(s ) = ⎜⎜ − 2 sin 2 , 2 cos 2 , 2 ⎟⎟ .
⎝ r +b 2
r +b 2
r +b 2
r +b 2
r + b2 ⎠

De aici obţinem:

1 ⎛ s s ⎞
β ′′(s ) = ⎜ − r cos
2 ⎜
, − r sin , 0 ⎟⎟
r +b ⎝
2
r 2 + b2 r 2 + b2 ⎠

şi

r
β ′′(s ) = .
r + b2
2

Rezultă că β ′′(s ) ≠ 0 , (∀) s ∈ R deci elicea cilindrică este o curbă Frenet.


Interpretarea normei vectorului β ′′(s ) o vom obţine în cele ce urmează.

ii) Fie dreapta determinată de punctul a = (a1 , a 2 , a3 ) şi de vectorul director


u = (u1 , u 2 , u 3 ) . O reprezentare parametrică a acestei curbe este α : R → E 3 ,
α (t ) = (a1 + u1t , a 2 + u 2 t , a3 + u 3t ) , t ∈ R . Pentru t 0 = 0 fixat parametrul natural al
acestei curbe este:
t

s := ψ (t ) = ∫ α ′(τ ) dτ = u12 + u 22 + u 32 t = u t .
0

Parametrizarea naturală a curbei se obţine sub forma β : R → E 3 ,

⎛ u1 u u ⎞
β (s ) = ⎜⎜ a1 + s, a 2 + 2 s, a3 + 3 s ⎟⎟ , s ∈ R .
⎝ u u u ⎠

Versorul tangentei la curbă într-un punct oarecare al acesteia este

1
t (s ) = β ′(s ) = u.
u
244 6. ELEMENTE DE GEOMETRIE DIFERENŢIALĂ A CURBELOR

De aici obţinem β ′′(s ) = 0 , (∀) s ∈ R , deci dreapta considerată nu este o curbă


Frenet. Punctele unei curbe regulate (α ) de clasă C 2 şi de parametrizare naturală
β : I 1 → E 3 , cu proprietatea că β ′′ = 0 se numesc puncte inflexionale. Din
exemplul de mai sus rezultă că toate punctele unei drepte sunt puncte
inflexionale.

2.11. Observaţie. i) O curbă (α ) de clasă C 2 este curbă Frenet dacă şi numai


dacă vectorii α ′(t ) , α ′′(t ) sunt liniar independenţi (∀) t ∈ I .
ii) Dacă α şi α 1 sunt două parametrizări ale curbei (α ) de clasă C 2 iar vectorii
α ′ şi α ′′ sunt liniar independenţi atunci şi vectorii β ′ şi β ′′ sunt liniar
independenţi. Aceasta înseamnă că sistemele de vectori {α ′, α ′′} şi {β ′, β ′′}
generează acelaşi subspaţiu liniar.

Fie (α ) o curbă Frenet, α : I → E 3 o parametrizare a sa şi t 0 ∈ I .

2.12. Definiţie. Se numeşte plan osculator al curbei Frenet (α ) în punctul


p = α (t 0 ) planul deteminat de punctul p şi de subspaţiul director generat de
vectorii α ′(t 0 ) şi α ′′(t 0 ) .

2.13. Observaţie. i) Din observaţia 2.11 rezultă că planul osculator nu depinde


de parametrizarea curbei.
ii) Vom nota planul osculator al curbei regulate (α ) într-un punct al său cu
simbolul (Π o ) . Ecuaţia planului osculator al curbei (α ) în punctul p = α (t 0 )
este:

x1 − x1 (t 0 ) x 2 − x2 (t 0 ) x3 − x3 (t 0 )
(Π o ) : x1′ (t 0 ) x 2′ (t 0 ) x3′ (t 0 ) = 0 . (10)
x1′′(t 0 ) x 2′′ (t 0 ) x3′′(t 0 )

Produsul vectorial α ′(t 0 ) × α ′′(t 0 ) ne dă un vector director al planului osculator.


Dacă notăm cu

x′2 (t 0 ) x3′ (t 0 ) x ′ (t ) x1′ (t 0 ) x′ (t ) x ′2 (t 0 )


m= , n= 3 0 , p= 1 0 (11)
x′2′ (t 0 ) x3′′(t 0 ) x3′′(t 0 ) x1′′(t 0 ) x1′′(t 0 ) x ′2′(t 0 )

parametrii directori ai planului osculator atunci ecuaţia (10) se scrie:

(Π o ) : m ( x1 − x1 (t 0 )) + n ( x 2 − x 2 (t 0 )) + p ( x3 − x3 (t 0 )) = 0 . (12)
6.4. EXERCIŢII 245

Fie (α ) o curbă Frenet, α : I → E 3 o parametrizare a sa şi t 0 ∈ I .

2.14. Definiţie. Se numeşte normală principală a curbei (α ) în punctul


p = α (t 0 ) intersecţia dintre planele normal şi osculator ale curbei în punctul
p = α (t 0 ) .

2.15. Observaţie. Vom nota normala principală a curbei regulate (α ) într-un


punct al său cu simbolul ( N ) . Din modul în care a fost definită normala
principală rezultă că un vector director al acesteia este vectorul
α ′(t 0 ) × (α ′(t 0 ) × α ′′(t 0 )) . Dacă notăm cu

~ = x′2 (t 0 ) x3′ (t 0 ) , n~ = x3′ (t 0 ) x1′ (t 0 ) , ~


m
x ′ (t ) x2′ (t 0 )
p= 1 0 (13)
n p p m m n

parametrii directori ai normalei principale, atunci ecuaţiile acesteia sunt:

x1 − x1 (t 0 ) x2 − x2 (t 0 ) x3 − x3 (t 0 )
(N ) : ~ = = . (14)
m n~ ~
p

Fie (α ) o curbă Frenet, α : I → E 3 o parametrizare a sa şi t 0 ∈ I .

2.16. Definiţie. Se numeşte binormală a curbei Frenet (α ) în punctul p = α (t 0 )


dreapta ce trece prin acest punct şi este perpendiculară pe planul osculator al
curbei în punctul p = α (t 0 ) .

2.17. Observaţie. Vom nota binormala curbei regulate (α ) într-un punct al său
cu simbolul (B ) . Deoarece un vector director al planului osculator este vector
director al binormalei ecuaţiile binormalei sunt (în ipoteza m ≠ 0 , n ≠ 0 , p ≠ 0 ):

x1 − x1 (t 0 ) x 2 − x2 (t 0 ) x3 − x3 (t 0 )
(B ) : = = . (15)
m n p

2.18. Definiţie. Se numeşte plan rectificator al curbei Frenet (α ) în punctul


p = α (t 0 ) planul ce trece prin punctul p şi este perpendicular pe normala
principală a curbei în acest punct.

2.19. Observaţie. Vom nota planul rectificator al curbei regulate (α ) într-un


punct al său cu simbolul (Π r ) . Ecuaţia planului osculator al curbei (α ) în
246 6. ELEMENTE DE GEOMETRIE DIFERENŢIALĂ A CURBELOR

punctul p = α (t 0 ) este:

(Π r ) : ~ ( x − x (t )) + n~ ( x − x (t )) + ~
m 1 1 0 2 2 0 p ( x3 − x3 (t 0 )) = 0 . (16)

2.20. Observaţie. Fie (α ) o curbă Frenet, α : I → E 3 o parametrizare a sa şi


t 0 ∈ I . Am definit mai sus în punctul p = α (t 0 ) tangenta (T ) , normala principală
(N ) , binormala (B ) , planul normal (Π n ) , planul rectificator (Π r ) şi planul
osculator (Π o ) . Din modul în care au fost definite aceste elemente rezultă:
i) (T ) = (Π r ) ∩ (Π o ) , ( N ) = (Π o ) ∩ (Π n ) , (B ) = (Π n ) ∩ (Π r ) ;
ii) (T ) ⊥ ( N ) , ( N ) ⊥ (B ) , (B ) ⊥ (T ) ;
iii) (Π r ) ⊥ (Π o ) , (Π o ) ⊥ (Π n ) , (Π n ) ⊥ (Π r ) .

Fie (α ) o curbă Frenet, α : I → E 3 o parametrizare a sa şi t 0 ∈ I . În punctul


p = α (t 0 ) al curbei putem deci defini trei drepte perpendiculare două câte două:
tangenta, normala principală şi binormala. Dacă luăm acum pe curbă un alt punct
q = α (t1 ), t1 > t 0 putem defini aceste drepte şi în acest punct; dreptele nu vor avea
însă, în general, aceleaşi subspaţii directoare (aceeaşi vectori directori) ca în
punctul p. Pentru a caracteriza modul în care variază direcţiile acestor drepte pe
curbă vom determina legăturile care există între versorii directori ai acestor
drepte şi derivatele acestor versori în raport cu parametrul natural al curbei. Vom
obţine astfel formulele lui Frenet.

Fie (α ) o curbă de parametrizare α : I → E 3 .

2.21. Definiţie. Se numeşte câmp vectorial pe curba α : I → E 3 o funcţie Y care


asociază fiecărui t ∈ I un vector Y (t ) tangent la E 3 în punctul p = α (t ) .

2.22. Exemplu. Fie (α ) o curbă regulată şi α : I → E 3 o parametrizare a sa. Aşa


cum ştim α ′(t ) este un vector tangent la curbă în punctul p = α (t ) ; el aparţine
spaţiului tangent Tα (t ) (E 3 ) . Funcţia α ′ este un câmp vectorial pe curba (α ) .

Proprietăţile câmpurilor vectoriale definite pe o curbă sunt analoage


proprietăţilor câmpurilor vectoriale definite pe E 3 . De exemplu, dacă Y este un
câmp vectorial pe curba α : I → E 3 atunci, pentru fiecare t ∈ I , putem scrie:
e
Y (t ) = ( y1 (t ), y 2 (t ), y3 (t ))α (t ) = ∑ y i (t ) U i (α (t )) .
i =1
6.4. EXERCIŢII 247

Funcţiile y i : I → R , i = 1, 3 se numesc funcţiile de coordonate euclidiene ale


câmpului Y. Dacă aceste funcţii sunt de clasă C 1 atunci câmpul vectorial Y este
derivabil şi
e
Y ′(t ) = ( y1′ (t ), y ′2 (t ), y3′ (t ))α (t ) = ∑ yi′ (t )U i (α (t )) , t ∈ I .
i =1

Prin derivarea câmpului vectorial Y se obţine un nou câmp vectorial Y ′ pe curba


(α ) .
2.23. Observaţie. i) Fie Y şi Z două câmpuri vectoriale pe curba (α ) ,
derivabile şi α : I → E 3 o parametrizare a curbei. Dacă
e
Y (t ) = ( y1 (t ), y 2 (t ), y3 (t ))α (t ) = ∑ y i (t ) U i (α (t )) ,
i =1
e
Z (t ) = ( z1 (t ), z 2 (t ), z 3 (t ))α (t ) = ∑ z i (t ) U i (α (t ))
i =1

atunci produsul scalar al acestor două câmpuri vectoriale defineşte o funcţie reală
pe I a cărei derivată este:

′ 3
⎛ 3
⎞ 3
(Y (t ) ⋅ Z (t ))′ = ⎜ ∑ ( y i (t )z i (t ))⎟ = ∑ y i′ (t )z i (t ) + ∑ yi (t )z i′ (t ) ’
⎝ i =1 ⎠ i =1 i =1

= Y ′(t )Z (t ) + Y (t )Z ′(t ) , t ∈ I .

ii) Fie Y un câmp vectorial derivabil pe curba (α ) astfel încât norma sa este
constantă, adică există o constantă c > 0 astfel încât Y (t ) = c, (∀) t ∈ I . Atunci
prin derivarea identităţii Y (t ) ⋅ Y (t ) = c 2 , (∀) t ∈ I obţinem:

Y ′(t ) ⋅ Y (t ) = 0, (∀) t ∈ I .

Aceasta înseamnă că derivata unui câmp vectorial Y de normă constantă pe curba


(α ) este un câmp vectorial (pe curba (α ) ) perpendicular pe Y.

Fie (α ) o curbă Frenet de clasă C 3 şi de parametrizare α : I → E 3 . Fie


ψ : I → I 1 ca în teorema 2.2, ϕ : I 1 → I , ϕ = ψ −1 şi β : I 1 → E 3 , β = α o ϕ
parametrizarea canonică. Fie ca mai sus s := ψ (t ) , t ∈ I parametrul natural al
curbei. În formula (4) din observaţia 2.3 amstabilit că β ′(s ) = t (s ) , s ∈ I 1 este
248 6. ELEMENTE DE GEOMETRIE DIFERENŢIALĂ A CURBELOR

versorul tangentei la curbă în punctul p = β (s ) . Cum t (s ) = 1 , s ∈ I 1 obţinem


t ′(s ) ⋅ t (s ) = 0 , s ∈ I 1 . Rezultă deci că vectorul β ′′(s ) = t ′(s ) , s ∈ I 1 este
perpendicular pe versorul t (s ) . Cum β ′′(s ) este o combinaţie liniară a vectorilor
α ′(t ) şi α ′′(t ) (vezi formula (5)) rezultă că β ′′(s ) este un vector director al
normalei principale. Fie funcţia:

k : I 1 → R+∗ , k (s ) = β ′′(s ) , s ∈ I 1 (17)

şi vectorul

1 1
n(s ) = t ′(s ) = β ′′(s ) , s ∈ I 1 . (18)
k (s ) β ′′(s )

2.24. Definiţie. Funcţia k dată de (17) se numeşte curbura curbei (α ) . Versorul n


dat de formula (18) se numeşte versorul normalei principale.

2.25. Observaţie. Fie (α ) o curbă regulată, β : I 1 → E 3 parametrizarea naturală


a acestei curbe ca mai sus şi k (s ) = β ′′(s ) , s ∈ I1 . Atunci (α ) este o curbă
Frenet dacă şi numai dacă funcţia k verifică condiţia k (s ) > 0 , (∀) s ∈ I 1 .

Să considerăm acum versorul

1
b ( s ) = t ( s ) × n( s ) = (β ′(s ) × β ′′(s ) ) , s ∈ I1 . (19)
β ′′(s )

Versorul b(s ) este un vector director al binormalei curbei (α ) în punctul


p = β (s ) .

2.25. Definiţie. Versorul b dat de formula (19) se numeşte versorul binormalei.

Am obţinut astfel trei câmpuri vectoriale t , n, b pe curba (α ) , cu proprietăţile:

t (s ) = β ′(s ) , s ∈ I 1 ,

1
n( s ) = β ′′(s ) , s ∈ I 1 ,
β ′′(s )
6.4. EXERCIŢII 249

1
b (s ) = (β ′(s ) × β ′′(s ) ) , s ∈ I1 ,
β ′′(s )

t (s ) ⋅ n(s ) = n(s ) ⋅ b(s ) = b(s ) ⋅ t (s ) = 0 , s ∈ I 1 ,

t (s ) = n(s ) = b(s ) = 1 , s ∈ I 1 .

2.26. Definiţie. Sistemul de câmpuri vectoriale pe curba (α ) { t , n, b } se


numeşte reper Frenet al curbei.

Derivatele câmpurilor vectoriale t , n, b sunt la rândul lor câmpuri vectoriale pe


curba (α ) . Pentru s ∈ I 1 vectorii t ′(s ) , n′(s ) , b′(s ) se pot dezvolta ortogonal
după sistemul { t , n, b } . O astfel de dezvoltare am obţinut deja pentru t ′(s ) şi
anume (vezi formula (18)):

t ′(s ) = k (s ) n(s ) , s ∈ I 1 . (20)

Pentru vectorul b′(s ) dezvoltarea ortogonală corespunzătoare este:

b′(s ) = (b′(s ) ⋅ t (s )) t (s ) + (b′(s ) ⋅ n(s )) n(s ) + (b′(s ) ⋅ b(s ))b(s ) .

Deoarece b(s ) ⋅ t (s ) = 0 prin derivare obţinem b′(s ) ⋅ t (s ) + b(s ) ⋅ t ′(s ) = 0 şi cum


b(s ) ⋅ t ′(s ) = k (s )b(s ) ⋅ n(s ) = 0 rezultă că b′(s ) ⋅ t (s ) = 0 . În mod similar, din
egalitatea b(s ) ⋅ n(s ) = 0 obţinem b′(s ) ⋅ n(s ) = −b(s ) ⋅ n′(s ) şi cum b′(s ) ⋅ b(s ) = 0
dezvoltarea ortogonală a vectorului b′(s ) se scrie:

b′(s ) = −(b(s ) ⋅ n′(s )) n(s ) , s ∈ I 1 . (21)

Fie funcţia

τ : I 1 → R , τ (s ) = b(s ) ⋅ n′(s ) , s ∈ I 1 . (22)

2.27. Definiţie. Funcţia τ dată de formula (22) se numeşte torsiunea curbei (α ) .

Cu ajutorul acestei funcţii (21) se scrie

b′(s ) = −τ (s ) n(s ) , s ∈ I 1 . (23)

Fie acum dezvoltarea ortogonală a vectorului n′(s ) :


250 6. ELEMENTE DE GEOMETRIE DIFERENŢIALĂ A CURBELOR

n′(s ) = (n′(s ) ⋅ t (s )) t (s ) + (n′(s ) ⋅ n(s )) n(s ) + (n′(s ) ⋅ b(s )) b(s ) .

Din egalitatea n(s ) ⋅ t (s ) = 0 obţinem n′(s ) ⋅ t (s ) = − n(s ) ⋅ t ′(s ) = − k (s ) şi cum


n′(s ) ⋅ n(s ) = 0 şi b′(s ) ⋅ n(s ) = −b(s ) ⋅ n′(s ) = −τ (s ) , dezvoltarea ortogonală a
vectorului n′(s ) devine:

n′(s ) = − k (s ) t (s ) + τ (s ) b(s ) , s ∈ I 1 . (24)

2.28. Definiţie. Formulele (20), (23), (24) se numesc formulele lui Frenet.

2.29. Observaţie. Formulele lui Frenet se scriu matriceal sub forma:

⎛ t ′(s ) ⎞ ⎛ 0 k (s ) 0 ⎞ ⎛ t (s ) ⎞
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎜ n′(s )⎟ = ⎜ − k (s ) 0 τ (s ) ⎟ ⋅ ⎜ n ( s ) ⎟ , s ∈ I 1 .
⎜ b′(s ) ⎟ ⎜ 0 − τ (s ) 0 ⎟⎠ ⎜⎝ b(s ) ⎟⎠
⎝ ⎠ ⎝

2.30. Exemplu. Ne propunem să calculăm curbura şi torsiunea elicei cilindrice a


cărei parametrizare naturală am obţinut-o în exemplul 2.10, i):

⎛ 1 1 b ⎞
β (s ) = ⎜⎜ r cos s, r sin s, s ⎟⎟ , s ∈ R .
⎝ r 2 + b2 r 2 + b2 r 2 + b2 ⎠

r
Deoarece în exemplul 2.10, i) am găsit că β ′′(s ) = , rezultă pentru
r + b2
2

r
curbura elicei cilindrice expresia k (s ) = . Deoarece
r + b2
2

1 ⎛ s s ⎞
β ′′(s ) = ⎜ − r cos , − r sin , 0 ⎟⎟
r 2 + b 2 ⎜⎝ r +b
2 2
r +b
2 2

din (18) obţinem:

⎛ s s ⎞
n(s ) = ⎜⎜ − cos 2 , − sin , 0 ⎟⎟ .
⎝ r + b2 r 2 + b2 ⎠

Formula (22) ne da:

τ (s ) = b(s ) ⋅ n′(s ) = (t (s ) × n(s )) ⋅ n′(s ) =


6.4. EXERCIŢII 251

r s r s b
− sin cos
r 2 + b2 r 2 + b2 r 2 + b2 r 2 + b2 r 2 + b2
s s
= − cos − sin 0 =
r +b
2 2
r + b2
2

1 s 1 s
sin − cos 0
r 2 + b2 r 2 + b2 r 2 + b2 r 2 + b2
b
= 2 .
r + b2

τ (s ) b
Raportul dintre curbura şi torsiunea acestei curbe este = .
k (s ) r

2.31. Observaţie. Pentru a obţine versorii reperului Frenet al unei curbe se


determină reprezentarea naturală a curbei β : I 1 → E 3 şi apoi se utilizează
formulele:

t (s ) = β ′(s ),
1
n (s ) = β ′′(s ),
β ′′(s )
b ( s ) = t ( s ) × n (s ) , s ∈ I 1 .

Curbura curbei se determină cu relaţia

k (s ) = β ′′(s ) s ∈ I 1 ,

iar torsiunea cu relaţia:

τ (s ) = b(s ) ⋅ n′(s ).

În unele aplicaţii sunt însă utile formule care utilizează pentru calculul acestor
mărimi o parametrizare oarecare a curbei.

2.32. Propoziţie. Fie (α ) o curbă Frenet şi α : I → E 3 o parametrizare a sa,


t

t 0 ∈ I şi ψ (t ) = ∫ α ′(τ ) dτ .
t0

Atunci:
252 6. ELEMENTE DE GEOMETRIE DIFERENŢIALĂ A CURBELOR

1
t (s ) = α ′(t ) , (25)
α ′(t )
1
b (s ) = α ′(t ) × α ′′(t ) , (26)
α ′(t ) × α ′′(t )

n( s ) = b ( s ) × t ( s ) , (27)

α ′(t ) × α ′′(t )
k (s ) = , (28)
α ′(t )
3

τ (s ) =
(α ′(t ) ,α ′′(t ) ,α ′′′(t )) , s := ψ (t ) , t ∈ I . (29)
α ′(t ) × α ′′(t )
2

Demonstraţie. Formula (23) rezultă din formula (1). Pentru a obţine formula de
calcul a curburii (28) folosim formula (6) şi faptul că vectorii β ′ şi β ′′ sunt
ortogonali:

α ′(t ) × α ′′(t )
k (s ) = β ′′(s ) = β ′(s ) × β ′′(s ) = .
α ′(t )
3

Din (25) şi (28) şi (5) deducem:

1 1
b ( s ) = t ( s ) × n (s ) = [β ′(s ) × β ′′(s )] = α ′(t ) × α ′′(t ) .
k (s ) α ′(t ) × α ′′(t )

Formula (27) este evidentă. Pentru obţinerea formulei de calcul a torsiunii (29)
utilizăm (22) şi obţinem:

τ (s ) = b(s ) ⋅ n′(s ) = (t (s ) × n(s )) ⋅ n′(s ) .

1 k ′(s ) 1
Cum n′(s ) = [ t ′(s )]′ = − 2 t ′(s ) + t ′′(s ) formula precedentă ne dă:
k (s ) k (s ) k (s )

1 1
τ (s ) = (t (s ), t ′(s ), t ′′(s )) = (β ′(s ), β ′′(s ), β ′′′(s )) .
k (s )
2
k (s )
2

Pentru a obţine formula (29) este suficient să utilizăm în această relaţie formulele
(7) şi (28).
6.4. EXERCIŢII 253

2.33. Propoziţie. Dacă curbura unei curbe Frenet este identic nulă atunci
imaginea curbei se află pe o dreaptă.

Demonstraţie. Fie (α ) o curbă Frenet având curbura identic nulă şi β : I 1 → E 3


o parametrizare naturală a sa. Cum k (s ) = β ′′(s ) rezultă că β ′′(s ) = 0 , (∀) s ∈ I 1 ,
deci există un vector u astfel încât β ′(s ) = u , s ∈ I 1 . Prin integrare, ultima
egalitate ne dă β (s ) = β (s 0 ) + us , s 0 , s ∈ I 1 de unde deducem că I (β ) se află pe o
dreaptă. Cum două drumuri echivalente au aceeaşi imagine, concluzia propoziţiei
este adevărată şi pentru o parametrizare oarecare a curbei.

2.34. Observaţie. Propoziţia de mai sus ne spune numai că imaginea curbei se


află pe o dreaptă; nu tragem de aici concluzia că parametrizarea curbei este dată
de o funcţie afină, aşa cum se întâmplă în cazul unei drepte. Ca exemplu în acest
sens să considerăm drumurile din exemplul 1.4. Aceste drumuri nu sunt
echivalente (vezi observaţia 1.20) şi cum α 1 (t ) = ( p1 + t 3u1 , p 2 + t 3u 2 , p3 + t 3u 3 )
obţinem α 1′ (t ) = (3t 2 u1 ,3t 2 u 2 ,3t 2 u 3 ) , α 1′′(t ) = (6tu1 ,6tu 2 ,6tu 3 ) . Deoarece aceşti
vectori sunt liniar dependenţi, curbura curbei (α 1 ) este nulă deci imaginea acestei
curbe se află pe dreapta (α ) .

2.35. Definiţie. O curbă se numeşte plană dacă imaginea sa este conţinută într-un
plan.

Fie (α ) o curbă Frenet. Legătura dintre torsiunea acestei curbe şi proprietatea de


a fi o curbă plană este dată de următoarea propoziţie.

2.36. Propoziţie. O curbă Frenet este curbă plană dacă şi numai dacă torsiunea în
orice punct al curbei este egală cu zero.

Demonstraţie. Fie (α ) o curbă Frenet, de parametrizare α : I → E 3 . Fie planul


(π ) , de parametri directori m, n, p , astfel încât I (α ) ⊂ (π ) . Dacă
α (t ) = ( x1 (t ), x2 (t ), x3 (t )) , t ∈ I , deoarece tangenta la curbă este situată în planul
(π ) , avem
mx1′ (t ) + nx2′ (t ) + px3′ (t ) = 0 , (∀) t ∈ I ,

de unde obţinem

mx1′′(t ) + nx ′2′ (t ) + px 3′′ (t ) = 0 , (∀) t ∈ I .


254 6. ELEMENTE DE GEOMETRIE DIFERENŢIALĂ A CURBELOR

Ultimele două relaţii ne spun că vectorii α ′(t ), α ′′(t ), t ∈ I sunt paraleli cu planul
(π ) . Atunci b(s ), s ∈ I1 este un vector constant, ceea ce implică b′(s ) = 0, s ∈ I1
deci τ (s ) = 0, s ∈ I 1 .
Reciproc, dacă τ (s ) = 0, s ∈ I 1 versorul binormalei este constant b(s ) = b0 , s ∈ I 1 .
1
Cum b(s ) = α ′(t ) × α ′′(t ), t ∈ I rezultă că α ′(t ) ⋅ b0 = 0, (∀) t ∈ I .
α ′(t ) × α ′′(t )
Cum α ′(t ) ⋅ b0 = (α (t ) ⋅ b0 )′ deducem de aici că există t 0 ∈ I astfel încât
α (t ) ⋅ b0 = α (t 0 ) ⋅ b0 , (∀) t ∈ I . Cum ultima identitate se scrie (α (t ) − α (t 0 )) ⋅ b0 = 0 ,
t ∈ I rezultă că imaginea lui (α ) este conţinută într-un plan perpendicular pe
vectorul b0 şi care trece prin punctul α (t 0 ) .

2.37. Propoziţie. Fie o curbă Frenet de parametrizare naturală β : I 1 → E 3 . Dacă


curbura curbei este egală cu o constantă k 0 > 0 şi torsiunea curbei este nulă
1
atunci imaginea curbei se află situată într-un cerc de rază .
k0

Demonstraţie. Deoarece τ ≡ 0 , din propoziţia 2.36 rezultă că ne aflăm în cazul


unei curbe plane. Fie curba (γ ) de parametrizare γ : I 1 → E 3 ,
1
γ (s ) = β (s ) + n(s ) , s ∈ I 1 . Atunci
k0
1 1
γ ′(s ) = t (s ) + n′(s ) = t (s ) + [− k (s )t (s ) + τ (s ) b(s )] = 0 , s ∈ I 1 .
k0 k0

Din identitate precedentă deducem că (γ ) se reduce la un punct; există deci


punctul p ∈ E 3 astfel încât γ (s ) = p , s ∈ I 1 .Din definiţia curbei (γ ) deducem că
1
β (s ) − p = , (∀) s ∈ I 1 . Înseamnă că orice punct al imaginii curbei date se
k0
1
află la aceeaşi distanţă de punctul fix p, deci I (β ) se află pe cercul de rază
k0
1
şi cu centrul în punctul p.
k0

Ecuaţiile carteziene implicite ale unei curbe.

Fie Ω o mulţime deschisă şi conexă din R 3 şi funcţia de clasă C k , k ∈ N ∗ :

f : Ω → E 2 , f ( x1 , x 2 , x3 ) = ( f1 ( x1 , x 2 , x3 ), f 2 ( x1 , x2 , x3 )) .
6.4. EXERCIŢII 255

Vom nota cu Z f mulţimea zerourilor lui f,

Z f = {(x1 , x2 , x3 ) ∈ Ω f1 ( x1 , x2 , x3 ) = 0 , f 2 ( x1 , x2 , x3 ) = 0 }

şi cu C f mulţimea punctelor critice ale lui f

Cf = {(x , x , x ) ∈ Ω
1 2 3 }
rang J f ( x1 , x2 , x3 ) < 2 ,

unde J f este matricea

⎛ ∂f1
⎜ (x1 , x2 , x3 ) ∂f1 (x1 , x2 , x3 ) ∂f1 (x1 , x2 , x3 )⎞⎟
∂x ∂x 2 ∂x3
J f ( x1 , x2 , x3 ) = ⎜ 1 ⎟.
⎜ ∂f 2 ∂f 2 ∂f 2 ⎟
⎜ ∂x ( x1 , x2 , x3 ) ∂x ( x1 , x2 , x3 ) ∂x ( x1 , x2 , x3 )⎟
⎝ 1 2 3 ⎠

Punctele ( x1 , x 2 , x3 ) ∈ Ω cu proprietatea că J f ( x1 , x2 , x3 ) ≠ 0 se numesc puncte


regulate ale aplicaţiei f.

În general Z f nu este imaginea unei curbe; putem spune numai că Z f este o


mulţime închisă în E 3 . Există însă situaţii în care mulţimea Z f este imaginea
unei curbe în E 3 ; exemplul următor stă mărturie în acest sens.

2.38. Exemplu. Fie ai , bi , ci , d i ∈ R , i = 1, 2 astfel încât

⎛a b1 c1 ⎞
rang ⎜⎜ 1 ⎟=2
⎝ a2 b2 c 2 ⎟⎠

şi funcţia f : R 3 → E 2 , definită prin

f ( x1 , x 2 , x3 ) = (a1 x1 + b1 x2 + c1 x3 + d1 , a 2 x1 + b2 x 2 + c2 x3 + d 2 ) .

Mulţimea Z f este formată din soluţiile sistemului:

a1 x1 + b1 x 2 + c1 x3 + d1 = 0
a 2 x1 + b2 x2 + c 2 x3 + d 2 = 0 .
256 6. ELEMENTE DE GEOMETRIE DIFERENŢIALĂ A CURBELOR

b1 c1 c1 a1 a1 b1
Fie a = , b= ,c = şi (x10 , x20 , x30 ) o soluţie a sistemului de
b2 c 2 c2 c2 a 2 b2
mai sus. Atunci mulţimea Z f constă din tripletele ( x1 , x 2 , x3 ) cu proprietatea:

x1 = x10 + a t
x 2 = x20 + b t
x1 = x30 + c t , t ∈ R .

Am obţinut astfel reprezentarea parametrică a unei drepte (α ) ; imaginea I (α ) a


acestei drepte coincide cu Z f .

Aşa cum am precizat, mulţimea Z f a zerourilor unei funcţii f : R 3 → E 2 nu este


în general imaginea unei curbe. Dacă însă f îndeplineşte anumite condiţii, atunci
(cel puţin local) Z f coincide cu imaginea unui drum regulat. Condiţiile la care
trebuie să supunem funcţia f sunt cele din teorema funcţiilor implicite. Vom da
mai jos enunţul acestei teoreme; cititorul care doreşte să urmărească demonstraţia
teoremei poate consulta [18], volumul II, pagina 75.

2.39. Teoremă. Fie f : Ω → E 2 , f = ( f1 , f 2 ) de clasă C k , k ∈ N ∗ , Ω ⊂ R × R 2 o


mulţime deschisă şi (x10 , x20 , x30 )∈ Ω astfel încât:
i) (x10 , x20 , x30 )∈ Z f ;
∂f1 0 0 0 ∂f1 0 0 0
(x1 , x2 , x3 ) (x1 , x2 , x3 )
∂x2 ∂x3
ii) ≠ 0.
∂f 2 0 0 0 ∂f 2 0 0 0
(x1 , x2 , x3 ) (x1 , x2 , x3 )
∂x2 ∂x3
Atunci există o vecinătate deschisă V1 a lui x10 , o vecinătate deschisă V2 a lui x 20 ,
o vecinătate deschisă V3 a lui x30 şi funcţiile unice ϕ : V1 → V2 , ψ : V1 → V3 de
clasă C k astfel încât:
i) ϕ (x10 ) = x20 ; ψ (x10 ) = x30 ;
ii) f ( x1 , ϕ ( x1 ),ψ ( x1 )) = 0 , (∀) x1 ∈ V .

2.40. Propoziţie. Fie f : Ω → E 2 , f = ( f1 , f 2 ) de clasă C k , k ∈ N ∗ , Ω ⊂ R × R 2


o mulţime deschisă şi (x , x , x )∈ Z \ C . Atunci există o vecinătate deschisă
0
1
0
2
0
3 f f

W a punctului (x , x 0
1
0
2 , x ) astfel încât Z ∩ W să fie imaginea unui drum regulat
0
3 f
k
simplu de clasă C .
6.4. EXERCIŢII 257

Demonstraţie. Deoarece (x10 , x 20 , x30 )∉ C f , rangul matricei J f (x10 , x 20 , x30 ) este


egal cu doi. Putem presupune, pentru a face o alegere că determinantul din
enunţul teoremei 2.39 este diferit de zero. Deoarece condiţiile din teorema 2.39
sunt îndeplinite există o vecinătate deschisă V1 a lui x10 , o vecinătate deschisă V2
a lui x 20 , o vecinătate deschisă V3 a lui x30 şi funcţiile unice ϕ : V1 → V2 ,
ψ : V1 → V3 de clasă C k astfel încât

f ( x1 , ϕ ( x1 ),ψ ( x1 )) = 0 , (∀) x1 ∈ V .

Mulţimea W = V1 × V2 × V3 este o vecinătate deschisă a punctului (x10 , x20 , x30 ) şi

Z f ∩ W = {( x1 , ϕ ( x1 ),ψ ( x1 )) x1 ∈ V1}.

Fie drumul α : V1 → E 3 , α (t ) = ( t ,ϕ (t ),ψ (t ) ) , t ∈ V1 . Acest drum este de clasă


C k şi I (α ) = Z f ∩ W . Cum α ′(t ) = (1, ϕ ′(t ), ψ ′(t ) ) , t ∈ V1 rezultă că drumul este
regulat. Deoarece egalitatea α (t1 ) = α (t 2 ) , t1 , t 2 ∈ V1 , implică t1 = t 2 rezultă că
aplicaţia α este injectivă şi deci drumul α este simplu.

Fie f : Ω → E 2 , f = ( f1 , f 2 ) ca în propoziţia precedentă.

2.41. Definiţie. Ecuaţiile

f1 ( x1 , x 2 , x3 ) = 0
f 2 ( x1 , x2 , x3 ) = 0

se numesc ecuaţiile carteziene implicite ale curbei (α ) .

2.42. Observaţie. Condiţia (x , x , x )∈ Z \ C din propoziţia 2.40 (deci


0
1
0
2
0
3 f f

condiţia ca punctul (x , x , x )∈ Z să fie regulat) este numai o condiţie


0
1
0
2
0
3 f

suficientă ca Z f ∩ W să fie imaginea unui drum regulat. Dacă (x , x , x )∈ Z


0
1
0
2
0
3 f

este un punct critic al lui f nu putem afirma că Z f nu este local imaginea unui
drum regulat.

2.43. Exemplu. Fie curba lui Viviani (α ) definită de drumul

α : [0,2π ] → E 3 , α (t ) = (2a cos 2 t , a sin 2t ,2a sin t ) , a > 0


258 6. ELEMENTE DE GEOMETRIE DIFERENŢIALĂ A CURBELOR

şi funcţia f : E 3 → E 2 definită prin

(
f ( x1 , x2 , x3 ) = x12 + x22 + x32 − 4a 2 , (x1 − a 2 ) + x22 − a 2 .
2
)
Mulţimea Z f a zerourilor acestei funcţii este mulţimea soluţiilor sistemului:

x12 + x 22 + x32 − 4a 2 = 0
(30)
(x1 − a )2 + x22 − a 2 = 0 .
Am văzut (exemplul 1.4, iii) că I (α ) ⊆ Z f . Să arătăm că Z f ⊆ I (α ) .
Fie (x10 , x20 , x30 )∈ Z f . Deoarece acest punct se află pe sfera de rază 2a cu centrul
în origine, coordonatele acestui punct se scriu (în coordonate sferice):

x10 = 2a sin ϕ 0 cosθ 0


x 20 = 2a sin ϕ 0 sin θ 0
x30 = 2a cos ϕ 0 , ϕ 0 ∈ [0, π ] , θ 0 ∈ [0,2π ).

Cum punctul (x10 , x20 , x30 ) se află pe cilindrul de ecuaţie ( x1 − a ) + x22 − a 2 = 0


2

obţinem condiţia sin ϕ 0 = cos θ 0 . De aici deducem că cos ϕ 0 = sin θ 0 , astfel încât
putem scrie:

(x 0
1 , x 20 , x30 ) = (2a cos 2 θ 0 , a sin 2θ 0 , 2a sin θ 0 )∈ I (α ) .

Rezultă de aică că Z f ⊆ I (α ) ; cum şi incluziunea inversă este adevărată obţinem


Z f = I (α ) . Z f este deci o curbă definită de ecuaţiile carteziene implicite (30) iar
aplicaţia α este o parametrizare globală a curbei Z f (vezi observaţia 1.16 ii).
Punctele critice ale funcţiei f se obţin din condiţia ca rangul matricei Jacobi a
acestei funcţii,

⎛ 2 x1 2 x2 2 x3 ⎞
J f ( x1 , x 2 , x3 ) = ⎜⎜ ⎟,
⎝ 2( x1 − a ) 2 x2 0 ⎟⎠

să fie mai mic decât doi. Se obţine sistemul: x 2 = 0, x3 ( x1 − a ) = 0, x2 x3 = 0 .


Singura soluţie a acestui sistem care aparţine mulţimii Z f este
x1 = 2a, x2 = x3 = 0 . Propoziţia 2.40 nu se mai poate aplica în acest punct.
6.4. EXERCIŢII 259

Cu toate acestea, Z f este imaginea I (α ) a unui drum într-o vecinătate a


punctului p = (2a,0 ,0 ) = α (0 ) = α (π ) şi punctul p (care este un punct dublu al
curbei) este un punct regulat deoarece α ′(0 ) = (0 ,0 , 2a ) , α ′(π ) = (0,0,−2a ) .

6.3. CURBE ÎN E 2

Fie I un interval al axei reale. Vom considera în cele ce urmează funcţii


vectoriale de forma α : I → E 2 ; dacă α (t ) = ( x1 (t ), x2 (t )) , t ∈ I atunci funcţiile
reale xi : I → R, i = 1, 2 le vom numi componentele funcţiei vectoriale α .
Vom numi drum în E 2 o funcţie continuǎ α : I → E 2 . Mulţimea

I (α ) = { α (t ) t ∈ I }

o vom numi imaginea drumului α .


Noţiunile de drum închis, drum simplu, drum de clasă C k , k ∈ N ∗ , drum regulat,
drumuri echivalente se introduc la fel ca în E 3 .

3.1. Definiţie. Se numeşte curbă în E 2 o clasă de echivalenţă în mulţimea


drumurilor din E 2 .

Dacă α (t ) = ( x1 (t ), x2 (t )) , t ∈ I este o parametrizare a curbei (α ) atunci relaţiile

x1 = x1 (t )
x 2 = x2 (t ) , t ∈ I

se numesc ecuaţiile curbei (α ) (sau reprezentarea parametrică a curbei (α ) ).

3.2. Exemple. 1) Astroida este curba plană de ecuaţii parametrice:

x1 = a cos 3 t
x2 = a sin 3 t , t ∈ [0,2π ] , a > 0.

Graficul astroidei este prezentat în figura 1.


260 6. ELEMENTE DE GEOMETRIE DIFERENŢIALĂ A CURBELOR

Figura 1. Astroida

Dacă eliminăm parametrul t între ecuaţiile astroidei obţinem ecuaţia:


2 2 2

x13 + x23 = a 3 , a > 0 .

Ecuaţia de mai sus se numeşte ecuaţia astroidei sub forma implicită.

2) Cardioida este curba plană dată de parametrizarea

x1 = a(2 cos t − cos 2t )


x 2 = a(2 sin t − sin 2t ) , t ∈ [0,2π ] , a > 0 .

Figura 2. Cardioida
6.4. EXERCIŢII 261

3) Cicloida este curba plană descrisă de un punct situat pe un cerc de rază r care
se rostogoleşte fără alunecare pe o dreaptă fixă. Ecuaţiile parametrice ale
cicloidei sunt:

x1 = r (t − sin t )
x 2 = r (1 − cos t ) , t ∈ R .

Figura 3. Cicloida

4) Fie un punct fix situat în planul unui cerc la distanţa a de centrul cercului.
Cercul de rază r se rostogoleşte fără alunecare pe o dreaptă fixă. Curbele descrise
astfel de punctul considerat se numesc trohoide. Ecuaţiile parametrice ale unei
trohoide sunt:

x1 = rt − a sin t
x 2 = r − a cos t , t ∈ R , a > 0 .

Figura 4. Cicloida alungită


262 6. ELEMENTE DE GEOMETRIE DIFERENŢIALĂ A CURBELOR

În cazul a = r trohoida este o cicloidă, pentru a > r trohoida se mai numeşte


cicloida alungită (figura 4) iar pentru a < r trohoida se numeşte cicloida scurtată
(figura 5).

Figura 5. Cicloida scurtată

5) Cisoida lui Diocles este curba cu reprezentarea parametrică

2at 2
x1 =
1+ t 2
2at 3
x2 = ,t∈R.
1+ t 2

Figura 6. Cisoida lui Diocles


6.4. EXERCIŢII 263

7) Foliumul lui Descartes este curba dată de reprezentarea parametrică:

3at 3at 2
x1 = , x 2 = , t ∈ R \ {− 1} , a > 0 .
t3 +1 t3 +1

Figura 7. Foliumul lui Descartes

8) Strofoida dreaptă are reprezentarea parametrică:

a (1 − t 2 ) a t (1 − t 2 )
x1 = , x2 = ,t∈R , a > 0.
1+ t 2 1+ t 2

Figura 8. Strofoida dreaptă


264 6. ELEMENTE DE GEOMETRIE DIFERENŢIALĂ A CURBELOR

Ecuaţia carteziană implicită a unei curbe plane.

Fie D o mulţime deschisă şi conexă din E 2 şi funcţia F : D → R de clasă


Ck, k ∈ N∗ .

Vom nota cu Z F mulţimea zerourilor lui F,

Z F = {( x1 , x 2 ) ∈ D F ( x1 , x 2 ) = 0 }

şi cu C F mulţimea punctelor critice ale lui F:

⎧ ∂F ⎫
C F = ⎨ ( x1 , x2 ) ∈ D (x1 , x2 ) = 0, ∂F (x1 , x2 ) = 0 ⎬ .
⎩ ∂x1 ∂x 2 ⎭

⎛ ∂F ⎞
Pentru p = ( x1 , x2 ) ∈ D vectorul gradF = ⎜⎜ (x1 , x2 ), ∂F (x1 , x2 )⎟⎟ se numeşte
⎝ ∂x1 ∂x2 ⎠
2
gradientul funcţiei F; el aparţine spaţiului tagent la E în punctul p. Înseamnă că
mulţimea C F este formată din punctele din D în care gradientul lui F se
anulează. Punctele în care cel puţin una dun derivatele parţiale ale lui F nu se
anulează se numesc puncte regulate.

În general mulţimea C f nu este imaginea unei curbe în E 2 ; despre C f putem


spune numai că este o mulţime închisă din E 2 . Pentru alegeri convenabile ale
funcţiei F (vezi exemplele de mai jos) există însă un drum α în E 2 astfel încât
Z F = I (α ) . Dacă sunt îndeplinite anumite condiţii (de exemplu cele impuse de
teorema funcţiilor implicite) vom arăta că, local, mulţimea zerourilor lui F
coincide cu imaginea unui drum regulat.

3.3. Exemple. i) Fie F : R2 → R , F ( x1 , x2 ) = x12 + x22 − 1 şi drumul


α : [0, π ] → E 2 , α (t ) = (cos t , sin t ) . Se constată cu uşurinţă că Z F = I (α ) . Un alt
drum a cărui imagine coincide cu Z F se poate obţine astfel. Fie f : [− 1, 1] → R ,
f ( x1 ) = 1 − x 22 . Se constată cu uşurinţă că avem:

F ( x1 , f ( x1 )) = 0 , (∀) x1 ∈ [− 1, 1].

Spunem că am explicitat din ecuaţia F ( x1 , x2 ) = 0 pe x 2 în funcţie de x1 . Cu


( )
ajutorul funcţiei f construim drumul α~ : [− 1, 1] → E 2 , α~ (t ) = t , 1 − t 2 care are
proprietatea că Z = I (α~ ) .
F
6.4. EXERCIŢII 265

iii) Curba pe care o prezentăm în acest exemplu se numeşte lemniscata lui


Bernoulli. Ea se defineşte printr-o ecuaţie implicită de forma F ( x1 , x2 ) = 0 . Vom
arăta că mulţimea zerourilor funcţiei F este reuniunea imaginilor a două drumuri
în E 2 . Fie a > 0 şi funcţia F : R 2 → R definită prin

F ( x1 , x 2 ) = (x12 + x22 ) − 2a 2 (x12 − x22 ) , (x1 , x 2 ) ∈ R 2 .


2

Mulţimea Z F este reprezentată grafic în figura de mai jos.

Figura 9. Lemniscata lui Bernoulli

Fie un punct ( x1 , x2 ) ∈ Z F ; în coordonate polare avem x1 = r cosθ , x 2 = r sin θ .


Condiţia ( x1 , x2 ) ∈ Z F ne conduce la r 2 = 2a 2 cos 2θ . Fie drumurile:
⎡ π π⎤
α 1 : ⎢− (
, ⎥ → E 2 , α 1 (t ) = a 2 cos 2t cos t , a 2 cos 2t sin t , )
⎣ 4 4⎦
⎡ 3π 5π ⎤
(
α 2 : ⎢ , ⎥ → E 2 , α 2 (t ) = a 2 cos 2t cos t , a 2 cos 2t sin t . )
⎣ 4 4⎦

Se constată că reuniunea imaginilor acestor drumuri coincide cu mulţimea


zerourilor lui F: I (α 1 ) ∪ I (α 2 ) = Z F .

Fie F : D ⊂ R 2 → R o funcţie de clasă C k , k ∈ N ∗ . Dacă mulţimea Z F constă


numai din puncte regulate ale lui F atunci Z F este reuniunea imaginilor unor
drumuri regulate de clasă C k , k ∈ N ∗ . Demonstraţia acestui fapt (propoziţia 3.5)
are la bază teorema funcţiilor implicite ([18], volumul II, pagina 68).
266 6. ELEMENTE DE GEOMETRIE DIFERENŢIALĂ A CURBELOR

3.4. Teoremă. Fie F : D → R o funcţie de clasă C k , k ∈ N ∗ , D ⊂ R 2 o mulţime


deschisă şi conexă şi (x10 , x 20 )∈ D astfel încât:
i) (x10 , x 20 )∈ Z F ;
∂F 0 0
ii) (x1 , x2 ) ≠ 0 .
∂x 2
Atunci există o vecinătate deschisă V1 a lui x10 , o vecinătate deschisă V2 a lui x 20 ,
şi funcţia unică ϕ : V1 → V2 , de clasă C k , astfel încât:
i) ϕ (x10 ) = x 20 ;
ii) F ( x1 , ϕ ( x1 ) ) = 0 , (∀) x1 ∈ V1 .

3.5. Propoziţie. Fie F : D → R o funcţie de clasă C k , k ∈ N ∗ , D ⊂ R 2 mulţime


deschisă şi conexă şi (x10 , x 20 )∈ Z F \ C F . Atunci există o vecinătate deschisă W a
punctului (x10 , x 20 ) astfel încât Z F ∩ W să fie imaginea unui drum regulat simplu
de clasă C k .

Demonstraţie. Deoarece (x10 , x 20 )∉ C F cel puţin una din derivatele parţiale ale lui
F calculate în (x10 , x 20 ) este diferită de zero. Putem presupune, pentru a face o
∂F 0 0
alegere, că (x1 , x2 ) ≠ 0 . Deoarece condiţiile din teorema 3.4 sunt îndeplinite,
∂x 2
există o vecinătate deschisă V1 a lui x10 , o vecinătate deschisă V2 a lui x 20 şi
funcţia unică ϕ : V1 → V2 , de clasă C k , astfel încât

F ( x1 , ϕ ( x1 ) ) = 0 , (∀) x1 ∈ V1 .

Mulţimea W = V1 × V2 este o vecinătate deschisă a punctului (x10 , x 20 ) şi

Z F ∩ W = {( x1 , ϕ ( x1 ) ) x1 ∈ V1 }.

Fie drumul α : V1 → E 2 , α (t ) = ( t , ϕ (t ), ) , t ∈ V1 . Atunci drumul α este de clasă


C k şi I (α ) = Z F ∩ W . Cum α ′(t ) = (1, ϕ ′(t ), ) , t ∈ V1 rezultă că drumul este
regulat. Cum egalitatea α (t1 ) = α (t 2 ) , t1 , t 2 ∈ V1 , implică t1 = t 2 rezultă că aplicaţia
α este injectivă şi deci drumul α este simplu.

Fie F : D → R ca în propoziţia precedentă.


6.4. EXERCIŢII 267

3.6. Definiţie. Ecuaţia

F ( x1 , x 2 ) = 0

se numeşte ecuaţia carteziană implicită a unei curbe plane.

3.7. Observaţie. Condiţia gradF (x10 , x 20 ) ≠ 0 este o condiţie suficientă ca


mulţimea Z F să coincidă într-o vecinătate a punctului (x10 , x20 ) cu imaginea unui
drum regulat. Dacă este un punct critic al lui f nu putem afirma că Z f nu este
local (adică într-o vecinătate a punctului (x10 , x20 )) imaginea unui drum regulat.

3.8. Exemplu ([2], pagina 28). Fie F : R 2 → R , F ( x1 , x 2 ) = ( x1 − x 2 ) . Mulţimea


2

zerourilor funcţiei F este

Z F = {( x1 , x 2 ) ∈ R 2 x1 = x 2 }.

Cum gradF ( x1 , x 2 ) = (2( x1 − x 2 ) , − 2( x1 − x 2 )) rezultă că mulţimea punctelor


critice ale lui F coincide cu mulţimea zerourilor sale. Cu toate acestea Z F este
imaginea curbei (α ) de reprezentare parametrică α : R → E 2 , α (t ) = (t , t ) , t ∈ R .

3.7. Observaţie. O curbă plană poate fi dată prin următoarele reprezentări.


i) Reprezentarea parametrică; curba este dată în acest caz prin ecuaţiile
parametrice:

x1 = x1 (t )
x 2 = x 2 (t ) , t ∈ I .

ii) Reprezentarea implicită; curba este dată prin ecuaţia carteziană implicită:

F ( x1 , x 2 ) = 0 .

iii) Reprezentarea explicită. Fie funcţia continuă f : I → R . Prin graficul acestei


funcţii înţelegem mulţimea

G f = {(t , f (t ) ) t ∈ I }.

Dacă considerăm acum curba (α ) de parametrizare α : I → E 2 , α (t ) = (t , f (t ) ) ,


t ∈ I . Este evident că imaginea curbei (α ) coincide cu graficul funcţiei f.
268 6. ELEMENTE DE GEOMETRIE DIFERENŢIALĂ A CURBELOR

În aceste condiţii spunem că relaţia

x 2 = f ( x1 ), x1 ∈ I

este reprezentarea explicită a curbei (α ) .


iv) Reprezentarea în coordonate polare. Fie funcţia f : I → R continuă,
x1 = r cosθ , x 2 = r sin θ coordonatele carteziene ale unui punct din E 2 în
funcţie de coordonatele sale polare. Vom considera acele puncte din E 2 pentru
care r = f (θ ) , θ ∈ I . Se obţine astfel o curbă (α ) în E 2 de parametrizare:

x1 = f (θ ) cosθ ,
x 2 = f (θ )sin θ .

Relaţia r = f (θ ) , θ ∈ I se numeşte reprezentarea curbei (α ) în coordonate


polare.

3.8. Exemple. 1) Spirala lui Arhimede. Ecuaţia acestei curbe în coordonate


polare este:

r = k θ , k > 0, θ ≥ 0

Figura 10. Spirala lui Arhimede

2) Spirala hiperbolică. Este curba de ecuaţie:

rθ = a , a > 0
6.4. EXERCIŢII 269

Figura 11. Spirala hiperbolică

3) Spirala logaritmică. Este curba de ecuaţie:

r = ce kθ , c > 0, k > 0

Figura 12. Spirala logaritmică

4) Cardioida. În coordonate polare, ecuaţia acestei curbe este:

r = 2a(1 − cosθ ) , θ ∈ [0,2π ] , a > 0 .

Graficul cardioidei este prezentat în figura 2.


270 6. ELEMENTE DE GEOMETRIE DIFERENŢIALĂ A CURBELOR

5) Foliumul lui Descartes are ecuaţia implicită

x13 + x23 − 3ax1 x 2 = 0, a > 0 .

Graficul acestei curbe este prezentat în figura 7.

Reper Frenet. Curbura unei curbe plane

Fie (α ) o curbă regulată, α : I → E 2 o parametrizare a sa şi p = α (t ) , t ∈ [a, b]


un punct oarecare al curbei. Deoarece curba este regulată, vectorul α ′(t ) este
nenul; el aparţine spaţiului tangent la E 2 în punctul p şi se numeşte vector
tangent la curba (α ) în p.

3.9. Definiţie. Se numeşte tangenta la curba regulată (α ) în punctul p = α (t 0 )


dreapta determinată de punctul p = α (t 0 ) şi de vectorul director α ′(t 0 ) .

3.10. Observaţie. Vom nota tangenta la curbă intr-un punct al curbei prin
simbolul (T ) . Dacă α : I → E 2 , α (t ) = ( x1 (t ), x 2 (t )) , t ∈ I este o parametrizare a
curbei regulate (α ) şi xi′ (t 0 ) ≠ 0 , i = 1, 2 ecuaţiile tangentei la curba (α ) în
punctul p = α (t 0 ) sunt:

x1 − x1 (t 0 ) x2 − x 2 (t 0 )
(T ) : = . (1)
x1′ (t 0 ) x 2′ (t 0 )

Panta tangentei la curbă în punctul p = α (t 0 ) este

x′2 (t 0 )
m= . (2)
x1′ (t 0 )

3.11. Definiţie. Se numeşte normala la curba regulată (α ) în punctul p = α (t 0 )


dreapta ce trece prin punctul p şi este perpendiculară pe tangenta la curbă în acest
punct.

3.12. Observaţie. Vom nota normala la curbă intr-un punct al curbei prin
simbolul ( N ) . Panta m′ a acestei drepte se obţine din (2) şi din condiţia de
perpendicularitate a două drepte de pante m şi respectiv m′ : m ⋅ m′ = −1 . Cu
aceste precizări obţinem ecuaţia normalei la curba regulată (α ) în punctul
p = α (t 0 ) sub forma:
6.4. EXERCIŢII 271

(N ) : (x1 − x1 (t 0 )) x1′ (t 0 ) + (x2 − x2 (t 0 )) x′2 (t 0 ) = 0 . (3)

Teorema 2.2 rămâne adevărată şi în cazul curbelor regulate de clasă


C k , k ∈ N ∗ în E 2 : orice curbă regulată admite o parametrizare naturală. Dacă
t

ψ : I → I 1 , ψ (t ) = ∫ α ′(τ ) dτ , t 0 ∈ I atunci parametrul natural pe curba (α ) este


t0

s := ψ (t ) . Fie ϕ : I 1 → I inversa funcţiei ψ şi β : I 1 → E 2 , β = α o ϕ o


parametrizare naturală a curbei (α ) . Atunci versorul β ′(s ) , s ∈ I 1 este tangent la
curbă în punctul p = β (s ) , s ∈ I1 .

3.13. Definiţie. Vectorul t (s ) = β ′(s ) , s ∈ I 1 se numeşte versorul tangentei la


curbă în punctul p = β (s ) .

3.14. Observaţie. Din formula α (t ) = β (ψ (t )) , t ∈ I obţinem prin derivare:

α ′(t ) = β ′(ψ (t ))ψ ′(t ) , t ∈ I , (4)

de unde deducem:

1
t (s ) = β ′(s ) = (x1′ (t ) , x′2 (t ) ) . (5)
α ′(t )

Se constată cu uşurinţă că versorul

1
n(s ) = (− x′2 (t ), x1′ (t )) (6)
α ′(t )

este perpendicular pe versorul t.

3.15. Definiţie. Vectorul dat de formula (6) se numeşte versorul normalei la


curbă în punctul p = α (t ) = β (s ) .

Am obţinut prin construcţia de mai sus două câmpuri de vectori t, n pe curba


(α ) cu proprietăţile:
t (s ) ⋅ n (s ) = 0 , s ∈ I 1 ,

t (s ) = n(s ) = 1 , s ∈ I 1 .
272 6. ELEMENTE DE GEOMETRIE DIFERENŢIALĂ A CURBELOR

3.16. Definiţie. Sistemul { t , n, } de câmpuri vectoriale pe curba (α ) se numeşte


reper Frenet al curbei.

3.17. Fie, în spaţiul tangent la E 2 în punctul p, bazele ortonormate formate din


versorii reperului natural şi respectiv din versorii reperului Frenet. Matricea C de
trecere de la prima bază la cea de a doua este

1 ⎛ x1′ (t ) x′2 (t )⎞
C= ⎜⎜ ⎟⎟
α ′(t ) ⎝ − x 2′ (t ) x1′ (t ) ⎠

şi are determinantul pozitiv. Spunem în acest caz că bazele considerate au aceeaşi


orientare.

Fie (α ) o curbă regulată de clasă C k , k ≥ 2 . Derivatele câmpurilor vectoriale


t , n, sunt la rândul lor câmpuri vectoriale pe curba (α ) . Pentru s ∈ I 1 vectorii
t ′(s ) , n′(s ) se dezvoltă ortogonal după sistemul { t, n }:

t ′(s ) = (t ′(s ) ⋅ t (s )) t (s ) + (t ′(s ) ⋅ n(s )) n(s ) ,

n′(s )(s ) = (n′(s ) ⋅ t (s )) t (s ) + (n′(s ) ⋅ n(s )) n(s ) .

Cum t şi n au norma constantă rezultă că: t ′(s ) ⋅ t (s ) = 0 , n′(s ) ⋅ n(s ) = 0 , s ∈ I 1 .


În plus din condiţia de ortogonalitate t (s ) ⋅ n(s ) = 0 , s ∈ I 1 , obţinem
n′(s ) ⋅ t (s ) = − t ′(s ) ⋅ n(s ) , s ∈ I 1 .
Cu ajutorul acestor identităţi şi al funcţiei

k : I 1 → R , k (s ) = t ′(s ) ⋅ n(s ) , s ∈ I 1 , (7)

dezvoltările ortogonale de mai sus se scriu:

t ′(s ) = k (s )n(s ), (8)

n′(s ) = −k (s ) t (s ) , s ∈ I 1 . (9)

3.18 Definiţie. Funcţia k se numeşte curbura curbei (α ) . Formulele (8), (9) se


numesc formulele lui Frenet pentru curbe plane.

3.19. Observaţie. Formulele lui Frenet se pot scrie sub forma matriceală:
6.4. EXERCIŢII 273

⎛ t ′(s ) ⎞ ⎛ 0 k (s ) ⎞ ⎛ t (s ) ⎞
⎜⎜ ⎟⎟ = ⎜⎜ ⎟⎟ ⋅ ⎜⎜ ⎟⎟ , s ∈ I 1 .
⎝ n′(s )⎠ ⎝ − k (s ) 0 ⎠ ⎝ n(s )⎠

3.20. Propoziţie. Dacă (α ) este o curbă regulată de clasă C 2 şi α : I → E 2 ,


α (t ) = ( x1 (t ) , x2 (t ) ) , t ∈ I este o parametrizare a sa atunci:

x1′ (t )x 2′′ (t ) − x1′′(t )x′2 (t )


k (s ) = , s := ψ (t ) , t ∈ I . (10)
[x′ (t ) ]
3
+ x′2 (t )
2 2 2
1

Demonstraţie. Din formula (5) obţinem prin derivare:

⎜ x ′′(t ) − α ′(t ) ⋅ α ′′(t ) x ′ (t ) , x ′′ (t ) − α ′(t ) ⋅ α ′′(t ) x ′ (t )⎟ . (11)


1 ⎛ ⎞
β ′′(s ) =
α ′(t ) ⎜ 1 α ′(t ) α ′(t ) ⎟
2 2 1 2 2 2
⎝ ⎠

Pentru a obţine formula de calcul a curburii este suficient acum să utilizăm (6),
(7) şi (10):

x1′ (t )x ′2′(t ) − x1′′(t )x ′2 (t )


k (s ) = t ′(s ) ⋅ n(s ) = β ′′(s ) ⋅ n(s ) = . (12)
[x′ (t ) ]
3
+ x1′ (t )
2 2 2
1

3.21. Observaţie. i) Fie funcţia continuă f : I → R şi curba (α ) dată prin


reprezentarea explicită x 2 = f ( x1 ) , x1 ∈ I . După cum ştim o reprezentare
parametrică a acestei curbe este dată de aplicaţia α : I → E 2 ,
α (t ) = (t , f (t ) ) , t ∈ I . Deoarece în acest caz x1 (t ) = t , x 2 (t ) = f (t ) formula
curburii devine:

f ′′(t )
k (t ) = ,t∈I . (13)
[1 + f ′ (t )]
3
2 2

ii) Fie funcţia f : I → R continuă şi curba (α ) reprezentată în coordonate polare


prin relaţia r = f (θ ) , θ ∈ I . Deoarece ecuaţiile parametrice ale curbei (α ) sunt

x1 = f (θ ) cosθ ,
x 2 = f (θ )sin θ ,
274 6. ELEMENTE DE GEOMETRIE DIFERENŢIALĂ A CURBELOR

formula (12) devine:

f 2 (θ ) + 2 f ′(θ ) − f (θ ) f ′′(θ )
k (θ ) = . (14)
[ f (θ ) + f ′ (θ )]
3
2 2 2

iii) Să considerăm acum o curbă dată prin ecuaţia carteziană implicită


F ( x1 , x 2 ) = 0 , unde F : D → R este o funcţie ce puţin de clasă C 2 pe domeniul
∂F 0 0
D ⊂ R 2 . Fie (x10 , x 20 )∈ Z F astfel încât (x1 , x2 ) ≠ 0 . Deoarece sunt îndeplinite
∂x 2
ipotezele din teorema funcţiilor implicite, există o vecinătate deschisă V1 a lui
x10 , o vecinătate deschisă V2 a lui x 20 , şi funcţia unică f : V1 → V2 , de clasă C 2 ,
astfel încât ϕ (x10 ) = x 20 , F ( x1 , f ( x1 ) ) = 0 , (∀) x1 ∈ V1 . Din ultima identitate
obţinem prin două derivări succesive:

Fx′1 (x10 , x 20 )
f ′(x ) = −
0
,
Fx′2 (x10 , x 20 )
1

f ′′(x10 ) = −
1
Fx′
3
1
[
Fx′′2 Fx′2 − 2 Fx′1′x2 Fx′1 Fx′2 + Fx′′2 Fx′1 .
2

2
2
]
2

În ultima egalitate toate derivatele parţiale ale funcţiei F sunt calculate în punctul
(x10 , x20 ). Formula pentru calculul curburii unei curbe dată sub forma implicită se
obţine prin înlocuirea expresiilor lui f ′(x10 ) şi f ′′(x10 ) de mai sus în formula (13):

Fx′′2 Fx′2 − 2 Fx′1′x2 Fx′1 Fx′2 + Fx′′2 Fx′1


2 2

k (x10 , x 20 ) = − 1
3
2
. (15)
[ Fx′2 + Fx′2 ]
2 2 2

1 2

Precizăm că toate derivatele care apar în formula (15) se calculează în punctul


(x10 , x20 ).
3.22. Definiţie. Punctul p = α (t 0 ) , t 0 ∈ I se numeşte inflexional dacă în acest
punct curbura curbei este nulă.

3.23. Observaţie. În cazul unei curbe dată în reprezentarea explicită din formula
(13) rezultă că parametrul t 0 ∈ I este inflexional dacă şi numai dacă f ′′(t 0 ) = 0.
6.4. EXERCIŢII 275

Regăsim aici caracterizarea punctelor de inflexiune ale unei funcţii f : I → R de


clasă C 2 . În general, condiţia ca parametrul t 0 ∈ I să fie inflexional este:

x1′ (t 0 )x ′2′(t 0 ) − x1′′(t 0 )x2′ (t 0 ) = 0 .

Această condiţie este echivalentă cu condiţia ca vectorii α ′(t 0 ) şi α ′′(t 0 ) şă fie


liniar dependenţi.

6.4. EXERCIŢII

4.1. Exerciţii rezolvate

1) Să se determine reperul Frenet pentru curba având reprezentarea naturală


⎛4 3 ⎞
β : [0,2π ] → E 3 , β (s ) = ⎜ cos s , 1 − sin s , − cos s ⎟ , s ∈ [0,2π ] .
⎝5 5 ⎠
Rezolvare. Deoarece curba este dată printr-o reprezentare naturală, versorul
tangentei este:

⎛ 4 3 ⎞
t (s ) = β ′(s ) = ⎜ − sin s , − cos s , sin s ⎟ .
⎝ 5 5 ⎠

⎛ 4 3 ⎞
Cum β ′′(s ) = ⎜ − cos s , sin s , cos s ⎟ , rezultă k (s ) = β ′′(s ) = 1 = k 0 şi din
⎝ 5 5 ⎠
formula lui Frenet t ′(s ) = k (s ) n(s ) deducem

⎛ 4 3 ⎞
n(s ) = ⎜ − cos s , sin s , cos s ⎟ .
⎝ 5 5 ⎠
Versorul binormalei este:

⎛ 3 4⎞
b ( s ) = t ( s ) × n (s ) = ⎜ − , 0 , − ⎟ .
⎝ 5 5⎠
Din propoziţia 2.37 deducem că suntem în cazul unei curbe plane cu imaginea
1
situată pe un cerc de rază = 1 . Centrul cercului este punctul
k0
1
p = β (s ) + n(s ) = (0 , 1 , 0 ) .
k0
276 6. ELEMENTE DE GEOMETRIE DIFERENŢIALĂ A CURBELOR

Parametrul natural s este lungimea arcului acestei curbe. Cum s ∈ [0,2π ] şi


lungimea cercului de rază 1 este 2π rezultă că imaginea curbei date coincide cu
cercul de rază 1 şi cu centrul în punctul p = (0 , 1 , 0 ) .

2) Să se determine versorii reperului Frenet, curbura şi torsiunea pentru curba


(α ) având reprezentarea parametrică: α : R → E 3 , α (t ) = (3t − t 3 ,3t 2 ,3t + t 3 ) ,
t∈R.

Rezolvare. Vom utiliza formulele (25)-(29). Avem:

α ′(t ) = (3 − 3t 2 ,6t ,3 + 3t 2 ) ,
α ′′(t ) = (− 6t , 6 , 6t ) ,
α ′′′(t ) = (− 6 , 0 . 6) ,
α ′(t ) × α ′′(t ) = 18(t 2 − 1, − 2t , t 2 + 1),
(α ′(t ) × α ′′(t )) ⋅ α ′′′(t ) = 216 ,
α ′(t ) = 3 2 (t 2 + 1) ,
α ′(t ) × α ′′(t ) = 18 2 (t 2 + 1) .

Înlocuind aceste expresii în formulele (25)-(29) obţinem:

t=
1
(1 − t 2 , 2t ,1 + t 2 ) ,
2 (t + 1)
2

b=
1
(t 2 − 1, − 2t , t 2 + 1) ,
2 (t + 1)
2

n = b×t = 2
1
(− 2t ,1 − t 2 , 0),
t +1
1
k =τ = 2 .
3(t + 1)
2

Observaţie. În exerciţiul 1 am utilizat pentru determinarea versorilor reperului


Frenet o reprezentare naturală a curbei. În aplicaţia de mai sus nu este
recomandabil să urmăm această cale, deoarece calculele ar fi mult mai
complicate. Într-adevăr, pentru t 0 = 0 parametrul natural al curbei este

t t

s := ψ (t ) = ∫ α ′(τ ) dτ = ∫ 3 2 (τ 2 + 1)dτ = 2 (t 3 + 3t ) .
0 0
6.4. EXERCIŢII 277

Pentru a obţine o parametrizare naturală a curbei trebuie să explicităm t din


relaţia precedentă şi să introducem expresia obţinută în parametrizarea α a
curbei. Explicitarea lui t ar duce însă la calcule complicate (ar trbui utilizate
formulele lui Cardano).

3) Fie (α ) o curbă Frenet, α : I → E 3 o parametrizare a sa cu proprietatea că


α ′(t ) = c > 0, (∀) t ∈ I . Să se arate că:
1
t = α′, n =
1
α ′′ , b =
1 α ′′ (α ′,α ′′,α ′′′) .
α ′ × α ′′ , k = 2 , τ = 2
c α ′′ c α ′′ c c α ′′
2

Rezolvare. Prima formulă este evidentă. Condiţia α ′(t ) = c > 0, (∀) t ∈ I este
echivalentă cu α ′(t ) ⋅ α ′(t ) = c 2 , (∀) t ∈ I . Dacă derivăm ultima identitate,
obţinem α ′(t ) ⋅ α ′′(t ) = 0 , (∀) t ∈ I , deci vectorii α ′ şi α ′′ sunt ortogonali. De aici
se obţine a doua formulă. Din ortogonalitatea vectorilor α ′ şi α ′′ şi din
proprietăţile produsului vectorial obţinem α ′ × α ′′ = c α ′′ . Formula a treia este
acum evidentă. Ultimele două formule se obţin din (28) şi (29) în care utilizăm
identitatea α ′ × α ′′ = c α ′′ .

4.2. Exerciţii propuse

1) Să se determine curbura curbei plane avînd reprezentarea parametrică


α : R → E 2 , α (t ) = ( t , t 3 ) , t ∈ R .

2) Fie curba (α ) , β : I 1 → E 3 o reprezentare naturală a sa, t, n, b versorii


reperului Frenet într-un punct oarecare al curbei, τ şi k torsiunea şi respectiv
curbura curbei şi vectorul ω = τ t + kb . Să se arate că:

t′ = ω × t,
n′ = ω × n,
b′ = ω × b .

Vectorul ω se numeşte vector Darboux.

3) Să se calculeze curbura curbelor având următoarele reprezentări parametrice:


a) α : R → E 3 , α (t ) = ( p 1 + tu 1 , p 2 + tu 2 , p 3 + tu 3 ) , pi , ui ∈ R , i = 1, 3 ;
b) α : (0, 2π ) → E 3 , α (t ) = (R cos t , R sin t , 0 ) , t ∈ (0 , 2π ) , R ∈ R .
278 6. ELEMENTE DE GEOMETRIE DIFERENŢIALĂ A CURBELOR

4) Să se găsească o parametrizare naturală pentru curba de ecuaţii parametrice:

x1 (t ) = e t cos t ,
x 2 (t ) = e t sin t ,
x3 (t ) = e t , t ∈ R .

5) Fie β1 : I 1 → E 3 , β 2 : I 2 → E 3 două parametrizări naturale ale aceleiaşi curbe


regulate (α ) . Să se arate că există s 0 ∈ R astfel încât β 2 (s ) = β1 (s + s 0 ) ,
(∀) s ∈ I 2 .
6) Fie curba (α ) de ecuaţii parametrice:

x1 (t ) = p p 2 − q 2 cos t
x 2 (t ) = q p 2 − q 2 (1 + sin t )
x3 (t ) = p 2 + q 2 (1 + sin t ) , t ∈ [0,2π ] , 0 < q < p.

Să se arate că:
x12 x 22
i) imaginea curbei aparţine paraboloidului eliptic 2 + 2 = 2x3 ;
p q
ii) curba este un cerc, calculând curbura şi torsiunea curbei.

⎛ t4 t3 t2 ⎞
7) Fie curba (α ) de reprezentare parametrică α : I → E 3 , α (t ) = ⎜⎜ , , ⎟⎟ . Se
⎝4 3 2⎠
cere:
i) să se determine punctul p ce aparţine imaginii curbei, în care tangenta la curbă
este paralelă cu planul de ecuaţie x1 + 3x2 + 2 x3 = 0 ;
ii) să se determine ecuaţiile tangentei normalei principale, binormalei, planelor
normal, osculator şi rectificator la curba (α ) în punctul p.

8) Să se arate că tangentele la curba de ecuaţii

x1 (t ) = a(sin t + cos t ) ,
x 2 (t ) = a(sin t − cos t ) ,
x 3 = be − t , t ∈ R a > 0 , b > 0 ,

intersectează planul x1Ox2 după cercul x12 + x 22 = 4a 2 .


6.4. EXERCIŢII 279

9) Fie curba plană de ecuaţii

x1 (t ) = a (2 sin t + sin t cos 2 t )


x 2 (t ) = a cos 3 t , t ∈ [0,2π ] , a > 0.

Dacă p şi q sunt punctele de intersecţie al normalelor la curbă cu axele Ox1 şi


Ox2 atunci d ( p, q ) = 2a .

10) Să se arate că normalele la curba de ecuaţii parametrice

x1 (t ) = a(sin t + cos t )
x 2 (t ) = a(sin t − cos t ) , t ∈ [0,2π ] , a > 0,

se află la aceeaşi distanţă faţă de origine.

11) Să se determine ecuaţiile tangentei şi normalei la curbele de ecuaţii


parametrice:

i) x1 (t ) = a cos t ,
x 2 (t ) = b sin t , t ∈ [0,2π ] , a > 0 , b > 0.

ii) x1 (t ) = a cos 3 t ,
x 2 (t ) = a sin 3 t , t ∈ [0,2π ] , a > 0 .

iii) x1 (t ) = a(t − sin t ),


x 2 (t ) = a(1 − cos t ), t ∈ (0,2π ) , a > 0 .

iv) x1 (t ) = at cos t ,
x2 (t ) = at sin t , t ∈ (0,+∞ ) , a > 0 .

12) Să se determine ecuaţiile tangentelor la curba de ecuaţii

x1 (t ) = t ,
x 2 (t ) = t 4 − t + 3 , t ∈ R ,

care trec prin origine.


280 6. ELEMENTE DE GEOMETRIE DIFERENŢIALĂ A CURBELOR

13) Să se determine parametrul natural (pentru t 0 = 0 ) al curbei de ecuaţii


paramerice:

x1 (t ) = 3at 2 ,
x 2 (t ) = 2at 3 , t ∈ R , a > 0.

14) Să se determine o parametrizare naturală a curbei:

x1 (t ) = e t cos t ,
x 2 (t ) = e t sin t , t ∈ (0,+∞ ) .

15) Să se determine curbura curbei de ecuaţii parametrice:

x1 (t ) = a cos t ,
x 2 (t ) = b sin t , t ∈ [0,2π ] .

16) Să se calculeze curbura şi torsiunea curbei de ecuaţii parametrice:

x1 (t ) = 1 + t 2 ,
x 2 (t ) = t ,
x3 (t ) = t 3 , t ∈ R .

17) Să se arate că toate planele normale la curba:

x1 (t ) = a sin 2 t ,
x 2 (t ) = a sin t cos t ,
x3 (t ) = a cos t , t ∈ [0,2π ] ,

trec prin origine.


ANEXĂ

A.1. MATRICE. DETERMINANŢI

Fie K un corp comutativ. În cele ce urmează, prin corpul K vom înţelege unul
dintre corpurile R (corpul numerelor reale) sau C (corpul numerelor complexe).

1.1. Definiţie. Se numeşte matrice cu m linii şi n coloane (sau matrice de tip


m × n ) un tablou cu m linii şi n coloane

⎛ a11 a12 L a1n ⎞


⎜ ⎟
⎜ a 21 a 22 L a2n ⎟
⎜ M M L M ⎟
⎜ ⎟
⎜a an 2 L a nn ⎟⎠
⎝ n1

ale cărui elemente ai j , i = 1, m , j = 1, n aparţin corpului K.


Această matrice se notează A = (aij )i =1,m iar mulţimea matricelor de tipul m × n cu
j =1, n

elemente din corpul K se notează M m ,n ( K ) . Dacă m = n , matricea se numeşte


pătratică de ordinul n şi notăm A = (aij )i , j =1,n ∈ M n ( K ) .

Pentru m = 1 matricea A = (a11 a12 L a1n ) ∈ M 1,n ( K ) se mai numeşte vector


linie iar pentru n = 1 matricea

⎛ a11 ⎞
⎜ ⎟
⎜a ⎟
A = ⎜ 21 ⎟ ∈ M n ,1 ( K )
M
⎜ ⎟
⎜a ⎟
⎝ n1 ⎠

se mai numeşte vector coloană.

Unei matrice A de tip m × n putem să-i asociem sistemul ordonat de vectori linie
din M 1,n ( K ) :
282 ANEXĂ

l i = (ai1 ai 2 L ain ) , i = 1, n

şi sistemul ordonat de vectori coloană din M m ,1 ( K )

⎛ a1 j ⎞
⎜ ⎟
⎜ a2 j ⎟
c j = ⎜ ⎟ , j = 1, n .
M
⎜ ⎟
⎜a ⎟
⎝ nj ⎠

1.2. Definiţie. Două matrice A = (aij )i =1,m , B = (bij )i =1,m de acelaşi tip se zic egale
j =1, n j =1, n

dacă au elementele corespunzătoare egale, adică:

aij = bij , (∀) i = 1, m , (∀) j = 1, n .

1.3. Definiţie. Se numeşte suma matricei A = (aij )i =1,m cu matricea B = (bij )i =1,m ,
j =1, n j =1, n

ambele cu elemente din K, matricea, notată cu A + B , dată de regula:

A + B = (aij + bij )i =1,m .


j =1, n

1.4. Definiţie. Se numeşte matrice nulă de tip m × n matricea care are toate
elementele egale cu zero şi notăm această matrice cu 0 M m ,n ( K ) .

Se verifică imediat că operaţia de adunare defineşte pe mulţimea M m ,n ( K ) o


structură de grup comutativ.

1.5. Definiţie. Se numeşte produsul matricei A = (aij )i =1,m cu scalarul λ ∈ K


j =1, n

matricea, notată cu λ A , dată de regula:

λ A = (λ aij )i =1,m .
j =1, n

Se constată cu uşurinţă că operaţiile de adunare a matricelor şi de înmulţire a


matricelor cu scalari definesc în mulţimea matricelor de acelaşi tip o structură de
spaţiu liniar.

1.6. Definiţie. Se numeşte transpusa matricei A = (aij )i =1,m ∈ M m ,n ( K ) matricea


j =1, n
A.2. SISTEME DE ECUAŢII LINIARE 283

notată At = (a ji ) j =1,n ∈ M n ,m ( K ) , care se obţine din A prin transformarea liniilor în


i =1, m

coloane.

1.7. Definiţie. Se numeşte produsul matricei A = (aij )i =1,m de tipul m × n cu


j =1, n

matricea B = (bij )i =1,n de tipul n × p matricea notată cu AB, de tipul m × p , dată


j =1, p

de regula:

AB = (cij )i =1,m , cij = ∑ aik bkj .


n

j =1, p k =1

Fie S n grupul permutărilor cu n elemente şi permutarea σ ∈ S n :

⎛ 1 2 3 L n ⎞
σ = ⎜⎜ ⎟⎟ .
⎝ σ (1) σ (2 ) σ (3) L σ (n )⎠

1.8. Definiţie. Perechea (i, j ) se numeşte inversiune a permutării σ dacă i < j şi


σ (i ) > σ ( j ) . Notăm cu inv(σ ) numărul inversiunilor permutării σ .

1.9. Definiţie. Se numeşte signatura (semnul) permutării σ şi notăm ε (σ )


expresia:

ε (σ ) = (− 1)
inv (σ )
.

Se constată cu uşurinţă că avem:

σ ( j ) − σ (i )
ε (σ ) = ∏ .
1≤i < j ≤ n j −i

Fie A∈ M n ( K ) o matrice pătratică de ordinul n cu elemente din corpul K.

1.10. Definiţie. Numărul

det A = ∑ ε (σ )a σ ( ) a σ (
σ ∈S n
1 1 2 2 ) L a nσ (n )

se numeşte determinantul matricei A sau determinant de ordin n şi se mai


notează astfel:
284 ANEXĂ

a11 a12 L a1n


a 21 a 22 L a2n
det A = .
M M L M
a n1 a n 2 L a nn

Uneori det A se mai notează prescurtat A sau aij i , j =1, n


.

1.11. Proprietăţile determinanţilor. 1) Determinantul unei matrice coincide cu


determinantul matricei transpuse, adică det A = det A t .
2) Dacă toate elementele unei linii (sau coloane) dintr-o matrice sunt nule, atunci
determinantul matricei este nul.
3) Dacă într-o matrice schimbăm două linii (sau coloane) între ele obţinem o
matrice care are determinantul egal cu opusul determinantului matricei iniţiale.
4) Dacă o matrice are două linii (sau coloane) identice atunci determinantul său
este nul.
5) Dacă toate elementele unei linii (sau coloane) ale unei matrice sunt înmulţite
cu un scalar λ ∈ K se obţine o matrice al cărui determinant este egal cu λ
înmulţit cu determinantul matricei iniţiale.
6) Dacă elementele a două linii (sau coloane) ale unei matrice sunt proporţionale
atunci determinantul matricei este nul.
7) Dacă o linie (sau coloană) a unei matrice este o combinaţie liniară de celelalte
linii (sau coloane), atunci determinantul matricei iniţiale este nul.
8) Dacă la o linie (sau coloană) a matrice A adunăm elementele altei linii (sau
coloane) înmulţite cu acelaşi scalar, atunci matricea obţinută are acelaşi
determinant ca şi matricea A.

Fie determinantul de ordinul n

a11 a12 L a1n


a 21 a 22 L a2n
d= .
M M L M
a n1 a n 2 L a nn

1.12. Definiţie. Determinantul de ordinul n − 1 care se obţine suprimând linia i şi


coloana j din determinantul d se numeşte minorul elementului aij şi se notează
d ij . Elementul δ ij = (− 1) d ij se numeşte complementul algebric al elementului
i+ j

aij în determinantul d.
A.2. SISTEME DE ECUAŢII LINIARE 285

1.13. Teoremă. Fie determinantul de ordinul n: d = aij i , j =1, n


. Atunci pentru
orice 1 ≤ i ≤ n are loc egalitatea:

d = ai1δ i1 + ai 2δ i 2 + L + ainδ in . (1)

Egalitatea (1) poartă denumirea de dezvoltarea determinantului d după linia i.

1.14. Corolar. Fie d = aij i , j =1, n


un determinant de ordinul n. Pentru orice i ≠ j
are loc egalitatea:

ai1δ j1 + ai 2δ j 2 + L + ainδ jn = 0 . (2)

Demonstraţie. Fie determinantul

a11 a12 L a1n


L L L L
a i1 ai 2 L ain
d′ = L L L L ,
a i1 ai 2 L ain
L L L L
a n1 a n 2 L a nn

care s-a obţinut din d prin înlocuirea liniei j cu linia i. Cum d ′ are două linii
egale, din proprietatea 4) a determinanţilor rezultă d ′ = 0 . Egalitatea (2) se obţine
acum dezvoltând determinantul după linia j cu ajutorul formulei (1).

1.15. Teoremă. Fie determinantul de ordinul n: d = aij i , j =1, n


. Atunci pentru
orice 1 ≤ j ≤ n are loc egalitatea:

d = a1 j δ 1 j + a 2 j δ 2 j + L + a nj δ nj . (3)

Egalitatea (3) poartă denumirea de dezvoltarea determinantului d după coloana j.

1.16. Propoziţie. Fie n un număr natural nenul. Atunci pentru orice două matrice
A, B ∈ M n ( K ) are loc egalitatea:

det( AB ) = det A ⋅ det B .


286 ANEXĂ

1.17. Definiţie. Matricea pătrată A ∈ M n ( K ) se numeşte inversabilă dacă există


o matrice B ∈ M n ( K ) astfel încât

AB = BA = I n ,

unde I n este matricea unitate de ordinul n. Matricea B, dacă există, se notează cu


A −1 şi se numeşte inversa matricei A.

1.18. Teoremă. Matricea A ∈ M n ( K ) este inversabilă dacă şi numai dacă


det A ≠ 0 . În acest caz

A −1 =
1
(aij+ )i , j = 1, n
det A

şi aij+ este complementul algebric al elementului a ji , adică aij+ = (− 1) d ji = δ ji .


i+ j

Demonstraţie. Presupunem că matricea A este inversabilă. Există B ∈ M n ( K )


astfel încât AB = BA = I n . În acest caz avem det ( AB ) = det I n = 1 sau (propoziţia
1.16) det A ⋅ det B = 1 şi cum det A ∈ K , rezultă det A ≠ 0 .
Invers, presupunem d = det A ≠ 0 . Fie A + = (aij+ )i , j =1,n , aij+ = (− 1) d ji = δ ji şi
i+ j

AA + = B = (bij )i , j =1,n . Atunci:


1
det A

1 n 1 n 1 n
∑ ∑ aik (− 1) d jk = ∑ aik δ jk .
j+k
bij = aik a kj+ =
det A k =1 det A k =1 det A k =1

Dacă j = i atunci din formula (1), care dă dezvoltarea determinantului după linia
i, obţinem bii = 1 . Dacă j ≠ i din corolarul 1.14 (formula (2)) obţinem bij = 0 .
1 1
Rezultă B = I n , adică AA + = I n . Analog se arată că A + A = I n , fapt ce
det A det A
încheie demonstraţia.

1.19. Definiţie. Fie A = (aij )i , j =1,n ∈ M n ( K ) . Matricea A + = (aij+ )i , j =1,n = (δ ji )i , j =1,n se


numeşte reciproca matricei A.

Dacă matricea A ∈ M nj ( K ) este inversabilă, din teorema 1.18 şi definiţia 1.19


rezultă:
A.2. SISTEME DE ECUAŢII LINIARE 287

1
A −1 = A+ .
det A

1.20. Teoremă (regula lui Cramer): Fie un sistem de n ecuaţii liniare cu n


necunoscute, cu coeficienţi din corpul K:

a11 x1 + a12 x 2 + L + a1n x n = b1


a 21 x1 + a 22 x 2 + L + a 2 n x n = b2
(4)
LLLLLLLLLLLL
a n1 x1 + a n 2 x 2 + L + a nn xn = bn .

Notăm cu A = (aij )i , j =1,n matricea coeficienţilor. Dacă d = det A ≠ 0 atunci


sistemul (4) are o unică soluţie dată de egalităţile:

d1 d d
x1 = , x 2 = 2 , L, xn = n ,
d d d

unde

b1 a12 L a1n a11 L a1,i −1 b1 a1,i −1 L a1n


b2 a 22 L a2n a 21 L a 2,i −1 b2 a 2 ,i −1 L a 2 n
d1 = , di = ,
M M L M M M M M M L M
bn a n 2 L a nn a n1 L a n ,i −1 bn a n ,i −1 L a nn

a11 a12 L b1
a 21 a 22 L b2
dn = .
M M L M
a n1 a n 2 L bn

Demonstraţie. Cu notaţiile X = ( x1 x2 L xn ) , B = (b1 b2 Lbn ) sistemul (4) se


t t

scrie sub forma

AX = B . (5)

1
Dacă înmulţim în (5) la stânga cu A −1 obţinem X = A −1 B şi cum A −1 = A+ ,
det A
288 ANEXĂ

A + = (δ ji )i , j =1,n , δ ij = (− 1) d ij deducem:
i+ j

⎛ n ⎞
⎜ ∑ b j δ j1 ⎟ ⎛⎜ d1 ⎞⎟
⎜ jn=1 ⎟ ⎜d ⎟
⎜ b j δ j 2 ⎟⎟ ⎜ 2 ⎟
d
X = A −1 B = ⎜ ∑
1
= ⎜ d ⎟,
d ⎜ j =1 ⎟ ⎜ M ⎟
⎜ n M ⎟ ⎜d ⎟
⎜⎜ ∑ b j δ jn ⎟⎟ ⎜ n ⎟
⎝ j =1 ⎠ ⎝d ⎠

sau

d1 d d
x1 = , x 2 = 2 , L, xn = n .
d d d

Fie matricea A = (aij )i =1,m ∈ M m ,n ( K ) .


j =1, n

1.21. Definiţie. Se numeşte matrice extrasă din matricea A (sau submatrice a


matricei A) orice matrice B obţinută din A eliminând anumite linii şi coloane şi
păstrând ordinea liniilor şi coloanelor rămase. Numim minor de ordin p, p ≥ 1 al
matricei A determinantul unei submatrice de ordinul p a lui A.

1.22. Definiţie. Fie A ∈ M m ,n ( K ) o matrice nenulă. Se numeşte rangul matricei A


numărul r egal cu ordinul maxim al minorilor nenuli ai matricei A.

Vom nota r = rang A . Dacă A = 0 M m ,n ( K ) atunci luăm prin definiţie rangA = 0 .

Cu alte cuvinte, rangul unei matrice are următoarele proprietăţi:


1) există un minor de ordinul r nenul;
2) orice minor de ordin mai mare ca r este egal cu zero.

Din definiţia rangului şi din proprietăţile determinanţilor rezultă următoarele


proprietăţi ale rangului unei matrice:
1) 0 ≤ rangA ≤ min(m, n ) ;
2) rangA = rangA t ;
30 rangul unei matrice nu se modifică prin permutarea liniilor sau coloanelor
matricei;
4) rangul unei matrice nu se schimbă dacă înmulţim o linie (sau coloană) cu un
scalar nenul din K;
A.2. SISTEME DE ECUAŢII LINIARE 289

5) rang A = r dacă şi numai dacă există un minor de ordinul r nenul al lui A şi


orice minor de ordinul r + 1 al lui A este nul.

Fie A = (aij )i =1,m ∈ M m ,n ( K ) . Vom nota cu l 1 , l 2 ,L, l m ∈ M 1,n ( K ) vectorii linie şi


j =1, n

cu c1 , c 2 ,L , c n ∈ M m ,1 ( K ) vectorii coloană asociaţi matricei A. Considerăm


acoperirile liniare L ( l 1 , l 2 ,L , l m ) şi L( c 1 , c 2 ,L , c n ) ale acestor vectori, mulţimi
care sunt subspaţii liniare în M 1,n ( K ) şi respectiv M m ,1 ( K ) .

1.23. Teoremă (Kronecker). Rangul matricei A ∈ M m ,n ( K ) este egal cu numărul


maxim de coloane (respectiv linii) care sunt liniar independente, adică:

rangA = dim L( l 1 , l 2 ,L , l m ) = dim L( c1 , c 2 ,L , c n ) .

Demonstraţie. Fie r = rang A . Pentru A = 0 M m ,n ( K ) afirmaţia din teoremă este


evidentă. Dacă A ≠ 0 M m ,n ( K ) atunci r ≠ 0 şi deci există un minor de ordinul r
nenul. Deoarece rangul unei matrice nu se schimbă prin permutarea liniilor sau
coloanelor, putem presupune că submatricea

⎛ a11 a12 L a1r ⎞


⎜ ⎟
⎜a a 22 L a2r ⎟
B = ⎜ 21
M M L M ⎟
⎜ ⎟
⎜a ar 2 L a rr ⎟⎠
⎝ r1

este nesingulară. Pentru a arăta că r = dim L( c1 , c 2 ,L, c n ) trebuie să arătăm că


vectorii c1 , c2 ,L, cr sunt liniar independenţi şi că formează un sistem de
generatori pentru subspaţiul liniar L( c 1 , c 2 ,L , c n ) .
Fie combinaţia liniară α 1c1 + α 2 c2 + L + α r c r = 0 M m ,1 ( K ) ; scrisă pe componente,
egalitatea de mai sus reprezintă un sistem omogen de r ecuaţii liniare. Primele r
ecuaţii ale acestui sistem sunt:

a11α 1 + a12α 2 + L + a1r α r = 0


a 21α 1 + a 22α 2 + L + a 2 r α r = 0
LLLLLLLLLLLL
a r1α 1 + a r 2α 2 + L + a rr α r = 0 .

Cum det B ≠ 0 , pentru rezolvarea acestui sistem putem aplica regula lui Cramer
290 ANEXĂ

şi obţinem astfel α 1 = α 2 = L = α r = 0 , rezultat care implică liniar independenţa


vectorilor c1 , c2 ,L, cr .
Să arătăm acum că vectorii c1 , c2 ,L, cr formează un sistem de generatori pentru
subspaţiul liniar L( c 1 , c 2 ,L, c n ) . Pentru aceasta este suficient să arătăm că orice
coloană c j , j = r + 1, n este o combinaţie liniară a coloanelor c1 , c2 ,L, cr . Fie
matricea pătratică

⎛ a11 a12 L a1r a1 j ⎞


⎜ ⎟
⎜ a 21 a 22 L a 2 r a2 j ⎟
M =⎜ M M L M M ⎟,
⎜ ⎟
⎜ a r1 a r 2 L a rr a rj ⎟
⎜a ai 2 L air aij ⎟⎠
⎝ i1

unde i = 1, n şi j = r + 1, n . Dacă i ≤ r avem det A = 0 deoarece M are două linii


egale; dacă i > r avem det A = 0 deoarece rang A = r şi M este o matrice
pătratică de ordinul r + 1 . Dacă notăm cu α complementul algebric al lui aij şi
cu α k complementul algebric al lui aik în M, atunci prin dezvoltarea lui det M
după ultima linie obţinem:

ai1α 1 + ai 2α 2 + L + air α r = 0 .

Deoarece α ≠ 0 , egalitatea de mai sus ne dă

α1 α2 αr
aij = − a i1 − ai 2 − L − a = 0 , (∀) i = 1, m
α α α ir

şi cum α 1 , α 2 ,L, α r nu depind de i, rezultă:

α1 α2 αr
cj = − c1 − c2 − L − c = 0 , (∀) i = 1, m .
α α α r

Ultima egalitatea arată că vectorii c1 , c2 ,L, cr formează un sistem de generatori


pentru subspaţiul liniar L( c 1 , c 2 ,L , c n ) .
Deoarece egalitatea r = dim L ( l 1 , l 2 ,L, l m ) se arată în mod analog, teorema este
demonstrată.
A.2. SISTEME DE ECUAŢII LINIARE 291

1.24. Corolar. Determinantul unei matrice pătratice este nul dacă şi numai dacă
una dintre liniile (respectiv coloanele sale) este o combinaţie liniară de celelalte
linii (respectiv coloane).

Demonstraţie. Fie A = (aij )i , j =1,n ∈ M n ( K ) . Vom face demonstraţia pentru liniile


matricei A. Dacă det A = 0 atunci rangA ≤ n − 1 . Din teorema 1.23 rezultă că
dim L( l 1 , l 2 ,L, l n ) ≤ n − 1 , deci vectorii l 1 , l 2 ,L, l n sunt liniar dependenţi; acest
rezultat arată că unul din aceşti vectori este o combinaţie liniară a celorlalţi.
Reciproc, să presupunem că vectorii l 1 , l 2 ,L , l n sunt liniar dependenţi. Atunci
r = dim L ( l 1 , l 2 ,L , l n ) ≤ n − 1 şi de aici rezultă det A = 0 .

A.2. SISTEME DE ECUAŢII LINIARE

Fie sistemul de m ecuaţii cu n necunoscute

a11 x1 + a12 x2 + L + a1n x n = b1


a 21 x1 + a 22 x2 + L + a 2 n x n = b2
(1)
LLLLLLL LLLLL
a m1 x1 + a m 2 x 2 + L + a mn x n = bm ,

unde aij , bi ∈ K , (∀ ) i = 1, m , j = 1, n .

2.1. Definiţie. Sistemul (1) se numeşte compatibil dacă are cel puţin o soluţie.
Dacă b1 = b2 = L = bm = 0 sistemul (1) capătă forma

a11 x1 + a12 x2 + L + a1n xn = 0


a 21 x1 + a 22 x 2 + L + a 2 n xn = 0
(2)
LLLLLLL LLLLL
a m1 x1 + a m 2 x2 + L + a mn x n = 0 .

şi se mai numeşte sistem omogen ataşat sistemului (1).

Se constată cu uşurinţă că orice sistem omogen este compatibil deoarece admite


soluţia banală x1 = x2 = L = xn = 0 .

Fie A = (aij )i =1,m matricea coeficienţilor sistemului (1) şi A e matricea


j =1, n
292 ANEXĂ

⎛ a11 a12 L a1n b1 ⎞


⎜ ⎟
⎜a a 22 L a2 n b2 ⎟
A e = ⎜ 21 .
M M M M M ⎟
⎜ ⎟
⎜a am2 L a mn bm ⎟⎠
⎝ m1

2.2. Definiţie. Matricea A e se numeşte matricea extinsă a sistemului (1).

Dacă notăm cu c1 , c 2 ,L, c n coloanele matricei A şi cu b = (b1 b2 Lbm ) coloana


t

termenilor liberi atunci sistemul (1) se scrie sub forma:


n

∑c x
i =1
i i =b. (3)

2.3. Teoremă (Kronecker-Capelli). Sistemul (1) este compatibil dacă şi numai


dacă rangA = rangA e .

Demonstraţie. Presupunem că sistemul (1) este compatibil; fie (ξ1 , ξ 2 ,L, ξ n ) o


soluţie a sa. Din (3) obţinem
n
b = ∑ ξ i ci ,
i =1

deci coloana b este o combinaţie liniară a coloanelor matricei A, ceea ce implică


b ∈ L(c1 , c2 ,L, cn ) . De aici rezultă L(c1 , c 2 ,L, c n ) = L(c1 , c 2 ,L, c n , b ) şi cu
teorema lui Kronecker 1.23 obţinem rangA = rangA e .
Reciproc, presupunem că rangA = rangA e . Din teorema lui Kronecker rezultă
dim L(c1 , c 2 ,L, c n ) = dim L(c1 , c2 ,L, c n , b ) şi cum, în mod evident, avem
L(c1 , c 2 ,L, cn ) ⊆ L(c1 , c 2 ,L, cn , b ) obţinem L(c1 , c 2 ,L, c n ) = L(c1 , c 2 ,L, c n , b ) .
Deci b ∈ L(c1 , c2 ,L, c n ) , adică există α 1 , α 2 ,L, α n ∈ K astfel încât

b = c1α 1 + c 2α 2 + L + c nα n .

Aceasta înseamnă că (α 1 , α 2 ,L , α n ) este o soluţie a sistemului (1), deci acest


sistem este compatibil. Teorema este demonstrată.

Fie A = (aij )i =1,m matricea coeficienţilor sistemului (1); definim operatorul


j =1, n

U : M n ,1 ( K ) → M m ,1 ( K ) astfel:
A.2. SISTEME DE ECUAŢII LINIARE 293

U ( x ) = A x , (∀) x = ( x1 x 2 L x n ) ∈ M n ,1 ( K ) .
t
(4)

Acest operator este evident liniar. În plus imaginea operatorului U este:

ImU = L(c1 , c 2 ,L, c n ) .

Se constată cu uşurinţă că mulţimea soluţiilor sistemului liniar omogen (2) este


egală cu nucleul operatorului U.

2.4. Teoremă. Subspaţiul liniar al soluţiilor sistemului (2) are dimensiunea egală
cu n − rangA .

Demonstraţie. Sistemul (2) fiind omogen, mulţimea soluţiilor sale coincide cu


nucleul operatorului U. Deoarece spaţiul liniar M n ,1 ( K ) are dimensiunea n iar
operatorul U este liniar, teorema 2.5, capitolul 2, ne dă:

dim ImU + dim KerU = n .

Cum dim ImU = dim L(c1 , c 2 ,L, c n ) = rangA , rezultă dim KerU = n − rangA şi
teorema este demonstrată.

2.5. Corolar. Un sistem liniar omogen are numai soluţia banală dacă şi numai
dacă n = rangA .

2.6. Definiţie. Numim sistem fundamental de soluţii al unui sistem liniar omogen
orice bază a subspaţiului liniar al soluţiilor acestui sistem.

Considerăm acum sistemul (1) compatibil, S mulţimea soluţiilor acestui sistem şi


x0 = (x10 x 20 L x n0 ) ∈ S o soluţie particulară. Fie mulţimea
t

x0 + KerU = {x0 + x x ∈ KerU },

unde U este operatorul dat de relaţia (4).

2.7.Teoremă. Dacă sistemul (1) este compatibil atunci S = x0 + KerU .

2.8. Corolar. Dacă sistemul (1) este compatibil, atunci el are o soluţie unică dacă
şi numai dacă n = rangA .

2.9. Corolar. Fie m = n . Sistemul (1) are o soluţie unică dacă şi numai dacă
294 ANEXĂ

det A ≠ 0 . În acest caz soluţia sistemului (1)se obţine cu regula lui Cramer.

2.10. Observaţie. Fie rang A = r , {ξ i }


= (ξ i1 , ξ i 2 ,L, ξ ir ) i = 1, r , un sistem
fundamental de soluţii al sistemului (2). Cu teorema 2.7 rezultă că mulţimea
soluţiilor sistemului (1), în cazul în care aceste este compatibil, este:

{
S = x0 + α 1ξ1 + α 2ξ 2 + L + α r ξ r α i ∈ R , i = 1,n . }
Fie sistemul (1), cu rangA = rangA e = r . Printr-o eventuală renumerotare a
ecuaţiilor şi necunoscutelor sistemului, putem presupune că matricea

⎛ a11 a12 L a1r ⎞


⎜ ⎟
⎜a a 22 L a2 r ⎟
M = ⎜ 21
M M L M ⎟
⎜ ⎟
⎜a ar 2 L a rr ⎟⎠
⎝ r1

are rangul r. În acest caz det M se numeşte minor principal al sistemului (1).
Asociem sistemului (1) sistemul:

a11 x1 + a12 x 2 + L + a1n x n = b1


a 21 x1 + a 22 x2 + L + a 2 n xn = b2
(5)
LLLLLLL LLLLL
a r1 x1 + a r 2 x2 + L + a rn xn = br .

Necunoscutele x1 , x 2 ,L, x r se numesc necunoscute principale , iar x r +1 ,L, x n


necunoscute secundare.
Se poate arăta că mulţimea soluţiilor sistemului (5) coincide cu mulţimea
soluţiilor sistemului (1). Cu observaţia 2.10 rezultă că pentru a determina soluţia
generală a sistemului (1) este suficient să determinăm o soluţie particulară a sa şi
un sistem fundamental de soluţii al sistemului (5). Acest sistem fundamental se
determină astfel:
1) se atribuie unei necunoscute secundare valoarea 1 iar celelalte necunoscute
secundare se iau egale cu 0;
2) se rezolvă sistemul (5) cu regula lui Cramer;
3) soluţiile astfel obţinute, care sunt în număr de n − r , formează sistemul
fundamental de soluţii căutat.
BIBLIOGRAFIE

1. Bălan, V., Algebră liniară, geometrie analitică, Editura Fair Partners, Bucu-
reşti, 1999.
2. Blaga, A.P., Lectures on Classical Differential Geometry, Editura
Risoprint, Cluj-Napoca, 2005.
3. Brânzănescu, V., Stănăşilă, O., Matematici speciale, Editura All, Bucu-
reşti, 1998.
4. do Carmo, M., Differenţial Geometry of Curves and Surfaces, Prentice
Hall, Englewood Cliffs, New Jersey, 1976.
5. Colojoară, I., Analiză matematică, Editura Didactică şi Pedagogică,
Bucureşti, 1983.
6. Cruceanu, V., Elemente de algebră liniară şi geometrie, Editura Didactică
şi Pedagogică, Bucureşti, 1973.
7. Démidovitch, B., Maron, I., Eléments de calcul numérique, Éditions
Mir, Moscou, 1979.
8. Gibson, C.G., Elementary Geometry of Differentiable Curves. An
Undergraduate Introduction, Cambridge University Press, Cambridge,
2001.
9. Grigore, Gh., Lecţii de analiză numerică, Tipografia Universităţii Bucu-
reşti, 1990.
10. Horn, R. A., Johnson C.R., Analiză matricială, Editura Theta, Bucu-
reşti, 2001.
11. Ianuş, S., Curs de geometrie diferenţială, Editura Universităţii Bucureşti,
1981.
12. Ion, D. I., Nicolae, R., Algebra, Editura Didactică şi Pedagogică, Bucu-
reşti, 1981.
13. Kühnel, W., Differenţial geometry. Curves, Surfaces, Manifolds, American
Mathematical Society, 2005.
14. Miron, R., Geometrie analitică, Editura Didactică şi Pedagogică,
Bucureşti, 1976.
15. Năstăsescu, C., Niţă C.,Vraciu, C., Bazele algebrei, Vol. 1, Editura
Academiei, Bucureşti, 1986.
16. Nicolescu, M., Dinculeanu, N., Marcus, S., Analiză matematică,
Editura Didactică şi Pedagogică, Bucureşti, 1971.
296 BIBLIOGRAFIE

17. O’Neill, B., Elementary Differential Geometry, Academic Press, New


York, 1967.
18. Pascu, M., Analiză matematică (două volume), Editura Universităţii
Petrol-Gaze din Ploieşti, 2008.
19. Ristea, I., Isbăşoiu, D., Algebră liniară, Editura Premier, Ploieşti,
1999.
20. Ristea, I., Isbăşoiu, D., Geometrie analitică şi diferenţială, Editura
Premier, Ploieşti, 2000.
21. Soós, E., Teodosiu, P., Calcul tensorial cu aplicaţii în mecanica soli-
delor, Editura Ştiinţifică şi Enciclopedică, Bucureşti, 1983.
22. Şabac, I. Gh., Matematici speciale, Editura Didactică şi Pedagogică, Bucu-
reşti, 1981.
23. Udrişte, C. , Algebră, geometrie şi ecuaţii diferenţiale, Editura Didactică şi
Pedagogică, Bucureşti, 1982.
24. Vîlcu, A.D., Vîlcu, G.E, Geometrie analitică şi vectorială, Editura
Printech, Bucureşti, 2004.
NOTAŢII

V spaţiu liniar
Vn spaţiu liniar de dimensiune n
H spaţiu Hilbert
K corp comutativ
R corpul numerelor reale
Rn spaţiul liniar aritmetic de dimensiune n
C corpul numerelor complexe
N mulţimea numerelor naturale
M m ,n ( K ) spaţiul liniar al matricelor de tip m × n cu elemente din K
M n (K ) spaţiul liniar al matricelor de ordinul n cu elemente din K
L ( A) acoperirea liniară a mulţimii A
0V elementul neutru al spaţiului liniar V
A = (aij )i =1,m matrice cu m linii şi n coloane
j =1, n

At transpusa matricei A
A∗ adjuncta matricei A
A+ reciproca matricei A
TrA urma matricei A
det A determinantul matricei A
rangA rangul matricei A
In matricea unitate de ordinul n
C [a, b ] spaţiul liniar al funcţiilor reale continue de o variabilă x ∈ [a, b]
spaţiul liniar al funcţiilor reale continue, cu derivata continuă pe
C 1 [a, b]
[a, b]
C (R) spaţiul liniar al funcţiilor reale continue de o variabilă reală
P( R ) spaţiul liniar al polinoamelor
Pn ( R ) spaţiul liniar al polinoamelor de grad cel mult n
L2 [a, b ] spaţiul liniar al funcţiilor de pătrat integrabil
l (R ) spaţiul liniar al şirurilor de numere reale
l (C ) spaţiul liniar al şirurilor de numere complexe
T p (E 3 ) spaţiul tangent la E 3 în punctul p
GL (R n ) grupul liniar pe R n
O (R n ) grupul ortogonal pe R n
SO (R n ) grupul special ortogonal pe R n
298 NOTAŢII

card(S ) numărul de elemente ale mulţimii S


L(V ,W ) spaţiul liniar al operatorilor liniari U : V → W
End(V ) spaţiul liniar al endomorfismelor spaţiului V
U∗ adjunctul operatorului liniar U
KerU nucleul operatorului liniar U
ImU imaginea operatorului liniar U
σ (U ) spectrul operatorului U
eA exponenţiala matricei A
ε (σ ) signatura permutării σ
z conjugatul numărului complex z
ma (λ ) multiplicitatea algebrică a valorii proprii λ
m g (λ ) multiplicitatea geometrică a valorii proprii λ
<⋅,⋅> produs scalar
M⊥ complementul ortogonal al subspaţiului liniar M
⊕ sumă directă de subspaţii liniare
Γ(e1 , e2 ,L, en ) determinantul Gram al vectorilor e1 , e2 ,L, en
⋅ modulul
⋅ norma

⎯⎯→ convergenţa în normă
min valoare minimă
max valoare maximă
inf margine inferioară
sup margine superioară
INDEX

acoperirea liniară, 15 con, 222


adjunctul unui operator, 85 conică, 200
adunarea vectorilor, 9 conică cu centru, 206
algebră normată, 78 conice echivalente izometric, 203
algebră, 78 conică degenerată, 210
aplicaţia identitate, 186 conică nedegenerată, 210
aplicaţie liniară, 61 convergenţă în normă, 34
astroida, 259 coordonate carteziene, 175
automorfism, 61 coordonate curbilinii, 182
coordonate curbilinii ortogonale, 182
bază, 22 coordonate euclidiene, 41, 179
bază canonică, 22 coordonatele unui vector, 23
bază duală, 82 criteriul lui Sylvester, 166
bază naturală, 183 cuadrică, 215
bază ortonormată, 40 cuadrică cu centru, 218
bază reciprocă, 230 cuadrică cu dreaptă de centre, 218
binormală, 245 cuadrică cu plan de centre, 218
bloc Jordan, 111 cuadrică fără dreaptă de centre, 218
cuadrică degenerată, 218
cardioida, 260, 269 cuadrică nedegenerată, 218
câmp vectorial, 177, 246 cuadrice echivalente izometric, 217
câtul Rayleygh-Ritz, 126 curba lui Viviani
centru de simetrie, 205 curbă, 236
celulă Jordan, 111 curbă coordonată, 182
cerc, 201 curbă de clasă C k
cicloida, 261 curbă de gradul doi, 200
cicloida a lungită, 262 curbă Frenet,242
cicloida scurtată, 262 curbă închisă, 237
cilindru eliptic, 222 curbă netedă, 238
cilindru hiperbolic, 222 curbă plană, 253
cilindru parabolic, 222 curbă regulată, 238
cisoida lui Diocles, 262 curbă simplă, 237
coeficienţi Fourier, 38 curbura unei curbe, 248
coeficienţii lui Lamé, 183
combinaţie liniară, 15 defectul unui operator, 65
complement algebric,284 determinant de ordin n, 283
complementul ortogonal, 42, 159 determinantul Gram, 51
complexificatul unui endomorfism, 103 determinant funcţional, 181
300 INDEX

difeomorfism de clasă C k , 181 epimorfism, 61


difeomorfism pe imagine, 181 exponenţiala unei matrice, 138
dimensiunea unui spaţiu liniar, 22 expresie canonică, 160
distanţă, 36
distanţă euclidiană, 178 foliumul lui Descartes, 263
dezvoltare ortogonală, 179 forma canonică Jordan, 112
dreaptă, 28, 195 formă biliniară hermitică, 153
dreaptă de centre, 206 formă biliniară nedegenerată, 156
dreaptă dublă, 222 formă biliniară simetrică, 153
drepte confundate, 202 formă biliniară, 153
drepte paralele, 202 formă liniară, 80
drepte secante, 201 formă pătratică nedefinită, 166
drum, 233 formă pătratică, 158
drum simplu, 233 formă pozitiv definită, 154, 166
drum de clasă C k , 234 formă pozitiv semidefinită, 154, 166
drum închis, 233 formula lui Lagrange, 148
drum regulat, 234 formulele lui Frenet, 250
drumuri echivalente, 236 funcţia de matrice, 137, 204
dualul unui spaţiu liniar, 82 funcţie vectorială, 233
funcţii de coordonate euclidiene, 177, 247
ecuaţia redusă a unei conice, 210 funcţională liniară, 80
ecuaţia redusă a unei cuadrice, 220
ecuaţia generală a unui plan, 199 gradient, 264
ecuaţia generală a unei conice, 200 grupul liniar, 71
ecuaţia generală a unei cuadrice, 215 grupul ortogonal, 90
ecuaţia planului determinat de trei grupul special ortogonal, 90
puncte necoliniare, 200
ecuaţia planului prin tăieturi, 200 grupul translaţiilor, 90
ecuaţia vectorială a unei drepte, 196
ecuaţia vectorială a unui plan, 197 hiperbola, 201
ecuaţie caracteristică, 102 hiperboloidul cu două pânze, 221
ecuaţii canonice, 196 hiperboloidul cu o pânză, 221
ecuaţiile implicite ale unei curbe, 257 hiperplan, 29
ecuaţiile parametrice ale unei drepte, 196 homeomorfism, 235
ecuaţiile parametrice ale unui plan, 198 homeomorfism direct, 235
ecuaţiile unei curbe, 237 homeomorfism invers, 235
elicea cilindrică, 234
elipsa, 200 identitatea de polarizare, 36
elipsoid, 220 identitatea lui Jacobi, 230
endomorfism, 61 identitatea paralelogramului, 36
endomorfism asociat, 117 imagine stabilă, 113
endomorfism diagonalizabil, 103 imaginea unui drum, 233
INDEX 301

endomorfism nilpotent, 73 imaginea unui operator, 64

inegalitatea lui Bessel, 38 inegalitatea Cauchy-Buniakovski, 32


invariant izometric, 204 minor de ordin p, 296
inversiune, 283 minor,178
involuţie, 73 monomorfism, 61
izometrie, 90, 186 morfism, 61
izomorfism canonic, 30 multiplicitate algebrică, 104
izomorfism natural, 176 multiplicitate geometrică, 104
izomorfism, 29 mulţime liniar dependentă, 19
mulţime liniar independentă, 18
înmulţirea cu scalari, 9 mulţime ortogonală, 36
înmulţirea operatorilor, 77 mulţime ortonormată, 37
mulţime plană, 28
jacobian, 181 mulţimi perpendiculare, 36

lege de compoziţie externă, 9 necunoscute principale, 294


lege de compoziţie internă, 9 necunoscute secundare, 294
legea inerţiei,168 norma euclidiană, 33
lema schimbului, 23 norma generată de produsul scalar, 35
lemniscata lui Bernoulli, 265 norma indusă, 77
lungimea unei curbe, 238 normală principală, 245
normă matriceală, 80, 135
matrice, 175 normă, 33
matrice adjunctă, 43 norme echivalente, 75
matrice antisimetrică, 14 nucleu stabil, 113
matrice asemenea, 71 nucleul unei forme biliniare, 157
matrice asociată unei conice, 202 nucleul unui operator, 64
matrice asociată unei cuadrice, 216
matrice de rotaţie, 90 operator autoadjunct, 87
matrice de trecere, 26 operator de incluziune, 61
matrice diagonalizabilă, 103 operator hermitic, 87
matrice extinsă, 292 operator inversabil, 64
matrice hermitică, 87 operator liniar continuu, 73
matrice inversabilă, 286 operator liniar, 61
matrice nulă, 282 operator mărginit, 74
matrice ortogonală, 43 operator ortogonal, 90
matrice pătratică, 175 operator pozitiv, 130
matrice reciprocă, 111, 286 operator simetric, 87
matrice simetrică, 14 operator unitar, 88
matrice transpusă, 282 operatorul de derivare, 61
matrice unitară, 43 operatorul integral, 61
matricea ataşată unui operator, 69 ordinul de multiplicitate al unui punct, 234
matricea rotaţiei plane, 188 orientarea unei baze, 272
302 INDEX

metoda lui Gauss, 162 origine, 282

parametrizare a unei curbe, 237 reparametrizare, 237


plan, 197 reper, 179
plan normal, 242 repre Frenet, 249
plan osculator reper natural, 177
plan rectificator, 245 reprezentare parametrică, 237
parabola, 202 reprezentarea explicită a unei curbe, 267
paraboloid eliptic, 221 reprezentarea unei curbe în coordonate
polare, 268
paraboloid hiperbolic, 221 rotaţia în jurul unei axe, 187
partea vectorială a unui vector tangent, 176
parametri directori, 196, 199 schimbare de parametru, 237
parametrizare globală, 237 signatura unei permutări, 283
parametrizare locală, 237 simbolul lui Kronecker, 37
parametrizare naturală (canonică), 239 simetrie, 91, 191
pereche de plane paralele, 223 sistem caracteristic, 102
pereche de plane secante, 222 sistem de coordonate, 177
polara unei forme pătratice, 158 sistem de coordonate cilindrice, 183
polinoamele lui Legendre,51 sistem de coordonate ortogonale, 181
polinom caracteristic, 102 sistem de coordonate polare, 185
procedeul Gram-Schmidt, 40 sistem de coordonate sferice, 184
produs mixt, 181 sistem de generatori, 21
produs scalar, 31, 177 sistem fundamental de soluţii, 293
produs scalar, 31 sistem ortonormat, 38
produs vectorial, 179 spaţii liniare izomorfe, 29
produsul operatorilor liniari, 64, 78 spaţiu Banach, 34
proiecţie, 42, 73 spaţiu euclidian, 35
punct, 281 spaţiu Hilbert, 35
punct critic, 255 spaţiu liniar (vectorial), 9
punct dublu, 201 spaţiu liniar complex (unitar), 9
punct de aplicaţie, 176 spaţiu liniar finit generat,21
punct fix, 192 spaţiu liniar infinit generat, 21
punct inflexional, 244, 274 spaţiu liniar n-dimensional, 22
punct multiplu, 233 spaţiu liniar normat complet, 34
punct regulat, 264 spaţiu liniar normat, 34
punct simplu, 233 spaţiu liniar real, 9
punct singular, 234 spaţiu metric, 36
spaţiu prehilbertian complex, 31
rangul unei forme biliniare, 156 spaţiu prehilbertian real, 31
rangul unei matrice, 288 spaţiu tangent, 176
rangul unui operator, 65 spaţiul aritmetic de dimensiune n, 11
raza spectrală, 136 spaţiul liniar finit generat, 21
INDEX 303

regula lui Cramer, 287 spectru, 99

spirala lui Arhimede, 268 transformări de coordonate, 182


spirala hiperbolică, 268 translaţie, 90, 186
spirala logaritmică, 269 trohoida, 261
strofoida dreaptă, 263
structură complexă, 73 unghiul a doi vectori, 39
submatrice, 182 unghiurile lui Euler, 189
subspaţii complementare, 17
subspaţiu asociat, 117 valoare proprie, 99
subspaţiu director, 29, 195 varietate liniară, 28
subspaţiu invariant, 99 vector coloană, 175
subspaţiu liniar generat de o mulţime, 15 vector director, 196, 199
subspaţiu liniar, 12 vector de înălţime k, 121
subspaţiu propriu, 12, 100 vector în E 3 , 282
subspaţiu U-ciclic, 114 vector linie, 281
subspaţiul nul, 12 vector propriu, 99
suma de subspaţii liniare, 14 vector, 9
suma de subspaţii liniare,14 vector legat, 176
suma directă, 16 vector tangent la E 3 , 176
suprafaţă coordonată, 182 vector tangent la o curbă, 239
suprafaţă de ordinul doi, 215 vectori contravarianţi, 27
vectori ortogonali, 36
şir Cauchy, 34 vectori paraleli, 176
versor, 178
tangenta la o curbă, 242 versor tangent, 241
teorema Cayley-Hamilton, 110 versorul binormalei, 248
teorema funcţiilor implicite, 256 versorul normalei principale, 248
teorema infsup, 133 vârf al unui vector, 176
teorema Kronecker-Capelli, 292
teorema lui Grassmann, 24
teorema lui Jacobi, 164
teorema lui Jordan, 123
teorema lui Kronecker, 289
teorema lui Pitagora, 38
teorema lui Riesz, 83
teorema Rayleigh-Ritz, 131
torsiune, 249
transformare ortogonală, 189
transformare ortogonală de specia
întâia, 191
transformare ortogonală de specia a
doua, 191
transformare liniară,61
304 INDEX

Transformare regulată, 181

S-ar putea să vă placă și