Sunteți pe pagina 1din 170

Octavian G.

Mustafa

Forma Canonică Jordan a


Matricelor
Teorie, aplicaţii

Publicaţiile DAL
Craiova
Fişier prelucrat ı̂n data de [February 6, 2020]
Avertisment

Acest eseu nu a fost raportat vreunui referent. În consecinţă, conţinutul său trebuie
considerat “ca atare.”
Autorul vă aşteaptă comentariile la adresa lui de e-mail1 şi vă mulţumeşte anti-
cipat pentru efortul depus.
Fiecare proiect de la Publicaţiile DAL trebuie considerat “şantier” dacă nu este
declarat altfel. Versiunea sa este cea a datei de pe pagina cu titlul.

Craiova, Mai 18, 2015 O.G.M.

1 octawian@yahoo.com

v
Prefaţă

În această lucrare discutăm despre aducerea matricelor pătrate, cu elemente (intrări)
reale, la forma canonică Jordan, urmând expunerea din cartea profesorilor Hirsch şi
Smale [14].
Scopul prezentării de faţă este acela de a avea la ı̂ndemână o justificare riguroasă
pentru metoda fundamentală de calcul a exponenţialei unei matrice: Secţiunea 4.3.
Există mai multe modalităţi clasice de aducere a matricelor la forma canonică
Jordan. De exemplu, tehnica descrisă ı̂n [30] — traducerea sa ı̂n româneşte este
[31]; pentru o prezentare schematică, vezi [19, pag. 192 şi urm.] — face apel la
polinomul anulator (adică, minimal [8, pag. 89]) al unui operator liniar, la algebra
polinoamelor de o nedeterminată cu coeficienţi ı̂n K etc. Nu am urmat această cale
aici, fiind interesat de obţinerea rapidă a soluţiilor sistemelor diferenţiale liniare, cu
coeficienţi reali: Secţiunea 4.5.
O investigaţie modernă a teoriei funcţiilor de matrice — rădăcina pătrată, expo-
nenţiala, logaritmul unei matrice, etc — constituie subiectul cărţii [12]. Exemple de
calcul, detaliate, pot fi citite ı̂n [5].
Anumite detalii ale demonstraţiei principale se regăsesc şi ı̂n restul procedeelor
de aducere la forma canonică Jordan. Un exemplu notabil ı̂l constituie proprietatea
(H S ), reformulată ı̂n [31, pag. 169, Teoremă] cu ajutorul polinomului anulator.
Aplicaţiile dezvoltate ı̂n Capitolul 4 au semnificaţii de sine stătătoare. Astfel,
ı̂n Exerciţiul 4.13 se calculează soluţiile fundamentale ale unei ecuaţii diferenţiale
ordinare, liniare şi omogene, cu ajutorul eigenvectorilor generalizaţi ai matricei a-
sociate. În Exerciţiul 4.40, elementele bazei reciproce a bazei unui hiperplan sunt
exprimate cu ajutorul operaţiilor vectoriale din spaţiul ambient.

Craiova, [February 6, 2020] O.G.M.

vii
Cuprins

1 Operatori liniari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1 Vectori şi covectori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Operatori şi matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3 Invarianţii algebrici ai operatorului T . Valori proprii şi vectori
proprii. Polinomul caracteristic. Vectori proprii generalizaţi . . . . . . . 6
1.4 Complexificare, realificare, decomplexificare. Complexificatul
unui operator liniar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

2 Teoreme de descompunere . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.1 Suma directă de subspaţii vectoriale. Suma directă de operatori . . . . 19
2.2 Teorema N + M . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.3 Teorema de descompunere primară . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

3 Forma canonică a matricelor pătrate cu elemente numerice . . . . . . . . . 47


3.1 Cazul operatorilor nilpotenţi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.2 Forma canonică Jordan a matricei de reprezentare T . . . . . . . . . . . . . 59
3.3 Cazul K = R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61

4 Aplicaţii . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
4.1 Sumare prin părţi. Produsul Cauchy a două serii. Teorema lui F.
Mertens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
4.2 Exponenţiala unei matrice pătrate cu elemente numerice . . . . . . . . . . 84
4.3 Calculul exponenţialei unei matrice pătrate cu elemente complexe . . 87
4.4 Estimarea produsului scalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
4.5 Exerciţii rezolvate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
4.6 Soluţii fundamentale ale ecuaţiilor diferenţiale liniare şi omogene . . 107
4.7 Matrice strict pozitiv-definite. Reprezentarea covectorilor folosind
produsul scalar. Produsul vectorial a m − 1 vectori. Produsul
tensorial a doi vectori. Reciproca unei baze. Rezoluţia identităţii . . . 121

Referinţe Bibliografice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159

ix
x Cuprins

Index . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
Capitolul 1
Operatori liniari

1.1 Vectori şi covectori

Fie E ⊆ Cn — vezi [14, pag. x] — un spaţiu liniar peste corpul K, unde n ≥ 1


este un număr natural. Aici, K ∈ {R, C}. Setul de vectori

S1 = {e1 , · · · , em } , m ≤ n,

reprezintă o bază a sa. Atunci, vom scrie că1


( )
m

E = SpanK {e1 , · · · , em } = ∑ λ j · e j λ j ∈ K .
j=1

Fie x ∈ E. Putem folosi formalismul de calcul matriceal vectori pe linie, adică


 
m
λ1
 . 
x = ∑ λ j · e j = e1 · · · em  ..  , (1.1)
j=1
λm

respectiv formalismul vectori pe coloană,


 
m
e1
 . 
x = ∑ λ j · e j = λ1 · · · λm  ..  .
j=1
em

Aici, elementele λi constituie componentele (coordonatele) vectorului x ı̂n baza S1 .


În cele ce urmează,
 ı̂ntrebuinţăm
tehnica (1.1).
Dacă S2 = f 1 , · · · , f m reprezintă altă bază a spaţiului E, atunci există matricea
nesingulară P ∈ Mm (K) astfel ı̂ncât

1Fiind dată mulţimea nevidă A ⊆ E, prin SpanK (A) ı̂nţelegem mulţimea combinaţiilor liniare cu
număr finit de termeni nenuli şi coeficienţi din K, [23, pag. 246, Propoziţia 1.6].

1
2 1 Operatori liniari
  
f 1 · · · f m = e1 · · · em · col(1) P · · · col(m) P

= e1 · · · em · P (1.2)

unde col(i) P desemnează cea de-a i-a coloană a matricei P.


Notăm cu (xi )i∈1,m şi (yi )i∈1,m componentele vectorului x ı̂n bazele S1 , S2 .
Atunci,
 
x1
 . 
x = e1 · · · em  ..  (1.3)
xm
   
y1 y1
 .     . 
= f 1 · · · f m  ..  = e1 · · · em · P  .. 
ym ym
  
y1
   . 
= e1 · · · em P  ..  . (1.4)
ym

Din (1.3), (1.4), ţinând seama de liniar independenţa peste K a vectorilor din S1 ,
deducem că
   
x1 y1
  .   .. 
.
e1 · · · em  .  − P  .  = 0,
xm ym

respectiv
   
y1 x1
 ..  −1  .. 
 .  = P  . . (1.5)
ym xm

Aşadar, legătura nou-vechi pentru vectori şi coordonate este dată de formulele
(1.2), (1.5) [14, pag. 37].
Componentele (1.3) ne conduc la funcţionalele liniare (covectorii) xi : E → K cu
formulele
!
m
xi (x) = xi ∑ xj ·ej
j=1
m m
= ∑ x j · xi (e j ) = ∑ x j · δi j (1.6)
j=1 j=1

= xi , i ∈ 1, m,

unde δi j = 1 − (sign(i − j))2 , cu


1.2 Operatori şi matrice 3

 −1, u < 0,
sign u = 0, u = 0,

1, u > 0,

desemnează2 simbolul lui L. Kronecker [28, pag. 14]. Setul de covectori

C1 = C1 (S1 ) = {x1 , · · · , xm } (1.7)

alcătuieşte o bază3 a spaţiului E ∗ = L(E, K), adică — [14, pag. 36] —

E ∗ = SpanK {x1 , · · · , xm } .

1.2 Operatori şi matrice

Operatorul liniar (K-liniar) T : E → E — [14, pag. 30] — este descris de vectorii

T = {T (e1 ), · · · , T (em )} , ei ∈ S1 , i ∈ 1, m, (1.8)

căci
!
m m
T (x) = T ∑ xi · ei = ∑ xi · T (ei )
i=1 i=1


x1
 
= T (e1 ) · · · T (em )  ...  , x ∈ E.
xm

Introducem matricea T ∈ Mm (K) prin relaţiile


  
T (e1 ) · · · T (em ) = e1 · · · em · col(1) T · · · col(m) T

= e1 · · · em · T. (1.9)

Atunci, pentru x ∈ E, avem

2 Se ı̂ntâlnesc şi denumirile delta (lui) Kronecker [21, pag. 3], respectiv simbolul delta (al lui)

Kronecker [35, pag. 5].


3 Numită duala bazei S [11, pag. 23, Theorem 2]. Se spune şi că seturile C şi S sunt biortogo-
1 1 1
nale.
4 1 Operatori liniari
 
x1
 . 
T (x) = T (e1 ) · · · T (em )  .. 
xm
  
x1
   . 
= e1 · · · em T  ..  . (1.10)
xm

Calculele de până acum au ţinut seama doar de faptul că dimensiunea spaţiului E
peste K este finită, spaţiul ı̂n sine putând fi orice set de obiecte abstracte4 . Acum, via
relaţiile (1.3), (1.10), operatorului T i se asociază matricea (de reprezentare ı̂n S1 )
T care desemnează, la rândul său, un operator T : Cm → Cm . Acţiunea (operaţia)
acestui operator T asupra spaţiului Cm este dată de formula [14, pag. 38]
     
x1 x1 x1
 ..   ..   ..  m
 .  7−→ T ·  .  ,  . ∈C .
xm xm xm

Putem, aşadar, echivala elementele spaţiului vectorial L(E, E) peste corpul K cu


matricele din Mm (K) [14, p. 31], respectiv cu vectori din spaţiul liniar L(Cm , Cm )
peste corpul C.
Plecând de la identitatea
     
x1 1 0
 ..   ..   .. 
 .  = x1 ·  .  + · · · + xm ·  .  ,
xm 0 1

introducem baza standard5 (canonică6 ) a spaţiului Cm — peste corpul C —


 
1 0 ··· 0
  0 1 · · · 0

i1 · · · im = col(1) Im · · · col(m) Im =  . . . .  = Im . (1.11)
 .. .. . . .. 
0 ··· 0 1

Reamintesc formula (1.2). Avem relaţiile — operatorul T este liniar —


  
T ( f j ) = T e1 · · · em · col( j) P = T (e1 ) · · · T (em ) · col( j) P
  
= e1 · · · em · T · col( j) P , j ∈ 1, m,

respectiv

4 Operaţiile cu vectori şi scalari sunt cele tipice, vezi relaţiile din nota de subsol de la pagina 12.
5 Vezi [14, pag. 34].
6 Vezi [20, pag. 3, Example 1.4].
1.2 Operatori şi matrice 5
 
T ( f 1 ) · · · T ( f m ) = e1 · · · em TP. (1.12)

De aici, pentru x ∈ E, deducem că


    
y1 y1
   .   . 
.
T (x) = T  f 1 · · · f m  .  = T ( f 1 ) · · · T ( f m )  .. 
ym ym
  
y1
  .. 
= e1 · · · em (TP)  .  . (1.13)
ym

Notăm cu W matricea de reprezentare a operatorului T ı̂n S2 . Adică,


 
T ( f 1 ) · · · T ( f m ) = f 1 · · · f m W.

Atunci,
    
y1 y1
      
T (x) = T  f 1 · · · f m  ...  = T ( f 1 ) · · · T ( f m )  ... 
ym ym
    
y1 y1
 .      . 
= f 1 · · · f m W  ..  = e1 · · · em P · W  .. 
ym ym
  
y1
  .. 
= e1 · · · em PW  .  . (1.14)
ym

Expresiile (1.13), (1.14) ne conduc la


  
y1
  .. 
e1 · · · em (TP − PW)  .  = 0,
ym

respectiv la — vectorii e1 , . . . , em sunt liniar independenţi peste K —

TP − PW = Om , W = P−1 TP, (1.15)

vezi [14, pag. 39]. Aici, Om este matricea-nulă m × m.


În (1.12) am folosit doar faptul că sistemul de vectori S2 = { f 1 , · · · , f m } este
legat de S1 = {e1 , · · · , em } prin matricea P din (1.2). Înlocuindu-l pe S2 cu T din
(1.8) şi pe P cu T din (1.9), deducem că
 
T 2 (e1 ) · · · T 2 (em ) = e1 · · · em · T2 ,
6 1 Operatori liniari

respectiv
 
T k (e1 ) · · · T k (em ) = e1 · · · em · Tk , k ∈ N∗ . (1.16)

1.3 Invarianţii algebrici ai operatorului T . Valori proprii şi


vectori proprii. Polinomul caracteristic. Vectori proprii
generalizaţi

Plecând de la cea de-a doua dintre relaţiile (1.15), spunem că două matrice
W, T ∈ Mm (K) sunt similare dacă există matricea nesingulară P ∈ Mm (K) ast-
fel ı̂ncât W = P−1 TP, conform [14, pag. 39]. Această similaritate defineşte o relaţie
de echivalenţă (∼) ı̂ntre matricele din Mm (K). Într-adevăr, avem reflexivitate,

T ∼ T, T = Im−1 TIm ,

apoi simetrie — det P 6= 0 —,


−1 
W ∼ T =⇒ T ∼ W, W = P−1 TP =⇒ T = P−1 W P−1 , (1.17)

şi tranzitivitate — det P, det R 6= 0 —,

W ∼ T, T ∼ V =⇒ W ∼ V, W = P−1 TP, T = R−1 VR ⇒ W = (RP)−1 V(RP).

De asemeni, dacă W ∼ T, adică W = P−1 TP, atunci Wk ∼ Tk pentru orice


k ∈ N∗ . Într-adevăr, avem
  
W2 = P−1 TP · P−1 TP = P−1 T P · P−1 TP
= P−1 T2 P,

respectiv — prin inducţie matematică —

Wk = P−1 Tk P, k ∈ N∗ . (1.18)

Determinantul, urma şi rangul (unei matrice) — ca funcţii de matricele din


Mm (K) — sunt invariante la relaţia de similaritate [14, pag. 40, 41]. Putem, din
acest motiv, introduce mărimile

Det T = det T, Tr T = tr T, Rank T = rank T,

unde det, tr şi rank desemnează determinantul, urma7 , respectiv rangul8 matricei
de reprezentare (ı̂n S1 ) T. Avem la dispoziţie, astfel, determinantul, urma şi rangul
unui operator liniar T : E → E — invarianţi algebrici —.
7 În limba engleză, trace.
8 În limba engleză, rank.
1.3 Invarianţi, valori şi vectori proprii 7

Lema 1.1. ([20, pag. 16]) Rangul operatorului liniar T : E → E este egal cu dimen-
siunea subspaţiului liniar T (E) ⊆ E.
Demonstraţie. Să presupunem că setul de vectori {T (e1 ), . . . , T (eh )}, unde h ≤ m,
alcătuieşte o bază9 a subspaţiului T (E). Atunci,
 
T (e1 ) · · · T (eh ) = e1 · · · em · A,

unde A ∈ Mm,h (K).


Fie λ ∈ K\{0}. Observăm că

T (E) = SpanK {T (e1 ), . . . , T (eh )}


= SpanK {T (e1 ) + λ · T (e2 ), T (e2 ), T (e3 ). . . , T (eh )}, (1.19)

respectiv

E = SpanK {e1 , . . . , em }
= SpanK {e1 + λ · e2 , e2 , e3 . . . , em }. (1.20)

Schimbarea de bază (1.19) produce următoarea modificare a matricei A,

((T (e1 ) + λ · T (e2 )) T (e2 ) T (e3 ) · · · T (eh ))


 
= e1 · · · em · (col(1) A + λ · col(2) A) col(2) A col(3) A · · · col(h) A .

La rândul său, schimbarea de bază (1.20) modifică matricea A,



T (e1 ) · · · T (eh ) = ((e1 + λ · e2 ) e2 e3 · · · em )
 
lin(1) A
lin(2) A − λ · lin(1) A
 
 lin(3) A 
 
× lin(4) A , (1.21)
 
 .. 
 . 
lin(m) A

unde lin(i) A desemnează cea de-a i-a linie a matricei A.


Trebuie să arătăm că rank A = h, adică există h linii10 ale matricei A care să fie
liniar independente peste corpul K.
Presupunem că, prin reducere la absurd, toate seturile de câte h linii ale matricei
A sunt liniar dependente peste corpul K. Aceasta ı̂nseamnă că, ı̂n particular, setul
tuturor liniilor matricei A este liniar dependent, deci există numerele

{λ1 , λ2 , . . . , λ p−1 , λ p+1 , . . . , λm } ⊂ K


m m
9 Relaţiile y = T (x) = ∑ λi · T (ei ), unde x = ∑ λi · ei ∈ E, arată că familia de vectori {T (e1 ), . . . ,
i=1 i=1
T (em )} este un sistem de generatori pentru spaţiul T (E).
10 Vezi şi [23, pag. 307, Teorema 8.2].
8 1 Operatori liniari

astfel ı̂ncât

lin(p) A = λ1 · lin(1) A + · · · + λ p−1 · lin(p−1) A


+ λ p+1 · lin(p+1) A + · · · + λm · lin(m) A

pentru un anumit p. Aici, apar două situaţii. În prima dintre ele, lin(p) A conţine cel
puţin un element nenul, deci

∑ |λi |2 > 0. (1.22)


1≤i≤m,
i6= p

Cea de-a doua situaţie, când matricea A are (măcar) o linie nulă — formată numai
din elemente nule — va fi discutată ulterior.
Au loc relaţiile — via (1.21) —

T (e1 ) · · · T (eh )
= ((e1 + λ1 · e p ) · · · (e p−1 + λ p−1 · e p ) e p (e p+1 + λ p+1 · e p ) · · · (em + λm · e p ))
 
lin(1) A
 .. 
 . 
 
lin(p−1) A
 
×B, B=  0 ··· 0 ,

lin(p+1) A
 
 .. 
 . 
lin(m) A

respectiv — a p-a linie a matricei B este nulă! —

T (e1 ), . . . , T (eh ) ∈ Q = SpanK { e1 + λ1 · e p , . . . , e p−1 + λ p−1 · e p ,


e p+1 + λ p+1 · e p , . . . , em + λm · e p }.

Se observă că e p 6∈ Q, deci dimensiunea subspaţiului Q ⊆ E este mai mică sau


egală cu m − 1.
Dacă h = m, evident, am ajuns la o contradicţie: cei h vectori liniar independenţi
din T (E) nu se pot afla ı̂ntr-un spaţiu — cel mult — (h − 1)-dimensional!
Dacă h ≤ m − 1, avem relaţia
 
T (e1 ) · · · T (eh ) = f 1 f 2 · · · f p−1 f p+1 · · · f m ·C, (1.23)

unde
1.3 Invarianţi, valori şi vectori proprii 9
 
lin(1) A
 .. 
 . 
 
lin(p−1) A

C= 

lin(p+1) A
 .. 
 . 
lin(m) A

şi f i = ei + λi · e p , i 6= p, iar vectorii { f 1 , f 2 , . . . , f p−1 , f p+1 , · · · , f m } sunt liniari


independenţi.
Ce se ı̂ntâmplă ı̂nsă dacă lin(p) A este o linie nulă a matricei A? Adică, nu are loc
(1.22)! Atunci, relaţia (1.23) devine
 
lin(1) A
 .. 
 . 
 
 lin(p−1) A
T (e1 ) · · · T (eh ) = (e1 e2 · · · e p−1 e p+1 · · · em ) ·   .

lin(p+1) A
 .. 
 . 
lin(m) A

Reluăm discuţia anterioară: presupunem că oricare h din cele m − 1 linii rămase
ale matricei A — vezi matricea C — sunt liniar dependente, de unde rezultă că
setul celor m − 1 linii rămase este liniar dependent etc. Aici, “rolul” matricei A va fi
“jucat” de C. Ajungem la alt spaţiu, de dimensiune cel mult m − 2 peste corpul K.
Procedeul poate fi repetat atâta timp cât dimensiunea spaţiului Q — egală cu
numărul liniilor din A rămase ı̂n discuţie! — este mai mare sau egală cu h. ⊓ ⊔

Fie11 x ∈ Ker T . Pe baza (1.3), (1.10), avem


 
x1
  
0E = T (x) = e1 · · · em T  ...  . (1.24)
xm

Liniar independenţa vectorilor e1 , . . . , em — peste corpul K — ne conduce la siste-


mul algebric
   
x1 0
 ..   .. 
T .  = . (1.25)
xm 0

cu necunoscutele x1 , . . . , xm ∈ K.

11 Vezi nota de subsol de la pagina 29: definiţia lui Ker.


10 1 Operatori liniari

Dacă I : E → E este operatorul-identitate12 din L(E, E) şi λ ∈ C, ne interesează


mulţimea13 Ker (T − λ · I). Conform relaţiei (1.25), aceasta ı̂nseamnă să rezolvăm
ı̂n K sistemul algebric
   
x1 0
 ..   .. 
(T − λ · Im )  .  =  .  . (1.26)
xm 0

Evident, este posibil ca sistemul să nu aibă soluţii nenule!


Deoarece K ⊆ C, dacă impunem ca

p(λ ) = det (T − λ · Im ) = 0, (1.27)

atunci sistemul algebric (1.26) va avea ı̂ntotdeauna soluţii nenule ı̂n C — dar nu
neapărat ı̂n K! —.
Numerele λ ∈ K care sunt soluţii ale ecuaţiei14 algebrice (1.27), deci pentru care
sistemul algebric (1.26) admite soluţii nenule ı̂n K, se numesc valori proprii15 sau
eigenvalori16 ale operatorului T . Dacă numerele x1 , . . . , xm ∈ K sunt o soluţie nenulă
a sistemului (1.26), atunci vectorul
m
x = ∑ xi · ei ∈ SpanK {e1 , · · · , em } = E (1.28)
i=1

constituie un vector propriu sau un eigenvector17 al operatorului T — corespunzător


eigenvalorii λ —.
Observăm că — via (1.25), (1.26) — operatorul liniar T admite valoarea proprie
λ0 = 0 dacă şi numai dacă Ker T 6= {0E }, adică dacă T nu este injectiv.
Polinomul p(λ ) — cu termenul dominant (−1)m λ m , unde m este dimensiunea
spaţiului E — verifică relaţiile, via (1.17),

p(λ ) = det (T − λ · Im ) = det PWP−1 − λ · Im
 
= det PWP−1 − λ · PIm P−1 = det P (W − λ · Im ) P−1
= det (W − λ · Im ) ,

adică este invariant la relaţia de similaritate. Astfel, el poate fi ataşat operatorului T ,


p(λ ) = pT (λ ), şi se numeşte polinomul caracteristic18 al operatorului.
12 Adică, I(x) = x pentru orice x ∈ E.
13 Nu insistăm acum asupra semnificaţiei operaţiei λ · I atunci când λ ∈ C\K.
14 Numită ecuaţie caracteristică a operatorului T [14, pag. 71].
15 În limba engleză, proper value (sing.) [20, pag. 35]. Unii autori folosesc şi termenii autovalori,

rădăcini caracteristice [2, pag. 99, 129], rădăcini ale ecuaţiei caracteristice [10, pag. 174] sau
valori caracteristice [20, ibid.].
16 În limba engleză, eigenvalue (sing.), conform [14, pag. 42].
17 În limba engleză, eigenvector [14, ibid.].
18 În limba engleză, characteristic polynomial [14, pag. 43].
1.3 Invarianţi, valori şi vectori proprii 11

Să revenim la ecuaţia (1.27). Dacă ea admite soluţia λ0 ∈ K — adică, λ0 este


eigenvaloare a operatorului T —, atunci au loc, evident, relaţiile
 
0 = [det (T − λ0 · Im )]k = det (T − λ0 · Im )k , k ∈ N∗ .

Ceea ce ı̂nseamnă că toate sistemele algebrice


   
x1 0
   
(T − λ0 · Im )k  ...  =  ...  (1.29)
xm 0

admit soluţii nenule ı̂n K.


n
Dacă familia {x1 , . . . , xm } ⊂ K, ∑ |xi |2 > 0, este soluţia sistemului (1.29) pentru
i=1
un anumit k ≥ 2, atunci vectorul (1.28) poartă numele de vector propriu (sau eigen-
vector) generalizat19 al operatorului T corespunzând eigenvalorii λ0 . Relaţia (1.29)
poate fi reorganizată, evident, ca
    
x1 0
k−1   ..   .. 
(T − λ0 · Im ) · (T − λ0 · Im )  .  =  .  ,
xm 0

aşadar orice vector propriu este şi vector propriu generalizat.

Exemplul 1.1. Fie µ ∈ K\{0} şi matricea


 
µ 1
(T =) A= .
0 µ

Singura eigenvaloare a lui A este λ0 = µ . Sistemul (1.26) devine


    
01 x1 0
= .
00 x2 0

Soluţiile
  nenule din K ale acestui sistem sunt x1 = x ∈ K\{0}, x2 = 0, deci x =
1
∈ K2 este un eigenvector corespunzând valorii proprii λ0 .
0
Deoarece

(A − λ0 · I2 )2 = O2 ,

sistemul (1.29), unde k = 2, devine


    
00 x1 0
= .
00 x2 0
19 În limba engleză, generalized eigenvector [20, pag. 41].
12 1 Operatori liniari

Evident, toţi vectorii nenuli din K2 sunt soluţii ale sale,


 deci sunt eigenvectori
20 0
generalizaţi ai matricei A. În particular, vectorul y = este un vector propriu
1
generalizat corespunzând valorii proprii λ0 care nu este vector propriu al matricei
A.

1.4 Complexificare, realificare, decomplexificare.


Complexificatul unui operator liniar

Fie E ⊆ Rn — [14, pag. 64] — un spaţiu liniar real m-dimensional. Aici, K = R,


deci
( )
m

E = SpanR {e1 , · · · , em } = ∑ λ j · e j λ j ∈ R . (1.30)
j=1

Mulţimea
( )
m

EC = SpanC {e1 , · · · , em } = ∑ λ j · e j λ j ∈ C ,
j=1

dotată cu operaţiile cu vectori şi scalari tipice21 , alcătuieşte un spaţiu vectorial com-
plex m-dimensional care poartă numele de complexificatul spaţiului E 22 . Reamin-
tindu-ne de baza canonică (1.11), observăm că spaţiul complex Cm este complexifi-
catul spaţiului real Rm : Cm = (Rm )C .
Nu orice spaţiu vectorial complex este complexificatul vreunui spaţiu vectorial
real.
 
z
Exemplul 1.2. Fie z j = a j + b j · i ∈ C, unde a j , b j ∈ R, j ∈ {1, 2}, şi e1 = 1 ∈
z2
C 2 23
Introducem spaţiul EC = C e1 = SpanC {e1 } şi ne ı̂ntrebăm dacă există x =
 .
x1
∈ R2 astfel ca
x2

20 Prin eigenvectori (generalizaţi) ai unei matrice pătrate ı̂nţelegem coloanele de coordonate ale
eigenvectorilor (generalizaţi ai) unui operator liniar ı̂n acea bază a spaţiului E ı̂n care matricea
reprezintă operatorul.
! !
m m m
21 α· ∑ λj · ej +β · ∑ µj ·ej = ∑ (α · λ j + β · µ j )·e j , unde α , β , λ j , µ j ∈ C. De asemeni,
j=1 j=1 j=1
1 · e j = e j . În particular, 0 · e j = 0E pentru orice j ∈ 1, m [18, pag. 112].
22 La fel ca ı̂n cazul C = R2 + (operaţii speciale), avem z · x = (a + b · i)x ≡ (a, b) · x = (a · x, b · x) ≡

ax + i (bx), unde z = a + bi ∈ C. Nu este obligatoriu, aici, ca a · x, b · x, unde x ∈ E, să ı̂nsemne


ı̂nmulţirile cu scalari uzuale — pe componente — din Rn !
23 Operaţiile cu vectori şi scalari sunt cele tipice, din C2 , respectiv R2 .
1.4 Complexificare, realificare, decomplexificare 13
   
(ax1 ) + i(bx1 )
EC = SpanC {x} = (a + b · i) · x = a, b ∈ R .
(ax2 ) + i(bx2 )

Adică, EC este sau nu este complexificatul spaţiului E = R x?


Fie λ = α + β · i ∈ C. Atunci, din egalităţile
 
(α a1 − β b1 ) + (α b1 + β a1 ) · i
EC ∋ λ · e1 =
(α a2 − β b2 ) + (α b2 + β a2 ) · i
 
(ax1 ) + (bx1 ) · i
= ∈ SpanC {x} ,
(ax2 ) + (bx2 ) · i

ı̂n care necunoscutele sunt numerele reale a, b, x1 şi x2 , deducem că


(
α a1 − β b1 = (α a2 − β b2 ) xx12 ,
α b1 + β a1 = (α b2 + β a2 ) xx12 ,

respectiv
   
 a1 − a2 x1 · α + −b1 + b2 x1 · β = 0,
 x2   x2
(1.31)
 b1 − b2 x1 · α + a1 − a2 x1 · β = 0.
x2 x2

Numerele α şi β fiind date — putem, aşadar, presupune că α 2 + β 2 > 0 —, relaţiile
(1.31) pot fi privite ca un sistem algebric, liniar şi omogen, ı̂n necunoscutele α , β ,
care admite o soluţie nenulă. Deci,

a1 − a2 xx1 −b1 + b2 xx1
2 2 = 0,
b1 − b2 1 a1 − a2 1
x x
x2 x2

respectiv
 2  
x1 x1 2
a1 − a2 + b1 − b2 = 0. (1.32)
x2 x2

În concluzie, pentru ca spaţiul C e1 să fie complexificatul unui spaţiu liniar real,
este necesar — via egalitatea (1.32) — să existe q ∈ R astfel ı̂ncât
 
x1
z1 = q · z2 . q= (1.33)
x2

Fie F ⊆ Cn un spaţiu liniar complex m-dimensional care este şi subspaţiu liniar24
[14, pag. 33] al spaţiului complex Cn . Atunci, mulţimea [14, pag. 64]

FR = F ∩ Rn ,

24 Adică, moşteneşte operaţiile pe componente ale lui Cn !


14 1 Operatori liniari

dotată cu operaţiile cu vectori şi scalari tipice — preluate de pe Rn —, constituie un


spaţiu liniar real, pe care ı̂l numim realificatul spaţiului F.
Realificarea poate conduce la mulţimi neinteresante.
 
1
Exemplul 1.3. Fie e1 = ∈ C2 şi F = C e1 , vezi [14, pag. 65, Problem 1]. Atunci,
i
       
1 a+b·i a b
x = λ · e1 = (a + b · i) = = +i· , x ∈ F,
i −b + a · i −b a

unde a, b ∈ R, respectiv
   
b 0
= , x ∈ F ∩ R2 .
a 0

De aici, FR = {0R2 }. Observăm că vectorul e1 din acest exemplu nu verifică relaţia
(1.33).

Lema 1.2. Fie subspaţiul liniar E ⊆ Rn . Atunci, realificatul complexificatului său


— notat ECR — este

(EC )R = E.
 j
x1
 
Demonstraţie. Conform (1.30), introducem vectorii e j =  ...  ∈ Rn . Fie, de ase-
xnj
meni, x ∈ EC cu formula — m ≤ n —
 m  m 
∑ a j x1j ∑ b j x1j
 j=1   j=1 
m m    
 ..   .. 
x = ∑ λ j · e j = ∑ (a j + b j · i) · e j =  .  + i ·  . 
j=1 j=1
m  m 
 j  j
∑ j n
a x ∑ j n
b x
j=1 j=1
m 
j
∑ a j x1 
 j=1
 1   
  x1 · · · x1m b1
 ..   .. ..   ... 
.   
=  .  + i ·  .  , a j , b j ∈ R.
m 
 j xn1 · · · xnm bm
∑ a j xn
j=1

Dacă impunem ca x ∈ EC ∩ Rn , atunci


     1    
b1 x1 · · · x1m b1 0
   ..    .. ..   ..  =  ..  ∈ Rn .
 1 e · · · e m  .  = . .  .  . (1.34)
bm xn1 · · · xnm bm 0
1.4 Complexificare, realificare, decomplexificare 15

Dat fiind că vectorii e1 , . . . , em , ale căror componente alcătuiesc coloanele ma-
tricei sistemului algebric (1.34), sunt liniar independenţi peste R, rangul matricei va
fi maxim, adică m. În aceste condiţii, sistemul (1.34) admite o singură soluţie, cea
nulă: b j = 0 pentru orice j ∈ 1, m.
Am ajuns la
m 
j
∑ j 1  1
 j=1
a x  
  x1 · · · x1m a1 m
 ..   ..  
..   ...  = ∑ a j · e j ∈ SpanR {e1 , · · · , em } = E,
x= . = . .
m  j=1
 j xn1 · · · xnm am
∑ a j xn
j=1

adică x ∈ EC ∩ Rn ⊆ E. Incluziunea inversă, E ⊆ EC ∩ Rn , este evidentă. ⊓


Lema 1.3. ([14, pag. 67]) Fie subspaţiul liniar E ⊆ Rn şi F ⊆ EC un subspaţiu liniar
al spaţiului EC . Atunci,

FR = F ∩ E

este un subspaţiu liniar al spaţiului E.

Demonstraţie. Plecând de la EC = SpanC {e1 , · · · , em }, unde e j ∈ E, j ∈ 1, m, pre-


supunem că F ⊆ SpanC {e1 , · · · , ek } cu25 k ≤ m.
La fel ca ı̂n lema anterioară — vezi (1.34) —, ajungem la FR = F ∩ Rn ⊆
SpanR {e1 , · · · , ek }. Însă SpanR {e1 , · · · , ek } ⊆ SpanR {e1 , · · · , em } = E, de unde
F ∩ Rn = (F ∩ Rn ) ∩ E = F ∩ (Rn ∩ E) = F ∩ E. ⊓ ⊔

Introducem aplicaţia σ : Cn → Cn cu formula


   
z1 z1
 ..   .. 
σ  .  =  .  , z j ∈ C, j ∈ 1, n,
zn zn

unde z = a − b · i — conjugare complexă — pentru orice z = a + b · i ∈ C. Aici, a,


b ∈ R. Au loc următoarele proprietăţi

σ (α · x + β · y) = α · σ (x) + β · σ (y),
σ ◦ σ = id Cn ,

unde α , β ∈ C şi x, y ∈ Cn iar id Cn este operatorul-identitate din Cn . Adică, σ este


o involuţie a spaţiului liniar complex Cn [6, pag. 25]. În particular, aplicaţia σ este
R-liniară iar σ |Rn : Rn → Rn este operatorul-identitate din Rn .

Lema 1.4. ([14, pag. 64]) Fiind dat subspaţiul liniar complex F ⊆ Cn , există sub-
spaţiul liniar real E ⊆ Rn astfel ı̂ncât F = EC dacă şi numai dacă σ (F) ⊆ F.
25 Subspaţiul SpanC {e1 + e2 , e3 + e4 } ( SpanC {e1 , e2 , e3 , e4 } este 2-dimensional dar k = 4.
16 1 Operatori liniari

Demonstraţie. Partea “=⇒”. Cum F = SpanC {e1 , · · · , em }, unde sistemul {e1 , · · · ,


em } constituie o bază a spaţiului liniar real E, avem — σ (e j ) = e j —
m m
σ( f ) = ∑ λ j · σ (e j ) = ∑ λ j · e j ∈ SpanC {e1 , · · · , em } ,
j=1 j=1

m
unde f = ∑ λ j · e j ∈ F.
j=1
Partea “⇐=”. Pentru orice f ∈ F, unde f = x + i · y şi x, y ∈ Rn , avem σ ( f ) =
x + i · y = x − i · y ∈ F, respectiv
1 1
x= · f + ·σ( f ) ∈ F (1.35)
2 2
şi
1 −1
y= ·f+ · σ ( f ) ∈ F. (1.36)
2i 2i

Fie f 1 , · · · , f m ⊂ Cn o bază a spaţiului liniar F. Atunci, f j = x j + i · y j , unde
x j , y j ∈ Rn şi j ∈ 1, m. Conform (1.35), (1.36), x j , y j ∈ F pentru orice j.
Pentru f ∈ F, putem scrie că — λ j ∈ C —
m m m
f= ∑ λ j · f j = ∑ λ j · x j + ∑ (λ j · i) · y j ∈ SpanC {x1 , · · · , xm , y1 , · · · , ym } .
j=1 j=1 j=1

Adică, setul de vectori {x1 , · · · , xm , y1 , · · · , ym }, din Rn , constituie un sistem de ge-


neratori pentru spaţiul
liniar complex F.
Fie t 1 , · · · ,t p ⊆ {x1 , · · · , xm , y1 , · · · , ym } un sistem maximal de vectori liniar
independenţi — peste R —. Atunci, acest sistem va fi baza spaţiului F, deci

F = SpanC t 1 , · · · ,t p = EC ,

unde E = SpanR {t 1 , · · · ,t p }. ⊓

Un subspaţiu liniar complex F ⊆ Cn este decomplexificabil [14, pag. 64] dacă
există subspaţiul liniar real E ⊆ Rn astfel ı̂ncât F = EC .
Lema 1.5. Fie subspaţiul decomplexificabil F ⊆ Cn . Atunci, complexificatul realifi-
catului său — notat FRC — este

(FR )C = F.

Demonstraţie. Conform Lemei 1.2, cum F = EC , avem FR = ECR = E. De aici,


(FR )C = EC = F. ⊓ ⊔
Operaţia de realificare poate fi aplicată oricărui subspaţiu complex F ⊆ Cn . Cum
FR ⊆ F, deducem că
1.4 Complexificare, realificare, decomplexificare 17

FRC = (FR )C = SpanC (FR )


⊆ SpanC (F) = F, (1.37)

vezi [14, pag. 344]. Exemplul 1.3 — via observaţia că SpanC {0R2 } = {0R2 } — ne
arată că putem avea şi incluziune strictă ı̂n (1.37).
Fie E ⊆ Rn un subspaţiu liniar real cu baza26 S1 şi T : E → E un operator liniar.
Pe baza formulei (1.10), introducem operatorul liniar TC : EC → EC astfel
 
m
z1
 .
TC (z) = ∑ z j · T (e j ) = e1 · · · em T  ..  , (1.38)
j=1
zm
m
unde z = ∑ z j · e j şi z j ∈ C pentru orice j. Operatorul TC poartă numele de com-
j=1
plexificatul operatorului T [14, pag. 65]. Având aceeaşi matrice de reprezentare,
operatorii T şi TC au acelaşi polinom caracteristic [14, pag. 66].

Lema 1.6. ([14, pag. 65, Proposition]) Operatorul liniar Q : EC → EC este comple-
xificatul unui operator liniar T : E → E — adică, Q = TC — dacă şi numai dacă

Q ◦ σ = σ ◦ Q, Q = σ ◦ Q ◦ σ −1 = σ ◦ Q ◦ σ .

Demonstraţie. Observăm că, aplicaţia σ fiind o involuţie, avem σ −1 = σ .


m
Partea “=⇒”. Fie z = ∑ z j · e j ∈ EC , unde e j ∈ E. Atunci — reamintesc că
j=1
σ (e j ) = e j şi TC (e j ) = T (e j ) pentru orice j —,
! !
m m
(σ ◦ Q ◦ σ ) (z) = (σ ◦ TC ◦ σ ) (z) = (σ ◦ TC ) ∑ zj ·ej =σ ∑ z j · TC (e j )
j=1 j=1
!
m m m
=σ ∑ z j · T (e j ) = ∑ z j · T (e j ) = ∑ z j · T (e j ) = TC (z)
j=1 j=1 j=1
= Q(z).

Partea “⇐=”. Să arătăm că Q(E) ⊆ E. Pentru z = Q(x) ∈ EC , unde x ∈ E, avem27

σ (z) = (σ ◦ Q) (x) = (Q ◦ σ ) (x) = Q(x) = z,

deci z ∈ EC ∩ Rn = ECR = E. Am folosit Lema 1.2.


Fie T = Q|E : E → E. Cum EC = SpanC {e1 , · · · , em } şi e j ∈ E, putem scrie că

26 Introdusă la pagina 1.
27 σ (e) = e pentru orice e ∈ E.
18 1 Operatori liniari
! !
m m m
Q(z) = Q ∑ zj ·ej = ∑ z j · T (e j ) = TC ∑ z j · e j
j=1 j=1 j=1
= TC (z), z ∈ EC .

Am obţinut că

Q = (Q|E )C ,

adică Q este complexificatul restricţiei sale la spaţiul liniar E. ⊓


Lema 1.7. Dacă operatorii liniari Qk : EC → EC sunt complexificaţii operatorilor


liniari (reali) Tk : E → E, unde k ∈ {1, 2}, atunci,

Q1 ◦ Q2 = (T1 ◦ T2 )C .

Demonstraţie. Conform (1.38), dacă Tk ∈ Mm (R) este matricea de reprezentare ı̂n


S1 a operatorulilor Tk şi (Tk )C , atunci T = T1 · T2 este matricea de reprezentare ı̂n
S1 a operatorilor T1 ◦ T2 şi (T1 ◦ T2 )C .
Pe de altă parte, matricea de reprezentare Q ı̂n S1 a operatorului Q1 ◦ Q2 este
produsul matricelor de reprezentare ale acestor operatori, adică

Q = T1 · T2 .

Concluzia rezultă din (1.38). ⊓



Capitolul 2
Teoreme de descompunere

2.1 Suma directă de subspaţii vectoriale. Suma directă de


operatori

Fie E ⊆ Cn un spaţiu liniar peste corpul K ∈ {R, C} cu baza S1 — introdusă la


pagina 1 —.

Lema 2.1. Dacă V ⊆ E este un K-subspaţiu liniar1 , atunci există W ⊆ E alt K-


subspaţiu liniar astfel ı̂ncât V ∩ W = {0E } şi orice element e ∈ E să se scrie sub
forma

e = v + w, v ∈ V, w ∈ W. (2.1)

Demonstraţie. Renumerotând, eventual, vectorii din S1 , putem presupune că V =


SpanK {e1 , · · · , eh }, unde h ≤ m. Atunci, fie — pentru h < m —

W = SpanK {eh+1 , · · · , em }. (2.2)

Dacă h = m, adică V = E, luăm W = {0E }.


Fie e ∈ E. Au loc relaţiile
m
e= ∑ kj ·ej (k j ∈ K pentru orice j)
j=1
! !
h m h m
= ∑ kj ·ej + ∑ 0·ej + ∑ 0·ej + ∑ kj ·ej
j=1 j=h+1 j=1 j=h+1
= v + w.

În particular, dacă e ∈ V ∩W , putem scrie că

1 Adică, operaţiile cu scalari folosesc numai elemente (scalari) din corpul K.

19
20 2 Teoreme de descompunere

h m
e= ∑ kj ·ej = ∑ k j · e j,
j=1 j=h+1

respectiv
h m
∑ kj ·ej + ∑ (−k j ) · e j = 0E .
j=1 j=h+1

Vectorii {e1 , · · · , em } fiind liniar independenţi, rezultă că toate coordonatele vecto-
rului e ı̂n baza S1 sunt nule, deci e = 0E .
Descompunerea (2.1) este unică datorită faptului că V ∩W = {0E }. Într-adevăr,
ı̂n caz contrar am avea
m
∑ kj
(1)
e = v1 + w1 = ·ej
j=1
m
∑ kj
(2)
= v2 + w2 = · e j,
j=1

(1) (2)
unde k j , k j ∈ K pentru orice j, respectiv

0E = (v1 − v2 ) + (w1 − w2 ) (2.3)


" # " #
h   m  
= ∑ kj −kj ·ej + ∑
(1) (2) (1) (2)
kj −kj ·ej . (2.4)
j=1 j=h+1

Concluzia poate fi obţinută ı̂n două moduri. Mai ı̂ntâi, conform (2.3), deducem
că

v1 − v2 = w2 − w1 ∈ V ∩W,

deci

v1 = v2 şi w1 = w2 . (2.5)

Aici nu am ţinut seama de dimensiunea spaţiului ambient E!


Pe de altă parte, via (2.4), liniar independenţa vectorilor {e1 , · · · , em } ne conduce
(1) (2)
la k j = k j pentru orice j, adică tot la (2.5). ⊓ ⊔

Lema 2.2. În contextul Lemei 2.1, dacă V este un subspaţiu propriu2 , atunci spaţiul
W nu este unic.

Demonstraţie. În demonstraţia anterioară am arătat, via formula (2.2), existenţa


unui subspaţiu W pentru care să aibă loc descompunerea (2.1).

2 Adică, h < m. Vezi şi [14, pag. 33].


2.1 Sume directe 21

Putem construi alt subspaţiu, notat W1 , cu aceleaşi proprietăţi ca W . Mai precis,


fie — pentru h < m − 1 —

W1 = SpanK {eh + eh+1 , eh+2 , eh+3 , · · · , em } .

Evident, spaţiul V ı̂şi păstrează formula, V = SpanK {e1 , · · · , eh }. Când h = m − 1,


luăm W1 = K (eh + eh+1 ).
Se observă că

eh + eh+1 ∈ W1 \W, eh+1 ∈ W \W1 ,

deci subspaţiile W şi W1 sunt distincte. ⊓


Subspaţiul W constituie un complement3 al subspaţiului V iar existenţa descom-


punerii (2.1) se notează cu expresia E = V ⊕W [11, pag. 29, Theorem], numită suma
directă a spaţiilor V şi W . Prin partiţionarea bazei S1 , putem scrie că4
" # " #
s hr+1 s hr+1
∑ ∑ ∑ ∑ 0·ej + ∑ ∑
(r) (r)
e= kj ·ej = kj ·ej + 0·ej ,
r=1 j=hr +1 r=1 j≤hr j=hr +1 j≥hr+1 +1

unde

{1, · · · , m} = {h1 + 1, · · · , h2 } ∪ {h2 + 1, · · · , h3 } ∪ · · · ∪ {hs + 1, · · · , hs+1 }

şi h1 = 0 < h2 < h3 < · · · < hs < hs+1 = m. De unde,

E = V1 ⊕ (V2 ⊕ (· · · ⊕ (Vs−1 ⊕Vs ) · · · )) (2.6)


= V1 ⊕V2 ⊕ · · ·Vs .

Lema 2.3. Dacă V1 ,V2 , . . . ,Vs ⊆ E, unde s ≥ 2, sunt K-subspaţii liniare şi orice
egalitate de forma

v1 + v2 + · · · + vs = 0E , vi ∈ Vi , i ∈ 1, s,

ne conduce la vi = 0E pentru orice 1 ≤ i ≤ s, atunci subspaţiile au ı̂n comun, două


câte două, numai vectorul nul. Reciproca este adevărată doar pentru s = 2.

Demonstraţie. Dacă ar exista i 6= j ∈ 1, s astfel ı̂ncât Vi ∩ V j 6= {0E }, atunci, luând


u ∈ (Vi ∩V j ) \ {0E }, am putea introduce vectorii vi = u, v j = −u, respectiv vk = 0E
s
pentru orice k 6= i, j. Evident, ∑ vr = 0E , ceea ce ar contrazice ipoteza.
r=1
Pentru partea a doua, să presupunem că s ≥ 3. Subspaţiile V1 = K(e1 + e2 ), V2 =
Ke1 şi V3 = Ke2 au, două câte două, ı̂n comun doar vectorul nul chiar dacă are loc
relaţia

3 Mai precis, un complement algebric, vezi [9, pag. 45, Definiţia 2.1.6].
4 Facem convenţia ca orice sumă cu zero termeni să fie nulă.
22 2 Teoreme de descompunere
s
∑ vr = v1 + v2 + v3 + 0E + · · · + 0E
r=1
= (e1 + e2 ) + (−e1 ) + (−e2 ) + 0E + · · · + 0E
= 0E .

În sfârşit, dacă s = 2 şi ar exista vi ∈ Vi \ {0E } cu v1 + v2 = 0E , atunci am ajunge la

u = v1 = −v2 ∈ (Vi ∩V j ) \ {0E } ,

ceea ce ar contrazice ipoteza. ⊓


Lema 2.4. Fiind date mulţimile nevide A, B, C ⊆ E, sunt valabile următoarele afir-
maţii:
i) dacă A ⊆ B, atunci A ⊆ SpanK (A) ⊆ SpanK (B);
ii) A = SpanK (A) dacă şi numai dacă A este K-subspaţiu liniar;
iii) SpanK (A ∪ B) = SpanK (A ∪ SpanK (B));
iv)5 dacă SpanK (A) ∩ SpanK (B ∪ C) = {0E } şi SpanK (B) ∩ SpanK (A ∪ C) = {0E },
atunci SpanK (A ∪ B) ∩ SpanK (C) = {0E };
v) dacă A ∩ SpanK (B) = 0/ şi SpanK (A) ∩ B = 0,/ atunci SpanK (A) ∪ SpanK (B) (
SpanK (A ∪ B).

Demonstraţie. Partea iii). Este suficient să arătăm că

SpanK (A ∪ SpanK (B)) ⊆ SpanK (A ∪ B).

Astfel, fie u ∈ SpanK (A ∪ SpanK (B)). Atunci,


!
u= ∑ α a a + ∑ α c c = ∑ α a a + ∑ α c ∑ α cb b
a∈A c∈C a∈A c∈C b∈B
!
= ∑ α a a + ∑ ∑ α c · α cb b ∈ SpanK (A ∪ B),
a∈A b∈B c∈C

unde6 (α a )a∈A , (α c )c∈C , α cb b∈B, c∈C ⊂ K şi C = SpanK (B). Fiecare sumă are un
număr finit de termeni nenuli. 
Partea iv). Păstrând tehnica de sumare (finită), fie (α a )a∈A , α b b∈B , (α c )c∈C ⊂
K şi vectorii

u= ∑ α a a, v= ∑ α b b, w= ∑ αc c
a∈A b∈B c∈C

5 Fie E = R2 , K = R, baza canonică S = i , i


  
 1 2 şi mulţimile A = i1 + i2 , B = i1 − i2 , C =
i2 . Atunci, SpanK (A) ∩ SpanK (C) = SpanK (B) ∩ SpanK (C) = {0E } dar SpanK (C) ( SpanK (A ∪
B) = E. Vezi şi Exemplul 3.1.
6 În acest tutorial, când nu este pericol de confuzie, expresia (h )
i i∈A ⊂ H reprezintă o prescurtare
a expresiei {hi |i ∈ A} ⊂ H.
2.1 Sume directe 23

pentru care

u + v = w ∈ SpanK (A ∪ B) ∩ SpanK (C).

Observăm că

u = (−v) + w
= ∑ (−α b )b + ∑ α c c ∈ SpanK (A) ∩ SpanK (B ∪C),
b∈B c∈C

de unde u = 0E şi

v = w ∈ SpanK (B) ∩ SpanK (C) ⊆ SpanK (B) ∩ SpanK (A ∪C).

Ajungem la v = w = 0E .
Partea v). Folosim argumentul din demonstraţia Lemei 2.3. Astfel, fie a ∈ A, b ∈
B. Atunci, afirmăm că

a + b ∈ SpanK (A ∪ B)\ (SpanK (A) ∪ SpanK (B)) .

Într-adevăr, dacă am presupune că a + b ∈ SpanK (A), atunci am ajunge la

b = (a + b) + (−a) ∈ B ∩ SpanK (A),

adică la o contradicţie ⊓

Lema 2.5. ([18, pag. 204, Propoziţia 2.2]) Fie V1 ,V2 , . . . ,Vs ⊆ E, unde s ≥ 2, K-sub-
spaţii liniare. Atunci, orice egalitate de forma

v1 + v2 + · · · + vs = 0E , vi ∈ Vi , i ∈ 1, s,

ne va conduce la vi = 0E pentru orice 1 ≤ i ≤ s dacă şi numai dacă7


 
[
Vi ∩ SpanK  V j  = {0E } (2.7)
j∈1,s\{i}

pentru orice 1 ≤ i ≤ s.

Demonstraţie. Fixăm numărul i ∈ 1, s şi numerotăm elementele mulţimii 1, s\{i},


{ j1 , j2 , . . . , js−1 }. Construim partiţia (Wr )r∈1,s−1 ⊂ P (Mi ) a mulţimii
[
Mi = Vj
j∈1,s\{i}

 
7 S
K-subspaţiul SpanK Va reprezintă suma K-subspaţiilor (Va )a∈A , [18, pag. 118]. Aici, A =
a∈A
1, s\{i}. Se foloseşte notaţia ∑ Va , [18, pag. 204].
a∈A
24 2 Teoreme de descompunere

cu formulele W1 = V j1 şi
  
[
Wr = V jr \ V jr ∩  V jq  , r ∈ 2, s − 1.
q∈1,r−1
!!
S
Fie vi ∈ Vi ∩ SpanK Vj \ {0E }. Atunci, există vectorii
j∈1,s\{i}
[
W = {w1 , . . . , wt } ⊂ Vj, t ≥ 1,
j∈1,s\{i}

şi scalarii α wq q∈1,t
⊂ K, nu toţi nuli, astfel ı̂ncât8
!
t s−1
vi = ∑ α wq wq = ∑ α ww = ∑ ∑ α ww
q=1 w∈W r=1 w∈W ∩Wr
s−1
= ∑ (−v jr ),
r=1

unde v jr ∈ SpanK (Wr ) ⊆ V jr — vezi Lema 2.4, părţile i), ii) — pentru orice r ∈
1, s − 1 şi cel puţin unul dintre aceşti vectori este nenul. Pentru a construi familia
(v jr )r∈1,s−1 , am adăugat vectorul 0E ori de câte ori W ∩Wr = 0.
/ Apoi, renumerotăm
familia, (v j ) j∈1,s\{i} .
Am obţinut că

vi + ∑ v j = 0E .
j∈1,s\{i}

Reciproc, dacă vi 6= 0E pentru un anumit i, atunci


 
[
vi = ∑ (−v j ) ∈ SpanK  Vj ,
j∈1,s\{i} j∈1,s\{i}
!
S
de unde {vi } ⊂ Vi ∩ SpanK Vj 6= {0E }. ⊓

j∈1,s\{i}

Lema 2.6. În contextul descompunerii (2.6), fie σ ∈ Ss — [18, pag. 43] — o permu-
tare a mulţimii M = {1, 2, . . . , s} şi partiţia {I, J} ⊂ P(M ) a acestei mulţimi. Au
loc egalităţile
 
E = Vσ (1) ⊕ Vσ (2) ⊕ · · · ⊕ Vσ (s−1) ⊕Vσ (s) · · ·

8 Reamintesc convenţia ca orice sumă de vectori cu 0 termeni să aibă valoarea 0E .


2.1 Sume directe 25

şi
! !
M M
E= Vi ⊕ Vj .
i∈I j∈J

Demonstraţie. Introducem mulţimile (Wi )i∈1,s , cu formulele Ws = {0E } şi

Wi = Vi+1 ⊕ (Vi+2 ⊕ (· · · ⊕ (Vs−1 ⊕Vs ) · · · )) , i ∈ 1, s − 1.

Aici, E = V1 ⊕W1 , respectiv Wi−1 = Vi ⊕Wi pentru orice 2 ≤ i ≤ s.


Au loc estimările Vs−1 ⊕Vs = SpanK (Vs−1 ∪Vs ), respectiv, via Lema 2.4, partea
iii),

Vs−2 ⊕ (Vs−1 ⊕Vs ) = SpanK (Vs−2 ∪ SpanK (Vs−1 ∪Vs ))


= SpanK (Vs−2 ∪Vs−1 ∪Vs ) .
!
S
În mod inductiv, ajungem la Wi = SpanK Vj pentru orice i ∈ 1, s − 1. De
j≥i+1
unde,
!
[
{0E } = Vi ∩Wi = Vi ∩ SpanK Vj . (2.8)
j≥i+1

Afirmăm că are loc condiţia (2.7). Într-adevăr, ı̂n caz contrar, va exista vectorul
" !#
[
vi = ∑ (−vq ) ∈ Vi ∩ SpanK Vq \ {0E } ,
q6=i q6=i

cu vq ∈ Vq pentru orice q. Din egalitatea (2.8), deducem că există cel puţin un vector
vq nenul astfel ı̂ncât q < i.
Dacă notăm cu q0 ∈ 1, i − 1 cel mai mic index pentru care termenul −vq0 din
suma vi este nenul, deducem că
!
[
vq0 = ∑ (−vq ) ∈ Vq0 ∩ SpanK Vj .
q≥q0 +1 j≥q0 +1

Am ajuns la o contradicţie, deci afirmaţia a fost probată.


Pe baza condiţiei (2.7), construim K-subspaţiile liniare
!
  [
Vσ (i+1) ⊕ Vσ (i+2) ⊕ · · · ⊕ Vσ (s−1) ⊕Vσ (s) · · · = SpanK Vσ ( j) ,
j≥i+1

unde i ∈ 1, s − 1. În particular,


26 2 Teoreme de descompunere
 
Vσ (i) ∩ Vσ (i+1) ⊕ Vσ (i+2) ⊕ · · · ⊕ Vσ (s−1) ⊕Vσ (s) · · · = {0E } .

Mai departe, fie i0 , i1 ∈ I. Ţinând seama de condiţia (2.7), avem


   
[ [
{0E } = Vi0 ∩ SpanK  Vq  = Vi1 ∩ SpanK  Vq  .
q∈J∪{i1 } q∈J∪{i0 }

!
S
Din Lema 2.4, partea iv), unde A = Vi0 , B = Vi1 , C = SpanK Vq , rezultă că
q∈J

!
 [
SpanK Vi0 ∪Vi1 ∩ SpanK Vj = {0E } ,
j∈J

adică
!
 M
Vi0 ⊕Vi1 ∩ Vj = {0E } .
j∈J

Stabilim concluzia ı̂n mod inductiv.


La fel ca ı̂n demonstraţia Lemei 2.1, nu am ţinut seama de dimensiunea spaţiului
ambient E. ⊓ ⊔

Păstrând contextul Lemei 2.1, fie T : V → V un operator liniar cu matricea de


reprezentare TV , unde
 
T (e1 ) · · · T (eh ) = e1 · · · eh TV , TV ∈ Mh (K).

Operatorul T poate fi prelungit cu zero la ı̂ntregul spaţiu E. Mai precis, noul


operator — notat tot cu T — verifică relaţia
 
T (e1 ) · · · T (eh ) T (eh+1 ) · · · T (em ) = e1 · · · eh eh+1 · · · em T,

unde9
 
TV Oh,m−h
T= ∈ Mm (K).
Om−h,h Om−h

Mai departe, fiind daţi operatorii liniari T : V → V şi P : W → W , cu matricele


TV şi PW , deducem că suma prelungirilor lor cu zero ı̂n spaţiul E este un operator
liniar M : E → E a cărui matrice de reprezentare ı̂n baza S1 are formula

9 O p,q reprezintă matricea-nulă cu p linii şi q coloane. Aici, O p = O p,p .


2.1 Sume directe 27
   
TV Oh,m−h Oh Oh,m−h
M = T+P = +
Om−h,h Om−h Om−h,h PW
 
TV Oh,m−h
= .
Om−h,h PW

Dacă spaţiul E este descompus ı̂n suma directă a spaţiilor V1 , . . . , Vs — vezi (2.6)
—, atunci, fiind daţi operatorii liniari Tr : Vr → Vr de matrice TVr , unde r ∈ 1, s, suma
prelungirilor lor cu zero ı̂n spaţiul E este operatorul T : E → E cu matricea
 
TV1 0 · · · 0
 0 TV · · · 0 
 2 
T= . . . . .
 .. .. . . .. 
0 · · · 0 TVs

Acesta se notează cu expresia T = T1 ⊕ · · · ⊕ Ts şi se numeşte suma directă a opera-


torilor (Tr )r∈1,s [14, pag. 41].

Lema 2.7. Fie T : E → E un operator liniar şi E = V ⊕ W . Dacă T (V ) ⊆ V şi


T (W ) ⊆ W , atunci există operatorii K-liniari T1 : V → V şi T2 : W → W astfel ı̂ncât

T = T1 ⊕ T2 .

Demonstraţie. Pentru V = SpanK {e1 , · · · , eh }, W = SpanK {eh+1 , · · · , em }, deducem


că

T (e j ) ∈ SpanK {e1 , · · · , eh }, j ∈ 1, h,

şi

T (ek ) ∈ SpanK {eh+1 , · · · , em }, k ∈ h + 1, m,

respectiv matricea de reprezentare a operatorului ı̂n raport cu baza S1 are forma


 
A Oh,m−h
T= , A ∈ Mh (K), B ∈ Mm−h (K). (2.9)
Om−h,h B

Avem T1 = T |V cu matricea TV = A şi T2 = T |W cu matricea TW = B. ⊓


Lema 2.8. Fie E = V ⊕W ⊆ Cn un spaţiu liniar peste corpul K şi operatorul liniar
T : E → E astfel ı̂ncât T (V ) ⊆ V şi T (W ) ⊆ W . Dacă λ ∈ K este o valoare proprie a
operatorului T , atunci λ este valoare proprie pentru cel puţin unul dintre operatorii

T |V , T |W .

Demonstraţie. Fie e = v + w ∈ E, unde v ∈ V şi w ∈ W , un vector propriu corespun-


zător valorii proprii λ .
Din relaţiile
28 2 Teoreme de descompunere

T (e) = T (v) + T (w) = T |V (v) + T |W (w)


= λ ·e
= λ ·v+λ ·w

deducem că

T |V (v) − λ · v = λ · w − T |W (w) (∈ V ∩W )
= 0E ,

respectiv

T |V (v) = λ · v, T |W (w) = λ · w.

Cum e 6= 0E , cel puţin unul dintre vectorii v, w este nenul. Presupunem că w 6= 0.
Atunci, w este eigenvector pentru valoarea proprie λ a operatorului corespunzător,
adică T |W . ⊓

Exemplul 2.1. În contextul Lemei 2.2, fie T : R6 → R6 operatorul liniar bijectiv dat
de relaţiile

T (i1 ) = i2 , T (i2 ) = i1 , T (i3 ) = i3 ,


T (i4 ) = i4 , T (i5 ) = i6 , T (i6 ) = i5 ,

unde sistemul S1 = {i1 , . . . , i6 } desemnează baza canonică (1.11). Avem


 
010000
1 0 0 0 0 0
 
0 0 1 0 0 0
T= 0 0 0 1 0 0 ,
 det T = 1.
 
0 0 0 0 0 1
000010

Introducem subspaţiile liniare


  
V = SpanR i1 , i2 , i3 , W = SpanR i4 , i5 , i6 , W1 = SpanR i3 + i4 , i5 , i6 .

Atunci, avem

(E =) R6 = V ⊕W = V ⊕W1

şi — T (i3 + i4 ) = i3 + i4 —

T (V ) = V, T (W ) = W, T (W1 ) = W1 .

Cu alte cuvinte, subspaţiul V poate admite mai multe complemente, fiecare dintre
acestea invariat de către operatorul T !
2.2 Teorema N + M 29

2.2 Teorema N + M

Fie E ⊆ Cn un spaţiu liniar m-dimensional peste corpul K ∈ {R, C} şi T : E → E


un operator K-liniar.
Introducem mulţimile10
 
Ki (T ) = Ker T i , Li (T ) = Im T i , i ∈ N.

Aici, T 0 = I, unde I este operatorul-identitate din L(E, E), şi T i = T ◦ T ◦ · · · ◦ T —


i factori T —.

Lema 2.9. Pentru orice i ≥ 0, mulţimile Ki (T ) şi Li (T ), ı̂mpreună cu operaţiile


liniare de pe E, sunt spaţii liniare peste corpul K.

Demonstraţie. Aplicaţia T i : E → E fiind un operator liniar, nucleul11 (Ker) şi ima-


ginea12 sa (Im) sunt subspaţii liniare ale spaţiului E. ⊓

Lema 2.10. Mulţimile


[ \
N= Ki (T ), M= Li (T )
i≥0 i≥0

sunt subspaţii liniare ale spaţiului E.



Demonstraţie.
 Fie x ∈ Ki (T ), adică T i (x) = 0. Avem T i+1 (x) = T ◦ T i (x) =
T T i (x) = T (0E ) = 0E , de unde x ∈ Ki+1 (T ). De aici,

K0 (T ) = Ker I = {0E } ⊆ K1 (T ) ⊆ · · · ⊆ Ki (T ) ⊆ Ki+1 (T ) ⊆ · · · ⊆ E. (2.10)



Fie y ∈ Li+1 (T ), adică y = T i+1 (x) pentru un anumit x ∈ E. Avem y = T i ◦ T (x)
= T i (T (x)) = T i (z), de unde y ∈ Li (T ). De aici,

L0 (T ) = Im I = E ⊇ L1 (T ) ⊇ · · · ⊇ Li (T ) ⊇ Li+1 (T ) ⊇ · · · ⊇ {0E } . (2.11)

Facem următoarea observaţie: dacă V ⊂ E este un subspaţiu liniar propriu, de


bază S , al spaţiului liniar E iar e ∈ E\V , atunci vectorii din sistemul B = S ∪ {e}
sunt liniar independenţi peste corpul K. Într-adevăr, cum V = SpanK (S ), dacă e ar
fi o combinaţie liniară de elemente din S , deci e ∈ SpanK (S ), atunci am ajunge la
e ∈ V , adică la o contradicţie.
Pe baza observaţiei anterioare, deducem că ı̂n niciunul din şirurile de spaţii
(2.10), (2.11) nu putem avea o infinitate de incluziuni stricte. O asemenea situaţie

10 Fiind dat operatorul liniar P : E → E, mulţimile Ker P = {e|P(e) = 0E } şi Im P = {P(e)|e ∈


E} = P(E), dotate cu operaţiile spaţiului ambient E, sunt spaţii liniare peste corpul K [11, pag.
88].
11 În limba engleză, kernel [20, pag. 16]. Sau spaţiul nul al operatorului T , vezi [20, pag. 16], [11,

ibid.].
12 În limba engleză, image [14, pag. 34].
30 2 Teoreme de descompunere

ar conduce fie la o infinitate de vectori xi ∈ Ki+1 (T )\Ki (T ) ⊂ E fie la o infinitate


de vectori yi ∈ Li (T )\Li+1 (T ) ⊂ E care să fie liniar independenţi peste corpul K.
Numai că numărul maxim de elemente liniar independente din E este m!
Deducţia anterioară poate fi ı̂mbunătăţită. Astfel, să presupunem că avem Kt (T ) =
Kt+1 (T ) pentru un anumit t ∈ N∗ . Atunci, Kt+1 (T ) = Kt+2 (T ). Pentru a proba acest
fapt, fie x ∈ Kt+2 (T ). Atunci, 0E = T t+2 (x) = T t+1 (T (x)), de unde T (x) ∈ Kt+1 (T ),
respectiv T (x) ∈ Kt (T ). Am ajuns la T t+1 (x) = T t (T (x)) = 0E , adică x ∈ Kt+1 (T ).
În concluzie, Kt+2 (T ) ⊆ Kt+1 (T ). Incluziunea inversă provine din (2.10). Mai de-
parte, să presupunem că avem Lt (T ) = Lt+1 (T ) pentru un anumit t ∈ N∗ . Atunci,
Lt+1 (T ) = Lt+2 (T ). Pentru a proba acest fapt, fie x = T t+1 (y) ∈ Lt+1 (T ). Atunci,
x = T (T t (y)) = T (z), unde z ∈ Lt (T ) = Lt+1 (T ). Avem z = T t+1 (v), de unde
x = T (z) = T t+2 (v). Am ajuns la x ∈ Lt+2 (T ). Incluziunea inversă provine din
(2.11).
Aşadar, există numerele naturale p, r pentru care

Ki (T ) = Ki+1 (T ) = Ki+2 (T ) = · · · ,
(2.12)
L j (T ) = L j+1 (T ) = L j+2 (T ) = · · · ,

unde i ≥ p şi j ≥ r, şi

K0 (T ) ( K1 (T ) ( · · · ( Kp (T ), (2.13)

respectiv

L0 (T ) ) L1 (T ) ) · · · ) Lr (T ).

De aici, N = Kp (T ) şi M = Lr (T ). Concluzia rezultă din Lema 2.9. ⊓



Lema 2.11. În contextul Lemei 2.10,

T (N) ⊆ N, T (M) ⊆ M.

Demonstraţie. Fie e ∈ N. Atunci, fixăm i ≥ 0 astfel ı̂ncât e ∈ Ki (T ). În cazul i ≥ 1


au loc relaţiile

T i (T (e)) = T i+1 (e) = T T i (e) = T (0E )
= 0E ,

din care deducem că T (e) ∈ Ki (T ) ⊆ N.


Mai departe, fie e ∈ M. Atunci, via (2.12), M = T r (E), deci există f ∈ E cu
proprietatea că e = T r ( f ). Avem

T (e) = T r+1 ( f ) ∈ Im T r+1 = Im T r = M,

ceea ce ı̂ncheie demonstraţia. ⊓



Lema 2.12. ([14, pag. 333, Theorem]) În contextul Lemei 2.11, fie P : E → E un
operator K-liniar care comută cu T , adică
2.2 Teorema N + M 31

T ◦ P = P ◦ T.

Atunci,

P(N) ⊆ N. (2.14)

Demonstraţie. Din T ◦ P = P ◦ T rezultă că T 2 ◦ P = T ◦ (T ◦ P) = T ◦ (P ◦ T ) =


(T ◦ P) ◦ T = (P ◦ T ) ◦ T = P ◦ T 2 , respectiv

T k ◦ P = P ◦ T k, k ∈ N∗ .

Fie x ∈ N = Kp (T ) — vezi (2.12) —. Au loc relaţiile

T p (P(x)) = (T p ◦ P) (x) = (P ◦ T p ) (x) = P(0E ) = 0E ,

adică P(x) ∈ Kp (T ). ⊓

Teorema 2.1. ([14, pag. 332, Lemma]) Spaţiul liniar E admite descompunerea

E = N ⊕ M. (2.15)

Demonstraţie. Fie T1 = T |M . Conform Lemei 2.11, operatorul T1 : M → M este


bine-definit. Mai mult, ţinând seama de (2.12), putem scrie că

M = T r (E) = T r+1 (E) = T (T r (E)) = T (M) = T1 (M),

adică T1 este surjectiv. Deoarece spaţiul liniar M este finit dimensional iar operatorul
T1 este K-liniar, deducem că T1 este bijectiv, deci şi injectiv13 .
Cum operatorul T1 este bijectiv, toate puterile sale sunt bijective, adică Ker (T1v ) =
{0E }, unde v ≥ 0. Aşadar, pentru orice e ∈ M\{0E }, şirul (T1v (e))v≥1 conţine doar
vectori nenuli din M. În particular, fie x ∈ N ∩ M\{0E }. Atunci, cum x ∈ N, există
i ≥ 1 astfel ı̂ncât x ∈ Ki (T ), adică T i (x) = 0E . Deoarece x ∈ M\{0E }, relaţiile

0E = T i (x) = T1i (x) 6= 0E

ne conduc la o contradicţie. Am obţinut că

N ∩ M = {0E } .

Rămâne să stabilim că are loc descompunerea (2.1). Fie e ∈ E. Atunci, T r (e) ∈
M. Cum14 M = T1r (M), există şi este unic vectorul w ∈ M cu proprietatea că

T r (e) = T1r (w).

Luând v = e − w, observăm că T r (v) = T r (e) − T r (w) = T r (e) − T1r (w) = 0E ,


adică v ∈ Kr (T ) ⊆ N. ⊓

13 Vezi [14, pag. 35, 327, Proposition 3] sau [11, pag. 62, Theorem 2].
14 Operatorul T1r este bijectiv!
32 2 Teoreme de descompunere

Lema 2.13. În contextul Teoremei 2.1,

T = T1 ⊕ T2 , (2.16)

unde T1 = T |N şi T2 = T |M . De asemeni, există p ∈ N∗ astfel ca

TNp = Oh , (2.17)

unde h este dimensiunea K-subspaţiului N.

Demonstraţie. Conform (2.12), fixăm p ≥ 1 pentru care Ki (T ) = Kp (T ) oricare ar


fi i ≥ p. Atunci, N = Kp (T ).
Formulele (1.24), (1.25) ne conduc la — reamintesc relaţia (1.16) —
 
x1
 .. 
 
 p  . 
 T O xh 
0E = T p (v) = e1 · · · em N h,m−h  ,
Om−h,h TM 0
 
.
 .. 
0

h m
unde N = SpanK {e1 , · · · , eh }, M = SpanK {eh+1 , · · · , em } şi v = ∑ xi · ei + ∑ 0 ·
i=1 i=h+1
ei ∈ N, respectiv la identitatea dublă
   
x1 x1
 ..   ..   
   
 p  .   p  .  0
TN Oh,m−h xh    TN Oh,m−h  xh   .. 
 
Om−h,h TM  0  = Om−h,h T p  0  = ., (2.18)
  M  
. . 0
 ..   .. 
0 0

valabilă pentru orice x1 , . . . , xh ∈ K.


Singura matrice care poate fi pusă ı̂n locul lui TNp ı̂n (2.18) pentru a satisface
identitatea este matricea-nulă, Oh . Relaţia (1.18) ne arată că formula (2.17) este
independentă de baza spaţiului N. ⊓ ⊔

Operatorul liniar T1 : N → N din Lema 2.13 este numit nilpotent [14, pag. 109].

2.3 Teorema de descompunere primară

Lema 2.14. Fie E ⊆ Cn un K-spaţiu liniar de dimensiune m ≤ n şi T : E → E un


operator K-liniar cu valoarea proprie λ0 ∈ K.
2.3 Teorema de descompunere primară 33

Presupunem că T verifică proprietatea (H S ): sau ecuaţia caracteristică

pT (λ ) = 0

are toate rădăcinile reale sau

K = C.

Fie subspaţiul liniar15


[
V= Ker (T − λ0 · I)k
k≥0

şi W un complement al acestuia cu proprietatea că T (W ) ⊆ W . Atunci, sau W =


{0E } sau polinomul caracteristic pT (λ ) al operatorului T admite un zero λ1 6= λ0
ı̂n K.

Demonstraţie. Începem prin a arăta că situaţia din ipoteză — existenţa subspaţiilor
V , W — are loc ı̂ntotdeauna.
Pasul ı̂ntâi. Aplicând Teorema 2.1 şi Lema 2.11 operatorului liniar T − λ0 · I,
deducem că V este un subspaţiu liniar al spaţiului E care este invariat de T − λ0 · I.
De asemeni, subspaţiul V admite un complement, şi anume
\
W= Im (T − λ0 · I)k ,
k≥0

care să fie invariant la acţiunea lui T − λ0 · I.


Pasul al doilea. Facem observaţia că, fiind dat µ ∈ K, operatorul liniar T − µ · I
invariază un subspaţiu liniar H ⊆ E dacă şi numai dacă şi operatorul T invariază
subspaţiul ı̂n cauză. Într-adevăr, dacă (T − µ · I)(e) = T (e) − µ · e ∈ H pentru un
anumit e ∈ H, atunci T (e) = [T (e) − µ · e] + µ · e ∈ H, adică T (H) ⊆ H. Afirmaţia
reciprocă este evidentă: (T − µ · I)(H) ⊆ H când T (H) ⊆ H.
În consecinţă, spaţiile V , W , care sunt invariate de T − λ0 · I, vor fi invariate şi de
operatorul T , respectiv de toţi operatorii (T − µ · I)µ ∈K . Am ajuns, aşadar, la cele
două descompuneri (2.15), (2.16) — bazată pe Lema 2.7 —.
Revenind la firul principal al demonstraţiei, ipotezele ne situează ı̂n contextul
Lemei 2.7. Pentru V = SpanK {e1 , · · · , eh }, W = SpanK {eh+1 , · · · , em }, matricea de
reprezentare a operatorului T ı̂n baza S1 = {e1 , . . . , em } a spaţiului E are forma
(2.9). În particular, dacă h < m — vezi (2.9) — şi λ ∈ K este o eigenvaloare a
operatorului T , atunci matricea de reprezentare a operatorului T − λ · I ı̂n baza S1
are forma
   
Ih Oh,m−h A − λ · Ih Oh,m−h
T − λ · Im = T − λ · = , (2.19)
Om−h,h Im−h Om−h,h B − λ · Im−h

15Subspaţiul V se mai numeşte şi λ0 -eigenspaţiul generalizat al operatorului T iar mulţimea


Ker (T − λ0 · I) ⊆ V poartă numele de λ0 -eigenspaţiul operatorului T [14, pag. 110].
34 2 Teoreme de descompunere

de unde

A − λ · Ih Oh,m−h
pT (λ ) =
Om−h,h B − λ · Im−h
= det (A − λ · Ih ) · det (B − λ · Im−h ) (2.20)
= 0.
h
Fie v ∈ V , unde v = ∑ xi · ei . Conform (2.12), există numărul p ≥ 1 astfel ı̂ncât
i=1
V = Kp (T − λ0 · I).
Relaţiile (2.18) devin — vezi (2.19) —
 
x1
 ..   
 
  .  0
(A − λ0 · Ih ) p Oh,m−h xh   . 
 
(B − λ0 · Im−h ) p   =  ..  . (2.21)
Om−h,h 0
. 0
 .. 
0

La fel ca ı̂n demonstraţia Lemei 2.13, pentru ca identitatea (2.21) să aibă loc este
obligatoriu să avem

(A − λ0 · Ih ) p = Oh , (2.22)

ceea ce ne conduce la o formulă de reprezentare a matricei A, şi anume

A = λ0 · Ih + M, M ∈ Mh (K), M = nilpotentă. (2.23)

Facem următoarea observaţie: dacă T1 : E → E este prelungirea cu zero a opera-


torului T1 : V → V , adică
 
A Oh,m−h
T1 = ,
Om−h,h Om−h
m
şi e = ∑ xi · ei ∈ E este un eigenvector (generalizat) corespunzând valorii proprii
i=1
µ 6= 0 — a acestei prelungiri T1 —, atunci sistemul algebric
2.3 Teorema de descompunere primară 35
   
x1 x1
 ..   .. 
 .   
   k  . 
 x  A − µ · I O  x 
(T1 − µ · Im )k  h  h h,m−h  h 
xh+1  = Om−h,h Om−h − µ · Im−h xh+1 
   
 .   . 
 ..   .. 
xm xm
 
x1
 .. 
!
 . 

(A − µ · Ih )k Oh,m−h  xh 
 
= (2.24)
Om−h,h (−µ · Im−h )k 
xh+1 

 . 
 .. 
xm
 
0
 .. 
=  .  ∈ Rm , k ∈ N∗ ,
0

are drept soluţie nenulă setul de coordonate ı̂n baza S1 al vectorului e. Prezenţa
termenului (−µ · Im−h )k ı̂n (2.24) ne arată că sistemul poate avea (asemenea) soluţii
nenule dacă şi numai dacă det(A − µ · Ih ) = 0 şi xh+1 = · · · = xm = 0. Adică, µ tre-
h
buie să fie eigenvaloare pentru operatorul “mic” T1 : V → V şi e = ∑ xi · ei ∈ V
i=1
un eigenvector (generalizat) corespunzându-i lui µ . Cu alte cuvinte, valorile pro-
prii nenule şi vectorii proprii (generalizaţi) ai unui operator T1 : V → V coincid
cu valorile proprii nenule, respectiv cu vectorii proprii (generalizaţi) ai prelungirii
acestui operator cu zero ı̂n ı̂ntregul spaţiu E. Evident, o observaţie similară se face
ı̂n privinţa operatorului T2 : W → W şi a prelungirii sale cu zero, notată tot cu T2 , ı̂n
ı̂ntreg spaţiul ambient E!
Numărul λ0 ∈ K, fiind o valoare proprie a operatorului T : E → E, este o rădăcină,
de multiplicitate16 m0 ∈ N∗ , a polinomului caracteristic pT (λ ). Atunci, avem

pT (λ ) = (λ − λ0 )m0 · q(λ ), (2.25)

unde q este tot un polinom cu coeficienţi ı̂n K, având gradul mai mic decât m —
gradul polinomului pT (λ ) —, care nu se anulează pentru λ = λ0 .
Formula (2.22) ne arată că numărul λ0 este valoare proprie a matricei A. În plus,
via (2.20), deducem că există 1 ≤ n0 ≤ m0 astfel ı̂ncât (λ − λ0 )n0 |det (A − λ · Ih ).
Afirmăm că n0 = m0 , adică λ0 nu este un zero al polinomului det (B − λ · Im−h ).
Pentru a proba aceasta, presupunem că, prin absurd, λ0 este un asemenea zero, adică
o valoare proprie a matricei B. Observaţia anterioară, pentru operatorul T2 : W → W
şi µ = λ0 , ne conduce la sistemul algebric

16 Această cantitate se numeşte multiplicitatea algebrică a eigenvalorii λ0 , vezi [1, pag. 157].
36 2 Teoreme de descompunere

x1
 ..   
 
  .  0
−λ0 · Ih Oh,m−h  xh   . 
  =  .  ∈ Rm . (2.26)
Om−h,h B − λ0 · Im−h  
xh+1 
.
 .  0
 .. 
xm

Cum det (B − λ0 · Im−h ) = 0, dacă luăm x1 = · · · = xh = 0, atunci va exista vectorul


m
nenul w = ∑ xi · ei ∈ SpanK {eh+1 , . . . , em } = W ale cărui componente să verifice
i=h+1
sistemul algebric (2.26). Astfel, w devine un eigenvector17 al (prelungirii cu zero a)
operatorului T2 , de unde, dată fiind unicitatea descompunerii (2.1), deducem că

T (w) = T (0E + w) = T2 (w) = λ0 · w,

respectiv w ∈ Ker (T − λ0 · I) ⊆ V . Am ajuns, evident, la o contracţie: w ∈ V ∩W .


Mai facem o afirmaţie18 : numărul λ0 este singura valoare proprie a matricei
A ∈ Mh (K). La fel ca până acum, presupunem că, prin absurd, există µ 6= λ0 ı̂n K
astfel ı̂ncât det (A − µ · Ih ) = 0. Folosind sistemul algebric (2.24), cu k = 1, deducem
existenţa19 unui vector nenul v ∈ SpanK {e1 , . . . , eh } = V pentru care este valabilă
dubla egalitate T (v) = T1 (v) = µ · v.
Cum v ∈ V , există j ≥ 1 cu proprietatea că v ∈ Ker (T − λ0 · I) j . Adică, (T − λ0 ·
j
I) (v) = 0E . Însă, remarcăm că

(T − λ0 · I)2 (v) = (T − λ0 · I)((T − λ0 · I)(v)) = (T − λ0 · I)(T (v) − λ0 · v)


= (T − λ0 · I)((µ − λ0 ) · v) = (µ − λ0 ) · (T − λ0 · I)(v)
= (µ − λ0 )2 · v,

respectiv — prin inducţie matematică —

0E = (T − λ0 · I) j (v) = (µ − λ0 ) j · v.

Am ajuns, din nou, la o contradicţie: v = 0E .


Demonstraţia afirmaţiei se bazează, aşadar, pe construcţia unui vector v 6= 0E .
Acest vector nu poate fi folosit dacă µ ∈ C\K pentru că am avea

v ∈ SpanC {e1 , . . . , eh } ) SpanK {e1 , . . . , eh } = V,

adică este posibil ca v 6∈ V . Ca să evităm asemenea complicaţii, am introdus pro-


prietatea (H S ) [14, pag. 128, Theorem 1].
În concluzie,
17 Dacă λ0 = 0, atunci nu este obligatoriu ca x1 = · · · = xh = 0! Putem, ı̂n schimb, impune noi
această restricţie, deoarece suntem interesaţi de construcţia unui anumit vector w.
18 Vezi [14, pag. 332, ecuaţia (2)].
19 Aici, impunem ca x
h+1 = · · · = xm = 0.
2.3 Teorema de descompunere primară 37

det (A − λ · Ih ) = (−1)m0 · (λ − λ0 )m0 , λ ∈ K, (2.27)

deci am obţinut următoarea formulă pentru polinomul caracteristic al operatorului


T , şi anume

pT (λ ) = (−1)m0 (λ − λ0 )m0 · det (B − λ · Im−h ). (2.28)

Expresia (2.27) ne arată că gradul polinomului det (A − λ · Ih ) — adică, h, dimen-


siunea subspaţiului V peste K — este egal cu m0 , multiplicitatea algebrică a valorii
proprii λ0 . Cu alte cuvinte,
!
[
dimK Ker (T − λ0 · I)i = m0 . (2.29)
i≥0

Vezi [14, pag. 333].


În sfârşit, cum suma dimensiunilor celor două subspaţii, dimKV + dimKW , este
dimensiunea spaţiului E, adică m, dacă W 6= {0E }, adică dimKW ≥ 1, deducem că
dimKV = m0 ≤ m − 1. Dat fiind că gradul polinomului pT (λ ) este m, rezultă că
factorul det (B − λ · Im−h ) din (2.28) este un polinom cu gradul cel puţin 1. Numărul
(complex) λ1 căutat este o soluţie a ecuaţiei algebrice det (B − λ · Im−h ) = 0. ⊓

Vom lucra, până la sfârşitul secţiunii de faţă, cu scalari din corpul

K=C (2.30)

si
¸ vom aplica ı̂n mod inductiv Lema 2.14.
În contextul Teoremei 2.1, dacă am fixat baza S1 a spaţiului ambient E, atunci
operatorul T2 : W → W este reprezentat de matricea

TW = B, B ∈ Mm−m0 (K),

iar prelungirea cu zero ı̂n E a operatorului T2 , pe care o notăm cu T 2 : E → E, are


matricea
 
Om0 Om0 ,m−m0
T2 = . (2.31)
Om−m0 ,m0 B

Polinomul caracteristic pT (λ ) se scrie ı̂n mod unic sub forma20

pT (λ ) = (−1)m · (λ − λ0 )m0 · (λ − λ1 )m1 · . . . · (λ − λs )ms , s ∈ N∗ , (2.32)

unde numerele complexe {λ0 , . . . , λs } desemnează valorile proprii distincte ale ope-
ratorului liniar T iar numerele {m0 , . . . , ms } ⊂ N∗ sunt multiplicităţile algebrice ale
s
acestor valori proprii. Evident, ∑ mi = m. Vezi [14, pag. 330].
i=0

20 Atenţie, ı̂n [14, pag. 110] se foloseşte ca polinom caracteristic mărimea (−1)m · pT (λ ).
38 2 Teoreme de descompunere

Reprezentarea (2.28) a polinomului pT (λ ) ne conduce la următoarea expresie a


polinomului caracteristic pT2 (λ ) al operatorului liniar T2 : W → W . Adică,

pT2 (λ ) = (−1)m−m0 · (λ − λ1 )m1 · . . . · (λ − λs )ms .

Aplicând Lema 2.14 operatorului21 T2 : W → W , obţinem relaţiile omoloage celor


care au caracterizat operatorul T :

W = V1 ⊕W1 , T2 = T21 ⊕ T22 ,

unde
[ \
V1 = Ker (T2 − λ1 · I)k , W1 = Im (T2 − λ1 · I)k .
k≥0 k≥0

Aici, I : W → W este operatorul-identitate din L(W,W ), respectiv22 T21 = T2 |V1 =


T |V1 şi T22 = T2 |W1 = T |W1 . În plus, dacă v1 ∈ E este un eigenvector (generalizat)
corespunzând valorii proprii λ1 a operatorului liniar T : E → E, atunci avem v1 ∈ W
— am văzut că subspaţiul V conţine doar eigenvectori (generalizaţi) ai valorii proprii
λ0 —. Ceea ce ı̂nseamnă că [14, pag. 332, ecuaţia (1)]

Ker (T − λ1 · I)i = Ker (T2 − λ1 · I)i , i ≥ 1, (2.33)

respectiv
[
V1 = Ker (T − λ1 · I)k .
k≥0

Pentru a ne convinge de acest fapt, nu avem decât să analizăm sistemul algebric a-
sociat membrului stâng al egalităţii (2.33). Mai precis, fiind dată ecuaţia matriceală
 
x1
 ..   
 . 
    0
(A − λ1 · Im0 ) i Om0 ,m−m0  xm   . 
 0  =  .  ∈ Rm ,
Om−m0 ,m0 (B − λ1 · Im−m0 )i   xm 0 +1


.
 .  0
 .. 
xm

existenţa unui set {x1 , . . . , xm0 } de numere complexe care să conţină măcar un număr
nenul23 va ı̂nsemna că sistemul algebric omogen

21 Atenţie, operatorul T 2 admite ı̂ntotdeauna şi valoarea proprie 0, a cărei multiplicitate algebrică
este cel puţin m0 . Cum operatorul T ar putea avea şi el valoarea proprie 0, dacă i-am aplica Lema
2.14 operatorului T 2 , atunci argumentaţia s-ar complica excesiv.
22 Evident, T |
2 V1 = (T |W )|V1 = T |V1 pentru că V1 ⊆ W . !
m
23 Adică, de exemplu, xm0 6= 0 şi v1 = xm0 · em0 + ∑ xi · ei ∈ Ki (T − λ1 · I)\W .
i=m0 +1
2.3 Teorema de descompunere primară 39
   
x1 0
   
(A − λ1 · Im0 )i  ...  =  ...  ∈ Rm0
xm0 0

admite soluţii nenule. Astfel, ajungem la det (A − λ1 · Im0 ) = 0. Adică, matricea A


ar trebui să aibă valoarea proprie λ1 6= λ0 , ceea ce contrazice demonstraţia Lemei
anterioare!
Mai departe, matricea B are forma
 
A1 Oh1 ,m−m0 −h1
B= , (2.34)
Om−m0 −h1 ,h1 B1

unde A1 ∈ Mh1 (K), B1 ∈ Mm−m0 −h1 (K).


Inserăm expresia matricei B din (2.34) ı̂n (2.31) şi ajungem la matricea de repre-
zentare a (prelungirii cu zero a) operatorului T21 : E → E, şi anume
 
Om0  Om0 ,m−m0 
T12 =  A1 Oh1 ,m−m0 −h1  .
Om−m0 ,m0
Om−m0 −h1 ,h1 Om−m0 −h1

Este clar că avem, ı̂n fapt, următoarea matrice:


 
Om0 Om0 ,h1 Om0 ,m−m0 −h1
T12 =  Oh1 ,m0 A1 Oh1 ,m−m0 −h1  .
Om−m0 −h1 ,m0 Om−m0 −h1 ,h1 Om−m0 −h1

În mod analog,


 
Om0 Om0 ,h1 Om0 ,m−m0 −h1
T22 =  Oh1 ,m0 Oh1 Oh1 ,m−m0 −h1  .
Om−m0 −h1 ,m0 Om−m0 −h1 ,h1 B1

Aşadar, am dedus că24 E = V0 ⊕V1 ⊕W1 şi T = T0 ⊕ T1 ⊕ T2 , unde


[
Vi = Ker (T − λi · I)k , dimKVi = mi , Ti = T |Vi , i ∈ {0, 1},
k≥0

şi

T2 = T |W1 .

Teorema 2.2. Fiind date spaţiul liniar complex E ⊆ Cn , de dimensiune m ≤ n, şi


operatorul C-liniar T : E → E, are loc descompunerea

T = D +N ,

24 Aici, V0 = V .
40 2 Teoreme de descompunere

unde operatorul C-liniar N : E → E este nilpotent iar operatorul C-liniar D : E →


E admite o matrice-diagonală25 de reprezentare.

Demonstraţie. Ne găsim ı̂n contextul Lemei 2.14 şi al cerinţei (2.30). Există, aşadar,
subspaţiile liniare complexe Vi ⊆ E, unde
[
Vi = Ker (T − λi · I) j , dimCVi = mi (vezi (2.32))
j≥0

pentru 0 ≤ i ≤ s, şi26 [14, pag. 110, Theorem 1]

E = V0 ⊕V1 ⊕ · · · ⊕Vs . (2.35)

Matricea de reprezentare a operatorului liniar T ı̂n baza S1 are forma


 
A0 · · · Om0 ,ms
 ..  , A ∈ M (C).
T =  ... ..
. .  i mi
Oms ,m0 · · · As

Aici, conform (2.23),

Ai = λi · Imi + Mi , Mi ∈ Mmi (C), (2.36)

şi există numărul pi ∈ N∗ cu proprietatea că

Mipi = Omi . (2.37)

Introducem matricele
 
D0 · · · Om0 ,ms
 ..  ,
D =  ... ..
. .  Di = λi · Imi , i ∈ 0, s,
Oms ,m0 · · · Ds

şi
 
M0 · · · Om0 ,ms
 .. .. ..  .
N= . . . 
Oms ,m0 · · · Ms

Îl notăm cu p pe cel mai mare dintre numerele {p0 , . . . , ps } [14, pag. 112].
Atunci,

25 Matricea M = (mvw )v,w ∈ Mq (K) este matrice-diagonală dacă singurele elemente (intrări) ne-
nule ale sale se găsesc pe diagonala principală a matricei. Adică, mvw = 0 pentru orice v 6= w ∈ 1, q.
Prin extensie de limbaj, o matrice definită pe blocuri este matrice-diagonală dacă numai blocurile
de pe diagonala principală pot fi nenule.
26 La ultima aplicare a Lemei 2.14, obţinem W = W = {0 }.
s E
2.3 Teorema de descompunere primară 41
   p0 p−p 
M0p · · · Om0 ,ms M0 · M0 0 · · · Om0 ,ms
 ..  =  
N p =  ... ..
. .  
..
.
..
.
..
. 
Oms ,m0 · · · Msp Oms ,m0 ps
· · · Ms · Ms p−ps
 
Om0 · · · Om0 ,ms
 ..  = O .
=  ... ..
. .  m (2.38)
Oms ,m0 · · · Oms

Via (1.9), definim operatorul D de matrice D şi operatorul N de matrice N. ⊓


Un operator K-liniar D : E → E care admite o matrice-diagonală de reprezentare


este numit diagonalizabil [14, pag. 45] atunci când K ∈ {R, C} şi semi-simplu pen-
tru K = C [14, pag. 63]. În cazul particular când s = 0, deci D = D0 = λ0 · Im0 =
λ0 · Im , operatorul poartă numele de operator diagonal [14, pag. 46]. Tot aici se
observă că, pentru orice matrice W ∼ D, avem W = λ0 · Im = D [14, pag. 111].

Lema 2.15. În contextul Teoremei 2.2, avem

D ◦ N = N ◦ D.

Demonstraţie. La fel ca ı̂n (1.16), operatorul D ◦ N este reprezentat de matricea


DN ı̂n baza S1 a spaţiului E iar operatorul N ◦ D de matricea ND.
Mai departe,
    
D0 M0 · · · Om0 ,ms λ0 Im0 M0 · · · Om0 ,ms
 ..  =  
DN =  ... ..
. .  
..
.
..
.
..
. 
Oms ,m0 · · · Ds Ms Oms ,m0 · · · (λs Ims ) Ms
    
M0 λ0 Im0 · · · Om0 ,ms M0 D0 · · · Om0 ,ms
 . . .   . .. .. 
= .. .. ..  =  .. . . 
Oms ,m0 · · · Ms (λs Ims ) Oms ,m0 · · · Ms Ds
= ND.


Lema 2.16. ([14, pag. 120, Problema 8]) În contextul Teoremei 2.2, au loc inegali-
tăţile

pi ≤ mi , i ∈ 0, s, (2.39)

unde numerele pi au fost definite ı̂n (2.37). Adică, matricele Mi din (2.36) ı̂ndeplinesc
condiţiile

Mimi = Omi pentru orice i. (2.40)

Demonstraţie. Ştim că Vi = Kpi (T − λi · I). Incluziunile stricte (2.13), şi anume
42 2 Teoreme de descompunere

{0E } ( Ker (T − λi · I) ( Ker (T − λi · I)2 ( · · · ( Ker (T − λi · I) pi = Vi ,

ne permit să alegem vectorii x1 ∈ Ker (T − λi · I)\{0E }, x2 ∈ Ker (T − λi · I)2 \Ker (


T − λi · I), . . . , x pi ∈ Ker (T − λi · I) pi \Ker (T − λi · I) pi−1 . Setul {x1 , . . . , x pi } ⊂ Vi
este liniar independent peste K. Cum dimKVi = mi , ajungem la (2.39). În sfârşit,

Mimi = Mipi · Mimi −pi = Omi ,

unde 0 ≤ i ≤ s. ⊓

Via (2.35), (2.38), (2.39), remarcăm că

p = max {p0 , . . . , ps } ≤ max {m0 , . . . , ms } ≤ m,

respectiv

Nm = Om . (2.41)

Lema 2.17. ([14, pag. 121, problema 17]) În contextul Lemei 2.7, fie Pi : E → E,
unde 1 ≤ i ≤ 3, operatori K-liniari astfel ı̂ncât P1 să fie diagonalizabil, P2 să fie
nilpotent şi P3 să fie diagonal. Atunci, dacă

Pi (V ) ⊆ V, Pi (W ) ⊆ W pentru orice i,

P1 |V este diagonalizabil, P2 |V este nilpotent şi P3 |V este diagonal.

Demonstraţie. Dacă operatorul K-liniar T : E → E invariază subspaţiile V şi W ,


atunci există baza S1 a spaţiului E pentru care V = SpanK {e1 , . . . , eh }, W =
SpanK {eh+1 , . . . , em } şi matricea de reprezentare are forma
 
A Oh,m−h
T= , A ∈ Mh (K), B ∈ Mm−h (K).
Om−h,h B

De aici, evident,
 
Aj Oh,m−h
Tj = , j ∈ N∗ .
Om−h,h Bj

Matricea A ı̂l reprezintă pe T |V ı̂n baza (S1 )V = {e1 , . . . , eh }.


Dacă T p = Om pentru un anumit p ∈ N∗ — adică, T = P2 —, atunci A p = Oh .
Dacă există setul de numere {d1 , . . . , dm } ⊂ K pentru care
 
d1 0 0 · · · 0
 0 d2 0 · · · 0 
 
 ..  ,
T =  ... ... . . . . 
 
 0 · · · 0 dm−1 0 
0 0 · · · 0 dm
2.3 Teorema de descompunere primară 43

deci T = P1 , atunci
 
d1 0 0 ··· 0
0 d2 0 ··· 0 
 
 ..  .
A =  ... ..
.
..
. . (2.42)
 
0 · · · 0 dh−1 0 
0 0 · · · 0 dh

În sfârşit, dacă T = P3 , există λ ∈ K cu proprietatea că T = λ ·I, unde I ∈ L(E, E)


este operatorul-identitate. Atunci, evident T |V = λ · I|V .
Facem observaţia că
 k  
A C Ak Ck
= , k ∈ N∗ ,
Om−h,h B Om−h,h Bk

unde A ∈ Mh (K), B ∈ Mm−h (K), Ck ∈ Mh,m−h (K), deci condiţia Pi (W ) ⊆ W nu


este necesară aici — am introdus-o deoarece ea intervine ı̂n demonstraţia Lemei
2.18 —. ⊓ ⊔

Lema 2.18. ([14, pag. 333, Theorem]) În contextul Teoremei 2.2, există o singură
descompunere a operatorului T sub forma

T = P1 + P2 ,

unde P1 : E → E este un operator K-liniar diagonalizabil iar P2 : E → E este un


operator K-liniar nilpotent, astfel ı̂ncât P1 să comute cu P2 .

Demonstraţie. Existenţa unei asemenea descompuneri este dată de Teorema 2.2 şi
de Lema 2.15.
Deoarece P1 şi P2 comută, au loc relaţiile

P1 ◦ T = P1 ◦ (P1 + P2 ) = P12 + P1 ◦ P2 = P12 + P2 ◦ P1 = (P1 + P2 ) ◦ P1 = T ◦ P1 .

În mod analog, P2 ◦ T = T ◦ P2 , respectiv T ◦ D = D ◦ T şi T ◦ N = N ◦ T .


Lema 2.12 arată că fiecare dintre K-subspaţiile din descompunerea (2.35) este
invariat de operatorii P1 , P2 , D, N .
Introducem operatorii

P1i = P1 |Vi : Vi → Vi , P2i = P2 |Vi : Vi → Vi

şi

Di = D |Vi = λi · I : Vi → Vi , Ni = N |Vi : Vi → Vi , (2.43)

unde 0 ≤ i ≤ s. Evident, operatorii Di , Ni sunt reprezentaţi — ı̂n submulţimea din


baza S1 a spaţiului E care este bază ı̂n Vi — de matricele λi ·Imi şi Mi , cu Mimi = Omi ,
conform (2.40).
44 2 Teoreme de descompunere

Afirmăm că operatorii P2i şi Ni comută. Într-adevăr, conform (2.46),

P2i ◦ Ni = P2i ◦ (T |Vi − λi · I) = (P2 ◦ T )|Vi − λi · P2i


= (T ◦ P2 )|Vi − λi · P2i = (T |Vi − λi · I) ◦ P2i
= Ni ◦ P2i , i ∈ 0, s.

Comutarea operatorilor P2i şi Ni implică, evident, comutarea matricelor lor de


reprezentare, (P2 )Vi şi Mi . Din ipoteză27 , există numerele qi ∈ N∗ astfel ı̂ncât
((P2 )Vi )qi = Omi pentru orice i. Atunci, pentru t = 2 · max {qi , mi }, avem28 — via
binomul lui Newton —
t  
k
[(P2 )Vi − Mi ]t = ∑ (−1)t−k · [(P2 )Vi ]k · Mit−k . (2.44)
k=0
t

Inegalitatea

k + (t − k) t
max {k,t − k} ≥ = ≥ max {qi , mi }
2 2

arată că fiecare din termenii sumei (2.44) are cel puţin unul dintre factorii [(P2 )Vi ]k ,
Mit−k egal cu Omi . În consecinţă,

[(P2 )Vi − Mi ]t = Omi , (2.45)

adică operatorii {P2i − Ni |0 ≤ i ≤ s} sunt nilpotenţi.


Plecând de la egalitatea dublă

T |Vi = P1i + P2i = Di + Ni , (2.46)



deducem că operatorii P1i − Di 0≤i≤s sunt nilpotenţi.
Fixăm i ∈ 0, s. Operatorul P1i este diagonalizabil29 iar operatorul Di este opera-
tor-diagonal, deci matricea de reprezentare a operatorului P1i − Di are forma — vezi
(2.42) —
 i 
d1 − λi 0 0 ··· 0
 0 d2i − λi 0 ··· 0 
 
 .. .. . .. 
Fi =  . . . . .  , d ij ∈ K.
 
 0 · · · 0 dmi i −1 − λi 0 
0 0 ··· 0 dmi − λi
i

Conform (2.45),

27 Vezi Lema 2.17, cazul operatorului P2 .  


28 k
Vezi pagina 110, nota de subsol, pentru notaţia .
t
29 Vezi Lema 2.17, cazul operatorului P1 .
2.3 Teorema de descompunere primară 45
 t 
d1i − λi 0 0 ··· 0
 t 
 0 d2i − λi 0 ··· 0 
 .. .. .. .. 
 
Fit =  . . . .  = Omi ,
  t 
 0 ··· 0 dmi i −1 − λi 0 
 
t
0 0 ··· 0 dmi i − λi

de unde d ij = λi pentru orice 1 ≤ j ≤ mi , adică P1i = Di .


Din (2.46) rezultă că P2i = Ni , unde i ∈ 0, s. ⊓⊔
Capitolul 3
Forma canonică a matricelor pătrate cu
elemente numerice

3.1 Cazul operatorilor nilpotenţi

Fie E ⊆ Cn un spaţiu liniar m-dimensional peste corpul K ∈ {R, C}. Aici, ca şi
până acum, m ≤ n.
Fie e ∈ E\{0E } şi operatorul K-liniar T : E → E. Introducem mulţimea1

Z(e, T ) = SpanK T i (e)|i ∈ N .

Elementele sale sunt combinaţii liniare cu număr finit de termeni nenuli ale vectori-
lor din familia {e, T (e), T 2 (e), . . . }.
Observăm că
( )
h
Z(e, T ) = ∑ αi · T i (e)|αi ∈ K, h ∈ N .
i=0

Într-adevăr, fixând x ∈ Z(e, T ), cu


r
x= ∑ αh j · T h j (e), r, h j ∈ N,
j=0

introducem numerele αi = αh j pentru i = h j , j ∈ 0, r, respectiv αi = 0 pentru i 6∈


{h1 , . . . , hr } şi deducem că
h
x = ∑ αi · T i (e), h = max {h1 , . . . , hr }. (3.1)
i=0

Presupunem că operatorul T este nilpotent. Astfel, există k ∈ N pentru care

T k = O, (3.2)

1 Reamintesc că T 0 = I, operatorul-identitate din L(E, E).

47
48 3 Forma canonică a matricelor

unde O : E → E desemnează operatorul-nul2 .


Lema 3.1. Există numărul natural h < k — vezi (3.2) — astfel ı̂ncât vectorii din
setul {e, T (e), T 2 (e), . . . , T h (e)} să fie liniar independenţi peste corpul K.
Demonstraţie. Cum e 6= 0E , fie h, unde 0 ≤ h ≤ k − 1, cel mai mare număr natural3
pentru care niciunul dintre vectorii din familia {e, T (e), T 2 (e), . . . , T h (e)} să nu fie
nul. Evident, T h+1 (e) = 0E , de unde

T q (e) = T q−h−1 (T h+1 (e)) = T q−h−1 (0E ) = 0E (3.3)

pentru orice q ≥ h + 1.
De asemeni, vectorii din setul {e, T (e), T 2 (e), . . . , T h (e)} sunt diferiţi unul de
celălalt. Într-adevăr, dacă ar exista numerele p ≥ 0, q ≥ 1 astfel ca p + q ≤ h şi
T p (e) = T p+q (e), atunci

T h+1−q (e) = T h+1−p−q (T p (e)) = T h+1−p−q T p+q (e)
= T h+1 (e) = 0E , (3.4)

ceea ce contrazice definiţia numărului h.


Afirmăm că vectorii {e, T (e), T 2 (e), . . . , T h (e)} sunt liniari independenţi peste
corpul K. Într-adevăr, fiind dată relaţia
h h
∑ αi · T i (e) = 0E , unde αi ∈ K, ∑ |αi |2 > 0,
i=0 i=0

să presupunem că αr ∈ K este coeficientul nenul cu cel mai mic index. Deci
h
∑ αi · T i (e) = 0E ,
i=r

respectiv, via (3.3),


!
h
0E = T h−r ∑ αi · T i (e) = αr · T h (e).
i=r

Am ajuns la o contradicţie: αr = 0.
În plus, avem — conform (3.1) —
n o
Z(e, T ) = SpanK e, . . . , T h (e) ,

adică setul

{e, . . . , T h (e)} (3.5)


2 Adică, T k (e) = 0E pentru orice e ∈ E.
3 Conform [14, pag. 334], cantitatea h + 1 se notează cu nil: nil(e, T ).
3.1 Cazul operatorilor nilpotenţi 49

este bază a subspaţiului Z(e, T ). ⊓



Lema 3.2. În contextul Lemei 3.1, au loc relaţiile

T (Z(e, T )) = Z(T (e), T ) ⊆ Z(e, T ) (3.6)

şi

Ker T Z(e,T ) = KT nil(e,T )−1 (e). (3.7)

h
Demonstraţie. Fie x = ∑ αi · T i (e) ∈ Z(e, T ), unde αi ∈ K şi 0 ≤ i ≤ h ≤ k − 1.
i=0
Atunci,
h h
T (x) = ∑ αi · T (T i (e)) = ∑ αi · T i (T (e)) ∈ Z(T (e), T ),
i=0 i=0

adică T (Z(e, T )) ⊆ Z(T (e), T ).


h
Reciproc, fie y = ∑ αi · T i (T (e)) ∈ Z(T (e), T ). Observăm că
i=0

h
y = ∑ αi · T (T i (e)) = T (x) ∈ T (Z(e, T )).
i=0

Fie h = nil(e, T ) − 1. Pentru a stabili formula (3.7), observăm că relaţiile — dacă
h≥1—
!
h
0E = T (x) = T ∑ αi · T i (e)
i=0
h−1
= ∑ αi · T i+1 (e) + αh · T h+1 (e)
i=0
h−1
= ∑ αi · T i+1 (e), αi ∈ K,
i=0

implică αi = 0 pentru orice 0 ≤ i ≤ h − 1. ⊓



Lema 3.3. Fie x, y ∈ E astfel ı̂ncât {0E } ( Z(x, T )∩Z(y, T ). Atunci, există numerele
r, s ≥ 0 pentru care

{T i (x)|i ≥ r} ⊂ Z(y, T ), {T j (y)| j ≥ s} ⊂ Z(x, T ).

Demonstraţie. Introducem numerele h1 = nil(x, T ) − 1 şi h2 = nil(y, T ) − 1.


Fie u ∈ Z(x, T ) ∩ Z(y, T )\{0E }, adică
h1 h2
u = ∑ αi · T i (x) = ∑ β j · T j (y),
i=0 j=0
50 3 Forma canonică a matricelor

unde αi , β j ∈ K. În plus,

α0 = · · · = αr−1 = 0, αr 6= 0, β0 = · · · = βs−1 = 0, βs 6= 0.

Atunci,

T h1 −r (u) = αr · T h1 (x) + αr+1 · T h1 +1 (x) + · · ·


= αr · T h1 (x)
h2
= ∑ β j · T j+h1 −r (y),
j=s

h2 β
de unde rezultă că T h1 (x) = ∑ α
j
· T j+h1 −r (y) ∈ Z(y, T ).
j=s r
Apoi — dacă h1 ≥ r + 1 —,

T h1 −r−1 (u) = αr · T h1 −1 (x) + αr+1 · T h1 (x) + αr+2 · T h1 +1 (x) + · · ·


= αr · T h1 −1 (x) + αr+1 · T h1 (x)
h2
= ∑ β j · T j+h1 −r−1 (y),
j=s

respectiv
h2
βj αr+1 h1
T h1 −1 (x) = ∑ αr · T j+h1 −r−1 (y) − αr
· T (x) ∈ Z(y, T ).
j=s

Ajungem la
h2
βj h1
αi
T r (x) = ∑ αr · T j
(y) − ∑ αr · T i (x) ∈ Z(y, T ),
j=s i=r+1

ceea ce ı̂ncheie demonstraţia. ⊓


Exemplul 3.1. În contextul Lemei 3.3, observăm că Z(x, T ) ∩ Z(y, T ) ⊆ Z(y, T ) este
un K-subspaţiu liniar al spaţiului
 Z(y, T ). Am stabilit că acest subspaţiu conţine cel
puţin un element al bazei y, . . . , T h2 (y) a spaţiului ambient Z(y, T ). Afirmăm că,
fiind date K-spaţiul liniar E, o bază a sa S şi subspaţiul propriu V ⊂ E, unde
V 6= {0E }, este posibil ca V ∩ S = 0. /
Într-adevăr, fie E = R7 — aici, K = R —, baza canonică S = {i1 , . . . , i7 } şi
 
V = R i1 + i2 ⊕ R i3 + i4 .

Atunci,

V ∩ S = 0.
/
3.1 Cazul operatorilor nilpotenţi 51

Fie operatorul K-liniar P : E → E. Putem construi o bază a spaţiului ı̂n care acest
operator acţionează, dacă se cunosc baze din Ker P şi Im P, după cum urmează: fiind
date baza S3 = {y1 , . . . , yt } a spaţiului Im P şi baza S4 = {x1 , . . . , xs } a spaţiului
Ker P, selectăm familia de vectori S5 = {z1 , . . . , zt } pentru care zi ∈ P−1 (yi ), unde
i ∈ 1,t. Atunci, setul

S6 = {z1 , . . . , zt , x1 , . . . , xs } (3.8)

este bază a spaţiului ambient E, vezi [14, pag. 327, Proposition 3].
Ca să ne convingem de acest fapt, arătăm că vectorii din S6 sunt liniar indepen-
denţi. Fie scalarii αi , β j ∈ K, unde i ∈ 1,t, j ∈ 1, s, pentru care
t s
∑ αi · zi + ∑ β j · x j = 0E . (3.9)
i=1 j=1

Aplicând operatorul P relaţiei (3.9), ajungem la — S4 ⊂ Ker P şi S3 este liniar


independent —
t t
∑ αi · P(zi ) = ∑ αi · yi = 0E ,
i=1 i=1

de unde αi = 0 pentru orice 1 ≤ i ≤ t. Relaţia (3.9) devine — S4 este liniar inde-


pendent —
s
∑ β j · x j = 0E ,
j=1

de unde β j = 0 pentru orice 1 ≤ j ≤ s.


De asemeni, vectorii din S6 alcătuiesc un sistem de generatori ai spaţiului am-
bient E. Într-adevăr, fie x ∈ E. Atunci, există scalarii αi ∈ K, unde i ∈ 1,t, astfel
ı̂ncât
t
P(x) = ∑ αi · yi
i=1
!
t t
= ∑ αi · P(zi ) = P ∑ αi · zi .
i=1 i=1

t
Observăm că u = x− ∑ αi ·zi ∈ Ker P. Astfel, există scalarii β j ∈ K, unde j ∈ 1, s,
i=1
cu proprietatea că
s
u= ∑ β j · x j,
j=1

respectiv
52 3 Forma canonică a matricelor

t s
x = ∑ αi · zi + ∑ β j · x j ,
i=1 j=1

ceea ce ı̂ncheie justificarea.


Dacă ı̂nlocuim baza S3 a spaţiului Im P cu sistemul de vectori liniar indepen-
denţi S3 = {y1 , . . . , yt }, unde t ≤ dimK Im P, atunci setul S6 din (3.8) este liniar
independent.
Teorema 3.1. ([14, pag. 335, Proposition]) În contextul relaţiei (3.2), spaţiul liniar
E admite descompunerea

E = Z(e1 , T ) ⊕ · · · ⊕ Z(eq , T ), (3.10)

unde q ≥ 1.
Demonstraţie. Utilizăm inducţia matematică. Astfel, vom verifica existenţa acestui
tip de descompunere atunci când dimK E ∈ {1, 2}, apoi, presupunând că descompu-
nerea poate fi realizată pentru orice spaţiu liniar E cu dimK E ≤ m − 1, vom construi
o descompunere ı̂n cazul dimK E = m.
Pasul ı̂ntâi: cazul dimK E = 1. Fie S = {e} o bază a spaţiului E. Atunci, E =
SpanK {e}, de unde rezultă că T (e) = λ · e ∈ E. Ipoteza (3.2) ne conduce la λ = 0,
astfel că nil(e, T ) = 1. Avem

Z(e, T ) = SpanK {e}, E = Ker T.

Deci E = Z(e, T ).
Pasul al doilea: cazul dimK E = 2. Conform (3.2), dimK Ker T ≥ 1.
Dacă dimK Ker T = 2, adică E = Ker T , atunci T = O — aşadar, k = 1 — şi

E = Ke1 ⊕ Ke2 = Z(e1 , T ) ⊕ Z(e2 , T ),

unde S = {e1 , e2 } constituie o bază a spaţiului E.


Dacă dimK Ker T = 1, deci există e1 6= 0E astfel ı̂ncât Ker T = Ke1 , atunci există
şi e2 6= 0E cu T (e2 ) 6= 0E . Sistemul vectorial S = {e2 , T (e2 )} ⊂ E este liniar in-
dependent peste corpul K, deci alcătuieşte o bază a spaţiului E. Am obţinut că E =
Z(e2 , T ).
Pasul al treilea: cazul 2 ≤ dimK E ≤ m − 1. Presupunem că se poate realiza des-
compunerea (3.10).
Pasul al patrulea: cazul dimK E = m. Operatorul T fiind nilpotent, dimK Ker T ≥
1. Cum — vezi (3.8) —

dimK Ker T + dimK T (E) = dimK E,

rezultă că dimK T (E) ≤ m − 1.


Conform ipotezei de inducţie, există vectorii {y1 , . . . , yr } ⊂ T (E) cu proprietatea
că

T (E) = Z(y1 , T ) ⊕ · · · ⊕ Z(yr , T ).


3.1 Cazul operatorilor nilpotenţi 53

În particular, sistemul


r
[ n o
S3 = Zi , Zi = yi , T (yi ), . . . , T hi (yi ) ,
i=1

unde hi = nil(yi , T ) − 1, este o bază a spaţiului liniar T (E).


Pentru a construi sistemul S6 din (3.8), avem nevoie de un set S5 . Cu acest scop,
introducem vectorii xi ∈ T −1 (yi ), unde 1 ≤ i ≤ r.
Observăm că T j (xi ) ∈ T −1 (T j (yi )) pentru orice 0 ≤ j ≤ hi şi

Xi = {xi , T (xi ), . . . , T hi (xi )} ⊆ T −1 (Zi ) , (3.11)

respectiv nil(xi , T ) = nil(yi , T )+1 = hi +2. De asemeni, avem T hi +1 (xi ) = T hi (yi ) ∈


Ker T .
Fie K-spaţiile liniare

Z(xi , T ) = SpanK {xi , T (xi ), . . . , T hi (xi ), T hi +1 (xi )}


 n o
= SpanK Xi ∪ T hi +1 (xi ) . (3.12)

Atunci,
 n o  n o
Xi ∪ T hi +1 (xi ) ∩ X j ∪ T h j +1 (x j ) = 0,
/ i 6= j.

Într-adevăr, via (3.11) — Zi ∩ Z j = 0, / Zi ∩ {0E } = 0/ —, avem Xi ∩ X j = 0/ pentru


orice i 6= j. Apoi, cum {T hi +1 (x )} ⊆ T −1 ({0 }), deducem că {T hi +1 (x )}∩X = 0. /
 i E i j
Este evident că T hi +1 (xi ) ∩ T h j +1 (x j ) = 0. / În caz contrar, am avea T hi +1 (xi ) =
T h j +1 (x j ), ceea ce e echivalent cu T hi (yi ) = T h j (y j ) ∈ Zi ∩ Z j , o contradicţie.
Mai departe, afirmăm că spaţiile (Z(xi , T ))1≤i≤r sunt liniar independente peste
corpul K. Pentru a proba aceasta, fie expresia [14, pag. 335] — vezi şi Lema 2.5 —
r
∑ ui = 0E , ui ∈ Z(xi , T ).
i=1

Aplicând operatorul T , avem — via (3.6) —


r
∑ vi = 0E , vi = T (ui ) ∈ T (Z(xi , T )) = Z(yi , T ).
i=1

Deoarece spaţiile (Z(yi , T ))1≤i≤r sunt liniar independente


peste corpul K, obţinem


că vi = 0E pentru orice i. Aşadar, ui ∈ Ker T Z(xi ,T ) şi, pe baza expresiei (3.7),

ui ∈ KT hi +1 (xi ) = KT hi (yi ) ⊆ Z(yi , T ).

Am ajuns la ui = 0E , ceea ce dovedeşte afirmaţia făcută anterior.


Putem preciza acum setul S5 . Mai precis,
54 3 Forma canonică a matricelor
r
[
S5 = Xi .
i=1

Cum spaţiile (Z(xi , T ))1≤i≤r sunt liniar independente, sistemul de vectori


n o
T h1 +1 (x1 ), . . . , T hr +1 (xr ) ⊆ Ker T

este liniar independent peste corpul K. Îl completăm până la o bază S4 a spaţiului
Ker T .
n o
S4 = T h1 +1 (x1 ), . . . , T hr +1 (xr ), xr+1 , . . . , xs . (3.13)

Am ajuns la — vezi (3.12) —


M
E = SpanK (S6 ) = Ke (3.14)
e∈S6
= Z(x1 , T ) ⊕ · · · ⊕ Z(xr , T ) ⊕ Kxr+1 ⊕ · · · ⊕ Kxs
= Z(x1 , T ) ⊕ · · · ⊕ Z(xr , T ) ⊕ Z(xr+1 , T ) ⊕ · · · ⊕ Z(xs , T ). (3.15)

Demonstraţia s-a ı̂ncheiat. ⊓


Exemplul 3.2. Descompunerea (3.10) nu este, ı̂n general, unică.


Fie E = R8 , unde K = R, şi baza canonică S = {i1 , . . . , i8 }. Introducem opera-
torul R-liniar T : E → E prin formulele

T (i j ) = i j+1 , j ∈ {1, 2, 5, 6}, T (is ) = 0E , s ∈ {3, 4, 7, 8}.

Atunci, T 3 = O.
Deducem că

Z(is , T ) = Ris , s ∈ {3, 4, 7, 8},

şi

Z(iw , T ) = SpanR {iw , iw+1 , iw+2 } ≡ R3 , nil(iw , T ) = 3,

unde w ∈ {1, 5}, respectiv

Z(i1 + i5 , T ) = SpanR {i1 + i5 , i2 + i6 , i3 + i7 } ≡ R3 , nil(i1 + i5 , T ) = 3.

Au loc egalităţile

E = Z(i1 , T ) ⊕ Z(i5 , T ) ⊕ Z(i4 , T ) ⊕ Z(i8 , T )

şi

E = Z(i1 + i5 , T ) ⊕ Z(i5 , T ) ⊕ Z(i3 , T ) ⊕ Z(i8 , T ).


3.1 Cazul operatorilor nilpotenţi 55

Observăm că

Z(i1 + i5 , T ) ∩ Z(i j , T ) = {0E }, Z(i j , T ) ∩ Z(iv , T ) = {0E },

unde j 6= v ∈ {1, 3, 4, 5, 8}.


Matricea de reprezentare a operatorului T , ı̂n ambele descompuneri, este
  
000
1 0 0 O3 O3,1 O3,1 
 
 010 
   
 0 0 0 
T=  .
O 1 0 0  O O 
 3 3,1 3,1 
 0 1 0 
 
 O1,3 O1,3 (0) O1 
O1,3 O1,3 O1 (0)

Mai precis,
 
T (d 1 ) · · · T (d 8 ) = d 1 · · · d 8 · T,

unde

(d 1 , . . . , d 8 ) = i1 , i2 , i3 , i5 , i6 , i7 , i4 , i8 ,

respectiv
 
T (e1 ) · · · T (e8 ) = e1 · · · e8 · T,

unde

(e1 , . . . , e8 ) = i1 + i5 , i2 + i6 , i3 + i7 , i5 , i6 , i7 , i3 , i8 .

Următoarele matrice pătrate,


 
0 0 0 0 ··· 0
1 0 0 0 · · · 0   
   
0 1 0 0 · · · 0  000
  00
Ak =  . . . . ..  ∈ Mk (K), A3 = 1 0 0, A2 = , A1 = (0),
 .. . . . . . . .  10
  010
0 · · · 0 1 0 0
0 ··· 0 0 1 0

unde k ∈ N∗ , poartă numele de matrice (blocuri) nilpotente elementare4 .


Rămânând ı̂n cadrul Teoremei 3.1, să observăm că matricea de reprezentare a
operatorului nilpotent T : E → E ı̂n raport cu baza S6 — (3.8) — este

4 În limba engleză, elementary nilpotent block (sing.). Vezi [14, pag. 122].
56 3 Forma canonică a matricelor
 
T Z(e1 ,T ) 0 0 ··· 0

 0 T Z(e2 ,T ) 0 ··· 0 

 . .. .. .. 
 .. . . . 
T= ,
 
 0 ··· 0 T Z(eq−1 ,T ) 0 
 

0 0 0 ··· T Z(eq ,T )

unde5 T Z(ek ,T ) = Anil(ek ,T ) pentru orice 1 ≤ k ≤ q şi q = s. De asemeni, matricele
1-dimensionale A1 le corespund spaţiilor Z(e, T ) cu e ∈ Ker T . În cazul nostru, a-
ceste elemente e sunt — dacă r + 1 ≤ s — elementele {xr+1 , . . . , xs } din setul S4
prezentat ı̂n (3.13).
Formula (3.15) arată că spaţiul liniar E poate fi scris ca suma directă a s subspaţii
de tipul Z(e, T ) ı̂n timp ce din definiţia (3.13) a setului S4 rezultă că dimK Ker T = s.
Astfel, numărul de blocuri nilpotente elementare ale matricei T este egal cu dimen-
siunea nucleului operatorului T [14, pag. 123, Theorem 2].
Conform formulei (1.9), putem permuta coloane şi linii ale matricei T dacă per-
mutăm vectorii din baza S6 a spaţiului E.
De exemplu, lucrând pe blocuri, egalitatea
 
AO
(T (B1 ) T (B2 )) = (B1 B2 )
OB

se rescrie ca

BO
(T (B2 ) T (B1 )) = (B2 B1 ) .
OA

Cu alte cuvinte, blocurile nilpotente elementare pot fi aşezate pe diagonala prin-


cipală a matricei T ı̂n ordinea descrescătoare (nestrictă) a dimensiunilor lor [14,
pag. 123, Theorem 1]. Această permutare este echivalentă cu permutarea termenilor
din partea dreaptă a descompunerii (3.15).
Este valabilă egalitatea

T = T Z(x1 ,T ) ⊕ · · · ⊕ T Z(xs ,T ),

de unde — via Lema 3.2 —



T v = T v Z(x1 ,T ) ⊕ · · · ⊕ T v Z(xs ,T ), v ∈ N∗ .

La fel ca ı̂n cazul relaţiei (3.7), deducem că — pentru 1 ≤ v ≤ hi + 2 —


 n o
Ker T v Z(xi ,T ) = SpanK T hi +2−v (xi ), . . . , T hi +1 (xi ) , i ∈ 1, r,

adică, via (3.4),

5 Reamintesc observaţia de la (3.4)!


3.1 Cazul operatorilor nilpotenţi 57

dimK Ker T v Z(xi ,T ) = v.

Fie v = 2. Pe baza (3.14), realizăm descompunerea


M n o
nil(e,T )−2
Ker T 2 = SpanK T (e), T nil(e,T )−1 (e)
e ∈ {x1 , . . . , xs }
nil(e, T ) ≥ 2
M
⊕ KT nil(e,T )−1 (e). (= Ke)
e ∈ {x1 , . . . , xs }
nil(e, T ) = 1

Deducem de aici că, la calculul dimensiunii subspaţiului Ker T 2 ⊆ E, toate subspa-


ţiile Z(e, T ) de dimensiune cel puţin 2 contribuie cu câte 2 (dimensiuni) ı̂n timp ce
subspaţiile 1-dimensionale contribuie cu câte (evident) 1 dimensiune [14, pag. 124].
Primelor dintre subspaţii le corespund blocuri nilpotente elementare Ak , unde k ≥ 2.
Un raţionament analog se efectuează pentru fiecare Ker T v ⊆ E.
Fie νi ≥ 0 numărul blocurilor Ai de pe diagonala principală a matricei T. Cum 
dimK E = m, este evident că νi = 0 pentru orice i ≥ m + 1. Fie δi = dimK Ker T i .
Atunci, analiza anterioară ne conduce la — [14, ibid.] —


 δ1 = ν 1 + · · · + ν m ,

 δ2 = ν1 + 2 · (ν2 + · · · + νm ),



 ..

 .
 δ w = ∑ i · νi + w · ∑ νi , unde 2 ≤ w ≤ m, (3.16)

 1≤i≤w−1 w≤i≤m

 ..



 .

δm = ν 1 + 2 · ν 2 + 3 · ν 3 + · · · + m · ν m .

Evident, ı̂n practică, vom avea νi = 0 pentru mulţi6 dintre indecşii i.


Scăzând două câte două — “ecuaţia (i) − ecuaţia (i + 1)” — ecuaţiile consecutive
ale sistemului algebric (3.16), ajungem la

6 Conform [14, pag. 120, Problema 8], δ = m, adică Tm = O . Vezi şi estimările (2.40), bazată
m m
pe (2.13), respectiv (2.41). Pentru a o folosi pe aceasta din urmă, să remarcăm că, dacă un operator
R-liniar este nilpotent, atunci şi complexificatul său va fi nilpotent — vezi (1.16), (1.38) —. Apli-
când Teorema 2.2, realizăm descompunerea (unică) TC = D + N = O + N = N , de unde T = N.
Nu vom utiliza, ı̂n cele ce urmează, relaţia δm = m.
58 3 Forma canonică a matricelor


 δ1 = ν 1 + · · · + ν m ,

 − δ1 + δ2 = ν 2 + ν 3 + · · · + ν m ,



 ..

 .
 −δw−1 + δw = ∑ νi , unde 2 ≤ w ≤ m,

 w≤i≤m

 ..



 .

−δm−1 + δm = νm .

În sfârşit, scăzând două câte două — “ecuaţia (i) − ecuaţia (i + 1)” — ecuaţiile
consecutive ale sistemului algebric anterior, obţinem


 ν 1 = 2 · δ1 − δ2 ,

 ..


 .
νw = −δw−1 + 2 · δw − δw+1 , unde 2 ≤ w ≤ m − 1, (3.17)

 .

 ..



νm = −δm−1 + δm .

Relaţiile (2.12) arată că există numărul p ≥ 1 astfel ı̂ncât δ p = δ p+1 = · · · , de unde
ν p+1 = ν p+2 = · · · = 0.
Setul de relaţii (3.17) arată că numărul de blocuri nilpotente elementare de o a-
numită dimensiune depinde numai de operatorul T , aşadar, scrierea matricei T ca o
matrice-diagonală care are pe diagonala principală blocuri nilpotente elementare
aşezate ı̂n ordinea descrescătoare nestrictă a dimensiunilor lor este unică, vezi [14,
pag. 125, Theorem 4].
Fie ε > 0 fixat. Fiind date e ∈ E\ {0E }, k = nil(e, T ) şi operatorul K-liniar U =
T Z(e,T ) : Z(e, T ) → Z(e, T ), relaţia (1.9) ne conduce la
 
0 0 0 ··· 0
0
1 0 0 · · · 0
0
 
  0 1 0 · · · 0
0 
U(e1 ) · · · U(ek ) = e1 · · · ek ·  . .. ..
.. ..  ,
 .. . .
. .
 
0 · · · 0 1 0 0
0 ··· 0 0 1 0

unde — reamintesc formulele bazei (3.5) —

e1 = e, e2 = T (e) = U(e1 ), . . . , ek = T k−1 (e) = U(ek−1 ).

Introducem altă bază a K-spaţiului liniar Z(e, T ) prin relaţiile — [14, pag. 148]

1 1
f 1 = e1 , f 2 = · e2 , . . . , f k = k−1 · ek .
ε ε
Matricea de schimbare de bază este
3.2 Forma canonică Jordan 59
 
1 0 0 0 ··· 0
0 1
··· 
 ε 0 0 0 
0 0 ε12 0 ··· 0 
 
P = Bk (ε ) = 
 .. .. .. .. .. .

. . . . . 
 1 
0 ··· 0 0 ε k−2
0 
1
0 ··· 0 0 0 ε k−1

Via identităţile7
         
00 10 00 10 00
A2 · B2 (ε ) = · = = · = B2 (ε ) · A2 (ε )
10 0 ε1 10 0 ε1 ε0

şi — aici, k ≥ 3 —
   
0 0 0 0 ··· 0 0 0 00 ··· 0
1 0 0 0 · · · 0 ε 0 00 · · · 0
   
ε
0 1
ε 0 0 · · · 0 0 00 · · · 0
   
Ak · Bk (ε ) =  .. .. .. .. ..  = Bk (ε ) ·  . .. ..
.. .. 
. . . . .  .. . .. .
   
0 ··· 0 1
ε k−3
0 0 0 · · · 0 ε 0 0
0 ··· 0 0 1
k−2 0 0 ··· 0 0 ε 0
ε
= Bk (ε ) · Ak (ε ),

deducem că
    
U( f 1 ) · · · U( f k ) = U(e1 ) · · · U(ek ) · Bk (ε ) = e1 · · · ek · Ak · Bk (ε )
  
= e1 · · · ek · Bk (ε ) · Ak (ε )
 
0 0 0 0 ··· 0
ε 0 0 0 · · · 0
 
0 ε 0 0 · · · 0
  
= f 1 ··· f k ·. . . .
.. 
. . (3.18)
 .. . . . . . . 
 
0 · · · 0 ε 0 0
0 ··· 0 0 ε 0

Evident, Ak = Ak (1).

3.2 Forma canonică Jordan a matricei de reprezentare T

În contextul Teoremei 2.2, revenim la expresiile (2.35) – (2.39).

7 Matricele (Ak )k≥1 au fost introduse la pagina 55.


60 3 Forma canonică a matricelor

Fie λ ∈ K. Pe baza discuţiei din secţiunea anterioară, introducem următoarele


matrice pătrate
 
λ 0 0 0 ··· 0
1 λ 0 0 ··· 0
 
0 1 λ 0 ··· 0
 
Jkλ =  . . . . ..  ∈ Mk (K) (3.19)
 .. . . . . . . .
 
0 ··· 0 1 λ 0
0 ··· 0 0 1 λ

şi
 
λ 0 0  
λ 0
J3λ =  1 λ 0 , J2λ = , J1λ = (λ ), (3.20)

0 1λ

unde k ∈ N∗ . Ele se numesc matrice Jordan elementare8 .


Deoarece operatorul Di din (2.43) este un operator diagonal, putem modifica ba-
za λi -eigenspaţiului generalizat Vi astfel ı̂ncât matricea nilpotentă Mi să fie adusă la
forma sa canonică [14, pag. 123], adică să fie organizată ca o matrice-diagonală de
blocuri nilpotente elementare, aşezate ı̂n ordinea descrescătoare nestrictă a dimen-
siunilor lor. Atunci, matricele Ai din (2.36) devin matrice-diagonale formate din
matrice Jordan elementare, aşezate ı̂n ordinea descrescătoare nestrictă a dimensiu-
nilor lor. La rândul său, matricea de reprezentare T a operatorului liniar T : E → E
— fiind o matrice-diagonală construită cu matricele Ai — devine o matrice-diago-
nală de matrice Jordan elementare. Această scriere a matricei T constituie forma sa
canonică Jordan [14, pag. 127].
Calculul (3.18) arată că putem ı̂nlocui matricele Jordan elementare cu matricele
 
λ 0 0 0 ··· 0
ε λ 0 0 · · · 0
 
0 ε λ 0 ··· 0
λ  
Jk (ε ) =  . . . . ..  ∈ Mk (K) (3.21)
 .. . . . . . . . 
 
0 ··· 0 ε λ 0
0 ··· 0 0 ε λ

şi
 
λ 0 0  
λ 0
J3λ (ε ) =  ε λ 0 , J2λ (ε ) = , (3.22)
ε λ
0 ε λ

unde k ∈ N∗ şi ε > 0. Evident, Jkλ = Jkλ (1).

8 În limba engleză, elementary Jordan matrix (sing.). Conform [14, pag. 127].
3.3 Cazul K = R 61

3.3 Cazul K = R

Restricţia (2.30) a fost impusă pentru a putea descompune polinomul caracte-


ristic pT (λ ) ı̂ntr-un produs de puteri de polinoame de gradul ı̂ntâi — vezi formula
(2.32) —.
Fie E ⊆ Rn un spaţiu liniar real de dimensiune m ≤ n şi T : E → E un operator
R-liniar. Complexificatul său, TC : EC → EC , are aceeaşi matrice de reprezentare T
şi acelaşi polinom caracteristic pT (λ ) ca operatorul T .
Fie λ0 ∈ C\R o eigenvaloare a operatorului TC şi eigenvectorul generalizat

e ∈ Ker (TC − λ0 · I)k \{0E } ⊂ EC , k ∈ N∗ .

Aici, e = x + i · y, unde x, y ∈ Rn .
Relaţiile (1.35), (1.36) şi Lema 1.2 arată că

x, y ∈ EC ∩ Rn = ECR = E.

Via Lema 1.6, σ ◦ TC = TC ◦ σ . Au loc egalităţile


 
0E = σ (0E ) = σ (TC − λ0 · I)k (e)
 
= (σ ◦ (TC − λ0 · I)) (TC − λ0 · I)k−1 (e)
   
= TC − λ0 · I ◦ σ (TC − λ0 · I)k−1 (e)
   
= TC − λ0 · I (σ ◦ (TC − λ0 · I)) (TC − λ0 · I)k−2 (e)
 2   
= TC − λ0 · I (σ ◦ (TC − λ0 · I)) (TC − λ0 · I)k−3 (e)
..
.
 k
= TC − λ0 · I (σ (e)),

de unde
 k
σ (e) ∈ Ker TC − λ0 · I \{0E }. (3.23)

De aici, deducem că fiecărei valori proprii nereale λ0 a operatorului TC ı̂i cores-
punde valoarea proprie λ0 [14, pag. 66, Proposition]. Cele două eigenvalori au
multiplicităţi algebrice egale.
Formula (2.32), valabilă ı̂n C, se rescrie ı̂n R ca
62 3 Forma canonică a matricelor

pT (λ ) = pTC (λ )
= (−1)m · (λ − λ0 )m0 · (λ − λ0 )m0
× (factori generaţi de restul eigenvalorilor)
m
= (−1)m · λ 2 − 2 · Re λ0 · λ + |λ0 |2 0 · (· · · ).

Descompunerea (2.35) a spaţiului liniar EC ne permite să observăm că vectorii


{e, σ (e)}, găsindu-se ı̂n eigenspaţii generalizate diferite, sunt liniar independenţi
peste corpul C.

Lema 3.4. ([14, pag. 68]) Vectorii {e, σ (e)} sunt liniar independenţi peste corpul
C dacă şi numai dacă vectorii {x, y}, unde e = x + i · y şi x, y ∈ E, sunt liniar
independenţi peste corpul R.
În plus,

SpanC {e, σ (e)} = SpanC {x, y}. (3.24)

Demonstraţie. Observăm că e 6= σ (e) dacă şi numai dacă y 6= 0E .


Pentru α = a + b · i ∈ C, unde a, b ∈ R, cu proprietatea că σ (e) = α · e, deducem
că

a · x − b · y = x,
b · x + a · y = −y,

ceea ce este echivalent cu



(a − 1) · x = b · y,
(3.25)
−b · x = (a + 1) · y.

Dat fiind că cel puţin unul din vectorii x, y este nenul, din relaţiile (3.25) rezultă
că

a2 + b2 = 1, (3.26)

ceea ce ne permite să scriem că a = cos u şi b = sin u pentru un anumit u ∈ [0, 2π ].
Ca să ajungem la (3.26), ı̂nmulţim prima ecuaţie din (3.25) cu a + 1, pe cea de-
a doua cu b şi apoi le scădem. Am obţinut că (a2 + b2 − 1) · x = 0E . De asemeni,
ı̂nmulţind prima ecuaţie cu b, pe a doua cu a − 1 şi adunând rezultatele, rezultă
(a2 + b2 − 1) · y = 0E .
Introducând noile formule ale mărimilor a, b ı̂n relaţiile (3.25), ajungem la
u u
sin · x + cos · y = 0E ,
2 2
adică la concluzia că liniar dependenţa vectorilor {e, σ (e)} implică liniar depen-
denţa vectorilor {x, y}.
Reciproc, dacă există c ∈ R astfel ı̂ncât x = c · y, atunci
3.3 Cazul K = R 63

c−i c−i
σ (e) = (c − i) · y = · [(c + i) · y] = α · e, α= ∈ C,
c+i c+i
ceea ce ı̂ncheie demonstraţia.
Pentru partea a doua, remarcăm că au loc relaţiile

(EC ∋) u = α · e + β · σ (e)
= (α + β ) · x + i · (α − β ) · y
= γ · x + ε · y,

unde α , β , γ , ε ∈ C, respectiv

u = γ ·x+ε ·y
1 1
= · (γ − i · ε ) · e + · (γ + i · ε ) · σ (e)
2 2
= α · e + β · σ (e).

Am stabilit egalitatea (3.24). ⊓


Dacă subspaţiile V0 , V1 din (2.35) sunt eigenspaţiile generalizate ale valorilor


proprii λ0 , λ0 , atunci ele admit bazele9 — via (3.23) —

B0 = {e1 , . . . , em0 } ⊂ V0 , B1 = {σ (e1 ), . . . , σ (em0 )} ⊂ V1 .

Au loc egalităţile — pe baza Lemei 3.4 —


!  
M M
V0 ⊕V1 = Ce ⊕  Cf (3.27)
e∈B0 f ∈B1
m0
M m0
M
= (Ce j ⊕ Cσ (e j )) = SpanC {e j , σ (e j )}
j=1 j=1
m0
M
= SpanC {x j , y j }
j=1
= SpanC {x1 , . . . , xm0 , y1 , . . . , ym0 },

unde e j = x j + i · y j şi x j , y j ∈ E pentru orice j.


Aşadar, dacă {λ0 , . . . , λv } sunt eigenvalorile reale iar

{λv+1 , λv+1 , . . . , λv+w , λv+w }

9 Este suficient să arătăm că sistemul B1 este liniar independent peste C. În particular, va rezulta
m0
că vectorii din B1 sunt diferiţi, adică numărul lor este m0 . Relaţia ∑ zi · σ (ei ) = 0E ne conduce la
i=1
m0
0E = σ (0E ) = ∑ zi · ei , de unde zi = 0 pentru orice i.
i=1
64 3 Forma canonică a matricelor

eigenvalorile nereale (complexe) ale operatorului TC : EC → EC , putem rescrie des-


compunerea (2.35) ca
v
M
EC = Vj
j=0
v+w
M
⊕ SpanC {x1j , . . . , xmj j , y1j , . . . , ymj j },
j=v+1

unde setul
n o
B j = e1j , . . . , emj j ⊂ EC ,

cu ekj = xkj + i · ykj şi xkj , ykj ∈ E, este bază a eigenspaţiului generalizat corespunzând
eigenvalorii λ j pentru orice j ∈ v + 1, v + w. De asemeni, există bazele10 B j ⊂ E
pentru eigenspaţiile generalizate V j ale valorilor proprii reale λ j , j ∈ 0, v.
O bază S ⊂ EC poartă numele de bază invariantă la σ (σ -bază) dacă σ (S ) ⊆
S . Cu alte cuvinte, dacă e se găseşte ı̂ntr-o σ -bază, atunci fie e ∈ E, fie e ∈ EC \E
şi σ (e) ∈ S , adică setul {e, σ (e)} este liniar independent peste corpul C.

Exemplul 3.3. Fie11 EC = C3 . Atunci, baza B1 = {e1 , e2 , e3 }, cu vectorii


 
0
e1 = i1 , e2 = i2 , e3 = i · i3 = 0 ,
i

nu este σ -bază deoarece σ (e3 ) = −e3 6∈ B1 .


În schimb, baza B2 = {e4 , e5 , e6 }, cu vectorii
   
0 0
e4 = i1 , e5 = 1 , e6 =  1  ,
i −i

este σ -bază pentru că e4 ∈ R3 şi σ (e5 ) = e6 .

Teorema 3.2. ([14, pag. 116, Theorem 1]) Există şi sunt unici operatorii R-liniari
D, N : E → E astfel ı̂ncât

T = D +N , D ◦ N = N ◦ D,

operatorul N să fie nilpotent, complexificatul operatorului D, DC : EC → EC , să


fie diagonalizabil iar baza ı̂n raport cu care operatorul DC admite o matrice-dia-
gonală de reprezentare să fie o σ -bază.

10 Vezi (1.29).
11

Reamintesc faptul că R3 C = C3 .
3.3 Cazul K = R 65

Demonstraţie. Are loc descompunerea

TC = DC + NC , DC ◦ NC = NC ◦ DC ,

a complexificatului TC pe baza Teoremei 2.2. Aici, operatorul C-liniar DC este dia-


gonalizabil iar operatorul C-liniar NC este nilpotent.
Introducem operatorii C-liniari12

D1 = σ ◦ DC ◦ σ ∈ L(EC , EC ), N1 = σ ◦ NC ◦ σ ∈ L(EC , EC ).

Fie S = {e1 , . . . , em } ⊂ EC o σ -bază ı̂n raport cu care matricea de reprezentare


D a operatorului DC să fie
 
z1 0 0 · · · 0
 0 z2 0 · · · 0 
 
 
D =  0 0 z3 · · · 0  , z j ∈ C.
 .. .. .. . . .. 
. . . . .
0 0 · · · 0 zm

Baza S poate fi renumerotată astfel

S = {e1 , . . . , et } ∪ {et+1 , et+2 } ∪ · · · ∪ {et+2q+1 , et+2q+2 }, (3.28)

unde e j ∈ E pentru orice j ∈ 1,t, e j ∈ EC \E pentru orice j ∈ t + 1,t + 2q + 2 şi


σ (et+2k+1 ) = et+2k+2 pentru orice 0 ≤ k ≤ q. Aici, m = t + 2q + 2, q ∈ N.
Avem relaţiile

D1 (e j ) = (σ ◦ DC )(σ (e j )) = (σ ◦ DC )(e j )
= σ (z j · e j ) = z j · e j , j ∈ 1,t, (3.29)

şi

D1 (et+2 j+1 ) = (σ ◦ DC )(σ (et+2 j+1 )) = (σ ◦ DC )(et+2 j+2 )


= σ (zt+2 j+2 · et+2 j+2 ) = zt+2 j+2 · et+2 j+1 , (3.30)

respectiv

D1 (et+2 j+2 ) = (σ ◦ DC )(σ (et+2 j+2 )) = (σ ◦ DC )(et+2 j+1 )


= σ (zt+2 j+1 · et+2 j+1 ) = zt+2 j+1 · et+2 j+2 . (3.31)

Atunci, pentru orice e ∈ EC ,

12 Acest fapt va fi probat ı̂n (3.32).


66 3 Forma canonică a matricelor
! !
m m
D1 (e) = D1 ∑ αj ·ej = (σ ◦ DC ) ∑ α j · σ (e j )
j=1 j=1
!
m m
=σ ∑ α j · (DC ◦ σ ) (e j ) = ∑ α j · (σ ◦ DC ◦ σ ) (e j )
j=1 j=1
m
= ∑ α j · D1 (e j ), α j ∈ C, (3.32)
j=1

deci operatorul D1 : EC → EC este liniar peste corpul C şi, via (3.29) – (3.31), este
reprezentat ı̂n σ -baza S de o matrice-diagonală.
Mai departe, avem

N12 = (σ ◦ NC ◦ σ ) ◦ (σ ◦ NC ◦ σ ) = σ ◦ NC ◦ σ 2 ◦ NC ◦ σ
= σ ◦ NC2 ◦ σ ,

respectiv

N1k = σ ◦ NCk ◦ σ , k ∈ N∗ ,

deci operatorul N1 : EC → EC este liniar peste corpul C şi nilpotent.


În sfârşit, pentru orice e ∈ EC , avem

(D1 ◦ N1 ) (e) = (σ ◦ DC ◦ NC ◦ σ ) (e) = (σ ◦ NC ◦ DC ◦ σ ) (e)


= (N1 ◦ D1 ) (e),

deci operatorii liniari D1 , N1 comută.


Conform Lemei 1.6,

TC = σ ◦ TC ◦ σ = σ ◦ (DC + NC ) ◦ σ
= σ ◦ DC ◦ σ + σ ◦ NC ◦ σ
= D1 + N1 .

Din Lema 2.18 rezultă că

DC = D1 = σ ◦ DC ◦ σ , NC = N1 = σ ◦ NC ◦ σ ,

adică operatorii liniari complecşi DC , NC sunt complexificaţii unor operatori lini-


ari reali, notaţi cu D, N .
Matricea de reprezentare a operatorului NC este nilpotentă şi coincide cu matri-
cea de reprezentare — ı̂n baza din E care generează spaţiile E, EC — a operatorului
N . Astfel, acesta este nilpotent.
Fie {D2 , N2 } altă descompunere de acelaşi tip, adică

T = D2 + N2 , D2 ◦ N2 = N2 ◦ D2 .
3.3 Cazul K = R 67

Atunci, dacă B = { f 1 , . . . , f m } este o bază a spaţiului liniar real E iar D2 , N2


sunt matricele de reprezentare ı̂n raport cu aceasta ale operatorilor D2 , N2 , matricea
de reprezentare T a operatorului T , ı̂n B, are formula

T = D2 + N2 .

Via (1.38), putem scrie că

TC = (D2 )C + (N2 )C .

De asemeni, conform Lemei 1.7,

(D2 )C ◦ (N2 )C = (D2 ◦ N2 )C , (N2 )C ◦ (D2 )C = (N2 ◦ D2 )C .


m
Fie z = ∑ zi · f i ∈ EC . Egalităţile — Lema 1.2 arată că (EC )R = E, deci
i=1
((D2 ◦ N2 )C )|E = D2 ◦ N2 —
!
m
((D2 )C ◦ (N2 )C ) (z) = (D2 ◦ N2 )C ∑ zi · f i (zi ∈ C)
i=1
m m
= ∑ zi · ((D2 ◦ N2 )C )|E ( f i ) = ∑ zi · (D2 ◦ N2 ) ( f i )
i=1 i=1
!
m m
= ∑ zi · (N2 ◦ D2 ) ( f i ) = (N2 ◦ D2 )C ∑ zi · f i
i=1 i=1
= ((N2 )C ◦ (D2 )C ) (z)

ne conduc la

DC = (D2 )C , NC = (N2 )C .

Obţinem că

D = D2 , N = N2 ,

via Lema 1.2. ⊓


Un operator R-liniar al cărui complexificat este diagonalizabil se numeşte semi-


simplu13 .
Revenim la (3.27). Operatorul (DC ) V0 ⊕V1 are matricea de reprezentare DV0 ⊕V1
ı̂n raport cu baza B0 ∪ B1 . Mai precis,

DC (e1 ) · · · DC (em0 ) DC (σ (e1 )) · · · DC (σ (em0 ))

= e1 · · · em0 σ (e1 ) · · · σ (em0 ) · DV0 ⊕V1

13 În limba engleză, semisimple [14, pag. 65].


68 3 Forma canonică a matricelor

şi
 
λ0 0 0 0 ··· 0
 .. .. .. .. .. 
. . . . .
 
0 · · · λ0 0 ··· 0
DV0 ⊕V1 =  ∈ M2m (C).
0
 · · · 0 λ0 ··· 0 
0

. .. .. .. .. 
 .. . . . .
0 ··· 0 0 ··· λ0

Introducem numerele reale a0 , b0 , unde b0 6= 0, pentru care λ0 = a0 + b0 · i. Ştim


că
1 1
x1 = · (e1 + σ (e1 )) , y1 = · (e1 − σ (e1 )) ,
2 2i
conform (1.35), (1.36).
Au loc relaţiile

(DC ) V0 ⊕V1 (e1 ) = λ0 · e1 (3.33)
= (a0 · x1 − b0 · y1 ) + i · (b0 · x1 + a0 · y1 ),

respectiv

(DC ) V0 ⊕V1 (σ (e1 )) = λ0 · σ (e1 ) (3.34)
= (a0 · x1 − b0 · y1 ) − i · (b0 · x1 + a0 · y1 ),

de unde
1  
(DC ) V0 ⊕V1 (x1 ) = · (DC ) V0 ⊕V1 (e1 ) + (DC ) V0 ⊕V1 (σ (e1 ))
2
= a0 · x1 − b0 · y1

şi
1  
(DC ) V0 ⊕V1 (y1 ) = · (DC ) V0 ⊕V1 (e1 ) − (DC ) V0 ⊕V1 (σ (e1 ))
2i
= b0 · x1 + a0 · y1 .

Fie baza — ı̂nlocuim setul {e1 , σ (e1 )} cu setul {x1 , y1 } ı̂n B0 ∪ B1 —

B = {x1 , y1 } ∪ {e2 , . . . , em0 , σ (e2 ), . . . , σ (em0 )} ⊂ V0 ⊕V1 .



Matricea de reprezentare W1 a operatorului (DC ) V0 ⊕V1 ı̂n raport cu noua bază
este
3.3 Cazul K = R 69
 
a0 b0 0 ··· 0 0 ··· 0
−b0 a0 0 ··· 0 0 ··· 0 
 
 0 0 λ0 ··· 0 0 ··· 0 
 
 .. .. .. .. .. .. .. 
 . . . . . . .
W1 = 
 0 0 0 ··· λ0 0 ··· 0 
 ∈ M2m (C).
0
 
 0
 0 0 ··· 0 λ0 · · · 0 
 . .. .. .. .. . . .. 
 .. . . . . . .
0 0 0 ··· 0 0 · · · λ0

Adică,

DC (x1 ) DC (y1 ) DC (e2 ) · · · DC (em0 ) DC (σ (e2 )) · · · DC (σ (em0 ))

= x1 y1 e2 · · · em0 σ (e2 ) · · · σ (em0 ) · W1 .

Repetând procedeul de ı̂ncă m0 − 1 ori, deducem că există o bază S ⊂ E a spa-


ţiului liniar complex EC ı̂n raport cu care operatorul liniar (DC ) V0 ⊕V1 să aibă
matricea de reprezentare
  
a0 b0
 −b0 a0 · · · O 2 
 
 .
.. .. .
.. 
Wm0 =  .  ∈ M2m0 (R).
  
 a0 b0 
O2 ···
−b0 a0

Aici,

S = {x1 , y1 , x2 , y2 , . . . , xm0 , ym0 }

şi V0 ⊕V1 = SpanC (S ).


Observăm că

V0 ⊕V1 = (V01 )C , unde V01 = SpanR (S ).



Conform Lemei 1.6, restricţia operatorului
liniar complex (DC ) V0 ⊕V1 la14 V01 este
un operator liniar real, notat cu D V01 , a cărui matrice de reprezentare ı̂n raport cu
S este Wm0 . Evident, acest operator liniar real este restricţia la V01 a operatorului
D din Teorema 3.2.
Tot pe baza relaţiei (3.23)15 , deducem că, dacă vectorii {e1 , . . . , eh } — pentru
h ≤ m0 — se scriu sub forma

e1 = e, e2 = (TC − λ0 · I) (e), . . . , eh = (TC − λ0 · I)h−1 (e),

14 V01 este realificatul spaţiului complex V0 ⊕V1 .


 k
15 În fapt, via egalitatea (TC − λ0 · I)k = σ ◦ TC − λ0 · I ◦ σ , unde k ≥ 1.
70 3 Forma canonică a matricelor

unde h = nil (e, TC − λ0 · I), ceea ce implică faptul că

SpanC {e1 , . . . , eh } = Z (e, TC − λ0 · I) ,

atunci
 
nil (e, TC − λ0 · I) = nil σ (e), TC − λ0 · I

şi
 
SpanC {σ (e1 ), . . . , σ (eh )} = Z σ (e), TC − λ0 · I .

Mai precis chiar, din relaţiile

ek = (TC − λ0 · I)k−1 (e)


  k−1 
= σ ◦ TC − λ0 · I ◦ σ (e)
 k−1 
=σ TC − λ0 · I (σ (e))

rezultă că
 k−1
σ (ek ) = TC − λ0 · I (σ (e)), 1 ≤ k ≤ h.

Restricţia la subspaţiul liniar complex

Z0 ⊕ Z1 ⊆ V0 ⊕V1 ,

unde
 
Z0 = Z (e, TC − λ0 · I) , Z1 = Z σ (e), TC − λ0 · I ,

a operatorului TC admite ı̂n baza B2 ∪ B3 , unde

B2 = {e1 , . . . , eh }, B3 = {σ (e1 ), . . . , σ (eh )},

matricea de reprezentare
3.3 Cazul K = R 71
 
λ0 0 0 ··· 0 0 0 0 ··· 0
1
 λ0 0 ··· 0 0 0 0 ··· 0  
0
 1 λ0 ··· 0 0 0 0 ··· 0  
. .. .. .. .. .. .. .. .. 
 .. . . . . . . . .
 
0 0 ··· 1 λ0 0 0 0 ··· 0 
 
TZ0 ⊕Z1 =0 0 ··· 0 0 λ0 0 0 ··· 0  ∈ M2h (C).
 
 
0 0 ··· 0 0 1 λ0 0 ··· 0 
 
0 0 ··· 0 0 0 1 λ0 · · · 0 
 
 .. .. .. .. .. .. . . . . .. 
. . . . . . . . .
0 0 ··· 0 0 0 0 · · · 1 λ0

Relaţiile (3.33), (3.34) se rescriu ca



(TC ) Z0 ⊕Z1 (e1 ) = λ0 · e1 + e2 ,

respectiv

(TC ) Z0 ⊕Z1 (σ (e1 )) = λ0 · σ (e1 ) + σ (e2 ),

de unde

(TC ) Z0 ⊕Z1 (x1 ) = a0 · x1 − b0 · y1 + x2

şi

(TC ) Z0 ⊕Z1 (y1 ) = b0 · x1 + a0 · y1 + y2 .

La felul ca ı̂n cazul matricei Wm0 , matricea de reprezentare a operatorului



(TC ) Z0 ⊕Z1

ı̂n baza

C = {x1 , y1 , x2 , y2 , . . . , xh , yh } (Z0 ⊕ Z1 = SpanC (C ))

este
72 3 Forma canonică a matricelor
  
a0 b0
 O2 O2 ···  O2
 −b
 0 a0   
 10 a0 b0 
 O2 ··· O2 
 01 −b0 a0 
 
 .. .. 
J= . . 
    
 10 a0 b0 
 O2 ··· O2 
 01 −b 
  0 a0  
 10 a0 b0 
O2 ··· O2
01 −b0 a0
 
Eλ0 O2 ··· O2
 I2 Eλ0 ··· O2 
 
= . .. .. ..  ∈ M2h (R), (3.35)
 .. . . . 
O2 · · · I2 Eλ0

unde
 
a0 b0
Eλ0 = .
−b0 a0

Aşadar, restricţia operatorului liniar complex (TC ) Z0 ⊕Z1 la realificatul
Z01 =
SpanR (C ) al spaţiului liniar Z0 ⊕ Z1 este operatorul liniar real T Z01 cu matricea
de reprezentare J ı̂n baza C .
În concluzie, pentru operatorii liniari reali, matricele Jordan elementare Jkλ din
(3.19), (3.20) sunt ı̂nlocuite cu matrice (3.35) atunci când λ ∈ C\R [14, pag. 129,
Theorem 2].
Tehnica descrisă ı̂n (3.18), (3.21), (3.22) ne permite modificarea bazelor B2 ∪
B3 , respectiv C pentru a ı̂nlocui matricea J cu matricea
  
a0 b0
 −b0 a0 O 2 O 2 · · · O 2 
     

 ε0 a0 b0 

O · · · O

 0ε −b0 a0 2 2 

 .. .. 
J(ε ) =  . . 
    

 ε0 a0 b0 

O2 ··· O2

 0ε −b 0
   a0


 ε0 a0 b0 
O2 ··· O2
0ε −b0 a0
 
Eλ0 O2 · · · O2
 ε I2 Eλ · · · O2 
 0 
= . . . ..  , (3.36)
 . . . .
. . . 
O2 · · · ε I2 Eλ0

unde ε > 0. Evident, J = J(1).


Capitolul 4
Aplicaţii

4.1 Sumare prin părţi. Produsul Cauchy a două serii. Teorema


lui F. Mertens

Fie E ⊆ Cn un spaţiu liniar m-dimensional peste corpul K ∈ {R, C}, unde m ≤ n,


cu baza S1 — introdusă la pagina 1 —.
m
Fie x = ∑ λi · ei ∈ E. Cantitatea
i=1
s
m
kxk2 = ∑ | λi |2 (4.1)
i=1

constituie norma euclidiană1 de index 2 a spaţiului liniar E [14, pag. 77]. Dubletul
E = (E, k ⋆ k2 ) este un spaţiu Banach [20, pag. 129].
Lema 4.1. ([13, pag. 109, Theorem 5.1.10]) Fiind dat şirul (a p ) p≥0 ⊂ E, conver-
gent2 la elementul a ∈ E, este valabilă relaţia

lim A p = a,
p→+∞

p
unde A p = 1
p+1 · ∑ ai .
i=0

Demonstraţie. Cum orice şir convergent este mărginit, introducem numărul B > 0
cu proprietatea că

ka p k2 ≤ B, p ∈ N. (4.2)

Fie ε > 0. Există numărul natural N = N(ε ) ≥ 1 astfel ı̂ncât


1Sau l2 -norma [1, pag. 48].
2Orice două norme ı̂n E sunt echivalente [14, pag. 78, Proposition 1], deci putem studia conver-
genţa şirurilor ı̂n raport cu o normă convenabilă.

73
74 4 Aplicaţii

ka p − ak2 < ε , p ≥ N. (4.3)

Realizăm estimările

1 p

A p − a =
2
· ∑
p + 1 i=0
(ai − a)

2
!
N−1 p
1

p+1
· ∑ kai − ak2 + ∑ kai − ak2
i=0 i=N
" #
N−1 p
1
(vezi (4.3)) ≤
p+1
· ∑ (kai k2 + kak2 ) + ∑ ε
i=0 i=N
" #
N−1 p
1
(vezi (4.2)) ≤
p+1
· ∑ (2 · B) + ∑ ε
i=0 i=N
1
= · [2NB + (p − N + 1)ε ], p > N,
p+1
de unde

lim sup A p − a 2 ≤ ε .
p→+∞

Trecem la limită, ı̂n ambii membri ai ultimei inegalităţi, ε ց 0. ⊓


Exemplul 4.1. Reciproca Lemei 4.1 nu este valabilă. Astfel, ı̂n E = R, şirul3 (a p ) p≥0 ,
unde a p = (−1) p , nu este convergent dar şirul (A p ) p≥0 converge la 0.

În contextul Lemei 4.1, să considerăm seria ∑ a p cu sumele parţiale


p≥0

p
A−1 = 0E , A p = ∑ ai , p ∈ N.
i=0

Evident, a p = A p − A p−1 pentru orice4 p [13, pag. 102].


Acestei serii ı̂i asociem mediile Cesàro de ordinul 1,
1 p
Ap 1
· ∑ Ai
1
Ap= =
p+1 p + 1 i=0
p
1
= · ∑ [(p − i + 1) · ai ], p ≥ 0. (4.4)
p + 1 i=0

3 Păstrăm “bara” de la notaţia vectorilor pentru uniformitate. În Exemplul 4.3 vom identifica, din

acelaşi motiv, numerele complexe cu elementele setului M1 (C).


4 În particular, convergenţa seriei — adică, convergenţa şirului (A )
p p≥−1 — implică faptul că
lim a p = 0E .
p→+∞
4.1 Produsul Cauchy a două serii 75

Seria ∑ a p se numeşte sumabilă Cesàro şi are suma (Cesàro) S dacă — [13, pag.
p≥0
109] —
1
lim A p = S ∈ E.
p→+∞

Cu alte cuvinte, mediile aritmetice ale sumelor parţiale consecutive ale seriei ı̂n
discuţie converg la S ı̂n norma k ⋆ k2 .
Lema 4.1 ne arată că orice serie convergentă de elemente din E este şi sumabilă
Cesàro iar suma seriei coincide cu suma sa Cesàro.
Exemplul 4.2. În cazul şirului (a p ) p≥0 din Exemplul 4.1, seria ∑ a p are sumele
p≥0
parţiale (A p ) p≥0 , unde A2p = 1, A2p+1 = 0 pentru orice p, deci nu este convergentă.
Însă, suma sa Cesàro este S = 12 [13, ibid.].
În mulţimea R2 , construim pătratul OABC,

[OABC] = {(p, k)|0 ≤ p, k ≤ M} ∩ N2 ,

de vârfuri O = (0, 0), A = (M, 0), B = (M, M) şi C = (0, M). Aici, M ∈ N. Plecând de
la suprafeţele plane [OAB], [OAC] ⊂ R2 mărginite de liniile poligonale [OA] ∪ [AB] ∪
[BO] şi [OA] ∪ [AC] ∪ [CO] — dreapta OA este orizontală iar dreapta OC verticală
—, introducem mulţimile

∆ = [OAB] ∩ N2 , Θ = [OAC] ∩ N2 .

Evident, ∆ şi Θ reprezintă jumătăţi din pătratul [OABC].


Mulţimile ∆ , Θ sunt partiţionate ı̂n două feluri,
M
[ M
[
∆= ∆p = ∆ k,
p=0 k=0

unde

∆ p = {(p, k) ∈ N2 |0 ≤ k ≤ p}, ∆ k = {(p, k) ∈ N2 |k ≤ p ≤ M},

şi
M
[ M
[
Θ= Θp = Θ k,
p=0 k=0

unde

Θ p = {(p, k) ∈ N2 |0 ≤ k ≤ M − p}, Θ k = {(p, k) ∈ N2 |0 ≤ p ≤ M − k}.

Afirm că altă partiţionare a triunghiului Θ se face prin linii paralele cu dreapta
CA,
76 4 Aplicaţii

M
[
Θ= Ψv , Ψv = {(p, k)|p + k = v} ∩ N2 .
v=0

Într-adevăr, pentru orice (p0 , k0 ) ∈ Θ există exact un element v0 ∈ 0, M astfel ı̂ncât


(p0 , k0 ) ∈ Ψv0 . Mai precis,

(p0 , k0 ) ∈ Ψp0 +k0 .

Lema 4.2. Fiind dat şirul (a pk )(p,k)∈[OABC] ⊂ E, au loc identităţile

M p M M
∑ ∑ a pk = ∑ ∑ a pk , (4.5)
p=0 k=0 k=0 p=k

respectiv
M M−p M M−k
∑ ∑ a pk = ∑ ∑ a pk (4.6)
p=0 k=0 k=0 p=0

şi
M p M M−p
∑ ∑ ak(p−k) = ∑ ∑ a pk . (4.7)
p=0 k=0 p=0 k=0

Demonstraţie. Se observă că


M p M
∑ ∑ a pk = ∑ ∑ a pk = ∑ a pk
p=0 k=0 p=0 (p,k)∈∆ p (p,k)∈∆
M M M
= ∑ ∑ a pk = ∑ ∑ a pk .
k=0 (p,k)∈∆ k k=0 p=k

Apoi,
M M−p M
∑ ∑ a pk = ∑ ∑ a pk = ∑ a pk
p=0 k=0 p=0 (p,k)∈Θ p (p,k)∈Θ
M M M−k
= ∑ ∑ a pk = ∑ ∑ a pk .
k=0 (p,k)∈Θ k k=0 p=0

În sfârşit,
4.1 Produsul Cauchy a două serii 77

M p M
∑ ∑ ak(p−k) = ∑ ∑ avw = ∑ avw
p=0 k=0 p=0 (v,w)∈Ψp (v,w)∈Θ
M M M−p
= ∑ ∑ a pk = ∑ ∑ a pk .
p=0 (p,k)∈Θ p p=0 k=0

Demonstraţia acestor tehnici de sumare prin părţi [13, pag. 106] s-a ı̂ncheiat. ⊓

Fie aplicaţia (operaţia) ⋆ : E 2 → E pentru care (i) există numărul A ≥ 1 astfel


ı̂ncât

ke ⋆ f k2 ≤ A · kek2 · k f k2 ,

(ii) avem bi-omogenitate, adică

λ · (e ⋆ f ) = (λ · e) ⋆ f = e ⋆ (λ · f ),

şi (iii) distributivitate la adunare, adică

e ⋆ ( f + g) = (e ⋆ f ) + (e ⋆ g), (e + f ) ⋆ g = (e ⋆ g) + ( f ⋆ g),

pentru orice e, f , g ∈ E şi λ ∈ K.

Exemplul 4.3. Pentru E = C, făcând identificarea e = (z) ≡ z ∈ C, avem

e ⋆ f = (z1 ) ⋆ (z2 ) = (z1 · z2 ) ≡ z1 · z2 , z j ∈ C, j ∈ {1, 2}.


2
Pentru E = Cq , unde q ∈ N\{0}, putem realiza identificarea — via (1.11) —
 
q2
eq e2q · · · eq2
 
e = ∑ e j · i j ≡  ... ... ..
.  ∈ Mq (C).
j=1
e1 eq+1 · · · e(q−1)q+1

Atunci,
   
eq e2q · · · eq2 fq f2q · · · f q2
   .. .. 
e ⋆ f =  ... ... ..
. · . .
..
. 
e1 eq+1 · · · e(q−1)q+1 f1 fq+1 · · · f(q−1)q+1
= (arp )1≤r, p≤q ,

unde
 
f pq
  f pq−1 

arp ≡ (arp ) = er er+q · · · er+(q−1)q ·  .. .
 . 
f(p−1)q+1
78 4 Aplicaţii

Se observă că
v
u q
u
ke ⋆ f k2 = t ∑ |arp |2
r, p=1
v
u q
u  
≤t ∑ |er |2 + · · · + |er+(q−1)q |2 · | f pq |2 + · · · + | f(p−1)q+1 |2
r, p=1

= kek2 · k f k2 ,

deci A = 1.

Fie seriile ∑ a p şi ∑ b p de elemente din spaţiul liniar E. Prin produsul lor
p≥0 p≥0
Cauchy ı̂nţelegem seria ∑ c p , unde
p≥0

p
c p = ∑ ai ⋆ b p−i , p ∈ N,
i=0

vezi [13, pag. 111].

Lema 4.3. ([13, pag. 112, Theorem 5.2.1]) Produsul Cauchy a două serii conver-
gente, de sume S1 şi S2 , este sumabil Cesàro şi are suma Cesàro

S = S1 ⋆ S2 . (4.8)

Demonstraţie. Introducem numărul B > 0 cu proprietatea că

kA p − S1 k2 ≤ B, kB p − S2 k2 ≤ B, p ∈ N, (4.9)
p p
unde A p = ∑ ai şi B p = ∑ bi .
i=0 i=0
Fie ε > 0. Există numărul natural N = N(ε ) ≥ 1 astfel ı̂ncât

kA p − S1 k2 < ε , kB p − S2 k2 < ε , p ≥ N. (4.10)

Au loc egalităţile — vezi (4.4) —


4.1 Produsul Cauchy a două serii 79

p p i p
(p + 1) · C p = C p = ∑ Ci = ∑ ∑ c j = ∑ (p − i + 1) · ci
1 1

i=0 i=0 j=0 i=0


p i p i
= ∑ ∑ (p − i + 1) · (ak ⋆ bi−k ) = ∑ ∑ ζ ik
i=0 k=0 i=0 k=0
p p p p
(vezi (4.5)) = ∑ ∑ ζ ik = ∑ ak ⋆ ∑ (p − i + 1) · bi−k
k=0 i=k k=0 i=k
p p−k
(r = i − k) = ∑ ak ⋆ ∑ (p − k − r + 1) · br
k=0 r=0
p p−k p p−k p p−k
= ∑ ak ⋆ ∑ Br = ∑ ∑ ak ⋆ B r = ∑ ∑ η kr
k=0 r=0 k=0 r=0 k=0 r=0
p p−r p p−r
(vezi (4.6)) = ∑ ∑ η kr = ∑ ∑ ak ⋆ Br
r=0 k=0 r=0 k=0
!
p p−r p
= ∑ ∑ ak ⋆ Br = ∑ A p−r ⋆ Br .
r=0 k=0 r=0

Pe baza (4.9), (4.10), introducem elementele u p , v p ∈ E prin formulele

A p = S1 + u p , B p = S2 + v p , p ∈ N.

Deducem că
! !
p p p
∑ vr ∑ u p−r ⋆ S2 + ∑ u p−r ⋆ vr
1
Cp = (p + 1) · (S1 ⋆ S2 ) + S1 ⋆ +
r=0 r=0 r=0

= (p + 1) · (S1 ⋆ S2 )
! !
  p p  
1 1
+ (p + 1) · S1 ⋆ · ∑ vr + · ∑ u p−r ⋆ (p + 1) · S2
p + 1 r=0 p + 1 r=0
p
+ ∑ u p−r ⋆ vr
r=0
= (p + 1) · (S1 ⋆ S2 )
! !
  p p  
1 1
+ (p + 1) · S1 ⋆ · ∑ vr + · ∑ ur ⋆ (p + 1) · S2
p + 1 r=0 p + 1 r=0
p
+ ∑ u p−r ⋆ vr
r=0
   
= (p + 1) · (S1 ⋆ S2 ) + (p + 1) · S1 ⋆ V p + U p ⋆ (p + 1) · S2
p
+ ∑ u p−r ⋆ vr .
r=0
80 4 Aplicaţii

Deoarece lim u p = lim v p = 0E şi


p→+∞ p→+∞

kS1 ⋆ V p k2 ≤ A · kS1 k2 · kV p k2 , kU p ⋆ S2 k2 ≤ A · kS2 k2 · kU p k2 ,

Lema 4.1 ne conduce la

lim S1 ⋆ V p = lim U p ⋆ S2 = 0E .
p→+∞ p→+∞

Mai departe, pentru p ≥ 2 · N — [13, pag. 113] —, facem estimările



p p

∑ u p−r ⋆ vr ≤ A · ∑ ku p−r k2 · kvr k2
r=0 r=0
2
!
N−1 p−N p
= A· ∑+∑+ ∑ ku p−r k2 · kvr k2
r=0 r=N r=p−N+1
!
N−1 p−N p
≤ A· ∑ ε ·B+ ∑ ε 2
+ ∑ B·ε
r=0 r=N r=p−N+1

= A · 2NB · ε + (p − 2N + 1) · ε 2 ,

de unde

1
p

lim sup · ∑ u p−r ⋆ vr ≤ A · ε 2 .
p→+∞ p + 1 r=0
2

Am ajuns la
1
lim sup kC p − S1 ⋆ S2 k2 ≤ A · ε 2 .
p→+∞

Trecem la limită, ı̂n ambii membri ai ultimei inegalităţi, ε ց 0. ⊓



(−1) p
Exemplul 4.4. Fie seria ∑ a p , unde a p = √
p+1
, conform [13, pag. 112]. Atunci,
p≥0
termenul general al produsului Cauchy al seriilor ∑ a p şi ∑ b p , unde b p = a p
p≥0 p≥0
pentru orice p ∈ N, are forma
p p
1
c p = ∑ ai · a p−i = (−1) p · ∑ p .
i=0 i=0 (i + 1) · (p − i + 1)

Via inegalitatea mediilor, obţinem că


4.1 Produsul Cauchy a două serii 81
p p
1 2 2(p + 1)
|c p | = ∑ p(i + 1) · (p − i + 1) ≥ ∑ p + 2 = p+2
i=0 i=0

1
= 2· 1− , p ∈ N,
p+2

respectiv

lim inf |c p | ≥ 2,
p→+∞

adică produsul Cauchy ∑ c p nu convergent ı̂n E = R.


p≥0
Conform [13, pag. 106, Theorem 5.1.5], seria alternantă ∑ a p este convergentă.
p≥0
Cu alte cuvinte, nu orice produs Cauchy de serii convergente este convergent.

Lema 4.4. ([13, pag. 113, Corollary]) Dacă produsul Cauchy a două serii conver-
gente, de sume S1 şi S2 , este convergent, atunci suma sa are formula (4.8).

Demonstraţie. Deoarece produsul Cauchy este convergent, el este sumabil Cesàro


iar suma sa S coincide cu suma Cesàro, vezi Lema 4.1. Pe de altă parte, suma Cesàro
are — via Lema 4.3 — valoarea dată ı̂n (4.8). ⊓⊔

Teorema 4.1. ([13, pag. 113, Theorem 5.2.2]) Produsul Cauchy a două serii absolut
convergente este absolut convergent.

Demonstraţie. Dacă seriile ∑ a p şi ∑ b p sunt absolut convergente, atunci seriile


p≥0 p≥0
∑ u p , ∑ v p , unde
p≥0 p≥0

u p = ka p k2 , v p = kb p k2 , p ∈ N,

şi

p p

kc p k2 = ∑ ai ⋆ b p−i ≤ A · ∑ ui v p−i ,
i=0 i=0 2

sunt convergente. Le notăm sumele cu U, respectiv V .


Se observă că
p p i
∑ kci k2 ≤ A · ∑ ∑ u j vi− j
i=0 i=0 j=0
! !
p p−i p p−i
(vezi (4.7)) = A· ∑ ∑ ui v j = A · ∑ ui · ∑ vj
i=0 j=0 i=0 j=0
! !
+∞ +∞
≤ A· ∑ ui · ∑ vj = A ·UV, p ≥ 0,
i=0 j=0
82 4 Aplicaţii

+∞
de unde ∑ kci k2 ≤ AUV < +∞. ⊓

i=0

Teorema 4.2. (F. Mertens, [13, pag. 114, Exercise 6]) Dacă cel puţin una dintre se-
riile convergente ∑ a p , ∑ b p , de sume S1 şi S2 , este absolut convergentă, atunci
p≥0 p≥0
produsul lor Cauchy este convergent şi are suma S1 ⋆ S2 .

Demonstraţie. Să presupunem că seria ∑ a p este absolut convergentă.


p≥0
La fel ca la Lema 4.3, introducem numărul B > 0 cu proprietatea că
+∞
∑ kai k2 < B, kB p − S2 k2 = kv p k2 < B, p ∈ N.
i=0

Fie ε > 0. Există numărul natural N = N(ε ) ≥ 1 astfel ı̂ncât


+∞
∑ ka j k2 < ε , kv p k2 < ε , p ≥ N.
j=N

Atunci, sunt valabile identităţile


p p i p i p p
Cp = ∑ ci = ∑ ∑ ak ⋆ bi−k = ∑ ∑ ζ ik = ∑ ∑ ζ ik
i=0 i=0 k=0 i=0 k=0 k=0 i=k
! !
p p p p p p−k
= ∑ ∑ ak ⋆ bi−k = ∑ ak ⋆ ∑ bi−k = ∑ ak ⋆ ∑ br
k=0 i=k k=0 i=k k=0 r=0
!
p p  p p
= ∑ ak ⋆ B p−k = ∑ ak ⋆ S2 + v p−k = ∑ ak ⋆ S2 + ∑ ak ⋆ v p−k
k=0 k=0 k=0 k=0
p
= A p ⋆ S2 + ∑ ak ⋆ v p−k . (4.11)
k=0

Mai departe, deducem că



kA p ⋆ S2 − S1 ⋆ S2 k2 = A p − S1 ⋆ S2 2
≤ A · kS2 k2 · kA p − S1 k2
= A · kS2 k2 · ku p k2
→ 0 când p → +∞,

respectiv — pentru p ≥ 2 · N —
4.1 Produsul Cauchy a două serii 83
!
p p p−N p

∑ ak ⋆ v p−k ≤ A · ∑ kak k2 · kv p−k k2 = A · ∑+ ∑ kak k2 · kv p−k k2
k=0 k=0 k=0 k=p−N+1
2
" ! #
p−N p
≤ A· ∑ (kak k2 · ε ) + ∑ kak k2 · B
k=0 k=p−N+1
" ! ! #
+∞ +∞
≤ A· ∑ kai k2 ·ε + ∑ ka j k2 · B < A · (B · ε + ε · B)
i=0 j=N
= 2AB · ε .

În concluzie,

p
C p − S1 ⋆ S2 ≤ kA p ⋆ S2 − S1 ⋆ S2 k2 + ∑ ak ⋆ v p−k

,
2 k=0
2

de unde

lim sup C p − S1 ⋆ S2 2 ≤ 2AB · ε .
p→+∞

Trecem la limită, ı̂n ambii membri ai ultimei inegalităţi, ε ց 0. Am ajuns la

lim C p = S1 ⋆ S2 .
p→+∞

Dat fiind că operaţia “⋆” nu este neapărat comutativă, trebuie să arătăm că seria
∑ a p nu joacă niciun rol privilegiat ı̂n formula (4.11).
p≥0
Plecând de la observaţia că

ak ⋆ bi−k = ai−(i−k) ⋆ b(i−k) ,

refacem estimările anterioare. Astfel,


p p i p i
Cp = ∑ ci = ∑ ∑ ak ⋆ bi−k = ∑ ∑ ai−k ⋆ bk
i=0 i=0 k=0 i=0 k=0
p i p p p p
= ∑ ∑ ζ ik = ∑ ∑ ζ ik = ∑ ∑ ai−k ⋆ bk
i=0 k=0 k=0 i=k k=0 i=k
! !
p p p p−k
= ∑ ∑ ai−k ⋆ bk = ∑ ∑ ar ⋆ bk
k=0 i=k k=0 r=0
!
p p  p p
= ∑ A p−k ⋆ bk = ∑ S1 + u p−k ⋆ bk = S1 ⋆ ∑ bk + ∑ u p−k ⋆ bk
k=0 k=0 k=0 k=0
p
= S1 ⋆ B p + ∑ u p−k ⋆ bk ,
k=0
84 4 Aplicaţii

ceea ce ı̂ncheie demonstraţia. ⊓


Lema 4.5. ([14, pag. 84, Lemma 2]) Fiind date şirurile (A p ) p≥0 , (B p ) p≥0 ⊂ Mm (C)
astfel ı̂ncât seriile

∑ Ap, ∑ Bp (4.12)
p≥0 p≥0

2
să fie absolut convergente ı̂n raport cu l2 -norma spaţiului Mm (C) ≡ Cm , seria
∑ Cp , unde
p≥0

p
Cp = ∑ Ak · B p−k , p ∈ N,
k=0

este absolut convergentă. În plus, suma sa C este produsul sumelor seriilor din
(4.12), adică
! !
+∞ +∞
C= ∑ Ai · ∑ Bj .
i=0 j=0

Demonstraţie. În contextul Exemplului 4.3, introducem operaţia


   
 2  col(1) A col(1) B
   
Cm ∋ e ⋆ f =  ...  ⋆  ... 
col(m) A col(m) B
≡ A ⋆ B = A · B, A, B ∈ Mm (C).

Concluzia rezultă din Teorema 4.1. ⊓


4.2 Exponenţiala unei matrice pătrate cu elemente numerice

Fie A ∈ Mm (C), unde m ∈ N\{0}. Elementul — A0 = Im —


+∞ p
1 1
eA = ∑ p!
· A p = lim ∑ · Ai = lim A p
p→+∞ i! p→+∞
p=0 i=0
2
∈ Mm (C) ≡ Cm
p
se numeşte exponenţiala5 matricei A. Aici, A p = ∑ ai şi a p = 1
p! · A p pentru orice
i=0
p.

5 În limba engleză, exponential of A, [24, pag. 12].


4.2 Exponenţiala unei matrice pătrate 85

În contextul Lemei 4.5, au loc relaţiile


s
m
kAk2 = ∑ |avw |2 , A = (avw )1≤v, w≤m ,
v,w=1

respectiv

kA2 k2 = kA ⋆ Ak2 ≤ (kAk2 )2 .

Prin inducţie matematică, probăm că

kA p k2 ≤ (kAk2 ) p , p ∈ N\{0},

iar de aici, dat fiind că seria numerică ∑ 1


p! · (kAk2 ) p este convergentă — are suma
p≥0
es , unde s = kAk2 —, deducem că seria ∑ a p este absolut convergentă ı̂n spaţiul
p≥0
liniar E = Mm (C).

Teorema 4.3. ([24, pag. 13]) Fie A, B ∈ Mm (C). Au loc relaţiile următoare:
(i) dacă A · B = B · A, atunci

eA+B = eA · eB , eA · eB = eB · eA ;

(ii)
−1
eOm = Im , eA = e−A ;

(iii) dacă6 A ∼ B, atunci eA ∼ eB ;


(iv) ([14, pag. 89, Problem 12]) dacă A · B = B · A, atunci

A · eB = eB · A.

Demonstraţie. Partea (i). Sunt valabile egalităţile — folosim binomul lui Newton!

+∞ p
1 1
eA+B = ∑p!
· (A + B) p = lim ∑ · (A + B)i
p→+∞ i!
p=0 i=0
p i   p i    
1 j 1 1
= lim ∑ · ∑ · A · B = lim ∑ ∑
j i− j j
·A · ·Bi− j
p→+∞
i=0 i! j=0
i p→+∞
i=0 j=0 j! (i − j)!
p i
= lim
p→+∞
∑ Ci , Ci = ∑ A j ⋆ Bi− j ,
i=0 j=0

1
unde Up = p! ·U p pentru orice U ∈ Mm (C).

6 Relaţia de echivalenţă “∼” a fost definită la pagina 6.


86 4 Aplicaţii

Aplicăm Lema 4.5. Astfel,


! !
+∞ +∞
eA+B = ∑ Aj · ∑ Bq = eA · eB .
j=0 q=0

Cea de-a doua identitate rezultă din egalitatea eA+B = eB+A = eB · eA .


Partea (ii). Concluzia rezultă din relaţiile
+∞
1
Im = Im + ∑ p!
· (Om ) p = eOm = eA+(−A) = e(−A)+A
p=1

= eA · e−A = e−A · eA .

Partea (iii). Vom ı̂ntrebuinţa identitatea (1.18). Într-adevăr, deoarece


! !
+∞
1 i k
1 i
−1
P · ∑ · B · P − P · ∑ · B · P −1
i=0 i! i=0 i!
2

−1
+∞
1 k
1

≤ P 2 · ∑ · Bi − ∑ · Bi · kPk2
i=0 i! i=0 i!
2
" #
−1 +∞
1
≤ P 2 · kPk2 · ∑ · (kBk2 ) , j
k ≥ 0,
j=k j!

deducem că
!
k
1 i
lim P −1
· ∑ · B · P = P−1 · eB · P.
k→+∞ i=0 i!

Conform (1.18), avem


k  k
1 1
P−1 · eB · P = lim
k→+∞
∑ i! · P−1 · Bi · P = lim
k→+∞
∑ i! · Ai
i=0 i=0
= eA .

Partea (iv). Observăm că

A · B2 = (A · B) · B = (B · A) · B = B · (A · B) = B · (B · A)
= B2 · A.

Mai departe, prin inducţie matematică, stabilim egalitatea

A · B p = B p · A, p ∈ N.

Pentru a trage concluzia, la fel ca anterior, utilizăm distributivitatea ı̂nmulţirii


matricelor faţă de adunarea acestora. ⊓

4.3 Calculul exponenţialei 87

4.3 Calculul exponenţialei unei matrice pătrate cu elemente


complexe

Fie A ∈ Mm (C), unde m ∈ N\{0}. Atunci, matricea A poate fi considerată drept


matricea de reprezentare ı̂n baza canonică S1 = BC = {i1 , . . . , im } a unui element
T din spaţiul liniar complex L(Cm , Cm ), şi anume — A = T —
     
z1 z1 z1
 ..   ..   ..  m
 .  7−→ A ·  .  ,  . ∈C .
zm zm zm

Conform Teoremei 2.2, există baza S2 a spaţiului liniar Cm ı̂n raport cu care
operatorul T să fie reprezentat de matricea T1 cu formula

T1 = D + N, D · N = N · D.

Aici,
 
d1 · · · 0
 .. . . ..  , unde d ∈ C, i ∈ 1, m,
D= . . .  i Nm = Om .
0 · · · dm

Deducem că
 
ed1 · · · 0 m−1
 ..  , 1
eD =  ... . . . .  eN = ∑ q!
· Nq .
d q=0
0 ··· e m

Teorema 4.3 ne conduce la


 
ed1 · · · 0 !
m−1
 ..  · 1
eT1 = eD · eN =  ... . . . .  ∑ q!
· Nq .
d q=0
0 ··· e m

Relaţiile (1.15) arată că există matricea nesingulară P ∈ Mm (C) astfel ı̂ncât

A = P · T1 · P−1 .

Plecând de la concluzia (iii) a Teoremei 4.3, stabilim că


 d 
e 1 ··· 0 !
m−1
 .. . . ..  1
. .  · ∑ q! · N · P .
A T1 −1 q −1
e = P·e ·P = P· .
q=0
0 · · · edm
88 4 Aplicaţii

În plus, formula (1.2) — de trecere de la BC la S2 — arată că vectorii bazei S2


sunt chiar coloanele matricei P [14, pag. 113]. Vezi (4.14).
Ştim că numerele (di )i∈1,m de pe diagonala principală a matricei D sunt eigen-
valori — numărate cu multiplicităţile lor algebrice — ale matricei A iar baza S2 se
compune din eigenvectori generalizaţi ai aceleiaşi matrice. Însă este dificil să cons-
truim acea bază S2 faţă de care matricea de reprezentare nilpotentă N să se afle ı̂n
forma canonică. Deoarece matricea

N0 = P · N · P−1 = P · (T1 − D) · P−1 = A − P · D · P−1

ı̂l reprezintă pe7 N ı̂n baza canonică BC , avem

(N0 )m = Om .

În concluzie, ne bazăm ı̂n practică pe formula8


−1 +N −1
eA = eP·D·P 0 = eP·D·P · eN0 = P · eD · P−1 · eN0
A−P·D·P−1
= P · eD · P−1 · e
 d 
e 1 ··· 0 " #
m−1 
 .. . . ..  −1 1
. .  · P · ∑ q! A − P · D · P
−1 q
= P· . , (4.13)
q=0
0 · · · edm

vezi [24, pag. 33, Corollary 1].

4.4 Estimarea produsului scalar

Fie E = Rm , unde m ∈ N\{0}, şi operatorul R-liniar T : E → E. Fiind date ba-


zele S1 = BC = {i1 , . . . , im } — baza canonică — şi S = { f 1 , . . . , f m }, notăm cu
P matricea de schimbare de bază,
 
f 1 · · · f m = i1 · · · im · P = Im · P = P

= col(1) P · · · col(m) P . (4.14)

Fie u, v ∈ E cu expresiile

7 T = D +N .
8 Fiind date B, C ∈ Mm (C), dacă B ·C = C · B, atunci şi
 
P · B · P−1 · P ·C · P−1 = P · BC · P−1 = P ·CB · P−1
 
= P ·C · P−1 · P · B · P−1 .
4.4 Estimarea produsului scalar 89
m m
u= ∑ uSk 1 · ik = ∑ uSk · f k , uS1 S
k , uk ∈ R,
k=1 k=1

respectiv
m m
v= ∑ vSk 1 · ik = ∑ vSk · f k , vS1 S
k , vk ∈ R.
k=1 k=1

Conform (1.5),
 S  S1     S1 
u1 u1 vS
1 v1
 ..  −1  ..   ..  −1  .. 
 .  = P  . ,  .  = P  . .
uS
m uS
m
1 vS
m vS
m
1

Renumerotăm baza S ca ı̂n (3.28), adică



S = f 1 , . . . , f t , xt+1 , yt+1 , xt+3 , yt+3 . . . , xt+2q+1 , yt+2q+1 ,

unde vectorii ek = f k sunt eigenvectori generalizaţi corespunzând valorilor proprii


reale — numărate ı̂mpreună cu multiplicităţile lor algebrice — λk ale operatorului
TC pentru 1 ≤ k ≤ t iar vectorii et+2k+1 = xt+2k+1 + i · yt+2k+1 sunt eigenvectori
generalizaţi corespunzând valorilor proprii λt+2k+1 ∈ C\R ale operatorului TC pen-
tru 0 ≤ k ≤ q. De asemeni, λt+2k+2 = λt+2k+1 , k ∈ 0, q.
Introducem numerele

vpmin = min λk , Re λt+2 j+1 | k ∈ 1,t, j ∈ 0, q (4.15)

şi

vpmax = max λk , Re λt+2 j+1 | k ∈ 1,t, j ∈ 0, q . (4.16)

Fie ε > 0. Ţinând seama de procedeul (3.18), matricele Jordan elementare u-


tilizate la construcţia formei canonice Jordan reale a matricei T de reprezentare a
operatorului T ı̂n baza S se ı̂nlocuiesc cu matricele din (3.21), (3.22), (3.36). În
particular, S = S (ε ).
Introducem produsul scalar (forma biliniară) BS : E × E → R via formula
 S
m
v1

S . . . uS  ..  .
BS (u, v) = ∑ uS k · vS
k = u1 m  .  (4.17)
k=1 S
vm

Au loc relaţiile9

9 Aici, H t desemnează transpusa matricei H ∈ Mn (C).


90 4 Aplicaţii
  
h  vS 1
t i 
1
 
BS (u, v) = uS 1 S1
1 . . . um
· P−1 · P−1  ... 
vS
m
1

 S1 
  h i v1

−1 t −1  .. 
= uS
1
1 S1
. . . um · P ·P · . 
vS
m
1

 
  vS
1
1

 
= uS 1 S1
1 . . . um
G  ...  , G ∈ Mn (R). (4.18)
vS
m
1

Pentru λ ∈ (λk )k∈1,t eigenvaloare reală a operatorului T , considerăm R-subspaţiul


liniar
[ 
V= Ker (T − λ · I)s = SpanR f 1 , . . . , f h (4.19)
s≥0

h
şi operatorul R-liniar U = T |V : V → V . Atunci, dacă u = ∑ u p · f p ∈ V , unde
p=1
u p ∈ R, p ∈ 1, h, avem10

h
U(u) = ∑ u p ·U( f p )
p=1

= u1 (λ f 1 + ε f 2 ) + u2 (λ f 2 + ε f 3 ) + · · · + uh (λ f h )
= (λ u1 ) f 1 + (ε u1 + λ u2 ) f 2 + · · · + (ε uh−1 + λ uh ) f h ,

respectiv

BS (U(u), u) = (λ u1 ) · u1 + (ε u1 + λ u2 ) · u2 + · · · + (ε uh−1 + λ uh ) · uh
!
h
=λ ∑ u2p + ε (u1 u2 + u2 u3 + · · · + uh−1 uh ).
p=1

Estimarea

|u1 u2 + u2 u3 + · · · + uh−1 uh | ≤ |u1 u2 | + |u2 u3 | + · · · + |uh−1 uh |


u21 + u22 u22 + u23 u2 + u2h
≤ + + · · · + h−1
2 2 2
h
≤ ∑ u2p = BS (u, u)
p=1

10 Pentru simplitate, ne restrângem la un subspaţiu Z(e, T ), vezi pagina 58.


4.4 Estimarea produsului scalar 91

ne conduce la dubla inegalitate

(λ − ε ) · BS (u, u) ≤ BS (U(u), u) ≤ (λ + ε ) · BS (u, u), u ∈ V. (4.20)

Pentru λ = a + bi ∈ (λt+2k+1 )k∈0,q , a, b ∈ R, eigenvaloare complexă nereală a


operatorului T , considerăm R-subspaţiul liniar
(" # " #)
[ [  s
V = Ker (TC − λ · I)s ⊕ Ker TC − λ · I ∩ Rm
s≥0 s≥0
= SpanR {x1 , y1 , . . . , xh , yh } , (4.21)

unde11 e p = x p + i · y p , şi operatorul R-liniar U = T |V : V → V . Atunci, dacă u =


h
y  y
∑ uxp · x p + u p · y p ∈ V , unde uxp , u p ∈ R, p ∈ 1, h, avem12
p=1

h
U(u) = ∑ uxp ·U(x p ) + uyp ·U(y p )
p=1
= ux1 (ax1 − by1 + ε x2 ) + uy1 (bx1 + ay1 + ε y2 )
+ ux2 (ax2 − by2 + ε x3 ) + uy2 (bx2 + ay2 + ε y3 )
+ · · · + uxh (axh − byh ) + uyh (bxh + ayh )
= (ux1 a + uy1 b)x1 + (−ux1 b + uy1 a)y1
+ (ux2 a + uy2 b + ε ux1 )x2 + (−ux2 b + uy2 a + ε uy1 )y2
+ · · · + (uxh a + uyh b + ε uxh−1 )xh + (−uxh b + uyh a + ε uyh−1 )yh ,

respectiv

BS (U(u), u) = [(ux1 a + uy1 b) · ux1 + (−ux1 b + uy1 a) · uy1 ]


+ [(ux2 a + uy2 b + ε ux1 ) · ux2 + (−ux2 b + uy2 a + ε uy1 ) · uy2 ]
+ · · · + [(uxh a + uyh b + ε uxh−1 ) · uxh + (−uxh b + uyh a + ε uyh−1 ) · uyh ]
h 2 i
= a · (ux1 )2 + uy1
h 2 i
+ a · (ux2 )2 + uy2 + ε · (ux1 ux2 + uy1 uy2 )
h 2 i
+ · · · + a · (uxh )2 + uyh + ε · (uxh−1 uxh + uyh−1 uyh )
h h 2 2 i
= a· ∑ uxp + uyp
p=1
 
+ ε · (ux1 ux2 + uy1 uy2 ) + · · · + (uxh−1 uxh + uyh−1 uyh ) .

11 Atenţie, pentru a simplifica scrierea, am renotat vectorii. Mai precis, x p = xt+2(p−1)+1 şi y p =
yt+2(p−1)+1 , unde p ≥ 1.
12 Restrângem discuţia la subspaţiul Z , vezi pagina 72.
01
92 4 Aplicaţii

La fel ca ı̂n cazul anterior,

x x h 2 i
y
h 2
(u u + uy uy ) + · · · + (ux
1 2 1 2
x y
h−1 uh + uh−1 uh ) ≤ ∑ uxp + uyp = BS (u, u),
p=1

ceea ce ne conduce la dubla inegalitate

(a − ε ) · BS (u, u) ≤ BS (U(u), u) ≤ (a + ε ) · BS (u, u), u ∈ V. (4.22)

Există R-subspaţiile liniare V0 , . . . ,Vs ⊆ E date de formulele (4.19), (4.21) şi o-


peratorii R-liniari Uk : Vk → Vk , unde k ∈ 0, s, corespunzători astfel ı̂ncât
s
M s
M
E= Vk , T= Uk .
k=0 k=0

s
Fie u = ∑ uk ∈ E, uk ∈ Vk , 0 ≤ k ≤ s. Atunci, pe baza inegalităţilor (4.15), (4.16),
k=0
(4.20), (4.22), obţinem dubla estimare — vezi [14, pag. 145, Lemma] —
s
(vpmin − ε ) · BS (u, u) = (vpmin − ε ) · ∑ BS (uk , uk )
k=0
s
≤ ∑ BS (Uk (uk ), uk )
k=0
= BS (T (u), u)
≤ (vpmax + ε ) · BS (u, u).

4.5 Exerciţii rezolvate

Detaliile care urmează presupun cunoştinţe de bază despre teoria sistemelor di-
ferenţiale liniare [1, 2].

Exerciţiul 4.1. Find dat numărul pozitiv ω , să se rezolve ecuaţia diferenţială ordi-
nară
d2x
+ ω 2 x = 0, t ≥ 0. (4.23)
dt 2
Soluţia exerciţiului 4.1. Transformăm ecuaţia (4.23) ı̂n sistemul diferenţial de or-
dinul ı̂ntâi
 ′  
x1 x d
= A· 1 , ′
= ,
x2 x2 dt

unde
4.5 Exerciţii rezolvate 93
 
0 1
A= .
−ω 2 0

Soluţia sistemului are formula


   
x1 (t) c
=e · 1 ,
At
ck ∈ R, k ∈ {1, 2}.
x2 (t) c2

Introducem operatorul liniar T : R2 → R2 , dat de matricea T = A, şi anume


   
x1 x
T = A· 1 .
x2 x2

Lui ı̂i este asociat operatorul complexificat TC : C2 → C2 , cu formula


   
z1 z
TC = A· 1 .
z2 z2

Pentru a determina valorile proprii ale matricei A, rezolvăm ecuaţia algebrică

pTC (λ ) = det (A − λ · I2 ) = λ 2 + ω 2 = 0.

Găsim soluţiile (simple) λ1 = λ = ω · i şi λ2 = λ = −ω · i.


În C2 , considerăm bazele
   
1 0
S1 = BC = {i1 , i2 } = ,
0 1

şi

S2 = { f , σ ( f )}, f = x + i · y ∈ C2 , x, y ∈ R2 ,

unde f este vectorul propriu corespunzător valorii proprii λ a matricei A. Ele sunt
folosite pentru aducerea matricei A la forma canonică Jordan (reală şi complexă).
Astfel, plecând de la descompunerea

C2 = Ker (TC − λ · I) ⊕ Ker (TC − λ · I),

avem relaţiile
 
TC (i1 ) TC (i2 ) = i1 i2 · A

şi
 
TC ( f ) TC (σ ( f )) = f σ ( f ) ·W1
 
 λ 0
= f σ( f ) · ,

94 4 Aplicaţii

respectiv — aici, λ = α + β · i şi α , β ∈ R —

(TC (x) TC (y)) = (T (x) T (y))


= (x y) ·W2
 
α β
= (x y) ·
−β α
 
0 ω
= (x y) · .
−ω 0

Introducem matricele
   
p1 p2 r r
P1 = , P2 = 1 2
p3 p4 r3 r4

de schimbare a bazelor ı̂n C2 , R2 , adică


 
f σ ( f ) = i1 i2 · P1 = I2 · P1 = P1 (4.24)

şi

(x y) = i1 i2 · P2 = P2 , (4.25)

de unde
   
λ 0 α β
A = P1 · · P1−1 = P2 · · P2−1 . (4.26)
0λ −β α

Reorganizăm egalităţile (4.26) sub forma


   
λ 0 α β
P1 · = A · P1 , P2 · = A · P2
0λ −β α

şi obţinem două sisteme algebrice liniare ı̂n necunoscutele pk , rk , unde k ∈ 1, 4,


 

 iω · p1 = p3 
 − ω · r2 = r3
 
−iω · p2 = p4 ω · r1 = r4
(4.27)

 iω · p3 = −ω 2 · p1 
 − ω · r4 = − ω 2 · r1
 
−iω · p4 = −ω · p2 ,
2 ω · r3 = − ω · r2 .
2

Observăm că, la fiecare din sistemele precedente, ultimele două ecuaţii sunt echi-
valente cu primele două ecuaţii. Atunci, sistemelor — cu câte o infinitate de soluţii
fiecare —
 
iω · p1 = p3 − ω · r2 = r3
−iω · p2 = p4 , ω · r1 = r4

le alegem soluţiile netriviale


4.5 Exerciţii rezolvate 95

p1 = p2 = 1, p3 = −p4 = iω , r1 = r2 = 1, r3 = −r4 = −ω .

Am ajuns la
   
1 1 1 iω 1
P1 = , P1−1 = · (4.28)
iω −iω 2ω i iω −1

şi
   
1 1 1 ω −1
P2 = , P2−1 = · . (4.29)
−ω ω 2ω ω 1

Testarea vectorilor proprii. Conform (4.24), vectorul f este dat de prima coloană
a matricei P1 ,
     
1 1 0
f = = x+i·y = +i· (4.30)
iω 0 ω
= z1 · i1 + z2 · i2 , z1 = 1, z2 = iω .

Deducem că
 
 z
(TC − λ · I) ( f ) = i1 i2 · (T − λ · I2 ) · 1
z2
  
−iω 1 1
= I2 ·
−ω 2 −iω iω
 
0
= = 0C2 .
0

Relaţiile (4.25) arată că vectorii x, y din (4.30) alcătuiesc coloanele matricei P2 ,
ceea ce, la prima vedere, nu pare adevărat. În fapt, cum sistemele algebrice (4.27) au
o infinitate de soluţii, vectorii ı̂n discuţie alătuiesc coloanele uneia dintre matricele
P2 posibile! Introducând matricea
 
1 0
P2nou = (x y) = ,

stabilim că
   
0 1 1 0
A · P2nou = ·
−ω 2 0 0ω
 
0 ω
=
−ω 2 0
   
1 0 0 ω
= ·
0ω −ω 0
 
α β
= P2nou · .
−β α
96 4 Aplicaţii

De asemeni, plecând de la matricea P2 , observăm că vectorul


 
1+i
u = col(1) P2 + i · col(2) P2 =
− ω + iω
= z3 · i1 + z4 · i2 , z3 = 1 + i, z4 = −ω + iω ,

statisface egalităţile
 
 z
(TC − λ · I) (u) = i1 i2 · (T − λ · I2 ) · 3
z4
   
−iω 1 1+i
= I2 · ·
−ω 2 −iω − ω + iω
= 0C2 ,

adică este eigenvector al operatorului TC .


Calculul exponenţialei matricei A. Sunt valabile relaţiile
!
eλ t 0
t·A
e = P1 · · P1−1 (4.31)
0 eλ t

şi — vezi Exerciţiul 4.2 —


 
cos(β t) sin(β t)
et·A = P2 · eα t · P2−1 . (4.32)
− sin(β t) (cos β t)

Via (4.28), (4.31), avem egalităţile

etA     
1 1 cos(ω t) + i sin(ω t) 0 1 iω 1
= · ·
iω −iω 0 cos(ω t) − i sin(ω t) 2ω i iω −1
   sin(ω t)

1 2iω cos(ω t) 2i sin(ω t) cos(ω t) ω
= = .
2ω i −2iω 2 sin(ω t) 2iω cos(ω t) −ω sin(ω t) cos(ω t)

La fel, folosind (4.29), (4.32), deducem că

etA     
1 1 cos(ω t) sin(ω t) 1 ω −1
= · ·
−ω ω − sin(ω t) cos(ω t) 2ω ω 1
   sin(ω t)

1 2ω cos(ω t) 2 sin(ω t) cos(ω t) ω
= = .
2ω −2ω 2 sin(ω t) 2ω cos(ω t) −ω sin(ω t) cos(ω t)

Soluţia ecuaţiei diferenţiale. Am ajuns la


4.5 Exerciţii rezolvate 97
c2
x(t) = x1 (t) = c1 · cos(ω t) + · sin(ω t)
ω
= C1 · cos(ω t) +C2 · sin(ω t), Ck ∈ R, k ∈ {1, 2},

şi

x′ (t) = x2 (t) = −c1 ω · sin(ω t) + c2 · cos(ω t)


= −C1 ω · sin(ω t) +C2 ω · cos(ω t).

Calculul s-a ı̂ncheiat. ⊓


Exerciţiul 4.2. Fiind date matricele


     
a 0 b0 c1 c2
A= 1 , B= , C= ,
0 a2 1b −c2 c1

să se arate că sunt valabile formulele


 at     
e1 0 10 cos(c2t) sin(c2t)
etA = , e tB
= e bt
· , etC = ec1 t · ,
0 ea2 t t 1 − sin(c2t) cos(c2t)

unde ak , b ∈ C, respectiv ck , t ∈ R, k ∈ {1, 2}.

Soluţia exerciţiului 4.2. Vezi [24, pag. 15]. ⊓


Exerciţiul 4.3. Să se rezolve sistemul diferenţial liniar


 ′
x1 = −x1 − 3x2
x2′ = 2x2 .

Soluţia exerciţiului 4.3. Începem cu calculul valorilor proprii ale matricei A a sis-
temului liniar, unde
 
−1 −3
A= .
0 2

Pentru le a determina, rezolvăm ecuaţia algebrică



−1 − λ −3
det (A − λ · I2 ) = = −(1 + λ )(2 − λ ) = 0.
0 2−λ

Găsim soluţiile (simple, reale) λ1 = −1 şi λ2 = 2.


Ne aflăm ı̂n situaţia primei părţi a proprietăţii (H S ) — vezi Lema 2.14 —,
deci

R2 = Ker (T − λ1 · I) ⊕ Ker (T − λ2 · I),

unde T = A.
La fel ca ı̂n rezolvarea Exerciţiului 4.1, introducem matricea
98 4 Aplicaţii
 
p1 p2
P= ∈ M2 (R)
p3 p4

astfel ı̂ncât
    
λ1 0 p1 p2 −1 0
P· =
0 λ2 p3 p4 0 2
 
−p1 2p2
= (4.33)
−p3 2p4
=A·P  
−1 −3 p1 p2
=
0 2 p3 p4
 
−p1 − 3p3 −p2 − 3p4
= . (4.34)
2p3 2p4

Egalând prima linie a matricelor din (4.33), (4.34) — element cu element —,


ajungem la sistemul algebric liniar

−p1 = −p1 − 3p3
2p2 = −p2 − 3p4 ,

de unde rezultă că p3 = 0 şi p2 = −p4 . Cea de-a doua linie a matricelor din (4.33),
(4.34) nu ne conduce la nimic nou,

−p3 = 2p3
2p4 = 2p4 .

Pentru p1 = p2 = 1, obţinem
 
1 1
P= = P−1 .
0 −1

Testarea vectorilor proprii. Au loc egalităţile


    
0 −3 1 0
(A − λ1 · I2 ) · col(1) P = = ,
0 3 0 0

respectiv
    
−3 −3 0 0
(A − λ2 · I2 ) · col(2) P = = .
0 0 −1 0

De asemeni,

R2 = Rcol(1) P ⊕ Rcol(2) P = SpanR col(1) P, col(2) P .
4.5 Exerciţii rezolvate 99

Calculul exponenţialei matricei A. Sunt valabile relaţiile — vezi Exerciţiul 4.2



 λt 
e 1 0
et·A = P · · P−1 ,
0 eλ2 t

de unde
   −t  
tA 1 1 e 0 1 1
e =
0 −1 0 e2t 0 −1
 −t −t 2t

e e −e
= .
0 e2t

Soluţia sistemului diferenţial. Am ajuns la


   
x1 (t) c
=e · 1 ,
tA
ck ∈ R,
x2 (t) c2
 −t −t     −t 
e e − e2t c1 c1 e + c2 e−t − e2t
= =
0 e2t c2 c2 e2t
 
(c1 + c2 )e−t − c2 e2t
=
c2 e2t
 −t 
d1 e − d2 e2t
= , dk ∈ R, k ∈ {1, 2}.
d2 e2t

Calculul s-a ı̂ncheiat. ⊓


Exerciţiul 4.4. ([24, pag. 34, Example 1]) Să se rezolve sistemul diferenţial liniar
 ′
x1 = 3x1 + x2
x2′ = −x1 + x2 .

Soluţia exerciţiului 4.4. Începem cu calculul valorilor proprii ale matricei A a sis-
temului liniar, unde
 
3 1
A= .
−1 1

Pentru le a determina, rezolvăm ecuaţia algebrică



3 − λ 1
det (A − λ · I2 ) = = λ 2 − 4λ + 4 = 0.
−1 1 − λ

Găsim soluţia (de multiplicitate algebrică m = 2, reală) λ = 2.


Conform (4.13), există matricea nesingulară P ∈ M2 (C) şi matricea nilpotentă
N0 ∈ M2 (C) astfel ı̂ncât

A = P · D · P−1 + N0 , N20 = O2 .
100 4 Aplicaţii

Aici,
 
λ 0
D= = λ · I2 , etD = eλ t · I2

iar coloanele matricei P sunt eigenvectori generalizaţi, liniar independenţi peste C,


ai valorii proprii λ a operatorului liniar TC , unde T = A.
Forma specială a matricei D — operatorul D, reprezentat de ea, este un operator
diagonal — ne conduce la următoarea descompunere a matricei A,

A = D + N0 = λ · I2 + N0 ,

de unde

1 1
N0 = A − 2I2 = .
−1 −1

Calculul exponenţialei matricei A. Sunt valabile relaţiile

et·A = P · etD · P−1 · (I2 + t · N0 ) = etD · (I2 + t · N0 )


  
1 1
= e2t I2 · I2 + t ·
−1 −1
 
1+t t
= e2t .
−t 1 − t

Soluţia sistemului diferenţial. Am ajuns la


   
x1 (t) c
=e · 1 ,
tA
ck ∈ R, k ∈ {1, 2},
x2 (t) c2
    
2t 1 + t t c1 2t c1 (1 + t) + c2t
=e =e
−t 1 − t c2 −c1t + c2 (1 − t)
 
c + (c1 + c2 )t
= e2t 1 .
c2 − (c1 + c2 )t

Calculul s-a ı̂ncheiat. ⊓


Exerciţiul 4.5. ([24, pag. 35, Example 3]) Să se rezolve sistemul diferenţial liniar
 ′
 x1 = x1
x′ = −x1 + 2x2
 2′
x3 = x1 + x2 + 2x3 .

Soluţia exerciţiului 4.5. Începem cu calculul valorilor proprii ale matricei A a sis-
temului liniar, unde
4.5 Exerciţii rezolvate 101
 
1 00
A = −1 2 0 .
1 12

Pentru le a determina, rezolvăm ecuaţia algebrică



1 − λ 0 0

det (A − λ · I3 ) = −1 2 − λ 0 = (1 − λ )(2 − λ )2 = 0.
1 1 2−λ

Găsim soluţiile λ1 = 1 (simplă, reală) şi λ2 = 2 (de multiplicitate algebrică m = 2,


reală).
Matricea de reprezentare a operatorului diagonalizabil D, ı̂n baza S1 = BC =
{i1 , i2 , i3 } a spaţiului liniar R3 , este
 
λ1 0 0
D0 = P · D · P−1 = P ·  0 λ2 0  · P−1 ,
0 0 λ2

unde P ∈ M3 (R).  1
u
Construcţia matricei P. Coordonatele vectorului propriu u = u2  ∈ R3 , cores-
u3
punzând valorii proprii λ1 a matricei A, verifică sistemul algebric liniar
 1    1  
u 0 00 u 0
(A − λ1 · I3 ) u2  = −1 1 0 u2  = 0 ,
u3 1 11 u3 0

de unde

−u1 + u2 = 0
u1 + u2 + u3 = 0.

Rezultă că u2 = u1 şi u3 = −2u1 . Pentru u1 = 1, obţinem


 
1
u =  1 .
−2
 1
v
Coordonatele vectorului propriu v = v2  ∈ R3 , corespunzând valorii proprii
v3
λ2 a matricei A, verifică sistemul algebric liniar
102 4 Aplicaţii
 1    1  
v −1 0 0 v 0
(A − λ2 · I3 ) v2  = −1 0 0 v2  = 0 ,
v3 1 10 v3 0

de unde v1 = v2 = 0, adică λ2 -eigenspaţiul operatorului T , unde T = A, este unidi-


mensional. Alegem vectorul propriu
 
0
v = 0 .
1

Pentru a putea stabili baza S2 — vectorii săi sunt


 1coloanele
 matricei P —, trebu-
w
ie determinat un vector propriu generalizat w = w2  ∈ R3 , corespunzând valorii
w3
proprii λ2 a matricei A, care să fie liniar independent peste R faţă de setul {u, v}.
Astfel, sistemul algebric liniar
 1    1  1   
w 1 00 w w 0
(A − λ2 · I3 )2 w2  =  1 0 0 w2  =  w1  = 0
w3 −2 0 0 w3 −2w1 0

ne conduce la w1 = 0. Optăm pentru eigenvectorul generalizat


 
0
w = 1 .
0

Am ajuns la
   
1 00 1 00
P =  1 0 1 , P−1 =  2 0 1 ,
−2 1 0 −1 1 0

de unde
     
1 00 10 0 1 0 0 1 0 0
D0 =  1 0 1 0 2 0  2 0 1 = −1 2 0
−2 1 0 00 2 −1 1 0 2 0 2

şi
 
0 00
N0 = A − D0 =  0 0 0 , N20 = O3 .
−1 1 0

Calculul exponenţialei matricei A. Sunt valabile relaţiile


4.5 Exerciţii rezolvate 103

et·A = et·D0 · (I3 + t · N0 ) = P · et·D · P−1 · (I3 + t · N0 )


  t    
1 00 e 0 0 1 00 1 00
=  1 0 1  0 e2t 0   2 0 1 ·  0 1 0
−2 1 0 0 0 e2t −1 1 0 −t t 1
 t

e 0 0
= et − e2t e2t 0  .
−2et + (2 − t)e2t te2t e2t

Soluţia sistemului diferenţial. Am ajuns la


   
x1 (t) c1
x2 (t) = e · c2  ,
tA
ck ∈ R, k ∈ 1, 3,
x3 (t) c3
  
et 0 0 c1
= et − e2t e2t 0  c2 
−2et + (2 − t)e2t te2t e2t c3
 
c1 et
= c1 et + (c2 − c1 )e2t .
t
−2c1 e + [2c1 + c3 + (c2 − c1 )t]e 2t

Calculul s-a ı̂ncheiat. ⊓


Exerciţiul 4.6. ([24, pag. 36, Example 4]) Să se rezolve sistemul diferenţial liniar
 ′

 x = −x2
 1′
x2 = x1
 x3′ = −x4

 ′
x4 = 2x1 + x3 .

Soluţia exerciţiului 4.6. Începem cu calculul valorilor proprii ale matricei A a sis-
temului liniar, unde
 
0 −1 0 0
1 0 0 0 
A=0 0 0 −1 .

2 0 1 0

Pentru le a determina, rezolvăm ecuaţia algebrică



−λ −1 0 0

1 −λ 0 0
det (A − λ · I4 ) =
= (1 + λ 2 )2 = 0.
0 0 −λ −1

2 0 1 −λ

Găsim soluţiile λ1 = λ = i (de multiplicitate algebrică m1 = 2, complexă) şi λ2 =


λ = −i (de multiplicitate algebrică m2 = 2, complexă).
104 4 Aplicaţii

Are loc descompunerea


" # " #
[ [  k
C4 = Ker (TC − λ · I)
k
⊕ Ker TC − λ · I
k≥0 k≥0
 
= SpanC u,U ⊕ SpanC σ (u), σ (U)
 
= SpanC {u, σ (u)} ⊕ SpanC U, σ (U) = SpanC {x, y} ⊕ SpanC X,Y

= SpanC x, y, X,Y , x, y, X, Y ∈ R4 ,

unde u = x + i · y, U = X + i · Y şi σ (u), σ (U) sunt eigenvectori generalizaţi, co-


respunzând valorilor proprii λ1,2 , ai complexificatului TC . Aici, operatorul R-liniar
T este reprezentat ı̂n baza S1 = BC = {i1 , i2 , i3 , i4 } a spaţiului vectorial R4 de
matricea T = A.
Matricea de reprezentare a operatorului semisimplu D — din T = D + N —, ı̂n
baza S1 a spaţiului liniar R4 , este
 
α β 0 0
−β α 0 0  −1
D0 = P · D · P−1 = P ·  0 0 α β·P ,

0 0 −β α

unde λ = α + β · i şi α , β ∈ R, respectiv P ∈ M4 (R) şi


 
P = col(1) P col(2) P col(3) P col(4) P = x y X Y .
 1
u
u2 
Construcţia matricei P. Coordonatele vectorului propriu u =  3  ∈ C4 , cores-
u 
u4
punzând valorii proprii λ1 a matricei A, verifică sistemul algebric liniar
 1    1  
u −i −1 0 0 u 0
u2   1 −i 0 0  u2  0
(A − λ1 · I4 )       
u3  =  0 0 −i −1 u3  = 0 ,
u4 2 0 1 −i u4 0

de unde


 −iu1 − u2 = 0
 1
u − iu2 = 0
−iu3 − u4 = 0


 1
2u + u3 − iu4 = 0.

Din primele două ecuaţii rezultă că u2 = −iu1 . Ultimele două ecuaţii ne conduc
la u4 = −iu3 şi — inserând formula lui u4 ı̂n ultima ecuaţie — u1 = 0. Aşadar,
u1 = u2 = 0. Ţinând seama de cea de-a treia ecuaţie a sistemului algebric, deducem
4.5 Exerciţii rezolvate 105

că
     
0 0 0
 0  0 0
Ker (TC − λ · I) = Cu, u=     
 1  = 1 + i ·  0  = x + i · y,
−i 0 −1

de unde, obligatoriu,
 
0
  0
Ker TC − λ · I = Cσ (u) = C  

1
i

iar sistemul de vectori {u, σ (u)} este liniar independent peste C.  1


U
U 2 
Mai departe, trebuie determinat un vector propriu generalizat U =  
U 3  ∈ C ,
4

U4
corespunzând valorii proprii λ1 a matricei A, astfel ı̂ncât vectorii u, U să fie liniar
independenţi peste C. În particular,

U ∈ Ker (TC − λ1 · I)2 \Ker (TC − λ1 · I) .

Sistemul algebric liniar


 1    1  
U −2 2i 0 0 U 0
 2  −2i −2 0 0  U 2  0
2 U 
(A − λ1 · I4 )  3  =     
 −2 0 −2 2i  U 3  = 0
U
U4 −4i −2 −2i −2 U4 0

ne conduce la


 −2U 1 + 2iU 2 = 0

−2iU 1 − 2U 2 = 0

 −2U 1 − 2U 3 + 2iU 4 = 0

−4iU 1 − 2U 2 − 2iU 3 − 2U 4 = 0.

Primele două ecuaţii sunt echivalente cu U 1 = iU 2 . Inserând această expresie a ne-


cunoscutei U 1 ı̂n ultima ecuaţie, deducem că ultimele două ecuaţii ale sistemului
algebric sunt echivalente cu U 1 +U 3 − iU 4 = 0. Aşadar,
 1
U = iU 2
U 1 +U 3 − iU 4 = 0.

Optăm pentru eigenvectorul generalizat


106 4 Aplicaţii
 1      
U i 0 1
U 2  1 1 0
U =       
U 3  = 0 = 0 + i · 0 = X + i ·Y .
U4 1 1 0

Am ajuns la
   
0 0 01 0 01 0
0 0 1 0 0 10 −1
P=
1
, P−1 =  ,
0 0 0 0 10 0
0 −1 1 0 1 00 0

de unde
     
0 0 0 1 0 1 0 0 00 1 0 0 −1 0 0
0 0 1 0   0 −1  0

D0 =   −1 0 0 0 0 1  = 1 0 0 
1 0 0 0  0 0 0 1 0 1 0 0  0 1 0 −1
0 −1 1 0 0 0 −1 0 10 0 0 1 0 1 0

şi
 
0 0 00
0 0 0 0
N0 = A − D0 = 
0
, N20 = O4 .
−1 0 0
1 0 00

Calculul exponenţialei matricei A. Sunt valabile relaţiile

et·A = et·D0 · (I4 + t · N0 ) = P · et·D · P−1 · (I4 + t · N0 )


     
0 0 01 cost sint 0 0 0 01 0 1 0 00
0 0 1 0 − sint cost 0 0  0 10 −1 0 1 0 0
=1 0 0 0  0
  · 
0 cost sint  0 10 0  0 −t 1 0
0 −1 1 0 0 0 − sint cost 1 00 0 t 0 01
   
cost − sint 0 0 1 0 00
 sint cost 0 0  0 1 0 0
=  
 0 sint cost − sint  · 0 −t 1 0

sint 0 sint cost t 0 01


 
cost − sint 0 0
 sint cost 0 0 
= −t sint sint − t cost cost − sint  .

sint + t cost −t sint sint cost

Soluţia sistemului diferenţial. Obţinem că


4.6 Soluţii fundamentale 107
   
x1 (t) c1
x2 (t)  
  = etA · c2  , ck ∈ R, k ∈ 1, 4,
x3 (t) c3 
x4 (t) c4
 
c1 cost − c2 sint
 c1 sint + c2 cost 
= 
(c2 − c4 − c1t) sint + (c3 − c2t) cost  .
(c1 + c3 − c2t) sint + (c4 + c1t) cost

Calculul s-a ı̂ncheiat. ⊓


4.6 Soluţii fundamentale ale ecuaţiilor diferenţiale liniare şi


omogene

Se consideră ecuaţia diferenţială ordinară

x(p) + a1 x(p−1) + · · · + a p−1 x′ + a p x = 0, t ≥ 0, (4.35)


k
unde ai ∈ R, i ∈ 1, p, şi p ≥ 2. Aici, x = x(t), x(k) = ddt kx pentru orice k ∈ 1, p.
Ecuaţia (4.35) se organizează ca sistem diferenţial liniar de ordinul I,

x ′ = Ax, (4.36)

unde13
   
x 0 1 0 0 ··· 0
  


 x′ 
 0 0 1 
0 ··· 0
x1 
 ..  

 x′′ 
 0 0 0 
1 ··· 0
x= . = , .. A= .. .. ..  . (4.37)
.. .. ..
  .  . . .  . . .
xp    
x(p−2)   0 0 0 ··· 0 1 
x(p−1) −a p −a p−1 −a p−2 · · · −a2 −a1

Exerciţiul 4.7. Fie numerele λ , bi ∈ C, i ∈ 1, p, unde p ≥ 3, şi determinanţii



λ −1 0 0 · · · 0

0 λ −1 0 · · · 0

0 0 λ −1 · · · 0

R(b1 , b2 , · · · , b p , λ ) = . . . . . ,
.. .. . . . . . . . ..

0 0 0 · · · λ −1

b1 b2 b3 · · · b p−1 b p

13 E = C p , K = C, T = A. Vezi şi definiţia (4.56).


108 4 Aplicaţii

respectiv

0 −1 0 0 ··· 0

0
λ −1 0 ··· 0

0
0 λ −1 ··· 0

P(b1 , b2 , · · · , b p , λ ) = . .. . . . . .. .. .
.. . . . . .

0
0 0 ··· λ −1
b1 b2 b3 · · · b p−1 bp

Au loc relaţiile

P(b1 , b2 , · · · , b p , λ ) = b1 .

şi

R(b1 , b2 , · · · , b p , λ ) = λ R(b2 , b3 , · · · , b p , λ ) + P(b1 , b3 , · · · , b p , λ ),

respectiv

R(b1 , b2 , · · · , b p , λ ) = b p λ p−1 + b p−1 λ p−2 + · · · + b2 λ + b1 . (4.38)

Soluţia exerciţiului 4.7. Se dezvoltă determinanţii după prima linie. ⊓



Exerciţiul 4.8. Fie matricea A de forma (4.37). Să se arate că

det (λ I p − A) = λ p + a1 λ p−1 + a2 λ p−2 + · · · + a p−1 λ + a p , λ ∈ C.

Soluţia exerciţiului 4.8. Observăm că

det (λ I p − A) = R(a p , a p−1 , · · · , a2 , a1 + λ , λ )

şi aplicăm formula (4.38). ⊓



Exerciţiul 4.9. Fie λ ∈ C valoare proprie, de multiplicitate algebrică r ≥ 1, a matri-
cei A ∈ M p (R), unde p ≥ 1. Dacă u ∈ C p este eigenvector generalizat al matricei A
corespunzând valorii proprii λ , adică există k ∈ 1, r cu proprietatea că

(A − λ I p )k u = 0C p ,

atunci funcţia z : [0, +∞) → C p , unde


 
z(t) = eλ t · C1 + tC2 + · · · + t k−1Ck , t ≥ 0,

este soluţie a sistemului diferenţial (4.36)14 . Aici,


1 1
C1 = u, Ci = (A − λ I p )Ci−1 = (A − λ I p )i−1 u, (4.39)
i−1 (i − 1)!
14 Remarcăm faptul că
4.6 Soluţii fundamentale 109

unde i ∈ 2, k.
Soluţia exerciţiului 4.9. Observăm că
1
(A − λ I p )Ck = (A − λ I p )k u = 0C p ,
(k − 1)!

deci Ck este eigenvector al matricei A corespunzând valorii proprii λ .


Au loc relaţiile
 
z ′ (t) = λ eλ t · C1 + tC2 + · · · + t k−1Ck
 
+ eλ t · C2 + 2tC3 + · · · + (k − 1)t k−2Ck
  
= eλ t · λ C1 +C2 + t λ C2 + 2C3 + · · ·
  o
+ t k−2 λ Ck−1 + (k − 1)Ck + t k−1 λ Ck
h    i
= eλ t · AC1 + t AC2 + · · · + t k−2 ACk−1 + t k−1 ACk
= A · z(t), t ≥ 0.

Justificarea s-a ı̂ncheiat. ⊓



Exerciţiul 4.10. În contextul exerciţiului 4.9, să se demonstreze că

(A − λ I p )k+1−i Ci = 0C p , i ∈ 1, k.

Soluţia exerciţiului 4.10. Ţinem seama de ultima parte a formulelor (4.39). ⊓



 
(r)
Exerciţiul 4.11. Fie λ ∈ C şi şirurile cq+1 date de formulele
q≥0, r≥1
( (0)
cq+1 = λ q ,
(r)
cq+1 = q(q − 1) · . . . · (q − r + 1)λ q−r · sign (max{q − r + 1, 0}) .

Să se arate că


(r+1) d h (r) i
cq+1 = c ,
d λ q+1
respectiv

d h (r) i (r) d h (r) i


cq+2 = (r + 1)cq+1 + λ c . (4.40)
dλ d λ q+1
n o
z(t) ∈ K (A − λ · Ip , u) = SpanC u, (A − λ · Ip ) u, · · · , (A − λ · Ip )r−1 u , t ≥ 0.

Adică, soluţia ia valori numai ı̂n subspaţiul Krâlov (ı̂n limba engleză, Krylov subspace) — gene-
rat
S
de matricea A − λ · Ip şi de vectorul u — al λ -eigenspaţiului generalizat al operatorului TC ,
Ker (TC − λ · I)s . Conform [32, pag. 253].
s≥0
110 4 Aplicaţii

pentru orice q ≥ 0, r ≥ 1.

Soluţia exerciţiului 4.11. Folosim inducţia matematică. ⊓


Exerciţiul 4.12. Fie matricea A de forma (4.37) şi λ ∈ C valoare proprie, de multi-
plicitate algebrică r ≥ 1, a acesteia. Atunci, să se arate că vectorii15
 
1
 λ 
 2   
 λ  di 
  i
Ck =  .  , Ck−i = · i Ck , (4.41)
 .  . k − 1 dλ
 
λ p−2 
λ p−1

unde i ∈ 1, k − 1, pot fi utilizaţi ı̂n contextul exerciţiului 4.9.


 
(i)
Soluţia exerciţiului 4.12. Introducem numerele c j astfel ı̂ncât
i∈0,k−1, j∈1,p
   
(0) (i)
c c1
 1.  (k − i)(k − i + 1) · . . . · (k − 1)  . 
Ck =  
 ..  , Ck−i = · 
 ..  .
i!
(0) (i)
cp cp

Trebuie verificate relaţiile — vezi (4.39) şi exerciţiul 4.10 —

(A − λ I p )Ck = 0C p , (A − λ I p )Ck−i−1 = (k − i − 1)Ck−i . (4.42)

Au loc egalităţile — conform exerciţiului 4.8 —

   
15 v (w−v+1)·(w−v+2)·...·w 0
Folosim notaţiile = 1·2·...·v , = 1, unde w ≥ v ≥ 1.
w w
4.6 Soluţii fundamentale 111
  
−λ 1 0 0 ··· 0 1
 0
 − λ 1 0 ··· 0 
 λ 

 0
 0 −λ 1 ··· 0 
 λ2 

(A − λ I p )Ck =  . .. .. .. .. ..  .. 
 .. . . . . .  . 
  
 0 0 0 · · · −λ 1  λ p−2 
−a p −a p−1 −a p−2 · · · −a2 − (a1 + λ ) λ p−1
 
0
 0 
 
 0 
 
= .. 
 . 
 
 0 
−a p − a p−1 λ − · · · − a2 λ p−2 − (a1 + λ ) λ p−1
 
0
 0 
 
 0 
 
= ..  = 0C p ,
 . 
 
 0 
−det (λ I p − A)

respectiv

(k − i − 1)(k − i) · . . . · (k − 1) d i+1  k−i−1 d 


Ck−i−1 = · i+1 Ck = · Ck−i ,
(i + 1)! dλ i+1 dλ

de unde
(i+1) k − i − 1 d h (i) i
cj = · c . (4.43)
i+1 dλ j
Mai departe, cea de-a doua relaţie (4.42) ne conduce la — via (4.43) —
 
−λ 1 0 0 ··· 0
   0 −λ 1 0 ··· 0   (i+1) 
(i)   c
c1
 .    0 0 −λ 1 · · · 0  1 
  .. 
 
(k − i − 1)  ..  =  . . . . . .  . 
 .. .. .. .. .. .. 
(i)   (i+1)
cp  0 0 0 · · · −λ 1  cp
−a p −a p−1 −a p−2 · · · −a2 − (a1 + λ )
 
−λ 1 0 0 ··· 0  h i
 0
 −λ 1 0 ··· 0  d (i)
 d λ c1
k−i−1   0 0 −λ 1 · · · 0 
 ..


= · . .. .. .. .. ..  . .
i + 1  .. . . . . .   h i
  d (i)
 0 0 0 · · · −λ 1  dλ c p
−a p −a p−1 −a p−2 · · · −a2 − (a1 + λ )
112 4 Aplicaţii

Primele p − 1 linii ale egalităţilor matriceale anterioare se reorganizează sub for-


ma expresiilor

d h (i) i d h (i) i
c j+1 = (i + 1)cij + λ c , j ∈ 1, p − 1,
dλ dλ j
care sunt echivalente cu (4.40).
Ultima linie devine
d h (i) i  d h (i) i

(i) (i) (i) (i)
0= a p c1 + a p−1 c2 + . . . + a2 c p−1 + a1 c p + (i + 1)c p + λ cp
dλ dλ
d h (i) (i) (i) (i)
i d h
(i)
i
= a p c1 + a p−1 c2 + . . . + a2 c p−1 + a1 c p + c , (4.44)
dλ d λ p+1
(0)
unde c p+1 = λ p . Egalitatea (4.44) rezultă din relaţia

d i+1 d i+1 
0= [det ( λ I p − A)] = a p + a p−1 λ + . . . + a2 λ p−2 + a1 λ p−1 + λ p .
dλ i+1 dλ i+1

Calculul s-a ı̂ncheiat. ⊓


Exerciţiul 4.13. (Soluţii fundamentale I) Dacă λ0 ∈ C este o soluţie de multiplici-


tate r ≥ 1 a ecuaţiei algebrice

λ p + a1 λ p−1 + a2 λ p−2 + · · · + a p−1 λ + a p = 0,

atunci funcţiile zi : [0, +∞) → C, unde i ∈ 1, r, cu formulele16

z1 (t) = eλ0 t , z2 (t) = teλ0 t , · · · , zr (t) = t r−1 eλ0 t , t ≥ 0,

sunt soluţii ale ecuaţiei diferenţiale (4.35).

Soluţia exerciţiului 4.13. Fie k ∈ 1, r fixat. Conform exerciţiului 4.9, ecuaţia (4.35),
reorganizată ca sistem diferenţial cu p ecuaţii de ordinul I, admite soluţia
 
z
 z′ 
 ′′ 
 z   
 
z(t) =  ..  (t) = eλ0 t · C1 + tC2 + · · · + t k−1Ck ,
 . 
 
z(p−2) 
z(p−1)

unde vectorii Ci i∈1,k
au formulele (4.41).

16 Pentru altă abordare — o tehnică perturbativă, atribuită lui d’Alembert —, vezi [33, pag. 194].

Metoda operaţională de rezolvare a ecuaţiilor diferenţiale liniare este descrisă ı̂n [19, pag. 206 şi
urm.].
4.6 Soluţii fundamentale 113

Observăm că primul element al coloanei Ck ∈ C p este 1 ı̂n timp ce coloanele Ci ,


unde i ≤ k − 1, au primul element 0. De aici rezultă că z(t) = eλ0 t · t k−1 . ⊓

Exerciţiul 4.14. Fie λ = α + β · i ∈ C\R valoare proprie, de multiplicitate algebrică


r ≥ 1, a matricei A ∈ M p (R), unde p ≥ 1 şi α , β ∈ R.
i) Egalităţile
 k    
A − α Ip β Ip v 0 p
= R (4.45)
−β I p A − α I p w 0R p

şi

(A − λ I p )k u = 0C p , u = v + i · w,

unde k ∈ 1, r şi v, w ∈ R p , sunt echivalente.


ii) Dacă există numărul k ∈ 1, r şi vectorii v, w ∈ R p , nu simultan nuli, care satisfac
relaţia (4.45), atunci funcţiile x, y : [0, +∞) → R p , unde
k 
x(t) = eα t · ∑ t j−1 cos β t · D j − sin β t · E j , t ≥ 0,
j=1

şi
k 
y(t) = eα t · ∑ t j−1 sin β t · D j + cos β t · E j , t ≥ 0,
j=1

sunt soluţii ale sistemului diferenţial (4.36). Aici,


   
D1 v
=
E1 w

şi
    
Ds 1 A − α Ip β Ip Ds−1
=
Es s − 1 −β I p A − α I p E s−1
 s−1  
1 A − α Ip β Ip v
= ,
(s − 1)! − β I p A − α I p w

unde s ∈ 2, k.
iii) În contextul părţii ii), funcţia z : [0, +∞) → C p , cu formula — vezi şi [19, pag.
185] —
k
z(t) = x(t) + i · y(t) = eλ t · ∑ t j−1C j , t ≥ 0,
j=1
114 4 Aplicaţii

unde C j = D j + i · E j şi j ∈ 1, k, este soluţie a sistemului diferenţial (4.36)17 .

Soluţia exerciţiului 4.14. Partea i). Folosim inducţia matematică şi un procedeu
iterativ. Astfel, introducem mărimile — pentru s ≥ 1 —
       s  
v1 v vs+1 A − α Ip β Ip v
= , =
w1 w ws+1 −β I p A − α I p w

şi

us = vs + i · ws .

Avem
   k  
0R p A − α Ip β Ip v
=
0R p −β I p A − α I p w
  " k−1  #
A − α Ip β Ip A − α Ip β Ip v
= ·
−β I p A − α I p −β I p A − α I p w
  
A − α Ip β Ip vk
=
−β I p A − α I p wk

şi

(A − λ I p ) uk = [(A − α · I p ) v + (β I p ) w] + i · [(−β I p ) v + (A − α · I p ) w]
= 0C p ,

respectiv — pentru k ≥ 2 —
    
vk A − α Ip β Ip vk−1
=
wk −β I p A − α I p wk−1

şi

uk = (A − λ I p ) uk−1 , (4.46)

de unde

(A − λ I p )2 uk−1 = (A − λ I p ) uk = 0C p .

Partea ii). Remarcăm că

17 În particular, soluţiile x şi y iau valori numai ı̂n realificatul spaţiului liniar
" # " #
[ [  s
Ker (TC − λ · I) ⊕
s
Ker TC − λ · I .
s≥0 s≥0
4.6 Soluţii fundamentale 115
    
A − α Ip β Ip Dk 0 p
= R ,
−β I p A − α I p Ek 0R p

deci uk = Dk + i · E k este eigenvector al matricei A corespunzând valorii proprii λ .


Au loc relaţiile
k−2   
x ′ (t) = eα t · ∑ (t s cos β t) α Ds+1 + (s + 1)Ds+2 − β E s+1
s=0
 
+ (t sin β t) −α E s+1 − (s + 1)E s+2 − β Ds+1
s
  
+ eα t t k−1 · (cos β t) α Dk − β E k + (sin β t) −α E k − β Dk
k−1   
= eα t · ∑ (t s cos β t) ADs+1 − (t s sin β t) AE s+1
s=0
= A · x(t), t ≥ 0,

respectiv
k−2   
y ′ (t) = eα t · ∑ (t s cos β t) α E s+1 + (s + 1)E s+2 + β Ds+1
s=0
 
+ (t sin β t) α Ds+1 + (s + 1)Ds+2 − β E s+1
s
  
+ eα t t k−1 · (cos β t) α E k + β Dk + (sin β t) α Dk − β E k
k−1   
= eα t · ∑ (t s cos β t) AE s+1 + (t s sin β t) ADs+1
s=0
= A · y(t), t ≥ 0.

Partea iii). Via (4.46), stabilim că vectorii C j j∈1,k
verifică relaţiile (4.39). ⊓

Exerciţiul 4.15. (Soluţii fundamentale II) Dacă λ0 = α0 + β0 · i ∈ C\R, cu α0 , β0 ∈


R, este o soluţie de multiplicitate r ≥ 1 a ecuaţiei algebrice

λ p + a1 λ p−1 + a2 λ p−2 + · · · + a p−1 λ + a p = 0,

atunci funcţiile xi , yi : [0, +∞) → R, unde i ∈ 1, r, cu formulele

x1 (t) = eα0 t cos β0t, x2 (t) = teα0 t cos β0t, · · · , xr (t) = t r−1 eα0 t cos β0t, t ≥ 0,

şi

y1 (t) = eα0 t sin β0t, y2 (t) = teα0 t sin β0t, · · · , yr (t) = t r−1 eα0 t sin β0t, t ≥ 0,

sunt soluţii ale ecuaţiei diferenţiale (4.35).


Soluţia exerciţiului 4.15. Prima soluţie. Deoarece coeficienţii ecuaţiei diferenţiale
(4.35) sunt numere reale, partea reală şi partea imaginară ale unei soluţii sunt, la
rândul lor, soluţii. Aplicăm această observaţie soluţiilor introduse ı̂n exerciţiul 4.13.
116 4 Aplicaţii

A doua soluţie. Fie k ∈ 1, r fixat. Conform exerciţiului 4.14, partea ii), ecuaţia
(4.35), reorganizată ca sistem diferenţial cu p ecuaţii de ordinul I, admite soluţiile
 
x
 x  ′
 ′′ 
 x  k 
 
x(t) =  ..  (t) = eα0 t · ∑ t j−1 cos β0t · D j − sin β0t · E j , t ≥ 0,
 . 
  j=1
x(p−2) 
x(p−1)

şi
 
y

 y′



 y′′


k 
y(t) =   (t) = eα0 t · ∑ t j−1 sin β0t · D j + cos β0t · E j ,
.. t ≥ 0,
  .
  j=1
y(p−2) 
y(p−1)

unde vectorii C j j∈1,k
, cu C j = D j + i · E j , au formulele (4.41).
Remarcăm că primul element al coloanei Ck ∈ C p este 1 ı̂n timp ce coloanele Ci ,
unde i ≤ k − 1, au primul element 0. De aici rezultă că primul element al coloanei
Dk ∈ R p este 1, primul element al coloanei E k ∈ R p este 0 iar coloanele Di , E i , unde
i ≤ k − 1, au primul element 0. Obţinem că

x(t) = t k−1 eα0 t cos β0t, y(t) = t k−1 eα0 t sin β0t, t ≥ 0.

Justificarea s-a ı̂ncheiat. ⊓


Exerciţiul 4.16. Fie matricea A ∈ M p (R), cu valorile proprii distincte (λ j ) j∈1,q ⊂


C de multiplicităţi algebrice (r j ) j∈1,q . Aici, p, q ≥ 1 şi λ j = α j + β j · i, respectiv
α j , β j ∈ R pentru orice j ∈ 1, q.
Dacă funcţia z : [0, +∞) → C p este soluţie a sistemului diferenţial (4.36), atunci
există şi sunt unice soluţiile (z j ) j∈1,q , cu z j : [0, +∞) → C p , ale aceluiaşi sistem
diferenţial pentru care
q
z(t) = ∑ z j (t), z j (t) ∈ V j , t ≥ 0, (4.47)
j=1

S
unde V j = Ker (TC − λ j · I)s pentru orice j ∈ 1, q. Fiecare soluţie z j poate fi re-
s≥0
prezentată ca ı̂n exerciţiul 4.9. În plus, dacă λ j ∈ C\R pentru un anumit j ∈ 1, q,
atunci sistemul diferenţial (4.36) admite soluţiile x j , y j : [0, +∞) → R p astfel ı̂ncât

z j (t) = x j (t) + i · y j (t), t ≥ 0. (4.48)


4.6 Soluţii fundamentale 117

Aceste soluţii pot fi reprezentate ca ı̂n exerciţiul 4.14.

Soluţia exerciţiului 4.16. Existenţa. Fie z(0) = z0 ∈ C p . Conform (2.35), z0 se scrie


ı̂n mod unic sub forma
q
z0 = ∑ z0 j , z0 j ∈ V j , j ∈ 1, q. (4.49)
j=1

Problema Cauchy
( ′
ξ = Aξ , t ≥ 0,
(C j )
ξ (0) = z0 j

admite soluţia (unică) z j ∈ C ∞ ([0, +∞), C p ), unde j ∈ 1, q. Vezi [1, pag. 153, The-
orem 12.2].
Sistemul diferenţial (4.36) fiind liniar, orice combinaţie liniară cu coeficienţi
complecşi — ı̂n particular, suma — a funcţiilor (z j ) j∈1,q ı̂i este soluţie. Egalitatea
q
din (4.47) rezultă din faptul că atât funcţia z cât şi funcţia ∑ z j verifică problema
j=1
Cauchy

η ′ = Aη , t ≥ 0,
(C )
η (0) = z0 .

Cum z0 j ∈ V j , există k j ∈ 1, r j pentru care

(A − λ j · I p )k j z0 j = 0C p .

Pe baza exerciţiilor 4.9, 4.10, deducem că18


kj

z j (t) = eλ j t · ∑ t s−1Cs j , t ≥ 0, Cs j s∈1,k j
⊂ Vj, (4.50)
s=1

de unde z j (t) ∈ V j , t ≥ 0.
Dacă λ j ∈ C\R pentru un anumit j, atunci
 k j    
A − α j Ip β j Ip vj 0R p
= ,
−β j I p A − α j I p wj 0R p

unde z0 j = v j + i · w j . Funcţia x j din (4.48) verifică problema Cauchy


(

δ = Aδ , t ≥ 0,
(Re C j )
δ (0) = v j ,

18 Vezi şi [1, pag. 159, Theorem 12.7].


118 4 Aplicaţii

iar funcţia y j verifică problema Cauchy



ε ′ = Aε , t ≥ 0,
(Im C j )
ε (0) = w j .

În virtutea exerciţiului 4.14, ele se scriu sub forma


kj

x j (t) = e α jt
· ∑ t s−1 cos β j t · Ds j − sin β j t · E s j , t ≥ 0, (4.51)
s=1

şi
kj

y j (t) = eα j t · ∑ t s−1 sin β t · Ds j + cos β t · E s j , t ≥ 0. (4.52)
s=1

Unicitatea. Presupunând că ar exista altă reprezentare a funcţiei z,


q
z(t) = ∑ Z j (t), Z j (t) ∈ V j , t ≥ 0,
j=1

unicitatea descompunerii din (4.49) ne va conduce la

Z j (0) = z0 j , j ∈ 1, q.

Astfel, pentru fiecare j, problema Cauchy (C j ) ar admite soluţiile z j şi Z j . ⊓


Exerciţiul 4.17. (Forma generală19 a proiecţiilor (z j ) j∈1,q ) În contextul exerciţiului


4.16, soluţia z j : [0, +∞) → C p are expresia
rj

z j (t) = eλ j t · ∑ t s−1 Fs j , Fs j s∈1,r j
⊂ Cp, t ≥ 0,
s=1

ı̂n care vectorii Fs j depind de r j constante complexe,


 
Fs j = Fs j c1 j , · · · , cr j j , s ∈ 1, r j , ck j k∈1,r ⊂ C.
j

Dacă λ j ∈ C\R, atunci proiecţia pe realificatul spaţiului liniar complex


" # " #
[ [  s
Ker (TC − λ j · I) ⊕
s
Ker TC − λ j · I
s≥0 s≥0

19Conform [33, pag. 186]. Prezentări asemănătoare pot fi citite ı̂n [22, pag. 83], [19, pag. 179].
Această formă se utilizează la rezolvarea sistemelor diferenţiale liniare prin metoda coeficienţilor
nedeterminaţi [33, pag. 187], [19, pag. 182]. Metoda mai este numită şi a lui L. Euler [19, pag.
138], [33, pag. 144].
4.6 Soluţii fundamentale 119

a soluţiei generale x : [0, +∞) → R p a sistemului diferenţial (4.36) are expresia20


rj

xλ j ,λ j (t) = eα j t · ∑ t s−1 cos β j t · Gs j + sin β j t · H s j , t ≥ 0,
s=1
 
ı̂n care vectorii Gs j s∈1,r j
, Hs j s∈1,r j
⊂ R p depind de 2r j constante reale,
 
Gs j = Gs j c1 j , · · · , c2r j j , 
s ∈ 1, r j , ck j ⊂ R.
H s j = H s j c1 j , · · · , c2r j j , k∈1,2r j


Soluţia exerciţiului 4.17. Fie B j = e1 j , . . . , er j j o bază a spaţiului liniar complex
S
Ker (TC − λ j · I)s . Atunci, soluţiile Z τ j : [0, +∞) → C p ale problemelor Cauchy
s≥0
( ′
ξ = Aξ , t ≥ 0,
(Cτ j ) τ ∈ 1, r j ,
ξ (0) = eτ j ,

sunt liniar independente21 peste C.


Conform (4.49), există numerele (cτ j )τ ∈1,r j ⊂ C astfel ı̂ncât

rj
z0 j = ∑ cτ j · eτ j ,
τ =1

de unde deducem că


rj
z j (t) = ∑ cτ j · Z τ j (t), t ≥ 0.
τ =1

Completând — eventual — cu coeficienţi nuli expresiile polinomiale din (4.50),


putem rescrie soluţiile Z τ j sub forma
rj

Z τ j (t) = eλ j t · ∑ t γ −1Cγτ j , t ≥ 0, Cγτ j γ ∈1,r j
⊂ Vj,
γ =1

ceea ce ne conduce la
rj

Fs j = ∑ cτ j ·Csτ j = F s j c1 j , · · · , cr j j , s ∈ 1, r j .
τ =1

Presupunând că λ j+1 = λ j ∈ C\R pentru un anumit j, introducem baza

20 Vezi şi [26, pag. 468]. In memoriam, prof. univ. dr. ing. Ioan Aştefanei.
21 Căci, ı̂n caz contrar, orice combinaţie liniară nulă a lor ne va conduce — calculată ı̂n t = 0 — la
o combinaţie liniară nulă a vectorilor bazei B j .
120 4 Aplicaţii
 [  s
B j+1 = σ (e1 j ), . . . , σ (er j j ) ⊂ Ker TC − λ j · I ,
s≥0

respectiv vectorii (vτ j )τ ∈1,r j , (wτ j )τ ∈1,r j ⊂ R p cu

eτ j = vτ j + i · wτ j , τ ∈ 1, r j .

Via (3.27), stabilim că


" # " #
[ [  s
Ker (TC − λ j · I) s
⊕ Ker TC − λ j · I
s≥0 s≥0

= SpanC v1 j , . . . , vr j j , w1 j , . . . , wr j j .

Pentru z0 j ∈ SpanR v1 j , . . . , vr j j , w1 j , . . . , wr j j există numerele (cτ j )τ ∈1,2r j ⊂ R
astfel ı̂ncât
rj 2r j
z0 j = ∑ cτ j · vτ j + ∑ cτ j · w(τ −r j ) j .
τ =1 τ =r j +1

Ţinând seama de formulele (4.51), (4.52), soluţiile Z τ j : [0, +∞) → R p ale pro-
blemelor Cauchy
(

δ = Aδ , t ≥ 0,
(Re Cτ j ) τ ∈ 1, r j ,
δ (0) = vτ j ,

şi soluţiile Z (τ +r j ) j : [0, +∞) → R p ale problemelor Cauchy



ε ′ = Aε , t ≥ 0,
(Im Cτ j ) τ ∈ 1, r j ,
ε (0) = wτ j ,

pot fi rescrise ca
rj

Z τ j (t) = eα jt
· ∑ t γ −1 cos β j t · Dγτ j − sin β j t · E γτ j , t ≥ 0,
γ =1

respectiv ca
rj

Z (τ +r j ) j (t) = eα j t · ∑ t γ −1 sin β t · Dγτ j + cos β t · E γτ j , t ≥ 0.
γ =1

Soluţia xλ j ,λ j : [0, +∞) → R p , a sistemului diferenţial (4.36), cu formula


4.7 Operaţii cu vectori 121

2r j  
xλ j ,λ j (t) = ∑ cτ j · Z τ j (t), t ≥ 0, aici, xλ j ,λ j (0) = z0 j
τ =1

admite reprezentarea din enunţ pentru


rj 2r j

Gs j = ∑ cτ j · Dsτ j + ∑ cτ j · E s(τ −r j ) j = Gs j c1 j , · · · , c2r j j
τ =1 τ =r j +1

şi
rj 2r j

H s j = − ∑ cτ j · E sτ j + ∑ cτ j · Ds(τ −r j ) j = H s j c1 j , · · · , c2r j j .
τ =1 τ =r j +1

Justificarea s-a ı̂ncheiat. ⊓


4.7 Matrice strict pozitiv-definite. Reprezentarea covectorilor


folosind produsul scalar. Produsul vectorial a m − 1 vectori.
Produsul tensorial a doi vectori. Reciproca unei baze.
Rezoluţia identităţii

Fie corpul K ∈ {R, C}, bazele S1 , S2 introduse la pagina 1 şi matricea nesin-
gulară P dată de (1.2).
Fie u, v ∈ E cu expresiile
m m
u= ∑ uSk 1 · ek = ∑ uSk 2 · f k , uS 1 S2
k , uk ∈ K,
k=1 k=1

respectiv
m m
v= ∑ vSk 1 · ek = ∑ vSk 2 · f k , vS 1 S2
k , vk ∈ K.
k=1 k=1

Conform (1.5),
 S2   S1     S1 
u1 u1 vS
1
2
v1
 ..  −1  ..   ..  −1  .. 
 .  = P  . ,  .  = P  . . (4.53)
uS
m
2
uS
m
1
vS
m
2
vS
m
1

În particular, dacă v = f k atunci


122 4 Aplicaţii
 
vS
1
1

 .. 
 .  = col(k) P, k ∈ 1, m. (4.54)
vS
m
1

Folosim scrierea tipică pentru produsul scalar definit de baza canonică S1 —


vezi relaţiile22 (4.17) pentru cazul K = R —, şi anume

 
S1
 v
 1 
u · v = BS1 (u, v) = uS 1  ..  .
1
1
· · · uS
m  .  (4.55)
vS
m
1

Evident, produsul scalar poate fi reorganizat astfel23 :


 S1 
  u1
 . 
u · v = (u · v)t = vS
1
1
· · · vS
m
1  . .
.
uS
m
1

Fie A ∈ Mm (K). Atunci, introducem produsul matrice-vector — ı̂n raport cu


baza S1 — via formula24
 S1   S1 
v1 u1
 ..   .. 
Au = A⋆S1 u = v,  .  = A . . (4.56)
vS
m
1
uS
m
1

Exerciţiul 4.18. (Vectorul v = Au ı̂n baza S2 ) Este valabilă expresia — analoagă


formulelor (1.15) —
 S2   S2 
v1 u1
 ..  −1  .. 
 .  = P AP  .  .
vS
m
2
uS
m
2

Soluţia exerciţiului 4.18. Avem următoarele estimări

22 Aici, aplicaţia BS1 : E × E → K este liniară ı̂n primul argument şi antiliniară [20, pag. 11] ı̂n
cel de-al doilea argument [27, pag. 73]. Referitor la BS1 , se folosesc şi denumirile formă biliniară
hermitică [18, pag. 316], respectiv formă hermitic simetrică, conjugat biliniară şi pozitiv definită
[11, pag. 122].
23 Formulă utilizată ı̂n fizică.
24 Conform relaţiilor (1.9), (1.10), există operatorul T ∈ L(E, E) astfel ı̂ncât T = A, de unde Au =

T⋆S1 u = T (u) pentru orice u ∈ E.


4.7 Operaţii cu vectori 123
 S1    S1 
v1 u
 .    −1    1. 
v = e1 · · · em  ..  = f 1 · · · f m P A  .. 
vS
m
1
uS
m
1

  S2  
u
  −1  1. 
= f 1 · · · f m P AP  ..  ,
uS
m
2

ceea ce ı̂ncheie demonstraţia. ⊓


Matricea A este considerată strict pozitiv-definită25 — ı̂n raport cu produsul sca-


lar — dacă

u · Au > 0 (4.57)

pentru orice vector nenul u ∈ E.

Exerciţiul 4.19. Fie A ∈ Mm (R) o matrice simetrică şi strict pozitiv-definită. A-


tunci, matricea A este
i) inversabilă,
ii) are doar valori proprii pozitive (implicit, reale).
iii) ([18, pag. 337, Lema 4.4]) Eigenvectorii corespunzând valorilor proprii distincte
sunt ortogonali doi câte doi.
iv) Orice eigenvector generalizat este eigenvector.
v) ([18, pag. 339, Teorema 4.6]) Există o bază a spaţiului E formată doar din eigen-
vectori ai matricei A.

Soluţia exerciţiului 4.19. Partea i). Dacă matricea A nu ar fi nesingulară, atunci ar


exista numerele (ui )i∈1,m ⊂ R, nu toate nule, astfel ı̂ncât
   
u1 0
 ..   .. 
A .  = ..
um 0

Mai departe, vectorul u ∈ E, unde


 S1   
u1 u1
 ..   .. 
 .  =  . ,
uS
m
1 um

ne-ar conduce la ı̂ncălcarea restricţiei (4.57), căci u · Au = u · 0E = 0.


25 În literatură, pentru K = C, o matrice hermitică A este numită pozitiv definită dacă ı̂ndepli-
neşte inegalitatea (4.57), vezi [16, pag. 396], ı̂n timp ce o matrice pentru care este valabilă varianta
cu semnul ≥ a inegalităţii este considerată pozitiv semidefinită. Am subliniat [3, pag. 1] prezenţa
semnului > ı̂n inegalitate prin introducerea cuvântului strict, ca ı̂n [25, pag. 2].
124 4 Aplicaţii

Partea ii). Au loc identităţile


    
S1 S1
   v1  h   i v1 
S1   ..  t . 
u · Av = uS 1
1 · · · um
S1
A  .  = u1 · · · um
S1
At   .. 
vS
m
1
vS
m
1

  S1 t  
u1 vS1
1

 t  ..   .. 
 
= A  .   .  t
 = A u · v = (Au) · v, u, v ∈ E. (4.58)
uS
m
1
vS
m
1

Dacă vectorul nenul u este eigenvector al matricei A corespunzând valorii proprii


λ ∈ K, atunci — via (1.26) — Au = λ u, respectiv

0 = u · Au − (Au) · u = u · (λ u) − (λ u) · u
 
(conform (4.1)) = λ − λ kuk22 .

Aşadar, eigenvalorile matricei A sunt reale, deci sistemele liniare şi omogene (1.26),
(1.29) admit soluţii reale nenule. Astfel, eigenvectorii şi eigenvectorii generalizaţi
ai matricei A se găsesc ı̂n SpanR (S1 ).
Pozitivitatea valorilor proprii rezultă din estimările26

λ · kuk22 = u · (λ u) = u · Au > 0.

Partea iii). Fiind date valorile proprii λ 6= µ şi vectorii proprii corespunzători
u, v, deducem că

0 = u · Av − (Au) · v = u · (µ v) − (λ u) · v
= (µ − λ ) (u · v) .

Partea iv). Să presupunem că există eigenvectorul generalizat v ∈ E astfel ı̂ncât

(A − λ · Im )k v = 0E , (A − λ · Im )k−1 v 6= 0E

pentru un anumit 2 ≤ k ≤ m.
Sunt valabile egalităţile

A · (A − λ · Im ) p = [A · (A − λ · Im )] · (A − λ · Im ) p−1
= [(A − λ · Im ) · A] · (A − λ · Im ) p−1 = . . .
= (A − λ · Im ) p · A, 1 ≤ p ≤ k.

26Cum u ∈ SpanR (S1 ), deducem că afirmaţiile acestui exerciţiu rămân valabile atunci când ine-
galitatea (4.57) are loc doar ı̂n SpanR (S1 ).
4.7 Operaţii cu vectori 125

Introducând expresia u = (A − λ · Im )k−1 v ı̂n restricţia (4.57), ajungem la o con-


tradicţie, — observăm că matricea (A − λ · Im )k−1 este simetrică —

0 < u · Au
 
 h it vS
1
1

 
= vS 1 S1
1 · · · vm
(A − λ · Im )k−1 A (A − λ · Im )k−1  ... 
vS
m
1

 
  vS
1
1

 
= vS 1 S1
1 · · · vm
A (A − λ · Im )2k−2  ... 
vS
m
1

  
h  i vS
1
1

  
= vS 1 S1
1 · · · vm
A (A − λ · Im )k−2 · (A − λ · Im )k  ... 
vS
m
1
h i h i
= A (A − λ · Im )k−2 v · (A − λ · Im )k v
= 0.

Partea v). Folosim partea iv) şi descompunerea (2.35). ⊓



Exerciţiul 4.20. (Produsul matricelor strict pozitiv definite) Fie α , β , γ , δ , λ , µ ∈
R.
i)27 Expresia
   
 z1 α δ
E (A, z1 , z2 ) = z1 z2 A , unde A = A(α , β , γ , δ ) = ,
z2 γ β

este număr real pentru orice z1,2 ∈ C dacă şi numai dacă γ = δ .
ii) Presupunem că γ = δ . Următoarele trei afirmaţii sunt echivalente:
1) avem inegalitatea E (A, z1 , z2 ) > 0 pentru orice numere z1,2 ∈ C cu |z1 |2 +
|z2 |2 > 0;
2)28 sunt valabile condiţiile:

α , αβ − γ 2 > 0;

3) inegalitatea E (A, x1 , x2 ) > 0 are loc pentru orice numere reale x1,2 care nu sunt
simultan nule.
iii) Dacă α , β , λ , µ > 0 şi

(α − β )2 (λ − µ )2 > 16 · αβ λ µ ,

atunci există numerele reale x1,2 astfel ı̂ncât


27 Conform [16, pag. 397, Exercise].
28 Vezi [16, pag. 404, Theorem 7.2.5]. Evident, şi β > 0.
126 4 Aplicaţii

E (AB, x1 , x2 ) < 0,

unde29
     
−1 λ 0 α 0 1 1 −1
A=C C, B= , C= √ .
0 µ 0 β 2 1 1
Soluţia exerciţiului 4.20. Partea i). Folosim identitatea

E (A, z1 , z2 ) = α |z1 |2 + 2γ Re (z1 z2 ) + β |z2 |2 + (δ − γ ) z1 z2 .

Partea iii). Avem relaţia


1  
E (AB, x1 , x2 ) = · α (µ + λ ) x12 + (α + β ) (µ − λ ) x1 x2 + β (µ + λ ) x22 .
2
Concluzia rezultă din observaţia că discriminantul ecuaţiei omogene

E (AB, x1 , x2 ) = 0,

cu formula
1
∆= (α − β )2 (λ − µ )2 − 4αβ λ µ ,
4
este pozitiv.
De asemeni, C−1 = C t şi
  
λ 0
E (A, x1 , x2 ) = E , y1 , y2 = λ y21 + µ y22 > 0,
0 µ
   
y1 x
unde = C 1 , respectiv
y2 x2

E (B, x1 , x2 ) = α x12 + β x22 > 0

pentru orice numere reale x1,2 care nu sunt simultan nule.


Aşadar, produsul a două matrice simetrice şi strict pozitiv definite nu este ı̂ntot-
deauna strict pozitiv definit. ⊓

Presupunem că, până la sfârşitul secţiunii de faţă, avem

29 Matricea AB este asimetrică. Pentru a obţine acest efect (balans), folosim rotaţia C de 45◦ la

construcţia unei similarităţi cu matricea diagonală


 
λ 0
A∼ .
0 µ

Un exemplu de matrice A, B, cu AB asimetrică, al căror produs Hadamard, A ◦ B = (ai j bi j )i, j∈1,2 ,


este strict pozitiv definit se găseşte ı̂n [16, pag. 457, Exercise].
4.7 Operaţii cu vectori 127

K = R.

Exerciţiul 4.21. (Produsul scalar ı̂n baza S2 ) Au loc identităţile


 
  vS
1
2

 
u · v = u1S2 · · · uS
m
2 G  ...  ,
vS
m
2

unde G = P t · P, respectiv

G = (gi j )1≤i, j≤m = f i · f j 1≤i, j≤m
.

Soluţia exerciţiului 4.21. Prima egalitate rezultă din (4.18).


Pentru cea de-a doua, avem estimările — vezi (4.54) —
t
f i · f j = col(i) P · col( j) P = gi j

oricare ar fi 1 ≤ i, j ≤ m. ⊓

Fie30 f ∈ E ∗ . Plecând de la identităţile


 S1   S1 
u1   u1
 .   
f (u) = f (e1 ) · · · f (em )  ..  = a1 · · · am  ...  ,
S1 S 1 (4.59)
uS
m
1
uS
m
1

obţinem reprezentarea31 covectorului f drept produs scalar32 ı̂n raport cu baza S1


[11, pag. 130, Theorem], adică33

f (u) = a · u, u ∈ E,
m
unde a = ∑ aS 1
k · ek ∈ E. În particular, ţinând seama de (4.54), avem
k=1
 S1 
  a
 t  1. 
f ( f k ) = aS1 S1
1 · · · am
· col(k) P = col(k) P  ..  , k ∈ 1, m,
aS
m
1

30 Reamintesc notaţia de la pagina 3, E ∗ = L(E, K).


31 Unicitatea reprezentării se probează adaptând afirmaţia discutată la soluţia exerciţiului 4.29.
32 Acest rezultat este numit frecvent teorema F. Riesz–M. Fréchet [18, pag. 331, Teorema 3.1].
33 Dacă f 6= 0E ∗ , atunci — via (4.1) — f (a) = kak22 > 0 şi a ∈ (Ker f )⊥ — spaţiul  ortogonal
 al
a a
subspaţiului Ker f [11, pag. 123], [27, pag. 76] —. Conform [11, pag. 130], a = f kak · kak şi
  2 2
f (u) f (u) ⊥
are loc descompunerea u = u − f (a) · a + f (a) · a ∈ (Ker f ) ⊕ (Ker f ) = E. Vezi, de asemeni,
nota de subsol de la pagina 141.
128 4 Aplicaţii

respectiv
   S1 
f ( f 1) a1
 ..  t  .. 
 .  = P  . . (4.60)
f ( f m) aS
m
1

Exerciţiul 4.22. (Vectorul a ı̂n baza S2 ) Este valabilă formula


 S2   
a1 f ( f 1)
 ..  −1  . 
 .  = G  ..  .
aS
m
2 f ( f m)

Soluţia exerciţiului 4.22. Avem următoarele estimări


   S1 
aS
1
1
a
 .    −1   1. 
a = e1 · · · em  ..  = f 1 · · · f m P  .. 
aS
m
1
aS
m
1

  
f ( f 1)
  −1  .. 
(conform (4.60)) = f 1 · · · f m P−1  P t  . 
f ( f m)
 
f(f )
 −1  . 1 
= f 1 · · · f m G  ..  ,
f ( f m)

ceea ce ı̂ncheie demonstraţia. ⊓


Cu ajutorul formulelor (1.6), definim covectorii Fk ∈ E ∗ astfel ı̂ncât

Fk ( f i ) = δki , 1 ≤ i, k ≤ m.

Aici, δki desemnează simbolul lui Kronecker. De asemeni, via (4.59), introducem
m
vectorii ak = ∑ aS 1
ki · ei ∈ E cu proprietatea că
i=1
 S1 
  u1
Fk (u) = ak · u = aS 1  ..  ,
k1
1
· · · aS
km  . 
u ∈ E, k ∈ 1, m. (4.61)
uS
m
1

Exerciţiul 4.23. (Vectorul ak ı̂n baza S2 ) Este valabilă formula


4.7 Operaţii cu vectori 129
 S2 
ak1
 ..  −1

 .  = col(k) G .
aS
km
2

Soluţia exerciţiului 4.23. Utilizăm exerciţiul 4.22. Astfel,


     
aS
k1
2
Fk ( f 1 ) δk1
 ..  −1  .  −1  . 
 .  = G  ..  = G  ..  ,
aS
km
2 Fk ( f m ) δkm

unde k ∈ 1, m. ⊓

Exerciţiul 4.24. Fie f ∈ E ∗ . Atunci,


 
m
f ( f 1)
 
f= ∑ f ( f k ) · Fk , a = a1 · · · am  ...  .
k=1
f ( f m)

Soluţia exerciţiului 4.24. Prima parte rezultă din egalităţile


!
m m
f ( f i) = ∑ f ( f k )δki = ∑ f ( f k ) · Fk ( f i ), i ∈ 1, m.
k=1 k=1

La partea a doua, folosim exerciţiile 4.22, 4.23. Astfel,


  
aS
1
2
f ( f 1)
     
a = f 1 · · · f m  ...  = f 1 · · · f m G−1  ...  ,
aS
m
2 f ( f m)

de unde rezultă concluzia. ⊓


Observăm că au loc relaţiile34 — aici, G = P t · P —


    
a1 · · · am = f 1 · · · f m G−1 = e1 · · · em P G−1
 t
= e1 · · · em P−1 , (4.62)

respectiv este valabilă restricţia de biortogonalitate35

ak · f i = Fk ( f i ) = δki , 1 ≤ i, k ≤ m. (4.63)

34
t P reprezintă matricea de schimbare de bază a vectorilor — se trece de la S1 la S2 —,
Cum
P−1 desemnează matricea de schimbare de bază a covectorilor — când se trece de la duala C1
a bazei S1 la duala C2 a bazei S2 — [20, pag. 13].
35 Vezi [15, pag. 66-5].
130 4 Aplicaţii

Astfel, setul de vectori

S3 = {a1 , · · · , am }

desemnează baza reciprocă ı̂n E a bazei S2 . Vezi [17, pag. 37].


Fie vectorii (bk )k∈1,m−1 ⊂ E, cu expresiile
m
bk = ∑ bS 1
ki · ei , 1 ≤ k ≤ m − 1, m ≥ 3.
i=1

Introducem covectorul F ∈ E ∗ dat de relaţia


S
b 1
11 bS
12
1
· · · bS 1
1m
bS1 bS 1
· · · bS 1
21 22 2m
. .. ..
F(u) = FS1 (u) = .. . ··· . , u ∈ E. (4.64)
S1 S1 S1
b(m−1)1 b(m−1)2 · · · b(m−1)m

uS1 uS1
· · · u S1
1 2 m

Numărul real F(u), notat cu b1 , · · · , bm−1 , u , constituie produsul mixt 36 (forma
determinant37 ) al vectorilor (bk )k∈1,m−1 , u. Vezi [17, pag. 31].
Vectorul folosit la reprezentarea38 ı̂n formă de produs scalar a covectorului F,
m−1
notat cu ∏ bk , desemnează produsul vectorial al vectorilor (bk )k∈1,m−1 . Au loc
k=1
egalităţile
!
 m−1
F(u) = b1 , · · · , bm−1 , u = ∏ bk · u, u ∈ E.
k=1

Exerciţiul 4.25. (Produsul vectorial ca determinant) Avem formula


S
b 1 bS 1
· · · bS 1
11 12 1m
bS1 bS 1
· · · bS 1
21 22 2m
m−1 .
∏ bk = .. .
.. ···
.
.. , (4.65)
k=1 S1
b(m−1)1 bS 1
· · · bS 1
(m−1)2 (m−1)m
e1 e2 · · · em

cu convenţia ca determinantul să fie dezvoltat după ultima linie.

36 În cazul m = 3, se ı̂ntâlneşte şi denumirea triplu produs scalar [35, pag. 10].
37 Vezi [7, pag. 70].
38 Vezi [7, pag. 92].
4.7 Operaţii cu vectori 131

Soluţia exerciţiului 4.25. Dezvoltăm după ultima linie determinantul din (4.64).
Astfel, observăm că — aici, DS i
1
desemnează cofactorul39 elementului uS
i
1
[21,
pag. 9] —
 S1 
m   u1
1  .. 
F(u) = ∑ uSi 1 · DSi 1 = DS
1
1
· · · DS
m  . 
i=1
uS
m
1
!
m
= ∑ DSi 1 · ei · u. (4.66)
i=1

Concluzia rezultă din (4.55) pe baza unicităţii reprezentării ca produs scalar a co-
vectorului F. ⊓⊔

Exerciţiul 4.26. (Produsul scalar dintre produsul vectorial şi factorii săi) Produsul
vectorial le este ortogonal factorilor săi,
m−1
bi · ∏ bk = 0, i ∈ 1, m − 1.
k=1

Soluţia exerciţiului 4.26. Remarcăm faptul că determinantul din (4.64) este nul da-
că ultima linie a sa este o combinaţie liniară a celorlalte linii [18, pag. 132]. Astfel,

SpanR b1 , · · · , bm−1 ⊆ Ker F.

De asemeni, dacă vectorii (bk )k∈1,m−1 sunt liniar dependenţi peste R, atunci Ker F =
E. ⊓⊔

Exerciţiul 4.27. (Liniar independenţa factorilor dintr-un produs vectorial) Vectorii


din setul {b1 , · · · , bm−1 } sunt liniar independenţi peste R dacă şi numai dacă
m−1
∏ bk 6= 0E .
k=1

Soluţia exerciţiului 4.27. Liniar dependenţa acestor vectori este echivalentă cu fap-
tul că măcar una dintre primele m − 1 linii ale determinantului (4.65) poate fi repre-
zentată ca o combinaţie liniară a celorlalte m − 2 linii — dintre primele m − 1 linii cu
intrări scalare
 —.Combinaţia liniară se păstrează ı̂n toţi minorii folosiţi la calculul
numerelor DS i
1
. Deci, dacă produsul vectorial este nenul, atunci factorii a-
i∈1,m
cestuia sunt liniar independenţi.
Dacă factorii sunt liniar independenţi, atunci putem adapta demonstraţia Lemei
1.1 pentru a stabili că produsul vectorial este nenul. Vezi şi [18, pag. 139, Corolarul
2.4]. ⊓⊔
39 Se utilizează şi denumirile de complement [23, pag. 289] ori complementar algebric al elemen-
tului uS 1
i [18, pag. 133].
132 4 Aplicaţii

Exerciţiul 4.28. (Produsul mixt dintre produsul vectorial şi factorii săi) Are loc i-
dentitatea
!
m−1 m−1 2

b1 , b2 , · · · , bm−1 , ∏ bk = ∏ bk .
k=1
k=1

2

Soluţia exerciţiului 4.28. Via (4.66), avem


! !2
m−1 m  2 m−1
F ∏ bk =∑ DS
i
1
= ∏ bk ,
k=1 i=1 k=1

ceea ce ı̂ncheie demonstraţia. ⊓


Exerciţiul 4.29. (Baza reciprocă via produsul vectorial şi produsul mixt) Dacă m ≥
3, atunci vectorii (ai )i∈1,m , introduşi ı̂n (4.61), au următoarele expresii40

 f × f ×···× f

 a1 = (−1)m−1 · 2 f 3,··· , f m ,

 ( 1 m)
m−i f 1 × f 2 ×···× f i−1 × f i+1 × f i+2 ×···× f m
ai = (−1) · , i ∈ 2, m − 1, (4.67)

 ( f 1 ,··· , f m )


 am = f 1 × f 2 ×···× f m−1 .
( f 1 ,··· , f m )

Soluţia exerciţiului 4.29. Fac următoarea afirmaţie: fiind daţi vectorii ( f i )i∈1,m din
(4.63), care alcătuiesc o bază a spaţiului liniar E, există cel mult o familie (ai )i∈1,m
cu proprietatea că ak · f i = δki pentru orice i, k.
Într-adevăr, ı̂n caz contrar ar exista seturile de vectori (bi )i∈1,m , (ci )i∈1,m , unde
m
ci = ai − bi = ∑ cS 1
i j · e j , pentru care
j=1

bk · f i = δki , ck · f i = 0, 1 ≤ i, k ≤ m,

iar vectorii ci nu ar fi toţi nuli. Atunci, sistemul algebric — conform (4.54) —


   
x1 0
   
P t  ...  =  ... 
xm 0

40 Putem folosi, ca notaţie, pălăria b


⋆ pentru a desemna factorul lipsă:

f 1 × f 2 × · · · × f i−1 × f i × f i+1 × f i+2 × · · · × f m


ai = (−1)m−i ·  , i ∈ 1, m.
f 1, · · · , f m
4.7 Operaţii cu vectori 133
 S1 
ci1
41  .. 
ar admite soluţii nenule , de forma  . , ceea ce ar contrazice nesingularitatea
cS
im
1

matricei P. Afirmaţia este probată.


Mai departe, să remarcăm că

f 1 , · · · , f m = det P, (4.68)

respectiv

f 1 × f 2 × · · · × f i−1 × f i+1 × f i+2 × · · · × f m · w

= f 1 , f 2 , · · · , f i−1 , f i+1 , f i+2 , · · · , f m , w

= (−1)m−i · f 1 , f 2 , · · · , f i−1 , w, f i+1 , · · · , f m , w ∈ E. (4.69)

Pentru a proba partea a doua a dublei egalităţi anterioare, transformăm primul pro-
dus mixt ı̂n cel de-al doilea cu ajutorul a m − i permutări de linii.
În sfârşit, via (4.68), (4.69), vectorii din partea dreaptă a egalităţilor (4.67) —
notaţi bi , unde 1 ≤ i ≤ m — verifică relaţiile bk · f i = δki pentru orice i, k, ceea ce
ı̂ncheie demonstraţia. ⊓ ⊔

Exerciţiul 4.30. (Baza reciprocă a bazei S3 ) Vectorii bazei S2 admit reprezentările


—m≥3—
 m−1 · a2 ×a3 ×···×am ,
 f 1 = (−1)
 (a1 ,··· ,am )
a ×a ×···×ai−1 ×ai+1 ×ai+2 ×···×am
f i = (−1)m−i · 1 2 (a1 ,··· ,am ) , i ∈ 2, m − 1, (4.70)

 a1 ×a2 ×···×am−1
f m = (a ,··· ,am ) .
1

Soluţia exerciţiului 4.30. Notăm cu bi , unde 1 ≤ i ≤ m, vectorii din partea dreaptă


a egalităţilor (4.70). Atunci, deducem că

ck = f k − bk , ck · ai = 0, 1 ≤ i, k ≤ m.

Aplicăm raţionamentul de la exerciţiul 4.29: vectorii (ck )k∈1,m , fiindu-i ortogo-


nali bazei S3 , sunt obligatoriu nuli. ⊓

Exerciţiul 4.31. (Produsul mixt ı̂n baza S2 ) Este valabilă identitatea


S
b 2
11 bS
12
2
· · · bS 2
1m
bS2 bS 2
· · · bS 2
21 22 2m
 . .. ..
b1 , · · · , bm−1 , u = det P · .. . ··· . .
S2 S2 S2
b(m−1)1 b(m−1)2 · · · b(m−1)m

uS2 uS 2
· · · uS 2
1 2 m
41Cu alte cuvinte, ar exista vectori nenuli care să ı̂i fie ortogonali unei baze a spaţiului E [18, pag.
329, Propoziţia 2.10 (ii)].
134 4 Aplicaţii

Soluţia exerciţiului 4.31. Utilizăm egalităţile (4.53). ⊓



Exerciţiul 4.32. (Produsul mixt ca determinant J. Gram) Are loc egalitatea

b1 · f 1 b1 · f 2 · · · b1 · f m

b2 · f 1 b2 · f 2 · · · b2 · f m
 1
.. .. ..
b1 , · · · , bm−1 , u =  · . . ··· . . (4.71)
f 1 , · · · , f m

bm−1 · f 1 bm−1 · f 2 · · · bm−1 · f m
u· f u· f 2 ··· u· f m
1

În particular, — [18, pag. 352, Exerciţiul 3 a)] —



f1 · f1 f1 · f2 · · · f 1 · f m

2 f 2 · f 1 f 2 · f 2 · · · f 2 · f m
f 1, · · · , f m = . .. .. . (4.72)
.. . ··· .

f · f f · f ··· f · f
m 1 m 2 m m

Soluţia exerciţiului 4.32. Remarcăm că


 
bS
11
1
bS
12
1
··· bS
 S S
1m
1
S1 t

 S1 S1  S1f 1 f121 · · · f1m
 b21 b22 ···   11
b2m S1 S1 S1 
 .. ..   f21
.. f22 · · · f2m 
   .. 
 . .···  ·  ..
. .. 
 S1 S1 S1   . . ··· . 
b(m−1)1 b(m−1)2 · · · b(m−1)m  S1 S1 S1
fm1 fm2 · · · fmm
uS
1
1
uS
2
1
· · · uS m
1

 
b1 · f 1 b1 · f 2 · · · b1 · f m
 b2 · f 1 b2 · f 2 · · · b2 · f m 
 
 .. .. .. 
= . . · · · . ,
 
bm−1 · f bm−1 · f · · · bm−1 · f 
1 2 m
u· f1 u· f2 ··· u· fm

ceea ce ı̂ncheie demonstraţia. ⊓



Exerciţiul 4.33. (Produsul vectorial via produsul scalar şi produsul mixt) Avem re-
laţia

b1 · f 1 b1 · f 2 · · · b1 · f m

b2 · f 1 b2 · f 2 · · · b2 · f m
m−1
1

∏ bk = f , · · · , f  · ... ..
. ···
..
. ,

(4.73)
k=1 1 m bm−1 · f bm−1 · f · · · bm−1 · f
1 2 m
f f · · · f
1 2 m

cu convenţia ca determinantul să fie dezvoltat după ultima linie.


Soluţia exerciţiului 4.33. Reorganizăm determinantul din (4.71) sub forma
4.7 Operaţii cu vectori 135

b1 · f 1 b1 · f 2 · · · b1 · f m

b2 · f 1 b2 · f 2 · · · b2 · f m

.. .. ..
. . · · · .

bm−1 · f bm−1 · f · · · bm−1 · f
1 2 m
u· f u· f2 ··· u· f m
1

b1 · f 1 b1 · f 2 ··· b1 · f m

b · f b2 · f 2 ··· b2 · f m
2 1
.. .. ..
. . ··· .
=
bm−1 · f 1 ! bm−1 · f 2 ! ··· bm−1 · f m !
m
m m
∑ uS 1
· f1Sj 1 S S
∑ u j 1 · f2 j 1 ··· S S
∑ u j 1 · fm j1
j=1 j j=1 j=1


b1 · f 1 b1 · f 2 · · · b1 · f m

b2 · f 1 b2 · f 2 · · · b2 · f m
m
1 .. .. ..
= ∑ uS j · . . ··· .

j=1 bm−1 · f 1 bm−1 · f 2 · · · bm−1 · f m

f S1 f2Sj 1 · · · fmSj1
1j
 
b1 · f 1 b1 · f 2 · · · b1 · f m

 b2 · f 1 b2 · f 2 · · · b2 · f m 
m 
 .. .. .. 
= ∑ . . ··· . · e j  · u,
 j=1 
 bm−1 · f 1 bm−1 · f 2 · · · bm−1 · f m 

f S1 f2Sj 1 · · · fmSj1
1j

de unde
!
 m
F(u) = b1 , · · · , bm−1 , u = ∑ BF S
j
1
· e j · u, u ∈ E, (4.74)
j=1

pentru

b1 · f 1 b1 · f 2 · · · b1 · f m

b2 · f 1 b2 · f 2 · · · b2 · f m

.. .. ..
. . ··· .

bm−1 · f 1 bm−1 · f 2 · · · bm−1 · f m

f S1 f2Sj 1 ··· fmSj1
1j
BF S 1
j =  , j ∈ 1, m.
f 1, · · · , f m

Concluzia rezultă din (4.74) pe baza unicităţii reprezentării ca produs scalar a


covectorului F. ⊓⊔
136 4 Aplicaţii

Exerciţiul 4.34. (Dublul produs vectorial 42 , J. Lagrange, H. Grassmann) Fie m =


3. Atunci, are loc identitatea
 
a × b × c = (a · c) b − b · c a, a, b, c ∈ E. (4.75)

De asemeni43 ,

c · a c · b



V


V V

a × b × c = − c × d × a × b = d · a d · b ,
d ∈ E.


a b

Soluţia exerciţiului 4.34. Vectori liniar dependenţi. Dacă există λ ∈ R astfel ı̂ncât
a = λ · b, atunci

a × b = 0E = a × b × c
        
= λ · b·c b− b·c b = λb ·c b− b·c λb

= (a · c) b − b · c a.

Dacă c = λ · a, atunci este suficient să probăm egalitatea


  
a × b × a = a2 b − b · a a. (4.76)

Începem prin a observa că — vezi exerciţiul 4.28 —


 2
a, b, a × b = a × b 2 , a, b ∈ E.

Expresia (4.73) ne conduce la relaţia — conform exerciţiului 4.27, impunem ca


a × b 6= 0E —

0 0 a × b 2
 1 2
a×b ×a = 2 · a2 a · b 0 .

a × b
2 a b a×b

Ajugem la (4.76) dezvoltând determinantul după ultima linie.


Vectori liniar independenţi.44 Dacă a, b, c 6= 0, atunci identitatea (4.73) im-
plică

42 Vezi [17, pag. 33]. Se ı̂ntâlneşte şi denumirea triplu produs vectorial [35, pag. 12] pentru canti-

tatea a × b × c .
43 Reorganizarea egalităţii (4.75) ne permite generalizarea sa. Vezi exerciţiul 4.42.

44 Altă soluţie a acestui caz este oferită de exerciţiul 4.42: scriem produsul c × a × b ı̂n baza

a, b, a × b .
4.7 Operaţii cu vectori 137

0 0 a, b, c
 1
a×b ×c =  · c · a c · b c2 ,
a, b, c a b c

ceea ce ı̂ncheie demonstraţia. ⊓


Exerciţiul 4.35. (Dublul produs vectorial, formula A. Cauchy–J. Binet) Fie m = 3.


Atunci, este valabilă expresia

  a · c a · d
a × b · c × d = , a, b, c, d ∈ E. (4.77)
b · c b · d

În particular, are loc identitatea lui J. Lagrange, şi anume



2 a2 a · b 2 2
2
a × b = 2 = a ·b − a·b . (4.78)
2 b · a b

Soluţia exerciţiului 4.35. Vectori liniar dependenţi. Dacă există λ ∈ R astfel ı̂ncât
c = λ · d, atunci c × d = 0E şi
 
a×b · c×d = 0

a · d a · d
= λ ·
b · d b · d

a · λ · d a · d
=  .
b · λ · d b · d

Vectori liniar independenţi. Dacă c × d 6= 0E , atunci — via relaţia (4.71) —


avem
  
a, b, c × d = a × b · c × d

a · c a · d a · c × d
1 
=  · b · c b · d b · c × d . (4.79)
c, d, c × d 
c×d
2
0 0

Ajugem la (4.77) dezvoltând determinantul din (4.79) după ultima linie. ⊓


Exerciţiul 4.36. Fie m = 3. În contextul exerciţiilor 4.21, 4.23, matricea G−1 este
simetrică şi admite reprezentările45

45 Expresia (4.83) poate fi construită pentru orice m ≥ 3,


h  i−1
fi · f j i, j∈1,m
= (ai · a j )i, j∈1,m , (4.80)

conform [15, pag. 66-6, Fact 7].


138 4 Aplicaţii

1
G−1 = 2
f 1, f 2, f 3
   
f 2 × f 3, f 2, f 3 f 1, f 2 × f 3, f 3 f 1, f 2, f 2 × f 3
×  f 3 × f 1 , f 2 , f 3  f 1 , f 3 × f 1 , f 3  f 1 , f 2 , f 3 × f 1  (4.81)
f 1 × f 2, f 2, f 3 f 1, f 1 × f 2, f 3 f 1, f 2, f 1 × f 2
   
a1 , f 2 , f 3  a2 , f 2 , f 3  a3 , f 2 , f 3 
1
=  ·  f 1 , a1 , f 3  f 1 , a2 , f 3  f 1 , a3 , f 3  (4.82)
f 1, f 2, f 3 f , f ,a f , f ,a f , f ,a
1 2 1 1 2 2 1 2 3
= (ai · a j )i, j∈1,3 . (4.83)

Soluţia exerciţiului 4.36. Formula (4.81). Inversa matricei G = (gi j )i, j∈1,3 are ex-
presia
 11 21 31 
G G G
1
G−1 = · G12 G22 G32  ,
det G
G13 G23 G33

unde G ji reprezintă cofactorul elementului gi j [18, pag. 136, Propoziţia 1.4]. De


2
asemeni, pe baza formulei (4.72), det G = f 1 , f 2 , f 3 .
Prin calcul direct,
2 2 2
G11 = f 2 f 3 − f 2 · f 3
2
(conform (4.78)) = f 2 × f 3 2

= f 2 × f 3, f 2, f 3 .

În mod analog, stabilim valorile intrărilor G22 , G33 .


Apoi,

f · f f · f
12 1 2 1 3
G = − 2
f3 · f2 f3
 
(conform (4.77)) = − f 1 × f 3 · f 2 × f 3

= f 1, f 2 × f 3, f 2 .

În mod analog, stabilim valorile intrărilor Gi j , unde i 6= j.


Simetria matricei G−1 . Avem egalităţile
  
G21 = f 1 , f 2 × f 3 , f 3 = f 1 × f 2 × f 3 · f 3
   2
= f1 · f3 f2 · f3 − f1 · f2 f3
   
= f3· f2 f1− f1· f2 f3 · f3
   
= f 3 × f 1 × f 2 · f 3 = f 3 × f 1, f 2, f 3
= G12 .
4.7 Operaţii cu vectori 139

În mod analog, testăm faptul că Gi j = G ji , unde i 6= j.


Formulele (4.82), (4.83). Aplicăm exerciţiul 4.29. ⊓ ⊔

Exerciţiul 4.37. (Coordonate ı̂n baza S2 . Cazul m = 3) Are loc identitatea


  
w, f 2 , f 3 f , w, f 3 f , f ,w
w=  · f1+ 1  · f 2 + 1 2  · f 3, w ∈ E.
f 1, f 2, f 3 f 1, f 2, f 3 f 1, f 2, f 3

Soluţia exerciţiului 4.37. Fie (wi )i∈1,3 coordonatele vectorului w ı̂n baza46 S3 . De-
ducem că — via exerciţiul 4.23 şi reprezentarea (4.82) —
3
w= ∑ wi · ai
i=1
"    #
a1 , f 2 , f 3 f 1 , a1 , f 3 f 1 , f 2 , a1
= w1 ·  · f1+  · f2+  · f3
f 1, f 2, f 3 f 1, f 2, f 3 f 1, f 2, f 3
"    #
a2 , f 2 , f 3 f 1 , a2 , f 3 f 1 , f 2 , a2
+ w2 ·  · f1+  · f2+  · f3
f 1, f 2, f 3 f 1, f 2, f 3 f 1, f 2, f 3
"    #
a3 , f 2 , f 3 f 1 , a3 , f 3 f 1 , f 2 , a3
+ w3 ·  · f1+  · f2+  · f3
f 1, f 2, f 3 f 1, f 2, f 3 f 1, f 2, f 3
     
3 3 3
∑ i i 2 3
w · a , f , f f 1 ∑ i i 3
, w · a , f f 1 2 ∑ i i
, f , w · a
= i=1  · f1 + i=1
 · f2+ i=1
 · f 3,
f 1, f 2, f 3 f 1, f 2, f 3 f 1, f 2, f 3

ceea ce ı̂ncheie demonstraţia. ⊓


Exerciţiul 4.38. (Coordonate ı̂n bazele S2 , S3 ) Sunt valabile egalităţile


m m 
w = ∑ (w · ai ) · f i = ∑ w · f i · ai , w ∈ E.
i=1 i=1

Soluţia exerciţiului 4.38. Fie (Wi )i∈1,m şi (wi )i∈1,m coordonatele vectorului w ı̂n ba-
zele S2 , respectiv S3 . Pentru a calcula aceste numere, le aplicăm produsul scalar
relaţiilor
m m
w = ∑ Wi · f i = ∑ wi · ai
i=1 i=1

şi ţinem seama de restricţia de biortogonalitate (4.63). ⊓


Exerciţiul 4.39. (Regula lui G. Cramer) Fie w ∈ E. În contextul exerciţiului 4.38,
avem formulele — m ≥ 3 —

46 Introdusă la pagina 130.


140 4 Aplicaţii

 (w, f 2 , f 3 ,··· , f m )
 w · a1 = ( f 1 ,··· , f m ) ,



( f ,··· , f i−1 ,w, f i+1 ,··· , f m )
w · ai = 1 ,

 ( f 1 ,··· , f m )


 w · am = ( f 1 ,··· , f m−1 ,w) ,
( f 1 ,··· , f m )

respectiv

 (w,a2 ,a3 ,··· ,am )
 w · f 1 = (a1 ,··· ,am ) ,

(a ,··· ,ai−1 ,w,ai+1 ,··· ,am )
w · f i = 1 (a ,
 1 ,··· ,am )

 w · f = (a1 ,··· ,am−1 ,w) ,
m (a1 ,··· ,am )

unde i ∈ 2, m − 1.
Soluţia exerciţiului 4.39. Prima soluţie. Folosim estimarea (4.69).
A doua soluţie. Fie (ui )i∈1,m şi (Wi )i∈1,m coordonatele vectorului w ı̂n bazele S1 ,
respectiv S2 . Atunci,
    
m
W1 W1
 .     . 
w = ∑ Wi · f i = f 1 · · · f m  ..  = e1 · · · em P ·  .. 
i=1
Wm Wm
 
u1
 
= e1 · · · em  ...  .
um

Avem de rezolvat, aşadar, sistemul algebric cramerian


   
W1 u1
 ..   .. 
P .  =  . . (4.84)
Wm um

Formula soluţiei este dată de expresiile [18, pag. 142, Propoziţia 3.3]

det Pi
Wi = , i ∈ 1, m,
det P
unde Pi desemnează matricea obţinută din matricea P prin ı̂nlocuirea celei de-a i-a
coloane cu coloana situată ı̂n partea dreaptă a ecuaţiei (4.84).
Concluzia rezultă din (4.64), (4.68). ⊓ ⊔

Exerciţiul 4.40. (Baza reciprocă ı̂ntr-un hiperplan) Dacă vectorii bi i∈1,m−1 , unde
m ≥ 3, sunt
 liniar independenţi  peste corpul R, atunci
m−1
i) setul b1 , · · · , bm−1 , ∏ bk alcătuieşte o bază a spaţiului E.
 k=1
ii) Vectorii Bi i∈1,m−1 , cu formula — [4, pag. 6] —
4.7 Operaţii cu vectori 141

V  
m−1
b1 × · · · × bi−1 × bi × bi+1 × · · · × bm−1 × ∏ bk
k=1
Bi = (−1)m−i · , (4.85)
m−1 2
∏ bk

k=1 2

unde 1 ≤ i ≤ m − 1, se găsesc ı̂n hiperplanul H = SpanR b1 , · · · , bm−1 .
iii) Au loc restricţiile de biortogonalitate

Bi · bk = δik , 1 ≤ i, k ≤ m − 1. (4.86)

iv) Setul B1 , · · · , Bm−1 , dat de (4.85), constituie singura familie de vectori din H
care ı̂ndeplineşte restricţia de biortogonalitate (4.86).

Soluţia exerciţiului 4.40. Partea i). Ţinând seama de exerciţiul 4.27, introducem
m−1
vectorul b = ∏ bk 6= 0E .
k=1
Formula (4.68) implică, via exerciţiul 4.28, faptul că determinantul matricei de
schimbare de bază — trecerea de la S1 la setul de vectori din enunţ — are valoarea

m−1 2

∏ bk > 0.
k=1
2

Partea iii). Folosim estimările (4.69).


Partea ii).47 Fie subspaţiul liniar M = Rb al spaţiului E. Introducem subspaţiul
liniar M ⊥ = u ∈ E | u · b = 0 . Atunci — [11, pag. 129, Theorem] —,

E = M ⊕ M⊥ (4.87)

şi dimR M ⊥ = m − dimR M = m − 1.


Pentru a stabili egalitatea (4.87), să remarcăm că orice vector u ∈ E poate fi des-
compus astfel48 :
 
u·b u·b
u = u− · b + ·b
kbk22 kbk22
= v + w, v ∈ M ⊥ , w = λ · b ∈ M, λ ∈ R.

Mai departe, exerciţiul 4.26 ne conduce la

bi · b = Bi · b = 0, i ∈ 1, m − 1,

47 Pentru altă abordare, vezi exerciţiul 4.42.


48 Reprezentarea este unică deoarece M ∩ M ⊥ = {0E }. Într-adevăr, dacă ar exista vectorii p ∈ M
şi q ∈ M ⊥ astfel ı̂ncât p = q, atunci ar avea loc egalităţile 0 = p · q = kpk22 , de unde p = 0E .
142 4 Aplicaţii

de unde deducem că setul b1 , · · · , bm−1 alcătuieşte o bază a spaţiului M ⊥ , res-

pectiv Bi i∈1,m−1 ⊂ M ⊥ . Aici, H = M ⊥ .

Afirm că setul B1 , · · · , Bm−1 alcătuieşte o bază a spaţiului M ⊥ . Pentru aceasta
este suficient să arătăm că vectorii din set sunt liniar independenţi peste corpul R
[11, pag. 11, Theorem]. Dacă, prin absurd, ar exista numerele reale (αi )i∈1,m−1 , nu
toate nule, astfel ı̂ncât
m−1
∑ αi · Bi = 0E ,
i=1

atunci, conform (4.86), am ajunge la


!
m−1 
0= ∑ αi · Bi · bk = αk · Bk · bk = αk , k ∈ 1, m − 1,
i=1

adică la o contradicţie. Afirmaţia a fost probată.


Partea iv). Adaptăm
 tehnica de la soluţia exerciţiului 4.29. Astfel, dacă vectorii
(ci )i∈1,m−1 , d i i∈1,m−1 desemnează baze ale subspaţiului H cu proprietatea că

ci · bk = d i · bk = δik , 1 ≤ i, k ≤ m − 1,

atunci seturile
( ) ( )
b b
c1 , · · · , cm−1 , 2 , d 1 , · · · , d m−1 , 2
b b
2 2

sunt baze ale spaţiului E care verifică restricţia de biortogonalitate ı̂n raport cu baza
de la partea i). ⊓⊔

Exerciţiul 4.41. (Orientarea bazelor reciproce) În contextul exerciţiului 4.40,


i) bazele S2 , S3 sunt la fel orientate49 ı̂n spaţiul liniar E.
ii) Avem identitatea
m−1
m−1 ∏ bi
∏ Bi = m−1 2 .
i=1
(4.88)
i=1 ∏ bi
i=1 2
 
iii)50 Dacă familiile B1 = bi i∈1,m−1 şi B2 = Bi i∈1,m−1
sunt baze reciproce ı̂n
hiperplanul H , atunci seturile de vectori

49 Vezi [7, pag. 82].


50 În particular, formula (4.85) rezultă din (4.67).
4.7 Operaţii cu vectori 143
( ) ( )
m−1 m−1
b1 , · · · , bm−1 , ∏ bi , B1 , · · · , Bm−1 , ∏ Bi
i=1 i=1

sunt baze reciproce ı̂n spaţiul liniar E.


iv) Este valabilă relaţia51
1
(a1 , · · · , am ) = .
f 1, · · · , f m

Soluţia exerciţiului 4.41. Partea i). Matricea de schimbare de bază, G = (P t · P)−1 ,


are determinantul pozitiv.
Partea ii). Deducem că — via (4.85), respectiv (4.73) —
m−1
(−1)m−(m−1)
∏ Bi =
m−1 2
· B1 × B2 × · · · × Bm−2
i=1 ∏ bk

k=1 2
" !#
m−1
× b1 × · · · × bm−2 × ∏ bk
k=1


1 0 0 ··· 0 0 0

0 1 0 ··· 0 0 0

.. .. . .. .. ..
.
. · · · .. . .
.
−1 0 ··· 0
= · 0 1  0  0 .
m−1 4 m−1
∏ bk 0 0 ··· 0 0 − b1 , · · · , bm−2 , bm−1 , ∏ bk 0

k=1 2 k=1
m−1
b1 b2 · · · bm−3 bm−2 bm−1 ∏ bk

k=1

Partea iii). În virtutea relaţiei (4.88), obţinem că


! !
m−1 m−1
∏ Bi · ∏ bj = 1. (4.89)
i=1 j=1

Conform exerciţiului 4.40, partea iv), vectorii din familia B2 au reprezentarea


(4.85). Concluzia rezultă din (4.86), (4.89).
Partea iv). Pe baza (4.68), (4.62), obţinem că
h t i 1
(a1 , · · · , am ) = det P−1 = ,
det P
ceea ce ı̂ncheie demonstraţia. ⊓

51 Via (4.72), această egalitate este ı̂n concordanţă cu reprezentarea (4.80) a matricei G−1 .
144 4 Aplicaţii

Exerciţiul 4.42. (Produsul vectorial multiplu: produse vectoriale de produse vecto-


riale) Fiind daţi vectorii U = (ui )i∈1,m−1 , V = (vi )i∈1,m−1 ⊂ E, introducem matri-
cea produselor scalare — m ≥ 3 —
 
u1 · v1 u1 · v2 · · · u1 · vm−1
 u2 · v1 u2 · v2 · · · u2 · vm−1   
 
GU V =  .. .. ..  = GU ij
V
 . . ··· .  i, j∈1,m−1
um−1 · v1 um−1 · v2 · · · um−1 · vm−1

şi notăm cu DUij


V minorul corespunzător elementului GU V , unde i, j ∈ 1, m − 1.
ij
Atunci,
i) dacă setul V este liniar dependent peste corpul R, au loc identităţile
m−1
∑ (−1)k DUik V · vk = 0E , 1 ≤ i ≤ m − 1, (4.90)
k=1

pentru orice U ⊂ E.
ii) Este valabilă dubla egalitate
!
V
m−1
u1 × · · · × ui−1 × ui × ui+1 × · · · × um−1 × ∏ vj
j=1

u1 · v1 u1 · v2 · · · u1 · vm−1

u2 · v1 u2 · v2 · · · u2 · vm−1

.. .. ..
. . ··· .


m−1 V V V


= ∑ (−1)m+k DUik V · vk = − ui · v1 ui · v2 · · · ui · vm−1 (4.91)
k=1

.. .. ..
. . ··· .

um−1 · v1 um−1 · v2 · · · um−1 · vm−1

v1 v2 ··· vm−1

pentru orice i ∈ 1, m − 1, cu convenţia ca determinantul să fie dezvoltat după ultima


linie.
Soluţia exerciţiului 4.42. Remarcăm că demonstraţia părţii a doua a egalităţii (4.91)
se reduce la dezvoltarea determinantului din dreapta.
Partea i). Există p ∈ 1, m − 1 şi numerele (λr )r∈I ⊂ R, unde I = 1, m − 1 \ {p},
astfel ı̂ncât

v p = ∑ λr · vr .
r∈I

Înmulţim cu (−1)m membrul stâng al identităţilor (4.90). Rezultatul se reorgani-


zează — folosind cea de-a doua egalitate (4.91) — drept
4.7 Operaţii cu vectori 145
 

u1 · v1
· · · u1 · v p−1 u 1 · v p − ∑ λr v r u1 · v p+1 · · · u1 · vm−1
 r∈I 

u2 · v1
· · · u2 · v p−1 u 1 · v p − ∑ λr v r u2 · v p+1 · · · u2 · vm−1
r∈I
.. .. .. .. ..
. ··· . . . ··· .


V

 
V V V V


− ui · v1 ··· ui · v p−1 u i · v p − ∑ λr v r ui · v p+1 · · · ui · vm−1 .

r∈I


.. .. .. .. ..
. ··· . ···

 .  . .

um−1 · v1
· · · um−1 · v p−1 um−1 · v p − ∑ λr vr um−1 · v p+1 · · · um−1 · vm−1
r∈I
v1
··· v p−1 v p − ∑ λr vr v p+1 ··· vm−1
r∈I

Partea ii). Dacă vectorii din setul V sunt liniar dependenţi peste corpul R, atunci,
via exerciţiul 4.27, produsul lor vectorial este nul. Dubla egalitate (4.91) rezultă, ı̂n
acest caz, din partea i). Este suficient, aşadar, să stabilim egalitatea din enunţ atunci
când vectorii din V sunt liniar independenţi.
Pe baza exerciţiilor 4.40, partea i), şi 4.28, respectiv a reprezentării (4.73), dedu-
cem că membrul stâng al dublei relaţii de demonstrat este egal cu

m−1
u1 · v1 u1 · v2 · · · u1 · vm−1 u1 · ∏ v j

j=1
m−1
u ·v
2 1 u2 · v2 · · · u2 · vm−1 u2 · ∏ v j
j=1
.. .. .. ..

. . ··· . .

V
V V V
m−1
ui · v1 ui · v2 · · · u i · v m−1 ui · ∏ v j
1 j=1

2 · . (4.92)
m−1
.. .. .. ..
∏ v j . . ··· . .
j=1
2 m−1
um−1 · v1 um−1 · v2 · · · um−1 · vm−1 um−1 · ∏ v j

j=1
2
m−1

0 0 ··· 0 ∏ v j

j=1
2
m−1
v1
v 2 · · · v m−1 ∏ j v
j=1

Dezvoltând determinantul (4.92) după ultima linie, obţinem


146 4 Aplicaţii

V
m−1
u1 · v1
u1 · v2 · · · u1 · vk · · · u1 · vm−1 u1 · ∏ v j
j=1

V
m−1
u2 · v1
u2 · v2 · · · u1 · vk · · · u2 · vm−1 u2 · ∏ v j
j=1

V
.. .. .. ..
. . ··· .. ··· . .
.





V

m−1
(−1)m+k
V V V V
m−1

m−1 2
· ui · v1 ui · v2 · · · ui · vk · · · ui · vm−1 ui · ∏ v j · vk .
k=1 j=1
∏ v j
j=1

2 .. ..
V

.. ..
..
. . ··· . ··· . .




m−1
V

u
m−1 · v1 um−1 · v2 · · · um−1 · vk · · · um−1 · vm−1 um−1 · ∏ v j
j=1


V
m−1 2

0
0 ··· 0 ··· 0 ∏ v j
j=1
2

Mai departe, determinanţii din sumă se dezvoltă după ultima linie. ⊓


Exerciţiul 4.43. (Produsul vectorial multiplu: produs scalar de produse vectoriale)


În contextul exerciţiului 4.42, avem egalitatea
! !
m−1 m−1
∏ ui · ∏ vj = det GU V .
i=1 j=1

Soluţia exerciţiului 4.43. La fel ca anterior, este suficient să stabilim egalitatea din
enunţ atunci când vectorii din V sunt liniar independenţi.
Membrul stâng al egalităţii de demonstrat este egal cu
4.7 Operaţii cu vectori 147
!
m−1
u1 , · · · , um−1 , ∏ v j
j=1

m−1
u1 · v1 u1 · v2 · · · u1 · vm−1 u1 · ∏ v j
j=1

m−1
u2 · v1 u2 · v2 · · · u2 · vm−1 u2 · ∏ v j

j=1
.. .. .. ..
. . ··· . .

m−1
1 u ·v ui · v2 · · · ui · vm−1 ui · ∏ v j .
= · i 1
m−1 2
j=1

.. .. .. ..
∏ v j . . ··· . .
j=1
2 m−1
um−1 · v1 um−1 · v2 · · · um−1 · vm−1 um−1 · ∏ v j
j=1

m−1 2

0
0 ··· 0 ∏ v j
j=1
2

Determinantul se dezvoltă după ultima linie. ⊓


Exerciţiul
 4.44. (Identitatea lui C. Jacobi 52 ) Fie m ≥ 3 şi setul de vectori F =
f i i∈1,m ⊂ E. Atunci,
i) (Cazul m = 3) este valabilă identitatea
 
a × b × c + b × c × a + (c × a) × b = 0E , a, b, c ∈ E. (4.93)

ii) Introducând mărimile

εi jk = sign [(i − j) · ( j − k) · (k − i)] , i, j, k ∈ 1, m,

au loc relaţiile

εi jk = sign(k − j)

dacă numărul i este sau cel mai mic sau cel mai mare dintre elementele mulţimii
{i, j, k}, respectiv

εi jk = sign( j − k)

ı̂n caz contrar.


iii) (Cazul m = 3) Fiind dată permutarea
 
123
σ= ,
i jk

52 Vezi [35, pag. 14, Problem 1.2.8].


148 4 Aplicaţii

avem53
σ (α ) − σ (β )
εi jk = ∏ α −β
.
1≤α <β ≤3

iv) Vectorii U = ui jk i < j, , cu formula
i, j, k ∈ 1, m

V V

ui jk = f 1 × · · · × f i−1 × f i × f i+1 × · · · × f j−1 × f j × f j+1 × · · · × f m

 
V

×  f 1 × · · · × f k−1 × f k × f k+1 × · · · × f m  , i < j, i, j, k ∈ 1, m,

satisfac identitatea
m
∑ ∑ εi jk · ui jk = 0E .
1≤i< j≤m k=1

Soluţia exerciţiului 4.44. Partea i). Prima soluţie. Exprimăm termenii sumei din
membrul stâng al expresiei (4.93) cu ajutorul dublului produs
 vectorial (4.75).
A doua soluţie. Să presupunem că termenul a × b × c este nenul. Atunci, via

exerciţiul 4.27, setul a, b ⊂ E este liniar independent peste corpul R. Exerciţiul
4.26 ne conduce la relaţiile — vezi (4.87) —
 
M = R a×b , M ⊥ = SpanR a, b

şi

a × b × c ∈ M⊥

⊆ SpanR a, b, c . (4.94)

Estimarea (4.94) implică


 
S = a × b × c + b × c × a + (c × a) × b

∈ N = SpanR a, b, c ⊆ E.

Această relaţie rămâne valabilă şi atunci când setul a, b, c ⊂ E este liniar depen-
dent peste corpul R.
Remarcăm că, pentru a dovedi că S = 0E , este suficient să probăm afirmaţia ur-
mătoare: vectorul S ı̂i este ortogonal unei familii de generatori a spaţiului R-liniar
N.

53Aici, numerele εi jk desemnează simbolul T. Levi-Civita [35, pag. 15]. Se utilizează şi denumirile
simbol de permutare [21, pag. 9] ori signatura permutării σ [18, pag. 44].
4.7 Operaţii cu vectori 149

Au loc identităţile
 
S · a = a × b, c, a + c × a, b, a
 
= c, a, a × b + b, a, c × a
 
= (c × a) · a × b + b × a · (c × a)
  
= (c × a) · a × b + − a × b · (c × a)
= 0.

Analog, S · b = S · c = 0.
Partea iv). Folosim tehnica celei de-a doua soluţii de la partea i). Astfel,
m 
S= ∑ ∑ εi jk · ui jk ∈ N = SpanR f 1 , f 2 , · · · , f m ⊆ E.
1≤i< j≤m k=1

Fie p ∈ 1, m. Vom estima, ı̂n cele ce urmează, numerele S · f p .


Cazul p = 1. Deducem că

S· f1
   
m  
= ∑ ∑ ε1 jk · u1 jk · f 1  +  ∑ ∑ εi jk · ui jk · f 1 
j=2 k∈2,m \{ j} 2≤i< j≤m k∈1,m \{i, j}
  
m V

= ∑ ∑ ε1 jk · (−1)m−1 ·  f 1 , f 2 , · · · , f j , · · · , f m , ∏ f β 
j=2 k∈2,m \{ j} β ∈1,m \{k}

+ ∑ ∑ εi jk · (−1)m−1
2≤i< j≤m k∈1,m \{i, j}
 
V V

×  f 1, f 1, f 2, · · · , f i, · · · , f j , · · · , f m, ∏ f β  (4.95)
β ∈1,m \{k}
 
   
 
=
(−1)
m−1
· ∑ sign(k − j) ·  ∏ f α· ∏ f β 
+0
j, k ∈ 2, m α ∈1,m \{ j} β ∈1,m \{k}
j 6= k

= (−1)m−1 · ∑ −PS jk + PS jk (4.96)
2≤ j<k≤m
= 0,
! !
unde PS jk = ∏ fα · ∏ fβ .
α ∈1,m \{ j} β ∈1,m \{k}
Cazul p = m. În mod analog,
150 4 Aplicaţii

m−1 
S· fm = ∑ ∑ εimk · uimk · f m
i=1 k∈1,m−1 \{i}
   

=− ∑ [−sign(k − i)] ·  ∏ fα· ∏ fβ


i, k ∈ 1, m − 1 α ∈1,m \{i} β ∈1,m \{k}
i 6= k

= ∑ (−PS ik + PS ik )
1≤i<k≤m
= 0.

Cazul 2 ≤ p ≤ m − 1. Avem relaţiile54

S· f p
m 
= ∑ ∑ εi jk · ui jk · f p
1≤i< j≤m k=1
"
m  m 
= ∑ ∑ εi jk · ui jk · f p + ∑ ∑ εi jk · ui jk · f p
1≤i< j<p k=1 i<p< j k=1
#
m 
+ ∑ ∑ εi jk · ui jk · f p
p<i< j≤m k=1
" # " #
m  m 
+ ∑ ∑ εipk · uipk · f p + ∑ ∑ ε p jk · u p jk · f p
1≤i<( j=) p k=1 (i=) p< j≤m k=1
= ( 0 — via metoda din (4.95) — )
    
 
+ ∑  ∑ + ∑  + ∑  εipk · uipk · f p 
1≤i<p
k∈1,i k∈i,p k∈p,m
    
 
 p<∑
+  ∑ +  ∑ + ∑  ε p jk · u p jk · f p
j≤m k∈1,p 
k∈p, j k∈ j,m
( " # )

= ∑ ( 0 — via metoda din (4.96) — ) + ∑ εipk · uipk · f p
1≤i<p k∈p,m
  

 
 p<∑ ∑
+  +( 0 — via metoda din (4.96) — ) ε p jk · u p jk · f p .
j≤m 
k∈1,p

Aşadar,

54 Ca de obicei, sumele cu 0 termeni sunt nule.


4.7 Operaţii cu vectori 151

S· f p
 
= ∑ ∑ εipk · uipk · f p + ∑ ∑ ε p jk · u p jk · f p
1≤i<p p<k≤m p< j≤m 1≤k<p
! !
= ∑ ∑ uipk · f p + ∑ ∑ u p jk · f p
1≤i<p p<k≤m p< j≤m 1≤k<p
    

= ∑ ∑ (−1)m−p+1 ·  ∏ f α· ∏ f β 
1≤i<p p<k≤m α ∈1,m \{i} β ∈1,m \{k}
    

+ ∑ ∑ (−1)m−p ·  ∏ f α· ∏ f β 
p< j≤m 1≤k<p α ∈1,m \{ j} β ∈1,m \{k}

= (−1) m−p
· ∑ ∑ (−PS vw + PS vw )
1≤v<p p<w≤m
= 0,

ceea ce ı̂ncheie demonstraţia. ⊓




Exerciţiul 4.45. Fie m ≥ 3 şi u ∈ E\ {0E }. Atunci, există vectorii bi i∈1,m−1
⊂E
cu proprietatea că
m−1
u= ∏ bk . (4.97)
k=1

Vectorii pot fi aleşi ı̂ntr-o infinitate de moduri.


Soluţia exerciţiului 4.45. Construim baza S2 a spaţiului E astfel ı̂ncât f 1 = u [11,
pag. 11, Theorem]. Atunci, via exerciţiul 4.30, optăm pentru

(−1)m−1
b1 = · a2 , b j = a j+1 , j ∈ 2, m − 1.
(a1 , · · · , am )

La partea a doua, să observăm că are loc egalitatea



b1 × b2 × b3 × · · · × bm−1 = b1 × λ · b1 + b2 × b3 × · · · × bm−1 , λ ∈ R,

ceea ce ı̂ncheie demonstraţia. ⊓



Exerciţiul 4.46. Fie m ≥ 3 şi u ∈ E. Dacă

(u, v1 , v2 , · · · , vm−1 ) = 0

pentru orice vectori (vi )i∈1,m−1 ⊂ E, atunci u = 0E .


Soluţia exerciţiului 4.46. Presupunem
 că, prin absurd, u 6= 0E . Atunci, conform e-
xerciţiului 4.45, există vectorii bi i∈1,m−1 din (4.97).
Luând vi = bi , unde 1 ≤ i ≤ m − 1, ajungem la — via exerciţiul 4.28 —
152 4 Aplicaţii
! 2
m−1 m−1
m−1
0 = (u, v1 , v2 , · · · , vm−1 ) = (−1) m−1
∏ bk · u = (−1) ∏ bk 6= 0,
k=1
k=1 2

ceea ce este, evident, o contradicţie. ⊓


Introducem produsul tensorial — ı̂n raport cu baza S1 — al vectorilor u, v ∈ E


cu formula — vezi [7, pag. 60] —
 
uS
1
1
 
 
u ⊗ v = u ⊗S1 v =  ...  vS 1
1
. . . vS1
m ∈ Mm (R). (4.98)
uS
m
1

Exerciţiul 4.47. (Produsul tensorial ı̂n baza S2 ) Este valabilă expresia


 S2 
u1  
 ..  S2
u ⊗ v = P  .  v1 . . . vS
m
2 Pt .

uS
m
2

Soluţia exerciţiului 4.47. Utilizăm relaţiile (4.53). ⊓


Exerciţiul 4.48. Fie A, B ∈ Mm (R) şi u, v, w, x ∈ E. Au loc egalităţile:


i) (u ⊗ v)t = v ⊗ u.
ii)55 (u ⊗ v) w = (v · w) u.
iii) (u ⊗ v) (w ⊗ x) = (v · w) (u ⊗ x).
iv) u · [(v ⊗ v) w] = w · [(v ⊗ v) u] = (u · v) (w · v).
v) (Au) ⊗ (B v) = A (u ⊗ v) B t .
vi) [(u ⊗ u) v] ⊗ [(u ⊗ u) v] = (u · v)2 (u ⊗ u).

Soluţia exerciţiului 4.48. Partea i). Folosim formula (4.98).


Partea ii). Conform (4.56), avem
 S1    S1 

 u1   w1 

  .   S S  . 
(u ⊗ v) w = e1 · · · em  ..  ·  v1 . . . vm  .. 
1 1

 S1 

um wS
m
1

  S1 
u
   1. 
= (v · w)  e1 · · · em  ..  .
S1
um

Partea iii). Din nou, ı̂ntrebuinţăm asociativitatea ı̂nmulţirii matricelor. Astfel,

55 Produsul tensorial fiind o aplicaţie multiliniară, vezi [15, pag. 13-3], este necesar să avem K = R

pentru ca produsul scalar să verifice identitatea de demonstrat.


4.7 Operaţii cu vectori 153
   S1 
uS
1
1
  w1  
  S1  .. 
(u ⊗ v) (w ⊗ x) =  ...   vS
1
1
. . . vm  .   x1
S1
· · · xm
S1
.
uS
m
1
wS
m
1

Partea iv). Prima egalitate rezultă din (4.58), ţinând seama de faptul că matricea
v⊗v este simetrică — via partea i) —. Pentru cea de-a doua egalitate folosim partea
ii).
Partea v). Prin calcul direct, pe baza definiţiilor (4.98), (4.56).
Partea vi). Aplicăm partea ii). ⊓ ⊔

Exerciţiul 4.49. Fie bazele reciproce S2 , S3 ale spaţiului liniar E. Atunci,


i) matricele
m m
A = ∑ ai ⊗ ai , B = ∑ fi ⊗ fi
i=1 i=1

sunt simetrice şi strict pozitiv-definite.


ii) ([4, pag. 7]) Sunt valabile descompunerile — rezoluţia identităţii [29, pag. 168]

m m
Im = ∑ f i ⊗ ai = ∑ ai ⊗ f i .
i=1 i=1

iii) ([4, pag. 12]) B = A−1 .


iv) Avem relaţiile56
2
f i ⊗ ai = f i ⊗ ai , i ∈ 1, m,

respectiv
 
f j ⊗aj f k ⊗ ak = Om , 1 ≤ j 6= k ≤ m.

v) Vectorii celor două baze admit reprezentările

ai = A f i , f i = B ai , i ∈ 1, m.

Soluţia exerciţiului 4.49. Partea i). Simetria matricelor A, B rezultă din exerciţiul
4.48, partea i). Fiind dat vectorul nenul u ∈ E, avem — via acelaşi exerciţiu, partea
iv) —
m m
u · Au = ∑ u · [(ai ⊗ ai ) u] = ∑ (u · ai )2 . (4.99)
i=1 i=1

56 Operatorii T ∈ L(E, E), reprezentaţi ı̂n baza S de matricele T = f ⊗ a , sunt idempotenţi —


i 1 i i i
proiectori [11, pag. 73, Theorem 1] — şi are loc egalitatea E = Im T1 ⊕ · · · ⊕ Im Tm .
154 4 Aplicaţii

Cum u 6= 0E , coordonatele sale ı̂n baza S2 — vezi exerciţiul 4.38 — nu pot fi toate
nule, deci u · Au > 057 .
Partea ii). Observăm că, pe baza exerciţiului 4.30, este suficient58 să stabilim
prima dintre egalităţi.
Fie v ∈ E. Atunci, — apelând, din nou, la exerciţiul 4.38 —
!
m m
∑ f i ⊗ ai − Im v= ∑ (ai · v) f i − v
i=1 i=1
= v − v = 0E .

Vectorul v fiind arbitrar, demonstraţia se ı̂ncheie căci Om este singura matrice pentru
care Om v = 0E indiferent de v.
Partea iii). Deducem că — exerciţiul 4.48, partea iii), şi (4.63) —
  
AB = ∑ (ai ⊗ ai ) f j ⊗ f j = ∑ ai · f j ai ⊗ f j
1≤i, j≤m 1≤i, j≤m
m
= ∑ ak ⊗ f k = Im ,
k=1

respectiv — matricele A, B sunt simetrice —

Im = (Im )t = (AB)t = BA.

Partea iv). Folosim exerciţiul 4.48, partea iii), şi restricţia de biortogonalitate
(4.63).
Partea v). La prima egalitate, — via partea i) —,
m m  m
Afi = ∑ (ak ⊗ ak ) f i = ∑ ak · f i ak = ∑ δki ak
k=1 k=1 k=1
= ai , i ∈ 1, m.

La cea de-a doua egalitate, — vezi partea iii) —,


 
B ai = A−1 A f i = A−1 A f i
= f i,

unde 1 ≤ i ≤ m. ⊓

Exerciţiul 4.50. Fie A ∈ Mm (R) o matrice simetrică şi strict pozitiv-definită. Dacă59

57 Matricea A fiind simetrică, valabilitatea relaţiei (4.57) ı̂n SpanR (S1 ) implică strict pozitiv defi-
nirea acesteia, vezi [15, pag. 8-7, Fact 1].
58 Altă justificare a celei de-a doua egalităţi: ı̂i aplicăm operaţia de transpunere primeia dintre

egalităţi, conform exerciţiului 4.48, partea i).


59 Existenţa vectorilor f

i i∈1,m ⊂ E este asigurată de teorema lui J. Lagrange [18, pag. 319, Teo-
rema 1.6]. Vezi şi exerciţiul 4.51.
4.7 Operaţii cu vectori 155

f i · A f j = δi j , i, j ∈ 1, m, (4.100)

atunci 
i) setul f 1 , · · · , f m ⊂ E este liniar independent peste corpul R.
ii) Sunt valabile identităţile
 m  

 A = ∑ Afk ⊗ Afk ,



 k=1
m  m 
Im = ∑ A f k ⊗ f k = ∑ f k ⊗ A f k ,

 k=1 k=1

 m

 A−1 = ∑ f k ⊗ f k .
k=1

Soluţia exerciţiului 4.50. Partea i). Dacă ar exista numerele (αi )i∈1,m ⊂ R, nu toate
nule, astfel ı̂ncât
m
∑ α j · f j = 0E ,
j=1

atunci
!
m m 
0 = f i · A0E = f i · A ∑ αj · f j = ∑ αj · fi ·Af j
j=1 j=1
m
= ∑ δi j α j , 1 ≤ i ≤ m,
j=1

de unde va rezulta că toate numerele (αi )i∈1,m ar fi nule.


Partea ii). Conform (4.100), setul

A f 1, · · · , A f m

verifică restricţia de biortogonalitate ı̂n raport cu baza S2 a spaţiului liniar E, deci


coincide cu S3 . Concluziile exerciţiului de faţă vor rezulta din exerciţiul 4.49.
Pe de altă parte, adaptând tehnicile de la exerciţiile anterioare, putem realiza de-
monstraţii independente ale cerinţelor din enunţ. Astfel, pentru u ∈ E, avem
m  m  
u = ∑ u·Afi fi = ∑ u· f j Af j .
i=1 j=1

Apoi, — ı̂n virtutea relaţiei (4.58) —


156 4 Aplicaţii
" #
m   m    
∑ Afk ⊗ Afk −A u = ∑ A f k · u A f k − Au
k=1 k=1
m  
= ∑ f k · Au A f k − Au
k=1
= Au − Au = 0E ,

respectiv
" #
m  m  
∑ A f k ⊗ f k − Im u = ∑ f k · u A f k − Im u
k=1 k=1
= u − u = 0E .

Mai departe,
!
m m  
A ∑ f k ⊗ f k − Im u = ∑ f k · u A f k − Im u
k=1 k=1
= u − u = 0E

şi
" ! #
m m 
∑ f k ⊗ f k A − Im u = ∑ f k · Au f k − Im u
k=1 k=1
m   
= ∑ Afk ·u fk −u
k=1
= u − u = 0E ,

ceea ce ı̂ncheie demonstraţia. ⊓


Exerciţiul 4.51. Fie A ∈ Mm (R) o matrice simetrică şi strict pozitiv-definită. Dacă
(λi )i∈1,m sunt valorile proprii, nu neapărat distincte, ale matricei iar (ui )i∈1,m , unde60
ui · u j = δi j pentru orice i, j ∈ 1, m, sunt eigenvectorii corespunzători, atunci au loc
egalităţile61

60 Vectorii proprii corespunzând valorilor proprii distincte sunt ortogonali, conform exerciţiului
4.19, partea iii). Eigenvectorii corespunzând aceleiaşi valori proprii pot fi ortonormaţi folosind
procedeul J. Gram–E. Schmidt [18, pag. 352, exerciţiul 2].
61 Adică, reprezentările spectrale ale operatorilor liniari respectivi, T =
∑ λ · Pλ , conform [20,
λ ∈Σ (T )
pag. 260, Theorem 2.10]. În cazul spaţiilor Hilbert generale, acest rezultat face parte din teorema
spectrală pentru operatori normali [34, pag. 84, Teorema 2.3.6].
4.7 Operaţii cu vectori 157
 m

 A = ∑ λk · (uk ⊗ uk ) ,



 k=1
m
Im = ∑ uk ⊗ uk ,

 k=1

 m

 A = ∑ λ1 · (uk ⊗ uk ) ,
−1
k=1 k

respectiv62
m
u · Av = ∑ λk · (u · uk ) (v · uk ) , u, v ∈ E.
k=1

În contextul exerciţiului 4.49, partea v), este valabilă63 egalitatea

ai = Im ui = ui , 1 ≤ i ≤ m.

Soluţia exerciţiului 4.51. Ţinând √


seama de exerciţiul 4.19, partea ii), introducem
vectorii f i = √ui . Atunci, A f i = λi · ui , respectiv f i · A f j = δi j , unde i, j ∈ 1, m.
λi
Aplicăm exerciţiul 4.50. ⊓

m
62 Numerele (u · ur )r∈1,m ⊂ R, din dezvoltarea u = ∑ (u · ur ) ur , se mai numesc şi coeficienţi J.
r=1
Fourier ai vectorului u ∈ E ı̂n raport cu baza (ur )r∈1,m [27, pag. 79].
63 Baza reciprocă a unei baze ortonormate [11, pag. 122] coincide cu aceasta.
Referinţe Bibliografice

1. Amann, H.: Ordinary differential equations, An introduction to nonlinear analysis. Walter de


Gruyter, Berlin (1990)
2. Barbu, V.: Ecuaţii diferenţiale. Editura Junimea, Iaşi (1985)
3. Bhatia, R.: Positive definite matrices. Princeton University Press, Princeton (2007)
4. Boulanger, Ph., Hayes, M.: Bivectors and waves in mechanics and optics. Chapman & Hall,
London (1993)
5. Bronson, R., Costa, G.B.: Matrix methods: Applied linear algebra, Third edition. Elsevier,
Amsterdam (2009)
6. Dinculeanu, N.: Integrarea pe spaţii local compacte. Editura Academiei R.P.R., Bucureşti
(1965)
7. Frankel, T.: The geometry of physics, An introduction, Second edition. Cambridge University
Press, Cambridge (2006)
8. Gantmacher, F.R.: The theory of matrices, Volume one. AMS Chelsea Publishing, Providence
(2000)
9. Gaşpar, D.: Analiză funcţională. Editura Facla, Timişoara (1981)
10. Halanay, A.: Introducere ı̂n teoria calitativă a ecuaţiilor diferenţiale. Editura Tehnică,
Bucureşti (1956)
11. Halmos, P.R.: Finite-dimensional vector spaces. Springer-Verlag, New York (1987)
12. Higham, N.J.: Functions of matrices, Theory and computation. SIAM, Philadelphia (2008)
13. Hille, E.: Analytic function theory, Volume I. Chelsea Publishing Comp., New York (1982)
14. Hirsch, M.W., Smale, S.: Differential equations, dynamical systems, and linear algebra. Aca-
demic Press, New York (1974)
15. Hogben, L. (ed.): Handbook of linear algebra. Chapman & Hall/CRC, Boca Raton (2007)
16. Horn, R.A., Johnson, C.R.: Matrix analysis. Cambridge University Press, Cambridge (1990)
17. Iacob, C.: Mecanică teoretică, Ediţia a II-a. Editura Didactică şi Pedagogică, Bucureşti (1980)
18. Ion, I.D., Radu, N.: Algebra. Editura Didactică şi Pedagogică, Bucureşti (1970)
19. Ionescu, D.V.: Ecuaţii diferenţiale şi integrale, Ediţia a doua. Editura Didactică şi Pedagogică,
Bucureşti (1972)
20. Kato, T.: Perturbation theory for linear operators. Springer-Verlag, Berlin (1995)
21. Kay, D.C.: Theory and problems of tensor calculus. McGraw-Hill, New York (1988)
22. Marinescu, G.: Teoria ecuaţiilor diferenţiale şi integrale. Editura Didactică şi Pedagogică,
Bucureşti (1963)
23. Năstăsescu, C., Niţă, C., Vraciu, C.: Bazele algebrei, Volumul I. Editura Academiei R.P.R.,
Bucureşti (1986)
24. Perko, L.: Differential equations and dynamical systems. Springer-Verlag, New York (1996)
25. Pinkus, A.: Totally positive matrices. Cambridge University Press, Cambridge (2010)
26. Roşculeţ, M.N.: Manual de analiză matematică, Volumul al II-lea, Calculul integral, Ecuaţii
diferenţiale. Editura Didactică şi Pedagogică, Bucureşti (1966)

159
160 Referinţe Bibliografice

27. Rudin, W.: Analiză reală şi complexă, Ediţia a treia. Editura Theta, Bucureşti (1999)
28. Schouten, J.A.: Tensor analysis for physicists. Clarendon Press, Oxford (1951)
29. Schwabl, F.: Quantum mechanics, Fourth edition. Springer-Verlag, Berlin (2007)
30. Shilov, G.E.: Linear algebra. Dover Publications, Inc., New York (1977)
31. Şilov, G.E.: Analiză matematică, Spaţii finit-dimensionale. Editura Ştiinţifică şi Enciclopedi-
că, Bucureşti (1983)
32. Trefethen L.N., Bau, D.III: Numerical linear analysis. SIAM, Philadelphia (1997)
33. Valiron, G.: Cours d’analyse mathématique, Tome II, Équations fonctionnelles, Applications.
Masson et Cie, Paris, 1945
34. Vasilescu, F.H.: Iniţiere ı̂n teoria operatorilor liniari. Editura Tehnică, Bucureşti (1987)
35. Wong, C.W.: Introduction to mathematical physics, Methods & concepts, Second edition.
Oxford University Press, Oxford (2013)
Index

acţiunea operatorului, 4 intrare, vii


aplicaţia σ , 15 involuţie, 15

baza canonică, 4 legătura nou-vechi, 2


baza duală, 3 l2 -norma, 73
baza reciprocă, 130
baza standard, 4 matrice de reprezentare, 5
blocuri nilpotente elementare, 55 matrice Jordan elementară, 60
matrice similare, 6
coeficienţi Fourier, 157 matrice strict pozitiv-definită, 123
cofactor, 131 media Cesàro, 74
complement, 21 multiplicitate algebrică, 35
complexificat, 12
complexificatul unui operator, 17 nil(e, T ), 48
componente, 1 nilpotent, 32
comutare, 30 norma euclidiană de index 2, 73
conjugare complexă, 15 nucleu, 29
covector, 2
operator diagonal, 41
decomplexificabil, 16 operaţia “⊗S1 ”, 152
Det T , 6 operaţia “⋆”, 77
diagonalizabil, 41 operaţia “⋆S1 ”, 122

ecuaţie caracteristică, 10 pălăria “ ⋆ˆ ”, 132


ecuaţie diferenţială, 107 polinomul caracteristic, 10
eigenvaloare, 10 prelungire cu zero, 26
eigenvector, 10 produs Cauchy, 78
eigenvector generalizat, 11 produs matrice-vector, 122
exponenţiala unei matrice, 84 produs mixt, 130
produs scalar, 89
forma canonică Jordan, 60 produs scalar triplu, 130
formă biliniară, 89, 122 produs tensorial, 152
produs vectorial, 130
identificare, 77 produs vectorial dublu, 136, 137
identitatea lui Jacobi, 147 produs vectorial multiplu, 144, 146
identitatea lui Lagrange, 137 produs vectorial triplu, 136
imagine, 29 proprietatea (H S ), 33

161
162 Index

Rank T , 6 soluţie fundamentală, 112, 115


realificat, 14 spaţiu Banach, 73
regula lui Cramer, 139 spaţiul ortogonal al unui subspaţiu, 127
relaţia “∼”, 6 subspaţiu Krâlov, 109
restricţia de biortogonalitate, 129 suma Cesàro, 75
suma directă, 21
semi-simplu, 41, 67 sumabilitate, 75
seturi biortogonale, 3 sumare prin părţi, 77
σ -bază, 64
sign u, 3
signatura permutării, 148 Tr T , 6
simbolul de permutare, 148
simbolul lui Kronecker, 3 valoare proprie, 10
simbolul lui Levi-Civita, 148 vectori pe coloană, 1
sistem diferenţial, 92 vectori pe linie, 1

S-ar putea să vă placă și