Documente Academic
Documente Profesional
Documente Cultură
Mustafa
Publicaţiile DAL
Craiova
Fişier prelucrat ı̂n data de [February 6, 2020]
Avertisment
Acest eseu nu a fost raportat vreunui referent. În consecinţă, conţinutul său trebuie
considerat “ca atare.”
Autorul vă aşteaptă comentariile la adresa lui de e-mail1 şi vă mulţumeşte anti-
cipat pentru efortul depus.
Fiecare proiect de la Publicaţiile DAL trebuie considerat “şantier” dacă nu este
declarat altfel. Versiunea sa este cea a datei de pe pagina cu titlul.
1 octawian@yahoo.com
v
Prefaţă
În această lucrare discutăm despre aducerea matricelor pătrate, cu elemente (intrări)
reale, la forma canonică Jordan, urmând expunerea din cartea profesorilor Hirsch şi
Smale [14].
Scopul prezentării de faţă este acela de a avea la ı̂ndemână o justificare riguroasă
pentru metoda fundamentală de calcul a exponenţialei unei matrice: Secţiunea 4.3.
Există mai multe modalităţi clasice de aducere a matricelor la forma canonică
Jordan. De exemplu, tehnica descrisă ı̂n [30] — traducerea sa ı̂n româneşte este
[31]; pentru o prezentare schematică, vezi [19, pag. 192 şi urm.] — face apel la
polinomul anulator (adică, minimal [8, pag. 89]) al unui operator liniar, la algebra
polinoamelor de o nedeterminată cu coeficienţi ı̂n K etc. Nu am urmat această cale
aici, fiind interesat de obţinerea rapidă a soluţiilor sistemelor diferenţiale liniare, cu
coeficienţi reali: Secţiunea 4.5.
O investigaţie modernă a teoriei funcţiilor de matrice — rădăcina pătrată, expo-
nenţiala, logaritmul unei matrice, etc — constituie subiectul cărţii [12]. Exemple de
calcul, detaliate, pot fi citite ı̂n [5].
Anumite detalii ale demonstraţiei principale se regăsesc şi ı̂n restul procedeelor
de aducere la forma canonică Jordan. Un exemplu notabil ı̂l constituie proprietatea
(H S ), reformulată ı̂n [31, pag. 169, Teoremă] cu ajutorul polinomului anulator.
Aplicaţiile dezvoltate ı̂n Capitolul 4 au semnificaţii de sine stătătoare. Astfel,
ı̂n Exerciţiul 4.13 se calculează soluţiile fundamentale ale unei ecuaţii diferenţiale
ordinare, liniare şi omogene, cu ajutorul eigenvectorilor generalizaţi ai matricei a-
sociate. În Exerciţiul 4.40, elementele bazei reciproce a bazei unui hiperplan sunt
exprimate cu ajutorul operaţiilor vectoriale din spaţiul ambient.
vii
Cuprins
1 Operatori liniari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1 Vectori şi covectori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Operatori şi matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3 Invarianţii algebrici ai operatorului T . Valori proprii şi vectori
proprii. Polinomul caracteristic. Vectori proprii generalizaţi . . . . . . . 6
1.4 Complexificare, realificare, decomplexificare. Complexificatul
unui operator liniar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2 Teoreme de descompunere . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.1 Suma directă de subspaţii vectoriale. Suma directă de operatori . . . . 19
2.2 Teorema N + M . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.3 Teorema de descompunere primară . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
4 Aplicaţii . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
4.1 Sumare prin părţi. Produsul Cauchy a două serii. Teorema lui F.
Mertens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
4.2 Exponenţiala unei matrice pătrate cu elemente numerice . . . . . . . . . . 84
4.3 Calculul exponenţialei unei matrice pătrate cu elemente complexe . . 87
4.4 Estimarea produsului scalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
4.5 Exerciţii rezolvate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
4.6 Soluţii fundamentale ale ecuaţiilor diferenţiale liniare şi omogene . . 107
4.7 Matrice strict pozitiv-definite. Reprezentarea covectorilor folosind
produsul scalar. Produsul vectorial a m − 1 vectori. Produsul
tensorial a doi vectori. Reciproca unei baze. Rezoluţia identităţii . . . 121
ix
x Cuprins
Index . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
Capitolul 1
Operatori liniari
S1 = {e1 , · · · , em } , m ≤ n,
1Fiind dată mulţimea nevidă A ⊆ E, prin SpanK (A) ı̂nţelegem mulţimea combinaţiilor liniare cu
număr finit de termeni nenuli şi coeficienţi din K, [23, pag. 246, Propoziţia 1.6].
1
2 1 Operatori liniari
f 1 · · · f m = e1 · · · em · col(1) P · · · col(m) P
= e1 · · · em · P (1.2)
Din (1.3), (1.4), ţinând seama de liniar independenţa peste K a vectorilor din S1 ,
deducem că
x1 y1
. ..
.
e1 · · · em . − P . = 0,
xm ym
respectiv
y1 x1
.. −1 ..
. = P . . (1.5)
ym xm
Aşadar, legătura nou-vechi pentru vectori şi coordonate este dată de formulele
(1.2), (1.5) [14, pag. 37].
Componentele (1.3) ne conduc la funcţionalele liniare (covectorii) xi : E → K cu
formulele
!
m
xi (x) = xi ∑ xj ·ej
j=1
m m
= ∑ x j · xi (e j ) = ∑ x j · δi j (1.6)
j=1 j=1
= xi , i ∈ 1, m,
E ∗ = SpanK {x1 , · · · , xm } .
căci
!
m m
T (x) = T ∑ xi · ei = ∑ xi · T (ei )
i=1 i=1
x1
= T (e1 ) · · · T (em ) ... , x ∈ E.
xm
2 Se ı̂ntâlnesc şi denumirile delta (lui) Kronecker [21, pag. 3], respectiv simbolul delta (al lui)
Calculele de până acum au ţinut seama doar de faptul că dimensiunea spaţiului E
peste K este finită, spaţiul ı̂n sine putând fi orice set de obiecte abstracte4 . Acum, via
relaţiile (1.3), (1.10), operatorului T i se asociază matricea (de reprezentare ı̂n S1 )
T care desemnează, la rândul său, un operator T : Cm → Cm . Acţiunea (operaţia)
acestui operator T asupra spaţiului Cm este dată de formula [14, pag. 38]
x1 x1 x1
.. .. .. m
. 7−→ T · . , . ∈C .
xm xm xm
respectiv
4 Operaţiile cu vectori şi scalari sunt cele tipice, vezi relaţiile din nota de subsol de la pagina 12.
5 Vezi [14, pag. 34].
6 Vezi [20, pag. 3, Example 1.4].
1.2 Operatori şi matrice 5
T ( f 1 ) · · · T ( f m ) = e1 · · · em TP. (1.12)
Atunci,
y1 y1
T (x) = T f 1 · · · f m ... = T ( f 1 ) · · · T ( f m ) ...
ym ym
y1 y1
. .
= f 1 · · · f m W .. = e1 · · · em P · W ..
ym ym
y1
..
= e1 · · · em PW . . (1.14)
ym
respectiv
T k (e1 ) · · · T k (em ) = e1 · · · em · Tk , k ∈ N∗ . (1.16)
Plecând de la cea de-a doua dintre relaţiile (1.15), spunem că două matrice
W, T ∈ Mm (K) sunt similare dacă există matricea nesingulară P ∈ Mm (K) ast-
fel ı̂ncât W = P−1 TP, conform [14, pag. 39]. Această similaritate defineşte o relaţie
de echivalenţă (∼) ı̂ntre matricele din Mm (K). Într-adevăr, avem reflexivitate,
T ∼ T, T = Im−1 TIm ,
Wk = P−1 Tk P, k ∈ N∗ . (1.18)
unde det, tr şi rank desemnează determinantul, urma7 , respectiv rangul8 matricei
de reprezentare (ı̂n S1 ) T. Avem la dispoziţie, astfel, determinantul, urma şi rangul
unui operator liniar T : E → E — invarianţi algebrici —.
7 În limba engleză, trace.
8 În limba engleză, rank.
1.3 Invarianţi, valori şi vectori proprii 7
Lema 1.1. ([20, pag. 16]) Rangul operatorului liniar T : E → E este egal cu dimen-
siunea subspaţiului liniar T (E) ⊆ E.
Demonstraţie. Să presupunem că setul de vectori {T (e1 ), . . . , T (eh )}, unde h ≤ m,
alcătuieşte o bază9 a subspaţiului T (E). Atunci,
T (e1 ) · · · T (eh ) = e1 · · · em · A,
respectiv
E = SpanK {e1 , . . . , em }
= SpanK {e1 + λ · e2 , e2 , e3 . . . , em }. (1.20)
astfel ı̂ncât
pentru un anumit p. Aici, apar două situaţii. În prima dintre ele, lin(p) A conţine cel
puţin un element nenul, deci
Cea de-a doua situaţie, când matricea A are (măcar) o linie nulă — formată numai
din elemente nule — va fi discutată ulterior.
Au loc relaţiile — via (1.21) —
T (e1 ) · · · T (eh )
= ((e1 + λ1 · e p ) · · · (e p−1 + λ p−1 · e p ) e p (e p+1 + λ p+1 · e p ) · · · (em + λm · e p ))
lin(1) A
..
.
lin(p−1) A
×B, B= 0 ··· 0 ,
lin(p+1) A
..
.
lin(m) A
unde
1.3 Invarianţi, valori şi vectori proprii 9
lin(1) A
..
.
lin(p−1) A
C=
lin(p+1) A
..
.
lin(m) A
Reluăm discuţia anterioară: presupunem că oricare h din cele m − 1 linii rămase
ale matricei A — vezi matricea C — sunt liniar dependente, de unde rezultă că
setul celor m − 1 linii rămase este liniar dependent etc. Aici, “rolul” matricei A va fi
“jucat” de C. Ajungem la alt spaţiu, de dimensiune cel mult m − 2 peste corpul K.
Procedeul poate fi repetat atâta timp cât dimensiunea spaţiului Q — egală cu
numărul liniilor din A rămase ı̂n discuţie! — este mai mare sau egală cu h. ⊓ ⊔
cu necunoscutele x1 , . . . , xm ∈ K.
atunci sistemul algebric (1.26) va avea ı̂ntotdeauna soluţii nenule ı̂n C — dar nu
neapărat ı̂n K! —.
Numerele λ ∈ K care sunt soluţii ale ecuaţiei14 algebrice (1.27), deci pentru care
sistemul algebric (1.26) admite soluţii nenule ı̂n K, se numesc valori proprii15 sau
eigenvalori16 ale operatorului T . Dacă numerele x1 , . . . , xm ∈ K sunt o soluţie nenulă
a sistemului (1.26), atunci vectorul
m
x = ∑ xi · ei ∈ SpanK {e1 , · · · , em } = E (1.28)
i=1
rădăcini caracteristice [2, pag. 99, 129], rădăcini ale ecuaţiei caracteristice [10, pag. 174] sau
valori caracteristice [20, ibid.].
16 În limba engleză, eigenvalue (sing.), conform [14, pag. 42].
17 În limba engleză, eigenvector [14, ibid.].
18 În limba engleză, characteristic polynomial [14, pag. 43].
1.3 Invarianţi, valori şi vectori proprii 11
Soluţiile
nenule din K ale acestui sistem sunt x1 = x ∈ K\{0}, x2 = 0, deci x =
1
∈ K2 este un eigenvector corespunzând valorii proprii λ0 .
0
Deoarece
(A − λ0 · I2 )2 = O2 ,
Mulţimea
( )
m
EC = SpanC {e1 , · · · , em } = ∑ λ j · e j λ j ∈ C ,
j=1
dotată cu operaţiile cu vectori şi scalari tipice21 , alcătuieşte un spaţiu vectorial com-
plex m-dimensional care poartă numele de complexificatul spaţiului E 22 . Reamin-
tindu-ne de baza canonică (1.11), observăm că spaţiul complex Cm este complexifi-
catul spaţiului real Rm : Cm = (Rm )C .
Nu orice spaţiu vectorial complex este complexificatul vreunui spaţiu vectorial
real.
z
Exemplul 1.2. Fie z j = a j + b j · i ∈ C, unde a j , b j ∈ R, j ∈ {1, 2}, şi e1 = 1 ∈
z2
C 2 23
Introducem spaţiul EC = C e1 = SpanC {e1 } şi ne ı̂ntrebăm dacă există x =
.
x1
∈ R2 astfel ca
x2
20 Prin eigenvectori (generalizaţi) ai unei matrice pătrate ı̂nţelegem coloanele de coordonate ale
eigenvectorilor (generalizaţi ai) unui operator liniar ı̂n acea bază a spaţiului E ı̂n care matricea
reprezintă operatorul.
! !
m m m
21 α· ∑ λj · ej +β · ∑ µj ·ej = ∑ (α · λ j + β · µ j )·e j , unde α , β , λ j , µ j ∈ C. De asemeni,
j=1 j=1 j=1
1 · e j = e j . În particular, 0 · e j = 0E pentru orice j ∈ 1, m [18, pag. 112].
22 La fel ca ı̂n cazul C = R2 + (operaţii speciale), avem z · x = (a + b · i)x ≡ (a, b) · x = (a · x, b · x) ≡
respectiv
a1 − a2 x1 · α + −b1 + b2 x1 · β = 0,
x2 x2
(1.31)
b1 − b2 x1 · α + a1 − a2 x1 · β = 0.
x2 x2
Numerele α şi β fiind date — putem, aşadar, presupune că α 2 + β 2 > 0 —, relaţiile
(1.31) pot fi privite ca un sistem algebric, liniar şi omogen, ı̂n necunoscutele α , β ,
care admite o soluţie nenulă. Deci,
a1 − a2 xx1 −b1 + b2 xx1
2 2 = 0,
b1 − b2 1 a1 − a2 1
x x
x2 x2
respectiv
2
x1 x1 2
a1 − a2 + b1 − b2 = 0. (1.32)
x2 x2
În concluzie, pentru ca spaţiul C e1 să fie complexificatul unui spaţiu liniar real,
este necesar — via egalitatea (1.32) — să existe q ∈ R astfel ı̂ncât
x1
z1 = q · z2 . q= (1.33)
x2
Fie F ⊆ Cn un spaţiu liniar complex m-dimensional care este şi subspaţiu liniar24
[14, pag. 33] al spaţiului complex Cn . Atunci, mulţimea [14, pag. 64]
FR = F ∩ Rn ,
unde a, b ∈ R, respectiv
b 0
= , x ∈ F ∩ R2 .
a 0
De aici, FR = {0R2 }. Observăm că vectorul e1 din acest exemplu nu verifică relaţia
(1.33).
(EC )R = E.
j
x1
Demonstraţie. Conform (1.30), introducem vectorii e j = ... ∈ Rn . Fie, de ase-
xnj
meni, x ∈ EC cu formula — m ≤ n —
m m
∑ a j x1j ∑ b j x1j
j=1 j=1
m m
.. ..
x = ∑ λ j · e j = ∑ (a j + b j · i) · e j = . + i · .
j=1 j=1
m m
j j
∑ j n
a x ∑ j n
b x
j=1 j=1
m
j
∑ a j x1
j=1
1
x1 · · · x1m b1
.. .. .. ...
.
= . + i · . , a j , b j ∈ R.
m
j xn1 · · · xnm bm
∑ a j xn
j=1
Dat fiind că vectorii e1 , . . . , em , ale căror componente alcătuiesc coloanele ma-
tricei sistemului algebric (1.34), sunt liniar independenţi peste R, rangul matricei va
fi maxim, adică m. În aceste condiţii, sistemul (1.34) admite o singură soluţie, cea
nulă: b j = 0 pentru orice j ∈ 1, m.
Am ajuns la
m
j
∑ j 1 1
j=1
a x
x1 · · · x1m a1 m
.. ..
.. ... = ∑ a j · e j ∈ SpanR {e1 , · · · , em } = E,
x= . = . .
m j=1
j xn1 · · · xnm am
∑ a j xn
j=1
Lema 1.3. ([14, pag. 67]) Fie subspaţiul liniar E ⊆ Rn şi F ⊆ EC un subspaţiu liniar
al spaţiului EC . Atunci,
FR = F ∩ E
Lema 1.4. ([14, pag. 64]) Fiind dat subspaţiul liniar complex F ⊆ Cn , există sub-
spaţiul liniar real E ⊆ Rn astfel ı̂ncât F = EC dacă şi numai dacă σ (F) ⊆ F.
25 Subspaţiul SpanC {e1 + e2 , e3 + e4 } ( SpanC {e1 , e2 , e3 , e4 } este 2-dimensional dar k = 4.
16 1 Operatori liniari
m
unde f = ∑ λ j · e j ∈ F.
j=1
Partea “⇐=”. Pentru orice f ∈ F, unde f = x + i · y şi x, y ∈ Rn , avem σ ( f ) =
x + i · y = x − i · y ∈ F, respectiv
1 1
x= · f + ·σ( f ) ∈ F (1.35)
2 2
şi
1 −1
y= ·f+ · σ ( f ) ∈ F. (1.36)
2i 2i
Fie f 1 , · · · , f m ⊂ Cn o bază a spaţiului liniar F. Atunci, f j = x j + i · y j , unde
x j , y j ∈ Rn şi j ∈ 1, m. Conform (1.35), (1.36), x j , y j ∈ F pentru orice j.
Pentru f ∈ F, putem scrie că — λ j ∈ C —
m m m
f= ∑ λ j · f j = ∑ λ j · x j + ∑ (λ j · i) · y j ∈ SpanC {x1 , · · · , xm , y1 , · · · , ym } .
j=1 j=1 j=1
unde E = SpanR {t 1 , · · · ,t p }. ⊓
⊔
Un subspaţiu liniar complex F ⊆ Cn este decomplexificabil [14, pag. 64] dacă
există subspaţiul liniar real E ⊆ Rn astfel ı̂ncât F = EC .
Lema 1.5. Fie subspaţiul decomplexificabil F ⊆ Cn . Atunci, complexificatul realifi-
catului său — notat FRC — este
(FR )C = F.
vezi [14, pag. 344]. Exemplul 1.3 — via observaţia că SpanC {0R2 } = {0R2 } — ne
arată că putem avea şi incluziune strictă ı̂n (1.37).
Fie E ⊆ Rn un subspaţiu liniar real cu baza26 S1 şi T : E → E un operator liniar.
Pe baza formulei (1.10), introducem operatorul liniar TC : EC → EC astfel
m
z1
.
TC (z) = ∑ z j · T (e j ) = e1 · · · em T .. , (1.38)
j=1
zm
m
unde z = ∑ z j · e j şi z j ∈ C pentru orice j. Operatorul TC poartă numele de com-
j=1
plexificatul operatorului T [14, pag. 65]. Având aceeaşi matrice de reprezentare,
operatorii T şi TC au acelaşi polinom caracteristic [14, pag. 66].
Lema 1.6. ([14, pag. 65, Proposition]) Operatorul liniar Q : EC → EC este comple-
xificatul unui operator liniar T : E → E — adică, Q = TC — dacă şi numai dacă
Q ◦ σ = σ ◦ Q, Q = σ ◦ Q ◦ σ −1 = σ ◦ Q ◦ σ .
Partea “⇐=”. Să arătăm că Q(E) ⊆ E. Pentru z = Q(x) ∈ EC , unde x ∈ E, avem27
26 Introdusă la pagina 1.
27 σ (e) = e pentru orice e ∈ E.
18 1 Operatori liniari
! !
m m m
Q(z) = Q ∑ zj ·ej = ∑ z j · T (e j ) = TC ∑ z j · e j
j=1 j=1 j=1
= TC (z), z ∈ EC .
Am obţinut că
Q = (Q|E )C ,
Q1 ◦ Q2 = (T1 ◦ T2 )C .
Q = T1 · T2 .
e = v + w, v ∈ V, w ∈ W. (2.1)
19
20 2 Teoreme de descompunere
h m
e= ∑ kj ·ej = ∑ k j · e j,
j=1 j=h+1
respectiv
h m
∑ kj ·ej + ∑ (−k j ) · e j = 0E .
j=1 j=h+1
Vectorii {e1 , · · · , em } fiind liniar independenţi, rezultă că toate coordonatele vecto-
rului e ı̂n baza S1 sunt nule, deci e = 0E .
Descompunerea (2.1) este unică datorită faptului că V ∩W = {0E }. Într-adevăr,
ı̂n caz contrar am avea
m
∑ kj
(1)
e = v1 + w1 = ·ej
j=1
m
∑ kj
(2)
= v2 + w2 = · e j,
j=1
(1) (2)
unde k j , k j ∈ K pentru orice j, respectiv
Concluzia poate fi obţinută ı̂n două moduri. Mai ı̂ntâi, conform (2.3), deducem
că
v1 − v2 = w2 − w1 ∈ V ∩W,
deci
v1 = v2 şi w1 = w2 . (2.5)
Lema 2.2. În contextul Lemei 2.1, dacă V este un subspaţiu propriu2 , atunci spaţiul
W nu este unic.
unde
Lema 2.3. Dacă V1 ,V2 , . . . ,Vs ⊆ E, unde s ≥ 2, sunt K-subspaţii liniare şi orice
egalitate de forma
v1 + v2 + · · · + vs = 0E , vi ∈ Vi , i ∈ 1, s,
3 Mai precis, un complement algebric, vezi [9, pag. 45, Definiţia 2.1.6].
4 Facem convenţia ca orice sumă cu zero termeni să fie nulă.
22 2 Teoreme de descompunere
s
∑ vr = v1 + v2 + v3 + 0E + · · · + 0E
r=1
= (e1 + e2 ) + (−e1 ) + (−e2 ) + 0E + · · · + 0E
= 0E .
Lema 2.4. Fiind date mulţimile nevide A, B, C ⊆ E, sunt valabile următoarele afir-
maţii:
i) dacă A ⊆ B, atunci A ⊆ SpanK (A) ⊆ SpanK (B);
ii) A = SpanK (A) dacă şi numai dacă A este K-subspaţiu liniar;
iii) SpanK (A ∪ B) = SpanK (A ∪ SpanK (B));
iv)5 dacă SpanK (A) ∩ SpanK (B ∪ C) = {0E } şi SpanK (B) ∩ SpanK (A ∪ C) = {0E },
atunci SpanK (A ∪ B) ∩ SpanK (C) = {0E };
v) dacă A ∩ SpanK (B) = 0/ şi SpanK (A) ∩ B = 0,/ atunci SpanK (A) ∪ SpanK (B) (
SpanK (A ∪ B).
u= ∑ α a a, v= ∑ α b b, w= ∑ αc c
a∈A b∈B c∈C
pentru care
Observăm că
u = (−v) + w
= ∑ (−α b )b + ∑ α c c ∈ SpanK (A) ∩ SpanK (B ∪C),
b∈B c∈C
de unde u = 0E şi
Ajungem la v = w = 0E .
Partea v). Folosim argumentul din demonstraţia Lemei 2.3. Astfel, fie a ∈ A, b ∈
B. Atunci, afirmăm că
adică la o contradicţie ⊓
⊔
Lema 2.5. ([18, pag. 204, Propoziţia 2.2]) Fie V1 ,V2 , . . . ,Vs ⊆ E, unde s ≥ 2, K-sub-
spaţii liniare. Atunci, orice egalitate de forma
v1 + v2 + · · · + vs = 0E , vi ∈ Vi , i ∈ 1, s,
pentru orice 1 ≤ i ≤ s.
7 S
K-subspaţiul SpanK Va reprezintă suma K-subspaţiilor (Va )a∈A , [18, pag. 118]. Aici, A =
a∈A
1, s\{i}. Se foloseşte notaţia ∑ Va , [18, pag. 204].
a∈A
24 2 Teoreme de descompunere
cu formulele W1 = V j1 şi
[
Wr = V jr \ V jr ∩ V jq , r ∈ 2, s − 1.
q∈1,r−1
!!
S
Fie vi ∈ Vi ∩ SpanK Vj \ {0E }. Atunci, există vectorii
j∈1,s\{i}
[
W = {w1 , . . . , wt } ⊂ Vj, t ≥ 1,
j∈1,s\{i}
şi scalarii α wq q∈1,t
⊂ K, nu toţi nuli, astfel ı̂ncât8
!
t s−1
vi = ∑ α wq wq = ∑ α ww = ∑ ∑ α ww
q=1 w∈W r=1 w∈W ∩Wr
s−1
= ∑ (−v jr ),
r=1
unde v jr ∈ SpanK (Wr ) ⊆ V jr — vezi Lema 2.4, părţile i), ii) — pentru orice r ∈
1, s − 1 şi cel puţin unul dintre aceşti vectori este nenul. Pentru a construi familia
(v jr )r∈1,s−1 , am adăugat vectorul 0E ori de câte ori W ∩Wr = 0.
/ Apoi, renumerotăm
familia, (v j ) j∈1,s\{i} .
Am obţinut că
vi + ∑ v j = 0E .
j∈1,s\{i}
Lema 2.6. În contextul descompunerii (2.6), fie σ ∈ Ss — [18, pag. 43] — o permu-
tare a mulţimii M = {1, 2, . . . , s} şi partiţia {I, J} ⊂ P(M ) a acestei mulţimi. Au
loc egalităţile
E = Vσ (1) ⊕ Vσ (2) ⊕ · · · ⊕ Vσ (s−1) ⊕Vσ (s) · · ·
şi
! !
M M
E= Vi ⊕ Vj .
i∈I j∈J
Afirmăm că are loc condiţia (2.7). Într-adevăr, ı̂n caz contrar, va exista vectorul
" !#
[
vi = ∑ (−vq ) ∈ Vi ∩ SpanK Vq \ {0E } ,
q6=i q6=i
cu vq ∈ Vq pentru orice q. Din egalitatea (2.8), deducem că există cel puţin un vector
vq nenul astfel ı̂ncât q < i.
Dacă notăm cu q0 ∈ 1, i − 1 cel mai mic index pentru care termenul −vq0 din
suma vi este nenul, deducem că
!
[
vq0 = ∑ (−vq ) ∈ Vq0 ∩ SpanK Vj .
q≥q0 +1 j≥q0 +1
!
S
Din Lema 2.4, partea iv), unde A = Vi0 , B = Vi1 , C = SpanK Vq , rezultă că
q∈J
!
[
SpanK Vi0 ∪Vi1 ∩ SpanK Vj = {0E } ,
j∈J
adică
!
M
Vi0 ⊕Vi1 ∩ Vj = {0E } .
j∈J
unde9
TV Oh,m−h
T= ∈ Mm (K).
Om−h,h Om−h
Dacă spaţiul E este descompus ı̂n suma directă a spaţiilor V1 , . . . , Vs — vezi (2.6)
—, atunci, fiind daţi operatorii liniari Tr : Vr → Vr de matrice TVr , unde r ∈ 1, s, suma
prelungirilor lor cu zero ı̂n spaţiul E este operatorul T : E → E cu matricea
TV1 0 · · · 0
0 TV · · · 0
2
T= . . . . .
.. .. . . ..
0 · · · 0 TVs
T = T1 ⊕ T2 .
T (e j ) ∈ SpanK {e1 , · · · , eh }, j ∈ 1, h,
şi
Lema 2.8. Fie E = V ⊕W ⊆ Cn un spaţiu liniar peste corpul K şi operatorul liniar
T : E → E astfel ı̂ncât T (V ) ⊆ V şi T (W ) ⊆ W . Dacă λ ∈ K este o valoare proprie a
operatorului T , atunci λ este valoare proprie pentru cel puţin unul dintre operatorii
T |V , T |W .
deducem că
T |V (v) − λ · v = λ · w − T |W (w) (∈ V ∩W )
= 0E ,
respectiv
T |V (v) = λ · v, T |W (w) = λ · w.
Cum e 6= 0E , cel puţin unul dintre vectorii v, w este nenul. Presupunem că w 6= 0.
Atunci, w este eigenvector pentru valoarea proprie λ a operatorului corespunzător,
adică T |W . ⊓
⊔
Exemplul 2.1. În contextul Lemei 2.2, fie T : R6 → R6 operatorul liniar bijectiv dat
de relaţiile
Atunci, avem
(E =) R6 = V ⊕W = V ⊕W1
şi — T (i3 + i4 ) = i3 + i4 —
T (V ) = V, T (W ) = W, T (W1 ) = W1 .
Cu alte cuvinte, subspaţiul V poate admite mai multe complemente, fiecare dintre
acestea invariat de către operatorul T !
2.2 Teorema N + M 29
2.2 Teorema N + M
ibid.].
12 În limba engleză, image [14, pag. 34].
30 2 Teoreme de descompunere
K0 (T ) ( K1 (T ) ( · · · ( Kp (T ), (2.13)
respectiv
L0 (T ) ) L1 (T ) ) · · · ) Lr (T ).
T (N) ⊆ N, T (M) ⊆ M.
T ◦ P = P ◦ T.
Atunci,
P(N) ⊆ N. (2.14)
T k ◦ P = P ◦ T k, k ∈ N∗ .
adică P(x) ∈ Kp (T ). ⊓
⊔
Teorema 2.1. ([14, pag. 332, Lemma]) Spaţiul liniar E admite descompunerea
E = N ⊕ M. (2.15)
adică T1 este surjectiv. Deoarece spaţiul liniar M este finit dimensional iar operatorul
T1 este K-liniar, deducem că T1 este bijectiv, deci şi injectiv13 .
Cum operatorul T1 este bijectiv, toate puterile sale sunt bijective, adică Ker (T1v ) =
{0E }, unde v ≥ 0. Aşadar, pentru orice e ∈ M\{0E }, şirul (T1v (e))v≥1 conţine doar
vectori nenuli din M. În particular, fie x ∈ N ∩ M\{0E }. Atunci, cum x ∈ N, există
i ≥ 1 astfel ı̂ncât x ∈ Ki (T ), adică T i (x) = 0E . Deoarece x ∈ M\{0E }, relaţiile
N ∩ M = {0E } .
Rămâne să stabilim că are loc descompunerea (2.1). Fie e ∈ E. Atunci, T r (e) ∈
M. Cum14 M = T1r (M), există şi este unic vectorul w ∈ M cu proprietatea că
T = T1 ⊕ T2 , (2.16)
TNp = Oh , (2.17)
h m
unde N = SpanK {e1 , · · · , eh }, M = SpanK {eh+1 , · · · , em } şi v = ∑ xi · ei + ∑ 0 ·
i=1 i=h+1
ei ∈ N, respectiv la identitatea dublă
x1 x1
.. ..
p . p . 0
TN Oh,m−h xh TN Oh,m−h xh ..
Om−h,h TM 0 = Om−h,h T p 0 = ., (2.18)
M
. . 0
.. ..
0 0
Operatorul liniar T1 : N → N din Lema 2.13 este numit nilpotent [14, pag. 109].
pT (λ ) = 0
K = C.
Demonstraţie. Începem prin a arăta că situaţia din ipoteză — existenţa subspaţiilor
V , W — are loc ı̂ntotdeauna.
Pasul ı̂ntâi. Aplicând Teorema 2.1 şi Lema 2.11 operatorului liniar T − λ0 · I,
deducem că V este un subspaţiu liniar al spaţiului E care este invariat de T − λ0 · I.
De asemeni, subspaţiul V admite un complement, şi anume
\
W= Im (T − λ0 · I)k ,
k≥0
de unde
A − λ · Ih Oh,m−h
pT (λ ) =
Om−h,h B − λ · Im−h
= det (A − λ · Ih ) · det (B − λ · Im−h ) (2.20)
= 0.
h
Fie v ∈ V , unde v = ∑ xi · ei . Conform (2.12), există numărul p ≥ 1 astfel ı̂ncât
i=1
V = Kp (T − λ0 · I).
Relaţiile (2.18) devin — vezi (2.19) —
x1
..
. 0
(A − λ0 · Ih ) p Oh,m−h xh .
(B − λ0 · Im−h ) p = .. . (2.21)
Om−h,h 0
. 0
..
0
La fel ca ı̂n demonstraţia Lemei 2.13, pentru ca identitatea (2.21) să aibă loc este
obligatoriu să avem
(A − λ0 · Ih ) p = Oh , (2.22)
are drept soluţie nenulă setul de coordonate ı̂n baza S1 al vectorului e. Prezenţa
termenului (−µ · Im−h )k ı̂n (2.24) ne arată că sistemul poate avea (asemenea) soluţii
nenule dacă şi numai dacă det(A − µ · Ih ) = 0 şi xh+1 = · · · = xm = 0. Adică, µ tre-
h
buie să fie eigenvaloare pentru operatorul “mic” T1 : V → V şi e = ∑ xi · ei ∈ V
i=1
un eigenvector (generalizat) corespunzându-i lui µ . Cu alte cuvinte, valorile pro-
prii nenule şi vectorii proprii (generalizaţi) ai unui operator T1 : V → V coincid
cu valorile proprii nenule, respectiv cu vectorii proprii (generalizaţi) ai prelungirii
acestui operator cu zero ı̂n ı̂ntregul spaţiu E. Evident, o observaţie similară se face
ı̂n privinţa operatorului T2 : W → W şi a prelungirii sale cu zero, notată tot cu T2 , ı̂n
ı̂ntreg spaţiul ambient E!
Numărul λ0 ∈ K, fiind o valoare proprie a operatorului T : E → E, este o rădăcină,
de multiplicitate16 m0 ∈ N∗ , a polinomului caracteristic pT (λ ). Atunci, avem
unde q este tot un polinom cu coeficienţi ı̂n K, având gradul mai mic decât m —
gradul polinomului pT (λ ) —, care nu se anulează pentru λ = λ0 .
Formula (2.22) ne arată că numărul λ0 este valoare proprie a matricei A. În plus,
via (2.20), deducem că există 1 ≤ n0 ≤ m0 astfel ı̂ncât (λ − λ0 )n0 |det (A − λ · Ih ).
Afirmăm că n0 = m0 , adică λ0 nu este un zero al polinomului det (B − λ · Im−h ).
Pentru a proba aceasta, presupunem că, prin absurd, λ0 este un asemenea zero, adică
o valoare proprie a matricei B. Observaţia anterioară, pentru operatorul T2 : W → W
şi µ = λ0 , ne conduce la sistemul algebric
16 Această cantitate se numeşte multiplicitatea algebrică a eigenvalorii λ0 , vezi [1, pag. 157].
36 2 Teoreme de descompunere
x1
..
. 0
−λ0 · Ih Oh,m−h xh .
= . ∈ Rm . (2.26)
Om−h,h B − λ0 · Im−h
xh+1
.
. 0
..
xm
0E = (T − λ0 · I) j (v) = (µ − λ0 ) j · v.
K=C (2.30)
si
¸ vom aplica ı̂n mod inductiv Lema 2.14.
În contextul Teoremei 2.1, dacă am fixat baza S1 a spaţiului ambient E, atunci
operatorul T2 : W → W este reprezentat de matricea
TW = B, B ∈ Mm−m0 (K),
unde numerele complexe {λ0 , . . . , λs } desemnează valorile proprii distincte ale ope-
ratorului liniar T iar numerele {m0 , . . . , ms } ⊂ N∗ sunt multiplicităţile algebrice ale
s
acestor valori proprii. Evident, ∑ mi = m. Vezi [14, pag. 330].
i=0
20 Atenţie, ı̂n [14, pag. 110] se foloseşte ca polinom caracteristic mărimea (−1)m · pT (λ ).
38 2 Teoreme de descompunere
unde
[ \
V1 = Ker (T2 − λ1 · I)k , W1 = Im (T2 − λ1 · I)k .
k≥0 k≥0
respectiv
[
V1 = Ker (T − λ1 · I)k .
k≥0
Pentru a ne convinge de acest fapt, nu avem decât să analizăm sistemul algebric a-
sociat membrului stâng al egalităţii (2.33). Mai precis, fiind dată ecuaţia matriceală
x1
..
.
0
(A − λ1 · Im0 ) i Om0 ,m−m0 xm .
0 = . ∈ Rm ,
Om−m0 ,m0 (B − λ1 · Im−m0 )i xm 0 +1
.
. 0
..
xm
existenţa unui set {x1 , . . . , xm0 } de numere complexe care să conţină măcar un număr
nenul23 va ı̂nsemna că sistemul algebric omogen
21 Atenţie, operatorul T 2 admite ı̂ntotdeauna şi valoarea proprie 0, a cărei multiplicitate algebrică
este cel puţin m0 . Cum operatorul T ar putea avea şi el valoarea proprie 0, dacă i-am aplica Lema
2.14 operatorului T 2 , atunci argumentaţia s-ar complica excesiv.
22 Evident, T |
2 V1 = (T |W )|V1 = T |V1 pentru că V1 ⊆ W . !
m
23 Adică, de exemplu, xm0 6= 0 şi v1 = xm0 · em0 + ∑ xi · ei ∈ Ki (T − λ1 · I)\W .
i=m0 +1
2.3 Teorema de descompunere primară 39
x1 0
(A − λ1 · Im0 )i ... = ... ∈ Rm0
xm0 0
şi
T2 = T |W1 .
T = D +N ,
24 Aici, V0 = V .
40 2 Teoreme de descompunere
Demonstraţie. Ne găsim ı̂n contextul Lemei 2.14 şi al cerinţei (2.30). Există, aşadar,
subspaţiile liniare complexe Vi ⊆ E, unde
[
Vi = Ker (T − λi · I) j , dimCVi = mi (vezi (2.32))
j≥0
Introducem matricele
D0 · · · Om0 ,ms
.. ,
D = ... ..
. . Di = λi · Imi , i ∈ 0, s,
Oms ,m0 · · · Ds
şi
M0 · · · Om0 ,ms
.. .. .. .
N= . . .
Oms ,m0 · · · Ms
Îl notăm cu p pe cel mai mare dintre numerele {p0 , . . . , ps } [14, pag. 112].
Atunci,
25 Matricea M = (mvw )v,w ∈ Mq (K) este matrice-diagonală dacă singurele elemente (intrări) ne-
nule ale sale se găsesc pe diagonala principală a matricei. Adică, mvw = 0 pentru orice v 6= w ∈ 1, q.
Prin extensie de limbaj, o matrice definită pe blocuri este matrice-diagonală dacă numai blocurile
de pe diagonala principală pot fi nenule.
26 La ultima aplicare a Lemei 2.14, obţinem W = W = {0 }.
s E
2.3 Teorema de descompunere primară 41
p0 p−p
M0p · · · Om0 ,ms M0 · M0 0 · · · Om0 ,ms
.. =
N p = ... ..
. .
..
.
..
.
..
.
Oms ,m0 · · · Msp Oms ,m0 ps
· · · Ms · Ms p−ps
Om0 · · · Om0 ,ms
.. = O .
= ... ..
. . m (2.38)
Oms ,m0 · · · Oms
D ◦ N = N ◦ D.
⊔
⊓
Lema 2.16. ([14, pag. 120, Problema 8]) În contextul Teoremei 2.2, au loc inegali-
tăţile
pi ≤ mi , i ∈ 0, s, (2.39)
unde numerele pi au fost definite ı̂n (2.37). Adică, matricele Mi din (2.36) ı̂ndeplinesc
condiţiile
Demonstraţie. Ştim că Vi = Kpi (T − λi · I). Incluziunile stricte (2.13), şi anume
42 2 Teoreme de descompunere
unde 0 ≤ i ≤ s. ⊓
⊔
respectiv
Nm = Om . (2.41)
Lema 2.17. ([14, pag. 121, problema 17]) În contextul Lemei 2.7, fie Pi : E → E,
unde 1 ≤ i ≤ 3, operatori K-liniari astfel ı̂ncât P1 să fie diagonalizabil, P2 să fie
nilpotent şi P3 să fie diagonal. Atunci, dacă
Pi (V ) ⊆ V, Pi (W ) ⊆ W pentru orice i,
De aici, evident,
Aj Oh,m−h
Tj = , j ∈ N∗ .
Om−h,h Bj
deci T = P1 , atunci
d1 0 0 ··· 0
0 d2 0 ··· 0
.. .
A = ... ..
.
..
. . (2.42)
0 · · · 0 dh−1 0
0 0 · · · 0 dh
Lema 2.18. ([14, pag. 333, Theorem]) În contextul Teoremei 2.2, există o singură
descompunere a operatorului T sub forma
T = P1 + P2 ,
Demonstraţie. Existenţa unei asemenea descompuneri este dată de Teorema 2.2 şi
de Lema 2.15.
Deoarece P1 şi P2 comută, au loc relaţiile
şi
Inegalitatea
k + (t − k) t
max {k,t − k} ≥ = ≥ max {qi , mi }
2 2
arată că fiecare din termenii sumei (2.44) are cel puţin unul dintre factorii [(P2 )Vi ]k ,
Mit−k egal cu Omi . În consecinţă,
Conform (2.45),
Fie E ⊆ Cn un spaţiu liniar m-dimensional peste corpul K ∈ {R, C}. Aici, ca şi
până acum, m ≤ n.
Fie e ∈ E\{0E } şi operatorul K-liniar T : E → E. Introducem mulţimea1
Z(e, T ) = SpanK T i (e)|i ∈ N .
Elementele sale sunt combinaţii liniare cu număr finit de termeni nenuli ale vectori-
lor din familia {e, T (e), T 2 (e), . . . }.
Observăm că
( )
h
Z(e, T ) = ∑ αi · T i (e)|αi ∈ K, h ∈ N .
i=0
T k = O, (3.2)
47
48 3 Forma canonică a matricelor
pentru orice q ≥ h + 1.
De asemeni, vectorii din setul {e, T (e), T 2 (e), . . . , T h (e)} sunt diferiţi unul de
celălalt. Într-adevăr, dacă ar exista numerele p ≥ 0, q ≥ 1 astfel ca p + q ≤ h şi
T p (e) = T p+q (e), atunci
T h+1−q (e) = T h+1−p−q (T p (e)) = T h+1−p−q T p+q (e)
= T h+1 (e) = 0E , (3.4)
să presupunem că αr ∈ K este coeficientul nenul cu cel mai mic index. Deci
h
∑ αi · T i (e) = 0E ,
i=r
Am ajuns la o contradicţie: αr = 0.
În plus, avem — conform (3.1) —
n o
Z(e, T ) = SpanK e, . . . , T h (e) ,
adică setul
şi
Ker T Z(e,T ) = KT nil(e,T )−1 (e). (3.7)
h
Demonstraţie. Fie x = ∑ αi · T i (e) ∈ Z(e, T ), unde αi ∈ K şi 0 ≤ i ≤ h ≤ k − 1.
i=0
Atunci,
h h
T (x) = ∑ αi · T (T i (e)) = ∑ αi · T i (T (e)) ∈ Z(T (e), T ),
i=0 i=0
h
y = ∑ αi · T (T i (e)) = T (x) ∈ T (Z(e, T )).
i=0
Fie h = nil(e, T ) − 1. Pentru a stabili formula (3.7), observăm că relaţiile — dacă
h≥1—
!
h
0E = T (x) = T ∑ αi · T i (e)
i=0
h−1
= ∑ αi · T i+1 (e) + αh · T h+1 (e)
i=0
h−1
= ∑ αi · T i+1 (e), αi ∈ K,
i=0
α0 = · · · = αr−1 = 0, αr 6= 0, β0 = · · · = βs−1 = 0, βs 6= 0.
Atunci,
h2 β
de unde rezultă că T h1 (x) = ∑ α
j
· T j+h1 −r (y) ∈ Z(y, T ).
j=s r
Apoi — dacă h1 ≥ r + 1 —,
respectiv
h2
βj αr+1 h1
T h1 −1 (x) = ∑ αr · T j+h1 −r−1 (y) − αr
· T (x) ∈ Z(y, T ).
j=s
Ajungem la
h2
βj h1
αi
T r (x) = ∑ αr · T j
(y) − ∑ αr · T i (x) ∈ Z(y, T ),
j=s i=r+1
Exemplul 3.1. În contextul Lemei 3.3, observăm că Z(x, T ) ∩ Z(y, T ) ⊆ Z(y, T ) este
un K-subspaţiu liniar al spaţiului
Z(y, T ). Am stabilit că acest subspaţiu conţine cel
puţin un element al bazei y, . . . , T h2 (y) a spaţiului ambient Z(y, T ). Afirmăm că,
fiind date K-spaţiul liniar E, o bază a sa S şi subspaţiul propriu V ⊂ E, unde
V 6= {0E }, este posibil ca V ∩ S = 0. /
Într-adevăr, fie E = R7 — aici, K = R —, baza canonică S = {i1 , . . . , i7 } şi
V = R i1 + i2 ⊕ R i3 + i4 .
Atunci,
V ∩ S = 0.
/
3.1 Cazul operatorilor nilpotenţi 51
Fie operatorul K-liniar P : E → E. Putem construi o bază a spaţiului ı̂n care acest
operator acţionează, dacă se cunosc baze din Ker P şi Im P, după cum urmează: fiind
date baza S3 = {y1 , . . . , yt } a spaţiului Im P şi baza S4 = {x1 , . . . , xs } a spaţiului
Ker P, selectăm familia de vectori S5 = {z1 , . . . , zt } pentru care zi ∈ P−1 (yi ), unde
i ∈ 1,t. Atunci, setul
S6 = {z1 , . . . , zt , x1 , . . . , xs } (3.8)
este bază a spaţiului ambient E, vezi [14, pag. 327, Proposition 3].
Ca să ne convingem de acest fapt, arătăm că vectorii din S6 sunt liniar indepen-
denţi. Fie scalarii αi , β j ∈ K, unde i ∈ 1,t, j ∈ 1, s, pentru care
t s
∑ αi · zi + ∑ β j · x j = 0E . (3.9)
i=1 j=1
t
Observăm că u = x− ∑ αi ·zi ∈ Ker P. Astfel, există scalarii β j ∈ K, unde j ∈ 1, s,
i=1
cu proprietatea că
s
u= ∑ β j · x j,
j=1
respectiv
52 3 Forma canonică a matricelor
t s
x = ∑ αi · zi + ∑ β j · x j ,
i=1 j=1
unde q ≥ 1.
Demonstraţie. Utilizăm inducţia matematică. Astfel, vom verifica existenţa acestui
tip de descompunere atunci când dimK E ∈ {1, 2}, apoi, presupunând că descompu-
nerea poate fi realizată pentru orice spaţiu liniar E cu dimK E ≤ m − 1, vom construi
o descompunere ı̂n cazul dimK E = m.
Pasul ı̂ntâi: cazul dimK E = 1. Fie S = {e} o bază a spaţiului E. Atunci, E =
SpanK {e}, de unde rezultă că T (e) = λ · e ∈ E. Ipoteza (3.2) ne conduce la λ = 0,
astfel că nil(e, T ) = 1. Avem
Deci E = Z(e, T ).
Pasul al doilea: cazul dimK E = 2. Conform (3.2), dimK Ker T ≥ 1.
Dacă dimK Ker T = 2, adică E = Ker T , atunci T = O — aşadar, k = 1 — şi
Atunci,
n o n o
Xi ∪ T hi +1 (xi ) ∩ X j ∪ T h j +1 (x j ) = 0,
/ i 6= j.
este liniar independent peste corpul K. Îl completăm până la o bază S4 a spaţiului
Ker T .
n o
S4 = T h1 +1 (x1 ), . . . , T hr +1 (xr ), xr+1 , . . . , xs . (3.13)
Atunci, T 3 = O.
Deducem că
şi
Au loc egalităţile
şi
Observăm că
Mai precis,
T (d 1 ) · · · T (d 8 ) = d 1 · · · d 8 · T,
unde
(d 1 , . . . , d 8 ) = i1 , i2 , i3 , i5 , i6 , i7 , i4 , i8 ,
respectiv
T (e1 ) · · · T (e8 ) = e1 · · · e8 · T,
unde
(e1 , . . . , e8 ) = i1 + i5 , i2 + i6 , i3 + i7 , i5 , i6 , i7 , i3 , i8 .
4 În limba engleză, elementary nilpotent block (sing.). Vezi [14, pag. 122].
56 3 Forma canonică a matricelor
T Z(e1 ,T ) 0 0 ··· 0
0 TZ(e2 ,T ) 0 ··· 0
. .. .. ..
.. . . .
T= ,
0 ··· 0 TZ(eq−1 ,T ) 0
0 0 0 ··· TZ(eq ,T )
unde5 TZ(ek ,T ) = Anil(ek ,T ) pentru orice 1 ≤ k ≤ q şi q = s. De asemeni, matricele
1-dimensionale A1 le corespund spaţiilor Z(e, T ) cu e ∈ Ker T . În cazul nostru, a-
ceste elemente e sunt — dacă r + 1 ≤ s — elementele {xr+1 , . . . , xs } din setul S4
prezentat ı̂n (3.13).
Formula (3.15) arată că spaţiul liniar E poate fi scris ca suma directă a s subspaţii
de tipul Z(e, T ) ı̂n timp ce din definiţia (3.13) a setului S4 rezultă că dimK Ker T = s.
Astfel, numărul de blocuri nilpotente elementare ale matricei T este egal cu dimen-
siunea nucleului operatorului T [14, pag. 123, Theorem 2].
Conform formulei (1.9), putem permuta coloane şi linii ale matricei T dacă per-
mutăm vectorii din baza S6 a spaţiului E.
De exemplu, lucrând pe blocuri, egalitatea
AO
(T (B1 ) T (B2 )) = (B1 B2 )
OB
se rescrie ca
BO
(T (B2 ) T (B1 )) = (B2 B1 ) .
OA
6 Conform [14, pag. 120, Problema 8], δ = m, adică Tm = O . Vezi şi estimările (2.40), bazată
m m
pe (2.13), respectiv (2.41). Pentru a o folosi pe aceasta din urmă, să remarcăm că, dacă un operator
R-liniar este nilpotent, atunci şi complexificatul său va fi nilpotent — vezi (1.16), (1.38) —. Apli-
când Teorema 2.2, realizăm descompunerea (unică) TC = D + N = O + N = N , de unde T = N.
Nu vom utiliza, ı̂n cele ce urmează, relaţia δm = m.
58 3 Forma canonică a matricelor
δ1 = ν 1 + · · · + ν m ,
− δ1 + δ2 = ν 2 + ν 3 + · · · + ν m ,
..
.
−δw−1 + δw = ∑ νi , unde 2 ≤ w ≤ m,
w≤i≤m
..
.
−δm−1 + δm = νm .
În sfârşit, scăzând două câte două — “ecuaţia (i) − ecuaţia (i + 1)” — ecuaţiile
consecutive ale sistemului algebric anterior, obţinem
ν 1 = 2 · δ1 − δ2 ,
..
.
νw = −δw−1 + 2 · δw − δw+1 , unde 2 ≤ w ≤ m − 1, (3.17)
.
..
νm = −δm−1 + δm .
Relaţiile (2.12) arată că există numărul p ≥ 1 astfel ı̂ncât δ p = δ p+1 = · · · , de unde
ν p+1 = ν p+2 = · · · = 0.
Setul de relaţii (3.17) arată că numărul de blocuri nilpotente elementare de o a-
numită dimensiune depinde numai de operatorul T , aşadar, scrierea matricei T ca o
matrice-diagonală care are pe diagonala principală blocuri nilpotente elementare
aşezate ı̂n ordinea descrescătoare nestrictă a dimensiunilor lor este unică, vezi [14,
pag. 125, Theorem 4].
Fie ε > 0 fixat. Fiind date e ∈ E\ {0E }, k = nil(e, T ) şi operatorul K-liniar U =
T Z(e,T ) : Z(e, T ) → Z(e, T ), relaţia (1.9) ne conduce la
0 0 0 ··· 0
0
1 0 0 · · · 0
0
0 1 0 · · · 0
0
U(e1 ) · · · U(ek ) = e1 · · · ek · . .. ..
.. .. ,
.. . .
. .
0 · · · 0 1 0 0
0 ··· 0 0 1 0
Introducem altă bază a K-spaţiului liniar Z(e, T ) prin relaţiile — [14, pag. 148]
—
1 1
f 1 = e1 , f 2 = · e2 , . . . , f k = k−1 · ek .
ε ε
Matricea de schimbare de bază este
3.2 Forma canonică Jordan 59
1 0 0 0 ··· 0
0 1
···
ε 0 0 0
0 0 ε12 0 ··· 0
P = Bk (ε ) =
.. .. .. .. .. .
. . . . .
1
0 ··· 0 0 ε k−2
0
1
0 ··· 0 0 0 ε k−1
Via identităţile7
00 10 00 10 00
A2 · B2 (ε ) = · = = · = B2 (ε ) · A2 (ε )
10 0 ε1 10 0 ε1 ε0
şi — aici, k ≥ 3 —
0 0 0 0 ··· 0 0 0 00 ··· 0
1 0 0 0 · · · 0 ε 0 00 · · · 0
ε
0 1
ε 0 0 · · · 0 0 00 · · · 0
Ak · Bk (ε ) = .. .. .. .. .. = Bk (ε ) · . .. ..
.. ..
. . . . . .. . .. .
0 ··· 0 1
ε k−3
0 0 0 · · · 0 ε 0 0
0 ··· 0 0 1
k−2 0 0 ··· 0 0 ε 0
ε
= Bk (ε ) · Ak (ε ),
deducem că
U( f 1 ) · · · U( f k ) = U(e1 ) · · · U(ek ) · Bk (ε ) = e1 · · · ek · Ak · Bk (ε )
= e1 · · · ek · Bk (ε ) · Ak (ε )
0 0 0 0 ··· 0
ε 0 0 0 · · · 0
0 ε 0 0 · · · 0
= f 1 ··· f k ·. . . .
..
. . (3.18)
.. . . . . . .
0 · · · 0 ε 0 0
0 ··· 0 0 ε 0
Evident, Ak = Ak (1).
şi
λ 0 0
λ 0
J3λ = 1 λ 0 , J2λ = , J1λ = (λ ), (3.20)
1λ
0 1λ
şi
λ 0 0
λ 0
J3λ (ε ) = ε λ 0 , J2λ (ε ) = , (3.22)
ε λ
0 ε λ
8 În limba engleză, elementary Jordan matrix (sing.). Conform [14, pag. 127].
3.3 Cazul K = R 61
3.3 Cazul K = R
Aici, e = x + i · y, unde x, y ∈ Rn .
Relaţiile (1.35), (1.36) şi Lema 1.2 arată că
x, y ∈ EC ∩ Rn = ECR = E.
de unde
k
σ (e) ∈ Ker TC − λ0 · I \{0E }. (3.23)
De aici, deducem că fiecărei valori proprii nereale λ0 a operatorului TC ı̂i cores-
punde valoarea proprie λ0 [14, pag. 66, Proposition]. Cele două eigenvalori au
multiplicităţi algebrice egale.
Formula (2.32), valabilă ı̂n C, se rescrie ı̂n R ca
62 3 Forma canonică a matricelor
pT (λ ) = pTC (λ )
= (−1)m · (λ − λ0 )m0 · (λ − λ0 )m0
× (factori generaţi de restul eigenvalorilor)
m
= (−1)m · λ 2 − 2 · Re λ0 · λ + |λ0 |2 0 · (· · · ).
Lema 3.4. ([14, pag. 68]) Vectorii {e, σ (e)} sunt liniar independenţi peste corpul
C dacă şi numai dacă vectorii {x, y}, unde e = x + i · y şi x, y ∈ E, sunt liniar
independenţi peste corpul R.
În plus,
Dat fiind că cel puţin unul din vectorii x, y este nenul, din relaţiile (3.25) rezultă
că
a2 + b2 = 1, (3.26)
ceea ce ne permite să scriem că a = cos u şi b = sin u pentru un anumit u ∈ [0, 2π ].
Ca să ajungem la (3.26), ı̂nmulţim prima ecuaţie din (3.25) cu a + 1, pe cea de-
a doua cu b şi apoi le scădem. Am obţinut că (a2 + b2 − 1) · x = 0E . De asemeni,
ı̂nmulţind prima ecuaţie cu b, pe a doua cu a − 1 şi adunând rezultatele, rezultă
(a2 + b2 − 1) · y = 0E .
Introducând noile formule ale mărimilor a, b ı̂n relaţiile (3.25), ajungem la
u u
sin · x + cos · y = 0E ,
2 2
adică la concluzia că liniar dependenţa vectorilor {e, σ (e)} implică liniar depen-
denţa vectorilor {x, y}.
Reciproc, dacă există c ∈ R astfel ı̂ncât x = c · y, atunci
3.3 Cazul K = R 63
c−i c−i
σ (e) = (c − i) · y = · [(c + i) · y] = α · e, α= ∈ C,
c+i c+i
ceea ce ı̂ncheie demonstraţia.
Pentru partea a doua, remarcăm că au loc relaţiile
(EC ∋) u = α · e + β · σ (e)
= (α + β ) · x + i · (α − β ) · y
= γ · x + ε · y,
unde α , β , γ , ε ∈ C, respectiv
u = γ ·x+ε ·y
1 1
= · (γ − i · ε ) · e + · (γ + i · ε ) · σ (e)
2 2
= α · e + β · σ (e).
9 Este suficient să arătăm că sistemul B1 este liniar independent peste C. În particular, va rezulta
m0
că vectorii din B1 sunt diferiţi, adică numărul lor este m0 . Relaţia ∑ zi · σ (ei ) = 0E ne conduce la
i=1
m0
0E = σ (0E ) = ∑ zi · ei , de unde zi = 0 pentru orice i.
i=1
64 3 Forma canonică a matricelor
unde setul
n o
B j = e1j , . . . , emj j ⊂ EC ,
cu ekj = xkj + i · ykj şi xkj , ykj ∈ E, este bază a eigenspaţiului generalizat corespunzând
eigenvalorii λ j pentru orice j ∈ v + 1, v + w. De asemeni, există bazele10 B j ⊂ E
pentru eigenspaţiile generalizate V j ale valorilor proprii reale λ j , j ∈ 0, v.
O bază S ⊂ EC poartă numele de bază invariantă la σ (σ -bază) dacă σ (S ) ⊆
S . Cu alte cuvinte, dacă e se găseşte ı̂ntr-o σ -bază, atunci fie e ∈ E, fie e ∈ EC \E
şi σ (e) ∈ S , adică setul {e, σ (e)} este liniar independent peste corpul C.
Teorema 3.2. ([14, pag. 116, Theorem 1]) Există şi sunt unici operatorii R-liniari
D, N : E → E astfel ı̂ncât
T = D +N , D ◦ N = N ◦ D,
10 Vezi (1.29).
11
Reamintesc faptul că R3 C = C3 .
3.3 Cazul K = R 65
TC = DC + NC , DC ◦ NC = NC ◦ DC ,
D1 = σ ◦ DC ◦ σ ∈ L(EC , EC ), N1 = σ ◦ NC ◦ σ ∈ L(EC , EC ).
D1 (e j ) = (σ ◦ DC )(σ (e j )) = (σ ◦ DC )(e j )
= σ (z j · e j ) = z j · e j , j ∈ 1,t, (3.29)
şi
respectiv
deci operatorul D1 : EC → EC este liniar peste corpul C şi, via (3.29) – (3.31), este
reprezentat ı̂n σ -baza S de o matrice-diagonală.
Mai departe, avem
N12 = (σ ◦ NC ◦ σ ) ◦ (σ ◦ NC ◦ σ ) = σ ◦ NC ◦ σ 2 ◦ NC ◦ σ
= σ ◦ NC2 ◦ σ ,
respectiv
N1k = σ ◦ NCk ◦ σ , k ∈ N∗ ,
TC = σ ◦ TC ◦ σ = σ ◦ (DC + NC ) ◦ σ
= σ ◦ DC ◦ σ + σ ◦ NC ◦ σ
= D1 + N1 .
DC = D1 = σ ◦ DC ◦ σ , NC = N1 = σ ◦ NC ◦ σ ,
T = D2 + N2 , D2 ◦ N2 = N2 ◦ D2 .
3.3 Cazul K = R 67
T = D2 + N2 .
TC = (D2 )C + (N2 )C .
ne conduc la
DC = (D2 )C , NC = (N2 )C .
Obţinem că
D = D2 , N = N2 ,
şi
λ0 0 0 0 ··· 0
.. .. .. .. ..
. . . . .
0 · · · λ0 0 ··· 0
DV0 ⊕V1 = ∈ M2m (C).
0
· · · 0 λ0 ··· 0
0
. .. .. .. ..
.. . . . .
0 ··· 0 0 ··· λ0
respectiv
(DC )V0 ⊕V1 (σ (e1 )) = λ0 · σ (e1 ) (3.34)
= (a0 · x1 − b0 · y1 ) − i · (b0 · x1 + a0 · y1 ),
de unde
1
(DC )V0 ⊕V1 (x1 ) = · (DC )V0 ⊕V1 (e1 ) + (DC )V0 ⊕V1 (σ (e1 ))
2
= a0 · x1 − b0 · y1
şi
1
(DC )V0 ⊕V1 (y1 ) = · (DC )V0 ⊕V1 (e1 ) − (DC )V0 ⊕V1 (σ (e1 ))
2i
= b0 · x1 + a0 · y1 .
Adică,
DC (x1 ) DC (y1 ) DC (e2 ) · · · DC (em0 ) DC (σ (e2 )) · · · DC (σ (em0 ))
= x1 y1 e2 · · · em0 σ (e2 ) · · · σ (em0 ) · W1 .
Aici,
atunci
nil (e, TC − λ0 · I) = nil σ (e), TC − λ0 · I
şi
SpanC {σ (e1 ), . . . , σ (eh )} = Z σ (e), TC − λ0 · I .
rezultă că
k−1
σ (ek ) = TC − λ0 · I (σ (e)), 1 ≤ k ≤ h.
Z0 ⊕ Z1 ⊆ V0 ⊕V1 ,
unde
Z0 = Z (e, TC − λ0 · I) , Z1 = Z σ (e), TC − λ0 · I ,
matricea de reprezentare
3.3 Cazul K = R 71
λ0 0 0 ··· 0 0 0 0 ··· 0
1
λ0 0 ··· 0 0 0 0 ··· 0
0
1 λ0 ··· 0 0 0 0 ··· 0
. .. .. .. .. .. .. .. ..
.. . . . . . . . .
0 0 ··· 1 λ0 0 0 0 ··· 0
TZ0 ⊕Z1 =0 0 ··· 0 0 λ0 0 0 ··· 0 ∈ M2h (C).
0 0 ··· 0 0 1 λ0 0 ··· 0
0 0 ··· 0 0 0 1 λ0 · · · 0
.. .. .. .. .. .. . . . . ..
. . . . . . . . .
0 0 ··· 0 0 0 0 · · · 1 λ0
respectiv
(TC )Z0 ⊕Z1 (σ (e1 )) = λ0 · σ (e1 ) + σ (e2 ),
de unde
(TC )Z0 ⊕Z1 (x1 ) = a0 · x1 − b0 · y1 + x2
şi
(TC )Z0 ⊕Z1 (y1 ) = b0 · x1 + a0 · y1 + y2 .
ı̂n baza
este
72 3 Forma canonică a matricelor
a0 b0
O2 O2 ··· O2
−b
0 a0
10 a0 b0
O2 ··· O2
01 −b0 a0
.. ..
J= . .
10 a0 b0
O2 ··· O2
01 −b
0 a0
10 a0 b0
O2 ··· O2
01 −b0 a0
Eλ0 O2 ··· O2
I2 Eλ0 ··· O2
= . .. .. .. ∈ M2h (R), (3.35)
.. . . .
O2 · · · I2 Eλ0
unde
a0 b0
Eλ0 = .
−b0 a0
Aşadar, restricţia operatorului liniar complex (TC )Z0 ⊕Z1 la realificatul
Z01 =
SpanR (C ) al spaţiului liniar Z0 ⊕ Z1 este operatorul liniar real T Z01 cu matricea
de reprezentare J ı̂n baza C .
În concluzie, pentru operatorii liniari reali, matricele Jordan elementare Jkλ din
(3.19), (3.20) sunt ı̂nlocuite cu matrice (3.35) atunci când λ ∈ C\R [14, pag. 129,
Theorem 2].
Tehnica descrisă ı̂n (3.18), (3.21), (3.22) ne permite modificarea bazelor B2 ∪
B3 , respectiv C pentru a ı̂nlocui matricea J cu matricea
a0 b0
−b0 a0 O 2 O 2 · · · O 2
ε0 a0 b0
O · · · O
0ε −b0 a0 2 2
.. ..
J(ε ) = . .
ε0 a0 b0
O2 ··· O2
0ε −b 0
a0
ε0 a0 b0
O2 ··· O2
0ε −b0 a0
Eλ0 O2 · · · O2
ε I2 Eλ · · · O2
0
= . . . .. , (3.36)
. . . .
. . .
O2 · · · ε I2 Eλ0
constituie norma euclidiană1 de index 2 a spaţiului liniar E [14, pag. 77]. Dubletul
E = (E, k ⋆ k2 ) este un spaţiu Banach [20, pag. 129].
Lema 4.1. ([13, pag. 109, Theorem 5.1.10]) Fiind dat şirul (a p ) p≥0 ⊂ E, conver-
gent2 la elementul a ∈ E, este valabilă relaţia
lim A p = a,
p→+∞
p
unde A p = 1
p+1 · ∑ ai .
i=0
Demonstraţie. Cum orice şir convergent este mărginit, introducem numărul B > 0
cu proprietatea că
ka p k2 ≤ B, p ∈ N. (4.2)
73
74 4 Aplicaţii
Realizăm estimările
1 p
A p − a
=
2
· ∑
p + 1 i=0
(ai − a)
2
!
N−1 p
1
≤
p+1
· ∑ kai − ak2 + ∑ kai − ak2
i=0 i=N
" #
N−1 p
1
(vezi (4.3)) ≤
p+1
· ∑ (kai k2 + kak2 ) + ∑ ε
i=0 i=N
" #
N−1 p
1
(vezi (4.2)) ≤
p+1
· ∑ (2 · B) + ∑ ε
i=0 i=N
1
= · [2NB + (p − N + 1)ε ], p > N,
p+1
de unde
lim sup
A p − a
2 ≤ ε .
p→+∞
Exemplul 4.1. Reciproca Lemei 4.1 nu este valabilă. Astfel, ı̂n E = R, şirul3 (a p ) p≥0 ,
unde a p = (−1) p , nu este convergent dar şirul (A p ) p≥0 converge la 0.
p
A−1 = 0E , A p = ∑ ai , p ∈ N.
i=0
3 Păstrăm “bara” de la notaţia vectorilor pentru uniformitate. În Exemplul 4.3 vom identifica, din
Seria ∑ a p se numeşte sumabilă Cesàro şi are suma (Cesàro) S dacă — [13, pag.
p≥0
109] —
1
lim A p = S ∈ E.
p→+∞
Cu alte cuvinte, mediile aritmetice ale sumelor parţiale consecutive ale seriei ı̂n
discuţie converg la S ı̂n norma k ⋆ k2 .
Lema 4.1 ne arată că orice serie convergentă de elemente din E este şi sumabilă
Cesàro iar suma seriei coincide cu suma sa Cesàro.
Exemplul 4.2. În cazul şirului (a p ) p≥0 din Exemplul 4.1, seria ∑ a p are sumele
p≥0
parţiale (A p ) p≥0 , unde A2p = 1, A2p+1 = 0 pentru orice p, deci nu este convergentă.
Însă, suma sa Cesàro este S = 12 [13, ibid.].
În mulţimea R2 , construim pătratul OABC,
de vârfuri O = (0, 0), A = (M, 0), B = (M, M) şi C = (0, M). Aici, M ∈ N. Plecând de
la suprafeţele plane [OAB], [OAC] ⊂ R2 mărginite de liniile poligonale [OA] ∪ [AB] ∪
[BO] şi [OA] ∪ [AC] ∪ [CO] — dreapta OA este orizontală iar dreapta OC verticală
—, introducem mulţimile
∆ = [OAB] ∩ N2 , Θ = [OAC] ∩ N2 .
unde
şi
M
[ M
[
Θ= Θp = Θ k,
p=0 k=0
unde
Afirm că altă partiţionare a triunghiului Θ se face prin linii paralele cu dreapta
CA,
76 4 Aplicaţii
M
[
Θ= Ψv , Ψv = {(p, k)|p + k = v} ∩ N2 .
v=0
M p M M
∑ ∑ a pk = ∑ ∑ a pk , (4.5)
p=0 k=0 k=0 p=k
respectiv
M M−p M M−k
∑ ∑ a pk = ∑ ∑ a pk (4.6)
p=0 k=0 k=0 p=0
şi
M p M M−p
∑ ∑ ak(p−k) = ∑ ∑ a pk . (4.7)
p=0 k=0 p=0 k=0
Apoi,
M M−p M
∑ ∑ a pk = ∑ ∑ a pk = ∑ a pk
p=0 k=0 p=0 (p,k)∈Θ p (p,k)∈Θ
M M M−k
= ∑ ∑ a pk = ∑ ∑ a pk .
k=0 (p,k)∈Θ k k=0 p=0
În sfârşit,
4.1 Produsul Cauchy a două serii 77
M p M
∑ ∑ ak(p−k) = ∑ ∑ avw = ∑ avw
p=0 k=0 p=0 (v,w)∈Ψp (v,w)∈Θ
M M M−p
= ∑ ∑ a pk = ∑ ∑ a pk .
p=0 (p,k)∈Θ p p=0 k=0
Demonstraţia acestor tehnici de sumare prin părţi [13, pag. 106] s-a ı̂ncheiat. ⊓
⊔
ke ⋆ f k2 ≤ A · kek2 · k f k2 ,
λ · (e ⋆ f ) = (λ · e) ⋆ f = e ⋆ (λ · f ),
e ⋆ ( f + g) = (e ⋆ f ) + (e ⋆ g), (e + f ) ⋆ g = (e ⋆ g) + ( f ⋆ g),
Atunci,
eq e2q · · · eq2 fq f2q · · · f q2
.. ..
e ⋆ f = ... ... ..
. · . .
..
.
e1 eq+1 · · · e(q−1)q+1 f1 fq+1 · · · f(q−1)q+1
= (arp )1≤r, p≤q ,
unde
f pq
f pq−1
arp ≡ (arp ) = er er+q · · · er+(q−1)q · .. .
.
f(p−1)q+1
78 4 Aplicaţii
Se observă că
v
u q
u
ke ⋆ f k2 = t ∑ |arp |2
r, p=1
v
u q
u
≤t ∑ |er |2 + · · · + |er+(q−1)q |2 · | f pq |2 + · · · + | f(p−1)q+1 |2
r, p=1
= kek2 · k f k2 ,
deci A = 1.
Fie seriile ∑ a p şi ∑ b p de elemente din spaţiul liniar E. Prin produsul lor
p≥0 p≥0
Cauchy ı̂nţelegem seria ∑ c p , unde
p≥0
p
c p = ∑ ai ⋆ b p−i , p ∈ N,
i=0
Lema 4.3. ([13, pag. 112, Theorem 5.2.1]) Produsul Cauchy a două serii conver-
gente, de sume S1 şi S2 , este sumabil Cesàro şi are suma Cesàro
S = S1 ⋆ S2 . (4.8)
kA p − S1 k2 ≤ B, kB p − S2 k2 ≤ B, p ∈ N, (4.9)
p p
unde A p = ∑ ai şi B p = ∑ bi .
i=0 i=0
Fie ε > 0. Există numărul natural N = N(ε ) ≥ 1 astfel ı̂ncât
p p i p
(p + 1) · C p = C p = ∑ Ci = ∑ ∑ c j = ∑ (p − i + 1) · ci
1 1
A p = S1 + u p , B p = S2 + v p , p ∈ N.
Deducem că
! !
p p p
∑ vr ∑ u p−r ⋆ S2 + ∑ u p−r ⋆ vr
1
Cp = (p + 1) · (S1 ⋆ S2 ) + S1 ⋆ +
r=0 r=0 r=0
= (p + 1) · (S1 ⋆ S2 )
! !
p p
1 1
+ (p + 1) · S1 ⋆ · ∑ vr + · ∑ u p−r ⋆ (p + 1) · S2
p + 1 r=0 p + 1 r=0
p
+ ∑ u p−r ⋆ vr
r=0
= (p + 1) · (S1 ⋆ S2 )
! !
p p
1 1
+ (p + 1) · S1 ⋆ · ∑ vr + · ∑ ur ⋆ (p + 1) · S2
p + 1 r=0 p + 1 r=0
p
+ ∑ u p−r ⋆ vr
r=0
= (p + 1) · (S1 ⋆ S2 ) + (p + 1) · S1 ⋆ V p + U p ⋆ (p + 1) · S2
p
+ ∑ u p−r ⋆ vr .
r=0
80 4 Aplicaţii
lim S1 ⋆ V p = lim U p ⋆ S2 = 0E .
p→+∞ p→+∞
de unde
1
p
lim sup ·
∑ u p−r ⋆ vr
≤ A · ε 2 .
p→+∞ p + 1
r=0
2
Am ajuns la
1
lim sup kC p − S1 ⋆ S2 k2 ≤ A · ε 2 .
p→+∞
respectiv
lim inf |c p | ≥ 2,
p→+∞
Lema 4.4. ([13, pag. 113, Corollary]) Dacă produsul Cauchy a două serii conver-
gente, de sume S1 şi S2 , este convergent, atunci suma sa are formula (4.8).
Teorema 4.1. ([13, pag. 113, Theorem 5.2.2]) Produsul Cauchy a două serii absolut
convergente este absolut convergent.
u p = ka p k2 , v p = kb p k2 , p ∈ N,
şi
p
p
kc p k2 =
∑ ai ⋆ b p−i
≤ A · ∑ ui v p−i ,
i=0
i=0 2
+∞
de unde ∑ kci k2 ≤ AUV < +∞. ⊓
⊔
i=0
Teorema 4.2. (F. Mertens, [13, pag. 114, Exercise 6]) Dacă cel puţin una dintre se-
riile convergente ∑ a p , ∑ b p , de sume S1 şi S2 , este absolut convergentă, atunci
p≥0 p≥0
produsul lor Cauchy este convergent şi are suma S1 ⋆ S2 .
respectiv — pentru p ≥ 2 · N —
4.1 Produsul Cauchy a două serii 83
!
p
p p−N p
∑ ak ⋆ v p−k
≤ A · ∑ kak k2 · kv p−k k2 = A · ∑+ ∑ kak k2 · kv p−k k2
k=0
k=0 k=0 k=p−N+1
2
" ! #
p−N p
≤ A· ∑ (kak k2 · ε ) + ∑ kak k2 · B
k=0 k=p−N+1
" ! ! #
+∞ +∞
≤ A· ∑ kai k2 ·ε + ∑ ka j k2 · B < A · (B · ε + ε · B)
i=0 j=N
= 2AB · ε .
În concluzie,
p
C p − S1 ⋆ S2
≤ kA p ⋆ S2 − S1 ⋆ S2 k2 +
∑ ak ⋆ v p−k
,
2
k=0
2
de unde
lim sup
C p − S1 ⋆ S2
2 ≤ 2AB · ε .
p→+∞
lim C p = S1 ⋆ S2 .
p→+∞
Dat fiind că operaţia “⋆” nu este neapărat comutativă, trebuie să arătăm că seria
∑ a p nu joacă niciun rol privilegiat ı̂n formula (4.11).
p≥0
Plecând de la observaţia că
Lema 4.5. ([14, pag. 84, Lemma 2]) Fiind date şirurile (A p ) p≥0 , (B p ) p≥0 ⊂ Mm (C)
astfel ı̂ncât seriile
∑ Ap, ∑ Bp (4.12)
p≥0 p≥0
2
să fie absolut convergente ı̂n raport cu l2 -norma spaţiului Mm (C) ≡ Cm , seria
∑ Cp , unde
p≥0
p
Cp = ∑ Ak · B p−k , p ∈ N,
k=0
este absolut convergentă. În plus, suma sa C este produsul sumelor seriilor din
(4.12), adică
! !
+∞ +∞
C= ∑ Ai · ∑ Bj .
i=0 j=0
respectiv
kA p k2 ≤ (kAk2 ) p , p ∈ N\{0},
Teorema 4.3. ([24, pag. 13]) Fie A, B ∈ Mm (C). Au loc relaţiile următoare:
(i) dacă A · B = B · A, atunci
eA+B = eA · eB , eA · eB = eB · eA ;
(ii)
−1
eOm = Im , eA = e−A ;
A · eB = eB · A.
Demonstraţie. Partea (i). Sunt valabile egalităţile — folosim binomul lui Newton!
—
+∞ p
1 1
eA+B = ∑p!
· (A + B) p = lim ∑ · (A + B)i
p→+∞ i!
p=0 i=0
p i p i
1 j 1 1
= lim ∑ · ∑ · A · B = lim ∑ ∑
j i− j j
·A · ·Bi− j
p→+∞
i=0 i! j=0
i p→+∞
i=0 j=0 j! (i − j)!
p i
= lim
p→+∞
∑ Ci , Ci = ∑ A j ⋆ Bi− j ,
i=0 j=0
1
unde Up = p! ·U p pentru orice U ∈ Mm (C).
= eA · e−A = e−A · eA .
deducem că
!
k
1 i
lim P −1
· ∑ · B · P = P−1 · eB · P.
k→+∞ i=0 i!
A · B2 = (A · B) · B = (B · A) · B = B · (A · B) = B · (B · A)
= B2 · A.
A · B p = B p · A, p ∈ N.
Conform Teoremei 2.2, există baza S2 a spaţiului liniar Cm ı̂n raport cu care
operatorul T să fie reprezentat de matricea T1 cu formula
T1 = D + N, D · N = N · D.
Aici,
d1 · · · 0
.. . . .. , unde d ∈ C, i ∈ 1, m,
D= . . . i Nm = Om .
0 · · · dm
Deducem că
ed1 · · · 0 m−1
.. , 1
eD = ... . . . . eN = ∑ q!
· Nq .
d q=0
0 ··· e m
Relaţiile (1.15) arată că există matricea nesingulară P ∈ Mm (C) astfel ı̂ncât
A = P · T1 · P−1 .
(N0 )m = Om .
Fie u, v ∈ E cu expresiile
7 T = D +N .
8 Fiind date B, C ∈ Mm (C), dacă B ·C = C · B, atunci şi
P · B · P−1 · P ·C · P−1 = P · BC · P−1 = P ·CB · P−1
= P ·C · P−1 · P · B · P−1 .
4.4 Estimarea produsului scalar 89
m m
u= ∑ uSk 1 · ik = ∑ uSk · f k , uS1 S
k , uk ∈ R,
k=1 k=1
respectiv
m m
v= ∑ vSk 1 · ik = ∑ vSk · f k , vS1 S
k , vk ∈ R.
k=1 k=1
Conform (1.5),
S S1 S1
u1 u1 vS
1 v1
.. −1 .. .. −1 ..
. = P . , . = P . .
uS
m uS
m
1 vS
m vS
m
1
şi
vpmax = max λk , Re λt+2 j+1 | k ∈ 1,t, j ∈ 0, q . (4.16)
Au loc relaţiile9
S1
h i v1
−1 t −1 ..
= uS
1
1 S1
. . . um · P ·P · .
vS
m
1
vS
1
1
= uS 1 S1
1 . . . um
G ... , G ∈ Mn (R). (4.18)
vS
m
1
h
şi operatorul R-liniar U = T |V : V → V . Atunci, dacă u = ∑ u p · f p ∈ V , unde
p=1
u p ∈ R, p ∈ 1, h, avem10
h
U(u) = ∑ u p ·U( f p )
p=1
= u1 (λ f 1 + ε f 2 ) + u2 (λ f 2 + ε f 3 ) + · · · + uh (λ f h )
= (λ u1 ) f 1 + (ε u1 + λ u2 ) f 2 + · · · + (ε uh−1 + λ uh ) f h ,
respectiv
BS (U(u), u) = (λ u1 ) · u1 + (ε u1 + λ u2 ) · u2 + · · · + (ε uh−1 + λ uh ) · uh
!
h
=λ ∑ u2p + ε (u1 u2 + u2 u3 + · · · + uh−1 uh ).
p=1
Estimarea
h
U(u) = ∑ uxp ·U(x p ) + uyp ·U(y p )
p=1
= ux1 (ax1 − by1 + ε x2 ) + uy1 (bx1 + ay1 + ε y2 )
+ ux2 (ax2 − by2 + ε x3 ) + uy2 (bx2 + ay2 + ε y3 )
+ · · · + uxh (axh − byh ) + uyh (bxh + ayh )
= (ux1 a + uy1 b)x1 + (−ux1 b + uy1 a)y1
+ (ux2 a + uy2 b + ε ux1 )x2 + (−ux2 b + uy2 a + ε uy1 )y2
+ · · · + (uxh a + uyh b + ε uxh−1 )xh + (−uxh b + uyh a + ε uyh−1 )yh ,
respectiv
11 Atenţie, pentru a simplifica scrierea, am renotat vectorii. Mai precis, x p = xt+2(p−1)+1 şi y p =
yt+2(p−1)+1 , unde p ≥ 1.
12 Restrângem discuţia la subspaţiul Z , vezi pagina 72.
01
92 4 Aplicaţii
x x h 2 i
y
h 2
(u u + uy uy ) + · · · + (ux
1 2 1 2
x y
h−1 uh + uh−1 uh ) ≤ ∑ uxp + uyp = BS (u, u),
p=1
s
Fie u = ∑ uk ∈ E, uk ∈ Vk , 0 ≤ k ≤ s. Atunci, pe baza inegalităţilor (4.15), (4.16),
k=0
(4.20), (4.22), obţinem dubla estimare — vezi [14, pag. 145, Lemma] —
s
(vpmin − ε ) · BS (u, u) = (vpmin − ε ) · ∑ BS (uk , uk )
k=0
s
≤ ∑ BS (Uk (uk ), uk )
k=0
= BS (T (u), u)
≤ (vpmax + ε ) · BS (u, u).
Detaliile care urmează presupun cunoştinţe de bază despre teoria sistemelor di-
ferenţiale liniare [1, 2].
Exerciţiul 4.1. Find dat numărul pozitiv ω , să se rezolve ecuaţia diferenţială ordi-
nară
d2x
+ ω 2 x = 0, t ≥ 0. (4.23)
dt 2
Soluţia exerciţiului 4.1. Transformăm ecuaţia (4.23) ı̂n sistemul diferenţial de or-
dinul ı̂ntâi
′
x1 x d
= A· 1 , ′
= ,
x2 x2 dt
unde
4.5 Exerciţii rezolvate 93
0 1
A= .
−ω 2 0
pTC (λ ) = det (A − λ · I2 ) = λ 2 + ω 2 = 0.
şi
S2 = { f , σ ( f )}, f = x + i · y ∈ C2 , x, y ∈ R2 ,
unde f este vectorul propriu corespunzător valorii proprii λ a matricei A. Ele sunt
folosite pentru aducerea matricei A la forma canonică Jordan (reală şi complexă).
Astfel, plecând de la descompunerea
avem relaţiile
TC (i1 ) TC (i2 ) = i1 i2 · A
şi
TC ( f ) TC (σ ( f )) = f σ ( f ) ·W1
λ 0
= f σ( f ) · ,
0λ
94 4 Aplicaţii
Introducem matricele
p1 p2 r r
P1 = , P2 = 1 2
p3 p4 r3 r4
şi
(x y) = i1 i2 · P2 = P2 , (4.25)
de unde
λ 0 α β
A = P1 · · P1−1 = P2 · · P2−1 . (4.26)
0λ −β α
Observăm că, la fiecare din sistemele precedente, ultimele două ecuaţii sunt echi-
valente cu primele două ecuaţii. Atunci, sistemelor — cu câte o infinitate de soluţii
fiecare —
iω · p1 = p3 − ω · r2 = r3
−iω · p2 = p4 , ω · r1 = r4
p1 = p2 = 1, p3 = −p4 = iω , r1 = r2 = 1, r3 = −r4 = −ω .
Am ajuns la
1 1 1 iω 1
P1 = , P1−1 = · (4.28)
iω −iω 2ω i iω −1
şi
1 1 1 ω −1
P2 = , P2−1 = · . (4.29)
−ω ω 2ω ω 1
Testarea vectorilor proprii. Conform (4.24), vectorul f este dat de prima coloană
a matricei P1 ,
1 1 0
f = = x+i·y = +i· (4.30)
iω 0 ω
= z1 · i1 + z2 · i2 , z1 = 1, z2 = iω .
Deducem că
z
(TC − λ · I) ( f ) = i1 i2 · (T − λ · I2 ) · 1
z2
−iω 1 1
= I2 ·
−ω 2 −iω iω
0
= = 0C2 .
0
Relaţiile (4.25) arată că vectorii x, y din (4.30) alcătuiesc coloanele matricei P2 ,
ceea ce, la prima vedere, nu pare adevărat. În fapt, cum sistemele algebrice (4.27) au
o infinitate de soluţii, vectorii ı̂n discuţie alătuiesc coloanele uneia dintre matricele
P2 posibile! Introducând matricea
1 0
P2nou = (x y) = ,
0ω
stabilim că
0 1 1 0
A · P2nou = ·
−ω 2 0 0ω
0 ω
=
−ω 2 0
1 0 0 ω
= ·
0ω −ω 0
α β
= P2nou · .
−β α
96 4 Aplicaţii
statisface egalităţile
z
(TC − λ · I) (u) = i1 i2 · (T − λ · I2 ) · 3
z4
−iω 1 1+i
= I2 · ·
−ω 2 −iω − ω + iω
= 0C2 ,
etA
1 1 cos(ω t) + i sin(ω t) 0 1 iω 1
= · ·
iω −iω 0 cos(ω t) − i sin(ω t) 2ω i iω −1
sin(ω t)
1 2iω cos(ω t) 2i sin(ω t) cos(ω t) ω
= = .
2ω i −2iω 2 sin(ω t) 2iω cos(ω t) −ω sin(ω t) cos(ω t)
etA
1 1 cos(ω t) sin(ω t) 1 ω −1
= · ·
−ω ω − sin(ω t) cos(ω t) 2ω ω 1
sin(ω t)
1 2ω cos(ω t) 2 sin(ω t) cos(ω t) ω
= = .
2ω −2ω 2 sin(ω t) 2ω cos(ω t) −ω sin(ω t) cos(ω t)
şi
Soluţia exerciţiului 4.3. Începem cu calculul valorilor proprii ale matricei A a sis-
temului liniar, unde
−1 −3
A= .
0 2
unde T = A.
La fel ca ı̂n rezolvarea Exerciţiului 4.1, introducem matricea
98 4 Aplicaţii
p1 p2
P= ∈ M2 (R)
p3 p4
astfel ı̂ncât
λ1 0 p1 p2 −1 0
P· =
0 λ2 p3 p4 0 2
−p1 2p2
= (4.33)
−p3 2p4
=A·P
−1 −3 p1 p2
=
0 2 p3 p4
−p1 − 3p3 −p2 − 3p4
= . (4.34)
2p3 2p4
de unde rezultă că p3 = 0 şi p2 = −p4 . Cea de-a doua linie a matricelor din (4.33),
(4.34) nu ne conduce la nimic nou,
−p3 = 2p3
2p4 = 2p4 .
Pentru p1 = p2 = 1, obţinem
1 1
P= = P−1 .
0 −1
respectiv
−3 −3 0 0
(A − λ2 · I2 ) · col(2) P = = .
0 0 −1 0
De asemeni,
R2 = Rcol(1) P ⊕ Rcol(2) P = SpanR col(1) P, col(2) P .
4.5 Exerciţii rezolvate 99
de unde
−t
tA 1 1 e 0 1 1
e =
0 −1 0 e2t 0 −1
−t −t 2t
e e −e
= .
0 e2t
Exerciţiul 4.4. ([24, pag. 34, Example 1]) Să se rezolve sistemul diferenţial liniar
′
x1 = 3x1 + x2
x2′ = −x1 + x2 .
Soluţia exerciţiului 4.4. Începem cu calculul valorilor proprii ale matricei A a sis-
temului liniar, unde
3 1
A= .
−1 1
A = P · D · P−1 + N0 , N20 = O2 .
100 4 Aplicaţii
Aici,
λ 0
D= = λ · I2 , etD = eλ t · I2
0λ
A = D + N0 = λ · I2 + N0 ,
de unde
1 1
N0 = A − 2I2 = .
−1 −1
Exerciţiul 4.5. ([24, pag. 35, Example 3]) Să se rezolve sistemul diferenţial liniar
′
x1 = x1
x′ = −x1 + 2x2
2′
x3 = x1 + x2 + 2x3 .
Soluţia exerciţiului 4.5. Începem cu calculul valorilor proprii ale matricei A a sis-
temului liniar, unde
4.5 Exerciţii rezolvate 101
1 00
A = −1 2 0 .
1 12
unde P ∈ M3 (R). 1
u
Construcţia matricei P. Coordonatele vectorului propriu u = u2 ∈ R3 , cores-
u3
punzând valorii proprii λ1 a matricei A, verifică sistemul algebric liniar
1 1
u 0 00 u 0
(A − λ1 · I3 ) u2 = −1 1 0 u2 = 0 ,
u3 1 11 u3 0
de unde
−u1 + u2 = 0
u1 + u2 + u3 = 0.
Am ajuns la
1 00 1 00
P = 1 0 1 , P−1 = 2 0 1 ,
−2 1 0 −1 1 0
de unde
1 00 10 0 1 0 0 1 0 0
D0 = 1 0 1 0 2 0 2 0 1 = −1 2 0
−2 1 0 00 2 −1 1 0 2 0 2
şi
0 00
N0 = A − D0 = 0 0 0 , N20 = O3 .
−1 1 0
Exerciţiul 4.6. ([24, pag. 36, Example 4]) Să se rezolve sistemul diferenţial liniar
′
x = −x2
1′
x2 = x1
x3′ = −x4
′
x4 = 2x1 + x3 .
Soluţia exerciţiului 4.6. Începem cu calculul valorilor proprii ale matricei A a sis-
temului liniar, unde
0 −1 0 0
1 0 0 0
A=0 0 0 −1 .
2 0 1 0
0 0 −β α
de unde
−iu1 − u2 = 0
1
u − iu2 = 0
−iu3 − u4 = 0
1
2u + u3 − iu4 = 0.
Din primele două ecuaţii rezultă că u2 = −iu1 . Ultimele două ecuaţii ne conduc
la u4 = −iu3 şi — inserând formula lui u4 ı̂n ultima ecuaţie — u1 = 0. Aşadar,
u1 = u2 = 0. Ţinând seama de cea de-a treia ecuaţie a sistemului algebric, deducem
4.5 Exerciţii rezolvate 105
că
0 0 0
0 0 0
Ker (TC − λ · I) = Cu, u=
1 = 1 + i · 0 = x + i · y,
−i 0 −1
de unde, obligatoriu,
0
0
Ker TC − λ · I = Cσ (u) = C
1
i
U4
corespunzând valorii proprii λ1 a matricei A, astfel ı̂ncât vectorii u, U să fie liniar
independenţi peste C. În particular,
ne conduce la
−2U 1 + 2iU 2 = 0
−2iU 1 − 2U 2 = 0
−2U 1 − 2U 3 + 2iU 4 = 0
−4iU 1 − 2U 2 − 2iU 3 − 2U 4 = 0.
Am ajuns la
0 0 01 0 01 0
0 0 1 0 0 10 −1
P=
1
, P−1 = ,
0 0 0 0 10 0
0 −1 1 0 1 00 0
de unde
0 0 0 1 0 1 0 0 00 1 0 0 −1 0 0
0 0 1 0 0 −1 0
D0 = −1 0 0 0 0 1 = 1 0 0
1 0 0 0 0 0 0 1 0 1 0 0 0 1 0 −1
0 −1 1 0 0 0 −1 0 10 0 0 1 0 1 0
şi
0 0 00
0 0 0 0
N0 = A − D0 =
0
, N20 = O4 .
−1 0 0
1 0 00
x ′ = Ax, (4.36)
unde13
x 0 1 0 0 ··· 0
x′
0 0 1
0 ··· 0
x1
..
x′′
0 0 0
1 ··· 0
x= . = , .. A= .. .. .. . (4.37)
.. .. ..
. . . . . . .
xp
x(p−2) 0 0 0 ··· 0 1
x(p−1) −a p −a p−1 −a p−2 · · · −a2 −a1
respectiv
0 −1 0 0 ··· 0
0
λ −1 0 ··· 0
0
0 λ −1 ··· 0
P(b1 , b2 , · · · , b p , λ ) = . .. . . . . .. ...
.. . . . . .
0
0 0 ··· λ −1
b1 b2 b3 · · · b p−1 bp
Au loc relaţiile
P(b1 , b2 , · · · , b p , λ ) = b1 .
şi
respectiv
(A − λ I p )k u = 0C p ,
unde i ∈ 2, k.
Soluţia exerciţiului 4.9. Observăm că
1
(A − λ I p )Ck = (A − λ I p )k u = 0C p ,
(k − 1)!
(A − λ I p )k+1−i Ci = 0C p , i ∈ 1, k.
Adică, soluţia ia valori numai ı̂n subspaţiul Krâlov (ı̂n limba engleză, Krylov subspace) — gene-
rat
S
de matricea A − λ · Ip şi de vectorul u — al λ -eigenspaţiului generalizat al operatorului TC ,
Ker (TC − λ · I)s . Conform [32, pag. 253].
s≥0
110 4 Aplicaţii
pentru orice q ≥ 0, r ≥ 1.
Exerciţiul 4.12. Fie matricea A de forma (4.37) şi λ ∈ C valoare proprie, de multi-
plicitate algebrică r ≥ 1, a acesteia. Atunci, să se arate că vectorii15
1
λ
2
λ di
i
Ck = . , Ck−i = · i Ck , (4.41)
. . k − 1 dλ
λ p−2
λ p−1
15 v (w−v+1)·(w−v+2)·...·w 0
Folosim notaţiile = 1·2·...·v , = 1, unde w ≥ v ≥ 1.
w w
4.6 Soluţii fundamentale 111
−λ 1 0 0 ··· 0 1
0
− λ 1 0 ··· 0
λ
0
0 −λ 1 ··· 0
λ2
(A − λ I p )Ck = . .. .. .. .. .. ..
.. . . . . . .
0 0 0 · · · −λ 1 λ p−2
−a p −a p−1 −a p−2 · · · −a2 − (a1 + λ ) λ p−1
0
0
0
= ..
.
0
−a p − a p−1 λ − · · · − a2 λ p−2 − (a1 + λ ) λ p−1
0
0
0
= .. = 0C p ,
.
0
−det (λ I p − A)
respectiv
de unde
(i+1) k − i − 1 d h (i) i
cj = · c . (4.43)
i+1 dλ j
Mai departe, cea de-a doua relaţie (4.42) ne conduce la — via (4.43) —
−λ 1 0 0 ··· 0
0 −λ 1 0 ··· 0 (i+1)
(i) c
c1
. 0 0 −λ 1 · · · 0 1
..
(k − i − 1) .. = . . . . . . .
.. .. .. .. .. ..
(i) (i+1)
cp 0 0 0 · · · −λ 1 cp
−a p −a p−1 −a p−2 · · · −a2 − (a1 + λ )
−λ 1 0 0 ··· 0 h i
0
−λ 1 0 ··· 0 d (i)
d λ c1
k−i−1 0 0 −λ 1 · · · 0
..
= · . .. .. .. .. .. . .
i + 1 .. . . . . . h i
d (i)
0 0 0 · · · −λ 1 dλ c p
−a p −a p−1 −a p−2 · · · −a2 − (a1 + λ )
112 4 Aplicaţii
d h (i) i d h (i) i
c j+1 = (i + 1)cij + λ c , j ∈ 1, p − 1,
dλ dλ j
care sunt echivalente cu (4.40).
Ultima linie devine
d h (i) i d h (i) i
(i) (i) (i) (i)
0= a p c1 + a p−1 c2 + . . . + a2 c p−1 + a1 c p + (i + 1)c p + λ cp
dλ dλ
d h (i) (i) (i) (i)
i d h
(i)
i
= a p c1 + a p−1 c2 + . . . + a2 c p−1 + a1 c p + c , (4.44)
dλ d λ p+1
(0)
unde c p+1 = λ p . Egalitatea (4.44) rezultă din relaţia
d i+1 d i+1
0= [det ( λ I p − A)] = a p + a p−1 λ + . . . + a2 λ p−2 + a1 λ p−1 + λ p .
dλ i+1 dλ i+1
Soluţia exerciţiului 4.13. Fie k ∈ 1, r fixat. Conform exerciţiului 4.9, ecuaţia (4.35),
reorganizată ca sistem diferenţial cu p ecuaţii de ordinul I, admite soluţia
z
z′
′′
z
z(t) = .. (t) = eλ0 t · C1 + tC2 + · · · + t k−1Ck ,
.
z(p−2)
z(p−1)
unde vectorii Ci i∈1,k
au formulele (4.41).
16 Pentru altă abordare — o tehnică perturbativă, atribuită lui d’Alembert —, vezi [33, pag. 194].
Metoda operaţională de rezolvare a ecuaţiilor diferenţiale liniare este descrisă ı̂n [19, pag. 206 şi
urm.].
4.6 Soluţii fundamentale 113
şi
(A − λ I p )k u = 0C p , u = v + i · w,
şi
k
y(t) = eα t · ∑ t j−1 sin β t · D j + cos β t · E j , t ≥ 0,
j=1
şi
Ds 1 A − α Ip β Ip Ds−1
=
Es s − 1 −β I p A − α I p E s−1
s−1
1 A − α Ip β Ip v
= ,
(s − 1)! − β I p A − α I p w
unde s ∈ 2, k.
iii) În contextul părţii ii), funcţia z : [0, +∞) → C p , cu formula — vezi şi [19, pag.
185] —
k
z(t) = x(t) + i · y(t) = eλ t · ∑ t j−1C j , t ≥ 0,
j=1
114 4 Aplicaţii
Soluţia exerciţiului 4.14. Partea i). Folosim inducţia matematică şi un procedeu
iterativ. Astfel, introducem mărimile — pentru s ≥ 1 —
s
v1 v vs+1 A − α Ip β Ip v
= , =
w1 w ws+1 −β I p A − α I p w
şi
us = vs + i · ws .
Avem
k
0R p A − α Ip β Ip v
=
0R p −β I p A − α I p w
" k−1 #
A − α Ip β Ip A − α Ip β Ip v
= ·
−β I p A − α I p −β I p A − α I p w
A − α Ip β Ip vk
=
−β I p A − α I p wk
şi
(A − λ I p ) uk = [(A − α · I p ) v + (β I p ) w] + i · [(−β I p ) v + (A − α · I p ) w]
= 0C p ,
respectiv — pentru k ≥ 2 —
vk A − α Ip β Ip vk−1
=
wk −β I p A − α I p wk−1
şi
uk = (A − λ I p ) uk−1 , (4.46)
de unde
(A − λ I p )2 uk−1 = (A − λ I p ) uk = 0C p .
17 În particular, soluţiile x şi y iau valori numai ı̂n realificatul spaţiului liniar
" # " #
[ [ s
Ker (TC − λ · I) ⊕
s
Ker TC − λ · I .
s≥0 s≥0
4.6 Soluţii fundamentale 115
A − α Ip β Ip Dk 0 p
= R ,
−β I p A − α I p Ek 0R p
respectiv
k−2
y ′ (t) = eα t · ∑ (t s cos β t) α E s+1 + (s + 1)E s+2 + β Ds+1
s=0
+ (t sin β t) α Ds+1 + (s + 1)Ds+2 − β E s+1
s
+ eα t t k−1 · (cos β t) α E k + β Dk + (sin β t) α Dk − β E k
k−1
= eα t · ∑ (t s cos β t) AE s+1 + (t s sin β t) ADs+1
s=0
= A · y(t), t ≥ 0.
Partea iii). Via (4.46), stabilim că vectorii C j j∈1,k
verifică relaţiile (4.39). ⊓
⊔
x1 (t) = eα0 t cos β0t, x2 (t) = teα0 t cos β0t, · · · , xr (t) = t r−1 eα0 t cos β0t, t ≥ 0,
şi
y1 (t) = eα0 t sin β0t, y2 (t) = teα0 t sin β0t, · · · , yr (t) = t r−1 eα0 t sin β0t, t ≥ 0,
A doua soluţie. Fie k ∈ 1, r fixat. Conform exerciţiului 4.14, partea ii), ecuaţia
(4.35), reorganizată ca sistem diferenţial cu p ecuaţii de ordinul I, admite soluţiile
x
x ′
′′
x k
x(t) = .. (t) = eα0 t · ∑ t j−1 cos β0t · D j − sin β0t · E j , t ≥ 0,
.
j=1
x(p−2)
x(p−1)
şi
y
y′
y′′
k
y(t) = (t) = eα0 t · ∑ t j−1 sin β0t · D j + cos β0t · E j ,
.. t ≥ 0,
.
j=1
y(p−2)
y(p−1)
unde vectorii C j j∈1,k
, cu C j = D j + i · E j , au formulele (4.41).
Remarcăm că primul element al coloanei Ck ∈ C p este 1 ı̂n timp ce coloanele Ci ,
unde i ≤ k − 1, au primul element 0. De aici rezultă că primul element al coloanei
Dk ∈ R p este 1, primul element al coloanei E k ∈ R p este 0 iar coloanele Di , E i , unde
i ≤ k − 1, au primul element 0. Obţinem că
x(t) = t k−1 eα0 t cos β0t, y(t) = t k−1 eα0 t sin β0t, t ≥ 0.
S
unde V j = Ker (TC − λ j · I)s pentru orice j ∈ 1, q. Fiecare soluţie z j poate fi re-
s≥0
prezentată ca ı̂n exerciţiul 4.9. În plus, dacă λ j ∈ C\R pentru un anumit j ∈ 1, q,
atunci sistemul diferenţial (4.36) admite soluţiile x j , y j : [0, +∞) → R p astfel ı̂ncât
Problema Cauchy
( ′
ξ = Aξ , t ≥ 0,
(C j )
ξ (0) = z0 j
admite soluţia (unică) z j ∈ C ∞ ([0, +∞), C p ), unde j ∈ 1, q. Vezi [1, pag. 153, The-
orem 12.2].
Sistemul diferenţial (4.36) fiind liniar, orice combinaţie liniară cu coeficienţi
complecşi — ı̂n particular, suma — a funcţiilor (z j ) j∈1,q ı̂i este soluţie. Egalitatea
q
din (4.47) rezultă din faptul că atât funcţia z cât şi funcţia ∑ z j verifică problema
j=1
Cauchy
η ′ = Aη , t ≥ 0,
(C )
η (0) = z0 .
(A − λ j · I p )k j z0 j = 0C p .
de unde z j (t) ∈ V j , t ≥ 0.
Dacă λ j ∈ C\R pentru un anumit j, atunci
k j
A − α j Ip β j Ip vj 0R p
= ,
−β j I p A − α j I p wj 0R p
şi
kj
y j (t) = eα j t · ∑ t s−1 sin β t · Ds j + cos β t · E s j , t ≥ 0. (4.52)
s=1
Z j (0) = z0 j , j ∈ 1, q.
19Conform [33, pag. 186]. Prezentări asemănătoare pot fi citite ı̂n [22, pag. 83], [19, pag. 179].
Această formă se utilizează la rezolvarea sistemelor diferenţiale liniare prin metoda coeficienţilor
nedeterminaţi [33, pag. 187], [19, pag. 182]. Metoda mai este numită şi a lui L. Euler [19, pag.
138], [33, pag. 144].
4.6 Soluţii fundamentale 119
Soluţia exerciţiului 4.17. Fie B j = e1 j , . . . , er j j o bază a spaţiului liniar complex
S
Ker (TC − λ j · I)s . Atunci, soluţiile Z τ j : [0, +∞) → C p ale problemelor Cauchy
s≥0
( ′
ξ = Aξ , t ≥ 0,
(Cτ j ) τ ∈ 1, r j ,
ξ (0) = eτ j ,
rj
z0 j = ∑ cτ j · eτ j ,
τ =1
ceea ce ne conduce la
rj
Fs j = ∑ cτ j ·Csτ j = F s j c1 j , · · · , cr j j , s ∈ 1, r j .
τ =1
20 Vezi şi [26, pag. 468]. In memoriam, prof. univ. dr. ing. Ioan Aştefanei.
21 Căci, ı̂n caz contrar, orice combinaţie liniară nulă a lor ne va conduce — calculată ı̂n t = 0 — la
o combinaţie liniară nulă a vectorilor bazei B j .
120 4 Aplicaţii
[ s
B j+1 = σ (e1 j ), . . . , σ (er j j ) ⊂ Ker TC − λ j · I ,
s≥0
eτ j = vτ j + i · wτ j , τ ∈ 1, r j .
Ţinând seama de formulele (4.51), (4.52), soluţiile Z τ j : [0, +∞) → R p ale pro-
blemelor Cauchy
(
′
δ = Aδ , t ≥ 0,
(Re Cτ j ) τ ∈ 1, r j ,
δ (0) = vτ j ,
pot fi rescrise ca
rj
Z τ j (t) = eα jt
· ∑ t γ −1 cos β j t · Dγτ j − sin β j t · E γτ j , t ≥ 0,
γ =1
respectiv ca
rj
Z (τ +r j ) j (t) = eα j t · ∑ t γ −1 sin β t · Dγτ j + cos β t · E γτ j , t ≥ 0.
γ =1
2r j
xλ j ,λ j (t) = ∑ cτ j · Z τ j (t), t ≥ 0, aici, xλ j ,λ j (0) = z0 j
τ =1
şi
rj 2r j
H s j = − ∑ cτ j · E sτ j + ∑ cτ j · Ds(τ −r j ) j = H s j c1 j , · · · , c2r j j .
τ =1 τ =r j +1
Fie corpul K ∈ {R, C}, bazele S1 , S2 introduse la pagina 1 şi matricea nesin-
gulară P dată de (1.2).
Fie u, v ∈ E cu expresiile
m m
u= ∑ uSk 1 · ek = ∑ uSk 2 · f k , uS 1 S2
k , uk ∈ K,
k=1 k=1
respectiv
m m
v= ∑ vSk 1 · ek = ∑ vSk 2 · f k , vS 1 S2
k , vk ∈ K.
k=1 k=1
Conform (1.5),
S2 S1 S1
u1 u1 vS
1
2
v1
.. −1 .. .. −1 ..
. = P . , . = P . . (4.53)
uS
m
2
uS
m
1
vS
m
2
vS
m
1
..
. = col(k) P, k ∈ 1, m. (4.54)
vS
m
1
S1
v
1
u · v = BS1 (u, v) = uS 1 .. .
1
1
· · · uS
m . (4.55)
vS
m
1
22 Aici, aplicaţia BS1 : E × E → K este liniară ı̂n primul argument şi antiliniară [20, pag. 11] ı̂n
cel de-al doilea argument [27, pag. 73]. Referitor la BS1 , se folosesc şi denumirile formă biliniară
hermitică [18, pag. 316], respectiv formă hermitic simetrică, conjugat biliniară şi pozitiv definită
[11, pag. 122].
23 Formulă utilizată ı̂n fizică.
24 Conform relaţiilor (1.9), (1.10), există operatorul T ∈ L(E, E) astfel ı̂ncât T = A, de unde Au =
S2
u
−1 1.
= f 1 · · · f m P AP .. ,
uS
m
2
u · Au > 0 (4.57)
S1 t
u1 vS1
1
t .. ..
= A . . t
= A u · v = (Au) · v, u, v ∈ E. (4.58)
uS
m
1
vS
m
1
0 = u · Au − (Au) · u = u · (λ u) − (λ u) · u
(conform (4.1)) = λ − λ kuk22 .
Aşadar, eigenvalorile matricei A sunt reale, deci sistemele liniare şi omogene (1.26),
(1.29) admit soluţii reale nenule. Astfel, eigenvectorii şi eigenvectorii generalizaţi
ai matricei A se găsesc ı̂n SpanR (S1 ).
Pozitivitatea valorilor proprii rezultă din estimările26
λ · kuk22 = u · (λ u) = u · Au > 0.
Partea iii). Fiind date valorile proprii λ 6= µ şi vectorii proprii corespunzători
u, v, deducem că
0 = u · Av − (Au) · v = u · (µ v) − (λ u) · v
= (µ − λ ) (u · v) .
Partea iv). Să presupunem că există eigenvectorul generalizat v ∈ E astfel ı̂ncât
(A − λ · Im )k v = 0E , (A − λ · Im )k−1 v 6= 0E
pentru un anumit 2 ≤ k ≤ m.
Sunt valabile egalităţile
A · (A − λ · Im ) p = [A · (A − λ · Im )] · (A − λ · Im ) p−1
= [(A − λ · Im ) · A] · (A − λ · Im ) p−1 = . . .
= (A − λ · Im ) p · A, 1 ≤ p ≤ k.
26Cum u ∈ SpanR (S1 ), deducem că afirmaţiile acestui exerciţiu rămân valabile atunci când ine-
galitatea (4.57) are loc doar ı̂n SpanR (S1 ).
4.7 Operaţii cu vectori 125
0 < u · Au
h it vS
1
1
= vS 1 S1
1 · · · vm
(A − λ · Im )k−1 A (A − λ · Im )k−1 ...
vS
m
1
vS
1
1
= vS 1 S1
1 · · · vm
A (A − λ · Im )2k−2 ...
vS
m
1
h i vS
1
1
= vS 1 S1
1 · · · vm
A (A − λ · Im )k−2 · (A − λ · Im )k ...
vS
m
1
h i h i
= A (A − λ · Im )k−2 v · (A − λ · Im )k v
= 0.
este număr real pentru orice z1,2 ∈ C dacă şi numai dacă γ = δ .
ii) Presupunem că γ = δ . Următoarele trei afirmaţii sunt echivalente:
1) avem inegalitatea E (A, z1 , z2 ) > 0 pentru orice numere z1,2 ∈ C cu |z1 |2 +
|z2 |2 > 0;
2)28 sunt valabile condiţiile:
α , αβ − γ 2 > 0;
3) inegalitatea E (A, x1 , x2 ) > 0 are loc pentru orice numere reale x1,2 care nu sunt
simultan nule.
iii) Dacă α , β , λ , µ > 0 şi
(α − β )2 (λ − µ )2 > 16 · αβ λ µ ,
E (AB, x1 , x2 ) < 0,
unde29
−1 λ 0 α 0 1 1 −1
A=C C, B= , C= √ .
0 µ 0 β 2 1 1
Soluţia exerciţiului 4.20. Partea i). Folosim identitatea
E (AB, x1 , x2 ) = 0,
cu formula
1
∆= (α − β )2 (λ − µ )2 − 4αβ λ µ ,
4
este pozitiv.
De asemeni, C−1 = C t şi
λ 0
E (A, x1 , x2 ) = E , y1 , y2 = λ y21 + µ y22 > 0,
0 µ
y1 x
unde = C 1 , respectiv
y2 x2
29 Matricea AB este asimetrică. Pentru a obţine acest efect (balans), folosim rotaţia C de 45◦ la
K = R.
u · v = u1S2 · · · uS
m
2 G ... ,
vS
m
2
unde G = P t · P, respectiv
G = (gi j )1≤i, j≤m = f i · f j 1≤i, j≤m
.
oricare ar fi 1 ≤ i, j ≤ m. ⊓
⊔
f (u) = a · u, u ∈ E,
m
unde a = ∑ aS 1
k · ek ∈ E. În particular, ţinând seama de (4.54), avem
k=1
S1
a
t 1.
f ( f k ) = aS1 S1
1 · · · am
· col(k) P = col(k) P .. , k ∈ 1, m,
aS
m
1
respectiv
S1
f ( f 1) a1
.. t ..
. = P . . (4.60)
f ( f m) aS
m
1
f ( f 1)
−1 ..
(conform (4.60)) = f 1 · · · f m P−1 P t .
f ( f m)
f(f )
−1 . 1
= f 1 · · · f m G .. ,
f ( f m)
Fk ( f i ) = δki , 1 ≤ i, k ≤ m.
Aici, δki desemnează simbolul lui Kronecker. De asemeni, via (4.59), introducem
m
vectorii ak = ∑ aS 1
ki · ei ∈ E cu proprietatea că
i=1
S1
u1
Fk (u) = ak · u = aS 1 .. ,
k1
1
· · · aS
km .
u ∈ E, k ∈ 1, m. (4.61)
uS
m
1
unde k ∈ 1, m. ⊓
⊔
ak · f i = Fk ( f i ) = δki , 1 ≤ i, k ≤ m. (4.63)
34
t P reprezintă matricea de schimbare de bază a vectorilor — se trece de la S1 la S2 —,
Cum
P−1 desemnează matricea de schimbare de bază a covectorilor — când se trece de la duala C1
a bazei S1 la duala C2 a bazei S2 — [20, pag. 13].
35 Vezi [15, pag. 66-5].
130 4 Aplicaţii
S3 = {a1 , · · · , am }
36 În cazul m = 3, se ı̂ntâlneşte şi denumirea triplu produs scalar [35, pag. 10].
37 Vezi [7, pag. 70].
38 Vezi [7, pag. 92].
4.7 Operaţii cu vectori 131
Soluţia exerciţiului 4.25. Dezvoltăm după ultima linie determinantul din (4.64).
Astfel, observăm că — aici, DS i
1
desemnează cofactorul39 elementului uS
i
1
[21,
pag. 9] —
S1
m u1
1 ..
F(u) = ∑ uSi 1 · DSi 1 = DS
1
1
· · · DS
m .
i=1
uS
m
1
!
m
= ∑ DSi 1 · ei · u. (4.66)
i=1
Concluzia rezultă din (4.55) pe baza unicităţii reprezentării ca produs scalar a co-
vectorului F. ⊓⊔
Exerciţiul 4.26. (Produsul scalar dintre produsul vectorial şi factorii săi) Produsul
vectorial le este ortogonal factorilor săi,
m−1
bi · ∏ bk = 0, i ∈ 1, m − 1.
k=1
Soluţia exerciţiului 4.26. Remarcăm faptul că determinantul din (4.64) este nul da-
că ultima linie a sa este o combinaţie liniară a celorlalte linii [18, pag. 132]. Astfel,
SpanR b1 , · · · , bm−1 ⊆ Ker F.
De asemeni, dacă vectorii (bk )k∈1,m−1 sunt liniar dependenţi peste R, atunci Ker F =
E. ⊓⊔
Soluţia exerciţiului 4.27. Liniar dependenţa acestor vectori este echivalentă cu fap-
tul că măcar una dintre primele m − 1 linii ale determinantului (4.65) poate fi repre-
zentată ca o combinaţie liniară a celorlalte m − 2 linii — dintre primele m − 1 linii cu
intrări scalare
—.Combinaţia liniară se păstrează ı̂n toţi minorii folosiţi la calculul
numerelor DS i
1
. Deci, dacă produsul vectorial este nenul, atunci factorii a-
i∈1,m
cestuia sunt liniar independenţi.
Dacă factorii sunt liniar independenţi, atunci putem adapta demonstraţia Lemei
1.1 pentru a stabili că produsul vectorial este nenul. Vezi şi [18, pag. 139, Corolarul
2.4]. ⊓⊔
39 Se utilizează şi denumirile de complement [23, pag. 289] ori complementar algebric al elemen-
tului uS 1
i [18, pag. 133].
132 4 Aplicaţii
Exerciţiul 4.28. (Produsul mixt dintre produsul vectorial şi factorii săi) Are loc i-
dentitatea
!
m−1
m−1
2
b1 , b2 , · · · , bm−1 , ∏ bk =
∏ bk
.
k=1
k=1
2
Exerciţiul 4.29. (Baza reciprocă via produsul vectorial şi produsul mixt) Dacă m ≥
3, atunci vectorii (ai )i∈1,m , introduşi ı̂n (4.61), au următoarele expresii40
f × f ×···× f
a1 = (−1)m−1 · 2 f 3,··· , f m ,
( 1 m)
m−i f 1 × f 2 ×···× f i−1 × f i+1 × f i+2 ×···× f m
ai = (−1) · , i ∈ 2, m − 1, (4.67)
( f 1 ,··· , f m )
am = f 1 × f 2 ×···× f m−1 .
( f 1 ,··· , f m )
Soluţia exerciţiului 4.29. Fac următoarea afirmaţie: fiind daţi vectorii ( f i )i∈1,m din
(4.63), care alcătuiesc o bază a spaţiului liniar E, există cel mult o familie (ai )i∈1,m
cu proprietatea că ak · f i = δki pentru orice i, k.
Într-adevăr, ı̂n caz contrar ar exista seturile de vectori (bi )i∈1,m , (ci )i∈1,m , unde
m
ci = ai − bi = ∑ cS 1
i j · e j , pentru care
j=1
bk · f i = δki , ck · f i = 0, 1 ≤ i, k ≤ m,
respectiv
f 1 × f 2 × · · · × f i−1 × f i+1 × f i+2 × · · · × f m · w
= f 1 , f 2 , · · · , f i−1 , f i+1 , f i+2 , · · · , f m , w
= (−1)m−i · f 1 , f 2 , · · · , f i−1 , w, f i+1 , · · · , f m , w ∈ E. (4.69)
Pentru a proba partea a doua a dublei egalităţi anterioare, transformăm primul pro-
dus mixt ı̂n cel de-al doilea cu ajutorul a m − i permutări de linii.
În sfârşit, via (4.68), (4.69), vectorii din partea dreaptă a egalităţilor (4.67) —
notaţi bi , unde 1 ≤ i ≤ m — verifică relaţiile bk · f i = δki pentru orice i, k, ceea ce
ı̂ncheie demonstraţia. ⊓ ⊔
ck = f k − bk , ck · ai = 0, 1 ≤ i, k ≤ m.
b1 · f 1 b1 · f 2 · · · b1 · f m
b2 · f 1 b2 · f 2 · · · b2 · f m
.. .. ..
= . . · · · . ,
bm−1 · f bm−1 · f · · · bm−1 · f
1 2 m
u· f1 u· f2 ··· u· fm
b1 · f 1 b1 · f 2 · · · b1 · f m
b2 · f 1 b2 · f 2 · · · b2 · f m
m
1 .. .. ..
= ∑ uS j · . . ··· .
j=1 bm−1 · f 1 bm−1 · f 2 · · · bm−1 · f m
f S1 f2Sj 1 · · · fmSj1
1j
b1 · f 1 b1 · f 2 · · · b1 · f m
b2 · f 1 b2 · f 2 · · · b2 · f m
m
.. .. ..
= ∑ . . ··· . · e j · u,
j=1
bm−1 · f 1 bm−1 · f 2 · · · bm−1 · f m
f S1 f2Sj 1 · · · fmSj1
1j
de unde
!
m
F(u) = b1 , · · · , bm−1 , u = ∑ BF S
j
1
· e j · u, u ∈ E, (4.74)
j=1
pentru
b1 · f 1 b1 · f 2 · · · b1 · f m
b2 · f 1 b2 · f 2 · · · b2 · f m
.. .. ..
. . ··· .
bm−1 · f 1 bm−1 · f 2 · · · bm−1 · f m
f S1 f2Sj 1 ··· fmSj1
1j
BF S 1
j = , j ∈ 1, m.
f 1, · · · , f m
De asemeni43 ,
c · a c · b
V
V V
a × b × c = − c × d × a × b = d · a d · b ,
d ∈ E.
a b
Soluţia exerciţiului 4.34. Vectori liniar dependenţi. Dacă există λ ∈ R astfel ı̂ncât
a = λ · b, atunci
a × b = 0E = a × b × c
= λ · b·c b− b·c b = λb ·c b− b·c λb
= (a · c) b − b · c a.
42 Vezi [17, pag. 33]. Se ı̂ntâlneşte şi denumirea triplu produs vectorial [35, pag. 12] pentru canti-
tatea a × b × c .
43 Reorganizarea egalităţii (4.75) ne permite generalizarea sa. Vezi exerciţiul 4.42.
44 Altă soluţie a acestui caz este oferită de exerciţiul 4.42: scriem produsul c × a × b ı̂n baza
a, b, a × b .
4.7 Operaţii cu vectori 137
0 0 a, b, c
1
a×b ×c = · c · a c · b c2 ,
a, b, c a b c
Soluţia exerciţiului 4.35. Vectori liniar dependenţi. Dacă există λ ∈ R astfel ı̂ncât
c = λ · d, atunci c × d = 0E şi
a×b · c×d = 0
a · d a · d
= λ ·
b · d b · d
a · λ · d a · d
= .
b · λ · d b · d
Exerciţiul 4.36. Fie m = 3. În contextul exerciţiilor 4.21, 4.23, matricea G−1 este
simetrică şi admite reprezentările45
1
G−1 = 2
f 1, f 2, f 3
f 2 × f 3, f 2, f 3 f 1, f 2 × f 3, f 3 f 1, f 2, f 2 × f 3
× f 3 × f 1 , f 2 , f 3 f 1 , f 3 × f 1 , f 3 f 1 , f 2 , f 3 × f 1 (4.81)
f 1 × f 2, f 2, f 3 f 1, f 1 × f 2, f 3 f 1, f 2, f 1 × f 2
a1 , f 2 , f 3 a2 , f 2 , f 3 a3 , f 2 , f 3
1
= · f 1 , a1 , f 3 f 1 , a2 , f 3 f 1 , a3 , f 3 (4.82)
f 1, f 2, f 3 f , f ,a f , f ,a f , f ,a
1 2 1 1 2 2 1 2 3
= (ai · a j )i, j∈1,3 . (4.83)
Soluţia exerciţiului 4.36. Formula (4.81). Inversa matricei G = (gi j )i, j∈1,3 are ex-
presia
11 21 31
G G G
1
G−1 = · G12 G22 G32 ,
det G
G13 G23 G33
Soluţia exerciţiului 4.37. Fie (wi )i∈1,3 coordonatele vectorului w ı̂n baza46 S3 . De-
ducem că — via exerciţiul 4.23 şi reprezentarea (4.82) —
3
w= ∑ wi · ai
i=1
" #
a1 , f 2 , f 3 f 1 , a1 , f 3 f 1 , f 2 , a1
= w1 · · f1+ · f2+ · f3
f 1, f 2, f 3 f 1, f 2, f 3 f 1, f 2, f 3
" #
a2 , f 2 , f 3 f 1 , a2 , f 3 f 1 , f 2 , a2
+ w2 · · f1+ · f2+ · f3
f 1, f 2, f 3 f 1, f 2, f 3 f 1, f 2, f 3
" #
a3 , f 2 , f 3 f 1 , a3 , f 3 f 1 , f 2 , a3
+ w3 · · f1+ · f2+ · f3
f 1, f 2, f 3 f 1, f 2, f 3 f 1, f 2, f 3
3 3 3
∑ i i 2 3
w · a , f , f f 1 ∑ i i 3
, w · a , f f 1 2 ∑ i i
, f , w · a
= i=1 · f1 + i=1
· f2+ i=1
· f 3,
f 1, f 2, f 3 f 1, f 2, f 3 f 1, f 2, f 3
Soluţia exerciţiului 4.38. Fie (Wi )i∈1,m şi (wi )i∈1,m coordonatele vectorului w ı̂n ba-
zele S2 , respectiv S3 . Pentru a calcula aceste numere, le aplicăm produsul scalar
relaţiilor
m m
w = ∑ Wi · f i = ∑ wi · ai
i=1 i=1
Exerciţiul 4.39. (Regula lui G. Cramer) Fie w ∈ E. În contextul exerciţiului 4.38,
avem formulele — m ≥ 3 —
respectiv
(w,a2 ,a3 ,··· ,am )
w · f 1 = (a1 ,··· ,am ) ,
(a ,··· ,ai−1 ,w,ai+1 ,··· ,am )
w · f i = 1 (a ,
1 ,··· ,am )
w · f = (a1 ,··· ,am−1 ,w) ,
m (a1 ,··· ,am )
unde i ∈ 2, m − 1.
Soluţia exerciţiului 4.39. Prima soluţie. Folosim estimarea (4.69).
A doua soluţie. Fie (ui )i∈1,m şi (Wi )i∈1,m coordonatele vectorului w ı̂n bazele S1 ,
respectiv S2 . Atunci,
m
W1 W1
. .
w = ∑ Wi · f i = f 1 · · · f m .. = e1 · · · em P · ..
i=1
Wm Wm
u1
= e1 · · · em ... .
um
Formula soluţiei este dată de expresiile [18, pag. 142, Propoziţia 3.3]
det Pi
Wi = , i ∈ 1, m,
det P
unde Pi desemnează matricea obţinută din matricea P prin ı̂nlocuirea celei de-a i-a
coloane cu coloana situată ı̂n partea dreaptă a ecuaţiei (4.84).
Concluzia rezultă din (4.64), (4.68). ⊓ ⊔
Exerciţiul 4.40. (Baza reciprocă ı̂ntr-un hiperplan) Dacă vectorii bi i∈1,m−1 , unde
m ≥ 3, sunt
liniar independenţi peste corpul R, atunci
m−1
i) setul b1 , · · · , bm−1 , ∏ bk alcătuieşte o bază a spaţiului E.
k=1
ii) Vectorii Bi i∈1,m−1 , cu formula — [4, pag. 6] —
4.7 Operaţii cu vectori 141
V
m−1
b1 × · · · × bi−1 × bi × bi+1 × · · · × bm−1 × ∏ bk
k=1
Bi = (−1)m−i ·
, (4.85)
m−1
2
∏ bk
k=1 2
unde 1 ≤ i ≤ m − 1, se găsesc ı̂n hiperplanul H = SpanR b1 , · · · , bm−1 .
iii) Au loc restricţiile de biortogonalitate
Bi · bk = δik , 1 ≤ i, k ≤ m − 1. (4.86)
iv) Setul B1 , · · · , Bm−1 , dat de (4.85), constituie singura familie de vectori din H
care ı̂ndeplineşte restricţia de biortogonalitate (4.86).
Soluţia exerciţiului 4.40. Partea i). Ţinând seama de exerciţiul 4.27, introducem
m−1
vectorul b = ∏ bk 6= 0E .
k=1
Formula (4.68) implică, via exerciţiul 4.28, faptul că determinantul matricei de
schimbare de bază — trecerea de la S1 la setul de vectori din enunţ — are valoarea
m−1
2
∏ bk
> 0.
k=1
2
E = M ⊕ M⊥ (4.87)
bi · b = Bi · b = 0, i ∈ 1, m − 1,
ci · bk = d i · bk = δik , 1 ≤ i, k ≤ m − 1,
atunci seturile
( ) ( )
b b
c1 , · · · , cm−1 ,
2 , d 1 , · · · , d m−1 ,
2
b
b
2 2
sunt baze ale spaţiului E care verifică restricţia de biortogonalitate ı̂n raport cu baza
de la partea i). ⊓⊔
1 0 0 ··· 0 0 0
0 1 0 ··· 0 0 0
.. .. . .. .. ..
.
. · · · .. . .
.
−1 0 ··· 0
=
· 0 1 0 0 .
m−1
4 m−1
∏ bk
0 0 ··· 0 0 − b1 , · · · , bm−2 , bm−1 , ∏ bk 0
k=1 2 k=1
m−1
b1 b2 · · · bm−3 bm−2 bm−1 ∏ bk
k=1
51 Via (4.72), această egalitate este ı̂n concordanţă cu reprezentarea (4.80) a matricei G−1 .
144 4 Aplicaţii
pentru orice U ⊂ E.
ii) Este valabilă dubla egalitate
!
V
m−1
u1 × · · · × ui−1 × ui × ui+1 × · · · × um−1 × ∏ vj
j=1
u1 · v1 u1 · v2 · · · u1 · vm−1
u2 · v1 u2 · v2 · · · u2 · vm−1
.. .. ..
. . ··· .
m−1 V V V
= ∑ (−1)m+k DUik V · vk = − ui · v1 ui · v2 · · · ui · vm−1 (4.91)
k=1
.. .. ..
. . ··· .
um−1 · v1 um−1 · v2 · · · um−1 · vm−1
v1 v2 ··· vm−1
v p = ∑ λr · vr .
r∈I
V V V V
− ui · v1 ··· ui · v p−1 u i · v p − ∑ λr v r ui · v p+1 · · · ui · vm−1 .
r∈I
.. .. .. .. ..
. ··· . ···
. . .
um−1 · v1
· · · um−1 · v p−1 um−1 · v p − ∑ λr vr um−1 · v p+1 · · · um−1 · vm−1
r∈I
v1
··· v p−1 v p − ∑ λr vr v p+1 ··· vm−1
r∈I
Partea ii). Dacă vectorii din setul V sunt liniar dependenţi peste corpul R, atunci,
via exerciţiul 4.27, produsul lor vectorial este nul. Dubla egalitate (4.91) rezultă, ı̂n
acest caz, din partea i). Este suficient, aşadar, să stabilim egalitatea din enunţ atunci
când vectorii din V sunt liniar independenţi.
Pe baza exerciţiilor 4.40, partea i), şi 4.28, respectiv a reprezentării (4.73), dedu-
cem că membrul stâng al dublei relaţii de demonstrat este egal cu
m−1
u1 · v1 u1 · v2 · · · u1 · vm−1 u1 · ∏ v j
j=1
m−1
u ·v
2 1 u2 · v2 · · · u2 · vm−1 u2 · ∏ v j
j=1
.. .. .. ..
. . ··· . .
V
V V V
m−1
ui · v1 ui · v2 · · · u i · v m−1 ui · ∏ v j
1 j=1
2 · . (4.92)
m−1
.. .. .. ..
∏ v j
. . ··· . .
j=1
2 m−1
um−1 · v1 um−1 · v2 · · · um−1 · vm−1 um−1 · ∏ v j
j=1
2
m−1
0 0 ··· 0
∏ v j
j=1
2
m−1
v1
v 2 · · · v m−1 ∏ j v
j=1
m−1
(−1)m+k
V V V V
m−1
∑
m−1
2
· ui · v1 ui · v2 · · · ui · vk · · · ui · vm−1 ui · ∏ v j · vk .
k=1
j=1
∏ v j
j=1
2 .. ..
V
.. ..
..
. . ··· . ··· . .
m−1
V
u
m−1 · v1 um−1 · v2 · · · um−1 · vk · · · um−1 · vm−1 um−1 · ∏ v j
j=1
V
m−1
2
0
0 ··· 0 ··· 0
∏ v j
j=1
2
Soluţia exerciţiului 4.43. La fel ca anterior, este suficient să stabilim egalitatea din
enunţ atunci când vectorii din V sunt liniar independenţi.
Membrul stâng al egalităţii de demonstrat este egal cu
4.7 Operaţii cu vectori 147
!
m−1
u1 , · · · , um−1 , ∏ v j
j=1
m−1
u1 · v1 u1 · v2 · · · u1 · vm−1 u1 · ∏ v j
j=1
m−1
u2 · v1 u2 · v2 · · · u2 · vm−1 u2 · ∏ v j
j=1
.. .. .. ..
. . ··· . .
m−1
1 u ·v ui · v2 · · · ui · vm−1 ui · ∏ v j .
=
· i 1
m−1
2
j=1
.. .. .. ..
∏ v j
. . ··· . .
j=1
2 m−1
um−1 · v1 um−1 · v2 · · · um−1 · vm−1 um−1 · ∏ v j
j=1
m−1
2
0
0 ··· 0
∏ v j
j=1
2
Exerciţiul
4.44. (Identitatea lui C. Jacobi 52 ) Fie m ≥ 3 şi setul de vectori F =
f i i∈1,m ⊂ E. Atunci,
i) (Cazul m = 3) este valabilă identitatea
a × b × c + b × c × a + (c × a) × b = 0E , a, b, c ∈ E. (4.93)
au loc relaţiile
εi jk = sign(k − j)
dacă numărul i este sau cel mai mic sau cel mai mare dintre elementele mulţimii
{i, j, k}, respectiv
εi jk = sign( j − k)
avem53
σ (α ) − σ (β )
εi jk = ∏ α −β
.
1≤α <β ≤3
iv) Vectorii U = ui jk i < j, , cu formula
i, j, k ∈ 1, m
V V
V
satisfac identitatea
m
∑ ∑ εi jk · ui jk = 0E .
1≤i< j≤m k=1
Soluţia exerciţiului 4.44. Partea i). Prima soluţie. Exprimăm termenii sumei din
membrul stâng al expresiei (4.93) cu ajutorul dublului produs
vectorial (4.75).
A doua soluţie. Să presupunem că termenul a × b × c este nenul. Atunci, via
exerciţiul 4.27, setul a, b ⊂ E este liniar independent peste corpul R. Exerciţiul
4.26 ne conduce la relaţiile — vezi (4.87) —
M = R a×b , M ⊥ = SpanR a, b
şi
a × b × c ∈ M⊥
⊆ SpanR a, b, c . (4.94)
53Aici, numerele εi jk desemnează simbolul T. Levi-Civita [35, pag. 15]. Se utilizează şi denumirile
simbol de permutare [21, pag. 9] ori signatura permutării σ [18, pag. 44].
4.7 Operaţii cu vectori 149
Au loc identităţile
S · a = a × b, c, a + c × a, b, a
= c, a, a × b + b, a, c × a
= (c × a) · a × b + b × a · (c × a)
= (c × a) · a × b + − a × b · (c × a)
= 0.
Analog, S · b = S · c = 0.
Partea iv). Folosim tehnica celei de-a doua soluţii de la partea i). Astfel,
m
S= ∑ ∑ εi jk · ui jk ∈ N = SpanR f 1 , f 2 , · · · , f m ⊆ E.
1≤i< j≤m k=1
S· f1
m
= ∑ ∑ ε1 jk · u1 jk · f 1 + ∑ ∑ εi jk · ui jk · f 1
j=2 k∈2,m \{ j} 2≤i< j≤m k∈1,m \{i, j}
m V
= ∑ ∑ ε1 jk · (−1)m−1 · f 1 , f 2 , · · · , f j , · · · , f m , ∏ f β
j=2 k∈2,m \{ j} β ∈1,m \{k}
+ ∑ ∑ εi jk · (−1)m−1
2≤i< j≤m k∈1,m \{i, j}
V V
× f 1, f 1, f 2, · · · , f i, · · · , f j , · · · , f m, ∏ f β (4.95)
β ∈1,m \{k}
=
(−1)
m−1
· ∑ sign(k − j) · ∏ f α· ∏ f β
+0
j, k ∈ 2, m α ∈1,m \{ j} β ∈1,m \{k}
j 6= k
= (−1)m−1 · ∑ −PS jk + PS jk (4.96)
2≤ j<k≤m
= 0,
! !
unde PS jk = ∏ fα · ∏ fβ .
α ∈1,m \{ j} β ∈1,m \{k}
Cazul p = m. În mod analog,
150 4 Aplicaţii
m−1
S· fm = ∑ ∑ εimk · uimk · f m
i=1 k∈1,m−1 \{i}
= ∑ (−PS ik + PS ik )
1≤i<k≤m
= 0.
S· f p
m
= ∑ ∑ εi jk · ui jk · f p
1≤i< j≤m k=1
"
m m
= ∑ ∑ εi jk · ui jk · f p + ∑ ∑ εi jk · ui jk · f p
1≤i< j<p k=1 i<p< j k=1
#
m
+ ∑ ∑ εi jk · ui jk · f p
p<i< j≤m k=1
" # " #
m m
+ ∑ ∑ εipk · uipk · f p + ∑ ∑ ε p jk · u p jk · f p
1≤i<( j=) p k=1 (i=) p< j≤m k=1
= ( 0 — via metoda din (4.95) — )
+ ∑ ∑ + ∑ + ∑ εipk · uipk · f p
1≤i<p
k∈1,i k∈i,p k∈p,m
p<∑
+ ∑ + ∑ + ∑ ε p jk · u p jk · f p
j≤m k∈1,p
k∈p, j k∈ j,m
( " # )
= ∑ ( 0 — via metoda din (4.96) — ) + ∑ εipk · uipk · f p
1≤i<p k∈p,m
p<∑ ∑
+ +( 0 — via metoda din (4.96) — ) ε p jk · u p jk · f p .
j≤m
k∈1,p
Aşadar,
S· f p
= ∑ ∑ εipk · uipk · f p + ∑ ∑ ε p jk · u p jk · f p
1≤i<p p<k≤m p< j≤m 1≤k<p
! !
= ∑ ∑ uipk · f p + ∑ ∑ u p jk · f p
1≤i<p p<k≤m p< j≤m 1≤k<p
= ∑ ∑ (−1)m−p+1 · ∏ f α· ∏ f β
1≤i<p p<k≤m α ∈1,m \{i} β ∈1,m \{k}
+ ∑ ∑ (−1)m−p · ∏ f α· ∏ f β
p< j≤m 1≤k<p α ∈1,m \{ j} β ∈1,m \{k}
= (−1) m−p
· ∑ ∑ (−PS vw + PS vw )
1≤v<p p<w≤m
= 0,
(−1)m−1
b1 = · a2 , b j = a j+1 , j ∈ 2, m − 1.
(a1 , · · · , am )
(u, v1 , v2 , · · · , vm−1 ) = 0
uS
m
2
S1
u
1.
= (v · w) e1 · · · em .. .
S1
um
55 Produsul tensorial fiind o aplicaţie multiliniară, vezi [15, pag. 13-3], este necesar să avem K = R
Partea iv). Prima egalitate rezultă din (4.58), ţinând seama de faptul că matricea
v⊗v este simetrică — via partea i) —. Pentru cea de-a doua egalitate folosim partea
ii).
Partea v). Prin calcul direct, pe baza definiţiilor (4.98), (4.56).
Partea vi). Aplicăm partea ii). ⊓ ⊔
respectiv
f j ⊗aj f k ⊗ ak = Om , 1 ≤ j 6= k ≤ m.
ai = A f i , f i = B ai , i ∈ 1, m.
Soluţia exerciţiului 4.49. Partea i). Simetria matricelor A, B rezultă din exerciţiul
4.48, partea i). Fiind dat vectorul nenul u ∈ E, avem — via acelaşi exerciţiu, partea
iv) —
m m
u · Au = ∑ u · [(ai ⊗ ai ) u] = ∑ (u · ai )2 . (4.99)
i=1 i=1
Cum u 6= 0E , coordonatele sale ı̂n baza S2 — vezi exerciţiul 4.38 — nu pot fi toate
nule, deci u · Au > 057 .
Partea ii). Observăm că, pe baza exerciţiului 4.30, este suficient58 să stabilim
prima dintre egalităţi.
Fie v ∈ E. Atunci, — apelând, din nou, la exerciţiul 4.38 —
!
m m
∑ f i ⊗ ai − Im v= ∑ (ai · v) f i − v
i=1 i=1
= v − v = 0E .
Vectorul v fiind arbitrar, demonstraţia se ı̂ncheie căci Om este singura matrice pentru
care Om v = 0E indiferent de v.
Partea iii). Deducem că — exerciţiul 4.48, partea iii), şi (4.63) —
AB = ∑ (ai ⊗ ai ) f j ⊗ f j = ∑ ai · f j ai ⊗ f j
1≤i, j≤m 1≤i, j≤m
m
= ∑ ak ⊗ f k = Im ,
k=1
Partea iv). Folosim exerciţiul 4.48, partea iii), şi restricţia de biortogonalitate
(4.63).
Partea v). La prima egalitate, — via partea i) —,
m m m
Afi = ∑ (ak ⊗ ak ) f i = ∑ ak · f i ak = ∑ δki ak
k=1 k=1 k=1
= ai , i ∈ 1, m.
unde 1 ≤ i ≤ m. ⊓
⊔
Exerciţiul 4.50. Fie A ∈ Mm (R) o matrice simetrică şi strict pozitiv-definită. Dacă59
57 Matricea A fiind simetrică, valabilitatea relaţiei (4.57) ı̂n SpanR (S1 ) implică strict pozitiv defi-
nirea acesteia, vezi [15, pag. 8-7, Fact 1].
58 Altă justificare a celei de-a doua egalităţi: ı̂i aplicăm operaţia de transpunere primeia dintre
f i · A f j = δi j , i, j ∈ 1, m, (4.100)
atunci
i) setul f 1 , · · · , f m ⊂ E este liniar independent peste corpul R.
ii) Sunt valabile identităţile
m
A = ∑ Afk ⊗ Afk ,
k=1
m m
Im = ∑ A f k ⊗ f k = ∑ f k ⊗ A f k ,
k=1 k=1
m
A−1 = ∑ f k ⊗ f k .
k=1
Soluţia exerciţiului 4.50. Partea i). Dacă ar exista numerele (αi )i∈1,m ⊂ R, nu toate
nule, astfel ı̂ncât
m
∑ α j · f j = 0E ,
j=1
atunci
!
m m
0 = f i · A0E = f i · A ∑ αj · f j = ∑ αj · fi ·Af j
j=1 j=1
m
= ∑ δi j α j , 1 ≤ i ≤ m,
j=1
respectiv
" #
m m
∑ A f k ⊗ f k − Im u = ∑ f k · u A f k − Im u
k=1 k=1
= u − u = 0E .
Mai departe,
!
m m
A ∑ f k ⊗ f k − Im u = ∑ f k · u A f k − Im u
k=1 k=1
= u − u = 0E
şi
" ! #
m m
∑ f k ⊗ f k A − Im u = ∑ f k · Au f k − Im u
k=1 k=1
m
= ∑ Afk ·u fk −u
k=1
= u − u = 0E ,
Exerciţiul 4.51. Fie A ∈ Mm (R) o matrice simetrică şi strict pozitiv-definită. Dacă
(λi )i∈1,m sunt valorile proprii, nu neapărat distincte, ale matricei iar (ui )i∈1,m , unde60
ui · u j = δi j pentru orice i, j ∈ 1, m, sunt eigenvectorii corespunzători, atunci au loc
egalităţile61
60 Vectorii proprii corespunzând valorilor proprii distincte sunt ortogonali, conform exerciţiului
4.19, partea iii). Eigenvectorii corespunzând aceleiaşi valori proprii pot fi ortonormaţi folosind
procedeul J. Gram–E. Schmidt [18, pag. 352, exerciţiul 2].
61 Adică, reprezentările spectrale ale operatorilor liniari respectivi, T =
∑ λ · Pλ , conform [20,
λ ∈Σ (T )
pag. 260, Theorem 2.10]. În cazul spaţiilor Hilbert generale, acest rezultat face parte din teorema
spectrală pentru operatori normali [34, pag. 84, Teorema 2.3.6].
4.7 Operaţii cu vectori 157
m
A = ∑ λk · (uk ⊗ uk ) ,
k=1
m
Im = ∑ uk ⊗ uk ,
k=1
m
A = ∑ λ1 · (uk ⊗ uk ) ,
−1
k=1 k
respectiv62
m
u · Av = ∑ λk · (u · uk ) (v · uk ) , u, v ∈ E.
k=1
ai = Im ui = ui , 1 ≤ i ≤ m.
m
62 Numerele (u · ur )r∈1,m ⊂ R, din dezvoltarea u = ∑ (u · ur ) ur , se mai numesc şi coeficienţi J.
r=1
Fourier ai vectorului u ∈ E ı̂n raport cu baza (ur )r∈1,m [27, pag. 79].
63 Baza reciprocă a unei baze ortonormate [11, pag. 122] coincide cu aceasta.
Referinţe Bibliografice
159
160 Referinţe Bibliografice
27. Rudin, W.: Analiză reală şi complexă, Ediţia a treia. Editura Theta, Bucureşti (1999)
28. Schouten, J.A.: Tensor analysis for physicists. Clarendon Press, Oxford (1951)
29. Schwabl, F.: Quantum mechanics, Fourth edition. Springer-Verlag, Berlin (2007)
30. Shilov, G.E.: Linear algebra. Dover Publications, Inc., New York (1977)
31. Şilov, G.E.: Analiză matematică, Spaţii finit-dimensionale. Editura Ştiinţifică şi Enciclopedi-
că, Bucureşti (1983)
32. Trefethen L.N., Bau, D.III: Numerical linear analysis. SIAM, Philadelphia (1997)
33. Valiron, G.: Cours d’analyse mathématique, Tome II, Équations fonctionnelles, Applications.
Masson et Cie, Paris, 1945
34. Vasilescu, F.H.: Iniţiere ı̂n teoria operatorilor liniari. Editura Tehnică, Bucureşti (1987)
35. Wong, C.W.: Introduction to mathematical physics, Methods & concepts, Second edition.
Oxford University Press, Oxford (2013)
Index
161
162 Index