Documente Academic
Documente Profesional
Documente Cultură
A. Di Canto
a.a. 2003-04
Indice
Prefazione v
I. Geometria I 1
4. Sistemi lineari 17
4.1. Leliminazione di Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
5. Applicazioni lineari 21
5.1. Applicazioni lineari e matrici . . . . . . . . . . . . . . . . . . . . . . . . . 24
5.1.1. Traccia e trasposta di una matrice . . . . . . . . . . . . . . . . . . 26
5.2. Gruppo Lineare di uno spazio vettoriale . . . . . . . . . . . . . . . . . . . 27
5.3. Endomorfismi e matrici simili . . . . . . . . . . . . . . . . . . . . . . . . . 28
6. Determinanti 31
6.1. Applicazioni del determinate . . . . . . . . . . . . . . . . . . . . . . . . . 34
7. Autovalori ed autovettori 37
7.1. Endomorfismi diagonalizzabili . . . . . . . . . . . . . . . . . . . . . . . . . 39
7.1.1. Il polinomio minimo . . . . . . . . . . . . . . . . . . . . . . . . . . 39
7.2. Endomorfismi triangolabili . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
II. Appendici 55
iii
Indice
A. Lo Spazio Euclideo 57
A.1. Alcune proprieta dei triangoli . . . . . . . . . . . . . . . . . . . . . . . . . 59
A.2. Prodotto Vettoriale e prodotto misto nello Spazio Euclideo tridimensionale 62
iv
Prefazione
Le pagine seguenti contengono una serie di appunti usati da me per i corsi tenuti dal
prof. Benedetti e dal prof. Manfredini di Geometria Iper fisica.
In quanto scritti da uno studente, potranno risultare incompleti in alcune parti e non
sempre molto chiari, nonostante tutta la mia buona volonta; per ogni dubbio o perples-
sita vi rimando quindi alle voci bibliografiche e allaiuto di un professore (cosa sempre
saggia).
v
Prefazione
vi
Parte I.
Geometria I
1
1. Gruppi, Anelli, Campi
Definizione 1.1. Sia G 6= e sia + : G G G; (G, +) e un gruppo se:
x, y, z G (x + y) + z = x + (y + z)
(proprieta associativa)
G|xG +x=x+ =x
(esistenza dellelemento neutro per +, 0)
x G x G | x + x = x + x =
(esistenza dellopposto, x x)
x, y G x+y =y+x
(proprieta commutativa)
xG +x=x+ =x 0 + x = x + 0 = x
quindi = + 0 = 0 + = 0
x, y, z G (x y) z = x (y z)
(proprieta associativa per )
G|xG x=x=x
(esistenza dellelemento neutro per , 1)
x, y, z G (x + y) z = x z + y z)
x (y + z) = x y + x z)
(proprieta distributiva)
3
1. Gruppi, Anelli, Campi
x, y G xy =yx
(proprieta commutativa)
x K r {0} x K | x x = x x = 1
(esistenza dellinverso, x x1 )
R X X | x1 Rx2 (x1 , x2 ) R
xx xX
(riflessivita)
x1 x2 x2 x1
(simmetria)
x1 x2 x2 x3 x1 x3
(transitivita)
[x] = {y X | y x} X
X/ = {[x] | x X}
x6x xX
(riflessivita)
x1 6 x2 x2 6 x1 x1 = x2
(antisimmetria)
x1 6 x2 x2 6 x3 x1 6 x3
(transitivita)
4
la relazione si dice di ordine totale se inoltre:
x1 6 x2 x2 6 x1 x1 , x2 X
(K, +, ) e un campo
5
1. Gruppi, Anelli, Campi
6
2. Spazi e sottospazi vettoriali
Definizione 2.1. Uno spazio vettoriale sul campo di scalari Ke un insieme V 6=
munito di due operazioni, + : V V V ; : V K V tali che:
(v) = ()v v V, , K
(v + w) = v + w (v + w) = v + w
v, w v, K (distributivita)
v1 w1 v1 + w1
+ : Kn Kn Kn v = ... , w = ..
. 7 v+w
..
.
vn wn vn + wn
v1
: Kn K Kn v ...
vn
(Verificare che si tratta di uno spazio vettoriale e semplice)
7
2. Spazi e sottospazi vettoriali
8
2. Mentre la base canonica di m Kn e fatta dalle matrici
0 0 0
.
0 . . . 1 ..
(eij )
.. . . .. . con 1 che occupa li-esima riga e la j-esima colonna
. . . ..
0 0
1 v1 + ... + k vk + vi = 0
Proposizione 2.1. Siano V = Span (x1 , ..., xn ) spazio vettoriale, Y = {y1 , ..., yk } V
un insieme linearmente indipendente, allora n > k.
Dimostrazione . Per ipotesi 1 , ..., n K tali che y1 = 1 x1 + ... + n xn , quindi
y1 , x1 , ..., xn sono un sistema di generatori di V linearmente dipendente. Per il teorema
di estrazione 2.1 y1 , x1 , ..., xn contiene una base: cerco allora un xi dipendente dagli
altri vettori e lo elimino; ripeto loperazione aggiungendo y2 ai vettori restanti, iterando
possono verificarsi due casi:
1. esuarisco i vettori di Y senza esaurire gli xi (o li esaurisco insieme), allora n > k
9
2. Spazi e sottospazi vettoriali
Lemma 2.2. Sia V uno spazio vettoriale e si supponga che esistano due basi, una
costituita da n vettori ed unaltra da m; allora m = n.
Definizione 2.6. Sia V uno spazio vettoriale avente una base di n elementi, diciamo
dimensione di V :
dim V n
Proposizione 2.3. Sia V uno spazio vettoriale di dimensione n, allora ogni n-upla di
vettori linearmente indipendenti e una base di V .
Se, inoltre U W = {0}, diremo che la somma dei due sottospazi e diretta e scriveremo
U W in luogo di U + W .
Teorema 2.2 (di Grassmann). Dati U, W sottospazi dello spazio vettoriale di dimen-
sione finita V , allora
10
e un sistema di generatori di U + W ; dimostriamo che sono linearmente indipendenti:
siano
v = 1 v1 + ... + p vp U W
v = p+1 up+1 + ... + r ur U
v = p+1 wp+1 + ... + s ws W
mostriamo che v + u + w = 0 i = i = i = 0. Ma allora w = v u U perche
u U e v U W U quindi w U W w = 1 v1 + ... + p vp cioe
Dimostrazione . Sia {u1 , ..., up } base di U , completiamola a {u1 , ..., up , wp+1 , ..., wn } base
di V , allora W = Span (wp+1 , ..., wn ) e un supplementare di U ; infatti si ha V = U + W
e, per il teorema 2.2, dim U W = 0, cioe U W = {0}.
11
2. Spazi e sottospazi vettoriali
12
3. Il campo dei numeri complessi C
Definizione 3.1. C {a + ib | a, b R} dove i C | i2 = 1;
in C sono definite le seguenti operazioni:
+:CCC
(a + ib) + (c + id) (a + c) + i(b + d)
:CCC
(a + ib)(c + id) (ac bd) + i(ad + bc)
: C C
z = a + ib 7 z a ib
(coniugazione complessa)
||:CR
|a + ib| z z = a2 + b2
z
z 1 =
|z|2
1. z = z
2. z1 + z2 = z1 + z2 z1 z2 = z1 z2
3. z = z z R
4. z z = 0 z = 0
13
3. Il campo dei numeri complessi C
Teorema 3.1. Siano p0 , p1 K[x] due polinomi sul campo K con p0 6= 0. Allora
Esistono e sono unici due polinomi p, r K[x] con deg r < deg p1 tali che
p0 = qp1 + r
Se n = 0 p0 = 0 distinguiamo 2 casi:
1. m > 0 q = 0 r = a0
a0
2. m = 0 q = b0 r=0
Sia vero ora per deg p0 < n dimostriamo allora che vale anche per n:
ancora due casi:
1. n < m q = 0 r = p0
2. n > m, sia
an nm
p2 (x) = p0 (x) x p1 (x) deg p2 < deg p0 = n
bm
quindi, per ipotesi induttiva, q1 , r con deg r < deg p1 | p2 = q1 p1 + r. Allora
an nm
p0 (x) = (q1 (x) + x )p1 (x) + r(x)
bm
per cui
an nm
q = q1 (x) + x r = r(x)
bm
14
Teorema 3.2 (del resto). Sia p K[x] con deg p = n, x0 K e una radice di p se, e
solo se, q K[x], deg q = n 1 tale che
p(x) = (x x0 )q(x)
Allora:
0 = an n + an1 n1 + ... + a0
= an n + an1 n1 + ... + a0
poiche ai R i = 0...n
= an n + an1 n1 + ... + a0
= p()
15
3. Il campo dei numeri complessi C
16
4. Sistemi lineari
Definizione 4.1. Chiameremo sistema di m equazioni lineari nelle n incognite x1 , ..., xn ,
a coefficienti nel campo K, ogni scrittura del tipo
a11 x1 + . . . + a1n xn = b1
: .. .. ..
. . .
am1 x1 + . . . + amn xn = bm
xn
: Ax = b
17
4. Sistemi lineari
0 0 p1 ? ?
.. .. ..
. . 0 0 0 p2 ? .
.. .. .. .. .. .. .. ..
. . . . . 0 . . ? .
.. .. .. .. .. .. ..
. . . . . . . ? ?
A =
.. .. .. .. .. ..
. . . . . . pr ? ?
.. .. .. .. .. ..
. . . . . . 0 0
.. .. .. .. .. .. .. ..
. . . . . . . .
0 0 0 0 0 0 0 0 0
1. Scambio di due equazioni in un sistema lineare (e quindi di due righe nella corri-
spondente matrice)
Iterando opportunamente queste operazioni si puo ottenere un sistema lineare che abbia
le stesse soluzioni del sistema di partenza, ma con un maggior numero di coefficienti
uguali a zero e quindi un sistema per cui sia piu facile scrivere le soluzioni.
18
4.1. Leliminazione di Gauss
Notiamo che rnk (A|b) = rnk A, quindi per il teorema 4.1, esistono soluzioni che formano
uno spazio di dimensione 0, ossia un solo punto (soluzione unica).
esercizio 4.2: Risolvere, al variare del parametro R il seguente sistema
( 1)x +2y z =0
2x z =0
( + 1)x y +( + 2)z =0
19
4. Sistemi lineari
20
5. Applicazioni lineari
Definizione 5.1. Siano V e W due spazi vettoriali su K, unapplicazione f : V W si
dice lineare o omomorfismo di spazi vettoriali se
1. f (v + w) = f (v) + f (w) v, w V
2. f (v) = f (v) K, v V
Limmagine: Im f {w W | v V, f (v) = w} W
1. Im g f Im g
2. Ker f Ker g f
21
5. Applicazioni lineari
v1 , v2 V, f (v1 ) = f (v2 ) v1 = v2
Dimostrazione . Sia {u1 , ..., uk } una base di Ker f , estendiamola a {u1 , ..., uk , vk+1 , ..., vn }
base di V e poniamo wi = f (vk+i ) per i = 1, ..., nk; dimostriamo che B = {w1 , ..., wnr }
e una base di Im f .
Innanzitutto B e un sistema di generatori, cioe che w Im f v V tale che f (v) = w:
sia
applico la f
0 = 1 w1 + ... + nk wnk
= 1 f (vk+1 ) + ... + nk f (vnk )
= f (1 vk+1 + ... + nk vnk )
e questo ci dimostra che 1 = ... = nk = 0, dato che u1 , ..., uk , v1 , ..., vnk e una base
di V .
22
Corollario 5.4. Date f, g omomorfismi di spazi vettoriali si ha
v = 1 v1 + ... + n vn
1
chiameremo coordinate del vettore v rispetto alla base B il vettore ... Kn .
n
Lapplicazione che associa ad un vettore le coordinate rispetto ad una base B
[ ]B : V Kn
1
7 [v]B ...
v
e un isomorfismo.
23
5. Applicazioni lineari
id : V V
v 7 id(v) v
ove aij indica lelemento posto nella i-esima riga e nella j-esima colonna della tabella.
Indicheremo con m Kn linsieme di tutte le matrici di ordine m n, che formano uno
spazio vettoriale con le operazioni di somma e prodotto per scalari, definite elemento
per elemento (vedi esempio 2.1 pag. 7).
24
5.1. Applicazioni lineari e matrici
allora
n
X
cij = aid bdj i = 1, ..., m, j = 1, ..., t
d=1
Siano V, W due spazi vettoriali con dim V = n, dim W = m allora, tramite lisomor-
fismo di passaggio alle coordinate, Hom (V, W ) 'm Kn .
Fissate le basi B e D rispettivamente di V e W , siano
allora
v_
f
V 3 / f (v) W
_
[ ]B [ ]D
Kn 3 x / Ax = y Km
A
AB = 0 6 A = 0 B = 0
25
5. Applicazioni lineari
esempio 5.4:
3 4 5
A = 7 2 6 = tr A = 14
23 4 9
Definizione 5.9. Chiameremo trasposta lapplicazione lineare
t : m Kn n Km
A = (aij ) 7 tA (aji )
esempio 5.5:
3 1
3 5 7
A= tA = 5 11
1 11 9
7 9
Osservazione: Lapplicazione trasposta ci permette anche di dare una definizione piu
elegante di matrici simmetriche:
Sn = {A n Kn | A = tA}
Proposizione 5.7. Lapplicazione trasposta e un isomorfismo.
Dimostrazione . Innanzitutto
Ker t = {A m Kn | tA = 0} = {0}
la trasposta e iniettiva, quindi
dim Im t = dim m Kn
26
5.2. Gruppo Lineare di uno spazio vettoriale
Dimostrazione .
(A1 A)B = B
B 1 (A1 A)B = B 1 B = I
(B 1 A1 )AB = I
quindi (AB)1 = B 1 A1 .
Definizione 5.11. Diamo una definizione piu appropriata di rango di una matrice
(applicazione lineare):
Possiamo ora mostrare un modo che ci permette di calcolare linversa di una matrice;
innanzitutto vale la seguente
27
5. Applicazioni lineari
applichiamo lalgoritmo di Gauss alla matrice (A|I) fino ad ottenere (I|A1 ), procediamo
2 1 1 1 0 0 2 1 1 1 0 0
(A|I) = 4 1 0 0 1 0 0 1 2 2 1 0
2 2 1 0 0 1 0 3 2 1 0 1
2 1 1 1 0 0
0 1 2 2 1 0
0 0 4 5 3 1
ora riempiamo di zeri anche la parte superiore della diagonale
0 41 3 1
2 1 1 1 0 0 2 1 4 4
1
0 1 2 2 1 0 0 1 0
2 21 12
0 0 4 5 3 1 0 0 4 5 3 1
1 1
14
2 0 0 4 4
1 1
0 1 0 2 2 21
0 0 4 5 3 1
moltiplichiamo le righe r1, r2, r3 rispettivamente per
1 1
14 1 0 0 18 1
18
2 0 0 4 4 8
0 1 0 1
12 12 0 1 0 21 1 1 = (I|A1 )
2 2 2
0 0 4 5 3 1 0 0 1 54 34 14
per cui
1 1
18
8 8
A1 = 12 1
2
1
2
5
4 34 14
28
5.3. Endomorfismi e matrici simili
f
VB / VB
O
id id
VD / VD
f
dove, ai piedi di ogni copia di V , si e indicata la base a cui riferirsi per dedurre la seguente
uguaglianza di matrici. Infatti, la commutativita del diagramma scritto sopra equivale
alluguaglianza
Poiche P GL (n, K), B = {v1 , ..., vn } e una base di V e vogliamo mostrare che e la
matrice di f rispetto a tale base. La relazione P B = AP , significa
n
X n
X
pih bhj = aik pkj (i, j)
h=1 k=1
Quindi si ha
n n n n
! !
X X X X
f (vj ) = f phj wh = phj f (wh ) = phj aih wi
h=1 h=1 h=1 i=1
n n n n
! !
X X X X
= aih phj wi = pih bhj wi
i=1 h=1 i=1 h=1
n n n
!
X X X
= bhj pih wi = bhj vh
h=1 i=1 h=1
29
5. Applicazioni lineari
Dunque, due matrici sono simili se, e solo se, sono matrici di uno stesso endomorfi-
smo1 .
f :V W g:V W
sd 0
diremo che g f B, B 0 basi di V e D, D basi di W tali che MDB (g) = MDB0 (f ).
Consideriamo il diagramma commutativo:
idV f idW
VB 0 / VB / WD / WD 0
Kn / Kn / Km / Km
P B (f )
MD Q
risultera allora
sd 0
g f P GL (n, K), Q GL (m, K) tali che MDB (g) = MDB0 (f ) = Q MDB (f ) P
1
Diremo anche che, dati due endomorfismi f, g
f g g = h f h1
dove h GL (V ).
30
6. Determinanti
Definiamo lapplicazione determinante, det : n Kn K, a partire dalla sua restrizione
alle matrici quadrate di ordine 2 2:
Definizione 6.1.
2 : 2 K2 K
det
a b
7 ad bc
c d
Osservazione: Diamo ora linterpretazione geometrica del det2 : consideriamo due vet-
tori x, y R2 , come si vede dalla figura, il determinante det(x, y) rappresenta larea
orientata del parallelogramma individuato dai vettori x, y.
6 R2
x
1 y
-
p1 det2 I = 1
p2 det2 (C, C) = 0
31
6. Determinanti
dove Aij e la matrice A da cui sono state eliminate la i-esima riga e la j-esima colonna1 .
Definizione 6.3. Sia V uno spazio vettoriale di dimensione n su Ked r > 2 un intero.
Unapplicazione
... V} K
f : |V {z
r volte
si dice multilineare (o, piu precisamente, r-lineare) se e lineare in ciascuno dei suoi
argomenti.
esempio 6.1:
1 3 11
8 2 3 11 3 11
det 3
8 2 = det 3 det +6 det = 6+147492 = 339
5 2 5 2 8 2
6 5 2
Si osservi che, se f e r-lineare, allora f assume il valore 0 non appena uno degli
argomenti e nullo.
f : |S {z
... S} K
r volte
Osserviamo che, se f e una funzione r-lineare e alternante, allora il suo valore cambia
di segno ogni qualvolta si scambino tra loro due degli argomenti.
X
1
Uno sviluppo equivalente e dato dalla scelta di un indice di riga i:
n
det A (1)i+j aij det Aij
j=1
32
Dimostrazione . 1. Per la p2
det(A1 , ..., Ai + Ai+1 , Ai + Ai+1 , ..., An ) = 0
applico la p3
0 = det(A1 , ..., Ai + Ai+1 , Ai , ..., An ) + det(A1 , ..., Ai + Ai+1 , Ai+1 , ..., An )
= det(A1 , ..., Ai , Ai , ..., An ) + det(A1 , ..., Ai+1 , Ai , ..., An )+
+ det(A1 , ..., Ai , Ai+1 , ..., An ) + det(A1 , ..., Ai+1 , Ai+1 , ..., An )
= det(A1 , ..., Ai+1 , Ai , ..., An ) + det(A1 , ..., Ai , Ai+1 , ..., An )
da cui segue
det(A1 , ..., Ai+1 , Ai , ..., An ) = det(A1 , ..., Ai , Ai+1 , ..., An )
2. p2 e 1. 2.
3. Sempre grazie alle proprieta p2 e p3:
det(A1 + Ai , ..., An ) = det(A1 , ..., An ) + det(Ai , ..., An )
= det(A1 , ..., An ) + det(Ai , ..., Ai , ..., An )
= det(A1 , ..., An )
33
6. Determinanti
A B det A = det B
det B = det P 1 AP = det P 1 det A det P = det A det P 1 det P = det A det P 1 P = det A
34
6.1. Applicazioni del determinate
Dimostrazione . Detta Ci li-esima colonna della matrice A, dato che x e soluzione, cioe
x1 C1 + ... + xn Cn = b
= xi det(C1 , ..., Cn )
= xi det A
In molti casi il determinante e un ottimo mezzo per calcolare il rango di una matrice:
In altre parole il teorema degli orlati dice che la matrice A ha rango maggiore o uguale
ad r se uno almeno tra i minori di ordine r di A ha determinante diverso da zero. In tal
caso, il rango di A e esattamente uguale ad r se, e solo se, tutti i minori di ordine r + 1
di A hanno determinate nullo.
Dal teorema 6.3 degli orlati e dalla proposizione 5.8 segue la seguente
35
6. Determinanti
det A = det tA
36
7. Autovalori ed autovettori
In questo capitolo ci occuperemo di trovare basi rispetto alle quali un endomorfismo di
uno spazio vettoriale di dimensione finita ha una matrice particolarmente semplice, piu
precisamente, buona parte di questo capitolo sara dedicata allo studio di quei endomir-
fismi le cui matrici rispetto a determinate basi sono simili ad una matrice diagonale.
Spettro f { K | e autovalore di f }
Dalla definizione 7.1, discende che la costante K e un autovalore se, e solo se,
Ker (f id) ha dimensione positiva, ovvero se, e solo se, det(f id) = 0. Dunque,
per determinare gli autovalori di f , possiamo considerare la funzione 7 det(f ), al
variare di K, e cercare gli zeri di tale funzione; sara quindi
1
Spettro A = { R | det(A I) = 0} = ;2
2
mg dim V
1
In alcuni testi e anche nullita.
37
7. Autovalori ed autovettori
38
7.1. Endomorfismi diagonalizzabili
i Spettro f mgi = mi
39
7. Autovalori ed autovettori
f g I(f ) = I(g)
p(g) = p(h f h1 )
= a0 id + a1 (h f h1 ) + ... + an (h f h1 )n
= a0 id + h a1 f h1 + ...
= h (a0 id + a1 f + ...) h1
= h p(f ) h1 = 0
Teorema 7.2 (di HamiltonCayley). f (x) divide pf (x), cioe pf (x) I(f ).
Il polinomio minimo e esplicitamente calcolabile, mostriamo come:
dati f End (V ), v V sia d > 0 il piu piccolo intero tale che i vettori
pongo allora
f,v (x) xd + d1 xd1 + ... + 0
Sia B = {v1 , ..., vn } una base di V si ha allora che f e il minimo comune multiplo dei
polinomi f,v1 , ..., f,vn
f = m.c.m.(f,v1 , ..., f,vn ) (7.2)
40
7.2. Endomorfismi triangolabili
per cui f,e1 (x) = x3 + 4x2 + x 1, losservazione 7.1.1 ci assicura allora che
f (x) = x3 + 4x2 + x 1
f (x) = (x 1 ) (x k )
dove 1 , ..., k K sono gli autovalori distinti di f , per cui f ha tutte le radici in K e
non ha radici multiple.
Viceversa, per mostrare la , sappiamo che esistono 1 , ..., k K dstinti per cui
possiamo scomporre V in una somma diretta di autospazi
V = V1 ... Vk
41
7. Autovalori ed autovettori
Definizione 7.8. f End (V ) si dice triangolabile se esiste B base di V tale che MBB (f )
e una matrice triangolare superiore.
Passo induttivo (n 1) n:
Innanzitutto, esiste certamente v1 autovettore per f ; sia V1 = Span (v1 ), comple-
tiamo a V tamite somma diretta
V = V1 W
e sia B = {v1 , w2 , ..., wn } base di V dove D = {w2 , ..., wn } e base di W . Per poter
applicare a W lipotesi induttiva occorre che W sia f -invariante2 .
Sia allora g = f|W : W W dove : V W e la proiezione su W , verifico
che g soddisfa lipotesi:
sia
1 ? ?
0
B
MB (f ) = . dove Q = MDD (g) n1 Kn1
. . Q
0
allora
pf (x)
pg (x) = det(Q xI) =
1 x
ma siccome f verifica le ipotesi allora pg (x) e completamente fattorizzabile e ha
tutte le radici in K.
Per ipotesi induttiva esiste D0 = {v2 , ..., vn } base di W che triangola g, quindi
concludiamo che B 0 = {v1 } D0 triangola f .
Corollario 7.5. Sia V un C-spazio, allora tutti gli endomorfismi f End (V ) sono
triangolabili.
Il risultato enunciato nel teorema 7.4 puo essere considerato una forma debole del
teorema ?? di Jordan di cui ci occuperemo nel seguito.
Vi Vi+1 i = 1, ..., n 1
2
Il sottospazio W e f -invariante se f (W ) W
42
7.2. Endomorfismi triangolabili
dim Vi = i i = 1, ..., n
Definizione 7.10. Sia {V1 , ..., Vn } un ventaglio per f , chiamiamo base a ventaglio di V
una base B = {v1 , ..., vn } tale che {v1 , ..., vi } sia base di Vi .
Teorema 7.6. Sia B = {v1 , ..., vn } una base a ventaglio per f End (V ), allora B
triangola f .
Dimostrazione . Posto Vi = Span (v1 , ...vi ), si ha per ipotesi f (Vi ) Vi , per cui esistono
in K aij tali che
f (v1 ) = a11 v1
f (v2 ) = a12 v1 + a22 v2
..
.
f (vn ) = a1n v1 + ... + ann vn
43
7. Autovalori ed autovettori
44
8. Prodotti scalari ed hermitiani
In questo capitolo ci occuperemo unicamente dei casi in cui il campo degli scalari quello
reale, oppure quello complesso, ma le definizioni che daremo hanno senso anche su campi
piu generali e gran parte dei risultati che mostreremo restano validi anche in questi
ambiti. Ce unimportante eccezione che vogliamo segnalare, che e data dai campi di
caratteristica 2, cioe, i campi in cui 1 + 1 = 0.
Un esempio di campo di caratteristica 2 e linsieme F2 = {0; 1}, con le operazioni di
somma e prodotto definite ponendo
0 + 0 = 0 = 1 + 1, 0 + 1 = 1 = 1 + 0, 1 0 = 0 0 = 0 1 = 0, 11=1
dove si puo pensare a 0 ed 1 come rappresentanti rispettivamente dei numeri interi pari
e dispari e ricordare il comportamento di questi numeri rispetto alle operazioni sugli
interi.
A volte gli elementi di F2 sono stati identificati con i due stati di un bit ed i pacchetti
di bit come elementi di uno spazio vettoriale di dimensione finita sul campo F2 .
Non e questa la sede per parlare di campi finiti (dei quali F2 e un esempio) o delle loro
applicazioni, vogliamo solo dire che questo esempio non e isolato, ma esistono infiniti
campi con un numero finito di elementi. Se F e un campo finito, allora F ha pn elementi,
ove p e un qualche numero primo ed n > 1 e, in particolare, per tutti gli elementi x F
si ha
px = |x + {z
... + x} = 0
p addendi
Diamo prima una serie di definizioni generali, che ci serviranno anche nel seguito:
Definizione 8.1. Siano V, W spazi vettoriali sul campo K. Unapplicazione f : V W K
viene detta bilineare se ha le seguenti proprieta:
f (v1 + v2 , w) = f (v1 , w) + f (v2 , w) v1 , v2 V, w W
f (v, w1 + w2 ) = f (v, w1 ) + f (v, w2 ) v V, w1 , w2 W
f (v, w) = f (v, w) = f (v, w) K, v V, w W
Linsieme delle applicazioni bilineari da V W in K con:
Bil (V W , K) { : V W K bilineare}
45
8. Prodotti scalari ed hermitiani
In altre parole, unapplicazione bilineare non e altro che una applicazione 2-lineare
(vedi def. 6.3 pag. 32).
Definizione 8.2. Sia V uno spazio vettoriale su K e sia f : V V K unapplicazione
bilineare, diremo che f e simmetrica se si ha
f (v, w) = f (w, v) v, w V
Dora in poi, per fissare meglio le idee, possiamo considerare K=R:
Definizione 8.3. Dato V spazio vettoriale su K, un prodotto scalare in V e unappli-
cazione : V V K bilineare e simmetrica
esempio 8.1: Il prodotto scalare standard in Rn e definito ponendo
x1 y1
hv, wi x1 y1 + x2 y2 + ... + xn yn ove v = ... , w = ..
.
xn yn
Definizione 8.4. Definiamo ora la forma quadratica Q associata al prodotto scalare
come
Q : V K
v 7 Q (v) = (v, v)
Proposizione 8.1. La forma quadratica Q determina .
Dimostrazione . Si ha infatti che v, w V
(v + w, v + w) = (v, v) + (v, w) + (w, v) + (w, w)
= 2(v, w) + (v, v) + (w, w)
per cui, e qui entra in gioco lipotesi fatta sul campo, se 1 + 1 = 2 6= 0, per ogni coppia
di vettori di V , il loro prodotto scalare e esprimibile tramite la forma quadratica
1
(v, w) = (Q (v + w) Q (v) Q (w))
2
46
8.1. Il caso complesso: prodotti hermitiani
f (v, w) = 0 w W v = 0
47
8. Prodotti scalari ed hermitiani
Rad V
(z v, v) = (z, v) (v, v) = 0
quindi V = Span (v) + Span (v) ; inoltre Span (v) Span (v) = {0} infatti
48
8.2. Basi ortogonali
Definizione 8.13. Una base B = {v1 , ..., vn } di V si dice ortonormale se essa e ortogo-
nale e se kv1 k = 1 i = 1, ..., n.
Teorema 8.1. Per ogni prodotto scalare (hermitiano), esiste una base B di V orto-
gonale per .
Dimostrazione . Procediamo per induzione su dim V = n > 1:
Per n = 1 tutte le basi sono ortogonali
Diamo il teorema vero per n 1, dimostriamo che allora resta vero per n: distin-
guiamo i casi
49
8. Prodotti scalari ed hermitiani
(vi + vj , vi + vj ) = 2(vi , vj ) 6= 0
Per avere una base ortonormale mi basta, come suggerisce il corollario, mi basta dividere
i vettori della base ortogonale per la propria norma.
Generalizziamo ora il lemma 8.6 con il seguente
Teorema 8.3. Sia un prodotto scalare (hermitiano) definito positivo, allora per ogni
W sottospazio di V si ha che
V = W W
dove
50
8.2. Basi ortogonali
Teorema 8.4 (di Sylvester). Sia K=R allora esiste sempre una base B di V per cui
Ii+ () 0
MB () = Ii ()
0 0i0 ()
i+ () > p:
sia W = Span (w1 , ..., wp ), allora preso w W si ha
p
X
(w, w) = (1 w1 + ... + p wp , 1 w1 + ... + p wp ) = i2 (wi , wi ) > 0
i=1
i+ () 6 p:
sia W V tale che dim W = i+ () e |W e definito positivo, posto Z = Span (v1 , ..., vq , z1 , ..., zs ),
si ha
dim W + Z 6 dim V = n
per cui per il teorema 2.2 di Grassmann si ha
ma siccome q = n s p
0 > i+ () p dim W Z
per cui
i+ () 6 p + dim W Z
51
8. Prodotti scalari ed hermitiani
O(n, R) {P GL (n, R) | tP = P 1 }
U(n, C) {P GL (n, C) | tP = P 1 }
52
8.2. Basi ortogonali
Dimostrazione .
Sia ora dim V > 1, e sia v1 un autovettore non nullo di f . Per il lemma 8.7 f applica
Span (v1 ) in se stesso, osserviamo inoltre che |Span (v ) e definito positivo. Per
1
ipotesi induttiva allora esiste una base {v2 , ..., vn } ortogonale di Span (v1 ) fatta
da autovettori di f . Allora
v1
B= , v2 , ..., vn
kv1 k
Analogamente valgono
Teorema 8.7 (Spettrale hermitiano). Sia V uno C-spazio dotato di un prodotto her-
mitiano definito positivo, allora f End (V ) -simmetrico una base ortonormale
B di V fatta da autovettori di f .
53
8. Prodotti scalari ed hermitiani
54
Parte II.
Appendici
55
A. Lo Spazio Euclideo
In questa appendice introdurremo sui vettori dello spazio Rn (o dello spazio affine A su
Rn , se si vuol essere piu precisi) la struttura essenziale dello spazio Euclideo, ovvero il
prodotto scalare standard, struttura che ci permettera di parlare di distanze ed angoli.
Definizione A.1. Il prodotto scalare in Rn e definito ponendo
x1 y1
hv, wi x1 y1 + x2 y2 + ... + xn yn ove v = ... , w = ..
.
xn yn
Osservazione: Si verifica facilmente che un tale prodotto scalare e definito positivo.
Definizione A.2. A partire dal prodotto scalare standard si puo definire la norma
euclidea di un vettore in Rn , ponendo
p
kvk hv, vi v Rn
2. kvk = || kvk R
cio significa che il discriminante di questo trinomio non puo essere positivo e quindi deve
aversi
0 > hv, wi2 hw, wihv, vi ovvero hv, wi2 6 kvk2 kwk2
57
A. Lo Spazio Euclideo
Dimostrazione della proposizione A.1. Osserviamo che le prime due proprieta sono una
facile conseguenza delle proprieta del prodotto scalare, e la loro dimostrazione e lasciata
per esercizio; la terza si puo, invece, dedurre dallequazione (A.1):
osserviamo che kv + wk e kvk + kwk sono due numeri reali maggiori o uguali a zero e
kv + wk2 = hv + w, v + wi
= hv, vi + 2hv, wi + hw, wi
6 hv, vi + 2|hv, wi| + hw, wi
6 kvk2 + 2kvk kwk + kwk2 per (A.1)
2
= (kvk + kwk)
58
A.1. Alcune proprieta dei triangoli
Figura A.1.:
Definizione A.3. Tramite la norma, possiamo introdurre nello spazio affine la distanza
tra coppie di punti, affermando che la distanza euclidea tra due punti P e Q di A, e
uguale a kP Qk.
|hv, wi|
kvk
e uguale alla lunghezza della proiezione ortogonale del vettore v su una retta parallela a
w.
59
A. Lo Spazio Euclideo
Intersezione delle altezze Dire che le tre altezze del triangolo concorrono ad uno stesso
punto, significa dire che esistono tre scalari , e , tali che
v + w0 = w + v 0 = (w0 v 0 )
hv, w0 i hv 0 , w0 i hv 0 , w0 i
1 = ( ) , = ( ) =
hv, vi hv 0 , v 0 i hv, w0 i
hv 0 , w0 i 0 hv 0 , w0 i 0
v (w v 0 ) Span (w) e w (w v 0 ) Span (v)
hv, w0 i hv, w0 i
Intersezione degli assi Un calcolo perfettamente analogo si puo fare per verificare che
i tre assi dei lati del triangolo concorrono ad uno stesso punto. Cio significa
precisamente che esistono tre scalari , e , tali che
v
2 + v 0 = w
2 + w0 = v+w
2 + (w0 v 0 )
w hv, wi v hv, wi
+ (w0 v 0 ) Span (v) e + (w0 v 0 ) Span (w)
2 2hv, w0 i 2 2hv, w0 i
60
A.1. Alcune proprieta dei triangoli
Intersezione delle mediane Dire che le tre mediane del triangolo concorrono ad uno
stesso punto, significa dire che esistono tre scalari , e , tali che
w + ( v2 w) = v + ( w2 v) = (v + wv
2 ) = v+w
2
Intersezione delle bisettrici Ricordiamo che, se due vettori x ed y hanno la stessa lun-
ghezza (kxk = kyk), allora la bisettrice dellangolo tra i due vettori ha la direzione
del vettore x + y.
Dunque, dire che le tre bisettrici degli angoli interni del triangolo concorrono ad
uno stesso punto, significa dire che esistono tre scalari , e , tali che
wv v wv w v w
v+ kwvk kvk =w+ kwvk kwk = kvk + kwk
e si conclude il calcolo.
Bisettrici degli angoli esterni Da ultimo, vogliamo mostrare che sono allineati i tre pun-
ti di intersezione tra la bisettrice dellangolo esterno ed il lato opposto.
Cominciamo quindi col determinare i punti di intersezione tra le rette, ovvero
determinare i valori dei parametri , , , , , per cui si abbia
w wv v wv
w+ + = v, v+ + = w,
kwk kw vk kvk kw vk
v w
= v + (w v)
kvk kwk
61
A. Lo Spazio Euclideo
I tre punti sono allineati se, e solo se, i vettori P3 P1 e P3 P2 sono paralleli e cio e
equivalente allannullarsi del determinante
kwk kvk kwk kw vk kvk kw vk
det kwk kwk 0
kvk 0 kvk
2. (v + w) z = v z + w z
3. (v) w = (v w) = v (w)
4. Identita di Jacobi:
u (v w) + v (w u) + w (u v) = 0
5. v w = 0 v e w sono proporzionali
1
Si osservi che quando alcuni dei lati sono uguali tra loro, allora qualcuno tra i denominatori si annulla.
Cio significa che la bisettrice e parallela al lato opposto ed il punto di intersezione va allinfinito.
Questa affermazione si potrebbe rendere precisa considerando il piano euclideo immerso nel piano
proiettivo.
2
In alcuni testi si trova la notazione v w per indicare il prodotto vettoriale.
62
A.2. Prodotto Vettoriale e prodotto misto nello Spazio Euclideo tridimensionale
6. Identita di Lagrange:
qualunque siano u, v, w R3 e R.
Osserviamo che le due ultime proprieta del prodotto vettoriale permettono di caratte-
rizzare geometricamente il prodotto vettoriale di due vettori in termini dei suoi fattori.
Infatti dalla prima delle due si deduce che il prodotto vettoriale v w deve essere ortogo-
nale ad entrambi i suoi fattori e quindi, se v e w non sono paralleli (ovvero proporzionali),
la direzione del prodotto vettore e completamente determinata.
Infine, dallequazione (A.5), e da quanto visto sul prodotto scalare si deduce
e quindi la norma (ovvero la lunghezza) del prodotto vettoriale coincide con larea del
parallelogramma avente come lati i vettori v e w, in quanto la misura dellaltezza di
tale parallelogramma, relativa al lato v e uguale proprio a kwk sin , come si puo vedere
facilmente da figura A.2.
Figura A.2.:
63
A. Lo Spazio Euclideo
Osservazione: Osserviamo che il prodotto misto hv, w zi = 0 se, e solo se, i tre
vettori sono linearmente dipendenti.
In particolare hv w, vi = 0 = hv w, wi v, w R3 .
Vogliamo mettere in evidenza il significato geometrico del prodotto misto di tre vet-
tori. Applichiamo i tre vettori v, w, z ad uno stesso punto dello spazio e consideriamo il
parallelepipedo avente i tre vettori dati come spigoli (vedi figura A.3): il valore assoluto
del prodotto misto |hv, w zi| coincide con il volume del parallelepipedo.
Figura A.3.:
64
Bibliografia
65