Documente Academic
Documente Profesional
Documente Cultură
A0 = {x ∈ R : 1 ≤ x ≤ 2},
1
si legge: ”A0 è l’insieme di tutti i numeri reali tali che 1 ≤ x ≤ 2”. Notiamo che A0 è un
insieme infinito (cioè, costituito da un numero infinito di elementi).
• Se A e B sono insiemi, diremo che A è un sottoinsieme di B, o che A è contenuto in
B, se ogni elemento di A è anche elemento di B; in tal caso scriveremo:
A ⊆ B.
A ⊆ B se e solo se A ∩ B = A.
2
2 Insiemi numerici
Il termine numero si riferisce sempre a un numero reale, a meno che non indicato altrimenti.
Non daremo la definizione rigorosa di numero reale; in ogni modo ricordiamo che un
numero reale si rappresenta, nella scrittura decimale, da una parte intera seguita, dopo la
virgola, da un numero (eventualmente illimitato) di cifre decimali.
Come già osservato, l’insieme dei numeri reali si denota con il simbolo R. Oltre a R,
ricordiamo i principali insiemi numerici:
3
Corollario La lunghezza della diagonale di un quadrato di lato unitario è un numero
irrazionale.
3 L’insieme Rn
Definiamo Rn come l’insieme delle n−ple ordinate di numeri reali. Le possiamo scrivere
verticalmente, come colonne:
x1
x
n 2
R = : x1 , . . . , xn ∈ R .
...
xn
1
1 0 2
Ad esempio, , sono elementi di R2 , mentre 4
3 ∈ R . Gli elementi di
−4 5
−1
Rn saranno in seguito chiamati vettori colonna. Spesso sarà utile scrivere tali n−ple
orizzontalmente, e diremo dunque che (x1 , . . . , xn ) è un vettore riga di Rn .
4 Equazioni lineari
4.1 Equazioni lineari in una variabile (o incognita)
Sono del tipo:
ax = b,
dove x è la variabile e a, b ∈ R sono numeri reali assegnati. Una soluzione dell’equazione è
un numero reale x̄ che, sostituito a x, soddisfa l’equazione: ax̄ = b. Risolvere l’equazione
significa trovare tutte le sue soluzioni (se esistono).
4
4.2 Equazioni lineari in due variabili
Denotiamo con x, y le due variabili. Si ha:
ax + by = c
con a, b, c ∈ R. I numeri a, b sono detti i coefficienti , mentre c è detto il termine noto. Una
soluzione è una coppia ordinata di numeri reali che soddisfa l’equazione data. Scriveremo
x̄
una soluzione come un elemento di R2 , diciamo : dunque si deve avere
ȳ
ax̄ + bȳ = c.
Vediamo ora come risolvere questo tipo di equazioni. Se i coefficienti a, b non sono entrambi
nulli avremo sempre infinite soluzioni.
x + 3y = 5.
x = 5 − 3t
(
x = 5 − 3t
e quindi l’insieme delle soluzioni è dato da con t parametro reale. Osserviamo
y=t
che una soluzione è un elemento di R2 , e possiamo scrivere l’insieme delle soluzioni nel
modo seguente:
5 − 3t
Sol(S) = :t∈R .
t
In particolare, abbiamo infinite soluzioni (una per ognivalore
di t scelto). Ad esempio
5 −1
t = 0 dà la soluzione mentre t = 2 dà la soluzione , e cosi’ via. Diremo che in
0 2
questo caso abbiamo infinito alla uno soluzioni ( in breve ∞1 soluzioni) perchè l’insieme
delle soluzioni dipende da un solo parametro. È chiaro che, se c’è almeno un coefficiente
diverso da zero, ogni equazione lineare in due variabili ammette ∞1 soluzioni.
5
4.3 Equazioni lineari in numero arbitrario di variabili
Siano x1 , . . . , xn variabili reali. Discutiamo l’equazione:
a1 x1 + · · · + an xn = b,
dove a1 , . . . , an sono i coefficienti dell’equazione e b è il termine noto. Una soluzione è una
n−pla ordinata di numeri che, sostituiti alle variabili, soddisfano l’equazione.
Osservazione Se almeno uno dei coefficienti è diverso da zero abbiamo sempre infinite
soluzioni. Più precisamente l’equazione ammette ∞n−1 soluzioni, nel senso che l’insieme
delle soluzioni dipende da n − 1 parametri indipendenti. Possiamo procedere in questo
modo:
• Supponiamo che ai 6= 0. Assegnamo a piacere i valori delle variabili diverse da xi (in
numero, sono n − 1) e risolviamo rispetto a xi .
Il calcolo è terminato.
Osserviamo però che potevamo procedere diversamente: anche il coefficiente della y è
diverso da zero, dunque possiamo assegnare a x e z valori fissati x = s1 , z = s2 e ottenere
y = −x + 3z + 2 = −s1 + 3s2 + 2. In conclusione, le soluzioni saranno
x = s1
y = −s1 + 3s2 + 2
z = s2
6
al variare di s1 , s2 , e le possiamo scrivere in forma vettoriale:
s1
Sol(S) = −s1 + 3s2 + 2 : s1 , s2 ∈ R . (2)
s2
Sembrerebbe che, guardando le espressioni (1) e (2), abbiamo ottenuto risultati diversi: in
realtà entrambe le procedure sono corrette, e gli insiemi infiniti a secondo membro delle
espressioni (1) e (2) sono infatti uguali, sebbene presentati (o parametrizzati) in modo
diverso. In altre parole, si può verificare che ogni terna del primo insieme appartiene
anche al secondo,
e viceversa. Ad esempio, scegliendo t1 = 1, t2 = 2 in (1) otteniamo la
7
soluzione 1; tale terna si ottiene anche dalla (2) per i valori s1 = 7, s2 = 2.
2
si può riscrivere 2x1 + x2 + 0x3 − 3x4 = 7, mostrando che x3 è, per cosi’ dire, una variabile
”fantasma”, che può assumere qualunque valore, senza alterare l’equazione.
In ogni modo, il coefficiente di x2 è non nullo e possiamo risolvere rispetto a x2 . Poniamo
x1 = t1 , x3 = t2 , x4 = t3 e otteniamo quindi le soluzioni:
x1 = t 1
x = −2t + 3t + 7
2 1 3
x3 = t 2
x4 = t 3
ala variare di t1 , t2 , t3 : troviamo, com’era naturale, ∞3 soluzioni.
Infine scriviamo, come al solito, l’insieme delle soluzioni in forma vettoriale (siamo in
R4 ):
t 1
−2t + 3t + 7
1 3 4
Sol(S) = ∈ R : t1 , t2 , t3 ∈ R .
t2
t3
In conclusione, conviene ricordare che
• Un’equazione lineare in n incognite, in cui almeno uno dei coefficienti è non nullo,
ammette sempre ∞n−1 soluzioni.
7
5 Sistemi di equazioni lineari
Vediamo di risolvere il seguente problema:
• trovare due numeri aventi somma 2 e differenza 3.
Detti x e y i due numeri (per ora incogniti) dobbiamo imporre le seguenti condizioni:
(
x+y =2
(3)
x−y =3
La parentesi graffa indica che le due equazioni devono essere soddisfatte contemporanea-
mente. (3) è un esempio di sistema lineare di due equazioni in due incognite. Risolviamo
il sistema osservando che, dalla prima equazione:
y =2−x
8
1) Il sistema non ammette soluzioni (è cioè incompatibile).
2) Il sistema ammette una e una sola soluzione.
3) Il sistema ammette infinite soluzioni.
Esempio L’esempio precedente dà un sistema lineare di due equazioni in due incognite,
che ammette un’unica soluzione (caso 2).
Esempio Il sistema (
x + 3y = 1
x + 3y = 0
è incompatibile.
Esempio Il sistema (
x+y =2
S:
3x + 3y = 6
2−t
ammette infinite soluzioni: Sol(S) = :t∈R .
t
6 Sistemi e matrici
Una matrice m × n è una tabella di mn numeri reali, ordinati secondo m righe ed n
colonne. Ad esempio:
√1 2 , 0 −1
5 4 π 3
sono esempi di matrici 2 × 2, mentre:
1 3 5 0
1 −1 0 2
0 21 4 5
è una matrice 3 × 4. Notiamo che una matrice n × 1 altro non è che un vettore colonna di
Rn e una matrice 1 × n è un vettore riga di Rn .
9
6.1 Matrici associate a un sistema lineare
Un sistema lineare di m equazioni in n incognite si puo’ rappresentare mediante quella
che è detta la matrice completa del sistema, cioè la matrice
a11 a12 . . . a1n b1
a21 a22 . . . a2n b2
A0 =
. . . . . . . . . . . . . . .
am1 am2 . . . amn bm
Notiamo che l’ultima colonna corrisponde ai termini noti del sistema. Spesso sara’ impor-
tante considerare la matrice dei coefficienti del sistema, cioè
a11 a12 . . . a1n
a21 a22 . . . a2n
A= ... ... ... ... .
Esempio Il sistema
x − 2y = 3
S : 2x + 2y − z = 4
x − 2z = 0
1 1 0 1 1
Esempio La matrice rappresenta la matrice completa del sistema lin-
2 0 1 −1 2
eare di due equazioni in quattro incognite:
(
x1 + x2 + x4 = 1
2x1 + x3 − x4 = 2
10
6.2 Matrici a scalini
1) Se una riga è nulla, allora tutte le righe ad essa sottostanti sono nulle.
2) Sotto il primo elemento non nullo di ciascuna riga, e sotto tutti gli zeri che lo precedono,
ci sono elementi nulli.
Definizione Il primo elemento non nullo di una riga è detto il pivot della data riga.
Definizione Un sistema lineare si dice a scalini se la sua matrice completa è una matrice
a scalini.
I sistemi a scalini sono facilmente risolubili.
11
1 1 −2 1
è a scalini, poiché la sua matrice completa è a scalini: 0 1 3 0. Il sistema può
0 0 3 6
essere risolto facilmente partendo dall’ultima equazione, e sostituendo ordinatamente il
valore trovato nelle equazioni che lo precedono. Infatti dall’ultima equazione si ha
z = 2.
y = −6
x1 + 2x2 + 3x3 = −1
x3 = 2
0=2
12
Supporremo ora che il sistema a scalini sia compatibile. Nel caso precedente il numero
dei pivot è uguale al numero delle incognite, e abbiamo ottenuto una unica soluzione.
Questo è sempre vero:
Osservazione Se il numero dei pivot è uguale al numero delle incognite (cioè, tutti i
gradini hanno larghezza uno), il sistema ammette un’unica soluzione.
Vediamo ora come procedere negli altri casi.
Matrice completa:
1 1 1 1 1
A0 = 0 0 1 −1 2
0 0 0 1 1
La matrice completa è a scalini, e si vede subito che il sistema è compatibile. I pivot cadono
nella prima, terza e quarta colonna. Consideriamo la variabile che non corrisponde alle
colonne dei pivot: la seconda, cioè x2 . Poniamo x2 = t, parametro indipendente (libero),
e isoliamolo al secondo membro delle equazioni (la prima) in cui compare. Otteniamo il
sistema a scalini:
x1 + x3 + x4 = 1 − t
x3 − x4 = 2
x4 = 1
che, per ogni t fissato, ammette un’unica soluzione, che possiamo trovare risolvendo dal
basso. Otteniamo:
x1 = −3 − t
x = t
2
x3 = 3
x4 = 1
−3 − t
t
1
Dunque, lasciando variare t abbiamo ∞ soluzioni, date da Sol(S) = :t∈R .
3
1
13
Diamo ora il procedimento generale se il numero dei pivot è inferiore al numero delle
incognite:
1) Consideriamo le variabili che corrispondono alle colonne in cui non cadono i pivot. Se
r è il numero dei pivot, tali variabili saranno in numero di n − r.
2) Attribuiamo a tali variabili valori arbitrari, diciamo t1 , . . . , tn−r , e portiamole ai secondi
membri delle equazioni in cui compaiono.
3) Il sistema cosi’ ottenuto è a scalini e il numero dei pivot uguaglia il numero delle
incognite rimaste. Dunque, per ogni valore dei parametri t1 , . . . , tn−r , esso ammetterà
un’unica soluzione, e lasciando variare t1 , . . . , tn−r ∈ R avremo ∞n−r soluzioni.
In conclusione, abbiamo il seguente risultato.
Osservazione Se il dato sistema a scalini è compatibile, allora il numero dei pivot della
sua matrice completa coincide con il numero di righe non nulle, cioè con il numero delle
equazioni significative del sistema.
sono due pivot e cinque incognite, dunque esso ammetterà ∞3 soluzioni. Le variabili
non corrispondenti ai pivot sono x2 , x4 , x5 : poniamo dunque x2 = t1 , x4 = t2 , x5 = t3 e
portiamo tali variabili a secondo membro. Otteniamo il sistema a scalini:
(
x1 + 2x3 = −t1 + 3t2 − t3
x3 = 4 − t2 − 2t3 .
14
Risolvendo dal basso, otteniamo le ∞3 soluzioni:
x1 = −8 − t1 + 5t2 + 3t3
x2 = t1
x3 = 4 − t2 − 2t3
x4 = t2
x5 = t3
8 Algoritmo di Gauss
L’algoritmo di Gauss è un procedimento che, applicato ad un dato sistema S, permette
di costruire un sistema a scalini S̃ avente lo stesso insieme delle soluzioni del sistema S.
Risolvendo il sistema a scalini S̃ (sappiamo come fare: vedi sezione precedente) abbiamo
cosi’ risolto anche il sistema di partenza.
Definizione Due sistemi lineari si dicono equivalenti se hanno lo stesso insieme delle
soluzioni.
Consideriamo ora le seguenti operazioni su un sistema lineare, dette operazioni elemen-
tari :
1. Scambiare due equazioni del sistema.
2. Moltiplicare un’equazione per uno scalare non nullo.
3. Sommare a una data equazione un multiplo di un’altra equazione del sistema.
È facile vedere che, se applichiamo una qualunque di tali operazioni ad un sistema S,
otteniamo un sistema S 0 avente le stesse soluzioni di S: cioè, le operazioni elementari non
alterano l’insieme delle soluzioni, e producono via via sistemi equivalenti al sistema di
partenza.
15
a) Scambiare due righe della matrice.
b) Moltiplicare una riga per un numero non nullo.
c) Sommare a una data riga un multiplo di un’altra riga della matrice.
Sommare le righe R = (a1 , . . . , an ) e R0 = (b1 , . . . , bn ) della matrice significa sommare le
entrate corrispondenti di R e R0 :
R + R0 = (a1 + b1 , . . . , an + bn ),
9 Serie di esempi
1 1 1 12
Soluzione. La matrice completa del sistema è A = 1 2 −2 1 . Utilizziamo le
2 1 −3 −5
16
operazioni elementari sulle righe per ridurre A ad una matrice a gradini. Il primo passo
è quello di produrre uno zero nella posizione (2, 1). Questo si può fare moltiplicando la
prima riga per −1 e sommando alla seconda (nella notazione simbolica, R2 → R2 − R1 ).
Otteniamo
1 1 1 12
A1 = 0 1 −3 −11 .
2 1 −3 −5
Per definizione, A1 è equivalente per righe ad A.
Ora dobbiamo produrre uno zero nella posizione (3, 1): ciò si può fare moltiplicando per
−2 la prima riga e sommando alla terza (R3 → R3 − 2R1 ). Otteniamo
1 1 1 12
A2 = 0 1 −3 −11 .
0 −1 −5 −29
Infine (ultimo passo) dobbiamo avere uno zero nella posizione (3, 2), e quindi sommiamo
alla terza riga la seconda (operazione: R3 → R3 + R2 ). Il risultato è la matrice a scalini
1 1 1 12
à = 0 1 −3 −11 .
0 0 −8 −40
17
A ad una matrice a scalini. Per far partire l’algoritmo, conviene scambiare le prime due
righe tra loro (R1 ↔ R2 ), per avere
1 1 2 2
A1 = 0 3 −1 1 .
1 4 1 0
Per sistemare la prima colonna, dobbiamo avere uno zero nella posizione (3, 1). Dunque
moltiplichiamo la prima riga per −1 e sommiamo alla terza (R3 → R3 − R1 ) ottenendo
1 1 2 2
A1 = 0 3 −1 1 .
0 3 −1 −2
Infine, sottraiamo la seconda equazione dalla terza (R3 → R3 −R2 ), e otteniamo la matrice
a scalini:
1 1 2 2
à = 0 3 −1 1 .
0 0 0 −3
Il sistema lineare S̃ la cui matrice completa è Ã è a scalini, ed è equivalente al sistema di
partenza S. Poichè l’ultimo pivot di à cade nella colonna dei termini noti, il sistema S̃ (e
quindi S) non ammette soluzioni (infatti, l’ultima equazione è 0 = −3). In conclusione S
è incompatibile.
Abbiamo illustrato l’algoritmo di Gauss solamente su esempi. In realtà esso funziona
sempre, e si può usare per dimostrare la seguente
Proposizione Con un opportuno uso delle operazioni elementari sulle righe, è sempre
possibile ridurre una qualunque matrice A a una matrice a scalini à ad essa equivalente
per righe. In particolare, ogni matrice è equivalente per righe a una matrice a scalini.
18
Se il sistema è di piccole dimensioni conviene operare direttamente sulle equazioni, senza
passare per la matrice completa.
Moltiplichiamo la prima equazione per − 12 e sommiamo alla seconda. Dopo aver moltipli-
cato la seconda equazione per 2 otteniamo il sistema a scalini:
(
2x + y − 3z = 2
3y + 5z = 0
10 Le matrici
10.1 Definizione ed esempi
Una matrice a p righe e q colonne (brevemente, di tipo p × q) è una tabella di numeri reali
disposti su p righe e q colonne, cioè:
a11 a12 . . . a1q
a21 a22 . . . a2q
. . . . . . . . . . . .
ap1 ap2 . . . apq
L’elemento di posto (i, j) è l’elemento aij che compare sulla riga i−esima e la colonna
j−esima della matrice. Si scriverà
A = (aij ).
√
1 2 5 2 −1
1 2 3 4 −1 1 0 7 −2
Esempi di matrici: , 4 5 6 , , , 2 3 ,
3 4/3 6 0 1 1 4 0 −3
−8 8 9 0 0
4
3 1
−1, , (1, 2, −1).
−1
0
2
19
L’insieme delle matrici p × q (a elementi reali) sarà denotato con il simbolo M (p, q, R)
o anche Mat(p × q).
Una matrice p×q porta con sé p×q ”informazioni”. Ad esempio, date n città C1 , . . . , Cn ,
possiamo costruire la matrice n × n avente elemento aij dato dalla distanza, in chilometri,
di Ci da Cj . Per esercizio, scrivere tale matrice se le città sono Roma, Napoli e Milano.
20
11.1 Somma di due matrici
Date due matrici A = (aij ) e B = (bij ), entrambe di tipo p × q, definiamo la somma A + B
come la matrice di entrate cij date da cij = aij + bij . Anche la matrice somma è di tipo
p × q.
Quindi, sommare due matrici significa semplicemente sommare gli elementi corrispondenti.
1 2 0 3 0 1
Esempio Se A = eB= allora
−5 −2 1 −1 2 0
4 2 1
A+B = .
−6 0 1
1 2 −1 −2
Esempio Se A = eB= allora
−3 6 3 −6
0 0
A+B = = O.
0 0
È facile dimostrare le proprietà 1-2, che sono conseguenza delle analoghe proprietà della
somma di numeri reali. La proprietà associativa afferma in particolare che possiamo
sommare tre matrici date in qualsiasi ordine, e il risultato si potrà scrivere A + B + C,
senza ambiguità.
21
La matrice nulla di cui alla proprietà 3 è la matrice avente tutti gli elementi (entrate)
nulli. La matrice opposta di una data matrice A = (aij ), è la matrice −A = (−aij )
ottenuta cambiando di segno a tutti gli elementi di A. Esempio:
1 2 −1 −2
− = .
−1 0 1 0
22
11.4 Combinazioni lineari di matrici
Con le due operazioni appena introdotte, possiamo formare le combinazioni lineari di due o
piú matrici: se A, B sono matrici, e h, k sono numeri reali, possiamo considerare la matrice
hA + kB (ovviamente dello stesso tipo). Piú in generale, possiamo formare combinazioni
lineari di un numero qualunque di matrici.
1 2 −2 0 10 4
Esempio Se A = ,B = allora 2A − 4B = .
3 1 0 4 6 −14
1 2 −2 0
Esercizio Date A = ,B = , trovare l’unica matrice X di tipo 2 × 2 tale
3 1 0 4
che 2A + 3X = 4B.
1 0
Esempio Ogni matrice 2×2 è una combinazione lineare delle matrici E1 = , E2 =
0 0
0 1 0 0 0 0
, E3 = , E4 = . Infatti:
0 0 1 0 0 1
a b
= aE1 + bE2 + cE3 + dE4 .
c d
23
Esercizio a) Scrivere la generica matrice simmetrica 2 × 2.
b) Scrivere la generica matrice simmetrica 3 × 3.
Esercizio Dimostrare che ogni matrice quadrata si scrive (in modo unico) come somma
di una matrice simmetrica e di una matrice antisimmetrica.
Esercizio Verificare una matrice quadrata a scalini è anche triangolare superiore. Inoltre,
dare un esempio di matrice triangolare superiore che però non è a scalini.
24
13 Prodotto di matrici (righe per colonne)
Definiamo ora un’operazione che associa a due matrici A, B di tipo opportuno una terza
matrice, chiamata prodotto righe per colonne di A e B. Iniziamo dal caso in cui A è un
vettore riga (matrice 1 × n) e B è un vettore colonna (matrice n × 1).
25
Infatti, detti cij gli elementi di AB, abbiamo dalla definizione:
1
c11 = (1, 2) =1
0
−1
c12 = (1, 2) =3
2
...
3
c23 = (3, 4) = 17
2
Esercizio Siano A una matrice 2 × 3 e B una matrice 3 × 3. Stabilire quali dei seguenti
prodotti esiste: AB, BA, AA, BB.
AO = OA = O
per ogni A.
• Diremo che le matrici A e B commutano se AB = BA.
0 1
Esercizio Sia A = . Descrivere l’insieme delle matrici 2 × 2 che commutano con
0 0
A, cioè descrivere la matrice generica B tale che AB = BA.
x y
Soluzione. Partiamo dalla matrice generica 2 × 2, che possiamo scrivere B = .
z w
Imponiamo ora che AB = BA; otterremo un sistema di equazioni che, risolto, mostra che
26
x y
B è del tipo B = , con x, y ∈ R. Dunque, esistono infinite matrici che commutano
0 x
con A, ma non tutte le matrici 2 × 2 hanno questa proprietà.
0 1 2
Esercizio Sia ora A = . Descrivere l’insieme della matrici 2 × 2 che commutano
1 2
con A0 .
x 2z
Soluzione. B = con x, z ∈ R.
z x+z
Proposizione Per ogni terna di matrici A, B, C per le quali i prodotti indicati esistono,
si ha:
1. Proprietà associativa: (AB)C = A(BC).
2. Proprietà distributive rispetto alla somma: A(B + C) = AB + AC, (A + B)C =
AC + BC.
Inoltre il prodotto si comporta in modo naturale rispetto alla moltiplicazione per uno
scalare:
3. Date due matrici A e B e un numero reale h si ha sempre:
27
1 1
1 2 1 0 1
Esercizio Siano A = −1 0 , B =
,C = . Calcolare esplicita-
3 4 2 1 −3
2 3
mente i prodotti: AB, (AB)C, BC, A(BC) e verificare che effettivamente si ha (AB)C =
A(BC).
AIn = A, Im A = A.
28
Consideriamo ora la nozione analoga per le matrici quadrate.
• Diremo che la matrice quadrata A di ordine n è invertibile se esiste una seconda matrice
B di ordine n tale che:
AB = BA = I.
Quando esiste, tale matrice B si denota con A−1 (dimostreremo che è unica). La matrice
A−1 è detta l’inversa di A.
A differenza del caso
deinumeri, non è vero che ogni matrice non nulla è invertibile. Ad
1 2
esempio, la matrice è non nulla, eppure non esiste alcuna matrice X ∈ Mat(2 × 2)
2 4
tale che AX = I.
x y
Infatti, poniamo X = e tentiamo di risolvere l’equazione matriciale AX = I
z w
ovvero:
1 2 x y 1 0
= .
2 4 z w 0 1
Tale equazione si traduce in un sistema lineare:
x + 2z = 1
y + 2w = 0
2x + 4z = 0
2y + 4w = 1
che non ammette soluzioni: la prima e terza equazione sono chiaramente incompatibili.
1 2
Esercizio Dimostrare che la matrice è invertibile, e determinare la sua inversa.
3 4
a 0
Esercizio Si consideri la generica matrice diagonale di ordine 2: D = . Dimostrare
0 d
che D èinvertibilese e solo se a e d sono entrambi diversi da zero. In tal caso l’inversa è
1/a 0
D−1 = . Generalizzare tale risultato alla generica matrice diagonale di ordine
0 1/d
n.
29
Parte 2. Determinante e matrice inversa
A. Savo − Appunti del Corso di Geometria 2013-14
1
Proposizione Date due matrici A, B ∈ M (2, 2, R) si ha sempre det(AB) = det A · det B.
0 0
a b a b
Dimostrazione. È una verifica diretta: siano A = ,B = . Sviluppando sepa-
c d c0 d0
ratamente det(AB) e det A · det B si osserva l’uguaglianza per ogni scelta di a, b, c, d, a0 , b0 , c0 , d0 .
Dimostrazione. Il ”se e solo se” significa che dobbiamo dimostrare l’equivalenza delle due affer-
mazioni. Quindi dobbiamo dimostrare due cose:
a) Se A è invertibile allora det A 6= 0.
b) Se det A 6= 0 allora A è invertibile.
Riguardo alla implicazione a), abbiamo per ipotesi che A è invertibile e dobbiamo dimostrare
che det A 6= 0. Per ipotesi esiste dunque una matrice B tale che AB = I. Applichiamo la
formula di Binet: poiché det I = 1, otteniamo:
Ora det A e det B sono due numeri reali che hanno prodotto uguale a 1: necessariamente ciascuno
di essi è diverso da zero, in particolare det A 6= 0.
Dimostriamo ora l’implicazione b): per ipotesi det A 6= 0 e dobbiamo dimostrare che esiste
a b
una matrice B tale che AB = BA = I. Sia A = e poniamo:
c d
1 d −b
B= .
det A −c a
2
Dunque AB = I; in modo analogo si verifica che BA = I e di conseguenza A è invertibile, con
inversa A−1 = B.
2 3
Esempio La matrice non è invertibile poichè ha determinante nullo.
−4 −6
1 3
Esempio La matrice ha determinante 2: dunque è invertibile. L’inversa è:
1 5
5
− 32
1 5 −3
A−1 = = 2 .
2 −1 1 − 12 1
2
Esercizio Stabilire quali delle seguenti matrici sono invertibili. Se Ai è invertibile, calcolare la
sua matrice inversa.
−2 1 2 1 2 3
A1 = , A2 = , A3 = .
2 0 −4 −2 3 5
2 k
Esercizio Sia A = dove k è un parametro reale. Per quali valori di k la matrice A è
3 5
invertibile? In corrispondenza di tali valori, calcolare esplicitamente A−1 .
Dimostrazione. Per ipotesi det A 6= 0: dunque A ammette matrice inversa A−1 . Moltiplicando
ambo i membri dell’identità AB = AC (a sinistra) per A−1 otteniamo l’asserto. .
3
2.1 Forma matriciale di un sistema
Sia S un sistema lineare di due equazioni in due incognite:
(
a11 x1 + a12 x2 = b1
S: .
a21 x1 + a22 x2 = b2
a11 a12 x1
Detta A = la matrice dei coefficienti, X = il vettore colonna delle incognite
a21 a22 x2
b
e B = 1 il vettore colonna dei termini noti, il sistema si scrive semplicemente:
b2
a11 a12 x1 b
= 1
a21 a22 x2 b2
cioè a dire:
AX = B,
dove AX indica il prodotto righe per colonne delle matrici A e X.
X = A−1 B.
4
2.2 Il teorema di Cramer per sistemi 2 × 2
In conclusione, abbiamo dimostrato il seguente risultato (un caso particolare di quello che sarà
chiamato Teorema di Cramer).
Proposizione Sia S un sistema lineare di due equazioni in due incognite avente forma matri-
ciale AX = B, dove A è la matrice dei coefficienti, X è il vettore colonna delle incognite e B
è il vettore colonna dei termini noti. Se det A 6= 0 il sistema è compatibile e ammette l’unica
soluzione X = A−1 B.
Al momento, nulla possiamo dire a priori nel caso in cui la matrice dei coefficienti abbia
determinante nullo. Di questo ci occuperemo nelle prossime lezioni.
( (
2x1 + x2 = 4 2x1 + x2 = 1
Esempio I sistemi lineari S1 : e S2 : hanno matrice dei co-
4x1 + 2x2 = 8 4x1 + 2x2 = 0
efficienti con determinante nullo: non possiamo applicare il teorema precedente. Discutere le
(eventuali) soluzioni usando il metodo di Gauss.
5
2 −1 4
Esempio Sia A = 0 3 1. Allora le matrici aggiunte dei suoi elementi sono:
2 1 3
3 1 0 1 0 3
A11 = , A12 = , A13 = ,
1 3 2 3 2 1
−1 4 2 4 2 −1
A21 = , A22 = , A23 = ,
1 3 2 3 2 1
−1 4 2 4 2 −1
A31 = , A32 = , A33 = .
3 1 0 1 0 3
Definizione Sia A una matrice 3 × 3, e sia Aij la matrice aggiunta dell’elemento aij . Allora
definiamo
det A = a11 det A11 − a12 det A12 + a13 det A13 .
Osserviamo che sappiamo calcolare i tre determinanti di ordine due che compaiono nella
definizione. Si tratta quindi di moltiplicare ciascun elemento della prima riga per il determinante
della sua matrice aggiunta, e poi sommare, procedendo però a segni alterni. La procedura è
anche detta sviluppo del determinante lungo la prima riga.
2 −1 4
Esempio Calcoliamo il determinante della matrice A = 0 3 1 dell’esempio precedente.
2 1 3
Si ha:
det A = a11 det A11 − a12 det A12 + a13 det A13
3 1 0 1 0 3
= 2 det − (−1) det + 4 det
1 3 2 3 2 1
= 2 · 8 + (−2) + 4(−6)
= −10
quindi det A = −10.
6
Definizione Sia A una matrice n × n, e sia Aij la matrice aggiunta dell’elemento aij . Allora
definiamo
det A = a11 det A11 − a12 det A12 + a13 det A13 − · · · + (−1)n+1 a1n det A1n .
Procedendo al calcolo dei determinanti di ordine tre (è ovviamente sufficiente calcolare solo quelli
che non vengono moltiplicati per 0), otteniamo det A = −84.
4 Teorema di Laplace
Una proprietà notevole del determinante è data dal fatto che esso può essere sviluppato lungo una
qualsiasi riga o colonna, nel senso del seguente teorema, noto come primo teorema di Laplace.
7
detto sviluppo del determinante lungo la h-esima colonna.
Dimostrazione. Omessa.
det A = −a21 det A21 + a22 det A22 − a23 det A23
−1 4 2 4 2 −1
= −0 · det + 3 · det − 1 · det
1 3 2 3 2 1
= 3 · (−2) − 1 · (4)
= −10
det A = a13 det A13 − a23 det A23 + a33 det A33
0 3 2 −1 2 −1
= 4 · det − 1 · det + 3 · det
2 1 2 1 0 3
= 4 · (−6) − 1 · 4 + 3 · 6
= −10
+ − +
Notiamo lo schema dei segni : − + −.
+ − +
Per abbreviare i calcoli, possiamo dunque scegliere la riga (o colonna) con il massimo numero
di zeri.
8
1 0 2 0
1 2 −1 4
Esempio Calcoliamo il determinante della matrice A = 4 0
già considerata in
1 0
1 −3 2 0
precedenza. Conviene sviluppare il determinante lungo l’ultima colonna; dalla proposizione
abbiamo che
det A = a24 det A24
1 0 2
= 4 · det 4 0 1
1 −3 2
= 4 · 3 · (−7)
= −84
dove il determinante di ordine tre è stato sviluppato lungo la seconda colonna.
Dimostrazione. Per matrici di ordine due l’affermazione è immediata. Supponiamo ora che
la matrice abbia ordine 3, e calcoliamo il determinante con lo sviluppo lungo la prima riga.
Osserviamo che tale sviluppo coincide con lo sviluppo del determinante di At lungo la prima
colonna (spiegare perché) e dunque, per il teorema di Laplace, det A = det(At ). Ora è chiaro
come continuare se l’ordine è 4, 5 . . .
Se una matrice è triangolare superiore, o triangolare inferiore, il determinante si calcola im-
mediatamente.
9
Sviluppando lungo la prima colonna:
a22 a23
det A = a11 det = a11 a22 a33 .
0 a33
È chiaro a questo punto che, sviluppando il determinante via via lungo la prima colonna, la
proposizione risulta vera per ogni ordine. Un argomento simile prova l’affermazione nel caso in
cui la matrice sia triangolare inferiore (sviluppare via via lungo la prima riga).
1 5 −9 1 0 0
Esempio Abbiamo det 0 3 7 = 1 · 3 · (−2) = −6 e det 7 0 0 = 0.
0 0 −2 8 15 19
Proposizione Se una matrice ha una riga (o colonna) nulla, allora il suo determinante è nullo.
Dimostrazione. Omessa.
Esercizio Dimostrare che l’uguaglianza det(A + B) = det A + det B non è vera in generale, cioè
possiamo trovare matrici A e B tali che det(A + B) 6= det A + det B.
Esercizio Data una matrice A di ordine n e un numero reale k, dimostrare che det(kA) =
k n det A. (Suggerimento: partire dai casi semplici n = 2 e n = 3 e generalizzare a n arbitrario.)
10
È evidente che a2 = 1 e a3 = 3. Dalla definizione di determinante con lo sviluppo lungo la prima
riga ricaviamo subito la seguente relazione:
an = nan−1 .
6 Matrice inversa
Ricordiamo che una matrice quadrata A si dice invertibile se esiste una matrice quadrata B,
dello stesso ordine, tale che AB = BA = I. Proviamo ora l’unicità dell’inversa.
Proposizione Supponiamo che la matrice quadrata A sia invertibile: allora esiste un’unica
matrice A−1 tale che AA−1 = A−1 A = I. La matrice A−1 è detta l’ inversa di A.
Dimostrazione. Per ipotesi, esiste una matrice B tale che AB = BA = I. Dimostriamo che
B, con tale proprietà, è unica: infatti, supponiamo che esista una ulteriore matrice C tale che
AC = CA = I. Allora si ha
CAB = (CA)B = IB = B
CAB = C(AB) = CI = C
che implica B = C. Possiamo dunque porre A−1 = B.
In questa sezione dimostreremo che una matrice quadrata di ordine n arbitrario è invertibile
se e solo se ha determinante non nullo, generalizzando cosi’ l’analogo risultato già provato per
le matrici di ordine 2. Inoltre daremo una formula esplicita per il calcolo della matrice inversa.
11
Ricordiamo che, dato l’elemento aij della matrice A, la matrice aggiunta di aij , denotata con
Aij , è la sottomatrice di ordine n − 1 ottenuta sopprimendo la i-esima riga e j-esima colonna di
A.
Dimostrazione. Omessa.
La formula si esprime più semplicemente con l’introduzione del complemento algebrico.
Proposizione Sia A una matrice quadrata di ordine n. Allora, per ogni i = 1, . . . , n si ha:
che rappresenta lo sviluppo del determinante lungo la i-esima riga. Inoltre, per ogni k = 1, . . . , n
si ha anche:
det A = a1k ā1k + a2k ā2k + · · · + ank ānk ,
che rappresenta la sviluppo del determinante di A lungo la k−esima colonna.
Dimostrazione. Questo fatto è una conseguenza immediata delle formule per il calcolo del de-
terminante viste nella sezione precedente.
In altre parole, il determinante si può calcolare in questo modo:
• Si sceglie una qualunque riga (o colonna).
• Si moltiplica ciascun elemento della riga (o colonna) scelta per il proprio complemento alge-
brico.
12
• Si somma il tutto.
Diamo ora un’espressione equivalente dell’inversa di una matrice.
Proposizione Sia A = (aij ) una matrice quadrata di ordine n con determinante non nullo.
Allora A è invertibile e l’inversa di A ha la seguente espressione:
1
A−1 = · Āt .
det A
dove Ā = (āij ) indica la matrice dei complementi algebrici di A.
Quindi l’inversa si ottiene prendendo la trasposta della matrice dei complementi algebrici e
1
moltiplicando per .
det A
1 2 3
Esempio Sia A = −1 1 0. Dimostriamo che A è invertibile e calcoliamo la sua matrice
1 1 4
inversa.
Soluzione. Sviluppando lungo la terza colonna, ad esempio, si trova che det A = 6. Calcoliamo
1 0
la matrice dei complementi algebrici. Si ha ā11 = , etc. Tenendo conto dei segni, si ha che
1 4
la matrice dei complementi algebrici è:
−1 0 −1 1
1 0
1 4 − 1 4 1 1
2 3
1 3
1 2
4 4 −2
= −5 1
− 1 4
Ā = − 1
1 4 1 1
2 3
−3 −3 3
− 1 3 1 2
1 0 −1 0 −1 1
1
Dobbiamo ora trasporre Ā e moltiplicare per . La matrice inversa è dunque:
det A
4 −5 −3
1 t 1
A−1 = Ā = 4 1 −3 .
6 6
−2 1 3
13
inversa, procedendo come nel caso precedente, risulta essere:
1 −2 1
A−1 = 0 1 −2
0 0 1
Notiamo che l’inversa è anch’essa triangolare superiore. Questo non è un caso.
• Sia A una matrice triangolare superiore (risp. inferiore) invertibile. Allora A−1 è triangolare
superiore (risp. inferiore).
Esercizio Sia A una matrice diagonale con elementi diagonali d1 , . . . , dn . Verificare che A è
invertibile se e solo tutti gli elementi diagonali sono diversi da zero. In tal caso, l’inversa di A è
la matrice diagonale avente elementi diagonali d11 . . . , d1n .
14
7 Teorema di Cramer (caso generale)
In questa sezione generalizzeremo il teorema di Cramer a sistemi quadrati, cioè di n equazioni
in n incognite, con n arbitrario.
In generale, dato un sistema di m equazioni in n incognite, detta A la matrice dei coefficienti
(di tipo m × n), X il vettore colonna delle incognite (di tipo n × 1) e B il vettore colonna dei
termini noti (di tipo m × 1) possiamo esprimere il sistema nella cosiddetta forma matriciale :
S : AX = B.
det A(i)
xi = , i = 1, . . . , n
det A
dove A(i) è la matrice ottenuta da A sostituendo alla i-esima colonna la colonna dei termini
noti.
La seconda parte del teorema è nota come metodo di Cramer: esso fornisce un’ importante
semplificazione del calcolo della soluzione dato in a).
Esempio Discutere le eventuali soluzioni del seguente sistema lineare nelle incognite x, y, z:
x + 2y + 3z = 1
− x + y = −1
x + y + 4z = 2
15
1 2 3
Soluzione. La matrice dei coefficienti è A = −1 1 0. Un calcolo mostra che det A = 6 6= 0
1 1 4
dunque il teorema garantisce che esiste un’unica soluzione. Applichiamo dunque il metodo di
Cramer descritto nella parte b) del teorema. Si ha:
1 2 3
1 1
x = · det −1 1 0 =
6 2
2 1 4
1 1 3
1 1
y = · det −1 −1 0 = −
6 2
1 2 4
1 2 1
1 1
z = · det −1 1 −1 =
6 2
1 1 2
1
2
e l’unica soluzione è − 21 .
1
2
1
Potevamo trovare la soluzione anche calcolando A−1 e quindi X = A−1 B, dove B = −1 è
2
la colonna dei termini noti. Tale procedura è, normalmente, piú lunga del metodo di Cramer.
Ma poichè abbiamo già calcolato l’inversa (vedi sezione precedente), abbiamo, come verifica:
1
x 4 −5 −3 1 2
1
y = 4 1 −3 −1 = − 12 .
6 1
z −2 1 3 2 2
Esempio Discutere le eventuali soluzioni del seguente sistema lineare nelle incognite x, y, z:
x + 2y + 3z = 1
− x + y = −1
x + 5y + 6z = 0
16
1 2 3
Soluzione. Abbiamo in questo caso, come matrice dei coefficienti: A = −1 1 0. Ma un
1 5 6
calcolo mostra che det A = 0. Dunque non possiamo applicare il teorema di Cramer; il sistema
potrebbe non essere compatibile. In effetti, applicando l’algoritmo di Gauss si può verificare che
S non ammette soluzioni.
Dimostrazione. Poichè det A = det(At ), basta dimostrare le affermazioni riguardo alle righe
della matrice. Daremo la dimostrazione nel caso in cui n = 2, 3: questo darà un idea della
dimostrazione nel caso generale.
a) Questo fatto è immediato dalla definizione se la matrice è 2 × 2. Supponiamo ora che A
abbia ordine 3, e sia A0 la matrice ottenuta da A scambiando fra loro, ad esempio, le prime due
righe. Sviluppiamo il determinante di A0 lungo la terza riga: siccome a) è vera per le matrici
di ordine due, otteniamo che det A0 = − det A. Il generale, se A0 si ottiene da A scambiando
due righe qualunque, basta sviluppare il determinante di A0 lungo la riga non interessata dallo
scambio. È chiaro ora come continuare se l’ordine n = 4, 5, . . . .
Un calcolo mostra che, in effetti, det A0 = det A. È chiaro a questo punto che l’affermazione
è vera per l’ordine n = 2. Il caso n = 3 si riduce al caso n = 2 semplicemente sviluppando il
17
determinante di A0 lungo la riga non interessata dall’operazione (ad esempio, se A0 si ottiene da
A sommando alla seconda riga la prima moltiplicata per k svilupperemo il determinante di A0
lungo la terza riga). Dunque c) è vera per n = 3 e iterando via via l’argomento appena descritto
otteniamo che c) è vera per ogni ordine n.
100 101 102
Esempio Dimostriamo che, se A = 125 126 127, allora det A = 0.
150 151 152
2 2 2 5
2 2 2 5
dunque det A = − det A1 . Ora applichiamo le operazioni R3 → R3 − R1 e R4 → R4 − 2R1 .
Otteniamo
1 −2 1 3
0 1 2 −1
A2 = 0 6 0 −1
0 6 0 −1
18
e det A2 = det A1 = − det A. Ma A2 ha due righe uguali: per la proposizione si ha det A2 = 0 e
quindi anche det A = 0.
19
2 −1 4
Esempio Calcolare il determinante di A = 0 1 1 usando l’algoritmo di Gauss.
2 1 3
R3 → R3 − R1
R3 → R3 − 2R2
2 −1 4
otteniamo à = 0 1 1 che è a scalini, dunque triangolare. Non ci sono scambi di righe:
0 0 −3
concludiamo che det A = det à = −6.
0 1 1 1
1 1 1 0
Esempio Calcolare il determinante di A =
1
usando l’algoritmo di Gauss.
0 1 1
1 1 0 1
0 0 0 3
dunque
det A = − det à = −3.
20
Parte 3. Rango e teorema di Rouché-Capelli
A. Savo − Appunti del Corso di Geometria 2013-14
1
a b c
Esempio A = d e f . Abbiamo nove minori di ordine due:
g h l
a b a c e f
µ12,12 = , µ12,13 = , . . . , µ23,23 =
d e d f h l
2
1 2 4
Esempio A = . Il rango vale 2 (c’è infatti almeno un minore di ordine 2 a
2 4 1
determinante non nullo: quale?).
1 2 −1
Esempio A = 2 0 3 . Il minore µ12,12 ha determinante non nullo, dunque rkA
3 2 2
vale 2 oppure 3. Poichè det A = 0, si ha effettivamente rkA = 2.
Esercizio Verificare che, se tutti i minori di un certo ordine h hanno determinante nullo,
allora tutti i minori di ordine più grande di h avranno determinante nullo.
2 3 1 2
det A = 0. Dunque il rango può valere 2 oppure 3. A questo punto dovremmo esaminare
3
tutti i minori di ordine 3 (sono in tutto 16). Lasciamo in sospeso il calcolo, poiché nella
prossima sezione enunceremo un teorema che ci permetterà di abbreviare i calcoli.
1 0 1 2
1 3 0 0
Esempio Sia ora A =
1 −3 2
. Fissiamo il minore di ordine 2 dato da
4
2 3 1 2
1 0
M = µ12,12 = ,
1 3
ed elenchiamo i minori orlati di M . Essi sono in tutto quattro, e si ottengono aggiungendo,
rispettivamente, elementi dalla:
1 0 1
• terza riga e terza colonna: µ123,123 = 1 3 0,
1 −3 2
1 0 2
• terza riga e quarta colonna: µ123,124 = 1 3 0,
1 −3 4
1 0 1
• quarta riga e terza colonna: µ124,123 = 1 3 0,
2 3 1
1 0 2
• quarta riga e quarta colonna: µ124,124 = 1 3 0.
2 3 2
4
2.2 Teorema degli orlati ed esempi
Enunciamo ora il teorema degli orlati.
Dimostrazione. Omessa.
1 0 1 2
1 3 0 0
Esempio Calcoliamo il rango della matrice A =
1 −3
. Il minore
2 4
2 3 1 2
1 0
M = µ12,12 =
1 3
ha determinante non nullo. Esaminiamo ora i determinanti dei minori orlati di M , che
sono solamente quattro, e sono già stati elencati precedentemente:
1 0 1 1 0 2
1 3 0 = 0, 1 3 0 = 0,
1 −3 2 1 −3 4
1 0 1 1 0 2
1 3 0 = 0, 1 3 0 = 0.
2 3 1 2 3 2
Tutti i minori orlati hanno determinante nullo: possiamo applicare il teorema degli orlati,
e concludere che il rango vale 2.
• È chiaro che, se il determinante di almeno uno dei minori orlati fosse stato diverso
da zero, allora il rango della matrice risulterebbe almeno pari a 3 e avremmo dovuto
continuare, esaminando i minori di ordine 4 (in questo caso, la matrice stessa).
Il teorema degli orlati ha permesso di ridurre i calcoli: invece di considerare tutti i
(sedici) minori di ordine 3, è stato sufficiente considerare solo i quattro minori orlati del
minore precedentemente fissato.
5
Soluzione. È chiaro che il rango vale almeno 1. Per essere proprio uguale a 1, tutti gli
orlati del minore M = (1) devono avere determinante nullo. Otteniamo le condizioni:
1 2 1 3 1 4
x y = x z = x w = 0,
e quindi
y = 2x
z = 3x
w = 4x.
con x parametro reale. Notiamo che le righe (e anche le colonne) sono proporzionali.
• Con un argomento simile, possiamo verificare che una matrice avente solo due righe
ha rango 1 se e solo se è non nulla e ha righe proporzionali. Stessa cosa per le matrici con
due colonne. Ad esempio
1 3
2 3 −1
, 2 6
4 6 −2
−1 −3
2 3 −1
hanno rango 1, mentre ha rango 2.
1 1 −2
Esercizio Dimostrare che il rango di una matrice diagonale è uguale al numero degli
elementi diagonali non nulli.
Esercizio Sia A0 la matrice ottenuta da A aggiungendo una riga (o una colonna). Di-
mostrare che rkA0 ≥ rkA e piú precisamente si ha rkA0 = rkA oppure rkA0 = rkA + 1. In
altre parole, aggiungendo una riga (o colonna) il rango rimane inalterato oppure aumenta
di un’unità (a seconda dei casi).
6
3.1 Il rango di una matrice a scalini
Ricordiamo la definizione di matrice a scalini, già data precedentemente.
Teorema Il rango di una matrice a scalini uguaglia il numero dei suoi pivot.
7
3.2 Rango e operazioni elementari sulle righe
Ricordiamo che le operazioni elementari sulle righe di una matrice sono:
1) Scambiare due righe fra loro.
2) Moltiplicare una riga per uno scalare non nullo.
3) Sommare ad una riga un multiplo di un’altra riga.
Sia A una matrice quadrata, e supponiamo che la matrice A0 si ottenga da A dopo aver
applicato una successione di operazioni elementari sulle righe. Non è difficile dimostrare
che allora anche A si ottiene da A0 mediante una successione di operazioni elementari sulle
righe. Diremo che A e A0 sono matrici equivalenti per righe.
Ricordiamo infine l’algoritmo di Gauss:
• Sia data una qualunque matrice A. Con opportune operazioni elementari sulle righe,
è sempre possibile arrivare ad una matrice à tale che:
1. Ã è equivalente per righe ad A.
2. Ã è a scalini.
à è anche detta una matrice ridotta di A.
Il calcolo del rango mediante l’algoritmo di Gauss si basa sul seguente risultato fonda-
mentale:
Teorema Le operazioni elementari sulle righe non alterano il rango. Quindi, matrici
equivalenti per righe hanno lo stesso rango.
Corollario Sia A una matrice e à una ridotta di A (cioè, una matrice a scalini equivalente
per righe ad A). Allora il rango di A è uguale al numero dei pivot di Ã.
8
Dimostrazione. Dalla proposizione precedente, abbiamo che rkA = rkÃ. D’altra parte,
sappiamo già che il rango di à è uguale al numero dei suoi pivot.
• Osserviamo che, se in una matrice la riga Ri è proporzionale (in particolare, uguale) alla
riga Rj , allora possiamo sostituire Ri con una riga nulla, ottenendo sempre una matrice
equivalente (perché?). In particolare, se tutte le righe sono proporzionali a una data riga
(supposta non nulla), allora il rango vale 1.
1 2 0 −1 2
Esempio Il rango della matrice 2 4 0 −2 4 vale 1.
−2 −4 0 2 −4
9
1 2 3
Esempio Il rango della matrice A = 4 5 6 vale 2 (spiegare perché). In particolare,
7 8 9
det A = 0.
Soluzione. Risolviamo prima con il metodo degli orlati. È chiaro che rkA vale 1 oppure
2. Fissiamo il minore µ1,1 = 1 e consideriamo i determinanti dei suoi minori orlati:
1 k 2
k 4 = 4 − k = (2 − k)(2 + k)
1 4 − k
= (k − 2)2
k 4
Ora, entrambi gli orlati hanno determinante nullo se e solo se k = 2: in tal caso il rango vale
1. Se k 6= 2 il secondo orlato ha determinante non nullo, dunque rkA = 2. Conclusione:
(
1 se k = 2,
rkA =
2 se k 6= 2.
Alla stessa conclusione potevamo arrivare usando l’algoritmo di Gauss. Infatti, riduciamo
A a un matrice a scalini. Per far questo, è sufficiente l’operazione R2 → R2 − kR1 :
1 k 4−k 1 k 4−k
à = =
0 4 − k 2 k 2 − 4k + 4 0 (2 − k)(2 + k) (k − 2)2
Osserviamo
se k 6= 2, abbiamo due pivot, dunque il rango è 2. Se k = 2 si ha
che,
1 2 2
à = quindi il rango è 1. In conclusione:
0 0 0
(
1 se k = 2,
rkA =
2 se k 6= 2.
10
1 k 3
Esempio Calcoliamo il rango di A = 2k 2 6 al variare di k.
−k −1 −3
5 Il teorema di Rouché-Capelli
La nozione di rango ci permette di dimostrare un risultato, di tipo essenzialmente teorico,
sulla compatibilità o meno di un dato sistema lineare. Consideriamo un sistema lineare di
m equazioni nelle n incognite x1 , . . . , xn , che possiamo scrivere in forma matriciale
AX = B,
x1
x2
dove A è la matrice dei coefficienti (di tipo m × n), X = . è il vettore colonna delle
..
xn
incognite e B è il vettore colonna dei termini noti. Il sistema è descritto da due matrici:
la matrice dei coefficienti, appunto, e la matrice completa A0 , ottenuta aggiungendo ad A
la colonna dei termini noti. Chiaramente A0 è di tipo m × (n + 1).
Il teorema di Rouché-Capelli permette di stabilire la compatibilità conoscendo solamente
il rango di A e di A0 . Precisamente:
11
Teorema (Rouché-Capelli) Sia S un sistema lineare di m equazioni in n incognite con
matrice dei coefficienti A e matrice completa A0 . Allora:
a) S è compatibile se e solo se rkA = rkA0 .
Supponiamo ora che S sia compatibile, e poniamo rkA = rkA0 = r. Allora:
b) Il sistema ammette una e una sola soluzione se e solo se r = n.
c) Il sistema ammette ∞n−r soluzioni (cioè infinite soluzioni dipendenti da n−r parametri
indipendenti) se e solo se r < n.
12
Questo dimostra la parte a). Le affermazioni b) e c) si possono dimostrare con lo stesso
procedimento, ma non entreremo nei dettagli.
Esempio Sia
x1 + 2x2 + x4 = 1
S : 2x1 + 4x2 + x3 = 3 .
x1 + 2x2 + x3 − x4 = 2
Un calcolo (usare il teorema degli orlati) mostra che rkA = rkA0 = 2. Dunque il sistema
è compatibile; poiché n = 4 e r = 2 il teorema di Rouché-Capelli afferma che il sistema
ammette ∞2 soluzioni. Verifichiamo il risultato con l’algoritmo di Gauss, riducendo A0 a
una forma a scalini. Con le operazioni R2 → R2 − 2R1 e R3 → R3 − R1 arriviamo alla
matrice:
1 2 0 1 1
A01 = 0 0 1 −2 1 .
0 0 1 −2 1
Con l’operazione R3 → R3 − R2 arriviamo alla forma a scalini:
1 2 0 1 1
Ã0 = 0 0 1 −2 1 .
0 0 0 0 0
13
1 1 0 1 1 α
Soluzione. Si ha A = eA = . Siccome det A = −1 6= 0, il rango di A
2 1 2 1 β
è r = 2 (massimo), dunque il rango di A0 è anch’esso 2. Dal teorema di Rouché-Capelli
otteniamo l’asserto.
x + y + z = 1
Esempio Discutere il sistema S : − x + y + 5z = 0 .
2y + 6z = 0
1 1 1
1 1
Soluzione. A = −1 1 5 ha rango 2: infatti det A = 0 e il minore µ12,12 =
−1 1
0 2 6
1 1 1 1
ha determinante diverso da zero. D’altra parte, la matrice completa A0 = −1 1 5 0
0 2 6 0
ha rango 3, come si vede considerando il minore ottenuto sopprimendo la prima colonna.
Dunque rkA 6= rkA0 e il sistema è incompatibile.
è compatibile.
1 1 1
Soluzione. La matrice dei coefficienti è A = −1 1 5 e ha rango 2, indipendentemente
0 2 6
dai valori di a, b, c. Il sistema sarà dunque compatibile se e solo se rkA0 = 2. Vediamo
quando ciò accade. La matrice completa è
1 1 1 a
A0 = −1 1 5 b
0 2 6 c
14
1 1
Il minore µ12,12 = ha determinante non nullo. Dunque rkA0 = 2 se e solo se tutti
−1 1
i suoi minori orlati hanno determinante nullo, dunque se e solo se:
1 1 1 1 1 a
det −1 1 5 = 0 e det −1 1 b = 0.
0 2 6 0 2 c
Teorema Sia S un sistema lineare compatibile, con matrice dei coefficienti A e matrice
completa A0 (quindi rkA = rkA0 = p per ipotesi). Sia B un minore di A avente ordine
p e determinante non nullo. Allora il sistema S è equivalente al sistema ridotto SR che
15
si ottiene considerando solo le p equazioni corrispondenti al minore B, cioè Sol(S) =
Sol(SR).
Dimostrazione. Omessa.
In effetti, possiamo scartare le equazioni che non corrispondono al minore B fissato,
poiché queste sono conseguenza delle equazioni del sistema ridotto. Il sistema ridotto è
quindi formato dalle equazioni significative di S. Se il rango è basso (rispetto al numero
di righe), possiamo scartare molte equazioni; se il rango è massimo, nessuna: sono tutte
significative.
2x + 2y + 3z = −1
x + y − z = 2
S:
x + y + 4z = −3
3x + 3y + 2z = 1
3 3 2
2 3
e il minore di ordine due dato da B = µ12,23 = ha determinante non nullo.
1 −1
Dunque il sistema ridotto è quello formato dalle prime due equazioni:
(
2x + 2y + 3z = −1
SR : ,
x+y−z =2
16
6 Sistemi omogenei
• Un sistema lineare si dice omogeneo se i suoi termini noti sono tutti nulli.
I sistemi omogenei formano una classe molto importante di sistemi lineari. In forma
matriciale, un sistema omogeneo si scrive:
S : AX = O,
0
0
dove A è la matrice dei coefficienti e O = . è il vettore colonna nullo. È evidente che
..
0
la matrice completa A0 di un sistema omogeneo si ottiene aggiungendo ad A una colonna
nulla.
Un sistema omogeneo è sempre compatibile, poiché ammette sempre la soluzione nulla
(o banale) X = O, ottenuta uguagliando tutte le variabili a zero. Una soluzione non nulla
è detta anche autosoluzione.
x + y + z = 0
Esempio Il sistema S : 2x − y + 5z = 0 è omogeneo, con forma matriciale AX = O,
x + 2z = 0
1 1 1 x
dove A = 2 −1 5 e X = y . Una verifica diretta mostra che il vettore X =
1 0 2 z
−2
1 è una soluzione non nulla, dunque un’autosoluzione del sistema.
1
Il problema è ora quello di stabilire quando un sistema omogeneo ammette autosoluzioni.
Sappiamo che, per un sistema lineare qualunque S, si hanno solamente tre possibilità:
1. S è incompatibile,
2. S ammette un’ unica soluzione,
3. S ammette infinite soluzioni.
Per un sistema omogeneo la prima alternativa non si realizza mai; dunque o S ammette
un’unica soluzione (necessariamente quella nulla) oppure S ammette infinite soluzioni (in
particolare, almeno un’autosoluzione). In conclusione:
• Un sistema lineare omogeneo ammette autosoluzioni se e solo se esso ammette infinite
soluzioni.
17
Vediamo ora qualche criterio per l’esistenza di autosoluzioni.
Dimostrazione. Poiché A è m×n, abbiamo che rkA ≤ min{m, n}, in particolare rkA ≤ m.
Ma per ipotesi m < n dunque rkA < n e il sistema ammette autosoluzioni grazie alla
proposizione appena dimostrata.
x + y + z = 0
Esempio Consideriamo il sistema lineare omogeneo S : 2x − y + 5z = 0 (quello di
x + 2z = 0
prima). Un calcolo mostra che det A = 0: per il primo corollario, S ammette autosoluzioni
(cosa che avevamo già
verificato). Calcoliamo
l’insieme delle soluzioni. Riducendo la ma-
1 1 1 0
trice completa A0 = 2 −1 5 0 ad una forma a scalini otteniamo:
1 0 2 0
1 1 1 0
Ã0 = 0 −3 3 0
0 0 0 0
dunque abbiamo ∞1 soluzioni, del tipo
−2t
Sol(S) = { t : t ∈ R}.
t
18
Osserviamo che la soluzione generica si scrive
−2t −2
t = t 1 ,
t 1
−2
ed è quindi un multiplo dell’autosoluzione 1 .
1
19
1
Esempio Scrivere, se possibile, il vettore v = , come combinazione lineare dei vettori
1
1 1
v1 = , v2 = .
3 5
Esempio 2v1 +4v2 −5v4 = O è una relazione di dipendenza lineare tra i vettori v1 , v2 , v3 , v4
(si noti che non tutti i coefficienti devono essere non nulli... ne basta uno).
Notiamo che, se esiste una relazione di dipendenza lineare, allora almeno uno dei vettori
risulterà combinazione lineare degli altri. Nell’esempio precedente, possiamo risolvere
rispetto a v1 e osservare che:
5
v1 = −2v2 + v4 .
2
a1 v1 + · · · + ak vk = O,
a1 v1 + · · · + ak vk = O
20
• È facile verificare che i vettori v1 , . . . , vk sono linearmente dipendenti se e solo se almeno
uno di essi è combinazione lineare degli altri.
1 3
Esempio Siano v1 = , v2 = . Notiamo che v2 = 3v1 quindi i due vettori sono
2 6
legati dalla relazione di dipendenza lineare −3v1 + v2 = 0: ne segue che v1 e v2 sono
linearmente dipendenti.
1 1
Esempio Siano v1 = , v2 = . Vediamo se è possibile trovare una relazione di
2 3
dipendenza lineare tra di essi. Imponiamo
xv1 + yv2 = 0,
con coefficienti x, y ∈ R al momento incogniti. Sviluppando l’identità, otteniamo l’equazione
vettoriale:
x+y 0
=
2x + 3y 0
che dà luogo al sistema omogeneo:
(
x+y =0
.
2x + 3y = 0
Si vede subito che l’unica soluzione è quella nulla: x = y = 0. Dunque la relazione di
dipendenza lineare cercata non esiste, e i due vettori sono linearmente indipendenti.
1 0 −1
indipendenti oppure no.
1 0 −1 0
21
Tale equazione vettoriale si traduce nel sistema lineare omogeneo, di 4 equazioni in 3
incognite:
x1 + x2 = 0
2x + 3x + x = 0
1 2 3
S:
x 1 + x2 + x 3 = 0
x1 − x3 = 0
Notiamo che la forma
matriciale del sistema è AX = O, con matrice dei coefficienti
1 1 0
2 3 1
A = 1 1 1 . Notiamo anche che la matrice A si ottiene incolonnando i vettori
1 0 −1
considerati.
Per definizione, i tre vettori saranno linearmente indipendenti se e solo il sistema S
ammette solamente la soluzione nulla x1 = x2 = x3 = 0. Dalla teoria dei sistemi omogenei
ciò accade se e solo rkA = n, dove n è il numero delle incognite: nel nostro caso se e solo
se rkA = 3. Un calcolo mostra che in effetti rkA = 3 (considerare il minore formato dalle
prime tre righe). In conclusione, i vettori sono linearmente indipendenti .
Il procedimento è valido in generale. Dati k vettori colonna di Rn , diciamo v1 , . . . , vk ,
denotiamo con
Mat(v1 , . . . , vk )
la matrice (di tipo n × k) ottenuta incolonnando, nell’ordine, i vettori dati.
Ad esempio, se v1 , v2 , v3 sono i vettori di R4 dell’esempio precedente, allora:
1 1 0
2 3 1
Mat(v1 , v2 , v3 ) =
1 1 1 .
1 0 −1
Una verifica mostra che l’equazione vettoriale
x1 v1 + · · · + xk vk = O
S : AX = O
x1
..
dove A = Mat(v1 , . . . , vk ) e X = . . Dal teorema di Rouche’-Capelli sappiamo che
xn
S ammette soluzioni non nulle se e solo se rkA < k (il numero delle incognite). Quindi
22
i vettori saranno linearmente dipendenti se e solo se rkA < k e saranno linearmente
indipendenti se e solo se rkA = k. In conclusione, abbiamo dimostrato la seguente
3 −2 0
Esempio Stabilire se i vettori v1 = −2 , v2 = 0 , v3 = 1 di R3 sono linear-
3 2 −3
mente indipendenti oppure no.
Un calcolo mostra che det A = 0 e il rango è minore di 3 (il numero dei vettori). Dunque
i vettori sono linearmente dipendenti .
A questo punto sappiamo che esiste una relazione di dipendenza lineare che lega i tre
vettori: cerchiamo tale relazione. Risolvendo il sistema
x1 v1 + x2 v2 + x3 v3 = O,
23
8.1 Indipendenza lineare di righe e colonne
Da quanto detto abbiamo la seguente importante interpretazione del rango di una matrice.
Una matrice A di tipo n × k individua n vettori riga di Rk e k vettori colonna di Rn .
1 1 0
2 3 1
Esempio La matrice A = 1 1 1 ha rango pari a 3. Dunque i tre vettori colonna
1 0 −1
(appartenenti allo spazio R4 ):
1 1 0
2 3 1
v1 = 1 , v2 = 1 , v3 = 1
1 0 −1
sono linearmente indipendenti , mentre i quattro vettori riga (che appartengono allo spazio
R3 )
w1 = (1, 1, 0), w2 = (2, 3, 1), w3 = (1, 1, 1), w4 = (1, 0, −1)
sono linearmente dipendenti.
Osserviamo infine la seguente
24
Per quanto detto in precedenza, i vettori saranno linearmente dipendenti.
Si avrà dunque che n + 1 (o piú) vettori di Rn saranno sempre linearmente dipendenti.
1 3 −1
Esempio I vettori v1 = , v2 = v = sono linearmente dipendenti, sem-
5 −1 3 11
plicemente perché i vettori sono tre, e appartengono a R2 . Trovare una relazione di
dipendenza lineare, ed esprimere il terzo come combinazione lineare degli altri due.
25
Parte 4. Spazi vettoriali
A. Savo − Appunti del Corso di Geometria 2013-14
1 Spazi vettoriali
Definiamo ora una nuova struttura algebrica: quella di spazio vettoriale. Uno spazio
vettoriale è un insieme dotato di due operazioni (somma e prodotto per uno scalare)
che verificano un certo numero di assiomi. Esempi di spazi vettoriali sono dati da Rn e
dall’insieme delle matrici Mat(m × n). Ma ci sono infiniti esempi di spazi vettoriali.
1.1 Definizione
Sia V un insieme non vuoto, i cui elementi saranno chiamati vettori, dotato di due ope-
razioni:
(a) la somma, che associa a due vettori u, v ∈ V un terzo vettore u + v ∈ V ,
(b) il prodotto di un vettore per uno scalare, che associa al vettore v ∈ V e allo scalare
k ∈ R un altro vettore denotato kv.
V si dice uno spazio vettoriale reale se le suddette operazioni verificano le seguenti pro-
prietà:
1) (u + v) + w = u + (v + w) per ogni u, v, w ∈ V .
1
2) u + v = v + u per ogni u, v ∈ V .
3) Esiste un vettore O ∈ V , detto vettore nullo, tale che v + O = v per ogni v ∈ V .
4) Per ogni vettore v ∈ V esiste un’unico vettore −v, detto opposto di v, tale che v+(−v) =
−v + v = O.
5) Si ha 1v = v per ogni v ∈ V .
6) h(kv) = (hk)v per ogni h, k ∈ R e per ogni v ∈ V .
7) (h + k)v = hv + kv per ogni h, k ∈ R e per ogni v ∈ V .
8) h(u + v) = hu + hv per ogni h ∈ R e per ogni u, v ∈ V .
• Le proprietà 1)-8) sono anche dette assiomi di spazio vettoriale.
xn
Poiché un vettore colonna è anche una matrice n × 1, possiamo identificare Rn con lo
spazio vettoriale Mat(n × 1). Somma e prodotto per uno scalare sono definiti nel modo
seguente:
x1 y1 x1 + y1 x1 kx1
.. .. .. . .
. + . = , k .. = .. .
.
xn yn xn + yn xn kxn
0
n ..
Notiamo che il vettore nullo di R è O = . . In conclusione:
0
2
• Rn è uno spazio vettoriale.
A volte sarà utile scrivere gli n numeri reali orizzontalmente, come un vettore riga:
(x1 , . . . , xn ) e identificheremo dunque Rn con lo spazio vettoriale Mat(1 × n). Quando
sarà importante distinguere i due modi di scrittura, specificheremo con la dicitura vettore
colonna di Rn , o vettore riga di Rn .
p(x) = a0 + a1 x + a2 x2 + · · · + an xn .
2 Prime proprietà
In ciò che segue, V è uno spazio vettoriale arbitrario, quindi non necessariamente uno
degli esempi precedenti. Vogliamo osservare alcune proprietà comuni a tutti gli spazi
vettoriali. Per dimostrare queste proprietà, dobbiamo usare solamente gli assiomi 1)-8)
che definiscono uno spazio vettoriale.
Iniziamo dalla cosiddetta legge di cancellazione della somma.
In particolare u + v = u se e solo se v = O.
−u + (u + v) = −u + (u + w).
3
Dalla proprietà associativa segue (−u + u) + v = (−u + u) + w e quindi O + v = O + w.
Dalla proprietà che definisce il vettore nullo concludiamo che
v = w.
Il viceversa è immediato.
Anche le seguenti proprietà si dimostrano facilmente dagli assiomi.
a1 v1 + a2 v2 + · · · + ak vk
Esempio Nello spazio vettoriale dei polinomi, R[x], siano p1 (x) = 1 − x + 3x3 e p2 (x) =
4x + x2 . Allora
4p1 (x) − 3p2 (x) = 4 − 16x − 3x2 + 12x3 .
4
3.2 Dipendenza e indipendenza lineare
La definizione di indipendenza lineare di vettori, già vista in Rn , si generalizza immedi-
atamente al caso di uno spazio vettoriale qualunque.
a1 v1 + · · · + ak vk = O
v1 = b2 v2 + · · · + bk vk .
5
3.3 Semplici conseguenze della definizione
Osserviamo che:
• Un singolo vettore v è linearmente indipendente se e solo v 6= O.
• Se uno dei vettori v1 , . . . , vk è nullo, allora v1 , . . . , vk sono linearmente dipendenti.
Infatti, se ad esempio vk = O, otteniamo la relazione di dipendenza lineare
0v1 + · · · + 0vk−1 + 1vk = 0.
Dimostrazione. Esercizio.
4 Generatori
6
Definizione Lo spazio vettoriale V si dice finitamente generato se ammette un insieme
finito di generatori.
È
immediato
vedere che {e1 , e2 } è un insieme di generatori di R2 : infatti il vettore generico
x
∈ R2 si esprime:
y
x 1 0
=x +y = xe1 + ye2 .
y 0 1
In particolare, R2 è finitamente generato.
• e1 , e2 sono detti i vettori della base canonica di R2 .
Possiamo generalizzare la precedente osservazione.
detti i vettori della base canonica di Rn . È evidente che essi generano Rn , perché il vettore
generico di Rn si scrive:
x1
x2
.. = x1 e1 + x2 e2 + · · · + xn en .
.
xn
7
ora un vettore vk+1 alla lista. È chiaro che i vettori v1 , . . . , vk , vk+1 generano V perché
possiamo scrivere
v = a1 v1 + · · · + ak vk
= a1 v1 + · · · + ak vk + 0vk+1 ,
che dimostra l’asserto.
1 0 2
Esempio I vettori , , generano R2 (i primi due vettori hanno già questa
0 1 3
proprietà).
Attenzione perché togliendo vettori ad un insieme di generatori potremmo perdere tale
proprietà.
5 Basi
Esempio I vettori della base canonica di Rn formano, appunto, una base di Rn . Infatti
abbiamo visto che essi generano Rn ; essi sono anche linearmente indipendenti, perché
x1 e1 + · · · + xn en = O
solo quando x1 = · · · = xn = 0.
1 0 2
Esempio I vettori e1 = , e2 = ,v = generano R2 . Essi peró non sono
0 1 3
linearmente indipendenti, poichè v = 2e1 + 3e3 . Dunque tali vettori non formano una base
di R2 .
1 0
Esempio I vettori e1 = 0 , e2 = 1 sono linearmente indipendenti, ma non generano
0 0
0
R3 (infatti, ad esempio, e3 = 0 non è combinazione lineare di e1 , e2 ). Dunque, essi
1
non formano una base di R . 3
8
La proprietà importante di una base è espressa nel seguente
9
Vedremo che uno spazio vettoriale finitamente generato ha diverse (in realtà, infinite!)
basi.
(v1 , . . . , vn )
intenderemo che i vettori sono ordinati nel modo indicato: v1 , poi v2 etc. Diremo anche
che (v1 , . . . , vn ) è una base ordinata di V .
Dato un vettore v ∈ V , possiamo scrivere
v = a1 v1 + · · · + an vn ,
x
Esempio Le coordinate di un vettore v = rispetto alla base canonica di R2 sono
y
x
, il vettore stesso.
y
1 1
Esempio Siano v1 = , v2 = .
3 4
a) Dimostrare che v1 , v2 formano una base di R2 .
1
b) Calcolare le coordinate del vettore w = rispetto alla base (v1 , v2 ).
6
a
Soluzione. a) Dimostriamo che ogni vettore v = di R2 si scrive in modo unico:
b
v = xv1 + yv2 .
10
(
x+y =a
L’equazione si traduce nel sistema S : con matrice dei coefficienti A =
3x + 4y = b
1 1
avente determinante diverso da zero. Dunque, per il teorema di Cramer, S am-
3 4
mette un’unica soluzione per ogni scelta di a, b e (v1 , v2 ) è quindi una base di R2 .
b) Dobbiamo esprimere w come combinazione lineare
w = xv1 + yv2
(questo è possibile
perché v1 , v2 formano una base) e le coordinate di w saranno per
x
definizione X = . Tali coordinate si trovano risolvendo il sistema della parte a) con
y
a = 1e b = 6. Otteniamo x = −2, y = 3 dunque w = −2v1 + 3v3 e le coordinate sono
−2
X= .
3
•Osserviamo che le coordinate diun vettore dipendono dalla base scelta: nell’esempio
1
precedente, le coordinate di w = sono:
6
−2
, rispetto alla base (v1 , v2 ),
3
1
, rispetto alla base canonica (e1 , e2 ).
6
6 Sottospazi
11
Le proprietà b) e c) si esprimono dicendo anche che un sottospazio è chiuso rispetto alla
somma e al prodotto per uno scalare.
Esempi immediati di sottospazi sono dati dal sottospazio nullo {O}, costituito dal solo
vettore nullo, e da tutto lo spazio V : questi sono i cosiddetti sottospazi banali di V .
Proposizione Ogni sottospazio E di uno spazio vettoriale V è esso stesso uno spazio
vettoriale (rispetto alle operazioni di somma e prodotto per uno scalare definite in V ).
Dimostrazione. Gli assiomi di spazio vettoriale sono verificati per V , e quindi anche per
E, perché le operazioni di somma e prodotto per uno scalare sono le stesse.
In questo moso, abbiamo molti altri esempi di spazi vettoriali.
12
e sono ∞1 . Il vettore generico di E si scrive:
−t −1
2t = t 2 ,
t 1
−1
ed è un multiplo del vettore 2 , che è non nullo, dunque linearmente indipendente.
1
In conclusione una base di E è formata dal vettore
−1
2 .
1
s 0 1
1 0
1 0
Dunque i due vettori w1 = 0 , w2 = −2 generano E. Essi sono anche linearmente
0 1
indipendenti (come si vede subito) dunque w1 , w2 formano una base di E.
• È evidente che, se S non è omogeneo, il suo insieme delle soluzioni non è un sot-
tospazio, poiché il vettore nullo non appartiene a E.
13
6.2 Sottospazio generato da un insieme di vettori
Sia V uno spazio vettoriale e v1 , . . . , vk vettori assegnati di V . Consideriamo l’insieme di
tutte le combinazioni lineari di v1 , . . . , vk :
.
L[v1 , . . . , vk ] = {a1 v1 + · · · + ak vk : a1 , . . . , ak ∈ R}.
14
1 0 2
Esempio Siano w1 = 0 , w2 = 0 , w3 =
0 . Descrivere il sottospazio di R3
0 1 −3
generato da w1 , w2 , w3 , cioè L[w1 , w2 , w3 ].
v = (a + 2c)w1 + (b − 3c)w2 ,
L[w1 , w2 , w3 ] = L[w1 , w2 ].
15
Dalla parte a) sappiamo però che L[v1 , . . . , vk ] ⊆ L[v1 , . . . , vk+1 ]. Dunque, per il principio
della doppia inclusione:
L[v1 , . . . , vk+1 ] = L[v1 , . . . , vk ].
Ora dimostriamo il viceversa. Supponiamo che L[v1 , . . . , vk+1 ] = L[v1 , . . . , vk ]: allora per
ipotesi vk+1 ∈ L[v1 , . . . , vk ] quindi vk+1 è una combinazione lineare di v1 , . . . , vk .
• L’esempio precedente mostra come una base sia il modo più ”economico” per generare
un dato sottospazio: i generatori v3 e v4 sono inutili, e possono essere eliminati. I generatori
rimasti, cioè v1 e v2 , sono linearmente indipendenti: nessuno di essi può essere scartato,
perché altrimenti il sottospazio generato diventerebbe più piccolo.
16
7 Teorema di esistenza di una base
Il procedimento di ”eliminazione dei generatori inutili ” può essere applicato in ogni spazio
vettoriale finitamente generato, e ci permetterà di ricavare una base da un qualunque
insieme di generatori. Enunciamo quindi il cosiddetto teorema di esistenza di una base.
Teorema Sia V 6= {O} uno spazio vettoriale finitamente generato. Allora V ammette
almeno una base.
8 Dimensione
Uno spazio vettoriale ammette infinite basi diverse. In questa sezione dimostreremo che
tutte le basi hanno lo stesso numero di vettori, ciò che ci permetterà di definire la dimen-
sione di V come il numero di vettori di una sua base qualunque. In ciò che segue, V è uno
spazio vettoriale finitamente generato.
m > n.
17
Poiché w1 , . . . , wn generano V , possiamo esprimere i primi n vettori della lista v1 , . . . , vm
come combinazione lineare di w1 , . . . , wn : esistono dunque degli scalari aij tali che
v1 = a11 w1 + · · · + a1n wn
...
vn = an1 w1 + · · · + ann wn
da cui
x1 v1 + · · · + xn vn = O,
con x1 , . . . , xn non tutti nulli: questo, però, è impossibile, perché per ipotesi i vettori
v1 , . . . , vn sono linearmente indipendenti.
Dunque det A 6= 0 e la matrice A risulta invertibile.
Moltiplichiamo ambo i membri della (??) per A−1 , a destra. Otteniamo
18
e mostra che ogni vettore wj è combinazione lineare di v1 , . . . , vn . Per ipotesi i vettori
w1 , . . . , wn generano V . In particolare, il vettore vn+1 è combinazione lineare di w1 , . . . , wn ,
quindi anche di v1 , . . . , vn : ma questo è impossibile, perché i vettori v1 , . . . , vn+1 sono, per
ipotesi, linearmente indipendenti.
In conclusione, abbiamo un assurdo in entrambi i casi: det A = 0, det A 6= 0. Tale assurdo
è conseguenza dell’ipotesi m > n. Dunque m ≤ n.
Proposizione Tutte le basi di uno spazio vettoriale V hanno lo stesso numero di vettori.
19
lineare di w1 , . . . , wn . Ora i vettori u, w1 , . . . , wn devono essere linearmente dipendenti
per la parte a) del teorema: dunque esiste una combinazione lineare:
bu + b1 w1 + · · · + bn wn = O,
v1 , . . . , v k , w
a1 v1 + · · · + ak vk + bw = O.
20
Se b 6= 0, possiamo dividere ambo i membri per b ed esprimere w come combinazione
lineare di v1 , . . . , vk : questo però è impossibile, poiché altrimenti w ∈ E. Dunque b = 0:
ma allora
a1 v1 + · · · + ak vk = O
e poiché v1 , . . . , vk sono linearmente indipendenti per ipotesi, si avrà a1 = · · · = ak = 0.
Dimostriamo ora il teorema.
Sia E = L[v1 , . . . , vk ]. Poiché k < n, i vettori v1 , . . . , vk non possono generare tutto lo
spazio vettoriale V (altrimenti essi formerebbero una base, e quindi k = n). Dunque
possiamo trovare almeno un vettore w1 ∈ / E. Per il lemma, i k + 1 vettori
v1 , . . . , vk , w1
risultano linearmente indipendenti. Ora, se k + 1 = n essi formano una base per il teorema
precedente (parte c), e abbiamo finito. Se k + 1 < n possiamo ripetere l’argomentazione
precedente e trovare almeno un vettore w2 tale che i k + 2 vettori
v1 , . . . , vk , w1 , w2
9 Le basi di Rn
Sia ora V = Rn . Abbiamo già osservato che gli n vettori:
1 0 0
0 1 ..
e1 = . , e2 = . , . . . , en = . ,
.. .. 0
0 0 1
formano una base, detta base canonica di Rn . Dunque:
• Rn ha dimensione n.
Ci proponiamo ora di caratterizzare le (infinite) basi di Rn .
21
Dimostrazione. 1) è una conseguenza immediata del fatto che la dimensione di Rn è n.
2) Se la matrice di colonne v1 , . . . , vn ha determinante non nullo allora i vettori v1 , . . . , vn
sono linearmente indipendenti e quindi, poiché sono esattamente n, formano una base. Il
viceversa si dimostra in modo analogo.
1 1 1
Esempio I vettori v1 = 1 , v2 = 1 , v3 = 0 formano una base di R3 , poiché
1 0 0
1 1 1
Mat(v1 , v2 , v3 ) = 1 1 0
1 0 0
abbia rango 3 (cioè, determinante non nullo). Questo si può fare in infiniti modi diversi.
Forse il modo più semplice è il seguente.
Fissiamo
un minore di ordine 2 di A con deter-
1 2
minante non nullo, ad esempio M = e scegliamo a = 1, b = 0, c = 0: in questo
2 1
modo si vede subito che
2 4 1
A0 = 1 2 0
2 1 0
22
ha determinante non nullo.
Dunque il vettore che possiamo aggiungere per ottenere una
1
base di R3 è w1 = 0.
0
Proposizione Le matrici elementari formano una base di Mat(m × n), che dunque ha
dimensione mn.
in modo unico: la quaterna (E11 , E12 , E21 , E22 ) è una base di Mat(2 × 2), che ha di
conseguenza dimensione pari a 4.
23
• (E11 , E12 , E21 , E22 ) (con l’ordinamento indicato) sarà chiamata la base canonica di
Mat(2 × 2).
a b
Notiamo anche che le coordinate della matrice rispetto alla base canonica sono
c d
date da
a
b
.
c
d
Osserviamo che l’operazione di formare combinazioni lineari di polinomi non può au-
mentare il grado nel senso che:
• Una qualunque combinazione lineare dei polinomi p1 (x), . . . , pk (x), di grado, rispet-
tivamente, d1 , . . . , dk , ha grado minore o uguale del massimo fra d1 , . . . , dk .
Ei (x) = xi ,
p(x) = a0 + a1 x + a2 x2 + · · · + an xn
= a0 E0 (x) + a1 E1 (x) + · · · + an En (x)
24
Dunque:
• I monomi E0 (x), E1 (x), . . . formano un insieme di generatori di R[x].
Tali generatori però, sono in numero infinito. A questo punto ci chiediamo se sia possibile
trovare un insieme finito di generatori di R[x]. La risposta è negativa.
È facile verificare che Rn [x] è chiuso rispetto alla somma e al prodotto per uno scalare, e
ovviamente contiene il polinomio nullo. Dunque Rn [x] è un sottospazio di R[x], e come
tale è esso stesso uno spazio vettoriale. Il polinomio generico di Rn [x] è combinazione
lineare dei monomi 1, x, . . . , xn−1 , che sono linearmente indipendenti. Dunque tali monomi
formano una base (finita) di Rn [x]. In conclusione:
• Rn [x] è uno spazio vettoriale di dimensione n, con base {1, x, . . . , xn−1 }.
25
Parte 5. Sottospazi
A. Savo − Appunti del Corso di Geometria 2013-14
1 Sottospazi di Rn
Premettiamo la seguente
1
1.1 Dimensione e rango
Veniamo ora al seguente problema: dato un sottospazio E di Rn , descritto con un insieme
di generatori, calcolare la sua dimensione e trovare una base.
vk+1 = x1 v1 + · · · + xk vk .
Questa equazione vettoriale si traduce nel sistema lineare AX = vk+1 , che è compatibile
se e solo se rkA0 = rkA (teorema di Rouche’-Capelli).
In altre parole, se aggiungiamo una colonna vk+1 si ha che:
• rkA0 = rkA, se vk+1 è combinazione lineare delle colonne precedenti,
• rkA0 = rkA + 1, altrimenti.
Quindi, aggiungendo via via colonne che sono combinazioni lineari delle precedenti, il
rango non cambia. Il teorema che segue dà una ulteriore caratterizzazione del rango di
una matrice.
2
lemma. Dunque abbiamo:
dim E = k
= rango della matrice Mat(v1 , . . . , vk )
= rango della matrice Mat(v1 , . . . , vk , vk+1 )
...
= rango della matrice Mat(v1 , . . . , vn )
= rkA
Questo dimostra la prima parte del teorema. Sia ora M un minore di ordine massimo
di A con determinante non nullo. Le colonne di A corrispondenti a quelle di M sono
evidentemente linearmente indipendenti, e formano quindi una base del sottospazio E.
Poiché il rango di una matrice uguaglia quello della sua trasposta, avremo anche che
• Il rango di una matrice A uguaglia la dimensione del sottospazio generato dalle righe
di A.
1 0 2
1 1 −3
Esempio Siano v1 = 2 , v2 = 0 , v3 = 4 . Calcolare la dimensione del sot-
1 1 −3
4
tospazio E di R generato da v1 , v2 , v3 .
1 0 2
1 1 −3
2 0 4 vale 2, dunque dim E = 2. Una base può
Soluzione. Il rango della matrice
1 1 −3
1 0
essere formata dai primi due vettori v1 , v2 , corrispondenti al minore . Notiamo che
1 1
in effetti v3 = 2v1 − 5v2 .
Una base possibile è (u2 , u3 ). Notiamo, a posteriori, qualche relazione fra le colonne:
u2 = −2u1
u4 = u1 − u3
3
Dunque potevamo eliminare i generatori u2 e u4 , e un’altra base è (u1 , u3 ).
2 Equazioni di un sottospazio di Rn
Sappiamo che l’insieme delle soluzioni di un sistema lineare omogeneo è sempre un sot-
tospazio di Rn . Vogliamo ora far vedere che è vero anche il viceversa, cioè:
• Ogni sottospazio di Rn è l’insieme delle soluzioni di un opportuno sistema lineare
omogeneo.
Iniziamo con un esempio.
1
Esempio Consideriamo il sottospazio E di R3 generato dai vettori v1 = 1 , v2 =
0
2
1 . Esprimiamo E con equazioni.
−1
x
Per definizione, un vettore y appartiene a E se e solo esso è combinazione lineare
z
di v1 e v2 . I generatori sono linearmente indipendenti, quindi formano una base di E.
Incolonnando i tre vettori, otteniamo la matrice
1 2 x
A = 1 1 y .
0 −1 z
Ora la terza colonna è combinazione lineare delle precedenti se e solo se rkA = 2. Quindi
dobbiamo semplicemente imporre la condizione
1 2 x
1 1 y = 0.
0 −1 z
S : x − y + z = 0.
4
Esempio Vediamo di rappresentare il seguente sottospazio di R4 mediante equazioni:
1 0
1 2
E = L 0 , −1 .
0 1
Innanzitutto osserviamo che i due generatori sono linearmente indipendenti, dunque for-
mano una base di E. Consideriamo la matrice ottenuta incolonnando la base, con l’aggiunta
del vettore colonna delle incognite: (x1 , x2 , x3 , x4 )t :
1 0 x1
1 2 x2
A= 0 −1 x3 .
0 1 x4
Affinche’ il vettore colonna delle incognite sia combinazione lineare delle prime due colonne,
occorre e basta che rkA =2 (il rango della matrice ottenuta sopprimendo l’ultima colonna).
1 0
Orlando il minore (che ha determinante non nullo) otteniamo due condizioni:
1 2
1 0 x1 1 0 x1
1 2 x2 = 0, 1 2 x2 = 0,
0 −1 x3 0 1 x4
E = Sol(S).
5
Dimostrazione. La dimostrazione fornisce anche un metodo per trovare le equazioni del
sottospazio. Fissiamo una base di E, diciamo (v1 , . . . , vk ), e consideriamo il vettore gener-
ico di Rn , diciamo v = (x1 , . . . , xn )t . Ora v ∈ E se e solo se v è combinazione lineare di
v1 , . . . , vk . Questo avviene se e solo se la matrice
A = Mat(v1 , . . . , vk , v)
3 Sottospazio intersezione
Consideriamo due sottospazi E, F di uno spazio vettoriale V . Si verifica facilmente che
• l’intersezione E ∩ F è un sottospazio di V .
Inoltre E ∩ F è un sottospazio sia di E che di F , dunque:
consideriamo i sottospazi
E = L[v1 , v2 , v3 ], F = L[v4 , v5 ].
Calcolare:
a) La dimensione e una base di E e di F ;
b) Una base di E ∩ F .
6
F sono linearmente indipendenti, dunque una base di F è (v4 , v5 ). Entrambi i sottospazi
hanno dimensione 2.
b) Il vettore generico di E si scrive
1 2 a1 + 2a2
a1 1 + a2 1 = a1 + a2 ,
0 −1 −a2
con a1 , a2 ∈ R. Analogamente, il vettore generico di F è del tipo:
a3 + a4
2a4
a4
con a3 , a4 ∈ R. Uguagliando, otterremo condizioni affinche’ un vettore appartenga all’intersezione:
a1 + 2a2 = a3 + a4
a1 + a2 = 2a4 .
− a2 = a4
Questo è un sistema omogeneo di tre equazioni in quattro incognite le cui soluzioni sono:
a1 = 3t
a = −t
2
a3 = 0
a4 = t
con t ∈ R. Sostituendo nel vettore generico di E (o anche E) otteniamo che il vettore
generico dell’intersezione è del tipo:
t 1
2t = t 2 .
t 1
1
Dunque E ∩ F ha dimensione 1, con base 2.
1
Potevamo procedere anche nel modo seguente. Esprimiamo i due sottospazi con equazioni.
Poiché E ha dimensione 2, ed è un sottospazio di R3 , possiamo descrivere E con una sola
equazione, ottenuta annullando il determinante della matrice di colonne v1 , v2 (la base di
E) e il vettore generico:
1 2 x
1 1 y = 0.
0 −1 z
7
Dunque E è descritto dall’equazione:
x − y + z = 0.
y − 2z = 0.
E = L[v1 , . . . , vk ], F = L[vk+1 , . . . , vn ].
4 Sottospazio somma
L’unione di due sottospazi E ed F non è in generale un sottospazio.
1 0
Esempio Siano e1 = , e2 = i vettori della base canonica di R2 , e poniamo:
0 1
E = L[e1 ], F = L[e2 ].
1
Allora e1 + e2 = non appartiene né a E né a F , dunque E ∪ F non è chiuso rispetto
1
alla somma.
Possiamo pero’ definire il sottospazio somma E + F , semplicemente sommando, in tutti i
modi possibili, un vettore di E e un vettore di F :
E + F = {u + v ∈ V : u ∈ E, v ∈ F }
8
Proposizione E + F è un sottospazio di V .
Dimostrazione. Esercizio.
È evidente che E + F contiene E. Infatti se v ∈ E possiamo scrivere v = v + O e sappiamo
che O ∈ F , poiché F è un sottospazio. Analogamente, E + F contiene anche F . Dunque:
9
Esercizio Sia V uno spazio vettoriale con base v1 , . . . , vn . Sia 1 ≤ k ≤ n e poniamo
E = L[v1 , . . . , vk ], F = [vk+1 , . . . , vn ].
5 Formula di Grassmann
C’è una relazione fra le dimensioni dei sottospazi E, F, E + F, E ∩ F , detta formula di
Grassmann.
Dimostrazione. Omessa.
Determiniamo E ∩ F e E + F .
Notiamo che dim E = 1 e dim F = 2. Ora E + F ha dimensione data da:
−2 1 1
rk 0
2 1 = 3.
0 −1 0
dim E = 3, dim F = 5.
10
Soluzione. Sappiamo che E ∩ F è un sottospazio sia di E che di F . Dunque si ha sicura-
mente:
0 ≤ dim(E ∩ F ) ≤ 3.
La formula di Grassmann ci permette di essere più precisi. Infatti, F è un sottospazio di
E + F , che è a sua volta un sottospazio di R6 , dunque:
5 ≤ dim(E + F ) ≤ 6,
6 Somma diretta
Diremo che la somma di due sottospazi U +W è somma diretta se U ∩W = {O}. Scriveremo
in tal caso:
U + W = U ⊕ W.
Proposizione Sia V uno spazio vettoriale e U, W due suoi sottospazi. Allora V = U ⊕W
v = u + w,
dove u ∈ U e w ∈ W .
11
2
3
U ∩ W = {O}. Dunque R = U ⊕ W . Decomponiamo il vettore 3 nella somma u + w
5
con u ∈ U e w ∈ W . Il vettore generico di U si scrive
a+b
2a + b
a
c
mentre il vettore generico di W è 0. Imponiamo:
0
2 a+b c
3 = 2a + b + 0 ,
5 a 0
Esempio Nello spazio vettoriale Mat(n × n) si consideri il sottospazio S(n) formato dalle
matrici simmetriche, e il sottospazio W (n) formato dalle matrici antisimmetriche. Allora
Soluzione. Occorre dimostrare che ogni matrice è somma di una matrice simmetrica e di
una matrice antisimmetrica, e che S(n) ∩ W (n) = {0}. Ora possiamo scrivere, per ogni
A ∈ Mat(n × n):
1 1
A = (A + At ) + (A − At );
2 2
1 1
si verifica facilmente che B = (A+At ) è simmetrica mentre C = (A−At ) è antisimmet-
2 2
rica, il che dimostra la prima parte. Se A ∈ S(n) ∩ W (n) allora A = At e, al tempo stesso,
12
A = −At . Quindi A è necessariamente la matrice nulla, il che dimostra l’affermazione
sulla somma diretta.
Il calcolo delle dimensioni è lasciato per esercizio (partire dalle dimensioni basse, e gener-
alizzare alla dimensione arbitraria).
1 2
Esempio Decomporre la matrice nella somma di una matrice simmetrica e di
3 4
una matrice antisimmetrica.
Soluzione.
1 2 1 5/2 0 −1/2
= + .
3 4 5/2 4 1/2 0
Diamo ora dei criteri per la somma diretta.
a1 u1 + · · · + ak uk + b1 w1 + · · · + bh wh = 0,
dunque:
a1 u1 + · · · + ak uk = −(b1 w1 + · · · + bh wh ).
L’uguaglianza mostra che il vettore a sinistra è in U ∩ W , dunque:
a1 u1 + · · · + ak uk = 0
13
per l’ipotesi U ∩ W = {O}. Siccome u1 , . . . , uk sono linearmente indipendenti, necessari-
amente a1 = · · · = ak = 0. Analogamente si dimostra che b1 = · · · = bh = 0.
c) =⇒ d). Per l’ ipotesi c), si ha che (u1 , . . . , uk , w1 , . . . , wh ) è una base di V n . Dato un
vettore v in V n , possiamo scrivere:
v = a1 u1 + · · · + ak uk + b1 w1 + · · · + bh wh
= (a1 u1 + · · · + ak uk ) + (b1 w1 + · · · + bh wh ).
Se poniamo u = a1 u1 + · · · + ak uk e w = b1 w1 + · · · + bh wh , allora u ∈ U, w ∈ W e
v = u + w,
v =v+O
v =O+v
dove nella prima uguaglianza O è pensato come vettore di W , mentre nella seconda come
vettore di U . Dall’unicità della decomposizione, si v = O. Dunque U ∩ W = {O}.
7 Serie di esempi
Dati i sottospazi U, W dello spazio vettoriale V indicato, determinare in ciascuno dei casi:
base e dimensione di U e W , della somma U + W e dell’intersezione U ∩ W . Stabilire
inoltre se la somma è diretta.
7.1 Esempio
In V = R3 :
1 1 1 2
U =L 2 , 1
,W =L 0 , 1 .
1 0 0 −1
2
Soluzione. Risposte: U ∩ W è generato da 1 , U + W = R3 , ma la somma non è
−1
diretta.
14
Per trovare l’intersezione determiniamo prima le equazioni dei due sottospazi. I generatori
sono linearmente indipendenti e quindi formano una base in ciascun caso. Equazione di
U:
1 1 x
2 1 y = 0, quindi x − y + z = 0.
1 0 z
Equazione di W :
1 2 x
0 1 y = 0, quindi y + z = 0.
0 −1 z
Equazioni di U ∩ W : (
x−y+z =0
y+z =0
2
da cui, risolvendo, otteniamo la base 1 di U ∩ W .
−1
Dalla formula di Grassmann otteniamo immediatamente dim(U +W ) = 3 dunque U +W =
R3 . La somma non è diretta perché l’intersezione non è nulla. L’esercizio è finito.
Osserviamo che per determinare la somma potevamo anche procedere come segue. Sappi-
amo che
1 1 1 2
U + W = L 2 , 1 , 0 , 1 ,
1 0 0 −1
e quindi la dimensione è pari al rango della matrice
1 1 1 2
2 1 0 1 .
1 0 0 −1
7.2 Esempio
In V = R3 :
1 1 2 1
U =L 2 , 1 , 3
,W =L 0 .
1 0 1 0
Soluzione. Risposte: U ∩ W = {O} , U + W = R3 , e la somma è diretta: R3 = U ⊕ W .
15
Calcoliamo la dimensione di U . I tre generatori sono linearmente dipendenti perché il
terzo è la somma dei primi due: dunque possiamo scartare il terzo generatore e
1 1
U = L 2 , 1 ,
1 0
che ammettono solamente la soluzione comune nulla, dunque U ∩ W = {0}. Dalla formula
di Grassmann otteniamo dim(U + W ) = 3 dunque U + W = R3 . La somma è diretta
perché l’intersezione è nulla.
7.3 Esempio
In V = R4 :
1 1 0 0
0 1 1 0
U = L
0 , −1 , W = L 2 , 0
0 2 1 1
U + W = L[u1 , u2 , w1 , w2 ]
e poiché i quattro generatori sono linearmente indipendenti (ciò si verifica osservando che
il rango della matrice corrispondente è quattro) otteniamo che dim(U + W ) = 4 e quindi
U + W = R4 . Dalla formula di Grassmann otteniamo che U ∩ W = {O}, e la somma è
diretta.
Si può però procedere in modo alternativo. Sia v ∈ U ∩ W . Poichè v ∈ U , possiamo
trovare a, b ∈ R tali che:
v = au1 + bu2 .
16
Analogamente, poiché v ∈ W esisteranno numeri reali c e d tali che
v = cw1 + dw2 .
Uguagliando, a, b, c, d verificano l’equazione vettoriale:
au1 + bu2 = cw1 + dw2 ,
e quindi
au1 + bu2 − cw1 − dw2 = 0.
Ora sappiamo che i vettori u1 , u2 , w1 , w2 sono linearmente indipendenti, e quindi neces-
sariamente a = b = c = d = 0. Dunque l’unico vettore nell’intersezione è il vettore
nullo.
7.4 Esempio
In V = R4 :
1 2 1 5 1
1 0 −1 1 3
U = L
0 , 1 , 1 , W = L 2 , −1
0 1 1 2 −1
Soluzione. Risposte: dim U = dim W = dim(U ∩ W ) = dim(U + W ) = 2. Quindi U = W .
17
8 Coordinate e criterio del rango
Nei precedenti esempi abbiamo studiato questioni di dipendenza e indipendenza lineare,
e questioni riguardanti i sottospazi, principalmente nello spazio vettoriale Rn . In tal caso
possiamo utilizzare il rango di opportune matrici per risolvere i problemi. In questa sezione
faremo vedere come sia possibile utilizzare il criterio del rango in ogni spazio vettoriale (di
dimensione finita).
In ciò che segue, utilizzeremo la notazione V n per indicare uno spazio vettoriale di dimen-
sione n.
v = x1 e1 + · · · + xn en ,
18
• In generale, se A e B sono insiemi, un’applicazione f dall’insieme A nell’insieme B
è una legge che associa ad ogni elemento a ∈ A uno ed un solo elemento di B, denotato
f (a). Un’applicazione si scrive:
f : A → B,
dove A (insieme di destra) è l’insieme di partenza e B (insieme di sinistra) è l’insieme di
arrivo.
Nelle prossime lezioni studieremo in dettaglio una classe naturale di applicazioni fra spazi
vettoriali: le cosiddette applicazioni lineari.
Proposizione Sia V un qualunque spazio vettoriale e B = (v1 , . . . , vn ) una sua base. Dati
i vettori w1 , . . . , wk di V , consideriamo la matrice A ottenuta incolonnando le coordinate
di w1 , . . . , wk rispetto a B. Allora:
a) I vettori w1 , . . . , wk sono linearmente indipendenti se e solo se rkA = k.
b) Piu’ in generale si ha: dim L[w1 , . . . , wk ] = rkA.
19
9 Spazi vettoriali di matrici e polinomi
9.1 Esempi su spazi di matrici
Per semplicità ci ridurremo a considerare lo spazio vettoriale V = Mat(2 × 2). La base
piu’ semplice di Mat(2 × 2) è la cosiddetta base canonica di Mat(2 × 2), cioè la base
(E11 , E12 , E21 , E22 ) dove:
1 0 0 1 0 0 0 0
E11 = , E12 = , E21 = , E22 = .
0 0 0 0 1 0 0 1
1 1 2 1 1 0
Esempio Sono date le matrici A1 = , A2 = , A3 = , A4 =
2 1 0 −1 0 1
4 1
.
0 1
a) Stabilire se A1 , A2 , A3 , A4 sono linearmente indipendenti oppure no.
b) Calcolare la dimensione del sottospazio E di Mat(2×2) generato dalle quattro matrici.
Soluzione. a) Incolonniamo le coordinate delle quattro matrici (rispetto alla base canonica
(E11 , E12 , E21 , E22 )) e otteniamo la matrice
1 2 1 4
1 1 0 1
A= 2 0
.
0 0
1 −1 1 1
20
b) Basta calcolare il rango di A. Sappiamo che rkA ≤ 3; ora il minore di ordine 3 in
alto a sinistra ha determinante non nullo, dunque il rango vale 3, e tale è la dimensione
del sottospazio cercato. Possiamo verificare che le matrici A1 , A2 , A3 sono linearmente
indipendenti: poiché tali matrici sono in numero pari alla dimensione di E, esse formano
una base di E.
1 1 2 1 1 4
Esempio Sono date le matrici M1 = , M2 = , M3 = , M4 =
2 1 1 0 0 0
−2 0
. Verificare che le quattro matrici formano una base di Mat(2 × 2).
0 0
1 0 0 0
Si verifica facilmente che il suo determinante è non nullo, dunque la quattro matrici sono
linearmente indipendenti. Poiche’ dim Mat(2 × 2) = 4, questo è sufficiente per affermare
che esse formano una base. Altrimenti, potevamo osservare che le coordinate delle quattro
matrici formano una base di R4 .
1 −2
Esempio Data la matrice N = , consideriamo il sottoinsieme E di Mat(2 × 2)
−1 2
costituito dalle matrici X ∈ Mat(2 × 2) tali che N X = O, dove O è la matrice nulla. In
altre parole:
E = {X ∈ Mat(2 × 2) : N X = O}.
a) Dimostrare che E è un sottospazio di Mat(2 × 2).
b) Trovare una base di E e calcolare la sua dimensione.
21
e imponiamo la condizione N X = O. Si ottiene
x − 2z y − 2w 0 0
= ,
−x + 2z −y + 2w 0 0
x − 2z = 0
y − 2w = 0
.
− x + 2z = 0
− y + 2w = 0
La terza (risp. quarta) equazione è equivalente alla prima (risp. seconda). Dunque il
sistema si riduce a (
x − 2z = 0
.
y − 2w = 0
Ponendo z = t e w = s otteniamo le ∞2 soluzioni
x = 2t
y = s
z=t
w=s
2t 2s
con t, s ∈ R e la matrice generica di E si scrive , con t, s ∈ R. Per trovare una
t s
base di E, basta scrivere la matrice generica nel seguente modo:
2t 2s 2 0 0 2
=t +s .
t s 1 0 0 1
2 0 0 2
Dunque le matrici , generano E, e si vede subito che sono anche linear-
1 0 0 1
2 0 0 2
mente indipendenti. In conclusione, E ha dimensione 2 e una sua base è , .
1 0 0 1
E = {X ∈ Mat(2 × 2) : M X = O}
22
Esercizio Nello spazio vettoriale Mat(n×n), si considerino il sottoinsieme T + (n) (rispet-
tivamente T − (n)) formato dalle matrici triangolari superiori (rispettivamente, triangolari
inferiori).
a) Dimostrare che T + (n) e T − (n) sono entrambi sottospazi di Mat(n × n).
b) Trovare una base e la dimensione di T + (2) e T − (2).
c) Descrivere il sottospazio intersezione T + (2) ∩ T − (2).
d) Dimostrare che Mat(2 × 2) = T + (2) + T − (2).
e) Verificare che Mat(2 × 2) 6= T + (2) ⊕ T − (2).
Esercizio Data una matrice quadrata A, si definisce traccia di A la somma di tutti gli
elementi diagonali. Esempio:
1 2 3
tr 4 5 6 = 1 + 5 + 9 = 15.
7 8 9
E = {A ∈ Mat(2 × 2) : trA = 0}
23
delle coordinate F : Rn [x] → Rn è data da
a0
2 n−1
a1
F(a0 + a1 x + a2 x + · · · + an−1 x )= .
..
.
an−1
Soluzione. Incolonniamo le coordinate rispetto alla base (1, x, x2 ) (la base canonica) e
otteniamo la matrice
1 1 1
A = 1 −1 0 .
0 2 1
Il determinante si annulla, e il rango vale 2. Dunque i polinomi sono linearmente dipendenti
e il sottospazio da essi generato ha dimensione 2. In effetti si ha la relazione di dipendenza
lineare
p1 (x) + p2 (x) − 2p3 (x) = 0.
Una base di E sarà data da una qualnque coppia di polinomi linearmente indipendenti,
ad esempio (p1 (x), p2 (x)). Notiamo infine che E è un sottospazio propriamente contenuto
in R3 [x], poiché ha dimensione minore di 3 (la dimensione di R3 [x]).
Esempio Verificare che i polinomi p1 (x) = x, p2 (x) = 1 − x + 2x2 , p3 (x) = 1 + 2x2 sono
linearmente indipendenti e formano una base di R3 [x].
ha determinante non nullo e i tre polinomi sono linearmente indipendenti; essi formano
automaticamente una base dato che dim R3 [x] = 3.
24
Parte 6. Applicazioni lineari
A. Savo − Appunti del Corso di Geometria 2013-14
f : A → B.
f (a) = f (a0 ) =⇒ a = a0 .
1
Un’applicazione f si dice biiettiva (o anche biunivoca ) se è sia iniettiva che suriettiva.
2
Osserviamo che le due condizioni sono equivalenti all’unica condizione:
per ogni a1 , . . . , ak ∈ R, v1 . . . , vk ∈ V .
• Un’applicazione lineare da V in V 0 si dice anche un omomorfismo da V in V 0 .
Vedremo molti esempi più in avanti. Osserviamo poi che ogni applicazione lineare trasforma
il vettore nullo di V nel vettore nullo di V 0 , e porta vettori opposti in vettori opposti:
dunque f (O) = O.
b) Abbiamo
O = f (O) = f (v − v) = f (v) + f (−v)
dunque f (−v) = −f (v).
O(v) = O,
per ogni v ∈ V .
3
Esempio L’applicazione f : Mat(n × n) → R definita da f (A) = det A non è lineare.
Basta infatti osservare che, se
1 0 0 0
A= , B= ,
0 0 0 1
f (A + B) 6= f (A) + f (B).
D(p(x)) = p0 (x)
è un’applicazione lineare.
3 Applicazioni lineari da Rn a Rm
Iniziamo descrivendo una classe di applicazioni lineari da Rn a Rm . Sia A una matrice
m × n, e v ∈ Rn , scritto in forma colonna. Allora il prodotto Av è un vettore di Rm .
Dunque possiamo definire un’applicazione f : Rn → Rm nel seguente modo:
f (v) = Av.
Dalle proprietà del prodotto di matrici, vediamo subito che f è un’applicazione lineare.
1 2 3
Esempio La matrice A = definisce la seguente applicazione lineare f : R3 →
0 −1 2
R2 :
x x
1 2 3 x + 2y + 3z
f y =
y = .
0 −1 2 −y + 2z
z z
x
Notiamo che ogni entrata di f y è una funzione lineare omogenea di x, y, z. Notiamo
z
anche che se (e1 , e2 , e3 ) è la base canonica di R3 , allora:
1 2 3
f (e1 ) = , f (e2 ) = , f (e3 ) = ,
0 −1 2
4
Esempio Ora vogliamo dimostrare che ogni applicazione lineare f : R3 → R2 si scrive
f (v) = Av
con A un’opportuna matrice 2 × 3. Consideriamo le immagini dei vettori della base canon-
ica:
a1 a2 a3
f (e1 ) = , f (e2 ) = , f (e3 ) = .
b1 b2 b3
x
Allora, se v = y è il vettore generico di R3 :
z
x
f (v) = f y
z
= f (xe1 + ye2 + ze3 )
= xf (e1 ) + yf (e2 ) + zf (e3 )
a1 a2 a
=x +y +z 3
b1 b2 b3
a1 x + a2 y + a3 z
=
b1 x + b2 y + b3 z
x
a1 a2 a3
= y
b1 b2 b3
z
a1 a2 a3
quindi f (v) = Av con A = . La matrice A è detta matrice canonica di f , e
b1 b2 b3
ha colonne f (e1 ), . . . , f (en ).
5
1 0 3
Soluzione. La matrice canonica di f è A = . Dunque
1 −2 1
x x
1 0 3 x + 3z
f y = y = .
1 −2 1 x − 2y + z
z z
1 3
4 0
Si ha: f 0 =
,f 1 = .
2 0
1 −1
In conclusione:
• Sia f : R3 → R2 un’applicazione lineare, e sia A la matrice 2 × 3 le cui colonne sono
f (e1 ), f (e2 ), f (e3 ). A è detta la matrice canonica di f . Allora f si scrive:
f (v) = Av.
f (v) = Av.
6
x1
entrata del vettore immagine f (v), dove v = ... , è una funzione lineare omogenea di
xn
x1 , . . . , x n .
7
4 Omomorfismo assegnato su una base
Abbiamo visto che ogni applicazione lineare da Rn a Rm si puo’ rappresentare con una
matrice. Vedremo che cio’ è vero per ogni applicazione lineare da uno spazio vettoriale V
di dimensione n in un’altro spazio vettoriale W di dimensione n.
Iniziamo con l’osservare che un’applicazione lineare f : V → W è determinata dai valori
che assume su una base di V .
Teorema Sia V uno spazio vettoriale e B = (v1 , . . . , vn ) una sua base. Siano inoltre
w1 , . . . , wn vettori arbitrari di W . Allora esiste un’unica applicazione lineare f : V → W
tale che:
f (v1 ) = w1
f (v ) = w
2 2
.
. . .
f (vn ) = wn
In particolare, se f si annulla su una base allora f = 0.
f (v) = x1 w1 + · · · + xn wn .
f (v) = x1 w1 + · · · + xn wn = g(v)
8
x
Soluzione. Si ha = xe1 + ye2 quindi:
y
x
f = f (xe1 + ye2 )
y
= xf (e1 ) + yf (e2 )
2 0
=x +y
3 −1
2x
=
3x − y
In conclusione:
x 2x
f = .
y 3x − y
Potevamo anche procedere direttamente: sappiamo che i trasformati dei vettori della base
canonica sono proprio le colonne della matrice canonica di f . Dunque la matrice canonica
di f è:
2 0
3 −1
x 2x
e quindi f = .
y 3x − y
1 1
Esempio Siano v1 = , v2 = . Trovare l’unica applicazione lineare f : R2 → R2
1 −1
1 3
tale che f (v1 ) = , f (v2 ) = .
2 6
Soluzione. Dobbiamo prima vedere quali valori assume la f sui vettori della base canonica.
Esprimiamo i vettori della base canonica di R2 rispetto alla base (v1 , v2 ):
1 1
e 1 = v1 + v2
2 2
e 2 = 1 v1 − 1 v2
2 2
Quindi:
1 1 2
f (e1 ) = f (v1 ) + f (v2 ) =
2 2 4
1 1 −1
f (e2 ) = f (v1 ) − f (v2 ) =
2 2 −2
9
2 −1
La matrice canonica di f è dunque
4 −2
x 2x − y
f = .
y 4x − 2y
Se i vettori sui quali si assegna f non formano una base, potremmo avere dei problemi.
1 2
Esempio Siano v1 = , v2 = . Dimostrare che non esiste alcuna applicazione
1 2
lineare f : R2 → R2 tale che:
1
f (v1 ) = 2
1
f (v2 ) = −1
Soluzione. Notiamo che v2 = 2v1 dunque i vettori di partenza non formano una base.
Poiche’ f è lineare, si dovrebbe avere
2
f (v2 ) = 2f (v1 ) = .
4
1
Ma questo contraddice la condizione f (v2 ) = . Quindi una tale f non esiste.
−1
10
Esempio Nella notazione dell’esempio precedente, dimostrare che esistono infinite appli-
cazioni lineari f : R2 → R2 tali che
1
f (v1 ) = 2
2
f (v2 ) = 4
5 Matrice associata
Sia f : V → W lineare, con V e W di dimensione finita, e fissiamo una base B = (v1 , . . . , vn )
di V e una base B 0 = (w1 , . . . , wm ) di W .
Con questi dati, definiamo la matrice associata a f rispetto alle basi B, B 0 con la regola
seguente:
• La i−esima colonna di A è data dalle coordinate del vettore f (vi ) rispetto alla base
B 0 , per i = 1, . . . , n.
Osseviamo che, se dim V = n e dim W = m, allora A è di tipo m × n. Ovviamente A
dipende, oltre che da f , anche dalle basi scelte.
Trovare la matrice associata a f rispetto alla base canonica (E11 , E12 , E21 , E22 ) di Mat(2×
2) e alla base canonica di R2 , rispettivamente.
Soluzione. Abbiamo:
1 2 0 0
f (E11 ) = , f (E12 ) = , f (E21 ) = , f (E22 ) = .
0 0 1 −3
1 2 0 0
Dunque la matrice associata è .
0 0 1 −3
11
Si ha quindi
D(E0 (x)) = 0
D(E1 (x)) = 1 = 1 · E0 (x) + 0 · E1 (x) + 0 · E2 (x)
D(E2 (x)) = 2x = 0 · E0 (x) + 2 · E1 (x) + 0 · E2 (x)
12
f : V → W definito da:
f (v1 ) = 2w1 + w2
f (v2 ) = −4w1 − 2w2
f (v3 ) = 2w1 + w2
13
6 Nucleo
f (u) = f (v) =⇒ u = v.
Infatti:
f (u) = f (v) =⇒ f (u) − f (v) = O
=⇒ f (u − v) = O
=⇒ u − v ∈ Kerf
=⇒ u − v = O
=⇒ u = v.
In pratica, per trovare una base del nucleo basta risolvere l’equazione vettoriale
f (v) = O
f (v1 ), . . . , f (vk )
14
sono linearmente indipendenti. Cioè: un’applicazione lineare iniettiva trasforma vettori
linearmente indipendenti in vettori linearmente indipendenti. (Attenzione: f deve essere
iniettiva, altrimenti l’affermazione non è sempre vera).
7 Immagine
Data un’applicazione lineare f : V → V 0 consideriamo ora la sua immagine
15
quindi l’immagine è generata dai trasformati dei vettori di una qualunque base.
La proposizione seguente permette di calcolare la dimensione dell’immagine tramite il
rango di una matrice associata.
8 Esempi
Esempio Determinare una base del nucleo e una base dell’immagine dell’applicazione
lineare f : R3 → R2 definita da
x
x − y + 2z
f y = .
x + y + 4z
z
16
quindi (
x − y + 2z = 0
x + y + 4z = 0
Questo è un sistema lineare omogeneo di due equazioni in tre incognite, con insieme delle
soluzioni
−3t
Kerf = −t , t ∈ R .
t
−3
Quindi una base di Kerf è −1 e la sua dimensione è 1, in particolare f non è iniettiva.
1
Fissata la base canonica (e1 , e2 , e3 ) di R3 , sappiamo che l’immagine è generata dai vettori
f (e1 ), f (e2 ), f (e3 ), quindi
1 −1 2
Imf = L , , .
1 1 4
Chiaramente i tre generatori sono linearmente dipendenti; togliendo l’ultimo abbiamo però
l’indipendenza lineare dei primi due, e una base di Imf è dunque
1 −1
, .
1 1
La dimensione dell’immagine è 2, pari alla dimensione dello spazio di arrivo: ciò significa
che Imf = R2 e quindi f è suriettiva.
Per la dimensione dell’immagine, bastava anche usare la matrice canonica di f :
1 −1 2
A= ,
1 1 4
Esempio Sia D : R4 [x] → R4 [x] l’applicazione lineare che associa a un polinomio la sua
derivata:
D(p(x)) = p0 (x).
Determinare basi del nucleo e dell’immagine di D.
17
Soluzione. Per il nucleo, imponiamo D(p(x)) = 0. La derivata di un polinomio è nulla se
e solo se il polinomio è una costante; dunque KerD è il sottospazio formato dai polinomi
costanti. Tale sottospazio ha dimensione 1, ed è generato dal polinomio costante E0 (x) =
1. Consideriamo la base canonica di R4 [x]:
(1, x, x2 , x3 ).
Si vede facilmente che Imf è il sottospazio formato dai polinomi di grado minore o uguale
a 2. Dunque dim Imf = 3. Si poteva anche procedere con una matrice associata.
Esempio Sia D2 : R4 [x] → R4 [x] l’applicazione lineare che associa a un polinomio la sua
derivata seconda:
D2 (p(x)) = p00 (x).
Determinare basi del nucleo e dell’immagine di D.
Soluzione. Si vede facilmente che il nucleo è formato dai polinomi di grado minore o uguale
a 1, e che l’immagine è uguale al nucleo.
f (v) = 0
18
si traduce nel sistema lineare omogeneo, di m equazioni in n incognite
S : AX = 0.
Si ha dunque che
dim Kerf = dim Sol(S).
Dal teorema di Rouché-Capelli sappiamo che la dimensione di Sol(S) è uguale a n − rkA.
Dunque:
dim Kerf = n − rkA
= n − dim Imf
e il teorema è dimostrato.
x + 2y + z = 0.
Risolvendo, otteniamo
−2s − t
Kerf = s : t, s ∈ R .
t
19
Poiché
−2s − t −1 −2
s = t 0 + s 1 ,
t 1 0
otteniamo la base di Kerf :
1 −2
0 , 1 ,
−1 0
e dunque dim Kerf = 2.
b) Dal teorema della dimensione abbiamo che dim Imf = 1: dunque una base di Imf è
data da un suo qualunque vettore non nullo, ad esempio
1
f (e1 ) = −1 .
2
In effetti, sappiamo che Imf è generata dalle colonne della sua matrice canonica A:
1 2 1
Imf = L −1 , −2 , −1 ,
2 4 2
e tali generatori sono tutti multiplo del primo, che è dunque una base.
Notiamo che f non è né iniettiva né suriettiva.
dim Imf = 3
20
Esempio Data l’applicazione lineare f : Mat(2 × 2) → Mat(2 × 2) definita da
a b a+d b−c
f =
c d b−c a+d
per cui basta selezionare 2 vettori generatori linearmente indipendenti, ad esempio il primo
e il secondo. Dunque una base dell’immagine è
1 0 0 1
, .
0 1 1 0
21
Osserviamo che
f (E1 ) = E1 + E4
f (E2 ) = E2 + E3
f (E3 ) = −E2 − E3
f (E4 ) = E1 + E4
Dunque la matrice associata a f rispetto alle basi canoniche è:
1 0 0 1
0 1 −1 0
A= 0 1 −1 0 .
1 0 0 1
In effetti, dim Imf = rkA = 2.
Esempio Siano V uno spazio vettoriale con base B = (v1 , v2 , v3 ) e W un secondo spazio
vettoriale con base B 0 = (w1 , w2 , w3 ). Si consideri l’unica applicazione lineare f : V → W
tale che:
f (v1 ) = w1 + w3
f (v2 ) = 2w1 + w2 + 3w3
f (v3 ) = w1 + w2 + 2w3
dim Imf = n.
22
D’altra parte, l’immagine di f è un sottospazio di V 0m : dunque
dim Imf ≤ m.
n ≤ m.
10 Isomorfismi
Un’applicazione lineare iniettiva e suriettiva (quindi biiettiva) si dice un isomorfismo. Due
spazi vettoriali V, V 0 si dicono isomorfi se esiste almeno un isomorfismo f : V → V 0 .
T (A) = At
per ogni A ∈ Mat(m × n) è lineare, iniettiva e suriettiva (come si verifica subito) dunque
è un isomorfismo. Ne segue che Mat(m × n) è isomorfo a Mat(n × m).
La proposizione seguente mostra che spazi vettoriali isomorfi hanno la stessa struttura; un
isomorfismo conserva infatti la proprietà di indipendenza lineare, e la proprietà di generare
lo spazio.
f (a1 v1 + · · · + ak vk ) = O,
23
e per definizione a1 v1 + · · · + ak vk ∈ Kerf . Per ipotesi, f è iniettiva, dunque Kerf = {O}.
Di conseguenza:
a1 v1 + · · · + ak vk = O
e poiché v1 , . . . , vk sono linearmente indipendenti otteniamo a1 = · · · = ak = 0. Dunque
f (v1 ), . . . , f (vk ) sono linearmente indipendenti.
In modo analogo si dimostra che se f (v1 ), . . . , f (vk ) sono linearmente indipendenti allora
v1 , . . . , vk sono linearmente indipendenti.
b) Supponiamo che i vettori v1 , . . . , vk generino V . Allora sappiamo che f (v1 ), . . . , f (vk )
generano Imf . Poiché f è suriettiva, si ha Imf = V 0 dunque tali vettori generano anche
V 0.
Viceversa, supponiamo che f (v1 ), . . . , f (vk ) generino V 0 , e sia v ∈ V . Allora, poiché
f (v) ∈ V 0 possiamo scrivere
f (v) = f (a1 v1 + · · · + ak vk )
e, dall’iniettività di f , otteniamo
v = a1 v1 + · · · + ak vk .
24
Esplicitamente, se v si esprime, nella base scelta, come combinazione lineare v = a1 v1 +
· · · + ak vk , allora
a1
..
F(v) = . .
ak
Si verifica facilmente che F è lineare; inoltre F è iniettiva (vettori distinti hanno coordinate
distinte) e suriettiva (per la verifica, applicare il teorema della dimensione a F, sapendo
che dim KerF = 0). Dunque F è un isomorfismo. In particolare abbiamo dimostrato il
seguente risultato.
Esempio Lo spazio vettoriale dei polinomi di grado minore di n, denotato con Rn [x],
è isomorfo a Rn . Un isomorfismo F : Rn [x] → Rn si ottiene prendendo le coordinate
rispetto alla base canonica di Rn [x]:
a0
a1
F(a0 + a1 x + · · · + an−1 xn−1 ) = . .
..
an−1
25
Parte 7. Autovettori e autovalori
A. Savo − Appunti del Corso di Geometria 2013-14
1 Endomorfismi
• Se V è uno spazio vettoriale, un endomorfismo di V è semplicemente un’ applicazione
lineare f : V → V . Un endomorfismo di V è spesso chiamato operatore di V .
Possiamo ad esempio definire l’endomorfismo identità, denotato con I : V → V , che
associa a ogni vettore di V il vettore stesso:
I(v) = v.
1
Esempio Consideriamo l’endomorfismo f di R3 definito da:
x 7x − 13y + 6z
f y = 2x − 8y + 6z .
z 2x − 13y + 11z
7 −13 6
La matrice associata a f rispetto alla base canonica è A = 2 −8 6 .
2 −13 11
Cambiamo ora base, e consideriamo la base (v1 , v2 , v3 ) di R3 , dove
1 13 −3
v1 = 1 , v2 = 2 , v3 = 0 .
1 0 1
1 0 13 65 −3 −15
Risulta f 1 = 0 , f 2 = 10 , f 0 = 0 . Dunque:
1 0 0 0 1 5
f (v1 ) = 0
f (v2 ) = 5v2
f (v3 ) = 5v3
0 0 0
e la matrice associata è A0 = 0 5 0, diagonale. È chiaro che la matrice associata A0
0 0 5
è molto più semplice; per studiare l’endomorfismo f la base (v1 , v2 , v3 ) è più conveniente
della base canonica.
2
1 1
Soluzione. a) A è semplicemente la matrice canonica di f : .
1 1
b) Si ha:
0 0 0 0
f (v1 ) = 0 = 0 · v1 + 0 · v2
0 2 0 0
f (v2 ) = 2 = 0 · v1 + 2 · v2
0 0
Dunque A0 = .
0 2
c) Si ha:
00 3
f (v1 ) = = −3 · v100 + 3 · v200
3
00 5
= −5 · v100 + 5 · v200
f (v 2 ) =
5
−3 −5
Dunque A00 = .
3 5
Le matrici associate sono quindi, rispettivamente
1 1 0 0 0 00 −3 −5
A= ,A = ,A = .
1 1 0 2 3 5
Per studiare la relazione tra le diverse matrici associate ad uno stesso endomorfismo dob-
biamo prima capire la relazione che intercorre tra due basi di uno stesso spazio vettoriale.
2 Cambiamento di base
Sia V uno spazio vettoriale e siano B = (v1 , . . . , vn ), B 0 = (v10 , . . . , vn0 ) due basi di V . Ogni
vettore della base B 0 si esprimerà dunque come combinazione lineare dei vettori della base
B: 0
v1 = a11 v1 + a21 v2 + · · · + an1 vn
v0 = a v + a v + · · · + a v
2 12 1 22 2 n2 n
(1)
...
0
vn = a1n v1 + a2n v2 + · · · + ann vn
La matrice ottenuta incolonnando le coordinate:
a11 a12 . . . a1n
a21 a22 . . . a2n
M = · · · · · · · · ·
···
an1 an2 . . . ann
3
è detta matrice del cambiamento di base (o matrice di passaggio) da B a B 0 . La i−esima
colonna di M è dunque data dalle coordinate del vettore vi0 rispetto a B, per ogni i =
1, . . . , n.
La matrice M è evidentemente n × n.
Le relazioni in (1) si esprimono, in forma compatta:
dove, a destra, si intende il prodotto del vettore riga (v1 , . . . , vn ) (le cui entrate sono
vettori) per la matrice M . Si scriverà anche
B 0 = BM.
= R2 , esiano 0
Esempio Fissiamo V B = BC = (e1 , e2 ) la base canonica e B la base
1 4
(w1 , w2 ) dove w1 = , w2 = . Poiche’
3 5
(
w1 = e1 + 3e2
(3)
w2 = 4e1 + 5e2
la matrice di passaggio è
1 4
M= .
3 5
4
Notiamo che le relazioni (3) si esprimono in forma matriciale:
1 4
(w1 , w2 ) = (e1 , e2 ) ,
3 5
dove a destra
si è moltiplicato il vettore riga (e1 , e2 ) (le cui entrate sono vettori) per la
1 4
matrice .
3 5
e quindi
1 2 1
M = 0 1 2 .
−1 0 −1
5
3 Matrici simili
Diremo che due matrici quadrate A, A0 sono simili se esiste una matrice invertibile M tale
che
A0 = M −1 AM.
Risulta che matrici associate ad uno stesso endomorfismo (rispetto a basi diverse) sono
simili.
A0 = M −1 AM,
A0 = M −1 AM
1 1
dove M = è la matrice di passaggio da BC a B 0 .
−1 1
Osservazione Vale anche il viceversa del teorema precedente: date due matrici simili,
diciamo A e A0 , allora esse rappresentano uno stesso endomorfismo. Ad esempio, se f è
l’endomorfismo di Rn rappresentato da A rispetto alla base canonica, e se B 0 è la base di
Rn tale che la matrice di passaggio dalla base canonica a B 0 è M , allora A0 rappresenta f
nella base B 0 .
6
4 Endomorfismi diagonalizzabili
• Un endomorfismo di uno spazio vettoriale V si dice diagonalizzabile se puo’ essere
rappresentato da una matrice diagonale; in altre parole, se esiste una base di V rispetto
alla quale la matrice associata è diagonale.
5 Autovettori e autovalori
5.1 Definizione
7
a) Un vettore v 6= O si dice autovettore di f associato all’autovalore λ ∈ R se
f (v) = λv.
b) Uno scalare λ si dice autovalore di f se esiste un vettore v 6= O tale che f (v) = λv.
x x+y
Esempio Sia f l’endomorfismo f di R2 definito da f = , e siano v1 =
y x+y
1 1
, v2 = . Un calcolo mostra che
−1 1
(
f (v1 ) = O = 0v1
f (v2 ) = 2v2
Allora, per definizione, v1 è un autovettore di f associato all’autovalore λ = 0, e v2 è un
autovettore associato all’autovalore λ = 2.
Notiamo che i due autovettori 2
formano una base (v1 , v2 ) di R , e che la matrice associata
0 0
a tale base è diagonale: , con elementi diagonali dati esattamente dagli autovalori.
0 2
Ricordiamo che, per definizione, un autovettore di un endomorfismo è, per definizione,
non nullo. Al contrario, lo scalare 0 può essere un autovalore di f . In effetti, osserviamo
che
• 0 è un autovalore di f se solo se Kerf 6= {O}. Ogni vettore del nucleo, diverso dal
vettore nullo, è un autovettore con autovalore 0.
8
con elementi diagonali dati dagli autovalori. Viceversa, se la matrice associata a f rispetto
a una data base (v1 , . . . , vn ) è diagonale, allora i vettori di tale base sono autovettori di
f associati, rispettivamente, agli elementi diagonali λ1 , . . . , λn . In conclusione, abbiamo
dimostrato il seguente risultato.
9
5.3 Autospazio associato a un autovalore
È facile verificare che, se λ è un autovalore, il sottoinsieme di V
Notiamo che E(λ) è formato dal vettore nullo, e da tutti gli autovettori associati a λ. Se
λ è un autovalore, allora per definizione esiste almeno un vettore non nullo nel sottospazio
E(λ). Dunque, se λ è un autovalore si ha sempre
M G(λ) ≥ 1.
10
6 Il polinomio caratteristico
In ciò che segue, V = V n è uno spazio vettoriale di dimensione n.
det(A − λI) = 0,
(A − λI)X = O. (4)
11
Dimostrazione. La prima parte è già dimostrata. La seconda segue immediatamente dal
Dunque
−2 − x 6
pA (x) =
−2 5 − x
= x2 − 3x + 2
Gli autovalori si ottengono risolvendo l’equazione caratteristica x2 − 3x + 2 = 0. Troviamo
le due soluzioni:
λ1 = 1, λ2 = 2.
che saranno quindi gli autovalori di f .
x y
Esempio Abbiamo già osservato che l’endomorfismo f = di R2 non ammette
y −x
0 1
autovalori. In effetti, la sua matrice canonica A = ha polinomio caratteristico
−1 0
−x 1
pA (x) =
= x2 + 1,
−1 −x
12
Esercizio Dimostrare che il polinomio caratteristico di una matrice 2 × 2 si scrive
pA (x) = x2 − 5x − 2.
1 1 1
Esempio Il polinomio caratteristico della matrice 0 1 1 è:
0 0 −3
1 − x 1 1
1 = −(x − 1)2 · (x + 3)
pA (x) = 0 1−x
0 0 −3 − x
e gli autovalori distinti sono: λ1 = 1, λ2 = −3.
Notiamo che la matrice dell’esempio precedente è triangolare superiore. In generale, se A
è triangolare superiore (rispettivamente, inferiore) anche A − xI è triangolare superiore
(rispettivamente, inferiore). Si ottiene facilmente che
• gli autovalori (distinti) di una matrice triangolare (superiore o inferiore) sono gli
elementi diagonali (distinti) della matrice.
13
Il risultato generale è conseguenza della seguente proposizione.
Dimostrazione. Dobbiamo far vedere che, se A e A0 sono due matrici simili, allora pA (x) =
pA0 (x). Sia C una matrice invertibile tale A0 = C −1 AC. Allora:
pA0 (x) = det(A0 − xI)
= det(C −1 AC − xI)
= det C −1 AC − C −1 (xI)C
= det C −1 (A − xI)C
Corollario Tutte le matrici associate ad uno stesso endomorfismo hanno lo stesso poli-
nomio caratteristico.
Dimostrazione. Supponiamo che A e A0 siano due matrici associate allo stesso endomor-
fismo f . Allora sappiamo che A e A0 sono simili, e dunque, per la proposizione precedente,
esse hanno lo stesso polinomio caratteristico.
Grazie alla precedente proposizione, possiamo definire il polinomio caratteristico di un
endomorfismo f di V n come il polinomio caratteristico di una qualunque matrice associata
a f (tale polinomio è sempre lo stesso). Scriveremo dunque
pf (x) = pA (x),
dove A è una matrice associata a f .
14
7 Calcolo degli autospazi
Una volta calcolati gli autovalori λ1 , . . . , λk di un endomorfismo f (tramite il polinomio
caratteristico di una sua matrice associata A) sarà possibile determinare gli autospazi
semplicemente risolvendo l’equazione vettoriale
f (v) = λj v
(A − λj I)X = O.
e stabilire se f è diagonalizzabile.
−2 6
Soluzione. La matrice di f nella base canonica è A = . Quindi:
−2 5
(A − I)X = O.
−3 6
Poiché A − I = il sistema si scrive
−2 4
(
− 3x + 6y = 0
− 2x + 4y = 0.
Quindi
2t 2
E(1) = ,t ∈ R , con base v1 = .
t 1
15
−4 6
Per l’autovalore 2 si ha A − 2I = e il sistema è
−2 3
(
− 4x + 6y = 0
− 2x + 3y = 0.
Quindi
3s 3
E(2) = ,s ∈ R , con base v2 = .
2s 2
Notiamo che i due autospazi hanno entrambi dimensione 1 e quindi gli autovalori hanno
entrambi molteplicità geometrica 1:
M G(1) = M G(2) = 1.
16
Poiché A è triangolare superiore, gli autovalori saranno gli elementi diagonali. f ha dunque
due autovalori distinti λ1 = −1, λ2 = 2 e, di conseguenza, due autospazi: E(−1), E(2).
Cerchiamo una base di ciascuno di essi. Per E(−1) dobbiamo risolvere l’equazione f (v) =
−v, dunque il sistema
(A + I)X = O.
0 1 5
Esplicitamente A + I = 0 0 3 dunque il sistema è:
0 0 3
y + 5z = 0
3z = 0
3z = 0
1
e il suo insieme delle soluzioni ha dimensione 1 con base 0. In conclusione
0
1
dim E(−1) = 1, con base 0.
0
17
2t
1
che ammette ∞ soluzioni t , con t ∈ R. Ne segue che:
t
2
dim E(2) = 1, con base 1.
1
che sono linearmente indipendenti ma che non possono formare una base di R3 , poiché R3
ha dimensione 3. In conclusione, f non è diagonalizzabile. In effetti, per avere una base
di autovettori almeno uno dei due autospazi avrebbe dovuto avere dimensione maggiore o
uguale a 2. La non diagonalizzabilità di f è dunque conseguenza del fatto che la somma
delle molteplicità geometriche degli autovalori è minore della dimensione dell’intero spazio:
Nella prossima sezione mostreremo che un endomorfismo di un qualunque spazio vettoriale
V n è diagonalizzabile se e solo se la somma delle molteplicità geometriche di tutti i suoi
autovalori vale precisamente n.
8 Primo criterio
Osserviamo che, dati due autovalori distinti λ1 6= λ2 di un endomorfismo f , si ha sempre
18
a) Sia Bi una base dell’autospazio E(λi ), dove i = 1, . . . , h. Allora i vettori dell’insieme
B1 ∪ · · · ∪ Bh
Dimostrazione. a) Per dare un’idea della dimostrazione esamineremo solo il caso in cui ci
siano due autovalori distinti λ1 6= λ2 . Il caso generale si dimostra per induzione. Fissate
le basi B1 = (u1 , . . . , uk ) di E(λ1 ) e B2 = (v1 , . . . , vl ) di E(λ2 ), supponiamo che
a1 u1 + · · · + ak uk + b1 v1 + · · · + bl vl = O.
Ponendo u = a1 u1 + · · · + ak uk e v = b1 v1 + · · · + bl vl otteniamo
u + v = O.
u ∈ E(λ1 ) ∩ E(λ2 )
dunque u = O e
a1 u1 + · · · + ak uk = O.
Poiché i vettori u1 , . . . , uk sono linearmente indipendenti per ipotesi otteniamo infine
a1 = · · · = ak = 0. Analogamente v = O implica b1 = · · · = bl = 0. La conclusione è che i
vettori dell’unione
B1 ∪ B2 = {u1 , . . . , uk , v1 , . . . , vl }
sono linearmente indipendenti.
b) Siccome Bi è una base di E(λi ), il numero dei vettori di Bi è dim E(λi ) = M G(λi ),
per ogni i = 1, . . . , h. Dunque i vettori dell’insieme B1 ∪ · · · ∪ Bh sono, in numero, pari alla
somma di tutte le molteplicità geometriche; poiché sono linearmente indipendenti per la
parte a), tale somma non può superare la dimensione n.
La proposizione afferma che, unendo le basi di tutti gli autospazi, otteniamo sempre vet-
tori linearmente indipendenti: se gli autovettori cosi’ ottenuti sono in numero sufficiente
(cioè n) allora essi formeranno una base dell’intero spazio e l’endomorfismo risulterà di-
agonalizzabile. Enunciamo dunque il criterio seguente, che chiameremo primo criterio di
diagonalizzabilità.
19
Teorema Un endomorfismo di uno spazio vettoriale V n è diagonalizzabile se e solo se la
somma delle molteplicità geometriche dei suoi autovalori è uguale a n. In altre parole, se
e solo se
Xk
M G(λi ) = n,
i=1
dove λ1 , . . . , λk sono gli autovalori distinti di f .
20
tutte le basi cosi’ trovate: l’insieme di autovettori B = B1 ∪ · · · ∪ Bk sarà la base di V n
cercata.
Ecco degli esempi.
8.1 Esempio
Consideriamo l’endomorfismo f di R3
x x+y−z
f y = 2x + 2y − 2z
z −x − y + z
1 1 −1
Scegliendo la base canonica, possiamo considerare la matrice associata A = 2 2 −2
−1 −1 1
3 2
con polinomio caratteristico pA (x) = −x + 4x che si fattorizza come
M G(0) = 2,
(v1 , v2 , w1 )
21
che, grazie alla proposizione, sono linearmente indipendenti (non c’è bisogno di ulteriori
verifiche) e formano la base di autovettori cercata.
Notiamo che la matrice associata a f rispetto alla base B = (v1 , v2 , w1 ) è diagonale, con
elementi diagonali dati dagli autovalori associati, rispettivamente, a v1 , v2 , w1 :
0 0 0
D = 0 0 0
0 0 4
8.2 Esempio
2 0 0
Consideriamo l’endomorfismo f di R3 rappresentato da A = 0 0 −3 rispetto alla
0 2 0
base canonica. Il polinomio caratteristico di A è
pA (x) = (2 − x)(x2 + 6)
8.3 Esempio
2 4 −1
Consideriamo l’endomorfismo f di R3 rappresentato da A = 0 3 1 rispetto alla
0 0 −1
base canonica. Poiché A è triangolare superiore, gli autovalori di f saranno gli elementi
diagonali di A. Quindi f ammette tre autovalori distinti
λ1 = 2, λ2 = 3, λ3 = −1.
22
8.4 Esempio
1 a 0
Si consideri l’endomorfismo f di R3 rappresentato da A = 0 1 b rispetto alla base
0 0 1
canonica. Per quali valori di a, b l’endomorfismo risulta diagonalizzabile?
9 Secondo criterio
In questa sezione daremo un altro criterio necessario e sufficiente per la diagonalizzabilità.
p(x) = (x − λ)q(x),
23
con r(x) polinomio di grado n − 2. Continuando in questo modo, arriveremo dopo k ≤ n
passi alla decomposizione
p(x) = (x − λ)k r(x),
con r(x) polinomio tale che r(λ) 6= 0. Diremo allora che λ è una radice con molteplicità
k. Dunque
• λ è una radice di molteplicità k se p(x) è divisibile per (x−λ)k ma non per (x−λ)k+1 .
Il polinomio p(x) si dice totalmente riducibile se si spezza nel prodotto di polinomi di primo
grado del tipo x − λj , eventualmente moltiplicato per una costante c 6= 0. Se λ1 , . . . , λk
sono le radici distinte, allora p(x) è totalmente riducibile se si scrive
24
• Definiamo molteplicità algebrica dell’autovalore λ la molteplicità di λ quale radice di
pA (x). Essa si denota con il simbolo
M A(λ).
M A(λ) ≥ M G(λ) ≥ 1.
25
Dimostrazione. Supponiamo che 1) e 2) siano verificate, e siano λ1 , . . . , λk gli autovalori
distinti di f . Allora, poiché pf (x) è totalmente riducibile, abbiamo
k
X
M A(λj ) = n.
j=1
k
X k
X
n≥ M A(λj ) ≥ M G(λj ) = n,
j=1 j=1
dove la prima disuguaglianza scende dal fatto che il polinomio caratteristico ha grado n, e
la seconda è vera poiché M A(λj ) ≥ M G(λj ) per ogni j. Ne segue che le due disuguaglianze
devono essere uguaglianze, quindi
k
X
M A(λj ) = n,
j=1
26
Esempio Consideriamo l’endomorfismo f di R4 rappresentato dalla matrice
2 3 1 0
0 2 1 −1
A= 0
0 2 4
0 0 0 3
rispetto alla base canonica (vedi esempio precedente). Si ha pA (x) = (x − 2)3 (x − 3), che
è totalmente riducibile, con un solo autovalore multiplo λ1 = 2 di molteplicità algebrica 3
(l’altro autovalore λ2 = 3 è semplice). È dunque sufficiente calcolare la molteplicità geo-
metrica dell’autovalore 2. Si ha M G(2) = 1, dunque M A(2) > M G(2) e l’endomorfismo
f non è diagonalizzabile.
Il polinomio caratteristico è totalmente riducibile, con autovalori −1, 2, 3 di cui solo il terzo
è multiplo:
M A(3) = 2.
27
È sufficiente dunque calcolare M G(3). Si ha:
−2 1 0 0
−2 1 0 0
rk(A − 3I) = rk = 2,
0 0 −1 3
0 0 1 −3
dunque
M G(3) = 4 − rk(A − 3I) = 2.
In conclusione, M A(3) = M G(3) = 2 per l’unico autovalore multiplo, dunque f è diago-
nalizzabile.
• È chiaro a questo punto che le molteplicità geometriche degli autovalori sono:
B = (v1 , v2 , v3 , v4 )
0 0 0 3
D = M −1 AM.
28
a b 2a b+c
Soluzione. Esplicitamente T = . Dunque la matrice associata a T
c d b+c 2d
nella base canonica è:
2 0 0 0
0 1 1 0
A=0 1
1 0
0 0 0 2
Il polinomio caratteristico è pA (x) = x(x − 2)3 , con autovalori distinti λ1 = 0, λ2 = 2. Si
ha rkA = 3 quindi M G(0) = 1, rk(A − 2I) = 1 quindi M G(2) = 3. Si ha:
M G(0) + M G(2) = 4 = dim Mat(2 × 2),
dunque T è diagonalizzabile. Troviamo ora basi di ciascun autospazio. Una base di E(0)
è E2 − E3 . Una base di E(2) è (E1 , E2 + E3 , E4 ). Dunque una base di Mat(2 × 2) formata
da autovettori è:
0 1 1 0 0 1 0 0
(E2 − E3 , E1 , E2 + E3 , E4 ) = ( , , , ).
−1 0 0 0 1 0 0 1
Esempio Consideriamo
l’endomorfismo
T : Mat(2 × 2) → Mat(2 × 2) definito da T (A) =
1 1
AN , dove N = . Stabilire se T è diagonalizzabile.
−1 −1
x y x−y x−y
Soluzione. Esplicitamente T = . La matrice associata nella base
z w z−w z−w
canonica è
1 −1 0 0
1 −1 0 0
A= 0 0 1 −1
0 0 1 −1
Un calcolo mostra che pA (x) = x4 . Abbiamo dunque un solo autovalore λ1 = 0 con
M A(0) = 4. Poichè rkA = 2 si ha M G(0) = 2 < 4, dunque T non è diagonalizzabile.
x y −2x + 6y −2x + 5y
Esempio Sia T : Mat(2×2) → Mat(2×2) definito da T = .
z w −2z + w w
Stabilire se T è diagonalizzabile.
0 0 0 1
29
Polinomio caratteristico pA (x) = (x − 1)2 (x + 2)(x − 2), totalmente riducibile. Abbiamo
tre autovalori distinti λ1 = 1, λ2 = 2, λ3 = −2, di cui solo il primo è multiplo: M A(1) =
2. Si ha rk(A − I) = 2 dunque M G(1) = 2 = M A(1): per il secondo criterio, T è
diagonalizzabile. Si può verificare che una base di autovettori è:
2 1 0 0 3 2 0 0
, , , ,
0 0 0 1 0 0 1 0
0 0 0 −2
10 Matrici diagonalizzabili
Se A è una matrice quadrata n × n, diremo che il vettore colonna v ∈ Rn , con v 6= O, è
un autovettore di A se
Av = λv,
per un certo λ ∈ R, detto autovalore relativo a v. In altre parole:
• v è un autovettore di A se e solo se v è un autovettore dell’endomorfismo di Rn
rappresentato da A rispetto alla base canonica.
• Diremo che la matrice A è diagonalizzabile se A è simile ad una matrice diagonale;
se cioè possiamo trovare una matrice diagonale D e una matrice invertibile M tali che
D = M −1 AM. (5)
Diagonalizzare una matrice (quando ciò è possibile) significa trovare matrici D e M che
verificano la relazione (5).
Il teorema seguente ci dice quando è possibile diagonalizzare una matrice.
30
dove D è la matrice diagonale di elementi diagonali λ1 , . . . , λn , rispettivamente.
In altre parole, A è simile alla matrice i cui elementi diagonali sono gli autovalori di f ,
e M è la matrice le cui colonne formano una base di autovettori di f (presi nello stesso
ordine degli autovalori).
D = M −1 AM
dove M è la matrice di passaggio dalla base canonica alla base di autovettori B. Per
definizione di matrice di passaggio, le colonne di M sono proprio i vettori di B, e dunque
si ha (b).
10.1 Esempio
−2 6
Diagonalizzare, se possibile, la matrice A = .
−2 5
31
Vediamo quali fra queste sono diagonalizzabili, applicando il secondo criterio.
Matrice A1 . Polinomio caratteristico −(x − 1)2 (x + 3), totalmente riducibile. Autovalori
distinti 1, −3, di cui solo il primo è multiplo, con M A(1) = 2. Si ha M G(3) = 1 < M A(1).
Quindi A1 non è diagonalizzabile.
Matrice A2 . Polinomio caratteristico −(x − 1)2 (x − 3), totalmente riducibile. Autovalori
distinti 1, 3, di cui solo il primo è multiplo, con M A(1) = 2. Si ha M G(1) = 2 quindi A2
è diagonalizzabile.
Matrice A3 . Polinomio caratteristico −(x − 1)(x − 2)(x + 1). Autovalori distinti 1, 2, −1:
sono tre, tutti semplici, quindi A3 è diagonalizzabile.
Matrice A4 . Polinomio caratteristico −(x − 2)(x2 + 1): il fattore quadratico x2 + 1
non ha radici, dunque il polinomio caratteristico non è totalmente riducibile e A4 non è
diagonalizzabile.
Possiamo diagonalizzare solo A2 e A3 .
Diagonalizzazione di A2 . Autovalori 1, 3. Cerchiamo una base degli autospazi. Si ha
1 1 1
A2 − I = −1 −1 −1
2 2 2
e l’autospazio E(1)
si ottiene
risolvendo
il sistema (A2 − I)X = O. Un calcolo mostra che
1 1
una base di E(1) è −1 , 0 . Si ha poi
0 −1
−1 1 1
A2 − 3I = −1 −3 −1
2 2 0
1
per cui una base di E(3) è −1. Unendo le basi dei due autospazi otteniamo la base di
2
autovettori:
1 1 1
B= −1 , 0 , −1 associati, nell’ordine, a 1, 1, 3.
0 −1 2
Dunque
1 1 1 1 0 0
M = −1 0 −1 , D = 0 1 0 .
0 −1 2 0 0 3
32
Possiamo verificare che D = M −1 AM ovvero che M D = AM .
Si ha dunque:
1 2 − 25
1 0 0
M = 0 1 1 , D = 0 2 0 .
0 0 3 0 0 −1
33
Parte 8. Prodotto scalare, teorema spettrale
A. Savo − Appunti del Corso di Geometria 2013-14
1 Prodotto scalare in Rn
1.1 Definizione
x1 y1
.. ..
Dati i vettori u = . e v = . di Rn , definiamo prodotto scalare di u e v il numero
xn yn
reale:
hu, vi = x1 y1 + · · · + xn yn .
Il risultato del prodotto scalare è dunque un numero.
1 2
Esempio Se u = 2 e v = −1 allora hu, vi = 3.
3 1
Notiamo che il prodotto scalare di due vettori può risultare nullo anche se nessuno dei due
fattori è il vettore nullo.
1 −1
Esempio Se u = 2 e v = −1 allora hu, vi = 0.
3 1
1
• I vettori u e v si dicono ortogonali se il loro prodotto scalare è nullo: hu, vi = 0.
Notazione:
u ⊥ v.
Dimostrazione.
La dimostrazione di 1),2),3) si riduce a una semplice verifica. Osserviamo
x1
..
che, se u = . allora
xn
hu, ui = x21 + · · · + x2n ,
che è un numero sempre positivo o nullo: questo dimostra la 4). Se hu, ui = 0 evidente-
mente x1 = · · · = xn = 0, e quindi u = O.
Dalle proprietà di bilinearità osserviamo che il prodotto scalare si comporta in modo
naturale rispetto alle combinazioni lineari. Per ogni scelta dei vettori v1 , . . . , vk , u, w ∈ Rn
e degli scalari a1 , . . . , ak ∈ R si ha:
2
Di conseguenza, poiché il prodotto scalare è commutativo, si ha anche
Dimostrazione. Omessa.
3
1.3 Angolo tra due vettori
Supponiamo che u e v siano due vettori non nulli. Per la disuguaglianza di Schwarz, si ha
|hu, vi|
≤ 1,
kukkvk
hu, vi
cos θ = .
kukkvk
0 1
√ √
kuk = 6, kvk = 6, hu, vi = 3.
1
Dunque cos θ = 2 cioè θ = π3 .
2 Basi ortonormali
2.1 Ortogonalità e indipendenza lineare
a1 v1 + · · · + ak vk = O. (1)
Prendendo il prodotto scalare dei due membri della (1) per v1 otteniamo
0 = ha1 v1 + a2 v2 + · · · + ak vk , v1 i
= a1 hv1 , v1 i + a2 hv2 , v1 i + · · · + ak hvk , v1 i
= a1 kv1 k2
perché per ipotesi hvj , v1 i = 0 per ogni j = 2, . . . , k. Per ipotesi, v1 è non nullo, dunque
kv1 k2 > 0 e ne segue che a1 = 0. Prendendo successivamente il prodotto scalare dei due
4
membri della (1), ordinatamente per v2 , . . . , vk , si dimostra in modo analogo che aj = 0
per ogni j.
• n vettori non nulli, a due a due ortogonali formano una base di Rn (che sarà chiamata
base ortogonale).
1 2
Esempio I vettori v1 = , v2 = formano una base ortogonale di R2 perchè
−2 1
hv1 , v2 i = 0.
1 1 1
I vettori w1 = 1 , w2 = −1 , w3 = 1 sono non nulli e a due a due ortogonali:
1 0 −2
Esempio La matrice
1 1 1 −1
1 1 −1 1
A=
1 −1 1
1
1 −1 −1 −1
ha rango 4. Infatti i suoi vettori colonna sono a due a due ortogonali, e quindi sono
linearmente indipendenti.
• Il numero massimo di vettori di Rn , non nulli e ortogonali a due a due, è n.
In modo analogo, possiamo definire la nozione di base ortogonale di un qualunque sot-
tospazio E di Rn : se dim E = k allora i vettori v1 , . . . , vk formano una base ortogonale di
E se sono non nulli e hvi , vj i = 0 per ogni i 6= j.
Esempio
Il sottospazio
E : x + y + z = 0 di R3 ha dimensione 2. I due vettori v1 =
1 1
−1 , v2 = 1 appartengono a E e sono ortogonali tra loro, dunque formano una
0 −2
base ortogonale di E.
5
Dunque una base ortonormale è formata da vettori a due a due ortogonali, tutti di norma
unitaria. Una base ortonormale è, in particolare, anche ortogonale.
Esempio I vettori:
1 1 1 −1
1 1 1 1 1 −1 1 1
v1 = , v2 = , v3 = , v4 = ,
2 1 2 −1 2 1 2 1
1 −1 −1 −1
sono a due a due ortogonali e hanno tutti norma 1. Dunque tali vettori
formano una
1
2
base ortonormale B di R4 . Calcoliamo le coordinate del vettore v =
3 rispetto a B. I
4
coefficienti di Fourier sono
hv, v1 i = 5, hv, v2 i = −2, hv, v3 i = −1, hv, v4 i = 0.
6
Dunque v ha coordinate
5
−2
,
−1
0
rispetto a B. In altre parole v = 5v1 − 2v2 − v3 .
3 Algoritmo di Gram-Schmidt
Lo scopo di questa sezione è quello di dimostrare che ogni sottospazio di Rn ammette
almeno una base ortonormale.
7
e ha norma 1.
Corollario Se (v1 , . . . , vk ) è una base ortogonale del sottospazio E, allora i vettori nor-
malizzati
1 1
u1 = v1 , . . . , uk = vk
kv1 k kvk k
formano una base ortonormale di E.
8
con a ∈ R da determinare in modo opportuno. Notiamo che i vettori w1 , w2 appartengono
a E; inoltre w2 non è nullo (altrimenti v1 e v2 sarebbero linearmente dipendenti ). Ora
scegliamo il coefficiente a in modo tale che w2 risulti ortogonale a w1 . È facile vedere che
cio’ accade se solo se:
hv2 , w1 i
a= .
hw1 , w1 i
Dunque, con tale scelta, otteniamo la base ortogonale (w1 , w2 ) di E.
hv2 , w1 i
dove a = è stato già determinato, cosicché hw1 , w2 i = 0. Imponendo le condizioni
hw1 , w1 i
hw3 , w1 i = hw3 , w2 i = 0,
otteniamo:
hv3 , w1 i hv3 , w2 i
b= , c= .
hw1 , w1 i hw2 , w2 i
Con tali scelte di a, b, c otteniamo quindi la base ortogonale (w1 , w2 , w3 ) di E e quindi,
normalizzando, una base ortonormale (notiamo che w3 non è nullo, altrimenti v1 , v2 , v3
sarebbero linearmente dipendenti ).
Procedendo per induzione, possiamo enunciare il seguente teorema.
dove si è posto:
hvi , wj i
aij = .
hwj , wj i
9
Allora (w1 , . . . , wk ) è una base ortogonale di E, e quindi i vettori normalizzati:
1 1
u1 = w1 , . . . , u k = wk ,
kw1 k kwk k
E : x − y − 2z = 0.
10
• Ovviamente la base ortonormale ottenuta dipende dalla base di partenza. Per eser-
cizio, vedere quale base ortonormale si ottiene scambiando i vettori della base di partenza.
Esempio Trovare una base ortonormale del sottospazio di R4 generato dai vettori:
1 2 1
1 0 3
v1 = 0 , v2 = 1 , v3 = −1 .
0 0 2
0
2 1 1
0 1 −1
w2 = 1 − 0 = 1 .
0 0 0
Ora:
hv3 , w1 i 4
a31 = hw , w i = 2 = 2
1 1
hv , w i −3
a32 = 3 2 =
= −1
hw2 , w2 i 3
dunque:
1 1 1 0
3 1 −1 0
−1 − 2 0 + 1 = 0 .
w3 =
2 0 0 2
Otteniamo la base ortogonale:
1 1 0
1 −1 0
0 , w2 = 1 , w3 = 0 ,
w1 =
0 0 2
11
e, normalizzando, la base ortonormale:
1 1 0
1 1
1 −1 0
u1 = √ , u2 = √ , u3 = .
2 0
3 1 0
0 0 1
4 Matrici ortogonali
Abbiamo visto che la matrice M di passaggio fra due basi B, B 0 di uno spazio vettoriale è
invertibile. Se le basi B, B 0 sono ortonormali, la matrice di passaggio avrà delle proprietà
particolari.
M −1 = M t ,
12
Osserviamo che le colonne delle matrici ortogonali dei due esempi precedenti formano,
effettivamente, una base ortonormale di R2 (primo esempio), e di R3 (secondo esempio).
Dalla parte b) del teorema abbiamo anche
• Incolonnando i vettori di una base ortonormale di Rn otteniamo una matrice ortog-
onale n × n.
Infine, si può dimostrare che le matrici ortogonali di R2 sono di due tipi:
cos θ − sin θ
sin θ cos θ
con θ ∈ R, oppure
cos α sin α
,
sin α − cos α
con α ∈ R. Le matrici del primo tipo hanno determinante 1, mentre quelle del secondo
tipo hanno determinante −1.
E = {v ∈ Rn : hv, u1 i = 0},
13
Dunque
Eè il
sottospazio delle soluzioni dell’equazione, e una sua base è, ad esempio,
1 0
−1 , 1. E ha dimensione 2.
0 1
1 0
Esempio Dati i vettori u1 = 1 , u2 = 1 si consideri il sottospazio
−1 −2
14
è un sottospazio di Rn di dimensione n − k.
dim E = n − k.
Dalle proprietà del prodotto scalare risulta che E ⊥ è chiuso rispetto alla somma e al
prodotto per uno scalare, dunque è un sottospazio di Rn .
1 0
15
Soluzione. Imponiamo al vettore generico v = (x, y, z, w)t ∈ R4 l’ortogonalità ai vettori
della base (v1 , v2 ) di E, ottenendo il sistema omogeneo:
(
x+y+z+w =0
.
x+z =0
1 0
0 , 1 .
Risolvendo il sistema, otteniamo la base di E ⊥ :
−1 0
0 −1
Le proprietà importanti del complemento ortogonale sono espresse nel seguente teorema.
v = w + w⊥ .
16
In particolare, w e w⊥ sono ortogonali.
• Il vettore w è detto la proiezione ortogonale di v sul sottospazio E. Denoteremo w
con il simbolo PE (v).
3
È dato il sottospazio di R descritto dall’equazione x + y − 2z = 0. Il vettore
Esempio
1
v = 2 ∈ R3 si spezza
0
1 1/2 1/2
2 = 3/2 + 1/2 ,
0 1 −1
1/2
⊥
dove il primo vettore appartiene a E e il secondo a E . Quindi PE (v) = 3/2.
1
In generale, se (u1 . . . , uk ) è una base ortonormale di E allora la proiezione ortogonale si
calcola con la formula
PE (v) = hv, u1 iu1 + · · · + hv, uk iuk .
6 Endomorfismi simmetrici
In questa sezione studieremo una classe importante di endomorfismi di Rn : gli endomor-
fismi detti simmetrici. Tali endomorfismi sono caratterizzati dalla proprietà di ammettere
una base ortonormale di autovettori, e sono legati in modo naturale alle matrici simmet-
riche. In particolare, risulterà che ogni matrice simmetrica è diagonalizzabile.
17
Teorema Le seguenti condizioni sono equivalenti.
a) f è un endomorfismo simmetrico di Rn .
b) La matrice associata a f rispetto ad una qualunque base ortonormale di Rn è simmet-
rica.
c) Per ogni coppia di vettori u, v ∈ Rn si ha
A0 = M −1 AM,
dove M è la matrice di passaggio dalla base canonica BC alla base B. Poichè tali basi sono
entrambe ortonormali, si ha che M è ortogonale, quindi M −1 = M t . Dunque A0 = M t AM ,
ed è sufficiente dimostrare che M t AM è simmetrica. Ma questo è immediato:
(M t AM )t = M t A(M t )t = M t AM.
f (v) = Av.
hAei , ej i = aji ,
18
Per ipotesi, si ha la proprietà c). Dunque, se A è la matrice canonica di f , l’identità
hAu, vi = hu, Avi
risulta vera per ogni scelta dei vettori colonna u, v. Prendendo u = ei e v = ej otteniamo
aji = aij
per ogni i, j, dunque la matrice canonica di f è simmetrica e f risulta simmetrico.
19
è una base ortonormale di R2 formata da autovettori di f .
x x + 2y 1 2
Esempio L’endomorfismo f = ha matrice canonica dunque non
y 3y 0 3
è simmetrico. Si osserva che f ha autovalori λ1 = 1, λ2 = 3 e autospazi:
E(1) : y = 0, E(3) : x − y = 0.
Poiché il secondo membro rimane uguale scambiando v con w, si ha hPE (v), wi = hPE (w), vi =
hv, PE (w)i e PE è simmetrico.
7 Teorema spettrale
Veniamo al seguente importante teorema, di cui omettiamo la dimostrazione.
Dimostrazione. La matrice associata alla base di autovettori (che è ortonormale per ipotesi)
è diagonale, dunque simmetrica, e quindi f è simmetrico per il teorema della sezione prece-
dente.
20
Dunque, la classe degli endomorfismi di Rn che ammettono una base ortonormale di
autovettori coincide con la classe degli endomorfismi simmetrici.
Notiamo anche il fatto seguente.
21
7.1 Esempio
−3 3
Sia f l’operatore di R2 rappresentato da rispetto alla base canonica. Abbiamo
3 5
già trovato una base ortonormale di autovettori:
1 3 1 1
√ ,√ ,
10 −1 10 3
associati rispettivamente a −4 e 6. Quindi se prendiamo
1 3 1 −4 0
M=√ , D= .
10 −1 3 0 6
si avrà D = M t AM .
7.2 Esempio
1 1 1
Sia f l’operatore di R3 rappresentato da 1 1 1 rispetto alla base canonica. f è
1 1 1
simmetrico. Il polinomio caratteristico è −x3 + 3x2 e gli autovalori sono 0, 3. E(0) è
1 1
il nucleo, di equazione x + y + z = 0 e base −1 , 0 . Applicando l’algoritmo di
0 −1
Gram-Schmidt, otteniamo la base ortonormale di E(0):
1 1
1 1
w1 = √ −1 , w2 = √ 1 .
2 0 6 −2
1
E(3) ha base 1; si osserva che E(3) è ortogonale a E(0). Otteniamo la base ortonormale
1
di E(3):
1
1
w3 = √ 1 .
3 1
22
Ponendo
1 1 1
√ √ √
2 6 3
1 0 0 0
1 1
M = − √ √ √ , D = 0 0 0 ,
2 6 3 0 0 3
2 1
0 −√ √
6 3
si ha D = M t AM .
7.3 Esempio
Sia f l’endomorfismo di R4 rappresentato, rispetto alla base canonica, dalla matrice
2 0 1 0
0 2 0 −1
A= 1 0 2 0 .
0 −1 0 2
0 −1 0 1
(
x1 + x3 = 0
x2 − x4 = 0
e quindi
t
s 4
E(1) = {
−t ∈ R : t, s ∈ R}.
s
Procedendo in modo analogo, si ha:
t0
s0 4 0 0
E(3) = {
t0 ∈ R : t , s ∈ R}.
−s0
23
Osserviamo che i due autospazi sono fra loro ortogonali, nel senso che:
0
t t
s s0 0 0 0 0
h
−t , t0 i = tt + ss − tt − ss = 0
s −s0
per ogni t, s, t0 , s0 ∈ R.
Passiamo ora a costruire una base ortonormale di autovettori di f . Una base di E(1)
è data dalla coppia ((1, 0, −1, 0)t , (0, 1, 0, 1)t ): i due vettori sono ortogonali, dunque una
base ortonormale di V (1) è:
1 0
1 0 1 1
w1 = √ , w2 = √ ,
2 −1 2 0
0 1
In modo analogo, dalla base ((1, 0, 1, 0)t , (0, 1, 0, −1)t ) di E(3) otteniamo la base ortonor-
male di E(3):
1 0
1 0 1 1
w3 = √ , w4 = √
2 1 2 0
0 −1
Dunque
B = B1 ∪ B2 = (w1 , w2 , w3 , w4 )
è una base ortonormale di R4 , costituita da autovettori di f .
La matrice A è diagonalizzabile; se M è la matrice ottenuta incolonnando la base ortonor-
male di autovettori descritta in precedenza, cioè
1 0 1 0
1 0 1 0 1
M=√
2 −1 0 1 0
0 1 0 −1
0 0 0 3
24
Parte 9. Geometria del piano
A. Savo − Appunti del Corso di Geometria 2013-14
A
Figura 1: Vettore applicato in A
Il punto A è detto punto di applicazione mentre il punto B è detto vertice del vettore. Il
−→
vettore AA è, per definizione, il vettore nullo.
1
Un vettore non nullo è individuato da:
• un punto di applicazione (il punto A),
• una direzione (quella della retta per A e B),
• un verso (quello da A a B),
• un modulo (la lunghezza del segmento AB).
−−→ −−→
Il modulo si indica kABk; ovviamente il modulo di AB uguaglia la distanza di A da B.
Vettori che hanno la stessa direzione sono contenuti in rette parallele, e si dicono paralleli.
Per convenzione, il vettore nullo è parallelo a tutti i vettori.
*
*
Vettori che hanno stessa direzione, verso e modulo si dicono equipollenti. Vettori equipol-
lenti differiscono solamente per il punto di applicazione.
1.2 Traslazioni
−−→
È evidente dal V postulato di Euclide che, dato un vettore ~v = AB e un altro punto A0 ,
−−→
esiste un unico punto B 0 tale che A0 B 0 è equipollente a ~v :
2
0
B
r 0
B A
r
A
Un vettore ~v definisce cosi’ una classe di vettori equipollenti: ne ho uno per ogni punto
del piano.
3
*
XXX
y K
A
XXX A
XXXA -
O
Vogliamo introdurre in VO2 operazioni di somma e di prodotto per uno scalare in modo da
ottenere uno spazio vettoriale.
C
A
1 B
O
Figura 6: Regola del parallelogramma
4
*
* C
B
*
r
A
O
La somma si effettua dunque con quella che viene comunemente chiamata regola del
parallelogramma.
B
*
O
1
r
A w
~
2~ −−→
*
v = OB 3
O −2w~
)
r −→
~v = OA
• La somma è commutativa: ~v + w
~ =w
~ + ~v .
5
• ~ =−
Notiamo che: se O
−→
OO indica il vettore nullo di VO2 , allora
~ = ~v
~v + O
A
1
O
r
~v
A0
−~
v
)
Le altre proprietà di spazio vettoriale sono verificate (come si dimostra facilmente), dun-
que:
Proposizione L’insieme VO2 dei vettori applicati nell’origine, con le operazioni di somma
e prodotto per uno scalare appena introdotte, è uno spazio vettoriale.
6
A
*
O
r ~
u
B
~v = k~u
Proposizione Due vettori ~u, ~v di VO2 sono linearmente dipendenti se e solo se sono
paralleli.
Dimostrazione. Infatti sappiamo che, in uno spazio vettoriale qualunque, due vettori sono
linearmente dipendenti se e solo se uno di essi è un multiplo dell’altro. È ora evidente
che, ad esempio, ~v = k~u se e solo se ~u e ~v sono paralleli.
−→ −−→ −−→ −−→
Nella figura, OA e OB sono linearmente indipendenti, mentre OC e OD sono linearmente
dipendenti:
A C
O
O r r
* *
PP
B
D
P P
q
P
Dimostriamo ora:
Teorema La dimensione di VO2 è pari a 2. Le basi di VO2 sono tutte e sole le coppie
costituite da vettori non paralleli.
7
Dimostrazione. Consideriamo due vettori e~1 , e~2 non paralleli, dunque linearmente indi-
−−→
pendenti. È sufficiente dimostrare che ogni vettore applicato in O, diciamo OP , è una
combinazione lineare di e~1 , e~2 : in questo modo {~e1 , ~e2 } è anche un insieme di generatori, e
quindi una base. Che {~e1 , ~e2 } sia un insieme di generatori è evidente dalla figura; il lettore
è invitato a specificare i dettagli della costruzione geometrica che dimostra questo fatto.
P
y e~2
e~2
1
xe~1
−−→
1
e~1 OP = xe~1 + y e~2
O
Figura 10: Base di VO2
Ne segue che e~1 , e~2 sono anche generatori e formano una base.
Dal teorema segue in particolare che tre vettori di VO2 sono sempre linearmente dipendenti.
In effetti, è facile dimostrare tale proprietà direttamente dalle definizioni di somma e
prodotto per uno scalare, aiutandosi con una figura opportuna.
Fra tutte le basi di VO2 distingueremo una classe particolare di basi: le basi ortonormali.
• Una base (e~1 , e~2 ) si dice base ortonormale se i vettori e~1 , e~2 sono ortogonali e hanno
modulo 1.
3 Sistemi di riferimento
3.1 Sistema di riferimento affine
Un sistema di riferimento affine nel piano consiste nella scelta di un punto O detto origine
e di una base (e~1 , e~2 ) di VO2 .
Un sistema di riferimento permette di descrivere i punti del piano con una coppia di
numeri, le coordinate del punto. Precisamente, dato un punto P , consideriamo il vettore
−−→
OP , ed esprimiamo tale vettore come combinazione lineare dei vettori della base scelta:
−−→
OP = xe~1 + y e~2 .
8
Diremo allora che P ha coordinate (x, y) e identificheremo il punto P con le sue coordinate:
P = (x, y).
L’origine ha coordinate (0, 0). La retta su cui giace e~1 è detta asse x, mentre la retta su
cui giace e~2 è detta asse y. Gli assi sono orientati in modo concorde con i vettori della
base.
asse y
@
I
@
@
@
@
P = (x, y)
@
y e~2 @ r
I
@ @
@
@ @
@
e~2 @@
I
@
@ @
@r
@ - -
@ -
O@ e~1 xe~1 asse x
@
@
@
@ −−→
@ OP = xe~1 + y e~2
9
asse y
6
P = (x, y)
P2 r
e~2 6
- -
O e~1 P1 asse x
−−→ −−→
Teorema Se il vettore OP ha coordinate (x, y) e il vettore OP 0 ha coordinate (x0 , y 0 )
allora:
−−→
a) Il vettore k OP ha coordinate k(x, y) = (kx, ky).
−−→ −−→
b) Il vettore OP + OP 0 ha coordinate (x, y) + (x0 , y 0 ) = (x + x0 , y + y 0 ).
−−→ −−→
Dimostrazione. È sufficiente osservare che, per definizione, OP = x→−
e1 + y →
−
e2 e OP 0 =
x0 →
−
e1 + y 0 →
−
e2 e applicare le proprietà di spazio vettoriale.
Il teorema si enuncia dicendo anche che, se F : VO2 → R2 è l’applicazione che associa a
un vettore le sue coordinate rispetto alla base scelta, allora F è un’applicazione lineare;
tale applicazione è inoltre biiettiva, dunque è isomorfismo di spazi vettoriali. (In realta’
questo fatto è vero in ogni spazio vettoriale).
Spesso identificheremo anche un vettore con le sue coordinate. Dunque la scrittura
−−→
OP = (x, y)
significherà
−−→
OP = xe~1 + y e~2 .
10
−−→
Vogliamo ora attribuire coordinate a un vettore AB applicato in un punto qualunque A
del piano.
−−→
Definizione Le coordinate del vettore AB sono, per definizione, le coordinate del vettore
−−→ −−→
OC, traslato di AB nell’origine.
(Vedi Figura 13).
−−→
Proposizione Le coordinate del vettore AB sono date dalla differenza fra le coordinate
del vertice e quelle del punto di applicazione. In altre parole, se A = (x, y) e B = (x0 , y 0 )
−−→
allora le coordinate del vettore AB sono
(x0 − x, y 0 − y).
−−→
• Spesso scriveremo, in breve, che le coordinate di AB sono B − A.
−−→ −−→
Dimostrazione. Se OC è il traslato di AB nell’origine, dalla legge del parallelogramma
−−→ −→ −−→
abbiamo che OB = OA + OC dunque:
−−→ −−→ −→
OC = OB − OA.
−−→ −−→
Le coordinate di AB sono, per definizione, quelle di OC: prendendo le coordinate di ambo
−−→
i membri della relazione vettoriale precedente, vediamo che le coordinate di OC valgono
(x0 , y 0 ) − (x, y) = (x0 − x, y 0 − y).
11
asse y
6
B = (x0 , y 0 )
1
A = (x, y)
1
C = (x0 − x, y 0 − y)
-
O = (0, 0) asse x
È evidente che vettori equipollenti hanno lo stesso traslato nell’origine, dunque hanno
coordinate uguali. È vero anche il viceversa. In conclusione
• due vettori del piano sono equipollenti se e solo se hanno coordinate uguali.
Un vettore del piano è determinato dalle sue coordinate, e dal punto di applicazione.
Esempio Trovare il vertice dell’unico vettore del piano di coordinate (−1, 4) applicato nel
punto A = (2, 3).
B − A = (−1, 4),
Esempio Sono dati i punti A = (1, 1), B = (2, 3), C = (3, −1). Determinare le coordinate
del punto D, quarto vertice del parallelogramma costruito su AB e AC.
Soluzione. Risolviamo con l’algebra dei vettori. Dalla legge del parallelogramma il punto
D è tale che:
−−→ −→ −−→
AB + AC = AD.
Prendendo le coordinate di ambo i membri, avremo quindi un’uguaglianza tra coppie di
numeri: B − A + C − A = D − A, e dunque:
12
4 Equazioni parametriche di una retta
D’ora in poi fisseremo nel piano un sistema di coordinate cartesiane, con origine O e base
ortonormale di riferimento (e~1 , e~2 ).
r
~v
1
Q
O
13
Dimostrazione. Sia r0 la retta per l’origine parallela a r. Con riferimento alla figura
−−→ −−→ −−→ −−→
sottostante, consideriamo il punto Q0 su r0 tale che OP = OP0 + OQ0 . Ora OQ0 è parallelo
−−→ −−→ −−→ −−→ −−→
a OQ, dunque esiste t ∈ R tale che OQ0 = tOQ e si ha OP = OP0 + t~v .
r
P
:
3
P0
0
r
:
Q0
:
Q
O
Le equazioni vanno interpretate nel seguente modo: il punto (x, y) appartiene alla retta r
se e solo se esiste t ∈ R tale che le due equazioni sono entrambe verificate. Al variare di
t ∈ R otteniamo le coordinate di tutti i punti di r.
14
Dimostrazione. Dall’ equazione vettoriale della retta, dimostrata nella proposizione pre-
cedente, abbiamo che il punto P appartiene alle retta r se e solo se
−−→ −−→ −−→
OP = OP0 + tOQ
Proposizione Siano P1 = (x1 , y1 ) e P2 = (x2 , y2 ) due punti distinti del piano, e sia r la
retta passante per P1 e P2 .
a) I parametri direttori di r sono proporzionali alla coppia P2 − P1 , cioè a:
(
l = x2 − x1
m = y2 − y1
15
b) Equazioni parametriche di r sono date da
(
x = x1 + (x2 − x1 )t
y = y1 + (y2 − y1 )t
−−−→
Dimostrazione. a) Il vettore P1 P2 è parallelo a r, e il suo traslato nell’origine ~v sarà
Esempio Scrivere le equazioni parametriche della retta passante per i punti P1 = (1, 3) e
P2 = (5, −1).
16
5.1 Condizione di allineamento di tre punti
Sappiamo che, nel piano, due punti sono sempre allineati (esiste cioè una retta che li
contiene entrambi). In generale, pero’, tre punti possono risultare non allineati.
−−−→ −−−→
Dimostrazione. I tre punti sono allineati se e solo se i vettori P1 P2 e P1 P3 applicati nel
−−−→ −−−→
uguaglia l’area del parallelogramma costruito sui vettori P1 P2 e P1 P3 : tale area è nulla
esattamente quando i punti sono allineati.
Esempio Stabilire se i punti A = (1, 1), B = (2, 2), C = (2, −3) sono allineati oppure no.
1 1
Soluzione. Basta esaminare il determinante : vale −5, dunque è diverso da zero e
1 −4
−−→
i punti non sono allineati. Infatti, l’area del parallelogramma costruito sui vettori AB e
−→
AC vale |−5| = 5.
Proposizione a) Ogni retta del piano si rappresenta con un’equazione lineare in due
variabili, del tipo:
ax + by + c = 0, (1)
con a, b non entrambi nulli, detta equazione cartesiana della retta. Questo significa che il
punto P = (x, y) appartiene alla retta se e solo se le sue coordinate verificano l’equazione
(1).
17
b) L’equazione cartesiana della retta per i due punti distinti P1 = (x1 , y1 ) e P2 = (x2 , y2 )
è:
x − x1 y − y1
x2 − x1 y2 − y1 = 0
Esempio L’equazione cartesiana della retta per i punti A = (2, 1), B = (1, −2) è
x − 2 y − 1
= 0, cioè 3x − y − 5 = 0.
−1 −3
18
a) r e r0 sono parallele se e solo se:
a b
a0 b0 = 0,
quindi se e solo se i rispettivi coefficienti sono proporzionali: (a0 , b0 ) = k(a, b) per qualche
k ∈ R;
b) r e r0 si incontrano in un unico punto se e solo se
a b
6 0
a0 b0 =
da cui la condizione.
19
6.1 Parametri direttori
Abbiamo visto due possibili rappresentazioni di una retta del piano:
• tramite equazioni parametriche,
• tramite un’equazione cartesiana.
Il passaggio dalle equazioni parametriche all’equazione cartesiana avviene eliminando il
parametro.
(
x = 1 − 2t
Esempio La retta di equazioni parametriche r : ha equazione cartesiana
y =2+t
x + 2y + 5 = 0 ottenuta sostituendo t = y − 2 nella prima equazione.
Notiamo che r ha parametri direttori proporzionali a (−2, 1).
Il passaggio dall’equazione cartesiana alle equazioni parametriche avviene risolvendo l’e-
quazione.
Esempio
( La retta di equazione cartesiana 2x + y + 5 = 0 ha equazioni parametriche
x=t
.
y = −5 − 2t
In particolare, ha parametri direttori proporzionali a (1, −2).
• In generale, i parametri direttori della retta r di equazione ax + by + c = 0 sono
proporzionali a (b, −a); in altre parole, r è parallela al vettore direttore b~e1 − a~e2 .
r
20
Esempio È data la retta r : x+3y−5 = 0. Allora l’equazione della retta generica parallela
a r si scrive
r0 : x + 3y + k = 0,
con k ∈ R, detta anche equazione del fascio di rette parallele a r.
Infatti, la retta r0 : ax + by + c = 0 è parallela a r se e solo se (a, b) = λ(1, 3), dunque:
r0 : λx+3λy+c = 0, ma poiche’ λ 6= 0 possiamo dividere per λ e abbiamo r0 : x+3y+k = 0,
dove abbiamo posto k = λc .
r0 : x + 3y + k = 0.
a(x − x0 ) + b(y − y0 ) = 0,
21
Soluzione. È l’esercizio del precedente paragrafo, che risolviamo in modo diverso. Scrivia-
mo l’equazione del fascio di rette passanti per P0 :
a(x − 1) + b(y + 1) = 0,
h~v , wi
~ = k~v kkwk
~ cos θ,
• Parlare di angolo ha senso solo quando sia ~v che w ~ sono non nulli. Ma se uno dei
due vettori è nullo poniamo per definizione h~v , wi
~ = 0.
Abbiamo immediatamente:
Proposizione a) Due vettori sono ortogonali se e solo se il loro prodotto scalare è nullo.
p
b) Si ha k~v k = h~v , ~v i.
22
La prorietà a) dice che il prodotto scalare è commutativo. b) e c) esprimono le proprietà
di bilinearità . Le proprietà d) e e) sono dette di positività.
Dimostrazione. Le proprietà sono di facile dimostrazione, ad eccezione della b), che ri-
chiede un pò di lavoro in più, e di cui omettiamo la dimostrazione.
Osserviamo che, da a) e b), otteniamo:
h~v , aw ~ 2 i = ah~v , w
~ 1 + bw ~ 1 i + bh~v , w
~ 2i
ha~v1 + b~v2 , wi
~ = ah~v1 , wi
~ + bh~v2 , wi
~
La coppia (x, y) dà luogo alle coordinate di ~v nel riferimento scelto, e scriveremo ~v = (x, y).
Ora, conoscendo le coordinate, possiamo calcolare il prodotto scalare con facilità.
~ = (x0 , y 0 ). Allora
Proposizione Siano ~v = (x, y) e w
~ = xx0 + yy 0 .
h~v , wi
p
In particolare, k~v k = x2 + y 2 .
Dimostrazione. I prodotti scalari degli elementi della base ortonormale (~e1 , ~e2 ) si calcolano
facilmente: (
h~e1 , ~e1 i = h~e2 , ~e2 i = 1
h~e1 , ~e2 i = h~e2 , ~e1 i = 0
~ = x0~e1 + y 0~e2 , dunque, utilizzando le proprietà algebriche
Per ipotesi, ~v = x~e1 + y~e2 , w
enunciate in precedenza:
23
Soluzione. Si ha ~v = (3, −1), w
~ = (−1, 5) quindi h~v , wi
~ = −8.
−−→
Ricordiamo che, dato un vettore ~v = AB del piano applicato in un qualunque punto A,
le coordinate di ~v sono le coordinate del traslato di ~v nell’origine, diciamo ~v0 . Poiche’
la traslazione di due vettori conserva sia i moduli che l’angolo compreso fra di essi, il
prodotto scalare fra ~v e w
~ è uguale al prodotto scalare dei rispettivi vettori traslati ~v0 e
w
~ 0 . Dunque abbiamo
Proposizione Siano ~v e w ~ vettori del piano applicati in un qualunque punto A del piano,
di coordinate rispettive (x, y) e (x0 , y 0 ). Allora:
~ = xx0 + yy 0 .
h~v , wi
p
In particolare, k~v k = x2 + y 2 .
Ricordiamo la definizione di prodotto scalare fra due vettori (riga) di R2 :
Allora si ha
8 Distanze e angoli
8.1 Formula della distanza
Se A = (x1 , y1 ) e B = (x2 , y2 ) sono due punti del piano, allora la distanza di A da B è
data dalla formula: p
d(A, B) = (x2 − x1 )2 + (y2 − y1 )2
−−→
Infatti, la distanza di A da B uguaglia il modulo del vettore ~v = AB che ha coordinate
B − A = (x2 − x1 , y2 − y1 ),
24
8.2 Angoli
Dalla formula che definisce il prodotto scalare, vediamo subito che il coseno dell’angolo
compreso fra i vettori non nulli ~v e w
~ è dato da:
h~v , wi
~
cos θ =
k~v kkwk~
Esempio Calcolare il perimetro e il coseno degli angoli interni del triangolo di vertici
A = (1, 1), B = (2, 3), C = (3, 0).
√
Soluzione.
√ Dalla formula della distanza
√ √otteniamo d(A, B) = 5 = d(A, C) mentre d(B, C) =
10. Il perimetro vale dunque 2 5 + 10. Notiamo che il triangolo è isoscele sulla base
−−→ −→
BC. Calcoliamo il coseno dell’angolo in A, diciamo θ1 . Se ~v = AB e w
~ = AC allora
h~v , wi
~
cos θ1 =
k~v kkwk~
h~v , wi
~ = h(1, 2), (2, −1)i = 0.
Quindi i due vettori sono ortogonali e l’angolo è θ1 = π/2. Il triangolo è allora isoscele
rettangolo. È a questo punto evidente che gli altri due angoli sono entrambi uguali a π/4.
Verifichiamo calcolando l’angolo al vertice B. Il suo coseno vale:
−−→ −−→
hBA, BCi
cos θ2 = −−→ −−→ .
kBAkkBCk
−−→ −−→
Ora BA ha coordinate A − B = (−1, −2) mentre BC ha coordinate C − B = (1, −3).
Quindi
−−→ −−→
hBA, BCi = h(−1, −2), (1, −3)i = 5.
−−→ √ −−→ √
D’altra parte kBAk = 5 mentre kBCk = 10. Dunque:
r
5 1
cos θ2 = √ √ = ,
5 10 2
e θ2 = π/4.
25
9 Perpendicolarità di rette
Consideriamo due rette r : ax + by + c = 0, r0 : a0 x + b0 y + c0 = 0. Vogliamo enunciare
una condizione che caratterizzi la perpendicolarità delle due rette. Ora sappiamo che i
parametri direttori di r sono dati dalla coppia (b, −a), che rappresenta le coordinate di
un vettore parallelo alla retta: precisamente il vettore ~v = b~e1 − a~e2 . Analogamente, il
vettore w~ = b0~e1 − a0~e2 è parallelo alla retta r0 . Dunque le rette saranno perpendicolari se
e solo se i rispettivi vettori direttori sono ortogonali:
h~v , wi
~ = 0,
quindi se e solo se 0 = h(b, −a), (b0 , −a0 )i = bb0 + aa0 . Abbiamo dimostrato la seguente:
Esempio Nel piano sono dati la retta r : 2x − y + 2 = 0 e il punto P = (2, 0). Determinare
l’equazione della retta passante per P e ortogonale alla retta r.
r0 : x + 2y + k = 0
26
P
r
A r
A
A
A
AAr
H
27
9.3 Punto medio e asse di un segmento
Dati due punti A = (x1 , y1 ) e B = (x2 , y2 ) il punto medio del segmento AB è il punto di
coordinate
x1 + x2 y1 + y2
M= , .
2 2
Si definisce asse del segmento AB l’insieme dei punti del piano equidistanti da A e B. Si
osserva che l’asse del segmento AB è la retta r ortogonale al segmento AB, passante per
il punto medio M di AB.
A
A
A
A
A
A
A
A
A
A
A r
B
A
A
A
A M
A
r
A
A A
A
A
A
A
A
r
Esempio Trovare l’equazione dell’asse del segmento AB, dove A = (−1, 3), B = (3, 5).
28
dove k ∈ R (spiegare perché). Imponendo il passaggio per il punto M , otteniamo k = 6 e
l’equazione dell’asse di AB è
r : 2x + y − 6 = 0.
29
che si traduce nell’equazione:
5t2 + 2t − 3 = 0.
Tale equazione ammette le soluzioni t = −1, t = 53 . Il primo valore dà luogo al punto
(−1, 0) (il punto A) che dobbiamo scartare. Il secondo valore dà luogo al punto
3 16
P 0 = ( , ),
5 5
che è l’unica soluzione del problema.
30
Parte 10. Geometria dello spazio I
A. Savo − Appunti del Corso di Geometria 2013-14
Definizione Un vettore è una coppia ordinata (A, B) di punti dello spazio, che si denota
−−→
con AB.
A è detto punto di applicazione e B è detto vertice del vettore. Si estendono ai vettori
dello spazio le definizioni già introdotte per i vettori del piano: direzione, verso e modulo.
Due vettori dello spazio si dicono equipollenti se hanno stessa direzione, stesso verso e
stesso modulo.
Possiamo traslare vettori nel modo usuale:
−−→ −−→
• dati un vettore AB e un punto A0 , esiste un unico punto B 0 tale che A0 B 0 è equipol-
−−→ −−→ −−→
lente ad AB. Il vettore A0 B 0 si dice traslato di AB in A0 .
1
Esattamente come nel caso dei vettori del piano, possiamo definire:
• la somma di due vettori (con la regola del parallelogramma),
• il prodotto di un vettore per uno scalare.
Risulta allora che tali operazioni verificano gli assiomi di spazio vettoriale. In conclusione,
In particolare:
c) due punti sono sempre allineati,
d) tre punti sono sempre complanari.
Inoltre:
e) per un punto dello spazio passano infinite rette,
f) per due punti dello spazio passano infiniti piani.
Infine
g) se un piano contiene due punti distinti, allora contiene l’intera retta per i due punti.
È chiaro che tre (o più) punti possono essere allineati oppure no, e quattro (o più) punti
possono essere complanari oppure no.
2
2.2 Vettori allineati, vettori complanari
−→ −−→
Analogamente al caso del piano, diremo che i vettori OA e OB sono allineati (o paralleli)
se i punti O, A, B sono allineati.
Proposizione Supponiamo che π sia un piano dello spazio contenente l’origine, e con-
sideriamo l’insieme di tutti i vettori applicati in O, con vertice in un punto di π:
−−→
E = {OP : P ∈ π}.
Teorema Tre vettori di VO3 sono linearmente dipendenti se e solo se sono complanari.
Dimostrazione. Supponiamo che ~v1 , ~v2 , ~v3 siano linearmente dipendenti. Allora uno di essi
è combinazione lineare degli altri, e possiamo supporre che
Ora, se ~v1 , ~v2 sono allineati, allora anche ~v1 , ~v2 , ~v3 sono allineati, e sono in particolare
complanari. Se ~v1 , ~v2 non sono allineati, allora esiste un unico piano π contenente entrambi
3
−−→
i vettori. Dunque ~v1 , ~v2 ∈ E, dove E = {OP : P ∈ π}. Poiché E è un sottospazio di VO3 ,
esso contiene tutte le combinazioni lineari di ~v1 , ~v2 : quindi contiene anche v3 , e ~v1 , ~v2 , ~v3
appartengono tutti al piano π.
Viceversa, supponiamo che ~v1 , ~v2 , ~v3 siano complanari, tutti contenuti in un piano π. Allora
~v1 , ~v2 , ~v3 ∈ E, dove E è il sottospazio di VO3 formato dai vettori con vertice sul piano π.
Per la proposizione, E ha dimensione 2 dunque ~v1 , ~v2 , ~v3 sono linearmente dipendenti .
Dimostreremo ora che VO3 ha dimensione 3. Osserviamo innanzitutto che nello spazio esiste
sempre una terna di vettori ~e1 , ~e2 , ~e3 , tutti di modulo unitario, e a due a due ortogonali
(diremo allora che la terna ~e1 , ~e2 , ~e3 è ortonormale ). Infatti, fissiamo un piano π per
l’origine, e consideriamo una base ortonormale (~e1 , ~e2 ) di π. Prendiamo ora un vettore
~e3 di modulo unitario sulla retta per l’origine perpendicolare a π: è evidente che la terna
~e1 , ~e2 , ~e3 è ortonormale.
Dimostrazione. a) Per dimostrare che la dimensione di VO3 è tre basta trovare una base
formata da tre vettori. Fissiamo una terna ortonormale e~1 , e~2 , e~3 . È chiaro che questi
vettori non sono complanari, dunque sono linearmente indipendenti. Dimostriamo che
e~1 , e~2 , e~3 formano una base: per fare ciò, basta dimostrare che essi generano VO3 .
−−→
Dato un vettore ~v = OP , consideriamo il punto Q, piede della perpendicolare condotta
−−→ −−→
da P al piano π contenente e~1 , e~2 (vedi Figura 1). Se OR è il traslato di QP nell’origine,
allora, per la regola del parallelogramma:
−−→ −−→ −−→
OP = OQ + OR,
−−→ −−→ −−→
inoltre OQ e OR sono ortogonali fra loro. Ora è chiaro che OQ sta sul piano contenente
−−→
e~1 , e~2 , dunque è combinazione lineare e~1 , e~2 , e OR sta sulla retta contenente e~3 , dunque è
−−→
un multiplo di e~3 . Di conseguenza, OP sara’ combinazione lineare di e~1 , e~2 , e~3 .
b) Dalle proprietà generali degli spazi vettoriali, e dalla parte a), sappiamo che tre vettori
di VO3 formano una base se e solo se sono linearmente indipendenti, quindi, per il teorema,
se e solo se non sono complanari.
4
R H
6H
HH
HH
H
HH
H
HH
H
H P
H
*
~e3
6
~e
OH
- 2 -
HH
~e1 H
HH
H
HH
H
HH
H
H
j
H
Q
−−→ −−→ −−→
OP = OQ + OR
= x~e1 + y~e2 + z~e3
5
asse z
r
P = (x, y, z)
~e3
6
~e Q2
O - 2 -
asse y
~e1
Q1
Q
asse x
Figura 2: Coordinate cartesiane del punto P
Quindi ogni punto dello spazio si rappresenta con una terna di numeri. L’origine ha
coordinate (0, 0, 0). Dalla figura abbiamo che
x = ascissa di P = d(Q1 , O)
y = ordinata di P = d(Q2 , O)
z = quota di P = d(R, O)
con l’avvertenza che le distanze sono prese con il segno + o −, a seconda che il punto
Q1 , Q2 , R segua (rispettivamente, preceda) l’origine rispetto al verso dell’asse corrispon-
dente. (Il punto P nella figura ha tutte le coordinate positive).
Abbiamo tre piani coordinati :
• il piano xy, descritto dall’ equazione z = 0,
• il piano xz, descritto dall’ equazione y = 0,
• il piano yz, descritto dall’ equazione x = 0.
Ovviamente gli assi coordinati sono:
6
• l’asse x, descritto dalle equazioni y = z = 0,
• l’asse y, descritto dalle equazioni x = z = 0,
• l’asse z, descritto dalle equazioni x = y = 0.
Ad esempio, il punto (2, 0, −1) appartiene al piano xz, mentre (0, 3, 0) appartiene all’asse
y. Vedremo poi che ogni piano dello spazio si rappresenta con un’equazione del tipo
ax + by + cz + d = 0.
(x2 − x1 , y2 − y1 , z2 − z1 ).
Vogliamo descrivere una retta con delle equazioni. Una retta dello spazio è determinata
da
• un suo punto
• una direzione.
7
La direzione è specificata da un qualunque vettore parallelo alla retta, che chiameremo
vettore direttore di r. Le coordinate di un vettore direttore sono dette parametri direttori
di r.
Procedendo come nel caso del piano, otteniamo equazioni parametriche di una retta.
Proposizione Una retta del piano si rappresenta con equazioni, dette parametriche, del
tipo:
x = x0 + lt
y = y0 + mt
z = z0 + nt
Rette parallele hanno vettori direttori paralleli; d’altra parte, vettori paralleli hanno
coordinate proporzionali. Otteniamo immediatamente:
Proposizione Due rette sono parallele se e solo se hanno parametri direttori proporzio-
nali.
Esempio Scrivere
equazioni parametriche della retta r0 passante per (1, 2, −1) e parallela
x = 3t
alla retta r : y = 1 − t .
z = 2 + 2t
8
4.1 Retta per due punti
Siano P1 = (x1 , y1 , z1 ) e P2 = (x2 , y2 , z2 ) due punti distinti. Vogliamo scrivere equazioni
−−−→
parametriche della retta per P1 , P2 . Ora il vettore P1 P2 è parallelo alla retta, dunque i
parametri direttori della retta cercata saranno proporzionali alle coordinate del vettore,
cioè alla terna P2 − P1 . Esplicitamente:
Esempio Scriviamo equazioni parametriche della retta passante per i punti P1 = (1, 2, 4)
e P2 = (2, 1, 0). Possiamo prendere come parametri direttori l = 1, m = −1, n = −4;
poiché r passa per (1, 2, 4) otteniamo le equazioni
x = 1 + t
y =2−t .
z = 4 − 4t
Esempio Stabilire se i punti P1 = (0, 1, 1), P2 = (2, 0, 2), P3 = (4, −1, 3) sono allineati.
Soluzione. Si ha
2 −1 1
rk =1
4 −2 2
dunque i tre punti sono allineati. Trovare le equazioni parametriche della retta che li
contiene.
9
4.3 Intersezione di due rette
Illustriamo il problema con due esempi.
x = 1 + 2t
x = t
Esempio Stabilire se le rette r : y=1 0
e r = y=t si intersecano, e
z = 2 + 3t z =3−t
determinare le coordinate dell’eventuale punto d’intersezione.
Soluzione. Notiamo innanzitutto che i parametri che descrivono le due rette sono fra loro
indipendenti, dunque per determinare l’intersezione dobbiamo adottare parametri diversi,
diciamo t e s:
x = 1 + 2t
x = s
0
r: y=1 , r = y=s .
z = 2 + 3t z =3−s
cha ammette l’unica soluzione s = 1, t = 0. Dunque le rette si incontrano nel punto (1, 1, 2)
ottenuto per t = 0 dalle equazioni di r e per s = 1 da quelle di s.
x = t
x = 0
Esempio Stabilire se le rette r : y = 1 e r0 = y = t si intersecano, e determinare le
z=0 z=3
coordinate dell’eventuale punto d’intersezione.
x = t
x = 0
0
Soluzione. Cambiamo il nome dei parametri: r : y = 1 , r : y = s . Uguagliando le
z=0 z=3
coordinate otteniamo però un sistema incompatibile (z = 0, z = 3) dunque r e r0 non si
intersecano.
Osservazione Nel piano due rette distinte o sono parallele oppure si incontrano in un
punto. Nello spazio questo non è più vero, come è dimostrato da quest’ultimo esempio:
infatti, le rette r e r0 sono ovviamente distinte, ma non sono né incidenti né parallele (i
parametri direttori sono proporzionali, rispettivamente, alle terne (1, 0, 0) e (0, 1, 0)).
10
In effetti, le due rette non possono essere contenute in uno stesso piano, sono cioè sghembe.
Diremo che due rette dello spazio sono:
• complanari, se sono contenute in uno stesso piano,
• sghembe, se non sono complanari.
Esercizio Dimostrare che due rette incidenti sono contenute in un unico piano (dunque
sono complanari).
Proposizione Due rette sono complanari se e solo se sono incidenti oppure sono paral-
lele.
Per contrapposizione:
Proposizione Due rette sono sghembe se e solo se non sono nè incidenti nè parallele.
11
Proposizione I punti P1 = (x1 , y1 , z1 ), P2 = (x2 , y2 , z2 ), P3 = (x3 , y3 , z3 ), P4 = (x4 , y4 , z4 )
sono complanari se e solo se
x2 − x1 y2 − y1 z2 − z1
x3 − x1 y3 − y1 z3 − z1 = 0
x4 − x1 y4 − y1 z4 − z1
Dimostrazione. Dimostriamo prima la parte b). Sia P = (x, y, z) il punto generico dello
spazio. Allora P ∈ π se e solo se i quattro punti P1 , P2 , P3 , P sono complanari; dalla
condizione di complanarita’ otteniamo (riordinando le righe) l’annullarsi del determinante
in b). Ora per ipotesi si ha:
x − x1 y2 − y1 z2 − z1
rk 2 = 2,
x3 − x1 y3 − y1 z3 − z1
poiche’ P1 , P2 , P3 non sono allineati. Dunque almeno uno dei minori di ordine due della
matrice è non nullo. Sviluppando il determinante lungo la prima riga, l’equazione diventa:
ax + by + cz + d = 0
con almeno uno fra a, b, c non nullo. Questo dimostra la parte a).
Esempio Sono dati i punti P1 = (1, 2, 1), P2 = (0, 1, 3), P3 = (1, −1, 2). Verificare che i tre
punti non sono allineati, e trovare l’equazione cartesiana dell’unico piano che li contiene.
12
−−−→ −−−→
Soluzione. Le coordinate di P1 P2 sono (−1, −1, 2) mentre quelle di P1 P3 sono (0, −3, 1).
Ora
−1 −1 2
rk = 2,
0 −3 1
dunque i punti non sono allineati. L’equazione del piano è dunque:
x − 1 y − 2 z − 1
−1 −1 2 = 0,
0 −3 1
che diventa 5x + y + 3z − 10 = 0.
x = 1 + 2t
x = t
Esempio Abbiamo visto che le rette r : y = 1 0
e r = y=t si intersecano
z = 2 + 3t z =3−t
nel punto P0 = (1, 1, 2): quindi sono complanari, contenute in un unico piano π.
Vogliamo determinare l’equazione del piano π.
Per fare ciò, è sufficiente trovare un punto P 6= P0 sulla retta r, e un punto Q 6= P0 sulla
retta r0 : il piano π sarà quello passante per P0 , P e Q. Il punto P si può ottenere ponendo
t = 1 nelle equazioni parametriche di r:
P = (3, 1, 5).
Q = (0, 0, 3).
13
5.3 Forme particolari
Abbiamo già osservato che i tre piani coordinati sono definiti dalle equazioni: x = 0 (piano
yz), y = 0 (piano xz), z = 0 (piano xy).
Abbiamo immediatamente che
• se d = 0 il piano passa per l’origine.
14
per qualche k 6= 0.
Esempio Determinare l’equazione cartesiana del piano passante per (1, −1, 2) e parallelo
al piano π : x + 3y − z + 5 = 0.
x + 3y − z + k = 0.
Proposizione Una retta si può rappresentare come intersezione di due piani non paral-
leli: (
ax + by + cz + d = 0
r:
a0 x + b0 y + c0 z + d0 = 0
a b c
dove rk 0 0 0 = 2. Le equazioni di tale rappresentazione sono dette equazioni
a b c
cartesiane della retta r.
15
Dunque abbiamo due modi per rappresentare una retta:
• con equazioni parametriche,
• con equazioni cartesiane.
Per passare dalle equazioni parametriche alle equazioni cartesiane si elimina il parame-
tro; mentre per passare dalle equazioni cartesiane alle equazioni parametriche si risolve il
sistema.
(
x−y−z+2=0
Esempio È data la retta r : .
x + y + 3z = 0
a) Scrivere le equazioni parametriche di r e calcolare i suoi parametri direttori.
b) Trovare equazioni parametriche ed equazioni cartesiane della retta r0 parallela a r e
passante per l’origine.
Soluzione. a) Si verifica che i piani che definiscono r non sono paralleli. Risolvendo il
sistema otteniamo ∞1 soluzioni:
x = −1 − t
y = 1 − 2t
z=t
Proposizione I parametri direttori di r sono proporzionali alla terna dei minori di ordine
16
a b c
due (presi a segni alterni) della matrice dei coefficienti A = , precisamente:
a0 b0 c0
b c a c a b
l = 0 0 ,
m = − 0 0 ,
n = 0 0 .
(1)
b c a c a b
Esempio Scrivere equazioni parametriche della retta r0 passante per P0 = (1, −1, 2) e
parallela alla retta (
x−y+z =0
r: .
3x + y + 5 = 0
17
Negli ultimi due casi, diremo che la retta r è parallela al piano π.
È chiaro che, se r è parallela a π e se π contiene un punto di r allora π contiene l’intera
retta r.
al + bm + cn = 0.
Dimostrazione. Sia r0 la retta parallela a r passante per l’origine, e sia π0 il piano parallelo
a π passante per l’origine. Allora r è parallela a π se e solo se r0 è contenuta in π0 . Dalla
definizione di parametri direttori, sappiamo che il punto (l, m, n) appartiene a r0 ; d’altra
parte, l’equazione del piano π0 è data da ax + by + cz = 0. Dunque r0 ⊆ π0 se e solo se
(l, m, n) ∈ π, cioè se e solo se al + bm + cn = 0.
x = t
Esempio Stabilire se la retta r : y = 2 + t e il piano π : x − 3y + z = 0 sono paralleli o
z=1
incidenti.
18
il piano generico contenente r ha equazione:
π : h(ax + by + cz + d) + k(a0 x + b0 y + c0 z + d0 ) = 0,
con h, k parametri reali, non entrambi nulli. L’espressione è anche detta fascio di piani di
asse r.
h + 3k = 0.
2y + z − 3 = 0.
Sembrerebbe che il problema ammetta piu’ di una soluzione. In realta’ non e’ cosi’,
poiche’ prendendo un’altra soluzione h = −3k con k 6= 0 avremmo ottenuto il piano
2ky + kz − 3k = 0 che coincide con il piano trovato in precedenza (basta dividere per k
ambo i membri).
In effetti, potevamo scrivere il fascio di piani di asse r nella forma ridotta :
x + y − 1 + k(3x + y − z) = 0,
che ha il vantaggio di dipendere dal solo parametro k. L’unico problema è che nel fascio
ridotto manca un piano, precisamente 3x + y − z = 0: infatti tale piano non si ottiene per
alcun valore di k ∈ R.
Quindi si poteva procedere anche nel modo seguente: si cerca la soluzione fra i piani del
fascio ridotto; se non la troviamo, significa che il piano cercato è quello che manca.
Infine, per risolvere il problema si poteva procedere anche nel modo seguente. Scegliamo
due punti su r, ad esempio A = (1, 0, 3), B = (0, 1, 1). Il piano cercato è l’unico contenente
A, B, P , e ha equazione 2y + z − 3 = 0.
19
(
x+y−1=0
Esempio Determinare l’equazione cartesiana del piano contenente la retta r1 :
3x + y − z = 0
(
x−y+3=0
e parallelo alla retta r2 :
z+4=0
Soluzione. Primo metodo. Scriviamo l’equazione del fascio ridotto di piani di asse r1 , cioè
x + y − 1 + k(3x + y − z) = 0. L’equazione si scrive anche cosi’:
π : (1 + 3k)x + (1 + k)y − kz − 1 = 0.
Si trova facilmente che i parametri direttori di r2 sono proporzionali a (−1, −1, 0) ovvero
a (l, m, n) = (1, 1, 0). Dobbiamo ora imporre che il piano del fascio π sia parallelo a r2 :
1 + 3k + 1 + k = 0,
x − y − z + 2 = 0.
c = −1
d=2
e il piano cercato è x − y − z + 2 = 0.
20
8.2 Stella di piani di centro un punto
L’insieme di tutti i piani passanti per un punto P0 è detto la stella di piani di centro P0 .
Si vede subito che un piano di tale insieme ha equazione del tipo
a(x − x0 ) + b(y − y0 ) + c(z − z0 ) = 0.
con a, b, c ∈ R. In particolare, ci sono ∞2 piani passanti per un punto dato (la terna
(a, b, c) può essere alterata per un fattore di proporzionalità non nullo).
Osservazione Se le rette r, r0 non sono parallele, allora esiste un unico piano parallelo
a entrambe le rette e passante per P0 .
Infatti, siano r0 e r00 le rette per l’origine parallele, rispettivamente, a r e r0 . Allora r0 , r00
sono incidenti nell’origine, e definiscono un piano π0 che le contiene entrambe. Ora il piano
π parallelo a π0 e passante per P0 soddisfa chiaramente i requisiti.
Proposizione Siano date le rette r, r0 non parallele, di parametri direttori (l, m, n), (l0 , m0 , n0 ),
rispettivamente. Allora il piano per P0 = (x0 , y0 , z0 ) parallelo a r e r0 ha equazione
x − x 0 y − y0 z − z0
l m n = 0.
l0 m0 n0
~ di coordinate (l, m, n) e (l0 , m0 , n0 ), applicati in P0 , sono
Dimostrazione. I vettori ~v , w
−−→
entrambi contenuti in π. Se P = (x, y, z) è un punto di π anche il vettore P0 P è conte-
−−→
nuto in π. I tre vettori ~v , w,
~ P0 P sono dunque complanari, e di conseguenza linearmente
dipendenti. Le coordinate di tali vettori dovranno essere linearmente dipendenti, e quindi
x − x0 y − y0 z − z0
l m n = 0.
l0 m0 n0
Esempio Trovare
l’equazione del piano passante per P0 = (1, 0, 0) e parallelo a entrambe
x = 1 +t (
x − 2z = 0
le rette r : y = −2 + t e r0 = .
y=0
z = 2t
21
Soluzione. I parametri direttori di r si ottengono immediatamente: (l, m, n) = (1, 1, 2).
Quelli di r0 sono (2, 0, 1) dunque l’equazione del piano cercato è:
x − 1 y z
1 1 2 = 0,
2 0 1
cioè x + 3y − 2z − 1 = 0.
Metodo alternativo. Partiamo dal piano generico ax + by + cz + d = 0.
1. Imponiamo il passaggio per P0 : a + d = 0.
2. Imponiamo il parallelismo alla retta r : a + b + 2c = 0.
3. Imponiamo il parallelismo alla retta r0 : 2a + c = 0.
a + d = 0
Il piano si ottiene risolvendo il sistema a + b + 2c = 0 che ha ∞1 soluzioni a = −t, b =
2a + c = 0
−3t, c = 2t, d = t, con t ∈ R, tutte proporzionali alla soluzione a = 1, b = 3, c = −2, d =
−1 dunque il piano cercato è
x + 3y − 2z − 1 = 0.
22
Parte 11. Geometria dello spazio II
A. Savo − Appunti del Corso di Geometria 2010-11
1 Il prodotto scalare
La definizione di prodotto scalare di due vettori dello spazio è identica a quella già vista
nel piano.
Definizione Siano ~v , w
~ vettori non nulli dello spazio applicati in uno stesso punto.
Definiamo prodotto scalare di ~v e w
~ il numero
h~v , wi
~ = k~v kkwk
~ cos θ,
Proposizione a) Due vettori sono ortogonali se e solo se il loro prodotto scalare è nullo.
p
b) Si ha k~v k = h~v , ~v i.
Per definizione, il vettore nullo è ortogonale a tutti i vettori.
Dunque il prodotto scalare permette di misurare il modulo (lunghezza) di un vettore, e
l’angolo fra due vettori.
1
Le proprietà del prodotto scalare nel piano si estendono inalterate al prodotto scalare nello
spazio. In particolare, abbiamo le proprietà di bilinearità:
ha~v1 + b~v2 , wi
~ = ah~v1 , wi
~ + bh~v2 , wi,
~
~ e degli scalari a, b ∈ R.
valide per ogni scelta dei vettori ~v1 , ~v2 , w
e la coppia (x, y, z) dà luogo alle coordinate di ~v nel riferimento scelto. Spesso scriveremo
semplicemente
~v = (x, y, z)
identificando un vettore applicato nell’origine con le sue coordinate.
Conoscendo le coordinate dei vettori, possiamo calcolare il prodotto scalare con facilità.
~ = xx0 + yy 0 + zz 0 .
h~v , wi
p
In particolare, k~v k = x2 + y 2 + z 2 .
2
−−→
Ricordiamo che, dato un vettore ~v = AB applicato nel punto A, le coordinate di ~v sono per
definizione le coordinate del vettore ~v0 , traslato di ~v nell’origine, e uguagliano la differenza
B − A.
Poiche’ la traslazione di due vettori mantiene inalterati sia i moduli che l’angolo compreso,
il prodotto scalare fra ~v e w
~ è uguale al prodotto scalare dei rispettivi vettori traslati ~v0
ew ~ 0:
w
~
*
A
H
H
H
~v Hj
H
w
~ 0
*
O H
H
H
~v0 H
j
H
Figura 1: h~v , wi
~ = h~v0 , w
~ 0i
~ = xx0 + yy 0 + zz 0 .
h~v , wi
p
In particolare, k~v k = x2 + y 2 + z 2 .
Esempio Dati i punti A = (1, 2, −1), B = (3, 0, 2), C = (2, 0, −3) calcolare il prodotto
−−→ −→
scalare dei vettori AB, AC, entrambi applicati in A.
−−→ −→
Soluzione. Le coordinate di AB sono (2, −2, 3) mentre quelle di AC sono (1, −2, −2).
Dunque:
−−→ −→
hAB, ACi = 2 + 4 − 6 = 0.
I vettori sono perpendicolari, e il triangolo ABC è rettangolo in A.
3
2 Distanze, angoli, aree
2.1 Distanza di due punti
Se A = (x1 , y1 , z1 ) e B = (x2 , y2 , z2 ) sono due punti dello spazio, allora la distanza di A
−−→
da B uguaglia il modulo del vettore AB, che ha coordinate
B − A = (x2 − x1 , y2 − y1 , z2 − z1 ).
2.2 Angoli
Dalla formula che definisce il prodotto scalare, vediamo subito che il coseno dell’angolo
compreso fra i vettori non nulli ~v e w
~ è dato da:
h~v , wi
~
cos θ = .
k~v kkwk~
Proposizione Dati due vettori non nulli ~v , w, ~ l’area A del parallelogramma definito dai
due vettori è data dalla formula:
s
h~v , ~v i h~v , wi
~
A=
,
h~v , wi~ hw, ~ wi~
A2 = k~v k2 kwk
~ 2 − h~v , wi
~ 2.
A = k~v kkwk
~ sin θ.
A2 = k~v k2 kwk
~ 2 − k~v k2 kwk
~ 2 cos2 θ
= k~v k2 kwk
~ 2 − h~v , wi
~ 2.
4
Esempio È dato il triangolo T di vertici A = (1, 0, 0), B = (0, 2, 0), C = (0, 0, 3). Calco-
lare:
a) Il perimetro di T .
b) Il coseno di ciascuno degli angoli interni di T .
c) L’area di T .
−−→ −→ −−→
Soluzione. a) Abbiamo AB = (−1, 2, 0), AC = (−1, 0, 3), BC = (0, −2, 3). Dunque il
perimetro vale √ √ √
−−→ −→ −−→
kABk + kACk + kBCk = 5 + 10 + 13.
b) Sia θA l’angolo in A. Si ha
−−→ −→
hAB, ACi 1
cos θA = −−→ −→ = √ .
kABkkACk 50
Analogamente otteniamo
4 9
cos θB = √ , cos θC = √ .
65 130
−−→ −→
c) Consideriamo i vettori ~v = AB = (−1, 2, 0) e w ~ = AC = (−1, 0, 3). L’area del
parallelogramma su ~v e w
~ vale:
s
5 1
A= = 7,
1 10
dunque l’area del triangolo T (che è la metà dell’area del parallelogramma) vale 72 .
Esempio Sono dati i vettori ~v1 = (1, 1, −1) e ~v2 = (2, 0, 1), applicati nell’origine.
a) Descrivere l’insieme dei vettori w~ ortogonali sia a ~v1 che a ~v2 .
b) Trovare tutti i vettori ~u ortogonali sia a ~v1 che a ~v2 e aventi modulo 1.
Soluzione. a) Poniamo w ~ = (x, y, z). Allora w~ è ortogonale a ~v1 se e solo se hw,~ ~v1 i = 0
dunque se e solo se x+y−z = 0. Analogamente, w ~ è ortogonale a ~v2 se e solo se hw,
~ ~v2 i = 0,
cioè se e solo se 2x + z = 0. In conclusione, le coordinate di w~ sono le soluzioni del sistema
lineare omogeneo (
x+y−z =0
.
2x + z = 0
5
1 1 −1
La matrice dei coefficienti A = ha rango 2; dunque il sistema ammette ∞1
2 0 1
soluzioni e un calcolo mostra che
Dunque i vettori w
~ ortogonali sia a ~v1 che a ~v2 sono tutti e soli i vettori di coordinate:
~ 2 = 14t2 ,
kwk
1 1
~u1 = √ (1, −3, −2), ~u2 = − √ (1, −3, −2),
14 14
l’uno opposto dell’altro.
3 Il prodotto vettoriale
Il prodotto vettoriale è un’operazione che associa a due vettori ~v , w
~ applicati in un punto
A un terzo vettore applicato in A e denotato ~v ∧ w.~ È sufficiente definire le coordinate di
~v ∧ w.
~
~ = (a0 , b0 , c0 ) è il vettore
Definizione Il prodotto vettoriale di ~v = (a, b, c) e w
~v ∧ w
~ = (α, β, γ),
dove
b c a c a b
β = − 0 0 , γ = 0 0
α = 0 0 ,
b c a c a b
a b c
sono i minori di ordine due della matrice , presi a segni alterni: + − +.
a0 b0 c0
~v ∧ w
~ = (1, −3, −2).
6
Osserviamo che ~v ∧ w
~ è ortogonale sia ~v che a w.
~
Il prodotto vettoriale ha proprietà notevoli.
Esempio Calcolare l’area del triangolo di vertici A = (1, 0, 0), B = (0, 2, 0), C = (0, 0, 3).
−−→ −→
Soluzione. Consideriamo ~v = AB = (−1, 2, 0) e w ~ = AC = (−1, 0, 3). L’area del triangolo
sarà la metà dell’area del parallelogramma P definito da ~v e w.
~ Ora
~v ∧ w
~ = (6, 3, 2);
~ = 7 e quindi l’area del triangolo è 72 .
l’area di P è k~v ∧ wk
7
4 Condizioni di perpendicolarità
4.1 Perpendicolarità di due rette
Due rette si dicono ortogonali (o perpendicolari) se hanno direzioni ortogonali. Poiche’ la
direzione di una retta è definita da un suo vettore direttore, che ha coordinate date dai
parametri direttori (l, m, n), abbiamo che:
Proposizione Due rette di parametri direttori (l, m, n), (l0 , m0 , n0 ) sono ortogonali se e
solo se
ll0 + mm0 + nn0 = 0.
Osservazione Occorre notare che due rette possono essere ortogonali fra loro senza
necessariamente incontrarsi in un punto; in particolare, esistono rette sghembe ortogonali
tra loro.
( (
y=0 x=0
Esempio L’asse x, di equazioni , e la retta sono sghembe e ortogonali.
z=0 z=1
Esempio Determinare equazioni parametriche della retta s passante per l’origine e orto-
x = 1 + 2t
(
x−y =0
gonale a entrambe le rette r : y = t e r0 : .
y−z =0
z = −3t
Proposizione Dato un punto P0 e due rette non parallele r, r0 , esiste un’unica retta s
passante per P0 e ortogonale sia a r che a r0 .
In particolare, due rette non parallele definiscono un’unica direzione ortogonale a entram-
be, data dal prodotto vettoriale dei rispettivi parametri direttori.
8
4.2 Vettore normale a un piano
Fissato un piano π e un qualunque punto P0 ∈ π, diremo che il vettore ~n, applicato in P0 ,
è ortogonale (o normale) a π se è ortogonale a tutti i vettori applicati in P0 e contenuti
in π:
6~
n
@
I
@
@ -
P@ 0
@
R
@
π
È evidente che un piano ammette infiniti vettori normali, tutti paralleli tra loro, e appar-
tenenti alla retta per P0 perpendicolare al piano.
La proposizione che segue fornisce un’interpretazione geometrica dei parametri di giacitura
di un piano.
9
4.3 Perpendicolarità di una retta e un piano
Con l’interpretazione geometrica dei parametri di giacitura data in precedenza abbiamo
la seguente
vale a dire, se e solo se i parametri direttori della retta sono proporzionali ai parametri di
giacitura del piano.
Esempio Trovare l’equazione cartesiana del piano π passante per P0 = (1, −2, 0) e per-
pendicolare alla retta di equazioni cartesiane
(
x + y − 2z = 0
r:
2x + 3z = 0
Soluzione. Un calcolo mostra che i parametri direttori di r sono proporzionali alla terna
(3, −7, −2). Allora il piano generico perpendicolare a r avrà equazione
3x − 7y − 2z + k = 0,
10
con k ∈ R. Imponendo il passaggio per il punto P0 otteniamo k = −17. Dunque il piano
cercato è unico, di equazione
3x − 7y − 2z − 17 = 0.
π0
r
~n
6
r n0
- ~
P0
Se ~n, ~n0 sono vettori normali a π, π 0 , rispettivamente, allora risulta che π ⊥ π 0 se e solo
se ~n ⊥ ~n0 . Ricordando che i parametri di giacitura di un piano sono le coordinate di un
vettore normale al piano, abbiamo la seguente condizione di perpendicolarità di due piani.
11
D’altra parte, si ha che:
• dato un piano π e una retta r esiste sempre un piano π 0 perpendicolare a π e
contenente r. Se la retta r non è ortogonale a π, tale piano è unico.
r
π0
(
x−y =0
Esempio Sia π : 3x − y − 2z = 0 e r : . Determinare il piano π 0 contenente
x + 2z = 0
r e perpendicolare a π.
(k + 1)x − y + 2kz = 0.
3(k + 1) + 1 − 4k = 0,
12
otteniamo, nell’ordine, le equazioni:
d = 0
2a + 2b − c + d = 0
3a − b − 2c = 0
r H
13
Esempio Dato il punto P0 = (1, 1, 3) e il piano x − y + 2z = 0:
a) Trovare le coordinate della proiezione ortogonale di P0 su π.
b) Calcolare la distanza di P0 da π.
Dimostrazione. Omessa.
|1 − 1 + 6| 6 √
d(P0 , π) = √ = √ = 6.
1+1+4 6
14
x = 1 − t
Esempio Calcolare la distanza minima dell’origine dalla retta r : y = 2t .
z =5−t
Cerchiamo il valore di t che rende minima f (t): tale valore renderà minima anche la
distanza di P0 da un punto di r. Annullando la derivata prima di f (t) otteniamo il solo
valore t = 1, che dà luogo al risultato trovato in precedenza.
r0 = π 0 ∩ π.
15
r
π0
r0
(
x−y =0
Esempio Calcoliamo la retta proiezione ortogonale della retta r : sul piano
x + 2z = 0
π : 3x − y − 2z = 0.
H
r r
r r0
H0
16
x = t
x = 4 − t
Esempio Calcoliamo la distanza delle rette parallele r : y = −2t , r0 : y = 2t .
z=t z =2−t
Soluzione. Le rette sono parallele perché hanno parametri direttori proporzionali dati da,
rispettivamente: (1, −2, 1) e (−1, 2, −1). Osserviamo che r passa per l’origine: dunque
d(r, r0 ) = d(O, r0 ). Il piano π, passante per l’origine e ortogonale a r0 ha equazione carte-
siana x − 2y + z = 0 e la proiezione ortogonale
√ di O su r0 è H 0 = π ∩ r0 = (3, 2, 1). Dunque
0 0
la distanza di r da r vale d(O, H ) = 14.
Supponiamo ora che r e r0 siano sghembe. Si può dimostrare che esistono sempre due
punti H ∈ r e H 0 ∈ r0 che minimizzano la distanza di r da r0 , cioè tali che:
dove t e s sono i rispettivi parametri. I parametri direttori di r sono (1, 1, 0) mentre quelli
di r0 sono (1, 0, 1) e le rette non sono parallele. Dunque r e r0 sono sghembe.
Il punto mobile su r ha coordinate H = (t, t, 2) mentre quello su r0 ha coordinate H 0 =
(s, 1, s). Consideriamo il vettore
−−→0
HH = (s − t, 1 − t, s − 2)
17
e imponiamo che sia ortogonale sia a r che a r0 . Utilizzando il prodotto scalare, dobbiamo
quindi imporre che (s − t, 1 − t, s − 2) abbia prodotto scalare nullo sia con (1, 1, 0) che con
(1, 0, 1). Otteniamo il sistema: (
s − 2t + 1 = 0
2s − t − 2 = 0
che dà l’unica soluzione t = 43 , s = 35 . Dunque
4 4 5 5
H = ( , , 2), H 0 = ( , 1, ).
3 3 3 3
Osserviamo che i punti H e H sono unici. In conclusione la distanza minima di r da r0
0
vale
1
d(r, r0 ) = d(H, H 0 ) = √ .
3
Nell’esempio precedente, i punti H e H 0 sono unici, dunque la retta s per H e H 0 è
ortogonale e incidente sia a r che a r0 , ed è l’unica con tale proprietà.
Questo è un fatto generale, che sottolinea una proprietà interessante delle rette sghembe.
Teorema Date due rette sghembe r, r0 , esiste un’unica retta s perpendicolare e incidente
sia a r che a r0 , detta retta di minima distanza.
8 Circonferenze
In questa sezione torniamo alla geometria del piano, in cui supponiamo di aver fissato un
sistema di riferimento cartesiano. Vedremo quindi come rappresentare una circonferenza
del piano tramite un’equazione nelle variabili x, y.
18
Definizione Una circonferenza è il luogo dei punti del piano equidistanti da un punto
fisso, detto centro. La distanza di un qualunque punto della circonferenza dal centro è
detta raggio.
Per determinare l’equazione di una circonferenza, supponiamo che il centro C abbia coor-
dinate (α, β) e che il raggio sia uguale a R. Allora il punto P = (x, y) appartiene alla
circonferenza se e solo se
d(P, C) = R. (2)
Elevando al quadrato ambo i membri della (2) e utilizzando la formula della distanza
otteniamo
(x − α)2 + (y − β)2 = R2 , (3)
e sviluppando:
x2 + y 2 − 2αx − 2βy + α2 + β 2 − R2 = 0.
Ponendo a = −2α, b = −2β, c = α2 + β 2 − R2 , tale equazione diventa:
x2 + y 2 + ax + by + c = 0, (4)
Esempio Scrivere l’equazione cartesiana della circonferenza di centro C = (2, −1) e raggio
2.
Soluzione. Si ha:
(x − 2)2 + (y + 1)2 = 4,
ovvero
x2 + y 2 − 4x + 2y + 1 = 0.
Notiamo che l’equazione di una circonferenza ha le seguenti caratteristiche:
• è di secondo grado;
• i coefficienti di x2 e y 2 sono uguali a 1;
• non è presente il termine misto xy.
Ci chiediamo ora se un’equazione del tipo x2 + y 2 + ax + by + c = 0 rappresenta sempre
una circonferenza. A tale scopo, cerchiamo, se possibile, di riscriverla nella forma (3).
Sviluppando i quadrati in (3) e uguagliando i coefficienti otteniamo
a b a2 b2
α=− , β=− , R2 = + − c.
2 2 4 4
19
a2 b2
Poichè il raggio è un numero positivo, si dovrà avere + − c > 0, e questa è l’unica
4 4
condizione. In conclusione, abbiamo dimostrato il seguente risultato.
b) Viceversa, un’equazione del tipo (5) rappresenta una circonferenza se e solo se:
a2 + b2 − 4c > 0.
a b
Se tale condizione è verificata, il centro ha coordinate C = (− , − ) e il raggio vale:
2 2
1 p
R= a2 + b2 − 4c.
2
a2 + b2 − 4c = −22 < 0.
a2 + b2 − 4c = 9 > 0.
1 3
Il centro è C = (− , 1) e il raggio vale R = .
2 2
Notiamo infine che, se c ≤ 0, si ha sempre una circonferenza; inoltre c = 0 se e solo se tale
circonferenza passa per l’origine.
Proposizione Per tre punti non allineati del piano passa una e una sola circonferenza.
20
due assi non sono paralleli, e si incontrano in un punto C = s ∩ s0 . È evidente che C è
equidistante da P1 , P2 e P3 . Se R è la distanza di C da uno qualunque dei tre punti:
Esempio Determinare il centro e il raggio della circonferenza per i tre punti non allineati
O = (0, 0), A = (4, 2), B = (1, −2).
Soluzione. Primo metodo. Troviamo il centro intersecando l’asse del segmento OA con
l’asse del segmento OB. Il punto medio del segmento OA è M = (2, 1), e quindi il suo
asse (retta per M ortogonale a OA) ha equazione 2x + y − 5 = 0. In modo analogo, risulta
che l’asse del segmento OB ha equazione 2x − 4y − 5 = 0. Quindi le coordinate del centro
si ottengono risolvendo il sistema
(
2x + y − 5 = 0
2x − 4y − 5 = 0
da cui C = ( 25 , 0). Il raggio è la distanza di uno qualunque dei tre punti dal centro, e vale
R = 52 . L’equazione è x2 + y 2 − 5x = 0.
Secondo metodo. Partiamo dall’equazione della circonferenza generica:
x2 + y 2 + ax + by + c = 0,
21
b) Stabilire se il punto B = (4, 0) è interno alla circonferenza.
√
Soluzione. a) Il raggio uguaglia la distanza di C da A, che vale R = 20. Dunque
l’equazione è
(x − 1)2 + (y − 3)2 = 20,
ovvero x2 + y 2 − 2x − 6y − 10 = 0.
√
b) I punti interni
√ alla √
circonferenza hanno distanza da C minore del raggio, che vale 20.
Ora d(C, B) = 18 < 20 dunque B è interno a γ.
'$
Cr
r
&%
P
22
2 √
Soluzione. Il raggio è uguale a d(C, r) = √ = 2. Dunque γ ha equazione (x−2)2 +y 2 =
2
2 ovvero:
x2 + y 2 − 4x + 2 = 0.
x − 2y = 0.
|k − 3| √
√ = 5,
5
e otteniamo le due soluzioni k = 8 e k = −2. Le rette cercate sono due, di equazioni:
x + 2y + 8 = 0, x + 2y − 2 = 0.
Esempio Sono dati i punti A = (2, 0), B = (4, 4). Determinare, se possibile:
a) una circonferenza di raggio 5 passante per A e B,
b) una circonferenza di raggio 1 passante per A e B.
Soluzione. a) Il centro appartiene all’asse del segmento AB: il punto medio è M = (3, 2)
dunque l’asse di AB ha equazione cartesiana
α : x + 2y − 7 = 0,
23
ed equazioni parametriche (
x = −2t + 7
.
y=t
Quindi il centro ha coordinate C = (−2t + 7, t), con t ∈ R. Affinche’ il raggio sia uguale
a 5 imponiamo d(C, A)2 = 25 e otteniamo l’equazione: (−2t + 5)2 + t2 = 25 ovvero
5t2 − 20t = 0,
b) Non esiste. Infatti il raggio minimo di una circonferenza passante per A e B si ottiene
√ √
quando AB è un diametro, e vale 5. Poiché 5 è maggiore di 1, tale circonferenza non
esiste.
9 Sfere
Studiamo ora le sfere dello spazio tridimensionale, in cui abbiamo fissato un sistema di
riferimento cartesiano.
Definizione Una sfera è il luogo dei punti dello spazio equidistanti da un punto fisso,
detto centro. La distanza di un qualunque punto della sfera dal centro è detta raggio.
Per descrivere una sfera con un’equazione, procediamo come nel caso della circonferenza.
Se il centro C ha coordinate (α, β, γ) e il raggio è R, allora il punto di coordinate (x, y, z)
appartiene alla sfera se e solo se:
x2 + y 2 + z 2 + ax + by + cz + d = 0,
Esempio Scrivere l’equazione cartesiana della sfera di centro C = (2, −1, 1) e raggio 3.
Soluzione. Si ha:
(x − 2)2 + (y + 1)2 + (z − 1)2 = 9,
24
ovvero
x2 + y 2 + z 2 − 4x + 2y − 2z − 3 = 0
Viceversa, sotto opportune condizioni, si ha che l’insieme dei punti dello spazio che
soddisfano un’equazione del tipo precedente è una sfera. Precisamente:
a2 + b2 + c2 − 4d = 9 > 0.
1 3
Il centro è C = (− , 1, 0) e il raggio vale R = .
2 2
25
9.2 Sfera per quattro punti
Osserviamo innanzitutto che per tre punti non allineati dello spazio passano infinite sfere
(dove sono i centri?). Abbiamo però il seguente risultato.
Proposizione Per quattro punti non complanari dello spazio passa una e una sola sfera.
x2 + y 2 + z 2 + ax + by + cz + d = 0
x4 y4 z4 1
Vogliamo dimostrare che A ha determinante non nullo. In effetti, sottraendo la prima riga
dalle altre vediamo che
x1 y1 z1 1
x2 − x1 y2 − y1 z2 − z1 0 x2 − x1 y2 − y1 z2 − z1
det A = det x3 − x1 y3 − y1 z3 − z1 0 = det x3 − x1 y3 − y1 z3 − z1 ,
x 4 − x 1 y4 − y1 z4 − z1
x4 − x1 y4 − y1 z4 − z1 0
e l’ultimo determinante è non nullo poiché per ipotesi i punti non sono complanari. Per il
teorema di Cramer, esiste un’unica soluzione (a, b, c, d) del sistema, quindi una unica sfera
passante per i quattro punti.
Corollario Fissati quattro punti non complanari, esiste un unico punto dello spazio equi-
distante dai quattro punti dati.
Dimostrazione. Il punto cercato è il centro dell’unica sfera passante per i quattro punti.
Esempio Determinare l’equazione cartesiana della sfera passante per l’origine e per i punti
A = (1, 0, 0), B = (0, 2, 0), C = (0, 0, 3).
26
Soluzione. Dall’equazione generica della sfera: x2 + y 2 + z 2 + ax + by + cz + d = 0,
imponendo il passaggio per i quattro punti otteniamo a = −1, b = −4, c = −9, d = 0
dunque l’equazione è
x2 + y 2 + z 2 − x − 2y − 3z = 0.
√
Il centro è C = ( 21 , 1, 23 ) e il raggio vale r = 12 14.
x2 + y 2 + z 2 − x − 2y + cz = 0
con c ∈ R. In particolare, esistono infinite sfere per i tre punti. Il centro della sfera
generica per O, A, B è C = ( 21 , 1, − 2c ), che per definizione è equidistante dai tre punti.
Ora imponiamo che C appartenga a π: questo avviene se e solo se c = −4. Dunque
C = ( 21 , 1, 2) è il punto cercato.
27
−−→
b) Il piano π, tangente alla sfera in P0 , è ortogonale al vettore P0 C. Dunque i parametri di
−−→
giacitura di π saranno proporzionali alle coordinate del vettore P0 C, che sono (−1, −1, −3).
L’equazione del piano tangente è dunque (x − 2) + (y − 1) + 3(z − 1) = 0, ovvero:
x + y + 3z − 6 = 0.
28
Parte 12a. Trasformazioni del piano. Forme quadratiche
A. Savo − Appunti del Corso di Geometria 2013-14
1
Di particolare importanza sono le trasformazioni lineari del piano. Una trasformazione
lineare si scrive
x ax + by x
f = =A
y cx + dy y
dove
a b
A= ,
c d
è la matrice canonica di f .
1.1 Traslazione
α
La traslazione di vettore v = è la trasformazione
β
(
x0 = x + α
x x+α
f = , ovvero .
y y+β y0 = y + β
α
Essa trasforma l’origine nel punto . Come trasformazione di vettori, f non è dunque
β
lineare. Si verifica facilmente che f è un’isometria.
1.2 Rotazione
Consideriamo ora la rotazione di un angolo di θ radianti intorno all’origine (in senso
−−→ −−→ −−→
antiorario). Essa
trasforma
il vettore OP nel vettore OP 0 ottenuto ruotando OP di un
x
angolo θ. Se P = si vede facilmente che le coordinate (x0 , y 0 ) di P 0 sono date da:
y
(
x0 = x cos θ − y sin θ
.
y 0 = x sin θ + y cos θ
Dunque f si scrive:
x x cos θ − y sin θ
f = ,
y x sin θ + y cos θ
e risulta lineare, con matrice canonica
cos θ − sin θ
M= .
sin θ cos θ
2
• la matrice canonica di una rotazione è ortogonale.
Inoltre, è anche evidente che una rotazione conserva la distanza, ed è dunque un’isometria.
3
Ne segue che f si scrive:
x 1 x + 3y
f = .
y 10 3x + 9y
2
1 1
Ad esempio, la proiezione ortogonale di su r è data dal vettore f = 56 .
1 1 5
Notiamo che il nucleo di f ha equazione x + 3y = 0, ed è quindi r⊥ , il sottospazio
complemento ortogonale di r (retta per l’origine ortogonale a r). Questo è sempre vero:
• Se f è la proiezione ortogonale su una retta r, allora Kerf = r⊥ .
Infine, si ha sempre f 2 = f , e quindi, per la matrice canonica ad esso associata, risulta
A2 = A (per la definizione di f 2 , vedi la sezione 1.5).
2g(v) = v + f (v)
x
per ogni v = . Dunque f = 2g − I, dove I è la trasfomazione identica. Se A è la
y
matrice canonica della riflessione, e B è la matrice canonica della proiezione ortogonale,
si ha dunque:
A = 2B − I.
Esercizio Verificare che la matrice di una riflessione è simmetrica e ortogonale, e soddisfa
A2 = I.
4
Esempio Determiniamo la matrice canonica A della riflessione attorno alla retta r : 3x−y.
Nella sezione precedente abbiamo visto che la matrice della proiezione su r è:
1 1 3
B= .
10 3 9
Dunque
1 −4 3
A = 2B − I = .
5 3 4
fk = f ◦ · · · ◦ f (iterata k volte).
5
e si ha:
x x + 2y
f ◦g = .
y −2x + y
Diremo che f è invertibile se è iniettiva e suriettiva; in tal caso esiste una seconda trasfor-
mazione g tale che f ◦ g = I, dove I è trasformazione identica: I(P ) = P per ogni punto
P . Diremo allora che g è l’inversa di f , e scriveremo:
g = f −1 .
f ◦ f −1 = I.
1 0
Notiamo che la trasformazione identica I è lineare, con matrice canonica I =
0 1
(matrice identità).
Come conseguenza della proposizione precedente, si ha:
Siccome M è ortogonale, si ha
−1 t cos θ sin θ
M =M = .
− sin θ cos θ
6
Notiamo che M −1 si ottiene da M cambiando θ in −θ. Dunque l’inversa di f è la rotazione
di angolo −θ (com’era, del resto, ovvio).
α x x+α
Esempio La traslazione di vettore , definita da f = non è lineare, ma
β y y+β
−α
è invertibile. Si vede subito che la sua inversa è la traslazione di vettore :
−β
−1 x x−α
f = .
y y−β
Proposizione Una matrice 2 × 2 è ortogonale se e solo se è di uno dei due tipi seguenti:
cos θ − sin θ
con θ ∈ R,
sin θ cos θ
cos α sin α
sin α − cos α con α ∈ R.
7
2 Cambiamento di coordinate
Sappiamo che, nel piano, un riferimento cartesiano R è individuato da un’origine O e da
unabase ortonormale (e~1 , e~2 ) di V02 . Le coordinate di un punto P sono date dalla coppia
x −−→
, dove OP = xe~1 + y e~2 . Scriveremo anche:
y
R = (0; x, y).
Sia ora R0 un secondo riferimento cartesiano, individuato da una nuova origine O0 e da
una seconda base ortonormale (e~1 0 , e~2 0 ). Il passaggio da R a R0 si ottiene componendo la
trasformazione ortogonale che porta la base (e~1 , e~2 ) nella base (e~1 0 , e~2 0 ) (descritta da una
matrice ortogonale M ) con la traslazione che porta O in O0 .
x
Sia P un punto. Vogliamo ora esprimere la relazione fra , le coordinate di P rispetto
y
0
x 0 0 x0
a R, e , le coordinate di P rispetto a R . Supponiamo che O abbia coordinate
y0 y0
0 0
rispetto a R, e sia M la matrice di passaggio da (e~1 , e~2 ) a (e~1 , e~2 ). Allora si dimostra che
0
x t x − x0
= M . (1)
y0 y − y0
Poiché M è ortogonale, si avrà M t = M −1 e dunque dalla formula precedente, moltipli-
cando a sinistra per M , si ottengono le formule inverse:
0
x x x0
=M 0 + . (2)
y y y0
Le formule
(1) e (2)
sono dette formule del cambiamento di coordinate. Esplicitamente, se
m11 m12
M= allora:
m21 m22
(
x = m11 x0 + m12 y 0 + x0
(3)
y = m21 x0 + m22 y 0 + y0
8
Esempio Scrivereleformule del cambiamento di coordinate da R a R0 , se la nuova origine
2
O0 ha coordinate rispetto a R e gli assi x0 , y 0 si ottengono ruotando gli assi x, y di un
3
angolo θ = π/4.
In altre parole, il nuovo riferimento si ottiene componendo la rotazione di angolo π/4
2
seguita dalla traslazione definita dal vettore . La matrice della rotazione è
3
cos θ − sin θ 1 1 −1
M= =√ .
sin θ cos θ 2 1 1
Si ha poi x0 = 2, y0 = 3. Dunque
0
x 1 1 1 x−2
= √ .
y0 2 −1 1 y−3
Esplicitamente:
1
0
x = √ (x + y − 5)
2
1
y 0 = √ (−x + y − 1)
2
Notiamo che i nuovi assi coordinati hanno equazione, in R:
asse x0 : x − y + 1 = 0, asse y 0 : x + y − 5 = 0.
x2 + y 2 − 4x − 6y + 4 = 0.
9
Nel nuovo riferimento (O0 ; x0 , y 0 ) dell’esempio precedente, la curva avrà un’equazione di-
versa: quale? Usando le trasformazioni inverse (4) si ottiene, dopo qualche calcolo,
l’equazione:
x02 + y 02 − 9 = 0,
evidentemente più semplice della precedente, e che rappresenta la circonferenza di centro
O0 e raggio 3.
x 2 6
Esempio La forma quadratica q = 2x2 − 7y 2 + 12xy ha matrice Q = .
y 6 −7
x 2 2 5 −1
Esempio La forma quadratica q = 5x + 5y − 2xy ha matrice .
y −1 5
x 2 2 2 0
Esempio La forma quadratica q = 2x − 3y ha matrice .
y 0 −3
Diremo che q è diagonale se la sua matrice è diagonale. Questo avviene se e solo se il
coefficiente del termine misto è nullo, in modo che q si scrive:
x
q = λx2 + µy 2 ,
y
10
con λ, µ ∈ R.
Negli esempi precedenti, solo la terza forma quadratica è in forma diagonale.
Nel prossimo teorema dimostriamo che, usando un’opportuna trasformazione ortogonale,
ogni forma quadratica assume forma diagonale. Questo presenta diversi vantaggi, come
vedremo studiando le coniche.
x
Teorema Sia q una forma quadratica, con matrice (simmetrica) Q. Siano λ, µ gli
y
autovalori di Q, e sia M una matrice ortogonale che diagonalizza Q, nel senso che:
t λ 0
M QM = D = .
0 µ
X t x
Allora, se si pone =M , la forma q si scrive:
Y y
x
q = λX 2 + µY 2 .
y
Diagonalizziamo le forme quadratiche degli esempi precedenti.
11
x 2 2 2 6
Esempio Sia q = 2x − 7y + 12xy. La sua matrice è Q = . Risulta che Q
y 6 −7
ha autovalori λ = 5, µ = −10. Dunque
x
q = 5X 2 − 10Y 2 ,
y
dove X e Y dipendono linearmente da x, y. Per vedere come, dobbiamo trovare una base
ortonormale di autovettori e quindi una matrice M che diagonalizza Q. Gli autospazi di
Q sono: E(5) : x − 2y = 0, E(−10) : 2x + y = 0, e possiamo prendere
1 2 1
M=√ .
5 1 −2
Dunque
X 1 2 1 x
= √ .
Y 5 1 −2 y
Esplicitamente
1
X = √ (2x + y)
5
1
Y = √ (x − 2y)
5
Quindi il risultato del calcolo è l’aver mostrato che
2x2 − 7y 2 + 12xy = (2x + y)2 − 2(x − 2y)2 .
Notiamo infine che q si spezza in un prodotto di fattori lineari:
√ √ √ √
2x2 − 7y 2 + 12xy = (2 − 2)x + (1 + 2 2)y (2 + 2)x + (1 − 2 2)y .
x 2 2 5 −1
Esempio Sia q = 5x + 5y − 2xy; quindi Q = .
y −1 5
12
3.1 Carattere di una forma quadratica
x 0
Notiamo che, se q è una forma quadratica, si ha sempre q = 0. Ha interesse
y 0
studiare il segno che q assume sui vettori non nulli, in particolare, se q cambia segno.
Diremo che q è:
x x 0
• definita positiva se q > 0 per ogni 6= ;
y y 0
x x 0
• definita negativa se q < 0 per ogni 6= ;
y y 0
x x
• semi-definita positiva se q ≥ 0 per ogni ;
y y
x x
• semi-definita negativa se q ≤ 0 per ogni ;
y y
x
• indefinita se q assume valori sia positivi che negativi (se cioè cambia di segno).
y
È chiaro che il carattere di q si determina facilmente se ne conosciamo una forma diagonale.
q = 5X 2 − 10Y 2 ,
13
Proposizione Sia Q una matrice 2 × 2 con autovalori λ, µ. Allora:
4 Ellisse
Siano a, c due numeri reali positivi, con a > c, e fissiamo nel piano due punti F1 , F2 a
distanza 2c, che chiameremo fuochi.
Definizione L’ellisse è il luogo dei punti del piano tali che la somma delle distanze di P
da F1 e F2 sia costante, uguale a 2a.
14
Dunque la condizione affinché P appartenga all’ellisse è:
d(P, F1 ) + d(P, F2 ) = 2a.
Vediamo ora di descrivere l’ellisse con un’equazione. Dobbiamo in primo luogo fissare
un riferimento cartesiano opportuno. Fissiamo dunque l’origine O nel punto medio del
segmento F1 F2 , e l’asse x come la retta per F1 e F2 , orientata da F1 a F2 . L’asse y dovrà
dunque essere la retta ortogonale all’asse x passante per O. In tale riferimento, si avrà:
F1 = (−c, 0), F2 = (c, 0).
La condizione affinché P = (x, y) appartenga all’ellisse è dunque:
p p
(x + c)2 + (y − 0)2 + (x − c)2 + (y − 0)2 = 2a.
Con opportune manipolazioni algebriche si arriva all’equazione:
(a2 − c2 )x2 + a2 y 2 = a2 (a2 − c2 ).
√
Ponendo b = a2 − c2 (osserviamo che a ≥ b > 0) arriviamo all’equazione:
x2 y 2
+ 2 = 1, (7)
a2 b
detta equazione canonica dell’ellisse.
x = a, x = −a, y = b, y = −b
.
15
4.1 Simmetrie
Dall’equazione canonica vediamo che, se P = (x, y) appartiene a E (dunque soddisfa
l’equazione (7)), anche il suo simmetrico rispetto all’asse x appartiene a E: infatti, poiché
la variabile y viene elevata al quadrato, anche P 0 = (x, −y) soddisfa la (7). Dunque E è
simmetrica rispetto all’asse x. Per un motivo analogo si vede che E è simmetrica anche
rispetto all’asse y, e dunque è simmetrica rispetto all’origine.
Basta dunque studiare il grafico di E nel primo quadrante, cioè quando x e y sono entrambi
positivi. Possiamo allora descrivere E come grafico della funzione y = f (x) ovvero
bp 2
y= a − x2
a
nell’intervallo in cui 0 < x < a. Ora:
b x
y0 = − √ <0
a a2 − x2
e dunque, poiché y 0 < 0, si ha che y decresce su (0, a). D’altra parte
ab
y 00 = − < 0,
(a2 − x2 )3/2
da cui si vede che la concavità della curva è sempre rivolta verso il basso. Dalle simmetrie
di E si vede dunque che il grafico dell’ellisse è del tipo in figura:
B=(0,b)
A'=(-a,0) O A=(a,0) x
B'=(0,-b)
x2 y 2
Figura 1: Grafico dell’ellisse + 2 = 1. I punti A, A0 , B, B 0 sono i vertici.
a2 b
16
Infine, l’area racchiusa dall’ellisse vale
Z a
bp 2
A=4 a − x2 dx.
0 a
Ora, usando una opportuna sostituzione, risulta
Z ap
πa2
a2 − x2 dx = ,
0 4
dunque l’area vale
A = πab.
4.2 Eccentricità
Il numero √
c a2 − b2
e= =
a a
è detto eccentricità dell’ellisse. Si ha evidentemente
0 ≤ e < 1.
5 Iperbole
Siano a, c numeri positivi tali che a < c, e siano F1 , F2 due punti fissati e tali che d(F1 , F2 ) =
2c. L’iperbole I di fuochi F1 , F2 è la curva del piano formata da tutti i punti P tali che
Come nel caso dell’ellisse, fissiamo un riferimento cartesiano avente l’origine nel punto
medio dei fuochi, e asse x contenente i fuochi, orientato come il segmento F1 F2 . Allora
P = (x, y) appartiene a I se e solo se:
p p
| (x + c)2 + (y − 0)2 − (x − c)2 + (y − 0)2 | = 2a.
17
otterremo l’equazione
x2 y 2
− 2 = 1,
a2 b
detta equazione canonica dell’iperbole. Osserviamo che:
• l’iperbole è simmetrica rispetto agli assi, e quindi è simmetrica rispetto all’origine.
• I si svolge nelle parti del piano dove x ≥ a oppure x ≤ −a.
In particolare, I non ha intersezione con l’asse y, mentre incontra l’asse x nei due punti
A1 = (−a, 0), A2 = (a, 0). Per tracciare il grafico, è sufficiente studiare la curva nel
primo quadrante, (precisamente, dove x ≥ a e y ≥ 0), dove si ha
bp 2
y= x − a2 .
a
Si vede subito che limx→+∞ y = +∞, dunque la curva si allontana all’infinito quando
x → ∞. Calcolando le derivate prima e seconda di y, si vede che y è sempre crescente e
rivolge la concavità verso il basso. Si considerino le rette
x y x y
α1 : − = 0, α2 : + = 0,
a b a b
ottenute uguagliando a zero il primo membro dell’equazione canonica. Con metodi noti
di analisi, si può verificare che α1 è un asintoto obliquo della porzione di iperbole che
giace nel primo quadrante. Per simmetria, risulta allora che α1 e α2 sono asintoti obliqui
dell’iperbole, il cui grafico risulta quindi del tipo:
y
.
(-a,0) (a,0) x
x2 y 2
Figura 2: Grafico dell’iperbole − 2 = 1. Le rette sono gli asintoti.
a2 b
18
6 Parabola
Fissiamo un punto del piano, F , e una retta non passante per F , diciamo r. La parabola
P di fuoco F e direttrice r è il luogo dei punti P tali che la distanza di P da r sia uguale
alla distanza di P da F :
d(P, r) = d(P, F ).
Vediamo qual’è un’opportuna equazione che descrive P. Fissiamo l’asse x nella retta per
F ortogonale a r, orientata da r a F , e l’origine O nel punto medio del segmento HF ,
dove H è la proiezione ortogonale di F su r.
Detta p la distanza di F da r, risulta allora che le coordinate di F sono (p/2, 0) mentre la
direttrice r ha equazione
p
r:x=− .
2
Si vede subito che, affinché P = (x, y) appartenga alla parabola, deve risultare x ≥ 0;
poiché la distanza di P = (x, y) da r vale |x + p/2| si ha la seguente condizione:
r
p p
(x − )2 + y 2 = |x + |.
2 2
y 2 = 2px
19
y
x=-p/2
. .
(-p/2,0) ° O F=(p/2,0) x
20
Parte 12b. Riduzione a forma canonica
A. Savo − Appunti del Corso di Geometria 2012-13
1 Coniche
Chiameremo conica un’equazione di secondo grado in x, y, quindi del tipo:
La matrice simmetrica
a11 a12 a13
A = a12 a22 a23
a13 a23 a33
è detta matrice della conica. Notiamo che:
• a11 e a22 sono, rispettivamente, i coefficienti di x2 e y 2 , e a12 è il coefficiente di xy
diviso 2. a33 è il termine noto, e a13 , a23 sono, rispettivamente, il coefficiente di x (risp.
di y) diviso 2.
L’equazione (1) si scrive, in forma matriciale
x
(x, y, 1)A y = 0. (2)
1
1
corrispondente alla forma quadratica dei termini di secondo grado, è detta parte principale
di A. Assumeremo Q 6= O (altrimenti C è un’equazione di primo grado).
Fissato un riferimento cartesiano (O; x, y) le soluzioni di (1) rappresentano un insieme di
punti del piano (detto grafico della conica).
C : 4x2 − 4xy + y 2 + 8x − 4y + 3 = 0.
4 −2 4
4 −2
La sua matrice è A = −2 1 −2, con parte principale Q = . Notiamo
−2 1
4 −2 3
che:
4x2 − 4xy + y 2 + 8x − 4y + 3 = (2x − y + 1)(2x − y + 3)
Dunque l’insieme delle soluzioni di C è dato dall’unione delle due rette parallele:
2x − y + 1 = 0, 2x − y + 3 = 0.
Esempio La conica
C : 2x2 − 3y 2 − 4 = 0
2 0 0
2 0
ha matrici A = 0 −3 0 e Q = , entrambe diagonali. Dividendo per 4 ambo
0 −3
0 0 4
i membri:
x2 y 2
− 4 = 1,
2 3
si vede che C rappresenta un’iperbole.
Esempio La conica
C : 2x2 + 2y 2 + 2xy + 2x − 2y − 1 = 0,
2 1 1
2 1
ha matrici A = 1 2 −1 e Q =
. In questo caso è più difficile determinare
1 2
1 −1 −1
il grafico dell’equazione.
2
1.1 Forme speciali
Diamo ora un elenco di forme speciali in cui si presenta l’equazione di una conica, per
le quali è facile determinare la geometria delle soluzioni. Vedremo poi che questo elenco,
a meno di un opportuno cambiamento di riferimento, descrive tutti i casi possibili. Per
evidenziare questi casi speciali converrà scrivere le incognite in maiuscolo: X, Y , e in tal
caso il grafico sarà disegnato nel piano con coordinate X, Y .
1. Ellisse reale.
X2 Y 2
+ 2 = 1,
a2 b
che già conosciamo.
2. Ellisse immaginaria.
X2 Y 2
+ 2 = −1,
a2 b
Questa conica non ha soluzioni (dunque, rappresenta l’insieme vuoto).
3. Ellisse degenere.
X2 Y 2
+ 2 = 0,
a2 b
Questa conica si riduce alla sola origine.
4. Iperbole.
X2 Y 2
− 2 = 1.
a2 b
5. Iperbole degenere.
X2 Y 2
− 2 = 0,
a2 b
Poichè:
X2 Y 2 X Y X Y
− = + −
a2 b2 a b a b
questa conica è l’unione delle due rette
bX + aY = 0, bX − aY = 0.
6. Parabola.
Y 2 = 2pX,
con p 6= 0.
7. Coppia di rette parallele.
Y 2 = h2 ,
3
con h 6= 0. Questa conica rappresenta l’unione delle due rette parallele Y − h = 0 e
Y + h = 0.
8. Coppia di rette coincidenti.
Y 2 = 0.
Y 2 = −k 2 ,
Teorema Sia C una conica di equazione (1). Allora esiste sempre un riferimento (O0 ; X, Y )
nel quale l’equazione di C assume una delle forme 1, . . . , 9.
Ne segue che l’insieme delle soluzioni di C è uno dei seguenti: l’insieme vuoto, un punto,
un’ellisse, un’iperbole, una parabola, o una coppia di rette (eventualmente coincidenti).
2 Esempio di riduzione
In questo esempio vogliamo dimostrare che, con un opportuno cambiamento di coordinate,
l’equazione della conica assume una forma più semplice.
C : 2x2 + 2y 2 + 2xy + 2x − 2y − 1 = 0,
2 1 1
2 1
con matrici A = 1 2 −1 e Q = .
1 2
1 −1 −1
Primo passo. Diagonalizziamo la forma quadratica del gruppo omogeneo di secondo
grado:
q = 2x2 + 2y 2 + 2xy
la cui matrice è Q. Gli autovalori di Q sono λ = 1 e µ = 3 e gli autospazi sono
E(λ) : x + y = 0, E(µ) = x − y = 0.
4
Ponendo
1 0
0
x = √ (x + y )
0
x x 2
=M , ovvero
y y0 1
y = √ (−x0 + y 0 )
2
si ha:
2 2
2x2 + 2y 2 + 2xy = x0 + 3y 0 ,
e l’equazione di C diventa: √
2 2
x0 + 3y 0 + 2 2x0 − 1 = 0. (3)
Con un’opportuna trasformazione ortogonale (la rotazione di −π/4 corrispondente alla
matrice M ), abbiamo cosi’ eliminato il termine misto.
Secondo passo. Completiamo i quadrati. Possiamo scrivere:
2 √ √
x0 + 2 2x0 = (x0 + 2)2 − 2.
Poniamo ( √
X = x0 + 2
0
Y =y
che corrisponde a una traslazione. L’equazione (3) diventa:
X 2 + 3Y 2 − 3 = 0,
X2 Y 2
+ = 1,
3 1
√
e quindi C rappresenta un ellisse, con semiassi a = 3 e b = 1.
Inoltre, si verifica che le coordinate dell’origine O0del
nuovo riferimentoR0 = 0
(O ; X, Y )
−1 −1
(che chiameremo riferimento canonico di C) sono . Dunque O0 = è il centro
1 1
di simmetria dell’ellisse.
Infine, gli assi di simmetria dell’ellisse sono, rispettivamente, l’asse X e l’asse Y . Questi
assi sono paralleli agli autospazi di Q, e hanno equazione:
asse X : x + y = 0, asse Y : x − y + 2 = 0.
5
3 Y
1
O'
-5 -4 -3 -2 -1 0 1 2 3 4
-1
X
3 Teoremi fondamentali
3.1 Teorema di invarianza
Esaminiamo ora come cambia l’equazione di una conica se si cambiano le coordinate.
Sia dunque R = (O; x, y) il riferimento di partenza e sia R0 = (O0 ; x0 , y 0 ) un secondo
riferimento cartesiano. Allora l’equazione (1) di C si trasforma in un’equazione in x0 , y 0 ,
sempre di secondo grado, che in forma matriciale si scriverà:
0
x
(x0 , y 0 , 1)A0 y 0 = 0,
1
e la matrice della conica nel riferimento R0 sarà A0 . Nell’appendice vedremo che la relazione
tra A e A0 è:
A0 = T t AT,
dove T è la matrice 3 × 3 che descrive il cambiamento di coordinate inverso da R0 a R.
Poiché det T = ±1, questo implica il seguente fatto importante, dimostrato in Appendice.
6
Teorema di invarianza Il determinante della matrice di una conica non cambia nel
passaggio da R a R0 :
det A = det A0 .
Si ha inoltre:
rkA = rkA0 , det Q = det Q0 , trQ = trQ0 .
Teorema di riduzione. Sia C una conica che, nel riferimento (O; x, y), ha equazione
(1), e siano λ, µ gli autovalori della parte principale Q. Allora possiamo trovare un nuovo
riferimento (O0 ; X, Y ) e numeri reali p, q, r tali che l’equazione di C assume una delle
seguenti forme, dette forme canoniche.
I. Se |Q| =
6 0:
λX 2 + µY 2 + p = 0.
7
3.3 Assi di simmetria e centro
Coniche di tipo I. Se la conica è del primo tipo:
λX 2 + µY 2 + p = 0,
si vede subito che gli assi X e Y sono assi di simmetria della conica, e dunque C possiede
un centro di simmetria (l’origine O0 del riferimento R0 ). Diremo allora che C è una conica
a centro. Una conica a centro è dunque un’ellisse o un’iperbole (eventualmente degeneri).
Un calcolo mostra che le coordinate (x0 , y0 ) del centro di simmetria, nel vecchio riferimento
R, sono date da:
α13 α23
x0 = , y0 = ,
det Q det Q
dove α13 (risp. α23 ) è il complemento algebrico dell’elemento a13 (risp. a23 ) della matrice
A.
Dalla dimostrazione del teorema di riduzione ricaviamo inoltre che l’asse X è parallelo al-
l’autospazio E(λ), corrispondente al primo autovalore, e l’asse Y è parallelo all’autospazio
E(µ). Conoscendo le coordinate del centro, questo ci permetterà di ricavare le equazioni
degli assi di simmetria nel vecchio riferimento R.
Coniche di tipo II. Le coniche del secondo tipo rappresentano sempre una parabola e
hanno equazione
µY 2 + qX = 0,
con q 6= 0. Esse hanno un solo asse di simmetria (l’asse X) e pertanto non possiedono un
centro di simmetria.
Coniche di tipo III. Infine, le coniche del terzo tipo: µY 2 + r = 0 rappresentano una
parabola degenere, cioè, a seconda del valore di r:
• una coppia di rette parallele distinte, se r/µ < 0,
• l’insieme vuoto, se r/µ > 0,
• una coppia di rette coincidenti, se r = 0.
Osserviamo che, se C rappresenta una coppia di rette parallele (distinte oppure no), allora
tali rette dovranno essere parallele all’autospazio E(0) associato all’autovalore nullo.
8
4.1 Esempio
Classifichiamo la conica (già vista in Sezione 2)
C : 2x2 + 2y 2 + 2xy + 2x − 2y − 1 = 0,
2 1 1
2 1
con matrici A = 1 2 −1 e Q = . Gli autovalori di Q sono λ = 1 e µ = 3;
1 2
1 −1 −1
quindi |Q| = 3. Siamo nel primo caso del teorema di riduzione. La conica è del tipo:
X 2 + 3Y 2 + p = 0,
Un calcolo mostra che |A| = −9. Dal teorema di invarianza: |A| = |A0 | otteniamo p = −3
e la forma canonica
X 2 + 3Y 2 = 3,
che rappresenta l’ellisse
X2
+Y2 =1
3
√
con semiassi a = 3, b = 1. Le coordinate del centro sono:
1 2 2 1
1 −1 1 −1
x0 = = −1, y0 = − = 1,
3 3
−1
quindi C = . Un calcolo mostra che gli autospazi di Q hanno equazioni rispettive:
1
L’asse (di simmetria) X è la retta passante per il centro parallela a E(λ), dunque ha
equazione x + y = 0. In modo analogo, si verifica che l’asse Y ha equazione x − y + 2 = 0.
Lo studio della conica è ora completo.
9
4.2 Esempio
Classifichiamo la conica
C : x2 + y 2 + 4xy + 6y − 3 = 0.
1 2 0
1 2
Le matrici sono A = 2 1 3 e Q = . Gli autovalori di Q sono λ = 3, µ = −1;
2 1
0 3 −3
dunque |Q| = −3 e la conica è del primo tipo:
3X 2 − Y 2 + p = 0.
3 0 0
La matrice nelle coordinate X, Y è A0 = 0 −1 0. Ma poichè |A| = 0 per il teorema
0 0 p
di invarianza si deve avere |A0 | = 0 e quindi p = 0. Si ha la forma canonica:
3X 2 − Y 2 = 0
L’equazione si scrive √ √
( 3X − Y )( 3X + Y ) = 0, (4)
e dunque la conica è una coppia di rette incidenti (iperbole degenere).
Il centro di simmetria ha coordinate:
2 1 1 2
0 3
−
0 3
x0 = = −2, y0 = = 1,
−3 −3
−2
quindi C = .
1
10
3
-6 -5 -4 -3 -2 -1 0 1 2 3
-1
|A|
λX 2 + µY 2 + = 0.
|Q|
4.3 Esempio
Classifichiamo la conica
x2 + 4y 2 + 4xy + 2x + 2y + 2 = 0.
1 2 1
1 2
Si ha A = 2 4 1 e Q =
. Poichè |Q| = 0 e |A| = −1 la conica è una parabola.
2 4
1 1 2
Gli autovalori di Q sono λ = 0 e µ = 5. Dunque siamo nel secondo caso del teorema di
riduzione, e la forma canonica è del tipo:
5Y 2 + qX = 0.
11
La matrice nelle coordinate X, Y è
0 0 2q
5q 2
A0 = 0 5 0 , con |A0 | = − .
q 4
2 0 0
5q 2 √
Uguagliando i determinanti: − = −1, si ha q = ±2/ 5. Prendendo la radice negativa,
4
otteniamo la forma canonica
2
5Y 2 − √ X = 0,
5
che rappresenta la parabola
2
Y 2 = √ X,
5 5
come in figura:
-8 -7,2 -6,4 -5,6 -4,8 -4 -3,2 -2,4 -1,6 -0,8 0 0,8 1,6
-1
Esercizio Dimostrare che, se |Q| = 0 a |A| 6= 0, la conica è una parabola con equazione
canonica s
4|A|
Y2 = − X.
(tr Q)3
(usare il fatto che la traccia è la somma degli autovalori).
12
Esempio Classifichiamo la conica
x2 + 4xy + 4y 2 − x − 2y = 0.
2 − 21
1
1 2
Le matrici sono A = 2 4 −1 e Q = . Si ha |Q| = |A| = 0, λ = 0, µ = 5
2 4
− 21 −1 0
e, dal teorema di riduzione, la forma canonica è del tipo:
5Y 2 + r = 0,
con r ∈ R. Abbiamo una parabola degenere, che a seconda del segno di r è l’insieme
vuoto, una coppia di rette parallele oppure una coppia di rette coincidenti. In questo caso,
però, il teorema di invarianza non ci aiuta a calcolare r (spiegare perché).
Ora sappiamo che l’autospazio associato all’autovalore λ = 0 (in questo caso, E(0) :
x + 2y = 0) è parallelo all’asse di simmetria della conica: quindi, se la conica si spezza
in due rette parallele (o coincidenti), queste rette dovranno essere parallele alla retta
x + 2y = 0, e l’equazione si fattorizza:
x2 + 4xy + 4y 2 − x − 2y = (x + 2y + h)(x + 2y + k)
13
2
-5 -4 -3 -2 -1 0 1 2 3 4 5
-1
-2
5 Classificazione
Possiamo classificare una conica in base ai tre numeri:
14
Questo dimostra, in particolare, il teorema della Sezione 1. Per verificare la validità della
precedente classificazione, basta ricordare che, se λ e µ sono gli autovalori di Q, allora
I1 = λ + µ, I2 = λµ.
Quindi, si esaminano i tre casi del teorema di riduzione. Tenendo conto delle osservazioni
della sezione precedente, si ha che, se I2 6= 0 la forma canonica è
I3
λX 2 + µY 2 + = 0;
I2
se I2 = 0 e I3 6= 0 la conica è una parabola, e se I2 = I3 = 0 la conica è una parabola
degenere.
I dettagli sono lasciati al lettore.
6 Appendice
6.1 Dimostrazione del teorema di invarianza
Sia C una conica, sia A la matrice della conica nel riferimento R = (O; x, y) e A0 la matrice
di C nel riferimento R0 = (O0 ; x0 , y 0 ). Quindi A e A0 sono tali che:
0
x x
0 0 0 0
(x, y, 1)A y = 0, (x , y , 1)A y = 0,
1 1
15
0
Ricordiamo che di coordinate da R a R èspecificato
il cambiamento da una matrice
m11 m12 x0
ortogonale M = e da un vettore di traslazione . Se poniamo
m21 m22 y0
m11 m12 x0
T = m21 m22 y0 , (5)
0 0 1
allora si ha: 0
x x
y = T y 0 , e quindi (x, y, 1) = (x0 , y 0 , 1)T t . (6)
1 1
Dalla (6) segue che 0
x x
(x, y, 1)A y = (x0 , y 0 , 1)T t AT y 0 ,
1 1
dunque
A0 = T t AT. (7)
Si verifica inoltre con un calcolo diretto che, se Q0 è la parte principale di A0 , allora si ha
Q0 = M t QM, (8)
det A0 = det A,
e il rango di A è anch’esso invariante. Infine la (8) mostra che Q0 e Q sono matrici simili:
di conseguenza hanno stesso determinante e stessa traccia.
La dimostrazione è completa.
16
6.2 Dimostrazione del teorema di riduzione
Sia
C : a11 x2 + 2a12 xy + a22 y 2 + 2a13 x + 2a23 y + a33 = 0 (9)
l’equazione di una conica nel riferimento R = (O; x, y). Dimostriamo che possiamo sempre
trovare un riferimento (O; X, Y ) nel quale l’equazione assume una delle forme I, II, III.
Primo passo. Diagonalizziamo la forma quadratica del gruppo omogeneo di secondo
grado. Risulterà
2 2
a11 x2 + 2a12 xy + a22 y 2 = λx0 + µy 0 , (10)
a11 a12
dove λ, µ sono gli autovalori della parte principale Q = . Sappiamo inoltre
a12 a22
m11 m12 t λ 0
che, se M = è la matrice ortogonale tale che M QM = D = allora
m21 m22 0 µ
(
x = m11 x0 + m12 y 0
0
x x
=M , ovvero . (11)
y y0 y = m21 x0 + m22 y 0
a 2 a 2
2
λx0 + ax0 = λ x0 + − ,
2λ 4λ
b 2 b2
µy 0 2 + by 0 = µ y 0 + −
,
2µ 4µ
Ponendo:
0 a
X = x + 2λ
b
Y = y0 +
2µ
17
(che equivale a una traslazione degli assi) e sostituendo in (12) l’equazione assume la forma
canonica del tipo I:
λX 2 + µY 2 + p = 0
per un’opportuno p ∈ R.
Secondo caso. Assumiamo ora |Q| = 0: dunque uno degli autovalori è nullo. Per
convenzione, dobbiamo porre λ = 0 e necessariamente µ 6= 0. L’equazione (12) si scrive
2
µy 0 + ax0 + by 0 + c = 0, (13)
Completiamo i quadrati nei termini in y 0 :
b 2 b2
µy 02 + by 0 = µ y 0 + − ,
2µ 4µ
e poniamo 0
X = x
b
Y = y0 +
2µ
l’equazione (13) diventa
µY 2 + aX + r = 0 (14)
per un’opportuno r ∈ R. Se a = 0 otteniamo la forma canonica del tipo III:
µY 2 + r = 0.
Se a 6= 0, con l’ulteriore traslazione
X0 = X + r
a
Y 0 = Y
18