Uploaded by anaclara.mattozinhos

geoing23

advertisement
Capitolo 1
Geometria Euclidea
1.1
R3 : Struttura lineare
Sia Σ lo spazio euclideo. Se fissiamo un sistema di riferimento ortogonale,
ad ogni puno P ∈ Σ possiamo associare, in maniera univoca, 3 numeri reali
che sono determinati proiettando ortogonalmente il segmento di estremi P
e O sugli x, y e z (Figura 1.1.1). Indichiamo con R3 l’insieme ordinato di
terne di numeri reali, per cui



 x1

R3 =  x2  x1 , x2 , x3 ∈ R ,


x3
l’applicazione


x(P )
P 7→  y(P ) 
z(P )
F : Σ −→ R3
è una corrispondenza biunivoca fra lo spazio euclideo e R3 . Quindi possiamo
identificare lo spazio Σ con l’insieme delle terne di numeri reali R3 . L’introduzione di un sistema di assi cartesiani è dovuta essenzialmente a René
Decartes, da noi chiamato Renato Cartesio. I suoi studi diedero un grande
impulso allo sviluppo della geometria analitica.
1
z
P
z(P)
x(P)
O
y(P)
y
Figura 1.1.1. x
Da qui in avanti identificheremo lo spazio Σ con le terne di numeri reali R3 .
Un elemento di R3 è chiamato punto o vettore. L’obbiettivo è introdurre
una struttura algebrica su R3 , per cui delle operazioni, che permettano di
descrivere concetti puramente geometrici, come rette e piani nello spazio, da
equazioni lineari.




x1
y1
Due elementi X =  x2  , Y =  y2  di R3 si diranno uguali, e
x3
y3
scriveremo X = Y , se x1 = y1 , x2 = y2 , x3 = y3 . Se pensiamo a R3 come
lo spazio euclideo, X = Y significa che X e Y sono lo stesso punto nello
spazio. In R3 , definiamo le seguenti operazioni:




x1
y1
a) somma: dati due vettori X =  x2  , Y =  y2  di R3 , definiamo
x3
y
 3

x1 + y1
la somma di X e Y come il vettore X + Y :=  x2 + y2 ;
x3 + y3


x1
b) moltiplicazione per scalare: dato X =  x2  e λ ∈ R, definiamo
x3


λx1
λX :=  λx2 .
λx3
2
X +Y
Y
X
O
3/2X
X
O
−1/2X
La somma di due elementi di R3 corrisponde alla somma seguendo la regola
del parallelogramma.
Dati X, Y ∈ R3 , si costruisca il parallelogramma di vertici O, X e Y .
X + Y è la diagonale del parallelogramma che unisce i vertici opposti a
X e Y . La moltiplicazione per scalare si può pensare come nella figura
precedente. La somma e la moltiplicazione per scalari godono di importanti
proprietà.
Proposizione 1.2. Dati X, Y, Z ∈ R3 , λ, µ ∈ R allora
a) X + (Y + Z) = (X + Y ) + Z: proprietà associativa della somma;
b) X + Y = Y + X: proprietà commutativa della somma;
 
0

c) posto 0R3 = 0 , allora 0R3 + X = X + 0R3 = X;
0
d) se X ∈ R3 , allora X + (−1)X = (−1)X + X = 0R3 . −X := (−1)X è
detto opposto di X;
e) (λ + µ)X = λX + µX;
f ) λ(X + Y ) = λX + λY ;
g) (λµ)X = λ(µX) = µ(λX).
3
Il vettore 0R3 si chiama il vettore nullo. Se X, Y ∈ R3 , denoteremo
X − Y := X + (−1)Y .
Sia λ ∈ R e X ∈ R3 . Allora:
• 1X = X;
• λ0R3 = 0R3 ;
• 0X = 0R3 ;
Siano X1 , . . . , Xk ∈ R3 .
Definizione 1.3. Si dice combinazione lineare di X1 , . . . , Xk ogni elemento
Z ∈ R3 per cui esistano λ1 , . . . , λk ∈ R tali che Z = λ1 X1 + · · · + λk Xk . I
numeri reali λ1 , . . . , λk si chiamano i coefficienti della combinazione lineare.



 



1
1
1
1
Siano Z =  2 , X1 =  1 , X2 =  2 , X3 =  0 , vettori
−1
1
−1
−1
3
di R . Stabilire se Z è combinazione lineare di X1 , X2 , X3 significa verificare
se esistano λ1 , λ2 , λ3 ∈ R tale che




 


1
1
1
1
 2  = λ1  1  + λ2  2  + λ3  0  ,
−1
−1
1
−1
ovvero

 

1
λ1 + λ2 + λ3
 2 =
.
λ1 + 2λ2
−1
−λ1 + λ2 − λ3
Quindi Z è combinazione lineare dei vettori X1 , X2 , X3 se e solamente se il
sistema lineare

 λ1 + λ2 + λ3 = 1
λ1 + 2λ2 = 2

−λ1 + λ2 − λ3 = −1
ammette soluzioni.
Il vettore nullo è combinazione lineare dei vettori X1 , . . . , Xk . Infatti
0R3 = 0X1 + · · · + 0Xk .
Quindi è sempre possibile scrivere il vettore nullo come combinazione dei
vettori X1 , . . . , Xk . La combinazione lineare con tutti i coefficienti nulla
è chiamata la combinazione lineare banale. Una domanda naturale è se
4
è possibile scrivere il vettore nullo come combinazione lineare dei vettori
X1 , . . . , Xk con coefficienti non tutti nulli oppure se l’unica combinazione lineare dei vettori X1 , . . . , Xk uguale al vettore nullo è la combinazione lineare
banale.
Definizione 1.4. Siano X1 , . . . , Xk ∈ R3 . Diremo che:
• i vettori X1 , . . . , Xk ∈ R3 sono linearmente dipendenti se esistono
λ1 , . . . , λk ∈ R non tutti nulli, tali che
λ1 X1 + · · · + λk Xk = 0R3 ;
• i vettori X1 , . . . , Xk ∈ R3 sono linearmente indipendenti se non sono
linearmente dipendenti. Quindi se
λ1 X1 + · · · + λk Xk = 0R3 ,
allora λ1 = · · · = λk = 0.
 
 
 
1
0
0





Esempio 1.5. Siano e1 = 0 , e2 = 1 , e3 = 0 . Ogni vettore
0
0
1
3
di R si scrive come combinazioni lineare dei vettori e1 , e2 , e3 .
z
e3
X
e2
e1
y
Figura 1.5.1. x


x1
Infatti, se X =  x2  ∈ R3 , allora
x3


 
 
 
x1
1
0
0
 x2  = x1  0  + x2  1  + x3  0  = x1 e1 + x2 e2 + x3 e3 .
x3
0
0
1
I vettori e1 , e2 , e3 sono anche linearmente indipendenti. Infatti, se
α1 e1 + α2 e2 + α3 e3 = 0R3
5
allora

  
α1
0
 α2  =  0  ,
α3
0
per cui α1 = α2 = α3 = 0.
     
1
2
1
Esempio 1.6. Siano  1 ,  3 ,  0 . Per stabilire se i vettori sono
2
1
5
linearmente dipendenti, rispettivamente indipendenti, dobbiamo studiare per
quali valori di α1 , α2 , α3 ∈ R, si ha
 
 
   
1
2
1
0
α1  1  + α2  3  + α3  0  =  0  .
2
1
5
0
Sviluppando il termine di sinistra, si ha

  
α1 + 2α2 + α3
0

 =  0 .
α1 + 3α2
0
2α1 + α2 + 5α3
     
1
2
1
Quindi stabilire se i vettori  1 ,  3 ,  0  sono linearmente indi5
1
2
pendenti oppure dipendenti significa studiare il seguente sistema lineare

 α1 + 2α2 + α3 = 0
α1 + 3α2 = 0
.

2α1 + α2 + 5α3 = 0.
Se l’unica soluzione del sistema è α1 = α2 = α3 = 0, allora i vettori sono
linearmente indipendenti; se il sistema ammette soluzioni con α1 , α2 , α3 non
tutti nulli, allora i vettori sono linearmente dipendenti.
Come primo passo, vogliamo determinare dei criteri affincè un vettore
oppure due vettori siano linearmente indipendenti, rispettivamente dipendenti.


x1
Sia X ∈ R3 non nullo per cui X 6= 0R3 . Se X =  x2 , allora uno delle
x3
componenti è differente di zero. Supponiamo che x1 6= 0. Se λX = 0R3 ,
allora λx1 = 0 per cui λ = 0. In maniera analoga possiamo trattari i casi
6
in cui x2 o x3 sono non nulli. Quindi se λX = 0R3 , allora λ = 0. Poiché
λ0R3 = 0R3 per ogni λ ∈ R, si ha il seguente criterio: X è linearmente
indipendente se e solamente se X 6= 0R3 .
Vediamo il caso di due vettori.
Proposizione 1.7. Siano X, Y ∈ R3 . I vettori X e Y sono vettori linearmente dipendenti se e solo se esiste λ ∈ R tale che X = λY oppure
Y = λX.
Dimostrazione. Se X = λY allora X − λY = 0R3 . Quindi i vettori X e Y
sono linearmente dipendenti poiché 0R3 è combinazione lineare a coefficienti
1 e −λ dei vettori X e Y . Il caso Y = λX è analogo.
Viceversa, supponiamo che X e Y sono linearmente dipendenti. Allora
esistono α e β non entrambi nulli, tali che αX + βY = 0R3 , per cui
αX = −βY.
Se α 6= 0, allora X = − αβ Y . Analogamente se β 6= 0, allora Y = − αβ X,
concludendo la dimostrazione.
Esercizio 1.8.
• Siano X1 , . . . , Xk ∈ R3 . Allora i vettori 0R3 , X1 , . . . , Xk sono linearmente dipendenti;
• Siano X1 , X2 , X3 ∈ R3 vettori linearmente indipendenti. Dimostrare
che i vettori X1 , X2 sono linearmente indipendenti;
• Siano X1 , . . . , Xk ∈ R3 vettori linearmente dipendenti. Sia Y ∈ R3 .
Allora X1 , . . . , Xk , Y sono linearmente dipendenti.
1.9
R3 : struttura metrica
In questa sezione analizzeremo la struttura metrica dello spazio euclideo.
L’obbiettivo è descrivere le nozioni geometriche come lunghezza di un vettore
e angolo fra due vettori non nulli attraverso il prodotto scalare canonico di
R3 .
Definizione 1.10. Il prodotto scalare canonico è una funzione che associa
ad ogni coppia di vettori un numero reale come segue:
R3 × R3 −→ R
(X, Y ) 7→ hX, Y i = x1 y1 + x2 y2 + x3 y3 ,
7



y1
x1
per ogni X =  x2 , Y =  y2  ∈ R3
y3
x3

Il prodotto scalare canonico gode delle seguenti proprietà:
Proposizione 1.11. Se X, Y, Z ∈ R3 e λ, µ ∈ R, allora
(a) hX, Xi ≥ 0 e hX, Xi = 0 se e solamente se X = 0R3 ;
(b) hX, Y i = hY, Xi;
(c) hX + Z, Y i = hX, Y i + hZ, Y i;
(d) hλX, Y i = λhX, Y i;
(e) hX, Y + Zi = hX, Y i + hX, Zi;
(e) hX, λY i = λhX, Y i.


x1
Dimostrazione. Se X =  x2 , allora hX, Xi = x21 + x22 + x23 ≥ 0. Inoltre
x3
hX, Xi = 0 se e solamente se x1 = x2 = x3 = 0, quindi se e solamente se
X = 0R3 .
La proprietà (b) è immediata. Dimostriamo la proprietà (c) lasciando
le altre per esercizio.






x1
y1
z1
Siano X =  x2 , Y =  y2  e Z =  z2 . Allora
x3
y3
z3


x1 + z1
X + Z =  x2 + z2  ,
x3 + z3
per cui
hX + Z, Y i = (x1 + z1 )y1 + (x2 + z2 )y2 + (x3 + z3 )y3
= x1 y1 + z1 y1 + x2 y2 + z2 y2 + x3 y3 + z3 y3
= (x1 y1 + x2 y2 + x3 y3 + z3 y3 ) + z1 y1 + z2 y2 + z3 y3
= hX, Y i + hZ, Y i.
8

x1
Sia X =  x2 . La norma o lunghezza di X è il numero reale non
x3
p
p
negativo k X k:= hX, Xi = x21 + x22 + x23 . Definiamo la distanza fra
due vettori X, Y il numero reale non negativo d(X, Y ) =k X − Y k. In
particolare la lunghezza di un vettore X ∈ R3 è la distanza di X dal vettore
nullo.
Siano X, Y ∈ R3 non entrambi nulli. I vettori X e Y dividono un

Y
θ
X
piano in quattro regioni e due angoli. L’angolo fra X e Y e per definizione
l’angolo minore o uguale a π che nella figura anteriore è stato indicato con
θ. Affermiamo che Il prodotto scalare determina cos θ, dove θ è l’angolo fra
X e Y.
Il vettore X + Y è la diagonale del parallalegrammo costruito a partire
da X e Y , che unisce i vertici opposti a X e Y . Applicando il teorema di
X +Y
Y
θ
X
O
Carnot al triangolo di vertici 0, X, X + Y , si ha
k X + Y k2 =k X k2 + k Y k2 −2 k X kk Y k cos ψ,
dove ψ è l’angolo opposto al lato X + Y . Poiché θ + ψ = π, si ha
k X + Y k2 =k X k2 + k Y k2 +2 k X kk Y k cos θ.
9
Per le proprietà del prodotto scalare, si ha
k X + Y k2 = hX + Y, X + Y i
= hX, X + Y i + hY, X + Y i
= hX, Xi + hX, Y i + hY, Xi + hY, Y i
=k X k2 +2hX, Y i+ k Y k2
da cui segue
hX, Y i = cos θ k X kk Y k .
Poiché X e Y sono entrambi non nulli, abbiamo dimostrato la seguente
formula:
hX, Y i
cos θ =
.
k X kk Y k
Vediamo alcune conseguenze della formula anteriore.
Corollario 1.12. Siano X, Y ∈ R3 vettori non nulli. Allora
a) L’angolo fra X e Y è acuto, rispettivamente ottuso, se e solamente se
hX, Y i > 0, rispettivamente hX, Y i < 0;
b) X e Y sono ortogonali se e solamente se hX, Y i = 0;
c) (Disuguaglianza di Cauchy-Schwartz)
|hX, Y i| ≤k X kk Y k .
L’uguaglianza vale se e solamente se X e Y sono linearmente dipendenti.
La discussione anteriore suggerisce la seguente definizione.
Definizione 1.13. Diremo che due vettori X, Y ∈ R3 sono ortogonali,
oppure perpendicolari, se hX, Y i = 0.
Esercizio 1.14. Siano X, Y ∈ R3 vettori non nulli e ortogonali. Dimostrare
che X e Y sono linearmente indipendenti.
Sia S un sottoinsieme di R3 . Indicheremo con S ⊥ l’insieme dei vettori
di R3 ortogonali ad ogni vettore di S. Quindi
S ⊥ := {X ∈ R3 : hX, si = 0 ∀s ∈ S}.
Poiché h0R3 , Xi = 0 per ogni X ∈ R3 , il vettore nullo appartiene a S ⊥ .
10
Proposizione 1.15. Siano v, w ∈ S ⊥ e λ ∈ R, allora v+w ∈ S ⊥ e λv ∈ S ⊥ .
Dimostrazione. Dimostreremo che v+w ∈ S ⊥ lasciando la secondo proprietà
per esercizio.
Per ipotesi hv, si = hw, si = 0 per ogni s ∈ S. Noi dobbiamo dimostrare
che
hv + w, si = 0
per ogni s ∈ S. Per le proprietà del prodotto scalare si ha
hv + w, si = hv, si + hw, si
= λ0 + µ0
= 0.
Teorema 1.16. Siano X, Y ∈ R3 . Allora k X k2 + k Y k2 =k X + Y k2 se
e solamente se X, Y sono ortogonali.
Dimostrazione. Per le proprietà del prodotto scalare si ha:
k X + Y k2 = hX + Y, X + Y i
= hX, X + Y i + hY, X + Y i
= hX, Xi + hX, Y i + hY, Xi + hY, Y i
=k X k2 +2hX, Y i+ k Y k2 .
Quindi k X + Y k2 =k X k2 + k Y k2 se e solamente se hX, Y i = 0 quindi se
e solamente se X, Y sono vettori perpendicolari.
Esercizio 1.17. L’obbiettivo di questo esercizio è dimostrare la disuguaglianza di Cauchy-Schwarz utilizzando il Teorema anteriore.
Siano X, Y ∈ R3 . Se Y = 0R3 allora disuguaglianza è verificata. Supponiamo che Y 6= 0R3 . Dimostrare che:
i
i
• X = X − hX,Y
Y
+ hX,Y
hY,Y i
hY,Y i Y ;
i
hX,Y i
• hX − hX,Y
hY,Y i Y, hY,Y i Y i = 0;
i
hX,Y i
hX,Y i
hX,Y i
2
2
• k X k2 =k X − hX,Y
hY,Y i Y, X − hY,Y i Y k + k hY,Y i Y, hY,Y i Y k ;
2
i
hX,Y i
hX,Y i
2
• k X k2 ≥k hX,Y
hY,Y i Y, hY,Y i Y k = kY k2 , per cui
k X k2 k Y k2 ≥ hX, Y i2
i
. L’uguaglianza è verificata se e solamente se X = hX,Y
hY,Y i Y .
11
1.18
R3 : prodotto vettoriale




x1
y1
Siano X, Y ∈ R3 con X =  x2  e Y =  y2 . Definiamo il loro
x3
y3
prodotto vettoriale, che indicheremo con X × Y , come il vettore


x 2 y3 − x 3 y2
X × Y =  −x1 y3 + x3 y1  .
x 1 y2 − x 2 y1
Il prodotto vettoriale definisce una applicazione R3 ×R3 −→ R3 che soddisfa
alle seguenti proprietà:
Proposizione 1.19. Siano X, Y, Z ∈ R3 e λ, µ ∈ R. Allora
• X × Y = −(Y × X), i.e., il prodotto vettoriale è antisimmetrico;
• (X + Y ) × Z = (X × Z) + (Y × Z);
• (λX) × Z = λ(X × Z);
• X × (Y + Z) = (X × Y ) + (X × Z);
• X × (λY ) = λ(X × Y );
• X × Y è ortogonale sia al vettore X sia al vettore Y ;
• X × Y = 0 se e solamente se X e Y sono linearmente dipendenti;
• k X × Y k=k X kk Y k sin θ, dove θ è l’angolo fra X e Y . Quindi la
norma del prodotto vettoriale è l’area del parallelogramma di lati X e
Y ;
Dimostrazione. Dimostreremo solamente le ultime 3 proprietà lasciando per
esercizio le altre.
hX, X × Y i = x1 (x2 y3 − x3 y2 ) + x2 (−y3 x1 + x3 y1 ) + x3 (x1 y2 − y1 x2 )
= x1 x2 y3 + x2 x3 y1 + x3 x1 y2
− (x1 x2 y3 + x2 x3 y1 + x3 x1 y2 )
= 0.
Analogamente è possibile dimostrare che hY, X × Y i = 0.
12



y1
x1
Siano X =  x2  , Y =  y2  ∈ R3 tali che X × Y = 0. Allora
y3
x3

 x2 y3 − x3 y2 = 0
−x1 y3 + x3 y1 = 0

x1 y2 − x2 y1 = 0

Se X = 0R3 allora ho finito. Supponiamo quindi X 6= 0R3 . Se x1 6= 0, allora

y1
 y3 = x1 x3
y2 = xy11 x2

y1 = xy11 x1
ovvero Y = xy11 X. Analogamente gli altri casi.




x1
y1
Siano X =  x2  , Y =  y2  ∈ R3 . Allora
x3
y3
k X × Y k2 =(x2 y3 − x3 y2 )2 + (−y3 x1 + x3 y1 )2 + (x1 y2 − y1 x2 )2
=(x2 y3 )2 + (x3 y2 )2 + (y3 x1 )2 + (x3 y1 )2 + (x1 y2 )2 + (y1 x2 )2
−2 x2 y3 x3 y2 + y3 x1 x3 y1 + x1 y2 y1 x2
=x21 (y12 + y22 + y32 ) − x21 y12 + x22 (y12 + y22 + y32 ) − x22 y22
+x23 (y12 + y22 + y32 ) − x23 y32 − 2 x2 y3 x3 y2 + y3 x1 x3 y1 + x1 y2 y1 x2
= k X k2 k Y k2 − (x1 y1 )(x1 y1 + x2 y2 + x3 y3 ) + (x2 y2 )((x1 y1 + x2 y2 + x3 y3 )
+(x3 y3 )(x1 y1 + x2 y2 + x3 y3 )
= k X k2 k Y k2 −hX, Y i2
= k X k2 k Y k2 − k X k2 k Y k2 cos2 (θ)
= k X k2 k Y k2 (1 − cos2 (θ))
= k X k2 k Y k2 sin2 θ.
Esercizio 1.20. Siano X, Y ∈ R3 . Siano X 0 = αX + βY e Y 0 = γX + δY
combinazioni lineari di X e Y . Allora
X 0 × Y 0 = (αδ − βγ)X × Y.
Terminiamo questa sezione descrivendo geometricamente il prodotto vettoriale. Utilizzeremo il seguente risultato che verrà dimostrato nella prossima sezione.
13
Teorema 1.21. Se X, Y, Z ∈ R3 sono vettori linearmente indipendenti,
allora per ogni P ∈ R3 esistono, e sono unici, α, β, γ ∈ R tale che
P = αX + βY + γZ.
Lemma 1.22. Se X, Y sono linearmente indipendenti, allora i vettori X, Y, X×
Y sono linearmente indipendenti.
Dimostrazione. Siano α, β, γ ∈ R tali che
αX + βY + γ(X × Y ) = 0R3 .
Allora, tenendo in mente che X × Y è ortogonale sia a X che Y , si ha
0 = h0R3 , X × Y i = hαX + βY + γ(X × Y ), X × Y i = γ k X × Y k2 .
Poiché X ×Y 6= 0R3 , tenendo in mente la prima proprietà del prodotto scalare, si ha γ = 0 per cui otteniamo una combinazione lineare dei vettori X, Y a
coefficienti α e β uguale al vettore nullo. Per ipotesi, X e Y sono linearmente
indipendenti, per cui si ha α = β = 0 concludendo la dimostrazione.
Proposizione 1.23. Siano X, Y ∈ R3 linearmente indipendenti. Sia n ∈
R3 tale che hn, Xi = hn, Y i = 0. Allora esiste k ∈ R tali che n = k(X × Y ).
Dimostrazione. Sia n ∈ R3 tale che hn, Xi = hn, Y i = 0. Per il Lemma 1.22
ed il Teorema 1.21, esistono α, β, γ ∈ R tale che
n = αX + βY + γ(X × Y ).
Quindi
(1) 0 = hn, Xi = αhX, Xi + βhX, Y i
(2) 0 = hn, Y i = αhX, Y i + βhY, Y i.
Adesso, tenendo in mente che hX, Xi =
6 0, possiamo sottrarre alla equazione
hX,Y i
(2), hX,Xi moltiplicata per la (1):
0 = αhX, Y i + βhY, Y i −
hX, Y i
(αhX, Xi + βhX, Y i)
hX, Xi
ottenendo
0 = β hY, Y ihX, X, i − hX, Y i2 .
Applicando la disuguaglianza di Cauchy-Schwartz si ha che
hY, Y ihX, Xi − hX, Y i2 > 0,
per cui β = 0. Dalla equazione (1) si ha αhX, Xi = 0 con hX, Xi > 0, per
cui α = 0. Quindi n = γ(X × Y ) concludendo la dimostrazione.
14
Siano X e Y sono vettori linearmente indipendenti, allora ogni vettore si può scrivere in maniera unica come combinazione lineare dei vettori
X, Y, X × Y ed i vettori ortogonali a X e Y sono tutti e soli i multipli di
X × Y . Quindi la seguente figura
X ×Y
Y
X
descrive geometricamente il prodotto vettoriale. Se X e Y fossero ortogonali,
la terna X, Y, X × Y definirebbe naturalmente un sistema di assi cartesiani
ortogonali.
Nella prossima sezione introdurremo il concetto di retta e piano. La
discussione anteriore e l’esercizio 1.20 significa che il prodotto vettoriale
dipende solamente dal piano generato da X e Y . Il verso è determinato dalla
regola della mano destra mentre il modulo è l’area del parallelogramma di
lati X e Y .
1.24
Rette nello spazio
Possiamo pensare ad una retta nello spazio come ad una particolare
traiettora di un punto che si muove, sempre secondo una certa direzione (e
verso). Quindi, se pensiamo al parametro t come al tempo, i punti di una
retta sono descritti da una equazione parametrica
r : X = P + tA,
dove t ∈ R è il parametro, P è un punto delle retta ed infine A è un vettore non nullo, chiamato vettore direttore, che ne indica la direzione e verso
(Figura 1.24.1).
15
A
P
Figura 1.24.1.
Come insieme, la retta r è l’insieme dei vettori di R3 della forma:
r = {X ∈ R3 : X = P + tA : t ∈ R}.
Una retta ha molte possibili equazioni parametriche. Infatti, se scegliamo
un qualsiasi altro punto Q ∈ r, ed come vettore B = kA dove k 6= 0, allora
r = {X ∈ R3 : X = P + tA, t ∈ R} = {X ∈ R3 : X = Q + sB, s ∈ R}.
Sia to ∈ R tale che Q = P + to A. Per ogni s ∈ R si ha
Q + sB = P + to A + ksA = P + (to + ks)A,
per cui abbiamo dimostrato = {X ∈ R3 : X = Q + sB, s ∈ R} ⊆ {X ∈ R3 :
X = P + tA, t ∈ R}. Viceversa, per ogni t ∈ R, si ha
P + tA = P + tA + to A − to A
= Q − to A + tA
= Q + (t − to )A
(t − t0 )
=Q+
B.
k
Dato un punto P , le rette che passano per P sono tutte e sole le rette date
da equazioni parametriche
X = P + tA, t ∈ R,
dove A è un vettore non nullo. L’insieme delle rette passanti per P si chiama
stella di rette di centro P . Se fissiamo un altro punto Q distinto dal primo
allora vi è una unica retta che passa tanto per P quanto per Q. Un’equazione
parametriche è data da
r = P + t(P − Q), t ∈ R.
16
Verifichiamo che r è la retta passante per P e Q. Se t = 0, otteniamo P . Se
t = −1 otteniamo Q. Proviamo che tale retta è unica.
Sia r : Q1 + tA una retta passante per P e Q. Allora esistono t1 , t2 ∈ R
tali che P = Q + t1 A e Q = Q1 + t2 A con t1 , t2 ∈ R. Poiché P 6= Q, ne segue
1
che t1 6= t2 e t1 −t
(P − Q) = A (perché?). Se t ∈ R, allora
2
Q + tA = Q + t1 A + (t − t1 )A
= P1 + (t − t1 )A
t − t1
= P1 +
(P1 − P2 ).
t1 − t2
Siano r1 = P1 + tA1 e r2 = P2 + tA2 due rette nello spazio. Diremo che le
rette sono ortogonali o perpendicolari se hA1 , A2 i = 0.
Le posizione reciproca di due rette nello spazio sono le seguenti. r1 ed
r2 sono coincidenti, e scriveremo r1 = r2 , se ogni elemento che appartiene
a r1 è un elemento di r2 e viceversa. In particolare i vettori direttori sono
linearmente dipendenti da cui segue che A1 × A2 = 0R3 . Poiché per due
punti passa una ed una sola retta, r1 = r2 se e solo se hanno due punti in
comune.
Esercizio 1.25. Dimostrare che r1 = r2 se e solamente se P1 ∈ r2 e A1 ×
A2 = 0R3 .
Le rette r1 e r2 si dicono parallele se non hanno punti in comune ed
hanno la stessa direzione (vedi figura 1.25.1).
r1
r2
Figura 1.25.1.
I vettori direttori di due rette parallele sono proporzionali per cui A1 e
A2 sono linearmente dipendenti. Questo significa che due rette sono r1 e
r2 sono parallele se e solamente se r1 e r2 non hanno punti in comune ed
A1 × A2 = 0R3 .
Esercizio 1.26. Siano r1 : P + tA1 , t ∈ R e s : Q + sA2 , s ∈ R due
rette nello spazio. Dimostrare che r1 e r2 sono parallele se e solamente se
A1 × A2 = 0R3 e (P − Q) × A1 6= 0R3
17
Le rette r1 e r2 sono incidenti se hanno esattamente un punto in comune
(vedi figura 1.26.1). I vettori direttori sono necessariamente linearmente
indipendenti (A1 × A2 6= 0R3 ). Altrimenti le due rette sarebbero coincidenti
(verificare!).
r2
r1
P
Figura 1.26.1.
Infine, due rette si dicono sghembe se non sono né incidenti, né coincidenti
e né parallele. Quindi r1 e r2 sono sghembe se e solamente se non hanno
punti in comune ed i vettori direttori sono linearmente indipendenti (vedi
figura 1.26.2).
z
s
y
Figura 1.26.2. x
1.27
r
Piani nello spazio
Possiamo pensare ad un piano passante per l’origine come l’insieme dei
vettori ortogonali ad un vettore non nullo (vedi figura 1.27.1). Se n =
18


a
 b  6= 0, allora il piano passante per l’origine e ortogonale ad n è l’insieme
c

  
 

  x
 x
{n}⊥ =  y  ∈ R3 : hX, ni = 0 =  y  ∈ R3 : ax + by + cz = 0 .

 

z
z
Il vettore n si chiama vettore normale al piano. Un piano nello spazio è
l’insieme dei vettori di R3 che verificano una equazioni lineari.
n
π
Figura 1.27.1.
Per le proprietà del prodotto scalare è facile verificare che se k 6= 0, allora
{kn}⊥ = {n}⊥ . Per questo diremo che n è un vettore ortogonale a π.
Esercizio 1.28. Sia n 6= 0R3 e sia r = {tn : t ∈ R} la retta passante
per l’origine con vettore direttore n. Dimostrare che il piano passante per
l’origine e ortogonale a r coincide con r⊥
Sia P ∈ R3 . L’idea per definire un piano passante per P è quella di
traslare lungo il vettore individuato da P , un piano passante
per l’origine.
 
a
Il piano passante per P e ortogonale al vettore n =  b  non nullo è
c
l’insieme
π : = X ∈ R3 : hX − P, ni = 0
 

 x

=  y  ∈ R3 : ax + bx + cx + d = 0 ,


z
dove d = −hP, ni.
19
Esercizio 1.29. Sia π = X ∈ R3 : hX − P, ni = 0 un piano nello spazio.
Sia Q ∈ π. Dimostrare che
π = X ∈ R3 : hX − Q, ni = 0 .
(Suggerimento: X − P = X − Q + (Q − P ) per cui hX − P, ni = hX − Q, ni +
hQ − P, ni)




1
1
Se P =  0  e n =  −5 , allora il piano π passante per P e
−1
3
 
x

ortogonale a n è l’insieme dei vettori y  ∈ R3 che verificano la seguente
z
equazione:
x − 5y + 3z + 2 = 0.
Un vettore v ∈ R3 appartiene
 le sue coordinate soddisfano l’equazione
 a π se
1
/ π poiché 1 − 5 − 3 + 2 6= 0; invece
precedente. Per esempio,  1  ∈
−1
 
0
 1  ∈ π poiché 0 − 5 + 3 + 2 = 0. Riassumendo, un piano nello spazio è
1
l’insieme dei vettori di R3 che verificano una equazione cartesiane del tipo
π : ax + by + cz + d = 0,


a
dove a, b, c ∈ R non sono tutti nulli. Inoltre, il vettore n =  b , è chiamato
c
vettore ortogonale al piano. Il piano π passa per l’origine se e solamente se
d = 0.
Èfacileconvincersi che per unpunto
 P possano infiniti piani. Infatti, se
x0
a
P =  y0  allora per ogni n =  b  ∈ R3 non nullo, il piano
z0
c
a(x − x0 ) + b(y − y0 ) + c(z − z0 ) = 0,
è un piano passante per P . Sempre in maniera intuitiva è facile convincersi
che esistono infiniti piani passanti per due punti distinti. Non proveremo
questa proprietà ma vogliamo porre l’attenzione che un piano contenente
due punti distinti Q1 e Q2 , contiene anche la retta passante per Q1 e Q2 .
20
Esercizio 1.30. Sia π = {X ∈ R3 : hX − P, ni = 0} un piano nello spazio.
Siano Q1 , Q2 due punti distinti. Il piano π contiene i punti Q1 e Q2 se e
solamente se contiene la retta passante per Q1 e Q2 .
Esercizio 1.31. Sia π = {X ∈ R3 : hX − P, ni = 0} un piano nello spazio e
sia r : Q+tA una retta nello spazio. Dimostrare che se la retta r è contenuta
nel piano π, allora hA, ni = 0.
Siano P1 , P2 e P3 tre punti nello spazio. P1 , P2 e P3 si dicono non allineati
se non appartengono ad una stessa retta. Caso contrario diremo che sono
allineati. Possiamo esprimere la condizione di essere non allineati utilizzando
il prodotto vettoriale. Infatti, P1 , P2 , P3 sono non allineati, rispettivamente
allineati, se e solamente se i vettori P2 − P1 e P3 − P1 sono linearmente
indipendenti, rispettivamente dipendenti, per cui se e solamente se (P2 −
P1 ) × (P3 − P1 ) 6= 0R3 , rispettivamente (P2 − P1 ) × (P3 − P1 ) = 0R3 .
Proposizione 1.32. Esiste un unico piano passante per tre punti non allineati.
Dimostrazione. Siano P1 , P2 , P3 non allineati. Sia n = (P2 − P1 ) × (P3 − P1 ).
Allora
π := X ∈ R3 : hX − P1 , ni = 0 .
è un piano passante P1 , P2 e P3 (verificare!). Vediamo che tale piano è unico.
π 0 un piano passante per P1 , P2 , P3 . Possiamo scrivere π 0 :=
Siano
3
X ∈ R : hX − P1 , n0 i = 0 (perché?) per un certo n0 ∈ R3 non nullo.
I vettori (P2 − P1 ) e (P3 − P1 ) sono linearmente indipendenti e ortogonali a
n0 . Per la Proposizione 1.23, n0 = kn con k 6= 0. Poiché
hX − P1 , n0 i = khX − P1 , ni,
un punto X ∈ π se e solamente se X ∈ π 0 per cui π 0 = π.
Esempio 1.33. Scrivere un’equazione cartesiana per il piano passante per
i punti
    

1
2
3
 1 , 0 , 1 .
2
3
−1
 
3

5 . Imponendo il passaggio per
Un vettore normale al piano cercato è
2
uno dei tre punti si ottiene 3x + 5y + 2z = 12.
21
Calcolare equazioni parametriche per un piano significa risolvere un
sistema lineare.
 Sia
 π : ax + by + cz + d = 0 un piano nello spazio. Poiché il vettore n =
a
 b  è non nullo, allora a, b, c non sono tutti nulli. Supponiamo che a 6= 0.
c
Possiamo ricavare la variabile x in funzione dell’altre: x = − ad − ab y − ac z.
Quindi
 d b


 − a − a y − ac z

 : y, z ∈ R
π= 
y


z






−b/a
−c/a 
 −d/a
=  0 +y 1 +z 0  .


0
0
1
Il piano π è l’insieme dei vettori della forma:
P + yv + zw, y, z ∈ R,






−c/a
−b/a
−d/a
dove P =  0 , v =  1  e w =  0 . Il vettore P ∈ π
1
0
0
mentre v e w sono vettori linearmenti indipendenti e ortogonali a n. Al
variare di y e z ottengo tutti e soli i vettori che appartengono a π e sono
chiamate equazioni parametriche. Analogamente gli altri casi. Se b 6= 0,
allora y = − db − ab x − cb z per cui







0
1
0


π =  −d/b  + x  −a/b  + z  −c/b  x, z ∈ R ;


0
0
1
se c 6= 0, allora z = − dc − ac x − cb y, per cui


π= 







0
1
0

0  + x  0  + y  1  , x, y ∈ R .

−d/c
−a/c
−b/c
22
Esempio 1.34. Determinare equazioni parametriche per il piano π : 2x −
y + z = 4. Possiamo ricavare y = 2x + z − 4, per cui si ha



x


π =  2x + z − 4  : x, z ∈ R


z



 
 
0
1
0


=  −4  + x  2  + z  1  , x, z ∈ R ;


0
0
1
Quindi
 π ha equazioni paramentriche:

 π : P + yv + zw, y, z ∈ R, dove
0
1
0
P =  −4  ∈ π, v =  2  , w =  1 . Analogamente, z = 4 − 2x + y
0
0
1
per cui



x




y
π=
: x, y ∈ R


4 − 2x + y
 



 
1
0
 0

=  0  + x  0  + y  1  x, y ∈ R ;


4
−2
1
Proposizione 1.35. Sia π l’insieme dei vettori dello spazio della forma
π : P + tV + sW, ∀s, t ∈ R,
con V e W linearmente indipendenti. Allora π è il piano nello spazio
passante per P e ortogonale a V × W = n.
Dimostrazione. Se X ∈ π, allora X = P + αV + βW , per un certo α, β ∈ R.
Quindi
hX − P, ni = αhV, ni + βhW, ni = 0,
per cui π ⊆ {X ∈ R3 : hX − P, ni = 0}.
Viceversa, sia X ∈ R3 tale che hX − P, ni = 0. Per il Lemma 1.22, i
vettori V, W, n = V × W sono linearmente indipendenti. Per il Teorema
1.21, esistono α, β, γ ∈ R tali che
X − P = αV + βW + γn.
Quindi, tenendo in mente che V , W sono ortogonali a n, si ha
0 = hX −P, ni = hαV +βW +γn, ni = αhV, ni+βhW, ni+γhn, ni = γhn, ni,
23
per cui γ = 0 (perché?). Questo significa che X − P = αV + βW , da cui
segue che
X = P + αV + βW ∈ π.
La dimostrazione del risultato precedente descrive una procedimento per
passare da equazioni parametriche a equazioni cartesiane.
Sia
π : P + αV + βW,
con V × W 6= 0R3 , un piano nello spazio. Allora π è l’insieme dei vettori
di R3 che soddisfa
 la seguente equazione lineare π : ax + by + cx + d = 0,
a
dove n =  b  = V × W e d = −hP, ni. Osserviamo che d si ottiene anche
c
imponendo il passaggio per P .


1
Esempio 1.36. Determinare un’equazione cartesiana per il piano π :  2 +
−1




0
−1
t  1  + s  −1  , s, t ∈ R.
1
1

 
  
−1
0
2
n =  1  ×  −1  =  1 
1
1
1
Quindi
π : 2x + y + z = d.


1
Imponendo il passaggio per  2  si ha
−1
2x + y + z = 3.
Esercizio 1.37. Siano P1 , P2 , P3 ∈ R3 tre punti non allineati. Dimostrare
che
π : P1 + t(P2 − P1 ) + s(P3 − P1 ).
è l’unico piano passante per P1 , P2 e P3 .
24
Esercizio 1.38. Sia r : P + tA, t ∈ R, A 6= 0R3 una retta nello spazio e
sia Q un punto non appartiene a r. Dimostrare che esiste un unico piano
contenente la retta r e passante per Q. Tale piano ha equazioni parametriche
π : P + tA + s(P − Q), s, t ∈ R.
Esempio 1.39. Determinare equazioni parametriche e una equazione cartesiane per il piano π contenente la retta




1
−4
r :  2  + t 3 
−2
2


3
e passante per Q =  3 . Il piano π ha equazioni parametriche:
−3






1
−4
2
π :  2  + t 3  + s 1 .
−2
2
−1
Un vettore normale al piano è dato da

5
n = (P − Q) × A =  0  .
10

Imponendo il passaggio per P si ha
5x + 10z = −15.
Siano π1 : a1 x + b1 y + c1 z = d1 eπ2 : a2 x +b2 y +c2 z = d2 piani nello
a1
a2
spazio. Indichiamo con n1 =  b1  e n2 =  b2  i rispettivi vettori
c1
c2
normali. Diremo che π1 e π2 sono ortogonali se n1 e n2 sono ortogonali, per
cui se hn1 , n2 i = 0. Adesso studiamo la mutua posizione di due piani nello
spazio.
Supponiamo che n1 × n2 = 0. Allora n1 = kn2 e possiamo scrivere
equazioni cartesiane di π1 come
π1 : k(a2 x + b2 y + c2 z) = d1
25
Quindi se kd2 = d1 , allora π1 = π2 altrimenti π1 ∩ π2 = ∅.
Supponiamo che π1 = π2 . Possiamo scrivere equazioni parametriche per
π1 : P + αV + βW , dove V e W sono vettori linearmente indipendenti e
ortogonali a n1 e n2 rispettivamente. I vettori n1 e n2 sono proporzionali a
V ×W per cui sono linearmente dipendenti (perché?). Quindi n1 ×n1 = 0R3 .
Supponiamo che n1 × n2 6= 0R3 . Nostro obbiettivo è dimostrare che
π1 ∩ π2 è una retta.
Sia π1 : P + tV + sW equazioni parametriche di π1 . Ricordiamo che P
è un qualsiasi punto appartenente a π1 .
Passo 1: è possibile scegliere P ∈ π1 tale che P ∈
/ π2 .
Caso contrario, π1 ⊆ π2 per cui π1 = π2 poiché esiste un unico piano passante per tre punti non allineati. Per la discussione anteriore si ha
n1 × n2 = 0R3 , una contraddizione.
Osserviamo che hV, n2 i e hW, n2 i non possono essere entrambi nulli. Altrimenti, per la Proposizione 1.23 n2 = h(V × W ) per cui n1 × n2 = 0R3 .
Passo 2. Se hV, n2 i =
6 0, allora esiste to ∈ R tale che P + to V ∈ π2 . Analogamente se hW, n2 i =
6 0 esiste so ∈ R tale che P + so W ∈ π2
Sia π2 = {X ∈ R3 : hX − Q, n2 i = 0}. Allora P + tV ∈ π2 se e solamente se
hP + tV − Q, n2 i = 0, per cui se e solamente se
hP − Q, n2 i + thV, n2 i = 0.
−Q,n2 i
Poiché hV, n2 i =
6 0, si ha che P +to V ∈ π2 se, e solamente se, to = −hPhV,n
.
2i
Il secondo caso è analogo.
Passo 3. π1 ∩ π2 contiene un retta.
Supponiamo che hV, n2 i e hW, n2 i sono entrambi non nulli. Per i passi
precedenti, esistono so , to ∈ R tali che
P + to V, P + so W ∈ π2 .
Poiché P ∈
/ π2 , si ha che to so 6= 0. Inoltre, tenente in mente che V e
W sono linearmente indipendenti, i punti P + to V e P + so W sono distinti
(verificare!). Quindi π1 ∩π2 contiene la retta passante per P +to V e P +so W .
Supponiamo che hV, n2 i = 0. L’altro caso è analogo.
Poiché hW, n2 i =
6 0 esiste so ∈ R non nullo tale che P + so W ∈ π2 . E’
facile verificare che la retta
P + so W + tV, t ∈ R,
26
è contenuta in π2 per cui π1 ∩ π2 contiene una retta.
Passo 4. π1 ∩ π2 è una retta. Caso contrario, π1 e π2 avrebbero tre punti
non allineati in comune (perché?), per cui π1 = π2 .
Riassumendo abbiamo descritto la mutua posizione di due piani nello
spazio.
Siano π1 e π2 piani nello spazio. Diremo che π1 e π2 sono:
• coincidenti, ed indicheremo π1 = π2 , se π1 e π2 sono lo stesso sottoinsiemi di R3 . Dalla discussione anteriore si ha che π1 = π2 se e
solamente se esiste k ∈ R non nullo tale che n1 = kn2 , in particolare
n1 ×n2 = 0R3 , e d1 = kd2 . Quindi le equazioni cartesiane dei due piani
differiscono per un multiplo non nullo.
• paralleli se π1 e π2 non si intersecano. Se π1 e π2 sono paralleli allora
n1 × n2 = 0R3 .
n2
n1
π2
π1
• incidenti se si intersecano lungo una retta. Questo succede se e solamente se n1 × n2 è un vettore non nullo.
27
Figura 1.39.1.
r
π1
π2
1.40
Rette e Piani nello spazio
Nella sezione precedente, abbiamo affermato che due piani non paralleli
si intersecano lungo una retta. Se consideriamo un’equazione cartesiana per
ciascuno piano, la retta cosı̀ ottenuta è definita da due equazioni cartesiane.
Vogliamo provare che ogni retta è intersezione di due piani non paralleli per
cui ogni retta è definita da due equazioni
 cartesiane.



xo
a1
Sia r : P + tA una retta. Se P =  yo  e A =  a2  allora
z0
a3

 x = xo + ta1
y = yo + ta2

z = zo + ta3
Se a1 è differente da zero, allora possiamo ricavare
x − xo
t=
,
a1
e sostituendo l’espressione di t nelle altre due equazione, si ha:
 

 x
a2 (x − xo )
a3 (x − xo ) 
r =  y  ∈ R 3 : y − yo =
, z − zo =
, .


a1
a1
z
28
Analogamente se a2 6= 0, allora
 

 x
a1 (y − yo )
a3 (y − yo ) 
r =  y  ∈ R3 : x − xo =
, z − zo =
, ;


a2
a2
z
se a3 6= 0, allora
 

 x
a3 (z − zo ) 
a2 (z − zo )
r =  y  ∈ R3 : y − yo =
, y − yo =
, .


a3
a1
z
Le equazioni precedenti si chiamano equazioni cartesiane. Si noti che una
stessa retta ha infinite possibili equazioni cartesiane, nonché ci sono infinite
coppie di piani che si intersecano lungo una retta.
Esempio 1.41.

 x=1+t
y = 2 + 2t
r:

z = 3t
Posso ricavare t = x − 1 e quindi
 

 x

r =  y  ∈ R3 : y − 2x = 0, z − 3x = −3 .


z
Si r una retta nello spazio di equazioni cartesiane
ax + by + cz + d = 0
r :=
a0 x + b0 y + c0 z + d0 = 0
Determinare equazioni parametriche equivale a risolvere un sistema di 2
equazioni in 3 incognite. Al momento non abbiamo ancora sviluppato un
procedimento per risolvere un sistema lineare. Lo vedremo che nel prossimo
capitolo. Tuttavia, possiamo calcolare un vettore direttore di r.
Se una retta r è contenuto in un piano π allora un vettore direttore di r
è ortogonale ad un vettore normale al piano (Esercizio 1.31). Applicando la
Proposizione 1.23, un vettore direttore di r è ottenuto calcolando il prodotto
vettoriale dei vettori normali ai piani:
   0 
a
a



A = b × b0  .
c0
c
29
Esempio 1.42. Sia
r:
x−y+z =1
.
y − 2z = 2
Allora un vettore direttore di r è il vettore

 
  
1
0
1
 −1  ×  1  =  2  .
1
−2
1
L’insieme dei piani passanti per una retta r si chiama fascio di piani di
asse r. Se la retta r ha equazioni cartesiane
ax + by + cz + d = 0
,
a0 x + b0 y + c0 z + d0 = 0
allora si può dimostrare che un piano π appartiene al fascio di piani di asse r
se e solamete se esistano λ, µ ∈ R, non entrambi nulli, tali che π ha equazioni
cartesiane
λ(ax + by + cz + d) + µ(a0 x + b0 y + c0 z + d0 ) = 0
Il fascio dei piani di asse r può essere utilizzato per risolvere alcuni tipi di
esercizi.
Esempio 1.43. Determinare un’equazione cartesiana del piano π contenente la retta
x−y−z =1
r:
x+y+z =2
 
3

e passante per P = 1 .
0
Un piano contenente r ha equazione cartesiana
α(x − y − z − 1) + β(x + y + z − 2) = 0,
al variare di α, β ∈ R. Imponendo il passaggio per P ottengo in piano
cercato:
α + 2β = 0,
ovvero α = −2β. Quindi se scelgo β = 1, allora α = −2 ed il piano cercato
ha equazione cartesiana
−x + 3y + 3z = 0.
30
Esempio 1.44. Determinare un’equazione cartesiana della retta r incidente
ed ortogonale alle rette
x−z =0
x+y =2
s1 :
s2 :
2x − y = 2
y+z =4
Poiché la retta r è ortogonale sia a s1 , sia s2 , un vettore direttore della retta r
è dato dal prodotto

vettoriale dei vettori direttori di s1 e s2 , rispettivamente,
1
ovvero A =  0  è un vettore direttore di r. L’obbiettivo è determinare
−1
due piani non paralleli che contengono la retta cercata.
Il piano contenente s1 e con vettore normale ortogonale al vettore direttore A di r contiene tutta la retta r. Per determinare tale piano applichiamo
il metodo del fascio:
α(x − z) + β(2x − y − 2) = 0.
Il vettore normale al piano è il vettore:


α + 2β
nα,β =  −β  .
−α
Imponendo la condizione
hnα,β , Ai = 0 ⇐⇒ α + 2β + α = 2(α + β) = 0,
otteniamo il piano π1 : x − y + z = 2. Analogamente il fascio di piani di
asse s2 è dato da
α(x + y − 2) + β(y + z − 4) = 0.
al variare di α, β ∈ R non tutti nulli. Imponendo la condizione
hnα,β , Ai = 0 ⇐⇒ α − β = 0,
otteniamo il piano π2 : x + 2y + z = 6, ovvero la retta cercata ha equazione
cartesiane
x−y+z =2
r:
.
x + 2y + z = 6
31
Terminiamo la sezione analizzando la mutua posizione di una retta ed
un piano nello spazio.
 
a

Sia r : P +tA, t ∈ R e π : ax+by +cz +d = 0. Indichiamo con n = b 
c
il vettore normale al piano. Allora:
• r ⊂ π se e solamente se P ∈ π e hA, ni = 0;
Figura 1.44.1.
n
r
π
• diremo che la retta r è parallela a π se r ∩ π = ∅. In particolare
hA, ni = 0;
Figura 1.44.2.
n
r
π
• diremo che r e π sono incidenti se r ∩ π = {Q}. Si può dimostrare che
r ed π sono incidenti se e solamente se hA, ni =
6 0;
32
Figura 1.44.3.
n
r
Q
π
Esempio
 1.45. Determinare equazioni cartesiane della retta r passante per
1
P =  2 , parallela al piano x + y − z = 6 ed incidente l’asse delle x.
1
La retta cercata, passa per P ed è parallela al piano x + y − z = 6, per
cui è contenuta nel piano π : x + y − z = 2. L’intersezione del piano π e
l’asse delle x è il vettore
 
2
π ∩ {asse x} =  0  = Q.
0
Quindi
r : P + t(P − Q),
ovvero

 x=1−t
y = 2 + 2t
r:

z =1+t
Possiamo ricavare t, per esempio, dalla 1 equazione ed ottenere equazioni
cartesiane
2x + y = 4
r:
.
x+z =2
Vediamo un altro metodo. Determiniamo due piani π1 e π2 non paralleli
che contengono la retta r. Un piano parallelo a x + y − z = 6 ha equazioni
33
cartesiane
x + y − z = d.
Imponendo il passaggio per P troviamo il piano che contiene la retta cercata,
ovvero x + y − z = 2. Applicando il metodo del fascio troviamo che un piano
che contiene l’asse delle x ha equazioni cartesiane
αy + βz = 0.
Imponendo il passaggio per P , troviamo il piano contenente sia l’asse delle
x e la retta r, ovvero −y + 2z = 0. Quindi
x+y−z =2
r:
.
−y + 2z = 0
Definizione 1.46. Due rette r1 ed r2 si dicono complanari se esiste un
piano π che le contiene entrambe.
Due rette sghembe non sono complanari. Infatti, se due rette sono contenute
in un piano π allora sono parallele oppure incidenti.
Siano s1 e s2 due rette incidenti. Se indichiamo con P = s1 ∩s2 , possiamo
scrivere s1 : P + tA1 , t ∈ R e s1 : P + sA2 , s ∈ R. Ricordiamo che
A1 × A2 6= 0R3 . Il piano
π : P + tA1 + sA2 , s, t ∈ R,
è un piano contenente s1 e s2 (verificare). Tale piano è unico poiché passa
per tre punti non allineati: P, P + A1 , P + A2 .
Esercizio 1.47. Siano s1 : P + tA1 , t ∈ R e s1 = Q + sA2 , s ∈ R due rette
incidenti. Dimostrare che
π : P + tA1 + sA2 , s, t ∈ R,
è il piano contenente s1 e s2 .
Siano s1 e s2 due rette parallele. Allora s1 : P + tA, t ∈ R e s1 : Q + sA,
s ∈ R e A 6= 0R3 . Poiché le due rette sono parallele, si ha (P − Q) × A 6= 0R3 .
Il piano
π : P + tA + s(P − Q), s, t ∈ R,
è un piano contenente s1 e s2 . Tale piano è unico poiché passa per tre punti
non allineati: Q, P, Q + A. Riassumendo abbiamo dimostrato il seguente
risultato.
Proposizione 1.48. Due rette sono complanari se e solamente se sono
parallele oppure incidenti. Inoltre tale piano è unico.
34
Capitolo 2
Spazi Vettoriali
2.1
Spazi vettoriali, sottospazi vettoriali ed esempi
Definizione 2.2. Uno spazio vettoriale V su un campo K, per noi K = R
oppure K = C, è un insieme su cui sono definite due operazioni: una di
somma e un prodotto per scalare
V × V −→ V
K × V −→ V
(v, w) 7→ v + w
(λ, v) 7→ λv,
che soddifano alle seguenti proprietà: se u, v, w ∈ V e λ, µ ∈ K, allora
a) u + (v + w) = (u + v) + w;
b) v + w = w + v;
c) ∃0V ∈ V tale che 0V + v = v + 0V = v;
d) ∀v ∈ V , ∃v 0 ∈ V tale che v + v 0 = v 0 + v = 0V ;
e) λ(v + w) = λv + λw;
f ) (λ + µ)v = λv + µv;
g) λ(µv) = µ(λv) = (λµ)v;
h) 1v = v, per ogni v ∈ V ;
Gli elementi di V si chiamano vettori.
35
Proposizione 2.3. Sia V uno spazio vettoriale su K. Allora:
• siano v, w, z ∈ V . Se v + w = v + z allora w = z;
• ∃!0V ∈ V tale che per ogni v ∈ V si ha v + 0V = 0V + v = v;
• sia 0 ∈ K. Allora 0v = 0V per ogni v ∈ V ;
• ∀v ∈ V esiste un unico v 0 ∈ V : v + v 0 = v 0 + v = 0V . Inoltre
v 0 = (−1)v;
• per ogni λ ∈ K si ha λ0V = 0V ;
• sia v 6= 0V . Allora λv = 0V se e solamente se λ = 0.
Dimostrazione. Se
v + w = v + z,
sommanda, in entrambi i menbri, l’opposto di v rispetto alla somma si ha
w = z.
Supponiamo che esistano 0V , 00V tale che x + 0V = 0V + x = x + 00V =
00V + x = x per ogni x ∈ V . Allora
0V = 0V + 00V = 00V .
Sia 0 ∈ K e sia v ∈ V . Allora
0v = (0 + 0)v = 0v + 0v.
Sommanda l’opposto de 0v in entrambi i membri si ha
0v = 0V .
Poiché v + (−1)v = (1 − 1)v = 0v = 0V , (−1)v è un inverso rispetto alla
somma. Vediamo l’unicità. Siano v 0 , v 00 ∈ V tale che v 0 + v = v 00 + v = 0V .
Allora
v 0 = v 0 + 0V = v 0 + (v + v 00 ) = (v 0 + v) + v 00 = 0V + v 00 = v 00 .
Sia λ ∈ K. Allora
λ0V = λ(0V + 0V ) = λ0V + λ0V ,
ovvero λ0 = 0V . Infine sia v 6= 0V e sia λ 6= 0. Supponiamo che λv = 0.
Moltiplicando per λ−1 a destra e sinistra si ha v = 0V . Assurdo. Quindi
λv = 0V se e solamente se λ = 0.
36
Da qui in avanti, denoteremo v −w := v +(−1)w. Vediamo alcuni esempi
di spazi vettoriali.
Sia





 x1

 .. 
n
R =  .  x1 , . . . , x n ∈ R ,




xn


x1


l’insieme delle n-eplu ordinate di numeri reali. Se X =  ...  , Y =
xn


y1
 .. 
 . , allora X = Y se x1 = y1 , . . . , xn = yn . Somma e moltiplicazione
yn
per scalare sono definite come segue:


x1 + y1


..
a) X + Y = 
;
.


b) λX = 
xn + yn

λx1
.. ,
. 
λxn
Proposizione 2.4. (Rn , +, ·) è uno spazio vettoriale su R.
 
0
 .. 
Osserviamo che Il vettore nullo è  . .
Sia
0



x


1


 .. 
n
C =  .  x1 , . . . , x n ∈ K ,




xn


x1


i.e., l’insieme delle n-ple ordinate di numeri complessi. Se X =  ...  , Y =
xn

y1
 .. 
 .  ∈ Cn , allora X = Y se x1 = y1 , . . . , xn = yn . Possiamo definire una

yn
somma ed una moltiplicazione per scalare come segue:
37

 
 

x1
y1
x1 + y1

 
 

..
a)  ...  +  ...  = 
;
.
xn
yn
xn + yn

 

λx1
x1

 

b) λ  ...  =  ... .
xn
λxn
Proposizione 2.5. (Cn , +, ·) è uno spazio vettoriale su C.
Sia K = R oppure K = C. Poniamo
K[x] := {a0 + a1 x + · · · + an xn : a0 , . . . , an ∈ K, n ∈ N}.
Siano v, w ∈ K[x]. Se v = a0 + a1 x + · · · + an xn e w = b0 + b1 x + · · · + bm xm ,
allora diremo che v = w se e solamente se n = m e a0 = b0 , . . . , an = bn .
Somma e moltiplicazione per scalare sono cosı̀ definite: se m > n, allora
possiamo scrivere v = a0 + a1 x + · · · + an xn + 0xn+1 + · · · + 0xm ; se m < n,
allora possiamo scrivere w = b0 + b1 x + · · · + bm xm + 0xm+1 + · · · 0xn per
cui possiamo assumere che n = m e definiamo
v + w := (a0 + b0 ) + · · · + (an + bn )xn
λv := λa0 + · · · + λan xn .
Per esempio:
(x+2x3 +x4 +5x5 )+(1−3x+2x2 −x3 +x4 +x6 ) = 1−2x+2x2 +x3 +2x4 +5x5 +x6 ;
3(1 − x + 2x2 − 3x3 ) = 3 − 3x + 6x2 − 9x3 .
L’insieme K[x] con le operazioni appena definite è uno spazio vettoriale su
K. Il vettore nullo è il polinomio che ha tutti i coefficienti uguali a zero
chiamato il polinomio nullo.
Sia Kn [x] = {a0 + a1 x + · · · + an xn : a0 , . . . , an ∈ K} l’insieme dei
polinomi di grado minore oppure uguale a n. Le operazione
v + w := (a0 + b0 ) + · · · + (an + bn )xn
λv := λa0 + · · · + λan xn .
definiscono una struttura di spazio vettoriale su K.
Se X un insieme e sia V = {f : X −→ K} l’insieme di tutte le applicazioni di X a valori nel campo K. V ammette una struttura di spazio vettoriale
come segue:
(f + g)(p) := f (p) + g(p)
(λf )(p) := λf (p).
Il vettore nullo è l’applicazione che associa ad ogni elemento di X l’elemento
0 ∈ K, ovvero l’applicazione che vale costantemente 0 ∈ K.
38
Definizione 2.6. Un sottoinsieme W ⊆ V non vuoto si dice un sottospazio
vettoriale di V se
• per ogni coppia di vettori w, z ∈ W si ha w + z ∈ W (chiuso rispetto
alla somma);
• per ogni w ∈ W e per ogni λ ∈ K, si ha λw ∈ W (chiuso rispetto alla
moltiplicazione per scalare).
Osservazione 2.7. Se W è un sottospazio vettoriale di V , allora 0V ∈ W .
Esistono sottoinsiemi di uno spazio vettoriale che verificano la prima
condizione ma non la seconda e viceversa. Per esempio, sia
x
: x ≥ 0, y ≥ 0 .
W1 =
y
W1 verifica la prima proprietà ma non è chiuso rispetto alla moltiplicazione
per scalara.
Sia
x
: x = 0 oppure y = 0 .
W2 =
y
W2 è chiuso rispetto la moltiplicazione per scalare ma non è chiuso rispetto
alla somma. Quindi affinché un sottoinsieme sia un sottospazio vettoriale
deve essere chiuso rispetto alla somma e rispetto alla moltiplicazione per
scalare. La prossima proposizione unifica le due condizioni ed è lasciata per
esercizio.
Proposizione 2.8. Sia W ⊆ V . W è un sottospazio vettoriale se e solamente se per ogni w1 , w2 ∈ W e per ogni α1 , α2 ∈ K, allora α1 w1 + α2 w2 ∈
W.
Esempio 2.9.
a) sia S ⊆ R3 . Allora S ⊥ è un sottospazio vettoriale di R3 ;
x
3
b) W =
∈ R : x + y = 0 è un sottospazio vettoriale di R3 ;
y
 

 x

c) W =  y  ∈ R3 : x + y + z = 1 non è un sottospazio vettoriale


z
di R3 ;
39
d) sia K[x] l’insieme dei polinomi a coefficienti in K e sia p = a0 + a1 x +
· · · + an xn ∈ K[x]. Possiamo pensare a p come una funzione come
segue:
p : K −→ K
α 7→ p(α) = a0 + a1 α + · · · + an αn .
È facile verificare che (p + q)(α) = p(α) + q(α) ed (λp)(α) = λp(α).
Se β ∈ K, allora W = {p ∈ K[x] : p(β) = 0} è un sottospazio vettoriale
di K[x];
e) sia V = {f : R −→ R. Allora W = {f ∈ V : f (1) = 0} è un
sottospazio vettoriale di V ;
Esercizio 2.10. In R3 si consideri r una retta passante per l’origine. Dimostrare che r è un sottospazio vettoriale di R3 . Cosa posso dire se r non
passa per l’origine?
Esercizio 2.11. In R3 si consideri π un piano passante per l’origine. Dimostrare che π è un sottospazio vettoriale di R3 . Cosa posso dire se π non
passa per l’origine?
2.12
Combinazioni lineari, dipendenza e indipendenza lineare
Definizione 2.13. Siano v1 , . . . , vs ∈ V . Si dice combinazione lineare di
v1 , . . . , vs ∈ V ogni elemento w ∈ V esprimibile nella forma
w = λ 1 v1 + · · · + λ s vs .
I numeri λ1 , . . . , λs si dicono i coefficienti della combinazione lineare.
 
 
1
1
 1 
 1 

 
Esempio 2.14. Stabilire se 
 0  è combinazione lineare dei vettori  1 ,
1
1
  

2
0
 1   1 
4

 , 
 0   −1  ∈ R . Questo significa studiare l’esistenza α1 , α2 , α3 ∈ R
5
3
tali che
 
 

  
0
1
1
2
 1 
 1 
 1   1 
 

  

α1 
 1  + α2  0  + α3  −1  =  0  ,
1
5
3
1
40
ovvero
  
α1 + 2α2
1
 α1 + α2 + α3   1 
 =  ,

  0 

α1 − α3
α1 + 5α2 + 3α3
1

da cui segue che

α1 + 2α2 = 1



α1 + α2 + α3 = 1
α − α3 = 0


 1
α1 + 5α2 + 3α3 = 1.


   
1
1
2
 1 
 1   1 

   
Quindi stabilire se 
 0  è combinazione lineare dei vettori  1 ,  0 ,
1
1
5


0
 1 


 −1  è equivalente a stabilire se il sistema lineare anteriore ammet3
te soluzioni (combinazione lineare) oppure non ammette soluzioni (non è
combinazione lineare).
Definizione 2.15. L’insieme di tutte le combinazioni lineari di v1 , . . . , vs
verrà indicato con
L(v1 , . . . , vs ) := {λ1 v1 + · · · + λs vs : λ1 , . . . , λs ∈ K}.
L(v1 , . . . , vs ) si chiama lo spazio generato da v1 , . . . , vs .
Esempio 2.16. In R3 si consideri una retta passante per l’origine:
r : X = tA, t ∈ R, A 6= 0.
Allora r = L(A).
Un piano passante per l’origine ha equazioni parametriche:
π : X = tv + sw, s, t ∈ R, v × w 6= 0,
ovvero π = L(v, w).
Proposizione 2.17. Siano v1 , . . . , vs ∈ V . Allora L(v1 , . . . , vs ) è un sottospazio vettoriale di V .
41
Dimostrazione. Dobbiamo dimostrare che se v, w ∈ L(v1 , . . . , vs ) e λ ∈ K,
allora v + w ∈ L(v1 , . . . , vs ) e λv ∈ L(v1 , . . . , vs ).
Se v, w ∈ L(v1 , . . . , vs ), allora esistono α1 , . . . αs , rispettivamente β1 , . . . , βs ,
tali che v = α1 v1 + . . . + αs vs , rispettivamente w = β1 v1 + · · · + βs vs . Allora
v + w = α1 v1 + · · · + αs vs + β1 v1 + · · · + βs vs
= (α1 + β1 )v1 + · · · + (αs + βs )vs ∈ L(v1 , . . . , vs )
e
λv = λα1 v1 + · · · + λαs vs ∈ L(v1 , . . . , vs ).
Le rette ed i piani passanti per l’origine sono sottospazi vettoriale di R3 ,
vedi esempio 2.16.È facile convincersi che sono tutti i sottospazi vettoriali
di R3 oltre a {0R3 } e R3 stesso.
Osservazione 2.18. Sia w, w1 , . . . , ws ∈ V . Il vettore w è combinazione
lineare dei vettori w1 , . . . , ws se e solamente se w ∈ L(w1 , . . . , ws ).
Proposizione 2.19. Sia W un sottospazio vettoriale di V e siano w1 , . . . ws ∈
W . Allora L(w1 , . . . , ws ) ⊆ W.
Dimostrazione. Siano α1 , . . . , αs ∈ K. I vettori α1 w1 , · · · , αs ws ∈ W , poiché
W è chiuso rispetto alla moltiplicazione per scalare. W è anche chiuso
rispetto alla somma per cui
α1 w1 + · · · + αs ws ∈ W.
Questo significa che ogni combinazione lineare di w1 , . . . , ws appartiene ancora a W per cui
L(w1 , . . . , ws ) = {α1 w1 + · · · + αs ws : α1 , . . . , αs ∈ K} ⊆ W.
Definizione 2.20. Siano v1 , . . . , vs ∈ V . Diremo che:
a) v1 , . . . , vs sono linearmente dipendenti se esistono α1 , . . . , αs non tutti
nulli tali che
α1 v1 + · · · + αs vs = 0V ;
b) v1 , . . . , vs linearmente indipendenti se non sono linearmente dipendenti, ovvero se
α1 v1 + · · · + αs vs = 0V ,
allora necessariamente α1 = · · · = αs = 0;
42
c) v1 , . . . , vs formano un sistema di generatori se L(v1 , . . . , vs ) = V .
Se V ammette un sistema di generatori, diremo che V è finitamente
generato.

 
 
 

1
1
0
2
 0   1   1   1 
 
 
 

Esempio 2.21. In R4 si considerino i vettori 
 0  ,  −1  ,  −3  ,  −1 .
1
0
1
1
I vettori sono linearmente dipendenti se esistono α1 , . . . , α4 ∈ R non tutti
nulli tali che







 

1
1
0
2
0
 0 
 1 
 1 
 1   0 






 

α1 
 0  + α2  −1  + α3  −3  + α4  −1  =  0  ,
1
0
1
1
0
per cui se e solamente se esistono α1 , α2 , α3 , α4 non tutti nulli tali che

  
α1 + α2 + 2α4
0
 α2 + α3 + α4   0 

  
 −α2 − 3α3 − α4  =  0  .
0
α1 + α3 + α4
Quindi, se il sistema lineare

α1 + α2 + 2α4 = 0



α2 + α3 + α4 = 0
.
−α

2 − 3α3 − α4 = 0


α1 + α3 + α4 = 0
ammette solzioni ”non banali”, ovvero α1 , α2 , α3 , α4 non tutti nulli che verificano le equazioni anteriori, allora i vettori sono linearmente dipendenti.
Altrimenti i vettori sono linearmente indipendenti.
 
 
1
0
 .. 
 .. 
Esempio 2.22. Siano e1 =  .  , . . . , en =  .  ∈ Kn . Ogni vettore
0
1
X ∈ Kn è combinazione lineare di e1 , . . . , en . Infatti


x1
 .. 
 .  = x1 e1 + · · · + xn en .
xn
Quindi L(e1 , . . . , en ) = Kn . Si osservi inoltre che i vettori e1 , . . . , en sono
linearmente indipendenti.
43
Esempio 2.23. Siano 1, 1 + x, 1 − x + x2 ∈ R2 [x]. Il vettore 1 + x + 3x2 ∈
L(1, 1 + x, 1 − x + x2 ) se esistono α1 , α2 , α3 ∈ R tali che
α1 1 + α2 (1 + x) + α3 (1 − x + x2 ) = 1 + x + 3x2 ,
quindi se e solamente se
(α1 + α2 + α3 ) + (α2 − α3 )x + α3 x2 = 1 + x + 3x2 .
Quindi, se il sistema lineare

 α1 + α2 + α3 = 1
α2 − α3 = 1
,

α3 = 3
di tre equazioni in tre incognite, ammette soluzioni allora il vettore 1 + x +
3x2 ∈ L(1, 1+x, 1−x+x2 ), altrimenti il vettore non appartiene al sottospazio
L(1, 1 + x, 1 − x + x2 ).
Esempio 2.24. Sia 1, x, . . . , xn ∈ Kn [x]. È facile verificare che L(1, x, . . . , xn ) =
Kn [x]. Inoltre se
α0 1 + α1 x + · · · + αn xn = 0Kn [x] ,
allora α0 = · · · = αn = 0.
Esercizio 2.25. Sia V uno spazio vettoriale su K. Allora
• v ∈ V è linearmente indipendente se e solamente se v 6= 0V ;
• siano v1 , . . . , vn ∈ V . I vettori 0V , v1 , . . . , vn sono linearmente dipendenti.
• v, w ∈ V sono linearmenti dipendenti se e solamente se v = λw oppure
w = λv per un certo λ ∈ K;
• siano u, v, w ∈ V . Supponiamo che u e w sono linearmente indipendenti. Se u, v, w sono linearmente dipendenti, allora u è combinazione
lineare dei vettori v e w.
• sia B = {v1 , . . . , vn }. Allora:
– se v1 , . . . vn sono linearmente indipendenti, allora ogni sottoinsieme di B è costituito da vettori linearmente indipendenti;
– se B è un insieme formato da vettori linearmente dipendenti, allora ogni sovrainsieme di B è costituito da vettori linearmente
dipendenti;
44
Capitolo 3
Matrici
3.1
Matrici: struttura lineare
Definizione 3.2. Una matrice, reale o complessa, di formato m×n è una tabella rettangolare di numeri reali oppure complessi con m righe e n colonne.
Quindi mn elementi del tipo:


a11 · · · a1n
 ..
..  = (a )
 .
ij 1 ≤ i ≤ m ,
. 
am1 · · ·
1≤j ≤n
amn
dove aij ∈ R oppure aij ∈ C.
Esempio 3.3.
A=
1 0 3
0 1 3
∈ M2×3 (R)
a11 = 1, a12 = 0, a13 = 3, a21 = 0, a22 = 1, a23 = 3
Sia K = R oppure K = C. L’insieme delle matrici di formato m × n a
coefficienti in K verrà indicato con M
m×n (K).


a11 · · · a1n
b11 · · ·
 ..


.
..  e B =  ...
Siano A, B ∈ Mm×n (K). Se A =  .
am1 · · · amn
diremo che A = B se aij = bij per ogni 1 ≤ i ≤ m, e 1 ≤ j ≤ n.
Sia A ∈ Mm×n (K). Allora




a11
a1n




A1 =  ...  , . . . , An =  ... 
am1
amn
45
bm1 · · ·

b1n
.. ,
. 
bmn
sono le colonne di A; analogamente
A1 = [a11 , · · · , a1n ], . . . , Am = [am1 , . . . , amn ],
sono le righe di A. Si osservi che le colonne sono vettori di Km mentre le
righe le possiamo pensare come vettori di Kn . Iinfine, possiamo pensare ad
1
n
una matrice A ∈ Mm×n (K)
 formata
 da n colonne A = (A , . . . , A ) oppure
A1
 .. 
formata da m righe A =  . .
Am
Esempio 3.4.
1 0 3
A=
.
0 1 3
3
0
1
3
2
1
.
,A =
,A =
A =
3
1
0
A1 = 1 0 3 , A 2 = 0 1 3
Se n = m, il numero delle righe coincide con il numero delle colonne,
allora la matrice A si dirà matrice quatrata di ordine n.
Esempio 3.5.


1 −56
3
3  ∈ M3×3 (R).
A =  5 11
2
1
−99
Siano A, B ∈ Mm×n (K) e sia λ ∈ K. Possiamo definire la somma e
la moltiplicazione per scalare come segue: se A = (aij ) 1 ≤ i ≤ m e B =
1≤j ≤n
(bij ) 1 ≤ i ≤ m , definiamo:
1≤j ≤n
A + B := (aij + bij ) 1 ≤ i ≤ m
1≤j ≤n
λA := (λaij ) 1 ≤ i ≤ m
1≤j ≤n
Esempio 3.6. Siano A =
1 0 3
0 1 3
3 1 6
9 1 0
,B =
2 1 3
9 0 −3
∈ M2×3 (R),
allora
A+B =
1+2 0+1 3+3
0+9 1+0 3−3
=
46
,
−3A =
−3 0 −9
0 −3 −9
.
Proposizione 3.7. Mn×m (K) è uno spazio vettoriale su K.


0 ··· 0


Il vettore nullo è la matrice 0Mm×n (K) =  ... . . . ...  chiamata anche
0 ···
0
matrice nulla.
3.8
Operazioni sulle matrici

a11 · · ·
 ..
Sia A ∈ Mm×n (K). La trasposta di A =  .
am1 · · ·
matrice AT ∈ Mn×m (K) cosı̀ definita:

a1n
..  è una
. 
amn
AT = (aji ) 1 ≤ j ≤ n .
1≤i≤m
La matrice AT si ottiene a partire da A scambiando le righe con le colonne,
rispettivamente scambiando le colonne con le righe.
0
1
1 0 3
2
1
, A3 =
,A =
. Poiché A =
Esempio 3.9. Sia A =
1
0
0 1 3
3
, si ha
3


1 0
AT =  0 1  .
3 3
Proposizione 3.10. Siano A, B ∈ Mm×n (K) e sia λ ∈ K. Allora
a) (A + B)T = AT + B T ;
b) (λA)T = λAT ;
c) (AT )T = A.
Se A = (aij ) 1 ≤ i ≤ m ∈ Mm×n (C), definiamo:
1≤j ≤n
A = (aij ) 1 ≤ i ≤ m ,
1≤j ≤n
A∗ = (aji ) 1 ≤ i ≤ m = (A)T = (AT )
1≤j ≤n
La matrice A∗ si chiama l’aggiunta di A.
47
Esempio 3.11. Sia A =
1+i i 3−i
i
1
i
A=
. Allora
1 − i −i 3 + i
−i
1
−i
.
L’aggiunto di A è data da


1 − i −i
1 .
A∗ =  −i
3 + i −i
Proposizione 3.12. Siano A, B ∈ Mm×n (C) e λ ∈ C . Allora
a) (A + B) = A + B;
b) (λA) = λA;
c) A = A;
d) (A + B)∗ = A∗ + B ∗ ;
e) (λA)∗ = λA∗ ;
f ) (A∗ )∗ = A;
Da qui in avanti considereremo solamente matrici quadrate.
Sia A = (aij ) 1 ≤ i ≤ n ∈ Mn×n (K). Gli elementi a11 , · · · , ann si dicono
1≤j ≤n
elementi sulla diagonale principale.

a11 ∗ · · ·
 ..
 . a22

 ..
..
 .
.
∗ ··· ···

∗
.. 
. 

.. 
. 
ann
Una matrice A si dice diagonale se tutti i coefficienti al di fuori dalla diagonale principale sono nulli: se A = (aij ) 1 ≤ i ≤ n è diagonale allora aij = 0
1≤j ≤n
se i 6= j.

∗
 0

 ..
 .
0
∗
0 ···
···
..
.
···
48

0
0 

.. 
. 
∗
La matrice nulla è una matrice diagonale. La matrice identità di ordine n,
che indicheremo con Idn oppure Id ove fosse chiaro il formato, è la matrice
diagonale che ha tutti gli elementi uguali ad 1 sulla diagonale principale:


1 0 ··· 0
 0 1
0 


 ..
. 
..
 .
. .. 
0 ···
···
1
La somma di due matrici diagonali è ancora una matrice diagonale per cui
l’insieme delle matrici diagonali è chiuso rispetto alla somma. Infatti,

 
 

∗ 0 ··· 0
∗ 0 ··· 0
∗ 0 ··· 0
 0 ∗


0 
0 
0 

  0 ∗
  0 ∗

+
=
 ..




.
.
.
.
..  .
.
.
.
.
.
.
.
.
.
.
 .
. .   .
. .   .
. . 
0 ··· ··· ∗
0 ··· ··· ∗
0 ··· ··· ∗
Analogomente se moltiplichiamo una matrice diagonale per uno scalare il
risultato è ancora una matrice diagonale. Quindi l’insieme delle matrici
diagonali è un sottospazio vettoriale delle matrici quadrate.
Una matrice A si dice triangolare superiore, rispettivamente triangolare inferiore, se tutti gli elementi sotto la diagonale principale sono nulli, rispettivamente sopra la diagonale principale sono nulli. Quindi, se
A = (aij ) 1 ≤ i ≤ n , è una matrice triangolare superiore, allora
1≤j ≤n

∗ ∗ ∗
 0 ∗ ∗

 ..
..
.
A=
 .


0
···
···
···
..
.
..
.
0

∗
∗ 

.. 
. 
:

∗ 
∗
aij = 0 quando i > j. Se A = (aij ) 1 ≤ i ≤ n è triangolare inferiore, allora
1≤j ≤n

∗
 ∗


A=
 ∗
 ..
 .
∗
0 ···
∗
.
∗ ..
.. . .
.
.
∗ ···
49
0



.. 
. 


..
. 0 
∗ ∗
aij = 0 quando i < j. L’insieme della matrici triangolari superiori, rispettivamente triangolari inferiori, è chiuso rispetto alla somma ed è chiuso
rispetto alla moltiplicazione per scalare Mn×n (K) per cui sono sottospazi vettoriali. Diamo una prova quasi rigorosa che la somma di matrici triangolari
superiori è ancora una matrice triangolare superiore e motiplicando per uno
scalare una matrice triangolare inferiore si ottiene una matrice triangolare
inferiore, lasciando le altre verifiche per esercizio.

 
 

∗ ∗ ··· ∗
∗ ∗ ··· ∗
∗ ∗ ··· ∗
 0 ∗ ··· ∗   0 ∗ ··· ∗   0 ∗ ··· ∗ 

 
 

 ..
..  .
..  =  ..
..  +  ..
.
.
.
.
.
.
 .
. . 
. .   .
. .   .
0 ··· 0 ∗
0 ··· 0 ∗
0 ··· 0 ∗
Sia λ ∈ K. Allora

∗
 ∗

λ .
 ..
0
∗
···
···
..
.
 
0
λ∗
 λ∗
0 
 
..  =  ..
.   .
∗ ···
∗
∗
0
λ∗
···
···
..
.
0
0
..
.
λ∗ · · ·
λ∗
λ∗



.

Sia A ∈ Mn×n (K). Allora AT ∈ Mn×n (K). In dettaglio, se


∗ ∗ ··· ∗
 ∗ ∗ ··· ∗ 



..  ,
A =  ...
. 


 ·
∗ 
∗ ··· ∗ ∗
allora

∗ ∗
 ∗ ∗


AT =  ...

 ·
∗ ···
···
···
∗

∗
∗ 

..  .
. 

∗ 
∗
Quindi la diagonale principale di A coincide con la diagonale principale di
AT .
Sia A ∈ Mn×n (R). Diremo che A è simmetrica se A = AT . Diremo che A
è antisimmetrica se A = −AT . Se A = (aij ) 1 ≤ i ≤ n , allora A è simmetrica,
1≤j ≤n
50
rispettivamente antisimmetrica, se e solamente se aij = aji , rispettivamente
aij = −aji , per ogni 1 ≤ i, j ≤ n. Se A è simmetrica, allora


∗ ∗ ··· ∗
 ∗ ∗ ··· ∗ 



..  ,
A =  ...

.


 ·
∗ 
∗ ··· ∗ ∗
mentre se A è antisimmetrica, allora

0
∗
 −∗ 0


A =  ...

 ·
−∗ · · ·

∗
∗ 

..  ,
. 

∗ 
−∗ 0.
···
···
Gli elementi sulla diagonale principale di una matrice anti-simmetrica sono
tutti nulli poiché in generale, la diagonale principale di AT e A coincidono.
Quindi, se A = −AT , necessariamente gli elementi sulla diagonale principale
sono tutti nulli.
0 1
1 1
è
è simmetrica mentre
Esempio 3.13. La matrice
−1 0
1 2
antisimmetrica.
L’insieme delle matrici simmetriche, rispettivamente antisimmetriche, è
un sottospazio vettoriale di Mn×n (R). Proveremo, solamente, che la somma
di due matrici simmetriche è ancora una matrice simmetrica e che moltiplicando una matrice antisimmetrica per uno scalare ottengo ancora una
matrice antisimmetriche, lasciando per esercizio le altre verifiche.
Siano A, B ∈ Mn×n (R) tali che A = AT e B = B T . La tesi è che
(A + B)T = A + B. Applicando le proprietà della trasposta si ha
(A + B)T = AT + B T = A + B.
Sia A ∈ Mn×n (R) antisimmetrica e sia λ ∈ R. L’ipotesi è A = −AT ; la tesi
è (λA)T = −λA.
(λA)T = λAT = −λA.
Diremo che una matrice a coefficienti complessi A ∈ Mn×n (C) è Hermitiana (auto-aggiunta), rispettivamente anti-Hermitiana (anti-autoggiunta),
51
se A = A∗ , rispettivamente A = −A∗ . Se A = (aij ) 1 ≤ i ≤ n è Hermitia1≤j ≤n
na allora aij = aji per ogni 1 ≤ i, j ≤ n, mentre se A = (aij ) 1 ≤ i ≤ n è
1≤j ≤n
anti-Hermitiana, allora aij = −aji per ogni 1 ≤ i, j ≤ n.


∗ ∗ ··· ∗
 ∗ ∗ ··· ∗ 



..  ,
A =  ...
. 


 ·
∗ 
∗ ··· ∗ ∗
allora

∗ ∗
 ∗ ∗


A∗ =  ...

 ·
∗ ···
···
···
∗

∗
∗ 

..  .
. 

∗ 
∗
Se A è Hermitiana, allora

∗ ∗
 ∗ ∗


A =  ...

 ·
∗ ···
···
···
∗

∗
∗ 

..  ,
. 

∗ 
∗
e gli elementi sulla diagonale principale sono numeri reali. Se A è antiHermitiana, allora


∗
∗ ··· ∗
 −∗ ∗ · · · ∗ 



..  ,
A =  ...
. 


 ·
∗ 
−∗ · · · −∗ ∗
e gli elementi sulla diagonale principale sono immaginari puri.
1
1+i
Esempio 3.14. La matrice
è Hermitiana mentre la ma1 − i −4
−i
1 − 3i
trice
è anti-Hermitiana.
−1 − 3i
7i
52
La somma di matrici Hermitiane, rispettivamente anti-Hermitiane, è ancora una matrice Hermitiana, rispettivamente anti-Hermitiana (verificare
per esercizio). Tuttavia, l’insieme delle metrici Hermitiane (anti-Hermitiane)
non è chiuso rispetto alla moltiplicazione per scalare. Infatti è possibile
dimostrare che una matrice A è Hermitiana se e solamente se iA è antiHermitiana.
Definizione 3.15. Sia A ∈ Mn×n (K). La traccia di A è la somma degli
elementi sulla diagonale principale. Se A = (aij ) 1 ≤ i ≤ n , allora Tr(A)=
1≤j ≤n
Pn
i=1 aii ∈ K.
Proposizione 3.16. Siano A, B matrici quadrate di ordine n e sia λ ∈ K.
Allora
a) Tr(A + B) = Tr(A) + Tr(B);
b) Tr(λA) = λTr(A);
c) Tr(A) = Tr(AT );
d) se A ∈ Mn×n (C), allora Tr(A∗ ) = Tr(A).
3.16.1
Prodotto di matrici
Sia K = R oppure C. Date le matrici A ∈ Mm×p (K) e B ∈ Mp×n (K),
dove il numero delle colonne di A è uguale al numero delle righe di B,
il prodotto AB ∈ Mm×n (K), chiamato prodotto righe per colonna è cosı̀
definito: se
A = (aij ) 1 ≤ j ≤ m , B = (bij ) 1 ≤ i ≤ p
1≤j ≤p
1≤j ≤m
allora AB = C = (cij ) 1 ≤ i ≤ m ∈ Mm×n (K), dove
1≤j ≤n
cij =
p
X
aih bhj .
h=1
Esempio 3.17.
1 0 2
0 2 −3


−1 2
−3 −6
 2

0
=
.
7 12
−1 −4
53
Il prodotto definisce un’applicazione
Mm×p (K) × Mp×n (K) −→ Mm×n (K)
(A, B) 7→ AB
Può succedere che la matrice AB sia definita mentre BA non sia definita.
Per esempio se A ∈ M3×4 (R) e B ∈ M4×2 (R), allora AB è definita mentre
BA no. Se A ∈ Mn×m (K) e B ∈ Mm×n (K), con n 6= m, allora le matrici
AB e BA non sono confrontabili. La domanda se il produtto di due matrici è commutativo ha senso solo se consideriamo matrici quadrate dello
stesso ordine. Il prossimo esempio dimostra che il prodotto di matrici non
è commutativo per cui, generalmente, AB 6= BA. È anche possibile che
AB = 0Mn×n (K) benché le matrici A e B non siano la matrice nulla.
1 0
0 1
. Allora:
,C=
Esempio 3.18. Siano A =
0 0
0 0
0 0
• AC =
;
0 0
• CA = A;
0 0
;
• AA =
0 0
• CC = C;
Sia A = (aij ) 1 ≤ i ≤ n e sia p ∈ N. Definiamo Ap = A
· · A} se p > 0. Il
| ·{z
1≤j ≤n
p
prodotto di matrici gode delle seguenti proprietà.
Proposizione 3.19. Sia A ∈ Mm×n (K), B, C ∈ Mn×p (K), D ∈ Mp×q (K)
e λ ∈ K. Allora
a) A Idn = A e Idn B = B;
b) A(BD) = (AB)D;
c) A(B + C) = AB + AC;
d) (B + C)D = BD + CD;
e) A(λB) = (λA)B = λ(AB);
f ) (AB)T = B T AT ;
g) se K = C, allora (AB)∗ = B ∗ A∗ .
54
Dimostrazione. Dimostriamo solamente che (AB)T = B T AT . Poiché B T ∈
Mp×n (K) e AT ∈ Mn×m (K) il prodotto B T AT è ben definito ed il risultato è
una matrice di formato p × m come (AB)T . Poniamo B T = (bT ij ) 1 ≤ i ≤ p
1≤j ≤n
e AT = (aT
ij )
1≤i≤n
1≤j ≤m
. Sia C = (AB)T . Poiché
(AB)ij =
n
X
ail blj ,
l=1
dove (AB)ij è l’elemento che si trova sulla i-esima riga e sulla j-esima
colonna della matrice AB, si ha
cij = (AB)ji =
n
X
ajl bli =
l=1
n
X
bTil aTlj = (B T AT )ij ,
l=1
dove (B T AT )ij è l’elemento che si trova sulla j riga e sulla i colonna della
matrice B T AT , per cui (AB)T = B T AT .
Osservazione 3.20. Molti studenti confondono la proprietà (f ) con l’uguaglianza (AB)T = AT B T . Vorrei porre all’attenzione che oltre ad essere
sbagliata, la matrice AT B T non è sempre definita. Infatti, se A ∈ M4×2 (K)
e B ∈ M2×3 (K), allora AT B T non è definita poiché il numero di colonne
della matrice AT è 2 che non coincide con il numero delle righe della matrice
B T è 3.
Osservazione 3.21. Sia A ∈ Mm×p (K) e sia B ∈ Mp×n (K). Allora AB ∈
Mm×n (K). Sia 1 ≤ k ≤ n. Allora
(AB)k = AB k .
Infatti
 Pp
l=1 a1l blk


a11 · · ·


..
  ..

..
.
  .
 Pp
.
k



(AB) = 
l=1 ail blk  = 
..

  .
..


.
Pp
am1 · · ·
l=1 aml blk
Analogamente, se 1 ≤ k ≤ m, si ha
(AB)k = Ak B.
55
···
..
.
···


a1p
b1k
..   .. 


. 
  .  = AB k
..   .. 
.  . 
bpk
amp
Infatti
Pp
l=1 akl bl1
(AB)k =
···
Pp
l=1 akl bli

=
ak1 · · ·
···
Pp
···
b11 · · ·
 .. . .
 .
.
akp 
 ..
 .
bp1 · · ·
l=1 akl bln
···
..
.
···

b1n
.. 
. 

..  = Ak B
. 
bpn


 
1
0
 .. 
 .. 
Siano e1 =  .  , . . . , en =  .  ∈ Kn e sia A ∈ Mm×n (K). Allora
0
1

a11 · · ·
 a21 · · ·

 ..
..
.
Aei = 
 .
 ..
..
 .
.
am1 · · ·

  
a1i
a1n
0
 .   .. 
a2n 
. 
  ..  

  
.. 

 1  =  .. 
. 
= Ai
   . 




..
.


.   ..   ... 
amn
0
ami
a1i · · ·
a2i · · ·
..
..
.
.
..
..
.
.
ami · · ·
Analogamente, se B ∈ Mn×m (K), allora
eTi B = Bi ,
per i = 1, . . . , m.
Proposizione 3.22. Sia A ∈ Mm×p (K) e B ∈ Mp×m (K). Allora Tr(AB) =
Tr(BA).
Dimostrazione.
Tr(AB) =
p
m X
X
akj bjk =
k=1 j=1
p X
m
X
bkj ajk
j=1 k=1
= Tr(BA).
3.23
Matrici invertibili
In questa sezione tratteremo solamente matrici quadrate.
56
Definizione 3.24. Una matrice A quadrata di ordine n si dice invertibile
se esiste un matrice quadrata B di ordine n tale che AB = BA = Idn .
Proposizione 3.25.
a) esistono matrici diverse da zero che non sono invertibili;
b) se A è invertibile, allora esiste una unica B tale che AB = BA = Idn .
B si dice l’inversa di A e si pone B = A−1 ;
c) (A−1 )−1 = A
d) se A, B sono matrici invertibili, tali sono AB e BA e (AB)−1 =
B −1 A−1 , (BA)−1 = A−1 B −1 .
e) se A è invertibile, allora AT è invertibile e la sua iversa è (AT )−1 =
(A−1 )T ;
f ) se A ∈ Mn×n (C) è invertibile, allora A∗ è invertibile e (A∗ )−1 =
(A−1 )∗ .
0 1
. Allora A2 = 0. Se esistesse B tale che
Dimostrazione. Sia A =
0 0
AB = Id2 , allora
0 = A2 B = A(AB) = A,
assurdo.
Sia A ∈ Mn×n (K) e siano B, B 0 ∈ Mn×n (K) tali che
AB = BA = AB 0 = B 0 A = Idn .
Allora
B = BIdn = B(AB 0 ) = (BA)B 0 = B 0 .
Le rimanenti proprietà sono lasciate per esercizio.
Osservazione 3.26. Nonostante che il prodotto fra matrici non sia commutativo, si può dimostrare che se A, B sono matrici quadrate di ordine n
tali che AB = Idn , allora A è invertibile e B è l’inversa di A.
Dalla proposizione anteriore segue che il prodotto di matrici invertibili è
ancora una matrice invertibile per cui l’insieme GL(n, K) = {A ∈ Mn×n (K) :
A è invertibile } è chiuso rispetto al prodotto e l’inverso, i.e., è un gruppo
non commutativo, ed è chiamto gruppo lineare generale.
57
Sia A una matrice invertibile e sia n ∈ Z non positivo. Definiamo:
A0 = Idn ; se n < 0, definiamo
An := (A−1 )−n .
È facile verificare che per ogni n, m ∈ Z si ha An+m = An Am = Am An .
Definizione 3.27. Una matrice A ∈ Mn×n (R) si dice ortogonale se AT =
A−1 per cui AAT = AT A = Idn
Definizione 3.28. Una matrice A ∈ Mn×n (C) si dice unitaria se AA∗ =
A∗ A = Idn .
Si può dimostrare che il prodotto di matrici ortogonali, rispettivamente unitarie, è ancora una matrice ortogonale, rispettivamente una matrice
unitaria. Dalla definzione segue direttamente che l’inversa di una matrice ortogonale, rispettivamente unitaria, è ancora una matrice ortogonale,
rispettivamente unitaria. Invece la somma di matrici ortogonali, rispettivamente unitarie, non è un generale una matrice ortogonale, rispettivamente
unitaria.
3.29
Determinante
Ad ogni matrice quadrata A ∈ Mn×n (K), dove K = R oppure C, possiamo associare un scalare, chiamato il determinante di A, definito come segue:
se A = (a) ∈ M1×1 (K), allora det(A) = a. Supponiamo di averlo definito
per matrici di ordine n − 1. Definiamo
det(A) =
n
X
(−1)j+1 aj1 det(Aj1 ) ∈ K,
j=1
dove Aj1 è una matrice di ordine n − 1 × n − 1 che si ottiene da A eliminando
la j−esima riga e la 1 colonna. Questa formula è detta lo sviluppo di Laplace
secondo la prima colonna.
Esempio 3.30.


1 −1 4
A =  −2 3 1  ,
0
3 0
Allora
A11 =
3 1
3 0
, A21 =
−1 4
3 0
, A31 =
e det(A) = 1 det(A11 ) + 2 det(A21 ) = −3 − 24 = −27.
58
−1 4
3 1
,
Vediamoalcuni casiparticolari.
a11 a12
Se A =
, allora det A = a11 a22 − a12 a21 .
a21 a22


a11 a12 a13
Se  a21 a22 a23 , allora
a31 a32 a33
det A = a11 a22 a33 − a11 a23 a32
− a21 a12 a33 + a21 a13 a32
+ a31 a12 a23 − a31 a13 a22 .
Se

a11 ∗ · · ·
 0 a22 · · ·

A= .
..
 ..
.
0 ···
0
∗
∗
..
.



,

ann
è triangolare superiore, allora det A = a11 · · · · · · ann .
Proprietà del Determinante
1 det(A) = det(AT );
2 A = (A1 , . . . , An ). Allora det(A1 , . . . , λAi , . . . , An ) = λ det(A1 , . . . , An ),
per ogni 1 ≤ i ≤ n e per ogni λ ∈ K;
3
det(A1 , . . . , Ai + B i , . . . , An ) = det(A1 , . . . , Ai , . . . An )
+ det(A1 , . . . , B i , . . . , An ),
per ogni 1 ≤ i ≤ n, i.e., è additivo su ogni colonna;
4 det(A) = 0 se la matrice A ha due colonne uguali;
5 dalla [2] segue che det(A) = 0 se la matrice A ha una colonna fatta
tutta da zeri;
6 [3] e [4] implicano che il determinante di una matrice cambia di segno
se si scambiano due colonne;
7 [3] e [2] implicano che il valore del determinante non cambia sommando
ad una colonna un multiplo di un altra colonna. Ovvero, se A =
(A1 , . . . , An ) allora per ogni 1 ≤ i, j ≤ n, i 6= j e λ ∈ K si ha
det(A) = det(A1 , . . . , Ai + λAj , . . . , An );
59
8 det(AB) = det(A) det(B) (Formula di Binet).
Osservazione 3.31.
• da [1] segue che il determinante di una matrice triangolare inferiore è
il prodotto degli elementi sulla diagonale principale,
• det(Idn ) = 1;
• si può dimostrare che le proprietà [1], . . . , [7] valgano anche per le
righe;
• da [1] segue che il determinante si può calcolare attraverso lo sviluppo
di Laplace secondo la 1 riga:
n
X
det(A) =
(−1)j+1 a1j det(A1j ),
j=1
dove A1j è la matrice quadrata di formato n − 1 che si ottiene da A
eliminando la 1 riga e la j-esima colonna. Si può dimostrare che il
determinante si può calcolare attraverso lo sviluppo di Laplace secondo
la k−esima colonna,
det(A) =
n
X
(−1)j+k ajk det(Ajk ),
j=1
oppure rispetto alla k−esima riga
det(A) =
n
X
(−1)j+k akj det(Akj ),
j=1
dove Aαβ è una matrice di ordine n − 1 × n − 1 che si ottiene da A
eliminando la α−esima riga e la β-esima colonna.
Definizione 3.32. Una matrice A ∈ Mn×n (K) si dice singolare, rispettivamente non singolare, se det(A) = 0, rispettivamente det(A) 6= 0.
Proposizione 3.33. Una matrice A è invertibile se e solamente se det(A) 6=
1
0 ovvero se e solamente se A è non singolare. Inoltre det(A−1 ) = det(A)
.
Dimostrazione. Se A è invertibile, allora esiste A−1 tale che AA−1 = Idn .
Applicando la formula di Binet si ottiene che
det(A) det(A−1 ) = 1,
60
1
da cui segue det(A) 6= 0 e det(A−1 ) = det(A)
. Viceversa, supponiamo che
det(A) 6= 0. Definiamo la matrice B di ordine n come segue:
bij = (−1)i+j det(Aji )/ det(A),
dove, nuovamente, Aji è la matrice che ottengo da A eliminando la j-esima
riga e le i-esima colonna. Si può dimostrare che AB = BA = Idn , ovvero
B = A−1 .
Corollario 3.34. Se A è una matrice ortogonale, allora | det(A)| = 1
Dimostrazione. Sia A ∈ Mn×n (R) una matrice ortogonale. Allora AAT = 1.
Applicando il teorema di Binet, otteniamo
1 = det(A) det(AT ) = [det(A)]2 ,
dove l’ultima uguaglianza segue dalla proprietà det(A) = det(AT ), concludendo la dimostrazione.
Corollario 3.35. Se A è una matrice unitaria, allora | det(A)| = 1.
Dimostrazione.
1 = det(A) det(A∗ ) = det(A)det(A) = | det(A)|2
3.36
Rango di una matrice
Sia A ∈ Mm×n (K) dove K = R oppure K = C. Un minore di ordine p di
A è una matrice di formato p × p che si ottiene cancellando m − p righe e
n − p colonne dalla matrice A. Analogamente, possiamo definire un minore
di A selezionando p righe e p colonne. Se


1 −1 4 −1
A =  4 −2 3 1  ∈ M3×4 (R).
0 3 0 5
eliminando la 1 riga e la 3 e 4 colonna, oppure selezionando la 2 e 3 riga e
la 1 e 2 colonna, otteniamo il minore
4 −2
∈ M2×2 (R).
0 3
61
Eliminando la 2 colonna, oppure selzionando la 1, 3 e 4 colonna e la 1, 2 e
3 colonna, otteneniamo il minore


1 4 −1
 4 3 1  ∈ M3×3 (R).
0 0 5
Diremo che il rango per minori, che indicheremo con rg(A), è r se:
a) ∃ un minore di A di ordine r con determinante 6= 0;
b) r = m o r = n oppure tutti i minori di ordine r + 1 sono singolari;
Dalla definizione di rango per minori segue che rg(A) ≤ min(m, n). Se A è
una matrice quadrata, allora vale il seguente risultato.
Proposizione 3.37. A ∈ Mn×n (K) è non singolare se e solamente se
rg(A) = n.
Sia A0 una minore di A ottenuta cancellando m − p righe e n − p colonne
dalla matrice A. Se ad A0 aggiungiamo un altra riga ed un altra colonna di
A diremo che stiamo orlando A0 . È possibile dimostrare il seguente fatto.
Teorema 3.38 (orlati). Il rango per minori della matrice A è uguale ad
r se e solamente se esiste una minore M di ordine r non singolare ed r =
min(m, n) oppure tutti minori di A di ordine r+1 che contengono M , ovvero
tutti i minori di A che ottengo orlando M , sono singolari.
Come per il determinate, effettuando operazioni sulle righe e/o sulle
colonne di una matrice A, il rango non cambia.
Definizione 3.39. Sia A ∈ Mm×n (K). Si chiamano operazione elementari
di riga (colonna):
a) scambiare di posto due righe (colonna);
b) sommare ad una riga (colonna) un multiplo di un altra;
c) moltiplicare una riga (colonna) per uno scalare non nullo.
Proposizione 3.40. Il rango di una matrice non cambia se si effetuano
operazioni elementari di righe, rispettivamente colonne.
62
Idea. Sia A ∈ Mn×m (K) e sia à la matrice ottenuta attraverso una operazione elementare sulle righe, rispettivamente colonne, di A. Sia M un minore
di Ã. Allora M è anche un minore di A oppure è un minore di A sul quale è
stato effettuata una operazione elementare di riga, rispettiavemente colonna. Quindi il valore del determinante o rimane inalterato oppure cambia di
segno, per cui il rango per minore non cambia.
Il prossimo risultato caratterizza il rango per minori di una matrice A
in termini delle righe, rispettivamente colonne, della matrice A.
Teorema 3.41. Sia A ∈ Mm×n (K) dove K = R oppure K = C. Il rango per
minori di A coincide con il massimo numero di colonne linearmente indipendenti, rispettivamente massimo numero di righe linearmente indipendenti.
In particolare rg(A) = rg(AT ).
Possiamo, quindi, unificare le nozioni precedenti nella seguente definizione.
Definizione 3.42. Sia A ∈ Mm×n (K). Il rango di A, che indicheremo
con rg(A), è il rango per minori di A, ovvero il massimo numero di colonne linearmente indipendenti, rispettivamente massimo numero di righe
linearmente indipendenti
3.43
Matrice ridotta a scala e algoritmo di Gauss
Nella sezione anteriore abbiamo introdotto il concetto di rango di una
matrice ma non abbiamo ancora visto nessuna tecnica per il calcolo esplicito
del rango di una matrice. In questo sezione proveremo come l’algoritmo di
Gauss possa essere utilizzato per il calcolo del rango di una matrice.
Una matrice di ordine m × n siffatta


0 · · · 0 s1j1 ∗
∗
∗ ··· ···
∗ ··· ··· ··· ∗
 0 ··· ···
0 · · · 0 s2j2 ∗
∗ ··· ··· ···
∗ ∗ 


 0 ··· ··· ··· ··· ···

0
·
·
·
s
∗
·
·
·
·
·
·
·
·
·
∗
3j
3


 ..

..
 . ··· ··· ··· ··· ··· ···
.
0
0
··· ··· ··· ∗ 


 ..

.
.
 . ··· ··· ··· ··· ··· ··· ··· ···
. ···
0
∗ ∗ 


 0 · · · · · · · · · · · · · · · · · · · · · · · · · · · 0 srjr · · · ∗ 


 0 ··· ··· ··· ··· ··· ··· ··· ··· ··· 0
0 ··· 0 


 .
..
..
..
..
..
..
..
..
..
..
..
..
.. 
 ..
.
.
.
.
.
.
.
.
.
.
.
.
. 


 ..
..
..
..
..
..
..
..
..
..
..
..
..
.. 
 .
.
.
.
.
.
.
.
.
.
.
.
.
. 
0 ···
···
···
···
···
···
···
63
···
···
0
···
···
0
si dice una matrice ridotta a scala. I numeri s1j1 , . . . , sr,jr sono non nulli
e si chiamano perni, pivot, oppure elementi di testa. Il numero dei perni
coincide con il numero di righe differenti di zero.
Esempio 3.44.

0
 0

S=
 0
 0
0
1
0
0
0
0
2
0
0
0
0

3 4 5
1 −1 1 

0 1 1 
 ∈ M5×6 (R)
0 0 0 
0 0 0
I perni sono: s12 = 1, s24 = 1 ed s3,5 = 4.
Proposizione 3.45. Sia S ∈ Mm×n (K) una matrice ridotta a scala. Allora
rg(S) è uguale al numero di righe differenti da zero o equivalentemente al
numero di perni. Inoltre le colonne corrispondenti ai perni sono vettori
linearmente indipendenti.
Dimostrazione. Una matrice ridotta a scala ha r righe differenti da zero.
Quindi rg(S) ≤ r. Sia M il minore di S di ordine r formato dalle colonne
S j1 , . . . , S jr e dalle righe S1 , . . . , Sr , ovvero


s1j1
∗ ··· ···
∗
 0 s2j
∗ ···
∗ 
2


 ..
.. 
..

.
0
. 
M = .

 ..

..
..
..
 .

.
.
.
0
· · · · · · · · · srjr
Poiché det M = s1j1 · · · srjr 6= 0 si ha r ≤ rg(S). Quindi rg(S) = r.
Siano S j1 , . . . , S jr le colonne corrispondenti ai perni. Sia A = (S j1 , . . . , S jr ) ∈
Mm×r (K)


s1j1
∗ ··· ···
∗
 0 s2j
∗ ···
∗ 
2


 ..
.. 
.
.
 .
.
0
. 


 ..
..
..
.. 
.
.
 .
.
.
.
. 

.
 0
· · · · · · · · · srjr 



 0
·
·
·
·
·
·
·
·
·
0


 ..
..
..
..
.. 
 .
.
.
.
. 
0
···
···
64
···
0
Sia, nuovamente, M il minore formato di formato r × r ottenunto da A
eliminando le ultime m − r righe, ovvero


∗ ··· ···
∗
s1j1
 0 s2j
∗ ···
∗ 
2


 ..
.. 
..

.
0
. 
M = .
.
 ..
..
..
.
.
..
.. 

 .
.
.
0
· · · · · · · · · srjr
Poiché srjr , . . . , s1j1 sono tutti non nulli si ha che det M 6= 0, ovvero rg(A) ≥
r. Poiché A ∈ Mm×r (K), si ha che rg(A) = r e quindi S j1 , . . . , S jr sono
linearmente indipendenti.
Teorema 3.46. Ogni matrice A può essere ridotta in forma a scala mediante operazioni elementari di righe.
Dimostrazione. Sia A = (A1 , . . . , An ).
Passo 1
sia 1 ≤ j1 ≤ n il più piccolo intero affinché Aj1 6= 0.
Passo 2
Se a1j1 è nullo, allora scambiamo due righe in modo che l’elemento a1j1 6= 0.
Quindi la matrice A, dopo aver effettuato eventualmente una operazione
elementare di riga, ha la seguente forma:


0 · · · 0 a1j1 · · ·
 ..
..
..
..
.. 
 .
.
.
.
. 


 ..
..
..
..
.. 
 .
.
.
.
. 
0 · · · 0 amjk · · ·
Il nostro obbiettivo è quello di passare, attraverso operazioni elementari di
righe, ad una matrice i cui elementi sulla colonna Aj1 sotto il primo elemento a1j1 siano tutti nulli. Alla k-riga Ak , k ≥ 2, sottraggo −akj1 /a1,j1 A1 ,
ottenedo la matrice:


0 · · · 0 a1j1
∗
··· ···
∗


A1
 0 ··· 0 0
a2,j1 +1 · · · · · · a2n 

 A2 − a2j /a1j A1  
..
..
..
..
..
..
.. 
1
k

 

.
.
.
.
.
. 

  .
..



.
..
..
..
..
.. 
..
..

=

.
.
.
. 
.
.

  .
..


 
.
..
..
..
.. 
 0 ··· 0 0
.
.
.
. 
Am − amj1 /a1j1 A1
0 · · · 0 0 amj1 +1 · · · · · · amn
65
Quindi

0 ···
 .
 ..

A= .
 ..

..
. ···
0 a1j1
..
.
0
..
..
.
.
0
∗ ···
B
∗







0
dove B ∈ Mm−1×(n−(j1 +1)) (R). Se B è la matrice nulla oppure A ∈ M1×n (R),
allora ho finito. Altrimenti ripeto lo stesso procedimento per la matrice B.
Dopo un numero finito di passi, arriviamo ad una matrice le cui ultime righe sono nulle; oppure in cui l’ultimo elemento di testa appartiene all’ultima
riga. In entrambi i casi abbiamo ridotto a scala la matrice di partenza A.
Il metodo anteriore è chiamato metodo di Gauss oppure metodo di eliminazione di Gauss e permette di ridurre una matrice a scala attraverso
operazioni elementari di riga.
Corollario 3.47. Sia A una matrice ed S una sua riduzione a scala. Allora
rg(A) = rg(S) per cui il rango di una matrice è uguale al numero di elementi
di testa di una sua riduzione a scala; uguale al numero di righe non nulle
di una sua riduzione a scala.
Dimostrazione. Poiché S è ottenuta da A attraverso operazioni elementari
di righe si ha rg(A) = rg(S).
66
Capitolo 4
Sistemi Lineari
4.1
Sistemi lineari e matrici
Studiando i sistemi lineari, i problemi principali che vogliamo risolvere
sono: quando un sistema ammette soluzioni; se le ammette, quante sono;
come si trovano. In questa sezione con K intendiamo R oppure C. La forma
generale di un sistema di m equazioni in n-incognite:


 a11 x1 + · · · + a1n xn = b1
..
..
(4.1)
.
.


am1 x1 + · · · + amn xn = bm
I termini b1 , . . . bm sono i termini noti, (aij ) 1 ≤ i ≤ m i coefficienti del sistema,
1≤j ≤n
x1 , . . . xn le incognite, o variabili, del sistema lineare. Se tutti i termini noti
sono uguali a zero, il sistema si dice omogeneo.
Definizione 4.2. Una soluzione del sistema (4.1 ) è una n−pla di numeri
v1 , . . . vn che sostituiti ordinatamente alle incognite x1 , . . . , xn soddisfano le
equazioni del sistema.
Scriviamo un sistema lineare in forma matriciale. Sia




b1
x1




A = (aij ) 1 ≤ i ≤ m ,
b =  ...  ,
X =  ...  .
1≤j ≤n
bm
Allora un sistema lineare ha la forma
(4.2)
AX = b,
67
xn
dove A ∈ Mm×n (K) è chiamata matrice incompleta oppure matrice dei coefficienti, b vettore dei termini noti ed infine X vettore delle incognite. La
matrice (A|b) ∈ Mm×(n+1) (K) che si ottiene aggiungendo ad A il vettore dei termini noti, si chiama la matrice completa. In questo linguaggio
Sol(A|b) = {Y ∈ Kn : AY = b} è l’insieme delle soluzione del sistema
lineare AX = b.
Un sistema lineare AX = b si dice compatibile oppure risolubile se
Sol(A|b) 6= ∅;incompatibile
altrimenti.

 
 
x1
1
0
 .. 
 .. 
 .. 
Sia X =  .  e siano e1 =  .  , . . . , en =  .  ∈ Kn . Poiché
xn
0
1
X = x1 e 1 + · · · + xn e n ,
si ha
AX = A(x1 e1 + · · · + xn en )
= x1 Ae1 + · · · + xn Aen
= x 1 A1 + · · · + x n An ,
per cui il sistema AX = b è compatibile se e solamente se b è combinazione
lineare dei vettori A1 , . . . , An
Un sistema lineare omogeneo è sempre compatibile o risolubile poiché
ammette come soluzione il vettore nullo 0Kn ∈ Kn . Inoltre vale il seguente
risultato.
Proposizione 4.3. Sia A ∈ Mm×n (K) e sia AX = 0Km un sistema lineare
omogeneo. Allora Sol(A|0Km ) = {Y ∈ Kn : AY = 0Km } è un sottospazio
vettoriale di Kn .
Proposizione 4.4. Sia A ∈ Mm×n (K) e sia AX = 0Km un sistema lineare
omogeneo. Allora Sol(A|0Km ) = {Y ∈ Kn : AY = 0Km } è un sottospazio
vettoriale di Kn .
Dimostrazione. Siano Y1 , Y2 ∈ Sol(A|0Km ) e sia λ ∈ K. Allora
A(Y1 + Y2 ) = AY1 + AY2 = 0Km ,
rispettivamente
A(λY1 ) = λAY1 = 0Km .
Quindi Y1 + Y2 , λY1 ∈ Sol(A|0Km ) per ogni Y1 , Y2 ∈ Sol(A|0Km ) e per ogni
λ ∈ K.
68
Esercizio 4.5. Sia AX = b un sistema lineare di m equazioni in n incognite.
Se b 6= 0Km , allora Sol(A|b) non è un sottospazio vettoriale di Kn .
Sia AX = b un sistema lineare di m equazioni in n incognite. Diremo
che il sistema omogeneo AX = 0Km è il sistema lineare omogeneo associato
a AX = b.
Teorema 4.6 (teorema di struttura). Sia AX = b un sistema lineare compatibile. Sia Xo una soluzione particolare del sistema AX = b. Allora ogni
altra soluzione del sistema lineare AX = b è della forma Xo + W , dove W
è una soluzione del sistema lineare omogeneo associato AX = 0Km ; Quindi
Sol(A|b) = {Xo + W, W ∈ Sol(A|0Km )}.
Facoltativa. Indichiamo con E = {Xo + W, X ∈ Sol(A|0Km )}. Vogliamo
dimostrare che E = Sol(A|b).
Sia Y ∈ Sol(A|b). Allora A(Y − Xo ) = AX − AXo = b − b = 0Km , ovvero
Y − Xo è soluzione del sistema lineare omogeneo associato, da cui segue che
Y − Xo ∈ Sol(A|0Km ), cioé Y = Xo + W per un certo W ∈ Sol(A|0Km ).
Quindi Sol(A|b) ⊆ E. Viceversa, ogni elemento di E è della forma Xo + W ,
dove W è una soluzione del sistema lineare omogeneo associato. Allora
A(Xo + W ) = AXo + AW = b + 0Km = b,
da cui segue che E ⊆ Sol(A|b). Quindi Sol(A|b) = {Xo +X, X ∈ Sol(A|0Km )}.
Definizione 4.7. Siano A ∈ Mm×n (K), B ∈ Mm0 ×n (K). Diremo che i
due sistemi lineari AX = b e A0 X = c si dicono equivalenti se Sol(A|b) =
Sol(A0 |c), i.e., se hanno le stesse soluzioni.
Osservazione 4.8. Sia AX = b un sistema lineare. Se scambio due righe
alla matrice (A|b), il sistema lineare associato è equivalente al sistema di
partenza AX = b.
Definizione 4.9. Date due equazioni a1 x1 + · · · + an xn = a e b1 x1 + · · · +
bn xn = b, si dice combinazione lineare delle due equazioni a coefficienti
h, k ∈ K, l’equazione
h(a1 x1 + · · · + an xn ) + k(b1 x1 + · · · + bn xn ) = ha + kb.
Lemma 4.10. Si consideri il sistema lineare
a1 x1 + · · · + an xn = a
(4.3)
b1 x1 + · · · + bn xn = b
69
Siano h, k ∈ K con k 6= 0. Il sistema lineare (4.3) é equivalente al sistema
lineare
a1 x1 + · · · + an xn
= a
h(a1 x1 + · · · + an xn ) + k(b1 x1 + · · · + bn xn ) = ha + kb

v1


Facoltativa. Sia v =  ...  una soluzione del sistema (4.3). Allora

vn
a1 v1 + · · · + an vn = a
,
b1 v1 + · · · + bn vn = b
per cui h(a1 v1 + · · · + an vn ) + k(b1 v1 + · · · + bn vn ) = ha + kb. Quindi v è
soluzione del sistema
a1 x1 + · · · + an xn
= a
h(a1 x1 + · · · + an xn ) + k(b1 x1 + · · · + bn xn ) = ha + kb


v1


Viceversa, sia v =  ...  una soluzione del sistema
vn
a1 x1 + · · · + an xn
= a
,
h(a1 x1 + · · · + an xn ) + k(b1 x1 + · · · + bn xn ) = ha + kb
per cui
a1 v1 + · · · + an vn
= a
h(a1 v1 + · · · + an vn ) + k(b1 v1 + · · · + bn vn ) = ha + kb.
Quindi k(b1 v1 + · · · + bn vn ) = kb. Poiché k 6= 0, si ha b1 v1 + · · · + bn vn = b,
da cui segue che v è una soluzione del sistema (4.3).
Corollario 4.11. Sia AX = d un sistema lineare contenente le equazioni
a1 x1 + · · · + an xn = a
.
b1 x1 + · · · + bn xn = b
Sia BX = d˜ il sistema lineare ottenuto sostituendo in AX = d l’equazione
h(a1 x1 + · · · + an xn ) + k(b1 x1 + · · · + bn xn ) = ha + kb
70
al posto dell’equazione
b1 x1 + · · · + bn xn = b ,
dove h, k ∈ K con k 6= 0. Allora i sistemi AX = d e BX = d˜ sono
equivalenti.
Facoltativa. Sia (A|d) ∈ Mm×(n+1) (K) la matrice completa. A meno di
scambiare le righe possiamo supporre che le equazioni
a1 x1 + · · · + an xn = a
.
b1 x1 + · · · + bn xn = b
siano la 1 e la 2 equazione rispettivamente del sistema lineare AX = d, per
cui la matrice completa è cosı̀ siffatta:


a1 · · · an a
 b1 · · · bn
b 


(A|d) =  .
.
.
..  .
.
.
.
 .
.
.
. 
···
···
···
···
Quindi

a1
···
 ka1 + kb1 · · ·
˜ =
(B|d)

..
..

.
.
···
···

a
an
kan + hbn ha + kb 

.
..
..

.
.
···
···
La tesi è una conseguenza del Lemma anteriore.
Sia AX = b un sistema lineare. Osserviamo che scambiare due equazioni del sistema AX = b è equivalente a scambiare due righe della matrice
(A|b). Analogamente moltiplicare una equazione per uno scalare non nullo,
sommare ad una equazione un multiplo di un’altra, è equivalente a moltiplicare una riga della matric (A|b) per uno scalare non nullo, rispettivamente
sommare ad una riga di (A|b) un multiplo di un’altra. Quindi, il corollario
anteriore prova il seguente risultato.
Proposizione 4.12. Sia AX = b un sistema lineare ed indichiamo con
(A|b) la matrice completa. Sia (C|d) la matrice ottenuta attraverso operazioni elementari di riga sulla matrice completa (A|b). I sistemi lineari
AX = b e CX = d sono equivalenti ovvero l’insieme delle soluzioni di un
sistema lineare non cambia quando si effettuano operazioni elementari di
riga sulla matrice completa.
71
4.13
Teorema di Rouché Capelli
4.13.1
Sistemi ridotti a scala
Definizione 4.14. Un sistema SX = c si dice ridotto a scala se la matrice
S è ridotta a scala.
Esempio 4.15.

 x1 + x2 − x3 = 2
x2 − x4 = 0

x3 + x4 = 8
è un sistema ridotto a scala poiché la matrice incompleta ha la forma


1 1 −1 0
S =  0 1 0 −1 
0 0 1
1
Proposizione 4.16. Sia SX = c un sistema ridotto a scala, dove S ∈
Mm×n (K), con rg(S) = r. Il sistema SX = c è compatibile se e solamente
se m = r, oppure le ultime m−r coordinante del vettore c sono nulle. Inoltre
le soluzioni, se esistono, dipendono da n − rg(S) parametri.
Dimostrazione. Sia SX = c un sistema ridotto a scala. La matrice completa
ha la forma


0 · · · 0 s1j1 ∗
∗ ··· ···
∗ · · · · · · · · · ∗ ∗ c1
 0 ··· ··· ···
0 s2j2 ∗
∗
∗ · · · · · · · · · ∗ ∗ c2 


 0 ··· ··· ··· ··· ···
0 s3j3 ∗
∗ · · · · · · · · · ∗ c3 


 ..

.
.
.
.
 . ··· ··· ··· ··· ··· ···
. ··· ··· ··· ··· ∗
0
. 


 ..
.. 
.
.
 . ··· ··· ··· ··· ··· ··· ···
. ··· ··· ∗ ∗
. 
0


 0 · · · · · · · · · · · · · · · · · · · · · · · · 0 srjr · · · · · · ∗ cr 


 0 ··· ··· ··· ··· ··· ··· ··· ··· ···
0
0 · · · 0 cr+1 


 .
..
..
..
.. 
 ..
.
.
.
. 


 ..
.
.. 
 . · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · ..
. 
0 ···
···
···
···
···
···
···
···
0
0
···
···
0
cm
La condizione, m = r oppure le ultime m − r coordinante del vettore c sono
nulle è sicuramente necessaria. Dobbiamo dimostrare che questa condizione
è anche sufficiente. Supponiamo che le ultime m − r coordinate siano nulle.
72
L’altro caso è analogo. Allora la matrice completa è cosı̀ siffatta.

∗ ··· ···
∗ ··· ··· ··· ∗
0 · · · 0 s1j1 ∗
 0 ··· ··· ···
∗
∗
∗ ··· ··· ··· ∗
0
s
2j
2

 0 ··· ··· ··· ··· ···
∗
∗ ··· ··· ···
0
s
3j3

 ..
.
.. · · · · · · · · · · · ·
 . ··· ··· ··· ··· ··· ···
0

 ..
..
 . ··· ··· ··· ··· ··· ··· ···
. ··· ··· ∗
0

 0 · · · · · · · · · · · · · · · · · · · · · · · · 0 srjr · · · · · ·

 0 ··· ··· ··· ··· ··· ··· ··· ··· ···
0
0 ···

 .
.
..
..
 ..
.

 ..
 . ··· ··· ··· ··· ··· ··· ··· ··· ··· ··· ··· ···
0 ···
···
···
···
···
···
···
···
0
0
···
···

∗ c1
∗ c2 

∗ c3 

.. 
∗ . 

.. 
∗ . 

∗ cr 

0 0 

.. .. 
. . 

.. .. 
. . 
0
0
L’elemento srjr è differente di zero. Quindi possiamo scrivere la variabile
xjr = s−1
rjr (cr − srjr +1 xjr +1 − · · · − srn xn )
in funzione delle variabili xjr +1 , . . . , xn . Analogamente,
xjr−1 = s−1
r−1jr−1 (cr−1 − sr−1jr−1 +1 xjr−1 +1 − · · · − sr−1n xn )
e sostituendo ad xjr il valore precedente, possiamo scrivere xjr−1 in funzione
delle variabili xjr−1 +1 , . . . xjr −1 , xjr +1 , . . . , xn ; e cosı̀ via. Quindi le soluzioni
esistono. Inoltre abbiamo rappresentato le variabili corrispondenti ai perni,
che sono rg(S), in funzioni delle rimanenti, ovvero le soluzioni dipendono da
n − rg(S) parametri.
Questo metodo si chiama metodo della risoluzione all’indietro. Le variabili corrispondenti agli elementi di testa, xj1 , . . . , xjr , che chiameremo
variabili basiche si scrivono in funzione delle altre, che chiameremo variabili
libere. Questo significa che le soluzioni dipendono da esattamente n − r,
ovvero una volta che abbiamo assegnato un valore alle variabili libere, le
variabili basiche sono univocamente determinate.
Proposizione 4.17. Sia SX = c un sistema ridotto a scala, dove S ∈
Mm×n (K), con rg(S) = r. Il sistema SX = c è compatibile se e solamente
se rg(S) = rg(S|c). Inoltre le soluzioni, se esistono, dipendono da n − rg(S)
parametri.
Dimostrazione. Utilizzando la notazione anteriore, abbiamo visto che il sistema SX = c è compatibile se e solamente se m = rg(S) oppure le ultime
m − rg(S) coordinate di c sono nulle. Questo è equivalente alla condizione
che la matrice completa (S|c) è ridotta a scala e rg(S) = rg(S|c).
73
Teorema 4.18 (Rouché-Capelli). Sia AX = b, un sistema lineare con A ∈
Mm×n (K). Il sistema è compatibile se e solamente se rg(A) = rg(A|b). In
tal caso, le soluzioni dipendono da n − rg(A) parametri.
Dimostrazione. Sia (A|b) la matrice completa. Indichiamo con (S|c) una sua
riduzione a scala ottenuta attraverso il metodo di Gauss. La matrice S è una
riduzione a scala di A ed il sistema lineare SX = c è equivalente al sistema
AX = b. Quindi il sistema lineare AX = b è compatibile se e solamente se
SX = c è compatibile per cui se solamente se se m = r, oppure le ultime
m−r coordinante del vettore c sono nulle, dove r = rg(S). Questa condizione
è equivalente a rg(S) = rg(S|c), ovvero il sistema AX = b è compatibile
se e solamente se rg(A) = r(S) = rg(S|b) = rg(A|b). La secondo parte del
Teorema segue dal procedimento della risoluzione all’indietro.
Corollario 4.19. Sia A ∈ Mm×n (K) e sia AX = b un sistema lineare. Se
il sistema AX = b è compatibile, allora Il sistema AX = b ammette una ed
una sola soluzione se e solamente se rg(A) = n.
Dimostrazione. Poiché il sistema è compatibile, applicando il Teorema di
Rouché-Capelli, le soluzioni dipendono da n − rg(A) parametri. Quindi
AX = b ammette una ed una sola soluzione se e solamente se il numero dei
parametri è zero e quindi se e solamente se rg(A) = n.
Osservazione 4.20. rg(A) ≤ rg(A|b). Inoltre

 rg(A)
oppure
rg(A|b) =

rg(A) + 1
Corollario 4.21. Un sistema lineare omogeneo AX = 0Km di m equazioni
in n incognite ammette soluzioni non banali, se e solamente se rg(A) < n.
In particolare se m < n, allora il sistema lineare AX = 00Km ammette
sempre soluzioni non banali.
Dimostrazione. Applicando il Teorema di Rouché-Capelli, le soluzione del
sistema lineare omogeneo dipendono da n − rg(A) parametri. Quindi il
sistema omogeneo AX = 0 ammette soluzioni non banali se e solamente se
rg(A) < n. Se A ∈ Mm×n (R) con m < n, tenendo in mente che rg(A) ≤ m,
si ha
n − rg(A) ≥ n − m > 0,
ovvero ammette sempre soluzioni non banali.
74
Corollario 4.22 (Teorema di Cramer). Sia A = (A1 , . . . , An ) ∈ Mn×n (K).
Il sistema AX = b ammette
 una ed una soluzione se e solamente se A è
y1


invertibile. Se Y =  ...  è l’unica soluzione, allora
yn
yi =
det(A1 , . . . , Ai−1 , b, Ai+1 , . . . , An )
det(A)
per i = 1, . . . , n.
Dimostrazione. Se il sistema ammette una ed una soluzione, per il Teorema
di Rouché-Capelli, rg(A) = n, ovvero A è invertibile.
Se A è invertibile allora rg(A) = n. Poiché (A|b) ∈ Mn×(n+1) (K), si ha
n = rg(A) ≤ rg(A|b) ≤ n,
ovvero rg(A) = rg(A|b) = n. Applicando il Teorema di Rouché-Capelli, il
sistema è compatibile

 ed ammette una ed una sola soluzione.
y1


Sia Y =  ...  l’unica soluzione del sistema AX = b. Poiché
yn
y1 A1 + . . . + yn An = b,
si ha
1
det(A , . . . , A
i−1
, b, A
i+1
n
1
, . . . , A ) = det(A , . . . , A
i−1
,
n
X
ym Am , Ai+1 , . . . , An )
m=1
=
n
X
m=1
ym det (A1 , . . . , Ai−1 , Am , Ai+1 , . . . , An )
|
{z
}
i
= yi det A.
Poiché det A 6= 0 si ha la tesi.
4.22.1
Tecniche di Calcolo
Siano X1 , . . . , Xs ∈ Kn . Sia A = (X1 , . . . , Xs ) ∈ Mn×s (K). Poiché rg(A)
è il massimo numero dei vettori X1 , . . . , Xs linearmente indipendenti, si ha
che X1 , . . . , Xs sono linearmente dipendenti ⇐⇒ rg(A) < s, rispettivamente X1 , . . . , Xs sono linearmente indipendenti ⇐⇒ rg(A) = s. Se s = n,
75
allora X1 , . . . Xn sono linearmente indipendenti se e solamente se rg(A) = n
ovvero se e solamente se det(A) 6= 0. Se s > n, tenendo in mente che
A ∈ Mn×s (K) e quindi rg(A) ≤ n < s, si ha che i vettori X1 , . . . , Xs sono
linearmente dipendenti.
Una combinazione lineare di X1 , . . . , Xs è un vettore Z per il quale
esistono α1 , . . . , αs ∈ K tali che
α1 X1 + · · · + αs Xs = Z.
Se indichiamo con A = (X1 , . . . , Xs ) ∈ Mn×s (K), si ha


α1


A  ...  = Z.
αs
Quindi il vettore Z è combinazione lineare di X1 , . . . Xs se e solamente se il
sistema lineare AX = Z è compatibile, ovvero se e solamente se
rg(A) = rg(A|Z).
4.22.2
Mutua posizione di rette e piani
Siano date r1 : X = P1 + tA1 e r2 : X = P2 + tA2 rette nello spazio.
Vogliamo studiare la mutua posizione di r1 e r2 nello spazio.
Le due rette hanno punti in comune se e solo se esistono s1 , t1 ∈ R tali
che
P1 + t1 A1 = P2 + s1 A2 ,
ovvero se e solamente se
P1 − P2 = (−t1 )A1 + s1 A2 = (A1 , A2 )
−t1
s1
.
Quindi r1 e r2 hanno punti in comune se e solamente se il sistema lineare
AX = P1 − P2 , dove A = (A1 , A2 ), è compatibile. Poiché i vettori direttori di una retta sono non nulli, la matrice A può avere rango 1 oppure 2.
Applicando il Teorema di Rouché-Capelli, si ha:
a) rg(A) = 1, allora se rg(A|P1 − P2 ) = 1 le due rette sono coincidenti;
se rg(A|P1 − P2 ) = 2 le due rette sono parallele;
b) rg(A) = 2, allora se rg(A|P1 − P2 ) = 2, allora le due rette sono
incidenti; se rg(A|P1 − P2 ) = 3, allora le due rette sono sghembe.
76
Corollario 4.23. Le due rette r ed s sono sghembe se e solamente se
det(A1 , A2 , P1 − P2 ) 6= 0.
Consideriamo le due rette in forma cartesiana:
ax + by + cz = d
r=
,
a0 x + b0 y + c0 z+ = d0
s=
a00 x + b00 y + c00 z = d00
a000 x + b000 y + c000 z+ = d000
Se indichiamo con

a
b
c
 a0 b0 c0 

A=
 a00 b00 c00  ∈ M4×3 (R)
a000 b000 c000


d
 d0 

e con h = 
 d00 , allora i punti di r ∩ s soddisfano il seguente sistema
d000
lineare
AX = h,
 
x
dove X =  y . Poiché una retta è intersezioni di due piano non paralleli,
z
il rango della matrice A può essere 2 oppure 3. Applicando il Teorema di
Rouché-Capelli, otteniamo

a) rg(A) = 2. Se rg(A|h) = 2 il sistema è compatibile e le due rette sono
coincidenti; se rg(A|h) = 3, allora il sistema è incompatibile e le due
rette sono parallele;
b) rg(A) = 3. Se rg(A|h) = 3 il sistema è compatibile e le due rette sono
incidenti; se rg(A|h) = 4, allora il sistema è incompatibile e le due
rette sono sghembe;
Corollario 4.24. Le due rette r ed s sono sghembe se e solamente se
det(A|h) 6= 0.
77
Siano π : ax + bx + cz = d e π 0 : a0 x + b0 y + c0 z = d0 piani nello spazio. Sia
a b c
A=
∈ M2×3 (R)
a0 b0 c0
e sia
(A|d) =
a b c d
a0 b0 c0 d0
∈ M2×4 (R)
Quindi π ∩ π 0 = Sol(A|d). Poiché A ∈ M2×3 (R), la matrice A può avere
rango 1 oppure 2. Applicando il teorema di Roucyhé-Capelli si ha i seguenti
casi:
a) rg(A) = 1. Se anche rg(A|d) = 1 allora i due piani sono coincidenti.
Invece se rg(A|d) = 2 i due piani sono paralleli;
b) rg(A) = 2, allora anche rg(A|d) = 2. Applicando il Teorema di
Rouché-Capelli le soluzioni dipendendono da un parametro. Quindi due piani non paralleli e non coincidenti si intersecano lungo una
retta.
Siano π : ax + by + cz = d un piano e
0
a x + b0 y + c0 z = d0
,
r=
a00 x + b00 y + c00 z = d00
una retta nello spazio. Un vettore P ∈ r ∩ π se e solamente se il sistema
AX = h
dove
e


a b c
A =  a0 b0 c0  ∈ M3×3 (R)
a00 b00 c00


d
h =  d0  ,
d00
è compatibile. Il rango della matrice A può essere 2 oppure 3. Applicando
Rouché-Capelli, si ha:
a) rg(A) = 2. Se rg(A|h) = 2, allora il sistema è compatibile e la retta
è contenuta nel piano; se rg(A|h) = 3, allora le retta è parallela al
piano;
78
b) rg(A) = 3, allora anche rg(A|h) = 3 e quindi il piano π e la retta r
sono incidenti.
Utilizzando la notazione anteriore, proviamo i seguenti risultati.
Corollario 4.25. r ⊂ π se e solamente se esistono α, β ∈ R non entrambi
nulli tale che π : α(a0 x + b0 y + c0 z) + β(a00 x + b00 y + c00 z) = αd0 + βd00 .
Dimostrazione. La retta r è contenuta nel piano π se e solamente se il sistema ammette soluzione e le soluzioni dipendono da un parametro, quindi
se e solamente se rg(A) = rg(A|h) = 2. Poiché le ultime due righe della
matrice (A|h) sono linearmente indipendenti, applicando l’esercizio ??si ha
che la prima riga è combinazione lineare della seconda e della terza, da cui
segue la tesi.
Corollario 4.26. La retta r ed il piano π sono incidenti se e solamente se
det(A) 6= 0
Dimostrazione. La retta r ed il piano π sono incidenti se e solamente se
rg(A|h) = 3. Poiché (A|h) ∈ M3×3 (R) si ha che r ed π sono incidenti se e
solamente se det(A) 6= 0.
79
Capitolo 5
Basi e dimensione di uno
spazio vettoriale
5.1
Basi di uno spazio vettoriale
Sia V uno spazio vettoriale su K.
Definizione 5.2. Un insieme B = {v1 , . . . , vn } si dice una base di V se:
• v1 , . . . , vn sono linearmente indipendenti:
• v1 , . . . , vn formano un sistema di generatori, i.e., L(v1 , . . . , vn ) = V .
 
 
1
0
 .. 
 .. 
a) i vettori e1 =  .  , . . . , en =  .  formano una base di Kn . La
1
0
base C = {e1 , . . . , en } è chiamata la base canonica;
1 0
0 1
0 0
0 0
b) siano
,
,
,
∈ M2×2 (R). Poiché
0 0
0 0
1 0
0 1
a b
c d
=a
1 0
0 0
si ha che i vettori
+b
1 0
0 0
0 1
0 0
+c
0 0
1 0
+d
0 0
0 1
0 1
0 0
0 0
,
,
,
formano
0 0
1 0
0 1
una base di M2×2 (R);
80
c) sia Eij = (eαβ ) 1 ≤ α ≤ m ∈ Mm×n (K) la matrice i cui elementi sono
1≤β ≤n
tutti nulli tranne l’elemento eij = 1. È facile provare che B = {Eij , 1 ≤
i ≤ m, 1 ≤ j ≤ n} è una base di Mm×n (K);
d) i polinomi {1, x, . . . , xn } formano una base di Kn [x];
     
1
1
1





0 , 1 , 1 , formano una base di R3 . Infatti, sia
e) i vettori
0
0
1
 
x
 y  ∈ R3 . Allora
z
 
 
 
 
x
1
1
1
 y  = α 0  + β  1  + γ  1 ,
z
0
0
1
se il sistema lineare

1 1 1 x
 0 1 1 y ,
0 0 1 z


1 1 1
è compatibile. Poiché la matrice  0 1 1  è inveritible, applicando
0 0 1
il Teorema di Cramer si ha che il sistema è compatibile

 ammette
   ed
1
1
1
una ed una sola soluzione. Quindi i vettori  0  ,  1  ,  1  sono
1
0
0
linearmente indipendenti e formano un sistema di generatori.
1 0
0 1
0 1
0 0
f) i vettori
,
,
,
formano una base
0 0
1 0
−1 0
0 1
di M2×2 (R). Infatti,
a b
1 0
0 1
0 1
0 0
=α
+β
+γ
+δ
c d
0 0
1 0
−1 0
0 1

se e solamente se il sistema

α



β+γ
β−γ



δ
81
=
=
=
=
a
b
,
c
d
è compatibile. La matrice dei coefficienti è


1 0 0 0
 0 1 1 0 


 0 1 −1 0  ,
0 0 0 1
quindi invertible. Applicando Il Teorema di Cramer
si ha che
il sistema
1 0
0 1
ammette una ed una soluzione. Quindi i vettori
,
,
0 0
1 0
0 1
0 0
,
formano una base di M2×2 (R).
−1 0
0 1
Proposizione 5.3. Sia V uno spazio vettoriale su K e sia B = {v1 , . . . , vn }
una base di V . Allora ogni vettore v ∈ V si può scrivere in maniera unica
come combinazione lineare dei vettori v1 , . . . vn . Viceversa, se ogni elemento
si può scrive in maniera unica come combinazione lineare di v1 , . . . vn , allora
B = {v1 , . . . , vn } è una base di V .
Dimostrazione. Sia v ∈ V . Poiché B = {v1 , . . . , vn } è un sistema di generatori si ha V = L(v1 , . . . , vn ). Quindi esistono λ1 , . . . , λn ∈ K tale
che
v = λ1 v1 + · · · + λn vn .
Supponiamo che
v = λ1 v1 + · · · + λn vn = α1 v1 + · · · + αn vn .
Allora
0 = (λ1 − α1 )v1 + · · · + (λn − αn )vn .
Essendo B = {v1 , . . . , vn } un insieme di vettori linearmente indipendenti, ne
segue che
α1 = λ1 , . . . , αk = λk .
Viceversa, supponiamo che ogni elemento si scrive in maniera unica come combinazione lineare dei vettori v1 , . . . , vn . Vogliamo provare che B =
{v1 , . . . , vn } è una base di V , ovvero i vettori v1 , . . . , vn formano un sistema
di generatori e sono vettori linearmente indipendenti.
Sia v ∈ V . Poiché ogni elemento si scrive come combinazione lineare dei
vettori v1 , . . . , vn , esistono α1 , . . . , αn ∈ K tali che v = α1 v1 + · · · + αn vn .
Quindi v ∈ L(v1 , . . . , vn ) da cui segue che
L(v1 , . . . , vn ) = V.
82
ovvero v1 , . . . , vn formano un sistema di generatori. Adesso proviamo che
sono linearmente indipendenti.
Siano α1 , . . . , αn ∈ K tali che α1 v1 + · · · + αn vn = 0. Dall’unicità, segue
che α1 = · · · = αn = 0, poiché il vettore nullo si può scrivere come combinazione lineare dei vettori v1 , . . . , vn con tutti i coefficienti nulli. Quindi i
vettori v1 , . . . vn sono linearmente indipendenti.
Definizione 5.4. Sia v ∈ V e sia B = {v1 , . . . , vn } una base di V . Le
coordinate di v rispetto a B sono gli unici scalari x1 , . . . , xn ∈ K tali che
v = x1 v1 + · · · + xn vn .

x1


Indicheremo con [v]B =  ...  ∈ Kn le coordinate di v rispetto a B.

xn
     
1
1 
 1
Esempio 5.5. I vettori B =  0  ,  1  ,  1  , formano una base


0
0
1
di R3 . Vogliamo calcolare le coordinate di un vettore rispetto alla base B.
Quindi dobbiamo calcolare α, β, γ ∈ R tali che
 
 
 
 
1
1
1
x
 y  = α 0  + β  1  + γ  1 ,
1
0
0
z
ovvero risolvere il sistema


1 1 1 x
 0 1 1 y .
0 0 1 z
Il sistema è già ridotto a scala. Applicando il metodo della risoluzione
all’indietro si ha

 γ=z
β =y−z ,

α=x−y
ovvero
 
 
 
 
x
1
1
1
 y  = (x − y)  0  + (y − z)  1  + z  1  .
z
0
0
1
 


x
x−y



y
Quindi
= y − z .
z B
z
83
Sia B = {v1 , . . . , vn } una base di V . Indicheremo con
FB : V −→ Kn
v 7→ [v]B
l’applicazione che associa ad ogni vettore le sue coordinate rispetto alla
base B. Tale applicazione è iniettiva e suriettiva, ovvero una trasformazione
biunivoca che soddisfa alle seguenti proprietà:
• se v, w ∈ V , allora v = w se e solamente se [v]B = [w]B ;
 
0
 .. 
• [0V ]B =  . ;
0
• [v + w]B = [v]B + [w]B ;
• [λv]B = λ[v]B ;
• Sia {e1 , . . . , en } la base canonica di Kn . Allora [vj ]B = ej , per j =
1, . . . , n.
La prima proprietà è una diretta conseguenza dell’iniettività dell’applicazione FB . Infatti, v = w se e solamente se FB (v) = FB (w) quindi se e
solamente se [v]B = [w]B .
 
0
 .. 
Poiché 0V = 0v1 + · · · + 0vn , si ha [0V ]B =  . .
0
Siano v, w ∈ V . Allora
v = x1 v1 + · · · + xn vn ,
rispettivamente
w = y1 v 1 + · · · + yn v n .
Quindi
v + w = (x1 + y1 )v1 + · · · + (xn + yn )vn ,
ovvero

 
 

(x1 + y1 )
x1
y1

  ..   .. 
..
[v + w]B = 
 =  .  +  .  = [v]B + [w]B .
.
(xn + yn )
xn
yn
84
Se
v = x1 v1 + · · · + xn vn ,
allora
λv = λx1 v1 + · · · + λxn vn .
Quindi



x1
λx1




[λv]B =  ...  = λ  ...  = λ[v]B .
xn
λxn

Sia v1 ∈ V . Allora
v1 = 1v1 + 0v2 + · · · + 0vn .


1
 .. 
Quindi [v1 ]B =  .  = e1 . In maniera analoga,
0
vj = 0v1 + · · · + 0vj−1 + 1vj + 0vj+1 + · · · + 0vn ,
 
0
 .. 
 . 
 

ovvero [vj ]B = 
 1  = ej .
 .. 
 . 
0
Osserviamo inoltre che l’applicazione FB trasforma combinazioni lineari
in combinazioni lineari.
Siano w1 , . . . , wk ∈ V e sia α1 w1 + · · · + αk wk una combinazione lineare
dei vettori w1 , . . . , wk a coefficienti α1 , . . . , αk ∈ K. Quindi
FB (α1 w1 + · · · + αk wk ) = FB (α1 w1 ) + FB (α2 w2 + · · · + αk wk )
= FB (α1 w1 ) + · · · + FB (αk wk )
= α1 FB (w1 ) + · · · + αk FB (wk ),
ovvero
[α1 w1 + · · · + αk wk ]B = α1 [w1 ]B + · · · + αk [wk ]B .
Quindi, FB trasforma una combinazione lineare dei vettori w1 , . . . , wk a coefficienti α1 , . . . , αk ∈ K in una combinazione lineare dei vettori [w1 ]B , . . . , [wk ]B
sempre a coefficienti α1 , . . . , αk ∈ K.
Proposizione 5.6. Siano w1 , . . . , wk ∈ V e sia B = {v1 , . . . , vn } una base
di V . Allora:
85
a) w1 , . . . , wk sono linearmente dipendenti, rispettivamente linearmente
indipendenti, se e solamente se [w1 ]B , . . . , [wk ]B ∈ Kn sono linearmente dipendenti, rispettivamente linearmente indipendenti;
b) v ∈ V è combinazione lineare dei vettori w1 , . . . , wk se e solamente se
[v]B ∈ Kn è combinazione lineare dei vettori [w1 ]B , . . . , [wk ]B ∈ Kn ;
c) FB (L(w1 , . . . , wk )) = L([w1 ]B , . . . , [wk ]B ).
Facoltativa. Siano w1 , . . . , wk linearmente dipendenti. Allora esistono α1 , . . . , αk ∈
K non tutti nulli tali che α1 w1 + · · · + αk wk = 0V . Quindi
0Kn = FB (0V )
= FB (α1 w1 + · · · + αk wk )
= α1 FB (w1 ) + · · · + αk FB (wk )
= α1 [w1 ]B + · · · + αk [wk ]B ,
ovvero i vettori [w1 ]B , . . . , [wk ]B sono linearmente dipendenti. Viceversa,
se i vettori [w1 ]B , . . . , [wk ]B sono linearmente dipendenti, allora esistono
α1 , . . . , αk ∈ K non tutti nulli tali che
α1 [w1 ]B + · · · + αk [wk ]B = 0Kn .
Quindi
FB (α1 w1 + · · · + αk wk ) = α1 [w1 ]B + · · · + αk [wk ]B = 0Kn .
Poiché FB è biunivoca, si ha
α1 w1 + · · · + αk wk = 0V .
Quindi i vettori w1 , . . . , wk ∈ V sono linearmente dipendenti. In maniera
analoga è possibile dimostrare lo stesso risultato per la lineare indipendenza.
Sia v ∈ V . Il vettore v è combinazione lineare dei vettori w1 , . . . , wk ∈ V
se esistono β1 , . . . , βk ∈ K tale che
v = β1 w1 + · · · + βk wk .
Poiché FB è biunivoca, v = β1 w1 + · · · + βk wk se e solamente se FB (v) =
FB (β1 w1 + · · · + βk wk ), quindi se e solamente se
[v]B = FB (v) = FB (β1 w1 + · · · + βk wk ) = β1 [w1 ]B + · · · + βk [wk ]B .
86
Quindi v ∈ V è combinazione lineare dei vettori w1 , . . . , wk se e solamente
se [v]B è combinazione lineare dei vettori [w1 ]B , . . . , [wk ]B .
Sia w ∈ L(w1 , . . . , wk ). Esistono α1 , . . . , αk ∈ K tali che w = α1 w1 +
· · · + αk wk . Applicando FB si ha
FB (w) = FB (α1 w1 + · · · + αk wk )
= α1 FB (w1 ) + · · · + αk FB (wk )
= α1 [w1 ]B + · · · + αk [wk ]B .
Viceversa, se z ∈ L([w1 ]B , . . . , [wk ]B ), allora esistono α1 , . . . , αk ∈ K tali che
z = α1 [w1 ]B + · · · + αk [wk ]B .
Se w = α1 w1 + · · · + αk wk , allora FB (w) = z, per cui FB (L(w1 , . . . , wk )) =
L([w1 ]B , . . . , [wk ]B ).
1 1
1 2
0 −3
Esempio 5.7. Vogliamo stabilire se i vettori
,
,
∈
0 1
0 −1
1 2
M2×2 (R) sono linearmente indipendenti. Abbiamo dimostrato che
0 0
0 0
0 1
1 0
,
,
,
B=
0 1
1 0
0 0
0 0
è una base di M2×2 (R) e

x
 y 
x y
.
=
z t B  z 
t
1 1
1 2
0 −3
Quindi stibilire se
,
,
sono linearmente indi0 1
0 −1
1 2
 
1


1 1
1
1
2
pendent è equivalente a stabilire se i vettori
=  ,
=
0 1 B  0 
0 −1 B
1




1
0
 2 
 −3 
0
−3
4



=
 0 , 1 2
 1  ∈ R sono linearmente indipendenti. Poiché
B
2
−1
la matrice


1 1
0
 1 2 −3 

,
 0 0
1 
1 −1 2

87
ha rango 3, verificare!, si ha che i vettori
1 1
0 1
1 2
0 −3
,
,
0 −1
1 2
sono linearmente indipendenti
Osservazione
5.8. Sia C = {e1 , . . . , en } la base canonica di Kn . Sia X =


x1
 .. 
 . . Poiché
xn
X = x1 e 1 + · · · + xn e n ,
si ha




x1
x1
 .. 
 . 
 .  =  ..  .
xn C
xn
Quindi le coordinate di un vettore X rispetto alla base canonica è il vettore
X stesso.
5.8.1
Dimensione di uno spazio vettoriale
Sia V uno spazio finitamente generato. L’obiettivo di questa sezione è
dimostrare che due basi hanno lo stesso numero di elementi. Cominciamo
con il seguente Lemma.
Lemma 5.9. Siano v1 , . . . , vn vettori di V . I vettori v1 , . . . , vn sono linearmente dipendenti se e solamente se uno di essi si scrive come combinazione
lineare degli altri, ovvero, esiste 1 ≤ j ≤ n tale che
vj ∈ L(v1 , . . . , vj−1 , vj+1 , . . . , vn ).
Inoltre
L(v1 , . . . , vn ) = L(v1 , . . . , vj−1 , vj+1 , . . . , vn ).
Facoltativa. Supponiamo che v1 , . . . , vn siano linearmente dipendenti. Esistono λ1 , . . . , λn ∈ K non tutti nulli, tali che λ1 v1 + · · · + λn vn = 0.
Supponiamo che λj 6= 0. Allora dall’equazione
λ 1 v1 + · · · λ j vj + · · · + λ n vn = 0
|{z}
posso portare al secondo membro tutti i termini, tranne λj vj , e poi dividire
per λj , ottenedo
−1
−1
−1
vj = (−λ−1
j λ1 )v1 +· · ·+(−λj λj−1 )vj−1 +(−λj λj+1 )vj+1 +· · ·+(−λj λn )vn .
88
Quindi vj è combinazione lineare dei rimanenti, ovvero
vj ∈ L(v1 , . . . , vj−1 , vj+1 , . . . , vn ).
Viceversa supponiamo che esista j ∈ {1, . . . , n}, tale che vj è combinazione
lineare dei rimanenti, ovvero
vj = λ1 v1 + · · · + λj−1 vj−1 + λj+1 vj+1 + · · · + λn vn .
Allora
λ1 v1 + · · · + λj−1 vj−1 − vj + λj+1 vj+1 + · · · + λn vn = 0,
e quindi i vettori sono linearmente dipendenti poiché il coefficiente che
moltiplica vj è −1.
Adesso, proviamo che L(v1 , . . . , vj−1 , vj+1 , . . . , vn ) = L(v1 , . . . , vn ) se vj
è combinazione lineare dei vettori v1 , . . . , vj−1 , vj+1 , . . . , vn .
Poiché L(v1 , . . . , vn ) è un sottospazio vettoriale di V e i vettori
v1 , . . . , vj−1 , vj+1 , . . . , vn ∈ L(v1 , . . . , vn ),
si ha L(v1 , . . . , vj−1 , vj+1 , . . . , vn ) ⊆ L(v1 , . . . , vn ).
Viceversa, poiché vj è combinazione lineare di v1 , . . . , vj−1 , vj+1 , . . . vn ,
si ha
vj = λ1 v1 + · · · + λj−1 vj−1 + λj+1 vj+1 + · · · + λn vn
ovvero
vj ∈ L(v1 , . . . , vj−1 , vj+1 , . . . , vn ).
Quindi v1 , . . . , vn ∈ L(v1 , . . . , vj−1 , vj+1 , . . . , vn ) da cui segue L(v1 , . . . , vn ) ⊆
L(v1 , . . . , vj−1 , vj+1 , . . . , vn ) concludendo la dimostrazione.
Proposizione 5.10. Sia V uno spazio vettoriale finitamente generato. Allora V ammette una base.
Facoltativa. Siano v1 , . . . , vn un sistema di generatori dello spazio vettoriale
V , i.e., V = L(v1 , . . . , vn ). Se v1 , . . . , vn sono linearmente indipendenti
allora formano una base. Altrimenti i vettori v1 , . . . , vn sono linearmente
dipendenti. Applicando il Lemma 5.9, esiste 1 ≤ j1 ≤ n tale che vj1 è
combinazione lineare dei rimanenti. Inoltre
V = L(v1 , . . . , vn ) = L(v1 , . . . , vj1 −1 , vj1 +1 , . . . , vn ),
ovvero v1 , . . . , vj1 −1 , vj1 +1 , . . . , vn formano un sistema di generatori. Se i
vettori v1 , . . . , vj1 −1 , vj1 +1 , . . . , vn non fossero linearmente indipendenti allora potrei iterare questo procedimento, al massimo un numero finito di volte,
fino ad ottenere una base di V .
89
Vogliamo dimostrare che due basi hanno lo stesso numero di vettori.
Cominciamo con il seguente risultato.
Lemma 5.11 (Steinitz). Sia V uno spazio vettoriale su K generato da n
vettori v1 , . . . , vn . Siano w1 , . . . , wm ∈ V con m > n. Allora w1 , . . . , wm
sono vettori linearmente dipendenti.
Dimostrazione. Vogliamo dimostrare che esistono α1 , . . . , αm non tutti nulli
tali che α1 w1 +· · ·+αm wm = 0V . Poiché V = L(v1 , . . . , vn ), ogni vettore wj ,
per j = 1, . . . , m, si scrive come combinazione lineare dei vettori v1 , . . . , vn :
wj = a1j v1 + · · · + anj vn =
n
X
akj vk .
k=1
Quindi
0 = α1 w1 + · · · + αm wm
m
X
=
αj wj
=
j=1
m X
n
X
αj akj vk
j=1 k=1
=
n
X
k=1


m
X

akj αj  vk .
j=1
Consideriamo il seguente sistema lineare:
 Pm

j=1 a1j αj = 0

..
.

P

m
a
j=1 nj αj = 0
È un sistema lineare omogeneo di n equazioni in m incognite, con n < m.
Per il corollario 4.21 (del Teorema di Rouché-Capelli) il sistema ammette
soluzioni non banali. Quindi esistono α1 , . . . αm ∈ K non tutti nulli tali che
 Pm

j=1 a1j αj = 0

..
.

P

m
a
αj = 0
nj
j=1
90
Adesso,
m
X
α j wj =
j=1
m
X
αj
j=1
=
n
X
n
X
!
akj vk
k=1


m
X

akj αj  vk
k=1
j=1
= 0V ,
ovvero i vettori C = {w1 , . . . , wm } sono linearmente dipendenti.
Corollario 5.12. Sia V uno spazio vettoriale su K generato da n vettori.
Siano w1 , . . . , wm ∈ V linearmente indipendenti. Allora m ≤ n.
Dimostrazione. Se m > n, allora per il Lemma di Steinitz sarebbero linearmente dipendenti. Assurdo. Quindi m ≤ n.
Corollario 5.13. Siano B = {v1 , . . . , vn }, C = {w1 , . . . , wm } due basi di V .
Allora m = n.
Dimostrazione. Poiché V = L(v1 , . . . , vn ) e w1 , . . . , wm sono linearmente
indipendenti, applicando il corollario anteriore ottengo che m ≤ n. Scambiando il ruolo delle due basi, i.e., V = L(w1 , . . . , wm ) e v1 , . . . , vn linearmente indipendenti, sempre per il corollario anteriore si ha n ≤ m. Quindi
n = m.
Definizione 5.14. Sia V uno spazio vettoriale generato da un numero finito di elementi. Il numero dei vettori di una qualsiasi base di V si dice
dimensione di V .
Osservazione 5.15. Sia V uno spazio vettoriale su K di dimensione n.
Allora:
• n è il massimo numero di vettori di V linearmente indipendenti;
• se v1 , . . . , vm formano un sistema di generatori di V , allora n ≤ m.
Infine, se V = {0V }, ovvero uno spazio vettoriale formato solamente dal
vettore nullo, la sua dimensione è per definizione 0.
Esempio 5.16.
91


 
1
0
 .. 
 .. 
a) i vettori e1 =  .  , . . . , en =  .  formano una base di Rn . Quindi
0
1
dim Rn = n;


 
1
0
 .. 
 .. 
b) i vettori e1 =  .  , . . . , en =  .  formano una base di Cn . Quindi
0
1
dim Cn = n;
c) Sia Eij ∈ Mm×n (K) la matrice i cui elementi sono tutti nulli tranne
l’elemento aij = 1. È facile provare che B = {Eij , 1 ≤ i ≤ m, 1 ≤ j ≤
n} è una base di Mm×n (K). Quindi dim Mm×n (K) = mn.
d) i polinomi {1, x, . . . , xn } formano una base di Kn [x]. Quindi dim Kn [x] =
n + 1;
e) Sia V = A ∈ M2×2 (R) : A = AT , i.e., l’insieme delle matrici simmetriche. Si può dimostrare che i vettori
1 0
0 1
0 0
,
,
,
0 1
0 0
1 0
formano una base di V . Quindi dim V = 3.
f ) Sia V = A ∈ M3×3 (R) : A = −AT , i.e., l’insieme delle matrici antisimmetriche. Si può dimostrare che le matrici

 
 

0 1 0
0 0 1
0 0 0
 −1 0 0  ,  0 0 0  ,  0 0 1  ,
0 0 0
−1 0 0
0 −1 0
formano una base di V . Quindi dim V = 3.
Proposizione 5.17. Sia V uno spazoio vettoriale su K. Siano w1 , . . . , wm ∈
V e sia W = L(w1 , . . . , wm ). Indichiamo con k il massimo numero dei
vettori {w1 , . . . , wm } linearmente indipendenti. Allora dim W = k
Facoltativa. Poiché k è il massimo numero dei vettori {w1 , . . . , wm } linearmente indipendenti, esistono 1 ≤ j1 < · · · < jk ≤ m tali che i vettori i vettori
wj1 , . . . , wjk sono linearmente indipendenti. Vogliamo dimostrare che W =
L(wj1 , . . . , wjk ). Una inclusione è immediate, ovvero L(wj1 , . . . , wjk ) ⊆ W
92
(perché?). Per dimostrare che W ⊆ L(wj1 , . . . , wjk ) è sufficiente dimostrare
che wj ∈ L(wj1 , . . . , wjk ) per j = 1, . . . , n. Infatti, se
w1 , . . . , wn ∈ L(wj1 , . . . , wjk ),
allora
W = L(w1 , . . . , wn ) ⊆ L(wj1 , . . . , wjk ).
Se j = ji per un certo 1 ≤ i ≤ k, allora wj ∈ L(wj1 , . . . , wjk ). Supponiamo che j 6= ji . I vettori wj , wj1 , . . . , wjk sono linearmente dipendenti, poiché
sono k + 1 e k è il massimo numero dei vettori {w1 , . . . , wm } linearmente
indipendenti. Quindi esistono αj , αj1 , . . . , αjk ∈ K non tutti nulli tali che
αj wj + αj1 wj1 + · · · + αjk wjk = 0V .
Se αj = 0, allora
αj1 wj1 + · · · + αjk wjk = 0V ,
ovvero esisterebbe una combinazione lineare non banale dei vettori wj1 , . . . , wjk
uguale al vettore nullo. Assurdo perché i vettori wj1 , . . . , wjk sono linearmente indipendenti. Quindi αj 6= 0 da cui segue che
wj = (−αj1 /αj )wj1 + · · · + (−αjk /αj )wjk ∈ L(wj1 , . . . , wjk ),
concludendo la dimostrazione.
Corollario 5.18. Siano v1 , . . . , vn ∈ Km e sia A = (v1 , . . . , vn ) ∈ Mm×n (K).
Allora
dim L(v1 , . . . , vn ) = rg(A). In particolare se A = (A1 , . . . , An ) =


A1
 .. 
 .  ∈ Mm×n (K), allora rg(A) = dim (A1 , . . . , An ) = dim(AT1 , . . . , ATm ).
Am
Infine il rango di una matrice non cambia se effettuo operazioni elementari
di colonna, rispettivamente di righe, sulla matrice A.
Facoltativa. Nella proposizione anteriore abbiamo dimostrato che la dimensione del sottospazio L(v1 , . . . , vn ) è il massimo numero dei vettori {v1 , . . . , vn }
linearmente indipendenti.
Sia A = (v1 , . . . , vn ) ∈ Mm×n (K). Per definizione di rango di una matrice
si ha
dim L(v1 , . . . , vn ) = rg(A).
Adesso dimostreremo che il rango di una matrice non cambia se effettuo
operazioni elementari di colonna. La dimostrazione che il rango di una
matrice non cambia se effettuo operazioni elementari di riga è analogo.
93
Poiché rg(A) = dim (A1 , . . . , An ), il rango di una matrice non cambia se
scambio due colonne oppure se moltiplico una colonna per un multiplo non
nullo. Proviamo che il rango rimane invariato se sommiamo ad una colonna
un multiplo di una altro. Dobbiamo dimostrare che per ogni 1 ≤ i 6= j ≤ n,
e per ogni λ ∈ K, si ha L(A1 , . . . , An ) = L(A1 , . . . , Ai + λAj , . . . , An ).
Poiché
A1 , . . . , Ai + λAj , . . . , An ∈ L(A1 , . . . , An ),
ne segue che
L(A1 , . . . , Ai + λAj , . . . , An ) ⊆ L(A1 , . . . , An ).
ci , . . . , An ∈ L(A1 , . . . , Ai + λAj , . . . , An ). Inoltre Ai =
Viceversa, A1 , . . . , A
(Ai + λAj ) − λAj ∈ L(A1 , . . . , Ai + λAj , . . . , An ) da cui segue che
L(A1 , . . . , An ) ⊆ L(A1 , . . . , Ai + λAj , . . . , An ).
Proposizione 5.19. Sia V uno spazio vettoriale di dimensione n. Sia B =
{v1 , . . . , vn } un insieme formata da n vettori di V . Le seguenti condizioni
sono equivalenti:
a) B = {v1 , . . . , vn } è costituito da vettori linearmente indipendenti;
b) B = {v1 , . . . , vn } formano un sistema di generatori;
c) B = {v1 , . . . , vn } è una base di V .
Dimostrazione. (a) ⇒ (b). Sia v ∈ V . Devo dimostrare che v ∈ L(v1 , . . . , vn ),
ovvero che v è combinazione lineare di v1 , . . . , vn .
Poiché n è il massimo numero di vettori linearmente indipendenti di V ,
allora v, v1 , . . . , vn sono linearmente dipendenti. Quindi esistono α, λ1 , . . . , λn
non tutti nulli tali che
αv + λ1 v1 + · · · + λn vn = 0.
Se α = 0, allora i vettori v1 , . . . , vn sarebbero linearmente dipendenti. Quindi, α 6= 0 e v = − λα1 v1 − · · · − λαn vn , ovvero v ∈ L(v1 , . . . , vn ).
(b) ⇒ (c). Poiché v1 , . . . , vn formano un sistema di generatori, allora
V = L(v1 , . . . , vn ). Se v1 , . . . , vn fossero linearmente dipendenti, esisterebbe 1 ≤ j ≤ n tale che vj è combinazione linare dei rimanenti. Inoltre
V = L(v1 , . . . , vn ) = L(v1 , . . . vj−1 , vj+1 , . . . , vn ). Applicando il Lemma di
Steinitz si ha che una base di V sarebbe formata da al massimo n − 1
elementi. Assurdo. (c) ⇒ (a) è immediata dalla definizione di base.
94
Una base è un insieme formato da vettori linearmente indipendenti e
generatori. Se dim V = n e C = {w1 , . . . , wm } è un insieme di vettori
linearmente indipendenti, quindi m ≤ n, è possibile completare C a base di
V ?La risposta è si. Cominciamo con il seguente Lemma.
Lemma 5.20. Siano v1 , . . . vn vettori linearmente indipedenti di V e sia
v ∈ V . I vettori v, v1 , . . . vn sono linearmente indipendenti se e solamente
se v ∈
/ L(v1 , . . . , vn ).
Facoltativa. Supponiamo che v, v1 , . . . vn sono linearmente indipendenti. Per
il Lemma 5.9 v non appartiene a L(v1 , . . . , vn ) poiché altrimenti i vettori
v, v1 , . . . , vn sarebbero linearmente dipendenti. Viceversa, supponiamo che
v non appartenga a L(v1 , . . . , vn ) e sia αv + β1 v1 + · · · + βn vn = 0 una
combinazione lineare uguale al vettore nullo. Se α fosse differente da zero,
allora
v = −(β1 /α)v1 − · · · − (βn /α)vn ,
ovvero v ∈ L(v1 , . . . , vn ) che non è possibile per ipotesi. Quindi necessariamente α = 0 . Se α = 0, allora necessariamente β1 = · · · = βn = 0 poiché i
vettori v1 , . . . , vn sono linearmente indipendenti.
Teorema 5.21 (Teorema di completamento a base). Sia V uno spazio vettoriale su K di dimensione n. Sia C = {w1 , . . . , wm } un insieme formato
da vettori linearmente indipendenti e sia B = {v1 , . . . , vn } una base di V .
Allora esistono n − m vettori di B che insieme a C = {w1 , . . . , wm } formano
una base di V .
Facoltativa. Poiché n = dim V è il massimo numero di vettori linearmente
indipendenti allora m ≤ n. Poiché B = {v1 , . . . , vn } è una base di V , si ha
L(v1 , . . . , vn ) = V da cui segue che
L(w1 , . . . , wm ) ⊆ L(v1 , . . . , vn ).
Se L(w1 , . . . , wm ) = L(v1 , . . . vn ), allora {w1 , . . . , wm } è una base di V .
Quindi m = n e la dimostrazione è finita. Altrimenti L(w1 , . . . , wm ) (
L(v1 , . . . vn ). Affermiamo che esiste 1 ≤ j1 ≤ n tale che vj1 ∈
/ L(w1 , . . . , wm ).
Infatti, se v1 , . . . , vn ∈ L(w1 , . . . , wm ), allora L(v1 , . . . , vn ) ⊆ L(w1 , . . . , wm )
e quindi
L(w1 , . . . , wm ) = L(v1 , . . . , vn ).
Assurdo perché per ipotesi L(w1 , . . . , wm ) ( L(v1 , . . . vn ). Applicando il
Lemma 5.20, i vettori vj1 , w1 , . . . , wm sono linearmente indipendenti. Se
L(vj1 , w1 , . . . , wm ) = L(v1 , . . . , vn ),
95
allora m + 1 = n ed il Teorema sarebbe dimostrato. Altrimenti esisterebbe 1 ≤ j2 ≤ n, j2 6= j1 , tale che vj2 non apparterrebbe al sottospazio
L(vj1 , w1 . . . , wm ) e quindi i vettori vj2 , vj1 , w1 , . . . wm sarebbero linearmente
indipendenti. Se
L(vj1 , vj2 , w1 , . . . , wm ) = L(v1 , . . . , vn ),
allora m + 2 = n ed il Teorema sarebbe dimostrato. Altrimenti posso iterare
questo procedimento per un numero finito di volte: esattamente n−m volte,
concludendo la dimostrazione del Teorema.
Corollario 5.22. Sia V uno spazio vettoriale su K e sia W un sottospazio
di V . Allora dim W ≤ dim V . Inoltre dim W = dim V se e solamente se
V = W.
Dimostrazione. Sia C = {w1 , . . . , wm } una base di W e sia B = {v1 , . . . , vn }
una base di V . Poiché i vettori w1 , . . . , wm sono linearmente indipendenti,
applicando il Lemma di Steinitz si ha m ≤ n, ovvero dim W ≤ dim V .
Se dim W = dim V , m = n e C = {w1 , . . . , wm } è anche una base di V ,
da cui segue che V = L(w1 , . . . , wm ) = W .
Diamo una prova alternativa della I parte del Teorema di Rouché-Capelli
utilizzando i risultati anteriori.
Corollario 5.23. Sia A ∈ Mm×n (K). Il sistema AX = b è compatibile se e
solamente se rg(A) = rg(A|b).
Facoltativa. Abbiamo visto che Il sistema lineare AX = b è compatibile se
e solamente se b ∈ L(A1 , . . . , An ). Poiché L(A1 , . . . , An ) ⊆ L(A1 , . . . , An , b),
si ha b ∈ L(A1 , . . . , An ) se e solamente se L(A1 , . . . , An ) = L(A1 , . . . , An , b).
Riassumendo, abbiamo dimostrato che il sistema AX = b è compatibile se
e solamente se L(A1 , . . . , An ) = L(A1 , . . . , An , b) Applicando il corollario
anteriore, si ha che il sistema lineare AX = b è combatibile se e solamente
se dim L(A1 , . . . , An ) = dim L(A1 , . . . , An , b). Applicando il corollario 5.18
si ha che il sistema AX = b è compatibile se e solamente se rg(A) = rg(A|b).
5.23.1
Equazioni cartesiane di un sottospazio di Kn
Sia W ⊂ Kn un sottospazio vettoriale generato dai vettori w1 , . . . , wk ,
ovvero W = L(w1 , . . . , wk ). Il vetore w ∈ W se e solamente se esistono degli
scalari α1 , . . . , αk ∈ K tali che
α1 w1 + · · · + αk wk = w,
96
ovvero se e solamente se il sistema lineare
AX = w,
è compatibile, dove A = (w1 , . . . , wk ) ∈ Mn×k (K). Applicando il metodo di
Gauss alla matrice (A|w) ottengo un sistema lineare SX = c ridotto a scala
e equivalente al sistema lineare AX = w. Il sistema lineare SX = c ha la
forma:


∗ ··· ···
∗
···
···
· ∗ c1
· · · s1j1 ∗
 ··· ···
∗
∗
···
···
· ∗ c2 
0 s2j2 ∗


 ··· ··· ··· ···
∗
· · · · · · ∗ c3 
0 s3j3 ∗


 ..
.. 
..
 .
.
···
··· ··· ∗
··· ··· ··· ···
0
. 


 0 ··· ··· ··· ··· ···
0 s(r−1)jr−1
∗
∗ ∗ cr−1 


 0 ··· ··· ··· ··· ··· ···
···
srjr ∗ ∗ cr 


 0 ··· ··· ··· ··· ··· ···

·
·
·
0
·
·
·
0
c
r+1


 .
..
..
.. 
 ..
.
.
. 
···
0
···
···
···
···
···
0
···
0
cn
Quindi il sistema SX = c è compatibile se e solamente se le ultime n − rg(S)
coordinate di c sono nulle, ovvero se e solamente se
cr+1 = 0, . . . , cn = 0,
le quali definiscono equazioni cartesiane. Quindi,
W = L(w1 , . . . , wk ) = Sol(A|w) = Sol(S|c) = {cr+1 = 0, . . . , cn = 0} .
Queste equazioni sono chiamate equazioni cartesiane di W .
  
  
1
0
1
 0   1   1 
  
  
Esempio 5.24. Sia W = L 
 1  ,  1  ,  2 .
1
−1
0


1
 0

 0
0
1
 0

 1
1
0
1
1
−1
0
1
1
−1
1
1
1
−1



x1
A3 − A1
1 0
1
x1
 0 1

x2 
−→
1
x2





x3
A4 − A1
0 1
1 x3 − x1 
x4
−→
0 −1 −1 x4 − x1



x1
1 0 1
x1
A3 − A2

 0 1 1

x2
−→
x2



x3 − x1  A4 + A2  0 0 0 x3 − x1 − x2 
−→
x4 − x1
0 0 0 x4 − x1 + x2
1
1
2
0
97
Il sistema lineare è compatibile se e solamente se x3 − x1 − x2 = 0 e
x4 − x1 + x2 = 0, ovvero



x1







x
2 
4

∈
R
:
x
−
x
−
x
=
0,
x
−
x
+
x
=
0
.
W = 
3
1
2
4
1
2
x3 






x4
5.24.1
Tecniche di Calcolo
Siano X1 , . . . , Xk vettori di Kn , dove K = R oppure K = C.
a) Affinché i vettori X1 , . . . , Xk formino una base è necessario che n = k
essendo n = dim Kn . Sia (X1 , . . . , Xn ) ∈ Mn×n (K), ovvero la matrice
le cui colonne sono i vettori X1 , . . . , Xn . Applicando la Proposizione 5.19 si ha che i vettori X1 , . . . , Xn ∈ Kn formano una base se e
solamente se X1 , . . . , Xn sono linearmente indipendenti, quindi se e
solamente se det(X1 , . . . , Xn ) 6= 0 (rg(X1 , . . . , Xn ) = n);
b) Sia W = L(X1 , . . . , Xk ) dove X1 , . . . Xk ∈ Kn . Abbiamo visto che
dim W = rg((X1 , . . . , Xk )). Per determinare una base possiamo seguire il seguente procedimento.
Applicando l’algoritmo di Gauss alla matrice A = (X1 , . . . , Xk ) ∈
Mm×k (K) otteniamo una matrice S ∈ Mm×k (K) ridotta a scala. Siano
1 ≤ j1 < . . . < jk ≤ n tali che le colonne S j1 , . . . , S jk corrispondono
ai perni di S. Si può dimostrare che Xj1 , . . . , Xjk sono linearmente
indipendenti. Poiché k = rg(A), allora (Xj1 , . . . , Xjk ) formano una
base di W .
c) Siano X1 , . . . , Xk ∈ Kn linearmente indipendenti. Abbiamo dimostrato che possiamo completarli a base di Kn . Una possibilità è di trovare
n − k vettori Yk+1 , . . . , Yn ∈ Kn tali che
det(X1 , . . . , Xk , Yk+1 , . . . , Yn ) 6= 0.
Non abbiamo un algoritmo che ci guida nella scelta dei vettori da aggiungere. Tuttavia, il Teorema di completamento a base afferma che
possiamo completare a base i vettori indipendenti X1 , . . . , Xk aggiungendo, per esempio, n − k vettori della base canonica.
Il metodo di Gauss, ci fornisce un algoritmo per completare a base i
vettori X1 , . . . , Xk linermente indipendenti.
98
Sia C = {e1 , . . . en } la base canonica di Kn e sia
A = (X1 , . . . Xk , e1 , . . . , en ) ∈ Mn×(n+k) (K).
Si osservi che rg(A) = n. Infatti rg(A) ≤ n poiché la matrice A ha n
righe. Dall’altro lato, i vettori e1 , . . . , en sono linearmente indipendenti
e quindi esistono almento n colonne linearmente indipendenti, ovvero
rg(A) ≥ n. Quindi rg(A) = n. Applicando l’algoritmo di Gauss alla
matrice A otteniamo una matrice ridotta a scala che indichiamo con
S = (S 1 , . . . , S k , B 1 , . . . , B n ). Poiché i vettori X1 , . . . , Xk sono linearmente indipendenti, si può dimostrare che le prime k colonne della
matrice S contengono perni (perché?). Inoltre, se i perni della matrice S sono contenuti nelle colonne S 1 , . . . , S k , B j1 , . . . , B jn−k , allora
i vettori X1 , . . . Xk , ej1 , . . . ejn−k sono linearmente indipenti e quindi
formano un base di Kn . Questo procedimento può essere lungo poiché
se dovessi completare a base X1 , X2 ∈ R4 , dovrei ridurre a scala una
matrice di formato 4 × 6.
d) sia B = {v1 , . . . , vn } una base di Kn . Vogliamo calcolare le coordinate
di un vettore v rispetto alla base B. Le coordinate di un vettore v
rispetto alla base B sono gli unici scalari x1 , . . . , xn ∈ K tale che
v = x1 v1 + · · · + xn vn .


x1


Sia A = (v1 , . . . , vn ) ∈ Mn×n (K) e sia X =  ... . Poiché
xn
v = x1 v1 + · · · + xn vn ⇐⇒ AX = v,
le coordinare di v rispetto alla base B è l’unica soluzione del sistema
lineare AX = v. Quindi calcolare le coordinate di un vettore rispetto
ad una base è equivalente a risolvere un sistema lineare di n equazioni
in n incognite.
Sia V uno spazio vettoriale su K di dimensione n e sia B = {v1 , . . . , vn } una
base di V . Sia FB : V −→ Kn l’applicazione biunivoca che associa a v le
sue coordinate rispetto a B. Ricordiamo che dalla definizione di coordinate
si ha che FB (vi ) = ei , per i = 1, . . . , n, dove {e1 , . . . , en } è la base canonica
di Kn . Inoltre


x1


FB−1  ...  = x1 v1 + · · · + xn vn .
xn
99
Siano w1 , . . . , wk ∈ V . Allora:
a) w1 , . . . , wk ∈ V sono linearmente indipendenti se e solamente se i vettori [w1 ]B , . . . , [wk ]B ∈ Kn sono linearmente indipendenti se e solamente
se rg([w1 ]B , . . . , [wk ]B ) = k.
b) w1 , . . . , wk ∈ V sono linearmente dipendenti se e solamente se i vettori
[w1 ]B , . . . , [wk ]B ∈ Kn sono linearmente dipendenti se e solamente se
rg([w1 ]B , . . . , [wk ]B ) < k.
c) w1 , . . . , wk ∈ V formano una base di V se e solamente se k = n ed
i vettori [w1 ]B , . . . , [wn ]B formano una base di Kn se e solamente se
det([w1 ]B , . . . , [wn ]B ) 6= 0;
d) siano v, w1 , . . . , wk ∈ V . v è combinazione lineare di w1 , . . . , wk se e
solamente se [v]B è combinazione lineare dei vettori [w1 ]B , . . . , [wk ]B ∈
Kn se e solamente se rg([w1 ]B , . . . , [wk ]B ) = rg([w1 ]B , . . . , [wk ]B , [v]B );
Siano w1 , . . . , wk vettori linearmente indipendenti di V . Possiamo completarli a base di V . Una maniera può essere la seguente.
Siano [w1 ]B , . . . , [wk ]B ∈ Kn . Poiché i vettori [w1 ]B , . . . , [wk ]B sono linearmente indipendenti applicando il Teorema del completamento a base,
li posso completare a base aggiungendo n − k vettori della base canonica
{e1 , . . . , en }. Quindi esistono ≤ j1 < . . . < jn−k ≤ n tale che
[w1 ], . . . , [wk ]B , ej1 , . . . , ejn−k ,
formano una base di Kn . Tenendo in mente che FB (vj ) = ej per j = 1, . . . , n,
e che FB è biunivoca, non è difficile dimostrare che i vettori
w1 , . . . , wk , vj1 , . . . , vjn−k ,
formano una base di V .
Sia W = L(w1 , . . . , wk ) ⊆ V . Per calcolare una base possiamo seguire il
seguente procedimento.
Sia W 0 = L([w1 ]B , . . . , [wk ]B ). Noi sappiamo che dim W = dim W 0 =
rg([w1 ]B , . . . , [wk ]B ). Siano 1 ≤ j1 < · · · < jk ≤ n tale che i vettori
[wj1 ]B , . . . , [wjk ]B ) formano una base di W 0 . Non è difficile dimostrare che i
vettori wj1 , . . . , wjk formano una base di W .
Sia C = {w1 , . . . , wn } una base di V . Le coordinate di un vettore v
rispetto alla base C sono gli unici scalari y1 , . . . , yn ∈ K tali che
v = y1 w1 + · · · + yn wn .
100
Poiché FB è biunivoca e trasforma combinazioni lineari in combinazioni
lineari si ha
[v]B = y1 [w1 ]B + · · · + yn [wn ]B .
Tenendo in mente che C 0 = {[w1 ]B , . . . , [wn ]B } è una base di Kn , si ha che
le coordinate di v rispetto alla base C sono le coordinate del vettore [v]B
rispetto alla base C 0 .
5.25
Formula di Grassman
Sia V uno spazio vettoriale su K e siano U, W ⊆ V sottospazi vettoriali
di V . Non è difficile verificare che U ∩ W è un sottospazio vettoriale di V
(esercizio). Invece, in generale, U ∪ W non è un sottospazio vettoriale. Per
esempio, sia V = R2 e sia U = L(e1 ) and W = L(e2 ). Allora U ∪ W ,
W
U
Figura 5.25.1.
è l’unione degli assi, il quale non è un sottospazio vettoriale poiché non è
chiuso rispetto alla somma (ma è chiuso rispetto alla moltiplicazione per
scalare).
Definiamo
U + W := {u + w : u ∈ U w ∈ W }.
Proposizione 5.26. U + W è un sottospazio vettoriale di V .
Dimostrazione. Dobbiamo dimostrare che U + W è chiuso rispetto alla somma e la moltiplicazione per scalare. Ovvero, se z, h ∈ U + W e λ ∈ K, allora
z + h ∈ U + W e λz ∈ U + W .
Siano z, h ∈ U + W . Per definizione di U + W , esitono u1 , u2 ∈ U e
w1 , w2 ∈ W tale che z = u1 + w1 e h = u2 + w2 rispettivamente. La tesi è
che anche z + h e λz li posso scrivere come una somma di un elemento di U
e di un elemento di W . Infatti,
z + h = u1 + w1 + u2 + w2 = u1 + u2 + w1 + w2 ∈ U + W.
| {z } | {z }
U
101
W
Analogamente
λz = λu1 + λw1 ∈ U + W,
poiché λu1 ∈ U e λw1 ∈ W
È facile verificare che U + W contiene sia U e sia W . Se volessimo
essere rigorosi dovremmo affermare che U + W è il più piccolo sottospazio
vettoriale di V che contiene U ∪ W . Il prossimo risultato fornisce un criterio
per determinare un sistema di generatori di U + W .
Lemma 5.27. Sia D = {u1 , . . . , un } un sistema di generatori di U e C =
{w1 , . . . , wm } un sistema di generatori di W . Allora D ∪ C è un sistema di
generatori di U + W .
Dimostrazione. I vettori u1 , . . . , un , w1 , . . . wm ∈ U + W . Quindi, tenendo
in mente che U + W è un sottospazio di V , si ha
L(u1 , . . . , un , w1 , . . . , wm ) ⊆ U + W.
Dimostriamo l’inclusione opposta.
Sia z ∈ U + W . Il vettore z = u + w per un certo u ∈ U e w ∈ W .
Poiché D = {u1 , . . . , un }, rispettivamente C = {w1 , . . . , wm }, è un sistema
di generatori di U , rispettivamente W , esistono α1 , . . . , αn , rispettivamente
β1 , . . . , βm , tale che
u = α1 u1 + · · · + αn un ,
rispettivamente
w = β1 w1 + · · · + βm wm .
Quindi
u + w = α1 u1 + · · · + αn un + β1 w1 + · · · + βm wm ∈ L(u1 , . . . , un , w1 , . . . , wm ),
ovvero U + W ⊆ L(u1 , . . . , un , w1 , . . . , wm ).
Esempio 5.28. Si considerino i sottospazi
 
   
1
0
1
U = L  1  ,
W = L  1  ,  1 
2
1
1
di R3 . Allora

    
1
0
1






1 , 1 , 1  ,
U +W =L
2
1
1
102
e


1 0 1
dim(U + W ) = rg  1 1 1  = 3 verificare!.
2 1 1
Quindi U + W = R3 .
Teorema 5.29 (Formula di Grassman). Sia V uno spazio vettoriale su K.
Siano U e W sottospazi vettoriali di V . Allora
dim(U + W ) + dim(U ∩ W ) = dim U + dim W
Facoltativa. Sia {s1 , . . . , sk } una base di U ∩ W . Per il Teorema di completamento a base, possiamo completarla a base di U , {s1 , . . . , sk , u1 , . . . , up },
rispettivamente a una base di W , {s1 , . . . , sk , w1 , . . . , wq }. Quindi dim(U ∩
W ) = k, dim U = k + p ed infine dim W = k + q. Per il Lemma anteriore, i
vettori
{s1 , . . . , sk , u1 , . . . , up , w1 , . . . , wq },
formano un sistema di generatori di U + W . Vogliamo dimostrare che sono
linearmente indipendenti e quindi formano una base di U +W . Consideriamo
una loro combinazione lineare uguale al vettore nullo:
α s + · · · + αk sk + β1 u1 + · · · + βp up + γ1 w1 + · · · + γq wq = 0,
| 1 1 {z
} |
{z
} |
{z
}
s
u
w
ovvero
s + u + w = 0,
dove s ∈ U ∩ W , u ∈ U e w ∈ W . Quindi u = −s − w ∈ W , rispettivamente
w = −s − u ∈ U , da cui segue che u, w ∈ U ∩ W . In particolare esistono
λ1 , . . . , λk , rispettivamente µ1 , . . . , µk , tali che
u = λ1 s1 + · · · + λk sk = β1 u1 + · · · + βp up ,
rispettivamente
w = µ1 s1 + · · · + µk sk = γ1 w1 + · · · + γq wq ,
ovvero
λ1 s1 + · · · + λk sk − β1 u1 − · · · − βp up = 0,
rispettivamente
µ1 s1 + · · · + µk sk − γ1 w1 − · · · − γq wq = 0.
103
Poiché i vettori {s1 , . . . , sk , u1 , . . . , up } formano una base di U , rispettivamente {s1 , . . . , sk , w1 , . . . , wq } formano una base di W , ne segue che
β1 = · · · = βp = 0, rispettivamente γ1 = · · · = γq = 0.
Quindi u = w = 0 ed α1 s1 + · · · + αk sk = 0, Poiché i vettori s1 , . . . , sk
sono linearmente indipendenti si ha α1 = · · · = αk = 0, ovvero i vettori
s1 , . . . , sk , u1 , . . . , up , w1 , . . . , wq sono linearmente indipendenti. Quindi,
dim(U + W ) = k + p + q
= (k + p) + (k + q) − k
= dim U + dim W − dim(U ∩ W ).
Definizione 5.30. Sia V uno spazio vettoriale su K. Siano U e W sottospazi vettoriali di V . Diremo U e W sono in somma diretta se U ∩W = {0}.
Diremo inoltre che V è in somma diretta di U e W se:
• U ∩ W = {0};
• U +W =V.
Se V è in soma diretta di U e W scriveremo V = U ⊕ W .
Esempio 5.31. Si considerino i sottospazi U = L(e1 ) e W = L(e2 ) di R2 .
È facile verificare che U ∩ W = {0}.
W
U
Figura 5.31.1.
Quindi U e W sono in somma diretta. Inoltre, U + W = R2 , poiché
U + W = L(e1 , e2 ) = R2 , ovvero R2 = U ⊕ W .
Applicando la formula di Grassman si ha il seguente risultato.
Corollario 5.32. Siano U e W due sottospazi vettoriali di V . Allora:
104
a) U e W sono in somma diretta se e solamente se dim(U +W ) = dim U +
dim W ;
b) V è somma diretta di U e W se e solamente se dim V = dim(U + W )
e dim(U + W ) = dim U + dim W .
Dimostrazione. Tenendo in mente che U ∩ W = {0} è equivalente a dim(U ∩
W ) = 0, applicando la formula di Grassmann
dim(U + W ) + dim(U ∩ W ) = dim U + dim W,
si ha che U ∩ W = {0} se e solamente se dim(U + W ) = dim U + dim W .
Se V è somma diretta di U e W , allora U ∩ W = {0} ed V = U + W .
Quindi dim V = dim(U + W ). Applicando la formula di Grassmann si
ha dim(U + W ) = dim U + dim W . Viceversa, supponiamo che dim V =
dim(U + W ) = dim U + dim W . Poiché U + W ⊆ V , applicando il Corollario
5.22 si ha V = U + W . Applicando nuovamente la formula di Grassman,
se dim(U + W ) = dim U + dim W , allora U ∩ W = {0} concludendo la
dimostrazione.
Il seguente risultato descrive geometricamente cosa significa che V è
somma diretta di U e W .
Corollario 5.33. Sia V uno spazio vettoriale su K e siano U e W sottospazi
di V . Allora V è somma diretta di U e W se e solamente se ogni elemento
di V si scrive in maniera unica come somma di un vettore di U ed un vettore
di W .
Facoltattiva. Se V è somma diretta di U e W , allora U ∩ W = {0} e V =
U + W . La seconda proprietà implica che ogni vettore v ∈ V si scrive come
somma v = u + w, dove u ∈ U e w ∈ W . Se v = u + w = u0 + w0 , allora
u − u0 = w − w0 ∈ U ∩ W.
Quindi u = u0 e w = w0 . Viceversa, supponiamo che ogni elemento di
V si scriva, in maniera unica, come somma di un elemento di U e di un
elemento di W . Allora V = U + W (Perché?). Se z ∈ U ∩ W , allora
z = 43 z + 14 z = 21 z + 12 z. Quindi se z 6= 0, allora potrei scrivere z come
somma di un elemento di U e di un elemento di W in almeno due modi
differenti. Assurdo. Quindi U ∩ W = {0}.
105
Esempio 5.34. Sia V = Mn×n (R) e siano U = {A ∈ V : A = AT } e W =
{A ∈ V : A = −AT }. Ogni matrice A ∈ V si scrive in maniera unica come
combinazione lineare di una matrice simmetrica ed una antisimmetrica:
1
1
A = (A + AT ) + (A − AT ).
2
2
Quindi V è somma diretta di U e W .
Sia V uno spazio vettoriale su K e sia W un sottospazio vettoriale di
V . Una domanda naturale è se esiste W 0 sottospazio di V tale che V =
U ⊕ W . La risposta è affermativa ed una diretta conseguenza del Teorema
di completamento a base.
Corollario 5.35. Sia V uno spazio vettoriale su K e sia W un sottospazio
vettoriale di V . Esistono (infiniti) W 0 tali che V = W ⊕ W 0 .
Facoltativa. Sia C = {w1 , . . . , wk } una base di W . Possiamo completarla a basa di V . Siano v1 , . . . , vs tale che i vettori w1 , . . . , wk , v1 , . . . , vs
formano una base di V . Affermiamo che V è in somma diretta di W e
W 0 = L(v1 , . . . , vs ).
Poiché W + W 0 = L(w1 , . . . , wk , v1 , . . . , vs ) ed w1 , . . . , ws , v1 , . . . , vs formano una base di V si ha W + W 0 = V .
Sia z ∈ W ∩ W 0 . Allora
z = α 1 w1 + · · · + α k wk = β 1 v 1 + · · · + β s v s ,
da cui segue
α1 w1 + · · · + αk wk + (−β1 )v1 + · · · + (−βs )vs = 0.
Poiché i vettori w1 , . . . , wk , v1 , . . . , vs sono linearmente indipendenti i coefficienti
α1 = · · · = αk = β1 = · · · = βs = 0,
ovvero z = 0.
5.35.1
Tecniche di Calcolo
Siano U = L(X1 , . . . , Xk ) e W = L(Y1 , . . . , Ys ) sottospazi vettoriale di
Siano A = (X1 , . . . , Xk ) ∈ Mn×k (K), B = (Y1 , . . . , Ys ) ∈ Mn×s (K) e
C = (X1 , . . . , Xk , Y1 , . . . , Ys ) ∈ Mn×(k+s) (K). Allora
Kn .
• dim U = rg(A);
106
• dim W = rg(B);
• dim(U + W ) = rg(C);
• dim(U ∩ W ) possiamo calcolarla applicando la formula di Grassman;
• U e W sono in somma diretta se e solamente se rg(C) = rg(A)+rg(B);
• Kn è in somma ditretta di U e W se e solamente se n = rg(C) =
rg(A) + rg(B).
Per quanto riguarda l’intersezione possiamo cosı̀ procedere.
Siano U e W . Calcoliamo equazioni cartesiane di U e W rispettivamente. Allora l’unione di queste equazioni sono equazioni cartesiane per
l’intersezione U ∩ W .
Sia V uno spazio vettoriale su K. Siano U = L(u1 , . . . , up ), W =
L(w1 , . . . , wq ) sottospazi vettoriali di V . Sia infine B una base di V . Allora:
• dim U = rg(([u1 ]B , . . . , [up ]B );
• dim W = rg(([w1 ]B , . . . , [wq ]B );
• dim U + W = rg(([u1 ]B , . . . , [up ]B , [w1 ]B , . . . , [wq ]B )).
• la dim(U ∩W ) possiamo ricavarla utilizzando la formula di Grassmann.
107
Capitolo 6
Applicazioni lineari e matrici
6.1
Applicazioni lineari
Definizione 6.2. Siano V, W spazi vettoriali su K. Una applicazione T :
V −→ W si dice lineare se:
a) ∀v1 , v2 ∈ V , T (v1 + v2 ) = T (v1 ) + T (v2 ) (additiva);
b) ∀v ∈ V e λ ∈ K, T (λv) = λT (v) (omogenea).
Proposizione 6.3. Sia T : V −→ W una applicazione lineare. Allora
• T (0V ) = 0W ;
• T (−v) = −T (v);
• siano v1 , . . . , vn ∈ V e siano α1 , . . . , αn ∈ K. Allora
T (α1 v1 + · · · + αn vn ) = α1 T (v1 ) + · · · + αn T (vn ).
Dimostrazione. Dimostreremo solamente l’ultima proprietà lasciando le altre due per esercizo.
T (α1 v1 + · · · + αn vn ) = T (α1 v1 ) + T (α2 v2 + · · · + αn vn )
= T (α1 v1 ) + T (α2 v1 ) + · · · + T (αn vn )
= α1 T (v1 ) + α2 T (v2 ) + · · · + αn T (vn )
= α1 T (v1 ) + · · · + αn T (vn ).
108
Vediamo alcuni esempi di applicazioni lineari.
Esempio 6.4.
a) T : V −→ W , v 7→ 0W è lineare;
b) IdV : V −→ V , v 7→ v è una applicazione lineare;
c) L’applicazione
Mm×n (R) −→ Mn×m (R),
A 7→ AT
è una applicazione lineare;
d) sia V uno spazio vettoriale su K e sia B una base di V . Allora
FB : V −→ Kn ,
v 7→ [v]B ,
è una applicazione lineare;
e) sia A ∈ Mm×n (K). Le applicazioni
Mp×m (K) −→ Mp×n (K),
X 7→ XA,
Mn×q (K) −→ Mm×q (K),
X 7→ AX,
e
sono applicazioni lineari.
f ) Sia A ∈ Mm×n (K). Allora
LA : Kn −→ Km ,
X 7→ AX,
è una applicazione lineare.
g) L’applicazione
Mn×n (K) −→ K
A 7→ Tr(A)
è una applicazione lineare.
Osservazione 6.5. L’applicazione T : R −→ R, T (x) = x + 1 non è una
applicazione lineare poiché T (0) = 1 6= 0. Lo stesso vale per l’applicazione
T : R −→ R, T (x) = x2 poiché T (−x) = T (x) per ogni x ∈ R. Un altro
esempio di applicazione che non è lineare è l’applicazione
Mm×n (C) −→ Mn×m (C),
A ∈ Mm×n (C) 7→ A∗ ∈ Mn×m (C).
Infatti (λA)∗ = λA, ovvero non è omogenea (ma è additiva).
109
Siano V, W spazi vettoriali su K. Indichiamo con Lin(V, W ) oppure Hom(V, W ) l’insieme di tutte le applicazioni lineari fra V e W . Se
T, L ∈ Lin(V, W ), diremo che T = L se per ogni v ∈ V si ha T (v) = L(v).
Lin(V, W ) ammette una struttura di spazio vettoriale su K.
Siano T, L ∈ Lin(V, W ) e λ ∈ K. Definiamo
(T + L)(v) := T (v) + L(v),
(λT )(v) = λT (v).
Proposizione 6.6. Se V, W sono spazi vettoriali su K, allora Lin(V, W )
con le operazioni di somma e moltiplicazione per scalare definite come sopra
è uno spazio vettoriale su K.
Proposizione 6.7. Siano f ∈ Lin(V, W ) e g ∈ Lin(W, Z). Allora g ◦
f ∈ Lin(V, Z) è ancora una applicazione lineare, ovvero la composizione
di applicazioni lineari è ancora una applicazione lineare. L’inversa, quando
esiste, di una applicazione lineare è ancora lineare. Inoltre: siano L : V −→
W , T, H : W −→ Z e S, Q : D −→ W . Allora
a) (T + H) ◦ L = T ◦ L + H ◦ L;
b) T ◦ (S + Q) = T ◦ S + T ◦ Q;
c) λ(H ◦ L) = (λH) ◦ L = H ◦ (λL).
Facoltativa. Siano v1 , v2 ∈ V . Allora
(g ◦ f )(v1 + v2 ) = g(f (v1 + v2 )) = g(f (v1 ) + f (v2 ))
= g(f (v1 )) + g(f (v2 )) = (g ◦ f )(v1 ) + (g ◦ f )(v2 ).
Analogamente se λ ∈ K e v ∈ V si ha
(g ◦ f )(λv) = g(f (λv)) = g(λf (v))
= λg(f (v)) = λ(g ◦ f )(v).
Sia T : V −→ W lineare e biunivoca. Dalla teoria degli insieme sappiamo
che esiste T −1 : W −→ V tale che T ◦ T −1 = IdW e T −1 ◦ T = IdV .
L’applicazione T −1 : W −→ V è cosı̀ definta: T −1 (w) = v, dove v è l’unico
elemento di V tale che T (v) = w. Vogliamo dimostrare che T −1 è lineare.
Siano w1 , w2 ∈ W e siano v1 , rispettivamente v2 ∈ V , tali che T (v1 ) =
w1 , rispettivamente T (v2 ) = w2 . Poiché T è lineare si ha
T (v1 + v2 ) = T (v1 ) + T (v2 ) = w1 + w2 .
110
Per definizione di T −1 si ha
T −1 (w1 + w2 ) = v1 + v2 = T −1 (w1 ) + T −1 (w2 ).
Siano λ ∈ K e w ∈ W . Sia v ∈ V tale che T (v) = w. Poiché T è lineare si
ha T (λv) = λT (v) = λw, ovvero
T −1 (λw) = λT −1 (w).
Le rimanenti proprietà sono lasciate per esercizio.
Il prossimo risultato garantisce che una applicazione lineare è completamente determinate dai valori che assume su una base di V .
Proposizione 6.8. Siano V e W spazi vettoriali su K. Sia B = {v1 , . . . , vn }
una base di V e siano w1 , . . . , wn ∈ W . Esiste una unica applicazione lineare
T : V −→ W , tale che T (v1 ) = w1 , . . . , T (vn ) = wn .
Dimostrazione. Supponiamo che esistono T, L : V −→ W lineari tali che
T (v1 ) = L(v1 ), . . . , T (vn ) = L(vn ) e dimostriamo che T = L.
Sia v ∈ V . Poiché B = {v1 , . . . , vn } è una base di V esistono, e sono
unici, x1 , . . . , xn ∈ K, tale che v = x1 v1 + · · · + xn vn . Quindi
T (v) = T (x1 v1 + · · · + xn vn )
= x1 T (v1 ) + · · · + xn T (vn )
= x1 L(v1 ) + · · · + xn L(vn )
= L(x1 v1 + · · · + xn vn )
= L(v).
Quindi se esite una tale applicazione è unica. Adesso dimostriamo che esiste
una applicazione lineare T : V −→ W tale che T (v1 ) = w1 , . . . , T (vn ) = wn .
Sia v ∈ V . Allora esistono, e sono unici, x1 , . . . , xn ∈ K tale che
v = x1 v1 + · · · + xn vn .
Definiamo
T (v) = x1 w1 + · · · + xn wn .
La definizione è ben posta poiché le coordinate sono univocamente determinate. Inoltre, tenendo in mente che [v1 ]B = e1 , . . . , [vn ]B = en , si ha
T (v1 ) = w1 , . . . , T (vn ) = wn . Rimane quindi da dimostrare che T è lineare.
111
Siano v, w ∈ V . Allora
v = x1 v1 + · · · + xn vn
w = y1 v 1 + · · · + yn v n
.
v + w = (x1 + y1 )v1 + · · · + (xn + yn )vn
Quindi
T (v + w) = (x1 + y1 )w1 + · · · + (xn + yn )wn
= x1 w1 + · · · + xn wn + y1 w1 + · · · + yn wn
|
{z
} |
{z
}
= T (v) + T (w).
Sia v ∈ V e sia λ ∈ K. Allora
v = x1 v1 + · · · + xn vn
λv = λx1 v1 + · · · + λxn vn .
Quindi
T (λv) = (λx1 )w1 + · · · + (λxn )wn
= λ(x1 w1 + · · · + xn wn )
= λT (v).
Esempio 6.9. Sia T : R3 −→ R4 l’applicazione lineare definita da:






 
 
 
1
0
2
1
0
1
 1 




 , T  2  =  −3  , T  1  =  −1  .
T  0  = 
 2 
 1 
 5 
1
1
1
−1
1
−1


x
Vogliamo calcolare T  y .
z
     
0
1 
 1
Sia B =  0  ,  2  ,  1  , la base di R3 sulla quale conosciamo


1
1
1
l’applicazione lineare T . Se
 


x
α
 y  = β 
z B
γ
112


x
sono le coordinate del vettore  y  rispetto alla base B, allora
z





2
0
1
x




 1 
 + β  −3  + γ  −1  .


y  = α 
T
 5 
 1 
 2 
z
−1
1
−1





x
Le coordinate del vettore  y  rispetto alla base B è l’unica soluzione del
z
sistema lineare


  
1 0 1
α
x
 0 2 1  β  =  y ,
1 1 1
γ
z
ovvero

 α = −x − y + 2z
β = −x + z

γ = 2x + y − 2z
Infatti
 
 
 
 
x
1
0
1
 y  = (−x − y + 2z)  0  + (−x + z)  2  + (2x + y − 2z)  1  .
z
1
1
1
Quindi



1
0
x
 1 
 −3 



T  y  = (−x − y + 2z) 
 2  + (−x + z)  1 
z
−1
1


2
 −1 

+ (2x + y − 2z) 
 5 
−1


3x + y − 2z
 −2y + z


=
 7x + 3y − 5z  .
−2x + z



113
Corollario 6.10. Siano T, L : V −→ W due applicazioni lineari e sia
B = {v1 , . . . , vn } una base di V . Allora T = L, se e solamente se T (v1 ) =
L(v1 ), . . . , T (vn ) = L(vn ).
Dimostrazione. Se T = L, allora T (v) = L(v) per ogni v ∈ V . In particolare
vale per ogni elemento della base B = {v1 , . . . , vn }. Viceversa, supponiamo
che T (vi ) = L(vi ) per i = 1, . . . , n. Applicando la proposizione anteriore si
ha T = L.
Definizione 6.11. Sia T : V −→ W una applicazione lineare. Si pone
• Ker T = {v ∈ V : T (v) = 0W } (nucleo di T ).
• Im T = {T (v) : v ∈ V } = {w ∈ W : ∃v ∈ V per cui T (v) = w}
(Immagine di T ).
Proposizione 6.12. Sia T : V −→ W una applicazione lineare. Allora
• Ker T è un sottospazio vettoriale di V .
• Im T è un sottospazio vettoriale di W .
• Se B = {v1 , . . . , vn } è una base di V , allora
Im T = L(T (v1 ), . . . , T (vn )).
Quindi dim Im T ≤ dim V .
Dimostrazione.
• Dobbiamo dimostrare che Ker T è chiuso rispetto alla somma e la
moltiplicazione per scalare.
Siano v, z ∈ Ker T . Allora T (v) = T (z) = 0W . Dobbiamo dimostrare
che v + z ∈ Ker T , ovvero
T (v + z) = 0W .
Poiché T è lineare, si ha
T (v + z) = T (v) + T (z) = 0W ,
quindi v + z ∈ Ker T .
Siano v ∈ Ker T e sia λ ∈ K. Dobbiamo dimostrare che λv ∈ Ker T ,
cioè T (λv) = 0W . Poiché T è lineare e v ∈ Ker T si ha
T (λv) = λT (v) = 0W .
114
• Siano w1 , w2 ∈ Im T e λ ∈ K. Dobbiamo dimostrare che w1 + w2 ∈
Im T e λw1 ∈ Im T , ovvero che esistono v, z ∈ V tali che T (v) = w1 +w2
e T (z) = λw1 , rispettivamente. Per ipotesi esistono v1 , v2 ∈ V tali che
T (v1 ) = w1 e T (v2 ) = w2 . Quindi
T (v1 + v2 ) = T (v1 ) + T (v2 ) = w1 + w2 ∈ Im T,
rispettivamente
T (λv1 ) = λT (v1 ) = λw1 ∈ Im T.
• Sia B = {v1 , . . . , vn } una base di V e sia w ∈ Im T . Allora w = T (v)
per un certo v ∈ V . Poiché B = {v1 , . . . , vn } è una base di V si ha
v = x1 v1 + · · · + xn vn . Per la linearità di T , si ha
w = T (v) = T (x1 v1 + · · · + xn vn )
= x1 T (v1 ) + · · · + xn T (vn ) ∈ L(T (v1 ), . . . , T (vn )).
Quindi Im T ⊆ L(T (v1 ), . . . , T (vn )). Poiché T (v1 ), . . . , T (vn ) ∈ Im T ,
tenendo in mente che Im T è un sottospazio vettoriale di W , si ha
L(T (v1 ), . . . , T (vn )) ⊆ Im T.
Quindi
Im T = L(T (v1 ), . . . , T (vn )).
Infine, applicando il Lemma di Steintz si ha dim Im T ≤ dim V .
Esempio 6.13. Si consideri l’applicazione lineare T : R4 −→ R3 definita
da




x
x − 2z + 2w
 y 

 

T
 z  = x + 2y + 4w ,
y+z+w
w


x
 y 
4

Vogliamo calcolare Ker T , ovvero i vettori 
 z  ∈ R tali che
w



  
x
x − 2z + 2w
0
 y 

 =  x + 2y + 4w  =  0  .
T
 z 
y+z+w
0
w
115


x
 y 

Quindi 
 z  ∈ Ker T se e solamente se
w

 x − 2z + 2w = 0
x + 2y + 4w = 0

y + z + w = 0.
Applicando l’algoirtmo di Gauss e il metodo della risoluzione all’indietro, si
ha

  





2z
−
2w
2
−2








 
 



 −1 
−z
−
w
−1






Ker T = 
:
z,
w
∈
R
=
z
+
w
:
z,
w
∈
R
.

 0 
z


  1 





 


w
0
1


 
−2 
2




 −1 
−1 




Quindi Ker T ha dimensione 2 ed una base è formata dai vettori 
,
.
1   0 





1
0
Adesso vogliamo
calcolare
l’immagine
di
T
.
       
0
0
0 

 1


 0   1   0   0 








Sia C =   ,   ,   ,   = {e1 , e2 , e3 , e4 }, la base ca0
1
0 
0





0
0
1
0
nonica di R4 . Per la Proposizione 6.12, si ha
    
  
1
0
−2
2
Im T = L (T (e1 ), T (e2 ), T (e3 ), T (e4 )) = L  1  ,  2  ,  0  ,  4  .
1
1
1
1
Poiché la matrice (verificare)


1 0 −2 2
 1 2 0 4 
0 1 1 1
ha rango 2, si ha che dim Im T = 2 ed una base è formata dai vettori
   
0 
 1
 1 , 2  .


0
1
116
Esempio 6.14. Si consideri l’applicazione lineare T : R3 −→ R3 definita
da:
   
  

   
1
1
0
3
1
2
T  0  =  1  , T  2  =  −2  , T  1  =  3  .
1
2
1
1
1
5
Per la Proposizione 6.12, si ha

 
  
1
3
2
Im T = L  1  ,  −2  ,  3  .
2
1
5
Poiché la matrice (verificare)


1 3 2
 1 −2 3 
2 1 5
ha
rango
 2 si ha
che dim Im T = 2 ed una base è formata dai
 vettori

3
x
 1

 1  ,  −2  . Per calcolare il nucleo, dobbiamo calcolare T  y .


2
1
z
     
1
0
1


Sia B =  0  ,  2  ,  1  , la base di R3 sulla quale conosciamo


1
1
1
 
x
l’applicazione lineare T . Le coordinate del vettore  y  rispetto alla base
z
B è l’unica soluzione del sistema lineare


  
1 0 1
α
x
 0 2 1  β  =  y ,
1 1 1
γ
z
ovvero

 α = −x − y + 2z
β = −x + z

γ = 2x + y − 2z
Infatti
 
 
 
 
x
1
0
1
 y  = (−x − y + 2z)  0  + (−x + z)  2  + (2x + y − 2z)  1  .
z
1
1
1
117
Quindi


 


x
1
3
T  y  = (−x − y + 2z)  1  + (−x + z)  −2 
z
2
1
 
2

+ (2x + y − 2z) 3 
5


y+z
=  7x + 2y − 6z  .
7x + 3y − 5z
 
x
Quindi  y  ∈ Ker T se e solamente se
z
  
  
x
y+z
0
T  y  =  7x + 2y − 6z  =  0  ,
z
7x + 3y − 5z
0
 
x

y  ∈ Ker T se e solamente se
ovvero
z

 y+z =0
7x + 2y − 6z = 0

7x + 3y − 5z = 0.
Applicando l’algoirtmo di Gauss e il metodo della risoluzione all’indietro, si
ha

  



8/7
 8/7z
 

Ker T =  −z  : z ∈ R = z  −1  : z ∈ R .

 

z
1


 8/7 
Quindi Ker T ha dimensione 1 ed una base è formata dal vettore  −1  .


1
Osservazione 6.15. Sia T : V −→ W una applicazione lineare. Ricordiamo che se Z ⊆ W , allora la controimmagine di Z rispetto a T , che
indicheremo con T −l (Z), è sottoinsieme di V cosı̀ definito:
T −1 (Z) = {v ∈ V : T (v) ∈ Z}.
118
Se Z è un sottospazio vettoriale, allora si può dimostrare che T −1 (Z) è un
sottospazio vettoriale di V . Osserviamo che Ker T = T −1 (0W ).
Se L ⊆ V , allora l’immagine di L rispetto a T è il sottoinsieme di W
cosı̀ definito:
T (L) = {T (s) : s ∈ L}
Se L è un sottospazio vettoriale di V , allora si può dimostrare che T (L) è
un sottospazio vettoriale di W . Inoltre, se L = L(v1 , . . . , vk ), allora
T (L) = L(T (v1 ), . . . , T (vk )).
Proposizione 6.16. Sia T : V −→ W una applicazione lineare. Allora:
• T è iniettiva se e solamente se Ker T = {0V };
• T è suriettiva se e solamente se dim Im T = dim W .
Dimostrazione. Una applicazione T è iniettiva se T (v) 6= T (w) ogni volta
che v 6= w. Poiché T è lineare, si ha T (0V ) = 0W . Quindi se v 6= 0V , allora
T (v) 6= T (0V ) = 0W , ovvero Ker T = {0V }.
Viceversa, supponiamo che Ker T = {0V }. Vogliamo dimostrare che se
T (v) = T (w), allora v = w.
Se T (v) = T (w), allora per la linearità di T si ha T (v − w) = 0. Quindi
v − w ∈ Ker T = {0V } da cui segue v = w.
Un’applicazione T è suriettiva se Im T = W . Poiché Im T ⊆ W , per il
Corollario 5.22, la condizione Im T = W è equivalente a dim W = dim Im T .
Teorema 6.17 (Teorema della dimensione). Sia T : V −→ W una applicazione lineare. Allora
dim V = dim Ker T + dim Im T.
Facoltativa. Sia {v1 , . . . , vk } una base di Ker T . Per il Teorema del complemento a base, esistono vk+1 , . . . , vn tale che {v1 , . . . , vn } è una base di V .
Poiché T (v1 ) = · · · = T (vk ) = 0, applicando la Proposizione 6.12, si ha
Im T = L(T (v1 ), . . . , T (vn )) = L(T (vk+1 ), . . . , T (vn )).
Quindi dim V = n, dim Ker T = k e Im T è generata da n − k vettori. Il
Teorema sarà dimostrato se proveremo che i vettori T (vk+1 ), . . . , T (vn ) sono
linearmente indipendenti e quindi una base di Im T . In tal caso avrei
dim V = n = k + (n − k) = dim dim Ker T + dim Im T.
119
Siano αk+1 , . . . , αn ∈ K tali che
αk+1 T (vk+1 ) + · · · + αn T (vn ) = 0W .
Per la linearità di T si ha
T (αk+1 vk+1 + · · · + αn vn ) = 0W ,
ovvero αk+1 vk+1 + · · · + αn vn ∈ Ker T . Poiché {v1 , . . . , vk } formano una
base di Ker T esistono α1 , . . . , αk ∈ K tali che
α1 v1 + · · · + αk vk = αk+1 vk+1 + · · · + αn vn ,
ovvero
α1 v1 + · · · + αk vk − αk+1 vk+1 − · · · − αn vn = 0V .
Poiché i vettori v1 , . . . , vn formano una base di V , si ha α1 = · · · = αn = 0,
ed in particolare αk+1 = · · · = αn = 0, per cui i vettori T (vr+1 ), . . . , T (vn )
sono linearmenti indipendenti.
Vediamo alcune conseguenze del Teorema della dimensione.
Corollario 6.18. Sia T : V −→ W una applicazione lineare. Allora T è
iniettiva se e solamente se dim Im T = dim V .
Dimostrazione. Per la Proposizione 6.16, T è iniettiva se e solamente se
Ker T = {0}. Applicando il Teorema della dimensione,
dim V = dim Ker T + Im T,
si ha che T è iniettiva se e solamente se dim Im T = dim V .
Esempio 6.19. Sia T : R3 −→ R4 l’applicazione lineare definita da:






 
 
 
1
2
0
1
0
1
 1 
 0 
















 =  2  .
2
1
0
T
=
,
T
=
,
T
 −1 
 3 
1 
1
1
1
−1
3
−5
Quindi
 
 

1
2
0
 1   0   2 
 


 
Im T = L 
 1  ,  −1  ,  3 
−1
3
−5

120
e


1
2
0
 1
0
2 

dim Im T = rg 
 1 −1 3  = 2 verificare!.
−1 3 −5
Quindi T non è iniettiva.
Corollario 6.20. Sia T : V −→ W una applicazione lineare. Allora:
• se T è iniettiva, allora dim V ≤ dim W ;
• se T è suriettiva, allora dim V ≥ dim W ;
• se T è biunivoca, allora dim V = dim W .
Dimostrazione. Dimostriamo solamente la seconda affermazione poiché le
altre sono analoghe. Se T è suriettiva, allora per la Proposizione 6.16, si ha
dim W = dim Im T . Per il Teorema della dimensione si ha
dim V = dim Ker T + dim Im T = dim Ker T + dim W ≥ dim W.
Corollario 6.21. Sia T : V −→ W lineare. Supponiamo che dim V =
dim W . Le seguenti condizioni sono equivalenti:
a) T è iniettiva;
b) T è suriettiva;
c) T è biunivoca.
Dimostrazione. Proveremo solamente (b) ⇒ (c).
Se T è suriettiva, allora dim Im T = dim W , applicando il Teorema della
dimensione si ha
dim V = dim Ker T + dim Im T = dim Ker T + dim W.
Poiché dim V = dim W si ha dim Ker T = 0, ovvero T è iniettiva.
Definizione 6.22. Due spazi vettoriali V, W sono isomorfi se esiste una
applicazione lineare T : V −→ W iniettiva e suriettiva, ovvero biunivoca.
Un’applicazione lineare e biunivoca si chiama isomorfismo.
121
Proposizione 6.23. Due spazi vettoriali sono isomorfi se e solamente se
dim V = dim W .
Facoltativa. Applicando il Corollario 6.20 si ha che due spazi vettoriali isomorfi hanno la stessa dimensione . Viceversa, supponiamo che dim V =
dim W = n. Sia B = {v1 , . . . , vn }, rispettivamente C = {w1 , . . . , wn }, una
base di V , rispettivamente W . Sia T : V −→ W l’unica applicazione lineare
tale che T (v1 ) = w1 , . . . , T (vn ) = wn (Proposizione 6.8). Poiché l’immagine
contiene una base di W è suriettiva. Per il corollario anteriore T è biunivoca
e quindi V e W sono isomorfi.
122
Capitolo 7
Matrici e applicazioni lineari
Applicazioni lineari da Kn a Km
7.1
Sia A ∈ Mm×n (K) e sia LA : Kn −→ Km l’applicazione
lineare cosı̀
1 2 3
∈ M2×3 (R),
definita: LA (X) = AX. Per esempio, se A =
0 1 3
allora
 
 
x
x
x + 2y + 3z
1 2 3  
3
2




y =
y
.
LA : R −→ R , LA
=
y + 3z
0 1 3
z
z
Allora:
a) Ker LA = {X ∈ Kn : LA (X) = 0Km } = {X ∈ Kn : AX = 0Km } = Sol(A|0Km );
b) Im LA = {b ∈ Km : ∃X ∈ Kn per cui AX = b} = {b ∈ Km : Sol(A|b) 6= ∅}
ovvero l’immagine di LA è l’insieme dei vettori di Km per i quali il
sistema AX = b è compatibile;
c) sia e1 , . . . , en la base canonica di Kn . Poiché
LA (ei ) = Aei = Ai ,
per i = 1, . . . , n, si ha
Im LA = L (LA (e1 ), . . . , LA (en )) = L(A1 , . . . , An ),
da cui segue che dim Im LA = rg(A);
123
−1
d) sia b ∈ Km . Allora LA
(b) = {X ∈ Kn : AX = b} = Sol(A|b). Quindi
b ∈ Im LA se e solamente se il sistema lineare AX = b è compatibile e
quindi se e solamente se rg(A) = rg(A|b).
Applicando il Teorema della dimensione, otteniamo il seguente risultato.
Teorema 7.2 (Teorema di nullità più rango). Sia A ∈ Mm×n (K) e sia
LA : Kn −→ Km l’applicazione lineare associata ad A. Allora
n = dim Ker LA + rg(A)
.
Il risultato anteriore ci permette di calcolare la dimensione dell’insieme
delle soluzioni di un sistema lineare omogeneo.
Corollario 7.3. Sia A ∈ Mm×n (K). Allora dim Sol(A|0K m ) = n − rg(A).
Dimostrazione. Sia LA : Kn −→ Km , l’applicazione lineare LA (X) = AX.
Per Il Teorema anteriore si ha
dim Sol(A|0Km ) = dim Ker LA = n − rg(A).
Applicando il Teorema della dimensione, ed i suoi corollari, si ha il
seguente risultato.
Corollario 7.4. Sia A ∈ Mm×n (K) e sia LA : Kn −→ Km . Allora
• LA è suriettiva se e solamente se rg(A) = m;
• LA è iniettiva se e solamente se rg(A) = n;
• LA è biunivoca se e solamente se A ∈ Mn×n (K) e rg(A) = n se e
solamente se A ∈ Mn×n (K) e det(A) 6= 0.
Infine, LIdn = IdKn .
Dimostrazione. LA è suriettiva se e solamente se dim Im LA = dim Km se e
solamente se rg(A) = m.
LA è iniettiva se e solamente dim Im LA = dim Kn se e solamente se
rg(A) = n.
LA è biunivoca se e solamente se A è una matrice quadrata e dim Im LA =
dim Kn = n quindi se e solamente se A è una matrice quadrata di formato
n × n e rg(A) = n, ovvero se e solamente se A è una matrice invertbile.
124
Infine, LIdn : Kn −→ Kn è l’applicazione lineare,
LIdn (X) = Idn X = X = IdKn (X).


1 1 2 1
Esempio 7.5. Sia A =  −1 2 3 2 . Allora LA : R4 −→ R3 ,
4 1 3 1




x1
x1 + x2 + 2x3 + x4
 x2 

 

LA 
 x3  = −x1 + 2x2 + 3x3 + 2x2
4x1 + x2 + 3x3 + x4
x4
La matrice matrice A ha rango 2 (verificare!). Quindi dim Im LA = 2 e
dim Ker LA = 2. Una base per l’immagine di LA è formata dai vettori

  
1
1 

 −1  ,  2  .


4
1
Il nucleo di LA è l’insieme delle soluzione del sistema lineare omogeneo
AX = 0R3 .
Una base per il nucleo di LA è formata dai vettori

 

0
1





  5 
−1

 

 0  ,  −3 





1
0
Sia A ∈ Mm×n (K) e sia B ∈ Mn×p (K). Allora
LA : Kn −→ Km ,
rispettivamente
LB : Kp −→ Kn .
L’applicazione
LA ◦ LB : Kp −→ Km ,
è lineare.
125
Proposizione 7.6. LA ◦ LB = LAB . In particolare, se A ∈ Mn×n (K) è una
matrice invertibile, allora LA è biunivoca e L−1
A = LA−1
Dimostrazione.
(LA ◦ LB )(X) = LA (LB (X)) = LA (BX) = ABX = (AB)(X) = LAB (X).
Sia A ∈ Mn×n (K) una matrice invertibile. Abbiamo già visto che LA è
biunivoca e viceversa. Inoltre, tenendo in mente che LIdn = IdKn , si ha
LA ◦ LA−1 = LAA−1 = LIdn = IdKn e LA−1 ◦ LA = LA−1 A = LId = IdKn ,
ovvero
(LA )−1 = LA−1
Esempio 7.7. Sia A =
1 1 2
1 −1 1


1 1
∈ M2×3 (R) e sia B =  0 1  ∈
1 −1
M3×2 (R). Allora:


x
x + y + 2z
3
2




y
LA : R −→ R ,
LA
,
=
x−y+z
z


x+y
x
=  y ,
LB : R2 −→ R3 ,
LB
y
x−y
LA ◦ LB : R2 −→ R2 ,
x
x
3 0
x
3x
LA ◦ LB
= LAB
=
=
,
y
y
2 −1
y
2x − y
LB ◦ LA : R3 −→ R3 ,
 
  
  

x
2 0 3
x
2x + 3z
x
LB ◦LA  y  = LBA  y  =  1 −1 1   y  =  x − y + z  ,
z
z
0 2 1
z
2y + z
Sia
K : Mm×n (K) −→ Lin(Kn , Km )
A 7→ LA .
L’applicazione K è lineare. Infatti
LA+B (v) = (A + B)(v) = Av + Bv = LA (v) + LB (v),
126
per ogni v ∈ Kn . Quindi K(A + B) = LA+B = LA + LB = K(A) + K(B).
Se λ ∈ K e A ∈ Mm×n (K), allora per ogni v ∈ Kn si ha
LλA (v) = (λA)v = λ(Av) = λ(LA )(v),
ovvero K(λA) = λK(A). Tale applicazione è anche iniettiva, poiché K(A) =
LA è l’applicazione lineare nulla se e solamente se Im LA = {0K m } se e
solamente se
L(A1 , . . . , An ) = {0},
quindi se e solamente se A = 0.
Vogliamo dimostrare che ogni applicazione lineare è della forma LA ,
ovvero che K è suriettiva. Quindi K è un isomorfismo fra l’insieme delle
matrici Mm×n (K) e Lin(Kn , Km ) .
Sia T : Kn −→ Km 
una applicazione
lineare. Sia (e1 , . . . , en ) la base

x1


canonica di Kn . Se X =  ...  ∈ Kn , allora X = x1 e1 + · · · + xn en , e
xn
T (X) = T (x1 e1 + · · · + xn en )
= x1 T (e1 ) + · · · + xn T (en )


x1


= MT  ...  .
xn
dove MT = (T (e1 ), . . . , T (en )) ∈ Mm×n (K). Quindi
T (X) = MT X = LMT (X).
In particolare Ker T = Sol(MT |0) e dim Im T = rg(MT ) Riassumento abbiamo dimostrato il seguente risultato.
Proposizione 7.8. Sia T : Kn −→ Km una applicazione lineare e sia
{e1 , . . . , en } la base canonica di Kn . Allora T = LMT dove
MT = (T (e1 ), . . . , T (en )) ∈ Mm×n (K).
Inoltre, valgono le seguenti proprietà:
• KerT = Sol(MT |0);
• ImT = L(MT1 , . . . , MTn ) e dim Im T = rg(MT ).
127
Corollario 7.9. Sia T : Kn −→ Km una applicazione lineare e sia MT =
(T (e1 ), . . . , T (en )) ∈ Mm×n (K), dove {e1 , . . . , en } è la base canonica di Kn .
Allora
a) T è iniettiva se e solamente se rg(MT ) = n;
b) T è suriettiva se e solamente se rg(MT ) = m;
c) T è biunivoca se e solamente se MT è invertibile;
d) b ∈ Im T se e solamente se il sistema lineare MT X = b è compatibile.
Dimostrazione. Poiché T = LMT , applicando il Corolario 7.4, le prima tre
proprietà sono di verifica immediata.
Sia b ∈ Km . b ∈ Im T se esiste Y ∈ Kn tale che T (Y ) = b. Poiché
T (Y ) = LMT (Y ) = MT Y = b, si ha b ∈ Im T se e solamente se il sistema
lineare MT X = b è compatibile.
Esempio 7.10. Si consideri l’applicazione lineare T : R3 −→ R3 definita
da
  

x
x + y + 2z
T  y  =  2x + y + 3z  ,
z
x + 2y + 3z
     
0
0 
 1
Sia  0  ,  1  ,  0  la base canonica di R3 . Allora


0
0
1
   
   
  
2
0
1
0
1
1
T  0  =  2  , T  1  =  1  , T  0  =  3  ,
3
1
2
0
1
0

e quindi


1 1 2
MT =  2 1 3  .
1 2 3
Poiché rg(MT ) = 2, (verificare!) T non è iniettiva, rispettivamente suriettiva, rispettivamente biunivoca. Inoltre,


1
Ker T = Sol(MT |0R3 ) = L  1  .
−1
128


2
Sia b =  −1  ∈ R3 . Stabilire se b ∈ Im T è equivalente a stabilire se il
7
sistema
MT X = b,
è compatibile. Poiché rg(MT ) = rg(MT |b) (verificare!), b ∈ Im T .
Il prossimo risultato riguarda la corrispondenza T 7→ MT .
Proposizione 7.11. L’applicazione
H : Lin(Kn , Km ) 7→ Mm×n (K)
T 7→ MT ,
è una applicazione lineare, i.e.,
a) MT +L = MT + ML ;
b) MλT = λMT ;
biunivoca la cui inversa è K. Inoltre:
• se T : Kn −→ Kp e G : Kp −→ Km , allora MG◦T = MG MT ;
• se MIdKn = Idn ;
• se T : Kn −→ Kn è invertibile, allora MT −1 = MT−1 .
In particolare dim Lin(Kn , Km ) = mn.
Facoltativa. Abbiamo dimostrato che
K : Mm×n (K) −→ Lin(Kn , Km )
A 7→ LA .
è un isomorfismo. È facile verifivare che l’applicazione
H : Lin(Kn , Km ) −→ Mm×n (K)
T 7→ MT ,
è l’inversa di K e quindi è lineare.
Siano T : Kn −→ Kp e G : Kp −→ Km lineari. Allora G ◦ T : Kn −→ Km
è lineare. Vogliamo dimostrare che MG◦T = MG MT . Poiché T = LMT e
G = LMG , allora
G ◦ T = LMG ◦ LMT = LMG MT .
Quindi, tenendo in mente che l’applicazione T 7→ MT è biunivoca, si ha
MG◦T = MG MT .
129
Infine, sia T : Kn −→ Kn invertibile. Quindi MT è invertibile. Inoltre
LMT ◦ LM −1 = LMT (MT )−1 = IdKn ,
T
ovvero T −1 = LM −1 . Infine, poiché H è un isomorfismo,
T
dim Lin(Kn , Km ) = Mm×n (K) = mn.
7.12
Matrice associata ad una applicazione lineare
In questa sezione vogliamo associare ad una applicazione lineare una
matrice generalizzando la costruzione che abbiamo introdotto nelle sezioni
anteriori.
Sia T : V −→ W una applicazione lineare. Siano B = {v1 , . . . , vn }
e C = {w1 , . . . , wm } basi di V e W rispettivamente. Se v ∈ V , allora
x1
 .. 
v = x1 v1 + · · · + xn vn e [v]B =  .  sono le coordinate di v rispetto a B.
xn


y1


Analogamente se w ∈ W , allora w = y1 w1 + . . . + ym wm e [w]C =  ... 
ym
sono le coordinate di w rispetto alla base C. Vogliamo calcolare le coordinate
di T (v) rispetto alla base C. Poiché FC : W −→ Km è lineare, si ha
[T (v)]C = [T (x1 v1 + · · · + xn vn )]C
= [x1 T (v1 ) + · · · + xn T (vn )]C
= x1 [T (v1 )]C + · · · + xn [T (vn )]C
= MC,B (T )[v]B ,
dove MC,B (T ) = ([T (v1 )]C , . . . , [T (vn )]C ) ∈ Mm×n (K). MC,B (T ) è chiamata
la matrice associata a T rispetto alla basi B in partenza e C in arrivo. La
matrice MC,B (T ) è l’unica matrice di ordine m × n, dove m = dim W e
n = dim V , a coefficienti in K che verifica
[T (v)]C = MC,B (T )[v]B ,
130
per ogni v ∈ V . In maniera equivalente, il seguente diagramma
FB
n
K
/W
T
V
FC
/ Km
LMC,B (T )
è commutativo, i.e., FC ◦ T = LMC,B (T ) ◦ FB .
Osservazione 7.13. Sia T : Kn −→ Km . Sia C la base canonica di Kn e
C 0 la base canonica di Km . Allora MT = (T (e1 ), . . . , T (en )) = MC 0 ,C (T )
Proposizione 7.14. Sia T : V −→ W e siano B e C basi di V e W
rispettivamente. Allora dim ImT = rg(MC,B (T )) e quindi dim KerT =
dim V − rg(MC,B (T )). Inoltre
• FC (Im T ) = Im LMC,B (T ) ;
• FB (Ker T ) = Ker LMC,B (T ) ;
Facoltativa. Sia v ∈ V . T (v) = 0 se e solamente se [T (v)]C = 0. Poiché
[T (v)]C = MC,B (T )[v]B ,
si ha T (v) = 0 se e solamente se MC,B (T )[v]B = 0.
dimostrato che
Quindi abbiamo
Ker T = {v ∈ V : T (v) = 0} = {v ∈ V : [v]B ∈ Sol(MC,B (T )|0)} .
In particolare FB (Ker T ) = Sol(MC,B (T )|0). Poiché FB è un isomorfismo si
ha dim Ker T = dim Sol(MC,B (T )|0) = dim V − rg(MC,B (T )). Applicando
il Teorema della dimensione si ha dim ImT = rg(MC,B (T )).
Per la seconda parte osserviamo che
Ker LMC,B (T ) = Sol(MC,B (T )|0),
quindi FB (Ker T ) = Ker LMC,B (T ) .
Sia w ∈ W . w ∈ Im T se e solamente se esiste v ∈ V tale che T (v) = w.
Quindi se e solamente se [T (v)]C = [w]C . Poiché
[T (v)]C = MC,B (T )[v]B ,
si ha w ∈ Im T se e solamente se [w]C ∈ Im LMC,B (T ) , ovvero FC (Im T ) =
Im LMC,B (T ) .
131
Applicando il risultato anteriore ed il Corollario 6.16 si ha il seguente
risultato.
Corollario 7.15. Sia T : V −→ W e siano B e C basi di V e W rispettivamente. Allora:
• T è iniettiva se e solamente se rg(MC,B (T )) = dim V ;
• T è suriettiva se e solamente se rg(MC,B (T )) = dim W ;
• T è biunivoca se e solamente se MC,B (T ) è invertibile.
0 1
Esempio 7.16. Sia A =
e sia Sia T : M2×2 (R) −→ M2×2 (R) cosı̀
1 1
definita:
T (X) = X − Tr(X)A.
L’applicazione T è lineare (verificare). Sia
0 0
0 0
0 1
1 0
,
,
,
,
B=
0 1
1 0
0 0
0 0
una base di M2×2 (R). Allora
0 1
0 1
1 −1
1 0
=
,T
=
T
0 0
0 0
−1 −1
0 0
0 −1
0 0
0 0
0 0
.
=
,T
=
T
−1 0
0 1
1 0
1 0
Poiché
a b
c d
=a
1 0
0 0
+b
0 1
0 0
si ha
+c
0 0
1 0
+d
0 0
0 1


a
 b 
a b

7→ 
 c ,
c d
d
FB : M2×2 (R) −→ R4
e quindi

1
 −1
MB,B (T ) = 
 −1
−1
0
1
0
0

0 0
0 −1 
.
1 −1 
0 0
Poiché rg(MB,B (T )) = 3, allora dim Im T = 3 e dim Ker T = 1
132
,
Esempio 7.17. Sia T : R3 −→ R3 l’applicazione lineare definita da:
   
   
   
1
1
0
1
1
1
T  0  =  0  , T  2  =  2  , T  1  =  1  .
1
2
1
4
1
3
Allora


1 1 1
MC,B (T ) =  0 2 1  ,
2 4 3
     
0
1 
 1





0 , 2 , 1 
è la matrice associata a T rispetto alle basi B =


1
1
1
in partenza e la base canonica C in arrivo. Poiché MC,B (T ) ha rango 2,
allora T non è iniettiva. Per calcolare il nucleo possiamo procedere come
segue. Poiché
T (X) = MC,B (T )[X]B ,
si ha X ∈ Ker T se e solamente se T (X) = MC,B (T )[X]B = 0. Quindi
Sol(MC,B (T )|0) descrive le coordinate dei vettori X ∈ R3 rispetto alla base
B tali che T (X) = 0. Applicando il metodo di Gauss e il metodo della
risoluzione all’indietro, si ha


1
Sol((MC,B (T )|0)) = L  1  .
−2
Quindi una base per il Ker T è dato dal vettore
 
 
  

1
0
1
−1
1 0  + 1 2  − 2 1  =  0 .
1
1
1
0
Un’altro metodo per calcolare il nucelo è ricavare
 
 
x
x
T  y  = MC,B (T )  y 
z
z

 B

1 1 1
−x − y + 2z

−x + z
=  0 2 1 
2 4 3
2x + y − 2z


z

,
y
=
y + 2z
133


1
da cui segue facilmente che Ker T = L  0 .
0
È possibile raffinare i risultati anteriori provando il seguente risultato.
Proposizione 7.18. Siano V e W spazi vettoriali su K e siano B = {v1 , . . . , vn }
e C = {w1 , . . . , wm } basi di V e W rispettivamente. L’applicazione
M : Lin(V, W ) −→ Mm×n (K),
T 7→ MC,B (T ),
è un isomorfismo di spazi vettoriali. In particolare dim Lin(V, W ) = dim V dim W =
mn.
Facoltativa. Dimostriamo che M è lineare. Siano T, L ∈ Lin(V, W ). La
matrice MC,B (T ), rispettivamente MC,B (L), è l’unica matrice di formato
m × n tale che
[T (v)]C = MC,B (T )[v]B ,
rispettivamente
[L(v)]C = MC,B (L)[v]B ,
per ogni v ∈ V . Quindi
[(T + L)(v)]C = [T (v)]C + [L(v)]C = MC,B (T )[v]B + MC,B (L)[v]B
= (MC,B (T ) + MC,B (L))[v]B ,
ovvero M(T + L) = M(T ) + M(L). Analogamente vale M(λT ) = λM(T ).
La suriettività può essere dimostrata come segue. Sia A ∈ Mm×n (K) e sia
T : V −→ W l’unica applicazione lineare definita da
T (v1 ) =
m
X
ai1 wi , . . . , T (vn ) =
i=1
m
X
ain wi .
i=1
Quindi
la i-esima colonna della matrice MC,B (T ) è, per definizione, [T (vi )]C =


a1i
 .. 
 . , per i = 1, . . . , n, ovvero la i-esima colonna della matrice A, da cui
ami
segue che MC,B (T ) = A, dimostrando che M è suriettiva.
Poiché T = 0 se e solamente se T (v) = 0 per ogni v ∈ V , quindi se e
solamente se
[T (v)]C = MC,B (T )[v]B = 0
per ogni v ∈ V . Quindi se e solamente se MC,B (T ) = 0.
134
Come nel caso di Lin(Kn , Km ), la corrispondenza biunivoca sopra definita verifica altre proprietà.
Proposizione 7.19. Siano L, T : V −→ W , H : W −→ Z e G : N −→ V .
Siano B una base di V , C una base di W , H una base di Z ed infine X una
base di N . Allora:
a) MC,X (T ◦ G) = MC,B (T )MB,X (G);
b) MH,B (H ◦ (L + T )) = MH,C (H)(MC,B (L) + MC,B (T ));
c) MC,X ((L + T ) ◦ G) = (MC,B (L) + MC,B (T ))MB,X (G);
d) sia IdV : V −→ V . Allora MB,B (IdV ) = Iddim V ;
e) se T : V −→ W è invertibile, allora MB,C (T −1 ) = MC,B (T )−1 .
Facoltativa. Dimostriamo solo il punto a). Sia n ∈ N . Allora
[T (G(n))]C = MC,B (T )[G(n)]B
= MC,B (T )MB,X (G)[n]X
da cui segue
MC,X (T ◦ G) = MC,B (T )MB,X (G).
7.20
Matrice del cambiamento di base
Sia V uno spazio vettoriale su K. Se B = {v1 , . . . , vn } è una base di V ,
allora v = x1 v1 +· · ·+xn vn . Se C = {w1 , . . . , wn } è un altra base di V , allora
v = x01 w1 + · · · + x0n wn . Mi domando se esiste una relazione fra i vettori [v]B
e [v]C .
Poiché FB è un isomorfismo lineare si ha
[v]B = [x0 1 w1 + · · · + x0 n wn ]B = x01 [w1 ]B + · · · + x0n [wn ]B = M(B, C)[v]C ,
dove
M(B, C) = ([w1 ]B , . . . , [wn ]B ) ∈ Mn×n (K),
si chiama matrice del cambiamento di base da B a C. La matrice del cambiamento di base è l’unica matrice M(B, C) tale che per ogni v ∈ V , si
ha
[v]B = M(B, C)[v]C .
135
È facile verificare che M(B, C) = MB,C (IdV ) da cui segue che la matrice
del cambiamento di base è invertibile. Un altra maniera per provare cje
M(B, C) è invertibile è la seguente. Poiché w1 , . . . , wn formano una base di
V , anche i vettori [w1 ]B , . . . , [wn ]B formano una base di Kn . Quindi M(B, C)
è invertibile. Vediamo altre proprietà della matrice di cambiamento di base.
Proposizione 7.21. Siano B, C e D basi di V . Allora
• M(B, B) = Idn ;
• M(B, C)M(C, D) = M(B, D);
• M(B, C) è invertibile e la sua inversa (M(B, C))−1 = M(C, B).
Facoltativa. Sia B una base poiché [v1 ]B = e1 , . . . , [vn ]B = en , la matrice
M(B, B) = Idn .
Sia v ∈ V . Allora
[v]B = M(B, C)[v]C = M(B, C)M(C, D)[v]D
= M(B, D)[v]D .
Poiché vale per ogni v ∈ V , si ha M(B, D) = M(B, C)M(C, D). In particolare
M(B, C)M(C, B) = M(B, B) = Idn .
Esempio 7.22. Siano
     
     
1 
1
1 
0
 1
 1
B =  0  ,  2  ,  1  , B0 =  0  ,  1  ,  1 




1
0
0
1
1
1
basi di R3 . Allora

     
1
1
1
M(B, B 0 ) =  0   1   1   .
0 B 0 B 1 B
Poiché




x
1 0 1 x
 y  = Sol  0 2 1 y 
z B
1 1 1 z


−x − y + 2z
,
−x + z
=
2x + y − 2z
136
si ha


−1 −2 0
M(B, B 0 ) =  −1 −1 0  .
2
3 1
Analogamente
     
1
0
1
M(B 0 , B) =  0   2   1   .
1 B0 1 B0 1 B0

Poiché



x
1 1 1 x
 y  = Sol  0 1 1 y 
z B0
0 0 1 z


x−y
=  y − z ,
z

si ha


1 −2 0
M(B 0 , B) =  −1 1 0  .
1
1 1
     
1 
0
 1





0 , 2 , 1  una base di R3 e sia C
Esempio 7.23. Sia B =


1
1
1
la base canonica di R3 . Allora
       

1
0
1
1 0 1
M(C, B) =  0   2   1   =  0 2 1 
1 C 1 C 1 C
1 1 1
Invece, poiché




x
1 0 1 x
 y  = Sol  0 2 1 y 
z B
1 1 1 z


−x − y + 2z
,
−x + z
=
2x + y − 2z
137
si ha


−1 −1 2
1  = M(C, B)−1 .
M(B, C) =  −1 0
2
1 −2
Teorema 7.24. Sia T : V −→ W una applicazione lineare. Siano B, B 0 e
C e C 0 basi di V e W rispettivamente. Allora
MC 0 ,B0 (T ) = M(C 0 , C)MC,B (T )M(B, B 0 ).
Facoltativa. Sia v ∈ V . Allora
[T (v)]C 0 = M(C 0 , C)[T (v)]C
Adesso, [T (v)]C = MC,B (T )[v]B , e [v]B = M(B, B 0 )[v]B0 , da cui segue che
per ogni v ∈ V si ha
[T (v)]C 0 = M(C 0 , C)[T (v)]C
= M(C 0 , C)MC,B (T )M(B, B 0 ) [v]B0 .
Per definizione di matrice associata a T rispetto alle basi B 0 in partenza e
C 0 in arrivo, si ha
[T (v)]C 0 = MC 0 ,B0 (T )[v]B0
= M(C 0 , C)MC,B (T )M(B, B 0 ) [v]B0 .
per ogni v ∈ V . Quindi
MC 0 ,B0 (T ) = M(C 0 , C)MC,B (T )M(B, B 0 ),
concludendo la dimostrazione.
Corollario 7.25. Sia T : V −→ W una applicazione lineare. Siano B e B 0
basi di V , rispettivamente C e C 0 basi di W . Allora
MC 0 ,B (T ) = M(C 0 , C)MC,B (T ),
rispettivamente,
MC,B0 (T ) = MC,B (T )M(B, B 0 ).
Dimostrazione. Per il Teorema anteriore si ha
MC 0 ,B (T ) = M(C 0 , C)MC,B (T )M(B, B),
rispettivamente,
MC,B0 (T ) = M(C, C)MC,B (T )M(B, B 0 ).
Tenendo in mente che M(B, B) = Iddim V , rispettivamente M(C, C) = Iddim W ,
si ha la tesi.
138
Esempio 7.26. Sia T : R3 −→ R3 l’applicazione lineare definita da:
   
   
  

1
1
0
0
1
−2
T  0  =  1  , T  2  =  2  , T  1  =  0  .
1
0
1
1
1
1
Allora


1 0 −2
MC,B (T ) =  1 2 0  ,
0 1 1
     
0
1 
 1
è la matrice associata a T rispetto alle basi B =  0  ,  2  ,  1 


1
1
1
in partenza e la base canonica C in arrivo. Poiché
T (X) = MC,C (T )X,
calcolare T (X) è la stessa cosa che calcolare MC,C (T ). Applicando il corollario anteriore, si ha
MC,C (T ) = MC,B (T )M(B, C).
Nell’esempio 7.23 abbiamo calcolato


−1 −1 2
1 ,
M(B, C) =  −1 0
2
1 −2
da cui segue che



1 0 −2
−1 −1 2
1 
MC,C (T ) =  1 2 0   −1 0
0 1 1
2
1 −2


−5 −3 6

= −3 −1 4  ,
1
1 −1
quindi

 
  

x
−5 −3 6
x
−5x − 3y + 6z
T  y  =  −3 −1 4   y  =  −3x − y + 4z  .
z
1
1 −1
z
x+y−z
139
Esempio 7.27. Sia T : R3 −→ R3 l’applicazione lineare definita da:
  

  

  

1
1
1
1
1
−2
T  0  =  0  , T  1  =  1  , T  1  =  5  .
0
−1
0
−1
1
2
Allora

 
 
 
1
1
−2
MB,B (T ) =  0   1   5   .
−1 B −1 B
2
B
Poiché




x
x−y
 y  =  y − z ,
z B
z
si ha


1
0 −7
2
3 .
MB,B (T ) =  1
−1 −1 2
Applicando il Teorema 7.24, si ha
MC,C (T ) = M(C, B)MB,B (T )M(B, C).
Poiché


1 1 1
M(C, B) =  0 1 1  ,
0 0 1


1 −1 0
M(B, C) =  0 1 −1  ,
0 0
1
si ha




1 1 1
1
0 −7
1 −1 0
3   0 1 −1 
MC,C (T ) =  0 1 1   −1 2
0 0 1
1 −1 2
0 0
1


1 0 −3
=  0 1 4 .
−1 0 3
Quindi

 
  

x
1 0 −3
x
x − 3z
T  y  =  0 1 4   y  =  y + 4z  .
z
−1 0 3
z
−x + 3z
140
Corollario 7.28. Sia T : V −→ V una applicazione lineare. Siano B e C
basi di V . Allora
MC,C (T ) = (M(B, C))−1 MB,B (T )M(B, C),
Dimostrazione. Applicando il Teorema anteriore si ha
MC,C (T ) = M(C, B)MB,B (T )M(B, C).
Poiché M(C, B) = M(B, C)−1 , si ha la tesi.
Il risultato anteriore suggerisce la seguente definizione.
Definizione 7.29. Siano A, B ∈ Mn×n (K). Diremo che A e B sono simili
se esiste una matrice invertibile P ∈ Mn×n (K) tale che A = P −1 BP .
La relazione A ∼ B, se A e B sono matrici simili, è una relazione di
equivalenza, poiché A ∼ A; A ∼ B allora B ∼ A; infine se A ∼ B e
B ∼ C, allora A ∼ C. Se A ∼ B, allora Tr(A) = Tr(B), det A = det B e
rg(A) = rg(B). Tali condizioni sono necessarie ma non suffcienti (verificare).
Il corollario anteriore dimostra che se T : V −→ V è una applicazione
lineare, B e C basi di V , allora le matrici MC,C (T ) e MB,B (T ) sono matrici
simili. Viceversa, due matrici simili A e B simili sono matrici associate ad
una applicazione lineare T : V −→ V rispetto a due basi di V .
Infatti, siano A = (aij ) 1 ≤ i ≤ n e B = (bij ) 1 ≤ i ≤ n matrici simili.
1≤j ≤n
1≤j ≤n
Esiste P ∈ Mn×n (K) invertibile tale che A = P −1 BP. Sia B = {v1 , . . . , vn }
una
Pn base di V . Sia T : V −→ V l’unico endomorfimo che verifica T (vi ) =
m=1 ami vm , per i = 1, . . . , n. Vogliamo dimostrare che MB,B (T
 ) = A.

a1i


Infatti la k−esima colonna di MB,B (T ) è per definizione [T (vi )]B =  ... ,
ani
(T )k = Ak . Quindi M
ovvero MB,B
(T ) = A.
B,BP
Sia C = {w1 , . . . , wn } dove wi = nm=1 pmi vm , i = 1, . . . , n, per i =
1, . . . , n. L’insieme C = {w1 , . . . , wn } è una base di V poiché la matrice
([w1 ]B , . . . , [wn ]B ) = P,
è inveritibile. Inoltre M(B, C) = P . Applicando il teorema anteriore otteniamo che
MC,C (T ) = M(C, B)MB,B (T )M(B, C) = P −1 AP = B.
141
Capitolo 8
Struttura Metrica
8.1
Prodotto scalare canonica di Rn




x1
y1




Dati X, Y ∈ Rn con X =  ...  e Y =  ... , definiamo lo scalare:
xn
yn
hX, Y i = x1 y1 + · · · + xn yn = X T Y.
hX, Y i è detto prodotto scalare standard oppure prodotto scalare canonico.
Il prodotto scalare canonico è una applicazione
Rn × Rn −→ R
(X, Y ) 7→ hX, Y i.
che gode delle seguenti proprietà.
Proposizione 8.2. Se X, Y, Z ∈ Rn e λ ∈ R, allora
a) hX, Xi ≥ 0 con uguaglianza se e solamente se X = 0Rn (definito
positivo);
b) hX, Y i = hY, Xi (simmetrico);
c) hX + Y, Zi = hX, Zi + hY, Zi;
d) hλX, Zi = λhX, Zi;
e) hZ, X + Y i = hZ, Xi + hZ, Y i;
f ) hZ, λXi = λhZ, Xi.
142
Dimostrazione. Verifichiamo solamente la prima proprietà. Le altre sono
conseguenza delle proprietà del prodotto di matrici.
hX, Xi = x21 + · · · + x2n ≥ 0. Inoltre hX, Xi = 0 se e solamente se
X = 0Rn .
Sia Xpun vettore. Chiameremo norma o lunghezza di X il numero reale
k X k= hX, Xi. Dunque se X 6= 0Rn , allora k X k> 0. La distanza fra
due vettori X, Y è definita come il numero non negativo k X − Y k. Quindi
la lunghezza di un vettore è la distanza dall’origine 0.
Siano v, w ∈ Rn , w 6= 0. Diremo proiezione ortogonale di v su w è il
vettore
hv, wi
prw (v) =
w.
k w k2
Proposizione 8.3. (Disuguaglianza di Cauchy-Schwartz) Siano X, Y ∈ Rn .
Allora
|hX, Y i| ≤k X kk Y k,
e l’uguaglianza vale se e solamente se X e Y sono linearmente dipendenti.
Facoltativa. Se Y = 0Rn , la disuguaglianza è vera. Supponiamo che Y 6=
0Rn . Allora per ogni t ∈ R si ha
0 ≤ hX + tY, X + tY i = hX, X + tY i + htY, X + tY i
|
{z
} |
{z
}
= hX, Xi + hX, tY i + htY, Xi + htY, tY i
|
{z
} |
{z
}
= hX, Xi + thX, Y i + thY, Xi + t2 hY, Y i
= hX, Xi + 2hX, Y it + hY, Y it2 .
L’equazione anteriore definisce una parabola il cui disciminante
0 ≥ ∆ = b2 − 4ac = 4hX, Y i2 − 4hX, XihY, Y i,
è non positivo. Quindi
|hX, Y i| ≤k X kk Y k .
Se |hX, Y i| =k X kk Y k, allora ∆ = 0. Quindi esiste to ∈ R tale che 0 =
hX +to Y, X +to Y i. Per le proprietà del prodotto scalare si ha X +to Y = 0Rn ,
ovvero X e Y sono linearmente dipendenti.
Definizione 8.4. Siano X, Y due vettori non nulli. Definiamo l’angolo fra
X e Y come l’unico valore θ ∈ [0, π] tale che
cos θ =
hX, Y i
.
k X kk Y k
143
Proposizione 8.5. Siano X, Y ∈ Rn vettori non nulli. L’angolo fra X e Y è
acuto, rispettivamente ottuso, se e solamente se hX, Y i > 0. rispettivamente
hX, Y i < 0.
Definizione 8.6. Diremo che due vettori X, Y sono ortogonali se il loro
prodotto scalare è nullo.
Teorema 8.7. Siano X, Y ∈ Rn . Allora k X k2 + k Y k2 =k X + Y k2 se e
solamente se X, Y sono ortogonali.
Dimostrazione. Siano X, Y ∈ Rn . Utilizzando le proprietà del prodotto
scalare si ha
k X + Y k2 = hX + Y, X + Y i = hX, Xi + 2hX, Y i + hY, Y i,
dalla quale segue la tesi.
Proposizione 8.8. Siano v1 , . . . , vk ∈ Rn non nulli e ortogonali a due a
due. Allora v1 , . . . , vk sono linearmente indipendenti.
Dimostrazione. Sia α1 v1 + · · · + αk vk = 0Rn una combinazione lineare dei
vettori v1 , . . . , vk a coefficienti α1 , . . . , αk uguale al vettore nullo. Fissiamo
1 ≤ j ≤ k. Allora
0 = h0Rn , vj i
= hα1 v1 + · · · + αk vk , vj i
= α1 hv1 , vj i + · · · + αk hvk , vj i
= αj hvj , vj i (essendo v1 , . . . , vk ortogonali a due a due)
Poiché vj 6= 0Rn , hvj , vj i > 0 da cui segue αj = 0. Questo vale per j =
1, . . . , k, per cui i vettori v1 , . . . , vk sono linearmente indipendenti.
Definizione 8.9. Una base B = {v1 , . . . , vn } si dice ortogonale se i vettori
v1 , . . . , vn sono a due a due ortogonali. Diremo che B = {v1 , . . . , vn } è una
base ortonormale se B = {v1 , . . . , vn } è una base ortogonale e i vettori hanno
norma unitaria.
È facile vericare che la base canonica è una base ortonormale di Rn . Le
coordinate di un vettore rispetto alla base canonica sono molto semplici da
determinare. Infatti


x1


X =  ...  = x1 e1 + · · · + xn en .
xn
144
Poiché xi = hX, ei i per i = 1, . . . , n, si ha


x1


X =  ...  = hX, e1 ie1 + · · · + hX, en ien .
xn
Il prossimo risultato mostra che la formula precedente vale per ogni base
ortonormale.
Proposizione 8.10. Sia B = {v1 , . . . , vn } una base ortogonale di Rn . Sia
v ∈ Rn . Allora
hv, v1 i
hv, vn i
v=
v1 + · · · +
vn .
hv1 , v1 i
hvn , vn i
In particolare se B = {v1 , . . . , vn } è un base ortonormale, allora:


hv, v1 i


..
• v = hv, v1 iv1 + · · · + hv, vn ivn , ovvero [v]B = 
;
.
hv, vn i
p
• k v k= hv, v1 i2 + · · · + hv, vn i2 .
• hv, wi = [v]TB [w]B .
Facoltativa. Sia v = x1 v1 + · · · + xn vn e sia 1 ≤ j ≤ n. Allora
hv, vj i = h
n
X
xm vm , vj i =
m=1
n
X
xm hvm , vj i = xj hvj , vj i.
m=1
Poiché vj 6= 0Rn si ha
xj =
hv, vj i
,
hvj , vj i
da cui segue la tesi.
Sia B = {v1 , . . . , vn } una base ortonormale. Applicando il risultato
anteriore si ha v = hv, v1 iv1 + · · · + hv, vn ivn .
Siano v, w ∈ V e sia B = {v1 , . . . , vn } una base ortonormale. Allora
hv, wi = h
=
n
X
hv, vm ivm ,
m=1
n
X
n
X
hw, vl ivl i
l=1
hv, vm ihw, vl ihvm , vl i.
m,l=1
145
Adesso, tenendo in mente che hvm , vl i = 0 se m 6= l e 1 se l = m si ha
hv, wi =
n
X
hv, vm ihw, vm i = [v]TB [w]B .
m=1
Pn
2
In
m=1 hv, vm i e quindi k v k=
p particolare, se v = w, allora hv, vi =
hv, v1 i2 + · · · + hv, vn i2 .
  




0
0

 1
1   √1 

√
Esempio 8.11. Sia B =  0  ,  2   2  una base ortonormale


−1

 0
√1
√
2
2
di R3 . Allora






 
0
0
x
1
+ z  √1  y − z  √1 
 y  = x  0  + y√
 2  + √  2 ,
2
2
−1
√1
√
z
0
2
2
ovvero



x
x
y+z 
 y  =
 √2  .
y−z
√
z B

2
Il prossimo risultato fornisce un algoritmo per costruire basi ortogonali,
e ortonormali, di sottospazi vettoriali di Rn .
Proposizione 8.12 (Procedimento di ortogonalizzazione di Gram-Schmidt).
Siano v1 , . . . , vk ∈ Rn vettori linearmente indipendenti. I vettori

w1 = v 1



hv2 ,w1 i


w2 = v2 − hw
w1


1 ,w1 i

hv3 ,w1 i
hv3 ,w2 i
w3 = v3 − hw1 ,w1 i w1 − hw
w2
2 ,w2 i

 ..


.



 wk = vk − Pk−1 hvk ,wj i wj
j=1 hwj ,wj i
sono non nulli, a due a due ortogonali, quindi linearmente indipendenti, e
verificano L(w1 , . . . , wj ) = L(v1 , . . . , vj ) per j = 1, . . . , k.
Facoltativa. Dimostreremo il risultato per induzione su k.
Se k = 1 non c’è niente da dimostrare. Supponiamo vero per k−1 e dimostriamolo per k. I vettori v1 , . . . , vk−1 sono linearemente indipendenti. Per
ipotesi induttiva i vettori w1 , . . . , wk−1 sono non nulli, a due a due ortogonali
146
e per ogni 1 ≤ j ≤ k − 1, si ha L(v1 , . . . , vj ) = L(w1 , . . . , wj ). Dobbiamo
dimostrare che wk è non nullo, ortogonale a w1 , . . . , wk−1 e L(v1 , . . . , vk ) =
L(w1 , . . . , wk ). Se wk = 0Rn allora
vk =
k−1
X
hwj , vk i
i=1
hwj , wj i
wj .
Poiché L(w1 , . . . , wk−1 ) = L(v1 , . . . , vk−1 ), i vettori v1 , . . . , vk sarebbero linearmente dipendenti. Quindi wk 6= 0Rn . Adesso, dimostriamo che i vettori
w1 , . . . , wk sono ortogonali. Poiché i vettori w1 , . . . , wk−1 sono a due a due
ortogonali, è sufficiente dimostrare che
hwk , ws i = 0,
per s = 1, . . . , k − 1. Infatti
hwk , ws i = hvk −
k−1
X
hvk , wj i
j=1
hwj , wj i
wj , ws i
k−1
X
hvk , wj i
= hvk , ws i −
wj , ws
hwj , wj i
j=1
= hvk , ws i −
k−1
X
j=1
hvk , wj i
hwj , ws i
hwj , wj i
hvk , ws i
hws , ws i
hws , ws i
= hvk , ws i − hvk , ws i
= hvk , ws i −
= 0.
Poiché i vettori w1 , . . . , wk sono a due a due ortogonali, sono linearmente
indipendenti. Dimostriamo che L(v1 , . . . , vk ) = L(w1 , . . . , wk ). Per ipotesi
induttiva w1 , . . . , wk−1 ∈ L(v1 , . . . , vk−1 ) ⊆ L(v1 , . . . , vk ). Inoltre
wk = v k −
k−1
X
hvk , wj i
j=1
hwj , wj i
wj ∈ L(w1 , . . . , wk−1 , vk ) = L(v1 , . . . , vk ).
da cui segue che i vettori w1 , . . . , wk ∈ L(v1 , . . . , vk ). Quindi L(w1 , . . . , wk ) ⊆
L(v1 , . . . , vk ). Poiché dim L(w1 , . . . , wk ) = dim L(v1 , . . . , vk ) = k si ha
L(w1 , . . . , wk ) = L(v1 , . . . , vk )
147


 


1
1
1
Esempio 8.13. Siano v1 =  0  , v2 =  1  , v3 =  −1  ∈ R3 . Allora
1
2
−3
 
1

w1 = 0  ,
1
   1 
 
1
−
1
3   2 


0 =
1
w2 = 1 −
,
2
1
1
2
2

  
 1  

1
1
−2
1
w3 =  −1  +  0  + 2  1  =  1 
1
−3
1
−1
2
Corollario 8.14. Esistono basi ortonormali differenti dalla base canonica.
Dimostrazione. Sia {v1 , . . . , vn } una base di Rn . Applicando il procedimento
di ortogonalizzazione di Gram-Schimdt ottengo una base C = {w1 , . . . , wn }
ortogonale. Dividendo ciascun vettore per la sua norma, i.e.,
w1
wn
,...,
k w1 k
k wn k
ottengo una base ortonormale.
Corollario 8.15. Siano v1 , . . . , vk ∈ Rn vettori non nulli e a due a due
ortogonali. Allora è possibile completare v1 , . . . , vk a base ortogonale di Rn .
Dimostrazione. Applicando il teorema di completamento a base è possibile completare i vettori v1 , . . . , vk a una base di Rn , che indicheremo con
v1 , . . . , vk , vk+1 , . . . , vn . Applicando il procedimento di Gram-Schimdt alla
base {v1 , . . . , vn } troviamo una base ortogonale di Rn i cui primi k vettori
sono v1 , . . . , vk (perché?).
  

1
2
Esempio 8.16. Siano  1  ,  0  ∈ R3 . Possiamo completarli a base
2
−1
 
0
aggiungendo  0 . Quindi
1
  
  
2
0 
 1
 1 , 0 , 0 


2
−1
1
148
è una base di R3 . Applicando il procedimento di Gram-Scmidt, si ottiene la
base ortogonale
  
 

2
1/15 
 1
 1  ,  0  ,  −1/3  ,


2
−1
2/15
di R3 .
Vediamo infine un legame fra matrici ortogonali e basi ortonormali.
Proposizione 8.17. Sia A = (A1 , . . . , An ) ∈ Mn×n (R). A è una matrice
ortogonale se e solamente se A1 , . . . , An formano una base ortonormale.
Dimostrazione. La matrice A è ortogonale se e solamente se AAT = AT A =
Idn . Ricordiamo che se AT A = Idn , rispettivamente AAT = Idn , allora
AAT = Idn , rispettivamente AT A = Idn .
Sia A = (aij ) 1 ≤ i ≤ n e sia AT = (aT ij ) 1 ≤ i ≤ n . Infine, sia C = AT A =
1≤j ≤n
1≤j ≤n
(cij ) 1 ≤ i ≤ n . Tenendo in mente che aTij = aji , si ha
1≤j ≤n
cij =
n
X
m=1
aTim amj =
n
X
ami amj = hAi , Aj i.
m=1
Quindi, la matrice A è ortogonale se e solamente se C = Idn , ovvero se e
i
j i = 0 se i 6= j e hAi , Ai i = 1, quindi se e solamente se i
solamente
1se hA , A
vettori A , . . . , An formano una base ortonormale.
8.18
Sottospazio Ortogonale
Sia W ⊆ Rn . Porremo
W ⊥ := {X ∈ Rn : hX, si = 0 ∀s ∈ W },
ovvero l’insieme dei vettori di Rn che sono ortogonali a ogni elemento di S.
Proposizione 8.19. Se W ⊆ Rn , allora W ⊥ è un sottospazio vettoriale di
Rn .
Dimostrazione. Dobbiamo dimostrare che W ⊥ è chiuso rispetto alla somma
e la moltiplicazione per scalare.
Siano u, v ∈ W ⊥ . Vogliamo dimostrare che u + v ∈ W ⊥ , ovvero che per
ogni s ∈ W , si ha
hu + v, si = 0.
149
Poiché hu, si = hv, si = 0, si ha
hu + v, si = hu, si + hv, si = 0.
Analogamente, si dimostra che W ⊥ è chiuso rispetto alla moltiplicazione per
scalare. Infatti, sia v ∈ W ⊥ e sia λ ∈ R. Se s ∈ W , si ha
hλv, si = λhv, si = 0,
ovvero λv ∈ W ⊥ .
Proposizione 8.20. Sia W = L(v1 , . . . , vk ) un sottospazio vettoriale di Rn .
Allora
W ⊥ = {v ∈ Rn : hv, v1 i = · · · = hv, vk i = 0}.
Dimostrazione. Sia W = L(v1 , . . . , vk ) e sia
U = {v ∈ Rn : hv, v1 i = · · · = hv, vk i = 0}.
Ricordiamo che W ⊥ = {X ∈ Rn : hX, si = 0, ∀s ∈ W }. Vogliamo dimostrare che W ⊥ = U .
L’inclusione W ⊥ ⊆ U è immediata poiché se v ∈ W ⊥ , allora v è ortogonale ai vettori v1 , . . . , vk ∈ W e quindi v ∈ U .
Sia u ∈ U . Vogliamo dimostrare che u ∈ W ⊥ , ovvero che
hu, si = 0, ∀s ∈ W.
Poiché s ∈ W = L(v1 , . . . , vk ), esistono α1 , . . . , αk ∈ R tali che
s = α1 v1 + · · · + αk vk .
Quindi
hu, si = hw, α1 v1 + · · · + αk vk i
= α1 hu, v1 i + · · · + αk hu, vk i
= 0 (essendo u ∈ U )
da cui segue che u ∈ W ⊥ , ovvero U ⊆ W ⊥ concludendo la dimostrazione
150

 

1
−1
 0   2 
4
  

Esempio 8.21. Sia dato W = L 
 1  ,  1  sottospazio di R .
1
3
Allora



x1







x
2 
⊥
4

W = 
∈
R
:
x
+
x
+
x
=
0,
−x
+
2x
+
x
+
3x
=
0
1
3
4
1
2
3
4
x3 






x4

 

1
1
 1   2 

 

= L
 −1  ,  0 
−1
0
Sia W ⊆ Rn un sottospazio vettoriale.
Proposizione 8.22. Rn è in somma diretta di W e W ⊥ .
Dimostrazione. Daremo due dimostrazioni differenti.
Sia u ∈ W ∩ W ⊥ . Allora hu, ui = 0 da cui segue u = 0Rn . Quindi
W ∩ W ⊥ = {0Rn }.
Sia B = {v1 , . . . , vk } una base di W e sia A = (v1 , . . . , vk ) ∈ Mn×k (R).
Osserviamo che dim W = rg(A) = k. Applicando la Proposizione anteriore,
si ha
W ⊥ = {X ∈ Rn : hX, v1 i = · · · = hX, vk i = 0},
ovvero W ⊥ = Sol(AT |0Rk ). Applicando il Corollario 7.3 si ha dim W ⊥ =
n − rg(AT ) = n − rg(A) = n − dim W . Quindi
dim(W + W ⊥ ) = dim W + dim W ⊥ = n.
Applicando il Corollario 5.32 si ha che Rn è in somma diretta di W e W ⊥ .
Un’altra dimostrazione è la seguente.
Sia {v1 , . . . , vk } una base di W . Per il Teorema di completamente a
base, possiamo completarla a base B = {v1 , . . . , vn } di Rn . Applicando il
procedimento di Gram-Schimdt alla base B = {v1 , . . . , vn }, ottengo una base
ortogonale di Rn che indicheremo con C = {w1 , . . . , wn }. Poiché
L(v1 , . . . , vk ) = L(w1 , . . . , wk ),
i vettori w1 , . . . , wk formano una base ortogonale di W (Perché?). Inoltre, i
vettori wk+1 , . . . , wn sono non nulli, a due a due ortogonali, e sono ortogonali
151
ad una base di W . Applicando la Proposizione 8.20 si ha wk+1 , . . . , wn ∈
W ⊥ . Affermiamo che i vettori wk+1 , . . . , wn formano una base ortogonale
di W ⊥ . Poiché sono linearmente indipendenti, è sufficiente dimostrare che
formano un sistema di generatori di W ⊥ .
Sia z ∈ W ⊥ . Poiché C = {w1 , . . . , wn } è una base ortogonale di Rn , si
ha
hz, w1 i
hz, wn i
z=
w1 + · · · +
wn .
hw1 , w1 i
hwn , wn i
Poiché z ∈ W ⊥ e W = L(w1 , . . . , wk ), si ha
hz, vj i
= 0, per j = 1, . . . , k,
hvj , vj i
ovvero
z=
hz, wk+1 i
hz, wn i
wk+1 + · · · +
wn ∈ L(vk+1 , . . . , vn ).
hwk+1 , wk+1 i
hwn , wn i
Quindi W ⊥ = L(vw+1 , . . . , wn ), In particolare, dim W ⊥ = n − k = n −
dim W , ovvero dim W + dim W ⊥ = n. Inoltre
W + W ⊥ = L(w1 , . . . , wn ) = Rn .
Riassumendo, abbiamo provato che
n = dim(W + W ⊥ ) = dim W + dim W ⊥ .
Applicando il Corollario 5.32 si ha Rn è in somma diretta di W e W ⊥ .

  
−1
1
Esempio 8.23. Sia dato W = L  0  ,  2  sottospazio di R3 .
1
1
Poiché dim W = 2, dim W ⊥ = 1. Inoltre,
 



1
 x

W ⊥ =  y  ∈ R3 : x + z = 0, −x + 2y + z = 0 = L  1 


z
−1

 
  
1
1
2
 1   0   1 
  
  
Esempio 8.24. Sia dato W = L 
 0  ,  1  ,  1  sottospazio di
−1
0
1
4
R . La dimensione di W è due (verificare!) e equazioni cartesiane per il
152
sottospazio W ⊥ sono:

 x1 + x2 + x4 = 0
⊥
x1 + x3 − x4 = 0
W =

2x1 + x2 + x3 = 0
Applicando il metodo di Gauss ed il metodo della risoluzione all’indietro si
ha

 

0
1
 −1   1 
 


W⊥ = L
 −1  ,  −1 
−1
0
8.25
Proiezione Ortogonale
Definizione 8.26. Sia W un sottospazio vettoriale dello spazio vettoriale
Rn . Sia C = {w1 , . . . , wk } una base ortonormale di W . Si dice proiezione
ortogonale di Rn su W l’applicazione lineare PW : Rn −→ Rn cosı̀ definita:
PW (v) = hv, w1 iw1 + · · · + hv, wk iwk .
Esempio 8.27. Sia W = L(w), w 6= 0Rn . Una base ortonormale di W è il
w
vettore
. La proiezione ortogonale di Rn su W è l’applicazione
kwk
PW : Rn −→ Rn ,
v 7→ hv,
w
w
hv, wi
i
=
w = prw (v).
kwk kwk
hw, wi
Proposizione 8.28. Sia PW : Rn −→ Rn la proiezione ortogonale di Rn su
W . Allora Ker PW = W ⊥ e Im PW = W .
Dimostrazione. Un vettore v ∈ Ker PW se e solamente se PW (v) = 0Rn ,
ovvero se e solamente se
PW (v) = hv, w1 iw1 + · · · + hv, wk iwk = 0Rn .
Poiché i vettori w1 , . . . , wk ∈ Rn sono linearmente indipendenti, si ha che
v ∈ Ker PW se e solamente se hv, w1 i = · · · = hv, wk i = 0. Applicando la
Proposizione 8.20, si ha che v ∈ Ker PW se e solamente se v ∈ W ⊥ .
L’immagine di PW è contenuta in W (perché?). Poiché dim Im PW =
n − dim W ⊥ = dim W si ha Im PW = W .
Il prossimo risultato garantisce che PW (v) non dipende dalla base ortonormale scelta di W .
153
Proposizione 8.29. Sia v ∈ Rn . Allora esiste un unico w ∈ W tale che
v − w ∈ W ⊥ . Inoltre, se C = {w1 , . . . , wk } è una base ortonormale di W ,
allora u = PW (v) = hv, w1 iw1 + · · · + hv, wk iwk .
Facoltativa. Sia C = {w1 , . . . , wk } una base ortonormale di W e sia w ∈ W .
Possiamo scrivere w = α1 w1 + · · · + αk wk . Il vettore v − w ∈ W ⊥ se
e solamente se hv − w, wj i = 0 per ogni j = 1, . . . , k, se e solamente se
αj = hv, wj i. Quindi w = hv, w1 iw1 + · · · + hv, wk i da cui segue l’esistenza e
l’unicità.
     
1
2
2
 1   0   1 
     
Esempio 8.30. Sia dato W = L 
 1  ,  1  ,  2  un sottospazio
0
1
1
di R4 . Vogliamo calcolare la proiezione ortogonale su W . Per definizione di
proiezione ortogonale, bisogna calcolare una base ortonornale di W . Poiché
la matrice


1 2 2
 1 0 1 


 1 1 2 ,
0 1 1
ha rango 2 (verificare!) la dimensione di W è 2 ed una base di W è formata
da
   
2
1
 1   0 
 , .
 1   1 
1
0
Applicando il procedimento di Gram-schimdt e poi dividendo ciascun vettore
per la sua norma ottengo una base ortonormale cosı̀ fatta:
√ 
 √  
1/√3
1/ √3
 1/ 3   −1/ 3 
 √ ,
.
 1/ 3  
0√ 
0
1/ 3
154
Quindi


  √   √ 

1/√3
1/√3
x1
x1
 x2 
 x2   1/ 3   1/ 3 


  √   √ 

PW 
 x3  = h x3  ,  1/ 3 i  1/ 3 
x4
x4
0
0
√  
√ 

 
1/ √3
1/ √3
x1
 x2   −1/ 3   −1/ 3 
 
i 

+ h
 x3  , 
0√  
0√ 
x4
1/ 3
1/ 3
√ 
 √ 

1/√3
1/ √3


(x1 + x2 + x3 ) 
x2 + x4 ) 
 1/ 3  + (x1 − √
 −1/ 3 
√
=



0√
0√ 
3
3
1/ 3
1/ 3


2x1 + x3 + x4 /3
 2x2 + x3 − x4 /3 

=
 x1 + x2 + x3 /3 
x1 − x2 + x4 /3
8.31
Prodotto Hermitiano canonico di Cn




z1
w1




Dati Z =  ...  e W =  ...  in Cn definiamo il prodotto Hermitiano
zn
wn
canonico:
hZ, W i = z1 w1 + · · · + zn wn = Z T W .
Il prodotto Hermitiano canonica è una applicazione
Cn × Cn −→ C
(Z, W ) 7→ hZ, W i
che soddisfa alle seguenti proprietà:
Proposizione 8.32. Siano Z, W, U ∈ Cn e λ ∈ C. Allora
a) hZ, W i = hW, Zi.
b) hZ, Zi ≥ 0 e l’uguaglianza vale se e solamente se Z = 0Cn ;
c) hZ + W, U i = hZ, U i + hW, U i;
d) hU, Z + W i = hU, Zi + hU, W i;
155
e) hλZ, W i = λhZ, W i;
f ) hZ, λW i = λhZ, W i.
Dimostrazione. Esercizio.
Sia Xp
un vettore. Chiameremo norma o lunghezza di X il numero reale
k X k= hX, Xi. Dunque se X 6= 0Cn , allora k X k> 0. Chiamaremo
distanza fra due vettori X, Y il numero non negativo k X − Y k. Quindi la
lunghezza di un vettore è la distanza dall’origine 0. Inoltre vale la seguente
disuguaglianza.
Teorema 8.33 (Disuguaglianza di Cauchy-Schwartz).
|hZ, W i| ≤k Z kk W k,
p
dove k Z k:= hZ, Zi, e l’uguaglianza vale se e solamente se Z e W sono
linearemente dipendenti.
Facoltativa. Siano α, β ∈ C. Se Z = 0Cn , allora la disuguaglianza è banalmente verificata. Supponiamo che Z 6= 0Cn . Allora
0 ≤ hαZ + βW, αZ + βW i
≤ |α|2 hZ, Zi + |β|2 hW, W i + αβhZ, W i + αβhW, Zi
.
Se poniamo α = −hW, Zi e β = hZ, Zi, otteniamo
|hZ, W i|2 hZ, Zi + |hZ, Zi|2 hW, W i − 2hZ, Zi|hZ, W i|2 ≥ 0,
ovvero, dividendo per hZ, Zi, si ha
|hZ, W i|2 ≤ hZ, ZihW, W i.
Se |hZ, W i|2 = hZ, ZihW, W i, allora se poniamo α = −hW, Zi e β = hZ, Zi,
si ha hαZ + βW, αZ + βW i = 0 da cui segue αZ + βW = 0Cn .
Definizione 8.34. Siano X, Y ∈ Cn . Diremo che X e Y sono vettori
ortogonali se hX, Y i = 0.
Come per il prodotto scalare standard, possiamo dimostrare il seguente
risultato.
Proposizione 8.35. Siano v1 , . . . , vk ∈ Cn non nulli e ortogonali a due a
due. Allora v1 , . . . , vk sono linearmente indipendenti.
156
Una base B = {v1 , . . . , vn } si dice ortogonale, rispettivamente ortonormale, se i vettori v1 , . . . , vn sono a due a due ortogonali, rispettivamente se
i vettori sono a due a due ortogonali ed hanno norma unitaria. L’esistenza
di basi ortogonali è conseguenza del seguente risultato.
Proposizione 8.36 (Procedimento di ortogonalizzazione di Gram-Schmidt).
Siano v1 , . . . , vk ∈ V vettori linearmente indipendenti. I vettori

w1 = v 1



hv2 ,w1 i


w2 = v2 − hw
w1


1 ,w1 i

hv3 ,w1 i
hv3 ,w2 i
w3 = v3 − hw1 ,w1 i w1 − hw
w2
2 ,w2 i

.


..




 wk = vk − Pk−1 hvk ,wj i wj
j=1 hwj ,wj i
sono non nulli, a due a due ortogonali, quindi linearmente indipendenti, e
verificano L(w1 , . . . , wj ) = L(v1 , . . . , vj ) per j = 1, . . . , k.
Proposizione 8.37. Sia A = (A1 , . . . , An ) ∈ Mn×n (C). La matrice A è
unitaria se e solamente se {A1 , . . . , An } è una base ortonormale.
Sia S ⊂ Cn . Definiamo
S ⊥ := {X ∈ Cn : hX, si = 0 ∀s ∈ S}.
Proposizione 8.38. S ⊥ è un sottospazio vettoriale di Cn . Se S = L(v1 , . . . , vk ),
allora
S ⊥ = {v ∈ Cn : hv, v1 i = · · · = hv, vk i = 0}
157
Capitolo 9
Endomorfismi
Diagonalizzabili e Teorema
spettrale
9.1
Autovalori e autovettori
Sia V uno spazio vettoriale su K.
Definizione 9.2. Un endomorfismo, o operatore, di V è una applicazione
lineare T : V −→ V , ovvero una applicazione lineare di V in se stesso.
Definizione 9.3. Sia T : V −→ V un endomorfismo. Diremo che un
vettore v ∈ V non nullo è un autovettore di T se T (v) = λv per un certo
λ ∈ K. Un autovalore di T è uno scalare λ ∈ K tale che esiste un vettore
non nullo v ∈ V tale che T (v) = λv.
Se v ∈ V è un vettore non nullo tale che T (v) = λv, allora diremo che v
è un autovettore di T relativo, o corrispondente, all’autovalore λ. L’insieme
degli autovalori di T si chiama lo spettro di T . Dato λ ∈ K definiamo
Vλ = {v ∈ V : T (v) = λv} = {v ∈ V : (T − λIdV )(v) = 0V }.
Poiché Vλ = Ker (T −λIdV ), Vλ è un sottospazio vettoriale di V . Osserviamo
che V0 = Ker T . Dalla definizione di autovalore segue che Vλ 6= {0V } se e
solamente se λ è un autovalore. In tal caso
Vλ = v ∈ V : v è un autovettore di T relativo a λ ∪ {0V }.
che chiameremo autospazio relativo a λ.
158
Proposizione 9.4. Sia T : V −→ V un endomorfismo. Uno scalare λ ∈ K è
un autovalore di T se e solamente se T −λIdV non è iniettivo. In particolare
T è iniettiva, e quindi biunivoca, se e solamente se 0 non è un autovalore
di T
Dimostrazione. λ ∈ K è una autovalore se e solamente se Vλ 6= {0V }. Poiché
Vλ = Ker (T − λIdV ), e T − λIdV è un operatore, applicando il Corollario
6.16 si ha che λ ∈ K è un autovalore se e solamente se T − λIdV non è
iniettivo e quindi non è biunivoca.
Definizione 9.5. Sia T : V −→ V un endomorfismo. Diremo che T è
diagonalizzabile se esiste una base di V formata da autovettori di T .
Sia T : V −→ V un endomorfismo di V diagonalizzabile. Esiste una
base B = {v1 , . . . , vn } di V formata da autovettori di T , ovvero T (v1 ) =
λ1 v1 , . . . , T (vn ) = λn vn . Ricordiamo che se {e1 , . . . , en } è la base canonica
di Kn , allora [vi ]B = ei , per i = 1, . . . , n. Calcoliamo le coordinate di T (v1 )
rispetto alla base B = {v1 , . . . , vn }.


λ1
 0 


[T (v1 )]B = [λ1 v1 ]B = λ1 [v1 ]B =  .  = λ1 e1 .
.
 . 
0
Analogamente,
[T (vi )]B = λi [vi ]B = λi ei ,
per i = 1, . . . , n. Quindi la matrice associata a T rispetto alla base B, in
partenza e in arrivo, è una matrice diagonale


λ1


..


.

,
MB,B (T ) = 

.
.


.
λn
dove gli elementi sulla diagonale principale sono gli autovalori di T . Viceversa, supponiamo che la matrice associata a T rispetto a una base B =
{v1 , . . . , vn } in partenza ed in arrivo sia una matrice


λ1


..


.
,

MB,B (T ) = 

..


.
λn
159
diagonale. Allora
[T (vi )]B = MB,B (T )[vi ]B
= MB,B (T )ei
= λi ei
= λi [vi ]B
= [λi vi ]B .
Tendendo in mente che v = w se e solamente se [v]B = [w]B , si ha che
T (vi ) = λi vi per i = 1, . . . , n da cui segue che vi è autovettore relativo
all’autovalore λi . Quindi {v1 , . . . , vn } è una base di V formata da autovettori
di T .
Proposizione 9.6. Sia T : V −→ V un endomorfismo. Allora T è diagonalizzabile se e solamente se esiste una base B di V tale che MB,B (T ) è una
matrice diagonale.
Sia C una base di V . Poiché MC,C (T ) è simile alla matrice MB,B (T ) si
ha il seguente risultato.
Proposizione 9.7. Sia T : V −→ V un endomorfismo e sia C una base di
V . T è diagonalizzabile se e solamente se MC,C (T ) è simile a una matrice
diagonale.
Il prossimo risultato prova che autovettori corrispondenti ad autovalori
distinti sono linearmente indipendenti.
Proposizione 9.8. Sia T : V −→ V una applicazione lineare e siano
v1 , . . . , vm autovettori di T corrispondenti agli autovalori λ1 , . . . , λm . Se
λ1 , . . . , λm sono distinti, i.e., λi 6= λj se i 6= j, allora gli autovettori v1 , . . . , vm
di T sono linearmente indipendenti.
Facoltativa. la dimostrazione sarà fatta per induzione sul numero di autovettori.
Se m = 1 la proposizione è banalmente verificata poiché un autovettore
è un vettore non nullo e quindi linearmente indipendente.
Supponiamo che la proposizione sia vera per m autovettori di T corrispondenti a m autovalori distinti e dimostriamolo per m + 1 autovalori
distinti.
Siano v1 , . . . , vm+1 autovettori corrispondenti ad autovalori λ1 , . . . , λm+1
distinti. Per ipotesi induttiva i vettori v1 , . . . , vm sono linearmente indipendenti. Supponiamo per assurdo che v1 , . . . , vm+1 fossero linearmente dipendenti. Poiché v1 , . . . , vm sono linearmente indipendenti, il vettore vm+1
160
sarebbe combinazione lineare di v1 , . . . , vm (perché?). Quindi esistono degli
scalari α1 , . . . , αm ∈ K tale che
vm+1 = α1 v1 + · · · + αm vm .
Applicando T si ha
T (vm+1 ) = λm+1 vm+1 = T (α1 v1 + · · · + αm vm )
= α1 T (v1 ) + · · · + αm T (vm )
= λ1 α1 v1 + · · · + λm αm vm .
Dall’altro lato
λm+1 vm+1 = λm+1 α1 v1 + · · · + λm+1 αm vm .
Quindi
λm+1 α1 v1 + · · · + λm+1 αm vm = λ1 α1 v1 + · · · + λm αm vm ,
ovvero
(λm+1 − λ1 )α1 v1 + · · · + (λm+1 − λm )αm vm = 0.
Poiché i vettori v1 , . . . , vm sono linearmente indipendenti, ne segue che i
coefficienti sono tutti nulli:
α1 (λm+1 − λ1 ) = · · · = αm (λm+1 − λm ) = 0
Per ipotesi gli autovalori sono distinti. Quindi α1 = · · · = αm = 0, ovvero
vm+1 = 0. Assurdo poiché vm+1 è un vettore non nullo essendo un autovettore. Quindi i vettori v1 , . . . , vm+1 sono linearmente indipendenti.
Corollario 9.9. Sia V uno spazio vettoriale su K di dimensione n e sia
T : V −→ V un endomorfismo. Se T ammette n autovalori distinti, allora
T è diagonalizzabile.
Dimostrazione. Poiché T ha n = dim V autovalori distinti esitono n autovettori v1 , . . . , vn corrispondenti ad autovalori distinti. Per il risultato anteriore v1 , . . . , vn sono linearmente indipendenti e quindi formano una base di
V concludendo la dimostrazione.
161
9.10
Polinomio caratteristico
Sia V uno spazio vettoriale su K di dimensione n. Vogliamo calcolare gli
autovalori di un endomorfismo T : V −→ V .
Sia B una base di V . Uno scalare λ ∈ K è un autovalore di T se e
solamente se T − λIdV non è iniettiva ovvero se e solamente se la matrice
MB,B (T − λIdV ) non è invertibile . Poiché MB,B (T − λIdV ) = MB,B (T ) −
λIdn , si ha che λ ∈ K è un autovalore di T se e solamente se
det(MB,B (T ) − λIdn ) = 0.
Definiamo
pB : K −→ K,
pB (t) := det(MB,B (T ) − tIdn )
Proposizione 9.11. pB (t) è un polinomio di grado n = dim V ed è ha la
seguente espressione
(−1)n tn + (−1)n−1 (Tr(MB,B (T ))tn−1 + · · · + det(MB,B (T )).
Inoltre, pB (t) non dipende dalla base scelta.
Dimostrazione. Noi proveremo solamente che se C è una base di V , allora
pC = pB .
Sia C = {w1 , . . . , wn } una base di V . Allora
MC,C (T ) = M(B, C)−1 MB,B (T )M(B, C),
da cui segue
pC (t) = det(MC,C (T ) − tIdn )
= det M(B, C)−1 MB,B (T )M(B, C) − tIdn
= det M(B, C)−1 MB,B (T )M(B, C) − tM(B, C)−1 M(B, C)
= det (M(B, C)−1 (MB,B (T ) − tIdn )M(B, C)
= det((M(B, C)−1 )det(MB,B (T ) − tIdn )det(M(B, C))
= det(MB,B (T ) − tIdn )
= pB (t).
Definizione 9.12. Sia T : V −→ V un endomorfismo. Sia B un base di V .
Il polinomio pT (t) = pB (t) è un polinomio di grado n = dim V ed è chiamato
il polinomio caratteristico di T .
162
Corollario 9.13. Sia V uno spazio vettoriale su K di dimensione n e sia
T : V −→ V un endomorfismo. Sia λ ∈ K. Allora λ è un autovalore di
T se e solamente se λ è una radice del polinomio caratteristico di T . In
particolare T ha al massimo n autovalori.
Dimostrazione. Abbiamo dimostrato che λ ∈ K è un autovalore di T se e
solamente se det(MB,B (T ) − λIdn ) = 0, ovvero se e solamente se pT (λ) = 0.
Poiché un polinomio di grado n ha al massimo n radice, si ha che T ha al
massimo n autovalori.
Esempio 9.14. Si consideri l’applicazione lineare T : R3 −→ R3 definita
da
  

x
x + y + 2z
T  y  =  2x + y + 3z  ,
z
x + 2y + 3z
     
0 
0
 1





0 , 1 , 0  la base canonica di R3 . Allora
Sia C =


1
0
0

  
   
   
1
1
0
1
0
2

















0
1
0
T
= 2 ,T
= 1 ,T
= 3 ,
0
1
0
2
1
3
e quindi


1 1 2
MT = MC,C (T ) =  2 1 3  .
1 2 3
Il polinomio caratteristico di T è dato da


1−t
1
2
1−t
3 .
pT (t) = det(MC,C (T ) − tId3 ) = det  2
1
2
3−t
Sviluppa in determinante rispetto alla 1 colonna si ha
pT (t) = (1 − t)(t2 − 4t − 3) − 2((3 − t) − 4) + (3 − (2(1 − t))
= −t3 + 5t2 + 3t = −t(t2 − 5t − 3).
√
√
Quindi gli autovalori di T sono: 0, 5+2 37 , 5−2 37 .
163
0 1
Esempio 9.15. Sia A =
1 1
l’applicazione lineare cosı̀ definita:
e sia Sia T : M2×2 (R) −→ M2×2 (R)
T (X) = X − Tr(X)A.
Sia
B=
1 0
0 0
0 1
0 0
0 0
,
,
,
,
0 0
1 0
0 1
Nell’esempio 7.16 abbiamo visto che

1
 −1
MB,B (T ) = 
 −1
−1
0
1
0
0

0 0
0 −1 
.
1 −1 
0 0
Quindi


1−t
0
0
0
 −1 1 − t
0
−1 
 = −t(1−t)3 ,
pT (t) = det(MB,B (T )−tId4 ) = det 
 −1
0
1 − t −1 
−1
0
0
−t
ovvero gli autovalori si T sono 0 e 1.
9.16
Molteplicità geometrica e algebrica
Sia V uno spazio vettoriale su K di dimensione n e sia T : V −→ V un
endomorfismo.
Definizione 9.17. Sia λ ∈ K un autovalore di T . Definiamo:
• la molteplicità algebrica di λ è la molteplicità di λ come radice di
pT (t), ovvero quante volte λ è radice di pT (t), che indicheremo con
ma (λ).
• la molteplicità geometrica di λ è la dimensione dell’autospazio Vλ e si
indicherà con mg (λ) = dim Vλ .
Se λ ∈ K è un autovalore, allora ma (λ) è il più grande numero naturale
m tale che (x − λ)m divide pT (t).
164
Proposizione 9.18. Sia V uno spazio vettoriale su K di dimensione n e
sia T : V −→ V un endomorfismo. Sia λ ∈ K un autovalore. Se B è una
base di V , allora
mg (λ) = n − rg(MB,B (T ) − λIdn ).
Dimostrazione. Poiché Vλ = Ker (T − λIdV ), applicando il Teorema della
dimensione, tenendo in mente che dim V = n, si ha
mg (λ) = dim Ker (T − λIdV ) = n − dim Im (T − λIdV ).
Poiché dim Im (T − λIdV ) = rg(MB,B (T − λIdV )), e tenendo in mente che
MB,B (T − λIdV ) = MB,B (T ) − λIdn , si ha
mg (λ) = n − dim Im (T − λIdV )
= n − rg(MB,B (T − λIdV ))
= n − rg(MB,B (T ) − λIdn ).
Il prossimo risultato garantisce che la molteplicità algebrica è maggiore
oppure uguale della molteplicità geometrica. La dimostrazione è facoltativa.
Proposizione 9.19. Sia λ ∈ K un autovalore di T : V −→ V . Allora
mg (λ) ≤ ma (λ).
Facoltativa. Sia B = {v1 , . . . , vmg (λ) } una base di Vλ . Possiamo completarla
a base di V che indicheremo con B = {v1 , . . . , vn }. Allora
λIdmg (λ)×mg (λ) ∗
MB,B (T ) =
.
0
D
Quindi
pT (t) = det(MB,B (T ) − tIdn )
= (λ − t)mg (λ) det(D − tId(n−mg (λ))×(n−mg (λ)) ),
da cui segue che mg (λ) ≤ ma (λ).
Corollario 9.20. Sia T : V −→ V un endomorfismo e sia λ ∈ K autovalore
di T : V −→ V . Se ma (λ) = 1, allora mg (λ) = 1.
165
Dimostrazione. Poiché mg (λ) ≥ 1 (perché ?), si ha
1 ≤ mg (λ) ≤ ma (λ) = 1,
da cui segue la tesi.
Esempio 9.21. Si consideri l’applicazione lineare T : R3 −→ R3 definita
da
  

x
2x − y + 3z
,
x + 3z
T  y  = 
z
2x − 2y + 7z
     
0
0 
 1





0 , 1 , 0  la base canonica di R3 . Allora
Sia C =


0
0
1

  
  

   
1
2
0
−1
0
3

















0
1
0
0
T
= 1 ,T
=
,T
= 3 ,
0
2
0
−2
1
7
e quindi


2 −1 3
MT = MC,C (T ) =  1 0 3  .
2 −2 7
Il polinomio caratteristico di T è dato da


2 − t −1
3
−t
3  = −(t − 1)2 (t − 7).
pT (t) = det(MC,C (T ) − tId3 ) = det  1
2
−2 7 − t
Quindi gli autovalori di T sono 1 con molteplicità algebrica 2 e 7 con molteplicità algebrica 1. Poiché


1 −1 3
MC,C (T ) − Id3 =  1 −1 3  ,
2 −2 6
la molteplicità geometrica dell’autovalore 1 è mg (1) = 3 − rg(MC,C (T ) −
Id3 ) = 2. La molteplicità geometrica dell’autovalore 7 è uno.
Il prossimo Teorema fornisce un criterio necessario e sufficiente affinché
un endomorfismo sia diagonalizzabile. La dimostrazione è facoltativa come
la dimostrazione del seguente lemma.
166
Lemma 9.22. Sia V uno spazio vettoriale su K e sia T : V −→ V un
endomorfismo. Siano λ1 , . . . , λk ∈ K autovalori distinti. Indichiamo con
Bλi una base per l’autospazio Vλi per i = 1, . . . , k. Allora
[ [
B = Bλ1
· · · Bλk ,
è formato da vettori linearmente indipendenti.
Facoltativa. A meno di riordinare i vettori di B, esistono 1 ≤ j1 < j2 <
· · · < jk ≤ n = tale che
v1 , . . . , vj1
vj1 +1 , . . . , vj2
..
.
formano una base di Vλ1
formano una base di Vλ2
vjk +1 , . . . , vn
formano una base di Vλk
Siano α1 , . . . , αj1 , . . . , αjk , . . . , αn ∈ K e sia α1 v1 + · · · + αn vn = 0V una
combinazione lineare uguale al vettore nullo. Poniamo
w1 = α1 v1 + · · · + αj1 vj1 ∈ Vλ1
w2 = αj1 +1 vj1 +1 + · · · + αj2 vj2 ∈ Vλ2
..
.
wk = αjk +1 vjk +1 + · · · + αn vn ∈ Vλk
Quindi
w1 + · · · + wk = 0V
Per la Proposizione 9.8, si ha w1 = · · · = wk = 0V e quindi
0V = α1 v1 + · · · + αj1 vj1
0V = αj1 +1 vj1 +1 + · · · + αj2 vj2
..
.
0V = αjk +1 vjk +1 + · · · + αn vn .
167
Tenendo in mente che
v 1 , . . . , v j1
vj1 +1 , . . . , vj2
..
.
formano una base di Vλ1
formano una base di Vλ2
vjk +1 , . . . , vn
formano una base di Vλk
si ha α1 = · · · = αn = 0.
Teorema 9.23. Sia V uno spazio vettoriale su K e sia T : V −→ V un
endomorfismo. Le seguenti condizioni sono equivalenti:
a) T è diagonalizzabile.
b) Tutti gli autovalori di T sono in K. Inoltre, per ogni λ ∈ sp(T ) si ha
ma (λ) = mg (λ).
Facoltativa. Supponiamo che T sia diagonalizzabile. Sia B = {v1 , . . . , vn }
una base formata da autovettori di T . Siano λ1 , . . . , λr gli autovalori distinti
di T . La matrice associata a T rispetto alla base B = {v1 , . . . , vn } in partenza
ed in arrivo ha la forma


λ1 Idmg (λ1 )×mg (λ1 )


..
MB,B (T ) = 
.
.
λk Idmg (λk )×mg (λk )
e quindi
pT (t) = det(MB,B (T ) − tIdn )

(λ1 − t)Idmg (λ1 )×mg (λ1 )

= det 

..


.
(λk − t)Idmg (λk )×mg (λk )
= (λ1 − t)
mg (λ1 )
· · · (λk − t)
mg (λk )
.
da cui segue che tutti gli autovalori stanno in K ed ma (λj ) = mg (λj ) per
j = 1, . . . , k.
Viceversa, supponiamo che tutti gli autovalori di T stanno in K, ovvero
T ha n autovalori non necessariamente distinti, e che la molteplicità algebrica e geometrica coincidono per ogni autovalore. Siano λ1 , . . . , λk ∈ K gli
168
autovalori distinti di T . Sia BVλj una base di Vλj per j = 1, . . . , k. L’inS
S
sieme B = BVλ1 · · · BVλk è formato da n = dim V autovettori. Per il
Lemma 9.22 i vettori di B sono linearmente indipendenti e quindi una base,
concludendo la dimostrazione.
Esempio 9.24. Sia T : M2×2 (R) −→ M2×2 (R) l’applicazione lineare cosı̀
definita:
a11 a12
a11 + a12
a12
T
=
.
a21 a22
a11 + a21 + a22 a11 + a21 + a22
Sia
B=
1 0
0 0
Poiché
0 0
0 0
0 1
,
,
,
,
0 1
1 0
0 0

1
 0
MB,B (T ) = 
 1
1
1
1
0
1
0
0
1
1

0
0 
,
1 
1
si ha

1−t
1
0
0
 0
1−t
0
0 
 = t(t−2)(t−1)2 .
PT (t) = det(MB,B (T )−tId4 ) = det 
 1
0
1−t
1 
1
1
1
1−t

Quindi gli autovalori si T sono 0, 1, 2. La molteplicità algebrica di 0 e 2 è
uno mentre la molteplicità algebrica di 1 è due. Poiché


0 1 0 0
 0 0 0 0 


mg (1) = 4 − rg(MB,B (T ) − Id4 ) = 4 − rg 
 1 0 0 1  = 1,
1 1 1 0
T non è diagonalizzabile.
Esempio 9.25. Sia T : R3 −→ R3 l’applicazione lineare definita da:
  

  


 

1
0
1
−1
0
−1
T  0  =  −2  , T  1  =  −3  , T  −1  =  −3  .
1
2
1
3
1
−4
169
Allora


0 −1 −1
MC,B (T ) =  −2 −3 −3  ,
2
3 −4
    

1
0
 1

è la matrice associata a T rispetto alle basi B =  0  ,  1  ,  −1 


1
1
1
in partenza e la base canonica C in arrivo. Per stabilire se T è diagonalizzabile non posso utilizzare la matrice MC,B (T ) (perché?). Svolgeremo due
procedimenti.
I metodo. Il polinomio caratteristico di T è
pT (t) = det(MC,C (T ) − tId3 ).
La matrice
MC,C (T ) = MC,B (T )M(B, C).
Poiché

 


2x − y − z
1 1 0 x
x
 y  = Sol  0 1 −1 y  =  −x + y + z 
−x + z
z B
1 1 1 z

si ha

2 1 −1
M(B, C) =  −1 1 1 
−1 0 1

e quindi


 

0 −1 −1
2 −1 −1
2 −1 −2
1  =  2 −1 −4  .
MC,C (T ) =  −2 −3 −3   −1 1
2
3 −4
−1 0
1
−1 1
3
Il polinomio caratteristico di T è dato da


2−t
−1
−2
−1 − t −4  = −(t−1)2 (t−2),
pT (t) = det(MC,C (T )−tId3 ) = det  2
−1
1
3−t
170
per cui gli autovalori di T sono 1 con molteplicità algebrica due e 2 con
molteplicità algebrica uno, e quindi anche geometrica uno. Poiché
mg (1) = 3 − rg(MC,C (T ) − Id3 )


1 −1 −2
= 3 − rg  2 −2 −4 
−1 1
2
= 2,
l’endomorfismo T è diagonalizzabile.
II metodo. Vogliamo calcolare il polinomio caratteristico pT (t) = det(MB,B (T )−
tId3 ). Poiché

 



  
  
−1
0
−1
1
0
1
T  0  =  −2  , T  1  =  −3  , T  −1  =  −3  ,
−4
1
3
1
2
1
si ha

 
 
 
0
−1
−1
MB,B (T ) =  −2  ,  −3  ,  −3   .
−2 B
3
2
B
B
Le coordinate di un vettore rispetto alla base B è l’unica soluzione del seguente sistema lineare
 

 

x
1 1 0 x
2x − y − z
 y  = Sol  0 1 −1 y  =  −x + y + z 
z B
1 1 1 z
−x + z
da cui segue che


0 −2 −1
0 .
MB,B (T ) =  0 1
2 4
3
Il polinomio caratteristico di T è


−t −2
−1
0  = (2−t)(1−t)2 ,
pT (t) = det(MB,B (T )−tid3 ) = det  0 1 − t
2
4
3−t
per cui gli autovalori di T sono 2 con molteplicità algebrica uno, e quindi
anche la molteplicità geometrica è uno, ed 1 con molteplicità algebrica 2.
171
Inoltre,
mg (1) = 3 − rg(MB,B (T ) − Id3 )


−1 −2 −1
0
0 
= 3 − rg  0
2
4
2
= 2,
quindi T è diagonalizzabile.
9.26
Diagonalizzazione di matrici
Sia A ∈ Mn×n (K) dove K = R oppure C.
l’endomorfismo associato alla matrice A, ovvero
Sia LA : Kn −→ Kn
LA (X) = AX.
Definiamo autovettori e autovalori di A, gli autovettori e autovalori di LA .
Uno scalare λ ∈ K è un autovalore di A se esiste un vettore v ∈ Kn non
nullo tale che Av = λv, ovvero LA (v) = λv.
Un vettore v ∈ Kn non nullo si dice un autovettore di A se esiste λ ∈ K
tale che Av = λv, ovvero
(A − λIdn )v = 0.
Quindi λ ∈ K è una autovalore di A se e solamente se det(A − λIdn ) =
0. Chiamaremo pA (t) = det(A − tIdn ) il polinomio caratteristico di A.
Ricordiamo che MC,C (LA ) = A, dove C è la base canonica di Kn . Infatti,
LA (ei ) = Aei = Ai ,
per i = 1, . . . , n. Quindi il polinomio caratteristico di A è il polinomio
caratteristico di LA . Analogamento possiamo definire l’autospazio relativo
all’autovalore λ essendo
Vλ = {v ∈ Kn : LA (v) = λv}
= {v ∈ Kn : Av = λv}
= {v ∈ Kn : (A − λIdn )v = 0}
= Sol(A − λIdn |0Kn ).
172
La dimensione di Vλ è la molteplicità geometrica di λ. Applicando il Teorema
di Rouché-Capelli, si ha
mg (λ) = n − rg(A − λIdn ).
La molteplicità algebrica di λ, che indicheremo con ma (λ), è il numero di
volte che λ è radice del polinomio pA (t), ovvero il più grande numero naturale
N tale che (t − λ)N divide pA (t). Poiché un autovalore di A è un autovalore
di LA , si ha
mg (λ) ≤ ma (λ).
Inoltre, se ma (λ) = 1, allora anche mg (λ) = 1 (esercizio!).
Definizione 9.27. Sia A ∈ Mn×n (K) dove K = R oppure C. Diremo che A
è diagonalizzabile su K se esiste una matrice P ∈ Mn×n (K) invertibile tale
che P −1 AP è una matrice diagonale.
Quindi, una matrice quadrata A è diagonalizzabile se e solamente se A
è simile ad una matrice diagonale.
Proposizione 9.28. A è diagonalizzabile se e solamente se l’endomorfismo
LA : Kn −→ Kn è diagonalizzabile.
Dimostrazione. Poiché MC,C (LA ) = A, dove C è la base canonica, LA è
diagonalizzabile se e solamente se A è simile ad una matrice diagonale e
quindi se e solamente se A è diagonalizzabile.
Vediamo un’altra dimostrazione dove si descrive esplicitamente il legame
fra la matrice invertibile P , la matrice diagonale D tale che P −1 AP = D e
autovettori e autovalori dell’endomorfismo LA e quindi di A.
Supponiamo che A sia diagonalizzabile. Quindi esiste una matrice invertibile P e una matrice diagonale D tale che P −1 AP = D. Lecolonne della
matrice P formano una base di Kn . Se indichiamo con B = P 1 , . . . , P n ,
tenendo in mente che M(C, B) = P , allora
MB,B (LA ) = M(B, C)MC,C (LA )M(C, B)
= P −1 AP
= D.
Quindi abbiamo dimostrato che LA è diagonalizzabile. In dettaglio abbiamo
dimostrato che P i è una autovettore di LA relativo all’autovalore dii , dove
D = (dij ) 1 ≤ i ≤ n , per i = 1, . . . , n.
1≤j ≤n
173
Viceversa supponiamo che LA sia diagonalizzabile. Sia B = {v1 , . . . , vn }
una base di Kn formata da autovettori di LA . La matrice P = (v1 , . . . , vn ) è
invertibile poiché B = {v1 , . . . , vn } è una base di Kn . Vogliamo dimostrare
che P −1 AP è una matrice diagonale. Infatti
P −1 AP = M(B, C)MC,C (LA )M(C, B)
= MB,B (LA ).
Quindi P è una matrice invertibile le cui colonne formano una base di autovettori di LA e D è una matrice diagonale i cui elementi sulla diagonale
principale sono gli autovalori di LA e quindi di A.
Applicando il Teorema 9.23 e la Proposizione 9.28 si ha il seguente
criterio di diagonalizzazione di matrici.
Teorema 9.29. Sia A ∈ Mn×n (K). Le seguenti condizioni sono equivalenti:
a) A è diagonalizzabile su K;
b) tutti gli autovalori di A sono in K e per ogni autovalore λ ∈ sp(T ), si
ha ma (λ) = mg (λ);
Corollario 9.30. Sia A ∈ Mn×n (K). Se A ha n autovalori in K distinti
allora A è diagonalizzabile.
Dimostrazione. Siano λ1 , . . . , λn ∈ K autovalori distinti di A. Poiché il
polinomio caratteristico di A ha grado n, la moleplicità algebrica di ciascuno
autovalore è 1. Quindi anche la molteplicità geometrica di ciascun autovalore
è 1 da cui segue che A è diagonalizzabile su K.
Osservazione 9.31.
a) Una matrice quadrata a coefficienti reali può essere diagonalizzabile su
C ma non su R.
b) Sia A ∈ Mn×n (C). Per il Teorema fondamentale dell’algebra A ha n
autovalori, non necessariamente distinti, complessi. Siano λ1 , . . . , λk ∈
C gli autovalori distinti di A. Allora
k
X
ma (λi ) = n.
i=1
174
c) Sia A ∈ Mn×n (R) e sia pA (t) il suo polinomio caratteristico e sia
λ ∈ C un autovalore complesso. Allora anche λ è una radice di pA (t).
Quindi il numero delle radici complesse di un polinomio a coefficienti
reali è pari. Infatti, poiché pA (t) è un polinomio a coefficienti reali, si
ha pA (t) = pA (t) da cui segue
pA (λ) = pA (λ) = 0.
d) Sia A ∈ Mn×n (C). La matrice A ha esattamente n autovalori, non
necessariamente distinti, che indicheremo con λ1 , . . . , λn . Si può dimostrare che
det(A) = λ1 · · · λn
9.32
Tr(A) = λ1 + · · · + λn .
Tecniche di calcolo
Sia A ∈ Mn×n (K). Se λ ∈ K è un autovalore, allora
Vλ = Sol(A − λIdn |0Kn )
Indichiamo con Bλ una base di Vλ . Se λ1 , · · · , λs ∈ K sono autovalori di A
distinti allora si può dimostrare che
Bλ1 ∪ · · · ∪ Bλs ,
sono vettori linearmente indipendenti.
Vediamo quali sono i passi per stabilire se una matrice quadrata A ∈
Mn×n (K) è diagonalizzabile su K ed in caso affermatico come determinare
una matrice invertibile P e una matrice diagonale D tale che P −1 AP = D.
• Gli autovalori della matrice A sono le radici del polinomio caratteristico pA (t) = det(A − tIdn ). Se tutte le radici del polinomio caratteristico appartengono a K, allora continuo. Altrimenti la matrice A non
è diagonalizzabile.
• Sia λ ∈ K un autovalore. Allora Vλ = Sol(A − λIdn |0Kn ) e mg (λ) =
dim Vλ = n − rg(A − λIdn ). Ricordiamo che la molteplicità algebrica di λ è il numero di volte che λ è radice. Inoltre mg (λ) ≤
ma (λ). Se ma (λ) = mg (λ) per ogni autovalore λ allora la matrice
è diagonalizzabile. Altrimenti no.
175
Supponiamo che A sia diagonalizzabile. Siano λ1 , . . . , λs ∈ K autovalori
distinti di A. Allora
B = Bλ1 ∪ · · · ∪ Bλs = (v1 , . . . , vn )
è una base di Kn formata da autovettori di A. Quindi la matrice P =
(v1 , . . . , vn ), i.e., la matrice le cui colonne sono i vettori v1 , . . . , vn , è una
matrice invertibile. Da adesso in poi indicheremo con µi l’autovalore corrispondente all’autovettore vi . Quindi µi può essere uguale a µj anche se
i 6= j. Affermiamo che


µ1


..
P −1 AP = D = 

.
µn
Per provare che le due matrici sono uguali, dimostreremo che le due matrici
hanno le stesse colonne.
Siano e1 , . . . , en la base canonica di Kn . Ricordiamo che la i-esima
colanna della matrice P −1 AP è
(P −1 AP )i = P −1 AP ei ,
per i = 1, . . . , n.
Per definizione di P si ha P ei = vi per i = 1, . . . , n. Moltiplicando a
destra e sinistra per P −1 , si ha P −1 vi = ei per i = 1, . . . , n. Quindi
(P −1 AP )i = P −1 AP ei
= P −1 Avi
= µi P −1 vi
= µi ei ,
ovvero P −1 AP = D.
Esempio 9.33. Sia


0 −2 1
A =  2 −5 2  .
−1 2 −2


−t
−2
1
 = −(t + 5)(t + 1)2 .
2
pA (t) = det(A − tId3 ) = det  2 −5 − t
−1
2
−2 − t
176
Gli autovalori di A sono −5 con molteplicità algebrica uno, e quindi anche
la molteplicità geometrica è 1, e −1 con molteplicità algebrica due. Poiché


1 −2 1
A + Id3 =  2 −4 2 
−1 2 −1
La molteplicità geometrica dell’autovalore 1 è
mg (−1) = 3 − rg(A + Id3 ) = 2
e quindi A è diagonalizzabile. Una base per l’autospazio relativo a −5 è


1
V−5 = Sol(A + 5Id|0R3 ) = L  2 
−1
mentre

 

2
1
V−1 = Sol(A + Id3 |0R3 ) = L  1  ,  0  .
0
−1




−1 0
0
2 1
1
2  e D =  0 −1 0 , allora si ha
Quindi se P =  1 0
0
0 −5
0 −1 −1
P −1 AP = D.
Esempio 9.34. Sia

1 −1 0
A =  −1 0 −1  .
0
1
1

Il polinomio caratteristico di A è
pA (t) = det(A − tId3 )


1 − t −1
0
= det  −1 −t −1 
0
1 1−t
= (1 − t)(t2 + t + 1) + (t − 1) = −t(t − 1)2 ,
e quindi gli autovalori di A sono 0 con molteplicità algebrica uno e 1 con
molteplicità algebrica due. Poiché


0 −1 0
A − Id3 =  −1 −1 −1  ,
0
1
0
177
si ha
mg (1) = 3 − rg(A − Id3 ) = 1,
ovvero la molteplicità geometrica dell’autovalore 1 è uno e quindi A non è
diagonalizzabile. Una base per l’autospazio relativo a 0 è


1
V0 = Sol(A|0R3 ) = L  1 
−1
mentre


1
V1 = Sol(A − Id3 |0R3 ) = L  0  .
−1
Esempio 9.35. Sia


−2 −1 3
A =  −5 −2 5  .
−4 −2 5


−2 − t
−1
3
−2 − t
5  = (1 − t)(t2 + 1)
pA (t) = det  −5
−4
−2
5−t
Gli autovalori di A sono 0 con molteplicità algebrica uno e gli autovalori
i, −i con molteplicità algebrica uno rispettivamente. Quindi A non è diagonalizzabile su R ma è diagonalizzabile su C. Gli autospazi della matrice A,
pensata come matrice a coefficienti complessi, sono:
 
1
V1 = Sol(A − Id3 |0R3 ) = L  0  ,
1


−i
Vi = Sol(A − iId3 |0R3 ) = L  2 − i  .
1−i


i
V−i = Sol(A + iId3 |0R3 ) = L  2 + i  .
1+i
Se indichiamo con


1 −i
i
P =  0 2 − i 2 + i ,
1 1−i 1+i
178


1 0 0
D =  0 i 0 ,
0 0 −i
si ha
P −1 AP = D.
Sia T : V −→ V e sia B una base di V . La matrice MB,B (T ) è l’unica
matrice n × n tale che
[T (v)]B = MB,B (T )[v]B .
• pT (t) = pMB,B (T ) (t). Quindi λ ∈ K è un autovalore di T se e solamente
se λ ∈ K è un autovalore di MB,B (T ). Inoltre la molteplicità algebrica
di λ come autovalore di T coincide con la molteplicità algebrica di λ
come autovalore di MB,B (T ).
• v è autovettore relativo all’autovalore λ di T se e solamente se T (v) =
λv se e solamente se [T (v)]B = λ[v]B . Poiché [T (v)]B = MB,B (T )[v]B
si ha v è autovalore di T relativo a λ se e solamente se [v]B è un
autovettore di MB,B (T ) relativo all’autovalore λ. Infine la molteplicità geometrica di λ come autovalore di T coincide con la molteplicità
geometrica di λ come autovalore di MB,B (T ).
• Per i punti precedenti T è un endomorfismo diagonalizzabile se e
solamente se MB,B (T ) è diagonalizzabile.
Se MB,B (T ) è diagonalizzabile, allora per i punti precedenti siamo in grado di
determinare una base C = {w1 , . . . , wn } formata da autovettori di MB,B (T ).
Se




a11
a1n




w1 =  ...  , . . . , wn =  ...  ,
an1
ann
allora una base di V formata da autovettori di T è
−1
FB (w1 ) =, . . . , FB−1 (wn ) = {a11 v1 + · · · + an1 vn , . . . , a1n v1 + · · · + ann vn } .
Esempio 9.36. Sia T : R3 −→ R3 l’applicazione lineare definita da:
  

  


 

1
0
1
−1
0
−1
T  0  =  −2  , T  1  =  −3  , T  −1  =  −3  .
1
2
1
3
1
−4
Nell’esempio 9.25 abbiamo dimostrato che T è diagonalizzabile. Adesso,
vogliamo calcolare una base di R3 formata da autovettori di T seguendo i due
metodi sviluppati nell’esempio citato. Ricordiamo che T ha due autovalori:
179
1 con molteplicità algebrica e geometrica due e 2 con molteplicità algebrica
e geometrica uno. Sia C la base canonica e sia B la base su cui è definita T .
I metodo. Poiché
(T − 2IdR3 )X = MC,C (T − 2IdR3 )X = (MC,C (T ) − 2Id3 )X,
rispettivamente
(T − IdR3 )X = MC,C (T − IdR3 )X = (MC,C (T ) − Id3 )X,
si ha
V2 = Sol(MC,C (T ) − 2Id3 |0R3 )


0 −1 −2 0
= Sol  2 −3 −4 0 
−1 1
1 0


1
= L  2  ,
−1
rispettivamente
V1 = Sol(MC,C (T ) − Id3 |0R3 )


1 −1 −2 0
= Sol  2 −2 −4 0 
−1 1
2 0
  

1
0
= L  1  ,  2  .
0
−1
Quindi
  
 

0
1

 1
 1 , 2 , 2 


0
−1
−1
formano una base di R3 formata da autovettori di T .
II metodo. Ricordiamo che
[(T − IdR3 )(X)]B = MB,B (T − IdR3 )[X]B
= MB,B (T ) − Id3 )[X]B .
180
Primo passo, calcoliamo gli autospazi della matrice MB,B (T ).


−1 −2 −1 0
0
0 0 
Sol(MB,B (T ) − Id3 |0R3 ) = Sol  0
2
4
2 0

 

1
1
= L  0  ,  −1 
−1
1
e quindi

 
     

1
0
1
1
0
V1 = L  0  −  −1  ,  0  −  1  +  −1 
1
1
1
1
1
  

1
0
= L  1  ,  −2  .
0
1
Analogamente

−2 −2 −1 0
Sol(MB,B (T ) − 2Id3 |0R3 ) = Sol  0 −1 0 0 
2
4
1 0


1


0  ,
=L
−2

da cui segue




1
0
V2 = L  0  − 2  −1 
1
1


1


2 
=L
−1
Riassumendo,
  
 

0
1
 1

B 0 =  1  ,  −2  ,  2 


0
1
−1
181
è una base di R3 formata da autovettori di T e


1 0 0
MB0 ,B0 (T ) =  0 1 0  .
0 0 2
formano una base di R3 formata da autovettori di T
9.37
Teorema spettrale
In questa sezione dimostreremo che una matrice simmetrica, a coefficienti
reali, è sempre diagonalizzabile su R. In dettaglio, proveremo che esiste una
base ortonormale di Rn formata da autovettori di A. Il primo lemma prova
che gli autovalori di una matrice simmetrica sono numeri reali.
Lemma 9.38. Gli autovalori di una matrice A ∈ Mn×n (R) simmetrica sono
numeri reali.
Dimostrazione. Poiché una matrice reale è anche una matrice complessa, A
induce un endomorfismo LA : Cn −→ Cn cosı̀ definito: LA (X) = AX. Se
C è la base canonica di Cn , allora MC,C (LA ) = A. Quindi gli autovalori
dell’endomorfismo LA sono gli autovalori di A.
Sia h·, ·i il prodotto Hermitiano canonico di Cn . Ricordiamo che
hX, Y i = X T Y .
Affermiamo che per ogni X, Y ∈ Cn , si ha
hAX, Y i = hX, AY i.
Infatti, tenendo in mente che A = A, si ha
hAX, Y i = (AX)T Y
= X T AT Y
= X T AY
= X T AY
= hX, AY i.
Sia X ∈ Cn un autovettore di A relativo all’autovalore λ. Quindi X 6= 0Cn
e AX = λX. Applicando la formula anteriore si ha
hAX, Xi = hX, AXi.
182
Quindi
hAX, Xi = hX, AXi
hλX, Xi = hX, λXi
λhX, Xi = λhX, Xi
Poiché hX, Xi =
6 0 si ha λ = λ, ovvero λ ∈ R.
La seguente proposizione garantisce che autospazi corrispondenti a autovettori distinti sono fra loro ortogonali.
Proposizione 9.39. Sia A una matrice simmetrica di ordine n e siano
v e w autovettori corrispondenti ad autovalori distinti λ, µ ∈ R. Allora
hv, wi = 0. Quindi Vλ ⊂ Vµ⊥ se λ 6= µ.
Dimostrazione. Sia hX, Y i = X T Y il prodotto scalare canonico di Rn . Se
A è una matrice simmetrica allora vale la seguente formula:
hAX, Y i = hX, AY i.
Infatti
hAX, Y i = (AX)T Y
= X T AT Y
= X T (AY ) essendo A simmetrica)
= hX, AY i.
Siano v, w autovettori di A relativi agli autovalori λ e µ rispettivamente.
Applicando la formula anteriore si ha
hAv, wi = hv, Awi.
Poiché v, rispettivamente w, è un autovettore di A relativo a λ, rispettivamente a µ, si ha
hAv, wi = hv, Awi
hλv, wi = hv, µwi
λhv, wi = µhv, wi
(λ − µ)hv, wi = 0
Poiché λ e µ sono distinti, si ha hv, wi = 0 concludendo la dimostrazione.
Teorema 9.40 (Teorema spettrale). Sia A ∈ Mn×n (R) una matrice simmetrica. Allora esiste una matrice ortogonale P tale che P T AP è diagonale.
Ovvero esiste una base ortonormale di Rn formata da autovettori di A.
183
Facoltativa. Per induzione su n. Se n = 1 è vero. Supponiamo di aver
dimostrato il teorema per n e proviamolo per n + 1. Per il lemma anteriore
una matrice simmetrica ha tutti gli autovalori reali. Sia λ ∈ R un autovalore.
v
Allora esiste v ∈ Rn non nullo tale che Av = λ1 v. Denotiamo con v1 = kvk
.
n
Completiamo v1 ad una base ortonormale di R che denotiamo con B =
{v1 , . . . , vn+1 }. Allora
• P = M(C, B) = (v1 , . . . , vn+1 ) è una matrice ortogonale;


λ1 0 · · · 0


• P T AP =  ...

B
0
dove B ∈ Mn×n (R) è una matrice simmetrica. Per ipotesi induttiva esiste
una matrice ortogonale Q di ordine n tale che


λ2


..
QT BQ = 
.
.
λn+1

1 0 ··· 0


Sia Q̃ =  ...
 ∈ Mn+1×n+1 (R). Q̃ è una matrice ortogonale
Q
0
da cui segue che anche P Q̃ è una matrice ortogonale. Inoltre


λ1


..
(P Q̃)T A(P Q̃) = 
 = D.
.

λn+1
Quindi la base C = {w1 , . . . , wn+1 } dove wi = (P Q̃)i per i = 1, . . . , n + 1 è
una base ortonormale formata da autovettori di A.
Corollario 9.41. Sia A ∈ Mn×n (R). A è simmetrica se e solamente se
esiste una matrice ortogonale P tale che P T AP è una matrice diagonale.
Dimostrazione. Una direzione è il teorema spettrale. Viceversa se P T AP =
D matrice diagonale, con P ortogonale, allora
A = P DP T
e quindi
AT = (P DP T )T = P DT P T = P DP T = A
ovvero A = AT come si voleva dimostrare.
184
Osservazione 9.42. Eistono matrici A ∈ Mn×n (C) tali che A = AT non
diagonalizzabile. Infatti
1 i
A=
.
i −1
verifica A = AT . pA (t) = t2 quindi ha un autovalore λ = 0 con molteplicità
algebrica 2 e geometrica 1 da cui segue che A non è diagonalizzabile. Quindi
il Teorema spettrale non vale per le matrici complesse.
9.43
Tecniche di calcolo
Sia A ∈ Mn×n (R) una matrice simmetrica. Il teorema spettrale garantisce che A è diagonalizzabile. Vediamo come calcolare una matrice ortogonale
P e una matrice diagonale D tale che P T AP = D.
Poiché A è diagonalizzabile possiamo calcolare una base B = {v1 , . . . , vn }
di Rn formata da autovettori di A come nella sezione 9.32. Se indichiamo
con Q = (v1 , . . . , vn ), allora Q−1 AQ = D è diagonale. La matrice Q non è, in
generale, ortogonale. Per ottenere un matrice ortogonale possiamo utlizzare
il Procedimento di Gram-Schimdt. Infatti, se applichiamo il procedimento
di Gram-Schimdt alla base B = {v1 , . . . , vn }, ottengo una base ortogonale
C = {w1 , . . . , wn } di Rn .nInfine, dividendo
o ciascun vettore per la sua norma,
w1
wn
0
ottengo una base C = kw1 k , . . . , kwn k ortonormale di Rn . Poiché autovettori di A corrispondenti ad autovalori distinti sono fra loro ortogonali,
la base C 0 è ancora una base formata da autovettori di A. Se la matrice A
fosse diagonalizzabile ma non fosse simmetrica i vettori della base C 0 non
sarebbero più autovettori di A. Quindi se applichiamo il procedimento di
Gram-Schidt ad una base di autovettori di una matrice diagonalizzabile A,
tale base rimane una base formata da autovettori se e solamente se A è
simmetrica.
w1
wn
Sia P = ( kw
, . . . , kw
). P è una matrice ortogonale poich`’e le colonne
nk
1k
formano una base ortonormale di autovettori di A. Infine, tenendo in mente
che P −1 = P T , si ha P T AP = D dove D è la stessa matrice diagonale
ottenuta in precedenza. (Perché?)
Esempio 9.44. Sia


2 1 1
A =  1 2 1 .
1 1 2
185


2−t
1
1
2−t
1  = −(t − 4)(t − 1)2 .
pA (t) = det(A − tId3 ) = det  1
1
1
2−t
Gli autovalori di A sono 4 con molteplicità algebrica uno e 1 con molteplicità
algebrica due. Una base per l’autospazio relativo a 1 è

 

1
0
V1 = Sol(A − Id|0R3 ) = L  −1  ,  1 
0
−1
mentre


1
V4 = Sol(A − 4Id3 |0R3 ) = L  1  .
1




1
0 1
1 0 0
Quindi se P =  −1 1 1  e D =  0 1 0 , allora
0 −1 1
0 0 4
P −1 AP = D.
La matrice P NON E’ ORTOGONALE. Per ottenere una matrice ortogonale
U tale che U T AU = D, posso applicare il procedimento di Gram-Schimdt
alla base


  
 
  
 
1 
1/2
1
1 
0
1


 −1  ,  1/2  ,  1 
 −1  ,  1  ,  1 




1
−1
0
1
−1
0
e poi dividiamo ciascun vettore per la sua norma
√   √ 
√  

1/√6
1/√3 
1/ √2

 −1/ 2  ,  1/ 6  ,  1/ 3  .
√
√


0
−2/ 6
1/ 3
La matrice
√
√
√ 
1/ √2
1/√6 1/√3
U =  −1/ 2 1/ √6 1/√3 
0
−2/ 6 1/ 3

è ortogonale, le colonne formano una base ortonormale di autovettori di A
e verifica
U T AU = D.
186
Capitolo 10
Matrici ortogonali
10.1
Proprietà delle matrici ortogonali
Sia A ∈ Mn×n (R). Sia h·, ·i il prodotto scalare canonico di Rn .
Proposizione 10.2. A è ortogonale se e solamente se per ogni X, Y ∈ Rn
si ha hAX, AY i = hX, Y i.
Facoltativa. Supponiamo che A sia ortogonale e siano X, Y ∈ Rn . Allora
hAX, AY i = (AX)T AY = X T AT AY = X T Y = hX, Y i.
Viceversa, sia C = {e1 , . . . , en } la base canonica. Poichéé Aei = Ai , i.e., la
i-esmia colonna si ha
hAei , Aej i = hAi , Aj i = hei , ej i
per ogni 1 ≤ i ≤ j ≤ n. Quindi A1 , . . . , An formano una base ortonormale
ovvero A è ortogonale.
Corollario 10.3. Sia A ∈ Mn×n (R) una matrice ortogonale. Allora l’endomorfimo LA : Rn −→ Rn preserva la lunghezza di un vettore, l’angolo fra
due vettori non nulli e infine la distanza fra due vettori.
Facoltativa. Siano X, Y ∈ Rn . Poiché
hLA (X), LA (Y )i = hAX, AY i = hX, Y i,
si ha k LA (X) k=k X k ed
hLA (X)−LA (Y ), LA (X)−LA (Y )i = hLA (X−Y ), LA (X−Y )i = hX−Y, X−Y i.
187
Poiché la distanza fra X e Y è per definizione d(X, Y ) =k X − Y k, si ha
che LA preserva la distanza.
Siano X e Y vettori non nulli. Allora
hLA (X), LA (Y )i
hX, Y i
=
,
k LA (X) kk LA (Y ) k
k X kk Y k
i.e., LA preserva l’angolo fra due vettori.
Le matrici ortogonali non sono in generale diagonalizzabili su R. Infatti,
sia
0 −1
A=
.
1 0
Il polinomio caratteristi di A è t2 + 1 che non ammette radici su R. Gli
autovalori reali di una matrice ortogonale, se esistono, sono ±1.
Proposizione 10.4. Sia A un matrice ortogonale e sia λ ∈ C un autovalore.
Allora |λ| = 1. In particolare se λ ∈ R, allora λ = ±1.
Facoltativa. Sia LA : Cn −→ Cn . Gli autovalori di A sono gli autovalori di
LA . Affermiamo che per ogni Z, W ∈ Cn si ha
hAZ, AW i = hZ, W i,
dove h·, ·i è il prodotto Hermitiano canonico. Infatti
hAZ, AW i = (AZ)T AW = Z T AT AW = Z T W = hZ, W i.
Sia λ ∈ C autovalore e sia Z 6= 0 autovettore relativo a λ. Allora
hAZ, AZi = hλZ, λZi = |λ|2 hZ, Zi.
Per la formula anteriore si ha
hAZ, AZi = hZ, Zi,
ovvero
|λ|2 hZ, Zi = hZ, Zi.
Poiché hZ, Zi =
6 0, si ha |λ|2 = 1.
Una conseguenza del risultato anteriore è che il determinante di una
matrice ortogonale è ±1, cosa che avevamo già dimostrato utilizzando la
formula di Binet.
188
Corollario 10.5. Sia A una matrice ortogonale. Allora det(A) = ±1.
Facoltativa. Poiché A è una matrice a coefficienti reali, se λ ∈ C è autovalore,
allora anche λ è autovalore di A. Poiché A è ortogonale. allora λλ =
1. Tenendo i mente che det(A) è il prodotto dei suoi autovalori e che gli
autovalori reali possono essere ±1, si ha che det(A) = ±1.
Definizione 10.6. Sia W ⊂ Rn un sottospazio vettoriale e sia A ∈ Mn×n (R).
Diremo che W è A-invariante se per ogni w ∈ W si ha Aw ∈ W .
È facile verificare che se A è invertibile, allora W è un sottospazio di Rn
A-invariante se e solamente se W è A−1 -invariante. Se A è ortogonale vale
la seguente proposizione.
Proposizione 10.7. Sia A una matrice ortogonale e sia Sia W ⊂ Rn un
sottospazio A-invariante. Allora W ⊥ è A-invariante.
Facoltativa. Sia Z ∈ W ⊥ . Vogliamo dimostrare che AZ ∈ W ⊥ , ovvero
hAZ, wi = 0 per ogni w ∈ W . Poiché AT è ancora una matrice ortogonale
(perché?) si ha
hAZ, wi = hAT AZ, AT wi = hZ, AT wi = 0,
dove l’ultima uguaglianza segue dal fatto che essendo AT = A−1 , W è AT
invariante. Riassumendo, abbiamo provato che W ⊥ è A-invariante.
10.8
Riflessioni e rotazioni del piano
Sia LA : R2 −→ R2 con A matrice ortogonale. Se
a b
,
A=
c d
dall’equazione AT A = Id2 , ne segue che
 2
 a + c2 = 1
ab + cd = 0
 2
b + d2 = 1
Quindi esistono θ, ψ ∈ [0, 2π] tale che
a = cos θ
b = cos ψ
c = sin θ
.
d = sin ψ
189
Inoltre dalla secondo equazione si deduce che cos θ cos ψ + sin θ sin ψ =
cos(ψ − θ) = 0, ovvero
π
ψ = θ + + kπ.
2
π
Se k è pari allora cos ψ = cos(θ + 2 ) = − sin(θ) e sin ψ = sin(θ + π2 ) = cos(θ),
ovvero
cos θ − sin θ
A=
,
sin θ cos θ
e det(A) = 1. Se invece k è dispari, allora cos ψ = cos(θ + 3π
2 ) = sin(θ) e
3π
sin ψ = sin(θ + 2 ) = − cos(θ), ovvero
A=
cos θ sin θ
sin θ − cos θ
,
e quindi A è simmetrica e det(A) = −1. Riassumendo, abbiamo dimostrato
che se A è una matrice ortogonale di formato due per due con det(A) = 1,
allora esiste θ ∈ R tale che
cos θ − sin θ
A=
sin θ cos θ
Se invece, det(A) = −1, allora esiste θ ∈ R tale che
cos θ sin θ
,
A=
sin θ − cos θ
Adesso vogliamo studiare l’endomorfismo associato a A, ovvero LA :
R2 −→ R2 . Se det(A) = −1, allora
cos θ sin θ
A=
,
sin θ − cos θ
per un certo θ ∈ [0, 2π]. A è simmetrica, quindi diagonalizzabile, e gli
autovalori di A sono sono le radici del polinomio pA (t) = t2 − 1, cioé 1, −1.
L’autospazio relativo all’autovalore 1 sono le soluzione del sistema lineare
omogeneo:
cos θ − 1
sin θ
.
sin θ
− cos θ − 1
Poiché dim V1 = 1 basta risolvere una delle due equazione, per esempio:
(cos θ − 1)x + (sin θ)y = 0.
190
Tenendo in mente che cos θ − 1 = −2 sin2 ( 2θ ) e sin θ = 2 sin 2θ cos 2θ , l’equazione diventa
θ
θ
θ
−2 sin2 x + 2 sin cos y = 0,
2
2
2
e quindi
cos 2θ .
V1 = L
sin 2θ
Poiché V−1 = V1⊥ , si ha
− sin 2θ .
cos 2θ
− sin 2θ
cos 2θ
,
è una base ortonormale formata da
La base B =
sin 2θ
cos 2θ
autovettori di A. Quindi
1 0
,
MB,B (LA ) =
0 −1
V−1 = L
per cui l’endomorfismo LA è la riflessione
rispetto
alla retta passante per
cos 2θ
l’origine e che ha come vettore direttore
.
sin 2θ
y
θ
2
x
Se det(A) = 1, allora
A=
cos θ − sin θ
sin θ cos θ
per un certo θ ∈ [0, 2π]. Poiché pA (t) = t2 − 2 cos θ + 1, LA non è diagonalizzabile se θ 6= 0, −π, che corrispondono a Id2 e −Id2 . Vogliamo dimostrare
che LA è un rotazione di angole θ. È facile verificare che
hAe1 , e1 i = hAe2 , e2 i = cos θ,
191
dove h·, ·i è il prodotto scalare standard di R2 .
Quindi, se v =
x
y
=
xe1 + ye2 ∈ R3 , si ha
hAv, vi = x2 hAe1 , e1 i + xyhAe1 , e2 i + xyhAe2 , e1 i + y 2 hAe2 , e2 i
= (x2 + y 2 ) cos θ + xy sin θ − xy sin θ
=k v k2 cos θ.
Quindi
hAv, vi
= cos θ,
k v kk Av k
ovvero l’endomorfismo LA è una rotazione attorno all’origine di angolo θ.
y
θ
x
Proposizione 10.9. Sia A ∈ M2×2 (R) una matrice ortogonale e sia LA
l’applicazione lineare indotta. LA è una rotazione se e solamente se det(A) =
1; LA è una riflessione se e solamente se det(A) = −1.
Corollario 10.10. La composizione di due rotazioni è ancora una rotazione;
la composizione di due riflessioni è una rotazione; la composizione di una
rotazione ed una riflessione è una riflessione.
Dimostrazione. Noi sappiamo che LA ◦ LB = LAB e che per il teorema
di Binet det(AB) = det(A) det(B). Dalla discussione precedente segue la
tesi.
192
Download