Uploaded by Roman Munteanu

Appunti GAL

advertisement
Appunti di Geometria e Algebra
(per la facoltà di Ingegneria)
Francesco D’Andrea
Dipartimento di Matematica e Applicazioni “R. Caccioppoli”
Università di Napoli Federico II, P.le Tecchio 80 – 80125 Napoli
v1: 12 giugno 2011.
Note
Appunti del corso di “Geometria e Algebra” (6 CFU) per i corsi di laurea in
Ingegneria Elettrica e Ingegneria Gestionale della Logistica e della Produzione
(canale A-COP) dell’Università di Napoli Federico II, a.a. 2010-2011.
(Attenzione: questo materiale è destinato esclusivamente agli studenti del
corso, con preghiera di non divulgazione.)
Testi consigliati
[Lom] L.A. Lomonaco, Un’introduzione all’algebra lineare, Ed. Aracne (Roma).
[Pel1] S. Pellegrini, A. Benini e F. Morini, Algebra Lineare 1, Ed. F. Apollonio (Brescia).
[Pel2] S. Pellegrini, A. Benini e F. Morini, Algebra Lineare 2, Ed. F. Apollonio (Brescia).
[BruLan] M. Brundu e G. Landi, Note di Algebra Lineare e Geometria (2011), on-line.
[Par] G. Parigi e A. Palestini, Manuale di Geometria: esercizi e temi d’esame svolti,
Ed. Pitagora (Bologna).
Indice
1 Elementi di teoria degli insiemi (16/03/2011)
1
1.1 Notazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Insiemi privi di struttura . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3 Applicazioni tra insiemi . . . . . . . . . . . . . . . . . . . . . . . . . . .
2 Strutture algebriche: gruppi, anelli, campi (18/03/2011)
7
2.1 Operazioni di un insieme . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2 Gruppi, anelli, campi . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3 Sistemi lineari: definizioni e prime proprietà (23/03/2011)
3.1
3.2
3.3
3.4
3.5
3.6
Premesse . . . . . . . . . . . . . . . . . . . . . .
Generalità sui sistemi lineari . . . . . . . . . . .
Matrici . . . . . . . . . . . . . . . . . . . . . . .
Operazioni elementari su un sistema lineare . . .
Esame dei casi più semplici di equazioni e sistemi
Esercizi . . . . . . . . . . . . . . . . . . . . . . .
. . . .
. . . .
. . . .
. . . .
lineari
. . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Introduzione . . . . . . .
Proprietà elementari . . .
Sottospazi . . . . . . . .
Operazioni su sottospazi .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Esercizi su spazi e sottospazi . . . .
Esercizi su matrici 2 ⇥ 2 . . . . . . .
Determinante di una matrice 3 ⇥ 3 .
Determinante di una matrice n ⇥ n .
.
.
.
.
.
.
.
.
.
.
.
.
12
13
14
15
16
19
21
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5 Esercitazione su vettori e matrici (30/03/2011)
5.1
5.2
5.3
5.4
7
9
12
4 Spazi vettoriali e sottospazi (25/03/2011)
4.1
4.2
4.3
4.4
1
2
3
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
21
24
26
28
30
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
6 Dipendenza e indipendenza lineare (06/04/2011)
6.1 Dipendenza e indipendenza lineare . . . . . . . . . . . . . . . . . . . . .
6.2 Basi e componenti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7 Esercitazione su basi e dimensione (08/04/2011)
7.1 Proprietà delle basi . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.2 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8 Spazi metrici (13/04/2011)
30
32
33
35
38
38
40
45
45
47
51
8.1 Lunghezze, angoli e proiezioni in R . . . . . . . . . . . . . . . . . . . .
8.2 Aree di triangoli e determinante . . . . . . . . . . . . . . . . . . . . . .
2
i
51
53
8.3 Definizione astratta di prodotto scalare e sue proprietà . . . . . . . . . .
8.4 Proiezioni ortogonali . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.5 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9 Basi ortonormali e metodo di Gram-Schmidt (15/04/2011)
9.1
9.2
9.3
9.4
Basi ortonormali . . . . .
Metodo di Gram-Schmidt
Sottospazi ortogonali . .
Esercizi . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
61
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
10 Matrici (20/04/2011)
11 Il metodo di eliminazione di Gauss (29/04/2011)
12 Riduzione di sistemi lineari (04/05/2011)
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
13 Applicazioni lineari (06/05/2011 e 11/05/2011)
14 Rango e sistemi lineari (11/05/2011)
.
.
.
.
15 Esercitazione (13/05/2011)
.
.
.
.
.
.
.
.
87
88
90
91
94
95
13.1 Definizione e prime proprietà . . . . . . . . . . . . . . . . . . . . . . .
13.2 Proprietà delle applicazioni lineari . . . . . . . . . . . . . . . . . . . .
.
.
.
.
77
78
82
87
Riduzione di una matrice . . . . . . . . . . . .
Soluzione di sistemi lineari generali . . . . . . .
Calcolo dell’inversa di una matrice per riduzione
Determinare una base per riduzione . . . . . . .
Inversa di una matrice con il metodo di Gauss .
Applicazioni e sistemi lineari .
Rango di una matrice . . . .
Proprietà del rango . . . . . .
Esercizi . . . . . . . . . . . .
68
70
74
77
11.1 Matrici triangolari . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11.2 Il metodo di eliminazione di Gauss . . . . . . . . . . . . . . . . . . . .
11.3 Sistemi ridotti e a scala . . . . . . . . . . . . . . . . . . . . . . . . . .
14.1
14.2
14.3
14.4
61
62
63
65
68
10.1 Prodotto righe per colonne . . . . . . . . . . . . . . . . . . . . . . . . .
10.2 Proprietà del prodotto . . . . . . . . . . . . . . . . . . . . . . . . . . .
10.3 Inversa ed aggiunta di una matrice . . . . . . . . . . . . . . . . . . . .
12.1
12.2
12.3
12.4
12.5
54
57
59
95
99
102
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
102
102
104
106
108
15.1 Applicazioni lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
15.2 Basi e dimensione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
15.3 Sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
ii
16 Endomorfismi semplici (18/05/2011)
113
16.1 Matrice del cambiamento di base . . . . . . . . . . . . . . . . . . . . . 113
16.2 Matrici simili e coniugate . . . . . . . . . . . . . . . . . . . . . . . . . 116
16.3 Esercizio: rotazioni nel piano . . . . . . . . . . . . . . . . . . . . . . . 118
17 Autovalori e autovettori (20/05/2011)
120
17.1 Autovalori e autovettori . . . . . . . . . . . . . . . . . . . . . . . . . . 120
17.2 Polinomio caratteristico . . . . . . . . . . . . . . . . . . . . . . . . . . 124
18 Diagonalizzazione di matrici (25/05/2011 e 27/05/2011)
129
18.1 Diagonalizzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
18.2 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
19 Geometria di R2 (01/06/2011 e 03/06/2011)
19.1
19.2
19.3
19.4
19.5
Equazioni di una retta .
Intersezione fra due rette
Circonferenze . . . . . .
Distanze . . . . . . . . .
Esercizi . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
141
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
20 Esercitazione (06/06/2011)
20.1
20.2
20.3
20.4
Tema d’esame #1 . . . . . .
Tema d’esame #2 . . . . . .
Soluzioni tema d’esame #1
Soluzioni tema d’esame #2
152
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
21 Geometria di R3 : rette, piani e intersezioni (08/06/2011)
21.1
21.2
21.3
21.4
Rette e piani in R : equazioni parametriche
Equazioni cartesiane di una retta . . . . . .
Equazioni cartesiane di un piano . . . . . .
Intersezioni . . . . . . . . . . . . . . . . . .
3
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Distanze, equazione di una sfera . . . . . . . . . . .
Angolo fra due vettori di R3 . . . . . . . . . . . . .
Prodotto vettoriale e prodotto misto . . . . . . . .
Retta per due punti, piano individuato da tre punti
A Equazioni polinomiali
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
152
153
154
158
163
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
22 Geometria di R3 : lunghezze, aree e volumi (10/06/2011)
22.1
22.2
22.3
22.4
141
144
145
148
149
163
165
167
168
171
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
171
173
175
179
182
iii
Lezione I
Elementi di teoria degli insiemi
Sommario: notazioni; richiami di teoria degli insiemi; prodotto cartesiano; applicazioni (funzioni) e loro proprietà; applicazioni iniettive, suriettive, biettive; applicazione
identica e applicazione inversa; esempi.
1.1 Notazioni
In matematica, per semplificare la scrittura di equazioni e teoremi, su fa uso di simboli
specifici. Nella tabella seguente sono riportati i simboli più comuni. Altri verranno
introdotti durante il corso.
Simbolo
8
9
9!
=)
()
:=
:
^
_
Tavola dei simboli più usati
Significato
“per ogni” (detto quantificatore universale)
“esiste” (detto quantificatore esistenziale)
“esiste ed è unico”
implicazione logica
“se e solo se”
definizione (a := b si legge “a per definizione è uguale a b”)
“tale che”
“e” (detta congiunzione logica)
“o” (detta disgiunzione logica)
Assumeremo come primitivo il concetto di insieme (adotteremo quindi il punto di
vista della teoria ingenua degli insiemi, senza addentrarci nei problemi della teoria
assiomatica). In maniera intuitiva, un insieme è una collezione di oggetti di natura
arbitraria. Un insieme può essere definito elencando i suoi elementi, oppure specificando
le proprietà soddisfatte dai suoi elementi. Ad esempio l’insieme dei numeri interi
compresi fra 2 e 3 si può scrivere come
A = 0, 1, 2, 3, 1, 2 ,
oppure
A= n2Z :
2n3 .
(1.1)
L’espressione (1.1) si legge ⌧ A è l’insieme degli n contenuti in Z (quindi, interi) tale
che n è maggiore o uguale a 2 e minore o uguale a 3 . Una proposizione viene
usualmente racchiusa fra parentesi gra↵e.
1
Insiemi
In un insieme, l’ordine degli elementi è irrilevante. Ad esempio {3, 14} = {14, 3}.
Gli insiemi verranno indicati con lettere maiuscole (A, B, C, . . .), i loro elementi con
lettere minuscole (a, b, c, . . .). L’espressione “a 2 A” si legge “a appartiene ad A” (o
“è elemento di”, o “è contenuto in”). Si può scrivere al rovescio: “A 3 a” vuol dire “A
contiene a”. L’espressione “a 2
/ A” vuol dire “a non è elemento di A”.
Gli elementi di un insieme non devono necessariamente essere numeri: possono
essere oggetti di natura arbitraria. Si pensi all’insieme dei punti di una retta, l’insieme
dei giocatori di una squadra di calcio, l’insieme dei caratteri di un alfabeto, etc.
Gli elementi di un insieme possono essere a loro volta insiemi. Ad esempio, siano
A := {1, 2} e B := {1, 4}. Possiamo formare l’insieme C i cui elementi sono l’insieme
A e l’insieme B:
C := {A, B} = {1, 2}, {1, 4}
Esiste una notazione specifica per gli insiemi numerici più importanti. Fra questi
ricordiamo:
N := {0, 1, 2, 3, 4, . . .} numeri naturali (incluso lo 0)
Z := numeri interi (relativi, ossia positivi e negativi, incluso lo zero)
Q := numeri razionali (quozienti di due interi)
R := numeri reali
C := numeri complessi
Z+ := {1, 2, 3, . . .} interi positivi
Z := { 1, 2, 3, . . .} interi negativi
R+ := reali positivi
etc.
1.2 Insiemi privi di struttura
Definizione 1.2.1. Un insieme A si dice sottoinsieme di un insieme B, e scriveremo
A ✓ B, se ogni elemento di A è anche elemento di B. Quindi:
A✓B
()
8 x 2 A, x 2 B .
Se esiste almeno un elemento di B che non appartiene ad A, diremo che A è un
sottoinsieme proprio di B, e scriveremo A ⇢ B. Quindi:
A⇢B
()
8 x 2 A, x 2 B ^ 9 b 2 B : b 2
/A .
E’ facile mostrare che
A ✓ B ^ B ✓ A =) A = B .
2
Sottoinsieme
Definizione 1.2.2. Dati due insiemi A e B, la loro intersezione A \ B è l’insieme
degli elementi che appartengono sia ad A che a B, la loro unione A [ B è l’insieme
degli elementi che che appartengono ad almeno uno dei due insiemi A e B, la loro
di↵erenza ArB è l’insieme di elementi che appartengono ad A ma non a B. Quindi:
Intersezione,
unione,
di↵erenza
A \ B := x : x 2 A ^ x 2 B ,
A [ B := x : x 2 A _ x 2 B ,
A r B := x : x 2 A ^ x 2
/B .
Si indica con ; l’insieme vuoto, ovvero privo di elementi. Unione, intersezione e
di↵erenza godono di una serie di proprietà elementari, la cui verifica è lasciata come
esercizio. Ad esempio
Insieme
vuoto
A\A=A[A=A
A\;=;
A[;=A
A\B =B\A
(proprietà commutativa di \)
A[B =B[A
(proprietà commutativa di [)
(A \ B) \ C = A \ (B \ C)
(proprietà associativa di \)
(A [ B) [ C = A [ (B [ C)
(proprietà associativa di [)
Un elenco più completo si può trovare nella Sezione 1.2 di [Pel1].
Definizione 1.2.3. Dati due insiemi A e B, si dice prodotto cartesiano di A e B,
e si indica con A ⇥ B, l’insieme delle coppie ordinate aventi il primo elemento in A ed
il secondo in B. Quindi:
Prodotto
cartesiano
A ⇥ B := (a, b) : a 2 A ^ b 2 B .
Più ingenerale dati n insiemi A1 , . . . , An :
A1 ⇥ A2 ⇥ . . . ⇥ An := (a1 , a2 , . . . , an ) : ai 2 Ai 8 i = 1, . . . , n .
Esercizio 1.2.4. Determinare il prodotto cartesiano di A = {|, } e B = {7, 12}.
Esercizio 1.2.5. Determinare il prodotto cartesiano di A = {0, 1, 5} e B = {0, 1, 2}
(notare che (0, 1) 6= (1, 0) in A ⇥ B).
1.3 Applicazioni tra insiemi
Definizione 1.3.1. Dati due insiemi A e B si dice corrispondenza da A in B un
3
Corrispondenza
qualunque sottoinsieme C del prodotto cartesiano A⇥B. L’insieme A è detto dominio,
l’insieme B è detto codominio. Una corrispondenza C da A in B è indicata con la
scrittura
C:A!B.
La corrispondenza opposta C op : B ! A è definita come C op = {(y, x) : (x, y) 2 A⇥B}.
Esempio 1.3.2. se A = {1, 2, 7} e B = {0, 2, 3, 4, 14}, allora C = {(1, 2), (2, 4), (7, 14)}
è la corrispondenza che associa ad ogni elemento di A il suo doppio.
Sia C : A ! B una corrispondenza.
L’immagine di A0 ✓ A è l’insieme C(A0 ) := {b 2 B : 9 a 2 A0 , (a, b) 2 C}.
La controimmagine di B 0 ✓ B è l’insieme C op (B 0 ) := {a 2 A : 9 b 2 B 0 , (a, b) 2 C}.
Una corrispondenza si dice:
1. ovunque definita se per ogni a 2 A esiste almeno un b 2 B tale che (a, b) 2 C;
2. funzionale o univoca o a un solo valore se per ogni a 2 A esiste al più un
b 2 B tale che (a, b) 2 C;
3. suriettiva se per ogni b 2 B esiste almeno un a 2 A tale che (a, b) 2 C;
4. iniettiva se per ogni b 2 B esiste al più un a 2 A tale che (a, b) 2 C.
Si verifica facilmente che: C è ovunque definita se e solo se C op è suriettiva; C è funzionale
se e solo se C op è iniettiva.
Definizione 1.3.3. Una corrispondenza C : A ! B si dice applicazione (o funzione) se è ovunque definita e funzionale.
Una definizione equivalente, che non fa ricorso alla nozione di corrispondenza, è la
seguente.
Definizione 1.3.4. Una applicazione (o funzione) f da A in B è una legge che
associa ad ogni elemento x di A un elemento y = f (x) in B, detto immagine di x
tramite f .
Per le applicazioni useremo la scrittura:
f :A!B
x 7! y = f (x)
Se f è una applicazione nel senso della definizione 1.3.4, allora l’insieme
C = (x, y) 2 A ⇥ B : y = f (x)
è una corrispondenza (ovunque definita e funzionale).
4
Applicazione
o funzione
Come per le corrispondenze, una applicazione f : A ! B si dice
1. suriettiva se per ogni y 2 B esiste almeno un x 2 A tale che y = f (x);
Suriettività
2. iniettiva se
Iniettività
f (x) = f (y) =) x = y ,
ovvero due elementi hanno la stessa immagine se e solo se sono uguali.
Definizione 1.3.5. Una applicazione si dice biunivoca (o biettiva) se è iniettiva e
suriettiva.
Esempio 1.3.6. Si considerino le seguenti applicazioni
a) f : N ! N ,
f (x) := x + 1 ,
b) g : R ! R ,
g(x) := x + 1 .
La prima è iniettiva ma non suriettiva; la seconda è sia iniettiva che suriettiva, quindi
biunivoca.
Per verificare l’iniettività bisogna dimostrare che due elementi distinti hanno sempre
immagini distinte. Nel caso a), per definizione se f (x) = f (y) allora x + 1 = y + 1, e
questo implica x = y. Questo dimostra che f è iniettiva. La stessa dimostrazione si
applica a g.
Per verificare la suriettività bisogna dimostrare che ogni elemento del codominio
è immagine di almeno un elemento del dominio. Nel caso b), dato y 2 R, possiamo
trovare un numero reale x := y 1 che soddisfa g(x) = g(y 1) = (y 1) + 1 = y;
quindi g è suriettiva. Nel caso a) questo non è vero, poichè se y = 0 2 N, x = y 1 = 1
non è un numero naturale, quindi 0 non è l’immagine tramite f di alcun elemento del
dominio.
Esercizio 1.3.7. Si considerino le tre applicazioni seguenti:
f :N!N,
f (x) := x2 ,
g : R r {0} ! R+ ,
g(x) := x2 ,
h : R+ ! R + ,
h(x) := x2 .
Verificare che: la prima è iniettiva e non suriettiva, la seconda è suriettiva e non
iniettiva, la terza è biunivoca (per la soluzione, vedere l’esempio 1.3.12 di [Pel1]).
Esercizio 1.3.8. Sia A = {|, , F} e B = {4, }}. Dire se l’applicazione f : A ! B,
definita da
f (|) = } ,
f () = 4 ,
è iniettiva, suriettiva o biunivoca.
5
f (F) = } ,
Biunivocità
Sia A un insieme qualsiasi. Chiamiamo applicazione identica su A, indicata con
idA , l’applicazione che associa ad ogni x 2 A l’elemento x stesso. Quindi:
Applicazione
identica
idA : A ! A
x 7! idA (x) = x
L’applicazione identica è biunivoca1 .
Definizione 1.3.9. Date due applicazioni f : A ! B e g : B ! C la loro composizione, indicata con g f : A ! C, è l’applicazione definita da
(g f )(a) := g f (a)
Composizione
8 a 2 A.
Due applicazioni f e g si dicono uguali se hanno lo stesso dominio, lo stesso codominio,
e f (x) = g(x) per ogni x nel dominio.
Notiamo che le applicazioni f e g dell’esempio 1.3.6 non sono uguali, poichè hanno
diverso dominio e diverso codominio. Anche le funzioni g e h dell’esercizio 1.3.7 non
sono uguali, poichè hanno lo stesso codominio ma diverso dominio.
Si può verificare facilmente che, per ogni f : A ! B, vale l’uguaglianza fra
applicazioni
idB f = f = f idA .
(1.2)
Proposizione 1.3.10 (Proprietà associativa della composizione di applicazioni). Date
tre applicazioni f : A ! B, g : B ! C e h : C ! D, si ha sempre
h (g f ) = (h g) f .
Dimostrazione. Le due applicazioni anno lo stesso dominio A e lo stesso codominio C,
inoltre [h (g f )](a) = h g f (a) = [(h g) f ](a) per ogni a 2 A.
⌅
Una applicazione f : A ! B si dice invertibile se esiste g : B ! A (detta inversa
di f ) tale che
g f = idA ,
f g = idB .
Si dimostra che f è invertibile se e solo se è biunivoca, e che l’applicazione inversa se
esiste è anche unica. L’inversa di f si indica con f 1 .
Esempio 1.3.11. L’inversa dell’applicazione h : R+ ! R+ , h(x) = x2 , è l’applicazione
p
h 1 : R+ ! R+ , h 1 (y) = y.
Esempio 1.3.12. L’applicazione idA è inversa di se stessa. Dall’equazione (1.2) segue
infatti
idA idA = idA ,
come caso particolare quando A = B ed f = idA .
1
Ogni x 2 A è immagine di se stesso, questo prova la suriettività, e idA (x) = idA (y) se e solo se
x = y, questo prova l’iniettività.
6
Applicazione
inversa
Lezione II
Strutture algebriche: gruppi, anelli, campi
Sommario: operazione di un insieme (interna e esterna); proprietà associativa e
commutativa; elemento neutro e inverso; gruppo; anello; campo. Esempi.
2.1 Operazioni di un insieme
Definizione 2.1.1. Sia S un insieme. Si dice operazione interna (binaria) ⇤ di S
una applicazione
f :S⇥S !S .
Operazione
interna
Il risultato f ((a, b)) dell’operazioni tra due elementi a, b 2 S si indica con a ⇤ b.
Le operazioni elementari di somma e prodotto fra numeri sono “operazioni” degli insiemi N, Z, Q, R nel senso della definizione 2.1.1. La sottrazione è una operazione di
Z, Q, R, ma non è una operazione di N, poiché la sottrazione fra due numeri naturali
non è necessariamente un numero naturale (ad esempio, 2 7 = 5 è un intero negativo). La divisione non è una operazione di N o di Z (il rapporto fra due numeri
naturali/interi non è sempre un numero naturale/intero) e non è una operazione neppure di Q o R poiché non si può dividere per 0. La divisione è una operazione, ad
esempio, di Q r {0} ed R r {0}.
Esempio 2.1.2. Sia A un insieme e indichiamo con P(A) la collezione dei sottoinsiemi
di A; P(A) è detto insieme delle parti di A. Allora unione, intersezione e di↵erenza
fra insiemi sono operazioni interne di P(A), dette operazioni insiemistiche (vedere
def. 1.2.2).
Definizione 2.1.3. Una operazione ⇤ di un insieme S si dice commutativa se per
ogni a, b 2 S si ha
a⇤b=b⇤a,
e si dice associativa se per ogni a, b, c 2 S si ha
2
a ⇤ (b ⇤ c) = (a ⇤ b) ⇤ c .
In tal caso scriveremo semplicemente a ⇤ b ⇤ c per indicare il risultato dell’operazione.
2
Un’espressione del tipo a ⇤ (b ⇤ c) indica che bisogna svolgere prima l’operazione fra le parentesi
tonde.
7
Insieme
delle parti
Proprietà
commutativa
Proprietà
associativa
Somma e prodotto di due numeri godono della proprietà commutativa e associativa.
La divisione non è commutativa né associativa. Infatti, ad esempio,
2 : 4 6= 4 : 2
e
(16 : 4) : 2 6= 16 : (4 : 2)
Come esercizio, si dica se la sottrazione è commutativa e/o associativa.
Esercizio 2.1.4. Si studi l’operazione ⇤ di N definita da
a ⇤ b = a + 7b .
Si dica se è commutativa e/o associativa.
Definizione 2.1.5. Siano K e S due insiemi. Una operazione esterna • di S ad
operatori in K è una applicazione
Operazione
esterna
K ⇥S !S .
L’immagine della coppia ( , a) 2 K ⇥ S si indica con
• a.
Vedremo esempi di operazioni esterne nelle lezioni successive.
Un insieme S dotato di operazioni (interne o esterne) ⇤1 , . . . , ⇤n è detto struttura
algebrica (ad n operazioni). Tale struttura algebrica si indicherà con (S; ⇤1 , . . . , ⇤n ).
Definizione 2.1.6. Sia (G, ⇤) un insieme con una operazione interna. Un elemento
e 2 G è detto elemento neutro rispetto a ⇤ se per ogni a 2 G si ha
Struttura
algebrica
Elemento
neutro
a⇤e=e⇤a=a.
Scriveremo (G, ⇤, e) per indicare un insieme con una operazione interna ed un elemento
neutro rispetto a tale operazione.
Esempio 2.1.7. Il numero 0 è elemento neutro rispetto alla somma di due numeri, il
numero 1 è elemento neutro rispetto al prodotto di due numeri.
Proposizione 2.1.8. Sia (G, ⇤) come sopra. Se esiste un elemento neutro rispetto a
⇤, questo è unico.
Dimostrazione. Supponiamo che e ed e0 siano due elementi neutri di (G, ⇤). Allora
e ⇤ e0 = e0 poiché e è neutro; inoltre e ⇤ e0 = e poiché anche e0 è neutro. Ne segue che
e = e0 .
⌅
Definizione 2.1.9. Sia (G, ⇤, e) come sopra. Un elemento a 2 G si dice simmetrizzabile (o invertibile) in G rispetto a ⇤ se esiste un elemento b 2 G tale
che
a⇤b=b⇤a=e.
In tal caso b si dice simmetrico (o inverso) di a.
8
Elementi
invertibili
Esempio 2.1.10. Ogni elemento x di (Z, +, 0) è simmetrizzabile, ed il simmetrico è
il suo opposto x. Ogni elemento non nullo y di (Q, · , 1) è simmetrizzabile, ed il suo
simmetrico è l’inverso y 1 .
Esercizio 2.1.11. Sia S := {0, 1}. Si definisca una operazione interna + di S
attraverso la seguente tavola di Cayley:
+
0
1
0
0
1
1
1
1
dove la somma fra due elementi x e y si ottiene selezionando x sulla prima colonna,
y sulla prima riga, ed andando a leggere nella tabella l’elemento nell’intersezione fra
la riga di x e la colonna di y. In maniera simile si definisca una seconda operazione
interna · di S attraverso la tavola:
·
0
1
0
0
0
1
0
1
Si dica se le operazioni sono associative, commutative e se possiedono un elemento
neutro. Si dica quali elementi sono simmetrizzabili (rispetto a + e ·) e chi è il loro
simmetrico. Si noti che in questo esempio + non è l’usuale somma fra numeri interi. 3
Dato un insieme con una operazione interna, qualunque sia la natura di questo
insieme, quando l’operazione è denotata con il simbolo + viene detta “somma” o “addizione” (e diremo che stiamo usando una notazione additiva); se esiste l’elemento
neutro, esso viene indicato con 0; il simmetrico di un elemento a viene indicato con a
e si dice “opposto”. Analogamente quando una operazione è denotata con il simbolo ·
viene detta “moltiplicazione” o “prodotto” (e diremo che stiamo usando una notazione
moltiplicativa); se esiste l’elemento neutro, esso viene indicato con 1; il simmetrico di
un elemento a viene indicato con a 1 o anche a1 e si dice “inverso”.
2.2 Gruppi, anelli, campi
Definizione 2.2.1. Sia G un insieme dotato di una operazione ⇤ e di un elemento
neutro e 2 G rispetto a ⇤. La struttura (G, ⇤, e) si dice gruppo se
i) l’operazione ⇤ è associativa;
3
In questo esempio gli elementi di S si possono interpretare come stati di un interruttore (1 =
acceso / 0 = spento) o i due valori di una proposizione (1 = vera / 0 = falsa). Le due operazioni +
e · vengono dette, rispettivamente, OR e AND e la loro implementazione tramite circuiti integrati è
alla base del funzionamento dei computer.
9
Gruppo
ii) ogni elemento di G è invertibile.
Se l’operazione ⇤ è commutativa, diremo che (G, ⇤, e) è un gruppo commutativo (o
abeliano 4 ).
Esempi di gruppi commutativi sono (Z, +, 0) e (Q r {0}, · , 1).
Se A è un insieme, si può considerare la collezione SA delle applicazioni biunivoche
f : A ! A con l’operazione di composizione . L’equazione (1.2) (con B = A) ci
dice che idA è elemento neutro di (SA , ). Per la proposizione 1.3.10 la composizione
è associativa, ed ogni applicazione biunivoca è invertibile. Quindi (SA , , idA ) è un
gruppo. Tale gruppo è detto gruppo delle permutazioni di A 5 .
Proposizione 2.2.2. Sia (G, ⇤, e) un gruppo. Allora l’inverso di ogni elemento è unico.
Dimostrazione. Sia a un elemento di G. Supponiamo che b, b0 2 G siano due inversi di
a. Allora per definizione a ⇤ b = e e b0 ⇤ a = e. Per definizione di elemento neutro si ha
b0 ⇤ (a ⇤ b) = b0 ⇤ e = b0 ,
(b0 ⇤ a) ⇤ b = e ⇤ b = b ,
e dall’associatività del prodotto si evince che
b0 = b0 ⇤ (a ⇤ b) = (b0 ⇤ a) ⇤ b = b ,
⌅
ovvero i due inversi b e b0 sono uguali.
Definizione 2.2.3. Sia (A, +, 0A , · , 1A ) un insieme dotato di due operazioni interne,
che chiameremo “somma” (indicata con +) e “prodotto” (indicato con ·), e di due
elementi 0A e 1A . Tale insieme si dice anello (con unità) se le seguenti proprietà sono
soddisfatte:
1. (A, +, 0A ) è un gruppo commutativo;
2. il prodotto è associativo;
3. 1A è elemento neutro rispetto al prodotto;
4. per ogni a, b, c 2 A si ha:
a · (b + c) = a · b + a · c ,
(a + b) · c = a · c + b · c .
La proprietà 4 è detta proprietà distributiva del prodotto rispetto alla somma.
Un anello si dice commutativo se il prodotto è commutativo.
4
5
In onore del matematico Niels Abel (1802–1829).
Si può dimostrare che se A ha almeno 3 elementi, il gruppo (SA , , idA ) è non commutativo.
10
Anello con
unità
Un esempio di anello commutativo è (Z, +, 0, · , 1).
I due elementi 0A e 1A dell’anello A sono spesso indicati semplicemente con 0 e
1, quando questo non generi confusione; 0A è detto “zero” dell’anello, e 1A è detto
“unità” dell’anello. Si può facilmente dimostrare, usando la proprietà distributiva, che
a · 0A = 0A · a = 0A per ogni a 2 A. Con abuso di notazioni un anello (A, +, 0A , · , 1A )
si può anche indicare semplicemente con A, omettendo di scrivere le operazioni, lo zero
e l’unità.
Anche (Q, +, 0, · , 1) è un anello commutativo. Però Q rispetto a Z ha una struttura
più ricca: ogni elemento non nullo è invertibile rispetto al prodotto.
Definizione 2.2.4. Un anello commutativo K si dice campo se ogni elemento a 6= 0
è invertibile rispetto al prodotto.
Quindi Q è un campo. Altri esempi di campi sono l’insieme R dei numeri reali e
l’insieme C dei numeri complessi.
Vedremo un esempio di anello non commutativo più avanti nel corso (esercizio
5.2.3).
11
Campo
Lezione III
Sistemi lineari: definizioni e prime proprietà
Sommario: generalità su equazioni lineari e sistemi (di equazioni) lineari; matrice dei
coefficienti, dei termini noti e completa; esame dei casi più semplici; determinante di
una matrice 2 ⇥ 2. Esempi ed esercizi.
3.1 Premesse
Gia nel corso degli studi preuniversitari si sono incontrate equazioni di primo grado
(equazioni lineari) in una o più incognite, quali ad esempio
3x = 6 ,
oppure
2x + y = 13 ,
e ci si è trovati a risolvere sistemi di equazioni lineari quali
⇢
x+y =0
x y=5
Le equazioni lineari sono tra le più semplici equazioni (si confrontino, ad esempio, con
le equazioni di secondo grado, studiate al liceo) e costituiscono uno degli oggetti di
studio dell’algebra lineare.
Osserviamo subito che il numero delle equazioni e delle incognite sarà da considerarsi
a priori arbitrario. I coefficienti delle incognite potranno assumere qualsiasi valore reale;
in particolare non escluderemo equazioni con coefficienti nulli, quali ad esempio 0x = 2
o 3x + 0y = 7.
Sebbene si possano considerare equazioni lineari a coefficienti (e soluzioni) in un
qualsiasi campo K (vedere ad es. [Pel1]), per semplificare la trattazione ci limiteremo
al caso K = R.
Notazione: chiameremo n-upla di elementi di S un elemento dell’insieme
Sn = S
| ⇥S⇥
{z. . . ⇥ S} .
n
Una n-upla (↵1 , . . . , ↵n ) 2 S n è quindi un insieme ordinato di n elementi di S.
12
n-uple
3.2 Generalità sui sistemi lineari
Una equazione in n incognite x1 , . . . , xn a coefficienti in R si dice lineare se è della
forma:
a1 x 1 + a2 x 2 + . . . + an x n = b ,
(3.1)
Equazioni
lineari
con ai 2 R e b 2 R. Una sua soluzione è una n-upla (↵1 , . . . , ↵n ) 2 Rn tale che,
sostituendo ciascun ↵i ad xi in (3.1), l’equazione si riduce ad una identità fra numeri
reali.
Esempio 3.2.1. Si verifica facilmente che (4, 1, 6) 2 R3 è una soluzione dell’equazione
3x1 + x2 2x3 = 1.
Un sistema di m equazioni lineari in
8
>
> a11 x1 + a12 x2
>
>
< a21 x1 + a22 x2
⌃:
..
..
>
.
.
>
>
>
: a x + a x
m1 1
n incognite è un insieme di equazioni
+ . . . + a1n xn = b1
+ . . . + a2n xn = b2
..
..
..
.
.
.
+ . . . + amn xn = bm
m2 2
Sistemi
lineari
(3.2)
con aij 2 R e bi 2 R.
Una soluzione del sistema è una n-upla (↵1 , . . . , ↵n ) 2 Rn che risolve simultaneamente tutte le m equazioni.
Esercizio 3.2.2. Si verifichi che le triple
(1, 0, 0)
sono soluzioni del sistema
(3, 1, 0)
⇢
x1
2x1
(1, 1, 0)
(5, 2, 0)
2x2 + x3 = 1
4x2
=2
Si determini almeno un’altra soluzione diversa dalle quattro elencate.
Chiamiamo soluzione generale del sistema l’insieme di tutte le sue soluzioni. La
soluzione generale di un sistema ⌃ è quindi un sottoinsieme S⌃ ✓ Rn .
Un sistema si dice compatibile (o risolubile) se ammette soluzioni; se invece non
ha soluzioni, il sistema si dirà incompatibile (in questo caso S⌃ = ;).
Esempio 3.2.3. Si considerino i tre sistemi
⇢
⇢
x1 + 3x2 = 0
x1 x2 = 0
x1 + 3x2 = 1
x1 + x2 = 2
⇢
x1 + x2 = 0
2x1 + 2x2 = 0
Il primo è incompatibile (se ammettesse soluzione, si avrebbe l’assurdo 0 = 1); il
secondo ammette (1, 1) come unica soluzione; qualunque coppia (t, t) è soluzione del
terzo sistema, per ogni valore del parametro reale t 2 R.
13
Soluzione
generale
Sistemi
risolubili
Vedremo che per un sistema compatibile si possono verificare solamente due casi:
i) la soluzione è unica;
ii) esistono infinite soluzioni.
In un tipico esercizio sui sistemi lineari si può chiedere, dato un sistema, se è compatibile
e, in tal caso, determinare tutte le sue soluzioni. Vedremo in questa lezione come si
risolvono i casi più semplici, e più avanti nel corso come si risolve un sistema generale.
Il sistema ⌃ in (3.2) si dice omogeneo se b1 = b2 = . . .
omogeneo di m equazioni (lineari) in n incognite ha quindi la
8
>
a11 x1 + a12 x2 + . . . + a1n xn
>
>
>
< a21 x1 + a22 x2 + . . . + a2n xn
⌃:
..
..
..
..
>
.
.
.
.
>
>
>
: a x + a x + ... + a x
m1 1
m2 2
mn n
= bm = 0. Un sistema
forma
Sistemi
omogenei
= 0
= 0
..
.
= 0
con aij 2 R.
Un sistema omogeneo è sempre compatibile: infatti ammette almeno la soluzione
nulla (0, 0, . . . , 0) 2 Rn (detta anche soluzione banale).
Soluzione
banale
3.3 Matrici
I coefficienti del sistema (3.2) si possono scrivere in una tabella
0
1
a11 a12 . . . a1n
B
C
B a21 a22 . . . a2n C
B
A := B .
..
.. C
C
.
.
. A
@ .
am1 am2 . . . amn
detta matrice dei coefficienti del sistema ⌃ (indichiamo con ai,j l’elemento nell’intersezione della riga i con la colonna j).
Più in generale, si chiama matrice (reale) di tipo m ⇥ n una tabella di m righe e
n colonne i cui elementi sono numeri reali.
La matrice m ⇥ 1
0 1
b1
B C
B b2 C
C
B := B
B .. C
@ . A
bm
14
Matrice dei
coefficienti
Matrice dei
termini noti
si chiama matrice colonna dei termini noti, e la
0
a11 a12 . . .
B
B a21 a22 . . .
(A|B) = B
..
B ..
.
@ .
am1 am2 . . .
matrice m ⇥ (n + 1)
1
a1n b1
C
a2n b2 C
..
.. C
C
.
. A
Matrice
completa
amn bm
si dice matrice completa del sistema.
Un sistema è determinato univocamente dalla sua matrice completa.
Esercizio 3.3.1. Scrivere la matrice completa del sistema dell’esercizio 3.2.2.
Soluzione.
(A|B) =
1
2
2 1 1
4 0 2
Esercizio 3.3.2. Scrivere il sistema di equazioni la
0
1 1 2
B
(A|B) = @ 0 1
2
0 0 1
Soluzione.
8
>
< x1 + x2 + 2x3 =
x2 2x3 =
>
:
x3 =
!
X
cui matrice completa è
1
4
C
3 A
2
4
3
2
X
3.4 Operazioni elementari su un sistema lineare
Definizione 3.4.1. Due sistemi ⌃ e ⌃0 si dicono equivalenti, e si indica con ⌃ ⇠ ⌃0 ,
se hanno le stesse soluzioni. Quindi:
Sistemi
equivalenti
⌃ ⇠ ⌃0 () S⌃ = S⌃0 .
Ad esempio i due sistemi seguenti sono chiaramente equivalenti:
⇢
⇢
x+y =0
x y=1
x y=1
x+y =0
Le seguenti operazioni elementari trasformano qualsiasi sistema in uno equivalente:
1. scambiare fra di loro due equazioni;
15
Operazioni
elementari
2. moltiplicare una equazione per un numero reale diverso da zero;
3. sostituire un’equazione con quella ottenuta sommando ad essa un multiplo (non
nullo) di un’altra equazione del sistema.
E↵ettuare una qualsiasi successione di operazioni elementari su un sistema non cambia
le soluzioni del sistema stesso.
Moltiplicare ambo i membri di una equazione per 0 non diminuisce il numero delle
soluzioni del sistema, in quanto qualunque soluzione di un sistema lineare è anche
soluzione dell’equazione 0 = 0.
3.5 Esame dei casi più semplici di equazioni e sistemi lineari
Esaminiamo i casi più semplici di equazioni e sistemi. La loro comprensione aiuterà
nello studio di sistemi più generali.
Nel caso di una equazione in una incognita la situazione è riassunta nel seguente
schema:
ax = b
=)
8
>
(1) se a 6= 0 la soluzione esite, è unica ed è data da a 1 b.
>
>
>
>
>
>
>
>
>
8
>
>
>
>
>
>
(20 ) se b 6= 0 il sistema è incompatibile (per nessun
<
>
>
>
>
↵ 2 R si ha l’identità 0↵ = b se b 6= 0)
>
>
>
<
>
>
>
>(2) se a = 0 allora
>
(200 ) se b = 0 l’equazione è 0x = 0 ed ammette co>
>
>
>
>
>
>
>
>
>
me soluzione qualsiasi numero reale. La soluzione
>
>
>
>
>
>
:
:generale (l’insieme di tutte le soluzioni) è quindi R.
Il caso di una equazione in n incognite (con n
2) è simile. Sia
a1 x 1 + a2 x 2 + . . . + an x n = b .
Se tutti i coefficienti sono nulli l’equazione diventa 0 = b: se anche b = 0, qualunque
n-upla (↵1 , . . . , ↵n ) 2 Rn è soluzione; se b 6= 0, allora l’equazione è incompatibile. Se
almeno un coefficiente è non nullo, sia esso ad esempio a1 , possiamo assegnare valori
arbitrari (↵2 , . . . , ↵n ) 2 Rn 1 alle incognite x2 , . . . , xn e ridurre l’equazione ad una ad
una sola incognita
a1 x1 = b (a2 ↵2 + . . . + an ↵n ) ,
la quale ammette un’unica soluzione data da
↵1 =
b
(a2 ↵2 + . . . + an ↵n )
.
a1
16
Le soluzioni sono quindi in corrispondenza biunivoca con l’insieme Rn 1 . Riassumendo:
Sia a1 x1 + a2 x2 + . . . + an xn = b. Allora:
8
>
(1) se (a1 , . . . , an ) 6= (0, . . . , 0) le soluzioni in corrispondenza biunivoca con i punti
>
>
>
>
>
dell’insieme Rn 1 .
>
>
>
<
8
0
>
>
>(2 ) se b 6= 0 il sistema è incompatibile.
>
<
>
>
>
>
(2) se (a1 , . . . , an ) = (0, . . . , 0) allora
00
n
>
>
>
>
>(2 ) se b = 0 ogni n-upla (↵1 , . . . , ↵n ) 2 R è
>
>
:
:una soluzione.
Concludiamo questo studio preliminare considerando un sistema di 2 equazioni in
2 incognite:
(
a11 x1 + a12 x2 = b1
⌃:
a21 x1 + a22 x2 = b2
E↵ettuiamo le seguenti operazioni sul sistema:
1. moltiplichiamo la prima equazione per a22 , la seconda per
membro a membro;
2. moltiplichiamo la prima equazione per
membro a membro.
a12 e sommiamo
a21 , la seconda per a11 e sommiamo
Il risultato di queste operazioni è il sistema:
(
(a11 a22 a12 a21 )x1 = a22 b1
⌃0 :
(a11 a22 a12 a21 )x2 = a11 b2
a12 b2
a21 b1
I sistemi ⌃ e ⌃0 non sono necessariamente equivalenti, poiché non abbiamo fatto ancora
ipotesi sui coefficienti, e nelle operazioni ai punti 1 e 2 potremmo aver moltiplicato per
zero. Quello che possiamo dire per certo è che tutte le soluzioni di ⌃ sono anche
soluzioni di ⌃0 , ovvero S⌃ ✓ S⌃0 .
Ciascuna equazione di ⌃0 è una equazione in una incognita: per ciascuna di esse
vale quindi la discussione nel primo schema di questa sezione. In aggiunta, le incognite
x1 e x2 in queste due equazioni moltiplicano lo stesso coefficiente,
a11 a22
a12 a21 .
Per le due equazioni si verificheranno quindi simultaneamente i casi (1) o (2) dello
schema citato. Studiamo ora il primo caso, mentre daremo il risultato nel secondo caso
senza dimostrazione.
17
Se a11 a22
a12 a21 6= 0 la soluzione della prima equazione in ⌃0 è unica e data da
↵1 =
a22 b1
a11 a22
a12 b2
,
a12 a21
e la soluzione della seconda equazione è unica e data da
↵2 =
a11 b2
a11 a22
a21 b1
.
a12 a21
Il sistema ⌃0 ammette quindi come unica soluzione la coppia (↵1 , ↵2 ) definita qui sopra.
Siccome S⌃ ✓ S⌃0 , il sistema ⌃ o non ammette soluzioni, oppure ammette come unica
soluzione la stessa di ⌃0 . Si verifica per sostituzione che vale il secondo caso: il sistema
⌃ da cui siamo partiti ammette come unica soluzione la coppia (↵1 , ↵2 ) definita qui
sopra.
Un’analisi di tutti i casi possibili è riassunta nel seguente schema.
Si consideri il sistema
8
>
(1) se a11 a22
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>
<
>
>
>
>
>
>
>
>
>
(2) se a11 a22
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>
:
(
a11 x1 + a12 x2 = b1
a21 x1 + a22 x2 = b2
. Allora:
a12 a21 6= 0: la soluzione esiste, è unica ed è data dalla coppia:
✓
◆
a11 b2 a21 b1
a22 b1 a12 b2
(↵1 , ↵2 ) =
,
a11 a22 a12 a21 a11 a22 a12 a21
a12 a21
8
>
(20 ) se (a22 b1 a12 b2 , a11 b2 a21 b1 ) 6= (0, 0)
>
>
>
>
>
il sistema è incompatibile.
>
>
>
>
>
>
>
>
(200 ) se a22 b1 a12 b2 = a11 b2 a21 b1 = 0 il
>
>
<
sistema è equivalente al sistema di una sola
= 0 allora
>
equazione in due incognite:
>
>
>
>
>
>
a11 x1 + a12 x2 = b1
>
>
>
>
>
>
e la sua soluzione è ricondotta a quella di un
>
>
>
:
sistema di una sola equazione.
Data una matrice 2 ⇥ 2:
A=
✓
a b
c d
◆
l’espressione
a b
c d
= ad
bc
è detta determinante della matrice A. Il determinante della matrice A si può anche
indicare con la notazione |A| oppure con “ det A ”.
18
Determinante
Esempio 3.5.1. Si verifica facilmente che
1
2
7
5
=5
0 4
1 3
( 14) = 19 ,
=
2 3
1 3
4,
=6
3=3.
Utilizzando la definizione di determinante, lo schema relativo alla risoluzione di
sistemi di due equazioni in due incognite si può scrivere in maniera compatta, notando
ad esempio che il termine a11 a22 a12 a21 è il determinante della matrice dei coefficienti.
Nel linguaggio delle matrici, abbiamo:
Si consideri il sistema lineare la cui matrice completa è
(A|B ) =
a11
a21
a12
a22
b1
b2
!
Allora:
(1) se |A| =
6 0 esiste ed è unica la soluzione (↵1 , ↵2 ) 2 R2 , ed è data da:
↵1 =
b1
b2
a12
a22
↵2 =
|A|
a11
a21
b1
b2
|A|
(2) se |A| = 0 allora:
(20 ) se
b1
b2
a12
6= 0 o
a22
(200 ) se
b1
b2
a12
a22
=
a11
a21
a11
a21
equazione in due incognite:
b1
b2
b1
6= 0 il sistema è incompatibile.
b2
= 0 il sistema è equivalente al sistema di una sola
a11 x1 + a12 x2 = b1 .
3.6 Esercizi
Esercizio 3.6.1. Si consideri l’equazione in una incognita 1
nella “forma normale” ax = b .
x = 3x + x . Si scriva
Soluzione. Raccogliendo i coefficienti si ottiene 5x = 1 .
X
Esercizio 3.6.2. Si scriva in forma normale l’equazione x + 2x = 3x.
X
Soluzione. La forma normale è 0x = 0 .
19
Esercizio 3.6.3. Si consideri la matrice completa:
0
B
B
(A|B) = B
@
1
6
0
1
3
4
0
0
7
0
0
1
5 5
3 2
0 2
2 11
1
C
C
C
A
Dire se il sistema associato è compatibile.
Soluzione. Il sistema è incompatibile, poiché la terza equazione è 0 = 2.
X
Esercizio 3.6.4. Scrivere la soluzione generale del sistema
8
>
< 3x1 + x2 + 2x3 = 7
x2
x3 = 1
>
:
x3 = 5
Soluzione. Sia (↵1 , ↵2 , ↵3 ) 2 R3 una soluzione.
Dalla terza equazione si vede che deve essere ↵3 = 5.
Sostituendo questo valore (al posto di x3 ) nelle prime due equazioni si ottiene
(
3x1 + x2 + 10 = 7
x2
5 =1
ovvero, in forma normale,
(
3x1 + x2 = 3
x2 = 6
Ora dalla seconda equazione si vede che deve essere ↵2 = 6.
Sostituendo questo valore nella prima equazione si ottiene
3x1 + 6 =
3
ovvero in forma normale 3x1 = 9, da cui si ricava la soluzione ↵1 = 93 = 3.
Il sistema ammette quindi un’unica soluzione, data dalla terna ( 3, 6, 5).
X
La tecnica di risoluzione del precedente esercizio è detta “per sostituzione”, e vedremo più avanti nel corso come si applica ad un sistema generale di m equazioni in n
incognite.
20
Lezione IV
Spazi vettoriali e sottospazi
Sommario: spazi vettoriali: definizione e proprietà elementari; spazi delle n-uple e
delle matrici (reali); sottospazi: intersezione, somma e somma diretta. Esempi.
4.1 Introduzione
Abbiamo visto nella lezione precedente che un sistema di equazioni lineari in n incognite
è determinato dalla sua matrice completa, e che una soluzione è una n-upla di numeri
reali. Per proseguire con lo studio di sistemi di equazioni lineari, è fondamentale
approfondire le proprietà di n-uple e matrici. Ricordiamo che
Rn = X = (x1 , x2 , . . . , xn ) : x1 , x2 , . . . , xn 2 R .
L’elemento xi è detto componente i-esima di X (x1 è la prima componente, x2 la
seconda, etc.). In questo contesto, un numero k 2 R è detto uno scalare.
Le n-uple possono essere sommate fra di loro e moltiplicate per uno scalare. Sia
Y = (y1 , y2 , . . . , yn ) 2 Rn . Definiamo somma e moltiplicazione per uno scalare come
segue:
X + Y := (x1 + y1 , x2 + y2 , . . . , xn + yn ) ,
kX := (kx1 , kx2 , . . . , kxn ) .
Componente
i-esima
Operazioni
di Rn
Sia
0Rn := (0, 0, . . . , 0)
l’n-upla nulla. Si può verificare che
Proposizione 4.1.1. Valgono le seguenti proprietà:
i) (Rn , +, 0Rn ) è un gruppo commutativo, con elemento neutro 0Rn e opposto
X := ( x1 , x2 , . . . , xn )
ii) 8 k, k 0 2 R e 8 X, Y 2 Rn si ha
1. (k + k 0 )X = kX + k 0 X
2. k(X + Y ) = kX + kY
3. k(k 0 X) = (kk 0 )X
4. 1X = X
21
n-upla
nulla
Dimostrazione. La dimostrazione è una semplice verifica. Siano X, Y, Z tre n-uple.
Allora:
(X + Y ) + Z = (x1 + y1 , x2 + y2 , . . . , xn + yn ) + (z1 , z2 , . . . , zn )
= (x1 + y1 ) + z1 , (x2 + y2 ) + z2 , . . . , (xn + yn ) + zn
= x1 + (y1 + z1 ), x2 + (y2 + z2 ), . . . , xn + (yn + zn )
= (x1 , x2 , . . . , xn ) + (y1 + z1 , y2 + z2 , . . . , yn + zn )
= X + (Y + Z)
dove la terza uguaglianza segue dall’associatività della somma di numeri reali. Abbiamo
dimostrato che + è una operazione associativa di Rn . Si verifica facilmente che è
commutativa:
X + Y = (x1 + y1 , x2 + y2 , . . . , xn + yn )
= (y1 + x1 , y2 + x2 , . . . , yn + xn ) = Y + X
poiché è commutativa la somma di numeri reali. Chiaramente 0Rn è elemento neutro:
X + 0Rn = (x1 + 0, x2 + 0, . . . , xn + 0)
= (x1 , x2 , . . . , xn ) = X ,
e per la proprietà commutativa si ha anche 0Rn + X = X + 0Rn = X. Per finire notiamo
che
X + ( X) = (x1
x 1 , x2
x2 , . . . , x n
xn ) = (0, 0, . . . , 0) = 0Rn
e per la proprietà commutativa ( X) + X = X + ( X) = 0Rn . Quindi ogni X è
simmetrizzabile e il simmetrico (l’opposto in notazione additiva) è proprio la n-upla
X. Questo completa la prova del punto i).
Per ogni k, k 0 2 R si ha
(k + k 0 )X = (k + k 0 )x1 , (k + k 0 )x2 , . . . , (k + k 0 )xn
= (kx1 + k 0 x1 , kx2 + k 0 x2 , . . . , kxn + k 0 xn )
= (kx1 , kx2 , . . . , kxn ) + (k 0 x1 , k 0 x2 , . . . , k 0 xn )
= kX + k 0 X ,
k(X + Y ) = k(x1 + y1 ), k(x2 + y2 ), . . . , k(xn + yn )
= (kx1 + ky1 , kx2 + ky2 , . . . , kxn + kyn )
= (kx1 , kx2 , . . . , kxn ) + (ky1 , ky2 , . . . , kyn )
= kX + kY ,
k(k 0 X) = k(k 0 x1 ), k(k 0 x2 ), . . . , k(k 0 xn )
22
= (kk 0 )x1 , (kk 0 )x2 , . . . , (kk 0 )xn
= (kk 0 )X ,
1X = (1 · x1 , 1 · x2 , . . . , 1 · xn )
= (x1 , x2 , . . . , xn ) = X .
⌅
Questo completa la prova del punto ii).
Un insieme con due operazioni che soddisfano proprietà analoghe a quelle della
proposizione 4.1.1 si dice spazio vettoriale (reale). La definizione di spazio vettoriale
si può dare sostituendo ad R un qualsiasi campo K. Per semplicità di trattazione ci
limitiamo al caso K = R, sebbene non ci sia alcuna sostanziale di↵erenza con il caso
generale.
Definizione 4.1.2. Un insieme non vuoto V è detto spazio vettoriale (reale) se in
V sono definite una operazione interna di “somma”
Spazio
vettoriale
s:V ⇥V !V ,
denotata con s(v, v0 ) = v + v0 , ed una operazione esterna p di “prodotto per uno
scalare”:
p:R⇥V !V ,
denotate con la semplice giustapposizione p(k, v) = kv, soddisfacenti le proprietà
seguenti:
i) (V, +, 0V ) è un gruppo commutativo, il cui elemento neutro indichiamo con 0V ;
ii) 8 k, k 0 2 R e 8 v, v0 2 V si ha
1. (k + k 0 )v = kv + k 0 v
2. k(v + v0 ) = kv + kv0
3. k(k 0 v) = (kk 0 )v
4. 1v = v
L’elemento 0V sarà indicato semplicemente con 0, quando questo non generi confusione.
Le proprietà 1 e 2 si dicono “proprietà distributive” (del prodotto rispetto alla somma).
Gli elementi di V si dicono vettori e saranno indicati in grassetto. L’elemento 0 si
dirà vettore nullo, e l’opposto di un vettore v sarà indicato con v. Scriveremo
v
v0 = v + ( v0 )
per indicare la somma di un vettore v con l’opposto del vettore v0 .
23
Vettori
Di↵erenza
di vettori
Osservazione 4.1.3. Segue dalla proposizione 4.1.1 che Rn è uno spazio vettoriale.
Notiamo che un elemento (x1 , x2 ) 2 R2 si può identificare con un punto P del piano
cartesiano, di cui x1 e x2 sono le coordinate (in particolare 0R2 = O è l’origine del
sistema di riferimento cartesiano); la stessa coppia (x1 , x2 ) si può anche identificare
#»
con il segmento orientato OP (vettore geometrico applicato nell’origine), e la somma
per componenti (x1 , x2 ) + (y1 , y2 ) = (x1 + y1 , x2 + y2 ) corrisponde alla ben nota regola
del parallelogramma, studiata alle scuole superiori (e ripetuta nel corso di Fisica Generale 1). Un discorso simile vale per R3 , i cui elementi si possono identificare con punti
dello spazio tridimensionale.
Esempio 4.1.4. Sia S un insieme. Le funzioni f, g : S ! R con operazioni
Vettori
geometrici
Spazi di
funzioni
(kf )(x) = k · f (x) ,
(f + g)(x) = f (x) + g(x) ,
formano uno spazio vettoriale, indicato con Fun(S, R).
esercizio.
Si lascia la verifica come
Esempio 4.1.5. Indichiamo con Rm,n l’insieme delle matrici m ⇥ n. Siano A = (aij )
e B = (bij ) due matrici di elementi aij e, rispettivamente, bij (con i = 1, . . . , m e
j = 1, . . . , n). Rm,n è uno spazio vettoriale con operazioni
A + B := (aij + bij ) ,
Matrici
m⇥n
kA := (kaij ) .
L’elemento neutro rispetto alla somma
0
0
B
B0
B.
B.
@.
è la matrice
1
0 ... 0
C
0 . . . 0C
..
.. C
C
.
.A
0 0 ... 0
con tutti gli elementi nulli. L’opposto di A è la matrice A := ( aij ) con tutti gli
elementi cambiati di segno. La verifica che si tratta di uno spazio vettoriale procede in
maniera completamente analoga a quella per Rn (con l’unica di↵erenza che gli elementi
invece di essere disposti in una riga sono disposti per righe e per colonne), ed è lasciata
agli studenti come esercizio.
4.2 Proprietà elementari
Proposizione 4.2.1 (Legge di semplificazione della somma).
v + v0 = v + v00
()
24
v0 = v00 .
Legge di
semplificazione
della somma
Dimostrazione. L’implicazione “(” è ovvia, proviamo l’implicazione “)”. Per definizione di spazio vettoriale ogni elemento possiede un opposto. Aggiungendo v ambo
i membri dell’uguaglianza di sinistra, dall’associatività del prodotto e dalla definizione
di opposto segue che 0 + v0 = 0 + v00 , ovvero v0 = v00 (per definizione di elemento
neutro).
⌅
Proposizione 4.2.2 (Legge di annullamento del prodotto).
kv = 0
()
k=0 o v=0.
Legge di
annullamento
del prodotto
Dimostrazione. Dobbiamo dimostrare le tre seguenti a↵ermazioni:
1. 0v = 0 8 v 2 V ,
2. k0 = 0 8 k 2 R,
3. se k 6= 0 e v 6= 0 allora kv 6= 0.
Dalla proprietà distributiva segue che:
0v = (0 + 0)v = 0v + 0v ,
che si può scrivere nella forma 0v + 0 = 0v + 0v (0 è elemento neutro). Dalla legge di
semplificazione della somma segue che 0 = 0v. Questo prova il punto 1.
Analogamente da k0 = k(0 + 0) = k0 + k0 segue il punto 2.
Per ogni k 6= 0, abbiamo
v = 1v = (k 1 k)v = k 1 (kv) .
Se kv = 0, dalla precedente uguaglianza si ricava v = k 1 (kv) = k 1 0 = 0. Questo
prova il punto 3 (se k e v sono diversi da zero, kv non si può annullare).
⌅
Usando l’unicità dell’opposto, si può facilmente dimostrare che per ogni k, v si ha:
( k)v = k( v) =
(kv) .
Proposizione 4.2.3. Se V e V 0 sono spazi vettoriali, allora V ⇥ V 0 è uno spazio
vettoriale con operazioni
(v, v0 ) + (w, w0 ) := (v + w, v0 + w0 ) ,
L’elemento neutro è (0V , 0V 0 ) e l’opposto di (v, v0 ) è
k(v, v0 ) := (kv, kv0 ) .
(v, v0 ) = ( v, v0 ).
Dimostrazione. La dimostrazione è analoga a quella per Rn . Ad esempio, dalla commutatività della somma di V e V 0 segue la commutatività della somma di V ⇥ V 0 :
(v, v0 ) + (w, w0 ) = (v + w, v0 + w0 ) = (w + v, w0 + v0 ) = (w, w0 ) + (v, v0 ) .
Dall’associatività della somma di V e V 0 segue l’associatività della somma di V ⇥ V 0 ,
e cosı̀ per tutte le altre proprietà che definiscono uno spazio vettoriale.
⌅
Osserviamo che come spazio vettoriale Rn è il prodotto cartesiano di n copie di R.
25
Prodotto
cartesiano
di spazi
vettoriali
4.3 Sottospazi
Definizione 4.3.1. Sia (G, ⇤) un insieme con una operazione. Un sottoinsieme non
vuoto G0 ✓ G si dice chiuso rispetto all’operazione ⇤ se
a ⇤ b 2 G0
Chiusura
rispetto a
un’operazione
8 a, b 2 G0 .
Ad esempio Z ⇢ R è chiuso rispetto all’operazione di somma, ma Zr{0} ⇢ Qr{0}
non è chiuso rispetto all’operazione di divisione.
Definizione 4.3.2. Sia V uno spazio vettoriale, con operazioni s e p, e W ✓ V un
sottoinsieme non vuoto. Diremo che W è un sottospazio vettoriale di V se, rispetto
alle stesse operazioni p, s di V , è uno spazio vettoriale.
In queste note, un sottospazio vettoriale verrà chiamato semplicemente “sottospazio”.
Esistono due “criteri” elementari, descritti nei punti b) e c) della proposizione seguente,
per stabilire quando un sottoinsieme è un sottospazio.
Proposizione 4.3.3. Sia V uno spazio vettoriale e W ✓ V un sottoinsieme non vuoto.
Le seguenti condizioni sono equivalenti:
a) W è un sottospazio di V ;
b) 8 k 2 R e 8 w, w0 2 W si ha
b1) kw 2 W ,
b2) w + w 2 W ;
c) 8 k, k 0 2 R e 8 w, w0 2 W si ha kw + k 0 w0 2 W .
La condizione ii) ci dice che W è chiuso rispetto alle operazioni di V .
Dimostrazione. a) ) b) per definizione di spazio vettoriale. Proviamo che b) ) a).
Assumiamo per ipotesi che a) sia soddisfatta. La proprietà associativa e commutativa
valgono in V , quindi valgono anche in W . Similmente, le proprietà ii) della definizione
4.1.2 valgono in V , quindi valgono anche in W . Per provare che W è uno spazio
vettoriale rimane da dimostrare che contiene il vettore nullo e l’inverso di ogni elemento.
Per ipotesi kw 2 W per ogni k 2 R e w 2 W : prendendo k = 0 si prova che
0 = 0w 2 W ; prendendo k = 1 si prova che w = ( 1)w 2 W . Quindi a) () b).
D’altronde dalla c) prendendo k 0 = 0 si ottiene b1) e prendendo k = k 0 = 1 si
ottiene b2). Quindi c) ) b). L’implicazione opposta è ovvia: dalla b1) kw 2 W e
k 0 w0 2 W per ogni k, k 0 , w, w0 ; dalla b2) v+v0 2 W per ogni v, v0 2 W , e in particolare
prendendo v = kw e v0 = k 0 w0 si giunge alla tesi kw + k 0 w0 2 W .
⌅
26
Sottospazi
vettoriali
Se V è uno spazio vettoriale, due sottospazi banali sono dati da {0} e da V stesso.
Che V sia un sottospazio è ovvio. Che lo sia {0} è una semplice verifica: per ogni
k 2 R e w, w0 2 {0} (quindi w = w0 = 0) si ha kw = 0 (legge di annullamento del
prodotto) e w + w0 = 0 (per la proprietà dell’elemento neutro). Quindi il criterio b)
della proposizione 4.3.3 {0} è sottospazio di V .
Sottospazi
banali
Esempio 4.3.4. Molti esempi interessanti si incontrano nei corsi di analisi. Sia
Fun(R, R) lo spazio vettoriale delle funzioni R ! R (cf. esempio 4.1.4 nel caso S = R).
Numerose classi di funzioni sono chiuse rispetto alla somma e moltiplicazione per uno
scalare, e formano quindi sottospazi di Fun(R, R). Fra queste ricordiamo: le funzioni
continue, derivabili, le funzioni di classe C n (con n 0), le funzioni di classe C 1 .
Sottospazi
di funzioni
Esempio 4.3.5. Un esempio importante è dato dalle funzioni polinomiali (da non
confondere con i polinomi). Una funzione p : R ! R si dice polinomiale (di ordine
 n) se è della forma
Funzioni
polinomiali
p(x) = a0 + a1 x + a2 x2 + . . . + an xn
con a0 , a1 , . . . , an 2 R. Si verifica facilmente (raccogliendo i coefficienti) che rispetto
alle operazioni definite nell’esempio 4.1.4 si ha
(p + p0 )(x) = (a0 + a00 ) + (a1 + a01 )x + (a2 + a02 )x2 + . . .
(kp)(x) = ka0 + (ka1 )x + (ka2 )x2 + . . .
per ogni p(x) = a0 + a1 x + a2 x2 + . . . + an xn e p0 (x) = a00 + a01 x + a02 x2 + . . . + a0m xm .
Poiché il risultato delle due operazioni è ancora una funzione polinomiale, per il criterio
b) della proposizione 4.3.3 tali funzioni formano un sottospazio di Fun(R, R).
Un esempio importante di sottospazio si incontra nello studio dei sistemi lineari.
Proposizione 4.3.6. Sia S⌃ l’insieme delle soluzioni di un sistema ⌃ di m equazioni
lineari in n incognite:
ai1 x1 + ai2 x2 + . . . + ain xn = bi
8 i = 1, . . . , m .
(4.1)
S⌃ ✓ Rn è un sottospazio se e solo se il sistema è omogeneo.
Dimostrazione. Un sottospazio contiene sempre il vettore nullo. L’n-upla nulla è soluzione di ⌃ solo se bi = 0 8 i = 1, . . . , m, ovvero ⌃ è omogeneo. Questo prova che la
condizione è necessaria.
Assumiamo ora che ⌃ sia omogeneo, e mostriamo che per S⌃ vale il criterio b) della
proposizione 4.3.3. Sia k 2 R, e siano Y = (y1 , . . . , yn ) e Z = (z1 , . . . , zn ) due soluzioni
27
Soluzioni di
un sistema
lineare
del sistema. Dimostriamo che kY e Y + Z sono ancora soluzioni. Sostituendo kyj ad
xj nell’equazione (4.1) (per ogni j = 1, . . . , m) si trova
ai1 (ky1 ) + ai2 (ky2 ) + . . . + ain (kyn ) =
= kai1 y1 + kai2 y2 + . . . + kain yn =
= k(ai1 y1 + ai2 y2 + . . . + ain yn ) = 0
per ogni i = 1, . . . , m. L’ultima uguaglianza segue dal fatto che per ipotesi Y è soluzione
di ⌃. Questo prova che kY è ancora soluzione di ⌃.
In maniera analoga sostituendo yj + zj ad xj nell’equazione (4.1) si trova
ai1 (y1 + z1 ) + ai2 (y2 + z2 ) + . . . + ain (yn + zn ) =
= (ai1 y1 + ai2 y2 + . . . + ain yn ) + (ai1 z1 + ai2 z2 + . . . + ain zn ) = 0 + 0 = 0
dove si è usata l’ipotesi che Y e Z risolvono ⌃. Questo prova che anche Y + Z è
soluzione di ⌃.
⌅
4.4 Operazioni su sottospazi
Le proprietà che seguono sono elementari e si dimostrano, come al solito, usando uno dei
criteri della proposizione 4.3.3. Per la dimostrazione si veda il capitolo III di [BruLan]
(prop. 2.3 e 2.5). Siano W1 e W2 sottospazi di V . Allora
1. W1 \ W2 è un sottospazio di V .
Intersezione
e somma di
sottospazi
2. W1 + W2 := v = w1 + w2 : w1 2 W1 , w2 2 W2 è un sottospazio di V .
W1 + W2 è detto “somma” di W1 e W2 . L’unione W1 [ W2 in generale non è uno spazio
vettoriale. Il più piccolo sottospazio di V che contiene W1 [ W2 è W1 + W2 .
Osserviamo che l’insieme S⌃ delle soluzioni di un sistema lineare omogeneo in n
incognite è l’intersezione dei sottospazi di Rn dati dalle soluzioni di ciascuna equazione
del sistema.
Definizione 4.4.1. La somma W1 + W2 si dice diretta, e si indica con W1 W2 , se
ogni v 2 W1 + W2 può essere decomposto in un solo modo come somma v = w1 + w2
di w1 2 W1 e w2 2 W2 .
Proposizione 4.4.2. W1 + W2 è una somma diretta se e solo se W1 \ W2 = {0}.
Dimostrazione. Sia v = w1 + w2 = w10 + w20 , con w1 , w10 2 W1 e w2 , w20 2 W2 . Allora
u := w1
w10 = w20
28
w2 .
Somma
diretta
Poiché per definizione di sottospazio w1 w10 2 W1 e w2 w20 2 W2 , il vettore u è
elemento sia di W1 che di W2 , ovvero u 2 W1 \ W2 .
Se W1 \ W2 = {0}, abbiamo u = w1 w10 = w20
w2 = 0, ovvero w1 = w10 ,
w2 = w20 e la decomposizione di v è unica. Quindi la somma è diretta.
Viceversa sia W1 \ W2 6= {0} e sia u un elemento non nullo di W1 \ W2 . Allora
0 = u u = 0 + 0 sono due decomposizioni di↵erenti dello stesso elemento 0 2 V e la
somma non è diretta.
⌅
Esempio 4.4.3. Sia U = {(x, y) 2 R2 : x = 0} l’asse verticale del piano cartesiano
e W = {(x, y) 2 R2 : y = 0} l’asse orizzontale. Allora U \ W = {(0, 0)} e la somma
U + W è diretta. Ogni vettore di R2 si può scrivere come somma (x, y) = (x, 0) + (0, y),
dove (x, 0) 2 W e (0, y) 2 U ; quindi U + W = R2 . Notiamo che U [ W non è
uno spazio vettoriale, in quanto (1, 0) 2 W ⇢ U [ W , (0, 1) 2 U ⇢ U [ W , ma
(1, 0) + (0, 1) = (1, 1) 2
/ U [ W.
29
Lezione V
Esercitazione su vettori e matrici
Sommario: esercizi su spazi vettoriali e calcolo di determinanti; determinante matrici
3 ⇥ 3 (regola di Sarrus); sviluppo di Laplace del determinante di una matrice n ⇥ n.
5.1 Esercizi su spazi e sottospazi
Esercizio 5.1.1 (2.8.1 di [Pel1]). Dire quali dei seguenti insiemi sono sottospazi di R2 :
1. E1 = {(x, y) 2 R2 | x + y = 0}
2. E2 = {(x, y) 2 R2 | y = 4}
3. E3 = {(x, y) 2 R2 | y = x2 }
4. E4 = {(x, y) 2 R2 | x
y = 0}
Soluzione. E1 ed E4 sono insiemi di soluzioni di sistemi lineari omogenei: per la
Prop. 4.3.6 sono quindi un sottospazio di R2 . E2 sono le soluzioni di un sistema lineare
non omogeneo: quindi per la Prop. 4.3.6 E2 non è sottospazio di R2 . Infine, presi due
vettori (1, 1) e ( 1, 1) di E3 , la loro somma (0, 2) non è in E3 : dal criterio b2) della
Prop. 4.3.3 segue che E3 non è sottospazio di R2 .
X
Si può verificare facilmente che un insieme E = {(x, y) 2 R2 : y = f (x)} è un sottospazio di R2 se e solo se: E = {0, 0}, E = R2 oppure E è una retta passante per l’origine.
Il grafico degli insiemi dell’esercizio 5.1.1 è in figura 1. Dal grafico si vede che E2 non
è un sottospazio perché non passa per l’origine ((0, 0) 2
/ E2 ), E3 non è un sottospazio
perché non è una retta (è una parabola).
Figura 1: E1 è in verde, E2 in arancione, E3 in rosso, E4 in blu.
30
Esistono numerosi siti internet che permettono di disegnare il grafico di una funzione.
Ad esempio: http://fooplot.com e http://graph-plotter.cours-de-math.eu.
Esercizio 5.1.2 (2.8.3 di [Pel1]). Sia
(
)
f :R!R
V :=
: a, b 2 R .
x 7! a cos x + b sin x
Si verifichi che V è un sottospazio di Fun(R, R).
Soluzione. Dati due qualsiasi elementi f (x) = a cos x+b sin x e f 0 (x) = a0 cos x+b0 sin x
di V , e due scalari k, k 0 2 R raccoglientdo i coefficienti troviamo
(kf + k 0 f 0 )(x) = kf (x) + k 0 f 0 (x) = k(a cos x + b sin x) + k 0 (a0 cos x + b0 sin x)
= (ka + k 0 a0 ) cos x + (kb + k 0 a0 ) sin x .
Essendo una combinazione di cos x e sin x, kf + k 0 f 0 2 V e dal criterio c) della
Prop. 4.3.3 segue che V è un sottospazio di Fun(R, R).
X
Esercizio 5.1.3 (2.8.4 di [Pel1]). Dire se le funzioni biunivoche R ! R formano un
sottospazio di Fun(R, R).
Soluzione. Condizione necessaria affinché un sottoinsieme di uno spazio vettoriale sia
un sottospazio è che contenga il vettore nullo. Nel caso di Fun(R, R), il vettore nullo è
la funzione identicamente nulla, ovvero la funzione
f :R!R,
f (x) = 0 8 x .
Tale funzione non è iniettiva né suriettiva, quindi non è biunivoca. Pertanto le funzioni
biunivoche non formano un sottospazio di Fun(R, R).
X
Esercizio 5.1.4 (2.8.6 di [Pel1]). In R3 si considerino i sottospazi vettoriali
U = {(x, y, z) 2 R3 : x + y = 4z} ,
W = {(a, 2b, 0) 2 R3 : a, b 2 R} .
Si verifichi che U [ W non è un sottospazio di R3 .
Soluzione. Usiamo il criterio b2) della Prop. 4.3.3. Dobbiamo trovare due vettori di
U [ W la cui somma non è contenuta in U [ W . Si prenda ad esempio (2, 2, 1) 2 U ⇢
U [ W e (1, 0, 0) 2 W ⇢ U [ W . La loro somma (3, 2, 1) non è elemento di W (la terza
componente non è zero) né di U , in quanto x + y = 3 + 2 = 5 6= 4z = 4.
X
31
Funzione
identicamente
nulla
5.2 Esercizi su matrici 2 ⇥ 2
Il determinante di una matrice 2⇥2 è stato definito a pagina 18. Una regola mnemonica
per ricordare la definizione è illustrata nella figura qui sotto:
Il determinante della matrice si ottiene prendendo, con il segno +, il prodotto degli
elementi sulla diagonale principale (in rosso) e sottraendo ad esso il prodotto degli
elementi sulla diagonale opposta (in blu).
Esercizio 5.2.1. Calcolare il determinante delle matrici:
✓
◆
✓
◆
2 1
5 5
A=
,
B=
.
4 7
2 4
Soluzione. |A| = 2 · 7 1 · 4 = 10, |B| = 5 · 4
possono avere lo stesso determinante.
5 · 2 = 10. Notiamo che matrici di↵erenti
X
Esercizio 5.2.2 (simile a 3.6.4 di [Pel1]). Dire se per ogni A, B 2 R2,2 vale al proprietà
|A + B| = |A| + |B| (linearità del determinante).
Soluzione. Evidentemente tale proprietà non è valida. Un controesempio elementare è
dato da
✓
◆
✓
◆
1 0
1
0
A=
,
B=
.
0 1
0
1
In questo caso A + B = 0, quindi |A + B| = 0. Ma |A| = |B| = 1 e |A| + |B| = 2.
X
Esercizio 5.2.3 (simile a 1.8.49 di [Pel1]). Nell’insieme delle matrici 2 ⇥ 2 è definita
una operazione interna di prodotto come segue:
✓
◆✓ 0 0 ◆ ✓ 0
◆
a b
a b
aa + bc0 ab0 + bd0
=
.
c d
c0 d 0
ca0 + dc0 cb0 + dd0
Prodotto
di matrici
2⇥2
Provare che tale operazione: possiede un elemento neutro, che indicheremo con I2 ; non
è commutativa; è associativa. Dire se la struttura algebrica (R2,2 , · , I2 ) è un gruppo.
Dire se (R2,2 , +, 0R2,2 , · , I2 ) è un anello; dire se esiste l’inversa di ogni matrice non nulla.
Soluzione. L’elemento neutro esiste ed è dato dalla matrice
✓
◆
1 0
I2 =
,
0 1
32
Matrice
identica
detta matrice identica di ordine 2, come si può verificare con una semplice sostituzione. Anche l’associatività del prodotto è una semplice verifica. Il prodotto non è
commutativo, infatti prese ad esempio
✓
◆
✓
◆
0 1
0 0
A=
,
B=
,
0 0
1 0
si ha
AB =
✓
1 0
0 0
◆
✓
6= BA =
0 0
0 1
◆
.
(R2,2 , · , I2 ) non è un gruppo, in quanto la matrice nulla non è invertibile. Infatti
C · 0R2,2 = 0R2,2 per ogni C 2 R2,2 : quindi non esiste matrice C tale che C · 0R2,2 = I2 .
(R2,2 , +, 0R2,2 , · , I2 ) è un anello: guardando la definizione 2.2.3, vediamo che la
proprietà 1 è soddisfatta poiché R2,2 è uno spazio vettoriale; la 2 è soddisfatta; esiste
un elemento neutro rispetto al prodotto, che qui abbiamo indicato con I2 ; rimangono
le due proprietà distributive al punto 4, che si possono facilmente verificare usando la
definizione di prodotto fra matrici.
Per finire, esistono matrici diverse da zero che non sono invertibili. Sia ad esempio
0
A la matrice
✓
◆
1 0
0
A =
(5.1)
0 0
e sia B 0 una matrice generica:
0
B =
Evidentemente
0
0
BA =
✓
a 0
c 0
✓
◆
a b
c d
◆
.
6= I2 =
✓
1 0
0 1
◆
qualunque siano i valori di a, b, c, d. Non esiste dunque nessuna matrice B 0 che sia
inversa della matrice A0 definita in (5.1).
X
Le matrici 2 ⇥ 2 sono il primo esempio di anello non commutativo incontrato in questo
corso. Notiamo che la matrice A0 in (5.1) ha determinante nullo; vedremo che questa
è una proprietà generale delle matrici n ⇥ n: una matrice n ⇥ n è invertibile se e solo
se il suo determinante è diverso da zero.
5.3 Determinante di una matrice 3 ⇥ 3
In questa sezione vedremo come si calcola il determinante di una matrice 3 ⇥ 3, e nella
successiva di una matrice n ⇥ n per n arbitrario. Non daremo la definizione formale
di determinante (chi fosse interessato la può trovare nella sezione 3.1 di [Pel1]), ma dei
metodi concreti per il suo calcolo.
33
Sia
0
1
a11 a12 a13
B
C
A = @a21 a22 a23 A .
a31 a32 a33
Un metodo mnemonico per il calcolo di |A| è la regola di Sarrus6 , che consiste nello
scrivere la matrice 3 ⇥ 5 ottenuta da A ripetendo le prime due colonne, come illustrato
nella seguente figura
Quindi si prendono i prodotti degli elementi nelle diagonali rosse con segno +, i prodotti
degli elementi nelle diagonali blu con segno , e si fa la somma.
Una regola mnemonica alternativa consiste nel disegnare le due diagonali e i quattro
triangoli nella figura seguente:
Quindi si prendono i prodotti degli elementi nelle figure rosse con segno +, i prodotti
degli elementi nelle figure blu con segno , e si fa la somma.
Esercizio 5.3.1 (3.6.2 punti 1-4, di [Pel1]). Si calcoli il determinante delle seguenti
matrici:
0
1
0
1
0
1
✓
◆
1 2 1
1 2 3
3 0 0
1 3
B
C
B
C
B
C
A1 =
, A2 = @ 3 1 4 A , A3 = @3 1 3A , A4 = @0 2 0 A .
2 1
3 5
1
1 2 3
0 0
7
Soluzione. Si ha
|A1 | = 1 · 1
3·2=
5
|A2 | = +( 1) + ( 24) + 15
|A3 | = 3 + 6 + 18
3
ed evidentemente |A4 | = 3 · 2 · ( 7) =
6
6
( 3)
20
( 6) =
21
18 = 0
42.
Pierre Frédéric Sarrus (1798–1861).
34
X
Regola di
Sarrus
Esercizio 5.3.2 (3.6.5 di [Pel1]). Dire per
nante della matrice
0
1
B
A = @1
1
Soluzione. Si ha
|A| = bc2 + ab2 + a2 c
quali valori di a, b, c 2 R è nullo il determi1
a a2
C
b b2 A .
c c2
a2 b
b2 c
ac2
abc
a2 b
da cui sommando e sottraendo abc si ottiene
= bc2 + ab2 + a2 c + abc
= (a
b)(b
c)(c
b2 c
ac2
a) .
Il determinante è zero se almeno due dei tre parametri sono uguali, ovvero se (e solo
se) la matrice ha almeno due righe uguali.
X
5.4 Determinante di una matrice n ⇥ n
Ricordiamo che indichiamo con Rm,n l’insieme delle matrici m ⇥ n. Una matrice che
ha lo stesso numero di righe e di colonne si dice quadrata; useremo il simbolo Mn (R)
per indicare l’insieme delle matrice quadrate n ⇥ n.
Sia A = (aij ) 2 Mn (R) e indichiamo con Ahk 2 Mn 1 (R) la matrice che si ottiene da
A eliminando la riga h e la colonna k. La matrice Ahk si dice minore complementare
dell’elemento ahk , e lo scalare hk = ( 1)h+k |Ahk | è detto complemento algebrico
di ahk .
Il determinante di A si può calcolare scegliendo una riga i a piacere (1  i  n) ed
usando la formula
n
X
|A| =
aij ij
j=1
detta sviluppo di Laplace per righe7 . Oppure si sceglie una colonna j a piacere
(1  j  n) e si usa la formula
n
X
|A| =
aij ij
i=1
detta sviluppo di Laplace per colonne.
Lo sviluppo di Laplace permette di calcolare il determinante di una matrice n⇥n in
modo ricorsivo, riducendolo prima al calcolo di determinanti di matrici (n 1)⇥(n 1),
poi (n 2) ⇥ (n 2), fino ad arrivare al determinante di matrici 3 ⇥ 3 o 2 ⇥ 2, discusso
nelle sezioni precedenti.
7
Pierre-Simon Laplace (1749–1827)
35
Matrici
quadrate
Minori
Complemento
algebrico
Sviluppo di
Laplace
per righe
Sviluppo di
Laplace
per colonne
Esercizio 5.4.1. Scrivere lo sviluppo di Laplace di una generica matrice 3 ⇥ 3 rispetto
all’ultima colonna.
Soluzione.
a11 a12 a13
a21 a22
a21 a22 a23 = a13
a31 a32
a31 a32 a33
a23
a11 a12
a11 a12
+ a33
.
a31 a32
a21 a22
X
Esercizio 5.4.2 (3.6.6 punto 1, di [Pel1]). Dire per quale valore di k 2 R la seguente
matrice ha determinante nullo:
0
1
1
1 0
B
C
A = @0 1
kA .
1 0
k
Soluzione. Usando lo sviluppo di Laplace rispetto alla terza colonna si trova:
|A| = 0
( k)
1
1
1
1
+ ( k)
0
0
1
=k
1
k=0.
X
Il determinante è nullo per ogni valore di k.
Esercizio 5.4.3. Calcolare il determinante della matrice
0
1
0 1 2 0
B4 0 1 2 C
B
C
A=B
C
@3 1 1 0 A
0 2 1 4
Soluzione. Usando lo sviluppo di Laplace rispetto alla prima colonna si trova:
0 1 2
|A| = 0 1 1 0
2 1 4
1 2 0
1 2 0
4 1 1 0 +3 0 1 2
2 1 4
2 1 4
1 2 0
0 0 1 2
1 1 0
quindi sviluppando il determinante della seconda e terza matrice rispetto alla terza
colonna
1 2
1 2
1 2
+ 3 · ( 2)
+3·4
1 1
2 1
0 1
=
4·4
=
4 · 4 · (1
2) + 3 · ( 2) · (1
= 16 + 18 + 12 = 46 .
36
4) + 3 · 4 · 1
Si noti che, quando si usa lo sviluppo di Laplace, conviene sempre scegliere la riga o la
colonna contenente più zeri.
X
Enunciamo alcune proprietà del determinante, senza dimostrazione.
Proposizione 5.4.4. Sia A 2 Mn (R). Allora:
1. se una riga (o una colonna) di A è nulla, |A| = 0;
2. se B è ottenuta da A scambiando fra di loro due righe (o due colonne), allora
|B| = |A|;
3. se A ha due righe (o due colonne) uguali, allora |A| = 0;
4. se B è ottenuta da A moltiplicando per k 2 R gli elementi di una sua riga (o
colonna), allora |B| = k|A|;
5. se A ha due righe (o due colonne) proporzionali, allora |A| = 0;
6. se una riga Ci di A è la somma di due n-uple Xi e Yi , allora |A| = |A0 |+|A00 |, dove
A0 si ottiene da A sostituendo a Ci la n-upla Xi e A00 si ottiene da A sostituendo
a Ci la n-upla Yi ; la stessa cosa vale per le colonne;
7. se una riga (o una colonna) di A è combinazione lineare delle altre, allora |A| = 0;
8. se B è ottenuta da A sommando a una sua riga (o colonna) una combinazione
lineare delle altre righe (o colonne), allora |B| = |A|.
Notiamo che dalla 2 e dallo sviluppo di Laplace si possono derivare tutte le altre
proprietà. Per provare 1 basta usare lo sviluppo di Laplace rispetto alla riga (o colonna)
nulla. Per provare 4 si fa lo sviluppo di Laplace rispetto alla riga (o colonna) che viene
moltiplicata per k. La 3 segue dalla 2: se A ha due righe uguali, scambiandole si ottiene
una matrice B = A e per 2 si ha |A| = |B| = |A|, da cui |A| = 0. La 5 segue da 4 e
3. Per la 6 basta fare lo sviluppo di Laplace rispetto alla riga (o colonna) i e usare la
proprietà distributiva del prodotto. La 7 segue da 3, 4 e 6. La 8 segue da 7 e 6.
37
Lezione VI
Dipendenza e indipendenza lineare
Sommario: dipendenza e indipendenza lineare, generatori, insiemi liberi, spazi finitamente generati, basi, basi canoniche di Rn e Rm,n , n-upla delle componenti. Esempi
ed esercizi.
6.1 Dipendenza e indipendenza lineare
Iniziamo con l’osservare che ogni vettore (x1 , x2 ) 2 R2 si può scrivere nella forma
(x1 , x2 ) = x1 (1, 0) + x2 (0, 1)
ed ogni matrice 2 ⇥ 2 si può scrivere nella forma
✓
a11 a12
a21 a22
◆
= a11
✓
1 0
0 0
◆
+ a12
✓
0 1
0 0
◆
+ a21
✓
0 0
1 0
(6.1)
◆
+ a22
✓
0 0
0 1
◆
.
(6.2)
In generale dato un qualsiasi spazio vettoriale V , se un vettore v 2 V che si può scrivere
come
v = a1 v 1 + a2 v 2 + . . . + an v n ,
ai 2 R, vi 2 V,
Combinazioni
lineari
allora diremo che è combinazione lineare dei vettori v1 , . . . , vn .
Proposizione 6.1.1. L’insieme di tutte le combinazioni lineari
L(v1 , . . . , vn ) := v = a1 v1 + a2 v2 + . . . + an vn : a1 , . . . , an 2 R
è un sottospazio di V detto “spazio generato dai vettori v1 , . . . , vn ” (o anche “inviluppo
lineare”, “copertura lineare” o in inglese “span”). I vettori v1 , . . . , vn si diranno suoi
generatori.
Dimostrazione. Usiamo il criterio c) della Prop. 4.3.3. Siano v = a1 v1 +a2 v2 +. . .+an vn
e v0 = a01 v1 + a02 v2 + . . . + a0n vn due generici vettori di L(v1 , . . . , vn ), e siano k, k 0 2 R.
Raccogliendo i coefficienti si trova:
kv + k 0 v0 = (ka1 + k 0 a01 )v1 + (ka2 + k 0 a02 )v2 + . . . + (kan + k 0 a0n )vn .
Quindi kv + k 0 v0 2 L(v1 , . . . , vn ), essendo combinazione lineare dei vettori v1 , . . . , vn ,
e questo conclude la dimostrazione.
⌅
38
Generatori
Osserviamo che (6.1) e (6.2) implicano che
⇥
⇤
R2 = L (1, 0), (0, 1)
è generato da 2 vettori e
M2 (R) = L
"✓
◆ ✓
◆ ✓
◆ ✓
◆#
1 0
0 1
0 0
0 0
,
,
,
0 0
0 0
1 0
0 1
è generato da 4 matrici.
Esercizio 6.1.2. Mostrare che
⇥
⇤
L (1, 0, 1), (2, 0, 0) ( R3 .
Dimostrazione. Basta trovare X 2 R3 che non è combinazione lineare dei due vettori
dati. Qualunque combinazione lineare di tali vettori avrà 0 come seconda componente,
quindi ad esempio X = (0, 1, 0) non si può scrivere come loro combinazione lineare. ⌅
V si dice finitamente generato se ammette un numero finito di generatori, ossia se
esistono v1 , . . . , vn 2 V tali che V = L(v1 , . . . , vn ). Evidentemente R2 e M2 (R) sono
finitamente generati.
Spazi
finitamente
generati
Esempio 6.1.3. Lo spazio R[x] delle funzioni polinomiali R ! R non è finitamente
generato. Siano per assurdo f1 , . . . , fn i suoi generatori, e sia d il grado del polinomio
di grado più alto fra i generatori. Allora xd+1 non si può scrivere come combinazione
lineare di f1 , . . . , fn , e questo prova che R[x] non è finitamente generato.
Tutti gli spazi che incontreremo nel resto del corso sono finitamente generati.
Osservazione 6.1.4. Osserviamo che aggiungendo ad un insieme I di vettori una loro
combinazione lineare non si cambia lo spazio da essi generato:
L({v} [ I) = L(I) () v 2 I .
E’ naturale cercare un insieme minimo di generatori. A questo scopo è introdotta la
nozione di dipendenza/indipendenza lineare.
Definizione 6.1.5. Sia I = {v1 , . . . , vn }. I vettori di I si dicono linearmente
indipendenti, e I si dice libero, se
a1 v 1 + a2 v 2 + . . . + an v n = 0
=)
a1 = a2 = . . . = an = 0 ,
ovvero se l’unica loro combinazione lineare che dà il vettore nullo è quella con coefficienti tutti nulli. Viceversa se i vettori non sono linearmente indipendenti, diremo che
I è legato.
39
Dipendenza e
indipendenza
lineare
Osservazione 6.1.6. Notiamo che
1. l’insieme {0} è legato, infatti a1 0 = 0 non implica a1 = 0;
2. se 0 2 I, allora I è legato (infatti a1 0+0v1 +0v2 +. . .+0vn = 0 anche se a1 6= 0);
3. se I è libero e I 0 ✓ I, allora I 0 è libero;
4. se I è legato e I 0 ◆ I, allora I 0 è legato.
Proposizione 6.1.7. I = {v1 , . . . , vn } è libero se e solo se nessun vi 2 I si può
scrivere come combinazione lineare dei rimanenti vettori di I.
Dimostrazione. Se I non è libero, allora esistono a1 , . . . , an non tutti nulli tali che
a1 v1 + a2 v2 + . . . + an vn = 0. Sia ai 6= 0, allora
vi =
(ai )
1
X
k6=i
ak v k
è combinazione lineare degli altri vettori di I. Viceversa se un vettore vi =
è combinazione lineare degli altri, allora
vi
X
k6=i
P
k6=i bk vk
bk v k = 0
ed almeno il coefficiente di vi è non nullo. Quindi i vettori non sono linearmente
indipendenti.
⌅
Teorema 6.1.8. I è libero se e solo se v1 6= 0 e vi 2
/ L(v1 , v2 , . . . , vi 1 ).
Dimostrazione. L’implicazione “)” è un corollario della Prop. 6.1.7. Dimostriamo
l’implicazione opposta. Sia a1 v1 + a2 v2 + . . . + an vn = 0. Per ipotesi vn non è
combinazione lineare dei rimanenti, quindi deve essere an = 0 e l’equazione si riduce
a a1 v1 + a2 v2 + . . . + an 1 vn 1 = 0. Per ipotesi vn 1 non è combinazione lineare dei
rimanenti, quindi deve essere an 1 = 0 e l’equazione si riduce a a1 v1 + a2 v2 + . . . +
an 2 vn 2 = 0. Iterando il ragionamento, dopo n 1 passi si giunge ad a1 v1 = 0, e
siccome per ipotesi v1 6= 0, deve essere a1 = 0. Quindi l’unica combinazione lineare
nulla è quella con a1 = a2 = . . . = an = 0, ed I è libero.
⌅
6.2 Basi e componenti
Definizione 6.2.1. Una base B = (v1 , . . . , vn ) di V è un insieme libero ordinato di
generatori.
Notiamo che in una base l’ordine dei vettori è rilevante. Cambiando l’ordine dei vettori
di una base si ottiene una nuova base, da considerarsi diversa da quella di partenza.
40
Basi
Esempio 6.2.2. Per ogni 1  i  n, sia
i 1 volte
n i volte
z }| {
z }| {
ei = ( 0, . . . , 0 , 1, 0, . . . , 0 )
la n-upla con i-esima componente uguale a 1 e tutte le altre uguali a zero. Per ogni
(x1 , . . . , xn ) 2 Rn vale l’identità
Xn
(x1 , . . . , xn ) =
xi ei .
(6.3)
i=1
Questo prova che i vettori ei sono generatori di Rn . Inoltre la combinazione lineare
(6.3) è nulla solo se x1 = x2 = . . . = xn = 0, quindi i vettori formano una base
B = (e1 , e2 , . . . , en )
detta base canonica di Rn .
Base
canonica
di Rn
Esempio 6.2.3. Per ogni 1  i  m e 1  j  m, sia Eij 2 Rm,n la matrice che ha
1 in posizione (i, j) e tutti gli altri elementi uguali a zero. Per ogni A = (aij ) 2 Rm,n
vale l’identità
X
A=
aij Eij .
(6.4)
i=1,...,m
j=1,...,n
Questo prova che le matrici Eij sono generatori di Rm,n . Inoltre la combinazione lineare
(6.4) è nulla solo se aij = 0 per ogni i, j: quindi le matrici Eij formano una base
B = (E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n , . . . , Em1 , Em2 , . . . , Emn )
detta base canonica di Rm,n .
Base
canonica
di Rm,n
Esempio 6.2.4. B = (1, x, x2 , . . . , xn ) è una base per lo spazio delle funzioni polinomiali di grado non superiore ad n.
Esempio 6.2.5. Per definizione, un insieme libero I = (v1 , . . . , vn ) è una base di L(I).
Esempio 6.2.6. L’insieme di vettori (1, 1), (1, 0) e (0, 1) genera R2 (contiene la base
canonica), ma non è una base in quanto (1, 1) = (1, 0) + (0, 1) e i vettori non sono
linearmente indipendenti.
Teorema 6.2.7. B = (v1 , . . . , vn ) è una base di V se e solo se ogni v 2 V si può
scrivere in un unico modo come combinazione lineare
v = a1 v 1 + a2 v 2 + . . . + an v n .
Il coefficiente ai è detto componente i-esima di v nella base B, e scelta una base ogni
vettore è univocamente determinato dalle sue componenti. Scriveremo
v = (a1 , a2 , . . . , an )B
per indicare le componenti di v nella base B.
41
Componenti
Dimostrazione. Sia B una base di V e
v = a1 v1 + a2 v2 + . . . + an vn = a01 v1 + a02 v2 + . . . + a0n vn .
Allora
(a1
a01 )v1 + (a2
a02 )v2 + . . . + (an
a0n )vn = 0 .
Per definizione di base, v1 , . . . , vn sono linearmente indipendenti, e quindi deve essere
a1 = a01 , a2 = a02 , . . . , an = a0n . Se ne deduce che v si può scrivere in un unico modo
come combinazione lineare dei vettori v1 , . . . , vn .
Viceversa supponiamo ogni v 2 V si possa scrivere in un unico modo come combinazione lineare dei vettori v1 , . . . , vn . Allora B genera V . Inoltre
b1 v 1 + b2 v 2 + . . . + bn v n = 0
implica b1 = b2 = . . . = bn = 0, altrimenti si avrebbero due modi di↵erenti di scrivere 0
come combinazione lineare dei vettori v1 , . . . , vn . Se ne deduce che B è libero, ovvero
una base.
⌅
Esempio 6.2.8. xi è la i-esima componente di (x1 , . . . , xn ) 2 Rn rispetto alla base
canonica; aij è una componente di A = (aij ) 2 Rm,n rispetto alla base canonica.
Notiamo che se v = (a1 , a2 , . . . , an )B e v0 = (a01 , a02 , . . . , a0n )B , allora
v + v0 = (a1 + a01 , a2 + a02 , . . . , an + a0n )B
e
kv = (ka1 , ka2 , . . . , kan )B
per ogni k 2 R. Scelta una base, le operazioni di V si traducono nelle operazioni fra
n-uple. Come conseguenza immediata, dati m vettori
wi = (ai1 , ai2 , . . . , ain )B ,
i = 1, . . . , m ,
questi sono linearmente indipendenti se e solo se le corrispondenti n-uple di componenti
sono linearmente indipendenti in Rn , e sono generatori di V se e solo se le n-uple delle
componenti generano Rn .
Esercizio 6.2.9. In R3 si individui, se esiste, un vettore dell’insieme
n
o
I = v1 = (1, 3, 2), v2 = ( 2, 0, 3), v3 = (4, 5, 0), v4 = (0, 1, 4), v5 = (1, 0, 0)
esprimibile come combinazione lineare degli altri elementi di I.
42
Soluzione. Per la Prop. 6.1.7, come prima cosa occorre stabilire se i vettori sono
linearmente indipendenti. La condizione
a1 v 1 + a2 v 2 + . . . + a5 v 5 =
= a1 (1, 3, 2) + a2 ( 2, 0, 3) + a3 (4, 5, 0) + a4 (0, 1, 4) + a5 (1, 0, 0) = 0
è equivalente al sistema di tre equazioni in cinque incognite:
8
>
< a1 2a2 + 4a3 + 0a4 + a5 = 0
3a1 + 0a2 + 5a3 + a4 + 0a5 = 0
>
:
2a1 + 3a2 + 0a3 + 4a4 + 0a5 = 0
Dalla prima equazione ricaviamo a5 =
di due equazioni in quattro incognite:
⇢
ovvero a3 =
a5 si ottiene
3
a
5 1
a5 =
1
a
5 4
4a3 . Le rimanenti danno il sistema
3a1 + 5a3 + a4 = 0
2a1 + 3a2 + 4a4 = 0
2
a
3 1
e a2 =
2
a
3 1
a1 + 2
a1 + 2a2
4
a.
3 4
4
a
3 4
4
Sostituendo queste due nell’equazione per
3
a
5 1
1
a
5 4
=
1
a
15 1
28
a
15 4
.
L’insieme delle soluzioni è dato quindi da
a1 ,
2
a
3 1
4
a
3 4
,
3
a
5 1
1
a
5 4
, a4 ,
1
a
15 1
28
a
15 4
(6.5)
al variare di a1 , a4 2 R. Poiché esistono soluzioni non nulle, l’insieme I è legato.
Scegliendo a1 = 1 e a4 = 0 si trova
v1
ovvero v1 = 23 v2 + 35 v3
1
v
15 5
2
v
3 2
3
v
5 3
+ 0v4 +
1
v
15 5
=0
è combinazione lineare degli altri vettori di I.
X
Esercizio 6.2.10 (2.8.7 di [Pel1]). In R4 si individui, se esiste, un vettore dell’insieme
n
o
I = w1 = (1, 3, 2, 1), w2 = ( 2, 0, 3, 1), w3 = (4, 5, 0, 1), w4 = (0, 1, 4, 1), w5 = (1, 0, 0, 1)
esprimibile come combinazione lineare degli altri elementi di I.
Soluzione. Si procede come nell’esercizio 6.2.9 e si ricava un sistema di quattro equazioni in cinque incognite a1 , . . . , a5 . Le prime tre equazioni sono le stesse dell’esercizio
6.2.9, la quarta è
a1 + a2 + a3 + a4 + a5 = 0 .
(6.6)
43
Le soluzioni del sistema sono date da quelle soluzioni (6.5) del sistema all’esercizio 6.2.9
che risolvono anche l’equazione
Scrivendo a2 , a3 , a5 come funzioni di a1 , a4 come in (6.5) e sostituendo a (6.6) si
trova
a1 +
Quindi a4 =
2
a
3 1
11
a.
12 1
4
a
3 4
+
3
a
5 1
1
a
5 4
+a4 +
1
a
15 1
28
a
15 4
=
11
a
5 1
12
a
5 4
=0.
Sostituendo in (6.5) si trova l’insieme delle soluzioni:
a1 1 ,
5
9
,
5
12
,
11
12
,
16
9
(6.7)
per ogni a1 2 R. Per a1 = 1 si ricava
w1 =
5
w
9 2
+
5
w
12 3
+
11
w
12 4
16
w5
9
,
X
ovvero il primo vettore è esprimibile come combinazione lineare degli altri.
Esercizio 6.2.11. In R5 si dica per quali valori di k 2 R è possibile esprimere un
vettore dell’insieme
n
I = u1 = (1, 3, 2, 1, 0), u2 = ( 2, 0, 3, 1, k), u3 = (4, 5, 0, 1, 1),
u4 = (0, 1, 4, 1, 0), u5 = (1, 0, 0, 1, 0)
come combinazione lineare degli altri vettori.
o
Soluzione. Procedendo come negli esercizi precedenti si ottiene un sistema di cinque
equazioni in cinque incognite, le prime quattro sono le stesse equazioni dell’esercizio
6.2.10, la quinta è:
ka2 + a3 = 0 .
Sostituendo a questa equazione la soluzione generale (6.7) delle prime quattro equazioni
si trova:
5
5
ka1 12
a1 = 53 13 k 14 a1 = 0 ,
9
ovvero deve essere a1 = 0 (soluzione nulla) oppure k = 34 . I vettori sono linearmente
indipendententi se k 6= 34 , mentre per k = 34 tutte le 5-uple in (6.7) sono soluzioni,
e in particolare per a1 = 1 si trova che il primo vettore è combinazione lineare dei
5
16
rimanenti: u1 = 59 u2 + 12
u3 + 11
u
u.
X
12 4
9 5
44
Lezione VII
Esercitazione su basi e dimensione
Sommario: lemma di Steinitz (senza dimostrazione), equipotenza delle basi, metodo
degli scarti successivi, completamento ad una base, dimensione. Esercizi.
7.1 Proprietà delle basi
Uno spazio vettoriale non sempre ammette una base. Esiste sempre una base se lo
spazio è finitamente generato, come illustrato dal teorema che segue.
Lemma 7.1.1 (Lemma di Steinitz). Sia {v1 , . . . , vn } un insieme di generatori di V e
siano u1 , . . . , um dei vettori linearmente indipendenti. Allora m  n.
Dimostrazione. Per la prova si veda il teorema 2.6.3 di [Pel1].
Lemma di
Steinitz
⌅
Teorema 7.1.2. Sia V uno spazio vettoriale finitamente generato, B = (v1 , . . . , vn )
una base e I = (u1 , . . . , um ) un insieme di vettori di V . Allora:
i) se I è una base, m = n;
ii) se I è un insieme di generatori, si può sempre trovare una base B 0 formata da
vettori di I; in particolare questo implica che m n;
iii) se I è un insieme libero, si può sempre trovare una base B 0 contenente i vettori
di I; in particolare questo implica che m  n.
Dimostrazione. Se B ed I sono basi, siccome I è libero e B genera V dal lemma di
Steinitz segue che m  n. Ma anche B è libero ed I genera V , quindi per il lemma di
Steinitz n  m. Da questo si ricava m = n, ovvero il punto i).
La dimostrazione dei punti ii) e iii) è costruttiva. Nel primo caso è detta metodo degli
scarti successivi e serve ad estrarre una base a partire da un insieme sovrabbondante
di generatori. Nel secondo caso è detta metodo del completamento ad una base e serve
a determinare una base contenente dei vettori assegnati in partenza.
Metodo degli scarti successivi
Sia I un insieme di generatori. Sia I1 l’insieme di generatori ottenuto da I rimuovendo
eventuali vettori nulli. Se u2 = L(u1 ) chiamiamo I2 = I1 r {u2 }, altrimenti I2 = I1 . Se
u3 = L(u1 , u2 ) chiamiamo I3 = I2 r {u3 }, altrimenti I3 = I2 . Iterando il procedimento
(controllando tutti i vettori di I fino all’ultimo) si costruisce una sequenza di insiemi
I ◆ I1 ◆ I2 ◆ . . . ◆ Ik
45
Metodo
degli scarti
successivi. . .
dove k è il numero di vettori non nulli di I, Ii = Ii 1 r {ui } se ui 2 L(u1 , . . . , ui 1 ) e
Ii = Ii 1 in caso contrario. Per l’osservazione 6.1.4, si ha
V = L(I) = L(I1 ) ◆ L(I2 ) ◆ . . . ◆ L(Ik ) .
Quindi Ik generano V e sono linearmente indipendenti per il teorema 6.1.8. Ordinando
a piacere i vettori di Ik si ottiene la base B 0 cercata. Notiamo che B 0 per costruzione
ha meno elementi di I, quindi n  m (per il punto i).
Metodo del completamento ad una base
Sia I libero. Applicando il metodo degli scarti successivi all’insieme di generatori
. . . e del
completamento
ad una base
I 0 = (u1 , . . . , um , v1 , . . . , vn )
i primi m vettori non vengono eliminati perché per ipotesi sono linearmente indipendenti. Si ricava quindi una base B 0 ◆ (u1 , . . . , um ) = I. Per il punto i) B 0 ha n elementi,
quindi deve essere m  n.
⌅
Esempio 7.1.3. Sia I = {v1 = (1, 1), v2 = (1, 0), v3 = (0, 1)}. Abbiamo visto nell’esempio 6.2.6 che I genera R2 ma non è libero. Applicando il metodo degli scarti
successivi si vede che v1 6= 0 e v2 2
/ L(v1 ), quindi I2 = I1 = I. Poiché v3 = v1 v2 ,
I3 = I r{v3 } ed una base estratta da I è B = (v1 , v2 ). Notiamo che la base estratta dipende da come si ordinano i vettori dell’insieme I di partenza. Ad esempio ordinandoli
come (v2 , v3 , v1 ) la base estratta è quella canonica B 0 = (v2 , v3 ).
Come conseguenza del teorema precedente, tutte le basi di V hanno lo stesso numero
n di elementi; tale numero è detto dimensione di V ed indicato con dim(V ). Per
convenzione dim({0}) = 0.
Osservazione 7.1.4. dim(Rn ) = n e dim(Rm,n ) = m · n, come si evince contando gli
elementi delle basi canoniche.
Corollario 7.1.5. Sia V uno spazio finitamente generato e W ✓ V un sottospazio.
Allora dim(W )  dim(V ) e si ha l’uguaglianza se e solo se W = V .
Dimostrazione. Una base I = (u1 , . . . , um ) di W è un insieme libero di V , quindi
dim(W ) = m  dim(V ) per il punto iii) del teorema 7.1.2. Si può completare I ad una
base B ◆ I di V . Se dim(W ) = m = dim(V ), B ha lo stesso numero di elementi di I,
da cui B = I devono essere uguali. Da questo si ricava che W = L(I) = L(B) = V . ⌅
Osservazione 7.1.6. Sia V uno spazio di dimensione n. Una immediata conseguenza
del precedente corollario è che: ogni insieme libero di n elementi è una base; ogni
insieme di n generatori è una base.
46
Dimensione
Enunciamo senza dimostrazione la formula di Grassmann. Dati due sottospazi
U, W di V , si ha
dim(U + W ) + dim(U \ W ) = dim(U ) + dim(W ) .
In particolare, se U + W è una somma diretta, dalla Prop. 4.4.2 segue che
dim(U
W ) = dim(U ) + dim(W ) .
7.2 Esercizi
Esercizio 7.2.1. Estrarre una base B di R3 dall’insieme
⇣
⌘
I = v1 = ( 14 , 0, 12 ), v2 = (0, 1, 1), v3 = ( 1, 1, 1), v4 = (0, 0, 1), v5 = (1, 0, 0) .
Soluzione. Applichiamo il metodo degli scarti successivi. Essendo i vettori tutti diversi
da zero, I1 = I. I vettori di L(v1 ) hanno la seconda componente nulla, quindi v2 2
/
L(v1 ) e I2 = I1 . Siccome v3 = 4v1 v2 2 L(v1 , v2 ), allora I3 = I2 r {v3 }. La
condizione
v 4 = a1 v 1 + a2 v 2 + a3 v 3
dà il sistema
8
>
<
1
a
4 1
a3 = 0
a2 a3 = 0
>
: 1
a + a2 + a3 = 1
2 1
Sostituendo le prime due equazioni, a1 = 4a3 e a2 = a3 , nella terza troviamo 2a3 +
a3 + a3 = 1, che non ammette soluzione. Quindi v4 2
/ L(v1 , v2 , v3 ) e I4 = I3 .
Non serve procedere oltre: B = (v1 , v2 , v4 ) è libero quindi, essendo dim(R3 ) = 3, è
anche una base.
X
Esercizio 7.2.2. Completare ad una base B di R3 l’insieme {(1, 0, 1), (0, 0, 2)}.
Soluzione. Usando la base canonica di R3 formiamo l’insieme di generatori:
⇣
⌘
I = v1 = (1, 0, 1), v2 = (0, 0, 2), e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1) .
Applichiamo il metodo degli scarti successivi. I2 = I1 = I poiché v2 non è proporzionale
a v1 . Siccome e1 = v1 + 12 v2 , si ha I3 = I2 r {e1 }. Qualunque combinazione lineare dei
primi tre vettori ha la seconda componente nulla, quindi e2 2
/ L(v1 , v2 , e1 ) e I4 = I3 .
Un insieme libero di tre elementi è una base, quindi B = (v1 , v2 , e2 ).
X
47
Formula di
Grassmann
Esercizio 7.2.3. Dire se
⇥
⇤
1. (3, 2) 2 L (0, 0), (2, 2) ;
⇥
⇤
2. (3, 2) 2 L (1, 1), (2, 2) ;
⇥
⇤
3. (0, 0) 2 L (1, 1), (2, 2) ;
⇥
⇤
4. (3, 2) 2 L (1, 1), (2, 2) ;
5. dire se B = (1, 1), (1, 2) è una base di R2 .
Soluzione. No, si, si, no, si. Andando in ordine:
⇥
⇤
1. L (0, 0), (2, 2) = {a1 (0, 0) + a2 (2, 2) : a1 , a2 2 R} = {(2a2 , 2a2 ) : a2 2 R} =
{(x, y) 2 R2 : x = y} è l’insieme dei vettori che hanno le due componenti uguali.
⇥
⇤
Quindi (3, 2) 2
/ L (0, 0), (2, 2) .
2. a1 (1, 1) + a2 (2, 2) = (3, 2) dà il sistema
⇢
a1 + 2a2 = 3
a1 + 2a2 = 2
Sommando le equazioni si ottiene 4a2 = 5, ossia a2 = 45 . Sostituendo nella prima
si ottiene a1 = 3 52 = 12 . Quindi (3, 2) = 12 (1, 1) + 54 (2, 2) è elemento di
⇥
⇤
L (1, 1), (2, 2) .
3. Questa è banale poiché (0, 0) = 0 · (1, 1) + 0 · (2, 2).
⇥
⇤
⇥
⇤
4. (3, 2) 2
/ L (1, 1), (2, 2) poiché, come al punto 1, L (1, 1), (2, 2) = {(x, y) 2 R2 :
x = y} è l’insieme di vettori che hanno le due componenti uguali.
5. Ogni (x1 , x2 ) 2 R2 si può scrivere nella forma
(x1 , x2 ) =
2x1
x2
3
(1, 1) +
x1 + x2
(1, 2)
3
(le componenti, come funzioni di x1 e x2 , si ricavano come al solito risolvendo un
sistema di due equazioni in due incognite), quindi B è una base di R2 .
X
Esercizio 7.2.4 (2.8.8 punti 3-5, di [Pel1]). Dire quali dei seguenti insiemi di vettori
di R3 sono liberi:
1. A3 = (1, 0, 0), (1, 0, 2), (1, 1, 2), (0, 0, 1) ;
2. A4 = (1, 0, 1), ( 2, 0, 2), (1, 0, 2) ;
3. A5 = (0, 1, 0), (0, 0, 0), (1, 3, 2) .
48
Soluzione. Siccome dim(R3 ) = 3, un insieme libero non può contenere più di tre vettori.
Quindi A3 non è libero. A4 non è libero, poiché il secondo vettore è proporzionale al
primo. A5 non è libero perché contiene il vettore nullo.
X
Esercizio 7.2.5 (2.8.15 di [Pel1]). Dire per quali valori di x, y 2 R i vettori
v1 = (0, x, 1), v2 = (2, 0, 0), v3 = (0, y, 4)
sono una base di R3 .
Soluzione. Se y = 4x, v3 = 4v1 ed i vettori non formano una base. Da
a1 v1 + a2 v2 + a3 v3 = 0
si ricava il sistema
8
>
< 0a1 + 2a2 + 0a3 = 0
xa1 + 0a2 + ya3 = 0
>
:
a1 + 0a2 + 4a3 = 0
Dalla prima equazione si ricava a2 = 0; rimane il sistema
⇢
xa1 + ya3 = 0
a1 + 4a3 = 0
Dallo schema a pagina 19 segue che se il determinante della matrice dei coefficienti è
diverso da zero, ovvero se
4x y 6= 0 ,
il sistema ammette un’unica soluzione, quella nulla. Quindi se y 6= 4x i tre vettori sono
linearmente indipendenti e, per l’osservazione 7.1.6, formano una base di R3 .
X
Esercizio 7.2.6 (2.8.16 punti 1-3, di [Pel1]). Sia W = {(x1 , x2 , x3 , x4 ) 2 R4 : x1
x2 + x3 = x2 + x3 x4 = 0}. Dire se W è un sottospazio di R4 e, in caso a↵ermativo,
trovare un insieme di generatori e calcolare la dimensione di W .
Soluzione. Per la Prop. 4.3.6, W è sottospazio di R4 .
Siccome x1 = x2 x3 e x4 = x2 + x3 , ogni vettore di W ha la forma
(x2
x 3 , x 2 , x3 , x 2 + x 3 )
con x2 , x3 2 R. Scegliendo x2 = 1 e x3 = 0 si ottiene il vettore v1 = (1, 1, 0, 1);
scegliendo x2 = 0 e x3 = 1 si ottiene il vettore v2 = ( 1, 0, 1, 1). Notiamo che ogni
vettore di W si può scrive come combinazione lineare
(x2
x 3 , x2 , x 3 , x2 + x 3 ) = x 2 v 1 + x 3 v 2 ,
quindi (v1 , v2 ) è un insieme di generatori di W . Dalla precedente equazione si vede
che x2 v1 + x3 v2 = 0 ) x2 = x3 = 0, quindi (v1 , v2 ) è una base e dim(W ) = 2.
X
49
Esercizio 7.2.7 (2.8.17 di [Pel1]). Sia
u1 = (1, 0, 0, 0) ,
u2 = (1, 2, 0, 0) ,
u3 = (1, 2, 3, 0) ,
u4 = (1, 2, 3, 4) .
Si verifichi che B = (u1 , u2 , u3 , u4 ) è una base di R4 e si determinino le componenti del
vettore v = (1, 1, 1, 1) nella base B.
Soluzione. La condizione a1 u1 + a2 u2 + a3 u3 + a4 u4 = 0 si traduce nel sistema
8
a1 + a2 + a3 + a4 = 0
>
>
>
<
2a2 + 2a3 + 2a4 = 0
>
3a3 + 3a4 = 0
>
>
:
4a4 = 0
che ha come unica soluzione quella nulla. Quindi B è una base. La condizione b1 u1 +
b2 u2 + b3 u3 + b4 u4 = v dà il sistema
8
b1 + b2 + b3 + b4 = 1
>
>
>
<
2b2 + 2b3 + 2b4 = 1
(7.1)
>
3b3 + 3b4 = 1
>
>
:
4b4 = 1
Prendendo due volte la prima equazione meno la seconda si ricava 2b1 = 3, ossia b1 = 32 .
Prendendo tre volte la seconda equazione meno due volte la terza si ottiene 6b2 = 5,
ossia b2 = 56 . Prendendo quattro volte la terza equazione meno tre volte volte la
7
quarta si ottiene 12b3 = 7, ossia b3 = 12
. Infine dalla quarta b4 = 14 . Quindi
v=
3
,
2
5 7
, ,
6 12
1
4 B
(7.2)
X
sono le componenti di v nella base B.
Esercizio 7.2.8. Trovare le componenti della matrice
✓
◆
1
1
A=
1
1
nella base
B0 =
B1 =
✓
◆
✓
◆
✓
◆
✓
◆!
1 0
1 2
1 2
1 2
, B2 =
, B3 =
, B4 =
0 0
0 0
3 0
3 4
di M2 (R).
Soluzione. La condizione b1 B1 + b2 B2 + b3 B3 + b4 B4 = A dà il sistema di quattro
equazioni in quattro incognite (7.1), la cui soluzione è stata già trovata ed è data da
(7.2). Quindi
7
A = 32 , 56 , 12
, 14 B0
X
50
Lezione VIII
Spazi metrici
Sommario: prodotto scalare; norma; disuguaglianza di Cauchy-Schwartz e disuguaglianza triangolare. Esempi ed esercizi.
8.1 Lunghezze, angoli e proiezioni in R2
Sia X = (x1 , x2 ) 2 R2 . Abbiamo ricordato nell’osservazione 4.1.3 che X può essere
# »
identificato con il segmento orientato OX nella figura
qui a fianco. Tale segmento è la diagonale di un rettanX = (x1 , x2 )
golo di base x1 ed altezza x2 , e la sua lunghezza, che
x2
indichiamo con kXk, è data dal teorema di Pitagora:
↵
q
O
x1
2
2
kXk = x1 + x2 .
Se X 6= (0, 0), l’angolo ↵ in figura è determinato dalle equazioni:
x1
x1
x
x2
p 2
cos ↵ = p 2
=
,
sin
↵
=
=
.
kXk
kXk
x1 + x22
x21 + x22
(8.1)
Consideriamo ora i due vettori non nulli X = (x1 , x2 ) e Y = (y1 , y2 ) in figura 2a.
L’angolo # in verde nella figura è detto angolo convesso fra X e Y (0  #  180 ).
Dalle formule di addizione di seno e coseno, ben note dalla trigonometria, ricaviamo:
cos # = cos(↵
Angolo fra
X eY
)
= cos ↵ cos + sin ↵ sin
x1 y1 + x 2 y2
=
,
kXk kY k
dove nell’ultimo passaggio abbiamo usato (8.1) per esprimere cos ↵ e sin ↵, e
l’espressione analoga in termini di Y per esprimere cos e sin .
Dati due vettori X, Y 2 R2 arbitrari, il loro prodotto scalare, indicato con X · Y ,
è la grandezza
X · Y = x1 y1 + x2 y2 .
(8.2)
p
Notiamo che kXk = X · X. Se i vettori sono entrambi non nulli, allora
cos # = X · Y /kXk kY k
(8.3)
individua l’angolo convesso fra i due. Due vettori X e Y si dicono ortogonali se
X · Y = 0, e si dicono paralleli se X · Y = ±||X|| ||Y ||. Notiamo che (0, 0) è sia
ortogonale che parallelo a qualsiasi vettore di R2 . Da (8.3) si vede che due vettori non
nulli sono ortogonali se e solo se # = 90 e sono paralleli se e solo se # = 0 o 180 .
51
Prodotto
scalare
Vettori
ortogonali
e paralleli
X = (x1 , x2 )
X = (x1 , x2 )
Y = (y1 , y2 )
Y = (y1 , y2 )
#
#
↵
(a) Angolo fra X e Y
prY (X)
(b) Proiezione di X in direzione di Y
Figura 2: Angoli e proiezioni
Esercizio 8.1.1. Sia Y = (y1 , y2 ) 2 R2 diverso da zero. Provare che X è parallelo ad
Y se e solo se X = kY per qualche k 2 R (dove k > 0 se i vettori hanno lo stesso verso,
k = 0 se X = 0, e k < 0 altrimenti), ed è ortogonale ad Y se e solo se X = k(y2 , y1 )
per qualche k 2 R.
Dato un vettore Y non nullo, ed un vettore X arbitrario (anche zero) indichiamo
con prY (X) la proiezione ortogonale di X sulla retta individuata da Y , ovvero il
vettore rosso nella figura 2b.
Determiniamo le componenti di prY (X): essendo parallelo ad Y , dall’esercizio 8.1.1
segue che prY (X) = kY . Se 0  #  90 , Y e prY (X) hanno lo stesso orientamento
ek
0; se 90 < #  180 , k < 0. Assumiamo che sia 0  #  90 , ovvero k
0.
Vediamo dalla figura 2b che la lunghezza del vettore prY (X) è pari a cos # · kXk; ma
è anche uguale a kkY k = kkY k. Da (8.3) si ricava
k = cos # ·
Quindi
Proiezione
ortogonale
kXk
X · Y kXk
X ·Y
=
=
.
kY k
kXk kY k kY k
kY k2
X ·Y
Y .
(8.4)
kY k2
Si dimostra in modo del tutto analogo che l’espressione (8.4) è valida anche quando
90 < #  180 .
prY (X) =
Chiudiamo questo paragrafo traducendo nel linguaggio dei vettori un ben noto
teorema della geometria Euclidea, la disuguaglianza triangolare, la quale a↵erma
che in un triangolo la lunghezza di un qualsiasi suo lato non può essere superiore alla
somma delle lunghezze degli altri due. Applicata al triangolo in blu nella figura 3,
poiché i tre lati hanno lunghezza kXk, kY k e kX + Y k, la disuguaglianza si traduce in
kX + Y k  kXk + kY k ,
(8.5)
e in questa forma può essere dimostrata in tutta generalità per qualsiasi spazio vettoriale dotato di un prodotto scalare, come illustrato nella prossima sezione.
52
Disuguaglianza
triangolare
X +Y
Y
X
O
Figura 3: Disuguaglianza triangolare
8.2 Aree di triangoli e determinante
Notiamo il triangolo di vertici O, X, Y in figura 2b ha base kY k ed altezza pari alla
lunghezza del segmento tratteggiato, che per il teorema di Pitagora è data da
q
p
kXk2 kprY (X)k2 = kY k 1 kXk2 kY k2 |X · Y |2
q
1
= kY k
(x21 + x22 )(y12 + y22 ) (x1 y1 + x2 y2 )2
q
p
1
= kY k
x21 y22 + x22 y12 2x1 y1 x2 y2 = kY k 1 (x1 y2 x2 y1 )2
= kY k
1
|x1 y2
x2 y1 | .
[ è data da
Quindi l’area del triangolo OXY
1
2
base ⇥ altezza = 12 |x1 y2
x2 y1 | .
Questo permette una interpretazione geometrica del determinante di una matrice 2⇥2.
Il modulo del determinante
a11 a12
a21 a22
è due volte l’area del triangolo di vertici O, X = (a11 , a12 ) ed Y = (a21 , a22 ); ovvero
due volte l’area del triangolo di vertici O, X 0 = (a11 , a21 ) ed Y 0 = (a12 , a22 ). Il segno
del determinante è positivo se ruotando X (risp. X 0 ) in senso antiorario in modo da
sovrapporlo ad Y (risp. Y 0 ) si compie un angolo minore di 180 , e negativo in caso
contrario.
Più in generale ci si può chiedere come si esprime l’area AXY Z di un triangolo di
vertici X = (x1 , x2 ), Y = (y1 , y2 ) e Z = (z1 , z2 ). Studiamo il caso in cui, ruotando in
senso antiorario a partire dall’asse orizzontale, si incontrano nell’ordine prima Z, poi
Y , poi X (come in figura 4), e che tutti e tre i vettori siano nel semipiano superiore.
53
Area di
d
OXY
Significato
del determinante
[ è data dall’area di OXY
[ più l’area di
Come si evince dalla figura 4, l’area di XYZ
[ meno l’area di OXZ.
[ Quindi
OYZ
2AXY Z =
x1 x2
y1 y2
+
y1 y2
z1 z2
x1 x2
z1 z2
ovvero:
AXY Z
Area di
\
XYZ
x1 x2 1
1
=
y y 1
2 1 2
z1 z2 1
come si evince facendo lo sviluppo di Laplace rispetto all’ultima colonna. Si può
verificare facilmente che, a meno di un segno, la formula rimane valida qualunque sia
la disposizione di X, Y e Z.
Y
X
Z
O
Figura 4: Area AXY Z
8.3 Definizione astratta di prodotto scalare e sue proprietà
Definizione 8.3.1. Sia V uno spazio vettoriale (reale). Una applicazione
V ⇥V !R,
(v, w) 7! v · w ,
che associa ad ogni coppia di vettori v e w un numero reale, che indichiamo con v · w,
è detta un prodotto scalare di V se è:
i) simmetrica: v · w = w · v 8 v, w 2 V ;
ii) lineare: (au + bv) · w = a(u · w) + b(v · w) 8 a, b 2 R , u, v, w 2 V ;
iii) definita positiva: v · v > 0 8 v 6= 0 .
Proposizione 8.3.2. Un prodotto scalare di V soddisfa:
iv) 0 · v = 0 8 v 2 V ;
v) w · (au + bv) = a(w · u) + b(w · v) 8 a, b 2 R , u, v, w 2 V .
54
Prodotto
scalare di V
Dimostrazione. La proprietà iv) segue da ii). Infatti:
0 · v = (0 + 0) · v = 0 · v + 0 · v ,
ovvero sottraendo 0 · v ambo i membri si ottiene 0 · v = 0 per ogni v 2 V .
Usando prima i), poi ii), e quindi ancora i) si dimostra che:
w · (au + bv) = (au + bv) · w = a(u · w) + b(v · w) = a(w · u) + b(w · v)
⌅
per ogni a, b 2 R e per ogni u, v, w 2 V .
Uno spazio vettoriale dotato di un prodotto scalare è detto metrico (o anche “Euclideo”), in quanto è possibile calcolare angoli e lunghezze.
Spazi metrici
Definizione 8.3.3. Sia V uno spazio metrico. Chiamiamo lunghezza o norma di
v 2 V la grandezza
p
kvk := v · v .
Norma di
un vettore
Esempio 8.3.4. Siano X = (x1 , x2 , . . . , xn ) e Y = (y1 , y2 , . . . , yn ). Un prodotto scalare
di Rn , generalizzazione di (8.2), è dato da
X · Y = x1 y1 + x2 y2 + . . . + xn yn ,
(8.6)
Tale prodotto scalare è detto prodotto scalare canonico. La norma associata è
q
p
2
||X|| = X · Y = x21 + x22 + . . . + x2n .
(8.7)
Esempio 8.3.5. Sia V lo spazio delle funzioni R ! R continue e periodiche di periodo
2⇡. Un prodotto scalare di V , indicato con il simbolo (f, g)L2 ( f, g 2 V ), è dato da
Z 2⇡
1
(f, g)L2 =
f (t)g(t)dt .
2⇡ 0
R 2⇡
1
(f, g)L2 è chiaramente lineare e simmetrico. Inoltre (f, f )L2 = 2⇡
|f (t)|2 dt > 0 per
0
ogni funzione f non identicamente nulla.
Proposizione 8.3.6. Per ogni a 2 R e u, v 2 V si ha:
1. kavk = |a| kvk ;
2. kvk = 0 () v = 0 ;
3. ku + vk2 = kuk2 + 2 u · v + kvk2 .
55
Prodotto
scalare
canonico
Dimostrazione. Dal punto ii) della definizione 8.3.1 e dal punto v) della proposizione
8.3.2 si ricava
p
p
kavk = (av) · (av) = a2 (v · v) = |a| kvk .
Dal punto iii) della definizione 8.3.1 e dal punto iv) della proposizione 8.3.2 segue che
kvk = 0 () v = 0. Dai punti i) e ii) della definizione 8.3.1 e dal punto v) della
proposizione 8.3.2 si ricava
ku + vk2 = (u + v) · (u + v) = u · u + 2 u · v + v · v
= kuk2 + 2 u · v + kvk2 .
⌅
Come nel caso di R2 , possiamo definire l’angolo convesso # fra due vettori non nulli v
e w di uno spazio metrico V come
cos # :=
v·w
.
kvk kwk
Poiché il coseno è compreso fra 1 e 1, affinché tale definizione abbia senso occorre
verificare che il membro di destra dell’equazione è in modulo non superiore a 1. Questo
è il contenuto del teorema che segue.
Teorema 8.3.7 (Disuguaglianza di Cauchy-Schwartz). Per ogni v, w 2 V , si ha
|v · w|  kvk kwk .
(8.8)
Dimostrazione. Se w = 0 la disuguaglianza si riduce ad un banale 0  0. Assumiamo
allora che w 6= 0. Per ogni 2 R, dal punto 3 della proposizione 8.3.6, applicato alla
coppia u = v e w, si ottiene
wk2 = kvk2
0  kv
2 v·w+
2
kwk2 ,
dove la prima disuguaglianza segue dal fatto che per definizione la norma di un vettore
è non negativa. In particolare scegliendo = v · w/kwk2 si ottiene
0  kvk2
2
(v · w)2 (v · w)2
+
= kvk2
kwk2
kwk2
(v · w)2
,
kwk2
ovvero (v · w)2  kvk2 kwk2 . Prendendo la radice quadrata di ambo i membri della
disuguaglianza, si prova (8.8).
⌅
Due vettori si dicono paralleli se |v · w| = kvk kwk e si dicono ortogonali se v · w = 0.
Diciamo che due vettori paralleli hanno lo stesso verso se v · w = kvk kwk, e che hanno
verso opposto se v · w = kvk kwk.
56
Corollario 8.3.8 (Disuguaglianza triangolare). Per ogni v, w 2 V , si ha
kv + wk  kvk + kwk ,
(8.9)
e vale l’uguaglianza se e solo se i vettori sono paralleli ed hanno lo stesso verso.
Dimostrazione. Dal punto 3 della proposizione 8.3.6:
kv + wk2 = kvk2 + 2v · w + kwk2  kvk2 + 2kvk kwk + kwk2 = kvk + kwk
2
,
dove la disuguaglianza segue da (8.8). Estraendo la radice si trova kv+wk  kvk+kwk.
L’uguaglianza si ha esattamente quando v · w = kvk kwk.
⌅
Proposizione 8.3.9 (Teorema di Pitagora). Due vettori v, w 2 V soddisfano
kv + wk2 = kvk2 + kwk2 ,
se e solo se sono ortogonali.
Dimostrazione. Dal punto 3 della proposizione 8.3.6,
kv + wk2
kvk2
kwk2 = 2v · w
⌅
si annulla se e solo se v · w = 0.
8.4 Proiezioni ortogonali
In analogia al caso di R2 , cf. equazione (8.4), se w 6= 0 il vettore
prw (v) :=
Proiezioni
v·w
w
kwk2
è detto proiezione (ortogonale) di v in direzione di w. Dato un vettore w 6= 0, ogni
vettore v 2 V si può decomporre nella forma
v = v// + v?
con
v// := prw (v) ,
v? := v
prw (v) .
Notiamo che v? è ortogonale a w, infatti
v// · w = prw (v) · w =
v·w
w·w =v·w
kwk2
(8.10)
e quindi v? · w = v · w v// · w = 0. Dal punto 1 della proposizione 8.3.6, chiamando
a = v · w/kwk2 , si ricava
kv// k = kawk = |a| kwk =
57
|v · w|
,
kwk
e quest’ultima equazione insieme a (8.10) ci dice che |v// · w| = kv// k kwk, ovvero v//
è parallelo a w. Siccome v? e v// sono ortogonali, dalla proposizione 8.3.9 si ricava
||v||2 = ||v// ||2 + ||v? ||2 .
(8.11)
Proposizione 8.4.1. Siano w 6= 0 e v = v// + v? come sopra. Allora:
a) v è parallelo a w
b) v è ortogonale a w
()
()
v? = 0 ;
v// = 0 .
Dimostrazione. Da v? · w = 0 e v// · w = ±kv// k kwk segue che
v · w = v// · w = ±kv// k kwk .
(8.12)
Poiché w 6= 0, dal punto 2 della proposizione 8.3.6 segue che v · w = 0 , kv// k = 0 ,
v// = 0. Questo prova il punto b).
Da (8.12) segue anche che |v · w| = kv// k kwk è uguale a kvk kwk se e solo se
kvk = kv// k. Per l’equazione (8.11), questo è equivalente a kv? k = 0, ovvero a
v? = 0. Questo prova il punto a).
⌅
Corollario 8.4.2. Due vettori v, w 2 V sono paralleli se e solo se sono linearmente
dipendenti.
Dimostrazione. Se w = 0 l’a↵ermazione è banale. Se w 6= 0, segue dalla proposizione
precedente che v è parallelo a w se e solo se v = v// = aw con a = v · w/kwk2 .
⌅
Proposizione 8.4.3. Siano v1 , . . . , vk 2 V dei vettori non nulli e a due a due ortogonali, ovvero vi · vj = 0 per ogni i 6= j, 1  i, j  k. Allora v1 , . . . , vk sono linearmente
indipendenti.
Dimostrazione. Sia
u := a1 v1 + a2 v2 + . . . + ak vk = 0 .
Siccome vi · vj = 0 8 i 6= j, prendendo il prodotto scalare di u con vi si ottiene
u · vi = ai vi · vi = ai ||vi ||2 = 0 ,
ovvero ai = 0 (per ipotesi vi 6= 0) per ogni i = 1, . . . , k. Questo prova l’indipendenza
lineare.
⌅
58
8.5 Esercizi
Esercizio 8.5.1. Determinare il valore del parametro
2 R per il quale i vettori
v = (1, 3, 7, 1) e w = (3, 5, 1, ) risultano ortogonali (rispetto al prodotto scalare
canonico di R4 ).
Soluzione. Poiché
v·w =1·3+3·5+7·1
i vettori sono ortogonali se e solo se
1·
= 25
,
X
= 25.
Esercizio 8.5.2. Siano v = (1, 1, 1, 3) e w = ( 1, 2, 0, 2). Calcolare la proiezione
di v su w e l’angolo convesso # tra i due vettori.
Soluzione. Si ha
v · w = 1 · ( 1) + ( 1) · 2 + 1 · 0
3·2=
9,
kvk2 = 12 + ( 1)2 + 12 + ( 3)2 = 12 ,
kwk2 = ( 1)2 + 22 + 22 = 9 .
Quindi
prw (v) =
e
v·w
cos # =
=
kvk kwk
v·w
w=
kwk2
9
p
=
12 · 9
w = (1, 2, 0, 2)
9
p =
6 3
p
9
3
p p ==
6 3 3
Quindi # = 150 (in radianti, # = 56 ⇡).
p
9 3
=
6·3
p
3
.
2
X
Esercizio 8.5.3. Siano u = (2, 0, 1) e v = ( 2, 1, 0) vettori di R3 . Trovare tutti i
vettori di norma 1 ortogonali a u e v.
Soluzione. Un vettore w = (w1 , w2 , w3 ) è ortogonale a u e v se e solo se
(
u · w = 2w1 + w3 = 0
v·w =
2w1 + w2 = 0
Ovvero w = (1, 2, 2)w1 . La condizione kwk = 1 dà
kwk2 = 1 + 22 + 22 w12 = 9w12 = 1
ovvero w1 = ± 31 . Esistono quindi esattamente due vettori di norma 1 ed ortogonali ad
u e v, e sono dati da w = ± 13 , 23 , 23 .
X
59
Esercizio 8.5.4. Ripetere l’esercizio 8.5.3 con i vettori u = (8, 1, 6) e v = ( 4, 2, 3).
Soluzione. Un vettore w = (w1 , w2 , w3 ) è ortogonale a u e v se e solo se
(
u · w = 8w1 + w2 6w3 = 0
v·w =
Un sistema equivalente è
(
4w1 + 2w2 + 3w3 = 0
u · w + 2v · w = 4w2 = 0
2u · w
v · w = 20w1
15w3 = 0
ed ha soluzione w2 = 0 e w1 = 34 w3 . La condizione kwk = 1 dà
kwk2 = w12 + w22 + w32 =
32 2
w
42 3
+ 0 + w32 25
w2 = 1
16 3
ovvero w3 = ± 45 . Abbiamo quindi due soluzioni: w = ±
3
, 0, 45
5
.
X
Esercizio 8.5.5. Ripetere l’esercizio 8.5.3 con i vettori u = (4, 2, 2) e v = (3, 3, 2).
Soluzione. Un vettore w = (w1 , w2 , w3 ) è ortogonale a u e v se e solo se
(
u · w = 4w1 + 2w2 2w3 = 0
v · w = 3w1
Un sistema equivalente è
(
3w2 + 2w3 = 0
u · w + v · w = 7w1
3u · w + 2v · w = 18w1
w2 = 0
2w3 = 0
ed ha soluzione w2 = 7w1 e w3 = 9w1 . La condizione kwk = 1 dà
kwk2 = w12 + w22 + w32 = 1 + 72 + 92 w12 = 131 w12 = 1
1
1
ovvero w1 = ± p131
. Abbiamo quindi due soluzioni: w = ± p131
(1, 7, 9).
60
X
Lezione IX
Basi ortonormali e metodo di Gram-Schmidt
Sommario: basi ortonormali; metodo di Gram-Schmidt; sottospazi ortogonali. Esempi ed esercizi.
9.1 Basi ortonormali
Sia V uno spazio metrico di dimensione n.
Osservazione 9.1.1. Notiamo (proposizione 8.4.3) che n vettori non nulli e a due a
due ortogonali sono linearmente indipendenti, quindi per l’osservazione 7.1.6 formano
una base di V .
Definizione 9.1.2. Una base B = (u1 , u2 , . . . , un ) di V si dice ortonormale se
Base
ortonormale
i) ui · uj = 0 per ogni i 6= j;
ii) kui k = 1 per ogni i = 1, . . . , n.
Esempio 9.1.3. La base canonica di Rn è ortonormale rispetto al prodotto scalare
canonico.
Proposizione 9.1.4. Sia B = (u1 , u2 , . . . , un ) una base ortonormale di V , e v 2 V
un vettore qualsiasi. Allora
v = (v · u1 )u1 + (v · u2 )u2 + . . . + (v · un )un .
In altri termini, la componente i-esima ai di v nella base B è data da ai = v · ui .
Dimostrazione. Per definizione di base, esistono a1 , . . . , an 2 R tali che
v = a1 u1 + . . . + an un .
Da i) e ii) della definizione 9.1.2 e dalla linearità del prodotto scalare segue che
X
X
v · ui = ai (ui · ui ) +
aj (uj · ui ) = ai kui k +
aj · 0 = ai
j6=i
j6=i
per ogni i = 1, . . . , n.
⌅
Proposizione 9.1.5. Sia B = (u1 , u2 , . . . , un ) una base ortonormale di V , e siano
v = (a1 , . . . , an )B e w = (b1 , . . . , bn )B due qualsiasi vettori di V . Allora
v · w = a1 b 1 + a2 b 2 + . . . + an b n .
In altre parole, in una base ortonormale il prodotto scalare fra due vettori coincide con
il prodotto scalare canonico fra le n-uple delle componenti.
61
Dimostrazione. Se v =
segue che
Pn
i=1
ai ui e v =
v·w =
Pn
j=1 bj uj ,
n
X
i,j=1
dalla linearità del prodotto scalare
ai bj (ui · uj ) .
Poichè ui · uj è zero se i 6= j ed è 1 se i = j, si ricava la tesi: v · w =
Pn
i=1
ai b i .
⌅
9.2 Metodo di Gram-Schmidt
Sia V uno spazio metrico di dimensione n, e (v1 , v2 , . . . , vn ) una base qualsiasi di V .
E’ possibile ricavare da essa una base ortonormale come illustrato nel seguito (metodo
di Gram-Schmidt). Il primo passo è definire dei vettori (w1 , w2 , . . . , wn ) in maniera
ricorsiva:
w1 = v 1 ,
w2 = v 2
prw1 (v2 ) ,
w3 = v 3
..
.
prw1 (v3 ) prw2 (v3 ) ,
..
.
Xi 1
prwj (vi ) ,
(1 < i  n) .
wi = v i
j=1
Lemma 9.2.1. I vettori (w1 , w2 , . . . , wn ) sono una base di V e soddisfano wi · wj = 0
per ogni i 6= j.
Dimostrazione. Per l’osservazione 9.1.1, n vettori ortogonali non nulli formano una
base. I vettori sono chiaramente non nulli, infatti w1 = v1 6= 0 e per i
2, se per
Pi 1
assurdo wi = 0 se ne dedurrebbe che vi = j=1 prwj (vi ) è combinazione lineare degli
altri vettori di B, contraddicendo l’ipotesi che B è una base.
L’ortogonalità si dimostra per induzione. Per la proprietà delle proiezioni, w1 è ortogonale a w2 . Sia 3  i  n. Per ipotesi induttiva, assumiamo che {w1 , w2 , . . . , wi 1 }
siano a due a due ortogonali, e mostriamo che wi è ortogonale ad ogni vettore wk
dell’insieme, con k = 1, . . . , i 1. Per costruzione
⇣
⌘
Xi 1
wk · wi = wk · v i
prwj (vi ) .
j=1
Il vettore prwj (vi ) è parallelo a wj , e quindi per ipotesi induttiva è ortogonale a wk se
j 6= k. Si ricava
wk · wi = wk · vi prwk (vi ) .
Poiché vi
prwk (vi ) è ortogonale a wk (vedere pag. 57), si ha wk · wi = 0.
62
⌅
Passo 1
Il secondo passo consiste nel normalizzare i vettori ottenuti. Chiamiamo
u1 =
w1
,
kw1 k
u2 =
w2
,
kw2 k
...
un =
Passo 2
wn
.
kwn k
Abbiamo
ui · uj =
wi · wj
= 0 8 i 6= j ,
kwi k kwj k
ui · ui =
wi · wi
= 1 8 i = 1, . . . , n .
kwi k2
Per l’osservazione 9.1.1, B = (u1 , u2 , . . . , un ) è una base ortonormale di V .
Corollario 9.2.2. Ogni spazio metrico finitamente generato ammette una base ortonormale (si trova una base con il metodo degli scarti successivi, e da questa una
ortonormale con il metodo di Gram-Schmidt).
9.3 Sottospazi ortogonali
Sia V uno spazio metrico di dimensione n.
Lemma 9.3.1. Siano v, w1 , w2 , . . . , wk 2 V . Se v è ortogonale a ciascuno dei vettori
w1 , w2 , . . . , wk , allora è ortogonale ad ogni loro combinazione lineare.
Dimostrazione. Per ipotesi v · wi = 0 per ogni i. Dalla linearità del prodotto scalare
segue che
v · (a1 w1 + a2 w2 + . . . + ak wk ) = a1 (v · w1 ) + a2 (v · w2 ) + . . . + ak (v · wk ) = 0
⌅
per ogni a1 , . . . , ak 2 R.
Definizione 9.3.2. Sia W ✓ V un sottospazio vettoriale. L’insieme
W ? := v 2 V : v · w = 0 8 w 2 W
è detto complemento ortogonale di W .
Proposizione 9.3.3. W ? è un sottospazio vettoriale di V .
Dimostrazione. Per ogni a1 , a2 2 R, v1 , v2 2 W ? , il vettore a1 v1 + a2 v2 soddisfa
(a1 v1 + a2 v2 ) · w = a1 (v1 · w) + a2 (v2 · w) = 0
per ogni w 2 W . Quindi a1 v1 + a2 v2 2 W ? e per il criterio c) della proposizione 4.3.3
l’insieme W ? è un sottospazio vettoriale di V .
⌅
Osservazione 9.3.4. Sia W = L(w1 , w2 , . . . , wk ). Dal lemma 9.3.1 segue che
W ? = v 2 V : v · wi = 0 8 i = 1, . . . , k .
63
Complemento
ortogonale
Esempio 9.3.5. Sia W = L (1, 0, 1) ⇢ R3 . Per l’osservazione 9.3.4, (x, y, z) 2 W ?
se e solo se (1, 0, 1) · (x, y, z) = x z = 0. Dall’identità (x, y, x) = x(1, 0, 1) + y(0, 1, 0)
segue che i vettori (1, 0, 1) e (0, 1, 0) sono una base di W ? , ovvero:
W ? = L (1, 0, 1), (0, 1, 0) .
Proposizione 9.3.6. Sia W un sottospazio di V di dimensione k. Una base ortonormale (v1 , . . . , vk ) di W può sempre essere completata ad una base ortonormale
(v1 , . . . , vk , uk+1 , . . . , un )
di V . Inoltre i vettori uk+1 , . . . , un formano una base ortonormale di W ? .
Dimostrazione. Applicando il metodo del completamento ad una base è possibile costruire una base B = (v1 , . . . , vk , vk+1 , . . . , vn ) di V contenente i vettori v1 , . . . , vk
(che per ipotesi formano un insieme libero). Applichiamo ora a B il metodo di GramSchmidt ed otteniamo una base ortonormale (u1 , . . . , un ) di V . Per costruzione i primi k
vettori di B sono già ortogonali e normalizzati ad 1, quindi ui = vi per ogni i = 1, . . . , k.
Questo prova la prima a↵ermazione.
Ogni vettore w 2 V si può allora scrivere nella forma
w = (a1 v1 + a2 v2 + . . . + ak vk ) + (ak+1 uk+1 + ak+2 uk+2 + . . . + an un ) .
(9.1)
Per l’osservazione 9.3.4 e la proposizione 9.1.4, si ha w 2 W ? se e solo se vi ·w = ai = 0
per ogni i = 1, . . . , k. Quindi ogni w 2 W ? è una combinazione lineare
w = ak+1 uk+1 + ak+2 uk+2 + . . . + an un ,
ed i vettori (uk+1 , . . . , un ) formano una base ortonormale di W ? .
⌅
Corollario 9.3.7. Per ogni sottospazio W ✓ V valgono le seguenti proprietà:
1. (W ? )? = W ;
2. W \ W ? = {0};
3. dim(W ) + dim(W ? ) = n;
4. W + W ? = V .
Dimostrazione. Sia (u1 , . . . , uk ) una base ortonormale di W (W è finitamente generato,
e per il corollario 9.2.2 ammette una base ortonormale). Per la 9.3.6 possiamo trovare
una base ortonormale (uk+1 , . . . , un ) tale che (u1 , . . . , un ) è una base ortonormale di
V . Da questo segue che dim(W ) + dim(W ? ) = k + (n k) = n = dim(V ), ovvero il
punto 3.
64
Da (9.1) segue che ogni vettore v 2 V si può scrivere (in modo unico) come somma di
due vettori v0 = a1 u1 +a2 u2 +. . .+ak uk 2 W e v00 = ak+1 uk+1 +ak+2 uk+2 +. . .+an un 2
W ? . Questo prova che V = W +W ? , ovvero il punto 4. L’unicità della decomposizione
prova che la somma è diretta, quindi W \ W ? = {0} per la proposizione 4.4.2.
Per finire, sia v come sopra. Per l’osservazione 9.3.4, v 2 (W ? )? se e solo se è
ortogonale ad ogni vettore di base di W ? . Dalla condizione ai = v · ui = 0 8 i =
k + 1, . . . , n si ricava v = v0 2 W . Quindi (W ? )? = W .
⌅
9.4 Esercizi
Esercizio 9.4.1. Usando il metodo di Gram-Schmidt si determini una base ortonormale di R3 a partire dalla base B = v1 = (1, 1, 1), v2 = (0, 1, 1), v3 = (0, 0, 1) .
Soluzione. Come primo passo calcoliamo i vettori
w1 = v1 = (1, 1, 1) ,
w2 = v 2
= (0, 1, 1)
w3 = v 3
(0,1,1)·(1,1,1)
(1, 1, 1)
k(1,1,1)k2
prw1 (v2 ) = (0, 1, 1)
2
(1, 1, 1)
3
prw1 (v3 )
2 1 1
, ,
3 3 3
=
,
prw2 (v3 )
= (0, 0, 1)
(0,0,1)·(1,1,1)
(1, 1, 1)
k(1,1,1)k2
= (0, 0, 1)
1
(1, 1, 1)
3
1
2
(0,0,1)·( 23 , 13 , 13 )
k( 23 , 13 , 13 )k2
2 1 1
, ,
3 3 3
= 0,
1 1
,
2 2
2 1 1
, ,
3 3 3
.
Quindi dividiamo ciascun vettore per la sua norma e otteniamo:
w1
=
kw1 k
w2
u2 =
=
kw2 k
w3
u3 =
=
kw3 k
u1 =
p1 (1, 1, 1)
3
p1 (
6
p1 (0,
2
,
2, 1, 1) ,
1, 1) .
X
La base cercata è (u1 , u2 , u3 ).
Esercizio 9.4.2. Usando il metodo di Gram-Schmidt si determini una base ortonormale di R3 a partire dalla base B = v1 = (0, 0, 1), v2 = (0, 1, 1), v3 = (1, 1, 1) .
65
Soluzione. Notiamo che i vettori sono gli stessi dell’esercizio precedente, ma ordinati
in maniera di↵erente. Come per l’esercizio precedente:
w1 = v1 = (0, 0, 1) ,
w2 = v 2
prw1 (v2 ) = (0, 1, 1)
= (0, 1, 1)
w3 = v 3
(0,1,1)·(0,0,1)
(0, 0, 1)
k(0,0,1)k2
(0, 0, 1) = (0, 1, 0) ,
prw1 (v3 )
prw2 (v3 )
= (1, 1, 1)
(1,1,1)·(0,0,1)
(0, 0, 1)
k(0,0,1)k2
= (1, 1, 1)
(0, 0, 1)
(1,1,1)·(0,1,0)
(0, 1, 0)
k(0,1,0)k2
(0, 1, 0) = (1, 0, 0) .
X
I vettori hanno già norma 1, quindi (w1 , w2 , w3 ) è la base cercata.
Esercizio 9.4.3. Sia W il sottospazio di R4 generato dai vettori
v1 = (1, 1, 0, 1) ,
v2 = (1, 0, 1, 2) ,
v3 = (1, 2, 0, 0) .
Trovare una base ortonormale di W e di W ? .
Soluzione. Come per l’esercizio precedente,
w1 = v1 = (1, 1, 0, 1) ,
w2 = v 2
prw1 (v2 ) = (1, 0, 1, 2)
= (1, 0, 1, 2)
w3 = v 3
prw1 (v3 )
= (1, 2, 0, 0)
(1,0, 1,2)·(1,1,0,1)
(1, 1, 0, 1)
k(1,1,0,1)k2
(1, 1, 0, 1) = (0, 1, 1, 1) ,
prw2 (v3 )
(1, 2,0,0)·(1,1,0,1)
(1, 1, 0, 1)
k(1,1,0,1)k2
= (1, 2, 0, 0) + 13 (1, 1, 0, 1)
2
(0,
3
(1, 2,0,0)·(0, 1, 1,1)
(0,
k(0, 1, 1,1)k2
1, 1, 1) =
4
,
3
1, 23 ,
1
3
1, 1, 1)
.
Dividendo ciascun vettore per la sua norma si trova la soluzione finale:
w1
u1 =
= p13 (1, 1, 0, 1) ,
kw1 k
w2
u2 =
= p13 (0, 1, 1, 1) ,
kw2 k
w3
u3 =
= p130 (4, 3, 2, 1) .
kw3 k
Una base ortonormale di W è data da (u1 , u2 , u3 ). Siccome dim(W ) + dim(W † ) = 4 e
dim(W ) = 3, una base di W † è formata da un unico vettore u4 = (x1 , x2 , x3 , x4 ). Tale
vettore deve risolvere il sistema
8 p
>
< p3 u1 · u4 = x1 + x2 + x4 = 0
3 u2 · u4 = x2 x3 + x4 = 0
>
: p
30 u3 · u4 = 4x1 3x2 + 2x3 x4 = 0
66
Dalle prime due equazioni si ricava x1 = x2 x4 e x3 = x2 + x4 . Sostituendo
nell’ultima si trova x4 = 3x2 . Quindi u4 = (2, 1, 4, 3)x2 . Dalla condizione ku4 k =
1 si ricava
1 = ku4 k2 = (22 + 12 + ( 4)2 + ( 3)2 )x22 = 30x22 .
Quindi x2 = p130 e una base ortonormale di W ? è data dal vettore u4 = p130 (2, 1, 4, 3).
Notiamo che avremmo potuto scegliere x2 = p130 ottenendo u4 = p130 (2, 1, 4, 3),
anch’esso base ortonormale di W ? .
X
Esercizio 9.4.4. Sia W il sottospazio degli (x1 , x2 , x3 ) 2 R3 soluzione dell’equazione
2x1 + x2 = 0. Trovare una base ortonormale di W e W ? (rispetto al prodotto scalare
canonico di R3 ).
Soluzione. I vettori di W hanno la forma (x1 , 2x1 , x3 ) = x1 (1, 2, 0) + x3 (0, 0, 1).
Una base è quindi v1 = (0, 0, 1), v2 = (1, 2, 0) . I vettori sono già ortogonali, quindi
u1 =
v1
= (0, 0, 1) ,
kv1 k
u2 =
v2
=
kv2 k
p1 (1,
3
2, 0) .
Un vettore u3 = (x1 , x2 , x3 ) 2 W ? soddisfa
⇢
p
u1 · u3 = x3 = 0
3 u2 · u3 = x1 2x2 = 0
Quindi u3 = (2, 1, 0)x2 . Da ku3 k2 = (22 + 12 )x22 = 5x22 = 1 si ricava x2 =
u3 = p15 (2, 1, 0) è una base ortonormale di W ? .
67
p1
5
ed
X
Lezione X
Matrici
Sommario: matrice trasposta; vettori riga/vettori colonna; prodotto righe per colonne; inversa ed aggiunta di una matrice. Esempi ed esercizi.
10.1 Prodotto righe per colonne
Se A 2 Rm,n è la matrice
0
a11
B
B a21
A := B
B ..
@ .
a12
a22
..
.
am1 am2
chiamiamo trasposta di A la matrice tA 2
righe con le colonne, ovvero
0
a11 a21
B
B a12 a22
t
A=B
..
B ..
.
@ .
a1n a2n
1
. . . a1n
C
. . . a2n C
.. C
C
. A
. . . amn
Rn,m che si ottiene da A scambiando le
Matrice
trasposta
1
. . . am1
C
. . . am2 C
.. C
C .
. A
. . . amn
Quindi l’elemento di tA in posizione (i, j) è aji , per ogni i = 1, . . . , n e j = 1, . . . , m.
Ad esempio
0
1
✓
◆
1
4
t
1 2 3
B
C
= @2 5 A .
4 5 6
3 6
Osservazione 10.1.1. Notiamo che t (tA) = A per ogni matrice A. Inoltre, siccome il
determinante si può calcolare con lo sviluppo di Laplace per righe e per colonne, e il
risultato non cambia, se ne deduce che |tA| = |A| per ogni matrice A.
Una matrice 1 ⇥ n è semplicemente una n-upla di numeri reali, e sarà anche detta
vettore riga. Una matrice n ⇥ 1 è anch’essa una n-upla di numeri reali, scritti in una
colonna, e sarà detta per questo vettore colonna.
Se X = (x1 , x2 , . . . , xn ) è una matrice 1 ⇥ n ed Y = t (y1 , y2 , . . . , yn ) è una matrice
n ⇥ 1, definiamo il loro prodotto come
X · Y = x1 y1 + x2 y2 + . . . + xn yn .
Notiamo che X · Y è semplicemente il prodotto scalare canonico fra le n-uple X e t Y .
68
Vettori
riga e
vettori
colonna
Più in generale date due matrici A = (aij ) 2 Rm,n e B = (bjk ) 2 Rn,p , possiamo
considerare i vettori riga
8 i = 1, . . . , m
Xi = (ai1 , ai2 , . . . , ain )
che formano le righe di A, ed i vettori colonna
0 1
b1k
B C
B b2k C
C
Yk = B
8 k = 1, . . . , p
B .. C
@ . A
bnk
che formano le colonne di B. Per costruzione
0 1
X1
B C
⇣
⌘
B X2 C
B
C
A=B . C ,
B = Y1 Y2 . . . Yp .
@ .. A
Xm
Chiamiamo prodotto righe per colonne di A e B, indicato con A · B, la matrice
m ⇥ p seguente
0
1
X 1 · Y1 X 1 · Y2 . . . X 1 · Yp
B
C
B X 2 · Y1 X 2 · Y2 . . . X 2 · Yp C
A·B =B
..
.. C
B ..
C .
.
. A
@ .
X m · Y 1 X m · Y 2 . . . X m · Yp
Quindi C = A · B è la matrice che in posizione (i, k) ha l’elemento
cik = Xi · Yk =
In figura 5 è illustrato il calcolo di cik .
Xn
j=1
aij bjk .
(10.1)
Esercizio 10.1.2. Calcolare il prodotto delle matrici
A=
✓
1 2
3 0
1
1
◆
0
1
1 2
B
C
B = @3 1 A .
2 4
,
Soluzione.
A·B =
✓
1·1+2·3 1·2
3·1+0·3+1·2
1·2+2·1 1·4
3·2+0·1+1·4
69
◆
=
✓
5 0
5 10
◆
.
X
Prodotto
righe per
colonne
..
+
ai
1
·b
1k
0
..
+
ai
j
·b
jk
.+
.+
0
B a11
B
B
B
B
..
B
.
B
B
B
B ai1
B
B
B
B
..
B
.
B
B
B
@ am1
...
a1j
...
a1n
..
..
.
..
.
..
.
...
aij
...
ain
..
.
..
.
..
..
.
...
amj
...
.
.
amn
A : m righe, n colonne
a in
1
·b
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
@
B : n righe, p colonne
b11
...
b1k
...
b1p
..
.
..
..
.
..
.
..
.
bj1
...
bjk
...
bjp
..
.
..
.
..
.
..
..
.
bn1
...
bnk
...
.
.
bnp
nk
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
A
0
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
B
@
c11
...
c1k
...
c1p
..
.
..
..
.
..
.
..
.
ci1
...
cik
...
cip
..
.
..
.
..
.
..
..
.
cn1
...
cnk
...
.
.
cnp
C = AB : m righe, p colonne
1
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
A
1
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
A
Figura 5: Calcolo dell’elemento cik di C = A · B.
Osservazione 10.1.3. Notiamo che il prodotto A · B può essere definito solo se il
numero di colonne di A è uguale al numero di righe di B. Per ogni valore m, n, p il
prodotto righe per colonne dà una applicazione
Rm,n ⇥ Rn,p ! Rm,p .
In particolare per m = n = p, si ha una operazione interna di Mn (R). In generale
in Mn (R) non vale la proprietà AB = BA, come dimostrato nel caso di matrici 2 ⇥ 2
nell’esercizio 5.2.3.
10.2 Proprietà del prodotto
Proposizione 10.2.1 (Associatività). Per ogni A = (aij ) 2 Rm,n , B = (bjh ) 2 Rn,p e
D = (dhk ) 2 Rp,q si ha
A(BD) = (AB)D .
70
Associatività
del prodotto
Dimostrazione. Si usa (10.1). L’elemento di matrice in posizione (i, k) di A(BC) è
dato da
⇣X p
⌘
Xn
X
aij
bjh dhk =
aij bjh dhk ,
j=1
h=1
j=1,...,n
h=1,...,p
l’elemento di matrice in posizione (i, k) di (AB)C è dato da
⌘
X p ⇣X n
X
aij bjh dhk =
aij bjh dhk .
h=1
j=1
j=1,...,n
h=1,...,p
Le due espressioni coincidono, poichè l’ordine in cui si e↵ettuano le due sommatorie è
irrilevante.
⌅
Se A = (aij ) 2 Mn (R) è una matrice quadrata, gli elementi aii (1  i  n) si
dice che formano la diagonale principale (o semplicemente la diagonale) di A. Ad
esempio, nella matrice seguente gli elementi sulla diagonale principale sono in rosso
0
1
3 7 1
B
C
@1 0 2A .
3 2 5
Chiamiamo matrice identica di ordine n, indicata con In , la matrice n ⇥ n che ha
tutti gli elementi sulla diagonale principale uguali ad 1, e tutti gli altri uguali a 0:
0
1
1 0 0 ... 0
B
C
B0 1 0 . . . 0 C
B
C
C .
0
0
1
.
.
.
0
In = B
B
C
.. C
B .. .. ..
@. . .
.A
Diagonale
principale
Matrice
identica
0 0 0 ... 1
La proposizione che segue è di semplice verifica.
Proposizione 10.2.2 (Elemento neutro). Per ogni A 2 Rm,n si ha
Im A = AIn = A .
In particolare, In è elemento neutro rispetto al prodotto in Mn (R).
Sia 2 R, A, A0 2 Rm,n e B, B 0 2 Rn,p . Chiamiamo Xi le colonne di A, Xi0 le
colonne di A0 , Yk le righe di B e Yk0 le righe di B 0 . Quindi:
0 1
0 1
⇣
⌘
X1
X10
B = Y1 Y 2 . . . Y p
B C
B 0C
B X2 C
B X2 C
0
C
B . C
A=B
A
=
.
B . C
B . C
⇣
⌘
.
@ A
@ . A
0
0
0
0
B = Y 1 Y2 . . . Y p
0
Xm
Xm
71
Elemento
neutro
Notiamo che la somma di matrici definita nell’esempio 4.1.5 corrisponde alla somma
dei loro vettori riga/colonna,
0
1
X1 + X10
B
C
⇣
⌘
B X2 + X20 C
0
0
0
0
0
C
A+A =B
,
B
+
B
=
Y
+
Y
Y
+
Y
.
.
.
Y
+
Y
, (10.2)
1
2
p
..
1
2
p
B
C
.
@
A
0
Xm + Xm
ed il prodotto per uno scalare è dato semplicemente da
0
1
X1
B
C
⇣
B X2 C
B
A=B . C
,
B
=
Y1 Y 2 . . .
C
@ .. A
Xm
Proposizione 10.2.3 (Bilinearità). Per ogni
valgono le proprietà
Yp
⌘
.
(10.3)
2 R, A, A0 2 Rm,n e B, B 0 2 Rn,p
i) (A + A0 )B = AB + A0 B;
ii) A(B + B 0 ) = AB + AB 0 ;
iii) ( A)B = A( B) = (AB).
Dimostrazione. Il prodotto fra matrici Rm,n ⇥Rn,p ! Rm,p è definito usando il prodotto
scalare canonico di Rn , e la proposizione è una immediata conseguenza della linearità
del prodotto scalare.
Chiamiamo Xi ed Xi0 rispettivamente le righe di A ed A0 , Yk e Yk0 rispettivamente
le colonne di B e B 0 . Da (10.1) e (10.2) si ricava
(A + A0 )B = (Xi + Xi0 ) · Yk = Xi · Yk + Xi0 · Yk
= Xi · Yk + Xi0 · Yk = AB + A0 B ,
A(B + B 0 ) = Xi · (Yk + Yk0 ) = Xi · Yk + Xi · Yk0
= Xi · Yk + Xi · Yk0 = AB + AB 0 .
Nella seconda uguaglianza abbiamo usato la linearità del prodotto scalare. In maniera
simile da (10.1) e (10.3) si ricava
(
( Xi ) · Yk = ( A)B
(AB) = Xi · Yk = (Xi · Yk ) =
Xi · ( Yk ) = A( B)
dove la terza uguaglianza segue dalla linearità del prodotto scalare.
Osservazione 10.2.4. (Mn (R), +, 0, ·, In ) è un anello non commutativo.
72
⌅
Bilinearità
del prodotto
Proposizione 10.2.5. Per ogni A, A0 2 Rm,n , B 2 Rn,p e
i) t (A + A0 ) = tA + tA0 ;
2 R si ha
Proprietà
della
trasposizione
ii) t (AB) = ( tB) · ( tA) ;
iii) t ( A) = ( tA) ;
Dimostrazione. Notiamo che se X = (x1 , x2 , . . . , xn ) ed X 0 = (x01 , x02 , . . . , x0n ) sono due
vettori riga, allora
0
1 0 1 0 01
x1 + x01
x1
x1
B x + x0 C B x C B x0 C
B 2
B 2C B C
2C
t
(X +X 0 ) = t (x1 +x01 , x2 +x02 , . . . , xn +x0n ) = B
C = B C+B 2 C = t X +t X 0 .
@ . . . A @. . . A @. . . A
xn + x0n
x0n
xn
Chiamiamo Xi ed Xi0 rispettivamente le righe di A ed A0 , Yk e Yk0 rispettivamente le
colonne di B e B 0 . Da (10.2), e dalla precedente osservazione, segue che
0
1
X1 + X10
t
B
C
⌘
B X2 + X20 C ⇣ t
t
0
0
t
0
t
0
B
C
(A + A ) = B
=
(X
+
X
)
(X
+
X
)
.
.
.
(X
+
X
)
1
2
m
..
1
2
m
C
.
@
A
=
=
⇣
⇣
0
Xm + Xm
t
X1 +
t
t
X10 t X2
t
t
+
t
X20
⌘
t
t
0
Xm
. . . Xm +
⇣
+ t X10 t X20 . . .
X1 X2 . . . Xm
0 1
0 1
X1
X10
t
t
B C
B 0C
B X2 C
B X2 C t
t 0
C
B C
= B
B .. C + B .. C = A + A .
@ . A
@ . A
Xm
⌘
t
0
Xm
⌘
0
Xm
Questo prova il punto i). Per il punto ii) osserviamo prima che se X è un vettore riga
e Y un vettore colonna, t (X · Y ) = X · Y = (t X) · (t Y ), dove la prima uguaglianza
segue dal fatto che X · Y è uno scalare (ovvero una matrice 1 ⇥ 1) e la seconda dalla
simmetria del prodotto scalare. Quindi
1
0
1 0
t
X 1 · Y1 X 1 · Y2 . . . X 1 · Yp
(X1 · Y1 ) t (X2 · Y1 ) . . . t (Xm · Y1 )
B
C B
C
B X2 · Y1 X2 · Y2 . . . X2 · Yp C Bt (X1 · Y2 ) t (X2 · Y2 ) . . . t (Xm · Y2 )C
t
B
C
(AB) = B
..
.. C
..
..
..
C=B
C
B ..
.
. A @
.
.
.
@ .
A
X m · Y1 X m · Y2 . . . X m · Y p
t
(X1 · Yp )
0
1
( t Y 1 ) · ( t X 1 ) ( t Y 1 ) · ( t X 2 ) . . . ( t Y1 ) · ( t X m )
Bt
C
B ( Y 2 ) · ( t X 1 ) ( t Y 2 ) · ( t X 2 ) . . . ( t Y2 ) · ( t X m ) C
C
=B
..
..
..
B
C
.
.
.
@
A
t
t
t
t
t
t
( Yp ) · ( X 1 ) ( Yp ) · ( X 2 ) . . . ( Yp ) · ( X m )
73
t
(X2 · Yp ) . . .
t
(Xm · Yp )
0
1
Y1
Bt C ⇣
B Y2 C
t
t
C
=B
B .. C · X1 X2 . . .
@ . A
t
t
t
⌘
Xm
Yp
= ( tB) · ( tA) .
Questo prova ii). La proprietà iii) è elementare e segue da (10.3): la sua verifica è
lasciata come esercizio.
⌅
Enunciamo, senza dimostrazione, una proprietà dei determinanti.
Teorema 10.2.6 (Teorema di Binet). Il determinante di un prodotto è il prodotto dei
determinanti:
|AB| = |A| · |B|
per ogni A, B 2 Mn (R).
Esercizio 10.2.7. Sia
A=
✓
2 7
1 4
◆
,
B=
✓
5 3
2 1
◆
.
Verificare che |AB| = |A| · |B|.
Soluzione. Si ha |A| = 8 + 7 = 15, |B| = 5 6 = 1,
✓
◆ ✓
◆
2·5+7·2
2·3+7·1
24 13
AB =
=
,
1·5+4·2
1·3+4·1
3 1
e |AB| = 24
39 =
15 = |A| · |B|.
X
10.3 Inversa ed aggiunta di una matrice
Una matrice A 2 Mn (R) si dice invertibile (rispetto al prodotto righe per colonne) se
esiste una matrice A 1 2 Mn (R) tale che
A·A
1
=A
1
· A = In .
Come già osservato nel caso dei gruppi (proposizione 2.2.2), l’inverso di un elemento è unico se l’operazione è associativa. Vedremo in questa sezione come si calcola
esplicitamente l’inverso di una matrice.
Osservazione 10.3.1. Se A e B sono matrici n ⇥ n invertibili, AB è invertibile ed ha
come inversa la matrice B 1 A 1 . Infatti per l’associatività del prodotto si ha
(B 1 A 1 )(AB) = B 1 (A 1 A)B = B 1 In B = B 1 B = In
ed anche
(AB)(B 1 A 1 ) = A(BB 1 )A
74
1
= AIn A
1
= AA
1
= In .
Matrici
invertibili
Definizione 10.3.2. Sia A = (aij ) 2 Mn (R). Chiamiamo aggiunta della matrice A,
indicata con A⇤ , la matrice n ⇥ n che si ottiene da A sostituendo l’elemento aij con il
suo complemento algebrico ij (definito a pag. 35).
Abbiamo già osservato, nell’esercizio 5.2.3, che esistono matrici diverse da zero non
invertibili. Enunciamo senza dimostrazione un teorema che permette di stabilire in
quali casi una matrice quadrata è invertibile, e di calcolare la sua inversa.
Teorema 10.3.3 (Teorema di Laplace). A 2 Mn (R) è invertibile se e solo se |A| =
6 0,
ed in tal caso l’inversa è data dalla matrice
A
1
=
1 t ⇤
(A )
|A|
dove t (A⇤ ) è la trasposta della matrice aggiunta di A.
Esercizio 10.3.4. Sia A la matrice
0
Calcolare A
1
1
3 1 5
B
C
A=@0 4 1A .
2 3 1
usando il teorema di Laplace.
Soluzione. La matrice aggiunta è data da
0
3 1 5
B
B+ 0 4 1
B
B
2 3 1
B
B
B
3 1 5
B
B
⇤
0 4 1
A = B
B
B
2 3 1
B
B
B
3 1 5
B
B+ 0 4 1
@
2 3 1
0
4
B+
3
B
B
B
1
=B
B
3
B
B
@
1
+
4
1
1
5
1
5
1
3 1 5
0 4 1
2 3 1
3 1 5
+ 0 4 1
2 3 1
3 1 5
+ 0 4 1
2 3 1
3 1 5
0 4 1
2 3 1
3 1 5
0 4 1
2 3 1
3 1 5
+ 0 4 1
2 3 1
0
2
3
+
2
3
0
1
1
5
1
5
1
0
+
2
3
2
3
+
0
75
4
3
1
3
1
4
1
1
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
C
A
C 0
C
C
1
C B
C = @ 14
C
C
19
C
A
2
7
3
1
8
C
7A .
12
Matrice
aggiunta
Con lo sviluppo di Laplace rispetto alla prima colonna si calcola |A| =
teorema di Laplace si calcola l’inversa:
0
1
1 14
19
1 t ⇤
1 B
C
A 1=
(A ) =
7
3A .
@ 2
|A|
35
8
7
12
35. Usando il
X
Esercizio 10.3.5. Determinare aggiunta ed inversa della matrice
✓
◆
a11 a12
A=
.
a21 a22
Inversa di
una matrice 2 ⇥ 2
Soluzione. Ricordiamo che |A| = a11 a22 a12 a21 , e l’inversa esiste se |A| 6= 0. In tal
caso, usando il teorema di Laplace si trova:
✓
◆
✓
◆
a22
a21
a22
a12
1
⇤
1
A =
,
A =
,
a11 a22 a12 a21
a12
a11
a21
a11
Si può verificare che e↵ettivamente AA
Esercizio 10.3.6. Sia A la matrice
Dire per quali valori di
1
X
= A 1 A = I2 .
0
1
1 0 1
B
C
A = @ 1 2A .
0 2 1
la matrice è invertibile, e per tali valori determinare l’inversa.
Soluzione. Con lo sviluppo di Laplace rispetto alla prima riga si calcola |A| = 2
3.
La matrice quindi è invertibile se 6= 3/2. In questo caso, aggiunta ed inversa sono
date da
0
1
1 2
2
1
+
B+
C
1
2 1
0 1
0 2 C 0
B
B
C
3
2
B
0 1
1 1
1 0 C
C
C=B
A⇤ = B
+
1
2 A .
@ 2
C
B
2 1
0 1
0 2 C
B
1
2
1
B
C
@
0 1
1 1
1 0 A
+
+
1 2
2
1
e
A
1
=
0
1 t ⇤
1 B
(A ) =
@
|A|
2
3
76
3
2
2
1
2
1
1
1
C
2A .
X
Lezione XI
Il metodo di eliminazione di Gauss
Sommario: matrici triangolari e determinante; metodo di eliminazione di Gauss;
sistemi (di equazioni lineari) ridotti e a scala. Esempi ed esercizi.
11.1 Matrici triangolari
Definizione 11.1.1. Una matrice A = (aij ) 2 Rm,n si dice
Matrici
triangolari
• triangolare superiore se aij = 0 per ogni i > j;
• triangolare inferiore se aij = 0 per ogni i < j.
Una matrice triangolare si dice completa se aii 6= 0 per ogni i.
La trasposta di una matrice triangolare superiore è una triangolare inferiore. Nel
seguito considereremo solo matrici triangolari superiori.
Una matrice triangolare superiore ha quindi la forma
0
a11 a12 a13
B
B 0 a22 a23
B
B 0
0 a33
B
B .
..
..
B ..
.
.
@
0
0
0
|
...
...
...
..
.
a1m
a2m
a3m
..
.
. . . amm
{z
m
0
a11 a12 a13
B
B 0 a22 a23
B
B 0
0 a33
B
B .
..
..
B ..
.
.
B
B
B 0
0
0
B
B 0
0
0
B
B .
.
..
B ..
..
.
@
0
0
0
1
a1n
C
a2n C
C
a3n C
C
.. C
. C
A
. . . amn
...
...
...
} | {z }
n m
(se m  n)
1 9
. . . a1n
>
>
C >
>
C
. . . a2n C >
>
=
C
. . . a3n C
n
>
>
.. C
..
>
C
.
. C >
>
;
C >
C
. . . ann C
9
... 0 C
C >
=
.. C
C
m
. A
>
;
... 0
n
(se m > n)
Notiamo che se A 2 Mn (R) è una matrice quadrata triangolare superiore, ripetendo
n volte lo sviluppo di Laplace rispetto alla prima colonna si ottiene:
|A| = a11
a22 a23 a24
0 a33 a34
0
0 a44
..
..
..
.
.
.
0
0
0
= a11 a22 a33
. . . a2n
a33 a34
. . . a3n
0 a44
. . . a4n = a11 a22 .
..
..
.
..
..
. .
0
0
. . . ann
. . . a3n
. . . a4n
. . . ..
.
. . . ann
a44 . . . a4n
. . . .. = . . . = a a a · · · a .
11 22 33
nn
0
.
0 . . . ann
77
Il determinante di A è quindi il prodotto degli elementi sulla sua diagonale principale.
Il determinante è diverso da zero (e quindi, per il teorema 10.3.3, A è invertibile) se e
solo se aii 6= 0 8 i, ovvero se e solo se A è una matrice triangolare completa.
Determinante
di matrici
triangolari
11.2 Il metodo di eliminazione di Gauss
E’ possibile e↵ettuare delle operazioni elementari su un sistema di m equazioni lineari
che permettono di ottenere un sistema equivalente, ovvero con le stesse soluzioni (vedere
pagina 15). Se E è la matrice completa del sistema, ed E1 , . . . , Em le sue righe, tali
operazioni elementari corrispondono alle seguenti operazioni sulle righe di E:
(I) scambiare fra di loro due righe Ei ed Ej , con i 6= j;
(II) sostituire una riga Ei con Ei , con
6= 0;
(III) sostituire una riga Ei con Ei + Ej , con i 6= j e
2 R.
Se E è una matrice quadrata, per i punti 2 e 8 della proposizione 5.4.4, l’operazione
(I) trasforma E in una nuova matrice E 0 con |E 0 | = |E|, mentre l’operazione (III)
trasforma E in una nuova matrice E 0 con |E 0 | = |E|.
Il metodo di eliminazione di Gauss permette di trasformare una qualsiasi matrice A = (aij ) 2 Rm,n in una triangolare superiore B usando le operazioni (I) e (III).
Se A è una matrice quadrata, |B| = ±|A| ed il segno è positivo se si è usata la trasformazione (I) un numero pari di volte, altrimenti è negativo. Se A è la matrice completa
di un sistema lineare (di m equazioni in n 1 incognite), B è la matrice completa di
un sistema lineare equivalente.
Il metodo consiste in p passi, con p = min(m 1, n). Se la prima colonna di A
è nulla saltiamo direttamente al passo 2, altrimenti riordiniamo le righe in modo da
ottenere una matrice A0 = (a0ij ) 2 Rm,n con a011 6= 0. Dette Ei le righe di A0 , chiamiamo
A00 = (a00ij ) 2 Rm,n la matrice ottenuta da A0 sostituendo, per ogni i = 2, . . . , m, la riga
Ei con Ei a0i1 (a011 ) 1 E1 ; notiamo che a00i1 = a0i1 a0i1 (a011 ) 1 a011 = 0. Il risultato del
primo passo è quindi:
0
1
0
1
0
0
0
0
a
a
a
. . . a1n
a11 a12 a13 . . . a1n
B 11 12 13
C
B
C
B
C
B 0 a0022 a0023 . . . a002n C
B a21 a22 a23 . . . a2n C
B
C
B
C
00
B 0 a00 a00 . . . a00 C
C
a
a
a
.
.
.
a
A=B
!
A
=
31
32
33
3n
23
33
3n
B
C
B
C
B .
..
..
.. C
B ..
..
..
.. C
.
B
@ .
.
.
. A
.
.
. C
@ .
A
am1 am2 am3 . . . amn
0 a00m2 a00m3 . . . a00mn
Il secondo passo consiste nel prendere la sottomatrice (m 1)⇥(n 1) di A00 evidenziata
e applicare ad essa il primo passo, ottenendo una matrice A000 della forma:
78
Metodo di
eliminazione
di Gauss
Passo 1
Passo 2
0
B
B
B
B
000
A = B
B
B
B
@
a011
a012
a013
...
a01n
0
a000
22
a000
23
...
a000
2n
0
..
.
0
..
.
a000
33
. . . a000
3n
..
.
0
0
000
a000
m3 . . . amn
..
.
1
C
C
C
C
C
C
C
C
A
Il terzo passo consiste nel prendere la sottomatrice (m 2) ⇥ (n 2) di A000 evidenziata
e applicare ad essa il primo passo. Si continua cosı̀ per fino ad ottenere una matrice
triangolare superiore B (è evidente che il procedimento termina dopo m 1 passi se
m  n, o dopo n passi se m > n).
Esempio 11.2.1. Applichiamo il metodo di
0
0 3
B
A = @2 8
3 9
eliminazione di Gauss alla matrice
1
5 1
C
2 4A .
6 0
Dette Ei le righe, e↵ettuiamo in successione (primo passo): scambio di E1 con E3 ;
sostituzione di E2 con E2 23 E3 . Si ottiene
0
1
3 9 6 0
E $E3 B
C
A 1 !
@2 8 2 4A
0 3 5 1
E2 !E2
0
3 9
B
C B
2
2
2
2
! @2 3 3 8 3 9 2 3 6 4 3 0A = @0 2
0
3
5
1
0 3
2
E
3 3
0
3
9
6
0
1
1
6 0
C
2 4A .
5 1
Siano Ei0 le righe della matrice ottenuta. Il secondo e ultimo passo consiste nel sostituire E30
con E30 32 E20 , ottenendo la matrice triangolare superiore
0
3
9
B
B = @0
2
0 3 32 2 5
1 0
6
0
3 9
C B
2
4 A = @0 2
3
3
0 0
2 ( 2) 1
24
6
2
8
1
0
C
4A .
5
Esempio 11.2.2. Applichiamo il metodo di eliminazione di Gauss alla trasposta t A
della matrice A dell’esercizio precedente. Siano Ei le righe di tA. Il primo passo consiste
nello scambiare E1 con E4 , sostituire E2 con E2 3E4 ed E3 con E3 5E4 :
0
0
B
B3
B
B5
@
1
2
8
2
4
1
3
C
9C
C
6C
A
0
0
1
B
3
E1 $E4 B
!B
B5
@
0
4
8
2
2
1
0
C
9C
C
6C
A
3
E2 !E2
E3 !E3
0
1 0
1
4
0
1
3E4 B
C B
B
3 3 · 1 8 3 · 4 9 3 · 0C
5E4 B
C B0
!B
B5 5 · 1 2 5 · 4 6 5 · 0C = B0
@
A @
0
2
3
0
79
4
4
18
2
1
0
C
9C
C
6C
A
3
Passo 3
Dette Ei0 le righe della matrice ottenuta, il secondo consiste nel sostituire E30 con E30
18 0
2
E2 ed E40 con E40
E 0 . Si ottiene la matrice:
4
4 2
0
1
1 4 0
B0 4 9 C
B
C
B
C .
69
@0 0
A
2
0
15
2
0
Dette Ei00 le righe della matrice ottenuta, il terzo e ultimo passo consiste nel sostituire
15 00
E400 con E400
E3 . Si ottiene in questo modo la matrice triangolare superiore
60
0
1
1 4 0
B0 4 9 C
B
C
B=B
C .
69
@0 0
A
2
0
0
0
Esercizio 11.2.3. Usando il metodo di eliminazione di Gauss, calcolare il determinante
della matrice
0
1
0 3 5
B
C
A = @2 8 2 A
3 9 6
e verificare che si ottiene lo stesso risultato usando lo sviluppo di Laplace.
Soluzione. Trasformiamo prima la matrice in una triangolare superiore T , quindi calcoliamo |T |. A meno di un segno, questo darà il determinante di A.
Notiamo che la matrice A è formata dalle prime tre colonne della matrice dell’esempio 11.2.1. Procedendo come nell’esempio, dopo due passi si ottiene la matrice:
0
1
3 9 6
B
C
T = @0 2 2 A ,
0 0 8
formata dalle prime tre colonne della matrice B dell’esempio 11.2.1.
Il determinante di una matrice triangolare è il prodotto degli elementi sulla diagonale, quindi |T | = 3 · 2 · 8 = 48. Poiché nel primo passo abbiamo scambiato due righe (E1
ed E3 ) e nel secondo nessuna, il numero totale di scambi è dispari e |A| = |T | = 48.
D’altra parte lo sviluppo di Laplace rispetto alla prima colonna di A dà
|A| =
2
= 54
3 5
3 5
+3
9 6
8 2
102 =
=
2(3 · 6
5 · 9) + 3(3 · 2
5 · 8)
48 ,
X
come ci aspettavamo.
80
Esercizio 11.2.4. Usando il metodo di eliminazione di Gauss, calcolare il determinante
della matrice
0
1
0 3 5 1
B2 8 2 4 C
B
C
A=B
C .
@3 9 6 0 A
0 0 8
4
Soluzione. Notiamo che le prime tre righe di A formano la matrice dell’esempio 11.2.1.
Procedendo come nell’esempio, dopo due passi si ottiene la matrice:
0
1
3 9 6 0
B0 2 2 4 C
B
C
B
C .
@0 0 8
5A
0 0
8
4
Dette Ei0 le righe di quest’ultima matrice, l’ultimo passo consiste nel sostituire E40 con
E40 E30 , ottenendo la matrice
0
1
3 9 6 0
B0 2 2 4 C
B
C
T =B
C .
@0 0 8
5A
0 0
0
1
Quindi |T | = 3 · 2 · 8 · 1 = 48. Siccome abbiamo e↵ettuato uno scambio (E1 ed E3 nel
primo passo), si ha |A| = |T | = 48.
X
Ripetiamo l’esercizio 5.3.2 usando il metodo di eliminazione di Gauss, e mostriamo
come con questo metodo i calcoli siano estremamente più semplici.
Esercizio 11.2.5. Dire per quali valori di a, b, c 2 R è nullo il determinante della
matrice
0
1
1 a a2
B
C
A = @1 b b 2 A .
1 c c2
Soluzione. Dette Ei le righe di A, il primo passo è
0
1
1
a
a2
E2 !E2 E1
E !E E1
B
C
A 2 2 !
A0 = @0 b a b2 a2 A .
0 c a c2 a2
Il secondo passo consiste nell’annullare il termine in posizione (3, 2). Per fare questo,
dette Ei0 le righe di A0 , sostituiamo E30 con E30 cb aa E20 ed otteniamo
0
1
2
1
a
a
a 0
E30 !E30 cb a
E2
B
C
A0
! A00 = @0 b a
b2 a2
A .
0
0
(c2 a2 ) cb aa (b2 a2 )
81
Notiamo che b2
(c2
a2 )
a2 = (b
c
b
a)(b + a). Quindi l’elemento in posizione (3, 3) è
a 2
(b
a
a2 ) = (c2
= c(c
Il risultato è:
a2 )
(c
b)
a(c
a)(b + a) = c2
bc
b) = (c
b) .
a)(c
ac + ab
0
1
1
a
a2
B
C
A00 = @0 b a
b2 a2 A .
0
0
(c a)(c b)
Poiché non abbiamo e↵ettuato scambi di righe:
|A| = |A00 | = (b
a)(c
a)(c
b) .
Il determinante è nullo se e solo se almeno due dei tre coefficienti sono uguali, ovvero
se e solo se almeno due righe di A sono uguali.
X
11.3 Sistemi ridotti e a scala
Definizione 11.3.1.
• Una matrice si dice ridotta per righe se ogni riga non nulla ha un elemento
non nullo sotto il quale ci sono solo zeri (o meglio, sotto il quale non ci sono
elementi diversi da zero).
• Se A è una matrice ridotta per righe ed X una sua riga non nulla, chiamiamo
speciale il primo elemento di X non nullo (da sinistra) sotto il quale ci sono
solo zeri.
Matrici
ridotte
Elementi
speciali
• Un sistema di equazioni lineari si dice ridotto se la matrice dei coefficienti è
ridotta per righe.
Sistemi
ridotti
• Un sistema di equazioni lineari si dice a scala se la matrice dei coefficienti è
triangolare superiore completa8 .
Sistemi
a scala
Un esempio di matrice ridotta per righe
0
0 7
B
B1 3
B
A=B
B0 0
B
@0 4
0 0
è:
5 0 0
2 4 0
0 0 0
11 13 0
0 1 0
Gli elementi speciali sono evidenziati in rosso.
8
1
3
C
0C
C
0C
C .
C
0A
0
(11.1)
In realtà la definizione di sistema a scala è un po’ più generale di cosı̀, ma a noi interesseranno
solo questo tipo di sistemi.
82
Osservazione 11.3.2. Una matrice è ridotta per righe se e solo se eliminando le righe
nulle e riordinando le colonne si ottiene una matrice triangolare superiore completa.
Per trasformare una matrice ridotta per righe in una a triangolare superiore completa è sufficiente, dopo aver eliminato le righe nulle, riordinare le colonne in modo che
gli elementi speciali siano sulla diagonale principale. Ad esempio per la matrice (11.1),
basta eliminare la terza riga, quindi scambiare la terza colonna con la quarta e mettere
l’ultima colonna al primo posto:
0
1
0
1
0 7 5 0 0 3
3 0 7 0 5 0
B1 3 2 4 0 0 C
B 0 1 3 4 2 0C
B
C
B
C
A
! B
! A0 = B
C
C .
@ 0 4 11 13 0 0 A
@ 0 0 4 13 11 0A
0 0 0 1 0 0
0 0 0 1 0 0
I sistemi ridotti sono i più semplici da risolvere. Prima di discutere il metodo generale,
studiamo l’esempio in cui la matrice dei coefficienti è la matrice A in (11.1). Si consideri
il sistema
8
>
0x1 + 7x2 + 5x3 + 0x4 + 0x5 + 3x6 = 6
>
>
>
>
>
>
< 1x1 + 3x2 + 2x3 + 4x4 + 0x5 + 0x6 = 0
0x1 + 0x2 + 0x3 + 0x4 + 0x5 + 0x6 =
>
>
>
>
0x1 + 4x2 + 11x3 + 13x4 + 0x5 + 0x6 = 9
>
>
>
:
0x1 + 0x2 + 0x3 + 1x4 + 0x5 + 0x6 = 2
dove 2 R è un parametro. La terza equazione è del tipo 0 = e se 6= 0 il sistema
è incompatibile. Studiamo quindi il caso = 0 e facciamo vedere che è compatibile
determinandone le soluzioni.
La terza equazione è del tipo 0 = 0 e può essere eliminata. Il valore di x5 è arbitrario,
in quanto moltiplica zero in tutte le equazioni. Riordinando le variabili si ottiene un
sistema la cui matrice dei coefficienti è la matrice A0 qui sopra:
8
3x6
+ 7x2
+ 5x3 = 6
>
>
>
>
<
1x1 + 3x2 + 4x4 + 2x3 = 0
>
4x2 + 13x4 + 11x3 = 9
>
>
>
:
1x4
=2
Per risolvere le equazioni rimaste, procediamo dal basso verso l’alto risolvendo ciascuna
equazione rispetto alla variabile che moltiplica l’elemento speciale, quindi sostituiamo
l’espressione ottenuta nelle equazioni rimanenti. Al primo passo si ottiene x4 = 2, che
sostituito nelle equazioni rimanenti dà
8
>
+ 7x2 + 5x3 = 6
>
< 3x6
>
>
:
1x1 + 3x2 + 2x3 =
4x2 + 11x3 = 9
83
4x4 =
8
13x4 =
15
15
4
La soluzione della terza equazione è x2 =
(
3x6
11
x,
4 3
57
x
4 3
25
x
4 3
1x1
=
=
e sostituita nelle prime due dà
129
4
13
4
la cui soluzione è x6 = 13
+ 25
x . e x6 = 43
+ 19
x.
4
4 3
4
4 3
Detto x3 = t1 e x5 = t2 , la soluzione generale è quindi:
(x1 , . . . , x6 ) =
13
4
+
25
t,
4 1
15
4
11
t , t , 2, t2 , 43
4 1 1
4
+
19
t
4 1
(11.2)
e dipende da due parametri t1 , t2 2 R. L’espressione (11.2) è detta rappresentazione
parametrica delle soluzioni del sistema, in quanto le incognite sono espresse in termini
di t1 e t2 , detti parametri liberi: ogni volta che fissiamo un valore per questi parametri
otteniamo una soluzione particolare del sistema. Il metodo illustrato si generalizza
facilmente.
Metodo di sostituzione delle variabili
Consideriamo un sistema di equazioni lineari a scala. Sia A = (aij ) 2 Rm,n la matrice
dei coefficienti (triangolare superiore completa) e B = t (b1 , b2 , . . . , bn ) la matrice dei
termini noti. Abbiamo tre casi
1. m  n;
2. m > n e bn+1 = bn+2 = . . . = bm = 0: in tal caso possiamo eliminare le equazioni
nulle ed ottenere un sistema equivalente di n equazioni in n incognite;
3. m > n ed i coefficienti bn+1 , bn+2 , . . . , bm non sono tutti nulli: in questo caso il
sistema è incompatibile in quanto almeno una equazione è del tipo 0 = bi .
Mostreremo che nei primi due casi il sistema è compatibile in maniera costruttiva,
determinando le sue soluzioni. A meno di eliminare equazioni del tipo 0 = 0, possiamo
assumere che sia m  n. Il sistema ha quindi la forma:
8
>
a11 x1 + a12 x2 + a13 x3 + . . . + a1m xm + . . . + a1n xn = b1
>
>
>
>
>
a22 x2 + a23 x3 + . . . + a2m xm + . . . + a2n xn = b2
>
<
a33 x3 + . . . + a3m xm + . . . + a3n xn = b3
>
>
..
..
..
>
..
>
.
>
.
.
.
>
>
:
amm xm + . . . + amn xn = bn
con aii 6= 0 8 i = 1, . . . , m.
Un sistema di questo tipo si può risolvere dal basso verso l’alto. Siccome amm 6= 0,
possiamo esprimere xm in funzione di xm+1 , . . . , xn :
xm =
1
amm
(am,m+1 xm+1 + am,m+2 xm+2 + amn xn
84
bn ) .
Rappresentazione parametrica
Parametri
liberi
Soluzione di
sistemi a scala
Sostituendo tale espressione nelle equazioni rimanenti eliminiamo xm dalle equazioni
ed otteniamo un sistema a scala con m 1 equazioni ed n 1 incognite. Scriviamo
quindi xm 1 in funzione di xm+1 , xm+2 , . . . , xn e sostituiamo nelle equazioni rimanenti,
eliminando anche xm 1 ed ottenendo un sistema di m 2 equazioni ed n 2 incognite.
Continuando in questo modo, dopo m le incognite x1 , . . . , xm sono espresse tutte in
funzione di xm+1 , xm+2 , . . . , xn , e per ogni scelta di n m parametri reali t1 , t2 , . . . , tn m ,
ponendo xm+1 = t1 , xm+2 = t2 , . . . , xn = tn m si ottiene una soluzione.
Osservazione 11.3.3. Un sistema a scala è compatibile se e solo se non ha equazioni
del tipo 0 = , dove è un termine noto diverso da zero. Eliminando le equazioni nulle,
un sistema a scala compatibile può essere sempre trasformato in uno equivalente di m
equazioni ed n incognite, con m  n. La soluzione generale di tale sistema dipende da
n m parametri reali; in particolare, la soluzione è unica se n = m.
Risoluzione di un sistema ridotto
Consideriamo un sistema di matrice completa (A|B), con A ridotta per righe. A meno
di eliminare equazioni nulle, possiamo assumere che (A|B) non abbia righe nulle. In
questo caso, se A ha righe nulle, allora almeno un’equazione è del tipo 0 = , con
termine noto non nullo, e il sistema è incompatibile.
Viceversa se A non ha righe nulle, possiamo riordinare le incognite in modo da
trasformare il sistema in uno a scala equivalente (facendo corrispondere gli elementi speciali alla diagonale principale), di matrice completa (A0 |B). Notiamo che una
matrice A0 2 Rm,n triangolare superiore completa e senza righe nulle ha sempre m  n.
Il sistema di matrice completa (A0 |B) può essere risolto con il metodo di sostituzione
delle variabili (è compatibile, essendo m  n). Possiamo quindi concludere che:
Proposizione 11.3.4.
• Un sistema ridotto è compatibile se e solo se non ha equazioni del tipo 0 = ,
con termine noto non nullo.
• Un sistema ridotto compatibile si può risolvere trasformandolo in uno a scala e
applicando il metodo di sostituzione delle variabili. In questo caso:
I
la soluzione generale dipende da n m parametri, dove n è il numero di
incognite ed m il numero di righe non nulle del sistema di partenza;
I
la soluzione è unica se e solo se n = m;
I
se il sistema è omogeneo, l’insieme delle soluzioni è un sottospazio vettoriale
W ✓ Rn di dimensione n m (su questo punto torneremo più avanti). Se
n = m, W = {0} e l’unica soluzione è quella nulla.
85
Soluzione di
sistemi ridotti
Notiamo che per risolvere un sistema ridotto non è necessario riordinare le colonne e
trasformarlo in uno a scala. Si può risolvere direttamente per sostituzione, dal basso
verso l’alto, risolvendo ciascuna equazione nell’incognita che moltiplica l’elemento speciale di quella riga. Le incognite che non moltiplicano elementi speciali corrispondono
a parametri liberi.
Esercizio 11.3.5. Risolvere il sistema
8
>
>
< 2x1 + x2 + 2x3 + 1x4 = 1
2x1 + 3x2
x3
= 3
>
>
: 1x
+ x3
= 0
1
Soluzione. Notiamo che il sistema è compatibile, in quanto non ha equazioni del tipo
0 = b, con b termine noto non nullo. La soluzione generale dipenderà da n m = 1
parametro (n = 4 sono le incognite e m = 3 le equazioni non nulle).
Risolviamo dal basso verso l’alto rispetto all’incognita che moltiplica l’elemento
speciale, evidenziato in rosso. Dall’ultima equazione si ottiene x1 = x3 , e sostituendo
nelle rimanenti due:
⇢
2x3 + x2 + 2x3 + 1x4 = 1
2x3 + 3x2
ovvero semplificando
⇢
x3
x2
3x2
= 3
+ 1x4 = 1
3x3
= 3
Dalla seconda equazione si ricava x2 = x3 +1, che sostituita nella prima dà x3 +1+1x4 =
1, ovvero x4 = x3 . Detto x3 = t, le soluzioni sono date da
(x1 , x2 , x3 , x4 ) = ( t, t + 1, t, t)
X
per ogni valore del parametro t 2 R.
86
Lezione XII
Riduzione di sistemi lineari
Sommario: riduzione di una matrice; soluzione di un sistema lineare generale; calcolo
dell’inversa di una matrice per riduzione e con il metodo di eliminazione di Gauss.
Esempi ed esercizi.
12.1 Riduzione di una matrice
In questa sezione spieghiamo come trasformare una matrice E in una matrice F ridotta
per righe, usando l’operazione (III) di pagina 78. Il metodo è una variante del metodo
di eliminazione di Gauss.
Sia E = (aij ) 2 Rm,n , Ei1 la prima riga non nulla di E e sia ai1 j1 il primo elemento
non nullo di Ei1 . Per ottenere una matrice E 0 = (a0ij ) che abbia tutti zeri sotto
l’elemento a0i1 j1 e↵ettuiamo la sostituzione
Ek ! Ek
(ai1 j1 ) 1 akj1 Ei1
per ogni k > i1 . L’elemento ai1 j1 è un elemento speciale della matrice E 0 . Notiamo che
a0ij = aij per ogni i  i1 , e che l’elemento a0i1 j1 ha tutti zeri sotto di lui.
Sia ora Ei02 la prima riga non nulla di E 0 con i2 > i1 , e sia ai2 j2 il primo elemento
non nullo di Ei02 . Con la sostituzione
Ek0 ! Ek0
(a0i2 j2 ) 1 a0kj2 Ei02 ,
per ogni k > i2 , otteniamo una matrice E 00 = (a00ij ) che ha a00ij = a0ij per ogni i  i2 , e
tale che l’elemento a00i1 j1 ha tutti zeri sotto di lui.
Iterando il procedimento dopo un numero finito di passi (al più m) si ottiene una
matrice F ridotta per righe, in quanto ogni riga non nulla ha almeno un elemento con
tutti zeri sotto.
Esempio 12.1.1. Riduciamo la matrice
0
2 1
B
A=@ 3 1
0 1
Si ha i1 = j1 = 1 ed il primo passo è quindi
0
A
2
B
0
!A =@ 0
0
E2 !E2 32 E1
E3 !E3 0E1
87
1
1
C
1 A
9
1
1
1
1
1
1
1
2
5
2
5
2
1
1
9
1
C
A
Riduzione
di una
matrice
Quindi i2 = j2 = 2 ed il secondo passo è
0
2
0
0
0
B
0 E3 !E3 +2E2
00
A
!A =@ 0
0
1
1
1
1
2
5
2
5
2
0
6
4
A00 è la matrice ridotta cercata.
Esempio 12.1.2. Riduciamo la matrice
0
0
B 3
B
A=B
@ 0
4
1
1
4
3
2
1
8
6
1
9
7
5
Stavolta i1 = 1, j1 = 2 ed il primo passo è
A
E2 !E2 +E1
E3 !E3 4E1
E4 !E4 +3E1
0
B
B
!A =B
@
0
0
3
0
4
1
0
0
0
La seconda riga ha già un elemento speciale, quindi
Evidentemente i3 = 3 e j3 = 4. L’ultimo passo è
0
0 1
B
E40 !E40 83 E30
B 3 0
A0
! A00 = B
@ 0 0
4 0
1
C
A
1
C
C
C
A
2
1
0
0
1
8
3
8
1
C
C
C
A
possiamo saltare al terzo passo.
2
1
0
0
La matrice A00 è ridotta per righe.
1
8
3
0
1
C
C
C
A
12.2 Soluzione di sistemi lineari generali
Dato un sistema di matrice completa E = (A|B), possiamo trasformarlo in un sistema
equivalente di matrice F = (A0 |B 0 ) tale che A0 è ridotta per righe, usando il metodo
illustrato nella sezione precedente. Tale sistema può quindi essere risolto con il metodo
di sostituzione delle variabili. Attenzione: in questo caso ci interessa ridurre per righe
solo la matrice dei coefficienti.
Osservazione 12.2.1. Se F = (A0 |B 0 ) è ridotta per righe, A0 non è necessariamente
ridotta per righe. Ad esempio:
!
0
1
1
F = (A0 |B 0 ) =
1 1 0
88
Soluzione
di sistemi
lineari
generali
è ridotta per righe, ma A0 non lo è in quanto
0
A =
✓
0 1
1 1
0
3
0
4
1
1
4
3
◆
e la prima riga non ha elementi speciali.
Esempio 12.2.2. Sia
0
B
B
E = (A|B) = B
@
2
1
8
6
1
1
9
7
5
C
C
C
A
Usando la solita operazione (III) trasformiamo E in una matrice F = (A0 |B 0 ) con A0
ridotta per righe.
Il primo elemento non nullo della prima riga è 1, in posizione (1, 2). Usiamo (III)
in modo da far venire tutti zeri sotto questo elemento. Il primo passo è
0
1
E2 !E2 +E1
0 1
2
1
E3 !E3 4E1
B 3 0
1
8 C
E !E +3E1
B
C
E 4 4 !
F = (A0 |B 0 ) = B
C
@ 0 0
0
3 A
4 0
0
8
La matrice F è la matrice cercata. Notiamo che A0 è ridotta per righe (ha un elemento
speciale in tutte le righe esclusa la terza, che è nulla), mentre F non è ridotta per righe
(la terza riga di F è non nulla e non ha elementi speciali).
Notiamo che la matrice di questo esempio è la stessa dell’esempio 12.1.2, solo che
stavolta ci siamo fermati al primo passo perché interessati a ridurre solo le prime tre
colonne, e non la matrice completa.
Esercizio 12.2.3. Dire per quali valori di b 2 R il
8
>
>
< 2x1 + x2 + x3
x1
x2
x3
>
>
:
x + 2x + 2x
1
2
3
sistema
= 1
= 0
= b
è compatibile, e per tali valori determinarne le soluzioni.
Soluzione. Usando (III) trasformiamo la matrice completa
0
1
2
1
1 1
B
C
E = (A|B) = @ 1
1
1 0 A
1
2
2 b
89
in una matrice F = (A0 |B 0 ), con A0 ridotta per righe. Il primo elemento non nullo della
prima riga è 2, in posizione (1, 1). Il primo passo è
0
1
E2 !E2 + 12 E1
2
1
1
1
E3 !E3 12 E1
B
C
1
1
1
E
! E0 = @ 0
A
2
2
2
3
3
1
0
b 2
2
2
Usiamo l’operazione (II), che pure trasforma
plificare le righe con coefficienti non interi:
0
E20 !2E20
2
0
0
B
0 E3 !2E3
00
E
!E =@ 0
0
un sistema in uno equivalente, per sem-
1
1
3
Il primo elemento non nullo della seconda riga è
successivo è
0
2
00
00
00
B
0
0
00 E2 !E3 +3E2
E
! F = (A |B ) = @ 0
0
1
1
1
C
1
1 A
3 2b 1
1 in posizione (2, 2). Il passo
1
1
0
1
1
1
C
1
1 A
0 2b + 2
La matrice A0 è ridotta per righe. Un sistema ridotto equivalente a quello di partenza
è quindi:
8
>
>
< 2x1 + x2 + x3 = 1
1x2
x3 = 1
>
>
:
0 = 2b + 2
Per la proposizione 11.3.4 il sistema è compatibile se e solo se = 2b + 2 = 0, ovvero
b = 1. In quest’ultimo caso, procedendo per sostituzione si ottiene: x3 = t 2 R
arbitrario, x2 = x3 1 = t 1, x1 = 12 (1 x2 x3 ) = 1. La soluzione generale è
quindi:
(x1 , x2 , x3 ) = (1, t 1, t)
X
e dipende da un parametro t 2 R.
12.3 Calcolo dell’inversa di una matrice per riduzione
Sia A = (aij ) 2 Mn (R) una matrice quadrata. Possiamo calcolare l’inversa (se esiste)
come segue. Una matrice X = (xij ) 2 Mn (R) è inversa di A se risolve il sistema di
equazioni lineari (di n2 equazioni nelle n2 incognite xij ):
A · X = In .
90
Possiamo trasformare il sistema in uno equivalente riducendo la matrice (A|In ), e quindi
risolverlo per sostituzione.
Illustriamo questo metodo calcolando l’inversa della matrice
0
1
0 3 0
B
C
A = @5 9 7 A
5 6 8
Abbiamo
0
1
0 3 0 1 0 0
B
C
E = (A|I3 ) = @ 5 9 7 0 1 0 A
5 6 8 0 0 1
Evidentemente i1 = 1 e j1 = 2. Dette Ei le righe
0
0 3
E2 !E2 3E1
E3 !E3 2E1
B
0
E
!E =@ 5 0
5 0
della matrice E, il primo passo è
1
0
1 0 0
C
7
3 1 0 A
8
2 0 1
Notiamo che i2 = 2 e j2 = 1. Dette Ei0 le righe di E 0 ,
0
0 3
B
0 E3 !E3 E2
00
00
00
E
! E = (A |B ) = @ 5 0
0 0
il passo successivo è
1
0
1
0 0
C
7
3
1 0 A
1
1
1 1
Dobbiamo ora risolvere il sistema A00 X = B 00 , ovvero svolgendo
colonne:
0
1 0
3x21
3x22
3x23
1
B
C B
@5x11 + 7x31 5x12 + 7x32 5x13 + 7x33 A = @ 3
x31
x32
x33
1
Risolvendo dal basso verso l’alto per sostituzione si trova:
0
1
8
7
2
5
5
B
C
A 1 = X = @ 13
0
0 A
1
1
1
il prodotto righe per
1
0 0
C
1 0A
1 1
Si può verificare che la matrice trovata è e↵ettivamente l’inversa di A.
12.4 Determinare una base per riduzione
Proposizione 12.4.1. Sia A = (aij ) 2 Rk,n una matrice triangolare superiore completa ed Ei = (0, . . . , 0, aii , ai,i+1 , . . . , ain ) 2 Rn le sue righe, con i = 1, . . . , k e k  n.
I vettori Ei sono linearmente indipendenti.
91
Dimostrazione. La condizione
x1 E 1 + x2 E 2 + . . . + xk E k = 0
è equivalente al sistema di n equazioni in k incognite:
8
>
a11 x1
>
>
>
>
>
a12 x1 + a22 x2
>
>
>
< a13 x1 + a23 x2 + a33 x3
> a1k x1 + a2k x2 + a3k x3 + . . . + akk xk
>
>
>
..
>
>
.
>
>
>
: a x + a x + a x + ... + a x
1n 1
2n 2
3n 3
kn k
=
=
=
=
0
0
0
0
..
.
= 0
Notiamo che la matrice dei coefficienti è la trasposta di A. Risolvendo dall’alto verso
il basso: poiché a11 6= 0, deve essere x1 = 0; sostituendo x1 = 0 nelle altre equazioni,
dalla seconda equazione, poiché a22 6= 0, ricaviamo x2 = 0; procedendo in questo modo
si dimostra che l’unica soluzione del sistema è x1 = x2 = . . . = xk = 0, ovvero i vettori
Ei sono linearmente indipendenti.
⌅
Corollario 12.4.2. Le righe non nulle di una matrice ridotta per righe sono vettori
linearmente indipendenti (per l’osservazione 11.3.2).
Il metodo di riduzione di una matrice può essere usato per calcolare la dimensione
di un sottospazio di Rn . Più in generale può essere usato per calcolare la dimensione
di un sottospazio di uno spazio vettoriale V di cui si conosca una base.
Siano Xi = (ai1 , ai2 , . . . , ain ) 2 Rn dei vettori, con i = 1, . . . , k, e sia W ✓ Rn il
sottospazio generato da tali vettori. Evidentemente detta A è la matrice che ha Xi
come righe, ed Xi0 le righe di una matrice ridotta A0 ottenuta da A usando (III), allora
W = L(X1 , . . . , Xk ) = L(Xi0 , . . . , Xk0 ). I vettori non nulli dell’insieme {Xi0 , . . . , Xk0 },
essendo linearmente indipendenti (cor. 12.4.2) sono una base di W .
Un discorso analogo vale se Xi sono le n-uple delle componenti di vettori vi 2 V in
una base B fissata, con n = dim(V ).
Esercizio 12.4.3. Determinare una base del sottospazio W di R3 generato dai vettori
v1 = (1, 0, 2) ,
v2 = ( 1, 1, 3) ,
v3 = (2, 1, 3) .
Esprimere tali vettori come combinazione lineare dei vettori della base trovata.
Soluzione. Sia A la matrice che ha per righe vi :
0
1
1 0 2
B
C
A=@ 1 1 3A .
2 1 3
92
Riduciamo la matrice A:
A
0
1
2
C
1A
1
1 0
B
0
!A =@0 1
0 1
E2 !E2 +E1
E3 !E3 2E1
E30 !E30
0
1 0
E20
B
00
!A =@0 1
0 0
1
2
C
1A ,
0
dove abbiamo chiamato Ei = vi le righe di A ed Ei0 le righe di A0 . Una base di W è
data dalle righe non nulle di A00 , ovvero i vettori
w1 = (1, 0, 2) ,
w2 = (0, 1, 1) .
Le componenti dei vettori vi nella base B = (w1 , w2 ) sono date da
v1 = (1, 0)B ,
v2 = ( 1, 1)B ,
v3 = (2, 1)B .
X
Esercizio 12.4.4. Determinare una base del sottospazio W di M2 (R) generato dalle
matrici
✓
◆
✓
◆
✓
◆
1 2
1 5
2 7
A1 =
,
A2 =
,
A3 =
.
3 0
3 1
6 1
Determinare le componenti di tali matrici nella base trovata.
Soluzione. Sia B la base canonica di M2 (R). In tale base
A1 = (1, 2, 3, 0)B ,
Riduciamo la matrice E
0
1
B
E =@1
2
A2 = (1, 5, 3, 1)B ,
A3 = (2, 7, 6, 1)B .
2 R3,4 che ha per righe le 4-uple delle componenti di A1 , A2 , A3 :
1
0
1
2 3 0
1 2 3 0
E2 !E2 E1
C E3 !E3 2E1 0 B
C
!E =@0 3 0 1A
5 3 1A
7 6 1
0 3 0 1
0
1
1 2 3 0
E3 !E3 E1
B
C
! E 00 = @ 0 3 0 1 A .
0 0 0 0
La matrice E 00 è ridotta, le sue righe non nulle:
B1 = (1, 2, 3, 0)B =
✓
1 2
3 0
◆
,
B2 = (0, 3, 0, 1)B =
✓
0 3
0 1
◆
,
formano una base B 0 = (B1 , B2 ) di W . Si può verificare che in questa base:
A1 = (1, 0)B0 ,
A2 = (1, 1)B0 ,
93
A3 = (2, 1)B0 .
X
12.5 Inversa di una matrice con il metodo di Gauss
Abbiamo visto come si calcola l’inversa di una matrice A = (aij ) 2 Mn (R) per riduzione. Un metodo alternativo è l’algoritmo di Gauss: invece di trasformare (A|In ) in una
matrice ridotto, la si può trasformare in una matrice
0
1
a011 a012 . . . a01n b011 . . . b01n
B
C
B 0 a022 . . . a02n b021 . . . b02n C
0
0
B
(A |B ) = B .
.. . .
..
..
.. C
C
.
.
.
.
.
. A
@ .
0
0
. . . a0nn b0n1 . . . b0nn
triangolare superiore. A è invertibile se e solo se A0 è triangolare superiore completa
(poiché deve essere |A0 | =
6 0), ed in questo caso il sistema A0 X = B 0 si può risolvere
dal basso verso l’alto per sostituzione. La soluzione X = (xij ) dà l’inversa di A.
Esempio 12.5.1. Sia
A=
Con il metodo di Gauss troviamo
!
1 2 1 0
(A|I2 ) =
2 4 0 1
✓
1 2
2 4
◆
.
1 2
0 0
E2 !E2 2E1
! (A0 |B 0 ) =
1 0
2 1
!
.
Dunque la matrice non è invertibile (come si poteva anche capire dal fatto che le righe
di A sono proporzionali, quindi il determinante è nullo).
Esercizio 12.5.2. Determinare l’inversa della matrice
✓
◆
1 2
A=
.
1 1
Soluzione. Con il metodo di Gauss troviamo
!
1 2 1 0
E2 !E2 +E1
(A|I2 ) =
! (A0 |B 0 ) =
1 1 0 1
Il sistema
0
A ·X =
✓
x11 + 2x21 x12 + 2x22
3x21
3x22
◆
ha soluzione
A
1
=X=
94
1
3
1
3
2
3
1
3
0
=B =
!
1 2 1 0
0 3 1 1
✓
1 0
1 1
!
.
◆
X
Lezione XIII
Applicazioni lineari
Sommario: applicazioni lineari e matrici rappresentative; proprietà elementari; nucleo, immagine e teorema della dimensione.
13.1 Definizione e prime proprietà
Definizione 13.1.1. Una applicazione f : V ! W fra due spazi vettoriali V, W si dice
lineare se per ogni v1 , v2 2 V e 1 , 2 2 R si ha
f ( 1 v1 +
2 v2 )
=
1 f (v1 )
+
2 f (v2 )
Applicazioni
lineari
(13.1)
Nel caso in cui V = W , l’applicazione f è detta endomorfismo di V .
Endomorfismi
Come nel caso di applicazioni generali, V è detto dominio e W è detto codominio
di f . Due applicazioni lineari f, g sono uguali se hanno lo stesso dominio V , lo stesso
codominio W , e f (v) = g(v) per ogni v 2 V . Data una applicazione lineare f : V !
W , un vettore w 2 W si dice immagine di v 2 V tramite f se f (v) = w.
Esempio 13.1.2. Sia V = C k (R) lo spazio delle funzioni R ! R di classe k (funzioni
derivabili k volte e con derivate continue, se k
1; funzioni continue se k = 0). La
derivazione
df
D : f 7! D[f ] =
dx
k
k 1
è una applicazione lineare da C (R) a C (R), per ogni k 1. La derivazione è un
endomorfismo dello spazio delle funzioni di classe C 1 .
Esempio 13.1.3. Sia V = C 0 ([0, 1]) lo spazio delle funzioni continue [0, 1] ! R.
L’integrale
Z 1
I : f 7! I[f ] =
f (x)dx
0
è una applicazione lineare da V in R.
Esempio 13.1.4. Sia S un insieme e V = Fun(S, R) lo spazio delle funzioni da S in R.
Ad ogni x0 2 S è associata una applicazione lineare evx0 : V ! R detta valutazione
in x0 , data da
evx0 [f ] = f (x0 ) .
Esempio 13.1.5. L’applicazione
f : R ! R,
f (x) = x2 ,
non è lineare. Infatti, ad esempio, 9 = f (1 + 2) 6= f (1) + f (2) = 1 + 4 = 5.
95
Derivata
Integrale
Esempio 13.1.6. Ad ogni matrice A 2 Rm,n , e per ogni p, q interi positivi, sono
associate due applicazioni lineari LA : Rn,p ! Rm,p e RA : Rq,m ! Rq,n come segue:
LA (B) = A · B
8 B 2 Rn,p ,
RA (C) = C · A 8 C 2 Rq,m .
La linearità segue dalla bilinearità del prodotto righe per colonne (prop. 10.2.3). Dalla
stessa proposizione segue che
LA+A0 = LA + LA0 ,
L
A
= LA ,
RA+A0 = RA + RA0 ,
R
A
= RA ,
per ogni 2 R e A, A0 2 Rm,n . Dall’associatività del prodotto (prop. 10.2.1) segue che
per ogni A 2 Rm,n e B 2 Rn,r :
LA LB = LA·B ,
RB
RA = RA·B ,
(13.2)
dove ‘ ’ indica come al solito la composizione di applicazioni (definizione 1.3.9).
Segue dalla prop. 10.2.2 che
LIm (B) = B ,
RIn (B) = B ,
per ogni B 2 Rm,n , ovvero la matrice identica corrisponde alla applicazione identica
(definita a pagina 6).
Sia A 2 Mn (R). Da (13.2) segue che LA è una applicazione invertibile se e solo se
A è una matrice invertibile, e l’inversa è data da (LA ) 1 = LA 1 . Stesso discorso vale
per RA .
Esempio 13.1.7. Come caso particolare dell’esempio precedente, per ogni A 2 Rm,n
abbiamo:
• una applicazione lineare RA : Rm ! Rn , dove gli elementi di Rm ed Rn sono
scritti come vettori riga e RA (X) = X · A per ogni X = (x1 , . . . , xm ) 2 Rm ;
• una applicazione lineare LA : Rn ! Rm , dove gli elementi di Rm ed Rn sono
scritti come vettori colonna e LA (Y ) = A · Y per ogni Y = t (y1 , . . . , yn ) 2 Rn .
Esempio 13.1.8. Siano V e W due spazi vettoriali di dimensione n ed m rispettivamente. Possiamo allora scegliere una base B = (v1 , . . . , vn ) di V ed una base B 0 = (w1 , . . . , wm ) di W . Ad ogni matrice A = (aij ) 2 Rm,n è associata una
0
applicazione lineare, che indicheremo con LB,B
A , data da
Xm Xn
0
LB,B
(
v
+
v
+
.
.
.
+
v
)
=
aij j wi .
1
1
2
2
n
n
A
i=1
j=1
In altre parole, se ( 1 , 2 , . . . , n )B sono le componenti del vettore v nella base B, le
0
0
componenti (µ1 , µ2 , . . . , µm )B0 del vettore w = LB,B
A (v) nella base B sono date da
0 1 0
10 1
0 1
µ1
a11 a12 . . . a1n
1
1
B C B
CB C
B C
B µ2 C B a21 a22 . . . a2n C B 2 C
B 2C
B . C=B .
B C
B C
..
.. C
B . C B .
C B .. C = LA B .. C .
.
. A@ . A
@ . A @ .
@.A
µm
am1 am2 . . . amn
96
n
n
Matrici
Proposizione 13.1.9. Sia f : V ! W una applicazione lineare. Allora:
1. f (0V ) = 0W .
1, per ogni v1 , . . . , vn 2 V e per ogni
2. per ogni n
f ( 1 v1 +
2 v2
+ ... +
n vn )
=
1 f (v1 )
+
1, . . . ,
2 f (v2 )
n
2 R, si ha
+ ... +
n f (vn )
.
(13.3)
Dimostrazione. Usando (13.1) nel caso particolare in cui 1 = 2 = 0 e v1 = v2 = 0V
si ottiene
f (0V ) = f (0 · 0V + 0 · 0V ) = 0 · f (0V ) + 0 · f (0V ) = 0W ,
ovvero il primo punto.
Il secondo punto si dimostra per induzione. Usando (13.1) nel caso particolare in
cui 2 = 0 si ottiene l’a↵ermazione per n = 1: f ( 1 v1 ) = 1 f (v1 ). Supponiamo ora
che sia vera per n, allora detto v0 = 1 v1 + 2 v2 + . . . + n vn si ha
f ( 1 v1 +
2 v2
+ ... +
= f (v0 ) +
n vn
+
n+1 f (vn+1 )
=
n+1 vn+1 )
1 f (v1 )
= f (v0 +
+
2 f (v2 )
n+1 vn+1 )
+ ... +
n f (vn )
+
n+1 f (vn+1 )
dove la seconda uguaglianza segue da (13.1) e la terza è l’ipotesi induttiva.
,
⌅
Esempio 13.1.10. L’applicazione f : R ! R data da f (x) = x + 2 non è lineare, in
quanto f (0) 6= 0.
Corollario 13.1.11. Se V è finitamente generato, una applicazione lineare f : V ! W
è completamente determinata dai valori assunti sugli elementi di una qualunque base
di V . Se infatti B = (v1 , . . . , vn ) è una base, ogni v 2 V si scrive in modo unico come
combinazione lineare
v = 1 v1 + 2 v2 + . . . + n vn
e da (13.3) segue che
f (v) =
1 f (v1 )
+
2 f (v2 )
+ ... +
n f (vn )
.
Lemma 13.1.12. Sia V uno spazio di dimensione finita n, e sia B = (v1 , . . . , vn ) una
base di V . Due applicazioni lineari f, g : V ! W sono uguali se e solo se
8 i = 1, . . . , n .
f (vi ) = g(vi )
(13.4)
Dimostrazione. L’implicazione “)” è ovvia. L’implicazione “(” è immediata conseguenza della linearità di f e g: per ogni v = 1 v1 + 2 v2 + . . . + n vn si ha
f (v) =
1 f (v1 ) +
2 f (v2 ) + . . . +
n f (vn )
=
1 g(v1 ) +
2 g(v2 ) + . . . +
n g(vn )
= g(v) ,
dove la prima uguaglianza segue dalla linearità di f , l’ultima da quella di g e la seconda
uguaglianza è (13.4).
⌅
97
Proposizione 13.1.13. Sia f : V ! W è una applicazione lineare fra due spazi di
dimensione finita, n = dim(V ) e m = dim(W ). Per ogni scelta di una base B =
(v1 , . . . , vn ) di V e di una base B 0 = (w1 , . . . , wm ) di W possiamo trovare una (unica)
0
matrice A = (aij ) 2 Rm,n tale che f = LB,B
A . L’elemento aij è dato dalla i-esima
componente di f (vj ) nella base B 0 .
Dimostrazione. f (vj ) 2 W si scrive in modo unico come combinazione lineare dei
P
vettori wi . Chiamiamo aij le componenti, ovvero f (vj ) = m
i=1 aij wi . Allora f (vj ) =
0
B,B0
LA (vj ) per ogni vettore di base e per il corollario 13.1.11 si ha f = LB,B
⌅
A .
Se f : V ! W è una applicazione lineare, B è una base di V e B 0 è una base di W , la
0
matrice A tale che f = LB,B
è detta matrice rappresentativa di f rispetto alle basi
A
0
B e B . Se V = W , chiameremo matrice rappresentativa di f nella base B la matrice
A tale che f = LB,B
A .
Esercizio 13.1.14. Sia B = (1, 0), (0, 1) la base canonica di R2 e B 0 la base B 0 =
v1 = (1, 1), v2 = (1, 4) . Data l’applicazione lineare f : R2 ! R2 ,
✓ ◆ ✓
◆
x
5x + y
f
=
,
y
4x + 2y
determinare la matrice rappresentativa A di f nella base B; determinare la matrice
rappresentativa A0 di f nella base B 0 .
0
0
Soluzione. Vogliamo trovare A, A0 2 M2 (R) tale che f = LA = LBA0,B . Le colonne di A
sono date da
✓ ◆ ✓ ◆
✓ ◆ ✓ ◆
✓ ◆ ✓ ◆
✓ ◆ ✓ ◆
1
a11
1
5
0
a21
0
1
A
=
=f
=
,
A
=
=f
=
.
0
a21
0
4
1
a22
1
2
Quindi
A=
✓
5 1
4 2
✓
6 0
0 1
◆
.
◆
.
D’altra parte a0ij è la i-esima componente del vettore f (vj ) nella base B 0 . Poiché
✓
◆
✓
◆
5+1
5 4
f (v1 ) =
= 6v1 ,
f (v2 ) =
= v2 ,
4+2
4 2·4
si ha
0
A =
X
Notiamo (vedere l’esempio precedente) che basi diverse corrispondono a matrici
rappresentative di↵erenti di uno stesso endomorfismo, ed ha interesse trovare una base
(se esiste) in cui la matrice rappresentativa sia la più semplice possibile, ossia diagonale.
Studieremo questo problema (la “diagonalizzazione” di un endomorfismo) più avanti
nel corso.
98
Matrice
rappresentativa
13.2 Proprietà delle applicazioni lineari
Se S ✓ V è un sottoinsieme ed f : V ! W una applicazione, indichiamo con f (S) il
sottoinsieme di W dei vettori che sono immagine di (almeno) un vettore di S:
f (S) = w = f (v) : v 2 S .
(13.5)
In particolare l’insieme f (V ) è detto immagine dell’applicazione f , e l’insieme
Immagine
N (f ) = v 2 V : f (v) = 0W
è detto nucleo di f . Dalla prop. 13.1.9 (punto 1) segue che 0V 2 N (f ).
Proposizione 13.2.1. Sia f : V ! W una applicazione lineare. Allora:
1. f manda sottospazi in sottospazi; in particolare f (V ) è un sottospazio di W .
2. N (f ) è un sottospazio di V .
3. f manda generatori di S in generatori di f (S).
Dimostrazione. Sia S ⇢ V un sottospazio, w1 , w2 2 f (S) e 1 , 2 2 R. Allora esistono
v1 , v2 2 S tali che w1 = f (v1 ) e w2 = f (v2 ). Da (13.1) segue che
1 w1
+
2 w2
=
1 f (v1 )
+
2 f (v2 )
= f ( 1 v1 +
2 v2 )
.
Siccome S è per ipotesi un sottospazio, allora 1 v1 + 2 v2 2 S e 1 w1 + 2 w2 2 f (S)
(essendo immagine tramite f dell’elemento 1 v1 + 2 v2 2 S). Per il criterio c) della
proposizione 4.3.3, f (S) è un sottospazio di W . Questo prova il primo punto.
Siano v1 , v2 2 N (f ) e 1 , 2 2 R. Da (13.1) segue che
f ( 1 v1 +
2 v2 )
=
1 f (v1 )
+
2 f (v2 )
=
1 0V
+
2 0V
= 0V ,
ovvero 1 v1 + 2 v2 2 N (f ). Per il criterio c) della proposizione 4.3.3, N (f ) è un
sottospazio di V . Questo prova il secondo punto.
Siano v1 , v2 , . . . , vn dei generatori di S. Per ogni w 2 f (S) esiste v 2 S tale
che f (v) = w. Possiamo scrivere v come combinazione lineare dei generatori, v =
1 v1 + 2 v2 + . . . + n vn , e da (13.3) segue che
w=
1 f (v1 )
+
2 f (v2 )
+ ... +
n f (vn )
.
Siccome questo vale per ogni w 2 f (S), i vettori f (v1 ), . . . , f (vn ) sono un insieme di
generatori di f (S).
⌅
Ricordiamo che: una applicazione f è suriettiva se ogni elemento del codominio è
nell’immagine di f , ovvero f (V ) = W ; è iniettiva se manda elementi distinti in elementi
distinti, ovvero f (v) = f (v0 ) ) v = v0 .
99
Nucleo
Proposizione 13.2.2. Una applicazione lineare f è iniettiva se e solo se N (f ) = {0V }.
Dimostrazione. Se N (f ) contiene un vettore v non nullo, allora f (v) = 0W = f (0V )
ed f non è iniettiva. Viceversa se N (f ) = {0V }, allora f (v) f (v0 ) = f (v v0 ) si
annulla se e solo se v v0 = 0V , e questo prova l’iniettività di f .
⌅
Proposizione 13.2.3. Una applicazione lineare iniettiva f manda vettori linearmente
indipendenti in vettori linearmente indipendenti.
Dimostrazione. Siano v1 , v2 , . . . , vn linearmente indipendenti e wi = f (vi ). Siccome
N (f ) = {0V }, la combinazione
1 w1
+ ... +
n wn
= f ( 1 v1 + . . . +
n vn )
è nulla se e solo se la combinazione 1 v1 + . . . + n vn è nulla, ovvero se e solo se
1 = . . . = n = 0 (per ipotesi sull’indipendenza dei vettori vi ). Questo prova che i
vettori wi sono linearmente indipendenti.
⌅
Corollario 13.2.4. Sia f : V ! W una applicazione lineare e siano n = dim(V ) e
m = dim(W ). Si ha:
1. se f è suriettiva, allora n
m;
2. se f è iniettiva, allora n  m;
3. se f è biunivoca, allora n = m e per ogni base B = (v1 , . . . , vn ) di V l’insieme
(f (v1 ), . . . , f (vn )) è una base di W .
Dimostrazione. Sia B = (v1 , . . . , vn ) una base di V . Se f è suriettiva, segue dal punto 3
della proposizione 13.2.1 che (f (v1 ), . . . , f (vn )) sono generatori di f (V ) = W . Quindi
n m (per il lemma di Steinitz).
Segue dal punto 3 della proposizione 13.2.1 e dalla proposizione precedente che, per
ogni sottospazio S ✓ V , una applicazione lineare iniettiva f manda basi di S in basi
di f (S). Quindi se f è iniettiva, (f (v1 ), . . . , f (vn )) è una base di f (V ) ✓ W , da cui
n = dim f (V )  m.
Se f è sia iniettiva che suriettiva, allora manda basi di V in basi di f (V ) = W , ed
ovviamente n = m.
⌅
Una applicazione lineare biunivoca f : V ! W è detta isomorfismo fra V e W .
Se V è finitamente generato e (v1 , . . . , vn ) è una sua base, l’applicazione B : V ! Rn
che associa ad ogni vettore la sua n-upla delle componenti,
B (x1 v1
+ x2 v2 + . . . + xn vn ) = (x1 , x2 , . . . , xn ) ,
è un isomorfismo.
100
Isomorfismo
Teorema 13.2.5 (della dimensione). Sia n = dim(V ) e f : V ! W una applicazione
lineare. Allora:
dim N (f ) + dim f (V ) = n .
Dimostrazione. Se N (f ) = {0V }, l’applicazione è iniettiva e manda basi di V in basi
di f (V ). Quindi dim f (V ) = dim(V ) = n come richiesto.
Supponiamo che N (f ) 6= {0V }. Sia k la dimensione di N (f ) e (v1 , . . . , vk ) una
sua base. Usando il metodo del completamento ad una base, possiamo completare tale
insieme ad una base (v1 , . . . , vk , vk+1 , . . . , vn ) di V . Osserviamo che f si annulla sui
primi k vettori di base, e
w1 = f (vk+1 )
w2 = f (vk+2 )
...
wn
k
= f (vn )
sono generatori di f (V ). Facciamo vedere che sono linearmente indipendenti. Sia
1 w1
+
2 w2
+ ... +
n k wn k
= f ( 1 vk+1 +
2 vk+2
+ ... +
n k vn )
= 0W
una combinazione lineare nulla. Allora
1 vk+1
+
2 vk+2
+ ... +
n k vn
2 N (f ) \ L(vk+1 , . . . , vn ) .
Per costruzione, poiché (v1 , . . . , vk , vk+1 , . . . , vn ) sono linearmente indipendenti, l’unico
elemento del nucleo che è combinazione lineare dei vettori (vk+1 , . . . , vn ) è il vettore
nullo. Quindi
1 vk+1 + 2 vk+2 + . . . + n k vn = 0V
e per l’indipendenza lineare dei vi questo implica 1 = 2 = . . . = n k = 0.
Abbiamo provato che i vettori wi sono vettori linearmente indipendenti, e quindi
una base di f (V ). Segue che dim f (V ) = n k = n dim N (f ), e questo conclude la
dimostrazione.
⌅
101
Teorema
della dimensione
Lezione XIV
Rango e sistemi lineari
Sommario: applicazioni e sistemi lineari; rango di una matrice; teoremi di RouchéCapelli e di Cramer; teorema degli orlati. Esercizi.
14.1 Applicazioni e sistemi lineari
Sia LA l’applicazione dell’esempio 13.1.7 associata ad una matrice A = (aij ) 2 Rk,n .
Notiamo che il nucleo di LA è l’insieme dei vettori colonna X = t (x1 , . . . , xn ) tali che
0
1 0 1
a11 x1 + a12 x2 + . . . + a1n xn
0
B
C B C
B a21 x1 + a22 x2 + . . . + a2n xn C B0C
C = B.C ,
LA (X) = A · X = B
..
B
C B.C
.
@
A @.A
ak1 x1 + ak2 x2 + . . . + akn xn
0
ovvero l’insieme delle soluzioni del sistema lineare omogeneo che ha A come matrice dei
coefficienti. Se (A|B) è la matrice completa di un sistema compatibile, una soluzione è
un vettore colonna X tale che LA (X) = B. Risolvere il sistema vuol dire quindi trovare
tutti i vettori che hanno per immagine un vettore B fissato. Il sistema è compatibile
se e solo se B è nell’immagine di LA .
Proposizione 14.1.1. Data una soluzione X0 di un sistema lineare compatibile
A·X =B ,
(14.1)
tutte e sole le soluzioni di (14.1) si ottengono aggiungendo ad X0 un elemento di
N (LA ), ovvero una soluzione del sistema omogeneo associato. Chiameremo X0 una
soluzione particolare di (14.1).
Dimostrazione. Sia Y una soluzione del sistema. Allora A(Y X0 ) = A · Y A · X0 =
B B = 0, ovvero Y X0 risolve il sistema omogeneo associato. Viceversa se A·Z = 0,
allora detto Y = X0 + Z si ha A · Y = A · X0 + A · Z = B + 0 = B, ovvero Y è soluzione
del sistema lineare.
⌅
14.2 Rango di una matrice
Siano ei i vettori della base canonica di Rn . E’ immediato verificare che l’immagine di
ei tramite LA è data dall’i-esima colonna della matrice A:
0 1
a1i
B C
Ba C
LA (ei ) = B .2i C
@ .. A
aki
102
Soluzione
particolare
per ogni i = 1, . . . , n. Siccome una applicazione lineare manda generatori in generatori,
le colonne di A generano l’immagine di LA .
Indichiamo con ⇢colonne (A), detto rango per colonne di A, la dimensione dello
spazio generato dalle colonne di A; ovvero la dimensione dell’immagine di LA .
Indichiamo con ⇢righe (A) = ⇢colonne (tA), detto rango per righe di A, la dimensione
dello spazio generato dalle righe di A.
Teorema 14.2.1. Il rango per righe è uguale al rango per colonne:
⇢righe (A) = ⇢colonne (A)
per ogni A 2 Rk,n . Tale numero sarà chiamato rango di A ed indicato con ⇢(A).
Dimostrazione. Come illustrato nella sezione 12.4, la dimensione dello spazio generato
dalle righe di A si può calcolare riducendo la matrice e contando le righe non nulle
della matrice ridotta ottenuta, sia essa A0 e m il numero di righe non nulle. Quindi
⇢righe (A) = m .
Il sistema omogeneo AX = 0 è equivalente ad A0 X = 0, e per la proposizione 11.3.4 le
soluzioni formano uno spazio vettoriale di dimensione n m. Quindi
dim N (LA ) = n
m.
Per il teorema della dimensione (teorema 13.2.5),
dim N (LA ) + dim LA (Rn ) = dim(Rn ) = n .
Ma per definizione dim LA (Rn ) = ⇢colonne (A). Quindi
⇢colonne (A) = n
dim N (LA ) = n
(n
m) = m = ⇢righe (A) .
⌅
Corollario 14.2.2. Sia A 2 Rk,n . La dimensione dello spazio delle soluzioni del
sistema omogeneo AX = 0 è n ⇢(A).
Segue inoltre dalla proposizione 14.1.1 che:
Corollario 14.2.3. Se AX = B è un sistema compatibile di k equazioni in n incognite,
tutte e sole le soluzioni sono della forma
X = X0 + t1 X1 + . . . + tm Xm
dove:
• m=n
⇢(A),
• t1 , . . . , tm sono parametri reali,
103
Rango per
colonne
Rango per
righe
• X1 , . . . , Xm formano una base dello spazio delle soluzioni del sistema omogeneo
associato,
• X0 è una soluzione particolare del sistema AX = B.
Teorema 14.2.4 (Rouché-Capelli). Un sistema di matrice completa (A|B) è compatibile se e solo se
⇢(A|B) = ⇢(A) .
Dimostrazione. Per riduzione trasformiamo (A|B) in (A0 |B 0 ), con A0 ridotta per righe.
Il sistema A0 X = B 0 è compatibile se e solo se non contiene equazioni del tipo 0 = b,
con b termine noto non nullo; ovvero, se e solo se il numero di righe non nulle di A0 è
uguale al numero di righe non nulle di (A0 |B 0 ). Siccome il numero di righe non nulle
di A0 è ⇢(A) ed il numero di righe non nulle di (A0 |B 0 ) è ⇢(A|B), il sistema AX = B è
compatibile se e solo se ⇢(A|B) = ⇢(A).
⌅
14.3 Proprietà del rango
Evidentemente, siccome ⇢righe (A) = ⇢colonne (tA) ed il rango per righe coincide con quello
per colonne, si ha ⇢(A) = ⇢(tA) per ogni matrice A.
Proposizione 14.3.1. Se A 2 Rk,n , allora
⇢(A)  min(k, n) .
Diremo che A ha rango massimo se ⇢(A) = min(k, n).
Dimostrazione. Se A 2 Rk,n , l’immagine di LA è contenuta in Rk ed ha dimensione al
più pari ad k. Quindi ⇢(A)  k. Per lo stesso motivo, ⇢(tA)  n. Siccome ⇢(A) = ⇢(tA),
⇢(A) è minore del minimo fra k ed n.
⌅
Abbiamo già osservato che se A 2 Rk,n è ridotta per righe, ⇢(A) è dato dal numero
di righe non nulle di A.
Se A 2 Rk,n è triangolare superiore completa, allora ha rango massimo. Infatti in
questo caso A è ridotta per righe, ed il numero di righe non nulle è il minimo fra k e
n (vedere i due casi k  n e k > n a pagina 77).
Lemma 14.3.2. A 2 Mn (R) ha determinante diverso da zero se e solo se ⇢(A) = n.
Dimostrazione. Se |A| =
6 0, applicando il metodo di eliminazione di Gauss si ottiene da
0
A una matrice A triangolare superiore completa. Le righe di una matrice triangolare
superiore completa sono tutte non nulle, quindi ⇢(A) = n.
Viceversa se ⇢(A) = n, riducendo per righe A si ottiene una matrice ridotta A00 che
ha tutte le righe non nulle. A00 può essere trasformata in una matrice triangolare superiore completa A000 riordinando le colonne. Una matrice triangolare superiore completa
104
ha sempre determinante non nullo, e siccome |A| = |A00 | è uguale ad |A000 | a meno di
un segno, si ricava |A| =
6 0.
⌅
Teorema 14.3.3 (Cramer). Un sistema di n equazioni lineari in n incognite AX = B
ammette un’unica soluzione se e solo se |A| =
6 0, ed in tal caso la soluzione è data da
X = (x1 , . . . , xn ) con
xi =
a11 . . . a1,i
a21 . . . a2,i
..
..
.
.
an1 . . . an,i
1
1
1
b1 a1,i+1 . . . a1,n
b2 a2,i+1 . . . a2,n
..
..
..
.
.
.
bn an,i+1 . . . an,n
|A|
Teorema
di Cramer
(14.2)
per i = 1, . . . , n. La matrice a numeratore si ottiene da A = (aij ) sostituendo alla
i-esima colonna il vettore colonna dei termini noti B = t (b1 , . . . , bn ).
Dimostrazione. Se il sistema è compatibile, ⇢(A) = ⇢(A|B) e le soluzioni sono dipendono da n ⇢(A) parametri. La soluzione è unica se e solo se ⇢(A) = n, ovvero se e
solo se |A| =
6 0 (per il Lemma 14.3.2).
Viceversa se |A| =
6 0, la matrice A è invertibile ed esiste un unico vettore X che ha
per immagine, tramite LA , il vettore B. Tale vettore è dato da:
X = A 1B .
Il sistema è quindi compatibile ed ammette un’unica soluzione.
Sia ij il complemento algebrico di aij . Per il teorema di Laplace l’elemento in
posizione (i, j) della matrice A 1 è dato da cij = |A| 1 ji . Quindi
Xn
Xn
xi =
cij bj = |A| 1
bj ji .
j=1
j=1
Nell’ultima sommatoria riconosciamo lo sviluppo di Laplace della matrice a numeratore dell’equazione (14.2), fatto rispetto alla colonna i-esima. Questo conclude la
dimostrazione.
⌅
Anche il calcolo del rango può essere ridotto ad un calcolo di determinanti, usando il
seguente teorema (enunciato senza dimostrazione), noto come teorema di Kronecker
o anche teorema degli orlati.
Definizione 14.3.4. Data una matrice A 2 Rk,n , una matrice quadrata M ottenuta
da A eliminando k p righe e n p colonne si dirà minore di ordine p di A.
Teorema 14.3.5. Una matrice A 2 Rk,n ha rango p se e solo se esiste un minore M
di ordine p il cui determinante è non nullo, e tutti i minori di ordine p + 1 contenenti
M hanno determinante nullo.
I minori di ordine p + 1 contenenti un minore M di ordine p si dicono orlati di M ,
da cui il nome del teorema.
105
Minori
Teorema
degli orlati
Orlati
14.4 Esercizi
Esercizio 14.4.1 (4.2.1 di [BruLan]). Determinare il rango della matrice:
0
1
1 0 1
B
C
A=@ 2 1 1A .
1 1 0
Soluzione 1 (per riduzione).
Indicando come al solito con Ri le righe, per riduzione si ottiene:
0
1
0
1
0
1
1 0
R2 !R2 2R1
R3 !R3 +R1 B
C R30 !R30 R20
B
0
A
!@0 1 3A
!A =@0 1
0 1 1
0 0
1
1
C
3A .
4
Quindi ⇢(A) = ⇢(A0 ) = 3.
X
Soluzione 2.
Calcoliamo il determinante di A, usando lo sviluppo di Laplace rispetto alla prima riga:
|A| =
1
1
1
+
0
2 1
1 1
= 1 + 3 = 4 6= 0 .
X
Dal Lemma 14.3.2 segue che A ha rango massimo, ovvero ⇢(A) = 3.
Esercizio 14.4.2 (da 4.6.3 di [BruLan]). Determinare il rango della matrice:
0
0
B0
B
A=B
@0
1
Soluzione 1 (per riduzione).
Riducendo A si ottiene:
0
0
R2 !R2 R1
R3 !R3 2R1 B
R !R R1 B 0
A 4 4 !
B
@0
1
Quindi ⇢(A) = ⇢(A0 ) = 3.
1
0
0
1
2
1
1
0
1
1
0C
C
C
0A
0
1
1
2
2
2
1
3
2
R3 !R3
106
1
1
1C
C
C .
2A
1
0
0
B0
R2
B
! A0 = B
@0
1
1
0
0
1
2
1
0
0
1
1
0C
C
C .
0A
0
X
Soluzione 2 (con il teorema degli orlati).
Chiamiamo M il minore di ordine 3 di A evidenziato:
0
1
B 0 1 2 1 C
B 0 1 1 1 C
B
C
B 0 2 3 2 C
@
A
1 2 2 1
Il determinante di M è non nullo. Infatti con lo sviluppo di Laplace rispetto alla prima
colonna
1 1
|M | =
=1.
2 3
Il suo unico orlato è l’intera matrice A, e con lo sviluppo di Laplace rispetto alla prima
colonna si calcola
1 2 1
|A| = 1 1 1
2 3 2
e questo vale 0, poiché l’ultima riga è somma delle prime due (proposizione 5.4.4, punto
7). Per il teorema degli orlati, questo prova che il rango della matrice è 3.
X
Esercizio 14.4.3. Risolvere il sistema di equazioni lineari
8
>
x1 + x3 = 3
<
2x1 + x2 x3 = 0
>
:
x1 + x2 = 3
Soluzione. La matrice dei coefficienti è la matrice A dell’esercizio 14.4.1, ed il determinante è |A| = 4 è diverso da zero. Per il teorema di Cramer, la soluzione è unica e
data da
x1 =
3 0
0 1
3 1
|A|
1
1
0
x2 =
1 3
2 0
1 3
|A|
1
1
0
x3 =
1 0 3
2 1 0
1 1 3
|A|
Ricordiamo che la prima matrice a numeratore si ottiene sostituendo alla prima colonna
di A la colonna dei termini noti (in rosso), la seconda matrice a numeratore si ottiene
sostituendo alla seconda colonna di A la colonna dei termini noti, e la terza matrice a
numeratore si ottiene sostituendo alla terza colonna di A la colonna dei termini noti.
Calcolando i determinanti, ad esempio con lo sviluppo di Laplace rispetto alla
colonna in rosso, si trova (x1 , x2 , x3 ) = (0, 3, 3).
X
107
Lezione XV
Esercitazione
15.1 Applicazioni lineari
Esercizio 15.1.1. Per
2 R si consideri la matrice
0
1
2 1 4
B
C
A = @0 5 0 A .
1
Determinare una base per nucleo e immagine dell’endomorfismo LA : R3 ! R3 .
Soluzione. L’immagine di LA è lo spazio generato dalle colonne di A, ovvero dalle righe
di B = tA. Riordinando le righe di B si ottiene
0
1
0
1
0
1
2 0 1
1 5
1
5
B
C R $R2 0 B
C R0 !R0 2R20
B
C
B = @1 5 A 1 !
B = @2 0 1 A 3 3 !
B 00 = @2 0
1 A ,
4 0
4 0
0 0
2
in cui abbiamo chiamato Ri le righe di B e Ri0 le righe di B 0 . La matrice B 00 è ridotta
per righe, per ogni 2 R; le righe non nulle sono una base di LA (R3 ). Si ha:
1. Se 6= 2, una base di LA (R3 ) è formata dai vettori v1 = (1, 5, ), v2 = (2, 0, 1),
v3 = (0, 0,
2). La dimensione di LA (R3 ) è 3, quindi LA (R3 ) = R3 .
2. Se = 2, una base di LA (R3 ) è formata dai vettori v1 = (1, 5, 2), v2 = (2, 0, 1).
La dimensione di LA (R3 ) è 2.
Per il teorema della dimensione, il nucleo N (LA ) ha dimensione 0 nel primo caso e 1
nel secondo. Se 6= 2 si ha quindi N (LA ) = {0}.
Se = 2, qualunque vettore non nullo X = (x1 , x2 , x3 ) 2 N (LA ) è una base del
nucleo. Per determinare X, sostituiamo = 2 nell’espressione di A e risolviamo il
sistema A · X = 0. Dette Ei le righe di A, riducendo A per righe:
0
1
0
1
2
1
4
2
1
4
E3 !E3 12 E1 B
C E30 !E30 103 E20 0 B
C
A
! @0 5 0 A
! A = @0 5 0A
0 32 0
0 0 0
si ottiene il sistema equivalente A0 X = 0, ovvero
⇢
2x1 + x2 + 4x3 = 0
5x2 = 0
che risolto per sostituzione dà X = ( 2x3 , 0, x3 ). Una base del nucleo si ottiene
prendendo x3 = 1, ed è data dal vettore ( 2, 0, 1).
X
108
15.2 Basi e dimensione
Esercizio 15.2.1 (4.6.1 di [BruLan]). Si considerino l’insieme I = {v1 , v2 , v3 , v4 , v5 }
dei vettori di R4 :
v1 = (1, 1, 2, 1) ,
v2 = ( 2, 2, 4, 2) ,
v4 = ( 1, 3, 3, 3) ,
v3 = (1, 1, 1, 1) ,
v5 = (1, 2, 1, 2) .
Detto W = L(I):
a) Estrarre una base B di W dall’insieme di generatori I.
b) Completare B ad una base di R4 .
Soluzione. Sia A la matrice che ha per righe i vettori di I, ossia
0
1
1 1 2
1
B
C
B 2 2 4
2C
B
C
A=B
1C
B 1 1 1
C
B
C
3A
@ 1 3 3
1 2 1
2
Riducendo per righe si ha
0
1
R3 !R2 +2R1
B
R3 !R3 R1
B0
R4 !R4 +R1
B
R5 !R5 R1
0
A
!A =B
B0
B
@0
0
1
0
2
2
3
2
0
1
1
1
1
1
C
0C
C
2C
C
C
2A
1
R40 !R40
R50 !2R50
0
1
B
0
R3
B0
B
3R30
00
!A =B
B0
B
@0
0
1
0
2
0
0
2
0
1
0
1
1
1
C
0C
C
2C
C .
C
0A
8
Come al solito abbiamo chiamato Ri = vi le righe di A ed Ri0 le righe di A0 . Una base
B 0 di W è data dalle righe Ri00 non nulle di A00 , quindi
B 0 = R100 = (1, 1, 2, 1) , R300 = (0, 2, 1, 2) , R500 = (0, 0, 1, 8) .
Al punto a) si chiede però di trovare una base formata da vettori di I. Per estrarre una
base B dall’insieme di generatori I è sufficiente prendere le righe di A corrispondenti
alle righe non nulle di A00 . Quindi
B = R1 = v 1 , R 3 = v 3 , R 5 = v 5 .
Per completare B ad una base di R4 è sufficiente trovare un vettore ei della base
canonica che, aggiunto alla matrice A00 , dà una matrice che è ancora ridotta per righe:
infatti, in questo caso ei è linearmente indipendente dai vettori di B 0 , quindi non
contenuto in W , quindi linearmente indipendente dai vettori di B.
109
Il vettore cercato è e4 = (0, 0, 0, 1), infatti
0 00 1 0
R1
1 1
BR00 C B 0 2
B 3C B
B 00 C = B
@R 5 A @ 0 0
e4
0 0
2
1
1
0
1
1
2C
C
C
8A
1
X
è ridotta per righe. La base di R4 cercata è quindi (v1 , v3 , v5 , e4 ).
Esercizio 15.2.2. Si considerino i vettori di R4 :
v1 = (1, 2, 3, 1) ,
v2 = (4, 2, 2, 0) ,
v3 = (4, 1, 9, 2) ,
ed i vettori di R3 :
w1 = (1, 4, 4) ,
w2 = (2, 2, 1) ,
w3 = (3, 2, 9) ,
w4 = ( 1, 0, 2) .
Determinare le dimensioni di V = L(v1 , v2 , v3 ) e di W = L(w1 , w2 , w3 , w4 ).
Soluzione. I vettori vi formano le righe, ed i vettori wj le colonne, della matrice:
0
1
B 1 2 3 1 C
C
A=B
@ 4 2 2 0 A
4 1 9 2
Quindi dim(V ) = dim(W ) = ⇢(A). Il rango può essere calcolato come al solito per
riduzione o con il teorema degli orlati. Usiamo il secondo metodo. Il minore di ordine
2 evidenziato ha determinante non nullo:
1 2
4 2
=
6.
Ha due orlati, ottenuti eliminando la terza e la quarta riga rispettivamente. Il loro
determinante è nullo, come si verifica con lo sviluppo di Laplace rispetto alla colonna
in rosso:
1
4
4
1
4
4
2
2
1
2
2
1
1
0
2
3
2
9
4
4
2
1
2
1 2
+2
1
4 2
1
=
1 · ( 12) + 0 · ( 9)
=3
4
4
2
1
0
1
4
=
( 2)
= 3 · ( 12) + 2 · ( 9)
1
4
2 · ( 6) = 12
12 = 0 ,
2
1 2
+ ( 9)
1
4 2
9 · ( 6) =
36
18 + 54 = 0 .
X
Quindi ⇢(A) = 3.
110
15.3 Sistemi lineari
Esercizio 15.3.1. Si consideri il sistema lineare:
8
x1 x2 + x3 =
>
>
>
>
<
x4 = 1
> x1 + x2 + x3 + x4 = 0
>
>
>
:
x1 x2 = 0
a) Stabilire per quali
2 R il sistema è compatibile.
b) Determinare la soluzione generale del sistema per i valori di
compatibile.
per i quali è
c) Per ogni 2 R, determinare una base dello spazio W delle soluzioni del sistema
lineare omogeneo associato.
Soluzione. Detta (A|B) la
la matrice dei coefficienti:
0
1 1 1 0
B0 0 0
B
(A|B) = B
@1
1 1
1 1 0 0
matrice completa del sistema ed Ri le sue righe, riduciamo
1
0
1
1
C
B
1 C R3 !R3 R1 B 0
0
!B
C
@0
0A
+1
0
1
1
0
1
1 1
B1
1 0
R2 $R4
B
! (A0 |B 0 ) = B
@0
+1 0
0
0
0
0
1
B1
R3 !R3 +R4
B
! (A00 |B 00 ) = B
@0
0
1
1 0
0
0 1
0 0
0
0
1
1C
C
C
A
0
1
0C
C
C
A
1
1
1
+1
0
1
0
0
0
0
0
0
+1 1
1
1
C
C
C.
A
Le matrici A00 e (A00 |B 00 ) sono ridotte per righe per ogni valore di . Ricordiamo che
⇢(A) è il numero di righe non nulle di A00 e ⇢(A|B) è il numero di righe non nulle di
(A00 |B 00 ). Distinguiamo due casi:
i) se = 0 o = 1, ⇢(A) = 3 6= ⇢(A|B) = 4 ed il sistema non ammette soluzioni
(per il teorema di Rouché-Capelli);
ii) se
2
/ {0, 1}, ⇢(A) = ⇢(A|B) = 4 ed il sistema è compatibile.
In risposta al punto a):
il sistema è compatibile se e solo se
2
/ {0, 1}.
111
Per 2
/ {0, 1} le soluzioni si determinano risolvendo il sistema equivalente di matrice
completa (A0 |B 0 ), ovvero
8
x1 x2 + 1x3 =
>
>
>
>
<
1x
x = 0
1
2
>
( + 1)x2 + x4 =
>
>
>
:
x4 = 1
Risolvendo per sostituzione dal basso verso l’alto si ottiene la risposta al punto b):
(x1 , x2 , x3 , x4 ) =
+
+1
1
,
+
+1
1
,
,
1
.
Passiamo al punto c). Il sistema omogeneo associato è equivalente al sistema A0 X = 0,
ossia
8
x1 x2 + 1x3 = 0
>
>
>
>
<
1x1 x2 = 0
>
( + 1)x2 + x4 = 0
>
>
>
:
x4 = 0
Lo spazio W delle soluzioni ha dimensione 4 ⇢(A), ossia 0 nel caso ii) e 1 nel caso 1.
Se = 0, risolvendo per sostituzione si trova
(x1 , x2 , x3 , x4 ) = (t, t, 0, t)
con t 2 R. Una base di W è quindi data dal vettore (1, 1, 0, 1).
Se = 1, risolvendo per sostituzione si trova
(x1 , x2 , x3 , x4 ) = (t, t, 0, 0)
con t 2 R. Una base di W è quindi data dal vettore (1, 1, 0, 0).
112
X
Lezione XVI
Endomorfismi semplici
Sommario: matrice del cambiamento di base; matrici simili e coniugate; matrici
diagonalizzabili/endomorfismi semplici. Rotazioni nel piano.
16.1 Matrice del cambiamento di base
Consideriamo due basi B = (v1 , . . . , vn ) e B 0 = (v10 , . . . , vn0 ) di uno spazio vettoriale V .
Possiamo allora scrivere i vettori vi0 nella base B:
v10 = a11 v1 + a12 v2 + . . . + a1n vn ,
v20 = a21 v1 + a22 v2 + . . . + a2n vn ,
..
..
.
.
vn0 = an1 v1 + an2 v2 + . . . + ann vn .
Definiamo tre matrici n ⇥ n:
0
1
a11 a12 . . . a1n
B
C
B a21 a22 . . . a2n C
B
A=B .
..
.. C
C ,
.
.
. A
@ .
an1 an2 . . . ann
Si ha allora:
0
1
v1
B C
B v2 C
C
E=B
B .. C ,
@.A
vn
0
1
v10
B 0C
B v2 C
0
C
E =B
B .. C .
@.A
vn0
E0 = A · E .
La matrice A, i cui elementi sono le componenti dei vettori della base B 0 nella base B,
è detta matrice del cambiamento di base da B a B 0 .
Analogamente i vettori vi si possono scrivere nella base B 0 , e chiameremo A0 la
matrice del cambiamento di base da B 0 a B:
E = A0 · E 0 .
Proposizione 16.1.1. La matrice A del cambiamento di base da B a B 0 è invertibile,
e la sua inversa è la matrice A0 del cambiamento di base da B 0 a B.
Dimostrazione. Per l’associatività del prodotto righe per colonne
E = A0 · E 0 = A0 · (A · E) = (A0 · A) · E .
(16.1)
Poiché le righe di E sono una base di Rn , il rango è ⇢(E) = n e la matrice E è invertibile
(Lemma 14.3.2). Moltiplicando ambo i membri di (16.1) per E 1 da destra, si ottiene:
A0 · A = In .
113
Matrice del
cambiamento
di base
⌅
Quindi A0 = A 1 .
E’ naturale chiedersi che relazione c’è tra le matrici rappresentative di una applicazione
lineare f : V ! V (un “endomorfismo” di V ) in due basi diverse di V .
Ricordiamo che B = (bij ) si dice matrice rappresentativa di f nella base B se:
f (v1 ) = b11 v1 + b21 v2 + . . . + bn1 vn ,
f (v2 ) = b12 v1 + b22 v2 + . . . + bn2 vn ,
..
..
.
.
f (vn ) = b1n v1 + b2n v2 + . . . + bnn vn ,
e in maniera simile è definita la matrice rappresentativa B 0 = (b0ij ) di f nella base B 0 .
In notazione matriciale, dette F ed F 0 le matrici
0
1
0
1
f (v1 )
f (v10 )
B
C
B
C
B f (v2 ) C
B f (v20 ) C
0
C
C
F =B
F =B
B .. C ,
B .. C ,
.
.
@
A
@
A
0
f (vn )
f (vn )
si ha
F 0 = tB0 · E 0 .
F = tB · E ,
Proposizione 16.1.2. Le matrici rappresentative B e B 0 sono legate dalla relazione:
t
B0 = A · tB · A
1
,
o equivalentemente
B 0 = (tA)
1
· B · tA .
Dimostrazione. Come prima cosa, dalla linearità di F segue che
f (vi0 ) = f (ai1 v1 + ai2 v2 + . . . + ain vn ) = ai1 f (v1 ) + ai2 f (v2 ) + . . . + ain f (vn )
o in forma matriciale
F0 = A · F .
Quindi
t
Usando E = A0 · E 0 = A
1
B0 · E 0 = A · tB · E .
· E 0 si ottiene:
t
B0 · E 0 = A · tB · A
1
· E0 ,
1
.
e siccome la matrice E 0 è invertibile, si ha
t
B0 = A · tB · A
114
Applicando la trasposizione ambo i membri di questa uguaglianza, e usando la proprietà
della trasposizione di invertire l’ordine in un prodotto (proposizione 10.2.5, punto ii),
si trova la relazione equivalente
B 0 = t (A · t B · A 1 ) = (tA)
1
· B · tA .
⌅
Esempio 16.1.3. In R2 , si considerino le basi B = v1 = (1, 0), v2 = (0, 1) e B 0 =
v10 = (1, 1), v20 = ( 1, 1) . Le matrici del cambiamento di base sono date da
✓
◆
✓
◆
1 1
1 1 1
0
1
A=
,
A =A =
.
2 1 1
1 1
Se f : R2 ! R2 è l’applicazione lineare
f (x, y) = ( y, x)
la matrice rappresentativa nella base B è
✓
0
B=
1
1
0
e la matrice rappresentativa nella base B 0 è
✓
◆✓
1 1
0
1
0
t
1
t
B = ( A) · B · A =
2
1 1
1
◆
1
0
◆✓
1
1
1
1
◆
=
✓
1 0
0 1
◆
.
La matrice B 0 si poteva calcolare direttamente notando che
f (v1 ) = f (1, 1) = ( 1, 1) =
v1 ,
f (v2 ) = f (1, 1) = (1, 1) = v2 .
L’applicazione f è una riflessione nel piano rispetto alla bisettrice del II e IV quadrante,
come mostrato in figura.
v2
v1
y
(x, y)
y
x
x
( y, x)
I punti della bisettrice, corrispondenti ai vettori proporzionali a v2 = (1, 1), sono
lasciati invariati da f . I punti fuori dalla bisettrice vengono riflessi rispetto ad essa.
115
16.2 Matrici simili e coniugate
Definizione 16.2.1. Due matrici A, A0 2 Mn (R) si dicono:
• simili se sono matrici rappresentative di uno stesso endomorfismo f : R ! R
in due basi B e B 0 di Rn ;
n
• coniugate se esiste una matrice P 2 Mn (R) invertibile tale che A0 = P
1
n
Matrici
simili e
coniugate
AP .
Osservazione 16.2.2. Le due basi nella definizione precedente non devono essere
necessariamente distinte. In particolare, una matrice è sempre simile a se stessa.
Proposizione 16.2.3. A e A0 sono simili se e solo se sono coniugate. In questo caso,
t
P è la matrice del cambiamento di base da B a B 0 .
Dimostrazione. Se A e A0 sono simili, ovvero sono matrici rappresentative di un endomorfismo f : Rn ! Rn in due basi B e B 0 rispettivamente, allora per la proposizione
16.1.2 sono legate dalla relazione A0 = P 1 AP , dove tP è la matrice del cambiamento
di base da B a B 0 . Quindi A e A0 sono coniugate.
Viceversa, supponiamo esista una matrice invertibile P tale che A0 = P 1 AP .
Poniamo f = LA , B = (e1 , . . . , en ) uguale alla base canonica di Rn e B 0 = (v10 , . . . , vn0 )
la base i cui vettori formano le colonne della matrice P . I vettori della base canonica
sono le righe della matrice identica, quindi
0 1
0 1
e1
v10
B C
B 0C
B e2 C
B v2 C t
0
C = In ,
B . C= P .
E=B
E
=
.
B.C
B.C
.
@ A
@.A
en
vn0
La matrice del cambiamento di base da B a B 0 è esattamente tP , poiché
E 0 = tP · In = tP · E .
La matrice rappresentativa di f nella base canonica è chiaramente A. Per la proposizione 16.1.2, La matrice rappresentativa di f nella base B 0 è data da P 1 AP = A0 . Le
matrici A e A0 sono quindi simili.
⌅
Definizione 16.2.4.
• Una matrice A si dice diagonalizzabile se è simile ad una matrice
ovvero
0
1
0 0 ... 0
1
B
C
0 ... 0 C
B0
2
C
B
C
0
0
.
.
.
0
=B
3
B
C
..
..
.. C
B ..
@.
.
.
.A
0 0 0 ... n
con
1, . . . ,
n
2 R.
116
diagonale,
Matrici
diagonalizzabili
• Un endomorfismo f di V si dice semplice se esiste una base B = (v1 , . . . , vn )
di V in cui è rappresentato da una matrice diagonale , ovvero
f (v1 ) =
1 v1
+ 0 v2 + 0 v3 + . . . + 0 vn =
f (v2 ) = 0 v1 +
2 v2
+ 0 v3 + . . . + 0 vn =
f (v3 ) = 0 v1 + 0 v2 +
..
.
3 v3
+ . . . + 0 vn =
..
.
f (vn ) = 0 v1 + 0 v2 + 0 v3 + . . . +
n vn
=
1 v1
,
2 v2
,
3 v3
,
n vn
.
Proposizione 16.2.5. L’endomorfismo LA è semplice se e solo se A è diagonalizzabile.
Dimostrazione. La matrice rappresentativa di LA nella base canonica è A. Se LA è
semplice, esiste una base in cui la matrice rappresentativa è diagonale, quindi A è
simile ad una matrice diagonale, ovvero diagonalizzabile.
Viceversa, se A è diagonalizzabile, ovvero A = P P 1 con
diagonale e P
invertibile, allora nella base formata dalle colonne di P l’endomorfismo f = LA è
rappresentato dalla matrice diagonale . Quindi LA è semplice.
⌅
Esempio 16.2.6.
• La matrice B dell’esempio 16.1.3 è diagonalizzabile, essendo simile alla matrice
B 0 , che è diagonale. Anche la matrice B 0 dell’esempio 16.1.3 è diagonalizzabile,
essendo già in forma diagonale.
• La matrice identica In è diagonale, quindi diagonalizzabile. La trasformazione
identica LIn è rappresentata dalla matrice identica in ogni base di Rn , poiché
(per la proprietà dell’elemento neutro e dell’inverso) l’unica matrice simile alla
matrice identica è la matrice identica stessa:
P
• L’endomorfismo
1
In P = P
f : R2 ! R 2 ,
1
P = In .
f (x, y) = (2x, 3y) ,
è semplice, essendo rappresentato nella base canonica dalla matrice diagonale
✓
◆
2 0
A=
.
0 3
• L’endomorfismo
f : R2 ! R 2 ,
f (x, y) = (x + 2y, 3x + 2y) ,
è semplice, essendo rappresentato nella base B = v1 = (2, 3), v2 = (1, 1) dalla
matrice
✓
◆
4
0
A=
.
0
1
117
Endomorfismi
semplici
Come mostrato nel seguente esempio, non tutti gli endomorfismi sono semplici, e
non tutte le matrici sono diagonalizzabili.
Esempio 16.2.7. L’endomorfismo
f : R2 ! R 2 ,
f (x, y) = ( y, x) ,
(16.2)
non è semplice. In altre parole la sua matrice rappresentativa A nella base canonica:
A=
✓
0
1
1
0
◆
non è diagonalizzabile. Infatti, supponiamo per assurdo che esista un vettore v = (x, y)
non nullo ed uno scalare 2 R tale che f (v) = v. Allora (x, y) risolve il sistema
⇢
y= x
x= y
Tale sistema ha però come unica soluzione quella nulla, qualunque sia il valore di .
Un problema che si presenta spesso nelle applicazioni consiste, dato un endomorfismo di uno spazio vettoriale, nel determinare una base (se esiste) in cui è rappresentato da una matrice diagonale. Vedremo nel prossimo capitolo come si risolve questo
problema.
Osservazione 16.2.8. Notiamo che l’applicazione (16.2) rappresenta una rotazione
antioraria di 90 rispetto all’origine degli assi, come si evince dalla figura qui sotto.
( y, x)
x
(x, y)
y
y
x
16.3 Esercizio: rotazioni nel piano
Sia X = t (x1 , x2 ) 2 R2 un vettore non nullo ed Y = t (y1 , y2 ) un secondo vettore
della stessa lunghezza ottenuto da X con una rotazione (rispetto all’origine) in senso
antiorario di un angolo #. Vogliamo risolvere il seguente problema:
Esercizio 16.3.1. Esprimere (y1 , y2 ) in funzione di (x1 , x2 ).
118
Y
#
X
y2
x2
↵
y1
x1
Figura 6: Rotazione nel piano
La situazione è illustrata in figura 6.
Proposizione 16.3.2. Si ha
y1 = x1 cos #
x2 sin # ,
y2 = x2 cos # + x1 sin # ,
ovvero
Y = LR(#) (X)
dove abbiamo chiamato R(#) la matrice:
✓
cos #
R(#) :=
sin #
sin #
cos #
◆
.
(16.3)
Dimostrazione. Detto r = kXk = kY k il raggio del cerchio, si ha x1 = r cos ↵, x2 =
r sin ↵, y1 = r cos e y2 = r sin . Poiché = ↵ + #, usando le formule di addizione e
sottrazione di seno e coseno si ottiene:
y1 = r cos(↵ + #) = r cos ↵ cos #
r sin ↵ sin # = x1 cos #
x2 sin # ,
y2 = r sin(↵ + #) = r sin ↵ cos # + r cos ↵ sin # = x2 cos # + x1 sin # .
⌅
L’applicazione lineare
LR(#) : R2 ! R2
è quindi una rotazione (rispetto all’origine) in senso antioriario di un angolo #.
Le rotazioni soddisfano numerose proprietà, la cui trattazione va oltre gli scopi di
questo corso. Le matrici di rotazione non sono diagonalizzabili (su questo torneremo
più avanti).
119
Lezione XVII
Autovalori e autovettori
Sommario: autovalori, autovettori, autospazi; polinomio caratteristico; molteplicità
geometrica e algebrica di un autovalore. Esempi.
17.1 Autovalori e autovettori
Definizione 17.1.1. Sia f : V ! V una applicazione lineare e v 2 V un vettore non
nullo. Se esiste 2 R tale che
f (v) = v ,
diremo che
è un autovalore di f e che v è un autovettore di f associato a .
In altre parole, v è autovettore di f se è trasformato da f in un vettore parallelo
al vettore v stesso.
Osservazione 17.1.2. Un endomorfismo f è semplice (definizione 16.2.4) se esiste una
base di V fatta di autovettori di f .
Definizione 17.1.3. Data A 2 Mn (R), diremo che v 2 Rn è un autovettore di A di
autovalore se v è autovettore di LA di autovalore , ovvero soddisfa:
Av = v .
Osservazione 17.1.4. A 2 Mn (R) è diagonalizzabile (definizione 16.2.4) se esiste una
base di V fatta di autovettori di LA .
Esempio 17.1.5.
• Siano a, b 2 R e sia f : R2 ! R2 l’applicazione f (x, y) = (ax, by). I vettori
e1 = (1, 0) ed e2 = (0, 1) sono autovettori di f :
f (e1 ) = a e1 ,
f (e2 ) = b e2 ,
associati agli autovalori a e b, rispettivamente.
• Sia
A=
✓
3 2
0 1
◆
.
Il vettore e1 = (1, 0) è autovettore di A di autovalore 3:
Ae1 = 3e1 .
Il vettore v = (1, 1) è autovettore di A di autovalore 1: infatti, Av = v.
120
Autovalori
e autovettori
Esempio 17.1.6. La matrice
1
A= p
2
✓
1
1
1
1
◆
non possiede autovettori. Infatti, per assurdo un autovettore v = (x1 , x2 ) di autovalore
dovrebbe risolvere il sistema
p
⇢
x1 x2 = 2 x1
p
x1 + x2 = 2 x2
Ma tale sistema non è compatibile (Esercizio: verificare che il sistema non ammette
soluzioni). Notiamo che A rappresenta una rotazione (antioraria, fatta rispetto all’origine) di 45 , come si vede sostituendo # = 45 nell’equazione (16.3). In generale, nessuna
matrice di rotazione R(#) possiede autovettori9 , poiché non esiste nessun vettore non
nullo v che con una rotazione è trasformato in un vettore parallelo a v.
1
Lemma 17.1.7. Se A = P P
, con
0
1
diagonale ( 1 , . . . ,
autovalore i .
B
B0
B
=B
B0
B ..
@.
0
n
0
2
0
..
.
0
0
0
3
..
.
0
1
0
C
0C
C
0C
C
.. C
.A
...
...
...
...
(17.1)
n
2 R). Allora la colonna i-esima di P è un autovettore di A di
Dimostrazione. Sia A = P P
(17.1). Evidentemente
A · P = (P P
1
con P = (pij ) invertibile e
1
)P = P (P
1
come nell’equazione
P ) = P In = P
.
Indicando con Xi le colonne di P , si ha
A · P = A · X1 , A · X2 , . . . ,
0
p11 p12 p13 . . .
B
B p21 p22 p23 . . .
B
P· =B
B p21 p22 p23 . . .
..
..
B ..
@ .
.
.
A · Xn ,
10
p1n
1
CB
p2n C B 0
CB
B
p2n C
CB 0
.. C B ..
. A@ .
pn1 pn2 pn3 . . . pnn
9
0
0
2
0
..
.
0
0
0
3
..
.
0
...
...
...
...
1
0
C
0C
C
0C
C
.. C
.A
n
tranne, ovviamente, il caso in cui # è un multiplo di 360 : in questo caso R(#) è la matrice
identica.
121
0
B
B
B
=B
B
B
@
=
1 p11
2 p12
3 p13
1 p21
2 p22
3 p23
1 p21
2 p22
3 p23
..
.
1 pn1
1 X1
L’uguaglianza A · P = P ·
..
.
2 pn2
,
2 X2
...
...
...
n p1n
n Xn
C
C
n p2n C
C
.. C
. A
n pnn
n p2n C
..
.
3 pn3 . . .
,...,
1
.
è quindi equivalente a
A · Xi =
8 i = 1, . . . , n ,
i Xi
ovvero Xi è autovettore di A di autovalore
i.
⌅
E’ naturale domandarsi se la matrice A del lemma 17.1.7 possiede altri autovalori
oltre agli elementi di matrice di . Vedremo che la risposta è negativa.
Definizione 17.1.8. Se
a l’insieme:
è un autovalore di f , chiameremo autospazio di f associato
V = v 2 V : f (v) = v .
Per estensione, se f = LA diremo che V è un autospazio della matrice A.
Proposizione 17.1.9. Per ogni f e per ogni suo autovalore , l’autospazio V è un
sottospazio vettoriale di V .
Dimostrazione. Come al solito dobbiamo provare che per ogni v1 , v2 2 V e per ogni
a1 , a2 2 R, la combinazione lineare a1 v1 +a2 v2 appartiene a V . Per ipotesi f (vi ) = vi .
Per la linearità di f si ha
f (a1 v1 + a2 v2 ) = a1 f (v1 ) + a2 f (v2 ) = a1 v1 + a2 v2 = (a1 v1 + a2 v2 ) .
Quindi a1 v1 + a2 v2 è autovettore di f con autovalore , ovvero appartiene a V .
⌅
Segue dalla precedente proposizione che l’autovettore di f associato ad un autovalore non è mai unico. Ad esempio se 0 6= v 2 V , allora anche il vettore v appartiene
a V (cosı̀ come il vettore av per ogni a 2 R).
Esempio 17.1.10.
• Sia f : R2 ! R2 l’applicazione f (x, y) = (2x, 3y). Gli autospazi di f sono dati
da:
V2 = (x, 0) : x 2 R ,
V3 = (0, y) : y 2 R .
• Sia f : R2 ! R2 l’applicazione f (x, y) = (3x + 2y, y). Gli autospazi di f sono
dati da:
V1 = (t, t) : t 2 R ,
V3 = (t, 0) : t 2 R .
122
Autospazio
Proposizione 17.1.11. Sia f : V ! V una applicazione lineare e siano v1 , v2 due
autovettori di f associati ad autovalori 1 , 2 distinti (cioè 1 6= 2 ). Allora {v1 , v2 }
sono linearmente indipendenti.
Dimostrazione. Sia per assurdo v2 = av1 . Allora
2 v2
= f (v2 ) = f (av1 ) = af (v1 ) = a 1 v1 =
1 v2
.
Quindi
(
2 )v2
1
=0.
Ma 1
2 6= 0 per ipotesi, e v2 6= 0 per definizione di autovettore. Abbiamo raggiunto
un assurdo: v2 non può essere proporzionale a v1 , ovvero i due vettori sono linearmente
indipendenti (teorema 6.1.8).
⌅
La proposizione precedente si può generalizzare come segue.
Proposizione 17.1.12. Sia f : V ! V una applicazione lineare e siano v1 , v2 , . . . , vk
degli autovettori di f associati ad autovalori 1 , 2 , . . . , k distinti ( i 6= j 8 i 6= j).
Allora v1 , v2 , . . . , vk sono linearmente indipendenti.
Dimostrazione. Un autovettore è per definizione non nullo, quindi v1 6= 0. Per il teorema 6.1.8 è sufficiente dimostrare, per ogni i = 2, . . . , k, che vi non è combinazione lineare dei vettori v1 , v2 , . . . , vi 1 . La dimostrazione procede per induzione. Supponiamo
che sia vera per vi 1 (vi 1 non è combinazione lineare dei vettori v1 , v2 , . . . , vi 2 , ovvero i vettori v1 , v2 , . . . , vi 1 sono linearmente indipendenti). Ammettiamo per assurdo
che
v i = a1 v 1 + a2 v 2 + . . . + ai 1 v i 1 .
Allora
f (vi ) = a1 f (v1 ) + a2 f (v2 ) + . . . + ai 1 f (vi 1 ) =
a1
1 v1
+ a2
2 v2
+ . . . + ai
1 i 1 vi 1
.
Ma deve essere anche
f (vi ) =
i vi
=
i a1 v 1
+
i a2 v 2
+ ... +
i ai 1 v i 1
.
Sottraendo le ultime due equazioni si trova:
a1 (
1
i )v1
+ a2 (
i )v2
2
+ . . . + ai 1 (
Per ipotesi induttiva, i vettori v1 , v2 , . . . , vi
precedente equazione si ricava
aj (
j
i)
=0
1
=0.
sono linearmente indipendenti e dalla
8 j = 1, . . . , i
123
i )vi 1
i 1
1.
Siccome per ipotesi j
i 6= 0, i coefficienti aj devono essere tutti nulli. Quindi
vi = 0, contraddicendo l’ipotesi che si tratta di un autovettore. Questo dimostra il
passo induttivo: vi non può essere combinazione lineare dei vettori v1 , v2 , . . . , vi 1 . ⌅
Corollario 17.1.13.
• Se V è uno spazio vettoriale di dimensione n, un endomorfismo f : V ! V ha
al più n autovalori distinti.
• Una matrice A 2 Mn (R) ha al più n autovalori distinti.
Dimostrazione. Il primo punto segue dalla proposizione 17.1.12 e dal fatto che in V
non è possibile trovare più di n vettori linearmente indipendenti. Il secondo punto si
ottiene dal primo quando f = LA e V = Rn .
⌅
17.2 Polinomio caratteristico
Un problema tipico consiste nel determinare autovalori ed autovettori di un endomorfismo o di una matrice, e di stabilire se l’endomorfismo è semplice e la matrice
diagonalizzabile. Lo studio di autovalori ed autovettori di un endomorfismo f si può
ridurre al caso delle matrici scegliendo una base (qualsiasi) per il dominio di f , e studiando la matrice rappresentativa in quella base. In questo paragrafo vediamo come si
risolve il problema nel caso delle matrici.
Data A = (aij ) 2 Mn (R) e X 2 Rn , l’equazione
A·X = X
si può riscrivere nella forma
(A
In )X = 0
(17.2)
Condizione necessaria e sufficiente affinché il sistema omogeneo (17.2) ammetta soluzioni non nulle è che la matrice dei coefficienti sia non invertibile, ossia che il suo
determinante sia zero:
|A
a11
a21
a31
In | =
..
.
a12
a22
a32
..
.
an1
an2
a13
a23
a33
...
...
...
..
.
an3
a1n
a2n
a3n
..
.
=0.
(17.3)
. . . ann
Il determinante (17.3) è un polinomio a coefficienti reali di grado n nella variabile ,
detto polinomio caratteristico di A ed indicato con pA ( ). Il polinomio caratteristico
è della forma
pA ( ) = |A
In | = ( 1)n
n
+ c1
124
n 1
+ c2
n 2
+ . . . + cn
1
+ cn
Polinomio
caratteristico
con coefficienti ci 2 R che dipendono dalla matrice A. In particolare, cn = |A| è il
determinante di A e
( 1)n 1 c1 = a11 + a22 + a33 + . . . + ann
è la somma degli elementi sulla diagonale, ed è detto traccia della matrice A.
Abbiamo detto che 0 2 R è autovalore di A, ossia esiste un vettore non nullo X
tale che AX = 0 X, se e solo se pA ( 0 ) = 0. Gli autovalori di A sono quindi le radici
reali del polinomio caratteristico.
Osservazione 17.2.1. Gli autovalori di A sono le radici reali del polinomio caratteristico pA ( ).
Osservazione 17.2.2. Per il teorema di Binet, se P è una matrice invertibile allora
|P
1
(A
In )P | = |P |
1
· |(A
In )| · |P | = |A
In | ,
ovvero matrici coniugate hanno lo stesso polinomio caratteristico. In particolare,
le matrici rappresentative di un endomorfismo f hanno tutte lo stesso polinomio
caratteristico, e le radici reali di tale polinomio sono gli autovalori di f .
Osservazione 17.2.3. Una conseguenza dell’osservazione precedente è che due matrici
coniugate hanno lo stesso determinante e la stessa traccia.
Esempio 17.2.4. Se
A=
✓
a11 a12
a21 a22
◆
è una matrice 2 ⇥ 2, il suo polinomio caratteristico è dato da
|A
a11
a21
I2 | =
a12
a22
Esempio 17.2.5. Se
A=
2
=
✓
(a11 + a22 ) + a11 a22
0
1
1
0
a12 a21 .
◆
il polinomio caratteristico è
pA ( ) =
2
+1.
Tale polinomio non ammette radici reali10 , e quindi A non possiede autovettori.
10
Le sue radici sono
=±
p
1 = ±i, con i unità immaginaria dei numeri complessi.
125
Traccia
Esempio 17.2.6. Sia
0
1
3 1 1
B
C
A = @1 0 2 A .
1 2 0
Il polinomio caratteristico è dato da
3
pA ( ) =
1
1
1
1
2
2
2
= (3
)
= (3
)(
2
+3
2
=
3
1
2
2
4)
(
+6
1
+
1 1
2
2) + (2 + )
8
(calcolato con lo sviluppo di Laplace rispetto alla prima colonna). Il polinomio si può
fattorizzare come segue:
pA ( ) = (
e gli autovalori di A sono dati da
1)(
4)( + 2)
= 1, 4, 2.
Metodo pratico di ricerca degli autovalori e autovettori di A:
1. si determinano gli autovalori, ovvero le radici reali del polinomio caratteristico;
2. per ogni autovalore , si determinano gli autovettori associati risolvendo il sistema
omogeneo
(A
In )X = 0 .
Lo spazio delle soluzioni è l’autospazio V , e la sua dimensione è data da
dim(V ) = n
in cui ⇢(A
In ) è il rango di A
⇢(A
In )
In (corollario 14.2.2).
Definizione 17.2.7. Chiamiamo molteplicità geometrica dell’autovalore
indicata con g , la dimensione dell’autospazio associato: g = dim(V ).
Se
0
di A,
è una radice di pA ( ), allora il polinomio si può fattorizzare come segue:
pA ( ) = (
0)
k
q( )
dove q( ) è un polinomio e q( 0 ) 6= 0. L’esponente k è detto molteplicità di
126
0.
Molteplicità
geometrica
Definizione 17.2.8. Chiamiamo molteplicità algebrica dell’autovalore
indicata con m , la sua molteplicità come radice del polinomio caratteristico.
Teorema 17.2.9. Per ogni autovalore
uguale alla molteplicità algebrica:
g
0
0
di A,
di A, la molteplicità geometrica è minore o
m
0
.
Dimostrazione. Supponiamo g 0 = k. Possiamo prendere una base (v1 , . . . , vk ) di V
e completarla ad una base B = (v1 , . . . , vk , vk+1 , . . . , vn ) di Rn . Siccome
(A
In )vi = (
per ogni i  k, l’applicazione lineare LA
matrice
0
M=
✓
Ik
0
0
B
B
B
B
B
◆ B
B
⇤
=B
B
⇤
B
B
B
B
B
@
In
0
0
..
.
0
)vi
nella base B è rappresentata da una
0
0
0
...
...
0
0
0
..
.
..
.
0
0
0
..
.
...
...
...
0
0
...
0
0
..
.
⇤ ...
⇤ ...
..
.
0
0
..
.
⇤ ... ⇤
⇤ ... ⇤
⇤ ... ⇤
..
..
.
.
⇤ ... ⇤
0
0
⇤
⇤
..
.
1
C
C
C
C
C
C
C
C
C
C
C
C
C
C
A
dove 0 è la matrice nulla con n k righe e k colonne ed i blocchi indicati con un
asterisco sono arbitrari. Il polinomio caratteristico è pA ( ) = |M |. Facendo k volte lo
sviluppo di Laplace rispetto alla prima riga si trova
pA ( ) = (
0
)k q( )
dove q( ) è un polinomio in . La molteplicità algebrica di
radice di q( ), altrimenti è maggiore di k. Questo prova che m
0
0
è k se 0 non è una
k = g 0.
⌅
Esempio 17.2.10. Sia A la matrice
0
1
1 2 3
B
C
A = @0 1 5 A
0 0 1
Siccome A
I3 è una matrici triangolare, il determinante è il prodotto degli elementi
sulla diagonale:
pA ( ) = |A
I3 | = (1
)3 .
127
Molteplicità
algebrica
Quindi
= 1 è autovalore di molteplicità algebrica m
molteplicità geometrica. Dobbiamo risolvere il sistema
(A
ovvero
⇢
= 3.
Determiniamo la
I3 )X = 0
2x2 + 3x3 = 0
5x3 = 0
La soluzione è x2 = x3 = 0 e x1 = t 2 R arbitrario. L’autospazio associato a
quindi
V1 = (t, 0, 0) : t 2 R
= 1 è
e la molteplicità geometrica dell’autovalore è dim(V1 ) = 1 ed è strettamente minore
della molteplicità algebrica.
Esempio 17.2.11. Gli autovalori di una matrice triangolare superiore sono gli elementi
sulla diagonale. Se infatti
0
1
a11 a12 a13 . . . a1n
B
C
B 0 a22 a23 . . . a2n C
B
C
0 a33 . . . a3n C
A=B
B0
C
..
..
.. C
B ..
@ .
. A
.
.
0
0
0
. . . ann
allora A
In è una matrice triangolare, ed il determinante è dato dal prodotto degli
elementi sulla diagonale:
pA ( ) = |A
In | = (a11
)(a22
)(a33
) . . . (ann
).
Tutte e sole le radici del polinomio caratteristico (ovvero gli autovalori di A) sono date
dagli elementi a11 , a22 , . . . , ann .
128
Matrici
triangolari
superiori
Lezione XVIII
Diagonalizzazione di matrici
Sommario: criteri per la diagonalizzabilità di una matrice. Esempi ed esercizi.
18.1 Diagonalizzazione
Ricordiamo che un polinomio p(x) di grado n si può sempre scrivere come segue:
z1 )m1 (x
p(x) = (x
z2 )m2 . . . (x
z r )mr
dove z1 , . . . , zr 2 C sono radici complesse distinte di p(x) e mi è detta molteplicità
della radice zi . Ad esempio
x3 + x2
3)2 (x + 7) .
33x + 63 = (x
Ovviamente
m1 + m2 + . . . + mr = n .
Osservazione 18.1.1. Gli autovalori di una matrice A 2 Mn (R) sono le radici reali
di pA ( ). Dette 1 , . . . , r le radici reali distinte, per la molteplicità algebrica vale la
disuguaglianza
m 1 + m 2 + ... + m 1  n ,
e si ha uguaglianza se e solo se tutte le radici di pA ( ) sono reali.
Lemma 18.1.2. Se A = P P
1
, con
0
1
B
B0
B
=B
B0
B ..
@.
0
diagonale ( 1 ,
1, 2, . . . , n.
2, . . . ,
n
0
2
0
..
.
0
0
0
3
..
.
0
...
...
...
...
1
0
C
0C
C
0C
C
.. C
.A
n
2 R). Allora tutti e soli gli autovalori di A sono dati da
Dimostrazione. Segue dall’osservazione 17.2.2 che
pA ( ) = p ( ) = ( 1)n (
1 )(
2) . . . (
Le radici (reali) del polinomio caratteristico sono quindi date da
129
n)
1,
.
2, . . . ,
n.
⌅
Osservazione 18.1.3. Notiamo che la traccia di è data da 1 + 2 + . . . + n ed il
determinante da 1 2 · · · n . Come conseguenza del lemma precedente, poiché A e
hanno lo stesso determinante e la stessa traccia, si ha
• la traccia di una matrice diagonalizzabile è la somma dei suoi autovalori (ciascuno
contato con la sua molteplicità);
• il determinante di una matrice diagonalizzabile è il prodotto dei suoi autovalori
(ciascuno contato con la sua molteplicità).
Proposizione 18.1.4. La somma di autospazi di un endomorfismo f : V ! V è
diretta.
Dimostrazione. Siano 1 , . . . , r autovalori distinti di f , e supponiamo che v 2 V
V 2 + . . . + V r si possa scrivere in due modi
1
+
v = v 1 + v 2 + . . . + v r = w1 + w2 + . . . + wr
come somma di vettori degli autospazi, vi , wi 2 V i 8 i = 1, . . . , r. Allora
(v1
w1 ) + (v2
w2 ) + . . . + (vr
wr ) = 0 .
Quindi i vettori vi wi 2 V i sono linearmente dipendenti. Dalla proposizione 17.1.12
si deduce che questi vettori devono essere tutti nulli (altrimenti sarebbero linearmente
indipendenti), quindi vi = wi 8 i e per ogni vettore v la decomposizione come somma
di vettori degli autospazi V i è unica. Questo prova che la somma di autospazi è diretta.
⌅
Teorema 18.1.5. Un endomorfismo f : V ! V è semplice se e solo se
V =V
dove 1 , 2 , . . . ,
associati.
r
1
V
...
2
V
r
,
sono gli autovalori distinti di f (r  n) e V 1 , . . . , V
r
gli autospazi
Dimostrazione. Proviamo prima che se f è semplice, V è somma diretta degli autospazi.
Sia n = dim(V ) e B = (v1 , . . . , vn ) una base di V formata da autovettori di f (che per
ipotesi è semplice) allora:
V = L(v1 , . . . , vn ) ✓ V
1
+V
2
+ ... + V
r
;
l’inclusione opposta è ovvia. Poiché la somma è diretta (prop. 18.1.4), si ha la tesi.
Viceversa, sia Bi una base di V i , per i = 1, . . . , r. Se V è somma diretta degli
autospazi di f , allora B1 [ B2 [ . . . [ Br è una base di V , ed è ovviamente formata da
autovettori di f .
⌅
130
Il teorema che segue fornisce un criterio per stabilire quando una matrice reale è
diagonalizzabile (ovvero quando l’endomorfismo associato è semplice).
Teorema 18.1.6. Una matrice A 2 Mn (R) è diagonalizzabile se e solo se:
i) tutte le radici del polinomio caratteristico sono reali;
ii) ogni autovalore ha molteplicità algebrica uguale alla molteplicità geometrica.
Dimostrazione. Dimostriamo prima che la condizione è necessaria. Indichiamo con
1 , 2 , . . . , r gli autovalori distinti di A (r  n), e con g i e m i le molteplicità
geometriche e algebriche. Per il teorema 18.1.5 (applicato ad f = LA ) si ha
n = dim(V ) = dim(V
V
1
...
2
V r)
= dim(V 1 ) + dim(V 2 ) + . . . + dim(V r )
=g
m
1
+g
1
2
+ ... + g
+m
2
r
+ ... + m
r
n,
dove la seconda riga segue dalla formula di Grassmann e la prima disuguaglianza segue
dal teorema 17.2.9. Deve essere quindi:
m
1
+m
2
+ ... + m
r
=n=g
1
+g
2
+ ... + g
r
e per l’osservazione 18.1.1 questo significa che tutte le radici di pA ( ) sono reali.
Siccome g i  m i , la precedente uguaglianza implica anche g i = m i (per ogni
i = 1, . . . , r). Questo prova i) e ii).
Viceversa, se i) e ii) sono verificati, poiché tutte le radici di pA ( ) sono reali, si ha
n=m
1
+m
2
+ ... + m
r
= dim(V 1 ) + dim(V 2 ) + . . . + dim(V r )
dove l’ultima uguaglianza segue dall’ipotesi. Quindi
dim(V ) = dim(V
1
V
2
...
V r)
e per il corollario 7.1.5: V = V 1 V 2 . . . V r . Per il teorema 18.1.5, questo prova
che f = LA è semplice, ovvero A è diagonalizzabile.
⌅
Corollario 18.1.7. Se A 2 Mn (R) ha n autovalori distinti, allora è diagonalizzabile.
Dimostrazione. Le radici distinte di pA ( ) sono al più n. Se A ha n autovalori distinti,
questi sono tutte e sole le radici di pA ( ), che ha quindi solo radici reali e con molteplicità m i = 1 (per i = 1, . . . , n). Siccome 1  g i  m i segue che g i = m i = 1 ed
A è diagonalizzabile per il teorema 18.1.6.
Questo si poteva anche dimostrare in maniera diretta, notando che se A ha n
autovalori distinti, ha n autovettori linearmente indipendenti, ed n vettori linearmente
indipendenti formano sempre una base di Rn .
⌅
131
Ricordiamo che una matrice A 2 Mn (R) è diagonalizzabile se e solo se esiste
P 2 Mn (R) invertibile tale che P 1 AP è diagonale. La matrice P , detta matrice
diagonalizzante di A, si può determinare come segue. Sappiamo che le colonne di P
sono autovettori di A (lemma 17.1.7). Essendo P è invertibile, ha rango massimo e le
sue colonne sono n vettori linearmente indipendenti: formano quindi una base di Rn .
Data una matrice A 2 Mn (R) diagonalizzabile, per determinare una matrice diagonalizzante P (in generale, non unica) è sufficiente trovare una base B = (v1 , . . . , vn )
di Rn formata da autovettori di A. Una matrice diagonalizzante è la matrice che ha i
vettori vi come colonne.
Proposizione 18.1.8. Sia A 2 Mn (R) diagonalizzabile e B = (v1 , . . . , vn ) una base
di Rn formata da autovettori di A. Detta P la matrice che ha per colonne i vettori vi ,
P 1 AP è diagonale.
Dimostrazione. Per ipotesi Avi = i vi , con
di P 1 , la condizione P 1 P = In equivale a
⇢
0
wi · v j =
1
L’elemento di matrice (i, j) di P
1
i
2 R autovalori di A. Dette wi le righe
se i 6= j ,
se i = j .
AP vale quindi
wi · Avj = wi · ( i vi ) =
i (wi
· vi ) =
⇢
se i 6= j ,
se i = j .
0
i
Esempio 18.1.9. Una base di R2 formata da autovettori della matrice
✓
◆
0 1
A=
1 0
è data da:
v1 = (1, 1) ,
v2 = ( 1, 1) .
Si può infatti verificare che Av1 = v1 e Av2 =
P =
t
v1 t v2
L’inversa di P è data da
P
1
1
=
2
=
✓
✓
v2 . La matrice diagonalizzante è
◆
1 1
.
1 1
1 1
1 1
e si può verificare facilmente che
✓
◆✓
◆✓
1 1
0 1
1
1
1
P AP =
2
1 1
1 0
1
◆
1
1
◆
=
✓
1
0
0
1
◆
è diagonale e che gli elementi sulla diagonale sono gli autovalori di A.
132
⌅
Matrice
diagonalizzante
Esercizio 18.1.10. Diagonalizziamo la matrice
0
1
3 1 1
B
C
A = @1 0 2 A .
1 2 0
Soluzione. Gli autovalori sono già stati calcolati nell’esempio 17.2.6, e sono dati da
2. Avendo tre autovalori distinti, A è diagonalizzabile. Una
1 = 1, 2 = 4 e 3 =
base
v1 = (x1 , y1 , z1 ) , v2 = (x2 , y2 , z2 ) , v3 = (x3 , y3 , z3 )
si ottiene risolvendo i sistemi lineari Av1 = v1 , Av2 = 4v2 , Av3 = 2v3 . Procedendo
ad esempio con il metodo di Gauss, si trova che una soluzione non nulla del primo è
data da v1 = ( 1, 1, 1), una soluzione non nulla del secondo è data da v2 = (2, 1, 1),
ed una soluzione non nulla del terzo è data da v2 = (0, 1, 1). I tre vettori trovati
formano una base di R3 composta da autovettori di A.
La matrice diagonalizzante è data da
0
1
1 2 0
B
C
P = t v1 t v2 t v3 = @ 1 1 1 A
1 1 1
Verifichiamo che P 1 AP è diagonale e che gli elementi sulla diagonale sono gli autovalori di A.
Determinante ed aggiunta di P sono dati da:
|P | =
1·
0
1
1
1
1
1 1
B+
1 1
B
B
B
2 0
P⇤ = B
B
1 1
B
B
@
2 0
+
1 1
2·
1
1
1
+
1
1
1
1
1
1
1
1
1
0
1
0
1
=
1
+
1
1
1
1
+
1
Usando il teorema di Laplace si trova quindi:
0
P
1
6,
2
1B
1 t ⇤
=
(P ) = @ 2
|P |
6
0
133
1
1
2
1
2
1
1
C 0
C
C
2
C B
C=@ 2
C
C
2
C
A
2
1
3
1
2
C
1A .
3
2
1
1
1
0
C
3A .
3
Si può verificare che
0
2
1B
1
P AP = @ 2
6
0
0
2
1B
= @ 2
6
0
2
1
3
2
1
3
come aspettato.
10
2
3
CB
1 A @1
3
1
10
2
CB
1 A@
3
10
1 1
1 2
CB
0 2A @ 1 1
2 0
1 1
1 0
1 8 0
1
C B
1 4 2A=@0
1 4 2
0
1
0
C
1A
1
0
4
0
1 0
0
1
C B
0A=@ 0
2
0
0
2
0
1
0
C
0 A
3
X
Abbiamo già incontrato esempi di matrici che non ammettono autovalori, e matrici
che ne ammettono ma non sono diagonalizzabili. La matrice dell’esempio 17.2.10 ha
un autovalore con molteplicità algebrica 3 e geometrica 1, e per il teorema 18.1.6 non
può essere diagonalizzata. Nel seguito diamo un esempio geometrico.
Esempio 18.1.11. Per 0 < ✓ < 2⇡ consideriamo la matrice
0
1
cos ✓
sin ✓ 0
B
C
A = @ sin ✓ cos ✓ 0A .
0
0
1
Se v = (x, y, 0) è un vettore del piano z = 0, allora A agisce su v come una rotazione di
un angolo ✓. Se v = (0, 0, z) è un vettore ortogonale al suddetto piano, allora Av = v:
il vettore resta invariato. La matrice A rappresenta quindi una rotazione nello spazio
tridimensionale attorno all’asse z.
Il vettore (0, 0, 1) è una base dell’autospazio V1 . Un vettore non nullo v = (x, y, 0)
non è mai autovettore di A, in quanto non può essere trasformato da una rotazione nel
piano in un vettore v0 parallelo a v.
La matrice A non ha quindi altri autovettori oltre ai vettori di V1 . Non esiste una
base di R3 formata da autovettori di A, che quindi non è diagonalizzabile.
Un caso molto importante è dato dalle matrici simmetriche. Una matrice A 2 Rn si
dice simmetrica se tA = A. Le matrici simmetriche si possono sempre diagonalizzare.
Più in generale, vale il seguente teorema (qui enunciato senza dimostrazione):
Teorema 18.1.12. Sia A una matrice simmetrica. Allora:
• A è diagonalizzabile;
• autovettori associati ad autovalori distinti sono ortogonali;
• esiste una base ortonormale di Rn fatta di autovettori di A.
134
Matrici
simmetriche
18.2 Esercizi
Esercizio 18.2.1. Siano A, B, C le seguenti matrici:
A=
✓
1
0
1
1
◆
,
B=
✓
1 2
3 1
◆
,
C=
✓
3 4
1 0
◆
.
a) Determinare il polinomio caratteristico di ciascuna matrice.
b) Determinare gli autovalori di ciascuna matrice.
c) Stabilire quali delle tre matrici sono diagonalizzabili.
Soluzione. a) pA ( ) = ( + 1)2 , pB ( ) = 2 + 5, pC ( ) = 2 + 3
4=(
1)( + 4).
b) la matrice A ha autovalore 1 con molteplicità algebrica 2; B non ha autovalori
reali; gli autovalori di C sono 1 = 1, 2 = 4.
c) B non è diagonalizzabile. C ha due autovalori distinti, quindi è diagonalizzabile.
Un autovettore v = t (x1 , x2 ) di A deve risolvere il sistema
(A
( 1)I2 )v =
✓
0 1
0 0
◆✓ ◆ ✓ ◆
x1
0
=
.
x2
0
Quindi V 1 = {(x, 0) : x 2 R} ha dimensione 1 ed A non è diagonalizzabile (la
molteplicità geometrica di è 1, ed è minore della molteplicità algebrica).
X
Esercizio 18.2.2. Per t 2 R si consideri la matrice
0
1
1 0 t2
B
C
A = @0 t 0 A .
1 0 1
a) Dire per quali valori di t la matrice è diagonalizzabile.
b) Per i valori di t determinati in a), trovare una base di R3 formata da autovettori
di A.
Soluzione. a) il polinomio caratteristico è pA ( ) = (t
)( 2 2 + 1
radici sono
t,
1 = t ,
2 = 1
3 = 1+t .
t2 ). Le sue
Si hanno tre casi
1. se t = 0, gli autovalori sono 1 = 0 e 2 = 3 = 1; A è diagonalizzabile se e solo
se la molteplicità geometrica dell’autovalore 1 è pari alla molteplicità algebrica,
135
ovvero uguale a 2. La molteplicità geometrica g è la dimensione del nucleo di
A I2 , ovvero g = 3 ⇢(A I2 ). Poiché
0
1
0 0 0
B
C
A I 3 = @0 1 0 A ,
1 0 0
si ha ⇢(A
I2 ) = 2 e g = 1. Quindi la matrice A non è diagonalizzabile.
2. se t = 1/2, gli autovalori sono 1 =
è diagonalizzabile se e solo se ⇢(A
A
= 1/2 e 3 = 3/2; come nel primo caso, A
1
I ) = 1. Evidentemente
2 I2 ) = ⇢(A
2 2
0
1
1/2 0 1/4
B
C
1
I =@ 0 0 0 A .
2 3
1 0 1/2
2
Siccome la terza riga è il doppio della prima, il rango è 1 ed A è quindi diagonalizzabile.
3. se t 2
/ {0, 1/2} i tre autovalori sono distinti. Quindi A è diagonalizzabile.
b) Diagonalizziamo A nei casi t = 1/2 e t 2
/ {0, 1/2}:
1. se t = 1/2, gli autovettori v = t (x, y, z) associati all’autovalore 1 =
risolvono
0
10 1 0
1
1
1/2 0 1/4
x
(2x + z)
4
B
CB C B
C
0 = (A 12 I3 )v = @ 0 0 0 A @y A = @
0
A .
1
1 0 1/2
z
(2x + z)
2
Quindi z =
e (0, 1, 0).
2
= 1/2
2x ed y è arbitrario. Una base di V1/2 è data dai vettori (1, 0, 2)
Gli autovettori v = t (x, y, z) associati all’autovalore 3 = 3/2 risolvono
0
10 1 0
1
1
1/2 0
1/4
x
(
2x
+
z)
4
B
CB C B
C
0 = (A 32 I3 )v = @ 0
1
0 A @y A = @
y
A .
1
1
0
1/2
z
( 2x + z)
2
Quindi z = 2x e y = 0. Una base di V3/2 è data dal vettore (1, 0, 2). I tre
autovettori insieme formano una base B di R2 :
B = (1, 0, 2) , (0, 1, 0) , (1, 0, 2) .
2. se t 2
/ {0, 1/2}, un autovettore v = t (x, y, z) associato all’autovalore 1 = t si
ottiene risolvendo
0
10 1 0
1
1 t 0 t2
x
(1 t)x + t2 z
B
CB C B
C
0 = (A tI2 )v = @ 0
0
0 A @y A = @
0
A .
1
0 1 t
z
x + (1 t)z
136
Una soluzione è data da v1 = (0, 1, 0).
Un autovettore v = t (x, y, z) associato all’autovalore 2 = 1 t si ottiene
risolvendo
0
10 1 0
1
t(x + tz)
t
0
t2
x
B
CB C B
C
0 = (A (1 t)I2 )v = @0 2t 1 0 A @y A = @(2t 1)y A .
1
0
t
z
x + tz
Una soluzione è data da v2 = (t, 0, 1).
Un autovettore v = t (x, y, z) associato all’autovalore 3 = 1 t si ottiene
risolvendo
0
10 1 0
1
t 0 t2
x
t(x tz)
B
CB C B
C
0 = (A (1 + t)I2 )v = @ 0
1 0 A @y A = @
y
A .
1
0
t
z
x tz
Una soluzione è data da v3 = (t, 0, 1). I tre vettori v1 , v2 , v3 formano la base
cercata.
X
Esercizio 18.2.3. Per t 2 R si considerino le matrici
0
1
0
1
t 0 0
t 1 10
B
C
B
C
A = @0 2 0 A ,
B = @0 2 0 A .
0 0 3
0 t t
a) Determinare nucleo e immagine dell’endomorfismo LB : R3 ! R3 .
b) Si stabilisca per quali valori di t le matrici A e B sono simili.
Soluzione. a) L’immagine di LB è generata dalle colonne di B, ovvero dalle righe di
t
B. Si può trovare una base riducendo t B per righe. Dette Ri le sue righe, si ha
0
1 !R
0
1
1
3
t 0 0 R
1 2 t
R2 !R1
B
C R !R2
B
C
t
B = @ 1 2 tA 3 !
M = @10 0 t A .
10 0 t
t 0 0
La matrice M è ridotta per righe per ogni valore di t. Se t 6= 0, ⇢(B) = ⇢(M ) = 3
e l’immagine di LB è R3 ; se t = 0, le due righe non nulle di M formano una base
dell’immagine di LB , che ha quindi dimensione 2.
Per il teorema della dimensione, se t 6= 0 il nucleo è N (LB ) = {0}. Se t = 0, il
nucleo ha dimensione 1 ed i suoi vettori si trovano risolvendo il sistema
0
10 1 0
1 0 1
0 1 10
x
y + 10z
0
B
CB C B
C B C
@0 2 0 A @y A = @ 2y A = @0A .
0 0 0
z
0
0
137
Si trova y = z = 0 e x arbitrario. Quindi N (LB ) = L{(1, 0, 0)}.
b) Condizione necessaria è che A e B abbiano gli stessi autovalori. Gli autovalori di A
sono t, 2, 3. Quelli di B sono le radici di
)2 (2
pB ( ) = (t
).
Le due matrici hanno gli stessi autovalori se e solo se t = 3. In quest’ultimo caso, B
è diagonalizzabile (quindi, simile ad A) se e solo se l’autovalore = 3 ha molteplicità
geometrica pari a quella algebrica (che è 2). L’autospazio associato è formato dai
vettori v = t (x, y, z) che risolvono:
0
10 1 0
1
0 1 10
x
y + 10z
B
CB C B
C
0 = (B 3I2 )v = @0 1 0 A @y A = @
y A .
0 3 0
z
3y
Quindi y = z = 0 ed x è arbitrario. Una base di V3 è data da (1, 0, 0), e la molteplicità
geometrica di = 3 è dim(V3 ) = 1. Possiamo concludere che le matrici A e B non
sono simili per nessun valore di t.
X
Esercizio 18.2.4. Siano A, B, C le seguenti matrici:
0
1
0
1
2 1 0
1 1 0
B
C
B
C
A = @0 2 0 A ,
B = @0 2 0 A ,
0 0 1
0 0 2
a) Determinare autovalori ed autovettori di A e B.
0
1
1 1 1
B
C
C = @0 t 0 A .
0 0 2
b) Stabilire se A e B sono simili.
c) Esistono valori di t 2 R per cui B e C sono simili?
Soluzione. a) le tre matrici sono triangolari superiori: gli autovalori sono gli elementi
sulla diagonale.
Gli autovalori di A sono 1 = 1 e 2 = 2. Il primo ha molteplicità algebrica 1, il
secondo 2. Gli autovettori associati, v1 = t (x, y, z) e v2 = t (x0 , y 0 , z 0 ), devono risolvere
0
10 1 0
1
1 1 0
x
x+y
B
CB C B
C
0 = (A
1 I2 )v1 = @0 1 0A @ y A = @ y A
0 0 0
z
0
e
0 = (A
0
0 1
B
2 I2 )v2 = @0 0
0 0
138
10 1 0
1
0
x0
y0
CB C B
C
0 A @y 0 A = @ 0 A .
1
z0
z0
Quindi V 1 = {(0, 0, z) : z 2 R} e V 2 = {(x0 , 0, 0) : x0 2 R}. Notiamo che la matrice A
non è diagonalizzabile, poiché 2 ha molteplicità geometrica data da dim(V 2 ) = 1 ed
algebrica uguale a 2.
Gli autovalori di B sono 01 = 1 e 02 = 2. Il primo ha molteplicità algebrica 1, il
secondo 2. Gli autovettori associati, v10 = t (x, y, z) e v20 = t (x0 , y 0 , z 0 ), devono risolvere
0
10 1 0 1
0 1 0
x
y
B
CB C B C
0
0
0 = (B
1 I2 )v1 = @0 1 0A @ y A = @y A
0 0 1
z
z
e
0 = (B
0
10 1 0
1
1 1 0
x0
x0 + y 0
B
CB C B
C
0
0
0 0A @ y 0 A = @
0
A .
2 I2 )v2 = @ 0
0
0 0 0
z
0
Quindi V 01 = {(x, 0, 0) : x 2 R} e V 02 = {(x0 , x0 , z 0 ) : x0 , z 0 2 R}. I tre vettori (1, 0, 0) 2
V 01 e (1, 1, 0), (1, 1, 1) 2 V 02 formano una base di R3 , quindi B è diagonalizzabile (in
alternativa, basta si poteva notare che la molteplicità algebrica di ciascun autovalore è
uguale a quella algebrica).
b) A e B non sono simili: infatti B è diagonalizzabile ed A no.
c) Condizione necessaria è che B e C abbiano gli stessi autovalori, quindi t = 2.
Per t = 2, C è simile a B se è diagonalizzabile, ovvero se la molteplicità geometrica
dell’autovalore = 2 è pari a 2. Determiniamo l’autospazio associato. Un vettore
v = t (x, y, z) è autovettore di C associato all’autovalore = 2 se risolve
0
10 1 0
1
1 1 1
x
x+y+z
B
CB C B
C
0 = (C 2I2 )v = @ 0 0 0A @y A = @
0
A .
0 0 0
z
0
Quindi V2 = {(y + z, y, z) : y, z 2 R}. Una base di V2 è data ad esempio dai vettori
(1, 1, 0) e (1, 0, 1). La molteplicità geometrica dell’autovalore = 2 è dim(V2 ) = 2,
quindi C è diagonalizzabile.
In risposta al punto c), B e C sono simili se (e solo se) t = 2.
X
Esercizio 18.2.5. Sia A la matrice
0
2
B0
B
A=B
@0
0
1
3
0
0
1
4
5
0
1
0
0C
C
C .
0A
1
Riconoscere che è diagonalizzabile e determinare una matrice diagonalizzante P .
139
Soluzione. A ha quattro autovalori distinti (gli elementi sulla diagonale): 1 = 1,
2 = 2,
3 = 3,
4 = 5. E’ quindi diagonalizzabile. Per trovare un autovettore
t
v = (x1 , x2 , x3 , x4 ) associato all’autovalore 1 dobbiamo risolvere il sistema:
0 = (A
0
1
B0
B
I2 )v = B
@0
0
1
2
0
0
1
4
4
0
10 1 0
1
0
x1
x1 + x2 + x3
B C B
C
0C
C Bx2 C B 2x2 + 4x3 C
CB C = B
C
A
0 A @x 3 A @
4x3
0
x4
0
La soluzione è x1 = x2 = x3 = 0 e x4 arbitrario. Un autovettore è v1 = (0, 0, 0, 1).
In maniera simile, per trovare un autovettore associato all’autovalore 2 risolviamo
il sistema
0
10 1 0
1
0 1 1 0
x1
x2 + x3
B0 1 4 0 C Bx C Bx + 4x C
B
C B 2C B 2
3C
0 = (A 2I2 )v = B
CB C = B
C
@0 0 3 0 A @x3 A @ 3x3 A
0 0 0
1
x4
x4
La soluzione è x2 = x3 = x4 = 0 e x1 arbitrario. Un autovettore è v2 = (1, 0, 0, 0).
Per 3 risolviamo il sistema
0
10 1 0
1
1 1 1 0
x1
x1 + x2 + x3
B 0 0 4 0 C Bx C B
C
4x3
B
C B 2C B
C
0 = (A 3I2 )v = B
CB C = B
C
@ 0 0 2 0 A @x 3 A @
A
2x3
0
0 0
2
x4
2x4
La soluzione è x3 = x4 = 0 e x1 = x2 arbitrario. Un autovettore è v3 = (1, 1, 0, 0).
Per 4 risolviamo il sistema
0
10 1 0
1
3 1 1 0
x1
3x1 + x2 + x3
B0
B C B
2 4 0C
2x2 + 4x3 C
B
C Bx 2 C B
C
0 = (A 5I2 )v = B
CB C = B
C
@0
A
0 0 0 A @x 3 A @
0
0
0
0
4
x4
4x4
La soluzione è x4 = 0, x2 = 2x3 e x1 = x3 . Un autovettore è v4 = (1, 2, 1, 0).
La matrice diagonalizzante è
P =
t
v1 t v2 t v3 t v4
140
0
0
B0
B
=B
@0
1
1
0
0
0
1
1
0
0
1
1
2C
C
C .
1A
0
X
Lezione XIX
Geometria di R2
Sommario: rette e circonferenze nel piano; intersezioni; distanze (punto–punto, punto–
retta, retta–circonferenza); rette tangenti ad una circonferenza. Esempi.
19.1 Equazioni di una retta
Sia O = (0, 0) l’origine del piano cartesiano. Consideriamo due punti, P di coordinate
u = (u1 , u2 ) e Q di coordinate x = (x1 , x2 ) di R2 , distinti e diversi dall’origine.
I tre punti O, P e Q sono allineati se e solo se x = tu per qualche t 6= 0, ovvero
se e solo se i corrispondenti vettori x e u sono proporzionali. Ad esempio, assumendo
per semplicità che x1 e u1 siano diversi da zero, l’inclinazione del segmento OP è
l’arcotangente di x2 /x1 , l’inclinazione del segmento OQ è l’arcotangente di u2 /u1 , ed i
punti sono allineati se e solo se x2 /x1 = u2 /u1 , ovvero esiste t 6= 0 tale che x1 = tu1 e
x2 = tu2 . In figura 7a è disegnato l’esempio u = (1, 2) e x = 3u = (3, 6).
L’equazione
⇢
x1 = tu1
x = tu
()
x2 = tu2
al variare di t 2 R descrive tutti i punti appartenenti alla retta r0 passante per l’origine
e la cui direzione è data dal vettore u = (u1 , u2 ) (l’origine si ottiene per t = 0).
Sommando a tu un vettore p = (p1 , p2 ) indipendente da t si ottiene una retta
parallela ad r0 ma passante per il punto di coordinate p = (p1 , p2 ). La retta r passante
per p e parallela ad u è quindi il luogo dei punti11 di coordinate x date da
⇢
x1 = p1 + tu1
x = p + tu
()
(19.1)
x2 = p2 + tu2
Come esempio, in figura 7b è disegnata (in blu) la retta di direzione u = (2, 1) e
passante per il punto p = (0, 1).
L’equazione (19.1) è detta equazione parametrica della retta r. L’equazione
parametrica di una retta non è unica. Moltiplicando ad esempio il vettore u per
uno scalare, la retta rappresentata non cambia (vettori proporzionali hanno la stessa
direzione). Inoltre come punto p è possibile scegliere un qualsiasi punto della retta.
Ad esempio le equazioni:
r : x = (1, 1) + t(3, 2) ,
r0 : x = (1, 1) + t(6, 4) ,
11
r00 : x = (4, 3) + t(6, 4) ,
Un luogo geometrico è l’insieme di tutti e soli i punti del piano che hanno una determinata
proprietà, solitamente espressa attraverso una equazione.
141
Equazione
parametrica
di una retta
x
6
u
p
u
2
1
3
(a) Vettori proporzionali
(b) Retta passante per p = (0, 1) e parallela a u = (2, 1)
Figura 7
descrivono la stessa retta. Le rette r e r0 coincidono, perché abbiamo semplicemente
moltiplicato per 2 il vettore che dà la direzione della retta. Inoltre il punto (4, 3)
appartiene ad r (si ottiene scegliendo t = 1 nell’equazione di r), quindi anche r00
coincide con r.
Data una retta r di equazioni parametriche (19.1), possiamo ridurre l’ambiguità
nella scelta del vettore che ne individua la direzione chiedendo che abbia norma 1.
Esistono solo due vettori di norma 1 paralleli ad r, sono dati da ±u/kuk e si dicono
versori della retta.
Si dice invece vettore normale ad r un qualsiasi vettore non nullo n che sia
perpendicolare alla retta stessa. Ad esempio, il vettore n = ( u2 , u1 ) è ortogonale ad
u, e tutti i vettori normali sono proporzionali ad esso.
Eliminando da (19.1) il parametro t si ottiene una equazione detta equazione
cartesiana della retta r. Per eliminare il parametro t è sufficiente prendere in ambo i
membri di (19.1) il prodotto scalare con il vettore n = ( u2 , u1 ). Si ottiene
n · x = n · p ()
u 2 x 1 + u1 x 2 =
Abbiamo provato che (19.1) implica (19.2). Mostriamo che è vero anche il viceversa,
(19.2) implica (19.1) e quindi descrive lo stesso luogo geometrico (la stessa retta).
Notiamo che per ipotesi (a, b) 6= (0, 0), poiché u 6= (0, 0). Il rango della matrice dei
coefficienti è quindi 1, e la soluzione generale di (19.2) dipende da un parametro t.
Evidentemente p è una soluzione particolare, poiché
u2 p 1 + u1 p 2 + u2 p 1
142
Vettore
normale
u 2 p 1 + u1 p 2 .
Chiamando a = u2 , b = u1 e c = u2 p1 u1 p2 si trova l’equazione cartesiana di una
generica retta r, data da
ax1 + bx2 + c = 0 .
(19.2)
ap1 + bp2 + c =
Versore
u1 p 2 = 0 .
Equazione
cartesiana
di una retta
La soluzione generale ha quindi la forma x = p + tv dove v è una qualsiasi soluzione
non nulla dell’equazione omogenea associata. Possiamo scegliere v = u, infatti
au1 + bu2 =
u2 u1 + u 1 u2 = 0 ,
ottenendo in questo modo x = p + tu, che è esattamente (19.1).
Osservazione 19.1.1. L’equazione (19.2) descrive una retta se e solo se (a, b) 6= (0, 0)
(se a = b = 0 l’insieme delle soluzioni è l’insieme vuoto, se c 6= 0, oppure l’intero piano,
se c = 0). Il vettore n = (a, b) è perpendicolare alla retta di equazione (19.2).
Osservazione 19.1.2. Come per le equazioni parametriche, anche l’equazione cartesiana di una retta non è unica. Ad esempio, moltiplicando tutti e tre i coefficienti a, b, c
per uno scalare non nullo si ottiene una equazione di↵erente della medesima retta. Vedremo in e↵etti, quando parleremo di intersezioni, che due equazioni ax1 + bx2 + c = 0
e a0 x1 + b0 x2 + c0 = 0 descrivono la stessa retta se e solo i vettori (a, b, c) e (a0 , b0 , c0 ) di
R3 sono proporzionali.
Supponiamo di voler risolvere il seguente problema: sia r la retta di equazione
ax1 + bx2 + c = 0 e p = (p1 , p2 ) un punto qualsiasi del piano. Vogliamo scrivere
l’equazione parametrica della retta r0 passante per p ed ortogonale ad r. La soluzione
è semplice: r0 ha equazione
⇢
x1 = p1 + ta
0
r :
(19.3)
x2 = p2 + tb
come si evince notando che la direzione di r0 è data dal vettore (a, b), che è perpendicolare ad r (osservazione 19.1.1).
Un altro problema che può capitare è di voler trovare un’equazione della retta
passante per due punti dati. Siano a = (a1 , a2 ) e b = (b1 , b2 ) due punti distinti: è
immediato trovare l’equazione parametrica della retta passante per questi due punti.
In (19.1) si pone p = a e si nota che la retta deve essere parallela al vettore u = b a.
Un’equazione parametrica è quindi data da
⇢
x1 = a1 + t(b1
x2 = a2 + t(b2
a1 )
a2 )
(19.4)
Si noti che ponendo t = 0 nelle equazioni parametriche si ritrova il punto x = a, e
ponendo t = 1 si trova il punto x = b.
Per ottenere un’equazione cartesiane basta prendere l’equazione x = a + t(b a) e
fare il prodotto scalare ambo i membri con il vettore normale ( u2 , u1 ) = (a2 b2 , b1
a1 ). Si ottiene
(a2 b2 )x1 (a1 b1 )x2 + a1 b2 a2 b1 = 0 .
143
Rette
ortogonali
Rette
passante per
due punti
b
u
a
Figura 8
In forma matriciale, l’equazione si può scrivere nella forma:
x1
b1
a1 x2
a1 b 2
a2
a2
=0.
(19.5)
Esempio 19.1.3. Scriviamo l’equazione della retta passante per i punti a = (1, 2) e
b = ( 2, 4). L’equazione parametrica è data da
⇢
x1 = 1 3t
x2 = 2 + 2t
L’equazione cartesiana è data da:
x1
1 x2
3
2
2
= 2x1 + 3x2
8=0.
Il grafico è in figura 8.
19.2 Intersezione fra due rette
Date due rette r e r0 ci sono tre possibilità: le rette si intersecano in un punto, sono
parallele (quindi hanno intersezione vuota), oppure coincidono (e l’intersezione è tutta
la retta). Per stabilire quale dei tre casi si verifica, si può usare il rango.
L’intersezione r \ r0 è il luogo dei punti le cui coordinate risolvono il sistema
⇢
ax1 + bx2 + c = 0
a0 x 1 + b 0 x 2 + c 0 = 0
in cui la prima equazione è un’equazione cartesiana della retta r, la seconda è un’equazione cartesiana della retta r0 , e per ipotesi (a, b) 6= (0, 0) e (a0 , b0 ) 6= (0, 0).
Indicando con A e (A|B) le matrici associate al sistema:
!
!
a b
a b
c
A=
,
(A|B) =
,
a0 b 0
a0 b 0
c0
144
evidentemente il rango soddisfa
1  ⇢(A)  ⇢(A|B)  2 ,
in cui la prima disuguaglianza segue dal fatto che ogni riga di A ha almeno un elemento
non nullo. Per il teorema di Rouché-Capelli,
1. se ⇢(A) = 1 e ⇢(A|B) = 2 il sistema non ammette soluzione, e r \ r0 = ; è
l’insieme vuoto (questo vuol dire che le rette r e r0 sono parallele e distinte);
2. se ⇢(A) = ⇢(A|B) = 1 le due righe della matrice dei coefficienti sono proporzionali, e le due rette coincidono: r = r0 ; in questo caso l’intersezione r \ r0 = r è
una retta;
3. se ⇢(A) = ⇢(A|B) = 2 il sistema ammette un’unica soluzione, e l’intersezione
r \ r0 è un punto.
Esempio 19.2.1. Siano r e r0 le rette di equazioni cartesiane
r : 2x1
r0 : 4x1
3x2 + 1 = 0
6x2 = 0
Si ha ⇢(A) = 1 e ⇢(A|B) = 2: le due rette sono parallele e non coincidenti.
Esempio 19.2.2. Siano r e r0 le rette di equazioni cartesiane
r : 2x1 3x2 + 1 = 0
r0 : 4x1 + 2x2 1 = 0
Si ha ⇢(A) = ⇢(A|B) = 2: le due rette si incontrano in un punto.
Esempio 19.2.3. Siano r e r0 le rette di equazioni cartesiane
r : 2x1
r0 : 4x1
3x2 + 1 = 0
6x2 + 2 = 0
Si ha ⇢(A) = ⇢(A|B) = 1: le due rette coincidono.
19.3 Circonferenze
Ricordiamo che la distanza del punto P di coordinate x = (x1 , x2 ) dall’origine, ovvero
la lunghezza del segmento OP , è data da
q
kxk = x21 + x22 .
Più in generale (vedere figura 9a), la distanza fra due punti di coordinate x = (x1 , x2 )
e y = (y1 , y2 ), indicata con d(x, y), è la norma del vettore (x1 y1 , x2 y2 ), ossia
p
d(x, y) = kx yk = (x1 y1 )2 + (x2 y2 )2 .
145
x = (x1 , x2 )
|x2
y2 |
d(x, y) = kx
|x1
yk
y = (y1 , y2 )
y1 |
(a) Distanza
R
(b)
c
Circonferenza di centro
c = (4, 2) e raggio R = 3.
Figura 9
Una circonferenza di centro c = (c1 , c2 ) e raggio R > 0 è l’insieme dei punti del piano
a distanza R dal punto c. Quindi un punto x è sulla circonferenza se e solo se soddisfa:
kx
Circonferenza
ck = R ,
ovvero elevando al quadrato ambo i membri:
(x1
c1 )2 + (x2
c2 ) 2 = R 2 .
(19.6)
Un esempio è in figura 9b.
Data una retta di equazione ax1 + bx2 + d = 0, l’intersezione della retta con la
circonferenza di equazione (19.6) è l’insieme delle soluzioni del sistema (non lineare):
⇢
(x1 c1 )2 + (x2 c2 )2 = R2
ax1 + bx2 + d = 0
Equazione della
circonferenza
Intersezione
fra retta e una
circonferenza
Per trovare le intersezioni si procede per sostituzione. Sappiamo che (a, b) 6= (0, 0).
Supponiamo ad esempio sia a 6= 0, allora dalla seconda equazione ricaviamo x1 =
a 1 (bx2 + d), che sostituita nella prima dà una equazione di secondo grado in una
sola variabile. Il numero di soluzioni (reali) dipenderà dal segno del discriminante. Si
hanno tre possibilità:
1. se il discriminante è positivo, retta e circonferenza si incontrano in due punti;
2. se il discriminante è zero, retta e circonferenza si incontrano in un punto (in
questo caso la retta si dice tangente alla circonferenza);
3. se il discriminante è negativo, l’intersezione è vuota.
Esempio 19.3.1. Determiniamo l’intersezione della retta di equazione x1 x2 + 2 = 0
con la circonferenza di centro (2, 1) e raggio 3 (figura 10a). Dobbiamo risolvere il
sistema
⇢
(x1 2)2 + (x2 1)2 = 9
x1 x2 + 2 = 0
146
Retta
tangente
(a)
(b)
(c)
Figura 10
Dalla seconda si ricava x2 = x1 +2, che sostituita nella prima dà (x1 2)2 +(x1 +1)2 9 =
0. Sviluppando i quadrati si trova
2x21
2x1
4=0
che ha soluzioni x1 = 2, 1. Usando x2 = x1 + 2 si evince che l’intersezione è data dai
due punti di coordinate (2, 4) e ( 1, 1).
In maniera simile si trova l’intersezione fra due circonferenze, diciamo una di centro
c = (c1 , c2 ) e raggio R e la seconda di centro c0 = (c01 , c02 ) e raggio R0 . Se le due
circonferenze hanno lo stesso centro, allora coincidono oppure hanno intersezione vuota.
Supponiamo quindi che c 6= c0 . L’intersezione è l’insieme delle soluzioni del sistema
(non lineare):
⇢
(x1 c1 )2 + (x2 c2 )2 = R2
(x1 c01 )2 + (x2 c02 )2 = R02
Notiamo che sottraendo membro a membro le due equazioni, i termini di secondo grado
scompaiono. Si ottiene in questo modo il sistema equivalente
⇢
(x1 c1 )2 + (x2 c2 )2 = R
2(c1 c01 )x1 + 2(c2 c02 )x2 = (c21
2
c02
1 ) + (c2
c02
2)
R2 + R02
La seconda equazione descrive una retta, ed il sistema si può ora risolvere come nel
caso delle intersezioni fra retta e circonferenza. A seconda dei casi, le due circonferenze
si incontreranno in un punto, in due o in nessuno.
Esempio 19.3.2. In figura 10b è mostrata come esempio l’intersezione fra la circonfep
renza di centro (2, 1) e raggio 3 e la circonferenza di centro ( 32 , 52 ) e raggio 5 2/2.
Le due circonferenze si incontrano nei punti ( 1, 1) e (2, 2).
147
Intersezione
fra due
circonferenze
Un altro problema consiste, data una circonferenza di centro c e raggio R ed un
punto p sulla circonferenza, nel trovare l’equazione della retta r tangente alla circonferenza nel punto p. La tangente deve essere ortogonale al segmento da c a p, ovvero
al vettore p c. L’equazione cartesiana di r sarà quindi
(p
c) · (x
Tangenti ad una
circonferenza
p) = 0 .
Si vede infatti che la direzione è quella giusta e x = p è soluzione particolare dell’equazione, quindi p è un punto della retta.
Esempio 19.3.3. La retta tangente alla circonferenza di centro c = (2, 2) e raggio
R = 5 nel punto p = (5, 2) ha equazione
3x1
4x2
23 = 0 .
La situazione è illustrata in figura 10c.
19.4 Distanze
La distanza di un punto p da una retta r è la lunghezza del segmento che va da p alla
proiezione ortogonale di p su r, sia essa q. Se r ha equazione cartesiana (19.2), la retta
r0 ortogonale ad r è data da (19.3). L’intersezione fra r ed r0 si ottiene sostituendo i
valori di x1 e x2 dati da (19.3) nell’equazione (19.2) e risolvendo in t. Si ottiene
ax1 + bx2 + c = a(p1 + ta) + b(p2 + tb) + c = 0
ovvero
ap1 + bp2 + c
.
a2 + b 2
Sostituendo in (19.3) si trovano le coordinate del punto q = (x1 , x2 ), date da
t=
x1 = p1
ap1 + bp2 + c
a,
a2 + b2
x1 = p 2
ap1 + bp2 + c
b.
a2 + b 2
La distanza fra p ed r è quindi data da
d(p, r) = kp
qk =
|ap1 + bp2 + c|
p
.
a2 + b 2
Esempio 19.4.1. La distanza fra la retta r di equazione 7x1
p = (4, 1) vale
|7 · 4 4 · 1 + 6|
30
p
d(p, r) =
=p .
2
2
7 +4
65
La situazione è illustrata in figura 11a.
148
(19.7)
4x2 + 6 = 0 ed il punto
Distanza
punto-retta
r
r
d(r, C)
d(p, r)
p
c
(a)
(b)
Figura 11
Analogamente, per calcolare la distanza fra due rette parallele r ed r0 si calcola la
distanza di r da un qualsiasi punto p 2 r0 . Per finire, data una circonferenza C di
centro c e raggio R, un punto p ed una retta r, se d(p, c) R la distanza di p da C è
data dalla distanza dal centro meno il raggio:
d(p, C) = d(p, c)
e in maniera simile se d(r, c)
R,
R la distanza di r da C è d(r, C) = d(c, r)
Esempio 19.4.2. La distanza fra la retta r di equazione 3x1
circonferenza di centro c = (3, 1) e raggio R = 5/4 è data da:
d(r, C) =
|3 · 3 4 · 1 + 14|
p
32 + 4 2
5
19
=
4
5
R.
4x2 + 14 = 0 e la
5
51
=
.
4
20
La situazione è illustrata in figura 11b.
19.5 Esercizi
Osservazione 19.5.1. Osserviamo che
x1
b1
a1 x 2
a1 b 2
a2
a2
x1 x2 1
= a1 a2 1 .
b1 b2 1
Quindi, l’equazione cartesiana di una retta passante per due punti distinti a = (a1 , a2 )
e b = (b1 , b2 ) si può anche scrivere nella forma
x1 x2 1
a1 a2 1 = 0 .
b1 b2 1
In particolare, questo significa che tre punti x = (x1 , x2 ), a = (a1 , a2 ) e b = (b1 , b2 )
sono allineati (cioé contenuti in una retta) se e solo se il determinante qui sopra è nullo.
149
Esercizio 19.5.2. Stabilire se i punti (1, 3), ( 2, 1) e (3, 1) sono allineati.
Soluzione. Usiamo l’osservazione 19.5.1. Calcolando il determinante per riduzione e
poi con lo sviluppo di Laplace rispetto alla terza colonna si trova:
1
2
3
3 1
1 1
1 1
1
3
2
R2 !R2 R1
R3 !R3 R1
=
3 1
4 0 =
2 0
3
2
4
2
= 6 + 8 = 14 .
X
Quindi i punti non sono allineati.
Esercizio 19.5.3. Determinare una equazione cartesiana e una parametrica della retta
passante per i punti (2, 1) e ( 2, 3).
Soluzione. Usando (19.4) si trova una equazione parametrica:
⇢
x1 = 2 4t
x2 = 1 + 2t
e usando (19.5) si trova quella cartesiana. Poiché
x1
2 x2
4
1
2
una equazione cartesiana è x1 + 2x2
= 2x1 + 4x2
8,
X
4 = 0.
Esercizio 19.5.4. Si determini la distanza del punto p = (2, 1) dalla retta r di equazione 2x1 x2 + 5 = 0. Si determini la distanza del punto p0 = (1, 3) dalla retta r0 di
equazione x1 + 2x2 7 = 0.
Soluzione. Usando la formula (19.7) si ottiene:
d(p, r) =
|2 · 2 1 · 1 + 5|
8
p
=p ,
22 + 1 2
5
e
|1 · 1 + 2 · 3 7|
p
=0.
12 + 2 2
La distanza di p0 da r0 è zero. Si può in e↵etti notare che p0 2 r0 .
d(p0 , r0 ) =
Esercizio 19.5.5. Si determini la distanza fra le rette di equazioni:
r:
⇢
x1 = 2 4t
,
x2 = 1 + 2t
r0 : x1 + 2x2
150
7=0.
X
Soluzione. Notiamo che le due rette sono parallele. La prima è parallela al vettore
u = ( 4, 2), la seconda è ortogonale al vettore (a, b) = (1, 2), ovvero parallela al
vettore u0 = ( 2, 1). Siccome u = 2u0 le due rette sono parallele.
La distanza fra r e r0 è la distanza fra un qualsiasi punto p 2 r ed r0 . Ad esempio,
possiamo scegliere p = (2, 1) e calcolare
d(p, r0 ) =
|1 · 2 + 2 · 1 7|
3
p
=p .
2
2
1 +2
5
X
Esercizio 19.5.6. Determinare l’intersezione fra le circonferenze C e C 0 di equazione
(x1
3)2 + (x2 + 4)2 = 25 ,
(x1 + 1)2 + x22 = 9 .
Soluzione. Sottraendo membro a membro le due equazioni si ottiene l’equazione:
r:
8x1 + 8x2 + 8 = 0 .
Poiché C \ C 0 = r \ C 0 , basta determinare l’intersezione di C 0 con la retta r. Dall’equazione di r si ricava x1 = x2 + 1, che sostituita nell’equazione di C 0 dà:
(x2 + 2)2 + x22 = 9
2x22 + 4x2
()
5=0.
q
ed i corrispondenti valori di x1 sono ± 72 .
p
p
p
p
L’intersezione è quindi nei due punti
7/2, 7/2 1 e
7/2,
7/2 1 . La
situazione è illustrata in figura 12.
X
Le soluzioni sono date da x2 =
1±
q
7
,
2
r
Figura 12
151
Lezione XX
Esercitazione
Sommario: esempi svolti di temi d’esame.12
20.1 Tema d’esame #1
Esercizio 20.1.1. Si consideri il seguente sistema di equazioni lineari dipendente da
un parametro 2 R:
8
x2 + x4 = 2
>
>
>
<
x1 + 2x2 + 2x3 + 2x4 = 3
> x2 + ( + 2)x3 + ( + 3)x4 = 2
>
>
:
(
1)x1 + 2x2 + x3 + 2x4 = 5
a) Determinare i valori di
b) per i valori di
per cui il sistema ammette soluzioni;
trovati al punto a), determinare la soluzione generale del sistema.
Esercizio 20.1.2. Nello spazio vettoriale R4 si considerino i seguenti sottospazi:
V := L (2, 4, 1, 3), (1, 0, 1, 0), ( 4, 8, 2, 6), (2, 12, 1, 9) ,
W := (x1 , x2 , x3 , x4 ) 2 R4 : x1
x3 =
2x1 + x2 + 2x3 + x4 = 0 .
a) Si determini, se esiste, una base per ciascuno dei sottospazi: V , W , V \W , V +W ;
b) la somma V + W è diretta?
c) si determini, se esiste, una base di W ? .
Esercizio 20.1.3. Si consideri la matrice:
0
1
2
0
4
B
C
A=@ t+1 1
2t A
t + 1 0 2t + 2
Stabilire per quali valori di t 2 R la matrice A è diagonalizzabile.
12
Con un abuso di notazione, in questo capitolo la riga i-esima di una qualsiasi matrice verrà indicata
sempre con il simbolo Ri .
152
20.2 Tema d’esame #2
Esercizio 20.2.1. Considerare la matrice
0
1
B 1
B
A=B
@ 2
0
0
1
1
1
2
3
3
1
1
C
C
C
A
a) Calcolare il rango di A;
b) indicare una base per lo spazio delle righe ed una per lo spazio delle colonne di A;
c) discutere il sistema
A·X =B
nelle variabili X = t (x1 , x2 , x3 ), con B = t (1, 1, 4, 2);
d) esistono valori di t 2 R per cui A·X = B 0 , con B 0 = t (1, 1, t, t), ammette soluzione?
Esercizio 20.2.2. Sia V il sottospazio di R3 formato dai vettori v della forma
v = ( 2a1 + a2 , a1
a3 , a1 + a2 + a3 )
con a1 , a2 , a3 2 R.
a) Calcolare la dimensione di V ;
b) scrivere una base di V .
Esercizio 20.2.3. Siano A e B le matrici
0
1
4 1 0
B
C
A=@ 0 2 0 A ,
0 0 2
con t parametro reale.
0
1
2 1 0
B
C
B=@ 0 2 0 A ,
0 0 t
a) Calcolare gli autovalori di A e trovare una base per ciascun autospazio di A;
b) la matrice A è diagonalizzabile? In caso a↵ermativo, trovare una matrice diagonalizzante;
c) esistono valori di t 2 R per cui le matrici A e B sono simili?
153
20.3 Soluzioni tema d’esame #1
Esercizio 20.3.1. Si consideri il seguente sistema di equazioni lineari dipendente da
un parametro 2 R:
8
x2 + x4 = 2
>
>
>
<
x1 + 2x2 + 2x3 + 2x4 = 3
>
x2 + ( + 2)x3 + ( + 3)x4 = 2
>
>
:
(
1)x1 + 2x2 + x3 + 2x4 = 5
a) Determinare i valori di
b) per i valori di
per cui il sistema ammette soluzioni;
trovati al punto a), determinare la soluzione generale del sistema.
Soluzione. a) La matrice completa del sistema è
0
B
B
(A|B) = B
@
0
1
0
1
2
1
1 2
0
2
+2
1
2
+3
2
1
2
3C
C
C.
2A
5
Per riduzione si ottiene
(A|B)
0
B
B
!B
B
@
R1 $R2
1
0
2
1
1 2
0
1
R4 !R4 (
2
0
+2
0
1
B
1)R1 B 0
!B
B0
@
0
2
1
2
+3
2
1
1
1
3
C
2C
C
5C
A
2
2
0
+2
+2
2
1
+3
2 +4
2 +4
0
1 2
R3 !R3 R2
B
B0 1
R4 !R4 +(2 4)R2
! (A0 |B 0 ) = B
B0 0
@
0 0
3
2
2
3 +8
2
0
+2
+2
1
C
C
C
C
A
1
2
3
C
1
2C
C.
+2 0 C
A
0
La matrice completa A0 è ridotta per righe, qualunque sia il valore di . Se = 2,
allora ⇢(A) = 3 6= ⇢(A|B) = 4, e il sistema non è compatibile. Se = 2, allora
⇢(A) = ⇢(A|B) = 3: il sistema è compatibile e le soluzioni dipendono da un parametro
reale. Se 6= ±2, allora ⇢(A) = ⇢(A|B) = 4, e il sistema è compatibile ed ammette
un’unica soluzione.
b) Il sistema di matrice completa (A0 |B 0 ) è equivalente a quello di partenza ed è dato
154
da
8
x1 + 2x2 + 2x3 + 2x4 = 3
>
>
>
<
x2 + x4 = 2
>
( + 2)(x3 + x4 ) = 0
>
>
:
(
+ 2)x3 =
Se
6= ±2 l’unica soluzione si trova per sostituzione dal basso verso l’alto. Si ottiene
✓
◆
+2
4
(x1 , x2 , x3 , x4 ) =
,
,
,
2
2
2
2
Se
=
2 il sistema diventa
8
>
< x1 + 2x2 + 2x3 + 2x4 = 3
x2 + x4 = 2
>
:
4x3 = 2
Assegnando un valore t arbitrario ad x4 e risolvendo per sostituzione si trova
(x1 , x2 , x3 , x4 ) = 0, 2
t,
1
,t
2
,
X
con t 2 R.
Esercizio 20.3.2. Nello spazio vettoriale R4 si considerino i seguenti sottospazi:
V := L (2, 4, 1, 3), (1, 0, 1, 0), ( 4, 8, 2, 6), (2, 12, 1, 9) ,
W := (x1 , x2 , x3 , x4 ) 2 R4 : x1
x3 =
2x1 + x2 + 2x3 + x4 = 0 .
a) Si determini, se esiste, una base per ciascuno dei sottospazi: V , W , V \W , V +W ;
b) la somma V + W è diretta?
c) si determini, se esiste, una base di W ? .
Soluzione. a) Dei
restanti vettori, li
0
2 4
1
B
1
@1 0
2 12 1
generatori di V , il terzo è proporzionale al primo. Per stabilire se i
scriviamo come righe di una matrice e la riduciamo per righe:
1
0
1
0
1
3
2 4 1 3
2 4 1 3
C R3 !R3 3R1 B
C R !R +4R2 B
C
!@ 1 0 1 0A 3 3 !
0A
@ 1 0 1 0 A.
9
4 0 4 0
0 0 0 0
La terza riga è nulla. Una base B di V è data dai primi due generatori:
B = u1 = (2, 4, 1, 3) , u2 = (1, 0, 1, 0) .
155
W è lo spazio delle soluzioni di un sistema di due equazioni lineari omogenee: la prima
è equivalente a x1 = x3 , che usata nella seconda dà 2x1 + x2 + 2x3 + x4 = x2 + x4 = 0,
ossia x2 = x4 . I vettori di W hanno quindi la forma
0
1
B0
B
v = (t1 , t2 , t1 , t2 ) = B
@1
0
1
0
✓ ◆
1C
C t1
C
0 A t2
1
con t1 , t2 2 R. In altre parole, W è l’immagine dell’applicazione lineare LA : R2 ! R4
associata alla matrice
0
1
1 0
B0 1C
B
C
A=B
C.
@1 0A
0
1
Tale immagine è generata dalle colonne di A, che sono evidentemente linearmente
indipendenti e formano quindi una base. Una base B 0 di W è quindi data dai vettori:
B 0 = u2 = (1, 0, 1, 0) , u3 = (0, 1, 0, 1) .
I tre vettori u1 , u2 , u3 generano V + W . La
0
1 0
u1
B
C B
B = @ u2 A = B
@
u3
matrice
2 4 1
1 0 1
0 1 0
1
3 C
0 C
A
1
ha rango massimo, cioé ⇢(B) = 3. Infatti il minore 3 ⇥ 3 evidenziato ha determinante
non nullo (con lo sviluppo di Laplace rispetto alla terza riga si verifica che il determinante è 1). Quindi le righe di B sono linearmente indipendenti e formano una base
di V + W . Una base di V + W è quindi data dai vettori u1 , u2 , u3 .
L’intersezione V \ W è data dai vettori di V che soddisfano le equazioni che
definiscono W . Ogni vettore di V ha la forma:
(x1 , x2 , x3 , x4 ) = t1 u1 + t2 u2 = (2t1 + t2 , 4t1 , t1 + t2 , 3t1 ) .
Sostituendo nelle equazioni di W si trova
⇢
x1 x3 = (2t1 + t2 ) (t1 + t2 ) = t1 = 0
2x1 + x2 + 2x3 + x4 = x2 + x4 = 4t1 + 3t1 = 0
I vettori di V \ W hanno quindi la forma (t2 , 0, t2 , 0), ovvero sono proporzionali al
vettore u2 . Se ne deduce che una base di V \ W è formata dal vettore u2 .
156
b) Ricordiamo che la somma di due sottospazi è diretta se e solo se la loro intersezione
è data dal solo vettore nullo. Siccome V \ W = L(u2 ) 6= {0}, la somma V + W non è
diretta.
c) Un vettore v = (x1 , x2 , x3 , x4 ) appartiene a W ? se e solo se il suo prodotto scalare
con i vettori della base B 0 è zero:
⇢
u2 · v = x1 + x3 = 0
u3 · v = x2 x4 = 0
La soluzione dipende da due parametri reali, ed è data da
0
1
1 0
B 0 1 C✓ ◆
B
C 1
v = ( 1, 2,
C
1, 2) = B
@ 1 0A 2
0 1
con 1 , 2 2 R. In altre parole, W ? è l’immagine dell’applicazione lineare LC : R2 ! R4
associata alla matrice
0
1
1 0
B 0 1C
B
C
C=B
C.
@ 1 0A
0 1
Le colonne di C sono linearmente indipendenti e formano quindi una base di W ? . X
Esercizio 20.3.3. Si consideri la matrice:
0
1
2
0
4
B
C
A=@ t+1 1
2t A
t + 1 0 2t + 2
Stabilire per quali valori di t 2 R la matrice A è diagonalizzabile.
Soluzione. Il polinomio caratteristico è dato da
pA ( ) = |A
I3 | =
2
t+1
t+1
0
1
0
4
2t
2t + 2
.
Con lo sviluppo di Laplace rispetto alla seconda colonna si trova:
pA ( ) =
( + 1)
2
4
t + 1 2t + 2
=
( + 1)
2
157
(2t + 4)
=
( + 1)
(2t + 4)
.
Gli autovalori sono quindi
1
=0,
2
=
1,
3
= 2t + 4 .
Se i tre autovalori sono distinti, ossia se t 2
/ { 2, 52 }, la matrice è A certamente
diagonalizzabile. Rimangono da studiare i due casi t = 2 e t = 5/4.
Sia t = 2, quindi 3 = 1 = 0. A è diagonalizzabile se e solo se la molteplicità
geometrica dell’autovalore 0, data da g0 = 3 ⇢(A 0I3 ), è pari a 2. Per t = 2,
0
1
0
1
2 0
4
0 0
0
B
C R1 !R1 +2R3 0 B
C
A=@ 1 1
!A =@ 1 1
4 A
4 A.
1 0
2
1 0
2
A0 è ridotta per righe, quindi ⇢(A) = ⇢(A0 ) = 2. La molteplicità geometrica dell’autovalore 0 è g0 = 3 2 = 1 e la matrice A non è diagonalizzabile.
Passiamo al caso t = 5/2, quindi 3 = 2 = 1. A è diagonalizzabile se e solo se
la molteplicità geometrica dell’autovalore 1, data da g 1 = 3 ⇢(A + 1I3 ), è pari a
2. Per t = 2,
0
1
0
1
R2 !R2 + 12 R1
3 0 4
3
0
4
B
C R3 !R3 + 12 R1 00 B
C
A + I3 = @ 32 0 5 A
! A = @ 0 0 3 A.
3
0 2
0 0 0
2
A00 è ridotta per righe, quindi ⇢(A) = ⇢(A00 ) = 2. La molteplicità geometrica dell’autovalore 1 è g 1 = 3 2 = 1 e la matrice A non è diagonalizzabile.
In conclusione: A è diagonalizzabile se e solo se t 2
/ { 2, 52 }.
X
20.4 Soluzioni tema d’esame #2
Esercizio 20.4.1. Considerare la matrice
0
1
B 1
B
A=B
@ 2
0
0
1
1
1
2
3
3
1
1
C
C
C
A
a) Calcolare il rango di A;
b) indicare una base per lo spazio delle righe ed una per lo spazio delle colonne di A;
c) discutere il sistema
A·X =B
nelle variabili X = t (x1 , x2 , x3 ), con B = t (1, 1, 4, 2);
158
d) esistono valori di
soluzione?
2 R per cui A · X = B , con B = t (1, 1, , ), ammette
Soluzione. a) Per riduzione si trova:
A
0
B
B
!B
@
R2 !R2 +R1
R3 !R3 2R1
1
0
0
0
0
1
1
1
2
1
1
1
1
C
C
C
A
0
B
B
!B
@
R3 !R3 R2
R4 !R4 R2
1
0
0
0
0
1
0
0
2
1
0
0
1
C
C
C.
A
Quindi il rango è ⇢(A) = 2. Le righe non nulle della matrice trovata formano una base
per lo spazio generato dalle righe di A. Quindi:
b) Una base per lo spazio delle righe di A è data da:
B = (1, 0, 2) , (0, 1, 1) .
Una base per lo
0
1 1
B
t
A=@ 0 1
2 3
spazio delle colonne si ottiene
1
0
2 0
1 1
C R3 !R3 +2R1 B
!@ 0 1
1 1 A
3 1
0 1
riducendo tA. Si ha:
1
0
2 0
1
C R3 !R3 R2 B
!@ 0
1 1 A
1 1
0
Una base per lo spazio delle colonne di A è quindi data da
1
1 2 0
C
1 1 1 A.
0 0 0
B 0 = (1, 1, 2, 0) , (0, 1, 1, 1) .
c) Con le stesse operazioni usate al punto a) si riduce
sistema:
0
1
R3 !R3 R2 3R1
B 0
R !R R R1
B
(A|B) 4 4 2 !
(A0 |B 0 ) = B
@ 0
0
la matrice completa (A|B) del
0
1
0
0
Un sistema equivalente è quindi:
⇢
x1 2x3 = 1
x2 + x3 = 1
Il sistema è compatibile, e la soluzione generale è data da
(x1 , x2 , x3 ) = (1 + 2t, 1
per t 2 R.
159
t, t)
2
1
0
0
1
1
0
0
1
C
C
C.
A
d) Ripetendo le stesse operazioni del punto c) riduciamo la matrice (A|B ):
0
1
1 0 2
1
R3 !R3 R2 3R1 B
1
1 C
R !R R R1 B 0 1
C
(A|B ) 4 4 2 !
B
C.
@ 0 0 0
4 A
0 0 0
2
Qualunque sia il valore di almeno una fra la terza e la quarta riga è non nulla: poiché
⇢(A) = 2 e ⇢(A|B ) 2 {3, 4}, si ha sempre ⇢(A) 6= ⇢(A|B ). La risposta è quindi (per il
teorema di Rouché-Capelli): il sistema al punto d) non ammette soluzioni per nessun
valore di .
X
Esercizio 20.4.2. Sia V il sottospazio di R3 formato dai vettori v della forma
v = ( 2a1 + a2 , a1
a3 , a 1 + a2 + a3 )
con a1 , a2 , a3 2 R.
a) Calcolare la dimensione di V ;
b) scrivere una base di V .
Soluzione. Notiamo che
0
2 1
B
v=@1 0
1 1
10 1
0
a1
CB C
1 A @ a2 A .
1
a3
Quindi V è l’immagine dell’applicazione lineare associata alla matrice
0
1
2 1 0
B
C
A=@1 0 1A .
1 1 1
L’immagine di LA è generata dalle colonne di A, ovvero dalle righe
una base possiamo ridurre tA per righe, ottenendo:
0
1
0
1
0
2 1 1
2 1 1
2
B
C R3 !R3 +R1 B
C R3 !R3 2R2 B
t
A=@1 0 1A
!@1 0 1A
!@1
0 1 1
2 0 2
0
di tA. Per trovare
1
1 1
C
0 1A .
0 0
Le righe non nulle della matrice ridotta cosı̀ trovata formano una base di V . Quindi:
b) una base di V è data da
B = (2, 1, 1) , (1, 0, 1) .
X
a) la dimensione di V è 2.
160
Esercizio 20.4.3. Siano A e B le matrici
0
1
4 1 0
B
C
A=@ 0 2 0 A ,
0 0 2
con t parametro reale.
0
1
2 1 0
B
C
B=@ 0 2 0 A ,
0 0 t
a) Calcolare gli autovalori di A e trovare una base per ciascun autospazio di A;
b) la matrice A è diagonalizzabile? In caso a↵ermativo, trovare una matrice diagonalizzante;
c) esistono valori di t 2 R per cui le matrici A e B sono simili?
Soluzione. a) Siccome A è triangolare superiore, gli autovalori sono 1 = 4 (con
molteplicità algebrica m1 = 1) e 2 = 2 (con molteplicità algebrica m2 = 2). Un
autovettore associato all’autovalore 1 si ottiene risolvendo il sistema:
0
10 1
0 1 0
x1
B
CB C
(A
2 0 A @ x2 A = 0 .
1 I3 )X = @ 0
0 0 2
x3
La soluzione è (x1 , x2 , x3 ) = (a, 0, 0) con a 2 R. Una base dell’autospazio V
ad esempio prendendo t = 1, ed è data dal vettore v1 = (1, 0, 0).
Gli autovettori associati all’autovalore 2 risolvono il sistema:
0
10 1
2 1 0
x1
B
CB C
(A
2 I3 )X = @ 0 0 0 A @ x2 A = 0 .
0 0 0
x3
1
si ottiene
La soluzione è (x1 , x2 , x3 ) = (t1 , 2t1 , t2 ) con t1 , t2 2 R. Una base B dell’autospazio V 2
è data ad esempio dai vettori che si ottengono prendendo (t1 , t2 ) = (1, 0) e (t1 , t2 ) =
(0, 1). Quindi
B = v2 = (1, 2, 0) , v3 = (0, 0, 1) .
b) A è diagonalizzabile: (v1 , v2 , v3 ) è una base di R3 formata da autovettori di A. Una
matrice diagonalizzante P è data da
0
1
1 1 0
B
C
P = t v1 t v2 t v3 = @ 0 2 0 A .
0 0 1
c) La matrice B è simile ad A se e solo se è diagonalizzabile ed ha gli stessi autovalori di
A. Essendo triangolare superiore, gli autovalori di B sono 2 (con molteplicità algebrica
161
m = 2) e t (con molteplicità algebrica 1). Condizione necessaria perché A e B siano
simili è quindi t = 1 = 4. La matrice B è diagonalizzabile se la molteplicità geometrica
dell’autovalore 2 è pari a quella algebrica, deve essere quindi
3
Poiché
⇢(B
⇢(B
2I3 ) = m = 2 .
0
1
0 1
0
B
C
2I3 ) = @ 0 0
0 A
0 0 t 2
per t = 4 il rango di B 2I3 è 2 e la matrice B non è diagonalizzabile. La risposta al
punto c) è quindi: per nessun valore di t 2 R le matrici A e B sono simili.
X
162
Lezione XXI
Geometria di R3: rette, piani e intersezioni
Sommario: rette e piani nello spazio tridimensionale; equazioni parametriche e cartesiane; intersezioni.
21.1 Rette e piani in R3 : equazioni parametriche
La geometria di R3 è in molti aspetti simile a quella di R2 . Un punto P dello spazio
tridimensionale è individuato da tre coordinate p = (p1 , p2 , p3 ) 2 R3 . Graficamente, il
punto è il vertice di un parallelepipedo rettangolo i cui lati hanno lunghezza p1 , p2 e p3
(come mostrato in figura 13a). Possiamo anche identificare p con il vettore geometrico
uscente dall’origine e di estremo P .
x3
x3
u+v
u
p3
P = (p1 , p2 , p3 )
v
p2
p1
x2
x2
x1
x1
(a) Coordinate in 3D.
(b) Regola del parallelogramma.
Figura 13
Il prodotto di u = (u1 , u2 , u3 ) per uno scalare dà un vettore parallelo a u, e due
vettori sono paralleli se e solo se sono proporzionali. Come nel caso di R2 , questa
osservazione permette di scrivere le equazioni parametriche di una retta r passante per
p e parallela ad u:
8
>
< x1 = p1 + tu1
r : x = p + tu
()
(21.1)
x2 = p2 + tu2
>
:
x3 = p3 + tu3
Come in R2 , anche in questo caso la somma di due vettori u e v è data dalla diagonale
del parallelogramma che ha u e v per lati (figura 13b). Notiamo che due vettori u
e v non allineati individuano un piano ⇧, e che u + v appartiene allo stesso piano
163
Equazioni
parametriche
di una retta
x3
u
u+v
v
x1
x2
Figura 14: Piano individuato da due vettori.
⇧ (figura 14). Più in generale, il piano ⇧ è l’insieme di tutte le combinazioni lineari
t1 u + t2 v, con t1 , t2 2 R. Le equazioni parametriche del piano ⇧ passante per l’origine
e individuato da u e v sono date da
⇧ : x = t1 u + t2 v
e più in generale sommando un vettore p indipendente dai parametri t1 , t2 si ottengono
le equazioni parametriche del piano passante per p e parallelo ad u e v:
8
>
< x1 = p1 + t 1 u1 + t 2 v 1
x = p + t1 u + t2 v
()
(21.2)
x2 = p2 + t 1 u2 + t 2 v 2
>
:
x3 = p3 + t 1 u3 + t 2 v 3
Le equazioni qui sopra descrivono un piano se e solo se i vettori u e v sono linearmente
indipendenti, ovvero
◆
✓
u 1 u 2 u3
⇢
=2.
v1 v2 v3
Viceversa, se il rango è 1 si ritrova l’equazione di una retta (uno dei due parametri è
ridondante).
Come nel caso di R2 , anche in R3 è possibile eliminare il parametro t dalle equazioni
di una retta. In maniera simile, si possono eliminare i parametri t1 , t2 dalle equazioni
di un piano.
Esempio 21.1.1. Si consideri la retta r ⇢ R3 di equazioni parametriche
8
>
< x1 = 1 t
x2 = 3 2t
>
:
x3 = 5 + 3t
164
Equazioni
parametriche
di un piano
x3
p
5
u
3
1
x1
x2
q
Figura 15: Esempio di retta in R3 .
La direzione è data da u = ( 1, 2, 3), e la retta passa per i punti p = (1, 3, 5) e
q = (3, 1, 1) (che si ottiene scegliendo t = 2). Il disegno è in figura 15.
Ricavando dalla prima equazione t = x1 1 e sostituendo questa espressione nella
seconda e nella terza possiamo eliminare il parametro t ed ottenere x2 = 3 + 2x1 + 2
e x3 = 5 3x1 3, ovvero:
⇢
2x1 + x2 + 1 = 0
3x1 + x3 2 = 0
Esempio 21.1.2. Si consideri il piano ⇧ ⇢ R3 di equazioni parametriche
8
>
< x1 = 1 + 2t1 + t2
x2 = 2 t 1 t 2
>
:
x3 = t 2
Risolvendo le ultime due equazioni rispetto a t1 e t2 si trova: t1 = 2 x2 x3 e t2 = x3 .
Sostituendo queste espressioni nella prima equazione si trova un’equazione cartesiana
del piano ⇧:
x1 + 2x2 + x3 5 = 0 .
21.2 Equazioni cartesiane di una retta
Dagli esempi precedenti si intuisce che un piano in R3 è definito da una equazione
lineare in tre incognite, ed una retta è definita da un sistema di due equazioni in tre
incognite. Iniziamo in questo paragrafo a studiare il caso della retta in R3 . Uno schema
riassuntivo è nella tabella 1.
Le equazioni parametriche (21.1) descrivono una retta se e solo se (u1 , u2 , u3 ) 6=
(0, 0, 0). Supponiamo ad esempio che sia u1 6= 0. Possiamo allora eliminare il parametro
165
t ricavando dalla prima equazione t = (x1
nelle due rimanenti si ottiene
⇢
x2 = p2 + u2 (x1 p1 )/u1
()
x3 = p3 + u3 (x1 p1 )/u1
p1 )/u1 . Sostituendo questa espressione
⇢
u2 x 1
u3 x 1
u1 x 2
u1 x 3
u2 p 1 + p 2 = 0
u3 p 1 + p 3 = 0
Chiamando
(a, b, c) = (u2 , u1 , 0) ,
(a0 , b0 , c0 ) = (u3 , 0, u1 ) ,
e chiamando d = u2 p1 + p2 e d0 = u3 p1 + p3 , le equazioni cartesiane della retta r si
possono scrivere nella forma:
⇢
a x1 + b x 2 + c x 3 + d = 0
(21.3)
a0 x 1 + b 0 x 2 + c 0 x 3 + d 0 = 0
Osserviamo che i vettori (a, b, c) = (u2 , u1 , 0) e (a0 , b0 , c0 ) = (u3 , 0, u1 ) sono linearmente indipendenti (ossia, non allineati), infatti la matrice
◆
✓
◆ ✓
a b c
u2 u 1 0
=
a0 b 0 c 0
u3 0
u1
ha rango 2 (è ridotta per righe ed ha due righe non nulle, essendo u1 6= 0). Più in
generale, le equazioni (21.3) descrivono una retta se e solo se
✓
◆
a b c
⇢
=2,
a0 b0 c0
ovvero i vettori (a, b, c) e (a0 , b0 , c0 ) sono non allineati.
Osserviamo che i vettori (u2 , u1 , 0) e (u3 , 0, u1 ) sono perpendicolari rispetto al
vettore u, che individua la direzione della retta (esercizio: verificare che il prodotto
scalare è zero). Più in generale, in maniera analoga al caso di R2 , al variare di d e
d0 le equazioni (21.3) descrivono un fascio di rette parallele di direzione ortogonale ai
vettori (a, b, c) e (a0 , b0 , c0 ).
Se si chiede quindi di scrivere le equazioni di una retta r ortogonale al piano di
equazione parametrica (21.2) (quindi, ortogonale a u e v), in forma cartesiana r avrà
equazione
⇢
u1 x 1 + u 2 x 2 + u 3 x 3 + d = 0
v1 x 1 + v2 x 2 + v3 x3 + d 0 = 0
con d, d0 2 R.
Osservazione 21.2.1. Abbiamo visto come si passa dalle equazione parametriche a
quelle cartesiane di una retta. Per passare dalle equazioni cartesiane (21.3) a quelle
parametriche è sufficiente risolvere il sistema (21.3). Siccome la matrice dei coefficienti
ha rango 2, la soluzione dipenderà da un solo parametro reale.
166
Equazioni
cartesiane
di una retta
21.3 Equazioni cartesiane di un piano
L’equazione cartesiana
⇧ : ax1 + bx2 + cx3 + d = 0
(21.4)
descrive un piano in R3 se e solo se (a, b, c) 6= (0, 0, 0). Al variare di d 2 R si ottiene
un fascio di piani paralleli. In particolare, per d = 0 si ottiene il piano contenente
l’origine, la cui equazione è (a, b, c) · (x1 , x2 , x3 ) = 0.
Osserviamo che il vettore (a, b, c) è ortogonale al piano di equazione (21.4). In particolare, i piani ortogonali alla retta di equazione parametrica (21.1) hanno equazione
cartesiana
u 1 x 1 + u 2 x 3 + u3 x 3 + d = 0
con d 2 R.
Data una equazione cartesiana di un piano ⇧, si possono trovare delle equazioni
parametriche risolvendo l’equazione di ⇧. Se ad esempio a 6= 0, la soluzione generale è
8
1
>
< x1 = a (bt1 + ct2 + d)
x2 = t 1
>
:
x3 = t 2
Date delle equazioni parametriche di un piano, della forma (21.2), la corrispondente
equazione cartesiana si può scrivere in maniera compatta nella forma
x
p
u
v
x1
=
p1 x3
u1
v1
p2 x3
u2
v2
p3
u3
v3
=0.
Tale determinante infatti si annulla se e solo se la prima riga è combinazione lineare
delle altre due, ovvero vale un’equazione del tipo (21.2).
Osservazione 21.3.1. Come nel caso di R2 , data una retta r di R3 , le sue equazioni
cartesiana/parametriche di r non sono uniche. E dato un piano ⇧ di R3 , le sue equazioni
cartesiana/parametriche di ⇧ non sono uniche. Ad esempio le equazioni cartesiane
2x1 + x2
x3 = 4
4x1 + 2x2
2x3 = 8
e
descrivono lo stesso piano (la seconda è un multiplo della prima, si tratta quindi di
equazioni equivalenti).
167
Equazione
cartesiana
di un piano
Tabella 1: Equazioni di rette e piani.
Equazioni
parametriche
Retta r
Piano ⇧
x = p + tu
x = p + t 1 u + t2 v
u 6= 0
Condizione
Equazioni
cartesiane
⇢
Osservazioni
✓
u
v
a x 1 + b x2 + c x3 + d = 0
a 0 x 1 + b0 x 2 + c 0 x 3 + d 0 = 0
⇢
Condizione
⇢
✓
a
a0
b
b0
c
c0
◆
◆
=⇢
✓
u1
v1
u2
v2
u3
v3
◆
=2
ax1 + bx2 + cx3 + d = 0
(a, b, c) 6= (0, 0, 0)
=2
u k r, (a, b, c) ? r, (a0 , b0 , c0 ) ? r.
(a, b, c) ? ⇧, u k ⇧, v k ⇧.
21.4 Intersezioni
Iniziamo con lo studio dell’intersezione di due piani. Siano ⇧ e ⇧0 due piani di equazioni
cartesiane:
⇧ : ax1 + bx2 + cx3 + d = 0 ,
⇧0 : a0 x1 + b0 x2 + c0 x3 + d0 = 0 .
L’intersezione ⇧ \ ⇧0 è l’insieme delle soluzioni del sistema di matrice completa
(A|B) =
✓
a b c
a0 b 0 c 0
d
d0
◆
.
Notiamo che 1  ⇢(A)  ⇢(A|B)  2 (la prima disuguaglianza segue dal fatto che
ciascuna riga di A ha almeno un elemento non nullo). Possono allora verificarsi tre
casi:
1. Se ⇢(A) = 1 e ⇢(A|B) = 2, il sistema è incompatibile e l’intersezione è vuota.
2. Se ⇢(A) = ⇢(B) = 1, possiamo eliminare una delle due equazioni (per riduzione
ad esempio) e quella che rimane è l’equazione di un piano: ⇧ \ ⇧0 = ⇧ = ⇧0 è
quindi un piano di R3 .
3. Se ⇢(A) = ⇢(B) = 2, si ottengono le equazioni cartesiane di una retta: ⇧ \ ⇧0 è
una retta di R3 .
Notiamo che ⇧ = ⇧0 se e solo se i vettori (a, b, c, d) e (a0 , b0 , c0 , d0 ) di R4 sono proporzionali.
168
Intersezione
di due piani
Consideriamo ora l’intersezione del piano ⇧ con una retta r di equazioni cartesiane
⇢
a1 x 1 + b 1 x 2 + c 1 x 3 + d 1 = 0
a2 x 1 + b 2 x 2 + c 2 x 3 + d 2 = 0
Intersezione
di una retta
e un piano
L’intersezione r \ ⇧ in questo caso è l’insieme delle soluzioni del sistema lineare di
matrice completa, che continuiamo a indicare con il simbolo (A|B), data da
0
1
a1 b 1 c 1
d1
B
C
(A|B) = @ a2 b2 c2
d2 A .
a b c
d
Notiamo che (a1 , b1 , c1 ) e (a2 , b2 , c2 ) devono essere linearmente indipendenti (altrimenti
le prime due equazioni non descrivono una retta). Quindi 2  ⇢(A)  ⇢(A|B)  3.
Possono allora verificarsi tre casi:
1. Se ⇢(A) = 2 e ⇢(A|B) = 3, il sistema è incompatibile e l’intersezione è vuota.
2. Se ⇢(A) = ⇢(B) = 2, una delle tre equazioni può essere eliminata (per riduzione
ad esempio). Siccome le prime due equazioni sono indipendenti, la terza (quella
di ⇧) deve essere combinazione lineare delle prime due. Quindi r \ ⇧ = r (ovvero
la retta r è contenuta nel piano ⇧).
3. Se ⇢(A) = ⇢(B) = 3, la soluzione è unica e l’intersezione è un punto.
Per finire, sia r0 una seconda retta, di equazioni cartesiane:
⇢
a01 x1 + b01 x2 + c01 x3 + d01 = 0
a02 x1 + b02 x2 + c02 x3 + d02 = 0
L’intersezione r \ r0 è l’insieme delle soluzioni di
completa è
0
a1 b 1 c 1
Ba b c
B 2 2 2
(A|B) = B 0 0 0
@ a1 b 1 c 1
a02 b02 c02
un sistema lineare la cui matrice
1
d1
d2 C
C
C .
0 A
d1
d02
Come nel caso precedente, il rango della matrice dei coefficienti è maggiore uguale di
due, ed è minore o uguale al numero di righe. Quindi:
2  ⇢(A)  3
e
⇢(A)  ⇢(A|B)  4 .
Possono allora verificarsi i seguenti casi:
1. Se ⇢(A) = 2 e ⇢(A|B) = 3, il sistema non ammette soluzioni e r \ r0 = ;.
2. Se ⇢(A) = 2 e ⇢(A|B) = 4, come nel primo caso l’intersezione è vuota.
169
Intersezione
di due rette
Tabella 2: Intersezioni.
⇢(A)
⇢(A|B)
r \ r0
r\⇧
⇧ \ ⇧0
1
1
—
—
retta
1
2
—
—
2
2
retta (r = r0 )
;
retta (r ⇢ ⇧)
piano (⇧ = ⇧0 )
2
3
;
;
—
3
3
punto
punto
—
3
4
;
—
—
3. Se ⇢(A) = 3 e ⇢(A|B) = 4, come nel primo caso l’intersezione è vuota.
4. Se ⇢(A) = ⇢(B) = 2, possiamo eliminare due equazioni (ad esempio, per riduzione) ed ottenere le equazioni cartesiane di una retta: questo vuol dire che r = r0
e r \ r0 = r = r0 è una retta.
5. Se ⇢(A) = ⇢(B) = 3, possiamo eliminare una equazione ed ottenere un sistema
di tre equazioni in tre incognite. Siccome la matrice dei coefficienti ha rango
massimo (uguale a 3), la soluzione è unica e l’intersezione è un punto.
Osservazione 21.4.1. Il secondo caso (⇢(A) = 2 e ⇢(A|B) = 4) non può mai verificarsi. Infatti se ⇢(A|B) = 4, il determinante della matrice (A|B) è diverso da zero. Il
determinante si può calcolare con lo sviluppo di Laplace rispetto all’ultima colonna:
|(A|B)| = d1
a2 b 2 c 2
a01 b01 c01
a02 b02 c02
d2
a1 b 1 c 1
a01 b01 c01
a02 b02 c02
+
d01
a1 b 1 c 1
a2 b 2 c 2
a02 b02 c02
d02
a1 b 1 c 1
a2 b 2 c 2
a01 b01 c01
.
Le matrici 3 ⇥ 3 che compaiono nella formula sono i minori di ordine 3 di A. Se
|(A|B)| =
6 0, almeno un minore di ordine 3 di A deve avere determinante non nullo, da
cui (per il teorema degli orlati) deve essere ⇢(A) 3.
Osservazione 21.4.2. Si può dire qualcosa di più sul primo e terzo caso. Se ⇢(A) = 2
e ⇢(A|B) = 3 le due rette sono parallele ma non coincidenti. Se ⇢(A) = 3 e ⇢(A|B) = 4
le due rette non sono parallele e non si intersecano: due rette di questo tipo si dicono
sghembe. Siccome due rette contenute nello stesso piano sono sempre parallele oppure
si intersecano in un punto, due rette sono sghembe se e solo se non sono complanari.
Uno schema riassuntivo è nella tabella 2.
170
Rette
sghembe
Lezione XXII
Geometria di R3: lunghezze, aree e volumi
Sommario: distanze, aree e volumi; equazione di una sfera; prodotto vettoriale e
prodotto misto; area di un parallelogramma e volume di un parallelepipedo; retta
passante per due punti distinti; piano individuato da tre punti non allineati.
22.1 Distanze, equazione di una sfera
Come in R2 , anche in R3 la distanza di un punto p = (p1 , p2 , p3 ) dall’origine è data
dalla norma del corrispondente vettore uscente dall’origine, data da
q
kpk = p21 + p22 + p23 .
(22.1)
Distanza
dall’origine
Per provarlo basta guardare la figura 16a. Per il teorema di Pitagora, la diagonale del
p
rettangolo nel piano x3 = 0 disegnato in figura ha lunghezza L = p21 + p22 ; il segmento
OP è la diagonale di un triangolo rettangolo (in rosso) i cui cateti hanno lunghezza L
e p3 rispettivamente: per il teorema di Pitagora, la lunghezza di OP è data da
q
q
L2 + p23 = p21 + p22 + p23 ,
ovvero dalla formula (22.1).
Dati due punti a = (a1 , a2 , a3 ) e b = (b1 , b2 , b3 ), possiamo costruire il parallelogramma in figura 16b che ha per lati i vettori a e b a, e per diagonale la loro somma,
ovvero a + (b a) = b (regola del parallelogramma). La lunghezza del segmento
di estremi a e b è uguale alla lunghezza del segmento di estremi O e b a, quindi
d(a, b) = d(O, b a) = kb ak. Si ottiene in questo modo la formula per la distanza
fra due punti arbitrari:
q
d(a, b) = (a1 b1 )2 + (a2 b2 )2 + (a3 b3 )2 .
(22.2)
Per la distanza d(p, ⇧) di un punto p = (p1 , p2 , p3 ) da un piano ⇧, di equazione
ax1 + bx2 + cx3 + d = 0 ,
esiste una semplice formula, simile a quella che in R2 dà la distanza di un punto da
una retta.
La distanza è data dalla lunghezza del segmento di estremi p e q, con q = (q1 , q2 , q3 )
proiezione ortogonale di p sul piano. Le coordinate di q si trovano intersecando ⇧ con
171
Distanza fra
due punti
x3
b
x3
a
ak
d( a
, b)
b
p3
kb
P = (p1 , p2 , p3 )
a
O
p2
O
L
p1
x2
x2
x1
x1
(a) Distanza di un punto dall’origine.
(b) Distanza fra due punti.
Figura 16
la retta r ortogonale a ⇧ e passante per p. Tale retta ha equazioni parametriche:
8
>
< x1 = p1 + at
x2 = p2 + bt
>
:
x3 = p3 + ct
Sostituendo queste espressioni nell’equazione di ⇧ si ottiene il valore del parametro t
corrispondente alle coordinate di q. Si ha
a(p1 + at) + b(p2 + b) + c(p3 + ct) + d = 0
()
t=
ap1 + bp2 + cp3 + d
.
a2 + b 2 + c 2
Sostituendo questo valore di t nelle equazioni di r si trovano le coordinate di q:
(q1 , q2 , q3 ) = (p1 , p2 , p3 )
ap1 + bp2 + cp3 + d
(a, b, c) .
a2 + b 2 + c 2
La distanza è data da
ap1 + bp2 + cp3 + d
(a, b, c)
a2 + b 2 + c 2
ap1 + bp2 + cp3 + d
|ap1 + bp2 + cp3 + d| p 2
=
k(a,
b,
c)k
=
a + b2 + c 2 .
a2 + b 2 + c 2
a2 + b 2 + c 2
d(p, ⇧) = kp
qk =
Semplificando numeratore e denominatore si trova la formula finale:
d(p, ⇧) =
|ap1 + bp2 + cp3 + d|
p
.
a2 + b 2 + c 2
Usando la formula (22.2) della distanza, è possibile scrivere l’equazione cartesiana
di una superficie sferica.
172
Distanza
di un punto
da un piano
x3
x2
x1
Figura 17: Sfera di centro c = (0, 0, 1) e raggio R = 1.
La superficie sferica di centro c = (c1 , c2 , c3 ) e raggio R > 0 è l’insieme dei punti
x 2 R3 a distanza R dal punto c, ovvero soddisfacenti l’equazione
d(x, c) = R .
Elevando al quadrato ambo i membri dell’equazione, ed usando la formula (22.2), si
trova l’equazione cartesiana di una superficie sferica
(x1
c1 )2 + (x2
c2 )2 + (x3
c3 ) 2 = R 2 .
Un esempio è in figura 17.
22.2 Angolo fra due vettori di R3
Abbiamo visto che, dato uno spazio vettoriale V con un prodotto scalare (definizione
8.3.1), questo può essere usato per definire l’angolo convesso ' (cioè, 0  '  ⇡) fra
due vettori non nulli u e v attraverso la formula:
cos ' =
u·v
.
kuk kvk
Un prodotto scalare canonico è dato da (8.6), ed il corrispondente angolo in R2 è
proprio l’angolo convesso individuato dai vettori geometrici u e v.
In R3 , due vettori geometrici uscenti dall’origine individuano un angolo convesso
✓, come mostrato in figura 18a. Verifichiamo che l’angolo ✓ e l’angolo ', definito in
astratto a partire dal prodotto scalare, coincidono.
173
Superficie
sferica
u
u
kuk
u+v
u
L
✓/2
v
✓
v
kvk
O
v
O
(a)
(b)
Figura 18: Parallelograma ed angolo individuati dai vettori u e v.
Lavoriamo nel piano contenente i vettori u e v. Per costruzione, i vettori u/kuk e
v/kvk sono contenuti in una circonferenza di centro O e raggio 1, come illustrato in
figura 18b. Evidentemente
sin 2✓ = L .
(22.3)
Usando la formula di duplicazione del seno si scrive il membro di sinistra come
r
1 cos ✓
sin 2✓ =
2
mentre per il membro di destra notiamo che
2L = d
u
, v
kuk kvk
=
u
kuk
v
kvk
=
=
q
r⇣
u
kuk
·
u
kuk
u
kuk
+
v
kvk
v
kvk
L’uguaglianza (22.3) diventa quindi:
r
r
1 cos ✓
1
=
2
2
2
⌘ ⇣
u
· kuk
·
2
v
kvk
v
kvk
u
2 kuk
·
⌘
v
kvk
u·v
.
kuk kvk
Confrontando membro di sinistra e membro di destra si ottiene
cos ✓ =
u·v
kuk kvk
esattamente come ci aspettavamo.
174
=
q
2
u·v
2 kuk
.
kvk
22.3 Prodotto vettoriale e prodotto misto
Dati due vettori u e v di R3 , il loro prodotto vettoriale, indicato con u ^ v, è il
vettore di componenti
u ^ v = u2 v 3
u3 v 2 , u 3 v 1
u1 v3 , u 1 v2
u2 v 1 .
Prodotto
vettoriale
(22.4)
La regola mnemonica è:
u^v =
u 1 u2 u3
,
+
v1 v2 v3
u1 u2 u 3
u1 u2 u3
, +
v1 v2 v3
v1 v2 v3
!
Indicando come al solito con (e1 , e2 , e3 ) è la base canonica di R3 , osserviamo che
formalmente il prodotto vettoriale si può calcolare attraverso il determinante
e1 e 2 e 3
u ^ v = u1 u 2 u3
v1 v2 v3
(22.5)
come si può verificare con lo sviluppo di Laplace rispetto alla prima riga. Si tratta
solo formalmente di un determinante, in quanto gli elementi della prima riga non sono
numeri ma i versori dei tre assi di R3 .
Lo scalare
(u ^ v) · w
è detto prodotto misto vettori u, v e w di R3 . Notiamo che
(u ^ v) · w = w1 ·
u 1 u 2 u3
v1 v2 v3
w2 ·
u1 u2 u3
u1 u2 u 3
+ w3 ·
v1 v2 v3
v1 v2 v3
Nell’espressione precedente riconosciamo lo sviluppo
del determinante:
u1 u2
(u ^ v) · w = v1 v2
w1 w2
di Laplace rispetto alla terza riga
u3
v3
w3
(22.6)
Lemma 22.3.1. Per i vettori della base canonica valgono le regole:
e 1 ^ e2 = e 3 ,
e2 ^ e3 = e1 ,
e 3 ^ e 1 = e2 .
Dimostrazione. Se u = e1 = (0, 0, 1) e v = e2 = (0, 1, 0), si ha
!
1 0 0
1 0 0
1 0 0
= (0, 0, 1) = e3 .
u^v =
,
, +
0 1 0
0 1 0
0 1 0
In modo analogo si provano le altre due uguaglianze.
175
⌅
Prodotto
misto
Proposizione 22.3.2.
1. Il prodotto vettoriale R3 ⇥ R3 ! R3 , (u, v) 7! u ^ v, è una operazione interna
di R3 non associativa e non commutativa. Gode invece della proprietà anticommutativa:
u^v = v^u
8 u, v 2 R3 .
2. u, v 2 R3 sono linearmente dipendenti
13
3. Vale la seguente identità di Lagrange:
() u ^ v = 0.
Identità di
Lagrange
ku ^ vk2 = kuk2 kvk2
ku · vk2 .
4. Il prodotto vettoriale u ^ v è ortogonale al piano individuato da u e v.
5. La norma del vettore u ^ v è l’area del parallelogramma di lati u e v.
Area di un
parallelogramma
6. Il prodotto misto gode della simmetria ciclica:
(u ^ v) · w = (w ^ u) · v = (v ^ w) · u
per ogni u, v, w 2 R3 .
7. u, v, w 2 R3 sono linearmente dipendenti
14
() (u ^ v) · w = 0.
8. |(u ^ v) · w| è il volume del parallelepipedo che ha per lati i vettori u, v e w.
Dimostrazione.
1. Scambiando due righe di una matrice il determinante cambia segno. Da questa
osserazione e da (22.5) segue la proprietà anticommutativa del prodotto vettoriale. Per il Lemma 22.3.1, e1 ^ e2 = e3 è diverso da e2 ^ e1 = e3 ; inoltre se
u = (1, 1, 0), il vettore
(e1 ^ e2 ) ^ u = e3 ^ u = ( 1, 1, 0)
è diverso da
e1 ^ (e2 ^ u) = e1 ^ (0, 0, 1) = (0, 1, 0) ;
quindi il prodotto vettoriale non è commutativo e non è associativo.
2. E’ sufficiente osservare che le componenti di u ^ v sono, a meno di un segno, il
determinante dei minori di ordine 2 della matrice:
✓
◆
u1 u2 u 3
A=
.
v1 v2 v3
13
14
Ricordiamo che due vettori di R3 non nulli sono linearmente dipendenti se e solo se sono paralleli.
Ricordiamo che tre vettori non nulli di R3 sono linearmente dipendenti se e solo se sono complanari.
176
Volume di un
parallelepipedo
I vettori u e v sono linearmente indipendenti se e solo se ⇢(A) = 2, ed una condizione necessaria e sufficiente (per teorema degli orlati) è che almeno un minore
di ordine 2 di A abbia determinante non nullo, ovvero almeno una componente
di u ^ v sia diversa da zero. Quindi u e v sono linearmente indipendenti se e solo
se u ^ v 6= 0, a↵ermazione equivalente a quella che si voleva dimostrare.
3. L’identità di Lagrange si prova con un semplice calcolo. Si ha:
kuk2 kvk2
(u · v)2 = (u21 + u22 + u23 )(v12 + v22 + v32 )
(u1 v1 + u2 v2 + u3 v3 )2
= u21 v12 + u21 v22 + u21 v32 + u22 v12 + u22 v22 + u22 v32 + u23 v12 + u23 v22 + u23 v32
u21 v12 + u22 v22 + u23 v32 + 2u1 u2 v1 v2 + 2u1 u3 v1 v3 + 2u2 u3 v2 v3
= (u2 v3
u3 v2 )2 + (u3 v1
u1 v3 )2 + (u1 v2
u2 v 1 ) 2
= ku ^ vk2 .
4. Usando (22.6) si calcola il prodotto scalare
u1 u 2 u 3
(u ^ v) · u = v1 v2 v3 = 0 .
u1 u 2 u3
Il determinante è zero perché la matrice ha due righe uguali. In maniera simile
si prova che (u ^ v) · v = 0, da cui segue che u ^ v è ortogonale a qualsiasi
combinazione lineare dei vettori u e v, ovvero la tesi.
5. L’area del parallelogramma in figura 18a è
Area = base ⇥ altezza = kuk kv sin ✓k .
D’altra parte dall’identità di Lagrange, ricordando che u · v = kuk kvk cos ✓,
segue che
p
p
kuk2 kvk2 (u · v)2 = kuk2 kvk2 (1
p
= kuk kvk 1 cos2 ✓ = kuk kvk | sin ✓ | ,
ku ^ vk =
cos2 ✓)
da cui la tesi.
6. Segue da (22.6) e dalle proprietà del determinante (che cambia segno se si scambiano due righe, e rimane invariato se si e↵ettuano un numero pari di scambi).
7. Segue da (22.6) e dalle proprietà del determinante: tre vettori sono linearmente
indipendenti se e solo se la matrice che ha i vettori come righe ha rango 3. Nel
caso di una matrice 3 ⇥ 3, per il teorema degli orlati è necessario e sufficiente che
tale matrice abbia determinante non nullo.
177
w
pru^v (w)
u
h
v
O
Figura 19: Parallelepipedo individuato dai vettori u, v e w.
8. La situazione è illustrata in figura 19. Per il punto 5, la base del parallelepipedo
ha area data da ku ^ vk. L’altezza è la norma del vettore
pru^v (w) =
u^v ,
ovvero
altezza =
Il volume è quindi
Volume = base ⇥ altezza =
=
(u ^ v) · w
,
ku ^ vk2
|(u ^ v) · w|
.
ku ^ vk
|(u ^ v) · w|
ku ^ vk = |(u ^ v) · w| ,
ku ^ vk
come volevasi dimostrare.
⌅
Da un punto di vista geometrico, dati due vettori u e v linearmente indipenenti, u ^ v
ha direzione ortogonale al piano ⇧ contenente i vettori u e v (figura 20) e la norma
è data dall’area del parallelogramma di lati u e v. Per determinare il verso di u ^ v
esistono varie regole mnemoniche (la regola della mano destra, la regola di Fleming
della mano sinistra, la regola della vite destrorsa, etc.), che non tratteremo in questo
corso.
Notiamo che, dato un piano ⇧ di equazioni parametriche:
⇧ : x = p + t1 u + t2 v ,
l’equazione parametrica della retta r ortogonale a ⇧ e passante per un punto p0 sarà
data da
r : x = p0 + t(u ^ v) .
178
x3
u^v
v
u
x2
x1
Figura 20: Prodotto u ^ v.
Per finire, osserviamo che come nel caso di matrici 2 ⇥ 2 (paragrafo 8.2), anche
il determinante di una matrice A 2 M3 (R) ha una interpretazione geometrica: il suo
modulo è il volume del parallelepipedo che ha le righe di A come lati.
Proposizione 22.3.3. Siano u, v 2 R3 due vettori linearmente indipendenti. Allora
la terna u, v, u ^ v è una base di R3 .
Dimostrazione. Chiamiamo w = u ^ v. Il prodotto misto di u, v, w, è dato da
(u ^ v) · w = (u ^ v) · (u ^ v) = ku ^ vk2
e quindi è diverso da zero per il punto 2 della proposizione 22.3.2. Dalla proposizione
22.3.2, punto 7, segue che i vettori u, v, w sono linearmente indipendenti, e quindi
formano una base di R3 .
⌅
22.4 Retta per due punti, piano individuato da tre punti
Non è difficile scrivere le equazioni parametriche della retta r passante per due punti
distinti a e b. Si ha
r : x = a + t(b a) .
Siccome u = b a 6= 0, la precedente equazione descrive una retta. Per t = 0 si
ottiene il punto a, e per t = 1 si ottiene il punto a + (b a) = b. Quindi a, b 2 r come
richiesto.
D’altra parte x a = t(b a) se e solo se i vettori x a e b a sono linearmente
dipendenti. Due vettori di R3 sono linearmente dipendenti se e solo se il loro prodotto
vettoriale è zero, quindi le equazioni cartesiane di r si possono scrivere nella forma
(b
a) ^ (x
179
a) = 0 .
Notiamo che si tratta di tre equazioni in tre incognite, ma solo due sono indipendenti
fra di loro. Infatti, il sistema in forma matriciale è dato da:
0
10
1
0
(b3 a3 )
b 2 a2
x 1 a1
B
CB
C
0
(b1 a1 ) A@ x2 a2 A = 0
@ b 3 a3
(b2 a2 )
b 1 a1
0
x 3 a3
e la matrice dei coefficienti ha rango 2 (con lo sviluppo di Laplace si prova che il
determinante è zero, ed è facile trovare un minore di ordine due con determinante non
nullo, da cui per il teorema degli orlati il rango è 2).
Consideriamo ora tre punti a, b, c 2 R3 . Le equazioni parametriche:
⇧ : x = a + t1 (b
a) + t2 (c
a)
descrivono un piano se e solo se i due vettori u = b a e v = c a sono linearmente
indipendenti (ovvero i tre punti a, b, c non sono allineati). Notiamo che se (t1 , t2 ) =
(0, 0), si ottiene x = a; se (t1 , t2 ) = (1, 0), si ottiene x = b; se (t1 , t2 ) = (0, 1), si ottiene
x = c. Quella trovata è quindi l’equazione del piano passante per tre punti a, b, c non
allineati.
Ricordiamo che due vettori sono linearmente indipendenti se e solo se il loro prodotto vettoriale è diverso da zero, si ottiene quindi la condizione
(b
a) ^ (c
a) 6= 0 .
Scrivendo le equazioni parametriche di ⇧ nella forma x a = t1 (b a) + t2 (c a),
si vede che x 2 ⇧ se e solo se i tre vettori x a, b a e c a sono linearmente
dipendenti. Ricordiamo che tre vettori di R3 sono linearmente dipendenti se e solo se
il loro prodotto misto è zero, quindi x appartiene al piano ⇧ se e solo se:
(x
a) · (b
La (22.7) è l’equazione cartesiana di
equivalente:
x1
a1
⇧:
b1
c1
a) ^ (c
a) = 0 .
(22.7)
⇧. L’equazione può essere scritta nella forma
x2
a2
b2
c2
x3
a3
b3
c3
1
1
1
1
=0.
(22.8)
Proviamo che (22.7) è equivalente a (22.8).
Per riduzione, sottraendo la seconda riga della matrice in (22.8) alle altre tre, si
ottiene
x1
a1
b1
c1
x2
a2
b2
c2
x3
a3
b3
c3
1
1
1
1
x1
=
a1 x 2
a1
b1
x1
a2 x 3
a2
a1 b 2
a1 x 2
180
a2
a2
a3 0
a3
1
b 3 a3 0
x 3 a3 0
,
Tabella 3: Retta passante per a, b 2 R3 ; piano contenente a, b, c 2 R3 .
Retta r
Equazioni
parametriche
Equazioni
cartesiane
Piano ⇧
x = a + t(b
a)
a) ^ (x
a) = 0
(b
a 6= b
Condizione
x = a + t1 (b
(x
a) · (b
(b
a) + t2 (c
a) ^ (c
a) ^ (c
a)
a) = 0
a) 6= 0
e con lo sviluppo di Laplace rispetto all’ultima colonna otteniamo
=
x1
b1
x1
a1 x 2
a1 b2
a1 x 2
a2 x 3
a2 b 3
a2 x 3
a3
a3
a3
=
x
b
c
cioé il determinante in (22.8) è proprio il prodotto misto in (22.7).
Uno schema riassuntivo è nella tabella 3.
181
a
a
a
,
Appendice A
Equazioni polinomiali
Sommario: equazioni polinomiali; il campo dei numeri complessi; polinomi; teorema
fondamentale dell’algebra (senza dimostrazione); le equazioni di secondo e terzo grado;
cenni sull’equazione di quarto grado.
A.1 Introduzione
Una equazione algebrica o polinomiale di grado n in una incognita x è una equazione
della forma
a0 x n + a1 x n 1 + . . . + an 1 x + an = 0
Equazioni
polinomiali
con ai elementi di un qualche campo, e qui assumeremo sempre ai 2 R salvo indicazioni
contrarie, e a0 6= 0. Dividendo per a0 , l’equazione si può sempre ridurre alla forma
xn +
a1 n 1
x
a0
+ ... +
an 1
x
a0
+
an
a0
=0
con il coefficienti di xn uguale ad 1.
Gli autovalori di una matrice n ⇥ n sono soluzioni di una equazione di grado n.
Una equazione polinomiale a coefficienti reali può non ammettere soluzioni reali:
ad esempio x2 + 1 = 0, ovvero x2 = 1, non ammette soluzioni reali, poiché il quadrato
di un numero reale è sempre positivo o nullo.
A.2 Richiami sui numeri complessi
Intuitivamente i numeri complessi si ottengono dai reali aggiungendo una radice del
numero reale 1. Tale radice è detta unità immaginaria ed è generalmente indicata
p
con il simbolo “i”, ma qui verrà indicata con il simbolo
1 per non confonderla con
un indice di riga.
Un numero complesso è un numero della forma
p
z =x+
1y
x, y 2 R .
La parte reale di z, indicata con <(z), e la parte immaginaria, indicata con =(z),
sono i numeri reali:
<(z) = x ; ,
=(z) = y .
p
Sia z 0 = x0 +
1 y 0 (con x0 , y 0 2 R). I numeri complessi si sommano e moltiplicano
secondo la regola
p
p
z + z 0 = (x + x0 ) +
1 (y + y 0 ) ,
z · z 0 = xx0 yy 0 +
1 (xy 0 + x0 y) .
182
Unità
immaginaria
L’insieme di tutti i numeri complessi è indicato con C. E’ un anello commutativo, con
somma e prodotto definiti qui sopra ed elementi neutri lo 0 e l’1 dei numeri reali.
L’applicazione lineare
p
R2 ! C ,
(x, y) 7! x +
1y ,
è biunivoca. Diremo che i numeri complessi formano uno spazio vettoriale reale di
dimensione 2, “isomorfo” ad R2 .
p
Il complesso coniugato di z = x +
1 y è il numero
p
z̄ = x
1y .
Complesso
coniugato
Il prodotto
z z̄ = x2 + y 2
è non negativo, e si annulla se e solo se z = 0. In particolare ogni z 6= 0 è invertibile,
con inverso:
z̄
z 1=
.
z z̄
I numeri complessi formano quindi un campo.
Ogni punto di R2 si può rappresentare nella forma
(x, y) = (r cos ✓, r sin ✓) ,
con r 0 e 0  ✓ < 2⇡. I numeri r, ✓ sono univocamente determinati se (x, y) 6= (0, 0),
e si dicono coordinate polari del punto (x, y). Usando le coordinate polari, ogni
numero complesso non nullo si può scrivere nella forma
p
z = r(cos ✓ +
1 sin ✓) .
p
Il numero r = z z̄ è detto modulo del numero complesso z. Un numero complesso
diverso da zero ha esattamente n radici di ordine n, date da
⇢ ⇣
p
p
✓ + 2k⇡ p
✓ + 2k⇡ ⌘
n
z = n r cos
+
1 sin
: k = 0, . . . , n 1 ,
n
n
p
dove n r indica la radice n-esima positiva di r. Le radici di z sono disposte su un
cerchio di raggio r ed equidistanti fra di loro. In figura 21, a titolo di esempio, sono
riportate le radici n-esime di 1 per n = 3, 4.
A.3 Polinomi
Sia n 0 un intero non negativo. Un polinomio di grado n nella variabile ⇠ a coefficienti
in un campo K è una espressione del tipo
p(⇠) = a0 ⇠ n + a1 ⇠ n
1
+ . . . + an 1 ⇠ + an
183
Coordinate
polari
Modulo
y
y
(0, 1)
p
1
, 23
2
⇡
2
2⇡
3
(1, 0)
0
( 1, 0)
x
(1, 0)
⇡
0
4⇡
3
1
,
2
x
3⇡
2
p
3
2
(0,
(a) n = 3
1)
(b) n = 4
Figura 21: Radici complesse n-esime di 1
con ai 2 K per ogni i, e a0 6= 0. A noi interesserà il caso K = R. In quasto paragrafo
utilizziamo il simbolo ⇠ per indicare la variabile, per enfatizzare che si tratta appunto
di un simbolo e non un numero.
Sia p0 (⇠) = a00 ⇠ n + a01 ⇠ n 1 + . . . + a0n 1 ⇠ + a0n un altro polinomio. Due polinomi p(⇠)
e p0 (⇠) sono uguali se e solo se
a0 = a00 ,
a1 = a01 ,
...
an = a0n .
Dato ⇠0 2 R, valutare il polinomio in ⇠0 vuol dire sostituire al simbolo ⇠ il numero reale
⇠0 : si ottiene in questo modo un numero reale p(⇠0 ). La funzione reale:
f :R!R,
x 7! p(x) ,
che associa ad ogni x 2 R il numero p(x) è detta funzione polinomiale. Polinomi e
funzioni polinomiali sono in corrispondenza biunivoca (due polinomi sono uguali se e
solo se sono uguali le funzioni polinomiali associate).
Un numero ⇠0 2 R è detto radice del polinomio p(⇠) se è uno zero della corrispondente funzione polinomiale: p(⇠0 ) = 0.
Un polinomio reale può non ammettere radici reali: ad esempio p(⇠) = ⇠ 2 + 1 non
ammette radici reali. Ammette però due radici complesse. Più in generale, vale il
seguente teorema.
Teorema A.3.1 (Teorema fondamentale dell’algebra). Un polinomio di grado n a
coefficienti in C ammette sempre n radici complesse, ovvero può essere scritto nella
forma
p(⇠) = a(⇠ z1 )(⇠ z2 ) . . . (⇠ zn ) ,
dove z1 , . . . , zn 2 C sono le sue radici e a 2 C.
184
Radici
Teorema
fondamentale
dell’algebra
Siccome R ⇢ C, come caso particolare si ottiene che un polinomio a coefficienti
reali ammette sempre radici complesse.
Corollario A.3.2. Un polinomio di grado n a coefficienti in R ammette sempre n
radici complesse, ovvero può essere scritto nella forma
p(⇠) = a(⇠
z1 )(⇠
z2 ) . . . (⇠
zn ) ,
dove z1 , . . . , zn 2 C sono le sue radici e a 2 R.
Le radici z1 , . . . , zn non sono necessariamente distinte. Ad esempio il polinomio
x2
1)2
2x + 1 = (x
ammette due radici, entrambe uguali ad 1.
In generale, indicando con µ1 , . . . , µr le radici distinte del polinomio p(⇠) (r  n),
si avrà
p(⇠) = a(⇠ µ1 )m1 (⇠ µ2 )m2 . . . (⇠ µr )mr ,
dove mi 2 Z+ è detto molteplicità della radice µi , e
Molteplicità
m1 + m2 + . . . + mr = n .
A.4 L’equazione di secondo grado
La formula risolutiva per le equazioni di secondo grado è ben nota dalle scuole superiori.
L’equazione
ax2 + bx + c = 0
(con a 6= 0) ha soluzioni
b±
p
b2
4ac
.
2a
La formula risolutiva vale sia quando i coefficienti sono reali, sia quando sono complessi.
Se a, b, c 2 R, si possono verificare tre casi, che dipendono dal segno della grandezza
b2 4ac, detta discriminante: se il discriminante è positivo si hanno due soluzioni
reali distinte; se è nullo si ha una sola soluzione ed è reale (di molteplicità 2); se è
negativo si hanno due soluzioni complesse coniugate.
x=
Osservazione A.4.1. Notiamo che per ogni
(x
1 )(x
2)
= x2
(
1,
2
1
+
2 C vale l’identità
2 )x
+
1 2
.
Risolvere l’equazione x2 + bx + c = 0 equivale quindi a trovare due numeri
che
⇢
b
1+ 2 =
1 2 = c
185
1,
2
tali
Formula
risolutiva
equazione
di 2 grado
Discriminante
A.5 L’equazione di terzo grado
Un’equazione di terzo grado si può sempre scrivere nella forma:
x3 + ax2 + bx + c = 0 .
(1.1)
Con la sostituzione
a
3
l’equazione (1.1) si trasforma in una in cui manca il termine di grado 2. Si ha infatti:
y =x+
y 3 + py + q = 0
(1.2)
con
1 2
2
1
a +b,
q = a3
ab + c .
3
27
3
Per motivi imperscrutabili, scriviamo y = u + v e sostituiamo in (1.2). Sostituendo si
trova l’equazione
(u3 + v 3 + q) + (u + v)(3uv + p) = 0 .
p=
Per trovare una soluzione di questa equazione in due variabili, è sufficiente risolvere il
sistema (non lineare) di due equazioni in due incognite
⇢ 3
u + v3 = q
(1.3)
3uv = p
Il miracolo è che tutte le soluzioni dell’equazione di terzo grado di partenza si possono
ottenere risolvendo questo sistema. Si ha infatti:
Proposizione A.5.1. y è soluzione dell’equazione (1.2) se e solo se y = u + v, con u
e v soluzioni di (1.3).
Dimostrazione. Dobbiamo provare il “solo se”. Sia y soluzione di (1.2). Possiamo
sempre trovare due numeri u, v tali che u + v = y e 3uv = p (per l’osservazione A.4.1,
u e v sono le soluzioni dell’equazione z 2 yz p3 = 0) e ricavare
0 = y 3 + py + q = (u3 + v 3 + q) + (u + v)(3uv + p) = u3 + v 3 + q
⌅
che è la seconda equazione cercata.
Prendendo il cubo della seconda equazione in (1.3), si vede che u3 , v 3 risolvono
l’equazione di secondo grado (osservazione A.4.1):
z 2 + qz
p3
=0.
27
Non tutte le soluzioni di questa equazione daranno però soluzioni di (1.3). Elevando
al cubo l’equazione 3uv = p abbiamo aggiunto delle soluzioni.
186
Usando la formula risolutiva per le equazioni di secondo grado si trova
(
)
r
r
2
3
2
3
q
q
p
q
q
p
{u3 , v 3 } =
+
+
,
+
2
4
27
2
4
27
e quindi
y =u+v =
s
3
q
+
2
r
q 2 p3
+
+
4
27
s
3
q
2
r
Formula
risolutiva
equazione
di 3 grado
q 2 p3
+
.
4
27
Questa è la celebre formula risolutiva per l’equazione (1.2).
Ripetiamo che non tutte le radici cubiche daranno soluzioni dell’equazione (1.2).
Due radici cubiche u, v di u3 , v 3 danno soluzioni dell’equazione di terzo grado se e solo
se 3uv = p.
Ci chiediamo ora, nel caso in cui i coefficienti p, q siano reali, quante sono le soluzioni
reali di (1.2). Questo dipende dal valore di
q 2 p3
+
,
4
27
detto discriminante dell’equazione. Si può verificare che se il discriminante è minore
o uguale a zero tutte le soluzioni sono reali, mentre se il discriminante è positivo
l’equazione ha una soluzione reale (che si ottiene prendendo le radici reali nella formula
risolutiva) e due complesse coniugate15 .
Esempio A.5.2. Un caso particolare di (1.1) si ha quando c = ab. In tal caso
x3 + ax2 + bx + c = (x + a)(x2 + b)
e le soluzioni sono x =
aex=±
p
b.
A.6 Cenni sull’equazione di quarto grado
Un’equazione di quarto grado si può sempre scrivere nella forma:
x4 + ax3 + bx2 + cx + d = 0 .
Con la sostituzione
y =x+
(1.4)
a
4
si trasforma (1.4) nell’equazione
y 4 + py 2 + qy + r = 0
15
Per maggiori dettagli, si può leggere l’articolo di G. Gorni, “L’equazione di terzo grado”, on-line
qui: http://sole.dimi.uniud.it/~gianluca.gorni/Dispense/TerzoGrado.pdf
187
Discriminante
dove abbiamo chiamato
3 2
1 3 1
p=
a +b,
q=
a
ab + c ,
8
8
2
Cerchiamo quindi una soluzione della forma
3 4
1
a + a2 b
256
16
r=
1
ac + d .
4
y =u+v+w .
Si può dimostrare che u, v, w sono le soluzioni dell’equazione di terzo grado
⇣p
p
r⌘
q2
z3 + z2 +
z
=0.
2
16 4
64
Quest’ultima equazione può essere risolta come illustrato nel paragrafo precedente.
La situazione cambia drasticamente nel caso di equazioni polinomiali di grado superiore al quarto. Per tali equazioni è noto che non esistono formule risolutive esprimibili
tramite radicali (Teorema di Abel-Ruffini). La storia delle equazioni algebriche, dai Babilonesi ai nostri giorni, si può trovare nel libro “Storia della matematica” di C.B. Boyer
(Mondadori, 2000).
A.7 Polinomi a coefficienti interi
Nel caso di un polinomio a coefficienti interi, sia esso
p(x) = an xn + an 1 xn
1
+ . . . + a1 x + a0
con an 6= 0, è possibile trovare le radici razionali con il metodo illustrato nel seguito.
Per il teorema delle radici razionali, se un numero razionale r = p/q è una radice
di p(x) allora
i) p divide a0 ;
ii) q divide an .
Per trovare le radici razionali basta allora verificare per sostituzione quali fra le combinazioni p/q, con p divisore di a0 e q divisore di an , sono radici.
Con questo metodo ovviamente non è possibile determinare radici che non siano
razionali.
Esempio A.7.1. Determiniamo le radici razionali di
p(x) =
I divisori di a0 =
x3 + 3x2 + 6x
8.
8 sono ±1, ±2, ±4, ±8; i divisori di a3 =
p/q 2 {±1, ±2, ±4, ±8} .
Per sostituzione si verifica che le radici sono 1, 4, 2, quindi
p(x) = (x
1)(x
188
4)(x + 2) .
1 sono ±1; quindi
Teorema
delle radici
razionali
Esempio A.7.2. Determiniamo le radici razionali di
p(x) = x3 + 12 x2
2x
1.
Come prima cosa moltiplichiamo p(x) per 2, in modo da ottenere un polinomio a
coefficienti interi che indichiamo con p̃(x):
p̃(x) = 2p(x) = 2x3 + x2
I divisori di a0 =
4x
2.
2 sono ±1, ±2; quindi
p 2 {±1, ±2} .
i divisori di a3 = 2 sono ±1, ±2; quindi
q 2 {±1, ±2} .
Dobbiamo provare tutte le combinazioni p/q e vedere quali sono radici del polinomio.
Facendo la verifica si trova
p̃(1) =
3,
p̃( 1) = 1 ,
p̃( 12 ) =
L’unica radice razionale è quindi
3
4
,
1
)
2
p̃(
=0,
p̃(2) = 10 ,
p̃( 2) =
6
1/2. Si può in e↵etti verificare che
p
p(x) = (x + 12 )(x
2)(x +
p
2) .
Regola di Ruffini
Dato uno scalare r e un polinomio p(x) di grado n:
p(x) = an xn + an 1 xn
1
Regola di
Ruffini
+ . . . + a1 x + a0
con an 6= 0, la regola di Ruffini permette di decomporre p(x) nella forma
p(x) = (x
r)q(x) + R
in cui
q(x) = bn 1 xn
1
+ . . . + b1 x + b0
è un polinomio di grado n 1 e R è una costante detta “resto”. Per calcolare i
coefficienti b0 , . . . , bn 1 si procede come illustrato nella tabella seguente:
an
an 1
bn 1 r
r
an
= bn
an
1
+ bn 1 r
= bn 2
1
an
an 2
bn 2 r
...
...
a2
b2 r
a1
b1 r
a0
b0 r
+ bn 2 r
= bn 3
...
...
a 2 + b2 r
= b1
a1 + b1 r
= b0
a0 + b0 r
=R
2
189
Se r è una radice di p(x), allora il resto è R = 0. La regola di Ruffini permette
allora di scrivere un polinomio come il prodotto di x r, con r radice, per un polinomio
di grado inferiore. Se p(x) ha coefficienti interi, una radice razionale (se esiste) si può
trovare come illustrato all’inizio del paragrafo, e poi si può applicare la regola di Ruffini
per provare a determinare le radici rimanenti.
Esempio A.7.3. Sia
p(x) = x3 + 12 x2
Sappiamo che r =
(x + 12 )q(x). Si ha
1.
1/2 è una radice. Determiniamo allora q(x) tale che p(x) =
1
1/2
1/2
2
0
1
1
1
= b2
0
= b1
2
= b0
0
=R
1/2
Quindi q(x) = x2
2x
2e
p(x) = (x + 12 )(x2
2) .
Le rimanenti radici (irrazionali) si trovano notando che x2
2 = (x +
p
2)(x
p
2).
Esempio A.7.4. Sia
p(x) = 2x3 + 2x2
x
3.
Si vede a occhio che r = 1 è una radice (p(1) = 2 + 2
Ruffini:
1
2
2
2
1
4
3
3
2
= b2
4
= b1
3
= b0
0
=R
1
3 = 0). Con la regola di
Quindi q(x) = 2x2 + 4x + 3 e
p(x) = (x
1)(2x2 + 4x + 3) .
Si può verificare che q(x) non ha radici reali (il discriminante è negativo). Quindi
l’unica radice reale di p(x) è r = 1.
190
Se r è una radice di p(x), allora il resto è R = 0. La regola di Ruffini permette
allora di scrivere un polinomio come il prodotto di x r, con r radice, per un polinomio
di grado inferiore. Se p(x) ha coefficienti interi, una radice razionale (se esiste) si può
trovare come illustrato all’inizio del paragrafo, e poi si può applicare la regola di Ruffini
per provare a determinare le radici rimanenti.
Esempio A.7.3. Sia
p(x) = x3 + 12 x2
Sappiamo che r =
(x + 12 )q(x). Si ha
1.
1/2 è una radice. Determiniamo allora q(x) tale che p(x) =
1
1/2
1/2
2
0
1
1
1
= b2
0
= b1
2
= b0
0
=R
1/2
Quindi q(x) = x2
2x
2e
p(x) = (x + 12 )(x2
2) .
Le rimanenti radici (irrazionali) si trovano notando che x2
2 = (x +
p
2)(x
p
2).
Esempio A.7.4. Sia
p(x) = 2x3 + 2x2
x
3.
Si vede a occhio che r = 1 è una radice (p(1) = 2 + 2
Ruffini:
1
2
2
2
1
4
3
3
2
= b2
4
= b1
3
= b0
0
=R
1
3 = 0). Con la regola di
Quindi q(x) = 2x2 + 4x + 3 e
p(x) = (x
1)(2x2 + 4x + 3) .
Si può verificare che q(x) non ha radici reali (il discriminante è negativo). Quindi
l’unica radice reale di p(x) è r = 1.
190
Download